УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

У людства є 5 років: колишній гендиректор Google сказав, коли штучний інтелект стане загрозою

2 хвилини
178,0 т.
У людства є 5 років: колишній гендиректор Google сказав, коли штучний інтелект стане загрозою

Людство вжило недостатньо заходів для того, щоб бути здатним зупинити штучний інтелект від катастрофічної шкоди. Ситуація може повторити бомбардування японських міст Хіросіма та Нагасакі у 1945 році.

Відео дня

Про це, як пише The Byte, заявив колишній генеральний директор Google Ерік Шмідт, який зараз єголовою Комісії національної безпеки США з питань штучного інтелекту. Він порівняв ШІ з атомними бомбами, які Сполучені Штати скинули на Японію.

"Після Нагасакі та Хіросіми знадобилося 18 років, щоб укласти договір про заборону випробувань (атомної зброї) і тому подібне", – сказав він, підкресливши, що сьогодні у людства просто "немає стільки часу".

Відомо, що компанії, які працюють із штучним інтелектом, від OpenAI до Google, встановили певні заходи безпеки, які стримувати технологію, але Шмідт переконаний, що нинішніх заходів "недостатньо".

Експерт вважає, що всього за п'ять-десять років ШІ може стати достатньо потужним, щоб завдати шкоди людству.

Найгіршим сценарієм, за його словами, буде "момент, коли комп'ютер може почати приймати власні рішення". Шмідт попереджає, що якщо паралельно із цим ШІ зможе отримати доступ до систем озброєння або досягти інших жахливих можливостей, машини можуть почати брехати людям про це.

Він вважає, що для запобігання цьому жахливому результату необхідно створити неурядову організацію на кшталт Міжурядової групи експертів ООН зі зміни клімату, яка б "надавала точну інформацію політикам" і допомагала приймати рішення про те, що робити, якщо ШІ стане надто потужним.

Варто зауважити, що поки одні вчені бачать у ШІ екзистенційну загрозу для людства, інші – є більш скептичними щодо цього. Так, Ян ЛеКун, який очолює відділ ШІ у компанії Meta, не вважає технологію достатньо розумною для того, аби вона могла самостійно загрожувати людству. Тобто, ШІ може бути загрозою, але тільки якщо ним керуватиме хтось із зловісними замислами щодо людства.

"Дебати про екзистенційний ризик дуже передчасні, поки ми не розробимо систему, яка за здатністю до навчання не поступатиметься навіть кішці, чого у нас поки що немає", – заявив ЛеКун в інтерв'ю FT.

Раніше OBOZ.UA розповідав про те, що спеціально розроблений тест показав, що ШІ GPT-4 є в рази тупішим за людину.

Підписуйтесь на канали OBOZ.UA у Telegram і Viber, щоб бути в курсі останніх подій.