У человечества есть 5 лет: бывший гендиректор Google сказал, когда искусственный интеллект станет угрозой
Человечество приняло недостаточно мер для того, чтобы быть способным остановить искусственный интеллект от катастрофического ущерба. Ситуация может повторить бомбардировки японских городов Хиросима и Нагасаки в 1945 году.
Об этом, как пишет The Byte, заявил бывший генеральный директор Google Эрик Шмидт, который сейчас является главой Комиссии национальной безопасности США по искусственному интеллекту. Он сравнил ИИ с атомными бомбами, которые США сбросили на Японию.
"После Нагасаки и Хиросимы понадобилось 18 лет, чтобы заключить договор о запрете испытаний (атомного оружия) и тому подобное", – сказал он, подчеркнув, что сегодня у человечества просто "нет столько времени".
Известно, что компании, работающие с искусственным интеллектом, от OpenAI до Google, установили определенные меры безопасности, сдерживающие технологию, но Шмидт убежден, что нынешних мер "недостаточно".
Эксперт считает, что всего за пять-десять лет ИИ может стать достаточно мощным, чтобы нанести вред человечеству.
Худшим сценарием, по его словам, будет "момент, когда компьютер может начать принимать собственные решения". Шмидт предупреждает, что если параллельно с этим ИИ сможет получить доступ к системам вооружения или добиться других ужасающих возможностей, машины могут начать врать людям об этом.
Он считает, что для предотвращения этого ужасного результата необходимо создать неправительственную организацию типа Межправительственной группы экспертов ООН по изменению климата, которая "давала бы точную информацию политикам" и помогала принимать решения о том, что делать, если ИИ станет слишком мощным.
Стоит заметить, что пока одни ученые видят в ИИ экзистенциальную угрозу для человечества, другие – более скептичны по этому поводу. Так, Ян ЛеКун, возглавляющий отдел ИИ в компании Meta, не считает технологию достаточно разумной для того, чтобы она могла самостоятельно угрожать человечеству. То есть, ИИ может быть угрозой, но только если им будет руководить кто-то со зловещими замыслами по отношению к человечеству.
"Дебаты об экзистенциальном риске очень преждевременны, пока мы не разработаем систему, которая по обучающей способности не будет уступать даже кошке, чего у нас пока нет", – заявил ЛеКун в интервью FT.
Ранее OBOZ.UA рассказывал о том, что специально разработанный тест показал, что ИИ GPT-4 в разы тупее человека.
Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.