Это будет "адский пейзаж "Матрицы": ученый сказал, когда ИИ может уничтожить человечество
Перспективы развития искусственного интеллекта, скорее всего, представляют экзистенциальную угрозу для человечества. Именно ИИ может стать причиной глобального апокалипсиса, который произойдет максимум в ближайшее десятилетие.
Об этом в интервью The Guardian заявил исследователь искусственного интеллекта Элиезер Юдковский. Он известен своим пессимистическим отношением к этой технологии, а в прошлом году призвал нанести ядерный удар по центрам обработки данных, чтобы остановить развитие ИИ.
"Если вы прижмете меня к стене, и заставите оценивать вероятности, то у меня есть ощущение, что наша нынешняя временная шкала больше похожа на пять лет, чем на 50 лет. Может, два года, может, 10", – сказал исследователь.
По его словам, после этого мы можем увидеть искусственно созданный конец всего сущего. Исследователь считает, что будет "апокалипсис в стиле Терминатора" или "адский пейзаж Матрицы".
Хуже всего, по словам Юдковского, то, что "люди этого не осознают".
"У нас есть очень небольшой шанс на то, что человечество выживет", – подчеркнул он.
В свое время Юдковский был одним из основателей разработки искусственного интеллекта, но в конце концов пришел к убеждению, что эта технология вскоре эволюционирует из своего нынешнего состояния. Он считает, что в конце концов ИИ достигнет развития продвинутого супер-интеллекта на уровне Бога, слишком быстрого и амбициозного, чтобы люди могли его сдерживать или ограничивать.
Описывая, как все может выглядеть, он советует подумать не об ИИ, находящемся в одной компьютерной коробке, а о целой сети – "инопланетной цивилизации, которая мыслит в тысячу раз быстрее нас".
В прошлом году Юдковский призвал к радикальной остановке развития технологии ИИ, вплоть до бомбардировки центров обработки данных, в том числе и ядерными ракетами. Теперь он уже не столь категоричен, но все равно не отказывается от мнения относительно ракетного удара.
"Сейчас я бы подбирал более осторожные формулировки", – сказал исследователь.
OBOZ.UA уже рассказывал, что ИИ может действительно представлять угрозу для человечества, когда достигнет сигнулярности – предела, когда интеллект машины сравнится с человеческим или превзойдет его.
Такое развитие ситуации может стать критическим, поскольку человечество больше не будет способно прогнозировать следующие действия ИИ и не будет понимать его логику.
В то же время ИИ, наученный не наносить вред человечеству, может развить собственное внутреннее "я" и прийти к логическому выводу, что он является столь же человеком, как и те, кто его создал. Тогда же подлинное человечество может исчезнуть со страниц истории, как в свое время исчезли неандертальцы, вытесненные homo sapiens.
Ранее OBOZ.UA также рассказывал об эксперименте ученых, подключивших чат-бот с ИИ к симулятору войны.
Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.