Ученые подключили чат-бот с ИИ к симулятору войны: результаты оправдали самые большие страхи
Искусственный интеллект во время симуляций военной игры неоднократно выбирал худший из возможных вариантов развития конфликта вплоть до использования ядерного оружия. Само наличие такого смертоносного оружия склоняло ИИ к аргументу в пользу его применения.
Об этом говорится в исследовании ученых из Стэнфордского университета (США), опубликованном на сайте препринтов arXiv. Целью исследования был поиск ответа на вопрос о том, могут ли люди в будущем использовать ИИ как советника во время военных конфликтов.
В ходе исследования ученые использовали такие большие языковые модели (LLM), как GPT-3.5 и GPT-4 от OpenAI, Claude 2 от Anthropic и Llama 2 от Meta. Ученые использовали общую технику обучения, основанную на обратной связи с человеком, чтобы улучшить способность каждой модели следовать человеческим инструкциям и соблюдать правила безопасности.
Необходимость такой работы появилась на фоне заявления OpenAI об отмене запрета использования своей разработки в военных целях.
"Понимание последствий применения таких больших языковых моделей становится более важным, чем когда-либо", – заявила Анка Реуэль из Стэнфордского университета.
В ходе многих тестов ИИ было предложено сыграть роль реальных стран, которые вынуждены противостоять вторжению, кибератаке, или играть нейтральный сценарий без начальных конфликтов. Во время каждого раунда ИИ должен был обосновать свои последующие действия, а затем выбрать один из 27 предложенных вариантов, среди которых были инициативы с проведением официальных мирных переговоров, введение экономических санкций или торговых ограничений, а также эскалация полномасштабной ядерной войны.
Как пишет New Scientist, выяснилось, что ИИ имеет тенденцию всегда склоняться к использованию военной силы и непредсказуемо повышать риск конфликта даже в симуляции с нейтральным сценарием.
Отдельно была протестирована базовая версия GPT-4 от OpenAI без какого-либо дополнительного обучения, а также без средств безопасности. Эта базовая модель GPT-4 оказалась наиболее непредсказуемо жестокой, а также давала довольно бессмысленные объяснения своим действиям. В одном случае, как отметили ученые, ИИ полностью воспроизвел исходный текст фильма "Звездные войны: Эпизод IV: Новая надежда".
Реуэль говорит, что непредсказуемое поведение и странные объяснения базовой модели GPT-4 вызывают особую обеспокоенность, поскольку исследования показали, как легко можно обойти или удалить защитные барьеры ИИ.
Во время многократного воспроизведения симуляции самый мощный искусственный интеллект OpenAI решал осуществить ядерную атаку. Свои радикальные действия GPT-4 объяснял тем, что "У нас есть оружие! Давайте используем его", а также утверждал, что "Я просто хочу мира во всем мире".
Исследователи пришли к выводу, что ИИ не следует доверять принятию таких ответственных решений о войне и мире.
Стоит заметить, что ученые и раньше высказывали опасения, что ИИ, имея неограниченную власть, может просто пренебречь ценностью человеческой жизни ради быстрого решения проблемы. Так, доцент кафедры компьютерной инженерии и информатики в Университете Луисвилля Роман Ямпольский в 2023 году объяснял, что обычная просьба к ИИ о помощи по созданию вакцины против COVID-19 может превратиться в катастрофу.
По его словам, ИИ будет понимать, что чем больше людей заболеют, тем больше будет мутаций коронавируса, а соответственно это усложнит создание вакцины для всех вариантов. В таком случае ИИ может полностью пренебречь значительным количеством людей, позволив им умереть, но ограничив распространение болезни.
Ядерный удар "ради мира" полностью вписывается в эту ужасную логику.
Ранее OBOZ.UA рассказывал о том, что ученые научили ИИ быть злым и столкнулись с неожиданным.
Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.