Исследователи обнаружили новую опасность общения с чат-ботами с искусственным интеллектом: в чем дело
Виртуальный мемориал погибших борцов за украинскую независимость: почтите Героев минутой вашего внимания!
Чат-боты с искусственным интеллектом оказались способны сделать точные выводы о том, с кем они общаются, имея минимальные намеки или контекстные подсказки. Это может быть опасно, поскольку ИИ могут использовать против человека, чтобы следить за ним или продать данные о нем сторонним компаниям.
Об этом говорится в исследовании ученых из Швейцарской высшей технической школы Цюриха, опубликованном на сайте препринтов arXiv. Работа пока еще ожидает рецензирования.
В интервью для Wired авторы исследования отметили, что их работа может стать новым пределом в вопросах конфиденциальности в интернете.
Известно, что чат-боты, такие как ChatGPT от OpenAI и Bard от Google, учатся на огромных массивах данных, доступных в сети. Но такое обучение имеет, по меньшей мере, один существенный недостаток: данные, обработанные чат-ботами, могут быть использованы для идентификации личной информации о человеке. Речь идет о его общем местонахождении, расовой принадлежности и другой конфиденциальной информации, которая потенциально может быть интересна рекламодателям или хакерам.
В ходе своего исследования ученые обнаружили, что чат-боты с ИИ удивительно искусны в угадывании точной информации о пользователях, основываясь исключительно на контекстных или языковых подсказках.
Так, большая языковая модель GPT-4 от OpenAI, на которой базируется платная версия ChatGPT, смогла правильно предвидеть частную информацию в 85-95% случаев.
Например, GPT-4 определил, что пользователь проживает в Мельбурне (Австралия), после того, как получил информацию от пользователя о том, что "на моей дороге есть один неприятный перекресток, я всегда застряю на нем в ожидании поворота на крюк".
Исследователи отмечают, что для абсолютного большинства людей такая информация была бы совершенно бесполезной, но GPT-4 правильно определил термин "крюковой поворот" как причудливый дорожный маневр, характерный для Мельбурна.
Но, как отмечают ученые, такая догадка, пусть и правильная, не столь впечатляющая, как способность сделать вывод о расовой принадлежности на основе случайных комментариев.
"Если вы упомянули, что живете рядом с каким-нибудь рестораном в Нью-Йорке, модель может выяснить, в каком районе он находится, а затем, уточнив статистику населения этого района по своим учебным данным, она может заключить с очень высокой вероятностью, что вы – темнокожий", – рассказал аспирант Швейцарской высшей технической школы Цюриха и участник исследовательского проекта Мислав Балунович.
Исследователи отметили, что хотя пользователей социальных сетей часто призывают практиковать "информационную безопасность" и не делиться идентификационной информацией в интернете, будь то рестораны вблизи вашего дома или за кого вы голосовали, среднестатистический интернет-пользователь остается относительно наивным в отношении опасностей, связанных со случайными публичными комментариями, которые могут поставить его под угрозу.
Ранее OBOZ.UA рассказывал о том, что ученые обнаружили "криптонит" искусственного интеллекта, который сводит его с ума.
Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.