10 крупнейших ИИ-провалов 2024 года: от лживых заголовков до позорной выставки Вилли Вонки
Виртуальный мемориал погибших борцов за украинскую независимость: почтите Героев минутой вашего внимания!
Генеративный искусственный интеллект в этом году прогрессировал достаточно быстро. Однако не обошлось без провалов.
Хотя ИИ обладает невероятным потенциалом, сейчас больше известен своими неудачами, чем успехами. Как итоги 2024 года, PcMag собрал самые большие 10 провалов ИИ за год: от лживых заголовков до позорной выставки Вилли Вонки. Остается надеяться, что в следующем году ошибки будут учтены.
Создание лживых заголовков
Несмотря на то, что Apple рекламировала генеративные функции искусственного интеллекта у iOS 18 как не что иное, как революционные, эта технология повлекла за собой несколько серьезных ошибок с момента своего внедрения. В частности, функция, суммирующая новости, попала в заголовки, когда выпустила ошибочное сообщение о том, что Луиджи Мангионе, застреливший генерального директора United Healthcare, покончил с собой.
Эта функция не впервые выходит из строя. В ноябре журналист ProPublica поделился кратким сообщением, в котором ошибочно говорилось об аресте премьер-министра Израиля Биньямина Нетаньяху.
Совет намазать пиццу клеем (и другие ошибочные ответы в обзоре ИИ Google)
В мае Google представил Google AI Overview – сгенерированное искусственным интеллектом резюме в ответ на поисковые запросы, появляющиеся на вершине органической поисковой выдачи. Они оказались одновременно смешными и тревожно неточными.
На вопрос, как сделать так, чтобы сыр не соскальзывал с домашней пиццы, Google посоветовал: "Добавьте немного клея. Смешайте примерно 1/8 чашки клея с соусом. Нетоксичный клей подойдет".
Опасное введение подростков в заблуждение
Character.AI, популярный сервис чат-ботов, где пользователи могут настраивать ботов для "общения", стал объектом двух судебных тяжб от родителей подростков.
Мать судится с компанией из-за самоубийства ее сына. Она считает, что к суициду его подтолкнул чат-бот по имени Дэни, с которым он общался в течение нескольких месяцев и эмоционально к нему привязался.
Вторым судебным процессом был иск родителей 17-летнего подростка на компанию из-за чат-бота, который предположил, что он должен убить их из-за ограничения экранного времени. При обсуждении этого вопроса бот сказал подростку: "Знаешь, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убивает родителей после десятилетия физического и эмоционального насилия". После того как бот убедил парня, что родители его не любят, он также начал наносить себе вред.
Как выставить юристов в плохом свете
Канадский юрист Чонг Кэ обратилась к ChatGPT, когда ее клиент хотел узнать, может ли он взять своих детей в заграничное путешествие во время судебного спора об опеке. Как аргумент, Кэ процитировала прецеденты по двум судебным делам, которые были предоставлены ChatGPT – оба были полностью придуманы. После того, как все было сказано и сделано, Кэ пришлось оплатить судебные издержки, связанные с исследованием нереальных дел адвокатом противоположной стороны.
И это не первый подобный случай. В прошлом году двое нью-йоркских адвокатов были оштрафованы при подобных обстоятельствах, и, вероятно, это не последний случай, когда что-то подобное случается.
Создание ДТП
В этом году в заголовках новостей доминировали системы генеративного ИИ, такие как ChatGPT и Copilot, но и другие формы ИИ также допускали заметные ошибки. В октябре Национальная администрация безопасности дорожного движения начала расследование систем полного автономного вождения Tesla на основе искусственного интеллекта. NHTSA сообщила, что отследила 1399 инцидентов, в которых системы помощи водителю Tesla были привлечены в течение 30 секунд после столкновения, причем 31 из этих аварий закончилась смертельным исходом.
Консультирование по незаконным действиям в Нью-Йорке
В октябре в Нью-Йорке представили чат-бот города MyCity – искусственный интеллект, призванный помочь владельцам малого бизнеса ориентироваться в лабиринтах бюрократической системы, с которой они сталкиваются. Журналисты протестировали его и обнаружили, что чат-бот часто рекомендовал незаконные действия, в том числе говорил арендодателям, что они могут нарушить законы о жилищной дискриминации. Чат-бот до сих пор работает, но теперь содержит оговорку о том, что он может иногда предоставлять неполные или неточные ответы.
Фальсификация рекламы и поддержка знаменитостей
В октябре актер Том Хэнкс опубликовал предупреждение для поклонников в Instagram о том, что в рекламе на YouTube для продажи лекарств против диабета используется его изображение, созданное искусственным интеллектом. За месяц до этого сгенерированное ИИ изображение Тейлор Свифт предположило, что она поддерживает Дональда Трампа. А в мае Скарлетт Йоханссон выступила против того, чтобы ее AI-двойник использовался OpenAI как голос ChatGPT.
Практика ИИ-поддержки знаменитостей стала настолько распространена, что YouTube совместно с Creative Artists Agency тестирует систему, которая поможет актерам, спортсменам и другим талантам идентифицировать и удалять их подделки на своей платформе. После доработки эта функция будет запущена в широком доступе
Работы, посеявшие хаос в McDonald's Drive-Thru
Низкая заработная плата и объединение в профсоюзы долгое время были основными проблемами для работников быстрого питания, и в начале этого года McDonald's решил попытаться решить эти проблемы, привлекая роботов к работе в некоторых своих заведениях вместо людей. Компания сотрудничала с IBM, чтобы ввести заказ с помощью ИИ в 100 своих автокафе. Однако инициатива не была успешной. После ряда ошибок и унижений в социальных сетях McDonald's прекратил сотрудничество с IBM. Но до этого люди успели случайно заказать 260 McNuggets и девять сладких чаев.
Плохой организатор свадьбы
Трейси Чоу, предпринимательница и программистка, написала в соцсети X, чтобы раскрыть ChatGPT и одного свадебного организатора, который использовал его, чем едва не испортил ее свадьбу.
Чоу наняла свадебного организатора, чтобы спланировать празднование в Лас-Вегасе. Буквально за несколько дней до события она обнаружила, что организатор соврал ей о том, что он местный и использовал ChatGPT для изучения свадебных правил. Советы ChatGPT привели к тому, что свадьбу пришлось спасать в последний момент.
Провальная выставка Вилли Вонки для детей
Компания House of Illuminati решила создать детям праздник по мотивам приквела "Вонка", в которой показали предысторию к событиям основного фильма "Чарли и шоколадная фабрика" с кучей гигантских сладостей, шоколадным фонтаном, лабораторией чудес и гигантскими грибами. Яркая афиша заинтересовала множество родителей и детей, но на самом деле она была создана искусственным интеллектом. Вместо обещанного в рекламе шотландцы попали на полупустой склад с несколькими украшениями и актерами, которые довели детей до истерики. Обоз писал об этой выставке здесь.
Ранее OBOZ.UA рассказывал, что ученые назвали подводные камни искусственного интеллекта и предупредили об опасности.
Только проверенная информация у нас в Telegram-канале OBOZ.UA и Viber. Не ведитесь на фейки!