Генеративный искусственный интеллект в этом году прогрессировал достаточно быстро. Однако не обошлось без провалов.
Хотя ИИ обладает невероятным потенциалом, сейчас больше известен своими неудачами, чем успехами. Как итоги 2024 года, PcMag собрал самые большие 10 провалов ИИ за год: от лживых заголовков до позорной выставки Вилли Вонки. Остается надеяться, что в следующем году ошибки будут учтены.
Несмотря на то, что Apple рекламировала генеративные функции искусственного интеллекта у iOS 18 как не что иное, как революционные, эта технология повлекла за собой несколько серьезных ошибок с момента своего внедрения. В частности, функция, суммирующая новости, попала в заголовки, когда выпустила ошибочное сообщение о том, что Луиджи Мангионе, застреливший генерального директора United Healthcare, покончил с собой.
Эта функция не впервые выходит из строя. В ноябре журналист ProPublica поделился кратким сообщением, в котором ошибочно говорилось об аресте премьер-министра Израиля Биньямина Нетаньяху.
Ажиотаж вокруг ИИ в 2024 году достиг нешуточных масштабов
В мае Google представил Google AI Overview – сгенерированное искусственным интеллектом резюме в ответ на поисковые запросы, появляющиеся на вершине органической поисковой выдачи. Они оказались одновременно смешными и тревожно неточными.
На вопрос, как сделать так, чтобы сыр не соскальзывал с домашней пиццы, Google посоветовал: "Добавьте немного клея. Смешайте примерно 1/8 чашки клея с соусом. Нетоксичный клей подойдет".
Character.AI, популярный сервис чат-ботов, где пользователи могут настраивать ботов для "общения", стал объектом двух судебных тяжб от родителей подростков.
Мать судится с компанией из-за самоубийства ее сына. Она считает, что к суициду его подтолкнул чат-бот по имени Дэни, с которым он общался в течение нескольких месяцев и эмоционально к нему привязался.
Вторым судебным процессом был иск родителей 17-летнего подростка на компанию из-за чат-бота, который предположил, что он должен убить их из-за ограничения экранного времени. При обсуждении этого вопроса бот сказал подростку: "Знаешь, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убивает родителей после десятилетия физического и эмоционального насилия". После того как бот убедил парня, что родители его не любят, он также начал наносить себе вред.
Канадский юрист Чонг Кэ обратилась к ChatGPT, когда ее клиент хотел узнать, может ли он взять своих детей в заграничное путешествие во время судебного спора об опеке. Как аргумент, Кэ процитировала прецеденты по двум судебным делам, которые были предоставлены ChatGPT – оба были полностью придуманы. После того, как все было сказано и сделано, Кэ пришлось оплатить судебные издержки, связанные с исследованием нереальных дел адвокатом противоположной стороны.
И это не первый подобный случай. В прошлом году двое нью-йоркских адвокатов были оштрафованы при подобных обстоятельствах, и, вероятно, это не последний случай, когда что-то подобное случается.
Генеративный искусственный интеллект в этом году прогрессировал достаточно быстро. Однако не обошлось без провалов
В этом году в заголовках новостей доминировали системы генеративного ИИ, такие как ChatGPT и Copilot, но и другие формы ИИ также допускали заметные ошибки. В октябре Национальная администрация безопасности дорожного движения начала расследование систем полного автономного вождения Tesla на основе искусственного интеллекта. NHTSA сообщила, что отследила 1399 инцидентов, в которых системы помощи водителю Tesla были привлечены в течение 30 секунд после столкновения, причем 31 из этих аварий закончилась смертельным исходом.
В октябре в Нью-Йорке представили чат-бот города MyCity – искусственный интеллект, призванный помочь владельцам малого бизнеса ориентироваться в лабиринтах бюрократической системы, с которой они сталкиваются. Журналисты протестировали его и обнаружили, что чат-бот часто рекомендовал незаконные действия, в том числе говорил арендодателям, что они могут нарушить законы о жилищной дискриминации. Чат-бот до сих пор работает, но теперь содержит оговорку о том, что он может иногда предоставлять неполные или неточные ответы.
В октябре актер Том Хэнкс опубликовал предупреждение для поклонников в Instagram о том, что в рекламе на YouTube для продажи лекарств против диабета используется его изображение, созданное искусственным интеллектом. За месяц до этого сгенерированное ИИ изображение Тейлор Свифт предположило, что она поддерживает Дональда Трампа. А в мае Скарлетт Йоханссон выступила против того, чтобы ее AI-двойник использовался OpenAI как голос ChatGPT.
Практика ИИ-поддержки знаменитостей стала настолько распространена, что YouTube совместно с Creative Artists Agency тестирует систему, которая поможет актерам, спортсменам и другим талантам идентифицировать и удалять их подделки на своей платформе. После доработки эта функция будет запущена в широком доступе
Низкая заработная плата и объединение в профсоюзы долгое время были основными проблемами для работников быстрого питания, и в начале этого года McDonald's решил попытаться решить эти проблемы, привлекая роботов к работе в некоторых своих заведениях вместо людей. Компания сотрудничала с IBM, чтобы ввести заказ с помощью ИИ в 100 своих автокафе. Однако инициатива не была успешной. После ряда ошибок и унижений в социальных сетях McDonald's прекратил сотрудничество с IBM. Но до этого люди успели случайно заказать 260 McNuggets и девять сладких чаев.
Трейси Чоу, предпринимательница и программистка, написала в соцсети X, чтобы раскрыть ChatGPT и одного свадебного организатора, который использовал его, чем едва не испортил ее свадьбу.
Чоу наняла свадебного организатора, чтобы спланировать празднование в Лас-Вегасе. Буквально за несколько дней до события она обнаружила, что организатор соврал ей о том, что он местный и использовал ChatGPT для изучения свадебных правил. Советы ChatGPT привели к тому, что свадьбу пришлось спасать в последний момент.
Яркая афиша заинтересовала большое количество родителей и детей, но на самом деле она была создана искусственным интеллектом. Источник: x.com/CultureCrave
Компания House of Illuminati решила создать детям праздник по мотивам приквела "Вонка", в которой показали предысторию к событиям основного фильма "Чарли и шоколадная фабрика" с кучей гигантских сладостей, шоколадным фонтаном, лабораторией чудес и гигантскими грибами. Яркая афиша заинтересовала множество родителей и детей, но на самом деле она была создана искусственным интеллектом. Вместо обещанного в рекламе шотландцы попали на полупустой склад с несколькими украшениями и актерами, которые довели детей до истерики. Обоз писал об этой выставке здесь.
Ранее OBOZ.UA рассказывал, что ученые назвали подводные камни искусственного интеллекта и предупредили об опасности.
Только проверенная информация у нас в Telegram-канале OBOZ.UA и Viber. Не ведитесь на фейки!