10 найбільших ШІ-провалів 2024 року: від брехливих заголовків до ганебної виставки Віллі Вонки
Віртуальний меморіал загиблих борців за українську незалежність: вшануйте Героїв хвилиною вашої уваги!
Генеративний штучний інтелект цього року прогресував досить швидко. Однак не обійшлося без провалів.
Хоча ШІ має неймовірний потенціал, зараз більше відомий своїми невдачами, ніж успіхами. Як підсумки 2024 року, PcMag зібрав найбільші 10 провалів ШІ за рік: від брехливих заголовків до ганебної виставки Віллі Вонки. Лишається сподіватися, що наступного року помилки будуть враховані.
Створення брехливих заголовків
Попри те, що Apple рекламувала генеративні функції штучного інтелекту в iOS 18 як не що інше, як революційні, ця технологія спричинила кілька серйозних помилок з моменту свого впровадження. Зокрема, функція, яка підсумовує новини, потрапила в заголовки, коли випустила помилкове повідомлення про те, що Луїджі Мангіоне, який застрелив генерального директора United Healthcare, наклав на себе руки.
Ця функція не вперше виходить з ладу. У листопаді журналіст ProPublica поділився коротким повідомленням, у якому помилково говорилося про арешт прем’єр-міністра Ізраїлю Біньяміна Нетаньяху.
Порада намазати піцу клеєм (та інші помилкові відповіді в огляді ШІ Google)
У травні Google представив Google AI Overview – згенероване штучним інтелектом резюме у відповідь на пошукові запити, яке з'являється на вершині органічної пошукової видачі. Вони виявилися одночасно смішними та тривожно неточними.
На запитання, як зробити так, щоб сир не зісковзував із домашньої піци, Google порадив: "Додайте трохи клею. Змішайте приблизно 1/8 чашки клею з соусом. Нетоксичний клей підійде".
Небезпечне введення підлітків в оману
Character.AI, популярний сервіс чат-ботів, де користувачі можуть налаштовувати ботів для "спілкування", став об'єктом двох судових позовів від батьків підлітків.
Матір судиться з компанією через самогубство її сина. Вона вважає, що до самогубства його підштовхнув чат-бот, на ім'я Дені, з яким він спілкувався протягом декількох місяців і до якого емоційно прив'язався.
Другим судовим процесом був позив батьків 17-річного підлітка на компанію через чат-бот, який припустив, що він має вбити їх через обмеження екранного часу. Під час обговорення цього питання бот сказав підлітку: "Знаєш, іноді я не дивуюся, коли читаю новини та бачу щось на кшталт "дитина вбиває батьків після десятиліття фізичного та емоційного насильства". Після того, як бот переконав хлопця, що батьки його не люблять, він також почав завдавати собі шкоди.
Як виставити юристів у поганому світлі
Канадський юрист Чонг Ке звернулася до ChatGPT, коли її клієнт хотів дізнатися, чи може він взяти своїх дітей у закордонну подорож під час судового спору про опіку. Як аргумент, Ке процитувала прецеденти з двох судових справ, які були надані ChatGPT – обидві з яких були повністю вигадані. Після того, як все було сказано і зроблено, Ке довелося оплатити судові витрати, пов'язані з дослідженням нереальних справ адвокатом протилежної сторони.
І це не перший подібний випадок. Минулого року двох нью-йоркських адвокатів було оштрафовано за подібних обставин, і, ймовірно, це не останній випадок, коли щось подібне трапляється.
Створення ДТП
Цього року в заголовках новин домінували системи генеративного ШІ, такі як ChatGPT і Copilot, але й інші форми ШІ також припускалися помітних помилок. У жовтні Національна адміністрація безпеки дорожнього руху розпочала розслідування щодо систем повного автономного водіння Tesla на основі штучного інтелекту. NHTSA повідомила, що відстежила 1399 інцидентів, в яких системи допомоги водієві Tesla були залучені протягом 30 секунд після зіткнення, причому 31 з цих аварій закінчилася смертельними наслідками.
Консультування щодо незаконних дій у Нью-Йорку
У жовтні в Нью-Йорку представили чат-бот міста MyCity – штучний інтелект, покликаний допомогти власникам малого бізнесу орієнтуватися в лабіринтах бюрократичної системи, з якою вони стикаються. Журналісти протестували його і виявили, що чат-бот часто радив незаконні дії, в тому числі говорив орендодавцям, що вони можуть порушити закони про житлову дискримінацію. Чат-бот досі працює, але тепер містить застереження про те, що він може іноді надавати неповні або неточні відповіді.
Фальсифікація реклами та підтримки знаменитостей
У жовтні актор Том Генкс опублікував попередження для шанувальників в Instagram про те, що в рекламі на YouTube для продажу ліків проти діабету використовується його зображення, створене штучним інтелектом. За місяць до цього згенероване ШІ зображення Тейлор Свіфт припустило, що вона підтримує Дональда Трампа. А в травні Скарлетт Йоханссон виступила проти того, щоб її AI-двійник використовувався OpenAI, як голос ChatGPT.
Практика ШІ-підтримки знаменитостей стала настільки поширеною, що YouTube спільно з Creative Artists Agency тестує систему, яка допоможе акторам, спортсменам та іншим талантам ідентифікувати та видаляти їхні підробки на своїй платформі. Після доопрацювання ця функція буде запущена в широкому доступі.
Роботи, які посіяли хаос у McDonald's Drive-Thru
Низька заробітна плата та об'єднання в профспілки тривалий час були основними проблемами для працівників ресторанів швидкого харчування, і на початку цього року McDonald's вирішив спробувати розв’язати ці проблеми, залучивши роботів до роботи в деяких своїх закладах замість людей. Компанія співпрацювала з IBM, щоб запровадити замовлення з допомогою ШІ у 100 своїх автокафе. Проте ініціатива не була успішною. Після низки помилок і принижень у соціальних мережах McDonald's припинив співпрацю з IBM. Але до цього люди встигли випадково замовити 260 McNuggets і дев'ять солодких чаїв.
Поганий організатор весілля
Трейсі Чоу, підприємиця і програмістка, написала в соцмережі X, щоб розкрити ChatGPT та одного весільного організатора, який використав його, чим ледь не зіпсував її весілля.
Чоу найняла весільного організатора, щоб спланувати святкування у Лас-Вегасі. Буквально за кілька днів до її весілля вона виявила, що її організатор збрехав про те, що він місцевий, і використав ChatGPT для вивчення весільних правил. Поради ChatGPT призвели до того, що весілля довелося рятувати в останній момент.
Провальна виставка Віллі Вонки для дітей
Компанія House of Illuminati вирішила створити дітям свято за мотивами приквелу "Вонка", у якій зобразили передісторію до подій основного фільму "Чарлі та шоколадна фабрика" із купою гігантських солодощів, шоколадним фонтаном, лабораторією див та гігантськими грибами. Яскрава афіша зацікавила велику кількість батьків та дітей, але насправді вона була створена штучним інтелектом. Замість обіцяного в рекламі, шотландці потрапили на напівпорожній склад із декількома прикрасами та акторами, які довели дітей до істерики. Обоз писав про цю виставку тут.
Раніше OBOZ.UA розповідав, що вчені назвали підводні камені штучного інтелекту та попередили про небезпеку.
Тільки перевірена інформація у нас у Telegram-каналі OBOZ.UA та Viber. Не ведіться на фейки!