1. Перейти к содержанию
  2. Перейти к главному меню
  3. К другим проектам DW
ПолитикаГлобальные темы

В Meta признали "галлюцинации" ИИ после покушения на Трампа

Николай Линке
31 июля 2024 г.

Чат-бот Meta AI отрицал факт покушения на Дональда Трампа и отказывался признавать подлинность фотографий стрельбы. В компании Facebook это объяснили "галлюцинациями" искусственного интеллекта.

Дональд Трамп после покушения на него 13 июля 2024 года
Дональд Трамп после покушения на него 13 июля 2024 годаФото: REUTERS

Корпорация Meta, объединяющая Facebook, Instagram и WhatsApp, признала, что ее искусственный интеллект (ИИ) по ошибке отрицал факт покушения на кандидата в президенты США от Республиканской партии Дональда Трампа. Вице-президент Facebook по глобальной политике Джоэль Каплан(Joel Kaplan) заверил, во вторник, 30 июля, что в этой ошибке, о которой "мы сожалеем", не было "злого умысла".

Чат-бот не признавал покушения на Трампа

В апреле 2024 года Meta представила собственного ИИ-помощника Meta AI. Он должен помогать пользователям Facebook, Instagram и WhatsApp. Например, чат-бот может посоветовать ресторан, концерт или организовать поездку. Meta AI работает на английском языке в более чем 10 странах, в том числе в США, Канаде, Австралии, ЮАР, Нигерии, Пакистане. В Европе и постсоветских странах он не доступен.

После покушения на Дональда Трампа пользователи стали спрашивать Meta AI о стрельбе. Однако чат-бот отвечал длинными справками о прошлом и отрицал, что экс-президента США пытались убить. Кроме того, знаменитую фотографию Трампа после покушения с поднятым вверх кулаком в Facebook и Instagram отмечали как поддельную.

"Галлюцинации" искусственного интеллекта

Как объяснил Каплан, чат-бот обрабатывает огромный массив данных, накопленных за многие годы. Но именно поэтому ему трудно работать со срочными новостями. ИИ путается в противоречивой информации о последних событиях и не всегда удачно сопоставляет их с прошлым. Поэтому руководство Meta сначала вообще запретило чат-боту говорить о покушении на Трампа. Затем запрет был снят, но ИИ некоторое время продолжал молчать или утверждать, что стрельбы не было.

"В небольшом числе случаев Meta AI продолжал давать неверные ответы, иногда утверждая, что события не было, - над этим мы уже сейчас работаем. Эти типы ответов называются галлюцинациями, это проблема всей отрасли, мы видим ее во всех системах ИИ-генерации. Это сохраняющаяся проблема того, как ИИ обрабатывает события реального времени, которые находятся в развитии. Как и все другие системы ИИ-генерации, модели могут выдавать неточные или неуместные данные", - посетовал Каплан.

Почему чат-бот принял фотографию Трампа за подделку

Проблемы с фотографией Трампа, на которой он сразу после покушения позирует с поднятым вверх кулаком, менеджер объяснил тем, что в интернете некие злоумышленники запустили фейковый снимок, пририсовав сотрудникам Секретной службы США улыбки. Meta пометила этот шарж как поддельный. Но ИИ стал блокировать все похожие кадры, в том числе и оригинальный.

Пропустить раздел Еще по теме
Пропустить раздел Топ-тема

Топ-тема

Пропустить раздел Другие публикации DW

Другие публикации DW