1. Перейти к содержанию
  2. Перейти к главному меню
  3. К другим проектам DW

Фактчек DW: Как распознать новости, созданные ИИ

Монир Гаеди
18 июля 2025 г.

Новостные выпуски, создаваемые с помощью искусственного интеллекта, заполоняют вашу ленту в соцсетях. При этом распознать их становится все сложнее. Вот как не попасться на удочку распространителей фейков.

Can AI Blackmail you?
Фото: Farsi department/Niloofar Gholami/DW

В видеоролике, размещенном в социальной сети TikTok, репортер стоит перед красным почтовым ящиком, на заднем плане развиваются британские флаги, в руке у него микрофон. Он спрашивает прохожую, за кого она собирается голосовать на предстоящих выборах. "За реформы, - отвечает женщина. - Я просто хочу снова почувствовать себя британкой". Один из пользователей комментирует ниже: "Интересно, сколько ей заплатили за эти слова?"

Но этой сцены никогда не было. Интервью - полная подделка. Репортера не существует - его создал искусственный интеллект. И если присмотреться, можно заметить подсказку: едва заметный водяной знак в углу со словом Veo - подпись нового мощного инструмента для генерации видео от Google DeepMind.

Сгенерированный ИИ предвыборный ролик в Великобритании распространялся в TikTok Фото: TikTok

Это видео - не единичный случай. Социальные сети от TikTok до Telegram полны такими выпусками новостей - видео, созданными искусственным интеллектом и имитирующими внешний вид и атмосферу реальных новостных сюжетов. Они заимствуют визуальный язык журналистики: репортажи с места событий, экранную графику, авторитетную подачу. Но они полностью сфабрикованы, часто предназначены для того, чтобы вызвать возмущение, манипулировать мнением или просто стать вирусными. 

"Если вы быстро прокручиваете ленту в социальных сетях, это выглядит как новость, звучит как новость, и в этом опасность", - говорит Хани Фарид, эксперт по цифровой криминалистике и профессор Калифорнийского университета в Беркли.

Реальная опасность "синтетических" новостей

Многие искусственно созданные видеоролики стирают грань между сатирой и реальностью или просто вводят в заблуждение. В одном из примеров журналистка, по-видимому, описывает "огромную военную колонну", движущуюся по центру Лондона. Она стоит перед танком, а толпа наблюдает за происходящим. При этом видео не упоминает ни одного конкретного события, времени или контекста. 

Сгенерированная ИИ колонна военной техники в Лондоне

Фактчек DW неоднократно наблюдал, как подобные клипы всплывают во время кризисов, например, беспорядков, или крупных новостных событий, и используются для того, чтобы создать путаницу или ложно намекнуть на резкую эскалацию.

Во время последней эскалации конфликта между Израилем и Ираном TikTok и другие платформы были переполнены контентом, созданным с помощью искусственного интеллекта. В видеороликах были фейковые новостные выпуски с ложными утверждениями, например, о вступлении России в войну, об атаке Ирана на США или о том, что Иран сбил американские бомбардировщики B-2, использовавшиеся для ударов по иранским ядерным объектам. DW также отметила всплеск количества созданных ИИ новостных роликов в июне после начала протестов в Лос-Анджелесе. 

Последствия выходят далеко за рамки социальных сетей. В 2024 году тайваньские исследователи обнаружили на местных платформах созданные ИИ новостные выпуски, в которых ложно обвинялись в коррупции политики, выступающие за суверенитет острова. Эти ролики не просто распространяли дезинформацию - они сеяли недоверие, подрывая авторитет всех новостных агентств в преддверии выборов в стране.

Фейковое сообщение о протестах израильтян против ударов по ИрануФото: TikTok

Однако некоторые пользователи смотрят сгенерированные ИИ новостные выпуски ради пародии или комического эффекта. В одном из вирусных роликов в TikTok показан сгенерированный ИИ ведущий новостей на фоне такой глубокой выбоины на дороге, что в ней исчезают мотоциклы. В другом ролике аватар заявляет: "Я сейчас на границе, но войны нет. Мама, папа, это выглядит реалистично, но это все ИИ".

Итак, как отличить настоящее видео от подделки? Начните с водяных знаков. Такие сервисы, как Veo, Synthesia и другие, часто маркируют свои видео, хотя эти метки иногда размыты, обрезаны или игнорируются. Даже четко обозначенные клипы часто пестрят комментариями с вопросом: "Это настоящее?"

Как отличить фейковые новостные выпуски

Фейковые новостные выпуски - один из самых тщательно проработанных материалов, созданных ИИ. Поскольку они часто изображают статичную обстановку новостных студий, сложнее заметить типичные признаки работы ИИ - такие, как неловкие движения рук или нестабильный фон. Но едва заметные подсказки все же остаются.

Следите за глазами и ртом. Искусственные аватары часто неестественно моргают или испытывают трудности с реалистичной синхронизацией губ. Зубы могут выглядеть слишком гладкими или неестественно блестящими. Их форма может даже меняться в середине предложения. Жесты и мимика, как правило, слишком однообразны, лишены естественной вариативности, свойственной настоящим людям.

Текст также может быть саморазоблачением фейка. Экранные субтитры или баннеры часто содержат бессмысленные фразы или опечатки.  

Сгенерированный ИИ новостной сюжет о войне Израиля с ИраномФото: tiktok

По словам Хани Фарида, обнаружение сгенерированного ИИ контента - "сложная задача" как поражение движущейся цели: "Все, что я вам сегодня расскажу о том, как обнаружить фейки ИИ, может оказаться неактуальным через полгода". Так что же делать? Придерживаться проверенных источников. "Если не хотите, чтобы вас обманывали, пользуйтесь надежными СМИ", - советует Фарид.

Исчезли барьеры для производства медиа-контента

Концепция ИИ-ведущих не нова. В 2018 году китайское государственное информационное агентство "Синьхуа" представило довольно примитивного аватара-ведущего, созданного ИИ. В то время это выглядело скорее забавно, чем представляло угрозу.

Но технологии значительно эволюционировали. Такие инструменты, как Veo, теперь позволяют практически любому человеку без медиа-подготовки создавать отшлифованные видеоролики в стиле прямой трансляции всего за несколько сотен евро в месяц. Ведущие в таком видео говорят плавно, двигаются реалистично и могут быть помещены практически в любую сцену с помощью нескольких команд, заданных с помощью клавиатуры.

"Барьер для входа (в производство медиа-контента. - Ред.) практически исчез. Вам не нужна студия. Вам даже не нужны факты", - говорит Фарид. Большинство этих клипов созданы для максимального вовлечения пользователей. Они затрагивают очень спорные темы - миграция, война в Газе, Украина, Дональд Трамп - чтобы вызвать сильные эмоциональные реакции и побудить к дальнейшему распространению этих видео.

Социальные сети часто намеренно продвигают такой контент. Например, Meta недавно скорректировала свой алгоритм, чтобы показывать больше постов с аккаунтов, на которые пользователи не подписаны, что облегчает охват созданных ИИ видео широкой, ничего не подозревающей аудиторией. Программы монетизации дополнительно стимулируют создателей: чем больше просмотров набирает видео, тем больше денег оно может принести.

Сделать легкие деньги на "искусственном хламе"

Эта среда породила новое поколение создателей "искусственного хлама" – пользователей, которые штампуют низкокачественный ИИ-контент, привязанный к трендовым темам просто, чтобы набрать просмотры.

Фейковый видеоролик в соцсети TikTok, стилизованный под "срочную новость" телеканала Fox NewsФото: TikTok

Эти аккаунты часто публикуют срочные новости, прежде чем журналисты успевают подтвердить факты. Во время недавней авиакатастрофы в Индии десятки видеороликов в TikTok были представлены ИИ-аватарами, стилизованными под репортеров CNN или BBC, которые транслировали фальшивые цифры жертв и сфабрикованные свидетельства очевидцев. Многие оставались в сети часами, прежде чем их удаляли.

В моменты выхода срочных новостей, когда пользователи активно ищут информацию, реалистичный ИИ-контент становится особенно эффективным способом получить большое число просмотров и заработать на общественном внимании. "Платформы ослабили модерацию контента. Это идеальный шторм: я могу создавать контент, могу его распространять, и есть аудитория, готовая ему верить", - отмечает Фарид. 

Пропустить раздел Еще по теме

Еще по теме

Пропустить раздел Топ-тема

Топ-тема

Пропустить раздел Другие публикации DW

Другие публикации DW