Наверх

Цифровой обман: как ИИ создаёт фальшивые путешествия, в которые верят люди

Малайзийская пара потратила тысячи, поверив в фальшивое видео. Почему ИИ-контент становится опасным обманом?

16.07.2025
09:45
видео от искусственного интеллекта

Малайзийская пара недавно оказалась в центре розыгрыша с использованием искусственного интеллекта, из-за которого простая поездка на выходные превратилась в дорогостоящее и разочаровывающее приключение. Посмотрев видео о путешествии, которое выглядело как профессионально снятый ролик, пожилая пара проехала более 370 километров от Куала-Лумпура до небольшого городка в Пераке и только там обнаружила, что вся достопримечательность была сфабрикована искусственным интеллектом.

Видео, которое их обмануло, представляло собой реалистичный новостной сюжет от вымышленной телекомпании под названием «TV Rakyat». В ролике похожий на человека репортёр, созданный искусственным интеллектом, рассказывал о «Kuak Skyride» — живописной канатной дороге, которая, как утверждается, существует в городе Куак Хулу.

Видео от DGL.RU

На кадрах были запечатлены пышные горные пейзажи, интервью с так называемыми туристами и даже роскошный ужин с видом на окрестности. Сюжет закончился посещением контактного зоопарка с оленями. Всё выглядело правдоподобно, включая закадровый голос и убедительную графику, вероятно созданную с помощью модели Veo 3 от Google.

Видео от DGL.RU

По данным местных СМИ, в том числе The Metro и South China Morning Post, 30 июня пара заселилась в отель в районе Пенгкалан-Хулу в Пераке и спросила о возможности прокатиться на канатной дороге. Сотрудница отеля рассказала, как она поняла, что аттракциона не существует:

Я был так потрясён… Я объяснил тётушке, что видео было создано искусственным интеллектом и не является реальным.

— @dyaaaaaaa._, сотрудник отеля, в Threads

Сообщается, что женщина была расстроена и сказала, что собирается подать в суд на журналистку, фигурирующую в ролике. Но сотруднице отеля пришлось сообщить новость: репортёр тоже был сгенерирован искусственным интеллектом. «Зачем кому-то лгать?» — ответила женщина. «Там даже был репортёр (на видео)».

Это был не единичный случай. Другой пользователь социальных сетей сообщил, что его родители потратили 2120 долларов США / около 165 300 рублей на аренду микроавтобуса для той же поездки, поверив, что видео настоящее. Судя по сообщениям, видео стало вирусным на малазийских социальных платформах, а затем было удалено из-за негативной реакции общественности.

Эта ситуация поднимает важные вопросы о растущей реалистичности видеоконтента, созданного искусственным интеллектом. Если обычные путешественники могут быть введены в заблуждение видео, которые кажутся неотличимыми от реальных кадров, что это значит для цифровых медиа в будущем?

Подобные случаи показывают, что, хотя инструменты для создания генеративного видео могут быть очень полезными для творчества, они также создают риски, связанные с дезинформацией, особенно когда зрители не знают, насколько убедительным может быть синтетический контент. Лично я считаю, что по мере того, как эти инструменты становятся всё более доступными, нам может потребоваться более чёткая маркировка, регулирование или обучение, чтобы помочь зрителям отличать правду от вымысла.

Большинство проектов в области ИИ закрываются. 5 способов добиться успеха в работе с данными

Джоанна Ромеро

Джоанна Ромеро

Настоящий гуру по всему, что связано с Google. Она прошла путь от специалиста техподдержки, который решает проблемы, до крутого контент-мейкера, который учит, как их не создавать. Её конёк — экосистема Google и гаджеты Pixel, о которых она знает абсолютно всё. Она умеет находить неочевидные фишки и объяснять самые сложные вещи простым языком. За это её и ценят, а сама Google даже сделала ее официальным участником.

Источник: Phonearena
Подпишитесь на наши новости:
Нажимая кнопку «Подписаться», вы принимаете «Пользовательское соглашение» и даёте согласие с «Политикой обработки персональных данных»