
Цифровой обман: как ИИ создаёт фальшивые путешествия, в которые верят люди
Малайзийская пара потратила тысячи, поверив в фальшивое видео. Почему ИИ-контент становится опасным обманом?
Малайзийская пара недавно оказалась в центре розыгрыша с использованием искусственного интеллекта, из-за которого простая поездка на выходные превратилась в дорогостоящее и разочаровывающее приключение. Посмотрев видео о путешествии, которое выглядело как профессионально снятый ролик, пожилая пара проехала более 370 километров от Куала-Лумпура до небольшого городка в Пераке и только там обнаружила, что вся достопримечательность была сфабрикована искусственным интеллектом.
Видео, которое их обмануло, представляло собой реалистичный новостной сюжет от вымышленной телекомпании под названием «TV Rakyat». В ролике похожий на человека репортёр, созданный искусственным интеллектом, рассказывал о «Kuak Skyride» — живописной канатной дороге, которая, как утверждается, существует в городе Куак Хулу.
На кадрах были запечатлены пышные горные пейзажи, интервью с так называемыми туристами и даже роскошный ужин с видом на окрестности. Сюжет закончился посещением контактного зоопарка с оленями. Всё выглядело правдоподобно, включая закадровый голос и убедительную графику, вероятно созданную с помощью модели Veo 3 от Google.
По данным местных СМИ, в том числе The Metro и South China Morning Post, 30 июня пара заселилась в отель в районе Пенгкалан-Хулу в Пераке и спросила о возможности прокатиться на канатной дороге. Сотрудница отеля рассказала, как она поняла, что аттракциона не существует:
Я был так потрясён… Я объяснил тётушке, что видео было создано искусственным интеллектом и не является реальным.
— @dyaaaaaaa._, сотрудник отеля, в Threads
Сообщается, что женщина была расстроена и сказала, что собирается подать в суд на журналистку, фигурирующую в ролике. Но сотруднице отеля пришлось сообщить новость: репортёр тоже был сгенерирован искусственным интеллектом. «Зачем кому-то лгать?» — ответила женщина. «Там даже был репортёр (на видео)».
Это был не единичный случай. Другой пользователь социальных сетей сообщил, что его родители потратили 2120 долларов США / около 165 300 рублей на аренду микроавтобуса для той же поездки, поверив, что видео настоящее. Судя по сообщениям, видео стало вирусным на малазийских социальных платформах, а затем было удалено из-за негативной реакции общественности.
Эта ситуация поднимает важные вопросы о растущей реалистичности видеоконтента, созданного искусственным интеллектом. Если обычные путешественники могут быть введены в заблуждение видео, которые кажутся неотличимыми от реальных кадров, что это значит для цифровых медиа в будущем?
Подобные случаи показывают, что, хотя инструменты для создания генеративного видео могут быть очень полезными для творчества, они также создают риски, связанные с дезинформацией, особенно когда зрители не знают, насколько убедительным может быть синтетический контент. Лично я считаю, что по мере того, как эти инструменты становятся всё более доступными, нам может потребоваться более чёткая маркировка, регулирование или обучение, чтобы помочь зрителям отличать правду от вымысла.
Большинство проектов в области ИИ закрываются. 5 способов добиться успеха в работе с данными
















