
Sora 2 врезалась в стену Голливуда: агенты требуют контроль над AI-звездами
CAA назвала Sora 2 «злоупотреблением технологиями» — агентства хотят регулировать появление AI-талантов в индустрии.
- Выпуск Sora 2 заставил голливудское агентство публично осудить создателя видеороликов на основе искусственного интеллекта OpenAI.
- Агентство предупредило, что Sora 2 представляет серьезную угрозу правам на изображение и компенсациям исполнителей.
- OpenAI начала корректировать параметры Sora 2 и намекает на будущие ограничения и распределение доходов.
Новый видеогенератор Sora 2 AI и мгновенно ставшее популярным новое социальное приложение от OpenAI появились всего несколько дней назад, но компания уже столкнулась с негативной реакцией со стороны некоторых из самых влиятельных людей Голливуда. Агентство Creative Artists Agency (CAA), представляющее интересы ряда крупнейших компаний в сфере развлечений, выступило с резким заявлением, осуждающим Sora 2.
В неподписанном меморандуме CAA обвинила OpenAI в неуважении к правам своих клиентов и представила проблему как моральное испытание. Особое возмущение вызвала функция Cameo, позволяющая пользователям сниматься в созданных ИИ видеороликах, хотя и не упоминалась её аббревиатура.
«Очевидно, что Open AI/Sora подвергает наших клиентов и их интеллектуальную собственность значительному риску. Вопрос в том, считают ли OpenAI и её компании-партнёры, что люди, писатели, художники, актёры, режиссёры, продюсеры, музыканты и спортсмены заслуживают вознаграждения и признания за созданную ими работу?» — говорится в меморандуме CAA. «Или Open AI считает, что может просто украсть её, игнорируя глобальные принципы авторского права и откровенно игнорируя права создателей, а также многих людей и компаний, которые финансируют производство, создание и публикацию этих работ? По нашему мнению, ответ на этот вопрос очевиден».
Это самое прямое публичное противостояние между голливудскими талантами и экспериментаторами с искусственным интеллектом из Кремниевой долины. CAA явно намеренно использует устрашающий тон. И это логично, ведь фильм «Камео» показывает, насколько легко имитировать чей-то образ и голос с помощью короткого ролика. А затем достаточно одного вирусного ремикса с искусственным интеллектом, чтобы из развлечения превратиться в нарушение авторских прав.
Столкновение звезд ИИ
CAA не одинока в своей позиции. Конкурирующие агентства WME и UTA опубликовали заявления с аналогичными формулировками: WME потребовала от OpenAI удалить всех своих клиентов из Sora 2.
Запуск Sora 2 — это типичный подход к стартапу: сначала совершаются ошибки, а потом их исправляют. В индустрии развлечений принято решать все возможные вопросы лицензирования, согласия и авторства задолго до того, как будет показан первый кадр фильма. Эти два подхода противоречат друг другу.
И OpenAI принимает это во внимание. Сам генеральный директор Сэм Альтман, похоже, признаёт, что Sora 2, возможно, перегнула палку. В осторожно сформулированном посте в блоге компания признала наличие потенциальных проблем и пообещала грядущие изменения, возможное партнёрство и монетизацию.
OpenAI, похоже, стремится заверить индустрию, что Sora 2 не будет превращать Брэда Питта в камео в TikTok без разрешения. Компания подтвердила, что Cameo должен предоставлять публичным личностям контроль над своим образом, требуя от них загрузить Cameo и сделать его доступным для публичного просмотра; в противном случае технология должна блокировать попытки сделать это со стороны других. Если вы знаменитость и сами не передали цифровые ключи, Sora не должна позволять пользователям добавлять вас в свои видео, созданные с помощью ИИ.
Что касается умерших публичных личностей, их наследники могут запросить удаление, и OpenAI обещает удовлетворить это требование. Однако неясно, предотвратит ли это судебные иски. Система во многом опирается на индивидуальные разрешения. И некоторым этого недостаточно. Ассоциация кинокомпаний прямо предупредила OpenAI, что ответственность за предотвращение нарушений авторских прав лежит на компании, занимающейся разработкой ИИ.
Даже при наличии контроля существует некоторая неопределённость в отношении двойников и дипфейков, которые юридически различимы, но могут показаться слишком похожими, чтобы чувствовать себя комфортно. И скептицизм только усилился в последние месяцы, поскольку созданные искусственным интеллектом видеоролики с умершими знаменитостями, такими как Робин Уильямс и Джин Уайлдер, стали вирусными, часто выходя за рамки эмоциональных границ как для поклонников, так и для семей.
Очевидная открытость Соры к запросам наследников — это своего рода способ компенсировать этот недостаток, но она всё ещё оставляет открытыми двери для недобросовестных деятелей, которые не станут спрашивать разрешения. Последствия всех этих проблем, вероятно, определят, как будут работать будущие потребительские видеоинструменты на основе ИИ. В меморандуме CAA говорится о готовности сделать возможным создание видеороликов с использованием ИИ со знаменитостями при условии соблюдения соответствующих правил и выплаты компенсаций.
«Контроль, разрешение на использование и компенсация — основополагающие права этих работников», — написала CAA. «Что-либо, что не обеспечивает защиту авторов и их прав, неприемлемо».
OpenAI выпускает Sora 2: видеогенератор стал пугающе реалистичным и теперь умеет создавать звук














