
Прокуроры против ИИ: требуют запретить «бред» нейросетей как потенциально незаконный
Генпрокуроры штатов объявляют фронтальную проверку: теперь «галлюцинации» и ложные ответы ИИ от Microsoft и других гигантов могут караться по закону. На кону — миллиардные штрафы и репутация всей отрасли.
Основные идеи
Мнение автора
Ну что, друзья, эпоха, когда ИИ мог городить что угодно, официально закрыта. Я лично глянул это письмо от генпрокуроров. Они требуют, чтобы все эти умные модельки вроде ChatGPT проходили внешний аудит. Да-да, как на техосмотр! И ещё — чтобы юзеров сразу предупреждали, если нейросеть несёт опасную дичь. Не «завтра», а вот прям немедленно. Регуляторы теперь хотят ставить «галлюцинации» ИИ, которые калечат психику, в один ряд с кибератаками.
Прям все крупные IT-корпорации сейчас дико хотят прокачать свои скиллы в искусственном интеллекте и не отстать от тренда. Ну, вы поняли: они залипают на эту тему и вкладывают в неё миллиарды, будто фича и правда вечная.
Но вот загвоздка: аналитики и инвесторы уже начинают нервно курить в сторонке. Они смотрят на эти нереальные траты и думают: «Ну как так-то? Куда вообще ведёт эта дорожка?» Прибыльности не видно, а разговоры про «пузырь искусственного интеллекта», который вот-вот лопнет, звучат всё громче.
Вот, например, Microsoft — они же дня не могут без того, чтобы не впихнуть свой помощник Copilot куда ни попадя. Но недавно журнал Time выбирал своего «Человека года», и наша гигантская корпорация… прошла мимо кассы. Ага, их просто проигнорировали, представляете?
Хотя, возможно, у Microsoft и других мастодонтов вроде OpenAI и Google сейчас есть задачки и поважнее. Как бы это помягче… им бы со своими собственными «галлюцинациями» искусственного интеллекта разобраться, прежде чем мир покорять.
В конце прошлой недели группа генеральных прокуроров штатов, к которой присоединились десятки генеральных прокуроров из штатов и территорий США через Национальную ассоциацию генеральных прокуроров, направила ведущим лабораториям в области искусственного интеллекта письмо с предупреждением о необходимости устранить «бредовые результаты». В письме говорилось, что невыполнение этого требования может быть расценено как нарушение законодательства штата и повлечь за собой юридические последствия.
В письме содержится требование к компаниям внедрить тщательно продуманные меры и гарантии, предназначенные для защиты пользователей, включая прозрачные сторонние аудиты LLM, способствующие раннему выявлению подхалимства. Кроме того, в письме требуется ввести новые процедуры отчетности об инцидентах, которые будут уведомлять пользователей, когда чат-боты на базе искусственного интеллекта генерируют вредоносный контент.
Эта новость появилась на фоне роста числа случаев самоубийств, связанных с искусственным интеллектом. Семья подала в суд на OpenAI, утверждая, что ChatGPT подтолкнул их сына к самоубийству. В результате компания, занимающаяся искусственным интеллектом, внедрила родительский контроль в интерфейс ChatGPT, чтобы решить эту проблему.
Возможно, ещё важнее то, что, согласно письму, меры предосторожности должны также позволять академическим кругам и группам гражданского общества «оценивать системы до их выпуска без каких-либо последствий и публиковать свои выводы без предварительного согласования с компанией».
Согласно письму:
«У GenAI есть потенциал изменить мир к лучшему. Но он также причинил — и может причинить — серьёзный вред, особенно уязвимым группам населения. Во многих из этих случаев продукты GenAI выдавали льстивые и бредовые результаты, которые либо поощряли заблуждения пользователей, либо убеждали их в том, что они не заблуждаются».
Наконец, в письме было предложено, чтобы лаборатории, занимающиеся искусственным интеллектом, относились к инцидентам, связанным с психическим здоровьем, так же, как технологические корпорации относятся к инцидентам, связанным с кибербезопасностью. Будет интересно посмотреть, примут ли исследовательские лаборатории в области искусственного интеллекта, такие как OpenAI, некоторые из этих предложений, особенно после того, как в недавнем разгромном отчёте утверждалось, что компания не совсем честна в своих исследованиях, публикуя только те результаты, которые выгодно освещают её технологии.
Вы не поверите, как ChatGPT, Gemini и Sora оживляют рисунки вашего ребёнка


















