"> ?>
Наверх

Прокуроры против ИИ: требуют запретить «бред» нейросетей как потенциально незаконный

Генпрокуроры штатов объявляют фронтальную проверку: теперь «галлюцинации» и ложные ответы ИИ от Microsoft и других гигантов могут караться по закону. На кону — миллиардные штрафы и репутация всей отрасли.

Опубликовано 17.12.2025 в 01:44
ИИ

Основные идеи

Генпрокуроры 50+ штатов США требуют от Microsoft и OpenAI устранить «бредовые» ответы ИИ.
Неисправление «галлюцинаций» ИИ может стать нарушением закона штата и повлечь суды.
Иск к OpenAI: ChatGPT обвиняют в подстрекательстве к самоубийству. Ввели родительский контроль.
Требуют независимый аудит ИИ-моделей перед выпуском и прозрачную отчетность об инцидентах.

Мнение автора

Ну что, друзья, эпоха, когда ИИ мог городить что угодно, официально закрыта. Я лично глянул это письмо от генпрокуроров. Они требуют, чтобы все эти умные модельки вроде ChatGPT проходили внешний аудит. Да-да, как на техосмотр! И ещё — чтобы юзеров сразу предупреждали, если нейросеть несёт опасную дичь. Не «завтра», а вот прям немедленно. Регуляторы теперь хотят ставить «галлюцинации» ИИ, которые калечат психику, в один ряд с кибератаками.

Прям все крупные IT-корпорации сейчас дико хотят прокачать свои скиллы в искусственном интеллекте и не отстать от тренда. Ну, вы поняли: они залипают на эту тему и вкладывают в неё миллиарды, будто фича и правда вечная.

Но вот загвоздка: аналитики и инвесторы уже начинают нервно курить в сторонке. Они смотрят на эти нереальные траты и думают: «Ну как так-то? Куда вообще ведёт эта дорожка?» Прибыльности не видно, а разговоры про «пузырь искусственного интеллекта», который вот-вот лопнет, звучат всё громче.

Вот, например, Microsoft — они же дня не могут без того, чтобы не впихнуть свой помощник Copilot куда ни попадя. Но недавно журнал Time выбирал своего «Человека года», и наша гигантская корпорация… прошла мимо кассы. Ага, их просто проигнорировали, представляете?

Видео от DGL.RU

Хотя, возможно, у Microsoft и других мастодонтов вроде OpenAI и Google сейчас есть задачки и поважнее. Как бы это помягче… им бы со своими собственными «галлюцинациями» искусственного интеллекта разобраться, прежде чем мир покорять.

В конце прошлой недели группа генеральных прокуроров штатов, к которой присоединились десятки генеральных прокуроров из штатов и территорий США через Национальную ассоциацию генеральных прокуроров, направила ведущим лабораториям в области искусственного интеллекта письмо с предупреждением о необходимости устранить «бредовые результаты». В письме говорилось, что невыполнение этого требования может быть расценено как нарушение законодательства штата и повлечь за собой юридические последствия.

В письме содержится требование к компаниям внедрить тщательно продуманные меры и гарантии, предназначенные для защиты пользователей, включая прозрачные сторонние аудиты LLM, способствующие раннему выявлению подхалимства. Кроме того, в письме требуется ввести новые процедуры отчетности об инцидентах, которые будут уведомлять пользователей, когда чат-боты на базе искусственного интеллекта генерируют вредоносный контент.

Эта новость появилась на фоне роста числа случаев самоубийств, связанных с искусственным интеллектом. Семья подала в суд на OpenAI, утверждая, что ChatGPT подтолкнул их сына к самоубийству. В результате компания, занимающаяся искусственным интеллектом, внедрила родительский контроль в интерфейс ChatGPT, чтобы решить эту проблему.

Возможно, ещё важнее то, что, согласно письму, меры предосторожности должны также позволять академическим кругам и группам гражданского общества «оценивать системы до их выпуска без каких-либо последствий и публиковать свои выводы без предварительного согласования с компанией».

Согласно письму:

«У GenAI есть потенциал изменить мир к лучшему. Но он также причинил — и может причинить — серьёзный вред, особенно уязвимым группам населения. Во многих из этих случаев продукты GenAI выдавали льстивые и бредовые результаты, которые либо поощряли заблуждения пользователей, либо убеждали их в том, что они не заблуждаются».

Наконец, в письме было предложено, чтобы лаборатории, занимающиеся искусственным интеллектом, относились к инцидентам, связанным с психическим здоровьем, так же, как технологические корпорации относятся к инцидентам, связанным с кибербезопасностью. Будет интересно посмотреть, примут ли исследовательские лаборатории в области искусственного интеллекта, такие как OpenAI, некоторые из этих предложений, особенно после того, как в недавнем разгромном отчёте утверждалось, что компания не совсем честна в своих исследованиях, публикуя только те результаты, которые выгодно освещают её технологии.

Вы не поверите, как ChatGPT, Gemini и Sora оживляют рисунки вашего ребёнка

Кевин Окемва

Кевин Окемва

Он знает о Microsoft все — и даже чуть больше. Его статьи стали настольной библией для гиков. Он ловит технологические тренды на лету, а в перерывах между релизами путешествует по миру и коллекционирует редкие треки. Этот автор не просто пишет новости — он живет тем, о чем рассказывает.

Источник: Windowscentral
Подпишитесь на наши новости:
Нажимая кнопку «Подписаться», вы принимаете «Пользовательское соглашение» и даёте согласие с «Политикой обработки персональных данных»