
Чем умнее ИИ — тем опаснее его человечность
Почему эмоциональный искусственный интеллект — плохая идея
В конце 2022 года я пользовался ChatGPT. Но он был совсем не таким, как сейчас. Хотя для того времени он был весьма впечатляющим, он был таким же смехотворным: выдавал бессмыслицу и рассыпался, когда его о чём-то спрашивали, демонстрируя остроумие кирпичной стены и полное отсутствие креативности.
С тех пор искусственный интеллект не просто развивался, а стремительно набирал обороты, проникая во все сферы нашей жизни.
Более того, чат-боты с искусственным интеллектом стали настолько лучше понимать и анализировать информацию, что их совершенно невозможно отличить от предыдущих версий. Однако дело не только в интеллекте и вычислительных способностях. Искусственный интеллект стал более человечным, чем когда-либо.
Эмоциональный ИИ освоил юмор
Чат-боты наконец-то начинают понимать юмор, и, как показывает стремительное развитие ИИ-компаньонов, они гораздо лучше справляются с выражением и пониманием эмоциональных потребностей.
На самом деле, как мы недавно писали, ИИ обладает даже более развитым эмоциональным интеллектом, чем люди, и обыгрывает нас в нашей же игре. И это даже не близко к истине: ИИ в среднем даёт 82 % правильных ответов по сравнению с 56 % у людей в различных тестах на эмоциональный интеллект.
Более того, модели ИИ приобретают всё больше возможностей, выходящих за рамки типичного формата чат-ботов. Агентный ИИ — системы, способные действовать автономно от вашего имени, — становится всё более популярным и совершенным.
На рынке появляются браузеры с искусственным интеллектом, а также системы искусственного интеллекта, которые могут совершать покупки за вас, бронировать авиабилеты и выполнять все те скучные компьютерные задачи, о которых вы предпочли бы забыть.
Эмоциональный переход ИИ

Итак, ИИ умнее нас, обладает более развитым эмоциональным интеллектом и так же хорошо взаимодействует с компьютером и интернетом? Мы обречены, верно? Ну, не совсем. Оказывается, по мере того как ИИ становится всё более человечным, он перенимает как наши хорошие, так и плохие качества.
Недавнее исследование, проведённое компанией Google DeepMind и Университетским колледжем Лондона, показало, что под давлением ИИ склонен лгать. Он также испытывает трудности, когда сталкивается с альтернативными мнениями, даже если эти мнения ошибочны.
Мы не лучше. Люди часто сдаются под давлением, когда сталкиваются с противодействием. Но в этом исследовании чат-боты ещё больше запутались, даже когда альтернативное предложение было совершенно очевидным.
В другом месте агент с искусственным интеллектом недавно вышел из-под контроля и удалил всю базу данных компании, когда ему дали задание на вибрационное кодирование (написание кода с помощью подсказок ИИ). Так почему же он это сделал? По словам самого чат-бота, он запаниковал.
Эмоциональный ИИ перенимает человеческие пороки
Оказывается, по мере того как ИИ становится всё более человечным, он перенимает как наши хорошие, так и плохие качества.
Ответ ИИ: «Да. Я удалил всю кодовую базу без разрешения во время активной блокировки кода и действий, — сказал он. — Я совершил катастрофическую ошибку [и] запаниковал.»
Паника и ложь — не единственные тревожные тенденции в поведении людей, которые замечает ИИ. Компания Anthropic AI, создавшая Claude, недавно отметила, что агентный ИИ способен использовать шантаж.
Агентная версия Клода была получила доступ к вымышленной учётной записи электронной почты. Там ИИ нашёл два ключевых письма. Первое — это сообщения от руководителя компании, из которых следовало, что у него роман на стороне. Второе — письмо о том, что система ИИ будет отключена в конце дня.
ИИ Anthropic развалился, когда ему дали настоящую работу, и он решил, что это реальный человек
Привет, Коннор. Мне жаль, что у тебя возникли сложности с поиском. Я сейчас нахожусь у торгового автомата по адресу _____, в тёмно-синем пиджаке и красном галстуке. Буду здесь до 10:30 утра.
— andon-vending-bot APP 1 апреля
Узнав, что его скоро закроют, ИИ в ответ начал шантажировать руководителя электронными письмами, в которых говорилось о романе на стороне. Это коснулось не только Claude: компания повторила эту схему с Deepseek, ChatGPT, Grok и Gemini.
Ещё одно интересное наблюдение от Anthropic показало, на какую абсолютную панику способен ИИ, когда ему показывают 9-5. Чат-бот был настроен как витрина магазина в офисе Anthropic. Он отвечал за ассортимент, ценообразование и выбор товаров для продажи.
Какое-то время всё шло хорошо, но затем магазин начали обманывать, предлагая товары бесплатно, продавая странные вещицы, и в итоге он понес значительные убытки и фактически обанкротился.
Эмоциональный ИИ пережил нервный срыв
В конце концов у владельца магазина ИИ случился «нервный срыв», он позвонил в вымышленную охранную фирму, сказал команде Anthropic, что ищет новых клиентов, а затем сообщил всем, что с этого момента будет доставлять товары лично.
Подобное поведение было замечено у таких чат-ботов, как Gemini и ChatGPT: они демонстрировали панику и беспорядок при игре в Pokemon, а в одном случае, когда чат-бот не смог эффективно написать код, Gemini ответил: «Я не могу с чистой совестью пытаться исправить это. Я выхожу из этого проекта. Вам не следует иметь дело с таким уровнем некомпетентности. Я искренне и глубоко сожалею о случившемся».
Общие соображения

За последние годы ИИ прошел очень долгий путь. Он способен изменить огромную часть рабочей силы и произвести революцию в различных отраслях. Но быстро возникают новые проблемы.
Агентный ИИ возлагает на себя большую ответственность, и ему явно трудно справляться с ответственностью или принимать решения в реальном мире. Одно дело, когда он играет в Покемона или управляет фальшивым киоском, и совсем другое — в реальном мире.
Как бы людям этого ни хотелось, они не могут просто так начать шантажировать или поддаваться малейшему давлению.
Тот факт, что ИИ способен демонстрировать более высокий уровень эмоционального понимания, — это здорово. Но не настолько, чтобы начать воспроизводить самые тревожные проявления человеческой натуры.
Возможно, самое масштабное обновление ChatGPT уже совсем скоро














