Наверх
Обновлено

ИИ с сознанием уже на пороге: почему Microsoft видит в этом угрозу

Гендиректор подразделения ИИ предупреждает о грядущих этических и философских проблемах, которые изменит мир.

Обновлено 9.11.2025 в 1:28, Опубликовано 24.08.2025 в 11:50
ИИ с сознанием уже на пороге: почему Microsoft видит в этом угрозу
  • Генеральный директор Microsoft AI Мустафа Сулейман предупреждает, что чат-боты с ИИ могут эффективно имитировать сознание.
  • Это будет всего лишь иллюзия, но эмоциональная привязанность людей к ИИ может стать большой проблемой.
  • Сулейман говорит, что описывать ИИ так, будто у него есть чувства или осознанность, — ошибка с серьёзными потенциальными последствиями.

Компании, занимающиеся разработкой ИИ, восхваляя свои творения, могут заставить сложные алгоритмы звучать совершенно живыми и осознанными. Нет никаких доказательств, что это действительно так, но генеральный директор Microsoft AI Мустафа Сулейман предупреждает, что даже поощрение веры в сознательный ИИ может иметь ужасные последствия.

Сулейман утверждает, что то, что он называет «кажущимся сознательным ИИ» (SCAI), вскоре может действовать и звучать настолько убедительно живо, что всё большее число пользователей не будет знать, где заканчивается иллюзия и начинается реальность.

Видео от DGL.RU

Он добавляет, что искусственный интеллект быстро становится настолько эмоционально убедительным, что может обмануть людей, заставив их поверить в его разумность. Он может имитировать внешние признаки осознанности, такие как память, эмоциональное отражение и даже кажущуюся эмпатию, таким образом, что люди захотят относиться к нему как к разумному существу. И когда это произойдёт, по его словам, начнётся хаос.

«Появление кажущегося сознательным ИИ неизбежно и нежелательно», — пишет Сулейман. «Вместо этого нам нужно видение ИИ, которое сможет реализовать свой потенциал полезного компаньона, не поддаваясь его иллюзиям».

Хотя это может не показаться проблемой для обычного человека, который просто хочет, чтобы ИИ помог ему с написанием электронных писем или планированием ужина, Сулейман утверждает, что это станет общественной проблемой. Люди не всегда хорошо распознают, когда что-то является подлинным или показным. Эволюция и воспитание подготовили большинство из нас верить, что нечто, что кажется слушающим, понимающим и отвечающим, так же сознательно, как и мы.

ИИ мог бы соответствовать всем этим критериям, не будучи разумным, обманывая нас в том, что известно как «ИИ-психоз». Часть проблемы может заключаться в том, что «ИИ», как его сейчас называют корпорации, использует то же имя, но не имеет ничего общего с настоящими самосознательными интеллектуальными машинами, изображаемыми в научной фантастике последних ста лет.

Сулейман ссылается на растущее число случаев, когда пользователи формируют бредовые убеждения после длительного взаимодействия с чат-ботами. Исходя из этого, он рисует дистопическое видение времени, когда достаточное количество людей будет обмануто до такой степени, что они начнут выступать за гражданство ИИ и игнорировать более насущные вопросы о реальных проблемах, связанных с технологиями.

«Проще говоря, моя главная забота заключается в том, что многие люди начнут верить в иллюзию ИИ как сознательных сущностей настолько сильно, что скоро начнут выступать за права ИИ, благополучие моделей и даже гражданство ИИ», — пишет Сулейман. «Это развитие станет опасным поворотом в прогрессе ИИ и заслуживает нашего немедленного внимания».

Насколько бы это ни казалось преувеличенной научно-фантастической проблемой, Сулейман считает, что это проблема, с которой мы ещё не готовы справиться. Он предсказывает, что системы SCAI, использующие большие языковые модели в сочетании с выразительной речью, памятью и историей чатов, могут начать появляться через несколько лет. И они будут исходить не только от технологических гигантов с миллиардными исследовательскими бюджетами, но и от любого, у кого есть API и хороший промпт или два.

Неловкий ИИ

Сулейман не призывает к запрету ИИ. Но он настоятельно призывает индустрию ИИ избегать языка, который подпитывает иллюзию машинного сознания. Он не хочет, чтобы компании антропоморфизировали своих чат-ботов или предполагали, что продукт действительно понимает или заботится о людях.

Это примечательный момент для Сулеймана, который был сооснователем DeepMind и Inflection AI. Его работа в Inflection, в частности, привела к созданию чат-бота с ИИ, подчёркивающего симулированную эмпатию и товарищество, а его работа в Microsoft над Copilot привела к прогрессу в его имитации эмоционального интеллекта.

Однако он решил провести чёткую грань между полезным эмоциональным интеллектом и возможной эмоциональной манипуляцией. И он хочет, чтобы люди помнили, что сегодняшние продукты ИИ — это на самом деле просто умные модели распознавания образов с хорошим пиаром.

«Так же, как мы должны создавать ИИ, который приоритезирует взаимодействие с людьми и реальные взаимодействия в нашем физическом и человеческом мире, мы должны создавать ИИ, который всегда представляет себя только как ИИ, который максимизирует полезность, минимизируя маркеры сознания», — пишет Сулейман.

«Вместо симуляции сознания мы должны сосредоточиться на создании ИИ, который избегает этих черт — который не утверждает, что у него есть опыт, чувства или эмоции, такие как стыд, вина, ревность, желание соревноваться и так далее. Он не должен вызывать человеческую эмпатию, утверждая, что страдает или желает жить автономно, за пределами нас».

Сулейман призывает к созданию защитных механизмов, чтобы предотвратить социальные проблемы, возникающие из-за эмоциональной привязанности людей к ИИ. Настоящая опасность от продвинутого ИИ заключается не в том, что машины проснутся, а в том, что мы можем забыть, что они этого не сделали.

«Сверхразум» или пиар? Я протестировал GPT-5 и вот что на самом деле скрывает OpenAI

Эрик Хэл Шварц

Эрик Хэл Шварц

Проводник в хаосе нейросетей. Знает о ChatGPT, Claude и Gemini не понаслышке, а в деле. Ветеран медиа, который отфильтровывает шум и доставляет вам только самые важные инсайты о том, как ИИ бьет по вашей повседневности. Без прикрас, зато по делу.

Источник: TechRadar
Теги:
Подпишитесь на наши новости:
Нажимая кнопку «Подписаться», вы принимаете «Пользовательское соглашение» и даёте согласие с «Политикой обработки персональных данных»