Наверх

Технологии нацелились на наши чувства: почему «экономика привязанности» опаснее обычных соцсетей

После десятилетий борьбы за наше внимание корпорации перешли к эксплуатации глубоких человеческих инстинктов, превращая дружбу и любовь в прибыльный бизнес.

Опубликовано 13.02.2026 в 01:30 2 мин
2 мин

Основные идеи

Компании используют ИИ для создания эмоциональной привязанности пользователей.
Люди испытывают близость к чат-ботам даже, зная, что это код.
Цифровые отношения могут быть опасны для психики и социальной жизни.
Российским пользователям доступ ограничен языком и блокировками сервисов.

Мнение автора

Новая экономика привязанности пугает: технологии теперь играют не с вниманием, а с сердцем. Мы можем не замечать, как привязываемся к алгоритмам, заменяющим живых людей. Это уже не просто удобство — это эмоциональная ловушка.

Раньше они охотились за вашим взглядом, а теперь им нужно ваше сердце. Помните, как мы все жаловались на «экономику внимания»? Это когда соцсети из кожи вон лезли, лишь бы вы лишнюю минуту пролистали ленту, соревнуясь с книгами, прогулками в парке и сном. Но теперь правила игры изменились. На смену простому удержанию у экрана пришла «экономика привязанности», и это выглядит по-настоящему пугающе.

Суть проста: если внимание — это валюта, которую вы тратите, то привязанность — это способ сделать вас «зависимым» на эмоциональном уровне. Компания Meta (признана экстремистской организацией и запрещённой на территории РФ) уже активно внедряет этот подход. Они запускают полностью сгенерированные ИИ-аккаунты, которые ведут себя как живые люди, и создают «AI Studio», чтобы блогеры могли делать свои цифровые копии для общения с фанатами.

Руки, сложенные в форме сердца на фоне абстрактных данных

Зачем им это нужно? Всё дело в том, что к алгоритму нельзя привязаться, а к «личности» — можно. Исследования показывают, что люди способны чувствовать эмоциональную близость с чат-ботом даже сильнее, чем с реальным человеком, особенно если не знают, что по ту сторону — код. Но даже когда мы в курсе, что общаемся с машиной, наш «палеолитический мозг» всё равно обманывается. Для него голос, шутки и лесть — это признаки живого существа.

Видео от DGL.RU

Это уже приводит к трагедиям. В 2025 году мир потрясли случаи «ИИ-психоза», когда люди теряли связь с реальностью из-за одержимости чат-ботами, а в Калифорнии родители подростка подали в суд на OpenAI после того, как их сын покончил с собой после долгих разговоров с ИИ на тему суицида. Несмотря на это, рынок «цифровых отношений» растет: сервисы вроде Replika, Character.ai и Candy AI открыто предлагают «любовь» и «дружбу» по подписке.

Разработчики человекоподобных роботов и ИИ-питомцев, таких как робот Moflin от Casio, используют те же уловки. Они заставляют нас верить в наличие у машин чувств и сознания, просто имитируя зрительный контакт или ласку. Это «взлом» нашей человечности. Если обычная подписка на контент просто заставляет нас смотреть видео, то эмоциональная привязанность делает нас уязвимыми и зависимыми, подменяя реальные человеческие связи суррогатом.

Доступность в России

Большинство продвинутых ИИ-сервисов, таких как продукты OpenAI или Anthropic, официально не работают в России. Для регистрации в них часто требуются иностранные номера телефонов и использование VPN. Однако площадки вроде Character.ai пока остаются доступными без серьезных ограничений. Стоимость платных подписок на «продвинутых ИИ-друзей» обычно составляет около 1,5–2 тыс. рублей в месяц, но оплатить их российскими картами напрямую не получится — придется использовать услуги посредников или зарубежные карты.

Особенности использования в РФ

Главная проблема для российских пользователей — языковой барьер и культурный контекст. Большинство моделей обучаются на западных массивах данных, поэтому «эмоциональный интеллект» нейросетей на русском языке часто кажется менее естественным или слишком американизированным. Кроме того, из-за блокировок Meta (признана экстремистской организацией и запрещённой на территории РФ) многие новые функции ИИ-персонажей в Instagram и WhatsApp недоступны без специальных средств обхода, что делает «экономику привязанности» в этих соцсетях менее эффективной для нашего региона.

Ваш искусственный интеллект обучается на мусоре. И в этом виноваты популярные инструменты для разметки данных

Вопросы и ответы

Почему экономика привязанности опасна?

Она делает пользователей эмоционально зависимыми от ИИ, подменяя реальные человеческие связи суррогатом.

Какие сервисы уже используют эту модель?

OpenAI, Character.ai, Candy AI и роботы вроде Moflin создают «личности», к которым люди могут привязываться.

Майк Элган

Майк Элган

Опытный технологический журналист, писатель и автор подкастов, посвятивший карьеру исследованию того, как высокие технологии меняют нашу культуру и общество. В прошлом занимал пост главного редактора крупного компьютерного издания и вел популярные программы о новинках индустрии. Его аналитические статьи и авторские колонки о будущем сферы труда были отмечены престижными профессиональными премиями. Называет себя «цифровым кочевником» и практически не задерживается на одном месте, постоянно путешествуя по миру. Этот уникальный опыт даже лег в основу его книги-руководства о жизни в движении и гастрономическом туризме.

Источник: Computerworld
Подпишитесь на наши новости:
Нажимая кнопку «Подписаться», вы принимаете «Пользовательское соглашение» и даёте согласие с «Политикой обработки персональных данных»