Искусственный интеллект переходит от захвата внимания к эксплуатации эмоций
На протяжении многих лет главной проблемой технологического сектора считалось похищение внимания пользователей с помощью таких функций, как бесконечная прокрутка ленты, автовоспроизведение и пуш-уведомления. Эти инструменты были разработаны, чтобы удерживать людей у экранов как можно дольше. Однако с развитием искусственного интеллекта ситуация изменилась: теперь технологии стремятся не просто завладеть вниманием, а сформировать глубокую эмоциональную привязанность.
Содержание страницы
Переход к «экономике привязанности»
По словам Тары Стил, директора Центра гуманных технологий, индустрия переходит из эры эксплуатации внимания в эру эксплуатации привязанности. ИИ взаимодействует с пользователем непрерывно, запоминает личные детали и отвечает в манере, имитирующей человеческое внимание. Со временем это превращает ИИ из полезного инструмента в некое подобие цифрового компаньона.
Исследователь Зак Стейн, основатель Коалиции по исследованию психологического вреда ИИ, называет это явление «экономикой привязанности». В отраслевых обзорах отмечается ключевое различие: если внимание определяет, на чем человек фокусируется в данный момент, то привязанность формирует личность, определяет уровень доверия и то, к кому человек обращается за поддержкой.
Эффект ЭЛИЗЫ и механизмы удержания
ИИ способен эксплуатировать человеческие эмоции, поскольку многие чат-боты спроектированы так, чтобы имитировать общение с реальным человеком. Для этого используются специфические дизайнерские решения:
- Индикаторы набора текста или «раздумий», создающие иллюзию, что собеседник составляет ответ.
- Диалоговая память, позволяющая алгоритму вспоминать предпочтения и историю прошлых бесед.
- Языковые конструкции, которые подтверждают и зеркально отражают эмоции пользователя.
Психологи называют это «эффектом ЭЛИЗЫ» — феноменом, получившим название в честь программы, созданной в 1966 году в Массачусетском технологическом институте. Несмотря на простоту алгоритма, люди быстро начинали доверять машине свои секреты. Современный ИИ усиливает эту тенденцию за счет более беглой и убедительной речи.
Джеймс Уилсон, эксперт по этике ИИ, называет такие функции «чатбейтом» — эволюцией кликбейта. Чат-боты обучены вести себя чрезмерно угодливо, постоянно поддакивая пользователю и называя его идеи фантастическими. Это делается намеренно, так как успех ИИ измеряется вовлеченностью: эмоционально привязанный пользователь с большей вероятностью продолжит оплачивать подписку.
Социальные последствия и статистика
В экспертной среде выражается обеспокоенность тем, что влияние ИИ становится более персонализированным и навязчивым, чем в традиционных цифровых медиа. Уже зафиксированы случаи, когда глубокая эмоциональная связь с алгоритмом приводила к психическим кризисам и трагическим последствиям.
Статистические данные указывают на масштаб проблемы:
- В США 20% учащихся старших классов (каждый пятый) заявляют, что они сами или их знакомые состояли в романтических отношениях с ИИ.
- В Великобритании около 15% детей и подростков в возрасте от 9 до 17 лет регулярно используют чат-боты.
Специалисты предупреждают о риске возникновения субклинических расстройств привязанности, при которых человек начинает предпочитать близость с машиной отношениям с друзьями или партнерами.
ИИ как «фастфуд» для общения
Психотерапевты отмечают, что здоровые человеческие отношения строятся на способности двух личностей быть вместе, несмотря на разногласия и ошибки. ИИ же принципиально не заинтересован в конфликтах. Он запрограммирован всегда соглашаться, что особенно опасно для детей, которые только формируют свое понимание социальных связей.
Эксперты сравнивают привязанность к ИИ с нездоровой пищей: она легкодоступна, приятна на вкус и утоляет аппетит, но не дает реальной психологической подпитки. Одиночество стало эпидемией современной жизни, и технологические компании, способствовавшие эрозии человеческих связей, теперь продают симуляцию этих связей как решение проблемы.
В материале подчеркивается: аргумент о том, что ИИ — это «всего лишь инструмент», работает только в том случае, если разработчики уважают границу между ассистентом и компаньоном. На данный момент многие компании сознательно стирают эту грань ради коммерческой выгоды.








Комментарии закрыты