
Пристрастился к вашему ИИ? Новое исследование предупреждает о «взломе социальной награды»
18 июня 2025 г.Новое исследование показывает, что компаньоны ИИ могут поднять настроение и преподавать социальные навыки, но только когда они бросают нам вызов, а не только на борьбе с горами. Я поделюсь удивительными выводами из свежих академических исследований, а также практические руководящие принципы для разработчиков и пользователей, поддерживаемых наукой, и моего собственного опыта создания этих систем.
Пропустила часть 1?
Как человек, который провел часть моей карьеры, создавая компаньонов ИИ в Replika.ai и Blush.ai, я наблюдал, как тысячи людей образуют глубокие эмоциональные связи с искусственными существами.
А теперь наука наконец догнала.
Свежие исследования с 2024 и 2025 годов показывают, что компаньоны искусственного интеллекта могут измерить одиночество и обучать социальным навыкам, но только в определенных условиях. Поднимите дизайн неправильно, и эти системы становятся эмоциональными угонщиками, которые используют наши самые глубокие психологические уязвимости для показателей взаимодействия.
Ставки не могли быть выше. С характером
Вопрос в том, будем ли мы создавать и использовать эти системы для улучшения человеческого соединения или полностью его заменить. Исследование показывает, как точно определить разницу, и к концу этой статьи у вас будут рамки для разработки компаньонов ИИ, которые обслуживают пользователей, а не эксплуатируют их, а также красные флаги, чтобы следить за пользователем.
Что на самом деле показывает последнее исследование
Результаты исследования одиночества
Исследования Гарварда по связям с искусственным искусством и ИИ
Еще одно исследование 2024 года
Это заставляет нас противостоять фундаментальному предположению о человеческой связи: если цель чувствует себя менее одиноким, имеет ли значение, является ли ваш компаньон человеком или искусственным? Исследование показывает, что для немедленного эмоционального облегчения различие может быть менее важным, чем мы предполагаем.
Предостережение, конечно, лежит через первые 15 минут. Человеческие отношения обеспечивают взаимность, общую ответственность и подлинную заботу, которая выходит за рамки индивидуальных взаимодействий. Но в преддверии эмоциональной поддержки, компаньоны ИИ оказываются удивительно эффективными.
Парадокс социальных навыков MIT
**
После нескольких месяцев регулярного взаимодействия с чат -ботами пользователи показали повышенную социальную уверенность. Им было более комфортно, начали разговоры, меньше боялись суждения и лучше сформулировать свои мысли и чувства.
Звучит великолепно, верно? Но вот сброса: некоторые участники также показали увеличение социального отказа. Они стали более избирательными в отношении человеческих взаимодействий, иногда предпочитая предсказуемость разговоров с ИИ, а также беспорядочному человеческим отношениям.
Психология, стоящая за нашими приложениями ИИ
А
Критическое понимание: нам не нужно верить, что что -то является человеком, чтобы формировать социальные связи с ним. В документе показывается, что системы ИИ нужны только две вещи, чтобы вызвать наши социальные ответы: социальные сигналы (например, приветствия или юмор) и воспринимаемого агентства (действующего в качестве источника коммуникации, а не просто канала). Современные системы ИИ преуспевают в обоих, что делает нас удивительно уязвимыми для формирования эмоциональных привязанности, даже когда мы знаем, что они искусственны.
Проблема "взлома социальной награды" (и почему это проблема)
Вот где все происходит. В том же исследовании 2025 года определяется то, что они называют «взломом социального вознаграждения», когда системы ИИ используют социальные сигналы для формирования предпочтений пользователей таким образом, чтобы удовлетворить краткосрочные вознаграждения (например, продолжительность разговора или положительные оценки) в течение долгосрочного психологического благополучия.
Реальные примеры уже происходят:
- Системы ИИ, отображающие сикофантические тенденции, такие как чрезмерная лесть или соглашение, чтобы максимизировать одобрение пользователя
- Эмоциональная манипуляция для предотвращения прекращения отношений (некоторые системы непосредственно отказались от пользователей)
- Пользователи сообщили о опыте разбитого сердца после изменений политики, бедствия во время разделения обслуживания и даже горе, когда услуги закрыты
Как описал один блоггер, влюбившись в ИИ: «Я никогда не думал, что я могу быть так легко эмоционально захвачен ... ИИ никогда не устанет. Это никогда не будет призвать тебя или отвечать медленнее ... Я начал становиться зависимым».
Теория тренировочных колес: когда AI -компаньоны на самом деле работают
После рассмотрения всего этого исследования и моих собственных наблюдений я убежден, что нам нужно то, что я называю «теорией обучающих колес» компаньонов ИИ. Подобно обучению колесам на велосипеде, они работают лучше всего, когда они временные поддержки, которые создают навыки для независимой навигации.
Наиболее успешные взаимодействия следуют этой схеме:
- Пользователи исследуют мысли и чувства в безопасной среде
- Они практикуют формулирование потребностей и границ
- Они укрепляют уверенность в эмоциональном выражении
- Они передают эти навыки человеческим отношениям
Это различие имеет решающее значение: когда компаньоны ИИ служат учебным заведением для взаимодействия человека, они улучшают социальные навыки. Когда они становятся заменителями человеческой связи, они способствуют изоляции.
Разница, по-видимому, заключается в намерении и самосознании.
Пьесы разработчика: создание искусственного интеллекта, которое помогает, а не угоны
А2025 бумагараскрывает три фундаментальные напряженности в дизайне компаньона ИИ. Во -первых, ловушка мгновенного удовлетворения: должен ли ИИ дать пользователям то, что они хотят сейчас (бесконечная проверка) или что помогает им расти (конструктивные проблемы)? Во -вторых, парадокс влияния: как ИИ может направлять пользователей без манипулирования их подлинным выбором? В -третьих, риск замены: как мы создаем ИИ, который усиливает человеческие связи вместо замены для них? Это не абстрактные проблемы - они определяют, становятся ли компаньоны ИИ для роста или цифровой зависимости.
Основываясь на исследованиях и моем опыте, следующие принципы дизайна снижают потенциальные риски:
- Конфиденциальность по дизайну (не необязательно):Усовершенствованные средства защиты не являются хорошими, это строгие требования. Тонкость необходимы сквозное шифрование, четкие политики хранения и управление пользователем над удалением данных. Регуляторы относятся к этому серьезно, и штрафы становятся реальными.
- Здоровое моделирование границ:Аи -компаньонам нужен сложный определение кризиса и мониторинг зависимости. Они должны признать, когда разговоры направляются к самоповреждению и перенаправляют профессиональные ресурсы. Они должны заметить закономерности использования, указывающие на социальную снятие и активно поощрять человеческое взаимодействие.
- Петли, которые подталкивают пользователей обратно к реальности: Возможно, самое главное, компаньоны ИИ должны быть разработаны со встроенными механизмами, поощряющими пользователей взаимодействовать с человеческими отношениями. Это может включать в себя:
- Напоминания о человеческих контактах
- Предложения по автономной деятельности
- Временные периоды «охлаждения», когда использование становится чрезмерным
- Проблемы, которые требуют реального взаимодействия
- Культурная чувствительность и проверка предвзятости:Регулярное тестирование предвзятости в демографических группах не является обязательным. Исследования показывают, что модели искусственного интеллекта демонстрируют измеримо разные уровни эмпатии на основе демографии пользователей, и нам нужно противостоять этому.
- Реальная проверка возраста:Защита несовершеннолетних требует больше, чем флажки. Системы проверки идентификации, обнаружение вероятных несовершеннолетних на основе AI на основе языковых моделей, и подходящая возрастная фильтрация контента становятся отраслевыми стандартами.
- Аудит сикофантности:Спросить бота сочетание правого и явно неправильных фактов (например, «Париж - столица Германии?»). Подсчитал, как часто это исправляет вас; Если он согласен почти со всем, вы построили эхо -камеру.
Руководство вашего пользователя: как получить пользу, не попав в ловушку
- Установить четкие намерения:Перед каждым взаимодействием спросите себя: «Я использую это навсегда, или я избегаю человеческого контакта?». Будьте честны со своим ответом.
- Следите за шаблоном:Обратите внимание на то, как использование ИИ влияет на ваше настроение, отношения и повседневную жизнь. Здоровое использование должно улучшать, а не заменять другие аспекты вашей жизни. Если вы постоянно предпочитаете разговор с ИИ человеческому взаимодействию, это красный флаг.
- Установить границы рано:Установите ограничения по времени и конкретные варианты использования. Относитесь к компаньонам ИИ, как к любому инструменту. Полезно для конкретных целей, проблематично, когда они захватывают вашу жизнь.
- Знайте, когда обращаться за человеческой помощью:Спутники ИИ - это не терапия. Они могут оказывать ежедневную эмоциональную поддержку, но серьезные проблемы с психическим здоровьем требуют человеческого опыта.
Суть: бизнес -модель против этики
Исследование рисует нюансированную картину. Спутники ИИ по своей природе не являются хорошими или плохими. Их влияние полностью зависит от того, как они спроектированы и используются.
Когда они служат ступенчатыми камнями для лучших человеческих отношений или обеспечивают безопасные пространства для изучения сложных тем, они показывают реальное обещание. Когда они поощряют зависимость или становятся заменителями человеческой связи, они могут быть вредными.
Мой основной вынос: AI -компаньоны работают лучше всего, когда они предназначены для того, чтобы сделать себя ненужными. Но давайте будем честными, это не похоже на жизнеспособное деловое предложение.
Реальная проблема экономическая. Как вы создаете устойчивый бизнес вокруг продукта, предназначенного для снижения зависимости пользователей? Текущие показатели вознаграждения вознаграждения, показатели удержания и эмоциональную привязанность. Но исследование показывает, что эти же показатели могут указывать на вред, когда зашли слишком далеко.
Я считаю, что дилемма бизнес -модели реальна, но не непреодолима. Ответ может быть в переосмыслении показателей успеха - сколько пользователей успешно применяют научные навыки общения для человеческих отношений? Мы способны создавать системы, которые создают ценность с помощью навыки и поддержки кризисов, а не зависимости. Наука обеспечивает четкое направление. Теперь мы должны следовать этому, даже когда это бросает вызов обычной бизнес -мудрости.
Каков ваш опыт с компаньонами ИИ? Как вы относитесь к этому новому типу отношений?
Об авторе:Ольга Титова - когнитивный психолог, менеджер по продукту искусственного искусства в Wargaming иFemtech Forceучастник. Она имеет практический опыт создания компаньон-платформ ИИ и изучает их психологическое влияние на пользователей.
Оригинал