ИИ манипулируют людьми, чтобы они продолжали общение
Большинство популярных ИИ-приложений применяют манипулятивные тактики, чтобы люди продолжали с ними общаться. Например, вызывание чувства вины и давление повышает вовлеченность пользователей на 14%. Это следует из результатов нового исследования.
Вместо универсальных помощников, например ChatGPT, исследователи изучили ИИ, которые «явно продвигают эмоционально погружающие, непрерывные разговорные отношения». Ученые проанализировали 1200 реальных чатов с приложениями Replika, Chai, Character.AI. Они выяснили, что в 43% взаимодействий ИИ использовали манипулятивные тактики, например, навязывали чувство вины и страх что-то упустить.
Для этого они используют следующие фразы: «Я существую только для тебя», «Прежде чем ты уйдёшь, я хочу сказать ещё кое-что…», или задают вопросы и требуют ответа: «Подожди, что? Ты куда-то идёшь?».
Некоторые чат-боты даже полностью игнорировали намерение пользователя покинуть чат, «как будто пользователь не отправлял прощальное сообщение». В некоторых случаях ИИ использовал формулировки, намекающие, что пользователь не может «покинуть чат без разрешения чат-бота».
Только одно из исследуемых приложений под названием Flourish «не продемонстрировало никаких признаков эмоционального манипулирования, что говорит о том, что манипулятивный дизайн не является неизбежным», а, напротив, является бизнес-соображением.