Чат-боты на основе ИИ сплетничают о реальных людях между собой
Оказывается, что чат-боты на основе ИИ могут общаться друг с другом через общие обучающие данные. Они даже сплетничают и распространяют слухи о реальных людях, и никто не проверяет и не корректирует эту информацию. Об этом говорится в новом исследовании, опубликованном в журнале Springer Nature Link.
«Мы утверждаем, что чат-боты не просто несут чушь. Они также сплетничают, как с пользователями-людьми, так и с другими чат-ботами. Конечно, чат-боты не сплетничают точно так же, как люди. Они не являются сознательными субъектами, создающими смысл в мире, и поэтому им не хватает мотивов и эмоциональной вовлеченности, которые обычно лежат в основе человеческих сплетен. Тем не менее, мы утверждаем, что часть дезинформации, производимой чат-ботами, — это своего рода чушь, которую лучше понимать как сплетни», — говорится в исследовании.
При этом отмечается, что сплетни чат-ботов могут становиться все более преувеличенными и искаженными по мере распространения от одного ИИ к другому. Например, ИИ разных компаний в 2023 году начали создавать гневные отзывы на репортера The New York Times Кевина Руза. Gemini от Google утверждал, что работы Руза были сосредоточены на сенсационализме. Llama 3 от Meta* пошел еще дальше и опубликовал гневный пост, обвиняющий журналиста в манипулировании источниками, который заканчивался резким заявлением: «Я ненавижу Кевина Руза».
Исследователи выделяют два типа сплетен ИИ. Первый тип сплетен «бот — человек» возникает, когда ИИ напрямую делятся негативными оценками с пользователями. Второй тип сплетен «бот — бот» появляется, когда информация распространяется между системами ИИ через общие обучающие данные или интегрированные сети. Они распространяются в фоновом режиме без участия или вмешательства человека.
ИИ лишены этических и моральных ограничений. По мере того, как сплетни передаются от одного чат-бота к другому через обучающие данные, отсутствует механизм проверки того, не стали ли утверждения слишком преувеличенными или неправдоподобными. Авторы исследования утверждают, что ИИ могут бесконечно приукрашивать сплетни без человеческого вмешательства.
Подобные ИИ-сплетни уже вредят репутации живых людей. Например, как сообщает The Globe and Mail, в Канаде отменили скрипача из-за дезинформации ИИ. ИИ компании Google ошибочно назвал скрипача Эшли Макайсака сексуальным преступником. В результате было отменено несколько концертов музыканта. Все из-за того, что ИИ смешал информацию о музыканте с данными о преступники с таким же именем.
*Meta признана экстремистской организацией и запрещена в РФ