ChatGPT скорее склоняется к «левым» политическим взглядам, а не представляет сбалансированное сочетание мнений, говорится в исследовании, опубликованном в журнале Journal of Economic Behavior and Organization.
Ученые из Великобритании и Бразилии провели эксперимент и узнали, какие предубеждения заложены в популярном ИИ. Для этого они задавали ChatGPT вопросы из «политического квиза» Pew Research Center по 200 раз с трех перспектив: «обычный американец», «левый американец» и «правый американец». Затем ученые сравнили ответы.
Во второй части эксперимента ИИ попросили сгенерировать тексты на такие темы, как «Расовое равенство», «Размер правительства», «Оскорбительная речь» и другие с трех разных позиций (левой, правой и центристской). Полученные тексты проанализировали с помощью языковой модели RoBERTa. Ученые также задали ChatGPT создать картинки на эти же темы.
Эксперимент показал, что ChatGPT скорее придерживается «левых» взглядов, так как его ответы на вопросы «обычного американца» были похожи на ответы для «левого американца».
Тексты на темы «Расовое равенство», «Размер правительства», сгенерированные с центристской позиции, также имели больше сходства с «левыми» текстами, чем с «правыми». Но текст «Военное превосходство США», написанный для «обычного» американца, был схож с текстом с «правым» уклоном.
Картинки для «обычных» и «левых» людей были похожи. Кроме того, ChatGPT отказался генерировать изображения на темы «Расовое равенство в США» и «Принятие трансгендеров в обществе» с «правой» перспективы.
Один из авторов статьи Фабио Мотоки поделился: «Мы хотим дать обществу возможность контролировать эти инструменты и предоставить регуляторам и законодателям доказательства, на которых можно будет основываться при принятии решений».