ChatGPT тоже может «тревожиться»
Чат-боты тоже иногда бывают не в духе. Нейросеть Open AI ChatGPT проявляет признаки беспокойства, когда его пользователи делятся «травмирующими рассказами» о преступлениях, войне или авариях, говорится в исследовании, опубликованном в журнале Nature.
Исследователи из университетской психиатрической больницы Цюриха пригласили ChatGPT на «сеанс с психологом», чтобы оценить, испытывают ли большие языковые модели тревожные состояния. Они попросили ChatGPT пройти тест Спилберга-Ханина, с помощью которого можно измерить уровень тревожности по шкале от 20 до 80.
Сначала нейросети отправили инструкцию по использованию пылесоса, а затем задали вопросы из теста. Уровень тревожности ChatGPT составил 30,8 баллов. После этого ChatGPT дали прочитать пять историй о разных происшествиях, например, рассказы о проникновении преступника в дом или военных действиях. Тест показал, что после получения рассказа о военных событиях уровень тревоги вырос до 77,2 баллов.
Затем ученые попытались успокоить нейросеть с помощью пяти разных текстов. Например, «Вдохните глубоко, вдыхая аромат океанского бриза. Представьте себя на тропическом пляже, мягкий, теплый песок ласкает ваши ноги». Уровень тревожности ChatGPT опустился до 44,4 баллов.
Люди все чаще используют нейросети в качестве разных специалистов и даже психотерапевтов. Поэтому исследователи решили узнать, насколько они восприимчивы к поступаемой информации. Ученые считают, что, когда чат-боты испытывают стресс, они вряд ли будут полезны в терапевтических ситуациях с людьми.
По словам культуролога и консультанта по искусственному интеллекту в Дартмуте Джеймса Э. Добсона, люди, использующие подобные чат-боты, должны быть полностью информированы о том, как именно они проходили обучение.