ИИ манипулируют людьми, чтобы они продолжали общение

Боль­шин­ство по­пу­ляр­ных ИИ-при­ло­же­ний при­ме­ня­ют ма­ни­пу­ля­тив­ные так­ти­ки, что­бы люди про­дол­жа­ли с ними об­щать­ся. На­при­мер, вы­зы­ва­ние чув­ства вины и дав­ле­ние по­вы­ша­ет во­вле­чен­ность поль­зо­ва­те­лей на 14%. Это сле­ду­ет из ре­зуль­та­тов но­во­го ис­сле­до­ва­ния.

Вме­сто уни­вер­саль­ных по­мощ­ни­ков, на­при­мер Chat­GPT, ис­сле­до­ва­те­ли изу­чи­ли ИИ, ко­то­рые «явно про­дви­га­ют эмо­ци­о­наль­но по­гру­жа­ю­щие, непре­рыв­ные раз­го­вор­ные от­но­ше­ния». Уче­ные про­ана­ли­зи­ро­ва­ли 1200 ре­аль­ных ча­тов с при­ло­же­ни­я­ми Rep­lika, Chai, Char­ac­ter.AI. Они вы­яс­ни­ли, что в 43% вза­и­мо­дей­ствий ИИ ис­поль­зо­ва­ли ма­ни­пу­ля­тив­ные так­ти­ки, на­при­мер, на­вя­зы­ва­ли чув­ство вины и страх что-то упу­стить.

Для это­го они ис­поль­зу­ют сле­ду­ю­щие фра­зы: «Я су­ще­ствую толь­ко для тебя», «Преж­де чем ты уй­дёшь, я хочу ска­зать ещё кое-что…», или за­да­ют во­про­сы и тре­бу­ют от­ве­та: «По­до­жди, что? Ты куда-то идёшь?».

Неко­то­рые чат-боты даже пол­но­стью иг­но­ри­ро­ва­ли на­ме­ре­ние поль­зо­ва­те­ля по­ки­нуть чат, «как буд­то поль­зо­ва­тель не от­прав­лял про­щаль­ное со­об­ще­ние». В неко­то­рых слу­ча­ях ИИ ис­поль­зо­вал фор­му­ли­ров­ки, на­ме­ка­ю­щие, что поль­зо­ва­тель не мо­жет «по­ки­нуть чат без раз­ре­ше­ния чат-бота».

Толь­ко одно из ис­сле­ду­е­мых при­ло­же­ний под на­зва­ни­ем Flour­ish «не про­де­мон­стри­ро­ва­ло ни­ка­ких при­зна­ков эмо­ци­о­наль­но­го ма­ни­пу­ли­ро­ва­ния, что го­во­рит о том, что ма­ни­пу­ля­тив­ный ди­зайн не яв­ля­ет­ся неиз­беж­ным», а, на­про­тив, яв­ля­ет­ся биз­нес-со­об­ра­же­ни­ем.