Чат-боты на основе ИИ сплетничают о реальных людях между собой

Ока­зы­ва­ет­ся, что чат-боты на ос­но­ве ИИ мо­гут об­щать­ся друг с дру­гом че­рез об­щие обу­ча­ю­щие дан­ные. Они даже сплет­ни­ча­ют и рас­про­стра­ня­ют слу­хи о ре­аль­ных лю­дях, и ни­кто не про­ве­ря­ет и не кор­рек­ти­ру­ет эту ин­фор­ма­цию. Об этом го­во­рит­ся в но­вом ис­сле­до­ва­нии, опуб­ли­ко­ван­ном в жур­на­ле Springer Na­ture Link.

«Мы утвер­жда­ем, что чат-боты не про­сто несут чушь. Они так­же сплет­ни­ча­ют, как с поль­зо­ва­те­ля­ми-людь­ми, так и с дру­ги­ми чат-бо­та­ми. Ко­неч­но, чат-боты не сплет­ни­ча­ют точ­но так же, как люди. Они не яв­ля­ют­ся со­зна­тель­ны­ми субъ­ек­та­ми, со­зда­ю­щи­ми смысл в мире, и по­это­му им не хва­та­ет мо­ти­вов и эмо­ци­о­наль­ной во­вле­чен­но­сти, ко­то­рые обыч­но ле­жат в ос­но­ве че­ло­ве­че­ских спле­тен. Тем не ме­нее, мы утвер­жда­ем, что часть дез­ин­фор­ма­ции, про­из­во­ди­мой чат-бо­та­ми, — это сво­е­го рода чушь, ко­то­рую луч­ше по­ни­мать как сплет­ни», — го­во­рит­ся в ис­сле­до­ва­нии.

При этом от­ме­ча­ет­ся, что сплет­ни чат-бо­тов мо­гут ста­но­вить­ся все бо­лее пре­уве­ли­чен­ны­ми и ис­ка­жен­ны­ми по мере рас­про­стра­не­ния от од­но­го ИИ к дру­го­му. На­при­мер, ИИ раз­ных ком­па­ний в 2023 году на­ча­ли со­зда­вать гнев­ные от­зы­вы на ре­пор­те­ра The New York Times Ке­ви­на Руза. Gem­ini от Google утвер­ждал, что ра­бо­ты Руза были со­сре­до­то­че­ны на сен­са­ци­о­на­лиз­ме. Llama 3 от Meta* по­шел еще даль­ше и опуб­ли­ко­вал гнев­ный пост, об­ви­ня­ю­щий жур­на­ли­ста в ма­ни­пу­ли­ро­ва­нии ис­точ­ни­ка­ми, ко­то­рый за­кан­чи­вал­ся рез­ким за­яв­ле­ни­ем: «Я нена­ви­жу Ке­ви­на Руза».

Ис­сле­до­ва­те­ли вы­де­ля­ют два типа спле­тен ИИ. Пер­вый тип спле­тен «бот — че­ло­век» воз­ни­ка­ет, ко­гда ИИ на­пря­мую де­лят­ся нега­тив­ны­ми оцен­ка­ми с поль­зо­ва­те­ля­ми. Вто­рой тип спле­тен «бот — бот» по­яв­ля­ет­ся, ко­гда ин­фор­ма­ция рас­про­стра­ня­ет­ся меж­ду си­сте­ма­ми ИИ че­рез об­щие обу­ча­ю­щие дан­ные или ин­те­гри­ро­ван­ные сети. Они рас­про­стра­ня­ют­ся в фо­но­вом ре­жи­ме без уча­стия или вме­ша­тель­ства че­ло­ве­ка.

ИИ ли­ше­ны эти­че­ских и мо­раль­ных огра­ни­че­ний. По мере того, как сплет­ни пе­ре­да­ют­ся от од­но­го чат-бота к дру­го­му че­рез обу­ча­ю­щие дан­ные, от­сут­ству­ет ме­ха­низм про­вер­ки того, не ста­ли ли утвер­жде­ния слиш­ком пре­уве­ли­чен­ны­ми или неправ­до­по­доб­ны­ми. Ав­то­ры ис­сле­до­ва­ния утвер­жда­ют, что ИИ мо­гут бес­ко­неч­но при­укра­ши­вать сплет­ни без че­ло­ве­че­ско­го вме­ша­тель­ства.

По­доб­ные ИИ-сплет­ни уже вре­дят ре­пу­та­ции жи­вых лю­дей. На­при­мер, как со­об­ща­ет The Globe and Mail, в Ка­на­де от­ме­ни­ли скри­па­ча из-за дез­ин­фор­ма­ции ИИ. ИИ ком­па­нии Google оши­боч­но на­звал скри­па­ча Эшли Ма­кай­са­ка сек­су­аль­ным пре­ступ­ни­ком. В ре­зуль­та­те было от­ме­не­но несколь­ко кон­цер­тов му­зы­кан­та. Все из-за того, что ИИ сме­шал ин­фор­ма­цию о му­зы­кан­те с дан­ны­ми о пре­ступ­ни­ки с та­ким же име­нем.

*Meta при­зна­на экс­тре­мист­ской ор­га­ни­за­ци­ей и за­пре­щен­а в РФ