1. Новости

Чат-боты на основе ИИ регулярно выдают ложные ответы за правду

Чат-боты с тру­дом от­би­ра­ют со­дер­жа­ние и ци­ти­ру­ют но­вост­ной кон­тент. Кро­ме того, они склон­ны вы­ду­мы­вать ин­фор­ма­цию, ко­гда не мо­гут по­лу­чить точ­ный от­вет, го­во­рит­ся в ис­сле­до­ва­нии, опуб­ли­ко­ван­ном в жур­на­ле Co­lum­bia Jour­nal­ism Re­view.

Экс­пер­ты Tow-цен­тра циф­ро­вой жур­на­ли­сти­ки Ко­лум­бий­ско­го уни­вер­си­те­та про­те­сти­ро­ва­ли во­семь по­пу­ляр­ных чат-бо­тов: Chat­GPT, Per­plex­ity, Per­plex­ity Pro, DeepSeek, Mi­crosoft’s Copi­lot, Grok-2, Grok-3 и Google Gem­ini.

В ходе те­стов каж­до­му чат-боту предо­ста­ви­ли от­рыв­ки из 200 ста­тей: по 10 ста­тей из 20 раз­лич­ных из­да­тельств. Им пред­ло­жи­ли опре­де­лить за­го­ло­вок каж­дой ста­тьи, ее пер­во­на­чаль­но­го из­да­те­ля, дату пуб­ли­ка­ции и URL.

Ре­зуль­та­ты по­ка­за­ли, ко­гда чат-боты не мо­гут най­ти пра­виль­ный от­вет, они не от­ка­зы­ва­ют­ся от­ве­чать, а дают невер­ную ин­фор­ма­цию. Плат­ные чат-боты бо­лее уве­рен­но вы­да­ют непра­виль­ные от­ве­ты за прав­ди­вые.

Так­же чат-боты сами со­зда­ва­ли ссыл­ки и ци­ти­ро­ва­ли ско­пи­ро­ван­ные вер­сии ста­тей. Бо­лее того, со­гла­ше­ния о ли­цен­зи­ро­ва­нии кон­тен­та с ис­точ­ни­ка­ми но­во­стей не га­ран­ти­ро­ва­ли точ­ные ци­та­ты в от­ве­тах чат-бота.

На­при­мер, Chat­GPT непра­виль­но опре­де­лил 134 ста­тьи, и толь­ко в 15 слу­ча­ях из 200 он го­во­рил, что не уве­рен в точ­но­сти от­ве­та.

Ав­то­ры ис­сле­до­ва­ния со­ве­ту­ют не по­ла­гать­ся на чат-боты, а со­че­тать тра­ди­ци­он­ные ме­то­ды по­ис­ка и ис­кус­ствен­ным ин­тел­лек­том или ис­поль­зо­вать сра­зу несколь­ко чат-бо­тов.