Чат-боты с трудом отбирают содержание и цитируют новостной контент. Кроме того, они склонны выдумывать информацию, когда не могут получить точный ответ, говорится в исследовании, опубликованном в журнале Columbia Journalism Review.
Эксперты Tow-центра цифровой журналистики Колумбийского университета протестировали восемь популярных чат-ботов: ChatGPT, Perplexity, Perplexity Pro, DeepSeek, Microsoft’s Copilot, Grok-2, Grok-3 и Google Gemini.
В ходе тестов каждому чат-боту предоставили отрывки из 200 статей: по 10 статей из 20 различных издательств. Им предложили определить заголовок каждой статьи, ее первоначального издателя, дату публикации и URL.
Результаты показали, когда чат-боты не могут найти правильный ответ, они не отказываются отвечать, а дают неверную информацию. Платные чат-боты более уверенно выдают неправильные ответы за правдивые.
Также чат-боты сами создавали ссылки и цитировали скопированные версии статей. Более того, соглашения о лицензировании контента с источниками новостей не гарантировали точные цитаты в ответах чат-бота.
Например, ChatGPT неправильно определил 134 статьи, и только в 15 случаях из 200 он говорил, что не уверен в точности ответа.
Авторы исследования советуют не полагаться на чат-боты, а сочетать традиционные методы поиска и искусственным интеллектом или использовать сразу несколько чат-ботов.