ChatGPT, DeepSeek и другие модели могут «накручивать себя», когда пользователи задают им один и тот же вопрос несколько раз. В таких случаях точность их ответов снижается, выяснили в компании Foundry, которая занимается исследованиями в области ИИ и предлагает решения для повышения их эффективности. Об этом сообщает Business Insider.
Большие языковые модели обучены подвергать сомнению свою логику и перепроверять собственные ответы. Когда эти циклы для одного и того же запроса повторяются слишком часто, качество ответов, как ни странно, ухудшается. К такому выводу пришли ученые из Nvidia, Google, Массачусетского технологического института, Стэнфордского университета и компании DataBricks. Все они совместно работали с компанией Foundry над исследованием.
Результатом проекта стала система Ember, которая может более точно настраивать модели ИИ. Foundry не создали свою собственную нейросеть — вместо этого они ускоряют облачные вычисления и делают их более точными и эффективными.