1. Новости

ИИ может «накручивать себя». В таком состоянии чат-боты выдают ложные ответы

Chat­GPT, DeepSeek и дру­гие мо­де­ли мо­гут «на­кру­чи­вать себя», ко­гда поль­зо­ва­те­ли за­да­ют им один и тот же во­прос несколь­ко раз. В та­ких слу­ча­ях точ­ность их от­ве­тов сни­жа­ет­ся, вы­яс­ни­ли в ком­па­нии Foundry, ко­то­рая за­ни­ма­ет­ся ис­сле­до­ва­ни­я­ми в об­ла­сти ИИ и пред­ла­га­ет ре­ше­ния для по­вы­ше­ния их эф­фек­тив­но­сти. Об этом со­об­ща­ет Busi­ness In­sider.

Боль­шие язы­ко­вые мо­де­ли обу­че­ны под­вер­гать со­мне­нию свою ло­ги­ку и пе­ре­про­ве­рять соб­ствен­ные от­ве­ты. Ко­гда эти цик­лы для од­но­го и того же за­про­са по­вто­ря­ют­ся слиш­ком ча­сто, ка­че­ство от­ве­тов, как ни стран­но, ухуд­ша­ет­ся. К та­ко­му вы­во­ду при­шли уче­ные из Nvidia, Google, Мас­са­чу­сет­ско­го тех­но­ло­ги­че­ско­го ин­сти­ту­та, Стэн­форд­ско­го уни­вер­си­те­та и ком­па­нии Data­Bricks. Все они сов­мест­но ра­бо­та­ли с ком­па­ни­ей Foundry над ис­сле­до­ва­ни­ем.

Ре­зуль­та­том про­ек­та ста­ла си­сте­ма Em­ber, ко­то­рая мо­жет бо­лее точ­но на­стра­и­вать мо­де­ли ИИ. Foundry не со­зда­ли свою соб­ствен­ную ней­ро­сеть — вме­сто это­го они уско­ря­ют об­лач­ные вы­чис­ле­ния и де­ла­ют их бо­лее точ­ны­ми и эф­фек­тив­ны­ми.