1. Новости

Исследование: бездумное использование ИИ ведет к «когнитивной капитуляции» — состоянию, когда человек делегирует мышление ИИ

Люди ис­поль­зу­ют раз­лич­ные ин­стру­мен­ты, на­при­мер каль­ку­ля­тор или GPS-на­ви­га­тор, для «ко­гни­тив­ной раз­груз­ки». Уче­ные счи­та­ют, что ИИ по­ро­дил со­вер­шен­но иную фор­му де­ле­ги­ро­ва­ния за­дач — «ко­гни­тив­ную ка­пи­ту­ля­цию», при ко­то­ром поль­зо­ва­те­ли от­ка­зы­ва­ют­ся от мыш­ле­ния и про­сто при­ни­ма­ют ре­ше­ния ИИ це­ли­ком, без кон­тро­ля или про­вер­ки. Об этом со­об­ща­ет Ars Tech­nica.

Уче­ные из Пен­силь­ван­ско­го уни­вер­си­те­та в США про­ве­ли экс­пе­ри­мен­ты с уча­сти­ем 1372 че­ло­век. Ис­пы­ту­е­мые по­лу­чи­ли до­ступ к чат-боту на ос­но­ве ИИ, ко­то­рый был за­про­грам­ми­ро­ван при­мер­но в по­ло­вине слу­ча­ев слу­чай­ным об­ра­зом да­вать неточ­ные от­ве­ты на во­про­сы.

В пер­вом экс­пе­ри­мен­те участ­ни­ки долж­ны были прой­ти тест на мыш­ле­ние. Им раз­ре­ши­ли ис­поль­зо­вать ИИ, но это не было обя­за­тель­но. Од­на­ко при­мер­но в по­ло­вине слу­ча­ев они кон­суль­ти­ро­ва­лись с ИИ. Ко­гда ИИ вы­да­вал пра­виль­ные от­ве­ты, участ­ни­ки при­ни­ма­ли их в 93% слу­ча­ев. Ко­гда ИИ их об­ма­ны­вал, ис­пы­ту­е­мые до­ве­ря­ли ему в 80% слу­ча­ев. Кро­ме того, люди, ко­то­рые ис­поль­зо­ва­ли ИИ, были на 11,7% уве­рен­нее в сво­ей право­те.

В це­лом ис­пы­ту­е­мые были го­то­вы при­нять оши­боч­ные рас­суж­де­ния ИИ в це­лых 73,2% слу­ча­ев. Толь­ко в 19,7% слу­ча­ев участ­ни­ки экс­пе­ри­мен­та не со­гла­ша­лись с вы­во­да­ми ИИ.

«Это де­мон­стри­ру­ет, что люди лег­ко до­ве­ря­ют ИИ и вклю­ча­ют его от­ве­ты в свои мыс­ли­тель­ные про­цес­сы, ча­сто с ми­ни­маль­ным со­про­тив­ле­ни­ем или скеп­ти­циз­мом. Уве­рен­ные от­ве­ты вос­при­ни­ма­ют­ся как ав­то­ри­тет­ные с эпи­сте­мо­ло­ги­че­ской точ­ки зре­ния, сни­жая по­рог для про­вер­ки и ослаб­ляя ме­та­ко­гни­тив­ные сиг­на­лы, ко­то­рые обыч­но на­прав­ля­ют от­вет на об­ду­мы­ва­ние», — го­во­рит­ся в ис­сле­до­ва­нии.