1. Новости

ИИ глупеет, если его кормить некачественным брейнрот-контентом из соцсетей

У ИИ, ко­то­рых обу­ча­ли на нека­че­ствен­ном брей­н­рот-кон­тен­те из соц­се­тей, сни­жа­ют­ся ко­гни­тив­ные спо­соб­но­сти. Кро­ме того, их слож­но по­том пе­ре­обу­чить. Уче­ные срав­ни­ва­ют это вли­я­ние брей­н­ро­та на ИИ с ин­фор­ма­ци­он­ным вы­го­ра­ни­ем у лю­дей. Об этом со­об­ща­ет WIRED.

Аме­ри­кан­ские уче­ные про­ве­ли экс­пе­ри­мент обу­чи­ли две мо­де­ли на раз­ных мас­си­вах дан­ных. Пер­вой мо­де­ли они скор­ми­ли обыч­ный на­бор дан­ных, а вто­рой — вы­со­ко во­вле­ка­ю­щий кон­тент из соц­се­тей, ко­то­рый со­дер­жит сло­ва: «вау», «смот­ри­те», «толь­ко се­го­дня».

За­тем они оце­ни­ли обе мо­де­ли с по­мо­щью те­стов. Ока­за­лась, что мо­дель, на­тре­ни­ро­ван­ная на брей­н­ро­те, хуже мыс­лит и за­по­ми­на­ет. Она так­же ста­ла ме­нее этич­ной и бо­лее пси­хо­па­ти­че­ской.

Один из ав­то­ров ис­сле­до­ва­ния Цзюнью­ань Хун за­явил: «Чем боль­ше му­со­ра, нека­че­ствен­но­го кон­тен­та рас­пол­за­ет­ся по соц­се­тям, тем боль­ше он за­гряз­ня­ет те са­мые дан­ные, на ко­то­рых бу­дут обу­чать­ся бу­ду­щие мо­де­ли. Наши вы­во­ды по­ка­зы­ва­ют, что, как толь­ко этот вид „ин­фор­ма­ци­он­но­го вы­го­ра­ния“ уко­ре­ня­ет­ся, по­сле­ду­ю­щее обу­че­ние на ка­че­ствен­ных дан­ных не мо­жет пол­но­стью его ис­пра­вить».

«Обу­че­ние на ви­рус­ном или цеп­ля­ю­щем вни­ма­ние кон­тен­те мо­жет вы­гля­деть как мас­шта­би­ро­ва­ние дан­ных, но это мо­жет неза­мет­но разъ­едать ло­ги­ку, эти­ку и спо­соб­ность удер­жи­вать вни­ма­ние в длин­ном кон­тек­сте», — до­ба­вил он.