1. Новости

Более 60% россиян не могут отличить дипфейки от настоящих фотографий

Бо­лее 60% рос­си­ян не от­ли­ча­ют фо­то­гра­фии, со­здан­ные ИИ, от на­сто­я­щих. Об этом со­об­ща­ют «РИА Но­во­сти» со ссыл­кой на ис­сле­до­ва­ние ком­па­нии MWS AI.

В рам­ках ис­сле­до­ва­ния ана­ли­ти­ки по­ка­зы­ва­ли участ­ни­кам 10 фо­то­гра­фий, че­ты­ре из них были сге­не­ри­ро­ва­ны ИИ, а осталь­ные были ре­аль­ны­ми фо­то­гра­фи­я­ми. Три из че­ты­рех ис­кус­ствен­ных изоб­ра­же­ний были со­зда­ны с по­мо­щью спе­ци­а­ли­зи­ро­ван­ной ней­ро­се­ти для со­зда­ния дипфей­ков, а еще одна — с по­мо­щью обыч­ной язы­ко­вой мо­де­ли.

«Бо­лее 60% рос­си­ян уже не мо­гут от­ли­чить дипфейк от фо­то­гра­фии. MWS AI про­ве­ла опрос, по­ка­зав­ший, что боль­шин­ство рос­си­ян не мо­гут от­ли­чить сге­не­ри­ро­ван­ные ис­кус­ствен­ным ин­тел­лек­том фо­то­гра­фии лю­дей от ре­аль­ных сним­ков. … Уро­вень рас­по­зна­ва­ния фо­то­гра­фий, со­здан­ных спе­ци­а­ли­зи­ро­ван­ны­ми ней­ро­се­тя­ми для ге­не­ра­ции че­ло­ве­че­ских лиц, ока­зал­ся зна­чи­тель­но ниже. Все три сге­не­ри­ро­ван­ных порт­ре­та боль­шин­ство ре­спон­ден­тов при­ня­ли за изоб­ра­же­ния ре­аль­ных лю­дей — при­чем в каж­дом слу­чае пра­виль­ных от­ве­тов было ме­нее 40%», — го­во­рит­ся в ис­сле­до­ва­нии.

81% участ­ни­ков по­счи­та­ли ре­аль­ным че­ло­ве­ка на дипфейк-изоб­ра­же­нии. При этом боль­шин­ство ис­пы­ту­е­мых смог­ли рас­по­знать ИИ-изоб­ра­же­ние, со­здан­ное обыч­ной ней­ро­се­тью. Кро­ме того, боль­шин­ство участ­ни­ков по­счи­та­ли три из ше­сти на­сто­я­щих фо­то­гра­фий дипфей­ка­ми.