Благотворительные гуманитарные организации используют ИИ-изображения голодающих детей, чтобы собрать пожертвования

Бла­го­тво­ри­тель­ные ор­га­ни­за­ции и фон­ды по все­му миру на­ча­ли ис­поль­зо­вать фото го­ло­да­ю­щих де­тей и дру­гих уяз­ви­мых сло­ев на­се­ле­ния, сге­не­ри­ро­ван­ные ИИ. С их по­мо­щью ор­га­ни­за­ции при­вле­ка­ют день­ги. Од­на­ко, у экс­пер­тов это вы­зы­ва­ет эти­че­ские во­про­сы. Об этом со­об­ща­ет The Guardian.

ИИ-фото, изоб­ра­жа­ю­щие край­нюю ни­ще­ту, де­тей, жертв на­си­лия, за­по­ло­ни­ли сай­ты сто­ко­вых фо­то­гра­фий, а ве­ду­щие бла­го­тво­ри­тель­ные ор­га­ни­за­ции все чаще их ис­поль­зу­ют в сво­их кам­па­ни­ях.

Спе­ци­а­ли­сты в об­ла­сти здра­во­охра­не­ния со все­го мира обес­по­ко­е­ны та­кой тен­ден­ци­ей. Ис­сле­до­ва­тель Ин­сти­ту­та тро­пи­че­ской ме­ди­ци­ны в Ант­вер­пене, изу­ча­ю­щий со­зда­ние изоб­ра­же­ний, свя­зан­ных со здо­ро­вьем в мире, Ар­се­ний Але­ни­чев за­явил: «Эти изоб­ра­же­ния вос­про­из­во­дят ви­зу­аль­ный об­раз бед­но­сти — дети с пу­сты­ми та­рел­ка­ми, по­трес­кав­ша­я­ся зем­ля, сте­рео­тип­ные ви­зу­аль­ные об­ра­зы. Со­вер­шен­но оче­вид­но, что ор­га­ни­за­ции ис­поль­зу­ют ИИ-изоб­ра­же­ния вме­сто на­сто­я­щих, по­то­му что это де­ше­во и не нуж­но по­лу­чать со­гла­сие лю­дей на фото».

Але­ни­чев со­брал бо­лее 100 ИИ-изоб­ра­же­ний край­ней ни­ще­ты, ко­то­рые ис­поль­зу­ют­ся от­дель­ны­ми ли­ца­ми или ор­га­ни­за­ци­я­ми для кам­па­ний в соц­се­тях про­тив го­ло­да и сек­су­аль­но­го на­си­лия. По­доб­ные фото на сто­ко­вых сер­ви­сах ча­сто со­про­вож­да­ют­ся под­пи­ся­ми, на­при­мер, «Фо­то­ре­а­ли­стич­ный ре­бе­нок в ла­ге­ре бе­жен­цев», «Ази­ат­ские дети пла­ва­ют в реке, пол­ной от­хо­дов», «Бе­лый во­лон­тер ока­зы­ва­ет ме­ди­цин­скую кон­суль­та­цию ма­лень­ким де­тям в аф­ри­кан­ской де­ревне».

«Они на­столь­ко ра­сист­ски на­стро­е­ны. Они не долж­ны даже до­пус­кать пуб­ли­ка­ции по­доб­ных ма­те­ри­а­лов, по­то­му что это как худ­шие сте­рео­ти­пы об Аф­ри­ке, Ин­дии и так да­лее», — ска­зал Але­ни­чев.

Тем вре­ме­нем ге­не­раль­ный ди­рек­тор сто­ко­во­го сер­ви­са Freepik за­явил, что от­вет­ствен­ность за ис­поль­зо­ва­ние столь экс­тре­маль­ных изоб­ра­же­ний ле­жит на по­тре­би­те­лях ме­диа, а не на плат­фор­мах. Он до­ба­вил, что сто­ко­вые ИИ-фо­то­гра­фии со­зда­ют поль­зо­ва­те­ли плат­фор­мы. За это они мо­гут по­лу­чать день­ги, ко­гда кли­ен­ты Freepik ре­ша­ют ку­пить их изоб­ра­же­ния.

В про­шлом году ООН опуб­ли­ко­ва­ла на YouTube ви­део, в ко­то­ром были пред­став­ле­ны сге­не­ри­ро­ван­ные ИИ по­ка­за­ния бу­рун­дий­ской жен­щи­ны. В ро­ли­ке ее ИИ-ава­тар рас­ска­зы­ва­ет о пе­ре­жи­том на­си­лии во вре­мя граж­дан­ской вой­ны в 1993 году. Ви­део было уда­ле­но по­сле того, как га­зе­та Guardian об­ра­ти­лась в ООН за ком­мен­та­ри­я­ми.

Пред­ста­ви­тель ми­ро­твор­че­ских сил ООН за­явил: «Ви­део, о ко­то­ром идёт речь, со­здан­ное бо­лее года на­зад с ис­поль­зо­ва­ни­ем ИИ, было уда­ле­но, по­сколь­ку мы со­чли его де­мон­стри­ру­ю­щим ненад­ле­жа­щее ис­поль­зо­ва­ние ИИ и пред­став­ля­ю­щим угро­зу для це­лост­но­сти ин­фор­ма­ции, по­сколь­ку оно сме­ши­ва­ет ре­аль­ные кад­ры и ис­кус­ствен­но сге­не­ри­ро­ван­ный кон­тент, близ­кий к ре­аль­но­му».