Благотворительные гуманитарные организации используют ИИ-изображения голодающих детей, чтобы собрать пожертвования
Благотворительные организации и фонды по всему миру начали использовать фото голодающих детей и других уязвимых слоев населения, сгенерированные ИИ. С их помощью организации привлекают деньги. Однако, у экспертов это вызывает этические вопросы. Об этом сообщает The Guardian.
ИИ-фото, изображающие крайнюю нищету, детей, жертв насилия, заполонили сайты стоковых фотографий, а ведущие благотворительные организации все чаще их используют в своих кампаниях.
Специалисты в области здравоохранения со всего мира обеспокоены такой тенденцией. Исследователь Института тропической медицины в Антверпене, изучающий создание изображений, связанных со здоровьем в мире, Арсений Аленичев заявил: «Эти изображения воспроизводят визуальный образ бедности — дети с пустыми тарелками, потрескавшаяся земля, стереотипные визуальные образы. Совершенно очевидно, что организации используют ИИ-изображения вместо настоящих, потому что это дешево и не нужно получать согласие людей на фото».
Аленичев собрал более 100 ИИ-изображений крайней нищеты, которые используются отдельными лицами или организациями для кампаний в соцсетях против голода и сексуального насилия. Подобные фото на стоковых сервисах часто сопровождаются подписями, например, «Фотореалистичный ребенок в лагере беженцев», «Азиатские дети плавают в реке, полной отходов», «Белый волонтер оказывает медицинскую консультацию маленьким детям в африканской деревне».
«Они настолько расистски настроены. Они не должны даже допускать публикации подобных материалов, потому что это как худшие стереотипы об Африке, Индии и так далее», — сказал Аленичев.
Тем временем генеральный директор стокового сервиса Freepik заявил, что ответственность за использование столь экстремальных изображений лежит на потребителях медиа, а не на платформах. Он добавил, что стоковые ИИ-фотографии создают пользователи платформы. За это они могут получать деньги, когда клиенты Freepik решают купить их изображения.
В прошлом году ООН опубликовала на YouTube видео, в котором были представлены сгенерированные ИИ показания бурундийской женщины. В ролике ее ИИ-аватар рассказывает о пережитом насилии во время гражданской войны в 1993 году. Видео было удалено после того, как газета Guardian обратилась в ООН за комментариями.
Представитель миротворческих сил ООН заявил: «Видео, о котором идёт речь, созданное более года назад с использованием ИИ, было удалено, поскольку мы сочли его демонстрирующим ненадлежащее использование ИИ и представляющим угрозу для целостности информации, поскольку оно смешивает реальные кадры и искусственно сгенерированный контент, близкий к реальному».