ИИ глупеет, если его кормить некачественным брейнрот-контентом из соцсетей
У ИИ, которых обучали на некачественном брейнрот-контенте из соцсетей, снижаются когнитивные способности. Кроме того, их сложно потом переобучить. Ученые сравнивают это влияние брейнрота на ИИ с информационным выгоранием у людей. Об этом сообщает WIRED.
Американские ученые провели эксперимент обучили две модели на разных массивах данных. Первой модели они скормили обычный набор данных, а второй — высоко вовлекающий контент из соцсетей, который содержит слова: «вау», «смотрите», «только сегодня».
Затем они оценили обе модели с помощью тестов. Оказалась, что модель, натренированная на брейнроте, хуже мыслит и запоминает. Она также стала менее этичной и более психопатической.
Один из авторов исследования Цзюньюань Хун заявил: «Чем больше мусора, некачественного контента расползается по соцсетям, тем больше он загрязняет те самые данные, на которых будут обучаться будущие модели. Наши выводы показывают, что, как только этот вид „информационного выгорания“ укореняется, последующее обучение на качественных данных не может полностью его исправить».
«Обучение на вирусном или цепляющем внимание контенте может выглядеть как масштабирование данных, но это может незаметно разъедать логику, этику и способность удерживать внимание в длинном контексте», — добавил он.