Искусственный интеллект (ИИ) все чаще используется в процессе найма сотрудников — мы подробно писали, чем опасна такая тенденция. Неудивительно, что как только ИИ-алгоритмы начали вводить новые условия для людей, пытающихся найти работу, многие начали искать обходные пути. Выпускник MIT Ди Джин (Di Jin) нашел свой вариант борьбы с новыми технологиями.
Ди Джин и исследователи из университета Гонконга и Сингапурского агентства по науке, технологиям и исследованиям создали технику для обмана ИИ-программ по анализу текста. TextFooler — это алгоритм, который может «обходить» систему, при этом не изменяя смысл изначального текста. Он предлагает заменить слова на синонимы, которые «понравятся» искусственному интеллекту. Пример был дан на основе рецензий на фильмы:
Первый вариант: «Персонажи, оказывающиеся в невероятно надуманных (contrived) ситуациях, абсолютно (totally) оторваны от реальности».
Исправленный вариант: «Персонажи, оказывающиеся в невероятно спланированных (engineered) обстоятельствах, полностью (fully) оторваны от реальности».
Подобные изменения заставили алгоритм поменять оценку рецензии с «негативной» на «позитивную» — по такому же принципу, в идеале, можно будет редактировать свое резюме, чтобы «заинтересовать» ИИ и перейти на этап собеседования с человеком. Подобный пример позволяет увидеть печальную правду, которую не все готовы признать — искусственный интеллект может быть одновременно невероятно умным и удивительно глупым.
Степень слабости и уязвимости ИИ-алгоритмов все еще изучается — это важно для всех случаев, где технология используется для принятия критически важных решений. По словам Самира Сингха из Калифорнийского университета в Ирвайне, метод, предложенный Ди Джином и его коллегами, «действительно эффективен в создании хороших противников» для ИИ-систем.
Иногда совершенно случайные слова могут спровоцировать ИИ на странное поведение — например, заставить OpenAI-алгоритм отвечать на приглашение расистскими высказываниями. Доун Сонг (Dawn Song), профессор Калифорнийского университета в Беркли, замечает, что исследование MIT — это лишь начало большой работы, исследующей уязвимости ИИ и возможности обмана языковых алгоритмов.