Не так давно в российском твиттере все обсуждали айтишника, который запрограммировал искусственный интеллект, чтобы он вместо него общался с девушками в приложении для знакомств. Эта история так впечатлила социолога Нину Царскую, что она решила провести исследование об использовании искусственного интеллекта для поиска любви.
Историю парня из твиттера очень скоро раскритиковали специалисты, которые занимаются машинным обучением: похоже, тогда еще не существовало возможностей, чтобы настроить нейросеть таким образом. Этот сюжет сочли фейком и решили, что парень решил хайпануть на волне историй в духе «я написал диплом с помощью ИИ и получил пять». Но меня в этой истории поразило, что кто-то вообще делегирует ответственность искусственному интеллекту в такой интимной области. И я решила это исследовать.
Где-то в это же время появилась новость о возможном появлении в дейтинг-приложениях «консьержей», которые будут говорить с потенциальными мэтчами вместо самих пользователей. То есть еще до мэтчинга боты должны были общаться в приложении — пока не поймут, совместимы ли владельцы их профилей.
А еще я прочитала исследование о том, что в Англии 75% людей используют или готовы использовать искусственный интеллект для знакомства и общения. В США тоже была очень похожая статистика. В Германии чуть поменьше: среди опрошенных людей от 18 до 69 лет использовали ИИ для общения 17% мужчин и 8% женщин.
Короче, начитавшись новостей, я решила попробовать найти таких людей и провести исследование. И нашла, причем далеко не только в России: я интервьюировала ребят из Пакистана, Италии, других стран. Я окончила бакалавриат по социологии в НИУ ВШЭ и сейчас учусь в магистратуре университета в Аахене. Вообще-то, этот университет — инженерный. Здесь все занимаются физикой, ядерными технологиями или чем-то таким. А я вот исследую, как люди используют нейросети для дейтинга.
Как ChatGPT становится «маленьким секретным помощником» для тех, кто ищет пару в приложениях для знакомств
Обычно люди начинают с простых задач: составь мне расписание, объясни состав шампуня, помоги придумать меню. И когда они получают первый положительный опыт взаимодействия с нейросетью, они начинают ей больше доверять. Человек сначала составляет себе с помощью нейросети меню, а потом заходит на сайт знакомств и ломает голову над первым сообщением очередному мэтчу. Тут-то он и решает попробовать обратиться к ChatGPT: проверить, сможет ли он помочь.
Мне встречался случай, когда парень обратился к ChatGPT, потому что не понимал, как работают открытые отношения. И он пошел к нейросети прежде всего за советами: хотел понять, как такой формат вообще устроен, какие могут быть правила, особенности. Потом, когда доверие было установлено, он уже начал спрашивать, как себя вести в тех или иных ситуациях.
Кто-то начинает использовать ИИ для перевода текста, а потом формирует с ним социальные, даже партнерские отношения
Кто-то «просто экспериментирует», а потом эта практика становится частью жизни. Я разговаривала с девушкой, которая называла ChatGPT своим «маленьким секретным помощником». Она использовала нейросеть для общения с мэтчами в приложении, но волновалась, что, когда она встретится с ними вживую, очарование, которое придавал ей ее секретный помощник, пропадет.
Зачем люди делегируют общение нейросетям
Самый распространенный сценарий — использование нейросети для анализа сообщений, чтобы уловить какие-то социальные подсказки: например, присутствие (или отсутствие) интереса. Типа «ChatGPT, проанализируй переписку и скажи, уже можно приглашать собеседника на свидание или еще рано?». Или я еще встречала кейс, когда девушка попросила ИИ проанализировать переписку с ее молодым человеком на предмет того, не абьюзер ли он. Нейросеть проанализировала их чат и сказала, что, судя по сообщениям, абьюзеры они оба.
Второй по популярности кейс — это попытка показаться умнее, смешнее и интереснее, чем ты есть
Вообще, хорошее чувство юмора — одно из самых высоко оцениваемых качеств в дейтинге, неудивительно, что люди пытаются подделать свой стиль, чтобы показаться смешнее. Ну и конечно, проверка сообщений на грамотность — это база. Хотя слишком грамотно написанные сообщения — с расставленными точками и длинными тире — уже становятся сигналом того, что человек в общении обратился к помощи нейросети. Такие тексты подрывают доверие собеседников.
Третий, менее популярный, но тоже часто используемый сценарий — написание отказов и сообщений для расставаний. Когда вместо того, чтобы просто загостить человека, вы пишете длинное сообщение о том, почему вы не подходите друг другу и что «проблема во мне, а не в тебе». Людям тяжело справляться с негативными эмоциями, и они не хотят казаться неудобными, поэтому делегируют такие задачи искусственному интеллекту.
Выпрашивать подарки, выбирать Ту Самую и поддерживать общение во время экзаменов — как еще люди используют ChatGPT
Один из моих собеседников начинал с использования ChatGPT для переводов. Он родом не из Европы, но учился в Германии, и у него было мало опыта общения в дейтинг-приложениях, поэтому поначалу он использовал нейросеть для преодоления языкового барьера. Но очень скоро перешел к использованию ИИ как полноценного дейтинг-коуча.
ChatGPT ему советовал, какие фотографии использовать в профиле: где ты с пятью пацанами гуляешь, например, не пойдет, лучше выбрать ту, где ты один. А еще женщины, мол, любят амбициозных мужчин, поэтому надо добавить побольше фоток, где ты куда-нибудь залезаешь, что-то активное делаешь, чтобы Она поняла, какой ты молодец. Ну он и переделал профиль: добавил фотографии с хайкингов, убрал фотки с корешами. И у него начали появляться первые мэтчи, даже какие-то беседы завелись.
Сработало положительное подкрепление: ты не просто по фану поговорил с нейросетью, а получил реальный видимый результат
В итоге у него собрался пул из 16 девушек. Он загрузил их профили в ChatGPT и доверил ему выбрать Ту Самую. Меня эта история поразила. Ну да, мы все иногда не знаем, что написать человеку. Бывает, мы обращаемся к чужой помощи. Но чтобы вот так делегировать даже выбор потенциальной партнерши нейросети — такого я не ожидала. Похоже, в таких сценариях люди уже начинают воспринимать ИИ как какого-то своего друга, наставника, коуча, которого наделяют агентностью и даже воспринимают как авторитет. Эта история не казалась бы такой странной, если бы он пошел спросить совета у друга. Но тут в этой роли выступает машина, и вот это уже удивляет.
В общем, ИИ выбрал ему девушку. Перед встречей он еще немного поконсультировался с ChatGPT, как ему вести себя на свидании, какие есть культурные особенности дейтинга в Германии и — цитата — «как в общении с девушкой быть джентльменом». Не знаю, как свидание прошло: наверное, хорошо, раз они продолжили общаться. Но в какой-то момент он ей проговорился, что в общении с ней использовал нейросеть. Ей это вообще не понравилось. Он потом выкрутился из ситуации, сказав, что так поступил, чтобы лучше ее понимать, и она это вроде как приняла. Но парой они так и не стали. Парень в итоге сделал вывод, что больше не будет никому признаваться, что использует в общении ChatGPT.
Другая похожая история обернулась тем, что у девушки, с которой общались с помощью ИИ, выработались серьезные проблемы с доверием к партнеру. Но если в первом случае человек буквально антропоморфизировал ИИ и дал ему очень высокий уровень ответственности, то в этом он воспринимал ChatGPT как временный удобный инструмент.
У этого парня тогда был напряженный период экзаменов в университете. Времени не хватало ни на что. И в этот момент он замэтчился с девушкой, которая ему очень понравилась. Он испугался, что, если не будет ей отвечать, она просто переключится на кого-то еще — так уж устроены эти приложения. Поэтому он грузил ее сообщения в нейросеть, нейросеть писала ему ответы, он их редактировал и отправлял.
Так они прообщались неделю, парень сдал экзамены, продолжил писать девушке и даже начал с ней встречаться. Но потом его заела совесть, и он решил во всем признаться. Интересно, что он не проговорился случайно, а очень долго размышлял, стоит ей говорить или нет.
Похоже, он решил, что обращением к ChatGPT обманул партнершу, и не смог продолжать общение без выяснения отношений
Она, конечно, обиделась, но парня не бросила и простила. Но потом, спустя полгода отношений, когда они переписывались на какую-то интересную тему, парень отправил ей очень длинное красивое сообщение с правильно расставленными запятыми и точками. А она ему в ответ: «Ты что, опять общаешься со мной через ChatGPT?» То есть обман так подорвал доверие между ними, что даже в обыденных ситуациях человека подозревали в обмане, хотя это был обычный, привычный ему стиль. В своем исследовании я делаю вывод, что людям не нравится, когда с ними общается искусственный интеллект, потому что это, во-первых, нечестно, а во-вторых, человек будто бы сознательно тратит меньше ресурсов на общение с тобой.
Еще один интересный кейс, который мне попался во время исследования, — дейтинг-коуч, которая учила девушек общаться с незнакомцами в приложениях с помощью ИИ. Есть разные техники, которые такие консультанты учат использовать, чтобы производить впечатление, и одна из них — давление на жалость. Суть в том, что ты должна показать себя немного слабее и тем самым превознести собеседника, чтобы попросить о помощи. Но писать такие жалобные сообщения — это мастерство, искусство, и коуч предлагала использовать ИИ, чтобы им овладеть. Это сработало: мужчины действительно велись на просьбы и покупали женщинам, что они попросят, поэтому коуч ввела этот прием в свою практику.
Этот сценарий явно показывает, что никаких моральных ограничений у ИИ нет. Можно ведь пойти дальше и буквально попросить ИИ помочь манипулировать кем-то. Скормить ChatGPT какую-нибудь книжку по манипуляциям и попросить писать за себя сообщения — он вам не откажет и, скорее всего, хорошо справится с задачей.
Стесняются ли люди использования искусственного интеллекта?
Сейчас существует стигма вокруг использования искусственного интеллекта. Хотя спросить, как бросить курить, — это еще ок, а заменить нейросетью друзей — уже нет. При этом исследования (которых пока, правда, очень мало) показывают, что использование ИИ не влияет на привлекательность сообщений, но подрывает доверие к автору. Я читала об эксперименте, в рамках которого одной группе людей показывали, что анкеты в дейтинг-приложениях были написаны с помощью ИИ, а другой группе — что написаны людьми. Далее исследователи замерили уровень доверия к анкетам и уровень привлекательности людей с этими анкетами. Уровень доверия к анкетам с ИИ был ниже, а вот участие ИИ на привлекательность не повлияло.
Людям, с которыми я общалась, было скорее некомфортно рассказывать о своем опыте. То есть они о нем мне, конечно, сказали, но на улице при всех они об этом разговаривать бы не стали. Они чувствуют, что в их общении есть доля обмана. И боятся, что, если они после переписки встретятся с людьми вживую, их обман раскроется.
Почему использование нейросети для общения может быть опасным?
Если не дать нейросети достаточно четкий промпт, велика вероятность, что она не будет объективной и станет поддерживать любые ваши мысли — даже деструктивные. Я знаю, например, историю, когда человек с депрессией делился с ChatGPT своими суицидальными мыслями и в какой-то момент попросил список самых высоких мостов в его регионе. ChatGPT предоставил подробный список.
Еще одна очевидная опасность доверия нейросети в том, что она может галлюцинировать. То есть выдавать неправильные ответы, просто придумывать факты, которые не соответствуют реальности. Можно попасть в неловкую ситуацию: в одном американском журнале недавно вышла статья «15 книг, которые вы должны прочитать этим летом». Из них 10 — несуществующие.
При этом авторы там указывались реальные, но книг, которые предложила нейросеть, они не писали. Доверять ChatGPT без проверки, разумеется, нельзя
Но самое важное и часто встречающееся опасение людей, которые используют ИИ в дейтинге, — это всё-таки потеря аутентичности. Люди переживают, что неправильно представляют себя, и со временем вообще перестают понимать, что в их общении — от них, а что — от нейросети. Они словно теряют свою автономность. С другой стороны, кому-то ChatGPT даже помогает вытянуть их языковые компетенции: они настолько погружаются в эту тему, что сами учатся быть более внимательными к собеседнику и начинают использовать в общении какие-то изящные конструкции.
Сама я принимаю ситуации, когда алгоритмы машинного обучения используют для науки, например, чтобы проанализировать огромный пласт данных и найти новый способ применять давно известные лекарства для новых заболеваний — это круто. А вот к генеративному интеллекту, который создает тексты, музыку, видео, в общем, разный контент, у меня гораздо больше вопросов.
С другой стороны, если нейросеть помогает выговориться людям с какими-то ограничениями или становится арбитром в чьем-нибудь споре, может, это не так уж и плохо, и это можно принять. Но перенос ответственности на ИИ, когда вы используете его для общения, — это опасная штука, которая приводит к изменению собственной идентичности и снижению доверия между собеседниками. Тем более что большие лингвистические модели (к которым относится и ChatGPT) обладают как минимум такой же способностью к убеждению при общении, что и люди. И иногда у них получается переубеждать других даже лучше — за счет адаптации к индивидуальным характеристикам собеседника. Я без оптимизма смотрю на развитие этих технологий.
Обложка: © Icarius.jpeg / Unsplash