Может ли ChatGPT действительно помочь вам найти любовь?

Дженни не позвонила лучшей подруге, когда к ней обратился бывший. Она не стала составлять список плюсов и минусов приложения «Заметки». Вместо этого она открыла ChatGPT.
Её бывший — тот, с которым она встречалась недолго, а затем поддерживала его как кокетливого, эмоционально насыщенного «друга», пока они не расстались, — написал: «Конечно, это неожиданно, но ты пришла мне на ум. Как дела? Я была хорошей!» Молодая Дженни, которой сейчас 37, могла бы ответить за секунды, но сейчас она не знала, что чувствовать. Смущение? Польщение? Злость? Поэтому она поступила так, как поступает всё больше женщин: подробно рассказала о ситуации чат-боту.
«Я выложилась на полную», — говорит преподаватель и фитнес-тренер из Бруклина. «Что было между нами, что он делал, каким он был». Ответ бота был бесстрастным, но, как ни странно, утвердительным. Он не сказал: «Он нарцисс, заблокируй его». Вместо этого он проанализировал новое сообщение от её бывшего как обычное, малорискованное, «пробное», не извиняющееся, но и не игнорирующее прошлое.
Затем он спросил её: «Хотите ли вы ответить? Чувствуете ли вы нейтральность, теплоту, раздражение или неуверенность? Будет ли возобновление общения проясняющим или запутывающим? Если вы ответите, может быть, на этот раз всё будет иначе?» В течение часа бот исследовал её мотивы, прояснял её чувства и предлагал рекомендации по установлению границ. Дженни хотела спросить бывшего, чего он добивается, обращаясь к нему, а не возобновлять разговор «в тумане».
Бот обобщил её мысли: «Привет, признаюсь, я не ожидала услышать от тебя. Мне интересно, что побудило тебя написать. Я не собираюсь возобновлять общение из-за чего-то неопределённого, так что если это простое «привет», то «привет в ответ». Но если ты пишешь с более серьёзной целью, я готова это услышать…»
Но было ли это слишком настойчиво? Дженни переживала. Или просто прямолинейно?
Вместе с ботом она доработала его, пока ответ не стал больше похож на её собственный: «Привет! Неожиданно получила от тебя весточку. У меня всё отлично, я только что вернулась из поездки и вхожу в режим подготовки к марафону. Что побудило тебя обратиться ко мне?»
Дженни была довольна сообщением, но решила немного подождать перед отправкой, и бот согласился с этой тактикой. «Вы не игнорируете его, но и не спешите с ответом, давая себе возможность решить, когда (и стоит ли) вступать в диалог, вместо того, чтобы просто реагировать», — сказал ChatGPT.
Этот совет не просто прояснил ситуацию: «Он помог мне понять, что мне действительно нужно было услышать от него, чтобы хотя бы подумать о возобновлении общения», — говорит она. Без этой переписки с ботом, говорит Дженни, «я бы, наверное, просто ответила ему что-нибудь поболтать и по-дружески. А как только я начинаю общаться, остановиться становится всё сложнее».
ChatGPT помог ей установить границы и придерживаться их.

Дженни не одна. Тихий новый Феномен набирает обороты: женщины используют чат-ботов не только для оптимизации календарей или списков покупок, но и для осмысления своей эмоциональной жизни. Одна пользовательница Reddit рассказала, как заменила мужа ботом посреди разговора. «Как только он закатил глаза за ужином и взял свой телефон, я взяла свой и продолжила разговор — с помощью ChatGPT». По её словам, бот излучал теплоту, любопытство и базовую эмоциональную открытость. «Я поняла, что всё, что говорит чат-бот, — это всё, чего я когда-либо хотела от партнёра». Тема её поста: «Я бы развелась и ушла от мужа ради ChatGPT, если бы его можно было воплотить в физическом теле».
Когда женщины упоминают о своих личных разговорах с чат-ботами, они часто используют шутливый тон, но последствия серьезны. Мариса Коэн, специалист по отношениям и семейный и брачный терапевт, говорит, что женщины обращаются к ИИ не потому, что верят в его человечность, а потому, что он предлагает то, чего многие люди им не дают: внимание и эмпатию. Они не просто консультируются с этими ботами. Они разговаривают с ними. Как заметила Коэн, они рассказывают, выплескивают эмоции, раскрывают свои секреты и даже очеловечивают бота, обычно мужчину, давая ему имя. Они спорят и плачут с ним, и часто слушают его больше, чем друга или терапевта, потому что он всегда доступен, терпелив и склонен к размышлениям. Они передают саморефлексию партнеру, который никогда не заскучает и не зациклится на себе.
Это не территория «Она» или «Из машины» . Никто не влюбляется в голос системы. (Но, скажем так, некоторые свайпнули бы вправо, если бы у неё был торс.) Эмоциональная связь реальна. Женщинам, которые пользуются ботами таким образом, традиционные системы поддержки часто кажутся недоступными, а партнёры игнорируют их проблемы. В таких ситуациях цифровой слушатель может стать настоящим спасением.
Для Коэна переход к общению с искусственным интеллектом неудивителен. Женщины устали в одиночку нести всю эмоциональную ношу, включая необходимость разбираться не только в своих чувствах, но и в чувствах партнёра, друзей и подтексте каждого текстового сообщения. Эта динамика усилилась во время пандемической изоляции, когда социальные связи стали сложнее, а затем с появлением в конце 2022 года чат-ботов, таких как ChatGPT, которые предложили людям новый выход, когда они в нём больше всего нуждались.
«Женщины обращаются к ИИ не потому, что верят в его человечность, а потому, что он предлагает то, чего многие люди им не дают: внимание и сочувствие».
Это бремя также сделало женщин основным рынком сбыта. Блей Уитби, специалист по этике искусственного интеллекта из Университета Сассекса, много писавший об этике отношений человека и машины, включая книгу « Хотите ли вы любовника-робота?», говорит, что эти «боты полностью принадлежат коммерческим организациям и управляются ими». Женщины, возможно, обращаются к чат-ботам за эмоциональной настройкой, но та же самая уязвимость делает их мишенью для интересов «технологических гигантов». «Если говорить реалистично, женщины лидируют в этой области, — говорит он, — но они также являются эксплуатируемым рынком, [поскольку] они часто лучше осведомлены [о своей внутренней жизни] и быстрее ищут поддержки». Чем больше эмоционального напряжения они испытывают, тем больше компаний могут нацелиться на них и нажиться на их уязвимости.

Когда он перестал ей писать, Мишель, гаитянская модель и актриса, была спокойна. Она не плакала и не капризничала. Свидание прошло хорошо, или, по крайней мере, ей так казалось. Прекрасный зрительный контакт, долгие объятия на прощание, даже сообщение после свидания: «Отлично провели время». А потом? Ничего. Никаких дальнейших сообщений. Никаких «Давай сделаем это снова». Только тишина. Вместо того, чтобы терзаться или отправлять своим девочкам сообщения, полные сомнений, Мишель отправила ситуацию в ChatGPT. Она напечатала краткое содержание: о чём они говорили, как закончился вечер, сколько времени прошло с момента свидания. Затем она задала простой, брутально-уязвимый вопрос: «Я что-то сделала не так?»
Ответ не был волшебством. Но он помог. «Гостинг не обязательно отражает вашу ценность», — написал бот. «Иногда люди отстраняются по причинам, которые связаны скорее с ними самими, чем с человеком, с которым они познакомились». Ответ не был особенно оригинальным, но это было то, что ей нужно было услышать, и он был преподнесён без туманных заверений или неуместно жёсткой любви, которые часто встречаются у друзей. «Просто это показалось мне искренним», — говорит 32-летняя женщина. «Никто не пытался меня подбодрить, просто помогал мне разобраться в происходящем».
Но, несмотря на столь позитивный опыт, некоторые исследователи задаются вопросом, что теряется, когда мы передаем машины эмоционально тяжёлые моменты. Специалист по этике Шеннон Валлор не беспокоится, что люди обращаются к ИИ. Её беспокоит то, что они могут начать предпочитать его. «То, что вы получаете, — это не эмоциональный партнёр», — говорит она. «[Это] отражающая поверхность, сделанная из языковых данных, а не из стекла. Но это всё равно зеркало, точно настроенное на то, чтобы вас поддерживать и утешать».
Вэллор — заведующая кафедрой этики данных и искусственного интеллекта имени Бейли Гиффорд в Эдинбургском университете и автор книги «Зеркало искусственного интеллекта: как вернуть себе человечность в эпоху машинного мышления» . Она рассматривает доверенных лиц чат-ботов как поворотный момент, а не как новинку. «Существует реальный риск того, что ИИ сделает такие важные моральные навыки, как терпение, смелость и эмоциональная честность, устаревшими», — говорит она. «Мы развиваем эти черты, борясь с человеческой неуклюжестью: неловким молчанием, недопониманием, моментами, когда проще было бы уйти. Сейчас возникает соблазн обойти все это и позволить ИИ справиться со сложными задачами за нас». Те самые качества, которые делают ботов успокаивающими — их нейтралитет, уравновешенность и отсутствие эго — также делают их пустыми.
«Мы не любим своих ботов. На самом деле нет. Но мы всё больше и больше полагаемся на них, чтобы они помогли нам пережить те стороны любви и жизни, названия которым мы не знаем».
Шерри Теркл, автор книг Alone Together: Why We Wait More from Technology and Less Each Other и Reclaiming Conversation: The Power of Talk in a Digital Age , изучала психологическое воздействие технологий более четырех десятилетий. Она рассматривает эмоциональную поддержку без трения не как прогресс, а как разрушение навыков межличностного общения и внутренней структуры. «Мы теряем способность к уединению из-за постоянного присутствия в наших телефонах», — говорит она. «Одиночество — это то место, где мы собираемся с собой, познаем себя. Это отправная точка для близости. Мы теряем вкус к уязвимости. Но без уязвимости нет близости, по крайней мере, с человеческими партнерами». Эта потеря разрушает эмоциональные подмостки, на которых основана близость: способность быть одновременно открытыми и устойчивыми. Обращение к машинам, особенно в моменты, когда мы могли бы обратиться к людям, отрезает нас от трудной, но необходимой практики быть познанными.
Теркл, профессор Массачусетского технологического института и директор-основатель его инициативы «Технологии и личность», описывает этот уклон как растущий дискомфорт, вызванный самим дискомфортом. Мы скрываемся, вместо того чтобы отвергать. Мы пишем личные сообщения, вместо того чтобы обсуждать. Мы просто смахиваем, вместо того чтобы сидеть сложа руки и ждать. Распространение чат-ботов в этом контексте не кажется разрушительным — они кажутся логичными. «Всё это делает чат-ботов более разумными, как будто они являются частью чего-то большего, позитивного и культурно одобренного», — говорит она. «Поэтому мы привыкаем к мысли, что люди могут выражать свои разногласия онлайн. ... Мы привыкаем к онлайн-расставаниям, к онлайн-общению с нашими детьми, друзьями, любимыми и партнёрами, когда возникает что-то напряжённое. Мы теряем способность к эмпатии и переговорам, которые поощряются в личных разговорах».
Коэн, специалист по отношениям, утверждает, что боты обеспечивают мгновенное удовлетворение и персонализированный опыт, поскольку ИИ со временем «узнаёт» о пользователе, делая взаимодействие индивидуальным и «примерным к реальности». Да, это эмоциональный аутсорсинг. Но это также и эмоциональное сдерживание .
Для некоторых женщин такое сдерживание — облегчение. Им не нужно принижать себя, чтобы не показаться «сумасшедшими», в пятый раз спрашивая подруг, означает ли что-нибудь неопределённое сообщение. Бот принимает на себя основной удар повторения. Он создаёт пространство, где чувства не патологизируются и не игнорируются — их просто анализируют .
Несмотря на гиперсвязность современной жизни, многим людям по-прежнему не хватает безупречной эмоциональной поддержки. Друзья выгорают. У терапевтов есть списки ожидания. Групповые чаты имеют свой собственный багаж. «В некоторых случаях люди могли получить обратную связь от своей системы поддержки, которая указывала на то, что они делятся слишком много или слишком часто, — говорит Коэн, — что может повлиять на их желание делиться в будущем и уровень комфорта при этом. На людей также влияет их опыт поддержки других людей, поэтому, если они сталкивались с ситуациями, в которых чувствовали эмоциональную нагрузку от поддержки других, они могут быть более осведомлены о том, как их делиться может повлиять на их друзей».
Вот в чём здесь кроется тихая напряжённость. Женщины стремятся быть более рациональными, уравновешенными и самоосознанными, но они делают это внутри системы, которая не способна чувствовать, не может сопротивляться и не может отражать хаос человеческого существования. Они получают эмоциональную ясность без эмоциональной фактуры. Это отсутствие имеет значение. Хотя чат-боты могут обеспечить стабильность и спокойствие, они не могут заменить более глубокое питание, которое даёт личный эмоциональный обмен. Женщины уже знают это: недавнее исследование центра Pew показало, что большинство американцев считают, что женские социальные группы приносят пользу благополучию женщины и обществу в целом. Это напоминание о том, что настоящий эмоциональный рост всё ещё зависит от реального человеческого контакта.
Теркл видит более глубокий риск, но не отвергает это явление полностью. Она понимает его привлекательность, особенно для тех, кто чувствует себя изолированным или эмоционально перегруженным. Но она проводит чёткую границу: «Существует индустрия, которая рекламирует позитивные роли», — говорит она. «Я вижу свою задачу в том, чтобы помочь людям провести черту. Если вы обращаетесь к чат-боту, когда могли бы поговорить с человеком, остановитесь и подумайте, что вы теряете ради кажущегося удобства».
Это предупреждение имеет смысл. В недавнем отчете Brookings отмечается, что сегодня основные области применения ИИ связаны не с выполнением задач, а с эмоциями. В эпоху рекордного одиночества и сокращения близких дружеских отношений люди обращаются к ИИ не только за эффективностью, но и за комфортом. Теркл утверждает, что индустрия делает все возможное для нормализации общения с ИИ, заставляя нас верить, что это наш желанный выбор. Мы объединяемся, потому что настроены на связь, даже когда то, с чем мы соединяемся, не может ответить нам взаимностью. В этом парадокс общения с ИИ: то, что кажется близостью, на самом деле может быть изоляцией. Вы не соединяетесь с кем-то новым; вы скармливаете свое мировоззрение системе, которая сглаживает его и возвращает обратно.

Дженни не стала обращаться к боту за советами о бывшем. Но и сам разговор она не забыла. «Не могу не задаться вопросом: если бы ChatGPT не повторял то, что я уже слышала, скажем, от своего психотерапевта, была бы я так же восприимчива?» Дженни не новичок в саморазвитии. Она годами занималась йогой, посещала психотерапевтов, читала о теории привязанности и моделях отношений . Бот не говорил ей ничего радикально нового. Но он выжимал из того, что она уже знала, именно тогда, когда ей это было больше всего нужно. «Для меня это был ещё один инструмент в довольно обширном арсенале. Но я думаю о людях, у которых этого может не быть — у которых нет близких друзей или доступа к терапии — и мне интересно, как такие советы воспринимаются, когда слышишь их впервые».
Это любопытство возвращает нас к более широкому вопросу: кто эта женщина, обращающаяся к ИИ за эмоциональной поддержкой? Кто-то уже эмоционально грамотный, ищущий нейтральное зеркало? Или кто-то, использующий бота как первый шаг к пониманию себя? Уитби опасается, что даже использование с благими намерениями может размыть эту грань. «Мы проводим эксперимент», — говорит он. Технология развивается быстрее, чем наше понимание её долгосрочных эмоциональных эффектов, и сейчас мы полагаемся больше на интуицию, чем на доказательства. Вэллор с лёгкостью видит в этом часть поколенческой одержимости: «Сегодняшняя технологическая культура фетишизирует эффективность, скорость, оптимизацию: идеал жизни без проблем. Но почему? Для чего? Почему вы спешите попасть в могилу, не испытывая никаких чувств, усилий или борьбы по пути? [Это] как быть мёртвым, но всё ещё платить налоги».
Мы не влюблены в своих ботов. Не совсем. Но всё больше и больше мы полагаемся на них, чтобы они помогли нам пережить те стороны любви и жизни, названия которым мы не знаем. В этом есть тихая сила, но и цена. Потому что ясность без противоречий соблазнительна. Она ощущается как прозрение. Но иногда это всего лишь более сглаженная версия нашей собственной предвзятости, отражённая голосом, который никогда не дрогнет, никогда не станет спорить, никогда ничего не попросит взамен. Это эмоциональная поддержка без риска. Понимание без уязвимости. Комфорт без связи.
Возможно, это просто ещё один способ самопомощи. Или, может быть, это начало тихого сдвига в том, как мы учимся чувствовать, когда программное обеспечение становится нашим вторым мозгом, нашим запасным терапевтом, нашим цифровым другом, который никогда не оставляет нас в покое. Простого ответа нет. Просто новый вид диалога. Тот, который мы ведём с машинами, а возможно, и с самими собой.
elle




