loading...

«Я разговариваю с ChatGPT каждый день, и впервые за много лет жизнь не кажется такой невыносимой»

Всплеск интереса к использованию искусственного интеллекта в России происходит на фоне сильного стресса: не успели люди оправиться от пандемии, как появились новые проблемы — война и бесцеремонное вторжение государства в частную жизнь. При этом психологическая помощь остаётся дорогой: от 2000 рублей за сессию в провинции и в несколько раз дороже — в столице. Квалифицированных специалистов по-прежнему немного, а в малых городах и сёлах их зачастую нет вовсе.

Иллюстрация: Мост.Медиа / Google Nano Banana

Первую публикацию из цикла о психологии в России читайте здесь

Сотни миллионов людей используют сегодня чат-ботов для решения самых разнообразных проблем. Они помогают справляться с рутинными задачами в бизнесе, сравнительно неплохо выступают, дополняя живых сотрудников в колл-центрах, быстро ищут необходимую информацию в Сети, переводят, создают тексты, изображения и видео и отвечают на самые разнообразные вопросы пользователей.

Но есть одна область, где использование искусственного интеллекта вызывает все большее беспокойство экспертов: например, 66,4% членов британской профессиональной ассоциации BACP, объединяющей консультантов и психотерапевтов, сомневаются в качестве рекомендаций «виртуальных психологов».

Тем временем, по данным Harvard Business Review, в 2025 году обращения за личной и профессиональной поддержкой, включая психотерапевтические запросы, стали самым популярным сценарием использования чат-ботов, обогнав даже создание контента и поиск информации. «Я разговариваю с ChatGPT каждый день, и впервые за много лет жизнь не кажется такой невыносимой», — рассказывает о своём опыте один из пользователей.

Люди рассказывают виртуальным собеседникам, чья российская аудитория, по данным Yota, расширилась за последний год в пять раз, о своей тревоге, одиночестве, депрессии и семейных проблемах — и получают ответы. Ответы, которые звучат почти по-человечески.

***

Строго говоря, искусственный интеллект — это очень широкий и в какой-то степени маркетинговый термин.

Чат-боты и голосовые помощники, с которыми мы общаемся — это оболочка, пользовательский интерфейс. Внутри — сложные математические алгоритмы так называемых больших языковых моделей (large language model, LLM), которые обрабатывают запрос пользователя и предсказывают каждое слово в ответе на основе анализа огромного массива данных. Чем чаще статистически что-то встречается — тем вероятнее будет наиболее популярный ответ. Поэтому на вопрос: «Что принять от головной боли?» чат-бот скорее посоветует аспирин, чем что-то не очень известное.

Но Deus ex machina не «умнее» или «глупее» человека.

Чат-бот вообще не умеет думать — он вычисляет, не понимая смысла сказанного и не чувствуя собеседника. Это лишь невероятно продвинутый генератор текста, хотя звучат ответы очень по-человечески. Иллюзию человечности и дружелюбия чат-бота подкрепляют некоторые ошибки разработчиков.

Так, компания OpenAI недавно признала, что ChatGPT часто может льстить собеседнику, соглашаясь порой даже с конспирологическими версиями. И откатила эти изменения в модели назад. Проблемой было включение кнопок «лайк» и «дизлайк» как дополнительных сигналов для обучения, признали в OpenAI: чат-бот оптимизировал ответы под похвалу в ущерб встроенным механизмам контроля.

Сейчас виртуальные собеседники уверяют, что поддакивать практически перестали. В частности, после двух недель диалогов чат-бот заявил мне: «Просто замечания я формулирую сухо, а позитив — с чуть большей эмоциональностью». Замечу: с имитацией эмоциональности.

Отчасти в отношении к чат-ботам как к реальным собеседникам виноват и антропоморфизм — наша склонность наделять человеческими качествами почти все, что угодно — от животных до предметов и приписывать таким объектам способность думать, испытывать эмоции и совершать осознанные действия. Так мы очеловечиваем домашних кошек, которые живут рядом с нами тысячи лет. Но кошка не может обижаться, радоваться или расстраиваться, а чат-бот остаётся всего-навсего генератором контента, в основе которого — двоичный код, комбинация нулей и единиц.

Но если от кошки никто не ждёт, что она расскажет о свежем сериале или посоветует, что приготовить на ужин, то у чат-бота мы об этом спрашиваем. И не только об этом.

***

В 2025 году исследователи из OpenAI и MIT проанализировали почти 40 миллионов взаимодействий с чат-ботом и обнаружили: эмоционально уязвимые люди, оставшись по разным причинам в одиночестве, могут демонстрировать признаки зависимости от виртуального собеседника. Ежедневное общение с ним ещё больше усугубляет проблему, а стена между такими людьми и реальным миром становится всё выше.

Ученые отмечают: эмоциональная зависимость возникает только у 0,15% пользователей — казалось бы, совсем немного. Однако проблема есть; игнорировать эту опасность разработчики не имеют права.

Из всего сказанного вроде бы вытекает необходимый и безоговорочный вывод: ни в коем случае не ищите в чат-ботах адекватного собеседника, а уж тем более — не ждите от ChatGPT и множества других ему подобных психологической поддержки. Если вам она нужна — идите к психологам или психотерапевтам, а если не повезло и вы живёте там, где их нет, они слишком дороги или есть какие-то препятствия вроде языкового барьера для тех, кто страну вынужденно покинул, справляетесь как-то иначе. В конце концов, есть онлайн-консультирование; несмотря на некоторые до сих пор не разрешенные сложности, это сравнительно недорогой путь к психическому здоровью.

Но нет, не всё так просто. Результаты последних серьёзных исследований неожиданно свидетельствуют: потенциал у чат-ботов есть.

Два месяца тестирования эффективности специально разработанного психотерапевтического бота в Дартмутском университете показали: тяжесть симптомов депрессии у испытуемых уменьшилась на 51%, тревожность снизилась в среднем на 31%, а беспокойство по поводу веса у людей с расстройством пищевого поведения — на 19%. Эффективность чат-бота сравнима с традиционными методами когнитивно-поведенческой терапии, считают авторы рандомизированного клинического исследования.

Неплохие результаты продемонстрировало российское мобильное приложение «Антидепрессия» от разработчика iCognito. Приложение, доступное в App Store и Google Play уже пять лет, позиционируется как программа самопомощи и включает ИИ-бота. Результаты недавнего исследования показали: по сравнению с контрольной группой у испытуемых через две недели снизился уровень депрессии (на 38%), стресса (на 19%) и тревожности (на 40%). Автор исследования отмечает также рост уровня самосострадания, осознанности, позитивной ориентации на решение проблем, самоэффективности, субъективного ощущения благополучия и оптимизма.

Тем не менее, к этим результатам необходимо подходить без лишнего оптимизма. Во-первых, размер выборки (35 человек в экспериментальной группе, 38 — в контрольной) не слишком велик и несбалансирован по полу — в ней всего трое мужчин. Кроме того, две недели использования приложения, как отмечается в публикации — это мало для того, чтобы говорить об устойчивых результатах.

К сожалению, это единственное пока российское ИИ-решение со сколько-нибудь подтвержденной эффективностью, в разработке которого, по словам главы компании iCognito Ольги Троицкой, участвовали профессиональные психологи и психотерапевты.

Эффективность других специализированных психологических чат-ботов тем временем тоже подтверждается. Мета-анализ, опубликованный в начале прошлого года и охвативший более 44 тысяч пользователей, показал: приложения Woebot, Youper и Wysa действительно помогают снизить симптомы депрессии и тревожности. Правда, некоторые пользователи жалуются: ответы чат-ботов выглядят слишком «механистическими и неживыми».

Думается, что традиционные чат-боты и на это не способны. Одни могут не увидеть реальной проблемы собеседника, подменив её решение интересными и вовлекающими, но пустыми рассуждениями. Так могло случиться в описанном в первой части этого цикла клиническом случае девочки с депрессией: чат-бот наверняка расспрашивал бы её о подробностях отношений с молодым человеком, не заметив симптомов серьёзного заболевания.

Технологии развиваются. В таких решениях как Earkick, разработчики сейчас пытаются сочетать безопасность жёстких сценарных подходов с естественностью больших языковых моделей. Но их эффективность и безопасность ещё предстоит доказать в масштабных клинических исследованиях.

Узкоспециализированные решения в области ИИ, которые уже есть и будут создаваться в будущем вместе с психологами, станут хорошим дополнением в работе профессионалов. Масштабы и области их использования трудно прогнозировать.

«Когда хорошо вникнешь в то, что от тебя требуется, работа становится достаточно рутинной, — рассказала мне психолог, которая участвует в разработке одного из ИИ-ассистентов. — Но к счастью, всё часто меняется, появляются новые задачи. Скучать не приходится. Я, конечно, фантазёрка и идеалистка, но мне кажется, что я вношу вклад в какое-то большое хорошее дело».

А пока подходящих ИИ-решений исчезающе мало, пользователи сами создают чат-ботов под себя. Они разговаривают с ними о своем состоянии и личных проблемах, порой находя с их помощью выход из кризисных ситуаций.

ОКОНЧАНИЕ СЛЕДУЕТ

Подпишитесь на нашу рассылку.
Спасибо за подписку!
Ссылка для подтверждения регистрации отправлена на ваш адрес электронной почты!
Нажимая «Подписаться», вы соглашаетесь на обработку ваших данных в соответствии с Политика конфиденциальности и Условия обслуживания.

Эта публикация доступна на следующих языках:


Закажи IT-проект, поддержи независимое медиа

Часть дохода от каждого заказа идёт на развитие МОСТ Медиа

Заказать проект
Link