loading...

«Hablo con ChatGPT todos los días y, por primera vez en muchos años, la vida no me parece tan insoportable»

El auge del interés por el uso de la inteligencia artificial en Rusia ocurre en un contexto de gran estrés: la gente apenas se recuperaba de la pandemia cuando surgieron nuevos problemas: la guerra y la intromisión descarada del Estado en la vida privada. Además, la ayuda psicológica sigue siendo costosa: desde 2.000 rublos por sesión en provincias y varias veces más cara en la capital. Todavía hay pocos especialistas cualificados y, en las ciudades pequeñas y pueblos, a menudo no hay ninguno.

Ilustración: Most.Media / Google Nano Banana

La primera publicación de la serie sobre psicología en Rusia léala aquí

Cientos de millones de personas utilizan hoy chatbots para resolver todo tipo de problemas. Ayudan con tareas rutinarias en los negocios, funcionan relativamente bien complementando a empleados reales en centros de llamadas, buscan rápidamente información en internet, traducen, crean textos, imágenes y videos, y responden a todo tipo de preguntas de los usuarios.

Pero hay un área en la que el uso de la inteligencia artificial genera cada vez más preocupación entre los expertos: por ejemplo, el 66,4% de los miembros de la asociación profesional británica BACP, que agrupa a consejeros y psicoterapeutas, dudan de la calidad de las recomendaciones de los «psicólogos virtuales».

Mientras tanto, según Harvard Business Review, en 2025 las solicitudes de apoyo personal y profesional, incluidas las de tipo psicoterapéutico, se convirtieron en el escenario más popular para el uso de chatbots, superando incluso la creación de contenido y la búsqueda de información. «Hablo con ChatGPT todos los días y, por primera vez en muchos años, la vida no me parece tan insoportable», cuenta uno de los usuarios sobre su experiencia.

Las personas cuentan a sus interlocutores virtuales —cuya audiencia rusa, según Yota, se ha multiplicado por cinco en el último año— sobre su ansiedad, soledad, depresión y problemas familiares, y reciben respuestas. Respuestas que suenan casi humanas.

***

En sentido estricto, inteligencia artificial es un término muy amplio y en cierta medida de marketing.

Los chatbots y asistentes de voz con los que interactuamos son una interfaz, una carcasa para el usuario. Por dentro, hay complejos algoritmos matemáticos de las llamadas grandes modelos de lenguaje (large language model, LLM), que procesan la solicitud del usuario y predicen cada palabra de la respuesta en base al análisis de una enorme cantidad de datos. Cuanto más frecuente es algo estadísticamente, más probable será la respuesta más popular. Por eso, ante la pregunta: «¿Qué tomar para el dolor de cabeza?», el chatbot probablemente recomendará aspirina antes que algo poco conocido.

Pero el Deus ex machina no es «más inteligente» ni «más tonto» que una persona.

El chatbot en realidad no sabe pensar: calcula, sin entender el significado de lo que se dice ni sentir al interlocutor. Es solo un generador de texto increíblemente avanzado, aunque las respuestas suenen muy humanas. La ilusión de humanidad y amabilidad del chatbot se ve reforzada por algunos errores de los desarrolladores.

Por ejemplo, OpenAI reconoció recientemente que ChatGPT a menudo puede halagar al interlocutor, llegando incluso a estar de acuerdo con teorías conspirativas. Y revirtió esos cambios en el modelo. El problema fue la inclusión de los botones «me gusta» y «no me gusta» como señales adicionales para el aprendizaje, reconocieron en OpenAI: el chatbot optimizaba las respuestas para recibir elogios, en detrimento de los mecanismos de control incorporados.

Ahora los interlocutores virtuales aseguran que ya casi no asienten a todo. En particular, después de dos semanas de diálogo, el chatbot me dijo: «Simplemente, formulo los comentarios de manera seca, y el aspecto positivo con un poco más de emocionalidad». Cabe señalar: con una imitación de emocionalidad.

En parte, el hecho de tratar a los chatbots como interlocutores reales se debe al antropomorfismo: nuestra tendencia a atribuir cualidades humanas a casi cualquier cosa, desde animales hasta objetos, y a asignarles la capacidad de pensar, sentir emociones y realizar acciones conscientes. Así humanizamos a los gatos domésticos, que viven con nosotros desde hace miles de años. Pero un gato no puede ofenderse, alegrarse o entristecerse, y un chatbot sigue siendo simplemente un generador de contenido basado en código binario, una combinación de ceros y unos.

Pero si nadie espera que un gato le hable de una serie nueva o le aconseje qué preparar para la cena, sí se lo preguntamos a un chatbot. Y no solo eso.

***

En 2025, investigadores de OpenAI y el MIT analizaron casi 40 millones de interacciones con chatbots y descubrieron que las personas emocionalmente vulnerables, que por diversas razones se quedan solas, pueden mostrar signos de dependencia del interlocutor virtual. La comunicación diaria con él agrava aún más el problema, y el muro entre estas personas y el mundo real se hace cada vez más alto.

Los científicos señalan que la dependencia emocional ocurre solo en el 0,15% de los usuarios, lo que parece muy poco. Sin embargo, el problema existe; los desarrolladores no tienen derecho a ignorar este riesgo.

De todo lo anterior parecería que se desprende una conclusión necesaria e inapelable: bajo ningún concepto busque en los chatbots un interlocutor adecuado, y mucho menos espere de ChatGPT y otros similares apoyo psicológico. Si lo necesita, acuda a psicólogos o psicoterapeutas, y si no tiene suerte y vive donde no hay, son demasiado caros o existen obstáculos como la barrera del idioma para quienes se han visto obligados a dejar el país, busque otra manera. Al fin y al cabo, existe la consulta online; a pesar de algunas dificultades aún no resueltas, es una vía relativamente económica para la salud mental.

Pero no, no es tan sencillo. Los resultados de las últimas investigaciones serias muestran inesperadamente que los chatbots tienen potencial.

Dos meses de pruebas de la eficacia de un bot psicoterapéutico especialmente desarrollado en la Universidad de Dartmouth demostraron que la gravedad de los síntomas de depresión en los sujetos disminuyó en un 51%, la ansiedad bajó en promedio un 31% y la preocupación por el peso en personas con trastornos alimentarios un 19%. La eficacia del chatbot es comparable a los métodos tradicionales de terapia cognitivo-conductual, según los autores del estudio clínico aleatorizado.

Buenos resultados también mostró la aplicación móvil rusa «Antidepresión» del desarrollador iCognito. La aplicación, disponible en App Store y Google Play desde hace cinco años, se presenta como un programa de autoayuda e incluye un bot de IA. Los resultados de un estudio reciente mostraron que, en comparación con el grupo de control, los sujetos redujeron su nivel de depresión (38%), estrés (19%) y ansiedad (40%) tras dos semanas. El autor del estudio señala también un aumento en la autocompasión, la atención plena, la orientación positiva hacia la resolución de problemas, la autoeficacia, la sensación subjetiva de bienestar y el optimismo.

Sin embargo, estos resultados deben tomarse con cautela. En primer lugar, el tamaño de la muestra (35 personas en el grupo experimental, 38 en el de control) no es muy grande y está desequilibrado en cuanto a género: solo hay tres hombres. Además, dos semanas de uso de la aplicación, como se señala en la publicación, es poco tiempo para hablar de resultados duraderos.

Por desgracia, esta es la única solución rusa de IA con cierta eficacia comprobada, en cuyo desarrollo, según la directora de iCognito, Olga Troitskaya, participaron psicólogos y psicoterapeutas profesionales.

Mientras tanto, la eficacia de otros chatbots psicológicos especializados también está siendo confirmada. Un metaanálisis publicado a principios del año pasado, que incluyó a más de 44.000 usuarios, mostró que las aplicaciones Woebot, Youper y Wysa realmente ayudan a reducir los síntomas de depresión y ansiedad. Sin embargo, algunos usuarios se quejan: las respuestas de los chatbots parecen demasiado «mecánicas y poco naturales».

Parece que los chatbots tradicionales tampoco pueden hacer más. Algunos pueden no detectar el problema real del interlocutor, sustituyendo su solución por razonamientos interesantes y atractivos pero vacíos. Esto pudo haber ocurrido en el caso clínico descrito en la primera parte de esta serie de una niña con depresión: el chatbot probablemente le habría preguntado sobre los detalles de su relación con el chico sin notar los síntomas de una enfermedad grave.

La tecnología avanza. En soluciones como Earkick, los desarrolladores intentan ahora combinar la seguridad de enfoques rígidos basados en escenarios con la naturalidad de los grandes modelos de lenguaje. Pero su eficacia y seguridad aún deben ser demostradas en estudios clínicos a gran escala.

Las soluciones especializadas en IA que ya existen y las que se crearán en el futuro junto a psicólogos serán un buen complemento en el trabajo de los profesionales. Es difícil predecir la escala y los ámbitos de uso.

«Cuando entiendes bien lo que se espera de ti, el trabajo se vuelve bastante rutinario», me contó una psicóloga que participa en el desarrollo de uno de los asistentes de IA. «Pero por suerte, todo cambia a menudo, surgen nuevas tareas. No hay tiempo para aburrirse. Claro, soy una soñadora e idealista, pero me parece que aporto mi granito de arena a una gran causa».

Y mientras hay poquísimas soluciones de IA adecuadas, los propios usuarios crean chatbots a su medida. Hablan con ellos sobre su estado y problemas personales, y a veces encuentran con su ayuda una salida a situaciones de crisis.

CONTINUARÁ

Suscríbete a nuestro boletín.
¡Gracias por suscribirte!
¡Se ha enviado un enlace a tu correo electrónico para confirmar tu registro!
Al hacer clic en ″Suscribirse″, usted acepta el procesamiento de sus datos de acuerdo con la Política de privacidad y Condiciones de servicio.

Esta publicación está disponible en los siguientes idiomas:


Закажи IT-проект, поддержи независимое медиа

Часть дохода от каждого заказа идёт на развитие МОСТ Медиа

Заказать проект
Link