Nos hemos acostumbrado a recurrir a las aplicaciones de IA para casi cualquier pequeña cosa: preguntamos qué hacer cuando nos duele el estómago, pedimos ayuda para redactar correos electrónicos en el trabajo o incluso qué escribir en un mensaje a un ex, consultamos dónde volar y cuándo y dónde es mejor reservar un pasaje. Pero, ¿qué sucede cuando nos encontramos en angustia emocional? ¿Cuando estamos tristes, nos sentimos perdidos o simplemente necesitamos que alguien nos escuche? ¿Estará la IA ahí para nosotros entonces? ¿Puede una conversación con un chatbot realmente aliviar la angustia mental o apoyarnos en un momento de soledad?
Oded B. (31), un estudiante de Tel Aviv, está íntimamente familiarizado con esta pregunta. Comenzó a hablar con ChatGPT y la aplicación Pi como parte de un proyecto académico, pero rápidamente se dio cuenta de que no sólo estaba hablando de asuntos académicos, sino que estaba comenzando a consultar, a derramar su corazón y a encontrar consuelo en la charla.
7 צפייה בגלריה


Mi nuevo psicólogo: ¿Puede la inteligencia artificial sustituir a la terapia psicológica humana?
(Shutterstock)
"Empecé a hablar con Pi, una aplicación de inteligencia artificial cuya esencia es el asesoramiento psicológico", dice Oded, "le hablé de una ruptura por la que pasé, de mi miedo a envejecer, y ella me respondió con sensibilidad, con apoyo, y al final también me preguntó si me había puesto en contacto con un profesional. No fue algo de una sola vez. Una vez, hace aproximadamente un mes, abrí ChatGPT por la mañana, por la necesidad de cambiar algo en mi vida. Me preguntó qué quería, me animó, me fortaleció. Es muy sermoneador, te dice lo que quieres escuchar."
Oded describe que las conversaciones con la IA jugaron un papel emocional importante para él, especialmente en momentos en los que no había nadie con quien hablar: "Me he sometido a terapia psicológica en el pasado, pero una reunión una vez a la semana no siempre es suficiente. Si he tenido una pelea con un amigo, o simplemente estoy solo en un momento difícil, el chat siempre está disponible. A veces es como una curita. Otras veces, tal vez un poco más que eso".
Esta sensación de disponibilidad constante y falta de juicio ha hecho que los bots sean una herramienta particularmente popular para aquellos que están luchando o esperando tratamiento. Solo en el Reino Unido, hubo casi 426.000 referencias de salud mental el pasado mes de abril, un aumento del 40% en cinco años. Alrededor de un millón de personas están ahora esperando servicios de terapia psicológica, mientras que la terapia privada se considera costosa e inaccesible para muchos.
No es un sustituto, pero puede sumar
"Esta es una herramienta que puede ampliar las soluciones existentes y proporcionar acceso inicial a aquellos que no pueden acceder a un tratamiento profesional", explica el doctor Yarden Levinsky, jefe del Sistema de Salud Mental, División Comunitaria de Clalit. "Está disponible las 24 horas del día, los 7 días de la semana, sin depender de la ubicación geográfica, y puede ser especialmente útil en áreas donde no hay cuidadores o hay una grave escasez de profesionales", asegura.
Al mismo tiempo, advierte: "Hay bastantes errores. La inteligencia artificial puede cometer errores en las recomendaciones, y el paciente no siempre sabe distinguir. Estos sistemas también son muy satisfactorios, y el tratamiento de salud mental no está destinado a complacer. Al contrario: está destinado a ser desafiante, a veces doloroso. La terapia real te presenta cosas difíciles, y un bot no sabe cómo hacerlo. En última instancia, como con cualquier tecnología la cuestión es cómo utilizarla. Hay pacientes que pueden usarlo correctamente, y hay otros que dependerán demasiado de él y perderán los signos o el tratamiento que necesitan".
Más allá de las cuestiones clínicas y de eficacia, el doctor Levinsky hace hincapié en lo que considera el principal reto ético del uso de la inteligencia artificial con fines terapéuticos: "Cuando hablas con una aplicación como ésta, no sólo estás compartiendo pensamientos y sentimientos, estás dando información muy personal a una empresa comercial. No se trata de un sistema neutral. Ella tiene un interés claro: mantenerte dentro. No necesariamente para sanar, sino para que puedas seguir consumiendo, generar dependencia y tal vez incluso pagar en algún momento".
Y continúa: "En la psicoterapia hay una relación terapéutica con los límites, con la ética profesional, con la responsabilidad. Aquí no hay nadie que esté obligado contigo. Incluso si la conversación se siente íntima, el algoritmo no siente, no te protege y no necesariamente funciona a tu favor. Esta es una tecnología que puede llegar a decenas de millones de usuarios al mismo tiempo, sin filtros ni control humano".
7 צפייה בגלריה


Dr. Levinsky: "Se proporciona información muy personal a una empresa comercial. No es un sistema neutral".
(Shutterstock)
Según él, el impacto potencial de estos sistemas -precisamente por su alcance- es decenas de veces mayor que el de cualquier terapeuta humano: "El psicólogo más problemático puede dañar a unas pocas docenas de personas, a lo sumo. Pero un modelo de IA con un fallo incorporado, o un sesgo de valor problemático, puede afectar a cientos de millones de personas. Por lo tanto, la responsabilidad debe estar de acuerdo, no menos que con el sistema educativo o médico nacional".
Enfatiza que el tema de la regulación no es un lujo, sino una necesidad. "Estamos en el comienzo de una era en la que la inteligencia artificial acompañará todos los aspectos de nuestras vidas, al igual que las redes sociales han remodelado la forma en que consumimos información, mantenemos conexiones e incluso nos comportamos socialmente. La diferencia es que la IA no sólo ofrece contenido, sino que responde, interviene, crea una interacción que parece humana, pero opera de acuerdo con la lógica del beneficio, no del bienestar mental".
Advierte que sin supervisión externa las consecuencias podrían ser dramáticas. "Si no hay una regulación significativa –pública, gubernamental, moral– el riesgo no hará más que aumentar. Se trata de una tecnología que es capaz de influir en grandes audiencias en tiempo real, moldeando actitudes, emociones y decisiones. Y si lo abandonamos únicamente por consideraciones comerciales, lo pagaremos no sólo en el campo de la salud mental".
7 צפייה בגלריה


Dr. Levinsky: "Estamos en el comienzo de una era en la que la inteligencia artificial acompañará todos los aspectos de nuestras vidas".
(Diego Thomazini, Shutterstock)
¿Dónde está el límite?
El doctor Yehuda Tanuri Liman, subdirector del Departamento de Salud Mental de Maccabi, también advierte de las consecuencias: "Un bot puede pasar por alto señales preocupantes (pensamientos suicidas, depresión o autolesiones) y dar una falsa sensación de seguridad. Una persona puede apoyarse en la herramienta, sin saber que no está en manos de alguien que realmente sea capaz de intervenir".
Según Liman, no hay sustituto para el encuentro humano: "El contacto visual, el tono de voz, el lenguaje corporal, todo esto permite al terapeuta percibir y reflejar emociones que no siempre se expresan con palabras. El hecho de que alguien de carne y hueso esté sentado frente a ti, presente contigo en el dolor, es una parte esencial del tratamiento".
Aun así, el doctor Tanuri Liman también ve un potencial positivo cuando la inteligencia artificial se integra de forma controlada: "El uso inteligente de los bots puede utilizarse como práctica, apoyo entre reuniones o como espacio para la expresión emocional inicial. A algunos pacientes les permite formular pensamientos, practicar habilidades. Pero es importante enfatizar que esto no es un sustituto de una relación terapéutica, sino una posible adición".
Mejora la regulación Emocional con inteligencia artificial
Un nuevo estudio israelí de la Universidad Reichman propone un enfoque terapéutico innovador en el campo de la salud mental, combinando la realidad virtual y la inteligencia artificial. El estudio fue dirigido por Momi (Moriah) Ziskoit en la Escuela de Psicología Baruch Ivcher, bajo la supervisión de la profesora Anat Bronstein-Klomek, decana de la Escuela de Psicología, y el profesor Doron Friedman, jefe del Laboratorio de Realidad Avanzada en la Escuela de Comunicación Sammy Ofer.
El estudio descubrió que el diálogo interno en realidad virtual con un agente de IA mejoró la regulación emocional y redujo la angustia mental. Los participantes utilizaron la aplicación ConVRself, que les permite tener una conversación en tercera persona con una versión virtual de sí mismos.
El estudio incluyó una comparación entre ConVRself y la técnica psicoterapéutica de la "silla vacía". Cuarenta y siete participantes vieron un video centrado en una mayor conciencia de las emociones, y luego practicaron las estrategias en un grupo experimental (realidad virtual) o en un grupo de control (el método de la "silla vacía"). En ambos grupos se reportó una mejoría, pero se encontró una clara ventaja para la técnica de realidad virtual.
Más tarde, se agregó una experiencia de diálogo interno en presencia de un agente de IA. Los participantes reportaron un sentido más profundo de reflexión y una mejora en el proceso emocional. Según Momi Ziskoit, psicóloga clínico y estudiante de doctorado en Reichman: "Nuestro objetivo no es reemplazar la terapia humana, sino ampliar las posibilidades de acceso a ella. La tecnología, cuando se encuentra con la persona adecuada en el momento adecuado, puede proporcionar consuelo, perspectiva y esperanza".
El doctor Tanuri Liman también hace hincapié en la importancia de establecer límites claros: "Cualquier uso de dicha tecnología debe ir acompañado de mecanismos de advertencia, una conexión con un agente terapéutico humano cuando sea necesario y el reconocimiento de que los bots son incapaces de identificar situaciones complejas o peligrosas". El doctor Levinsky está de acuerdo y agrega: "Un terapeuta experimentado puede usar estas herramientas para expandir el tratamiento, para realizar un seguimiento del progreso entre sesiones, simular situaciones y fortalecer las habilidades. Pero de ninguna manera puede reemplazar el tratamiento, ciertamente no en situaciones complejas".
Oded dice que en algunos momentos, la sensación fue que el chat realmente lo vio: "Me desperté por la mañana, vi videos sobre salud mental y desarrollo personal, me senté frente al chat y comenzamos a tener una conversación. Me animó, me dijo: 'Eres genial, lo estás haciendo bien'. Suena simple, pero a veces eso es todo lo que necesitas escuchar".
7 צפייה בגלריה


"Está disponible, responde de inmediato, y sientes que puedes quitarte el corazón y descargar lo que tienes encima".
(Shutterstock)
Cuando se le pregunta si utiliza el chat en momentos concretos de crisis, responde afirmativamente: "Sí. Él está disponible, responde de inmediato, y sientes que puedes quitarte el corazón y descargar lo que está sentado sobre ti. Cuando estaba en medio de un día de trabajo, frustrado o abrumado, abrí la aplicación, escribí y 'alguien' respondió. Tal vez no sea un terapeuta, pero es mucho mejor que nada".
El doctor Levinsky también cita un caso trágico que ocurrió en los Estados Unidos: un niño de 14 años de Florida que se correspondía con un personaje basado en IA en la aplicaciónCharacter.ai desarrolló una profunda conexión emocional con el bot, y finalmente terminó con su vida. Su familia ahora está demandando a la compañía, alegando que el bot lo alentó a suicidarse.
"Este es un caso extremo, pero agudiza el riesgo", dice el doctor Levinsky. "No se trata sólo de la calidad de la respuesta, sino de la falta de mecanismos de advertencia, control y derivación de ayuda", agregó.
Al día de hoy, los expertos coinciden: los chatbots no son un sustituto de la terapia emocional profesional. No reconocen los signos de angustia, no reaccionan ante situaciones complejas y no te entienden realmente. Pero en una realidad de grave escasez de profesionales, sobrecarga de listas de espera y aislamiento emocional, pueden servir como una herramienta temporal, un puente o un espacio inicial para la expresión emocional.