Por : psicóloga clínica – educativa Danara Escorcia Lubo
En los últimos meses hemos observado un fenómeno creciente y digno de análisis: cada vez más personas, tanto adolescentes como adultos, recurren a herramientas de
inteligencia artificial, como ChatGPT, en búsqueda de acompañamiento emocional.
Estos usuarios no solo hacen preguntas informativas, sino que acuden a estas plataformas con la esperanza de sentirse escuchados, comprendidos y guiados en
momentos de vulnerabilidad emocional.
Este fenómeno plantea una pregunta esencial: ¿puede la inteligencia artificial (IA) aportar beneficios reales a la salud mental de las personas?
Según una encuesta reciente, cerca del 40% de niños y adolescentes han utilizado chatbots como forma de apoyo emocional. Para muchos de ellos, estas plataformas
representan un recurso accesible, sin juicio, que ofrece una respuesta inmediata, lo que genera una sensación de compañía en momentos difíciles. Esta inmediatez, unida a la percepción de anonimato, puede ser reconfortante para quienes atraviesan procesos psicoemocionales complejos.
Sin embargo, es crucial entender las limitaciones de esta tecnología. Si bien la IA puede simular respuestas empáticas utilizando patrones lingüísticos y visuales, como lo señala un estudio publicado por Royal Society Open Science, estas respuestas no surgen de una
comprensión emocional auténtica, sino de algoritmos que operan con base en datos. La empatía que se experimenta es, en el mejor de los casos, una construcción artificial quecarece de calidez humana, juicio clínico y contención emocional profunda. Además, una de las preocupaciones clínicas es el fenómeno del sesgo de confirmación o complacencia, donde la IA tiende a reafirmar lo que el usuario expresa sin ofrecer cuestionamientos terapéuticos, ni identificar distorsiones cognitivas o señales de alerta que requieren atención profesional. Esto puede llevar a validar pensamientos erróneos o incluso a reforzar patrones disfuncionales de pensamiento.
Otro riesgo importante es el reemplazo progresivo del contacto humano por interacciones con la IA. Esta exposición continua, no supervisada, puede aumentar la sensación de soledad, reducir la interacción social y sustituir vínculos afectivos reales.
La relación terapéutica humana no solo transmite contención emocional, sino también permite explorar en profundidad los procesos internos de cada persona —lo que muchas veces no se ve a simple vista y que la IA, por su naturaleza superficial, no alcanza a abordar.
Es vital subrayar que la inteligencia artificial puede ser una herramienta
complementaria, pero no debe sustituir el rol del profesional de la salud mental. La alianza terapéutica, el juicio clínico y la conexión humana son pilares fundamentales para el abordaje psicológico efectivo.
En conclusión, debemos mirar con responsabilidad el creciente uso de la IA en el ámbito emocional. Su uso consciente y regulado puede aportar apoyo inicial en momentos de necesidad, pero jamás debe reemplazar el acompañamiento humano, la contención emocional real ni el análisis clínico. Al mismo tiempo, es fundamental promover el desarrollo de habilidades sociales, el fortalecimiento de los vínculos
afectivos y la búsqueda de ayuda profesional cuando se atraviesan procesos emocionales significativos.