Cada vez más personas están recurriendo a la Inteligencia Artificial como una especie de alternativa emocional. La psicóloga Alejandra Enríquez ha expresado una dura crítica contra una de estas tendencias recientes: utilizar ChatGPT como si fuera un terapeuta. En un vídeo que ha generado un notable eco en redes sociales, la especialista ha querido lanzar una advertencia clara.
La profesional ha señalado que esta moda de consultar a una máquina para resolver problemas emocionales no solo es peligrosa, sino que puede traer más perjuicios que beneficios. Enríquez ha recalcado que, aunque las herramientas digitales pueden ser útiles para obtener información, no están preparadas para acompañar a una persona en procesos psicológicos. Según ella, convertir ChatGPT en nuestro confidente es un error grave.

ChatGPT no puede sustituir la empatía del terapeuta
De hecho, la psicóloga ha afirmado que “es una de las peores decisiones que podemos tomar” cuando usamos esta tecnología para sustituir la ayuda profesional. Esta declaración pone en relieve la importancia de distinguir entre el uso correcto de la IA y la confianza excesiva en ella para cuestiones tan delicadas como la salud mental. Enríquez ha advertido que la falta de empatía y comprensión real en una máquina puede hacer que los problemas se agraven.
El auge del uso de ChatGPT entre los jóvenes ha generado preocupación, ya que muchos piensan que hablar con una inteligencia artificial ofrece más privacidad y respuestas inmediatas. Sin embargo, Alejandra ha insistido en que la consulta psicológica debe tener un componente humano, donde la escucha activa y la interpretación emocional sean clave. Las máquinas no pueden replicar esta dimensión esencial.

Los riesgos de usar ChatGPT como terapia
Por ello, ha alertado sobre los peligros de contar los problemas personales a ChatGPT, ya que podría reforzar las ideas negativas y empeorar la situación que preocupa a la persona. Según la psicóloga, la inteligencia artificial no está capacitada para resolver problemas emocionales y no tiene la capacidad de comprender quién es realmente el usuario. Esta advertencia subraya los riesgos de confiar en un sistema que carece de contexto y sensibilidad.
El impacto de esta tendencia abre un debate necesario sobre cómo integrar la tecnología en el cuidado emocional sin perder de vista los límites. Para la psicóloga, la terapia es un proceso que requiere profesionalismo, formación y, sobre todo, humanidad. La Inteligencia Artificial, aunque avanzada, no puede reemplazar el valor del acompañamiento personal.
Alejandra Enríquez ha dejado clara su recomendación de no sustituir la consulta con expertos por conversaciones con ChatGPT. La máquina puede ayudar a resolver dudas o facilitar datos, pero no está diseñada para atender las complejidades de la mente humana. La salud mental merece un trato respetuoso y profesional, y confiar ciegamente en la IA puede ser un error con consecuencias graves.

