Icono de la aplicación ChatGPT en la pantalla de un teléfono con Alejandra Enríquez en un círculo y un globo rojo de advertencia con un signo de exclamación

Alejandra Enríquez, psicóloga, habla de ChatGPT: ‘Es una de las peores decisiones…’

La psicóloga Alejandra Enríquez lanza una advertencia sobre el papel de ChatGPT en el ámbito emocional

Cada vez más personas están recurriendo a la Inteligencia Artificial como una especie de alternativa emocional. La psicóloga Alejandra Enríquez ha expresado una dura crítica contra una de estas tendencias recientes: utilizar ChatGPT como si fuera un terapeuta. En un vídeo que ha generado un notable eco en redes sociales, la especialista ha querido lanzar una advertencia clara.

La profesional ha señalado que esta moda de consultar a una máquina para resolver problemas emocionales no solo es peligrosa, sino que puede traer más perjuicios que beneficios. Enríquez ha recalcado que, aunque las herramientas digitales pueden ser útiles para obtener información, no están preparadas para acompañar a una persona en procesos psicológicos. Según ella, convertir ChatGPT en nuestro confidente es un error grave.

Persona usando ChatGPT en un teléfono móvil frente a una pantalla de computadora que también muestra la interfaz de ChatGPT
Confiar tus problemas a ChatGPT no es una opción segura | Shutterstock

ChatGPT no puede sustituir la empatía del terapeuta

De hecho, la psicóloga ha afirmado que “es una de las peores decisiones que podemos tomar” cuando usamos esta tecnología para sustituir la ayuda profesional. Esta declaración pone en relieve la importancia de distinguir entre el uso correcto de la IA y la confianza excesiva en ella para cuestiones tan delicadas como la salud mental. Enríquez ha advertido que la falta de empatía y comprensión real en una máquina puede hacer que los problemas se agraven.

El auge del uso de ChatGPT entre los jóvenes ha generado preocupación, ya que muchos piensan que hablar con una inteligencia artificial ofrece más privacidad y respuestas inmediatas. Sin embargo, Alejandra ha insistido en que la consulta psicológica debe tener un componente humano, donde la escucha activa y la interpretación emocional sean clave. Las máquinas no pueden replicar esta dimensión esencial.

Dos mujeres sentadas conversando en una sala iluminada mientras una de ellas gesticula con las manos
La terapia necesita escucha activa y comprensión emocional | Getty Images

Los riesgos de usar ChatGPT como terapia

Por ello, ha alertado sobre los peligros de contar los problemas personales a ChatGPT, ya que podría reforzar las ideas negativas y empeorar la situación que preocupa a la persona. Según la psicóloga, la inteligencia artificial no está capacitada para resolver problemas emocionales y no tiene la capacidad de comprender quién es realmente el usuario. Esta advertencia subraya los riesgos de confiar en un sistema que carece de contexto y sensibilidad.

El impacto de esta tendencia abre un debate necesario sobre cómo integrar la tecnología en el cuidado emocional sin perder de vista los límites. Para la psicóloga, la terapia es un proceso que requiere profesionalismo, formación y, sobre todo, humanidad. La Inteligencia Artificial, aunque avanzada, no puede reemplazar el valor del acompañamiento personal.

Alejandra Enríquez ha dejado clara su recomendación de no sustituir la consulta con expertos por conversaciones con ChatGPT. La máquina puede ayudar a resolver dudas o facilitar datos, pero no está diseñada para atender las complejidades de la mente humana. La salud mental merece un trato respetuoso y profesional, y confiar ciegamente en la IA puede ser un error con consecuencias graves.