¿La IA puede ser tu terapeuta? Beneficios y riesgos de usar herramientas con IA para apoyo emocional
Universidad de las Ciencias
En la actualidad, las herramientas de inteligencia artificial (IA) generativa nos ayudan a mejorar la productividad en diversas tareas académicas y laborales, sin embargo, están empezando a ocupar un lugar mucho más cotidiano en la vida de las personas. El informe Cómo se utilizará realmente la inteligencia artificial en 2025 (2025), elaborado por Marc Zao-Sanders y publicado en la Harvard Business Review, revela que existen tres nuevos motivos por los que recurrimos a esta tecnología: terapia o acompañamiento emocional, la organización de la vida y la búsqueda de un propósito.
En otras palabras, la IA ya no solo resuelve tareas, ahora acompaña procesos psicológicos y emocionales, pero, ¿esto es realmente saludable? ¿Un chatbot puede reemplazar a un terapeuta humano?
La Inteligencia Artificial como herramienta de apoyo emocional
En los últimos años, se ha popularizado el uso de la inteligencia artificial generativa para mejorar la productividad en diversos ámbitos de nuestra vida. Desde lo académico hasta lo laboral, estas herramientas se han convertido en una aliada invaluable para redactar textos, resumir lecturas, automatizar tareas repetitivas, organizar proyectos y hasta generar ideas creativas.
Más allá de estas tareas meramente productivas, recientemente ha comenzado a emerger un fenómeno inesperado: muchas personas están utilizando esta tecnología para buscar apoyo emocional y psicológico. Zao-Sanders (2025) explica que esta función se ha popularizado por tres razones principales: por su disponibilidad las 24 horas del día, porque es una opción relativamente económica o, incluso, gratuita y porque no implica contacto humano.
Las investigaciones en el campo de la psicología recién comienzan a documentar el potencial de la inteligencia artificial como herramienta de apoyo psicológico. Entre ellas destacan la detección temprana de trastornos mentales, la personalización de procesos terapéuticos y el uso de algoritmos capaces de identificar señales de alerta relacionadas con la depresión, la ansiedad u otras condiciones patológicas; además del uso de chatbots como apoyo emocional (Terán y otros, 2024). Sin embargo, aún persiste una pregunta crucial: ¿hasta qué punto un sistema artificial puede involucrarse en algo tan delicado y humano como la salud mental?
Ventajas de usar la IA como apoyo emocional
Para Salazar y Velastegui (2024), el uso de la IA Generativa como herramienta de apoyo emocional tiene las siguientes ventajas:
- Bajo costo y accesibilidad: para quienes viven en lugares sin servicios psicológicos, las herramientas de IA pueden ser un primer acercamiento a la atención profesional. Están disponibles en cualquier momento del día, lo que puede ser un gran apoyo en momentos de crisis. Además, muchas de estas herramientas tienen versiones gratuitas o de bajo costo y no requieren de lista de espera por una cita.
- Reducción del estigma: todavía existen personas que sienten vergüenza o miedo de acudir con un terapeuta. La IA podría ser un espacio para iniciar una primera conversación.
- Acompañamiento complementario: para quienes ya están en un proceso terapéutico, una IA puede ayudar a monitorear emociones entre sesiones, practicar la autorreflexión o establecer recordatorios sobre consultas y citas.
- Primeros auxilios emocionales: en momentos de crisis no graves (ansiedad o soledad), la IA puede ayudar a calmar la mente con técnicas de respiración o mindfulness.
Riesgos de depender solo de la IA en procesos de apoyo emocional
Ante estas ventajas y beneficios de la IA como apoyo emocional, también es importante considerar los siguientes riesgos y limitaciones (Salazar y Velastegui, 2024):
- No son terapeutas: aunque pueden simular una conversación cargada de escucha activa y empatía, las herramientas de IA no tienen conciencia, ética profesional y mucho menos la capacidad de interpretar emociones profundas o detectar crisis graves. Un algoritmo no sustituye la formación clínica ni la experiencia humana, ya que sus respuestas están basadas en datos y no en una conexión emocional.
- Falta de contención en situaciones graves: en personas con depresión severa, pensamientos suicidas, traumas o duelos muy profundos, depender solo de un chabot puede ser peligroso. Estas herramientas no están diseñadas para intervenir en emergencias ni evaluar riesgos reales.
- Privacidad y datos: muchas aplicaciones recopilan datos sobre estados emocionales, pensamientos, patrones de conducta y otros, lo que plantea preguntas como: ¿a dónde va esta información? ¿Está protegida? ¿Puede ser utilizada con fines comerciales?
- Riesgo de diagnósticos erróneos: si una persona describe síntomas graves (depresión o ideas suicidas), la IA no podría detectar la gravedad del padecimiento o, incluso, podría dar un consejo inadecuado.
- Falsa sensación de progreso: la facilidad con la que la IA responde puede dar una ilusión de soluciones reales, pero trabajar patrones e historias de vida requiere confrontación, escucha activa y vínculos emocionales, algo que, hasta hoy, solo se construye con contacto humano.
- Aumenta el aislamiento social: usar solo chatbots evita que las personas busquen ayuda entre sus redes de apoyo o verdaderos especialistas, lo que en ciertas situaciones puede perpetuar y agudizar la sensación de soledad.
Conclusiones: ¿la IA podría reemplazar a un terapeuta?
La respuesta está en el equilibrio. Mientras que la IA puede ser un gran apoyo para generar acercamientos iniciales o como complemento entre sesiones, nunca debe sustituir la terapia profesional, especialmente, en casos graves. Si decides usar herramientas como Chatgtp, DeepSeek o Gemini, hazlo considerando lo siguiente:
- No te autodiagnostiques basándote solo en las respuestas de IA.
- Busca ayuda de profesionales de la psicología si sientes que tus problemas son muy graves o abrumadores.
- Úsala como un diario emocional, no como tu único soporte y siempre acude con expertos.
La tecnología avanza, pero las conexiones humanas y la experiencia de los profesionales de la salud mental siguen siendo irremplazables. ¿Tú qué opinas? ¿Has usado IA para temas emocionales?
Referencias
Zao-Sanders, M. (2025). Cómo se utilizará realmente la inteligencia artificial en 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
Terán, M. J., Gaona, C. I. G., Alfes, Z. D., & Chicaiza, G. L. G. (2024). El papel de la inteligencia artificial en la promoción de la salud mental y el bienestar: una revisión sistemática. Polo del Conocimiento, 9(12), 1997-2014.
Salazar, L. F., & Velastegui, D. C. (2024). Inteligencia Artificial y su Impacto en la Psicología Humana: Mini Revisión. Mediciencias UTA, 8(1), 26-34.
Comentarios
Publicar un comentario