¿La IA puede ser tu terapeuta? Beneficios y riesgos de usar herramientas con IA para apoyo emocional
Universidad de las Ciencias
En la actualidad, las herramientas de inteligencia artificial (IA) generativa nos ayudan a mejorar la productividad en diversas tareas académicas y laborales, sin embargo, están empezando a ocupar un lugar mucho más cotidiano en la vida de las personas. El informe Cómo se utilizará realmente la inteligencia artificial en 2025 (2025), elaborado por Marc Zao-Sanders y publicado en la Harvard Business Review, revela que existen tres nuevos motivos por los que recurrimos a esta tecnología: terapia o acompañamiento emocional, la organización de la vida y la búsqueda de un propósito.
En otras palabras, la IA ya no solo resuelve tareas, ahora acompaña procesos psicológicos y emocionales, pero, ¿esto es realmente saludable? ¿Un chatbot puede reemplazar a un terapeuta humano?
La Inteligencia Artificial como herramienta de apoyo emocional
En los últimos años, se ha popularizado el uso de la inteligencia artificial generativa para mejorar la productividad en diversos ámbitos de nuestra vida. Desde lo académico hasta lo laboral, estas herramientas se han convertido en una aliada invaluable para redactar textos, resumir lecturas, automatizar tareas repetitivas, organizar proyectos y hasta generar ideas creativas.
Más allá de estas tareas meramente productivas, recientemente ha comenzado a emerger un fenómeno inesperado: muchas personas están utilizando esta tecnología para buscar apoyo emocional y psicológico. Zao-Sanders (2025) explica que esta función se ha popularizado por tres razones principales: por su disponibilidad las 24 horas del día, porque es una opción relativamente económica o, incluso, gratuita y porque no implica contacto humano.
Las investigaciones en el campo de la psicología recién comienzan a documentar el potencial de la inteligencia artificial como herramienta de apoyo psicológico. Entre ellas destacan la detección temprana de trastornos mentales, la personalización de procesos terapéuticos y el uso de algoritmos capaces de identificar señales de alerta relacionadas con la depresión, la ansiedad u otras condiciones patológicas; además del uso de chatbots como apoyo emocional (Terán y otros, 2024). Sin embargo, aún persiste una pregunta crucial: ¿hasta qué punto un sistema artificial puede involucrarse en algo tan delicado y humano como la salud mental?
Ventajas de usar la IA como apoyo emocional
Para Salazar y Velastegui (2024), el uso de la IA Generativa como herramienta de apoyo emocional tiene las siguientes ventajas:
- Bajo costo y accesibilidad: para quienes viven en lugares sin servicios psicológicos, las herramientas de IA pueden ser un primer acercamiento a la atención profesional. Están disponibles en cualquier momento del día, lo que puede ser un gran apoyo en momentos de crisis. Además, muchas de estas herramientas tienen versiones gratuitas o de bajo costo y no requieren de lista de espera por una cita.
- Reducción del estigma: todavía existen personas que sienten vergüenza o miedo de acudir con un terapeuta. La IA podría ser un espacio para iniciar una primera conversación.
- Acompañamiento complementario: para quienes ya están en un proceso terapéutico, una IA puede ayudar a monitorear emociones entre sesiones, practicar la autorreflexión o establecer recordatorios sobre consultas y citas.
- Primeros auxilios emocionales: en momentos de crisis no graves (ansiedad o soledad), la IA puede ayudar a calmar la mente con técnicas de respiración o mindfulness.
Riesgos de depender solo de la IA en procesos de apoyo emocional
Ante estas ventajas y beneficios de la IA como apoyo emocional, también es importante considerar los siguientes riesgos y limitaciones (Salazar y Velastegui, 2024):
- No son terapeutas: aunque pueden simular una conversación cargada de escucha activa y empatía, las herramientas de IA no tienen conciencia, ética profesional y mucho menos la capacidad de interpretar emociones profundas o detectar crisis graves. Un algoritmo no sustituye la formación clínica ni la experiencia humana, ya que sus respuestas están basadas en datos y no en una conexión emocional.
- Falta de contención en situaciones graves: en personas con depresión severa, pensamientos suicidas, traumas o duelos muy profundos, depender solo de un chabot puede ser peligroso. Estas herramientas no están diseñadas para intervenir en emergencias ni evaluar riesgos reales.
- Privacidad y datos: muchas aplicaciones recopilan datos sobre estados emocionales, pensamientos, patrones de conducta y otros, lo que plantea preguntas como: ¿a dónde va esta información? ¿Está protegida? ¿Puede ser utilizada con fines comerciales?
- Riesgo de diagnósticos erróneos: si una persona describe síntomas graves (depresión o ideas suicidas), la IA no podría detectar la gravedad del padecimiento o, incluso, podría dar un consejo inadecuado.
- Falsa sensación de progreso: la facilidad con la que la IA responde puede dar una ilusión de soluciones reales, pero trabajar patrones e historias de vida requiere confrontación, escucha activa y vínculos emocionales, algo que, hasta hoy, solo se construye con contacto humano.
- Aumenta el aislamiento social: usar solo chatbots evita que las personas busquen ayuda entre sus redes de apoyo o verdaderos especialistas, lo que en ciertas situaciones puede perpetuar y agudizar la sensación de soledad.
Conclusiones: ¿la IA podría reemplazar a un terapeuta?
La respuesta está en el equilibrio. Mientras que la IA puede ser un gran apoyo para generar acercamientos iniciales o como complemento entre sesiones, nunca debe sustituir la terapia profesional, especialmente, en casos graves. Si decides usar herramientas como Chatgtp, DeepSeek o Gemini, hazlo considerando lo siguiente:
- No te autodiagnostiques basándote solo en las respuestas de IA.
- Busca ayuda de profesionales de la psicología si sientes que tus problemas son muy graves o abrumadores.
- Úsala como un diario emocional, no como tu único soporte y siempre acude con expertos.
La tecnología avanza, pero las conexiones humanas y la experiencia de los profesionales de la salud mental siguen siendo irremplazables. ¿Tú qué opinas? ¿Has usado IA para temas emocionales?
Referencias
Zao-Sanders, M. (2025). Cómo se utilizará realmente la inteligencia artificial en 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
Terán, M. J., Gaona, C. I. G., Alfes, Z. D., & Chicaiza, G. L. G. (2024). El papel de la inteligencia artificial en la promoción de la salud mental y el bienestar: una revisión sistemática. Polo del Conocimiento, 9(12), 1997-2014.
Salazar, L. F., & Velastegui, D. C. (2024). Inteligencia Artificial y su Impacto en la Psicología Humana: Mini Revisión. Mediciencias UTA, 8(1), 26-34.
me parece muy interesante como la IA se acopla cada vez a la vida de cada ser humano
ResponderEliminarEl aspecto positivo es que la gente si busca ayuda... lo que me preocupa o inquieta es que siga existiendo el tabú hacia la salud menta, ya que es un aspecto de salud. Debería ser visto como lo que es: Algo normal y saludable.
ResponderEliminarExisten lineas de apoyo por vía chat, lo cual es una alternativa orgánica ya que se sigue manteniendo el anonimato y puedes tener un seguimiento a la distancia. Una de esa líneas es SIMISAE. Así que considero que las herramientas de Inteligencia Artificial podrían canalizar a estas líneas de apoyo, ya que hay un humano detrás de cada pregunta.
Es un tema ampliamente problemático, no nos podríamos imaginar el daño que conlleva acudir a la inteligencia artificial como una red de apoyo emocional, a lo mejor si la usáramos como un confidente mas no como un psicólogo.
ResponderEliminarExcelente información
Es un tema muy complejo ya que la AI esta bastante actualizada y por eso pienso que hasta cierto puno si puede ayudar, claro no dejando aun lado que es mejor acudir con personas profesionales que si tienen el conocimiento de ello.
ResponderEliminarEn lo personal, creo que no consideramos el impacto que está teniendo la tecnología en la actualidad y lo riesgoso que puede ser si llega a manos incorrectas, en la terapia con IA aunque quizá si es una manera rápida de tener una respuesta y no costosa no está capacitada ni está considerando otros aspectos importantes para poder dar una atención correcta a la persona, ya que muchas veces se necesita un diferente acompañamiento, una consciencia más plena, cosa que la IA evidentemente no tiene, no puedo decir que estoy en contra porque me parece que a veces puede ayudarnos en momentos no tan complicados y riesgosos como por ejemplo algunos tipos de respiraciones, cosas más sencillas, sin embargo los terapeutas llevan un registro en tiempo de los avances del paciente, lo que funciona y lo que no, evalúan los comportamientos y conductas siendo esto una red importante de apoyo, la IA no podrá remplazar al ser humano pero si es importante crear consciencia sobre lo riesgoso que puede ser si no se usa de manera correcta, siempre será importante llevar un acompañamiento profesional real.
ResponderEliminarActualmente creo que el apoyo que pueden brindar este tipo de herramientas es excelente, aunque, el hecho de solamente dejarse llevar por una inteligencia artificial que no tiene una conciencia ética sin acudir con un especialista, como este articulo lo indica, podría ser riesgoso. Pero yo creo que, si se acude a un terapeuta profesional con un acompañamiento de la IA, sería ciertamente bueno.
ResponderEliminarUn tema que aunque es interesante, hay que reconocer que no podemos depender al 100% de la IA, hay que tomar en cuenta esta es una herramienta, para facilitar algunas actividades. Yo en la personal, considero que una IA no comprendería las emociones o el sentir de una personas, a diferencia de un humano que sabe y comprende este tipo de reacciones, por ello, creo que no es tan buena idea que una IA sea un terapeuta profesional.
ResponderEliminarLa inteligencia artificial puede ser una buena herramienta de apoyo emocional inicial, pero no debe reemplazar a un terapeuta. La contención, el vínculo humano y la experiencia profesional siguen siendo irremplazables.
ResponderEliminar