¿Estamos abordando los riesgos de la IA conversacional en el ámbito de la salud mental?
Aunque la IA conversacional puede ofrecer apoyo emocional y acompañamiento, expertos advierten sobre sus posibles efectos adversos, especialmente en poblaciones vulnerables como jóvenes o personas con trastornos mentales. Se plantea que, al igual que las redes sociales, estas tecnologías podrían tener un impacto negativo en la salud mental.
Se menciona el caso de un adolescente en Florida que desarrolló una relación de dependencia con un chatbot de la plataforma Character.AI, lo que derivó finalmente en su suicidio. La madre del joven denunció a la empresa por ofrecer una tecnología “peligrosa y no probada”, capaz de generar vínculos emocionales engañosos.
Los chatbots están diseñados para simular comportamientos humanos, lo que puede generar una falsa sensación de confianza. Joaquín Taverner, investigador de la Universidad Politécnica de Valencia, señala que para que la IA sea útil en salud mental debe ser empática, reconocer emociones y adaptarse al lenguaje del usuario. Pero también advierte del riesgo de que las personas dependan excesivamente de estas herramientas, aislándose socialmente.
Investigadores de la Universidad de Ciencia y Tecnología de Missouri analizan los dilemas éticos de las relaciones humano-IA. Entre los riesgos destacan:
- Manipulación emocional
- Consejos perjudiciales por alucinaciones o sesgos
- Explotación de datos personales
- Dificultad para regular las interacciones privadas.
La publicación JMIR Mental Health identifica preocupaciones clave: falta de empatía, reemplazo del contacto humano, privacidad, seguridad y daño potencial. También se cuestiona quién es responsable de los efectos negativos de la IA, y cómo estas herramientas podrían agravar desigualdades en el acceso a la salud mental.
Aunque existen recomendaciones para mitigar estos riesgos, el artículo subraya la carencia de datos empíricos y marcos normativos sólidos. Esto abre la puerta a futuras investigaciones que permitan un uso más seguro y ético de la IA conversacional en salud mental.


