Inteligencia artificial y diagnóstico psiquiátrico: una advertencia a la comunidad de salud mental
Este artículo publicado en World Psychiatry, ofrece una reflexión crítica sobre la inminente integración de la inteligencia artificial (IA) en la práctica psiquiátrica. La narrativa del texto se articula en torno a una dicotomía: la deslumbrante promesa de una precisión técnica sin precedentes frente a los riesgos éticos y profesionales que podrían socavar la esencia misma de la salud mental.
El autor advierte que gran parte de la comunidad psiquiátrica se encuentra en un estado de complacencia o negación. Existe la creencia arraigada de que la naturaleza intrínsecamente humana y personal de la disciplina la hace inmune a la automatización. No obstante, el artículo señala que la IA posee una capacidad exponencial para procesar bases de datos vastas y heterogéneas, permitiendo diagnósticos más sistemáticos, reproducibles y menos sujetos a la subjetividad idiosincrática del clínico. La IA no solo puede escanear la literatura científica global para personalizar tratamientos, sino que ya se perfila como una herramienta de cribado capaz de predecir trastornos antes de que se manifiesten clínicamente.
Sin embargo, existen "enormes" contrapartidas. El uso de la IA como herramienta de cribado conlleva un riesgo elevado de falsos positivos, lo que derivaría en procesos de sobrediagnóstico, sobretratamiento y una estigmatización prematura de los individuos. El artículo subraya una preocupación ética mayor: la comercialización de la salud mental. Las empresas tecnológicas podrían verse tentadas a reducir los umbrales de patología para expandir su mercado, transformando el sufrimiento humano en datos monetizables.
En términos de seguridad, la centralización de información psiquiátrica —sensible por definición— expone a los pacientes a vulnerabilidades críticas, desde brechas de seguridad y ciberacoso hasta discriminación laboral o denegación de seguros. Finalmente, el texto plantea un riesgo ontológico para la profesión: la "desprofesionalización" o pérdida de habilidades. La dependencia excesiva de algoritmos podría erosionar el juicio clínico, convirtiendo al psiquiatra en un mero supervisor de máquinas.
Hasta ahora, las asociaciones de salud mental se han mostrado pasivas e impotentes a la hora de abordar los graves riesgos que la IA presenta para nuestros pacientes y profesionales. La única esperanza (quizás vana) es que los grupos de defensa de la salud mental de todo el mundo se unan con una sola voz firme para articular los peligros de la IA. Esto podría ser coordinado por la Organización Mundial de la Salud o la Asociación Mundial de Psiquiatría. Hay mucho en juego: la seguridad de nuestros pacientes, la viabilidad de nuestra profesión y quizás incluso la supervivencia de la humanidad.





