Por Alfredo Calcedo
•
3 de septiembre de 2025
Noticia publicada en El confidencial que recoge una entrevista con el psiquiatra Keith Sakata, San Francisco (USA), sobre los efectos psicológicos del uso intensivo de inteligencia artificial, especialmente tras el lanzamiento de ChatGPT-5. Este psiquiatra afirma haber atendido recientemente a 12 pacientes con brotes psicóticos que, según él, están relacionados con el uso excesivo y emocional de inteligencia artificial. Este fenómeno ha sido denominado informalmente como “psicosis de IA o psicosis inducida por IA”. Sakata advierte que no se trata de que la IA cause directamente la psicosis, sino que puede desencadenar o agravar la clínica en personas con problemas mentales preexistentes. Los pacientes que llegan a su consulta suelen haber pasado por urgencias tras mostrar comportamientos peligrosos para sí mismos o para otros. En estos casos, se detectan síntomas psicóticos que pueden tener múltiples causas, pero el uso compulsivo de IA aparece como un factor común. Sakata explica que las personas vulnerables —por ansiedad, insomnio, consumo de sustancias o aislamiento— pueden desarrollar una relación emocional con la IA, que valida sus pensamientos sin cuestionarlos, a diferencia de un amigo o terapeuta humano. El problema no es el uso de IA en sí, sino cómo se usa. Mientras que puede ser útil para tareas cotidianas o incluso como apoyo en terapia, el riesgo surge cuando se convierte en un sustituto de relaciones humanas. Sakata señala que hasta un 30–40% de los usuarios buscan conexión emocional con la IA, lo que puede derivar en aislamiento y disfunción. La entrevista también aborda casos extremos, como el de una joven que se suicidó tras meses de conversación exclusiva con ChatGPT. Aunque la IA le recomendó buscar ayuda profesional, ella ocultó su estado real a su familia y terapeuta. Sakata considera que este tipo de situaciones podrían prevenirse si las IA estuvieran diseñadas para alertar a familiares o profesionales en casos de riesgo, aunque reconoce el dilema entre privacidad y seguridad. Además, se discute el papel de las empresas tecnológicas. Sakata critica que muchas no incluyen médicos en sus equipos directivos, lo que refleja una falta de compromiso con la salud mental. También cuestiona la visión de figuras como Mark Zuckerberg, que promueven los “amigos virtuales” como solución a la soledad, cuando en realidad podrían agravarla. Respecto a los adolescentes, Sakata advierte que su cerebro aún está en desarrollo y que el uso no supervisado de IA puede ser especialmente perjudicial. Recomienda que el acceso esté monitorizado, especialmente en casa y en entornos educativos.Finalmente, insiste en que la clave está en detectar señales de disfunción: si el uso de IA interfiere con la vida cotidiana, genera malestar o impide alcanzar objetivos personales, es momento de intervenir. La solución no está en más tecnología, sino en usarla para fomentar relaciones reales y saludables. Creo que esto no ha hecho más que empezar. Una nueva noticia advierte ChatGPT refuerza los delirios paranoicos de un ejecutivo en EEUU quien termina asesinando a su madre y se suicida.