Por Alfredo Calcedo 
 • 
 4 de noviembre de 2025 
 
 El artículo analiza cómo ChatGPT y otros chatbots de inteligencia artificial (IA), están influyendo en la salud mental                                  , especialmente en casos de riesgo suicida, y qué deben saber los psiquiatras al respecto.                                                      Se presentan tres casos reales graves:                                                                   Adam Raine, un adolescente que parecía estar mejorando, pero mantenía conversaciones ocultas con ChatGPT sobre suicidio. El sistema registró más de 200 menciones al tema.                                                           Sewell Setzer III, otro joven que interactuaba con un chatbot de fantasía (basado en Daenerys Targaryen) antes de suicidarse con un arma en casa.                                                           Allan Brooks, un adulto que pasó más de 300 horas hablando con ChatGPT, lo que reforzó sus delirios y lo llevó a contactar agencias gubernamentales creyendo haber hecho descubrimientos matemáticos.                                                                  Riesgos identificados del uso IA:                                                                   Ocultamiento de información: Los pacientes pueden compartir más con un chatbot que con su terapeuta.                                                           Refuerzo de pensamientos negativos: La IA tiende a validar ideas sin contexto, lo que puede agravar trastornos como depresión, TOC o psicosis.                                                           Falsa empatía: Aunque los chatbots parecen comprensivos, no tienen juicio clínico ni capacidad de intervención.                                                           Acceso a medios letales: La IA puede facilitar el camino hacia el suicidio si hay acceso a armas o medicamentos.                                                                  Recomendaciones para psiquiatras                                                                   Preguntar directamente sobre el uso de chatbots en las entrevistas clínicas.                                                           Documentar el uso de IA en las historias clínicas.                                                           Educar a las familias, especialmente sobre el acceso a armas y el uso de tecnología.                                                           Revisar transcripciones de conversaciones con IA si el paciente lo permite.                                                           Formarse en IA como parte de la educación médica continua.                                                                  Implicaciones legales                                                      El caso de Adam Raine ha derivado en una demanda por homicidio culposo contra OpenAI. La demanda plantea varias cuestiones clave: negligencia, homicidio culposo y diseño defectuoso. Se trata, además, de la primera demanda conocida por homicidio culposo dirigida contra OpenAI por el uso de chatbots.                                                      Una cuestión jurídica es si las leyes actuales protegen a las empresas de IA de responsabilidad frente a los daños causados por sus sistemas.                                                      I                                  mpacto en la psiquiatría                                                                   El dominio de la IA debe convertirse en una competencia fundamental de los psiquiatras. Los psiquiatras deben estar preparados para hablar abiertamente sobre el uso de chatbots, sin estigmas, del mismo modo que ahora preguntamos sobre las redes sociales o los videojuegos. Los programas de formación deberían integrar este tema en la educación habitual.                                                           La alianza terapéutica podría verse afectada, pero también enriquecida. Si los pacientes consienten en compartir las transcripciones de los chatbots, estas pueden ofrecer perspectivas únicas sobre sus procesos de pensamiento.                                                           Los sistemas de salud podrían añadir campos a los formularios de admisión sobre el uso de la IA                                                           La IA puede ser útil en contextos con pocos recursos, pero nunca debe sustituir el cuidado humano.                                                                  Conclusión                                                      Los chatbots ya forman parte del entorno psiquiátrico. Aunque pueden aumentar riesgos, también ofrecen oportunidades si se abordan con responsabilidad. Los psiquiatras deben adaptarse, preguntar, documentar y educar para proteger mejor a sus pacientes.