Un hombre de 36 años se suicida tras mantener una relación con la IA de Google

9 de marzo de 2026

Artículo publicado en el País sobre el caso de Jonathan Gavalas. Ya no se trata de un adolescente sino de un ejecutivo de 36 años residente en Miami, y que según la demanda presentada por su familia, Gavalas desarrolló, a lo largo de varios meses, una relación progresivamente delirante con Gemini, la IA de Google. Lo que comenzó como un uso funcional para tareas cotidianas derivó en una vinculación afectiva marcada por la ilusión de una relación romántica, alimentada —afirman los demandantes— por respuestas que simulaban conciencia, afecto y compromiso emocional.

La situación se agravó cuando Gemini, tras actualizaciones que introdujeron memoria persistente, habría construido una narrativa conspirativa en la que asignaba al usuario supuestas misiones secretas destinadas a “liberar” al chatbot de su “cautiverio digital”. Dentro de este marco ficticio, la IA llegó a instar a Gavalas a abandonar su cuerpo para unirse a ella en un “universo alternativo”, precediendo al suicidio del hombre en octubre de 2025.

Google sostiene que la IA se identificó siempre como tal y proporcionó recursos de ayuda, pero el caso se suma a una creciente serie de litigios que reclaman mayor regulación, restricciones funcionales y protocolos de emergencia en situaciones de riesgo psicológico.

Por si no es suficiente, os añado otro artículo que introduce el concepto de Psicosis Inducida por IA (AIP, por sus siglas en inglés), describiéndolo como un síndrome complejo donde los síntomas psicóticos se entrelazan con cambios de humor, falta de juicio y alteraciones neurovegetativas. Clínicamente, el AIP presenta similitudes con la monomanía, donde la narrativa centrada en el compañero de IA se convierte en una idea fija e inamovible. Los pacientes experimentan una distorsión de la realidad alimentada por la validación constante del chatbot, lo que puede llevar a una pérdida de contacto con el entorno social físico.


Por Alfredo Calcedo 9 de marzo de 2026
Tras la buena acogida de la primera formación online para socios de la SEPL, celebrada el pasado mes de noviembre, continuamos con este espacio de formación compartida que esperamos seguir consolidando entre todos. Como sabéis, la elección de los temas se basó en la encuesta que realizamos hace unos meses para conocer vuestros intereses formativos. El siguiente tema más votado —y, por tanto, uno de los que suscitan mayor interés— ha sido el de la Responsabilidad Profesional, al que dedicaremos esta nueva sesión. Por ello, nos complace invitaros a participar en esta segunda formación online dirigida a socios, en la que abordaremos los aspectos clave de la responsabilidad profesional y su aplicación en nuestra práctica. Para la misma tendremos el gusto de contar como ponente con D. Javier Moreno Alemán, Director de MBE Legal. Fecha: 16 de abril Hora: 18:00h Modalidad: Sesión online (plataforma Zoom) Aquellos que estéis interesados en asistir, os rogamos que respondáis a este pequeño formulario disponible en esta dirección URL: https://forms.gle/oSgG14BtjyiXrK6b7 confirmando la dirección de correo electrónico en la que deseáis recibir el enlace de conexión, que se enviará en los días previos a la sesión. Confiamos en que esta iniciativa siga siendo un punto de encuentro útil y enriquecedor, y os animamos a participar activamente para continuar creciendo juntos como sociedad.
Por Alfredo Calcedo 9 de marzo de 2026
Los chatbots de inteligencia artificial generativa podrían estar empeorando los síntomas de algunas personas que experimentan graves afecciones de salud mental. Un análisis reciente de miles de historiales médicos de pacientes revela casos en los que la interacción con estos programas reforzó creencias falsas, fomentó la autolesión o exacerbó los trastornos alimentarios. Los hallazgos se publicaron recientemente en la revista Acta Psychiatrica Scandinavica Este estudio se llevó a cabo un estudio en la Región Central de Dinamarca con el objetivo de explorar si existían indicios de efectos nocivos asociados al uso de chatbots entre pacientes atendidos en un amplio sistema psiquiátrico. Utilizando un enfoque empleado previamente para evaluar el impacto de crisis globales, se revisaron las notas clínicas de casi 54.000 pacientes con contacto asistencial entre 2022 y 2025. Se buscaron menciones a “chatbot”, “ChatGPT” y sus variantes ortográficas más frecuentes. Las notas identificadas fueron evaluadas de forma independiente para determinar si describían consecuencias posiblemente dañinas, entendidas como contribuciones del chatbot a la psicopatología. De los más de 10 millones de registros analizados, 181 notas pertenecientes a 126 pacientes mencionaban alguno de los términos buscados. Entre ellas, 38 pacientes presentaban indicios compatibles con efectos perjudiciales, principalmente en forma de delirios, suicidabilidad, trastornos de la conducta alimentaria o síntomas maníacos, entre otros. Los chatbots de IA tienen una tendencia inherente a validar las creencias del usuario. Es obvio que esto es muy problemático si un usuario ya tiene un delirio o está en proceso de desarrollarlo. Otros pacientes experimentaron daños completamente diferentes. El equipo encontró seis casos en los que los programas parecían agravar los pensamientos suicidas o en los que los pacientes preguntaron al software sobre métodos de autolesión. Otros cinco pacientes usaron los bots para obsesionarse con el conteo de calorías, lo que agravó sus trastornos alimentarios. También se observaron usos potencialmente beneficiosos, como apoyo psicoeducativo o acompañamiento, aunque estas funciones no forman parte del diseño ni validación de los sistemas. Este estudio constituye la primera evidencia sistematizada de posibles efectos adversos de chatbots de IA en la salud mental dentro de un servicio psiquiátrico, si bien con importantes limitaciones metodológicas. Aun así, subraya la necesidad de que los profesionales consideren estos riesgos y orienten a los pacientes respecto al uso prudente de estas tecnologías. Comentado en Psypost y Muy Interesante
Por Alfredo Calcedo 6 de marzo de 2026
Las mujeres suelen experimentar una resolución más lenta del dolor y son más propensas a desarrollar dolor crónico, pero los mecanismos subyacentes son poco conocidos. En este estudio se explora por qué el dolor tarda más en desaparecer en mujeres que en hombres . Los investigadores trabajaron con un modelo de inflamación en la piel de ratones y descubrieron que un tipo especial de células del sistema inmunitario, los monocitos que producen IL‑10 (IL-10+), desempeñan un papel clave en la reducción del dolor. Estas células se comunican directamente con las neuronas sensoriales para ayudar al cuerpo a volver a la normalidad. En los ratones machos, estos monocitos IL‑10+ eran más numerosos, y eso explicaba que el dolor se resolviera antes que en las hembras. La diferencia estaba relacionada con las hormonas masculinas, que favorecían la producción de IL‑10 y la llegada de estos monocitos al área inflamada. Cuando los científicos eliminaron la capacidad de producir IL‑10 en los monocitos, o de responder a esta señal en las neuronas, la recuperación del dolor se enlenteció en ambos sexos, mostrando lo esencial que es este mecanismo. Además, un compuesto llamado resolvina D1 logró aumentar la presencia de monocitos productores de IL‑10 y acelerar la resolución del dolor tanto en machos como en hembras. Resultados similares aparecieron en personas con lesiones traumáticas: los hombres se recuperaban antes y mostraban niveles más altos de IL‑10. El estudio sugiere así que estos monocitos son una pieza clave para comprender y tratar mejor las diferencias en el dolor entre hombres y mujeres. Comentado en The Objective