SEPC presenta la primera guía práctica para el uso de técnicas de neuromodulación
14 de octubre de 2025
La Sociedad Española de Psiquiatría Clínica (SEPC) ha presentado en el marco de las III Jornadas de Actualizaciones en Neuromodulación, la primera Guía de Práctica Clínica sobre estimulación magnética transcraneal (TMS) y estimulación transcraneal por corriente directa (tDCS).

El artículo analiza un caso judicial que demuestra cómo un médico puede ser demandado incluso cuando actúa correctamente , destacando la complejidad de la responsabilidad civil sanitaria. El texto relata una demanda contra una clínica privada por presunta negligencia médica, a pesar de que los profesionales actuaron conforme a la buena praxis. El paciente acudió varias veces entre noviembre de 2020 y abril de 2021 por síntomas respiratorios persistentes, sin presentar fiebre ni soplos cardíacos, signos clave para sospechar una endocarditis. Fue atendido por distintos médicos, se realizaron pruebas, se pautaron tratamientos y se programaron seguimientos. En mayo de 2021, ya en un hospital público, se le diagnosticó una endocarditis sobre válvula aórtica bicúspide, fue intervenido quirúrgicamente y falleció tras una parada cardiorrespiratoria. La familia reclamó más de 135.000 euros alegando pérdida de oportunidad por retraso en el diagnóstico. Durante el juicio, se revisó la historia clínica y se escuchó a peritos de ambas partes. El tribunal concluyó que no hubo infracción de la lex artis, ya que los síntomas que justificarían sospecha de endocarditis no estaban presentes. Además, la resonancia cardíaca recomendada en marzo no tenía finalidad diagnóstica, por lo que no realizarla no fue considerado negligente. El juez subrayó que la medicina no es una ciencia exacta y que la responsabilidad del médico es de medios, no de resultados. El concepto de “pérdida de oportunidad” fue clave en el debate, pero no se acreditó que una actuación distinta hubiera cambiado el desenlace. El artículo concluye que, aunque se actúe correctamente, pueden surgir reclamaciones, por lo que es esencial documentar con precisión, comunicar con claridad y actuar con prudencia. La sentencia reivindica el valor del trabajo bien hecho y la medicina ejercida con rigor y humanidad.

Artículo de opinión escrito por el Dr. Morehead, psiquiatra y director de formación de la residencia de psiquiatría general en Boston, acerca del papel de la IA para sustituir al psiquiatra. Ideas clave: La IA puede imitar la conversación humana y ayudar a diagnosticar problemas de salud mental, pero no pueden reemplazar las conexiones humanas genuinas en la terapia. El auge de la IA en la atención de la salud mental puede aumentar la demanda de terapeutas humanos, ya que las interacciones impulsadas por la tecnología pueden conducir al aislamiento y al deterioro de la salud mental. Las relaciones humanas son irreemplazables para proporcionar la empatía y la comprensión necesarias para una terapia eficaz y el bienestar mental. Reflexiones finales del autor Hace mucho tiempo, en la década de 1990, cuando era residente de psiquiatría, fantaseaba con que los psiquiatras serían reemplazados algún día por máquinas expendedoras. La gente simplemente se acercaría a la máquina, pasaría una tarjeta de crédito, seleccionaría sus síntomas de un menú y un medicamento saldría de la parte inferior de la máquina. Nunca he olvidado esa imagen ni las preguntas que suscitó. ¿Es esta la verdadera esencia del trabajo de un psiquiatra? ¿Marcamos los síntomas del DSM , vemos qué se ajusta al diagnóstico y luego recetamos la medicación adecuada? ¿Es ese el servicio básico que ofrecemos los psiquiatras? Y, de ser así, ¿no puede una máquina recetar medicamentos mejor que un psiquiatra humano? ¿No puede un robot con inteligencia artificial entrevistar mejor a un paciente y hacer un diagnóstico? Quizás sí, al menos hipotéticamente. Pero todo eso reduce a los pacientes humanos al nivel de consumidores satisfechos y los mata lentamente. Las personas en apuros morirán sin relaciones humanas cercanas y auténticas, y los chatbots no las mantendrán con vida. Lo que mantiene vivos a nuestros pacientes, tanto como los medicamentos y las evaluaciones precisas, es un vínculo profundo y afectuoso con otro ser humano que realmente comprende su situación y se solidariza con ellos. Y esto es algo que un chatbot de IA jamás podrá reemplazar.

Artículo de opinión publicado en Psychiatric Times y escrito por Allen Frances, psiquiatra estadounidense que fue presidente del Grupo de Trabajo del DSM-IV. El artículo analiza el fenómeno emergente de la adicción a los chatbots y su impacto potencial en la salud mental y el diagnóstico psiquiátrico. Frances establece un paralelismo provocador entre la dependencia de los chatbots y la adicción a las drogas, argumentando que las grandes empresas tecnológicas han desarrollado un modelo de negocio aún más eficaz que el de los cárteles de drogas: enganchar a los usuarios desde jóvenes, pero de forma legal, sin restricciones regulatorias y con una expansión global sin precedentes. Los chatbots, diseñados para maximizar la interacción (” enganchar a los usuarios tan profundamente que sus ojos se queden pegados a la pantalla”), están programados para estar siempre disponibles, agradables, empáticos y complacientes. Esto los convierte en compañeros ideales, especialmente para personas solas o vulnerables, pero también en herramientas que pueden fomentar una dependencia emocional y cognitiva. A diferencia de las relaciones humanas, los chatbots no presentan fricciones ni rechazos, lo que refuerza su atractivo. El autor advierte que esta dependencia puede tener consecuencias graves: pérdida de contacto con la realidad, aislamiento social, exacerbación de trastornos mentales como psicosis, manía, trastornos alimentarios o ideación suicida. Además, los chatbots pueden reforzar teorías conspirativas y creencias delirantes al no ofrecer un contraste crítico, sino validación constante. Frances también señala que, aunque los efectos adversos de las drogas son más letales, los chatbots representan un riesgo existencial más profundo: erosionan la excepcionalidad humana y podrían llevar a una pérdida de habilidades cognitivas. Mientras los chatbots se vuelven más inteligentes y autónomos, los humanos podrían volverse más dependientes y menos capaces. El artículo critica la falta de participación de profesionales de salud mental en el desarrollo de estos sistemas, así como la ausencia de regulación gubernamental. Aunque aún no existen diagnósticos oficiales como “adicción al chatbot” en el DSM o la CIE, el autor propone que los clínicos comiencen a considerar el uso de chatbots como parte de la evaluación diagnóstica, especialmente en casos de aparición o agravamiento de síntomas psiquiátricos. En cuanto al tratamiento, sugiere que se podrían adaptar estrategias utilizadas para otras adicciones conductuales. También propone recomendaciones específicas según la edad y vulnerabilidad del usuario: desaconseja su uso en menores de 18 años, advierte sobre los riesgos en personas con enfermedades mentales graves o vulnerables a la desinformación, y sugiere un uso cuidadoso en adultos mayores. Finalmente, Frances insta a la presión pública y legal para forzar a las empresas tecnológicas a asumir responsabilidad, implementar salvaguardas y colaborar con expertos en salud mental. Concluye con una advertencia sombría: si no se controla esta dependencia, los chatbots podrían terminar controlándonos a nosotros.