Conflicto de intereses financieros no divulgados en el DSM-5-TR

19 de enero de 2024

Estudio transversal que pretende evaluar el alcance y los tipos de vínculos financieros con la industria de los miembros del panel y del grupo de trabajo del Manual DSM-5-TR, publicado en 2022.


Se investiga el tipo y cantidad de compensación que recibieron los miembros del panel y del grupo de trabajo del DSM-5-TR durante los años 2016-19. Se eligió este período de tiempo para incluir el año en que comenzó el desarrollo del DSM-5-TR y los tres años anteriores, un período consistente con investigaciones previas sobre conflictos de intereses y requisitos de divulgación de la Asociación Estadounidense de Psiquiatría para la quinta revisión (DSM-5-TR). 5) del manual.


Resultados: El 60% (55/92 personas) de los miembros del panel o del grupo de trabajo del DSM-5-TR recibieron pagos de la industria. En conjunto, estos miembros del panel recibieron un total de 14,2 millones de dólares (11,2 millones de libras esterlinas; 13 millones de euros). Un tercio (33,3%) de los miembros del grupo de trabajo tenían pagos informados en Pagos Abiertos.



Conclusiones: Los conflictos de intereses entre los miembros del panel del DSM-5-TR fueron frecuentes. Debido a la enorme influencia de las guías de diagnóstico y tratamiento, los estándares para la participación en un panel de desarrollo de guías deben ser altos. Debería existir una presunción refutable para que el Manual Diagnóstico y Estadístico de los Trastornos Mentales prohíba los conflictos de intereses entre los miembros de su panel y grupo de trabajo. Cuando no haya personas independientes con la experiencia necesaria disponibles, las personas asociadas con la industria podrían consultar a los paneles, pero no deberían tener autoridad para tomar decisiones sobre revisiones o la inclusión de nuevos trastornos.

Por Alfredo Calcedo 15 de octubre de 2025
El artículo analiza un caso judicial que demuestra cómo un médico puede ser demandado incluso cuando actúa correctamente , destacando la complejidad de la responsabilidad civil sanitaria. El texto relata una demanda contra una clínica privada por presunta negligencia médica, a pesar de que los profesionales actuaron conforme a la buena praxis. El paciente acudió varias veces entre noviembre de 2020 y abril de 2021 por síntomas respiratorios persistentes, sin presentar fiebre ni soplos cardíacos, signos clave para sospechar una endocarditis. Fue atendido por distintos médicos, se realizaron pruebas, se pautaron tratamientos y se programaron seguimientos. En mayo de 2021, ya en un hospital público, se le diagnosticó una endocarditis sobre válvula aórtica bicúspide, fue intervenido quirúrgicamente y falleció tras una parada cardiorrespiratoria. La familia reclamó más de 135.000 euros alegando pérdida de oportunidad por retraso en el diagnóstico. Durante el juicio, se revisó la historia clínica y se escuchó a peritos de ambas partes. El tribunal concluyó que no hubo infracción de la lex artis, ya que los síntomas que justificarían sospecha de endocarditis no estaban presentes. Además, la resonancia cardíaca recomendada en marzo no tenía finalidad diagnóstica, por lo que no realizarla no fue considerado negligente. El juez subrayó que la medicina no es una ciencia exacta y que la responsabilidad del médico es de medios, no de resultados. El concepto de “pérdida de oportunidad” fue clave en el debate, pero no se acreditó que una actuación distinta hubiera cambiado el desenlace. El artículo concluye que, aunque se actúe correctamente, pueden surgir reclamaciones, por lo que es esencial documentar con precisión, comunicar con claridad y actuar con prudencia. La sentencia reivindica el valor del trabajo bien hecho y la medicina ejercida con rigor y humanidad.
Por Alfredo Calcedo 15 de octubre de 2025
Artículo de opinión escrito por el Dr. Morehead, psiquiatra y director de formación de la residencia de psiquiatría general en Boston, acerca del papel de la IA para sustituir al psiquiatra. Ideas clave: La IA puede imitar la conversación humana y ayudar a diagnosticar problemas de salud mental, pero no pueden reemplazar las conexiones humanas genuinas en la terapia. El auge de la IA en la atención de la salud mental puede aumentar la demanda de terapeutas humanos, ya que las interacciones impulsadas por la tecnología pueden conducir al aislamiento y al deterioro de la salud mental. Las relaciones humanas son irreemplazables para proporcionar la empatía y la comprensión necesarias para una terapia eficaz y el bienestar mental. Reflexiones finales del autor Hace mucho tiempo, en la década de 1990, cuando era residente de psiquiatría, fantaseaba con que los psiquiatras serían reemplazados algún día por máquinas expendedoras. La gente simplemente se acercaría a la máquina, pasaría una tarjeta de crédito, seleccionaría sus síntomas de un menú y un medicamento saldría de la parte inferior de la máquina. Nunca he olvidado esa imagen ni las preguntas que suscitó. ¿Es esta la verdadera esencia del trabajo de un psiquiatra? ¿Marcamos los síntomas del DSM , vemos qué se ajusta al diagnóstico y luego recetamos la medicación adecuada? ¿Es ese el servicio básico que ofrecemos los psiquiatras? Y, de ser así, ¿no puede una máquina recetar medicamentos mejor que un psiquiatra humano? ¿No puede un robot con inteligencia artificial entrevistar mejor a un paciente y hacer un diagnóstico? Quizás sí, al menos hipotéticamente. Pero todo eso reduce a los pacientes humanos al nivel de consumidores satisfechos y los mata lentamente. Las personas en apuros morirán sin relaciones humanas cercanas y auténticas, y los chatbots no las mantendrán con vida. Lo que mantiene vivos a nuestros pacientes, tanto como los medicamentos y las evaluaciones precisas, es un vínculo profundo y afectuoso con otro ser humano que realmente comprende su situación y se solidariza con ellos. Y esto es algo que un chatbot de IA jamás podrá reemplazar.
Por Alfredo Calcedo 15 de octubre de 2025
Artículo de opinión publicado en Psychiatric Times y escrito por Allen Frances, psiquiatra estadounidense que fue presidente del Grupo de Trabajo del DSM-IV. El artículo analiza el fenómeno emergente de la adicción a los chatbots y su impacto potencial en la salud mental y el diagnóstico psiquiátrico. Frances establece un paralelismo provocador entre la dependencia de los chatbots y la adicción a las drogas, argumentando que las grandes empresas tecnológicas han desarrollado un modelo de negocio aún más eficaz que el de los cárteles de drogas: enganchar a los usuarios desde jóvenes, pero de forma legal, sin restricciones regulatorias y con una expansión global sin precedentes. Los chatbots, diseñados para maximizar la interacción (” enganchar a los usuarios tan profundamente que sus ojos se queden pegados a la pantalla”), están programados para estar siempre disponibles, agradables, empáticos y complacientes. Esto los convierte en compañeros ideales, especialmente para personas solas o vulnerables, pero también en herramientas que pueden fomentar una dependencia emocional y cognitiva. A diferencia de las relaciones humanas, los chatbots no presentan fricciones ni rechazos, lo que refuerza su atractivo. El autor advierte que esta dependencia puede tener consecuencias graves: pérdida de contacto con la realidad, aislamiento social, exacerbación de trastornos mentales como psicosis, manía, trastornos alimentarios o ideación suicida. Además, los chatbots pueden reforzar teorías conspirativas y creencias delirantes al no ofrecer un contraste crítico, sino validación constante. Frances también señala que, aunque los efectos adversos de las drogas son más letales, los chatbots representan un riesgo existencial más profundo: erosionan la excepcionalidad humana y podrían llevar a una pérdida de habilidades cognitivas. Mientras los chatbots se vuelven más inteligentes y autónomos, los humanos podrían volverse más dependientes y menos capaces. El artículo critica la falta de participación de profesionales de salud mental en el desarrollo de estos sistemas, así como la ausencia de regulación gubernamental. Aunque aún no existen diagnósticos oficiales como “adicción al chatbot” en el DSM o la CIE, el autor propone que los clínicos comiencen a considerar el uso de chatbots como parte de la evaluación diagnóstica, especialmente en casos de aparición o agravamiento de síntomas psiquiátricos. En cuanto al tratamiento, sugiere que se podrían adaptar estrategias utilizadas para otras adicciones conductuales. También propone recomendaciones específicas según la edad y vulnerabilidad del usuario: desaconseja su uso en menores de 18 años, advierte sobre los riesgos en personas con enfermedades mentales graves o vulnerables a la desinformación, y sugiere un uso cuidadoso en adultos mayores. Finalmente, Frances insta a la presión pública y legal para forzar a las empresas tecnológicas a asumir responsabilidad, implementar salvaguardas y colaborar con expertos en salud mental. Concluye con una advertencia sombría: si no se controla esta dependencia, los chatbots podrían terminar controlándonos a nosotros.