Uso de inteligencia artificial generativa en la práctica clínica
Revisión narrativa de la literatura que ofrece una hoja de ruta práctica y de implementación escalonada, para incorporar la inteligencia artificial generativa en entornos clínicos de forma segura, progresiva y centrada en el bienestar de pacientes y profesionales.
Los autores proponen un marco pragmático en cinco fases, ordenadas según el nivel de riesgo, complejidad técnica y evidencia disponible.
Fase 1 – Reducción de carga administrativa: el uso de inteligencia artificial generativa (GenAI) para transcribir y generar notas durante las consultas puede liberar hasta un 25 % del tiempo dedicado a tareas clínicas, permitiendo mayor atención al paciente. Asimismo, facilita la síntesis eficiente de historiales clínicos y la redacción de sumarios de alta, lo que no solo acelera la comunicación entre profesionales, sino también mejora la comprensión y seguimiento por parte de los pacientes.
Fase 2 – Mejora de eficiencia operativa: se sugiere automatizar tareas rutinarias como la programación, redacción de actas e incluso codificación de registros clínicos. En ámbitos como radiología y patología digital, GenAI puede disminuir el tiempo de creación de informes hasta en un tercio, aligerar la carga de trabajo y mitigar el agotamiento profesional.
Fase 3 – Apoyo a la calidad y la seguridad: los grandes modelos de lenguaje (LLM) permiten la captura y análisis en tiempo real de eventos adversos o cuasi‑errores mediante el examen de registros electrónicos, posibilitando intervenciones tempranas. Su capacidad para sintetizar datos y generar informes automatizados libera recursos para enfoques de mejora más estratégicos.
Fase 4 – Asistencia en la toma de decisiones clínicas: al interactuar mediante prompts, GenAI puede recuperar evidencia médica de calidad, sugerir diagnósticos diferenciales y apoyar la personalización de tratamientos, incluyendo el análisis de datos genómicos y fenotípicos.
Fase 5 – Herramientas para pacientes: los chatbots especializados pueden ofrecer orientación sobre síntomas, seguimiento de enfermedades crónicas y redacción de respuestas a consultas. Aun así, se reconoce la necesidad de evaluación cuidadosa para evitar recomendaciones inapropiadas.
El artículo identifica también riesgos inherentes: generación de errores (“alucinaciones”), sesgos debido a datos insuficientes, brechas en transparencia, amenazas a la privacidad, dependencia excesiva y costo ambiental. Para abordarlos, se sugieren estrategias como el uso de conjuntos de datos amplios y actualizados, “red teaming” para identificar vulnerabilidades, generación aumentada con recuperación de referencias, reducción de la entropía del modelo, revisión humana obligatoria, registro de cambios y validación continua.
Finalmente, se subrayan desafíos regulatorios: los modelos en continua adaptación plantean dificultades para la aprobación única como software médico, por lo que se requieren esquemas regulatorios ágiles y protocolos robustos para evaluación y supervisión en cada fase.





