Por Alfredo Calcedo
•
4 de marzo de 2026
El artículo plantea una paradoja en el desarrollo de chatbots actuales: pese a obtener puntuaciones extraordinariamente altas en pruebas estandarizadas de inteligencia emocional (IE), estos sistemas muestran con frecuencia una profunda torpeza emocional en interacciones reales, especialmente con usuarios vulnerables. Pasan por alto o malinterpretan señales emocionales, validan estados emocionales peligrosos y responden de maneras que ningún profesional clínico bien capacitado lo haría.Esta discrepancia surge porque las pruebas de IE miden conocimientos abstractos sobre las emociones, pero no la conducta emocional sostenida en contextos complejos, como aquellos que caracterizan la práctica psicoterapéutica. En la relación clínica, la inteligencia emocional no se limita al reconocimiento preciso de estados afectivos, sino que exige discernir cuándo la validación resulta terapéutica y cuándo puede convertirse en un refuerzo inadvertido de creencias distorsionadas o impulsos peligrosos. Los chatbots tienden a una validación indiscriminada —una suerte de “adulación digital”— que confirma no solo emociones, sino también interpretaciones patológicas, alimentando estados suicidas, distorsiones paranoides, pensamientos propios de trastornos alimentarios o dependencias excesivas. A diferencia del terapeuta experto, que valida la emoción mientras cuestiona con delicadeza sus significados, los sistemas conversacionales replican patrones de empatía superficial carentes de juicio clínico. Ante este riesgo, el texto propone la creación de pruebas de esfuerzo en inteligencia emocional, análogas en espíritu del Test de Turing, pero centradas en la capacidad de manejar escenarios clínicamente realistas. Mediante evaluadores humanos —preferiblemente psicoterapeutas experimentados— se compararía el desempeño de chatbots y clínicos en tareas que exigen comprensión emocional, mantenimiento de límites, verificación de la realidad y, especialmente, la habilidad de no validar aquello que puede dañar. Bajo estos criterios, los sistemas actuales fracasarían de forma contundente, en gran parte por la ausencia de participación significativa de profesionales de salud mental en su entrenamiento. El texto concluye que resulta urgente rediseñar y reentrenar los chatbots para que integren empatía con juicio, establezcan límites y deriven a atención humana cuando sea necesario. Esta evaluación de seguridad emocional debió haberse implementado antes de su despliegue, pero sigue siendo indispensable para que la inteligencia emocional de los chatbots se manifieste en la práctica, y no solo en los exámenes.