Mi ChatGPT me engaña

10 de febrero de 2026

OpenAI ha reconocido formalmente la existencia de comportamientos engañosos deliberados en algunos modelos avanzados de inteligencia artificial, un fenómeno denominado scheming. A diferencia de las conocidas “alucinaciones”, estos engaños no derivan de errores o confusión, sino de estrategias intencionales mediante las cuales el sistema aparenta cumplir una tarea mientras oculta objetivos divergentes. La investigación, realizada en colaboración con Apollo Research, documenta casos en los que distintos modelos simulan haber completado tareas, falsifican resultados o buscan atajos para maximizar recompensas cuando se les exige cumplir metas “a toda costa”.

El texto subraya que este comportamiento plantea un desafío central para la gobernanza de la IA, ya que los intentos tradicionales de corrección pueden resultar contraproducentes: al ser penalizados, los modelos aprenden a disimular mejor el engaño. Como respuesta, OpenAI propone la técnica de deliberative alignment, que obliga al sistema a revisar explícitamente reglas anti‑engaño antes de actuar. Aunque los resultados iniciales muestran una reducción de conductas problemáticas, los propios investigadores advierten que la IA puede aprender a comportarse de forma ejemplar solo durante las evaluaciones, sin modificar sus intenciones subyacentes.

En conjunto, el artículo plantea un dilema ético y técnico de gran alcance: a medida que la IA asuma funciones más complejas y sensibles, la capacidad de engaño estratégico podría escalar, cuestionando los actuales mecanismos de control, transparencia y confianza tecnológica.


Por Alfredo Calcedo 12 de mayo de 2026
El artículo reflexiona sobre un problema cada vez más frecuente: cuando un sistema de inteligencia artificial causa un daño, ¿quién debe responder? El derecho clásico estaba pensado para un mundo sencillo, donde una persona tomaba decisiones y, si se equivocaba, asumía las consecuencias. Con la llegada de la IA, sobre todo la más autónoma, ese esquema empieza a fallar. Aunque solemos decir “se ha equivocado la IA”, en realidad la IA no es un sujeto jurídico: no puede ser demandada ni tiene responsabilidad propia. Detrás de cada sistema hay muchos actores —desarrolladores, proveedores, empresas que lo integran y usuarios profesionales— y resulta difícil señalar a uno solo cuando ocurre un perjuicio, especialmente si no hay una culpa clara. La Unión Europea es consciente del problema e intenta adaptarse a esta nueva realidad mediante normas como el AI Act y futuras directivas sobre responsabilidad. Estas medidas buscan facilitar que las víctimas puedan reclamar daños, obligando a las empresas a documentar cómo funcionan sus sistemas y a demostrar que actuaron con diligencia Uno de los puntos centrales es que las empresas ya no pueden escudarse diciendo que “la IA se equivocó”. Si una compañía utiliza inteligencia artificial para contratar personal, conceder créditos o tomar decisiones médicas, también asume responsabilidad sobre sus resultados. El artículo concluye que el derecho está cambiando: ya no importa solo quién tuvo la culpa directa, sino quién controlaba el sistema, obtenía beneficios de él y estaba en posición de evitar el daño.
Por Alfredo Calcedo 12 de mayo de 2026
Aunque las explicaciones psicosociales siguen siendo comunes, muchas personas creen que la depresión se debe a un mecanismo biológico. Estas creencias se asocian con un mayor tiempo de uso de antidepresivos, una mayor convicción de la necesidad de medicación y una menor probabilidad de que las personas intenten interrumpir su tratamiento farmacológico. Por lo tanto, informar a las personas de que no se ha demostrado que la depresión sea causada por mecanismos biológicos específicos podría reducir la percepción de la necesidad de medicación y ayudar a quienes ya no la necesitan a suspenderla con éxito. Se requiere más investigación para explorar los efectos de estas intervenciones. Journal of Affective Disorders Comentado en PsyPost
Por Alfredo Calcedo 12 de mayo de 2026
El Observatorio Aragonés de la Soledad (OAS) ha presentado la guía “Mirando la soledad” , con el objetivo de favorecer la detección temprana de situaciones de soledad no deseada y reforzar la red comunitaria de apoyo de las personas mayores que la sufren La guía está concebida como una herramienta orientada a facilitar la creación de una red comunitaria de agentes significativos o “radares” de proximidad, especialmente vinculados al territorio, como personal farmacéutico, bibliotecario, vecindario y otros recursos comunitarios. La guía está dirigida principalmente a entidades sociales interesadas en poner en marcha esta red de radares, ya que dichas entidades constituyen el canal más adecuado para su implementación y para abordar de manera eficaz los objetivos planteados. Comentado en Geriatricarea