¿Quién responde cuando se equivoca la inteligencia artificial? La crisis del sistema clásico de responsabilidad
El artículo reflexiona sobre un problema cada vez más frecuente: cuando un sistema de inteligencia artificial causa un daño, ¿quién debe responder? El derecho clásico estaba pensado para un mundo sencillo, donde una persona tomaba decisiones y, si se equivocaba, asumía las consecuencias. Con la llegada de la IA, sobre todo la más autónoma, ese esquema empieza a fallar.
Aunque solemos decir “se ha equivocado la IA”, en realidad la IA no es un sujeto jurídico: no puede ser demandada ni tiene responsabilidad propia. Detrás de cada sistema hay muchos actores —desarrolladores, proveedores, empresas que lo integran y usuarios profesionales— y resulta difícil señalar a uno solo cuando ocurre un perjuicio, especialmente si no hay una culpa clara.
La Unión Europea es consciente del problema e intenta adaptarse a esta nueva realidad mediante normas como el AI Act y futuras directivas sobre responsabilidad. Estas medidas buscan facilitar que las víctimas puedan reclamar daños, obligando a las empresas a documentar cómo funcionan sus sistemas y a demostrar que actuaron con diligencia
Uno de los puntos centrales es que las empresas ya no pueden escudarse diciendo que “la IA se equivocó”. Si una compañía utiliza inteligencia artificial para contratar personal, conceder créditos o tomar decisiones médicas, también asume responsabilidad sobre sus resultados. El artículo concluye que el derecho está cambiando: ya no importa solo quién tuvo la culpa directa, sino quién controlaba el sistema, obtenía beneficios de él y estaba en posición de evitar el daño.





