I. INTRODUCCIÓN
La inteligencia artificial (en lo sucesivo, IA) ha dejado de ser una simple promesa tecnológica para convertirse en un pilar central de nuestra vida diaria, con aplicaciones que abarcan desde la medicina hasta el transporte, la educación y el comercio. Sin embargo, junto con sus beneficios surgen preocupaciones sobre cómo abordar los riesgos y responsabilidades que conlleva su uso.
En efecto, la IA ha introducido desafíos sin precedentes en el ámbito legal, especialmente en lo que respecta a la responsabilidad civil. A diferencia de las tecnologías tradicionales, los sistemas de IA pueden funcionar de manera autónoma y aprender a partir de su interacción con el entorno, lo que dificulta la identificación de responsabilidades cuando surgen problemas. Un claro ejemplo de estos desafíos son los accidentes causados por vehículos autónomos o los sesgos en procesos automatizados, como la contratación laboral.
En este contexto, la Comisión Europea, en 2022, presentó la propuesta de Directiva sobre responsabilidad en materia de IA[1], con el objetivo de actualizar el régimen de responsabilidad civil para adaptarlo a los desafíos que plantea la IA en el entorno digital. Esta iniciativa se enmarca en un esfuerzo más amplio por parte de la Unión Europea para regular la IA, complementando otras normativas como el Reglamento de IA[2] y el Reglamento General de Protección de Datos (RGPD)[3].
Este artículo tiene como objetivo explicar las principales novedades de la propuesta y sus implicaciones respecto a las obligaciones que recaen en las empresas.
II. ANTECEDENTES
La actual normativa europea sobre responsabilidad civil, fundamentada principalmente en la Directiva 85/374/CEE en materia de responsabilidad por los daños causados por productos defectuosos[4], que, como no puede ser de otra manera, no está diseñada para abordar las particularidades de la IA, especialmente en su vertiente de aprendizaje automático. Estos sistemas, al poder modificar su comportamiento sin intervención humana directa, crean lagunas jurídicas en la asignación de responsabilidades cuando se generan daños.
Para enfrentar estos retos, la Comisión Europea ha propuesto la presente Directiva sobre responsabilidad en materia de IA, que busca responder a estas nuevas realidades proporcionando un marco que garantice una mayor seguridad jurídica, transparencia y un equilibrio justo entre los intereses de las empresas desarrolladoras de IA y los derechos de los usuarios.
III. NOVEDADES QUE INTRODUCE LA PROPUESTA DE DIRECTIVA SOBRE RESPONSABILIDAD EN MATERIA DE IA
La propuesta introduce varios cambios significativos respecto a los anteriores marcos legislativos, buscando adaptar la normativa a los desafíos que presenta la IA.
En primer lugar, uno de los aspectos más innovadores de la propuesta es la inversión de la carga de la prueba (considerando 14 y artículo 1) en casos de daños relacionados con el uso de IA. En el derecho tradicional, el demandante (por ejemplo, un consumidor o usuario) debe demostrar que un producto o sistema defectuoso causó el daño. Sin embargo, debido a la complejidad técnica de los sistemas de IA, la Comisión Europea propone que, en ciertos casos, la carga recaiga sobre el proveedor o desarrollador de la IA para demostrar que no hubo negligencia o que el sistema no presentó un fallo que causara el daño.
Esta inversión de la carga de la prueba solo se aplicará en situaciones específicas donde el demandante tenga dificultades para obtener pruebas por la opacidad del sistema de IA (conocido como «caja negra»). Este enfoque permite una mayor protección a las víctimas, al tiempo que impone una mayor responsabilidad a los desarrolladores para garantizar que sus sistemas sean seguros y transparentes.
En segundo lugar, otro aspecto importante es el derecho de los demandantes a obtener acceso a pruebas relacionadas con los sistemas de IA (artículo 3) en litigios de responsabilidad. La propuesta permite que los tribunales ordenen a las empresas la divulgación de información clave sobre el diseño, desarrollo y funcionamiento de la IA cuando sea relevante para determinar la responsabilidad. Este acceso a la información es fundamental para que las víctimas puedan construir un caso sólido en su reclamación.
Sin embargo, para evitar abusos, la Directiva prevé que este acceso a pruebas esté limitado a lo necesario y proporcional, para proteger los secretos comerciales (considerando 20).
Finalmente, la propuesta introduce la institución de la responsabilidad objetiva (artículo 5) para sistemas de IA considerados de alto riesgo, según lo establecido en el Reglamento de IA. Esto significa que los desarrolladores y operadores de estos sistemas serán responsables por los daños causados, independientemente de que haya habido negligencia. Estos sistemas abarcan aplicaciones críticas en sectores como la salud, el transporte y la seguridad, donde los riesgos asociados son más altos y pueden afectar de manera significativa los derechos fundamentales de los ciudadanos.
No obstante, la propuesta prevé una revisión de la Directiva después de la finalización del periodo de transposición. En particular, mediante dicha revisión deberá examinarse si es necesario adoptar normas de responsabilidad objetiva (considerando 31).
IV. OBLIGACIONES PARA LAS EMPRESAS
La propuesta de Directiva sobre responsabilidad en materia de IA impone una serie de obligaciones clave a las empresas que desarrollan o utilizan sistemas de IA, especialmente aquellos clasificados como de alto riesgo. Estas obligaciones están diseñadas para minimizar los riesgos asociados a la IA y garantizar la seguridad de los consumidores y terceros.
En primer lugar, el artículo 4, establece que, en casos donde las víctimas enfrentan dificultades para probar la causalidad debido a la complejidad de los sistemas de IA, se podrá aplicar una presunción de causalidad. Esto implica que, en ciertos casos, las empresas deberán demostrar que su sistema de IA no causó el daño reclamado. Esta inversión de la carga de la prueba, como hemos dicho en anteriores líneas, es especialmente relevante para los sistemas de IA opacos, conocidos como «caja negra».
Por otro lado, el artículo 3, establece la obligación de que las empresas que desarrollen o utilicen sistemas de IA, especialmente aquellos de alto riesgo, proporcionen acceso a información clave sobre el diseño, desarrollo y funcionamiento de los sistemas de IA. Esta información será crucial para las víctimas en caso de litigio. La transparencia tiene como objetivo permitir la trazabilidad y aplicabilidad de las decisiones tomadas por los sistemas automatizados.
Por último, si bien es cierto que no aparece especificado en ningún artículo de la propuesta de Directiva, las empresas que trabajen con sistemas de IA de alto riesgo deben considerar la contratación de seguros de responsabilidad civil para protegerse frente a posibles reclamaciones por daños. Este aspecto surge como consecuencia de las obligaciones impuestas en los artículos mencionados y la naturaleza de los riesgos asociados a estos sistemas.
Estas obligaciones indicadas ut supra buscan asegurar que las empresas implementen medidas adecuadas de diligencia, transparencia y supervisión para minimizar los riesgos de la IA y garantizar la protección de los derechos de los ciudadanos.
V. CONCLUSIONES
La propuesta de Directiva sobre responsabilidad en materia de IA representa un paso crucial para adaptar el marco legal europeo a los desafíos que plantea el uso de tecnologías avanzadas. La IA, con su capacidad de operar de manera autónoma y aprender de su entorno, ha creado vacíos legales en la atribución de responsabilidades, especialmente en casos de daños o perjuicios. La propuesta de Directiva aborda estas lagunas introduciendo medidas como la inversión de la carga de la prueba y el acceso a información clave en litigios, lo que aumenta la transparencia y protección para las víctimas.
Uno de los aspectos más innovadores es la inversión de la carga de la prueba en casos donde la complejidad de los sistemas de IA, especialmente los denominados “caja negra”, dificulta la obtención de pruebas por parte del demandante. Esta medida busca garantizar una mayor equidad en la defensa de los derechos de los afectados y refuerza la obligación de las empresas de desarrollar sistemas seguros y transparentes.
Asimismo, se establece el derecho de las víctimas a acceder a pruebas relevantes sobre el diseño y funcionamiento de los sistemas de IA, lo que permitirá a los tribunales evaluar con mayor precisión los casos de responsabilidad. Este acceso, sin embargo, está limitado por la necesidad de proteger los secretos comerciales.
Finalmente, la propuesta refuerza la responsabilidad objetiva para los sistemas de IA considerados de alto riesgo, imponiendo a las empresas la obligación de responder por los daños causados, independientemente de que exista negligencia. Estas obligaciones buscan que las empresas actúen con diligencia, transparencia y supervisión para mitigar los riesgos asociados a la IA, asegurando la protección de los ciudadanos. En conjunto, la propuesta de Directiva ofrece un marco legal moderno que equilibra la innovación tecnológica con la responsabilidad y la protección de los derechos fundamentales.
[1] Vid. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52022PC0496
[2] Vid. https://www.boe.es/doue/2024/1689/L00001-00144.pdf
[3] Vid. https://www.boe.es/doue/2016/119/L00001-00088.pdf
[4] Vid. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:31985L0374