Los retos que plantea la aplicación del Reglamento Europeo de Inteligencia Artificial (RIA) son numerosos y hay cierto grado de incertidumbre en las empresas que utilizan esta tecnología, cada vez más extendida. Aunque se reconoce de manera positiva que esta norma pionera gire en torno a la protección de los derechos de las personas y se admite la necesidad de regular el uso de la IA, su aplicación no será fácil debido a que hay algunos aspectos que plantean más dudas que certezas. El rol de los abogados será fundamental en la interpretación y cumplimiento, no solo del reglamento mismo, sino también en concordancia con la normativa previa que rige a cada sector. Tendrán que intentar arrojar luz sobre cómo se deben cumplir los 113 artículos y los 13 anexos que tiene esta norma.
Estas fueron algunas de las ideas que se plantearon durante la presentación del libro “Comentarios al Reglamento Europeo de Inteligencia Artificial”, editado en papel y disponible en Legalteca de Aranzadi LA LEY. El encuentro congregó a numerosos expertos de los campos del derecho y de la inteligencia artificial. En la sede madrileña de Cuatrecasas, los ponentes debatieron sobre los desafíos y oportunidades que se pueden generar a partir de este nuevo marco regulatorio. Bajo la coordinación de Moisés Barrio, profesor de derecho digital y miembro del Consejo Asesor de Aranzadi LA LEY, la publicación compila el análisis que han hecho 73 autores del texto legal.
La mesa redonda estuvo presidida por Albert Agustinoy, socio de tecnologías y medios digitales, propiedad Intelectual, industrial y secretos de Cuatrecasas, y contó con la participación de Argelia Queralt, vocal del Consejo General del Poder Judicial (CGPJ); Enrique Serrano, CEO de Tinamica y presidente de MBIT School y de IA de Ametic; Maite Pérez, Legal IT Operations Manager de Inetum; Cristina Retana, directora de contenidos e innovación de Aranzadi LA LEY para España y Portugal; y Moisés Barrio, que cerró las intervenciones.
Enfoque humanista
Para Albert Agustinoy, lo positivo del reglamento es que ha hecho de la industria de la IA un sector regulado, con una serie de contrapesos y garantías para matizar los posibles riesgos legales. “No nace en un contexto neutro, sino que hay una clara voluntad de la Unión Europea de seguir una línea legislativa de anteponer los derechos de los ciudadanos al desarrollo e implantación de estas tecnologías”. El socio de Cuatrecasas recordó que la otra cara de la moneda también la recogió el Informe Draghi, al advertir que la sobrerregulación puede ir en contra de la innovación y de la competitividad de Europa.
La primera intervención fue la de la vocal del CGPJ Argelia Queralt. A través de un vídeo, puso en valor que esta sea la primera ley a nivel mundial sobre inteligencia artificial y se refirió a la evaluación de impacto en los derechos fundamentales que exige el reglamento. Aunque admitió que el artículo 27 que la regula es farragoso y señaló dos dificultades: concretar a qué sistemas y en qué ámbitos se exige esta evaluación y reforzar la reevaluación, de manera que se vayan actualizando con el mismo nivel de exigencia. Sobre esto, cree que las dudas se irán aclarando con el desarrollo de metodologías y guías.
También destacó el “proceso de reconstitucionalización de lo digital” con un enfoque humanista porque la IA debe ser fiable. “Si no fuera así no se entendería porque los derechos de las personas son parte de los valores fundamentales de la Unión Europea”, señaló Queralt, que reconoció el establecimiento de elementos preventivos y también de tutela. “No se trata de excluir o mitigar la innovación, sino de hacerla compatible con la protección del Estado de derecho”, recalcó.
La IA mejora la vida de las personas
La industria tecnológica ha colaborado desde su perspectiva con la elaboración del RIA. Así lo señaló Enrique Serrano, que prevé que será difícil de aplicar, aunque reconoció que era necesario contar esta norma. Considera adecuado el enfoque el enfoque humanista porque “el objetivo de la IA es mejorar la vida de las personas”. A su juicio, el peligro está en los datos y en las fuentes. “El 70% del trabajo y el esfuerzo de la IA es la preparación de los datos, el entrenamiento y los sesgos. Ahí es donde ponemos más cuidado para que no se escape nada”, recalcó.
Además, el presidente de IA de Ametic puso el acento en la complejidad de las redes neuronales multicapa, sobre todo cuando hay que saber dónde la IA adopta una determinada decisión y destacó que, cuando se alude a los modelos fundacionales, que se actualizan cada seis meses y funcionan como un paraguas para albergar otros modelos conectados, hay una cierta indefinición que no ve con malos ojos porque “el reglamento va al uso y eso está bien porque frenas menos la tecnología”. Por esto, considera que “para los juristas viene una época dorada no solo en litigios”, sino también para determinar qué es un modelo prohibido y uno de alto riesgo o en conflictos de propiedad intelectual, sobre todo por el entrenamiento específico con datos parciales.
Sentido común e innovación con IA
Por su parte, Maite Pérez se mostró optimista al considerar que hay una cierta conciencia de que “la normativa no puede asfixiar a la industria” y celebró que se apoye la innovación y la generación de negocio porque, “aunque se habla mucho de riesgos, no se puede olvidar los numerosísimos beneficios del uso de la IA”. Desde su punto de vista, el hecho de que la norma no está “totalmente aterrizada” permitirá seguir innovando incluso cuando dice qué es lo que está prohibido. “Hay una ventana a la innovación incluso cuando se señala cuáles son los usos de alto riesgo” y añadió que “la norma dice aprovechad la tecnología al servicio de las personas y utilizadas por personas. Esto no es una guerra de lo humano y la máquina porque el trabajo futuro será una combinación de humanos utilizando máquinas”.
Por otra parte, se recordó que los propios abogados, además de asesorar sobre cómo cumplir con el RIA, utilizan en su trabajo diario la inteligencia artificial. Pero esto exige un plus de seguridad y garantías. En este sentido, Cristina Retana explicó que para Aranzadi LA LEY “los contenidos son clave, nuestra base de conocimiento es fundamental para nuestras soluciones de IA”. En este sentido, los profesionales del derecho cuentan con tres pilares: el primero es la seguridad, de modo que sepan que cualquier documento o sentencia que suban no va a salir de ese entorno seguro, que incluye salvaguardas para la propiedad intelectual y garantías de confidencialidad; el segundo, es el uso ético y responsable, con formación para empleados para garantizar el cumplimiento de las políticas internas y del código ético; y el tercero es la calidad de los datos, que están actualizados y son fiables. Además, los profesionales del derecho conocen transparencia su origen y las fuentes de las que proceden.
Interpretación legal indispensable
El calendario del RIA señala que en febrero entran en vigor los usos prohibidos de la inteligencia artificial. Para Albert Agustinoy, surgirán elementos que requieren de interpretación, como la explicabilidad, es decir, que haya claridad sobre cómo la IA ha llegado a adoptar una decisión o ha arrojado una conclusión. “El marco normativo preexistente en cada sector va a ser uno de los elementos esenciales que deberemos tener en cuenta”, concluyó el socio de Cuatrecasas. Habrá más implicaciones, como la responsabilidad contractual, ya que la reciente Directiva sobre responsabilidad por los daños causados por productos defectuosos aborda los sistemas de inteligencia artificial, o como las vinculadas con el Reglamento de Ciberresiliencia, que incluye un capítulo sobre ciberseguridad aplicable a sistemas de IA de alto riesgo.
Por último, intervino el coordinador del libro, Moisés Barrio, que recordó que la inteligencia artificial dio sus primeros pasos en 1956 y los avances de mayor calado se han dado en los últimos años. “Hoy la IA es una necesidad permanente que está presente en cualquier servicio mínimamente sofisticado. Y por eso el derecho ha tenido que intervenir”, explicó. Contar con una regulación propia era imprescindible porque algunos de los problemas que plantea no estaban resueltos con la normativa en vigor: surgió la necesidad de hacerla segura y minimizar los posibles daños, que con la IA tienden a ser sistémicos y a gran escala, planteando conflictos de causalidad a los litigantes a la hora de determinar la responsabilidad de los daños producidos.
“El Reglamento de Inteligencia Artificial es una norma técnicamente muy complicada y para nada sigue el modelo regulatorio de protección de datos. Está indeterminada en muchos aspectos, requiere de interpretación o de desarrollos ulteriores”, subrayó. De ahí que el objetivo principal de la publicación sea aportar claridad y criterios que ayuden a “navegar en la complejidad que tiene el reglamento”, concluyó Moisés Barrio.