No es de extrañar que los reguladores europeos se hayan apresurado con el Reglamento de Inteligencia Artificial. El efecto de esta tecnología se observa imparable. Según la asociación DigitalES, las ofertas de empleo en IA han crecido un 454% en los últimos cinco años. Por eso, la IA no te quitará tu trabajo, pero alguien que sepa usarla, sí.
Tampoco sorprende que el miedo a perder la ola (o FOMO), haya impulsado proyectos de IA en empresas de todos los tamaños. Sin embargo, menos del 20% de los pilotos que se ponen en marcha llegan a producción.
De hecho, aunque se ha democratizado el uso de la IA y las empresas están por la labor, existen frenos. Debemos ser conscientes de lo que la IA implica: los riesgos, beneficios, oportunidades y limitaciones de la propia tecnología (alucinaciones o cajas negras). Pero, más allá de conocer estos aspectos técnicos, hay un claro freno: lo que es legal y lo que no para ser conscientes de cuáles son los límites a los que todo sistema de IA debería encontrarse sometido.
Por ello, debemos tener en consideración, desde el punto de vista estratégico, la regulación estricta en Europa. Del mismo modo que puede ser un elemento de atracción en mercados maduros, también puede serlo de recelo para que grandes operadores de IA desplieguen sus tecnologías en el territorio de la Unión Europea.
A modo de ejemplo reciente, el gobernador de California ha vetado un proyecto de ley que habría supuesto la regulación más ambiciosa y estricta de IA en Estados Unidos. También, Emmanuel Macron, presidente de Francia, manifestó la semana pasada que “la UE podría morir, estamos al borde de un momento muy importante […] estamos regulando en exceso e invirtiendo poco. En los próximos dos o tres años, si seguimos nuestra agenda clásica estaremos fuera del mercado”. Afirmaciones muy duras, pero secundadas desde hace años por parte del sector, que evidencian que la UE está perdiendo competitividad ante retos de calado económico mundial.
El tema legal no es solo de altos vuelos, sino que todos los dedos apuntan a los departamentos jurídicos y legales, para que identifiquen potenciales riesgos legales que pueden acabar retrasando o impidiendo en muchos casos la producción de proyectos.
Para lograr poner en marcha estos proyectos de IA, hace falta ser consciente del terreno de juego. Europa es más proteccionista que el resto de los ordenamientos jurídicos en lo que afecta a sus ciudadanos, pero son las cartas que nos ha tocado jugar y hay que ser los mejores con ellas. Tenemos que contar con profesionales técnicos y legales altamente especializados en la materia y conocedores de la tecnología. En este sentido, es necesario saber sobre aspectos técnicos, sobre posibles usos y también sobre cómo implantarlos de manera adecuada usando las mejores herramientas y profesionales en cada momento y cada caso. Además de todo ello, es clave conocer lo importante desde un aspecto legal. Y estas experiencias deben ir de la mano desde el comienzo del proyecto, garantizando así que este pueda ser categorizado bajo el lema de compliance by design.
Esto evitaría que los expertos en cumplimiento normativo sean meros “desatascadores” o que se conviertan en la principal barrera ante un mundo que no espera. No podemos perder una ventaja competitiva que nos ha costado años conseguir, y esto tiene que servir para que los profesionales se centren en tareas de valor. Debemos estar a la altura de las grandes potencias mundiales.
Tenemos la responsabilidad de ser responsables. No podemos obviar todos los riesgos y problemas éticos de la IA, por los que hay que ser cautelosos, pero asertivos. Aunque no sepamos qué depara el futuro, hay que pensar a largo plazo. Porque es cómodo navegar a favor del viento, pero a veces toca hacerlo en contra, sin frenar ni echar el ancla.