El pasado 12 de julio se publicaba en el Diario Ofician de la Unión Europea (DOUE) el Reglamento de Inteligencia Artificial (IA). Muchos retos que conllevan una gestión eficaz de riesgos y una operativa evaluación de impactos. La IA, gusta y asusta. Es un hecho. Se quiere mucho, pero también se duda bastante. Toda evolución tecnológica y social conlleva un proceso de asimilación progresiva. Es ley de vida.
La gestión eficaz de riesgos acelerará y afianzará este proceso. Dos grandes riesgos/retos están protagonizando la gestión empresarial durante este año 2024: seguridad de la información (Directiva NIS-2) y la inteligencia artificial. La IA posibilita la toma de decisiones basadas en datos. Pero ¿qué sucede cuando los datos contienen datos privados y/o sesgados?
Es por ello necesario que las empresas implementen una serie de prácticas al diseñar e implementar sistemas de IA. Esto incluye la evaluación de riesgos, la creación de mecanismos de supervisión y la garantía de la calidad de los datos utilizados. En caso contrario, las empresas se arriesgan a sanciones significativas y pérdida de reputación.
Por ello, se establece una forma estructurada de gestionar los riesgos y oportunidades asociados con la IA, a través de la ISO/IEC 42001. Así se establece un marco certificable de sistemas de gestión de la IA que permitirá a las organizaciones garantizar que los sistemas se desarrollan y utilizan de forma responsable, fomentando el desarrollo y el uso de sistemas de IA fiables, de manera transparente y responsable.
Las empresas que utilicen IA deberán asegurarse de que sus sistemas sean además transparentes y auditables. Esto no solo implica cumplir con la normativa, sino también ganar la confianza de los consumidores. En un entorno donde la privacidad y la seguridad de los datos son prioritarias, ¿cómo pueden las empresas garantizar que sus soluciones de IA sean éticas y responsables?
El nuevo reglamento publicado el pasado 12 de julio, establece una jerarquía de riesgos en función del uso de la IA. Riesgo mínimo o sin riesgo: Los sistemas de IA considerados de riesgo mínimo no tienen obligaciones jurídicas adicionales y no tienen restricciones. Riesgo limitado: Estos sistemas requieren cumplir con ciertas obligaciones, por ejemplo, de transparencia e información, pero no están sujetos a una regulación exhaustiva. Es el caso de los bots. Alto riesgo: Estos sistemas están sujetos al cumplimiento de requisitos más estrictos y a una evaluación previa. Por ejemplo, los sistemas de IA que pueden afectar la salud, seguridad o derechos fundamentales. Esto incluye sistemas de identificación biométrica o selección de personal. Riesgo inadmisible: Sistemas que están prohibidos o limitados, como por ejemplo los de puntuación o valoración social.
Nos centraremos en el sistema de gestión de riesgos en caso de alto riesgo. En primer lugar, debe consistir en un proceso iterativo continuo que sea planificado y ejecutado durante todo el ciclo de vida del sistema de IA de alto riesgo. Dicho proceso debe tener por objeto detectar y mitigar los riesgos pertinentes de los sistemas de IA para la salud, la seguridad y los derechos fundamentales.
Ignorar esta regulación no solo puede resultar en sanciones, sino también en la pérdida de confianza por parte de los clientes y el público en general. ¿Puede una empresa moderna permitirse ese lujo en un mercado tan competitivo? Este proceso debe garantizar que el proveedor determine los riesgos o efectos negativos y aplique medidas de mitigación de los riesgos conocidos y razonablemente previsibles de los sistemas de IA.
Al determinar el uso indebido razonablemente previsible de los sistemas de IA de alto riesgo, el proveedor debe tener en cuenta los usos de los sistemas de IA que, aunque no estén directamente cubiertos por la finalidad prevista ni establecidos en las instrucciones de uso, cabe esperar razonablemente que se deriven de un comportamiento humano fácilmente previsible.
Los datos de alta calidad y el acceso a datos de alta calidad desempeñan un papel esencial a la hora de proporcionar una estructura y garantizar el funcionamiento de muchos sistemas de IA, en especial cuando se emplean técnicas que implican el entrenamiento de modelos.
Por ello, las empresas deben identificar a cuál de estas categorías pertenecen sus aplicaciones de IA, definiendo un plan de mitigación de riesgos y actuar en consecuencia, Por ejemplo, en el caso de los sistemas de inteligencia artificial utilizados en contextos críticos como la toma de decisiones sobre las personas, conllevan riesgos éticos significativos. Es por ello por lo que es necesario garantizar la transparencia, la seguridad y la responsabilidad.
Está garantía hará que las empresas puedan diferenciarse en el mercado y construir una ventaja competitiva notoria y cuantitativa. En un mundo donde la IA continuará desempeñando un papel cada vez más importante, es esencial que las empresas actúen con responsabilidad y visión. La adopción del AI Act puede parecer una tarea ardua, pero es un paso necesario hacia un futuro donde la tecnología y la ética coexisten y coexistirán en armonía.
Apliquemos, por lo tanto, las tres claves de toda gestión eficaz y ejemplar. Las tres P: personas (seamos equipo; seamos melé); proyecto ( binomio Industria-nación) y procedimientos (automatización inteligente de procesos, donde asume un posicionamiento estratégico la IA).
En definitiva, talento, gestión y valentía. Un tridente siempre vencedor, siempre productivo.
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días