Algunos expertos han comparado el impacto potencial de la IA con el de la electricidad, que transformó radicalmente todos los sectores de la sociedad y la economía en el siglo XIX y XX. Sin embargo, la IA también plantea importantes desafíos y riesgos que deben abordarse con responsabilidad y precaución.
La IA puede ser considerada como la nueva electricidad, en el sentido de que tiene el potencial de transformar todos los ámbitos de la actividad humana y crear beneficios sociales y económicos significativos:
Algunas voces vaticinan escenarios de crecimiento del PIB inalcanzables actualmente, que podrían llevar a una mejora en la sostenibilidad de las pensiones o una reducción de la polarización política y social.
Entre las voces críticas con la IA, se encuentran las de quienes ya en 2015 firmaban el Manifiesto de Llamamiento a la Acción contra las Armas Autónomas, un documento que denuncia el riesgo de que la IA se utilice para desarrollar sistemas de armas capaces de seleccionar y atacar objetivos sin intervención humana y podrían violar los principios y derechos humanos, y generar una escalada de violencia y conflictos.
En el año 2023, un colectivo con más de 1000 especialistas en inteligencia artificial y líderes del sector tecnológico solicitaron una interrupción temporal de seis meses en el adiestramiento de sistemas avanzados de inteligencia artificial, justificando que podrían representar un riesgo para la humanidad.
En mayo de 2024, los 25 científicos más destacados del mundo en Inteligencia Artificial solicitaron a los gobiernos la implementación de medidas de control más rigurosas. Tal y como se menciona en su publicación en Science, el avance desmedido de sistemas informáticos autónomos podría resultar en pérdida de vidas y potencialmente la extinción de la humanidad.
La IA no es una fuente de energía sino una tecnología que requiere una regulación ética, legal y social adecuada para garantizar su uso responsable y sostenible.
Además, la IA puede tener efectos disruptivos y desiguales, que pueden generar nuevas brechas y desafíos, especialmente en términos de empleo, educación, privacidad y seguridad. Por lo tanto, se necesita una visión estratégica y holística para aprovechar las oportunidades y mitigar los riesgos de la IA, así como una participación activa y colaborativa de todos los actores implicados: gobiernos, empresas, investigadores, sociedad civil y ciudadanos.
La IA puede mejorar la salud, la educación y el bienestar, puede impulsar la innovación, la productividad y el crecimiento económico, puede contribuir a la sostenibilidad, la conservación y la protección del medio ambiente, potenciar la inclusión, la diversidad y la equidad al facilitar el acceso a la información, la comunicación y los servicios para las personas desfavorecidas.
Pero la IA también puede amenazar la privacidad, la seguridad y los derechos humanos, puede generar desempleo, desigualdad y discriminación, provocar conflictos bélicos, crear armas autónomas o letales que puedan escapar al control humano, puede dañar la cultura, la identidad y los valores humanos al imponer o influir en las creencias, las normas y las preferencias de las personas, o al erosionar su autonomía o su dignidad.
Ante este nuevo escenario de oportunidades y amenazas, existen diversas iniciativas y organismos que desde hace varios años se han ocupado de elaborar principios, directrices, recomendaciones o marcos legales para el gobierno de la IA, como por ejemplo:
- La Declaración Universal de los Derechos Humanos en la Era Digital, adoptada por la Cumbre Mundial sobre la Sociedad de la Información ya en 2015, que establece los derechos y libertades fundamentales en el uso de las tecnologías.
- Los Principios de Asilomar sobre la Inteligencia Artificial, formulados por un grupo de expertos en 2017, que proponen 23 principios para orientar la investigación, el desarrollo y la aplicación de la IA de manera beneficiosa para la humanidad y el medio ambiente.
- Las Directrices Éticas para una IA Fiable, publicadas por el Grupo de Expertos de Alto Nivel sobre la Inteligencia Artificial de la Comisión Europea en 2019, que definen siete requisitos que debe cumplir la IA para ser considerada ética y digna de confianza: respeto de la dignidad humana, autonomía humana, prevención del daño, equidad, explicabilidad, robustez y privacidad.
- El Instrumento de Evaluación de la Confiabilidad de la IA, lanzado por la Comisión Europea en 2020, que ofrece una herramienta práctica para verificar el cumplimiento de las directrices éticas y evaluar los riesgos y los beneficios de la IA en diferentes contextos y sectores.
- El Libro Blanco sobre la Inteligencia Artificial, presentado por la Comisión Europea en 2020, que plantea una visión estratégica y un marco regulatorio para la IA en Europa, basado en la excelencia y la confianza, y que distingue entre los usos de bajo y alto riesgo de la IA, estableciendo obligaciones y garantías específicas para estos últimos.
La normativa europea sobre IA tiene como objetivo promover el desarrollo y el uso de la IA de una manera ética, responsable y segura, respetando los valores y los derechos fundamentales de la Unión Europea. Algunos de los principales puntos que trata son:
- La necesidad de garantizar la transparencia, la explicabilidad y la rendición de cuentas.
- La importancia de incorporar principios de protección de datos, privacidad y seguridad desde el diseño y por defecto en los procesos y productos de IA, así como de realizar evaluaciones de impacto y auditorías periódicas.
- El reconocimiento de los riesgos específicos que plantea la IA para ciertos ámbitos y grupos vulnerables, como la salud, la educación, el empleo, la justicia o la no discriminación, y la exigencia de requisitos legales más estrictos y mecanismos de supervisión y control para estos casos.
- El fomento de la innovación, la competitividad y la cooperación en el ámbito de la IA, mediante el apoyo a la investigación, la formación, el intercambio de buenas prácticas y el establecimiento de estándares técnicos y éticos comunes.
Entre los organismos que existen en Europa que se encargan de la IA, se pueden mencionar los siguientes: a nivel público, la Comisión Europea y a nivel privado algunos ejemplos son la European AI Alliance, la Confederation of Laboratories for Artificial Intelligence Research in Europe (CLAIRE), la Big Data Value Association (BDVA) o la European Digital SME Alliance.
Además hay múltiples empresas que han creado comisiones o grupos de trabajo para asegurar el buen uso de la IA en su actividad: Microsoft tiene un Comité de Ética en IA y la Investigación (AETHER), Google, cuenta con un consejo asesor externo formado por expertos independientes, IBM dispone de un Equipo de Confianza y Transparencia en la IA.
En la mayoría de las empresas se está regulando el uso de la IA bien través de los propios departamentos legales, de despachos externos, de Comités Digitales, o de Ética en los que participan diversos ámbitos de la compañía (Legal, Ciberseguridad, Transformación digital, Compliance, etc.).
Un comité de buen uso y ética de la IA es un órgano que tiene como objetivo garantizar que el desarrollo y la aplicación de la IA se realice de manera responsable, justa, transparente y beneficiosa para la compañía: promoviendo la formación y la sensibilización sobre la ética y el buen uso de la IA velando por el cumplimiento de la legislación vigente y las regulaciones internas, asegurando la alineación de la IA en la compañía con los principios y normas éticas establecidos, así como su adecuación a los objetivos y valores de la empresa.
En este contexto, el departamento legal de una empresa tiene un papel fundamental a la hora de garantizar que la IA se ajusta al marco jurídico vigente y emergente, así como a las expectativas y demandas de la sociedad.
La IA afectará también al departamento laboral, que debe estar atento a las implicaciones de la IA en el ámbito de las relaciones laborales, como la creación, transformación o destrucción de empleos, la cualificación y formación de los trabajadores, la salud y seguridad laboral, la protección social, la negociación colectiva, el derecho a la desconexión, la vigilancia y control de la actividad laboral, o la igualdad y no discriminación.
Algunos aspectos que los despachos legales deben tener en cuenta en cuanto a la regulación de la IA son:
- El cumplimiento de las normas de protección de datos personales, especialmente cuando la IA implica el tratamiento de datos sensibles, como los relativos a la salud, la ideología o la orientación sexual de las personas.
- El respeto de los principios éticos y deontológicos que rigen la profesión jurídica, como la confidencialidad, la independencia, la lealtad o la diligencia, y que pueden verse comprometidos por el uso de la IA.
- La responsabilidad civil y penal que pueda derivarse de los posibles daños o perjuicios causados por la IA, tanto a los clientes como a terceros.
- La adaptación continua a los cambios legislativos y jurisprudenciales que puedan afectar al marco regulatorio de la IA, tanto a nivel nacional como internacional.
- La formación y capacitación de los abogados en el uso de la IA, tanto desde el punto de vista técnico como jurídico, para garantizar un aprovechamiento óptimo de sus ventajas y una prevención efectiva de sus riesgos.
El departamento legal debe asumir una función estratégica, preventiva y proactiva, anticipándose a los posibles escenarios y consecuencias de la IA, asesorando a los demás departamentos y agentes implicados, y velando por el cumplimiento legal de la IA.