Los departamentos jurídicos cada día nos enfrentamos a una disciplina y a un conjunto de capacidades expresadas por sistemas informáticos denominada Inteligencia Artificial, de forma abreviada, IA. Es un mecanismo complejo, desafiante y, a la vez, un reto innovador para su utilización por los departamentos jurídicos que suelen ser más tradicionales a la hora de realizar sus tareas. Es un tema de actualidad y apasionante, que no nos deja indiferentes dado su uso a gran escala y veloz desarrollo. Considero que si no lo utilizamos en nuestro día a día, nos quedaremos atrás en su aplicación y nuestra forma de trabajar se volverá rápidamente obsoleta, convirtiéndose así en un verdadero reto ya que se necesita cambiar la mentalidad de muchos abogados y abogadas en el desempeño de sus funciones.
¿Qué es la IA? Hay muchas definiciones de IA , pero el usado por la Comisión Europea[1] lo define como “software complejo que distingue los datos y procesa información para lograr lo buscado por los usuarios, dicha acción generalmente sería realizada por la inteligencia humana y es así como la diferenciamos de otro tipo de software o hardware simples.”
Dentro de los sistemas de IA, los que más han avanzado son el OpenAI y Google, generando un rápido crecimiento en los últimos años. Estos softwares crean textos que puedan apoyar a los departamentos jurídicos en búsquedas legales, pueden resumir textos y con ello mejorar el tiempo, la calidad y el rendimiento en la realización del trabajo de los departamentos jurídicos.
La IA ha contribuido positivamente en el desarrollo y modernización en la realización de tareas, sin embargo podemos observar algunos nuevos desafíos, que pueden ocasionar ciertos riesgos en temas de seguridad, transparencia y protección de datos personales entre otros, que debemos prevenir.
El Reglamento de IA de la Unión Europea, cuyo objetivo es el respeto de los derechos ciudadanos estableciendo normas armonizadas, señala la prohibición de sistemas de IA que ocasionen riesgos (de mayor a menor) a los usuarios, como una violación a la transparencia en materia de derechos de autor y protección de datos personales.
Complementando la normativa y teniendo que las reglas no serían nada sin un órgano que las aplique, se ha creado la Agencia Estatal de Supervisión Europea sobre IA, siendo la primera agencia europea en la materia, situada en A Coruña y encargada de analizar los límites de este tipo de tecnología tan compleja.
Como hemos visto, las normas que se aplican y las innovaciones jurídicas muestran que, en el momento de aplicar IA al derecho, debemos de tomar en cuenta los principios legales para su aplicación, siendo la protección de datos y la propiedad intelectual algunos de ellos.
Los datos personales, de acuerdo con su Reglamento General (RGPD) español, son definidos como “toda información de una persona física identificada o que se pueda identificar, como son la identidad física, datos de localización, nombre, identidad, elementos culturales o sociales de una persona, entre otros”.
Podemos deducir que la protección de datos personales se encuentra estrechamente ligada a la IA, al ser una gran cantidad de información que recopilan y que se procesa por dichos softwares, es fundamental que se cumpla también con las principales reglamentaciones y límites de la protección de la información, cumpliendo así con no vulnerar la información que podría ser sensible. Un ejemplo claro, es cuando los softwares respetan el anonimato, en cierto tipo de casos, que la persona no quiera difundir su imagen u otra información que puede resultar sensible.
Existe dentro de la IA un uso de datos personales en todo momento desde el acceso hasta la etapa de explotación y propagación de estos, por ello es tan relevante saber que camino se va a tomar como base del tratamiento de dicha información.
La innovación y la automatización en materia de IA ha tornado por la multimodalidad de la tecnología generando imágenes y sonidos, resultando más asequible a ciertos sectores de las empresas que la intervención humana, pero también puede ser más sensible en materia de protección de datos, al incluir en dichos softwares avatares, sonidos, simulación de voces que pueden afectar la información que es considerada sensible o protegida.
La IA en el mundo empresarial es cada vez más usada, un claro ejemplo lo tenemos con los primeros asistentes de programación, Adobe y Alexa, los cuales han evolucionado, haciendo más útil poder realizar ciertas tareas.
Ahora sí, para realizar nuestro trabajo, es importante primero conocer las políticas de uso de dichos softwares que se pretenden contratar en las empresas, revisando si estos garantizan que las imágenes brindadas por las empresas se encuentran a salvo, siendo relevante asegurarnos el cumplimiento de las políticas comerciales y la protección de datos, antes de acordar el uso de cualquier software.
Igualmente, tenemos que asegurarnos que las plataformas que se contratan y que el material que se genere en dicho software al realizar trabajos en base a la IA, la producción final junto con los cambios realizados, sean atribuidos como propiedad final a la compañía, teniendo en cuenta que habrá datos en la información de entrada, la cual no puede ser de propiedad de otros usuarios o plataformas; debiendo tomar en cuenta que dichos contratos de adquisición de información, deben ser revisados , para evitar posibles contingencias.
Asimismo, debemos tener presente que la información generada por los chatbots, creados por las empresas para dar respuesta a sus usuarios, puede generar diferentes problemas, como por ejemplo arrojar información diferente a la que aparece en sus canales oficiales, o con errores y que puede comprometer a la empresa si no existe una debida supervisión.
De lo reseñado, podemos ver la necesidad que, como abogados y abogadas, estemos en constante conocimiento de las herramientas que usamos, pero también de su supervisión directa o indirecta. En ese mismo sentido está, la guía titulada Adecuación al Reglamento General de Protección de Datos de tratamientos que incorpora la IA, el cual hace ciertas sugerencias como es el procesamiento de datos supervisado por personas o un operador. Asimismo, dicha guía advierte que, en el caso de tratamiento de datos personales, los usuarios deben ser informados del consentimiento de ofrecer sus datos y de las implicaciones que esto conlleva.
Debemos tomar en cuenta que el uso del CHAT GPT no ha sido apoyado por algunas industrias. Como ejemplo, tenemos que el 65% de las empresas farmacéuticas prohíben a sus empleados usar el CHAT GPT porque la información puede ser errónea.
Por otro lado, no podemos dejar desapercibido el reto que la IA se alinee a las normas sobre protección de datos, derecho de la imagen, entre otros. Un caso conocido es el de los avatares generados por la IA, que pueden ser usados en diferentes webs, dicha información debería tener el consentimiento de su tratamiento a la persona que las usa. De igual forma, si esta información no fuera certera el deber por parte de las plataformas de rectificarse o suprimir los datos que no obedezcan a la realidad sería una obligación.
Por lo tanto, tenemos un camino que recorrer al ser una materia reciente, pero que dará mucho por estudiar y analizar en el futuro debido a que la tecnología no dejara de desarrollarse, muy por el contrario, estará en auge y de nosotros depende que los desafíos que afronta la IA sean útiles y que no conlleve a consecuencias negativas.
Con lo cual, la sinergia que se realiza entre la tecnología (IA) y los departamentos jurídicos apoyan a realizar una labor más rápida y mejorar el trabajo de manera continua, automatizando las tareas. Sin embargo, los softwares que usan la IA tienen una cantidad de información que no ha sido revisada de manera continua, con lo cual será necesaria la supervisión continua para que sea lo más precisa posible para nuestra función.
[1] https://planderecuperacion.gob.es/noticias/que-es-inteligencia-artificial-ia-prtr