El pasado 30 de noviembre, el Chat Generative Pre-Trained Transformer, o mejor conocido como ChatGPT cumplió un año de haber salido a la luz.
Esta herramienta que se basa en la inteligencia artificial generativa ha roto paradigmas, y no ha parado de ser protagonista en conversaciones, ponencias, y artículos.
Desde su lanzamiento llamó la atención no solo del mercado sino también de los legisladores en todo el mundo que ya se veían en una situación desafiante para regular la IA que hasta antes de noviembre del 2022 existía.
En particular los legisladores europeos tuvieron que introducir a posteriori en la propuesta de Reglamento de la IA una referencia para regular los modelos fundacionales y sistemas de IA generativa. En los últimos meses hemos observado los debates y las distintas posturas que se plantean para su control. Por un lado, algunos países de la UE (Alemania, Francia e Italia) abogaron por dar un marco flexible a los sistemas de IA generativa basado exclusivamente en códigos de conducta. Mientras que otros países mantenían una postura más conservadora buscando ir más allá con el establecimiento de un régimen sancionador. Como detallo en un artículo anterior publicado en este mismo medio sobre IA, el enfoque de la normativa se basa en riesgos y casos de uso. En el último trílogo que tuvo lugar en diciembre se llegó a un acuerdo provisional, y así el Reglamento de la IA está pendiente de ser ratificado en los siguientes meses.
En un ámbito más general, España publicó en el BOE el 2 de septiembre de 2023 el Estatuto de la Agencia Nacional de Supervisión de la Inteligencia Artificial, convirtiéndose en el primer país europeo en hacerlo, adelantándose al Reglamento Europeo de IA. En octubre el Gobierno Español lanzó el pre-registro para las entidades que tuvieran interés en participar en el sandbox de IA. Y en noviembre de 2023, se lanzó por la Comisión una llamada (“call for interest”) para las organizaciones que quieran ser parte del Pacto de IA. Este Pacto busca motivar y apoyar a las empresas en su planeación anticipada de cara a las medidas que el Reglamento Europeo de IA establezca.
En el ámbito profesional, regresando a ChatGPT, es importante reflexionar sobre algunos aspectos:
a. ¿Es útil para los abogados? Rotundamente SI, para los abogados in-house, los de firmas legales, los litigantes, los que forman parte de la administración pública, para todas las variantes en las que los abogados trabajan. Es útil y no solo en su vertiente de ChatGPT. La IA generativa ha demostrado ser multifacética, sus casos de uso son tantos como la creatividad humana permita.
Algunos casos de uso d eChatGPT: creación de ideas y argumentos legales, redacción de contenido (por ej. cláusulas, cartas contractuales), resumir contenido (por ej. correos electrónicos, notas, informes), generación de flujos de procesos que permitan mejorarlos, apoyo en el manejo del lenguaje (como redactar contenido legal con lenguaje sencillo y entendible, como expresar un contenido según las características de los receptores), entre otros.
b. ¿Hay algún “pero..” en su uso? Si.
El primer reto es saber utilizarlo técnicamente. Debemos desarrollar las habilidades necesarias. Si bien utiliza y entiende el lenguaje natural para comunicarse, las instrucciones denominadas “prompts” responden a una metodología, de manera que entre mejor sea diseñado el prompt mejor será la respuesta que recibamos. En otras palabras, los abogados tenemos que estar en constante formación para poder sacar el mayor provecho de esta tecnología.
El segundo reto es utilizarlo de manera apropiada, esto significa conocer los riesgos y debilidades que presenta, algunos de ellos son:
- ChatGPT es un soporte, un copiloto. Esto significa que necesita el factor humano para generar contenido y sobre todo para revisar y validar el resultado en cuanto a calidad y veracidad. ChatGPT no razona, funciona a base de algoritmos y probabilidades. Una de las fortalezas para algunos usos es su creatividad, fortaleza convertida en debilidad cuando responde con contenido creado y no veraz. Un ejemplo, creación de sentencias que puedan soportar un argumento legal, sentencias inexistentes pero que el sistema crea para poder dar soporte al argumento legal aportado.
- Pérdida de confidencialidad. ChatGPT es un modelo entrenado a base de una gran cantidad de datos, y va mejorando según es usado por millones de personas que introducen su información en el sistema, información que es recabada para fines de entrenamiento. Esto significa que cualquier información que se introduzca se vuelve pública. Por tanto, es imprescindible respetar la naturaleza de la información que se utiliza, usando únicamente la que tenga naturaleza pública. Especial consideración merecen los datos personales.
- Existencia de sesgos. Los datos que utiliza CHatGPT no han sido clasificados, ni filtrados, de manera que las respuestas que da el chat estarán influenciadas por los mismos sesgos que contengan la información de la que parte.
- Propiedad Intelectual. No es posible garantizar que el output obtenido de ChatGPT no esté infringiendo derechos de propiedad intelectual de terceros al utilizar datos e información sujetos a protección en esta materia que no estén siendo identificados como tales. Por tanto, es fundamental ser consciente de este aspecto en casos de uso en los que el sistema no trabaja con información que le proporcionemos directamente. Asimismo, su uso debe respetar cualquier norma aplicable y principios éticos. Este riesgo tiene particular relevancia cuando hablamos de la generación de código.
Este año seguiremos gozando de los avances de esta tecnología, no solo experimentando la creación de ChatGPTs customizados, el desarrollo de capacidades que permitan la multimodalidad y la multitarea, la conexión con otras aplicaciones, sino viendo y probando el desarrollo de Gemini, lanzado recientemente para competir con ChatGPT. Y sobre todo será interesante observar, en cuanto se ratifique, el funcionamiento del Reglamento de la IA en la práctica.