La IA está llamada a constituir lo que los economistas denominan General-purpose technologies (por su acrónimo, GPTs). Es decir, una de las tecnologías que suponen un salto cualitativo con el potencial de impulsar globalmente las economías. Al nivel de lo que supuso la invención de la escritura, la máquina de vapor o, más recientemente, internet, por poner algunos ejemplos.
La conocida como IA generativa presenta grandes oportunidades, mejorando la eficiencia y liberando tiempo para tareas de mayor valor añadido por los abogados. Nos permite enfocarnos en lo que realmente importa, librándonos de tareas rutinarias o repetitivas. No obstante, su uso plantea importantes retos éticos y deontológicos para nuestra profesión.
Un ejemplo reciente lo vemos en la nota informativa número 90/2024 del Tribunal Constitucional, publicada recientemente, donde se sancionó a un abogado con un apercibimiento por haber presentado una demanda con citas de 19 sentencias, supuestamente del Tribunal Constitucional, que resultaron ser falsas, debido a un presunto abuso de una herramienta como puede ser ChatGPT. El caso ha sido remitido al Colegio de la Abogacía de Barcelona para su valoración disciplinaria. Este incidente nos debe llevar a reflexionar sobre cómo manejar las tecnologías de IA en nuestra profesión de manera ética y responsable.
El uso creciente de algoritmos en la práctica jurídica plantea riesgos importantes para la justicia, y uno de los más preocupantes es la falta de control y supervisión sobre cómo se desarrollan y aplican estas tecnologías. Los algoritmos, utilizados en plataformas que ofrecen servicios legales, pueden ser herramientas valiosas para la eficiencia y automatización de ciertas tareas, como la búsqueda de jurisprudencia o la elaboración de documentos como hemos señalado. Sin embargo, estos sistemas no están exentos de problemas, particularmente en lo que se refiere a los sesgos y a la opacidad de su funcionamiento.
Uno de los primeros riesgos es la posibilidad de que estas plataformas asesoren a clientes con intereses contrapuestos, lo que no solo puede vulnerar el secreto profesional, sino también comprometer la imparcialidad y la ética dentro del propio proceso judicial. El sesgo en los algoritmos es otro problema crucial. La inteligencia artificial se entrena utilizando grandes volúmenes de datos históricos, y si esos datos contienen patrones de discriminación o errores sistemáticos, el algoritmo puede replicar y amplificar esos problemas.
Además, los algoritmos utilizados en el ámbito legal tienden a operar como ‘cajas negras’, es decir, sus procesos internos suelen ser opacos incluso para quienes los utilizan. Esto dificulta la capacidad de los abogados, jueces y otros operadores jurídicos para entender cómo se toman las decisiones y en qué se basan, lo que es especialmente problemático en un contexto en el que la transparencia es fundamental para garantizar la justicia. También pueden afectar de modo muy importante a la evolución de la jurisprudencia como fuente del derecho y limitar la innovación jurídica. Sin una comprensión clara de cómo un algoritmo llega a una determinada conclusión o recomendación, se corre el riesgo de aceptar ciegamente sus resultados sin cuestionarlos ni verificar su imparcialidad.
El reto para la abogacía es claro: no solo se trata de integrar tecnologías avanzadas como la IA, sino de hacerlo de manera ética, con un control exhaustivo sobre las mismas. La programación, supervisión y uso de estas herramientas deben ser transparentes y, sobre todo, deben garantizar que no se vulneren derechos fundamentales. Para mitigar estos riesgos, es imprescindible que los colegios de la abogacía y los reguladores trabajemos de la mano en el desarrollo de normativas que obliguen a auditar y controlar los algoritmos utilizados en el ámbito legal. La introducción de mecanismos de supervisión y auditoría de estos sistemas debe ser una prioridad para asegurar que no perpetúen injusticias, sino que contribuyan a un sistema judicial más equitativo y eficiente.