Muchos individuos tuvieron su primera visión detrás del telón de la inteligencia artificial cuando se hicieron públicos los detalles de la tecnología “Just Walk Out” de Amazon. En lugar de que la tecnología pura contabilizara las compras de los clientes y los cobrara cuando salían de la tienda, las ventas eran verificadas manualmente por alrededor de 1,000 personas reales trabajando en India.
Pero estos empleados eran la parte humana de lo que realmente es la IA: una colaboración entre el aprendizaje por refuerzo y la inteligencia humana.
El elemento humano tiende a ser pasado por alto en las discusiones sobre la seguridad de la IA, lo cual es un poco preocupante dado el impacto que la IA probablemente tendrá en nuestros mercados laborales y, en última instancia, en nuestras vidas individuales. Es aquí donde la descentralización, la confianza inherente y la seguridad de la tecnología blockchain pueden desempeñar un papel importante.
El Centro para una IA Segura identifica cuatro amplias categorías de riesgos de la IA. Para empezar, está el uso malicioso, en el cual los usuarios podrían “utilizar intencionalmente IA poderosas para causar un daño generalizado” mediante la ingeniería de “nuevas pandemias o [usándolas] para propaganda, censura y vigilancia, o [liberando IA] para perseguir de forma autónoma objetivos peligrosos”.
Una preocupación más sutil es el riesgo de una carrera de IA, donde las empresas o los estados compiten para desarrollar rápidamente sistemas más potentes y asumen riesgos inaceptables en el proceso. La ciberguerra sin control es un resultado potencial, otro es permitir que los sistemas evolucionen por sí solos, potencialmente saliendo de control humano; o un resultado más prosaico, pero no menos disruptivo, podría ser el desempleo masivo debido a una competencia descontrolada.
Los riesgos organizacionales con la IA son similares a cualquier otra industria. La IA podría causar accidentes industriales graves, o programas poderosos podrían ser robados o copiados por actores maliciosos. Por último, está el riesgo de que las propias IA se vuelvan rebeldes, “optimizando objetivos incorrectos, desviándose de sus objetivos originales, volviéndose en busca de poder, resistiéndose al apagado o participando en el engaño”.
La regulación y la buena gobernanza pueden contener muchos de estos riesgos. El uso malicioso se aborda restringiendo consultas y acceso a varias características, y el sistema judicial podría utilizarse para responsabilizar a los desarrolladores. Los riesgos de IA rebelde o problemas organizativos pueden mitigarse mediante el sentido común y fomentando un enfoque consciente de la seguridad en el uso de la IA.
Pero estos enfoques no abordan algunos de los efectos de segundo orden de la IA. En particular, la centralización y los incentivos perversos que quedan de las empresas de la Web2 heredadas. Durante demasiado tiempo, hemos intercambiado nuestros datos personales por acceso a herramientas. Puedes optar por no participar, pero es una molestia para la mayoría de los usuarios.
La IA no es diferente a cualquier otro algoritmo, en el sentido de que lo que obtienes de ella es el resultado directo de lo que le das, y ya hay enormes cantidades de recursos dedicados a limpiar y preparar datos para su uso en la IA. Un buen ejemplo es ChatGPT de OpenAI, que se entrena con cientos de miles de millones de líneas de texto tomadas de libros, blogs y comunidades como Reddit y Wikipedia, pero también depende de personas y bases de datos más pequeñas y personalizadas para refinar la salida.
Lee más en nuestra sección de opinión: ¿Qué puede hacer blockchain por la IA? No lo que has escuchado.
Esto plantea muchos problemas. Mark Cuban ha señalado recientemente que la IA eventualmente tendrá que ser entrenada en datos que las empresas y las personas podrían no querer compartir, para poder volverse más comercialmente útil más allá de la codificación y la redacción. Y, a medida que más empleos se vean afectados por la IA, especialmente a medida que los agentes de IA hagan que las aplicaciones de IA personalizadas estén disponibles, el mercado laboral tal como lo conocemos podría colapsar eventualmente.
Crear una capa blockchain en una red de IA descentralizada podría mitigar estos problemas.
Podemos construir una IA que pueda rastrear la procedencia de los datos, mantener la privacidad y permitir a individuos y empresas cobrar por el acceso a sus datos especializados si utilizamos identidades descentralizadas, validación de participaciones, consenso y tecnologías de resumen como pruebas positivas y de conocimiento cero. Esto podría cambiar el equilibrio lejos de las grandes instituciones centralizadas y opacas y proporcionar a individuos y empresas una economía totalmente nueva.
En el frente tecnológico, necesitas una forma de verificar la integridad de los datos, la propiedad de los datos y su legitimidad (auditoría de modelos).
Luego, necesitarías un método de procedencia, (para tomar prestada una palabra del mundo del arte), lo que significa poder ver la ruta de auditoría de cualquier dato para poder compensar adecuadamente a quien esté utilizando esos datos.
La privacidad también es importante: un usuario debe poder asegurar sus datos en sus propios dispositivos electrónicos y controlar el acceso a sus datos, incluida la capacidad de revocar ese acceso. Hacerlo implica criptografía y un sistema de certificación de seguridad.
Esto es un avance del sistema actual, donde la información valiosa se recopila y se vende a empresas de IA centralizadas. En cambio, permite una amplia participación en el desarrollo de la IA.
Las personas pueden desempeñar diversos roles, como la creación de agentes de IA, el suministro de datos especializados o la oferta de servicios intermedios como etiquetado de datos. Otros pueden contribuir administrando infraestructura, operando nodos o brindando servicios de validación. Este enfoque inclusivo permite un ecosistema de IA más diversificado y colaborativo.
Podríamos crear un sistema que beneficie a todos en el sistema, desde los clérigos digitales a un continente de distancia hasta los compradores cuyos contenidos de carrito les proporcionan datos en bruto a los desarrolladores detrás de escena. Las criptomonedas pueden proporcionar una colaboración más segura, justa y centrada en el ser humano entre la IA y el resto de nosotros.
Sean es el CEO y cofundador de Sahara, una plataforma que construye infraestructura impulsada por blockchain que es sin confianza, sin permisos y preservadora de la privacidad para permitir el desarrollo de herramientas autónomas de IA personalizadas por individuos y empresas. Además, Sean es Profesor Asociado de Ciencias de la Computación y Presidente de Carrera Temprana Andrew y Erna Viterbi en la Universidad del Sur de California, donde es el Investigador Principal (PI) del Laboratorio de Investigación de Inteligencia y Descubrimiento de Datos (INK). En el Instituto Allen de IA, Sean contribuye a la investigación sobre el sentido común de las máquinas. Antes, Sean fue consultor de ciencia de datos en Snapchat. Completó su trabajo de doctorado en ciencias de la computación en la Universidad de Illinois Urbana-Champaign y fue investigador postdoctoral en el Departamento de Ciencias de la Computación de la Universidad de Stanford. Sean ha recibido varios premios que reconocen su investigación e innovación en el campo de la IA, incluido el Investigador del Año de Samsung AI, Innovadores Sub 35 del MIT TR, Forbes Asia 30 Menores de 30, y más.