A principios del mes de noviembre 2023, los medios de comunicación de Nueva Jersey – Estados Unidos se vieron sacudidos por una noticia, que conmocionó a la comunidad de padres, alumnos y docentes de la escuela secundaria Westfield High School (Marin, 2023). El director de dicha institución notificó que un grupo de alumnos, valiéndose de los medios digitales (correo electrónico) y de algunas de las herramientas facilitadas por la Inteligencia Artificial (IA), generaron y difundieron imágenes pornográficas deepfake de sus compañeros. (Marin, 2023).
Lo que, a primera instancia, podría considerarse como un hecho aislado, un comportamiento incorrecto desarrollado por un grupo reducido de estudiantes, dejó al descubierto, sin embargo, una tendencia creciente entre los jóvenes y adultos y que, al igual que aconteciera, con muchos de los delitos de pornografía tradicional, se basan en el aprovechamiento de los sectores más vulnerables, como lo son las mujeres, en términos de género, y los niños, niñas y adolescentes, en lo que respecta a la edad. (Marin, 2023; BBC News Mundo, 2023).
Al igual que aconteciera en Nueva Jersey, a fines del 2023, la policía de Seattle se encontraba investigando el caso de un adolescente que habría empleado IA para crear y distribuir imágenes pornográficas falsas de otras estudiantes, también chicas adolescentes, del Distrito Escolar de Issaquah, al que asistían (Marín, 2023). Esto se debe a que, en los últimos meses, en Estados Unidos se han empezado a denunciar, con mayor regularidad, casos de imágenes pornográficas falsas generadas por IA, que ponen en riesgo la reputación de sus víctimas, en especial la de mujeres y adolescentes (Marín, 2023). Según un estudio de la firma investigadora independiente Genevieve Oh, durante el año 2023, se compartieron, en línea, más de 143 mil vídeos manipulados por la IA o deepfake; cifra que supera los totales de años anteriores combinados. (Marín, 2023).
Las deepfakes son imágenes, videos o audios manipulados con técnicas de IA y aprendizaje profundo, que hacen parecer que una persona está diciendo o haciendo algo que nunca dijo o hizo. Los mismos se generan superponiendo rostros o modificando la expresión facial y vocal en grabaciones existentes, con un nivel de realismo cada vez mayor, dificultando la distinción entre lo falso y lo auténtico.
Tal como describe Visus (2021), la falsificación o alteración de fotografías no es una práctica nueva, pero la IA permite no sólo alterar imágenes, sino también crearlas. Hasta hace unos pocos años, era tan costoso sustituir un rostro en unos fragmentos de vídeo que únicamente algunos estudios de cine podían afrontar ese gasto (Visus, 2021). En la actualidad, por el contrario, los avances tecnológicos han permitido que cualquier persona pueda hacer un deepfake con mayor o menor calidad. (Visus, 2021).
Durante un tiempo, los deepfakes -término surgido de la de la combinación de “deep learning” o aprendizaje profundo (una técnica de inteligencia artificial) y “fake” que en español se traduce a falso- se asociaron al uso de la imagen de personas famosas (celebrities) y políticos de alto perfil (principales víctimas de este tipo de armado y edición), siendo la finalidad de los videos variada (Visus, 2021; Marín-Parra, 2023). Los videos no siempre eran pornográficos, algunos fueron creados con el objetivo de hacer reír/entretenimiento. (Visus, 2021; Marín-Parra, 2023).
Sin embargo, esto ha cambiado con el trascurso de los años. De acuerdo a la empresa de ciberseguridad Deeptrace, en la actualidad, el 96% de todos estos videos, a escala global, refiere a pornografía no consentida o falsamente generada por IA, lo que nos obliga a encender las alertas frente a su proliferación (BBC News Mundo, 2023).
Asimismo, dado que pueden ser utilizados para difundir desinformación o manipular la opinión pública, los deepfakes han generado preocupación en términos de seguridad y privacidad. En tal sentido, y siguiendo el ejemplo de algunos estados norteamericanos -como ser: Texas, Minnesota y Nueva York-, los que han promulgado leyes contra la distribución no consensual de contenido pornográfico deepfake, uniéndose a otros estados tales como Virginia, Georgia y Hawaii, que ya tenían leyes vigentes al respecto, se torna necesario el diseño e implementación de normas orientadas tanto a proteger a las posibles víctimas de este tipo de edición, como a establecer penas para los infractores.
China es uno de los primeros países en realizar una normativa específica de deepfakes con el fin de controlar el uso dañino y evitar difusión de videos engañosos en que se comprometa el derecho a la integridad del ser humano.
No debemos olvidar que, más allá del uso impropio de la tecnología, este tipo de accionar puede causar un daño moral y físico-mental en las víctimas, dada la situación de vulnerabilidad atravesada y ante la falta de redes de contención adecuadas pueden tomar medidas drásticas o fatales para dar fin a ese padecimiento.
De allí la necesidad e importancia de avanzar en el tratamiento de la materia, desde una perspectiva no sólo legislativa sino también educativa.
Se trata de dotar a los miembros de la comunidad de las herramientas tecnológicas necesarias para su desarrollo e inclusión en la comunidad de referencia, pero así también del conocimiento de las potencialidades y peligros a los que pueden verse asociadas, así como de los pasos o instancias a seguir en caso de ser víctima de algún tipo de acoso o delito cibernético. Factor no menor si se considera que, ninguna tecnología es buena o mala de por sí, sino que depende del uso social que se le asigne. (UNICEF, 2021).
Cabe destacar que las nuevas tecnologías, en general, y los distintos tipos de IA, en particular, inciden sobre la infancia, en tanto etapa correspondiente con la construcción no sólo cognoscitiva, sino también socio-emocional de las personas (UNICEF, 2021). Aunque considerados como nativos digitales, en tanto nacidos en un espacio temporal caracterizado por la centralidad e incidencia de las herramientas tecnológicas, en el desarrollo de las actividades cotidianas, y, por tanto, como personas con una habilidad innata para el manejo y comprensión del lenguaje y del entorno digital, lo cierto es que los niños, niñas y adolescentes no se encuentran exentos de los peligros que este tipo de tecnologías pueden implicar (UNICEF, 2021).
Así se reconocen como principales riesgos que pueden sufrir los NNyA: el ciberacoso, desinformación y manipulación y creación de contenido sexual falso, generando un tipo de material de abuso y explotación sexual contra aquellos como si se tratase de situaciones reales.
¿Frente a esto como podemos protegerlos?
Dialogar sobre deepfakes en los distintos ámbitos familiar, educativo.
Explicar la responsabilidad individual y colectiva ante los deepfakes de los creadores y del que comparte el material sin corroborarlo dado que lo asume como veraz.
Enseñar a través de la verificación de un video como descubrir una alteración para poder identificar una deepfake y en ese caso sí se es víctima denunciar a través de los canales correspondientes.
Los miembros de la sociedad civil, como empresas y Estados deben emprender tareas de concientización y educación respecto de los derechos del niño en el entorno digital, centrando, especialmente, la atención, en aquellas actividades que repercutan, directa o indirectamente, en sus vidas.
Tal como destaca el Comité de los Derechos del Niño de Naciones Unidas, en su Observación General N°25/2021-Observación relativa a los derechos de los niños, en relación con el entorno digital-, así como las nuevas tecnologías digitales ofrecen oportunidades para hacer efectivos los derechos de los niños, también plantean riesgos relacionados con su vulneración o abuso.
Este fenómeno del deepfakes vulnera grandes derechos: la protección de datos o privacidad, la intimidad, honor y propia imagen, ya que implica el uso de datos personales sin consentimiento de la víctima menor de edad.
Dicha vulneración también se concreta en el momento de compartir o difundir la deepfakes a terceras personas a través de cualquier medio digital.
En España, por ejemplo, la práctica legislativa ha dado respuesta rápida a una víctima de un deepfake pornográfico, ya que, en menos de 24 horas, a través de la Agencia Española de Protección de Datos se puede frenar la transmisión de imágenes intimas.
Otra vía que se activa en paralelo es la penal, dado que compartir o difundir imágenes pornográficas creadas o no con inteligencia artificial implica la comisión de un delito tipificado en el Código Penal tanto si se trata de NNyA o adultos, en que las brigadas tecnológicas correspondiente al cuerpo policial pertinente, se encargaran de identificar al creador y distribuidor del deepfakes.
Finalmente, en caso de haber sufrido daños cuantificables y reales, se iniciará la vía civil para que la víctima pueda obtener una compensación económica.
En el caso de México el crear y distribuir una deepfakes, implicaría una vulneración de las leyes de propiedad intelectual, de derechos de autor e incluso penales que protegen la privacidad y honor de las personas.
Mientras que, en Reino Unido, si bien las deepfakes no son sancionadas a través de una ley específica la creación o distribución configura una clara difamación por vulnerar la privacidad de la persona perjudicada.
Es imperioso entender que la IA formará parte del día a día de los NNyA, de ahí la necesidad que los genitores, educadores se capaciten y los acompañen para que comprendan sus beneficios y peligros, ya si bien las imágenes no son reales, el impacto y la repercusión en las victimas es muy alto.
Referencias bibliográficas
BBC News Mundo. (2023). Deepfake: «Pusieron mi cara en un video porno» . El Mostrador. https://www.elmostrador.cl/braga/2022/10/25/deepfake-pusieron-mi-cara-en-un-video-porno/
Comité de los Derechos del Niño de Naciones Unidas. (2021). Observación General N°25. https://docstore.ohchr.org/SelfServices/FilesHandler.ashx?enc=6QkG1d%2FPPRiCAqhKb7yhsqIkirKQZLK2M58RF%2F5F0vEG%2BcAAx34gC78FwvnmZXGFO6kx0VqQk6dNAzTPSRNx0myCaUSrDC%2F0d3UDPTV4y05%2B9GME0qMZvh9UPKTXcO12
Marin-Parra, V. (2023). “Deep fake”: el peligro que amenaza a mujeres mediante el uso de IA. El Mostrador. https://www.elmostrador.cl/braga/2023/04/21/deep-fake-el-peligro-que-amenaza-a-mujeres-mediante-el-uso-de-ia/
Marin, R. (2023). Alerta en Estados Unidos por el aumento de víctimas de pornografía falsa creada con inteligencia artificial. Infobae. https://www.infobae.com/estados-unidos/2023/12/03/alerta-en-estados-unidos-por-el-aumento-de-victimas-de-pornografia-creada-con-inteligencia-artificial/
UNICEF. (2021). Orientación de políticas sobre el uso de la inteligencia artificial en favor de la infancia. New York: Fondo de las Naciones Unidas para la Infancia. https://www.unicef.org/globalinsight/media/2636/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021_ES.pdf
Visus, A. (2021). Que es un Deep fakes, cómo se crean, cuáles fueron los primeros y su futuro. ESIC. https://www.esic.edu/rethink/tecnologia/deep-fakes-que-es-como-se-crean-primeros-y-futuros