Cualquier mujer puede ser sexualizada sin consentimiento. Si el porno tuvo alguna vez límites, aunque fueran débiles, la inteligencia artificial (IA) los ha destruido todos. Las primeras víctimas fueron famosas, pero la proliferación de creaciones falsas con apariencia real (deepfakes) con herramientas cuya disponibilidad se ha multiplicado por 40 en solo año y medio, según Naciones Unidas, ha extendido los objetivos. Ahora, cualquier política, vecina o compañera de clase o trabajo puede ver vulnerada su imagen. Una de las últimas víctimas ni siquiera es real. Se trata de Luce, una mascota creada por Simone Legno, cofundador de Tokidoki, que quiere representar a una joven peregrina del próximo Jubileo (año santo). En menos de 24 horas, las páginas de creaciones con IA la han convertido en un icono sexual alegando que, de acuerdo con la oficiosa “regla 34″ de internet, “todo puede convertirse en porno”.
La inteligencia artificial pasa de desnudar a famosas a convertir en porno sin consentimiento la imagen de cualquier mujer o personaje femenino
Cualquier mujer puede ser sexualizada sin consentimiento. Si el porno tuvo alguna vez límites, aunque fueran débiles, la inteligencia artificial (IA) los ha destruido todos. Las primeras víctimas fueron famosas, pero la proliferación de creaciones falsas con apariencia real (deepfakes) con herramientas cuya disponibilidad se ha multiplicado por 40 en solo año y medio, según Naciones Unidas, ha extendido los objetivos. Ahora, cualquier política, vecina o compañera de clase o trabajo puede ver vulnerada su imagen. Una de las últimas víctimas ni siquiera es real. Se trata de Luce, una mascota creada por Simone Legno, cofundador de Tokidoki, que quiere representar a una joven peregrina del próximo Jubileo (año santo). En menos de 24 horas, las páginas de creaciones con IA la han convertido en un icono sexual alegando que, de acuerdo con la oficiosa “regla 34″ de internet, “todo puede convertirse en porno”.
La intención del Vaticano era inmaculada. Presentó su mascota (Luz en italiano) el pasado día 30 en la apertura del Pabellón de la Santa Sede en la Expo Osaka (Japón) del próximo año como “símbolo de esperanza y fraternidad” para los jóvenes, según explicó el arzobispo Rino Fisichella, organizador del Jubileo. Pero en menos de 24 horas, las páginas de imágenes hechas con inteligencia artificial (se elude su identificación para no promoverlas) abrieron la gabardina amarilla (color de la bandera vaticana) de Luce y la despojaron de sus botas manchadas del barro del camino para dejarla solo con sus símbolos católicos y someterla a todo tipo de recreaciones pornográficas.
“Las mujeres son las canarias en la mina en relación con el abuso de la inteligencia artificial. No va a ser solo la niña de 14 años o Taylor Swift, van a ser las políticas, las líderes mundiales, las elecciones. Somos demasiado pocos y llegamos demasiado tarde, pero aún podemos tratar de mitigar el desastre que está surgiendo”, advierte Mary Anne Franks, profesora de la Universidad George Washington y presidenta de Derechos Civiles Cibernéticos.
La realidad le da la razón. Una página que recopila de forma constante incidentes de la IA señala hasta seis políticas británicas víctimas de pornografía deepfake durante años. La que ha sido candidata demócrata a la presidencia de EE UU, Kamala Harris, cuenta con categorías propias en el mismo sitio que ha sexualizado la mascota vaticana y se ha convertido en objetivo de la violencia en línea.
Pero no solo políticas. El mismo registro de denuncias sobre abusos de la IA desvela un reguero de niñas desnudadas por sus compañeros en institutos a partir de imágenes reales publicadas en las redes sociales. Y la víctima puede ser cualquiera, desde una vecina a una colega del trabajo.
El problema es de tal magnitud que Naciones Unidas cuenta con una unidad especializada en violencia de género facilitada por la tecnología (TFGBV, siglas de Technology Facilitated Gender Based Violence). Alexandra Robinson es una de sus asesoras y advierte: “El número de herramientas de IA disponibles para crear deepfakes ha aumentado de 5 a 200 en los últimos 18 meses, lo que indica que estas tecnologías y el intercambio no consensuado de imágenes sintéticas se utilizan cada vez más en la perpetración de la violencia de género en el ámbito laboral”.
Estas tecnologías [IA) y el intercambio no consensuado de imágenes sintéticas se utilizan cada vez más en la perpetración de la violencia de género en el ámbito laboral
Alexandra Robinson, asesora en violencia tecnológica (TFGBV) para Naciones Unidas
“Crear un video pornográfico deepfake de 60 segundos de cualquier persona usando solo una imagen facial clara lleva menos de 25 minutos y el coste es 0″, explica Robinson. Las víctimas, según detalla, son mujeres en el 99% de los casos y en todos los ámbitos.
En este sentido, Alexandra Robinson llama la atención sobre la extensión del problema: “Las personas no famosas son objetivos de la violencia de género en línea. Dondequiera que la tecnología esté disponible, se crea un espacio o una herramienta a través de la cual se puede perpetrar la violencia”. Lo avala con una investigación de 2021 que eleva al 85% las mujeres que, en todo el mundo, han presenciado o experimentado (38%) violencia en línea, principalmente personas racializadas, colectivo LGTBIQ+, políticas, jóvenes, activistas de los derechos humanos y periodistas, según la encuesta CNN As Equals y Plan International.
En todos los casos, el objetivo es la violencia sexual a partir de cosificar, denigrar, vulnerar el derecho a la propia imagen, intimidar e incluso extorsionar. Pero cuando la víctima es una política se añaden intentos de silenciar y dañar su reputación personal para, al mismo tiempo, según señala Robinson, “erosionar la confianza en las instituciones democráticas al utilizar la desinformación de género para disuadir a las mujeres de participar en la política”.
La polémica “regla 34″ de internet
La página con más recreaciones vejatorias de la mascota católica se ampara en una popular “norma” de internet, llamada “regla 34″: “Si algo existe, se puede pornografiar [recrear pornográficamente]”. Esta se complementa con la siguiente, que advierte de que, si hay algo que no se ha convertido en porno, lo estará”
Ricard Martínez, director de la cátedra de Privacidad y Transformación Digital y profesor de la Universidad de Valencia, lo rebate de forma tajante: “No se puede sexualizar sin consentimiento ninguna imagen, aunque se especifique que es una recreación. Todos y cada uno de nosotros tenemos reconocido el derecho a la propia imagen, a la vida privada y al honor. En los entornos digitales debemos entender esto desde un punto de vista práctico y material. Utilizar sin permiso la imagen de alguien para sexualizarla constituye un comportamiento ilícito”.
Martínez cree que implica a todo el espectro que incluya contenidos vejatorios, incluso aquellos que se quieran amparar en el “animus iocandi”, caricaturas con intención jocosa o de broma.
El experto en derecho realiza esta precisión para referirse a la sexualización de la mascota vaticana: “Es obvio que la mascota está amparada por los derechos de propiedad intelectual, pero no es la única cuestión. Si tomas una mascota que es el emblema oficial de una actividad que, además, en este caso, es de carácter religioso o social, y la sexualizas, ridiculizándola, por un lado, alteras una imagen que está sujeta a propiedad intelectual; pero, además, desde un punto de vista material, se sexualiza no solo una mascota, sino lo que representa. En este sentido, la afectación de derechos va mucho más allá e impacta directamente en la esfera de los derechos del colectivo al que representa”.
En el caso de la caricatura de mujeres del ámbito de la política hay un terreno diferenciado entre el ejercicio de la libertad de expresión para contribuir a la formación de una opinión pública libre y la sexualización. “Estaríamos hablando de una conducta que lesiona su imagen pública, su honor y su intimidad y que, además, la perjudica y veja gravemente de manera instrumental. Adicionalmente, se produce un efecto multiplicador: como con la mascota, no solo estamos sexualizando a la persona o personaje sino todo aquello que representa”, advierte.
Al igual que Alexandra Robinson, la asesora de Naciones Unidas, y Anne Franks, la profesora de la Universidad George, Ricard Martínez alerta del “efecto devastador sobre la convivencia política y ciudadana”. “La intención obvia es polarizar a la opinión pública y generar alteraciones del orden público y constitucional. Por tanto, hay un peligro ulterior de generar riesgos sistémicos para la democracia”, explica.
De esta forma, los deepfakes no son una mera herramienta creativa, sino también delictiva en muchos casos. Y para evitarlo, Martínez no solo implica a la responsabilidad individual, ante la que reclama educación digital y sexual, sino también a las plataformas prestadoras de servicios digitales que facilitan su creación y difusión, obligadas por ley a analizar y evitar de forma proactiva estas prácticas.
“Se está produciendo una sexualización de la mujer en internet, un repunte de los comportamientos machistas, una vuelta a una concepción cosificada e instrumental de ellas como puro objeto de placer al servicio del hombre en una espiral que debería preocupar extraordinariamente y motivar reacciones contundentes”, concluye.
Robinson coincide: “Hay varias formas de cambiar la violencia contra las mujeres en internet. En primer lugar, a través de la legislación y la política [la experta destaca la eSafety de Australia], pero también a través de un mayor enfoque en la alfabetización digital y la aplicación de la seguridad”
También señala herramientas como StopNCII, que permite a cualquier persona rastrear y eliminar imágenes íntimas no consensuadas, “limpiar el perfil digital para asegurarse de que estas no se puedan localizar, incluidas las redes sociales de amigos y familiares”.
Tecnología en EL PAÍS