Formas de la violencia: cuando la inteligencia artificial se vuelve inteligencia patriarcal
En las últimas semanas, un escándalo por unas supuestas fotos nude de Rosalía sacudió a las redes sociales. El cantante sevillano JC Reyes había compartido en sus redes sociales nada más y nada menos que fotografías de Rosalía enseñando los pechos. Y por si la situación no fuera ya de por sí violenta, y para complicar más las cosas, posteriormente se supo que estas no eran fotos reales sino manipulaciones realizadas con inteligencia artificial (las fotos reales pertenecen a Sant Esteve Sesrovires).
Aunque en un primer momento ni Rosalía ni nadie de su entorno salieron públicamente a denunciarlo, muchos fans de la cantante se manifestaron en redes organizando una campaña masiva de denuncia contra JC Reyes. A posteriori, tanto Rosalía como su novio Rauw Alejandro salieron a pronunciarse en redes con relación al uso fraudulento de la imagen de la artista catalana. Rápidamente, Reyes dio de baja las fotografías para evitar litigios legales pero el daño, como sabemos en estos casos, ya estaba hecho.

“El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco –aclaró Rosalía visiblemente enojada–. Existe algo llamado consentimiento y todos a los que os pareció gracioso o plausible espero de corazón que un día aprendáis que venís de una mujer, que las mujeres somos sagradas y que se nos ha de respetar, bye.”
Lo cierto es que a una situación ya de por sí complicada de regular, que tiene que ver con los distintos tipos de violencia digital que hoy día se ejercen sobre las mujeres y disidencias en el ámbito web (desde publicación de material privado sin consentimiento hasta amenazas por chat, hostigamiento digital a figuras públicas, bullying online y otros), se le adiciona el desafío de regular los nuevos sistemas de inteligencia artificial (IA) que generan imágenes y videos que pueden simular situaciones que nunca existieron, creando así falsas narrativas o noticias.
DE LA INTELIGENCIA ARTIFICIAL AL DEEPFAKE
El deepfake es un acrónimo del inglés formado por los conceptos deep learning (aprendizaje profundo) y fake (falso-falsificación), y es una técnica de inteligencia artificial que permite editar videos falsos de personas reales. Para ello utiliza algoritmos de aprendizaje y videos o imágenes ya existentes, y si bien esta técnica se utiliza mucho en el cine, ejemplos recientes de un uso malicioso pueden evidenciarse en los escándalos por supuestos videos porno que en verdad eran deepfakes.

Vale aclarar que también pueden generarse deepfakes que no sean videos, como fotografías, y así sembrar dudas sobre determinados acontecimiento o directamente alimentar fake news. Todos recuerdan la fotografía del Papa con maxicampera inflable que tuvo a todo Twitter enloquecido un par de horas.
Si bien los deepfakes tienen un nivel de precisión muy alto (86,6 por ciento, según Wikipedia), se están desarrollando tecnologías específicas para detectarlos y ya existen algunas técnicas bastante buenas para tal efecto: buscar faltas de consistencia en las imágenes que se han usado para crearlos, errores de iluminación que generan distorsión y, sobre todo, mirar los bordes (rostros, manos y figuras humanas en general). Asimismo, se recomienda prestar atención a las voces y los efectos sonoros si son videos con sonido.
UN CONTEXTO DE VIOLENCIA DIGITAL EN ALZA
Las estadísticas no mienten y señalan que en la Argentina una de cada tres mujeres sufrió violencia en las redes sociales, 26% de las víctimas recibió amenazas directas y/o indirectas de violencia psicológica o sexual y un 59% fue objeto de mensajes sexuales y misóginos, entre otros registros obtenidos. Como si no tuviéramos poco que enfrentar las femineidades, el llamado “vacío legal” en torno a estas cuestiones –la falta de normativa específica– implica una situación grave de revictimización. Y para peor, cada vez son más accesibles y masivos los recursos tecnológicos para crear imágenes y videos falsos.

Según la Organización de las Naciones Unidas (ONU), las mujeres tienen 27 veces más posibilidades de ser atacadas en internet que los hombres, algo que se observa sobre todo en redes como Twitter alrededor de periodistas o referentes feministas. Como tal, el término de “violencia digital” se recogió en la Ley Orgánica de Protección Integral a la Infancia y la Adolescencia a propuesta de la Agencia Española de Protección de Datos (AEPD). “La violencia de género digital se traduce en una cifra preocupante en España: actualmente suman el 70% de las denuncias que reciben en el ‘Canal Prioritario’ de la AEPD”, explica un artículo reciente de El Cronista en ese país.
El tema es que la mayoría no realiza la denuncia por vergüenza. “Llegan víctimas mayoritariamente de ‘sextorsión’ (el chantaje realizado por un ciberdelincuente para que la o las víctimas accedan a sus requerimientos, bajo la amenaza de publicar material íntimo comprometido, como fotografías y vídeos), de suplantación de identidad, difusión de imágenes, amenazas, y la mayoría de las veces se sienten muy solas las víctimas”, sigue el medio.

En la Argentina, la Comisión de Mujeres y Diversidades de la Cámara de Diputados dictaminó la incorporación de la violencia digital a la Ley 26.485 como otra forma de violencia machista. De aprobarse, el proyecto de ley inspirado en la Ley Olimpia mexicana lograría actualizar la normativa vigente de protección integral contra la violencia hacia las mujeres sumando nuevas y modernas formas de agresión.
Aunque en países como México estos delitos ya están tipificados y hay un marco legal que ampara a las víctimas, acá, bajo lemas como “La violencia digital también es violencia” o “Lo virtual es real”, todavía seguimos esperando. No es necesario pensar en el caso de Rosalía para entender la complejidad del panorama, y por qué, además de seguir de cerca los nuevos desarrollos tecnológicos y sus marcos éticos, tenemos que ampliar nuestra mirada sobre lo que se constituye como violencia y las consecuencias que puede tener sobre todas las personas.

