Los ataques machistas, a base de información falsa -fake news- contra mujeres quienes se destacan en diversas áreas de actividad, tienen complemento en una dimensión más profunda.

Se trata del submundo de deepfake (falsedad profunda), donde circulan imágenes -principalmente de naturaleza sexual- fabricadas mediante el uso de la inteligencia artificial, para mostrar, a las víctimas, en situaciones o en actitudes inventadas.

La idea consiste en dañar -o, directamente, destruir- trayectorias públicas, y reputaciones, con el objeto de quitar estorbos al machismo agresor, en su tóxico accionar.

Al informar sobre esta adicional variante de violencia misógina, la agencia española de información Efe, proporcionó detalles sobre el modus operandi de los deepfakers.

Esos delincuentes logran su tóxico objetivo mediante “creaciones digitales hechas con algoritmos que aprenden a base de la repetición y que después de codificar decenas de imágenes de rostros desde diferentes ángulos pueden sustituir la cara y la voz de una persona por la de otra”, indicó el medio de comunicación.

En ese sentido, citó datos de Sensity AI, empresa inicialmente denominada Deeptrace (Rastreo Profundo), que se dedica a la ciberseguridad, y a detectar ese tipo de imágenes, incluidas fotografías en documentos de identidad.

De acuerdo con los números de Sensity, de 90 a 95 por ciento de las deepfakes, en línea, son de naturaleza pornográfica, y, de esa proporción, aproximadamente 90 por ciento, afecta a mujeres.

“En ese patio trasero virtual, la gran mayoría de usuarios anónimos utiliza las caras de actrices o cantantes famosas”, informó la agencia, para puntualizar que “las víctimas también son políticas o activistas”.

Según Efe, “los videos falsos además pueden poner en riesgo la vida de hombres en países donde la homosexualidad está criminalizada, en algunos con pena de muerte”.

El medio de comunicación explicó que, “para generar ‘deepfakes’ se necesitan grandes cantidades de imágenes y videos desde diferentes ángulos”.

“Por eso hasta ahora era difícil utilizarlas en contra de mujeres anónimas”, indicó, de inmediato, en la nota inforativa que, con título “Deepfakes pornográficos para acallar a las mujeres”.

“Aun así, ya existen aplicaciones que analizan fotografías de mujeres y con inteligencia artificial las desnudan en pocos minutos”, detalló, además.

De acuerdo con la versión periodística, si bien son “generados con programas gratuitos”, los deepfakes “no son perfectos”, lo que no constituye problema alguno, ya que, “para desprestigiar a una mujer basta con que sean verosímiles”.

Ello responde al hecho de que, tal como señaló la agencia, “utilizar como arma la sexualidad de las mujeres no es nuevo”.

Al respecto, reveló que “un informe de la violencia política en redes sociales en Ecuador recoge el testimonio de una política a la que anunciaron como prostituta en una página web y adjuntaron su teléfono”.

“En el anuncio habían utilizado su foto de campaña”, precisó.

En otro caso, Efe indicó que recibió, en noviembre del año pasado, “un ‘deepfake’ de la activista Greta Thunberg que mostraba a la joven de 18 años gesticulando y bailando desnuda”.

“El video estaba circulando en Brasil por WhatsApp e iba acompañado de un mensaje que la acusaba de ‘estar probando nuevas tácticas en contra del cambio climático’”, agregó, en alusión a la intensa labor ambientalista que la adolescente sueca desarrolla a nivel internacional.

También indicó que, “con una búsqueda en internet, Efe encontró el video de la actriz original a quien habían reemplazado la cara por la de Thunberg”.

Al respecto, en una entrevista difundida hace un año -el 11 de enero de 2021- por la British Broadcasting Corporation (BBC), la escritora y poeta inglesa Helen Mort detalló cómo fue victimizada mediante el mismo método.

La emisora señaló que Mort, oriunda de la ciudad de Sheffield, en el sector norte de Inglaterra, “descubrió que se habían subido imágenes no sexuales de ella a un sitio web pornográfico”.

Sin embargo, “el sitio había invitado a los usuarios a editar las fotos, fusionando el rostro de Helen con imágenes sexuales explícitas y violentas”, agregó.

“Mort ahora está pidiendo un cambio en las leyes británicas (…) para que la creación y distribución de estas imágenes sean un delito”, señaló, además, la BBC.
“Este es un crimen que, en muchos casos, ocurre de manera invisible”, dijo la escritora.

“Mis imágenes, habían estado allí, durante años, y yo no sabía nada de ellas”, relató la autora inglesa, quien reveló que, “todavía, tengo pesadillas sobre algunas de ellas”.

El deepfake, “es una forma de abuso increíblemente grave”, reflexionó, a continuación.

El medio de comunicación británico precisó que Mort “recibió una alerta, de un conocido sobre las imágenes”, e indicó que las originales “fueron tomadas de sus redes sociales, e incluían fotos de sus vacaciones y de su embarazo”.

De acuerdo con lo planteado por esta víctima, “algunas de las imágenes se veían claramente manipuladas, había algunos ejemplos mucho más escalofriantes, que parecían mucho más verosímiles”.

“Con este tipo de cosas, pasas por diferentes fases”, aseguró.

“Hubo un momento en el que sólo estaba tratando de reírme, por la naturaleza casi ridícula de algunas cosas”, comenzó a narrar.
“Pero, obviamente, el sentimiento subyacente era de conmoción, y, de hecho, al principio, me sentí bastante avergonzada, como si hubiera hecho algo mal”, señaló.

“Eso fue algo bastante difícil de superar”, dijo, para agregar que, “luego, durante un tiempo, me sentí increíblemente ansiosa, al salir de casa”.
Según la versión periodística, “Mort alertó a la policía sobre las imágenes, pero le dijeron que no se podían tomar medidas”.

Al respecto, citada en la nota de la BBC, Aislinn O’Connell, profesora de derecho la Universidad Royal Holloway de Londres, explicó que este caso no está cubierto por las leyes actuales.

«En Inglaterra y Gales, según la sección 33 de la Criminal Justice and Courts Act (Ley de Justicia Penal y Tribunales), de 2015, es un delito distribuir, sin consentimiento, o amenazar con distribuir, una fotografía o película sexual privada con la intención de causar angustia, a la persona representada”, dijo.

“Pero esto sólo se aplica cuando la foto o el video original es privado y sexual”, aclaró.

“En la situación de Helen, las fotos no sexuales se fusionaron con fotos sexuales, y esto no está cubierto por (la tipificación de) el delito”, indicó.

“Además, como las fotos no se compartieron con Helen, directamente, ni la intención parecía ser causarle angustia, a Helen, el segundo elemento no se cumple, aunque, evidentemente, causó angustia”, señaló.

“El otro delito penal potencial sería hostigamiento, pero dado que el perpetrador aquí no lo dirigió hacia la propia Helen, esto tampoco se aplica”, continuó precisando.

La BBC informó, asimismo, que “Mort espera usar su experiencia para crear conciencia sobre la pornografía deepfake, y ha emitido una petición pidiendo un cambio en la ley”, solicitud que cuenta con miles de adherentes.

«La intención (…) como lo decían en su publicación, era humillar”, aseguró.
En opinión de la escritora, “dijeron que querían ver humillada, a esta persona, y yo pensé: ‘bien, en realidad no estoy humillada, y voy a hablar de esto, porque no debo ser yo la que se sienta avergonzada’».