Anuncios
Inicio SOCIEDAD Y SOSTENIBILIDAD BERTA CÁCERES Abuso en línea impulsado por la IA: cómo la IA amplifica la...

Abuso en línea impulsado por la IA: cómo la IA amplifica la violencia contra las mujeres y qué puede detenerla

Anuncios

Una serie de herramientas de inteligencia artificial (IA) extremadamente poderosas, entrenadas con material marcado por los sesgos de género imperantes, permite que la violencia se expanda de manera más profunda, rápida y compleja.

que la violencia contra las mujeres y niñas facilitada por la tecnología se intensifica —según los estudios, entre el 16 y el 58 por ciento de las mujeres en todo el mundo se han visto afectadas—, la inteligencia artificial está creando nuevas formas de abuso y amplificando las disponibles a tasas alarmantes.

Las cifras son claras: según una encuesta mundial, el 38 por ciento de las mujeres han vivido alguna experiencia de violencia en línea a título personal y el 85 por ciento de las mujeres en línea han sido testigos de violencia digital contra otras. Esto no se trata solamente de lo que pasa en las pantallas. Lo que sucede en línea atraviesa la pantalla fácilmente y luego escala. Las herramientas de la inteligencia artificial pueden apuntarse en contra las mujeres: facilitan el acceso, el chantaje, el acecho, las amenazas y el acoso con consecuencias trascendentes en el mundo real a nivel físico, psicológico, profesional y financiero.

Un dato elocuente es que las herramientas para crear ultrafalsos (deepfakes), desarrolladas por equipos de varones, en muchos casos ni siquiera están diseñadas para funcionar sobre imágenes de cuerpos masculinos.

ONU Mujeres entrevistó a Laura Bates, feminista, activista y autora del libro The New Age of Sexism (La nueva era del sexismo), y a Paola Gálvez-Callirgos, experta en inteligencia artificial y políticas de la tecnología, para saber qué está en juego en la actualidad.

¿Qué es la violencia contra las mujeres facilitada por la IA?

La violencia contra las mujeres facilitada por la IA hace referencia a los actos de abuso digital generados y divulgados con tecnología de inteligencia artificial que provocan un daño físico, sexual, psicológico, social, político o económico, u otras violaciones a los derechos y libertades de las mujeres.

La escala, la velocidad, el anonimato y la facilidad de comunicación en los espacios digitales crean contextos propicios para este tipo de violencia. Los perpetradores creen que pueden salirse con la suya, las víctimas a menudo no saben si podrán obtener ayuda, ni cómo dar con ella, y los sistemas jurídicos corren detrás de los rápidos cambios de la tecnología.

Según la activista y autora feminista Laura Bates, la mejor forma de enfrentar el riesgo del abuso digital facilitado por la IA es “reconocer que la división entre lo que sucede dentro y fuera de Internet es una ilusión”.

¿La IA está creando nuevas formas de violencia contra las mujeres?

Sí. La inteligencia artificial está creando formas totalmente nuevas de abuso y amplificando considerablemente las que ya estaban disponibles. La escala y la dificultad de detectar lo que puede lograrse con la IA generan un daño mucho mayor y más extendido que el que permitían las formas tradicionales de violencia facilitada por la tecnología.

Algunas de las nuevas formas de abuso contra las mujeres impulsado por la IA incluyen las siguientes:

Abuso basado en imágenes mediante ultrafalsos: según las investigaciones, entre el 90 y el 95 por ciento de los ultrafalsos en línea son imágenes pornográficas sin consentimiento, y casi el 90 por ciento de estas imágenes muestran a mujeres. El número total de videos ultrafalsos en línea en 2023 fue un 550 por ciento más alto que en 2019. La pornografía con videos ultrafalsos corresponde al 98 por ciento de todos los videos ultrafalsos en línea, y el 99 por ciento de las personas afectadas son mujeres.
Suplantación de identidad mejorada y sextorsión: la inteligencia artificial permite la creación de material ultrafalso interactivo que suplanta identidades y entabla conversaciones en línea con mujeres y niñas que no saben que están interactuando con un bot. La práctica de catfishing, engaño o estafa por suplantación de identidad en aplicaciones de citas, ahora puede escalar mediante bots de IA más realistas que se adaptan para simular conversaciones humanas y convencer a mujeres y niñas de que revelen información privada o concreten citas en persona.
Campañas sofisticadas de doxeo: las herramientas de procesamiento de lenguaje natural pueden identificar contenido vulnerable o controversial en las publicaciones de mujeres —como discusiones sobre acoso sexual o señalamientos de misoginia, lo que facilita identificarlas como blancos de campañas de doxeo. En algunos casos, la IA se usa para confeccionar mensajes personalizados y amenazantes que usan el vocabulario y la información de la propia víctima para magnificar el abuso psicológico.

¿Qué es el contenido audiovisual ultrafalso y por qué apunta contra las mujeres?

El contenido audiovisual ultrafalso (los deepfakes) son imágenes, audios o videos alterados digitalmente y creados con IA que hacen parecer que alguien dijo o hizo algo que en realidad nunca dijo ni hizo. Si bien la tecnología puede usarse con fines creativos o de entretenimiento, el material ultrafalso se usa cada vez más indebidamente como una forma de abuso digital, por ejemplo, para crear imágenes sexuales sin consentimiento, difundir desinformación o dañar la reputación de una persona.

El material ultrafalso apunta cada vez más y de manera más abrumadora a las mujeres. Laura Bates expone los motivos: “En parte, se trata del problema de raíz de la misoginia, un asunto con un enorme sesgo de género, y lo que estamos viendo es una manifestación digital de una verdad mayor fuera del ámbito del Internet: los hombres atacan a las mujeres en actos de abuso y violencia de género”.

“Pero también se trata de cómo las herramientas facilitan ese abuso”, agrega Bates.

La IA ha hecho que las herramientas sean fáciles de usar; no se necesitan muchos conocimientos técnicos para crear y publicar una imagen o video ultrafalso. En este contexto, hay una creciente preocupación por el aumento de la “sextorsión” mediante ultrafalsos, con la amenaza de difundir imágenes inventadas y no consentidas en sitios pornográficos para acosar a las mujeres.

Una vez que las imágenes pornográficas ultrafalsas generadas con IA se difunden en línea, pueden reproducirse varias veces, compartirse y almacenarse en dispositivos privados, lo que dificulta su localización y eliminación.

¿Qué debe hacer una persona durante las primeras 24 horas cuando una imagen suya ultrafalsa o manipulada aparece en línea?

No hay una forma correcta o incorrecta de responder, y quienes se han especializado en el tema enfatizan que es clave responsabilizar a los perpetradores, es decir, a los creadores, los anunciantes y las plataformas que alojan estos contenidos, así como a las personas que los consumen. Si eres víctima de este tipo de abuso, la recomendación es contactar a organizaciones que tengan la información más actualizada sobre cómo ayudar.

¿Existen leyes que protejan a las mujeres del abuso generado por la IA?

Según los datos del Banco Mundial, menos del 40 por ciento de los países cuentan con leyes que protejan a las mujeres del acoso en línea o del acecho digital, y, cuando las hay, su aplicación es débil.

Además, hay pocas denuncias, un acceso limitado a la justicia, y las plataformas tecnológicas no han rendido cuentas. La naturaleza transnacional del abuso digital generado por la IA potencia aún más la impunidad.

El llamado a la acción de ONU Mujeres para los 16 días de activismo incluye la necesidad de que las leyes y su aplicación garanticen la responsabilización de los perpetradores, junto con un mejor apoyo a las víctimas y supervivientes, y la capacitación digital para mujeres y niñas.

Las leyes están comenzando a adaptarse a las tendencias emergentes, aunque están luchando por mantenerse al día con los rápidos desarrollos en IA generativa. Algunos ejemplos incluyen los siguientes:

Según la Ley de seguridad en línea del Reino Unido (aprobada en 2023) es ilegal compartir imágenes o videos explícitos que hayan sido manipulados digitalmente. Sin embargo, esta ley no impide la creación de ultrafalsos pornográficos o su divulgación cuando no se pueda probar la intención de causar daño.
La Ley de inteligencia artificial de la Unión Europea (2024) promueve la transparencia al exigir que los creadores de contenido ultrafalso informen al público sobre la naturaleza artificial de su trabajo y a los proveedores de herramientas de IA de uso general que etiqueten los contenidos generados por la IA.
En México, la Ley Olimpia reconoce y castiga la violencia digital, y ha inspirado leyes similares en otros países de la región: se espera que la Argentina, Panamá y Uruguay sigan su ejemplo.
Australia está fortaleciendo su legislación en materia de creación y difusión sin consentimiento de material sexualmente explícito en línea, incluido el material creado o alterado mediante IA generativa y ultrafalsos.

Un enfoque recomendado es la cooperación mundial y la regulación de todo el sector que exija que las herramientas de IA cumplan con un estándar de seguridad y ética antes de ser lanzadas al público. La Convención Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho ofrece un modelo. El recientemente establecido Órgano Asesor de Alto Nivel sobre Inteligencia Artificial de las Naciones Unidas, representado por el Pacto Digital Mundial de las Naciones Unidas, es otro ejemplo de estas iniciativas coordinadas.

Paola Gálvez-Callirgos, experta en políticas y gobernanza de la IA y la tecnología digital, advierte que “no existe un modelo único para la gobernanza de la IA. Las personas responsables de formular políticas deben considerar que el contexto y la cultura de cada sociedad son importantes”.

Sin embargo, cree que hay algunas medidas básicas que todos los países pueden tomar para tipificar como delito todas las formas de violencia contra las mujeres facilitada por la tecnología e invertir en el desarrollo de capacidades institucionales para hacer cumplir la ley.

Otra brecha que recomienda cerrar mediante leyes se vincula a la procedencia del contenido, es decir, la capacidad de rastrear la historia de los materiales digitales. “Los productores de herramientas de medios sintéticos deben adjuntar credenciales de contenido verificables (metadatos en el archivo o marcas de agua o procedencia robustas según los estándares de estilo C2PA) que permitan a las plataformas y a quienes investiguen detectar el origen y la manipulación”, explica. “Esto dará apoyo a los filtros automatizados y dificultará que los perpetradores nieguen el origen de manera plausible”.

Gálvez-Callirgos forma parte de Escuela de IA de ONU Mujeres, un curso gratuito que se ofrece por invitación a las organizaciones por los derechos de las mujeres en el marco del programa ACTUEMOS para poner fin a la violencia contra las mujeres, con el fin de enseñarles a usar las herramientas de la IA de forma ética para la promoción, influir en el desarrollo de políticas sobre la IA y aprovechar sus herramientas de forma responsable para prevenir la violencia contra las mujeres y darle respuesta. El curso también incluye charlas de personas expertas y laboratorios de innovación.

¿Qué deben hacer las empresas de tecnología para prevenir el abuso en línea facilitado por la IA?

Las empresas de tecnología tienen un papel fundamental que desempeñar para prevenir y detener la violencia digital generada por la IA. Algunas de las medidas que deben tomar incluyen:

Impedir a infancias y consumidores el acceso a las herramientas pornográficas de generación de ultrafalsos o alteración de desnudos (nudify).
Negarse a alojar imágenes o videos creados con estas herramientas.
Desarrollar funciones de denuncia claras y de fácil acceso para reaccionar ante el abuso y responder de manera rápida y efectiva cuando las víctimas denuncien contenido abusivo.
Implementar soluciones proactivas para identificar contenido falsificado, incluida la verificación automática de marcas de agua detectables algorítmicamente.
Exigir el etiquetado o la identificación del contenido generado por la IA.
Reclutar a más mujeres como investigadoras y desarrolladoras de tecnología, y trabajar con organizaciones de mujeres en el diseño de tecnología de IA.

Foto: Karola G

Anuncios
Salir de la versión móvil