Cómo combatir el abuso sexual basado en imágenes generadas por IA
Esta semana, alrededor de 50 estudiantes de la escuela secundaria Bacchus Marsh de Victoria, Canadá, encontraron imágenes falsas y sexualmente explícitas de ellas mismas compartidas sin su consentimiento en Instagram y Snapchat. Imágenes de sus rostros, supuestamente obtenidas de las redes sociales, fueron unidas a imágenes pornográficas utilizando inteligencia artificial (IA).
La pornografía deepfake (ultrafalso), o lo que el equipo de Nicola Henry, profesora y futura miembro del Consejo Australiano de Investigación, Centro de Estudios Sociales y Globales, Universidad RMIT, llama "abuso sexual basado en imágenes generadas por IA", implica el uso de IA para crear una imagen desnuda y/o sexual de una persona haciendo o diciendo cosas que no ha dicho o hecho.
Las celebridades y figuras públicas, predominantemente mujeres, han experimentado este tipo de abuso durante casi una década, con varios sitios de pornografía deepfake y "aplicaciones de desnudos" disponibles en línea.
Pero a medida que estas tecnologías se vuelven más accesibles y sofisticadas, comenzamos a ver que este problema se infiltra en nuestros hogares y escuelas. Los adolescentes, e incluso los niños, están ahora en el punto de mira.
¿Qué tan extendido está el abuso en los deepfakes?
En 2023, Nicola Henry y sus colegas encuestaron a más de 16.000 adultos en diez países y descubrieron que, a pesar de la amplia cobertura mediática (particularmente en los países occidentales), el concepto de pornografía deepfake no es muy conocido. Sin embargo, cuando se les informó al respecto, la mayoría de los encuestados indicaron que debería tipificarse como delito.
Entre los encuestados de Australia, el 3,7% había sido víctima de pornografía deepfake cuando eran adultos. Esta fue la tasa más alta reportada en los países que encuestó el equipo.
Al mismo tiempo, el 2,4% de los encuestados australianos dijeron que habían creado, compartido o amenazado con compartir una foto o un vídeo deepfake de otra persona sin su consentimiento. Esta también fue una cifra más alta que la de todos los demás países que encuestaron, excepto Estados Unidos.
Los hombres tenían más probabilidades de denunciar haber sido víctimas de abusos deepfake y más probabilidades de denunciar ser perpetradores. Los hombres también tenían menos probabilidades de encontrar problemático ver, crear y/o compartir pornografía deepfake.
¿Qué puedes hacer si eres un objetivo?
El abuso basado en imágenes puede ser una experiencia angustiosa. Pero las víctimas deben saber que no están solas, que no es su culpa y que hay mucha ayuda disponible. Aquí hay algunos pasos que pueden tomar.
1. Denúncialo
Crear o compartir imágenes sexuales falsas de menores es un delito penal según muchas de varios países sobre material de abuso sexual infantil ("pornografía infantil") [PDF]. También es un delito penal compartir pornografía deepfake no consensuada de un adulto (y un delito crearla en algunas regiones).
Ya seas tu la víctima o alguien que conoces, puedes denunciar el abuso de deepfake en las mismas plataformas digitales, en España puedes hacerlo desde la web de Incibe. Si consideras que un deepfake puede tener consecuencias legales o representar un peligro para la seguridad de las personas, es importante denunciarlo a la Policía Nacional o a la Guardia Civil. Recuerda recopilar toda la información relevante, como el enlace al video, capturas de pantalla y cualquier otra evidencia que pueda ayudar a las autoridades en su investigación.
Si estás en peligro, contacta a la policía o a la ambulancia al 112.
Se aplican los mismos pasos si eres un espectador que se ha topado en línea con pornografía deepfake no consensuada de otra persona.
Las autoridades mencionadas pueden trabajar con las víctimas y sus seguidores para eliminar el contenido en un plazo de 24 horas. También pueden emitir advertencias formales, órdenes de retirada y sanciones civiles a personas y empresas de tecnología que no tomen medidas.
Lamentablemente, el contenido deepfake puede seguir circulando incluso después de haber sido eliminado de la plataforma inicial.
Imagen: Es una buena idea hablar con alguien de confianza.
2. Busca ayuda
Si ha sido atacado/a, es una buena idea hablar con alguien en quien confíes, como un amigo, un familiar, un maestro, un consejero o un psicólogo.
Este sitio web australiano muestra un ejemplo que tiene una lista de servicios de apoyo relevantes para víctimas-sobrevivientes de abuso basado en imágenes, incluidos servicios especializados para aborígenes e isleños del Estrecho de Torres, migrantes y refugiados, jóvenes, personas con discapacidades, personas de comunidades LGBTQI+ y trabajadores sexuales.
El equipo de Nicola Henry también ha desarrollado un chatbot llamado Umibot, que brinda asesoramiento y apoyo confidenciales y gratuitos a personas que han experimentado abuso basado en imágenes, incluido el abuso de deepfake. Umibot también tiene información para no residentes y perpetradores.
También hay recursos disponibles en idioma inglés para jóvenes en ReachOut, Beyond Blue, Youth Law Australia y Kids Helpline.
3. Crea un hash digital para detener la propagación
La Revenge Porn Helpline del Reino Unido y Meta han desarrollado dos herramientas de hash digital para víctimas-sobrevivientes. Estos son Stop NCII para adultos y Take It Down para menores.
Cualquier persona en el mundo puede utilizar estas herramientas para generar un hash digital anónimo (un código numérico único) escaneando la imagen desde su dispositivo. Luego, este hash se comparte con las empresas que participan en el esquema (incluidas Facebook, Instagram, Pornhub, TikTok y Onlyfans) para que puedan detectar y bloquear cualquier coincidencia en su plataforma. No es necesario que cargues la imagen, lo que significa que nadie más la ve ni sale de tu dispositivo.
Es importante tener en cuenta que esta herramienta no bloqueará la aparición de la imagen en plataformas que no forman parte del esquema. También debes tener acceso a las imágenes en primer lugar para utilizar la herramienta.
4. Bloquea, denuncia y distancia al perpetrador (si es seguro hacerlo)
Puedes bloquear a los perpetradores a través de tu teléfono móvil y en las redes sociales, y denunciarlos a las plataformas y autoridades pertinentes. En el caso de las plataformas, no siempre está claro qué se hará una vez presentada la denuncia, por lo que conviene preguntar al respecto.
Si el perpetrador es alguien que conoces, como un compañero de clase o un estudiante, las autoridades pueden tomar medidas para garantizar que no interactúes más con esa persona.
La semana pasada, un niño fue expulsado del Salesian College de Melbourne después de que utilizó IA para crear imágenes sexualmente explícitas de una profesora.
5. Aumenta tu seguridad en línea
El comisionado de eSafety australiano tiene guías en vídeo paso a paso (en inglés) sobre una variedad de temas de seguridad en línea, desde cómo cambiar tu configuración de privacidad en las redes sociales hasta cómo elegir contraseñas seguras.