Clicky

No te dejes engañar: aquí te contamos cómo detectar los deepfakes

Deepfakes

Sistema Global de Detección de Deepfakes en Línea para periodistas

No todos los deepfakes son malos. Los deepfakes (artefactos digitales que incluyen fotos, videos y audio que se han generado o modificado mediante software de inteligencia artificial) suelen parecer y sonar reales. El contenido deepfake se ha utilizado para engañar a los espectadores, difundir noticias falsas, sembrar desinformación y perpetuar engaños en Internet.

Lo que no se entiende tan bien es que la tecnología detrás de los deepfakes también puede utilizarse para hacer el bien. Puede utilizarse para reproducir la voz de un ser querido fallecido, por ejemplo, o para introducir mapas o comunicaciones falsas para despistar a posibles terroristas. También puede entretener, por ejemplo, simulando cómo luciría una persona con un vello facial extravagante o usando un sombrero gracioso.

"Hay muchas aplicaciones positivas de los deepfakes, aunque no han recibido tanta prensa como las aplicaciones negativas", dijo V.S. Subrahmanian, profesor Walter P. Murphy de Ciencias de la Computación en Northwestern Engineering y miembro del cuerpo docente del Buffett Institute for Global Affairs de la Universidad Northwestern.

Aún así, son las aplicaciones negativas o peligrosas las que hay que detectar.

Subrahmanian, que se centra en la intersección de la IA y las cuestiones de seguridad, desarrolla modelos basados ​​en el aprendizaje automático para analizar datos, aprender modelos de comportamiento a partir de los datos, pronosticar acciones e influir en los resultados. A mediados de 2024 lanzó el Sistema Global de Detección de Deepfakes en Línea (GODDS), una nueva plataforma para detectar deepfakes, que ahora está disponible para un número limitado de periodistas verificados.

Para quienes no tienen acceso a GODDS, Northwestern Now ha recopilado cinco consejos de Subrahmanian para ayudarlos a evitar ser engañados por deepfakes.

Cuestiona lo que veas y escuchas

Cualquier persona con acceso a Internet puede crear una falsificación. Eso significa que cualquiera con acceso a Internet también puede convertirse en un objetivo para los deepfakes.

"En lugar de intentar detectar si algo es un deepfake o no, un cuestionamiento básico puede ayudar a llegar a la conclusión correcta", dijo Subrahmanian, director fundador del Laboratorio de Seguridad e Inteligencia Artificial de Northwestern.

Busca inconsistencias

Para bien o para mal, la tecnología deepfake y la inteligencia artificial siguen evolucionando a un ritmo rápido. En última instancia, los programas informáticos podrán detectar deepfakes mejor que los humanos, predijo Subrahmanian.

Por ahora, la tecnología deepfake tiene algunas deficiencias que los humanos pueden detectar. La IA aún tiene dificultades para descifrar los aspectos básicos del cuerpo humano, a veces añadiendo un dedo más o deformando partes de formas antinaturales o imposibles. La física de la luz también puede hacer que tengan problemas los generadores de IA.

"Si no ves un reflejo que parezca coherente con lo que esperaríamos o compatible con lo que esperaríamos, debes tener cuidado", dijo.

Libérate de los prejuicios

Es parte de la naturaleza humana enraizarnos tanto en nuestras opiniones y nociones preconcebidas que empezamos a tomarlas como verdad. De hecho, la gente a menudo busca fuentes que confirmen sus propias nociones, y los estafadores crean deepfakes que refuerzan y afirman creencias previamente sostenidas para lograr sus propios objetivos.

Subrahmanian advierte que cuando las personas ignoran la parte lógica de su cerebro porque un hecho percibido coincide con sus creencias, es más probable que sean víctimas de deepfakes.

"Ya vemos algo llamado la burbuja de filtros, donde la gente sólo lee las noticias de canales que retratan lo que ya piensan y refuerzan los sesgos que tienen", dijo. "Algunas personas son más propensas a consumir información de las redes sociales que confirma sus prejuicios. Sospecho que este fenómeno de la burbuja de filtros se verá exacerbado a menos que las personas intenten encontrar fuentes de información más variadas".

Establecer medidas de autenticación

Ya han surgido casos de falsificaciones de audio utilizadas por estafadores para intentar engañar a la gente para que no vote por determinados candidatos políticos simulando la voz del candidato diciendo algo incendiario en llamadas automáticas. Sin embargo, este truco puede volverse mucho más personal. Los deepfakes de audio también se pueden usar para estafar a la gente y quitarle dinero. Si alguien que suena como un amigo cercano o un familiar llama y dice que necesita dinero rápidamente para salir de un apuro, podría ser un deepfake.

Para evitar caer en esta trampa, Subrahmanian sugiere establecer métodos de autenticación con los seres queridos. Eso no significa hacerles preguntas de seguridad como el nombre de la primera mascota o el primer coche. En lugar de eso, haz preguntas específicas que sólo esa persona sepa, como dónde fue a almorzar recientemente o en qué parque jugó alguna vez al fútbol. Incluso podría ser una palabra clave que sólo conozcan sus familiares.

"Puedes inventar cualquier pregunta en la que una persona real tenga muchas más probabilidades de saber la respuesta, mientras que un individuo que intente cometer un fraude utilizando IA generativa no la tendrá", afirmó Subrahmanian.

Ten en cuenta que las plataformas de redes sociales solo pueden hacer hasta cierto punto

Las redes sociales han cambiado la forma en que las personas se comunican entre sí. Pueden compartir actualizaciones y mantenerse en contacto con solo pulsar unas teclas, pero sus canales también pueden estar repletos de videos e imágenes falsos.

Subrahmanian dijo que algunas plataformas de redes sociales han hecho esfuerzos extraordinarios para erradicar los deepfakes. Lamentablemente, eliminar los deepfakes podría ser un acto de supresión de la libertad de expresión. Subrahmanian recomienda consultar sitios web como PolitiFact para obtener más información sobre si un artefacto digital es un deepfake o no.

Jesus_Caceres