Fake news, deepfakes, imágenes engañosas: todo esto se puede crear utilizando inteligencia artificial
La Inteligencia Artificial (IA) juega ahora un papel en varios aspectos de nuestras vidas. Específicamente, las herramientas de IA generativa como ChatGPT y otras han crecido significativamente. Esto significa que en el futuro habrá una gran cantidad de contenido generado por IA.
Sin embargo, la IA generativa también presenta el riesgo de desinformación generada por la IA. Sus características facilitan que individuos oportunistas difundan información falsa. Entonces, exploremos cómo se utiliza la IA generativa para la desinformación.
Riesgos potenciales de la IA generativa para difundir desinformación
La IA generativa plantea muchas amenazas para las personas, como quitarles puestos de trabajo, más vigilancia y ataques cibernéticos. Y los problemas de seguridad con la IA empeorarán aún más. Pero hay otra preocupación: la gente puede usarlo para difundir mentiras. Las personas engañosas pueden usar la IA generativa para compartir noticias falsas a través de contenido visual, auditivo o textual.
Las noticias falsas se pueden clasificar en tres tipos:
1. Misinformation (Información errónea): Información incorrecta o falsa no intencionada.
2. Disinformation (Información engañosa): Uso deliberado de información manipuladora o engañosa.
3. Malinformation (Información para inflingir daño): noticia engañosa o versión exagerada de la verdad.
Cuando se combinan con la tecnología deepfake (ultrafalsa o falsificación profunda), las herramientas generativas de IA pueden hacer que el contenido se vea y suene real, como imágenes, vídeos, clips de audio y documentos. Hay muchas posibilidades para crear contenido falso, por lo que es importante saber cómo protegerse de los vídeos falsos.
Los difusores de noticias falsas pueden generar contenido en grandes cantidades, lo que facilita su difusión entre las masas a través de las redes sociales. La desinformación dirigida puede emplearse para influir en las campañas políticas, lo que podría afectar las elecciones. Además, el uso de herramientas de generación de texto e imágenes de IA plantea preocupaciones con respecto a las leyes de derechos de autor, según lo informado por el Servicio de Investigación del Congreso [PDF]: se vuelve un desafío determinar la propiedad del contenido generado por estas herramientas.
¿Cómo abordará la ley la propagación de noticias falsas a través de la IA generativa? ¿Quién será responsable de difundir información falsa: los usuarios, los desarrolladores o las propias herramientas?
4 formas en que se puede utilizar la IA generativa para difundir desinformación
Para mantenerse seguro en línea, todos deben comprender los riesgos de la IA generativa en la difusión de desinformación, ya que se presenta en muchas formas diferentes. Aquí hay algunas formas en que se puede usar para manipular a las personas.
1. Generación de contenido falso en línea
La creación de contenido falso utilizando IA generativa es una estrategia común empleada por aquellos que difunden noticias falsas. Utilizan herramientas populares de IA generativa como ChatGPT, DALL-E, Bard, Midjourney y otras para producir varios tipos de contenido. Por ejemplo, ChatGPT puede ayudar a los creadores de contenido de muchas formas. Pero también puede generar publicaciones en redes sociales o artículos de noticias que pueden engañar a las personas.
Para probar esto, solicitamos a ChatGPT que escribiera un artículo inventado sobre el arresto del presidente estadounidense Joe Biden por cargos de corrupción. También le solicitamos que incluyera declaraciones de autoridades relevantes para que pareciera más creíble.
Aquí está el artículo ficticio que se le ocurrió a ChatGPT:
Sorprendentemente, el resultado fue muy persuasivo. Incluía los nombres y declaraciones de figuras autorizadas para que el artículo fuera más convincente. Esto muestra cómo cualquier persona puede usar tales herramientas para generar noticias falsas y difundirlas fácilmente en línea.
2. Uso de chatbots para influir en las opiniones de las personas
Los chatbots que se basan en modelos generativos de IA pueden emplear varias tácticas para influir en las opiniones de las personas, entre ellas:
• Manipulación emocional: la IA puede usar modelos de inteligencia emocional para explotar desencadenantes emocionales y sesgos para dar forma a sus perspectivas.
• Cámaras de eco y sesgo de confirmación: los chatbots pueden reforzar las creencias existentes mediante la creación de cámaras de eco (o cámaras de resonancia mediática) que validan tus sesgos. Si ya tienes un determinado punto de vista, la IA puede fortalecerlo al presentar información que se alinea con tus opiniones.
• Prueba social y efecto de arrastre: la IA puede manipular el sentimiento público generando prueba social. Esto puede tener significativas consecuencias, ya que puede llevar a las personas a conformarse con las opiniones populares o seguir a la multitud.
• Personalización dirigida: los chatbots tienen acceso a grandes cantidades de datos que pueden recopilar para crear perfiles personalizados. Esto les permite personalizar el contenido según sus preferencias. A través de la personalización dirigida, la IA puede persuadir a las personas o fortalecer aún más sus opiniones.
Todos estos ejemplos ilustran cómo se pueden utilizar los chatbots para engañar a las personas.
3. Creación de DeepFakes con la IA
📸An image of Pope Francis in a gleaming white, papal puffer jacket spread like wildfire across the web.
— The Telegraph (@Telegraph) April 10, 2023
Yet the likeness of the unusually dapper 86-year-old head of the Vatican was a fake.
Read the full article here: https://t.co/8REZQcC9wu pic.twitter.com/oh6kLpi19r
Alguien puede usar deepfakes para crear vídeos falsos de un individuo diciendo o haciendo cosas que nunca hizo. Pueden usar tales herramientas para la ingeniería social o para ejecutar campañas de difamación contra otros. Además, en la actual cultura de los memes, las deepfakes pueden servir como herramientas para el ciberacoso en las redes sociales.
Además, los adversarios políticos pueden usar audio y vídeos falsos para empañar la reputación de sus oponentes, manipulando el sentimiento público con la ayuda de la IA. Por lo tanto, los deepfakes generados por IA plantean numerosas amenazas en el futuro. Según un informe de Reuters de 2023, el auge de la tecnología de inteligencia artificial podría afectar las elecciones estadounidenses de 2024. El informe destaca la accesibilidad de herramientas como Midjourney y DALL-E que pueden crear fácilmente contenido inventado e influir en las opiniones colectivas de las personas.
Entonces, es crucial poder identificar vídeos creados por deepfakes y distinguirlos de los originales.
4. Clonación de voces humanas
La IA generativa, junto con la tecnología deepfake, permite la manipulación del discurso de alguien. La tecnología deepfake avanza rápidamente y ofrece una variedad de herramientas que pueden replicar la voz de cualquier persona. Esto permite que personas malintencionadas se hagan pasar por otros y engañen a personas desprevenidas. Un ejemplo de ello es el uso de música deepfake.
Es posible que hayas encontrado herramientas como Resemble AI, Speechify, FakeYou y otras que pueden imitar las voces de las celebridades. Si bien estas herramientas de audio de IA pueden ser entretenidas, presentan riesgos significativos. Los estafadores pueden utilizar técnicas de clonación de voz para varios esquemas fraudulentos, lo que resulta en pérdidas financieras.
Los estafadores pueden usar voces falsas para hacerse pasar por tus seres queridos y llamarte, fingiendo estar angustiado. Con un audio sintético que suena convincente, podrían instarte a enviar dinero urgentemente, lo que te convertiría en víctima de sus estafas. Un incidente informado por The Washington Post en marzo de 2023 ejemplifica este problema: los estafadores usaron voces falsas para convencer a las personas de que sus nietos estaban en la cárcel y necesitaban dinero...
Cómo detectar la desinformación propagada por IA
Combatir la difusión de desinformación facilitada por la IA es un problema apremiante en el mundo actual. Entonces, ¿Cómo puedes detectar información falsa creada por IA?
1. Acércate al contenido en línea con escepticismo. Si encuentras algo que parece manipulador o increíble, verifícalo mediante una verificación cruzada.
2. Antes de confiar en un artículo de noticias o una publicación en las redes sociales, asegúrate de que provenga de una fuente confiable.
3. Estate atento a los indicadores de deepfakes, como parpadeo o movimientos faciales no naturales, mala calidad de audio, imágenes distorsionadas o borrosas y falta de emoción genuina en el habla.
4. Usa sitios web de verificación de hechos para verificar la exactitud de la información.
Al seguir estos pasos, puedes identificar y protegerte de la información errónea impulsada por IA.
Cuidado con la desinformación difundida por IA
El software generativo ha jugado un papel crucial en el avance de la IA. Aún así, también pueden ser una importante fuente de desinformación en la sociedad. Estas herramientas asequibles han permitido que cualquiera pueda crear diferentes tipos de contenido utilizando sofisticado modeloss de IA; su capacidad para generar contenido en grandes cantidades e incorporar deepfakes los hace aún más peligrosos.
Es importante que seas consciente de los desafíos de la desinformación en la era de la IA. Comprender cómo se puede usar la IA para difundir noticias falsas es el primer paso para protegerse de la información errónea.