Clicky

El diseño de Facebook impide controlar la información errónea

Facebook

Eficacia de las políticas y la arquitectura de desinformación de Facebook sobre vacunas durante la pandemia de COVID-19

A medida que florecía la desinformación en línea durante la pandemia de COVID-19, varias plataformas anunciaron políticas y prácticas destinadas a combatir la difusión de información errónea. ¿Funcionaron esos esfuerzos?

Una investigación publicada en Science Advances sugiere que las políticas de desinformación sobre la vacuna para la COVID-19 de Facebook, la plataforma de redes sociales más grande del mundo, no fueron efectivas para combatir la desinformación. Investigadores de la Universidad Johns Hopkins contribuyeron al informe.

El estudio, dirigido por investigadores de la Universidad George Washington (GW), encontró que los esfuerzos de Facebook se vieron socavados por las características centrales de diseño de la propia plataforma.

"Hoy en día se presta mucha atención a las plataformas de redes sociales y la gobernanza de la inteligencia artificial. Sin embargo, esta discusión se centra principalmente en el contenido o los algoritmos. Para abordar eficazmente la desinformación y otros daños en línea, debemos ir más allá del contenido y los algoritmos para centrarnos también en el diseño y la arquitectura", dice David Broniatowski, autor principal del estudio y profesor asociado de gestión de ingeniería e ingeniería de sistemas en la GW.

"Nuestros resultados muestran que eliminar contenido o cambiar algoritmos puede ser ineficaz si no cambia para qué está diseñada la plataforma: permitir que los miembros de la comunidad se conecten en torno a intereses comunes (en este caso, las dudas sobre las vacunas) y encontrar información que les motive a buscar".

Facebook está diseñado para construir comunidades en torno a las cosas que le interesan a la gente. Para hacerlo, utiliza varias características arquitectónicas diferentes, incluidas páginas de fans que promocionan marcas y celebridades de la comunidad, lo que permite que un grupo relativamente pequeño de personas influyentes llegue a grandes audiencias.

Luego, estos influencers pueden formar grupos, que están diseñados explícitamente para construir comunidades, donde los miembros de la comunidad pueden intercambiar información, incluido cómo acceder a información errónea u otro contenido atractivo fuera de la plataforma.

Estos miembros del grupo, y especialmente los administradores del grupo (que a menudo son creadores de contenido de la página) pueden luego utilizar los algoritmos de suministro de noticias de Facebook para asegurarse de que esta información esté disponible para quienes quieran verla.

Los investigadores descubrieron que, si bien Facebook hizo un significativo esfuerzo para eliminar una gran cantidad de contenido antivacunas durante la pandemia de COVID-19, el compromiso general con el contenido antivacunas no disminuyó más allá de las tendencias anteriores y, en algunos casos, incluso aumentó.

"Este hallazgo (que las personas tenían las mismas probabilidades de interactuar con información errónea sobre las vacunas antes y después de los extensos esfuerzos de eliminación de Facebook) es increíblemente preocupante. Muestra la dificultad que enfrentamos como sociedad para eliminar la información errónea sobre salud de los espacios públicos", dice Lorien Abroms, autora del estudio y profesora de salud pública en la Escuela de Salud Pública del Instituto Milken de la GW.

En el contenido que no se eliminó, hubo un aumento en los enlaces a sitios fuera de la plataforma y de baja credibilidad y enlaces a información errónea en plataformas de redes sociales "alternativas" como Gab y Rumble, especialmente en grupos antivacunas.

Además, el contenido antivacunas restante en Facebook se volvió más (no menos) desinformativo y contenía falsas y sensacionalistas afirmaciones sobre los efectos secundarios de las vacunas que a menudo eran demasiado nuevas para ser verificadas en tiempo real. También hubo "daños colaterales", dicen los investigadores, ya que el contenido a favor de las vacunas también pudo haber sido eliminado como resultado de las políticas de la plataforma y, en general, el contenido relacionado con las vacunas se volvió más polarizado políticamente.

Además, los productores de contenidos antivacunas utilizaron la plataforma de forma más eficaz que los productores de contenidos provacunas. Aunque ambos tenían grandes redes de páginas, los productores de contenido antivacunas coordinaban de manera más efectiva la entrega de contenido entre páginas, grupos y canales de noticias de los usuarios.

Incluso cuando Facebook modificó sus algoritmos y eliminó contenido y cuentas para combatir la desinformación sobre vacunas, los investigadores dicen que retrocedió la arquitectura de la plataforma.

"Piensa en la arquitectura de Facebook como si fuera un edificio. Un aeropuerto está diseñado para dirigir a las personas para que puedan llegar y salir de las puertas de manera fácil y segura, y un estadio está diseñado para reunir de manera segura a un grupo de personas para un espectáculo. Si estos edificios no estuvieran diseñados para equilibrar los viajes y el entretenimiento con la seguridad, la gente podría resultar herida de forma rutinaria", afirma Broniatowski.

"Ahora piense en la estructura de Facebook de la misma manera: está diseñada para permitir que personas motivadas creen comunidades e intercambien fácilmente información sobre cualquier tema".

"Las personas que están muy motivadas para encontrar y compartir contenido antivacunas simplemente están usando el sistema de la forma en que fue diseñado, lo que dificulta equilibrar esos comportamientos con la salud pública u otras preocupaciones de seguridad pública. Tienes que cambiar la arquitectura si quieres crear ese equilibrio".

El trabajo de Broniatowski sugiere que los diseñadores de plataformas de redes sociales podrían promover la salud y la seguridad públicas trabajando en colaboración para desarrollar un conjunto de "códigos de construcción" para sus plataformas que se basen en evidencia científica para reducir los daños en línea.

"Los arquitectos de la construcción tienen que equilibrar los objetivos de diseño de un edificio con el cumplimiento de las normas para proteger a las personas que lo utilizan", explica.

"Deben diseñarse para promover la seguridad pública cumpliendo con los códigos de incendios, inundaciones, contaminación y terremotos. Deben promover la seguridad incorporando características de diseño como entradas, salidas y torniquetes accesibles y bien señalizados para evitar el vandalismo, el pánico, el terrorismo y los disturbios. Tienen que promover la salud pública cumpliendo con los códigos de fontanería, saneamiento y ventilación, y deben diseñarse para respetar los códigos municipales como el ruido y otras ordenanzas molestas".

"Estas reglas generalmente se desarrollan mediante una asociación entre la industria, el gobierno y las organizaciones comunitarias, y se basan en ciencia y práctica sólidas. Las estrategias de gobernanza podrían facilitar estas asociaciones y respaldar la ciencia".

Según los investigadores, esta es la primera y única evaluación científica de la eficacia del intento de la plataforma de redes sociales más grande del mundo de eliminar sistemáticamente información errónea y cuentas desinformativas.

El estudio se titula "The Efficacy of Facebook's Vaccine Misinformation Policies and Architecture During The COVID-19 Pandemic"