Clicky

La supresión de Meta de la verificación de datos permitiría más contenido falso o engañoso

Meta

¿Un reposicionamiento de la empresa de cara a la investidura del presidente electo Donald Trump?

El alejamiento de Meta de la verificación de hechos en las prácticas de moderación de contenido podría potencialmente permitir más discursos de odio o desinformación, dice un experto en redes sociales de la Northeastern University.

Meta está adoptando un modelo similar al utilizado por X, llamado Notas de la Comunidad.

John Wihbey, profesor asociado de innovación y tecnología de los medios de comunicación en la Universidad Northeastern, considera que esta medida es un reposicionamiento de la empresa de cara a la investidura del presidente electo Donald Trump. Pero la verificación de datos por parte de terceros, si bien es difícil de aplicar en una plataforma con miles de millones de usuarios, "es un importante símbolo del compromiso con la confianza, la seguridad y la integridad de la información", afirma Wihbey.

"Es peligroso", dice, romper con esas normas en un momento en que "los vientos del populismo autoritario soplan en todo el mundo".

En un mensaje de vídeo, el fundador y director ejecutivo de Meta, Mark Zuckerberg, describió el cambio como parte de un esfuerzo por "volver a nuestras raíces en torno a la libertad de expresión", señalando, entre otras cosas, que el sistema de verificación de datos de la empresa ha resultado en "demasiados errores y demasiada censura".

También citó las elecciones presidenciales de 2024, describiendo la elección de Trump como un "punto de inflexión cultural" hacia "priorizar una vez más la expresión".

En X, el modelo de Notas de la comunidad utiliza aportes colectivos de los usuarios para verificar publicaciones, generalmente en forma de contexto agregado. Wihbey describió el anuncio de Zuckerberg como confuso, señalando que los verificadores de datos externos de Meta desempeñaron un papel mínimo en la moderación diaria en comparación con sus sofisticadas herramientas algorítmicas, que a veces pueden resultar en falsos positivos o negativos.

Como parte del cambio de política, Meta dice que reducirá sus algoritmos de moderación de contenido.

Además, la compañía dice que quiere adoptar un enfoque más laissez-faire (dejar hacer) respecto del contenido cívico o político después de endurecer los controles en los últimos años para frenar la propagación de información errónea y desinformación.

"En los últimos años hemos desarrollado sistemas cada vez más complejos para gestionar el contenido en nuestras plataformas, en parte como respuesta a la presión social y política para moderar el contenido", dijo la compañía en un comunicado. "Este enfoque ha ido demasiado lejos. Por bien intencionados que hayan sido muchos de estos esfuerzos, se han expandido con el tiempo hasta el punto en que estamos cometiendo demasiados errores, frustrando a nuestros usuarios y con demasiada frecuencia obstaculizando la libre expresión que nos propusimos permitir".

Los cambios de política podrían tener efectos posteriores, no sólo en Estados Unidos sino en otras partes del mundo, advierte Wihbey, cuyo próximo libro, "Governing Babel: The Debate over Social Media Platforms and Free Speech—and What Comes Next", profundiza en la moderación de contenidos y la libertad de expresión.

"La analogía que yo utilizaría es que están eliminando a la policía y al mismo tiempo abriendo las compuertas a la delincuencia", dice Wihbey. "Y esa es una combinación peligrosa".

"Creo que es un verdadero paso atrás en términos de confianza, seguridad e integridad de la plataforma", añade. "Al mismo tiempo, comprendo pragmáticamente por qué Mark Zuckerberg y sus líderes están avanzando en esta dirección".

Sin embargo, Wihbey describió el cambio de política como una decisión miope porque está demasiado centrada en el mercado estadounidense. Los productos de Meta, señala, se utilizan en todo el mundo y representan unos 134.900 millones de dólares en ingresos globales.

"El conjunto de productos Meta, que incluye Facebook, Instagram y WhatsApp Messenger, es muy, muy importante para la sociedad civil, el debate político, el trabajo en defensa de los derechos humanos y el periodismo, por lo que esto tendrá muchas consecuencias de segundo orden más allá de las costas de Estados Unidos", afirma Wihbey.

Wihbey señala que, dado que Estados Unidos está dispuesto a prohibir TikTok, otros países pueden sentirse envalentonados para excluir a las plataformas con sede en Estados Unidos.

Dado que la política aún no se ha implementado, queda por ver cómo se desarrollarán estos cambios. Wihbey dice que el modelo de Notas de la comunidad de X sufre muchos de los mismos problemas que los verificadores de datos de terceros, incluidos problemas de escala, puntualidad y consenso de los usuarios entre los partidos.

"El tema principal aquí es el contradiscurso, que consiste en: ¿Cómo se crea o presenta información adicional (etiquetas de contenido, por ejemplo) o diferentes puntos de vista en torno a una afirmación particular?", dice Wihbey.

"Preferiría ver regímenes mixtos, donde haya profesionales y usuarios comunes, pero que también se incorporen expertos que aporten conocimiento real", añade.

Otra posibilidad, dice Wihbey, es que Meta pueda estar trabajando simultáneamente en soluciones basadas en IA que puedan servir para llenar los vacíos.

"La verdadera historia será la de las formas muy poderosas e invisibles en que utilizan las herramientas de IA para intentar mantener a raya los problemas, pero también permitir que la expresión florezca en la plataforma", dice Wihbey. "Es un complicado equilibrio".

Jesus_Caceres