Las redes sociales están fomentando una cultura de odio hacia otros grupos
El fundador y director ejecutivo de Meta, Mark Zuckerberg, ha anunciado grandes cambios en la forma en que la empresa aborda la desinformación en Facebook, Instagram y Threads.
En lugar de depender de verificadores de datos independientes, Meta ahora emulará a X (anteriormente Twitter) de Elon Musk al utilizar "Notas de la Comunidad". Estas contribuciones de colaboración colectiva permiten a los usuarios señalar contenido que consideren cuestionable.
Zuckerberg afirmó que estos cambios promueven la "libertad de expresión", pero algunos expertos temen que esté cediendo a la presión política de derechas y que, en la práctica, permita que se propague un aluvión de discursos de odio y mentiras en las plataformas Meta.
Las investigaciones sobre la dinámica de grupos en las redes sociales sugieren que esos expertos tienen razón.
A primera vista, las notas comunitarias pueden parecer democráticas y reflejar los valores de la libertad de expresión y las decisiones colectivas. Los sistemas de colaboración colectiva como Wikipedia, Metaculus y PredictIt, aunque imperfectos, suelen aprovechar la sabiduría de las multitudes, donde el juicio colectivo de muchos a veces puede superar incluso al de los expertos.
Las investigaciones demuestran que los diversos grupos que reúnen opiniones y estimaciones independientes pueden ser sorprendentemente eficaces a la hora de discernir la verdad. Sin embargo, las multitudes sabias rara vez tienen que enfrentarse a los algoritmos de las redes sociales.
Muchas personas dependen de plataformas como Facebook para obtener información, lo que les expone a estar expuestas a información errónea y a fuentes sesgadas. Depender de los usuarios de las redes sociales para vigilar la veracidad de la información podría polarizar aún más las plataformas y amplificar las voces extremistas.
Dos tendencias grupales —nuestra necesidad psicológica de clasificarnos a nosotros mismos y a los demás en grupos— son de particular preocupación: el sesgo de grupo propio/grupo ajeno y la acrofilia (el amor por los extremos).
Sesgo de endogrupo/exogrupo
Los seres humanos tienen sesgos en la forma en que evalúan la información. Las personas tienen más probabilidades de confiar y recordar la información de su endogrupo (aquellos que comparten sus identidades) mientras que desconfían de la información de los grupos percibidos como exogrupos. Este sesgo conduce a cámaras de eco, donde personas con ideas afines refuerzan creencias compartidas, independientemente de su exactitud.
Puede parecer racional confiar en familiares, amigos o colegas antes que en extraños, pero las fuentes del grupo interno suelen tener perspectivas y experiencias similares, y ofrecen poca información nueva. Por otro lado, los miembros del grupo externo tienen más probabilidades de ofrecer puntos de vista diversos. Esta diversidad es fundamental para la sabiduría de las masas.
Pero un exceso de desacuerdo entre grupos puede impedir que la comunidad verifique los datos. Muchas Notas de la Comunidad en X (antes Twitter), como las relacionadas con las vacunas contra la COVID, probablemente nunca se mostraron públicamente porque los usuarios no estaban de acuerdo entre sí. El beneficio de la verificación de datos por parte de terceros fue proporcionar una fuente externa objetiva, en lugar de necesitar un acuerdo generalizado de los usuarios de una red.
Peor aún, estos sistemas son vulnerables a la manipulación por parte de grupos bien organizados con agendas políticas. Por ejemplo, se dice que los nacionalistas chinos organizaron una campaña para editar las entradas de Wikipedia relacionadas con las relaciones entre China y Taiwán para que fueran más favorables a China.
Imagen: Las opiniones extremas y negativas reciben más atención en línea, lo que distancia a las comunidades de las redes sociales.
Polarización política y acrofilia
De hecho, la política intensifica estas dinámicas. En Estados Unidos, la identidad política domina cada vez más la forma en que las personas definen sus grupos sociales.
Los grupos políticos se sienten motivados a definir "la verdad" de maneras que los benefician y perjudican a sus oponentes políticos. Es fácil ver cómo los esfuerzos organizados para difundir mentiras con motivaciones políticas y desacreditar verdades incómodas podrían corromper la sabiduría de las multitudes en las notas comunitarias de Meta.
Las redes sociales aceleran este problema a través de un fenómeno llamado acrofilia, o preferencia por lo extremo. Las investigaciones muestran que las personas tienden a interactuar con publicaciones ligeramente más extremas que sus propias opiniones.
Es más probable que estas publicaciones cada vez más extremas sean negativas que positivas. Los psicólogos saben desde hace décadas que lo malo atrae más que lo bueno. Estamos programados para prestar más atención a las experiencias e información negativas que a las positivas.
En las redes sociales, esto significa que las publicaciones negativas (sobre violencia, desastres y crisis) reciben más atención, a menudo a expensas de contenido más neutral o positivo.
Quienes expresan estas opiniones extremas y negativas ganan estatus dentro de sus grupos, atraen más seguidores y amplifican su influencia. Con el tiempo, la gente empieza a considerar normales estas opiniones ligeramente más extremas y, poco a poco, van desplazando sus propias opiniones hacia los polos opuestos.
Un reciente estudio de 2,7 millones de publicaciones en Facebook y Twitter descubrió que los mensajes que contenían palabras como "odio", "ataque" y "destruir" se compartían y obtenían "me gusta" en tasas más altas que casi cualquier otro contenido. Esto sugiere que las redes sociales no sólo están amplificando opiniones extremas, sino que también están fomentando una cultura de odio hacia otros grupos que socava la colaboración y la confianza necesarias para que funcione un sistema como las notas comunitarias.
El camino a seguir
La combinación de sesgo de negatividad, sesgo de pertenencia al grupo y de pertenencia al grupo contrario y acrofilia potencia uno de los mayores desafíos de nuestro tiempo: la polarización. A través de la polarización, las opiniones extremas se normalizan, erosionando el potencial de entendimiento compartido a través de las divisiones grupales.
Las mejores soluciones, que Colin M. Fisher analiza en su próximo libro, "The Collective Edge", comienzan por diversificar nuestras fuentes de información. En primer lugar, las personas deben interactuar con diferentes grupos y colaborar entre ellos para romper las barreras de la desconfianza. En segundo lugar, deben buscar información en múltiples medios informativos y de noticias fiables, no sólo en las redes sociales.
Sin embargo, los algoritmos de las redes sociales suelen actuar en contra de estas soluciones, creando cámaras de eco y atrapando la atención de las personas. Para que las notas comunitarias funcionen, estos algoritmos deberían priorizar fuentes de información diversas y confiables.
Si bien las notas comunitarias podrían, en teoría, aprovechar la sabiduría de las multitudes, su éxito depende de superar estas vulnerabilidades psicológicas. Tal vez una mayor conciencia de estos sesgos pueda ayudarnos a diseñar mejores sistemas o a empoderar a los usuarios para que utilicen las Notas de la Comunidad para promover el diálogo entre las partes. Solo así las plataformas podrán acercarse a la solución del problema de la desinformación.