Critica las reglas de contenido de Facebook como vagas e incompletas

La organización independiente penó a Facebook en cuatro de los primeros cinco casos. El fallo de Trump aún está por llegar

La nueva Junta de Supervisión de Facebook (Oversight Board, en español Consejo asesor de contenido ) encontró que las políticas de moderación de contenido de la compañía eran vagas y mal comunicadas en su primer conjunto de decisiones publicadas el jueves , anulando las acciones de la compañía en cuatro de los cinco casos que decidió en su ronda inicial de casos.

Las acciones cubrieron una variedad de problemas que han molestado a las empresas de redes sociales (presunto discurso de odio, información errónea sobre el coronavirus y referencias a organizaciones y personas peligrosas) e incluyeron un caso en el que un sistema de detección automatizado reaccionó aparentemente de forma exagerada ante una imagen de un pezón femenino descubierto en un campaña de concienciación sobre el cáncer de mama.

En conjunto, los fallos sugieren que la Junta de Supervisión exigirá una mayor claridad y transparencia de Facebook en la pequeña parte de los casos que elija revisar. La junta también está sopesando la expulsión de Facebook del presidente Donald Trump luego de los disturbios del 6 de enero en el Capitolio de Estados Unidos, aunque no es probable que se tome una decisión en ese caso hasta dentro de meses. Los cinco casos decididos el jueves todos datan de octubre o noviembre del año pasado.

"A menudo encontramos que los estándares de la comunidad tal como están escritos son incompletos", dijo el miembro de la junta Sudhir Krishnaswamy, vicerrector de la Escuela Nacional de Derecho de la Universidad de India, en una entrevista con The Washington Post .

Añadió que los contextos culturales y lingüísticos de los usuarios de todo el mundo pueden dificultar la moderación y que la naturaleza caso por caso del desarrollo de políticas de Facebook puede haber obstaculizado la creación de políticas claras y coherentes a lo largo del tiempo. Dijo que es probable que la demanda de la Junta de Supervisión de una mejor explicación y un mayor rigor ayude a impulsar mejores políticas en general y puede mejorar el enfoque de otras empresas de tecnología.

"Sospecho que [una revisión tan cuidadosa] no ha sucedido antes con ninguna de las empresas", dijo Krishnaswamy. "Sospecho que este es un gran problema con las redes sociales en Internet".

La junta emitió nueve recomendaciones de política además de los fallos. Facebook tiene siete días para restaurar el contenido eliminado, pero la compañía dijo el jueves por la mañana que ya había actuado para restaurar el contenido en los cuatro casos en los que sus acciones fueron anuladas. También buscará ver si se debe restaurar contenido similar de otros usuarios y considerará las recomendaciones de política de la junta.

"Creemos que la junta incluyó algunas sugerencias importantes que tomaremos en serio", dijo Monika Bickert, vicepresidenta de política de contenido, en una publicación de blog de Facebook . "Sus recomendaciones tendrán un impacto duradero en cómo estructuramos nuestras políticas".

Los seis casos se seleccionaron entre 150.000 envíos de cuatro continentes de diferentes instancias donde los usuarios creían que el contenido se había eliminado injustamente.

"Ninguno de estos casos tuvo respuestas fáciles, y las deliberaciones revelaron la enorme complejidad de los problemas involucrados", dijo la Junta en una publicación de blog el jueves por la mañana resumiendo sus acciones.

La Junta, que se lanzó el año pasado y está financiada por Facebook, está destinada a funcionar como un "Tribunal Supremo" donde se pueden tomar las decisiones más difíciles sobre la libertad de expresión en línea y se considera una alternativa potencial a la regulación de la industria de las redes sociales que está siendo considerado por gobiernos de todo el mundo, incluido Estados Unidos. Está compuesta por 20 miembros , incluido un ex primer ministro, un premio Nobel, así como periodistas y expertos legales de 16 países.

La Junta tiene el poder de hacer que Facebook cambie sus decisiones de contenido sobre temas específicos, pero ha sido criticada porque no puede cambiar directamente las políticas de Facebook en el futuro. La Junta puede emitir recomendaciones para cambios de políticas que podrían afectar a miles de millones de usuarios en el futuro, pero Facebook no está obligado a implementarlas.

En una entrevista, el miembro de la junta John Samples, vicepresidente del centro de estudios de tendencia libertaria Cato Institute, dijo que las decisiones anunciadas el jueves muestran que "la junta no está dispuesta a dejar que Facebook se salga del anzuelo".

Dijo que esperaba que la junta demostrara que un modelo para la gobernanza justa de las redes sociales podría existir fuera de la regulación gubernamental, y que se sintió atraído por la idea de dar forma a un sistema para la expresión en línea que aún estaba en evolución. "Este es un avance de 10 años hacia lo que esperamos sea la respuesta correcta".

La idea de una junta de supervisión externa fue planteada por primera vez por el director ejecutivo de Facebook, Mark Zuckerberg en 2018. Dijo en ese momento que no creía que tuviera sentido que las decisiones de contenido crítico se concentraran en las manos de una sola empresa. Zuckerberg ha prometido acatar los fallos de la junta, que la empresa denominó "decisiones vinculantes" en la publicación de su blog el jueves, pero no tiene ninguna obligación legal de hacerlo.

Zuckerberg ha dicho que apoya la regulación gubernamental de la industria de las redes sociales, que la administración de Biden y otros gobiernos están considerando mientras luchan con compañías que tienen un enorme poder para controlar la libre expresión de miles de millones de personas.

Los funcionarios y legisladores de todo el mundo que buscan diseñar nuevos marcos para regular la industria de las redes sociales están observando de cerca a la Junta. Si se considera un éxito, puede reducir las demandas de regulación. Si falla, la decisión puede acelerar las demandas para crear barreras legales más estrictas para la moderación del contenido en muchos países.

Facebook y otras compañías de redes sociales durante el último año han sido más agresivas que nunca sobre la vigilancia del discurso y han promulgado políticas por primera vez que prohíben la información errónea sobre el coronavirus y sobre las elecciones presidenciales de Estados Unidos. Estos esfuerzos sin precedentes, aunque en gran medida fracasaron en la prevención de la difusión de información errónea, han hecho que sean aún más urgentes las preguntas sobre el papel de las empresas privadas en la vigilancia del contenido.

La Junta de Supervisión opera a través de paneles de cinco personas, uno de los cuales debe ser de la región donde se origina un caso en particular. La junta y su personal seleccionan los casos, no Facebook. Luego, los paneles revisan los comentarios sobre cada caso, consultan a expertos y hacen recomendaciones a la junta en pleno, que toma las decisiones finales por mayoría de votos. Hasta ahora, las deliberaciones se han realizado en línea debido a las restricciones relacionadas con la pandemia para viajar y reunirse en persona.

En uno de los cinco casos que se hicieron públicos el jueves, la junta confirmó la decisión de Facebook de eliminar una publicación que se refería a azerbaiyanos por lo que la junta acordó que era un "insulto deshumanizante que ataca el origen nacional". Dijo que la acción aplicó correctamente las políticas de Facebook para proteger la seguridad y la dignidad de las personas, incluso si tales acciones socavan la "voz" de un usuario.

Pero la junta encontró problemas en otros cuatro casos, incluido el que eliminó imágenes de pezones en la campaña de concientización sobre el cáncer de mama en Brasil. Un sistema automatizado tomó esta acción en Instagram, propiedad de Facebook, y la compañía ya la había revertido. La compañía ya cuenta la "conciencia del cáncer de mama" como una excepción a su política que prohíbe la desnudez, pero la junta continuó revisando el caso para señalar que los sistemas automatizados de Facebook son problemáticos.

Un caso de incitación al odio se refería a una publicación de un usuario en Myanmar que sugería que "algo anda mal con los musulmanes (o los hombres musulmanes) psicológicamente o con su forma de pensar". Pero la junta cuestionó la precisión de la traducción de la publicación por parte de Facebook y dictaminó que su contexto completo "no defendía el odio ni incitaba intencionalmente a ninguna forma de daño inminente".

De manera similar, la junta encontró que el usuario que citó incorrectamente a Joseph Goebbels, un jefe de propaganda nazi, de hecho no violó la política de Facebook sobre personas y organizaciones peligrosas porque la cita no respaldaba la ideología o acciones nazis. La junta también pidió a Facebook que aclare a los usuarios qué declaraciones violarían esta política y que proporcione ejemplos.

En otro caso, la junta descubrió que Facebook eliminó incorrectamente un contenido en el que un usuario criticaba las políticas del gobierno francés sobre el coronavirus. En la publicación prohibida, el usuario se quejaba de que la negativa del gobierno francés a autorizar los medicamentos contra la malaria hidroxicloroquina y azitromicina era problemática porque esos medicamentos "se estaban utilizando en otros lugares para salvar vidas".

Facebook eliminó la publicación con el argumento de que alentar a las personas a tomar un medicamento no probado para el covid-19 podría causar un daño inminente a las personas.

La junta anuló esa determinación, argumentando que Facebook no definió ni demostró cómo alentar a las personas a tomar un medicamento que no se puede obtener sin receta en Francia podría causar un daño "inminente". La junta también dijo que Facebook no había creado reglas claras para la desinformación de la salud, y señaló que no era lógico que la red social equipara cada pieza de información errónea sobre los tratamientos o curas del covid-19 como "necesariamente subiendo al nivel de daño inminente". Las propias políticas de Facebook dicen que se necesita un contexto adicional antes de que la compañía elimine contenido por tales motivos, señaló la junta en su decisión.

La junta también recomendó que Facebook cree un sistema de cumplimiento más matizado para abordar la desinformación relacionada con el coronavirus y la salud, una recomendación que Facebook puede adoptar voluntariamente si así lo desea.