Clicky

Bots de Facebook para combatir el mal comportamiento

bots de Facebook

Ingenieros de Facebook desarrollan el programa Simulación activada por la Web (WES)

Como la red social más grande del mundo, Facebook ofrece interminables horas de discusión, entretenimiento, noticias, vídeos y buenos momentos para los más de 2.600 millones de usuarios.

También es propicio para actividades maliciosas, ataques de bots, estafas y discursos de odio.

En un esfuerzo por combatir el mal comportamiento, Facebook ha desplegado un ejército de bots en una versión simulada de la red social para estudiar su comportamiento y rastrear cómo se convierten en actividad antisocial.

Basándose en los principios del aprendizaje automático, la inteligencia artificial, la teoría de juegos y los sistemas multiagente, los ingenieros de Facebook desarrollaron el programa, Simulación activada por la Web (WES), una réplica de Facebook a gran escala y muy realista.

Esperan remediar el crecimiento explosivo del acoso en línea, especialmente en esta era de desinformación política, teorías de conspiración chifladas y discursos de odio.

Los robots de WES están entrenados para interactuar entre ellos, enviando mensajes, comentando publicaciones y haciendo solicitudes de amistad. No pueden interactuar con usuarios reales.

Mark Harman, el principal científico investigador de Facebook que el jueves publicó un resumen del esfuerzo de WES en un blog, explicó: "El enfoque de WES puede explorar automáticamente escenarios complicados en un entorno simulado. Si bien en este momento el proyecto se encuentra en una etapa de solo investigación, la esperanza es que algún día nos ayudará a mejorar nuestros servicios y detectar posibles problemas de confiabilidad o integridad antes de que afecten a personas reales que usan la plataforma".

Millones de bots con diferentes objetivos se pueden implementar en el sistema experimental. Algunos, por ejemplo, intentarán comprar artículos que no están permitidos en el sitio, como armas o drogas. Los investigadores rastrearán los patrones aplicados por los bots mientras realizan búsquedas, visitan páginas y replican acciones que los humanos podrían tomar.

Luego evaluarán varias contramedidas para ver cuáles detienen más eficazmente o incluso evitan los comportamientos indeseables.

Harmon comparó su enfoque con el de los ingenieros de tránsito que buscan medios para crear caminos más seguros. Para frenar los deslizadores, por ejemplo, los urbanistas pueden instalar más señales de stop. Si esa medida es insuficiente, se pueden instalar baches en el camino. Con los comportamientos de Facebook, las contramedidas podrían incluir limitar la frecuencia de comentarios en publicaciones o aplicar la verificación de hechos a publicaciones de conspiración cuestionables.

"Aplicamos 'reducciones de velocidad' a las acciones y observaciones que nuestros bots pueden realizar", dijo Harman, "y explorar rápidamente los posibles cambios que podríamos hacer en los productos para inhibir el comportamiento dañino sin dañar el comportamiento normal".

El proyecto se encuentra en etapas de investigación. Aún no se han realizado cambios en la plataforma real de Facebook, aunque los investigadores dicen que se introducirán modificaciones tan pronto como confirmen que los comportamientos correctivos del bot imitan el comportamiento humano con un grado suficientemente alto de precisión y confiabilidad.

WES se conoce cariñosamente como dub-dub. El apodo se deriva de una abreviatura de la pronunciación de "WW" ("dub" en lugar de "double-u"), una versión truncada de "WWW" o World Wide Web. WES es una versión abreviada de la World Wide Web, por lo tanto, se hace referencia a ella con solo dos W.

El experimento puede recordar un proyecto reciente abandonado por Facebook cuando ocurrió un giro inesperado de los acontecimientos. En un experimento de 2017 que buscaba enseñar a los chatbots cómo negociar entre ellos, los investigadores dejaron a dos chatbots solos para ver cómo progresarían sus negociaciones. Pero cuando regresaron los investigadores del Laboratorio de Investigación de AI de Facebook, se sorprendieron al descubrir que los chatbots, Alice y Bob, se salieron del guión y de hecho inventaron un nuevo lenguaje.

Los investigadores, quizás teniendo en cuenta la severa advertencia del físico Stephen Hawking de que la fría AI "despega por sí sola y se rediseña a un ritmo cada vez mayor" y "podría significar el fin de la raza humana", terminaron abruptamente el experimento.

Jesus_Caceres