Clicky

Youtube tomará medidas drásticas contra los vídeos tóxicos

Categoría: Noticias de Internet
Visitas: 1342
Algoritmo de Youtube

Vídeos inocuos a menudo llevan a recomendaciones de contenido cada vez más extremo

Youtube está tratando de reducir la propagación de vídeos tóxicos en la plataforma al limitar la frecuencia con la que aparecen en las recomendaciones de los usuarios. La compañía anunció el cambio el viernes en una publicación de blog, y escribió que comenzaría a tomar medidas enérgicas contra el llamado "contenido límite" que se acerca a violar los estándares de su comunidad sin cruzar la línea.

"Comenzaremos a reducir las recomendaciones de contenido límite y el contenido que podría informar mal a los usuarios de manera dañina, como vídeos que promocionan una falsa curación milagrosa para una enfermedad grave, afirmar que la Tierra es plana o hacer afirmaciones descaradamente falsas sobre eventos históricos como el 9/11", escribió la empresa.

Estos son solo algunos ejemplos de la amplia gama de vídeos a los que podría dirigirse la nueva política. Según la publicación, el cambio debería afectar a menos del 1 por ciento de todos los vídeos en la plataforma.

Las compañías de medios sociales han sido objeto de fuertes críticas por su papel en la difusión de información errónea y extremismo en línea, recompensando dicho contenido y el compromiso que genera al enviarlo a más usuarios.

En noviembre, Facebook anunció planes para reducir la visibilidad de publicaciones sensacionales y provocativas en News Feed, independientemente de si violan explícitamente las políticas de la compañía.

Un portavoz de YouTube le dijo a WIRED que la compañía ha estado trabajando en su último cambio de política durante aproximadamente un año, diciendo que no tiene nada que ver con el cambio similar en Facebook. El portavoz destacó que el anuncio del viernes aún se encuentra en sus primeras etapas y que la compañía podría no captar todo el contenido límite de forma inmediata.

Durante el año pasado, YouTube ha gastado sustanciales recursos en tratar de limpiar su plataforma. Ha invertido en organizaciones de noticias y se ha comprometido a promocionar en su página principal solo los medios de comunicación "autorizados" durante los eventos de noticias de última hora. Se ha asociado con compañías como Wikipedia para verificar las teorías de conspiración comunes, e incluso se ha gastado millones de dólares patrocinando a creadores de vídeos que promueven el bien social.

El problema es que el algoritmo de recomendación de YouTube se ha capacitado a lo largo de los años para brindar a los usuarios más de lo que creen que quieren. Entonces, si un usuario observa muchas teorías de conspiración de extrema derecha, es probable que el algoritmo los guíe por un oscuro camino hasta llegar a más.

El año pasado, Jonathan Albright, director de investigación del Tow Center for Digital Journalism de la Universidad de Columbia, documentó cómo una búsqueda de “actores de crisis” después del tiroteo en Parkland, Florida, lo llevó a una red de 9.000 vídeos de conspiración. Una historia reciente de BuzzFeed mostró cómo incluso los vídeos inocuos a menudo llevan a recomendaciones de contenido cada vez más extremo.

Con este cambio, YouTube espera sacar a la gente de ese camino eliminando el contenido problemático de las recomendaciones. Pero implementar una política así es más fácil decirlo que hacerlo. El portavoz de YouTube dice que requerirá que los evaluadores de vídeos humanos de todo el mundo respondan una serie de preguntas sobre los vídeos que ven para determinar si los califican como contenido límite. Sus respuestas se utilizarán en el futuro para entrenar los algoritmos de YouTube para detectar dicho contenido. La compañía hermana de YouTube, Google, utiliza procesos similares para evaluar la relevancia de la búsqueda.

No está claro qué señales analizarán los evaluadores humanos y las máquinas para determinar qué vídeos constituyen contenido límite. El portavoz, que pidió no ser identificado, se negó a compartir detalles adicionales, excepto para decir que el sistema verá más que solo el idioma en el título y la descripción de un vídeo determinado.

Por mucho que estos cambios puedan mejorar plataformas como Facebook y YouTube, instituirlos sin duda invitará a nuevas oleadas de críticas públicas. La gente ya se apresura a afirmar que los gigantes de la tecnología están corrompidos por parcialidad partidista y están practicando la censura de puntos de vista.

Y eso es en un entorno donde tanto YouTube como Facebook han publicado sus pautas de la comunidad para que todos las vean. Han trazado líneas brillantes sobre lo que es y no es el comportamiento aceptable en sus plataformas, y aún se les ha acusado de aplicación irregular. Ahora, ambas compañías están, en cierto modo, borrando esas líneas, penalizando el contenido que aún no las ha cruzado.

YouTube no eliminará estos vídeos del sitio por completo y aún estarán disponibles en los resultados de búsqueda. El cambio tampoco se detendría, digamos, un 11 de septiembre desde que se suscribió a un canal que solo propaga conspiraciones. "Creemos que este cambio logra un equilibrio entre mantener una plataforma para la libertad de expresión y cumplir con nuestra responsabilidad para con los usuarios", se lee en la publicación del blog.

En otras palabras, YouTube, al igual que antes Facebook, está tratando de apaciguar a ambos lados del debate sobre la censura. Garantiza a las personas el derecho a publicar sus vídeos, simplemente no les garantiza una audiencia.