El algoritmo de búsqueda de YouTube dirige a los espectadores a videos falsos y sexualizados, según un estudio

El algoritmo de búsqueda de YouTube dirige a los espectadores a videos falsos y sexualizados, según un estudio

YouTube ha instituido muchos cambios durante el año pasado para limitar los videos problemáticos que recomienda a los espectadores. Un nuevo estudio sugiere que las reparaciones tienen mucho camino por recorrer.

La Fundación Mozilla, una organización de software sin fines de lucro, descubrió que el poderoso motor de recomendaciones de YouTube continúa dirigiendo a los espectadores a videos que, según dicen, muestran afirmaciones falsas y contenido sexualizado, y los algoritmos de la plataforma sugieren el 71% de los videos que los participantes encontraron objetables.

Un estudio destaca el desafío continuo del alfabeto C ª.

GOOG 0,82%

La subsidiaria YouTube choca mientras intenta vigilar el contenido generado por el usuario que lo convirtió en el servicio de video líder en el mundo. Es emblemático de la lucha que sacude las plataformas desde Facebook Inc. hasta Twitter. C ª.,

que saltó a la fama alentando a las personas a compartir información, pero ahora enfrentan presiones regulatorias y sociales para controlar el contenido divisivo, engañoso y peligroso sin censurar opiniones diversas.

Para YouTube, también muestra lagunas en sus esfuerzos por dirigir a los usuarios a videos que deberían ser de interés según los patrones de audiencia, a diferencia de los que se están volviendo virales por otras razones.

En el estudio, uno de los más grandes de su tipo, 37.000 voluntarios utilizaron una extensión de navegador que rastreó su uso de YouTube durante un período de 10 meses que finalizó en mayo. Cuando un participante marcó un video como problemático, la extensión pudo rastrear si se lo recomendó al espectador o si la persona lo encontró de forma independiente. Los videos marcados como objetables por los participantes incluían una parodia sexualizada de “Toy Story” y un video electoral que sugería falsamente a Microsoft Corp.

El fundador Bill Gates contrató a estudiantes involucrados con Black Lives Matter para contar las boletas en los estados de batalla.

Luego, YouTube eliminó 200 videos que los participantes marcaron como favoritos, que acumularon más de 160 millones de visitas antes de ser eliminados, según Mozilla.

Un portavoz de YouTube dijo que la compañía ha reducido las recomendaciones de contenido que define como dañino a menos del 1% de los videos vistos. Dijo que implementó 30 cambios durante el año pasado para abordar el problema. El equipo de seguridad de la compañía dice que su sistema automatizado ahora detecta el 94% de los videos que violan las políticas de YouTube y elimina la mayoría de ellos antes de que reciban 10 vistas.

“El objetivo de nuestro sistema de recomendaciones es conectar a los espectadores con el contenido que aman”, dijo el vocero.

YouTube utiliza el aprendizaje automático para intentar capturar videos que violan sus políticas antes de que los espectadores los vean.

Foto:
Joseph Okpako / Getty Images

YouTube ha sido perseguido durante años por preocupaciones sobre los peligros de los videos en su sitio, incluso para los niños. El año pasado, eliminó los canales que promocionan QAnon y otras teorías de conspiración que, según dijo, podrían provocar daños en el mundo real.

La compañía atribuye más de dos tercios de los mil millones de horas de visualización diarias que ayudaron a generar $ 19.7 mil millones en ingresos el año pasado a su algoritmo de recomendación. Esos videos (720,000 horas de video se cargan diariamente) no son revisados ​​por moderadores humanos antes de su publicación, como parte de un esfuerzo de larga data para priorizar las cargas de los usuarios y controlar los costos.

El resultado es un sistema Whac-A-Mole en el que YouTube utiliza el aprendizaje automático para intentar capturar videos que violan sus políticas antes de que los espectadores los vean. Desde 2019, dice la compañía, sus algoritmos de vigilancia han reducido el llamado contenido límite en un 70%.

La gerente senior de Mozilla, Brandi Geurkink, quien dirigió el estudio, dijo que la investigación acentuó lo que ella llamó una contradicción inherente entre los algoritmos de YouTube, con un conjunto recomendando videos problemáticos mientras que otro tratando de eliminarlos. Señaló que los participantes rara vez informaron haber encontrado videos problemáticos cuando buscaron contenido por su cuenta, pero su algoritmo recomendó cosas que no querían ver.

“Si los usuarios dicen, ‘Estas recomendaciones no funcionan para nosotros’, ¿quién es el servicio de algoritmos de recomendación?” Dijo la Sra. Geurkink.

La compañía dice que sus encuestas muestran que los usuarios generalmente están satisfechos con lo que recomienda.

Mozilla posee y opera el navegador de Internet Firefox, que compite con el navegador Chrome de Alphabet para los usuarios y la publicidad gráfica. Un acuerdo de licencia relacionado con el navegador representa más de la mitad de la financiación de la Fundación Mozilla.

Entre los otros hallazgos del estudio está que los videos que los participantes consideraron objetables tenían un 60% más de probabilidades de ser recomendados en países donde el inglés no es el idioma principal, particularmente en Brasil, Alemania y Francia.

Más de una quinta parte de los videos fueron marcados por lo que los participantes clasificaron como información errónea, a menudo sobre temas políticos o Covid-19, el 10% por discurso de odio y el 7% por contenido sexual.

YouTube se niega a proporcionar información pública sobre cómo funciona su algoritmo de recomendación, porque lo considera propietario. Como resultado, estudiarlo puede resultar difícil. Mozilla intentó superar ese obstáculo creando la extensión del navegador y reclutando participantes para proporcionar un conjunto de datos independientes a gran escala.

Escribir a Tripp Mickle en [email protected]

Búsqueda de YouTube

Más cobertura de la potencia del video, seleccionada por los editores

Copyright © 2020 Dow Jones & Company, Inc. Todos los derechos reservados. 87990cbe856818d5eddac44c7b1cdeb8

Esta nota es parte de la red de Wepolis y fué publicada por Corresponsal Americas el 2021-07-07 09:02:23 en:

Link a la nota original

Palabras clave:
#algoritmo #búsqueda #YouTube #dirige #los #espectadores #videos #falsos #sexualizados #según #estudio

About the author

Pretium lorem primis senectus habitasse lectus donec ultricies tortor adipiscing fusce morbi volutpat pellentesque consectetur risus molestie curae malesuada. Dignissim lacus convallis massa mauris enim mattis magnis senectus montes mollis phasellus.