O algoritmo do YouTube recomenda vídeos que violam suas próprias políticas

Por

Imagem padrão do novo cientista

O algoritmo que o YouTube usa recomenda vídeos que não seguem as diretrizes da empresa

Marvin Tolentino / Alamy

O algoritmo do YouTube recomenda vídeos que violam as próprias políticas da empresa sobre conteúdo impróprio, de acordo com um estudo de crowdsourcing.

A empresa sem fins lucrativos Mozilla pediu aos usuários de seu navegador Firefox que instalassem uma extensão do navegador chamada RegretsReporter, que rastreia os vídeos do YouTube que eles assistiram, e perguntou se eles se arrependiam de assistir a cada vídeo.

Entre julho de 2020 e maio de 2021, 37.380 usuários sinalizaram 3.362 vídeos que viram como lamentáveis ​​- uma fração de 1 por cento de todos os que assistiram. Os relatos desses vídeos foram os mais altos no Brasil, com cerca de 22 vídeos em cada 10.000 vistos sendo registrados como lamentáveis.

Os pesquisadores então assistiram aos vídeos relatados e os compararam com as diretrizes de conteúdo do YouTube; eles descobriram que 12,2 por cento dos vídeos relatados não deveriam estar no YouTube, ou não deveriam ser recomendados por meio de seu algoritmo, dizem os pesquisadores da Mozilla.

Cerca de um quinto dos vídeos reportados cairiam no que as regras do YouTube classificam como desinformação, e outros 12 por cento espalharam desinformação covid-19, dizem os pesquisadores. Outros problemas sinalizados na pesquisa incluem conteúdo violento ou explícito e discurso de ódio.

“Algumas de nossas descobertas, se ampliadas para o tamanho da base de usuários do YouTube, levantariam questões significativas e seriam realmente preocupantes”, diz Brandi Geurkink da Mozilla na Alemanha. “O que descobrimos é a ponta do iceberg.”

A maioria dos vídeos contenciosos foi entregue aos usuários por meio do algoritmo do YouTube, que recomenda vídeos de canais que um usuário pode não necessariamente seguir ou não ter procurado. Sete em cada 10 dos relatórios de arrependimento estavam vinculados a vídeos recomendados, e aqueles recomendados pelo YouTube tinham 40 por cento mais probabilidade de se arrepender do que os vídeos que os usuários procuraram ativamente, dizem os pesquisadores da Mozilla.

Vídeos em outros idiomas têm 60% mais chances de serem lamentados, o que os pesquisadores acreditam que pode ser porque os algoritmos do YouTube são treinados principalmente em vídeos em inglês.

“Isso destaca a necessidade de adaptar as decisões de moderação por país e garantir que o YouTube tenha moderadores especialistas que saibam o que está acontecendo em cada país”, disse Savvas Zannettou do Instituto Max Planck de Informática na Alemanha.

Geurkink disse que a falta de transparência do YouTube sobre seu algoritmo é “inaceitável”, especialmente depois de anos de pesquisa levantando preocupações sobre seu impacto na sociedade.

Um porta-voz do YouTube disse: “O objetivo de nosso sistema de recomendação é conectar os espectadores com o conteúdo que eles amam e, em um determinado dia, mais de 200 milhões de vídeos são recomendados apenas na página inicial”.

A empresa acrescentou que fez mudanças em seu sistema de recomendação no ano passado que reduziram o consumo de “conteúdo limítrofe” para menos de 1 por cento de todos os vídeos.

Mais sobre esses tópicos:

Leave a Reply

Your email address will not be published. Required fields are marked *