Quando assistimos a um vídeo no
YouTube, a plataforma recomenda outros conteúdos na coluna da direita. São clipes que o algoritmo acredita que possam nos interessar, levando em consideração, entre outros fatores, outros vídeos que vimos e os canais nos quais estamos inscritos. Se seguirmos youtubers, aparecerão muitos outros criadores de conteúdo desse tipo e, se assistirmos a videoclipes, a plataforma proporá mais músicas. Este algoritmo de recomendações também é uma ferramenta que alguns pedófilos estão usando para chegar a vídeos de menores de idade. O escândalo explodiu no YouTube nas últimas horas.
A revelação foi feita pelo youtuber Matt Watson em um vídeo publicado na plataforma em 17 de fevereiro e que acumula quase dois milhões de visualizações em menos de quatro dias. Em seu vídeo, ele demonstra como é fácil obter o que chama de “buraco de minhoca”, em que a coluna de recomendações do YouTube é tomada por vídeos mostrando meninas e meninos.
Reproduzimos o método para chegar a este “buraco de minhoca” denunciado por Watson: basta fazer uma pesquisa como com as palavras “yoga”, “gymnastics stretch ” (ginástica de alongamento) ou “bikini haul”, que são vídeos em que mulheres (adultas) mostram biquínis. Depois de clicar cinco vezes nos vídeos de recomendações, a coluna à direita se enche de vídeos com menores de idade. Alguns deles têm milhões de reproduções, apesar de serem menores desconhecidos.
O objetivo da ação foi tranquilizar os anunciantes
O YouTube reagiu depois desta denúncia. Em uma declaração enviada à seção Verne, a empresa explica que “qualquer conteúdo – incluindo comentários – que ponha em perigo menores de idade é abominável e temos políticas claras que os proíbem no YouTube”.
A empresa explica que, nos últimos dias “desativou comentários sobre dezenas de milhões de vídeos que incluem menores”. E também “revisou e excluiu milhares de comentários inapropriados”, eliminou 400 perfis e os denunciou às autoridades. A plataforma também excluiu “dezenas de vídeos postados com intenções inocentes, mas colocando menores em risco”.
O YouTube lembra que crianças menores de 13 anos não podem criar ou gerenciar contas em seus serviços e que todas as semanas, milhares de canais são excluídos por esse motivo. “Há mais a ser feito e continuamos trabalhando para melhorar e detectar os abusos com rapidez cada vez maior.”
Não são vídeos com conteúdo sexual explícito: os menores aparecem falando sobre sua rotina diária ou fazendo exercícios, por exemplo, mas os comentários estão cheios de expressões abusivas. Eles até marcam os momentos do clipe propensos a serem sexualizados, mesmo que sejam gestos ou situações inocentes de crianças que muitas vezes não têm nem 10 anos de idade. Há também links para outros vídeos (que agora aparecem como excluídos) e propostas para adicionar uns aos outros como contatos.
Em alguns casos são canais criados por menores, mas em outros é conteúdo roubado e postado novamente de contas anônimas. Alguns desses vídeos também tinham publicidade. A plataforma compensa financeiramente e de modo automático os canais que incluem anúncios antes da reprodução de seus vídeos, o que é conhecido como pre-roll.
Mesmo assim, e após a publicação do vídeo de Watson, muitas empresas anunciaram que vão retirar sua publicidade da plataforma até que isso seja resolvido. Entre elas, e segundo confirmaram várias empresas à agência Bloomberg, a Doctor Oetker, Nestlé e a criadora de Fortnite, Epic Games. Outros, como Purina e Canada Goose, anunciaram a mesma ação no Twitter.
Watson lembra que a hashtag #YouTubeWakeUp havia sido usada anteriormente para denunciar esses fatos. Não é difícil encontrar tuítes com essas denúncias postados meses atrás. Alguns dos canais informados nessas mensagens ainda estão ativos, embora muitos vídeos tenham comentários desabilitados.
A seção Verne perguntou ao YouTube se vai realizar mudanças no algoritmo que decide os vídeos recomendados. A empresa nos remeteu ao trabalho de prevenção que faz com associações contra o abuso de crianças, como a Internet Watch Foundation, e sua colaboração com as autoridades quando detecta conteúdo ilegal.
E também lembra as decisões tomadas no final de 2017 para combater situações semelhantes. Em 2017, o YouTube teve que bloquear comentários sobre conteúdo voltado especificamente para menores, além de comentários em que alguns usuários forneceram dados de contato para compartilhar outros vídeos. Nesse mesmo ano, a plataforma teve que atualizar seus termos de uso após o chamado “ElsaGate”, no qual o algoritmo recomendava a crianças conteúdo sexualizado. Em 2013, o funcionamento do algoritmo foi alterado para impedir o aparecimento de conteúdos como os relatados por Watson em buscas diretas no Google e no YouTube.