Pesquisar aqui

domingo, 3 de fevereiro de 2019

Machine Learning no Youtube: Controlar as Fake News


Resultado de imagem para youtube


O YouTube anunciou que vai começar a reduzir as recomendações a "conteúdo que possa desinformar os utilizadores de formas prejudiciais", como vídeos que promovem uma milagrosa cura para uma doença grave, alegando que a Terra é plana ou fazendo descaradamente afirmações falsas sobre eventos históricos como o 11 de setembro."

O algoritmo do YouTube seleciona vídeos com base nos seus históricos de visualização e pesquisa num modo de reprodução automática, com sugestões de outros vídeos para assistir também.

Esta não é a primeira vez que o YouTube tenta resolver o problema de conspiração. Em março de 2018, a companhia afirmou que colocaria links para a Wikipedia sobre eventos em caixas de texto em redor de "eventos amplamente aceitos, como a chegada à lua (1969)".

O YouTube estava a responder ao public backlash depois da sua guia de vídeos de tendências oferecer uma ampla plataforma para clips que partilhavam informações falsas ou enganosas sobre a divulgação de notícias nacionais, como o tiroteio escolar em Parkland, Flórida, ou o tiroteio em massa de 2017 em Las Vegas.

O YouTube diz que essa mudança de algoritmo aplicar-se-à a menos de 1% do conteúdo do YouTube, mas que "limitar a recomendação desses tipos de vídeos significará uma melhor experiência para a comunidade".

A rede sublinhou que a alteração afetará as recomendações de quais vídeos assistir, não se um vídeo está disponível no YouTube.

"Como sempre, as pessoas ainda podem aceder a todos os vídeos que estão em conformidade com nossas Community Guidelines e, quando relevante, esses vídeos podem aparecer nas recomendações dos inscritos e nos resultados de pesquisa."

O YouTube recebe mais de 400 horas de vídeos enviados para o site a cada minuto, por isso muitos vídeos questionáveis ​​passam despercebidos. Críticos há muito que pedem por mais supervisão humana, e o YouTube respondeu dizendo que contrataria 10 mil pessoas para procurar vídeos ofensivos. Além disso, a rede divulgou o seu uso de machine learning para obter um melhor controle sobre os vídeos publicados.

Os vídeos permanecem até que sejam "sinalizados" pelos membros da comunidade por não aderirem às diretrizes do YouTube, como mostrar violência, conteúdo sexual ou, no caso de recentes tiroteios no ensino médio na Flórida, informações falsas.

Um exemplo do problema de conspiração. 

Resultado de imagem para youtube not available

Em fevereiro de 2018, quando estudantes sobreviventes de um tiroteio na Flórida começaram a falar, um vídeo que sugeriu que os estudantes eram "atores de crise", contratados por democratas e defensores do controle de armas, subiu para o topo da secção Trending do YouTube, atraindo 200.000 visualizações. Assim que a Internet se apecebeu, o Youtube removeu o vídeo.


Essa mudança na política depende de uma combinação de machine learning e pessoas reais, diz o YouTube. "Trabalhamos com avaliadores humanos e especialistas de todos os Estados Unidos para ajudar a treinar os sistemas de machine learning que geram recomendações. Esses avaliadores são treinados usando diretrizes públicas e fornecem informações críticas sobre a qualidade de um vídeo."

O YouTube resistiu a fazer mudanças no seu algoritmo por causa da preocupação com a liberdade de expressão. A rede disse que a mudança "estabelece um equilíbrio entre manter uma plataforma para a liberdade de expressão e cumprir nossa responsabilidade com os usuários".

Sem comentários:

Enviar um comentário

Comente de forma construtiva...

Nota: só um membro deste blogue pode publicar um comentário.