YouTube vai usar pessoas para ajudar IA a filtrar conteúdo infantil nocivo

1 min de leitura
Imagem de: YouTube vai usar pessoas para ajudar IA a filtrar conteúdo infantil nocivo

YouTube está enfrentando uma crise após a plataforma ter liberado para crianças assistirem desenhos animados que apresentavam cenas de violência, sexo e outros temas impróprios para os pequenos. Acontece que tudo isso se deu por causa da incapacidade da inteligência artificial da plataforma em identificar vídeos potencialmente nocivos. A ideia agora é colocar pessoas de verdade para avaliarem essas produções.

O serviço de streaming vai usar métodos aplicados na detecção de vídeos com conteúdo de extremismo e terrorismo para detectar esses desenhos impróprios com maior precisão

Segundo um comunicado oficial do YouTube, assinado pela CEO Susan Wojcicki, a liberdade dada pela plataforma para a criação e divulgação de uma infinidade de tipos de vídeos acabou sendo usada negativamente por usuários mal-intencionados. Wojcicki também afirmou que o serviço de streaming vai usar métodos aplicados na detecção de vídeos com conteúdo de extremismo e terrorismo para detectar esses desenhos impróprios com maior precisão.

De olho em tudo!

Desde junho, as equipes responsáveis por revisar “manualmente” os vídeos já verificaram mais de 2 milhões de produções e a ideia é apostar nisso: mais mentes humanas podem identificar com mais facilidade algo que a inteligência artificial acaba deixando passar. Essa moderação também vai atuar nos comentários da plataforma, algo que ainda é bem mais eficaz do que depender apenas do sistema de machine learning do YouTube.

Novas ferramentas podem surgir nesse tempo para dar ainda mais segurança para os usuários e evitar o acesso a conteúdo sensível por pessoas que não deveriam

O comunicado da empresa também aponta que desde junho, cerca de 150 mil vídeos retratando extremismo violento foram removidos do YouTube, 98% deles com a ajuda do machine learning da plataforma. Essa mesma tecnologia permite que 70% desse tipo de conteúdo seja flagrado em menos de oito horas e isso deve ficar cada vez mais veloz conforme a inteligência artificial vai aprendendo mais e mais.

Para dar um melhor esclarecimento sobre o que pode ou não ser veiculado na plataforma, o YouTube também remodelou suas políticas e diretrizes e pretende divulgar mais informações sobre o assunto para os usuários nos próximos anos. Novas ferramentas podem surgir nesse tempo para dar ainda mais segurança para os usuários e evitar o acesso a conteúdo sensível por pessoas que não deveriam.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.