Google entra na guerra contra as falsas notícias

Por 5 de março de 2015 Destaque Sem comentários
falsas-noticias590

Que a internet e as redes sociais são um desfile constante de notícias e informações falsas, boa parte dos usuários já sabe. O ruído ininterrupto de conteúdo duvidoso é uma reclamação comum, de usuários a empresas de mídia. Um aliado poderoso chega agora para ajudar na guerra contra a desinformação: o Google anunciou que um novo algoritmo no seu sistema de buscas irá checar a confiabilidade de páginas da internet.

Atualmente, os resultados de buscas do Google são ranqueados de acordo com sua popularidade. Esta é medida pelo número de vezes em que a página é linkada de outros lugares. Ou seja, basta que o conteúdo tenha um alto índice de compartilhamento para que seja considerado relevante pelos robôs do Google e suba posições na lista de resultados.

O novo modelo em desenvolvimento pela empresa pretende mensurar a confiabilidade de uma página contando o número de fatos incorretos contidos nela. Segundo a descrição do projeto, “os fatos serão automaticamente extraídos de cada fonte através de métodos usados para construir bases de conhecimento (tecnologia que armazena dados não estruturados em computadores)”.

O texto do projeto cita como exemplo a informação da nacionalidade do presidente Barack Obama em oito sites diferentes. Sites que indicam o local como sendo o Quênia e não os Estados Unidos tendem a perder posições no ranking de confiabilidade. Quanto mais erros e inverdades um site tiver, piores são suas chances de ter um bom lugar nas buscas do Google.

O sistema checará as informações que circulam pela internet no “knowledge vault” (cofre do conhecimento, em tradução livre), um vasto banco de dados que o Google vem montando de maneira automatizada com fatos sobre o mundo, pessoas e objetos. Esse banco serve para responder perguntas que usuários fazem ao Google em seus celulares ou computadores. Por exemplo, quando você digita “capital da Hungria” na busca é do “knowledge vault” que vem a resposta “Budapeste”.

Segundo os criadores do projeto, o banco de dados inclui 2,8 bilhões de fatos, com os quais pode se estimar a confiabilidade de 119 milhões de páginas na web. O texto de apresentação explica que foram realizadas avaliações humanas dos resultados para “a confirmação da eficiência do método”.

 

Fonte: Estadão

Deixe um comentário

4 + 5 =