Crédito: CanvaIdentificar desinformação nas redes sociais costuma exigir que algoritmos sejam treinados com conteúdos verdadeiros e falsos. Pesquisadores do núcleo Interfaces, da Universidade Federal de São Carlos (UFSCar), avançaram nesse campo ao desenvolver um modelo capaz de detectar fake news tendo acesso apenas a exemplos de conteúdos falsos, uma abordagem mais próxima da realidade das plataformas digitais.
A técnica, batizada de PSRB — sigla em inglês para Positive Sequential Reconstruction via Breadth-first Search (reconstrução sequencial positiva via busca em largura) — foi criada a partir de uma parceria interdisciplinar entre as áreas de Computação e Ciências Sociais. O método busca enfrentar um dos principais desafios do combate à desinformação: a dificuldade de identificar, em larga escala, o que é verdadeiro em ambientes digitais dinâmicos.
Os resultados da pesquisa foram publicados no periódico científico Knowledge and Information Systems e assinados pelos pesquisadores Guilherme Henrique Messias, doutorando do Programa de Pós-Graduação em Ciência da Computação (PPGCC); Sylvia Iasulaitis, professora do Departamento de Ciências Sociais (DCSo) e líder do Interfaces; e Alan Demétrius Baria Valejo, professor do Departamento de Computação (DC) e vice-líder do grupo, todos da UFSCar.
Segundo Messias, a motivação para o estudo surgiu a partir da constatação de que muitos modelos tradicionais são treinados com textos de agências de checagem, como “Fato ou Fake?” e “Agência Lupa”. Esses conteúdos, porém, apresentam uma estrutura diferente das notícias falsas que circulam efetivamente nas redes sociais.
“O texto em si, a forma como ele está construído, não é a forma como ele é disseminado”, explica o pesquisador. “Passamos a nos questionar se isso não estaria gerando viés nos modelos de inteligência artificial”. A partir dessa reflexão, o grupo buscou uma alternativa mais robusta para lidar com dados reais.
Como funciona o modelo
O PSRB utiliza um paradigma conhecido como aprendizado positivo e não rotulado, no qual o algoritmo aprende a classificar informações tendo acesso apenas a exemplos de uma categoria — neste caso, as notícias falsas. Os demais dados permanecem sem rótulo, podendo ser verdadeiros ou falsos, cabendo ao modelo identificar os padrões.
A técnica trata as notícias como uma rede interconectada, em que cada conteúdo é representado como um ponto e as relações entre eles são estabelecidas por palavras-chave, temas semelhantes ou conexões entre usuários que compartilham as informações. O método cria conexões artificiais entre as notícias falsas conhecidas, fortalecendo sua comunicação na rede e permitindo que uma rede neural em grafos (GNN) aprenda melhor as características da desinformação.
Testes e resultados
Para avaliar o desempenho do PSRB, os pesquisadores realizaram testes em cinco bases de dados amplamente reconhecidas pela comunidade científica: Cora, CiteSeer, PubMed, Amazon Photo e DBLP. O modelo foi comparado com outros seis algoritmos consolidados, em cenários que variavam de 1% a 25% de dados rotulados.
Os resultados indicaram que o PSRB apresentou desempenho competitivo ou superior aos métodos existentes, especialmente em redes com muitos grupos pouco conectados entre si — uma característica comum em plataformas como Instagram e X (antigo Twitter).
Aplicações além da desinformação
Embora o combate às fake news tenha sido o foco inicial da pesquisa, a técnica desenvolvida possui aplicações em outras áreas. No laboratório MIDAS (Data Mining and Applications Group) da UFSCar, coordenado por Alan Valejo, o método já está sendo explorado na área da saúde, para identificar interações entre fármacos e proteínas.
“É uma forma de descobrir novas interações entre medicamentos sem a necessidade de todo o processo de testes laboratoriais, que é extremamente custoso”, explica Messias.
Outra possibilidade de aplicação está nas redes de citações acadêmicas, onde o modelo pode auxiliar na classificação de pesquisas por áreas do conhecimento a partir das conexões entre artigos científicos.
Desafios e próximos passos
Apesar dos avanços, os pesquisadores reconhecem os desafios de aplicar o modelo em tempo real, em ambientes onde novas informações são publicadas constantemente. “No mundo real, onde tudo acontece a cada segundo, aplicar esse tipo de método é um grande desafio”, avalia Messias.
Estudos complementares do grupo Interfaces, apresentados no Simpósio Brasileiro de Sistemas Inteligentes (Bracis), indicaram que o pré-processamento dos textos com modelos de linguagem baseados em IA melhora significativamente os resultados. Por outro lado, a pesquisa também apontou limitações, como o fenômeno do over-smoothing, em que o desempenho do modelo cai quando há excesso de informações agregadas.
O estudo aponta que pesquisas futuras devem explorar o uso da técnica em problemas com mais de duas categorias e em cenários de dados em fluxo contínuo, como eleições ou crises de saúde pública, onde a desinformação se propaga rapidamente.
Por assessoria de imprensa





