(16) 99963-6036
quinta, 05 de fevereiro de 2026
Cidade

UFSCar desenvolve modelo de IA para identificar fake news com dados limitados

05 Fev 2026 - 12h20Por Jessica Carvalho R
UFSCar desenvolve modelo de IA para identificar fake news com dados limitados - Crédito: Canva Crédito: Canva

Identificar desinformação nas redes sociais costuma exigir que algoritmos sejam treinados com conteúdos verdadeiros e falsos. Pesquisadores do núcleo Interfaces, da Universidade Federal de São Carlos (UFSCar), avançaram nesse campo ao desenvolver um modelo capaz de detectar fake news tendo acesso apenas a exemplos de conteúdos falsos, uma abordagem mais próxima da realidade das plataformas digitais.

A técnica, batizada de PSRB — sigla em inglês para Positive Sequential Reconstruction via Breadth-first Search (reconstrução sequencial positiva via busca em largura) — foi criada a partir de uma parceria interdisciplinar entre as áreas de Computação e Ciências Sociais. O método busca enfrentar um dos principais desafios do combate à desinformação: a dificuldade de identificar, em larga escala, o que é verdadeiro em ambientes digitais dinâmicos.

Os resultados da pesquisa foram publicados no periódico científico Knowledge and Information Systems e assinados pelos pesquisadores Guilherme Henrique Messias, doutorando do Programa de Pós-Graduação em Ciência da Computação (PPGCC); Sylvia Iasulaitis, professora do Departamento de Ciências Sociais (DCSo) e líder do Interfaces; e Alan Demétrius Baria Valejo, professor do Departamento de Computação (DC) e vice-líder do grupo, todos da UFSCar.

Segundo Messias, a motivação para o estudo surgiu a partir da constatação de que muitos modelos tradicionais são treinados com textos de agências de checagem, como “Fato ou Fake?” e “Agência Lupa”. Esses conteúdos, porém, apresentam uma estrutura diferente das notícias falsas que circulam efetivamente nas redes sociais.

“O texto em si, a forma como ele está construído, não é a forma como ele é disseminado”, explica o pesquisador. “Passamos a nos questionar se isso não estaria gerando viés nos modelos de inteligência artificial”. A partir dessa reflexão, o grupo buscou uma alternativa mais robusta para lidar com dados reais.

Como funciona o modelo

O PSRB utiliza um paradigma conhecido como aprendizado positivo e não rotulado, no qual o algoritmo aprende a classificar informações tendo acesso apenas a exemplos de uma categoria — neste caso, as notícias falsas. Os demais dados permanecem sem rótulo, podendo ser verdadeiros ou falsos, cabendo ao modelo identificar os padrões.

A técnica trata as notícias como uma rede interconectada, em que cada conteúdo é representado como um ponto e as relações entre eles são estabelecidas por palavras-chave, temas semelhantes ou conexões entre usuários que compartilham as informações. O método cria conexões artificiais entre as notícias falsas conhecidas, fortalecendo sua comunicação na rede e permitindo que uma rede neural em grafos (GNN) aprenda melhor as características da desinformação.

Testes e resultados

Para avaliar o desempenho do PSRB, os pesquisadores realizaram testes em cinco bases de dados amplamente reconhecidas pela comunidade científica: Cora, CiteSeer, PubMed, Amazon Photo e DBLP. O modelo foi comparado com outros seis algoritmos consolidados, em cenários que variavam de 1% a 25% de dados rotulados.

Os resultados indicaram que o PSRB apresentou desempenho competitivo ou superior aos métodos existentes, especialmente em redes com muitos grupos pouco conectados entre si — uma característica comum em plataformas como Instagram e X (antigo Twitter).

Aplicações além da desinformação

Embora o combate às fake news tenha sido o foco inicial da pesquisa, a técnica desenvolvida possui aplicações em outras áreas. No laboratório MIDAS (Data Mining and Applications Group) da UFSCar, coordenado por Alan Valejo, o método já está sendo explorado na área da saúde, para identificar interações entre fármacos e proteínas.

“É uma forma de descobrir novas interações entre medicamentos sem a necessidade de todo o processo de testes laboratoriais, que é extremamente custoso”, explica Messias.

Outra possibilidade de aplicação está nas redes de citações acadêmicas, onde o modelo pode auxiliar na classificação de pesquisas por áreas do conhecimento a partir das conexões entre artigos científicos.

Desafios e próximos passos

Apesar dos avanços, os pesquisadores reconhecem os desafios de aplicar o modelo em tempo real, em ambientes onde novas informações são publicadas constantemente. “No mundo real, onde tudo acontece a cada segundo, aplicar esse tipo de método é um grande desafio”, avalia Messias.

Estudos complementares do grupo Interfaces, apresentados no Simpósio Brasileiro de Sistemas Inteligentes (Bracis), indicaram que o pré-processamento dos textos com modelos de linguagem baseados em IA melhora significativamente os resultados. Por outro lado, a pesquisa também apontou limitações, como o fenômeno do over-smoothing, em que o desempenho do modelo cai quando há excesso de informações agregadas.

O estudo aponta que pesquisas futuras devem explorar o uso da técnica em problemas com mais de duas categorias e em cenários de dados em fluxo contínuo, como eleições ou crises de saúde pública, onde a desinformação se propaga rapidamente.

Por assessoria de imprensa

Leia Também

Últimas Notícias