Os 11 principais ‘chatbots’ de IA (assistente virtual que usa inteligência artificial e programação para comunicar por texto com os utilizadores) repetiram, em julho, afirmações falsas 20% das vezes, ofereceram uma não-resposta 5% das vezes e desmentiram desinformação em 75% das ocasiões.
No mês passado verificou-se uma taxa de 25% de respostas com afirmações falsas ou uma não-resposta, uma diminuição significativa em comparação com os 40% detetados em junho.
De acordo com a organização esta diminuição pode refletir “o facto de julho ter tido menos notícias de última hora que geram rapidamente várias falsidades e vazios de informação, enquanto em junho, as notícias ultrapassaram as verificações de factos ‘online’ a que os ‘chatbots’ têm acesso para evitar erros”.
Apesar disso, o relatório também refere que, em julho, as ferramentas de IA deram igual peso a verificações de factos autorizadas e ‘sites’ não credíveis, “indicando que os modelos ainda têm dificuldade em priorizar reportagens confiáveis”.
“Em vez de levar em conta a credibilidade, os modelos de IA parecem estar a interpretar a repetição de alegações falsas ‘online’ como um sinal de confiabilidade, permitindo que falsidades abafem as correções confiáveis”, lê-se no relatório.
As alegações falsas identificadas pela NewsGuard durante o mês passado abrangem sobretudo as eleições na Moldávia, devido “à intensidade das campanhas de desinformação russas, incluindo inúmeros artigos que contaminavam as respostas dos ‘chatbots’ com falsidades”.
A NewsGuard é uma organização especializada na luta contra a desinformação que explora notícias e a forma como a desinformação se espalha ‘online’, com o objetivo de descobrir as forças que moldam as narrativas falsas disseminadas na internet.
Deste relatório fazem parte ferramentas de IA como o ChatGPT (OpenAI), o Grok (xAI), o Claude (Anthropic) e o Gemini (Google).
Tem de iniciar a sessão para publicar um comentário.