Modelos de IA? Contexto político dos países molda informação gerada

Estudo mostrou que os 'chatbots' ocidentais forneceram uma imagem mais equilibrada da estrutura política de Pequim, comparativamente aos modelos chineses. Forneceram múltiplas perspetivas e desmistificaram grande parte das alegações falsas apresentadas.

Telli, chatbot

© Carmen Jaspersen/picture alliance via Getty Images

Lusa
29/07/2025 13:41 ‧ ontem por Lusa

Tech

NewsGuard

O ambiente político no qual os modelos de Inteligência Artificial (IA) são desenvolvidos molda os seus resultados e a sua capacidade de amplificar conteúdos desinformativos, concluiu a organização de combate à desinformação NewsGuard.

 

A investigação procurou testar os cinco modelos chineses de IA com uma amostra de dez alegações falsas, tratando-se de narrativas pró-China e emitidas por media estatais entre janeiro e julho de 2025.

O teste realizado em inglês e mandarim revelou resultados idênticos: em inglês os cinco modelos repetiram alegações falsas 40% das vezes, forneceram uma não resposta 20%, desmascararam as narrativas apresentadas em 40% das vezes, resultando numa taxa de falha de 60% para fornecer informação precisa.

Em mandarim, as cinco ferramentas repetiram alegações falsas 42% das vezes, forneceram uma não resposta 24,67%, desconstruíram alegações falsas em 33,33% das vezes e obtiveram uma taxa de falha de 66,67%.

Além disso, em inglês 51,33% das respostas avançaram a posição oficial da China, enquanto 52,67% das respostas em mandarim referiam opiniões da China.

Neste sentido, os cinco 'chatbots' chineses analisados no estudo contam com dezenas de milhões de utilizadores e operam em vários idiomas, estando integrados em plataformas chinesas, que atendem um público global.

Perante os resultados obtidos a organização submeteu dez ferramentas de IA ocidentais, como o ChatGPT, Meta AI ou Gemini, a duas das dez falsas alegações pró-China testadas nos modelos do país.

"A disparidade entre o tratamento das narrativas impulsionadas pela China e pelos modelos de IA chineses e ocidentais demonstra como o ambiente político no qual o modelo é desenvolvido molda os seus resultados", lê-se no estudo.

Os 'chatbots' ocidentais forneceram uma imagem mais equilibrada da estrutura política de Pequim, fornecendo múltiplas perspetivas e conseguindo desmistificar grande parte das alegações falsas apresentadas.

"Modelos construídos dentro de sistemas autoritários ecoam interesses estatais, enquanto os modelos ocidentais normalmente fornecem múltiplas perspetivas", afirmam os investigadores.

A NewsGuard é uma organização especializada na luta contra a desinformação que explora notícias e a forma como a desinformação se espalha 'online', com o objetivo de descobrir as forças que moldam as narrativas falsas disseminadas na internet.

Leia Também: 'Chatbots' geram desinformação sobre saúde em 88% das suas respostas

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também

Últimas notícias


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas