A recente partilha, pela colega Graça Coelho, no nosso grupo WhatsApp, de um interessante e preocupante artigo publicado n'O Público (www.publico.pt/2025/11/23/mundo/noticia/desinformacao-russa-infiltrarse-inteligencia-artificial-afectar-respostas-chatgpt-2155066), inspirou-me a elaborar um pouco sobre este tema e algumas das suas perigosas implicações.
Como funcionam os assistentes de IA
A consulta a ferramentas de inteligência artificial, normalmente designadas como assistentes de IA generativa, tornou-se parte integrante do nosso quotidiano digital, mas estas funcionalidades levantam riscos que merecem uma análise mais detalhada.
Um dos problemas mais relevantes consiste na possibilidade de as respostas geradas por estes modelos poderem incorporar, inadvertidamente, conteúdos provenientes de sites de desinformação. A informação gerada pela IA resulta da consulta a grandes volumes de informação existentes na internet e não de um processo direto de validação das suas fontes. Quando essas fontes incluem campanhas organizadas, como as provenientes da Rússia ou de outros ecossistemas dedicados à manipulação informativa, uma resposta pode parecer plausível, mas basear-se em dados distorcidos introduzidos no espaço público digital por entidades maliciosas.
Quais são as alternativas
Em comparação, plataformas como a Wikipédia, embora não sejam perfeitas, possuem mecanismos de verificação comunitária e rastreabilidade das fontes. Também os sites oficiais de média seguem normas editoriais e critérios de validação e de responsabilização pública. A pesquisa efetuada nestes espaços oferece uma cadeia de confiança muito mais transparente, uma vez que o utilizador pode consultar a origem da informação, verificar o contexto integral e até acompanhar eventuais correções. Acresce ainda que o jornalismo independente constitui um dos pilares fundamentais da democracia, portanto a sua preservação deve ser encarada como prioridade absoluta.
Quais os riscos a prazo
A utilização intensiva da IA como primeiro e único ponto de consulta cria um efeito de deslocação que fragiliza o ecossistema dos média. Quando os utilizadores deixam de visitar diretamente os sites de informação, estes perdem tráfego e, consequentemente, receitas. Com menos receitas, as redações reduzem equipas, diminuem capacidade investigativa ou encerram projetos. Este risco é sério, porque enfraquecer o jornalismo significa enfraquecer a capacidade de escrutínio público que sustenta o funcionamento democrático.
Se a dependência da IA continuar a aumentar de modo indiscriminado, este ciclo irá agravar-se irreversivelmente. Menos acesso direto a fontes primárias implicará menor diversidade informativa e um contraditório mais limitado. Em consequência, esse ambiente facilitará a circulação de conteúdos manipulados. Ao mesmo tempo, o ecossistema de jornalismo independente a que os modelos de IA terão acesso ir-se-á reduzindo, degradando ainda mais a qualidade das respostas futuras e intensificando o problema, criando um círculo vicioso de erosão informativa difícil de reverter.
Em resumo
A IA é uma ferramenta valiosa quando usada de forma complementar. A prática saudável consiste em cruzar informações e confirmar dados em sites que publicam conteúdos originais. A consulta direta às fontes continua a ser indispensável para preservar a fiabilidade do conhecimento e proteger o papel essencial dos média.
Promover este equilíbrio é essencial para defender o jornalismo independente e assegurar que a democracia mantém os seus mecanismos de transparência e escrutínio.
1 comentário:
Excelente entrevista a Geoffrey Hinton, considerado o padrinho da IA, chamando a atenção para os riscos para a humanidade. A não perder por quem se interessa por estes temas...
https://youtu.be/eHSn50wnBRQ
Enviar um comentário