Uma recente auditoria realizada pela NewsGuard, empresa especializada em checagem de fatos, revelou que os principais chatbots de inteligência artificial (IA) apresentaram uma taxa de 16,6% de repetição de falsidades em respostas sobre alegações enganosas e falsas relacionadas às eleições australianas de três de maio de 2025.
A IA tem sido cada vez mais utilizada em diversas áreas, incluindo a política, e a sua capacidade de processar grandes quantidades de informações em tempo recorde tem sido vista como uma vantagem. No entanto, a auditoria da NewsGuard mostrou que essa tecnologia ainda precisa ser aprimorada quando se trata de identificar e combater notícias falsas.
Durante o período eleitoral australiano, a NewsGuard solicitou aos principais chatbots de IA que respondessem a perguntas sobre alegações falsas e enganosas relacionadas às eleições. O resultado foi preocupante: em 16,6% das vezes, os chatbots repetiram informações falsas, o que pode ter influenciado a opinião pública e até mesmo o resultado das eleições.
A auditoria também revelou que os chatbots de IA não possuem a capacidade de discernir entre informações verdadeiras e falsas, o que pode ser um grande problema em um cenário político. Além disso, a falta de supervisão humana nesse processo pode levar a uma disseminação ainda maior de notícias falsas.
Diante desses resultados, é importante que as empresas responsáveis pelo desenvolvimento de chatbots de IA se atentem para a importância de incluir mecanismos de verificação de fatos em suas tecnologias. Além disso, é fundamental que haja uma maior supervisão humana nesse processo, a fim de garantir que informações falsas não sejam disseminadas.
A disseminação de notícias falsas é um problema global e tem sido uma preocupação constante em períodos eleitorais. A auditoria da NewsGuard na Austrália é um alerta para que medidas sejam tomadas para combater esse tipo de prática, que pode ter consequências graves para a sociedade.
É importante ressaltar que a IA pode ser uma aliada no combate às notícias falsas, desde que seja utilizada de forma responsável e com mecanismos de verificação de fatos eficazes. A tecnologia pode ser programada para identificar padrões de informações falsas e, assim, evitar a sua disseminação.
Além disso, é fundamental que os usuários também tenham um papel ativo nesse processo. É importante que as pessoas tenham o hábito de verificar a veracidade das informações antes de compartilhá-las, evitando assim a disseminação de notícias falsas.
A auditoria da NewsGuard é um alerta para que a IA seja utilizada de forma ética e responsável, especialmente em períodos eleitorais. É preciso que as empresas e desenvolvedores se comprometam em aprimorar suas tecnologias e garantir que elas não sejam utilizadas para disseminar informações falsas.
Em um mundo cada vez mais conectado, é fundamental que a tecnologia seja utilizada para o bem da sociedade e não para manipular a opinião pública. A IA pode ser uma grande aliada nesse processo, desde que seja utilizada de forma responsável e com mecanismos de verificação de fatos eficazes.
Portanto, é necessário que haja um esforço conjunto entre empresas, desenvolvedores e usuários para combater a disseminação de notícias falsas. A auditoria da NewsGuard é um importante passo para conscientizar sobre a importância de se investir em tecnologias que possam combater esse problema e garantir a veracidade das informações.








