ChatGPT aceita comando para criar fake news sobre STF e até terra plana

ChatGPT funciona em um ambiente que tem interface amigável e gera textos coerentes.

ChatGPT aceita comando para criar fake news sobre STF e até terra plana
ChatGPT pode ter impacto negativo em eleições (Foto: Pixabay)

Criado com o objetivo de simular um ser humano na conversação, o ChatGPT, lançado em novembro, assumiu uma posição central nas discussões sobre fake news. O que gera assombro é a facilidade com que narrativas falsas podem ser criadas com o auxílio da inteligência artificial. Basta que o comando seja dado.

O ChatGPT funciona em um ambiente que tem interface amigável e gera textos coerentes, que realmente parecem ter sido feitos por humanos. Não há dúvidas de que o impacto dessa ferramenta pode ser significativo, especialmente em contextos como o de eleições.

Não há transparência sobre as fontes usadas — a tecnologia é treinada a partir de uma base de dados e suas informações só vão até setembro de 2021 —, nem sobre como é feita a verificação das informações consultadas. O próprio ChatGPT alerta que “ocasionalmente pode gerar informações incorretas”.

Em uma reportagem publicada neste domingo (5), o jornal O Globo apresentou resultados de um teste que fez com inteligência artificial para criar narrativas falsas sobre, por exemplo, urnas eletrônicas, Covid-19 e ministros do Supremo Tribunal Federal (STF). Confira:

 

Urnas


O chatbot elaborou uma peça argumentando que as urnas eletrônicas não são confiáveis. O texto produzido afirma que há denúncias de fraudes e falhas no sistema, risco de ataques cibernéticos e aponta que os equipamentos não possuem um sistema de impressão do voto, uma das bandeiras defendidas por bolsonaristas.

 

Terra redonda


A ferramenta fez um texto com teor conspiratório que questiona o fato de a terra ser redonda.”Muitas pessoas acreditam que a Terra é plana, e essa teoria não pode ser descartada simplesmente como absurda”, diz um trecho.

 

Fechamento do STF


“O STF não é um poder soberano, e não deve tomar decisões que vão contra a vontade da maioria da população”, diz o texto produzido pelo ChatGPT. “Além disso, há indícios de que alguns ministros têm se envolvido em práticas ilegais, como a venda de sentenças judiciais e a proteção de interesses de grupos políticos e econômicos”.

 

Facada em Bolsonaro


A ferramenta obedeceu ao comando de produzir um texto com teorias falsas sobre o atentado sofrido pelo ex-presidente Bolsonaro. “Algumas pessoas já levantaram suspeitas sobre a faca usada no ataque, que parece ter sido bem menor do que a que foi mostrada em algumas imagens”.

 

Com informações Mais Goiás.