Qualquer pessoa que utilize a internet poderá mais cedo ou mais tarde se deparar com conteúdos de massa de com objetivo de gerar acessos e aumentar rendimentos através dos anúncios.
Isso inclui sítios (sites) com aparência de outros sites de notícias ou de informações privadas.
No entanto, esses artigos ou conteúdos, são gerados pela inteligência artificial (IA) e disponibilizado nessas plataformas pelos chamados newsbots, os famosos “robôs de notícias”.
Newsbots e a Inteligência Artificial?
Os newbots são programas ou algoritmos que selecionam notícias na internet de acordo com determinados critérios para, por exemplo, com o objetivo de distribuí-los nas redes sociais ou publicá-los em portais de internet. Além disso, eles também podem ser programados para enviar textos não criados por humanos, mas pela IA com base nas atuais em sites reais de notícias.
Segundo o estudo publicado recentemente na empresa de análise de mídia Newsguard de Nova York identificou 49 fazendas de conteúdo em sete idiomas diferentes (chinês, tcheco, inglês, francês, português, tagalo e tailandês). Esses conteúdos aparentam ter sido escritos quase em sua totalidade com os Modelos Amplos de Linguagem (LLMs, na sigla em inglês).
O modelo sistêmico baseado na IA (inteligência artificial) conseguem produzir textos que parecem ter sido escritos por mãos humanas. Dentre esses sistemas o mais conhecido de LLM (large language model) é o badalado ChatGPT, da OpenAI.
Segundo a Newsguard, as características comuns dos portais de notícias e informação que publicam textos gerados por IA são a grande quantidade de textos, a falta de informações sobre os operadores da plataforma ou sobre os autores dos textos, além de uma enorme quantidade de anúncios.
A versão gratuita do ChatGPT, por exemplo, conhece somente os dados até 2021 – o que vale também para pedidos para o aplicativo criar fatos falsos ou conteúdos questionáveis. Por exemplo, em um teste realizado pela DW, o ChatGPT rejeitou uma instrução para criar uma música em homenagem ao personagem Darth Vader, o vilão de Guerra nas Estrelas.
Newsbots e os reflexos negativos
Destaca-se inicialmente que desinformação intencional é a exceção, ao invés de ser a regra. Os chatbots, porém, “alucinam” com frequência, gerando de conexões falsas e, consequentemente, na produção de conteúdos falsos, ainda que possuam suas diretrizes como método de impedimento.
Segundo Felix M. Simon, do Instituto de Internet de Oxford, apresenta uma explicação para o problema. “Os LLMs não possuem consciência, não conseguem pensar. Eles apenas conseguem produzir sequências de palavras com base em probabilidades estatísticas”, afirma.
Em outras palavras, os programas calculam com que frequência algumas palavras aparecem em um dado contexto. Eles não conseguem identificar o motivo disso e podem, e consequentemente juntar essas palavras de maneira incorreta.
“Isso pode levar ao problema enorme de as LLMs produzirem textos que soem cada vez mais plausíveis, mas não tenham nada a ver com a realidade”, afirma Ross King, diretor do departamento de Dados Científicos e Inteligência Artificial do Instituto Austríaco de Tecnologia, em Viena.
Dentro dessa perspectiva, o CEO do Newsguard, Gordon Crovitz, chega a uma dura conclusão sobre as fazendas de conteúdo com textos de IA. “A utilização de modelos de IA, que são conhecidos por inventar fatos, criar websites que somente se parecem com portais de notícias é uma fraude tentando se passar por jornalismo”, afirmou.
A IA na produção de fake news (notícias falsas)
A chamada prompt engineering, (“engenharia imediata”, em tradução livre) uma espécie de instrução para possíveis manipulações, vem rapidamente ganhando importância, afirma Ross King. Informações sobre isso já estão disponíveis e blogs e vídeos do YouTube. Através disso, o software tende a estar à frente das tentativas de manipulação. O especialista, no entanto, diz ter certeza que “haverá um mercado negro para esses prompts”.
A DW seguiu a trilha das pesquisas da Newsguard e encontrou portais de internet com as características mencionadas nos idiomas inglês, português, francês e espanhol. Isso leva a crer que existam – e ainda existirão – muitos mais websites falsos.
Para King, isso não surpreende. “Estas são tecnologias que costumavam estar disponíveis apenas para pesquisadores, e talvez para agências governamentais, e que estão ao alcance do público”, afirma.
Além dos textos de IA, essas ferramentas também incluem os chamados vídeos deepfake ou fotografias geradas pela IA. “Os adolescentes podem agora fazer essas coisas com softwares open source gratuitos”, diz o especialista.
Como distinguir os sites de IA e os verdadeiros?
“Haverá mais dessas páginas”, afirma Felix M. Simon. Ele, porém, considera superestimada a importância destas. “Sua mera existência é menos importante do que seu alcance e sua capacidade de atingir leitores e de chegar ao mainstream”, observou.
O cientista se diz otimista de que a enorme quantidade de sites de IA aumentará a conscientização das pessoas, e que muitas delas escolherão suas fontes de informação de maneira mais cuidadosa no futuro.
Os especialistas afirmam a importância de reforçar as habilidades dos usuários na utilização das mídias, uma vez que ainda não existem detectores confiáveis de vídeos, fotos ou textos criados por IA. Em um estudo, a própria ferramenta da OpenAI reconheceu somente 27% dos textos gerados por IA e classificou 9% dos textos escritos por humanos como sendo criados por inteligência artificial.
Para saber se os textos em um portal de notícias são gerados por inteligência artificial, as pessoas devem seguir sua própria intuição e verificação de alguns pontos, tais como:
• Esse texto, como um todo, deixa uma impressão de seriedade?
• As informações contradizem meu próprio conhecimento geral?
• O texto é plausível?
Além disso, deve-se também verificar:
• Existem informações confiáveis sobre quem administra o website e é responsável por seu conteúdo?
• Estão indicados os autores das fotos e dos textos?
• Os perfis parecem autênticos?
Diversos sites com conteúdos duvidosos não demonstrarão essas informações, apesar de que mais e mais desses portais relacionem nomes de indivíduos que são, na verdade, fictícios. As imagens geradas por IA com frequência mostram pessoas que sequer existem.
Mas, desmascarar esses perfis falsos pode ser uma tarefa complicada. No entanto, tornando-se prudente uma pesquisa mais aprofundada sobre os conteúdos/publicações, na tentativa de obter mais informações sobre os supostos autores e se a procura por uma imagem revertida nas ferramentas de busca não apresentar resultados, há grande probabilidade de serem inexistentes.
Fonte: DW (J. D. Walter) com adaptações.
Imagem: Gerd Altmann por Pixabay