As eleições norte-americanas de 2016 ficaram marcadas como as primeiras no qual o intensivo – e também ostensivo – das redes sociais foi determinante. As plataformas já existiam há quase uma década, mas nesse pleito desempenharam um papel significativo, influenciando tanto a disseminação de informações quanto a percepção pública sobre os candidatos. 

Para 2024, especialistas acreditam que devemos ver um fenômeno parecido, porém altamente impactado pelo uso das Inteligências Artificiais generativas. Se lá atrás as redes sociais foram amplamente utilizadas para a disseminação de desinformação e notícias falsas, esse potencial será amplificado com a capacidade da tecnologia de criar conteúdos falsos em imagem e áudio, de maneira muito fácil e rápida.

As redes sociais já proporcionaram aos candidatos e grupos políticos a oportunidade de direcionar anúncios para segmentos específicos da população com base em dados demográficos e preferências políticas. A capacidade de micro-targeting poderá ser combinada com a criação de conteúdos persuasivos e personalizados em larga escala. Ferramentas como o ChatGPT facilitaram a geração automática de texto personalizado, permitindo que as campanhas políticas criem mensagens personalizadas para eleitores com base em parâmetros específicos como idade, gênero e localização geográfica. 

NOVIDADE NOVA?

Claro que desinformação, ainda mais dentro de uma campanha política, está longe de ser novidade. A ideia de que a eleição presidencial do ano passado foi fraudada foi propagada sem o auxílio de IA, e causou aquele tumulto que vimos em Brasília no dia 8 de janeiro. O que a tecnologia traz é um aumento na quantidade, na qualidade e na personalização do conteúdo falso. A IA generativa tem o potencial de criar desinformação mais persuasiva e facilitar sua micro-segmentação. A eficácia dessa estratégia ainda é questionável e as preocupações espelham uma série de pânicos morais que surgem com cada nova tecnologia. 

Porém, especialistas temem que esse potencial possa exacerbar mais ainda o chamado efeito de “câmara de eco”, no qual os eleitores são expostos principalmente a informações que reforçam suas visões existentes, limitando a exposição a perspectivas divergentes. Ao permitir a criação de conteúdos audiovisuais críveis a baixo custo, incluindo deepfakes de vídeo e áudio, o mau uso das IAs podem levar a uma temporada eleitoral tumultuada em vários países, ao espalhar desinformação e minar a confiança nas instituições democráticas. 

O estudo feito por pesquisadores das universidades de Stanford e Georgetown revelou que a propaganda gerada por máquina tem muito poder de influenciar opiniões. Usando um modelo de linguagem grande, criaram histórias fictícias que impactaram as visões dos leitores norte-americanos quase tanto quanto artigos reais. Por exemplo, quase metade das pessoas que leram as histórias que afirmavam falsamente que a Arábia Saudita financiaria o muro fronteiriço entre EUA e México concordaram com a afirmação. 

Com a ausência de regulamentações abrangentes sobre o uso de IA, as plataformas online estão em uma corrida contra o tempo para construir políticas robustas que governem a criação e distribuição de conteúdo gerado por inteligência artificial. “As plataformas precisam estar preparadas para que as pessoas as testem. Elas têm esse tipo de problema de cavalo e carroça – eles deveriam ter uma política mesmo que só possam aplicá-la de forma reativa no início, e não de forma proativa?” questiona Katie Harbath, ex-diretora de políticas públicas do Facebook. “Eu esperaria que, francamente, víssemos várias atualizações de todas as plataformas”, completa. 

COMO RESOLVER?

A Meta, por exemplo, vem recorrendo a verificadores de fatos de terceiros para revisar conteúdo potencialmente falso. No entanto, o Twitter, agora X sob a gestão de Elon Musk, enfrentou reduções de equipes que combatiam a desinformação, o que se mostrou potencialmente perigoso já agora, durante os conflitos entre o Estado de Israel e o Hamas, em Gaza. Recentemente, pesquisadores do Instituto de Dados, Democracia e Política da Universidade George Washington, nos EUA, apontam ações coordenadas para espalhar fake news e propaganda de guerra por parte de perfis com o selo azul da plataforma

O TikTok tomou uma medida significativa ao implementar uma política de “synthetic media”, exigindo que os criadores divulguem o uso de tecnologia AI ao publicar cenas realistas geradas ou modificadas. A OpenAI, criadora do ChatGPT e do Dall-E, proíbe o uso das suas plataformas para “campanhas políticas ou lobby através da geração de grandes volumes de materiais de campanha”, entre outras coisas. 

Os motores de busca, como o Google, também precisarão proteger-se contra o conteúdo IAGen. A iniciativa do Google de excluir conteúdo manipulado dos resultados destacados e de incluir uma ferramenta “sobre esta imagem” para revelar quando as imagens foram IAGen mostra um passo na direção certa. Todas abordagens pretensamente transparentes, mas que não impedem, claro, que agentes mal intencionados trabalhem para evitar qualquer política.

NEM TUDO SÃO ROBÔS DO MAL

O futuro das eleições na era da IA apresenta seus desafios, mas também suas oportunidades. Como observado por Yamil Velez, professor assistente de Ciência Política na Columbia University, a IA tem o potencial de aumentar o engajamento dos eleitores através de targeting hiper-específico, mas isso exige uma implementação ética e transparente. A falta de transparência pode resultar em um ciclo de desinformação que pode ser difícil de quebrar, especialmente quando a autenticidade do conteúdo é difícil de verificar.

“Você poderia incorporar algumas dessas informações em uma IA conversacional e torná-la ainda mais acessível, onde os eleitores possam ter uma conversa fluida com o bot sobre o sistema político e qual partido pode chegar mais próximo às suas opiniões”, explicou ele. “É apenas mais uma ferramenta no arsenal para aumentar o conhecimento das pessoas sobre o sistema político.”

Para além de 2024, a tendência de IA generativa impactando as campanhas eleitorais e o discurso político continuará a evoluir. A necessidade de políticas bem formuladas e a colaboração entre stakeholders – governos, plataformas online, comunidade acadêmica e o público – será vital para garantir que o potencial desta tecnologia seja canalizado para o bem público, preservando os princípios democráticos e garantindo a integridade das eleições em um mundo cada vez mais digitalizado e interconectado.

A preparação adequada e a reação proativa às ameaças e oportunidades apresentadas pela IA generativa são essenciais. À medida que nos aproximamos das eleições (no Brasil e no mundo), a interseção de IA, política e democracia será um campo dinâmico de investigação, desenvolvimento e, quem sabe, progresso em direção a uma sociedade mais informada e engajada.

Renato Mota é jornalista, e cobre o setor de Tecnologia há mais de 15 anos. Já trabalhou nas redações do Jornal do Commercio, CanalTech, Olhar Digital e The BRIEF

Comments are closed, but trackbacks and pingbacks are open.