Capa

Entenda como a Inteligência Artificial (IA) pode adulterar as eleições

A nova tecnologia já é considerada uma ameaça maior do que o fenômeno das fake news. O TSE impôs regras duras contra o uso de Inteligência Artificial nas eleições de outubro e proibiu deepfakes, mas a iniciativa pode ser insuficiente

Crédito: Fotomontagem: Glauco Lara Sobre Fotos De Ricardo Stuckert/Pr E Alan Santos

Imagem manipulada sobrepondo Jair Bolsonaro e o presidente Lula: eleições de outubro podem ter IA a serviço da desinformação (Crédito: Fotomontagem: Glauco Lara Sobre Fotos De Ricardo Stuckert/Pr E Alan Santos)

Por Marcos Strecker e Marcelo Moreira

Nas eleições argentinas de novembro passado, um vídeo provocou um terremoto ao flagrar o candidato peronista cheirando cocaína. Em janeiro, nas primárias americanas de New Hampshire, o presidente Joe Biden transmitiu por telefone aos democratas um pedido para que não comparecessem às urnas, pois não era necessário. Pouco antes, em viagem pelo país, Donald Trump, sempre acusado de racismo, surpreendeu ao mudar seu trajeto para se dirigir a jovens negros, que o abraçaram entusiasmadamente. Antes disso, o ex-presidente já tinha chocado ao ser preso pela polícia à força numa manifestação de rua. São cenas desconcertantes da política atual. A questão é que é tudo mentira. Nada disso aconteceu, e a desinformação só foi possível graças à popularização da Inteligência Artificial (IA), tecnologia que existe há menos de dois anos, mas já é considerada uma das ameaças mais sérias à democracia.

Desde 2016, o mundo lida com os riscos que as redes sociais representam para as instituições. Agora, o alerta mudou de escala.

A tecnologia permite multiplicar exponencialmente a quantidade de conteúdos falsos. Recursos como o deepfake (vídeos modificados usando Inteligência Artificial para substituir o rosto, o corpo e a voz de um personagem) reproduzem os políticos de forma quase perfeita, enganando o público (foi o que aconteceu nos exemplos acima).

A partir de agora é possível criar propaganda falsa para grupos cada vez menores, ou mesmo eleitores de forma individual.

A IA torna mais fácil produzir esse material. Textos enganosos massificados também podem ser corrigidos ou diversificados por meio da ferramenta. Em outras palavras: a desinformação ficou mais acessível, barata e sofisticada.


Alexandre de Moraes e Cármen Lúcia inauguram na terça (12) o novo Centro para monitorar redes (Crédito:Luiz Roberto)

“Estamos dando um salto a mais no combate ao discurso de ódio, a partir do momento em que as fake news foram anabolizadas pelo mau uso da Inteligência Artificial.”
Alexandre de Moraes, presidente do TSE

É um mau sinal para quem se preocupa com a desestabilização política e com a deterioração do debate público provocados pela polarização.

Nos EUA, a novidade provoca mudanças na estratégia dos principais candidatos e passou a ser uma questão central na eleição presidencial.

“A preocupação é muito grande. É uma tecnologia nova e ainda estamos aprendendo a identificar como está sendo usada. Deepfakes em larga escala podem ser vistas em muitas eleições que ocorrem no mundo neste primeiro semestre, como Índia, Indonésia e México. Já observamos isso. Esses recursos se proliferam e a tecnologia avançou para o áudio e o vídeo, e não só no texto, como era em 2022. Na Indonésia ocorreu a difusão de um vídeo com o ex-ditador Suharto fazendo campanha, mas ele morreu em 2008… Em comunidades mais isoladas e menos informadas, o impacto é muito grande. O desafio é imenso”, diz Solano de Camargo, presidente da Comissão de Privacidade e Proteção de Dados da OAB-SP.

Joe Biden assina ordem executiva para normatizar IA, em outubro de 2023 (Crédito:Evan Vucci)

• O Tribunal Superior Eleitoral (TSE) acaba de estabelecer regras rígidas contra os novos abusos em potencial. Definiu no dia 27 de fevereiro a regulamentação do uso da IA nas eleições municipais com a vedação total do uso de deepfakes.

• Recursos de inteligência artificial serão permitidos, mas com a exigência da identificação de conteúdo “sintético”.

• Também haverá restrição ao uso de chatbots e avatares, que não poderão simular interlocução com candidatos ou pessoas reais.

• Quem burlar as regras poderá ser punido com a cassação do registro eleitoral e a perda do mandato.

As novas normas foram propostas pela relatora Cármen Lúcia (que presidirá a Corte nas eleições municipais) e aprovadas pelos demais ministros. Quem usar IA na campanha terá de colocar um selo ou uma marca indicando que aquele conteúdo foi alterado.

Peronistas criaram diálogo falso de Margaret Thatcher para desgastar Javier Milei. Já seus partidários inventaram vídeo de Sergio Massa usando drogas (Crédito:Divulgação )
(Divulgação)

O presidente do TSE, ministro Alexandre de Moraes, inaugurou na terça-feira, 12, o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (Ciedde).

Responsável pelo inquérito das milícias digitais no STF, ele disse que a vontade do eleitorado tem sido atacada desde 2018 pelo discurso de ódio. “No TSE já vínhamos neste combate, agora, estamos dando um salto a mais, principalmente a partir do momento em que as notícias fraudulentas e as fake news foram anabolizadas pelo mau uso da Inteligência Artificial”, afirmou.

O próprio presidente do Senado, Rodrigo Pacheco, é autor de um projeto de regulação da IA que já foi debatido por uma comissão de juristas e deseja aprová-lo até o meio do ano. O objetivo é proteger direitos fundamentais e garantir sistemas seguros e confiáveis.

O projeto prevê a responsabilidade civil do fornecedor ou operador do sistema de IA em caso de dano patrimonial, moral, individual ou coletivo.

O que divide os parlamentares e os especialistas é a definição de um órgão para fiscalizar o cumprimento das regras.

Pacheco elogiou a iniciativa do TSE. “Cabe ao Tribunal fazer suas resoluções. Aquilo que couber por projeto de lei nós vamos cuidar também de fazer aqui”, disse após a ministra Cármen Lúcia divulgar as normas.

Relator da minirreforma eleitoral, o deputado Rubens Pereira Júnior (PT) avalia que o uso da Inteligência Artificial nas eleições deste ano pode gerar manipulação mais grave do que foram as fake news em 2022 por se tratar de artimanha tecnológica mais sofisticada e de difícil controle.

Ele elogiou a iniciativa do TSE. “É corretíssima. A deepfake é uma fake news piorada por desvirtuar a realidade. A resolução é a medida mais dura já aplicada, e necessária. Vai desestimular porque a sanção é duradoura.”

O deputado afirma que grupos da direita ligados ao ex-presidente Jair Bolsonaro, que se especializaram em fake news, planejavam o uso massivo de deepfakes como “artilharia de campanha”, o que foi percebido pela Justiça Eleitoral.

“A plataforma se vê obrigada a remover imediatamente assim que houver denúncia, embora a gente saiba que isso normalmente não é automático. A Justiça está mais atenta.”

Ele acha que o controle vai se dar também dentro do próprio processo eleitoral, com um candidato vigiando o outro e o eleitor vigiando os candidatos. Também defende a criação de varas especializadas nos TREs para vigiar o uso de IA e uma resposta mais rápida das plataformas, que em outras eleições demoraram até cinco dias para retirar das redes conteúdos manipulados, causando prejuízos irrecuperáveis, uma vez que a mentira tem sempre disseminação mais veloz que a verdade.

Leis insuficientes

“Existe um perigo real nas eleições de outubro. A questão da desinformação precisa ser tratada como prioridade em um momento em que o eleitor comum tem dificuldades em identificar o que é uma imagem ou voz modificada por programas de todos os tipos”, diz Leonardo Nascimento, coordenador do Laboratório de Humanidades Digitais da Universidade da Bahia.

“Minha principal preocupação é a questão da criação de padrões de voz que podem perfeitamente simular a de qualquer um sem que a população e a sociedade tenha as ferramentas adequadas para diferenciar o que é verdadeiro e o que é falso.”

Para ele, as leis atuais são insuficientes. “As principais plataformas precisam ser mais transparentes. Aqui só o Telegram possui um API (sigla para interface de programação de aplicações, que permite a pesquisadores e fiscalizadores terem acesso ao conteúdo interno e ao trânsito de informações dentro das plataformas) que nos dá acesso total ao tráfego, coisa que não ocorre com o Tik Tok, Facebook e Instagram. Nos EUA os APIs de todas as plataformas são abertos. Aqui no Brasil, não. Isso é preocupante.”

Camargo diz que o Brasil tem uma das legislações mais modernas para combater a desinformação, mas o combate às deepfakes vai além disso. “É preciso que o eleitor brasileiro seja educado e esteja municiado de elementos para discernir o que mentira e o que é verdade. Só que a velocidade da tecnologia é muito maior do que podemos acompanhar. E o brasileiro adora novidade, tanto que é o quarto país do mundo que mais usa o ChatGPT, segundo algumas pesquisas internacionais.”

O senador Alessandro Vieira (MDB), autor do Projeto de Lei das Fake News, que já foi aprovado no Senado e tramita (com muita dificuldade) na Câmara, faz uma ressalva. Diz que a regulação da internet por meio do Marco Civil e através de legislações específicas foi no sentido de que as plataformas não seriam responsabilizadas, ou seja, a responsabilidade seria apenas do autor do conteúdo. Mas isso precisa mudar.

O Parlamento Europeu aprova na quarta-feira (13) legislação que regula IA (Crédito:Frederick Florin)

O presidente do STF, Luís Roberto Barroso, também é favorável à revisão do Marco Civil. Duas ações que tramitam no STF visam discutir o dispositivo que isenta as big techs de responsabilidade pelo conteúdo de terceiros que publicam.

Essa discussão não aconteceu porque a Corte espera o Congresso votar o PL das Fake News. A expectativa é que o presidente da Câmara, Arthur Lira, pautasse a votação antes do recesso de julho.

Trata-se de um debate que já está em discussão na Suprema Corte dos EUA. Lá, o tribunal está julgando a constitucionalidade de leis aprovadas no Texas e na Flórida que obrigam as plataformas a divulgarem todo o conteúdo dos internautas sem interferências.

É uma demanda dos conservadores, que não desejam restrições aos partidários de Donald Trump (que chegou a ser banido do Twitter após o ataque ao Capitólio).

As big techs, ao contrário, querem ter a liberdade de escolher o conteúdo que divulgam, a mesma garantia assegurada aos veículos de imprensa. Ironicamente, as gigantes tecnológicas sempre rechaçaram essa comparação, já que não desejam ser responsabilizadas. Isso pode mudar, em decisão esperada para junho.

O TSE proibiu o uso de deepfake nas eleições municipais e pode punir infratores com perda de mandato

Big techs e imprensa

Depois do caso emblemático da Argentina, muitos temem que o Brasil vire um “laboratório” para o uso da Inteligência Artificial. Pelo alto grau de polarização e grande alcance das redes sociais, o risco é grande.

Nas eleições argentinas se abusou da nova tecnologia. Além do exemplo citado acima, que em tese favorecia o vencedor Javier Milei, o grupo então no poder também criou um vídeo para atingir o presidente eleito. A peça simulava a ex-premiê britânica Margaret Thatcher ordenando o ataque a navios argentinos na Guerra das Malvinas.

Como Milei tinha elogiado publicamente a dama de ferro, o objetivo era associá-lo ao conflito que custou a vida de centenas de argentinos.

Esse vídeo fez um uso menos nocivo da tecnologia, se for possível avaliar assim, já que as imagens eram visivelmente artificiais.

Já a imagem do candidato peronista Sergio Massa consumindo drogas à sorrelfa não tinha nada de inocente. Como acontece com as fake news, tinha o objetivo de espalhar uma mentira e enganar o eleitor. Fazer essa distinção não é tarefa óbvia, dependendo dos conteúdos específicos e que poderão ser abundantes. Isso mostra os desafios que o TSE terá.

As imagens falsas de Donald Trump sendo preso e do papa com um sobretudo fashion estão entre as primeiras a apontar o perigo da manipulação com a IA, em março de 2023 (Crédito:Divulgação )
(Divulgação)

O Parlamento Europeu aprovou na última quarta-feira, 13, a legislação mais abrangente para se contrapor aos perigos da Inteligência Artificial. A punição será mais rigorosa para sistemas considerados de “alto risco”, que envolvem áreas como infraestrutura, educação, saúde, segurança e, naturalmente, eleições.

No mesmo sentido, o presidente Joe Biden assinou em outubro do ano passado uma ordem executiva determinando que as big techs compartilhem dados de testes de segurança com o governo americano.

As próprias companhias estão se antecipando diante do risco de serem denunciadas por interferirem nas eleições, como aconteceu em 2016 (quando Trump abusou das fake news e contou com uma mãozinha de Vladimir Putin) e 2020 (momento em que as redes coibiram as fake news e, aí, foi a vez dos republicanos denunciarem a “censura” à campanha de Trump).

Vinte gigantes tecnológicas firmaram um compromisso no último mês na 60ª Conferência de Segurança de Munique de evitar que a IA fosse usada para desestabilizar as democracias em um ano em que metade do planeta irá às urnas escolher seus novos governantes.

Entre as medidas em discussão está a inclusão de sinais gráficos visíveis ou invisíveis a olho nu para apontar imagens criadas artificialmente ou alteradas. A criação de padrões na indústria para identificar imagens e vídeos manipulados parece ser um consenso, mas a viabilidade de sua aplicação técnica ainda precisa ser provada.

• Eric Schmidt, ex-CEO do Google, já advertiu que as eleições de 2024 serão uma “confusão” porque as redes sociais não estão protegendo a população da falsa IA generativa.

• A mesma preocupação foi manifestada por Sam Altman, CEO da OpenAI e grande nome por trás do desenvolvimento do ChatGPT.

• Para evitar os riscos, a Alphabet (companhia proprietária do Google) e a Meta (dona do Facebook e Instagram) dizem que baniram o uso de mídias manipuladas em campanhas políticas e que já reagem rapidamente quando detectam deepfakes.

• O Google anunciou que restringiu o uso de seu assistente de IA Gemini para perguntas relacionadas às eleições nos EUA e em outros países.

O cuidado tem a ver com a necessidade de segurança jurídica, mas também com a preocupação para manter a reputação delas.

O gerador de imagens de IA do Google, por exemplo, foi tirado do ar porque figuras históricas foram apresentadas com características étnicas.

Apesar de tudo, alguns especialistas argumentam que deepfakes ainda não tiveram nenhum impacto concreto em resultados eleitorais.

Por outro lado, a massificação da nova geração de mensagens enganosas, ainda que o internauta já esteja acostumado a ser bombardeado com fake news, tem a intenção de deixar os eleitores mais incrédulos e impermeáveis ao debate público, desacreditando da própria política.

Desconfiar sempre e discernir o que é legítimo é, mais do que nunca, uma educação necessária e uma tarefa primordial de cada cidadão.

Colaborou Vasconcelo Quadros