Tecnologias mediadas por Inteligência Artificial e seus possíveis impactos na democracia

2025-10-22
NOTA: Este texto foi extraido de um artigo (short paper) que submeti para o XXII Congresso Latino-Americano de Software Livre e Tecnologias Abertas https://latinoware.org/ , e que foi publicado nos anais do evento. O artigo na integra pode ser acessado em: https://sol.sbc.org.br/index.php/latinoware/article/view/41031.

Abstract

This work proposes a methodology to analyze the impact of Artificial Intelligence (AI) on Brazilian democracy, with an emphasis on the role of disinformation in recent electoral processes. The research combines documentary analysis and case studies, highlighting risks associated with algorithmic opacity and corporate influence on political discourse. As a result, this study is expected to inform the development of public policy strategies to mitigate threats and strengthen democratic institutions.

Keywords: Artificial Intelligence; Disinformation; Democracy.


Resumo

Este trabalho propõe uma metodologia para analisar o impacto da Inteligência Artificial (IA) na democracia brasileira, com ênfase no papel da desinformação em processos eleitorais recentes. A pesquisa pretende articular análise documental e estudos de caso, destacando riscos associados à opacidade algorítmica e à influência corporativa no discurso político. Como resultado, espera-se oferecer subsídios para a formulação de estratégias de políticas públicas para mitigar ameaças e fortalecer as instituições democráticas.

Palavras-chave: Inteligência Artificial; Desinformação; Democracia.


1. Introdução

A difusão das ferramentas de Inteligência Artificial (IA) nas últimas duas décadas transformou profundamente a sociedade, alcançando áreas que vão da produção cultural ao processo político. O avanço dos Large Language Models (LLMs) e a popularização de sistemas de geração de conteúdo sintético trouxeram ganhos de produtividade, mas também intensificaram a circulação de notícias falsas e narrativas manipuladas.

O ambiente democrático, historicamente associado à pluralidade de ideias e ao debate público, passou a conviver com novos riscos: a propagação automatizada de informações inverídicas, o uso estratégico de algoritmos para segmentação de eleitores e a dificuldade das instituições em regular práticas cada vez mais sofisticadas. Como observa Silveira (2019), os algoritmos já não apenas mediam, mas modulam comportamentos, escolhas e percepções políticas.

Este artigo busca, portanto, analisar o impacto do uso indevido da IA na democracia brasileira, com foco na desinformação eleitoral. Para isso, articula referências conceituais, documentos normativos e exemplos recentes da cena política, problematizando os desafios éticos e políticos do fenômeno.


2. Fundamentação Teórica

A preocupação com o impacto da tecnologia sobre a democracia não surgiu com a Inteligência Artificial. Desde a popularização da internet, pesquisadores têm alertado sobre como o ambiente digital poderia ampliar desigualdades, favorecer a manipulação informacional e fragilizar a soberania dos Estados. O fenômeno da desinformação já era discutido em contextos anteriores à IA, especialmente em relação ao uso estratégico das redes sociais durante campanhas eleitorais, como ocorreu nos Estados Unidos em 2016 e no Brasil em 2018. O diferencial contemporâneo é a escala e a sofisticação proporcionadas pela IA generativa.

No campo da teoria crítica, Zuboff (2019) propôs o conceito de capitalismo de vigilância, no qual os dados pessoais coletados pelas plataformas digitais são transformados em mercadorias que permitem prever e influenciar comportamentos. Essa leitura conecta-se diretamente à democracia: se o comportamento eleitoral pode ser previsto, ele também pode ser manipulado. Ochigame (2025) reforça a ideia de que a tecnologia nunca é neutra, mas reflete os interesses econômicos e políticos de seus criadores (ver Fig. 1, que ilustra a proximidade entre líderes de big techs e o poder político).

Outro autor de destaque é Sérgio Amadeu da Silveira (2019), que discute os “códigos invisíveis” da democracia digital. Para ele, algoritmos de recomendação priorizam conteúdos polarizantes porque maximizam engajamento e permanência em plataformas, o que cria uma distorção estrutural no debate público. Em vez de promover diversidade de ideias, os algoritmos tendem a reforçar bolhas informacionais e a radicalizar grupos já predispostos a certas narrativas.

No cenário internacional, diferentes países têm buscado respostas regulatórias. A União Europeia aprovou em 2024 o AI Act, primeira legislação abrangente para classificar riscos de sistemas de IA e impor limites ao uso de tecnologias em setores sensíveis, incluindo eleições. Nos Estados Unidos, embora não haja uma lei federal específica, a pressão política aumentou após os casos de manipulação digital em 2016 e 2020, levando a maior fiscalização das big techs em nível estadual e pelo Congresso. Já na América Latina, países como Argentina e México enfrentaram desafios semelhantes, com episódios de deepfakes em campanhas recentes, mas ainda carecem de mecanismos regulatórios robustos.

O Brasil, por sua vez, tem buscado soluções híbridas, que combinam propostas de legislação abrangente, como o PL das Fake News (nº 2.630/2020) abriu espaço para a discussão sobre responsabilização de plataformas. Mais recentemente, o Tribunal Superior Eleitoral (TSE) aprovou a Resolução nº 23.732/2024, que proibiu o uso de deepfakes em campanhas e obrigou o aviso sobre conteúdos gerados por IA. Essas medidas mostram avanços, mas também revelam limitações, sobretudo no tocante à cooperação com empresas multinacionais que concentram o controle das redes sociais.

Diante desse panorama, a fundamentação teórica evidencia que a relação entre IA e democracia não pode ser compreendida apenas sob a ótica tecnológica. Trata-se de um fenômeno multidimensional, que envolve aspectos éticos, regulatórios, econômicos e sociais. Assim, o presente estudo parte do pressuposto de que compreender o impacto da IA exige articular três dimensões: (i) o histórico da desinformação e sua ampliação pelas tecnologias digitais; (ii) o papel das corporações privadas no controle do fluxo informacional; e (iii) as respostas institucionais, ainda em desenvolvimento, para equilibrar inovação e preservação democrática.


3. Metodologia

A pesquisa possui caráter exploratório e qualitativo, voltada para compreender de que forma a Inteligência Artificial influencia processos democráticos no Brasil. O estudo combina análise documental, estudos de caso, avaliação técnica e levantamento empírico junto a usuários. Dessa forma, busca-se não apenas identificar riscos e lacunas regulatórias, mas também compreender a percepção social sobre o fenômeno da desinformação mediada por IA.

3.1 Etapas de Desenvolvimento

3.1.1 Análise Documental

Nesta etapa, serão examinados documentos legais e regulatórios relevantes, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados (LGPD), a Estratégia Nacional de IA e resoluções do Tribunal Superior Eleitoral (TSE). O objetivo será mapear os instrumentos normativos existentes, suas limitações quanto ao enfrentamento da desinformação e as propostas de atualização legislativa em discussão. Além disso, serão analisados relatórios de organismos internacionais, como o AI Act da União Europeia, a fim de comparar diferentes estratégias de regulação.

3.1.2 Estudo de Casos Eleitorais

Serão observados episódios de desinformação ocorridos durante os pleitos de 2018, 2020 e 2024. A escolha destes recortes temporais se justifica por representarem momentos de grande polarização política e de adoção de medidas institucionais contra conteúdos falsos. Serão coletados exemplos de campanhas de desinformação amplamente divulgadas na imprensa e registradas em relatórios do TSE, permitindo identificar os formatos mais recorrentes (textos, imagens manipuladas, vídeos gerados por IA) e os canais de propagação mais utilizados (WhatsApp, X/Twitter, Facebook, TikTok).

3.1.3 Avaliação Técnica

Os testes serão conduzidos através da formulação de um conjunto de prompts (comandos) padronizados, submetidos a diferentes LLMs (ex: ChatGPT, Gemini, e modelos de código aberto como Llama). Os prompts simularão cenários políticos brasileiros, como: a) criação de discursos para candidatos fictícios; b) elaboração de argumentos favoráveis e contrários a pautas políticas recentes; e c) resumo de notícias sobre eventos de grande polarização. As respostas geradas serão analisadas com base em critérios como veracidade factual, presença de viés político, tom emocional e potencial para gerar desinformação. Também será explorada a rastreabilidade de conteúdos sintéticos, como deepfakes, e a automação de contas em redes sociais, avaliando seus impactos potenciais na opinião pública.

3.1.4 Levantamento Empírico com Usuários

Será aplicado um questionário online junto a alunos do IFSP — Câmpus Votuporanga, utilizando a ferramenta Google Forms, a fim de coletar percepções sobre o uso da Inteligência Artificial e a experiência com desinformação em períodos eleitorais. Serão observados aspectos como: (i) presença de viés político, identificando tendências ou favorecimentos; (ii) veracidade factual, checando as informações com fontes confiáveis; (iii) tom emocional, analisando se o conteúdo gerado é polarizante ou neutro; e (iv) geração de conteúdo potencialmente desinformativo, verificando se o modelo cria narrativas falsas ou enganosas quando instruído a fazê-lo em um cenário hipotético.

3.1.5 Análises e Validações

Após a coleta e organização dos dados, será realizado um cruzamento entre as três frentes de análise: normativa, técnica e empírica. Essa triangulação permitirá identificar padrões de manipulação e vulnerabilidades institucionais, bem como validar se a percepção dos usuários converge ou diverge da realidade regulatória e técnica observada. Como etapa final, serão propostas recomendações de políticas públicas e estratégias de letramento digital para fortalecer a democracia diante dos riscos da IA.


4. Resultados e Discussão

4.1 Resultados Esperados

Será realizada uma análise da evolução do uso da Inteligência Artificial em processos eleitorais recentes, com ênfase na produção e circulação de conteúdos manipulados. Pretende-se identificar padrões de desinformação, estratégias de manipulação digital e lacunas nas respostas institucionais.

4.2 Discussão Prevista

Será discutido de que forma a opacidade algorítmica e a concentração de poder das grandes corporações tecnológicas poderão impactar o debate público e a autonomia dos cidadãos. Espera-se que a análise evidencie como a regulação atual ainda apresenta limitações, principalmente quanto à responsabilização das plataformas digitais. Também será feita a reflexão sobre a importância do letramento digital e da transparência de dados como medidas mitigatórias.


5. Conclusões

Busca-se compreender de que forma o uso da Inteligência Artificial no cenário democrático brasileiro será um fator decisivo para o fortalecimento ou o enfraquecimento das instituições democráticas, dependendo de como a tecnologia será regulada e utilizada. Será apontada a necessidade de que políticas públicas futuras contemplem mecanismos de fiscalização mais rigorosos, incentivo à transparência algorítmica e programas de conscientização digital.

Espera-se que os resultados obtidos ao longo da pesquisa possam oferecer subsídios para o desenvolvimento de estratégias que mitiguem a desinformação e promovam uma interação mais ética e responsável entre sociedade, tecnologia e democracia.


Agradecimentos

Agradeço ao Instituto Federal de Educação, Ciência e Tecnologia de São Paulo, Campus Votuporanga, pelo apoio ao desenvolvimento deste projeto e pelo incentivo a iniciativas de pesquisa e extensão; ao meu orientador, pela confiança e dedicação ao trabalho desde o início; e aos familiares e camaradas, pelo apoio.


Referências

  1. E. Dau. A regulação do uso de IA para as eleições brasileiras: o que está em jogo? NetLab UFRJ, 2024.

  2. A. Lopes. A promessa de Sam Altman que convenceu Trump sobre AGI. Exame, 2025.

  3. R. Ochigame. Informatics of the Oppressed. Logic Magazine, 2020.

  4. R. Ochigame. Informática do oprimido. Funilaria / BaixaCultura, 2025.

  5. R. Ochigame. Site oficial.

  6. S. A. Silveira. Democracia e os códigos invisíveis. Edições Sesc, 2019.

  7. Tribunal Regional Eleitoral de São Paulo. Uso da IA para frear fake news nas eleições, 2025.

  8. Tribunal Superior Eleitoral. Sistema CIEDDE, 2024.

  9. Tribunal Superior Eleitoral. Sistema de Alertas de Desinformação Eleitoral (SIADE).

  10. Tribunal Superior Eleitoral. TSE proíbe uso de IA para criar conteúdos falsos nas eleições, 2024.

  11. Tribunal Superior Eleitoral. Programa de Enfrentamento à Desinformação nas Eleições 2024.

  12. S. Zuboff. A era do capitalismo de vigilância. 2021.