 | Antonio Augusto/Ascom/TSE |
| Pela 1ª vez, TSE obriga big tech a se antecipar a ilícito eleitoral com IA |
|  | Helton Simões Gomes |
| O TSE (Tribunal Superior Eleitoral) definiu regras para serviços de inteligência artificial generativa que, na prática, obrigarão as big techs a se anteciparem a situações problemáticas durante as eleições de 2026. Até agora, por mais que elas se preparassem para o pleito, a norma era a reação ao que acontecia. Essa atitude dará lugar à prevenção. Pela primeira vez, as companhias de tecnologia, ofereçam elas ou não publicidade ou impulsionamento de posts com cunho político eleitoral, terão de revelar quais ferramentas ou técnicas serão empregadas para cumprir as novas diretrizes eleitorais para a IA. Na lista, há desde a proibição à comparação, ranqueamento de candidatos feita por chatbot ou emissão de opinião sobre eles, o veto a conteúdo sintético 72 horas antes das votações e a possibilidade de as firmas serem convocadas judicialmente para atestar se imagens, vídeos ou áudios foram ou não feitos com IA. Dado o caráter de imprevisibilidade do funcionamento dos serviços de IA, especialistas e observadores envolvidos na construção das novas regras eleitorais ouvidos por Radar Big Tech avaliam que a adequação pode exigir mudanças nos modelos de negócios dessas empresas. |
|
|
|
 | Se um empresa tem mais poder de determinar como eu penso a vida, o meu voto não é igual. Isso significa que o valor dela sobre o voto é maior do que o meu. E é à justiça eleitoral que cabe criar regras para isso não acontecer e esse reequilíbrio. Se isso interfere no modelo de negócio, é a empresa que tem que repensar o modelo de negócio | | Marilda de Paula Silveira | coordenadora e professora do IDP |
|
 | Dado Ruvic/Reuters |
| | Na semana passada, o TSE publicou 14 instruções normativas para as eleições de 2026, com regras para reger do calendário eleitoral, com datas cruciais para o pleito, às manifestações políticas e as propagandas eleitorais no ambiente digital. São ao menos oito as novidades que envolvem a IA: - Se é IA, tem que dizer: compartilhada por quem cria e por que veicula a propaganda eleitoral, a norma define que o uso de qualquer conteúdo sintético multimídia precisará ser informado de forma explícita, destacada e acessível. Vale quando a IA é usada para criar, substituir, omitir, mesclar ou alterar imagens e sons. Os alertas de manipulação terão de informar até a tecnologia utilizada. Já os provedores de impulsionamento, sejam redes sociais ou serviços de streaming de vídeo, precisam criar campos específicos para acolher essa informação em suas plataformas.
- Robô endossando candidatos? Nem pensar: fornecedores de serviços de IA terão dar um jeito de seus chatbots não direcionarem voto a quaisquer candidatos, mesmo que os usuários peçam explicitamente. Dito de outra forma, ChatGPT, Copilot, Gemini e Grok e outros não podem ranquear, recomendar, sugerir ou priorizar candidatos, partidos ou coligações ao fornecer informações. São proibidos também de emitir opiniões, indicar preferência eleitoral, recomendar voto ou realizar qualquer tipo de posicionamento político-eleitoral direto ou indireto.
- Antes da eleição, vedação absoluta: conteúdos sintéticos feitos com IA que usem imagem, voz ou manifestações de candidatos ou pessoas públicas não podem ser publicados, republicados nem impulsionados mediante pagamento nas 72 horas antes do pleito e nas 24 horas seguintes à votação. A regra vale para os dois turnos.
- Deepfakes pornográficas e violência política barradas: sistemas de IA não podem ser usados para criar ou promover alterações em fotografias, vídeos ou registros audiovisuais para transportar candidatos para cenas de nudez, sexo ou pornografia. Da mesma forma, esses chatbots não podem formular publicidade eleitoral que configure violência política contra a mulher.
- Fake news via IA vira abuso de poder: como chatbots de IA são cada vez mais centrais na disseminação de informação no ambiente digital, usar conteúdo sintético feito por IA para difundir informação falsa ou descontextualizada sobre adversários ou o sistema de votação passa a configurar uso indevido dos meios de comunicação e, dependendo da gravidade, vira abuso de poder político e econômico.
- Quem prova que é IA? Como comprovar manipulações digitais pode ser um desafio para as vítimas de imagens e vídeos falsos feitos pela IA, a Justiça Eleitoral poderá inverter o ônus da prova. Ou seja, pode impor ao responsável pelo conteúdo em disputa a obrigação de demonstrar se o material é lícito, o que pode incluir as etapas da produção e a veracidade do que foi veiculado. E isso poderá recair tanto sobre o autor da postagem quanto sobre a dona da ferramenta de IA utilizada.
- Quem responde pelos crimes da IA? Redes sociais, streaming de vídeos e outras aplicações de internet precisarão indisponibilizar publicações irregulares que usem IA imediatamente, caso já estejam cientes de decisão judicial anterior e mesmo que nova ordem não tenha sido emitida. Isso ocorrerá porque essas plataformas são responsabilizadas de forma solidária pelos mesmos ilícitos eleitorais de quem publica. Os tribunais regionais eleitorais poderão firmar acordos com universidades e órgãos com profissionais capacitados para elaborar perícias de ilícitos digitais e com IA.
|
|
|
|
 | Fachada do prédio do TSE | Antônio Augusto/Secom/TSE |
| | A oitava novidade é apontada como central no controle a ser exercido pelo TSE nesse pleito e um marco na relação entre empresas de tecnologia e regras eleitorais. A partir deste ano, as big techs precisarão apresentar o chamado plano de conformidade, uma espécie de receita de bolo contendo quais medidas elas adotarão para cumprir as novas, os indicadores para medir a qualidade do trabalho e os resultados do esforço. É um movimento muito interessante do tribunal, porque normalmente os planos de conformidade acontecem junto a agências reguladoras e depois de um ilícito potencial em curso sendo investigado. Ou seja, trabalham na lógica da correção. O TSE fez diferente e tá falando: 'olha, as regras estão atualizadas, e eu preciso que você preste contas de como que vai cumprir essas regras antes de algum ilícito ou desconformidade'. O tribunal posicionou esses planos numa lógica mais preventiva Bruno Bioni, diretor-fundador do Data Privacy Brasil e membro do Conselho da ANPD Para Bioni, os relatórios de conformidade sinalizam um esforço de simetria entre a transparência exigida dos candidatos e partidos políticos, que precisam prestar contas publicamente, e àquela que passa a ser cobradas das plataformas de tecnologia por onde circula a informação. Na visão dos especialistas, as big techs enfrentarão desafios para cumprir as novas regras do TSE. Afinal de contas, em um momento crítico para a vida social brasileira, precisarão evitar reveses já complicados de lidar e impostos cotidianamente pelas ferramentas de IA. Isso pode até exigir alterações na forma de a empresa fazer negócios no Brasil. Com certeza vai ser mais difícil para as empresas, porque elas vão precisar adaptar o modelo de negócio às regras do processo eleitoral brasileiro. Interfere no processo eleitoral quem faz a formação do que as pessoas pensam da vida. Não só pelo dinheiro, mas também pela comunicação social e pela escolha que se faz do que vai circular no ambiente de comunicação social Marilda de Paula Silveira Isso quer dizer que o Brasil está pegando pesado? Não é bem assim. Silveira integrou e foi uma das coordenadoras do grupo de pesquisa do IDP, liderado pela advogada Laura Schertel, que encaminhou ao TSE um relatório com sugestões de mudanças na regra eleitoral. No documento, que incluiu a previsão da adoção do plano de conformidade, os pesquisadores citam outros países, como os da União Europeia e a Índia, com regras mais rigorosas. "A gente fez uma adaptação para o Brasil, porque cada país tem a sua forma de tratar isso, mas é muito pouco perto do que os outros países têm." |
|
|
|
 | Abdias Pinheiro/SECOM/TSE |
| Não é bem assim, mas tá quase lá |
| Não é que as big techs serão pegas de surpresa ao serem obrigadas a controlar a geração de conteúdo sintético e a identificar fotos e vídeos feitas por ferramentas de IA. "Empresas de IA já lidam constantemente com o risco de seus modelos oferecerem respostas problemáticas e, por isso, desenvolveram diferentes métodos para mitigar esse tipo de situação", diz Francisco Brito Cruz, cofundador do InternetLab e também professor do IDP. "As regras eleitorais buscam que essas técnicas evitem que modelos de IA passem a atuar, ainda que involuntariamente, como agentes de interferência na liberdade de escolha do eleitor ou no debate público." O esforço do TSE de enquadrar a IA é uma evolução das normas criadas para as redes sociais, em vigor nos pleitos passados. A diferença agora, no entanto, é que estamos falando de plataformas com propósitos distintos. Enquanto as redes distribuem e disseminam conteúdo de terceiros, os chatbots de IA também processam e geram conteúdo próprio. Isso traz desafios específicos, como a necessidade de realizar testes e implementar medidas técnicas para evitar usos irregulares dos sistemas, além de reforçar mecanismos de moderação e resposta em plataformas onde esses conteúdos acabam circulando. Na prática, exigirá mais investimento em compliance e em governança interna, inclusive em áreas não estritamente eleitorais Francisco Brito Cruz, professor do IDP A eleição nem começou e a incorporação das novas regras para IA está longe de ser ponto pacificado, mas já há apostas de quais serão as disputas em torno da inteligência artificial para os pleitos futuros. Uma delas é a disputa em torno das perícias sobre o que é material sintético ou não nos casos em que as big tech forem convocadas por efeito do inversão do ônus da prova. Outra é a transferência do foco das atenções, transferido da produção de conteúdo de chatbots de IA para a forma como eles disseminam esses materiais. |
|
|
|
 | Damos muita importância para a produção de conteúdo e a limitação de conteúdo. Isso é enxugar gelo. O mais importante é entender como a ferramenta distribui esse conteúdo. Houve uma sofisticação? houve. Houve maior capacidade de dificultar para o eleitor separar o que é fato de valor? Houve. Mas o grande impacto mesmo é a possibilidade de chegar nas pessoas de uma maneira customizada e de uma maneira restrita a um grupo de pessoas jurídicas | | Marilda de Paula Silveira | coordenadora e professora do IDP |
|
|