Inteligência artificial deve afetar próximas eleições e a democracia
Na comissão de IA no Senado, Tainá Junquilho defende punir políticos que usem a tecnologia sem informar eleitores
- Data: 06/11/2023 18:11
- Alterado: 06/11/2023 18:11
- Autor: Texto: Bianca Muniz | Edição: Bruno Fonseca
- Fonte: Agência Pública
Crédito:Divulgação/Freepick
Fonte: Agência Pública
Em agosto deste ano, em resposta ao requerimento do Senador Eduardo Gomes (PL/TO), foi instaurada a Comissão Temporária de Inteligência Artificial (CTIA) no Senado Federal. O objetivo: discutir diferentes projetos de lei sobre o uso da tecnologia.
A inteligência artificial (IA) vem se mostrando, ao mesmo tempo, uma ferramenta para otimização de demandas no setor público, mas também uma preocupação para o processo democrático. Ela já é usada em tribunais para a aceleração de procedimentos burocráticos e decisões sobre aposentadoria. Por outro lado, a tecnologia também vem sendo utilizada para a desinformação, como na criação de imagens de fatos que não aconteceram na realidade: como a prisão de Trump usando força policial, imagem criada por um jornalista com o software Midjourney.
A Comissão pretende analisar em 120 dias o PL 2.338/2023, do presidente do Senado Rodrigo Pacheco (PSD/MG), que trata da proteção de direitos e liberdades fundamentais envolvendo a IA, trabalho e da dignidade da pessoa humana.
Além disso, a comissão, que já discutiu os impactos da IA na agricultura, no meio acadêmico e na indústria, debateu, no último dia 30, os efeitos da tecnologia no jornalismo e no processo eleitoral, em audiência pública presidida pelo senador Marcos Pontes (PL-SP), ex-ministro da Tecnologia de Jair Bolsonaro. A audiência contou com representantes do setor de comunicações e de instituições em defesa da democracia.
A Agência Pública entrevistou uma das participantes, a advogada e professora do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) Tainá Aguiar Junquilho. Na entrevista, falou sobre os desafios da implementação segura da tecnologia: “não existe nenhum mecanismo hoje, nenhum software, nenhuma inteligência artificial que vá identificar se um conteúdo é produzido por inteligência artificial”.
No contexto das eleições municipais de 2024, a professora revela preocupação com o uso de IA na disputa e a ausência de uma legislação específica que regulamente o processo. Para ela, diferentes problemas, como uso do deepfakes e criação de conteúdo falso, vão chegar ao Judiciário sem uma conduta padronizada a ser seguida. “Se a gente não regula, pode ser que tenhamos decisões muito diferentes de cada juiz, e isso pode gerar insegurança”.
Confira a entrevista
Como está o andamento para a regulamentação da inteligência artificial no Brasil?
A regulamentação da inteligência artificial aqui no Brasil já passou por algumas fases, mas não há uma lei em vigor. Isso pode prejudicar o processo eleitoral, na medida em que o Estado vai precisar dar alguma resposta, e aí talvez caia em ativismo judicial, enfim, porque você não tem uma lei em vigor ainda.
A gente tem desde 2020 um projeto de lei, que é o 21/2020, que foi colocado pela Câmara e aprovado em regime de urgência para regular a inteligência artificial, porém esse projeto é principiológico. O que isso significa? Ele é muito vago. Ele prevê que a inteligência artificial não pode ser discriminatória e que ela precisa ser transparente, mas não coloca meios para viabilizar isso na prática.
E a gente tem agora, depois de um ano de trabalho, de uma comissão de juristas estabelecida, criada no Senado, o PL 2338, que foi colocado na mesa pelo senador Rodrigo Pacheco. Criou-se a Comissão de Tecnologia e Inteligência Artificial, a CTIA, e para discutir, eles estão fazendo audiências públicas, vão apresentar algumas mudanças a esse texto, provavelmente, a partir do que eles ouviram em audiência.
Todos os países do mundo já estão se mobilizando. A União Europeia já está se mobilizando para regular [a IA]. Nessa semana, nos Estados Unidos, Joe Biden também colocou regras. Então está todo mundo se prevenindo, principalmente porque Brasil e os Estados Unidos são países que, no ano que vem, vão enfrentar processos eleitorais e querem correr tentar, de alguma maneira, frear os riscos da inteligência artificial. Mas nenhum país ainda tem uma lei que esteja em vigor. Está todo mundo nessa discussão.
A discussão está focada também no processo das eleições?
Isso, no processo eleitoral. Porque a inteligência artificial é uma tecnologia de propósito geral, então ela afeta todos os setores, afetando também o processo eleitoral.
Alguns candidatos na Coreia do Sul criaram avatares de inteligência artificial para responder aos eleitores. Então, como a pessoa física não é onipresente, obviamente, eles criaram avatares por inteligência artificial. E isso pode gerar um certo descontrole.
Você tem as deepfakes também, que são as notícias falsas ou as fotos, vídeos falsos com o uso da inteligência artificial. A gente tem a imagem do Trump sendo preso, que era falsa. Nas eleições da Eslováquia, fizeram deepfake dos candidatos. No Reino Unido também, com o candidato a primeiro-ministro, falando mal da população cigana.
Enfim, a inteligência artificial pode desinformar, pode enganar eleitores, ela pode ser usada para criar áudios, textos, imagens e conteúdos que vão manipular as campanhas e colocar discursos na boca das pessoas que, na verdade, elas não falaram.
Já vimos alguns efeitos de deepfakes, de disparos em massa, influenciando a disputa eleitoral. O que mudou com o aparecimento da IA generativa? Qual a diferença, por exemplo, quando a gente fala de deepfakes com o uso da IA generativa?
Você tem [exemplos], desde 2016, com o escândalo da Cambridge Analytica, algoritmos criados por essa empresa para influenciar comportamentos e votos produzindo conteúdos personalizados. Era uma inteligência artificial que a gente diz que é preditiva. O que ela faz? Ela vai pegar um monte de dados do passado e prever, com base nos comportamentos do passado, a probabilidade de comportamentos futuros.
Ela pega, por exemplo, as suas pegadas digitais na rede social e vai prever ‘olha, ela é uma pessoa mais à esquerda, mais à direita, ela gosta desse tipo de discurso, ela quer ver o direito X ou Y, ela precisa, por exemplo, de um direito à saúde. Então, vamos colocar aqui, oferecer isso aqui, esse conteúdo para ela’. E aí você vai influenciando comportamentos e votos, levando conteúdos personalizados a partir de uma inteligência artificial que prevê gostos para influenciá-los a partir dos dados do passado.
A inteligência artificial generativa já existia, mas em novembro de 2022, a OpenAI, principalmente, conseguiu desenvolver a versão 3 do ChatGPT, e isso influenciou várias outras. E a IA generativa, ela muda um pouco porque ela vai produzir conteúdos, ela vai gerar áudio, textos, imagens que podem ser desinformativos.
E isso, mais uma vez, afeta várias áreas. A gente tem o exemplo aqui no Brasil, do comercial da Volkswagen com a Elis Regina, que o CONAR, que é o órgão que conduz o marketing no Brasil, chegou a notificar a Volkswagen dizendo que aquele conteúdo poderia enganar os consumidores porque não dizia, não informava aos consumidores, que a Elis Regina era produzida por uma inteligência artificial.
Imagina, então, um conteúdo que é produzido por inteligência artificial generativa, que vai gerar um áudio, um texto, uma imagem e vai disparar isso para várias pessoas. Se hoje tem disparo em massa de mentiras feitas à mão, com a inteligência artificial, que gera conteúdos muito mais facilmente… Existem estudos que dizem que bastam três segundos de áudio de qualquer pessoa para que você reproduza a voz dela em termos de inteligência artificial.
Então, imagina, você grava um áudio, finge que está gravando um áudio de um candidato e espalha isso. Como que isso não é perigoso? Não existe nenhum mecanismo hoje que vá, nenhum software, nenhuma inteligência artificial que vai identificar que aquele conteúdo é produzido por inteligência artificial.
Inclusive, um dos pontos que foi falado na CTIA é sobre a integração de blockchain na inteligência artificial com a finalidade de garantir a integridade do conteúdo original. Como você vê isso, as tentativas para deixar o conteúdo mais original, para poder preservar a integridade da informação?
É muito importante, e uma regulação pode vir para trazer incentivos, inclusive também às empresas desenvolvedoras, para investir em tecnologia que seja capaz de criptografar ou de codificar, de tornar aquela imagem, som, texto com um selo ou com algum tipo de aviso.
O eleitorado jovem tem aumentado cada vez mais e os jovens estão ali nos aplicativos. O TikTok, por exemplo, é um aplicativo que bombou há mais ou menos quatro anos. Quer dizer, tem uma eleição no máximo que você tem [a presença] do TikTok, e o aumento [do aplicativo] é cada vez maior.
Essas demandas, como eu falei, vão chegar no judiciário, no Tribunal Superior Eleitoral, nos tribunais eleitorais, e o Estado vai precisar se virar para responder. Se a gente não regula, pode ser que tenhamos decisões muito diferentes de cada juiz, e isso pode gerar insegurança.
Como você avalia o uso da inteligência artificial no setor público, seus potenciais ou riscos?
Olha, a inteligência artificial tem sido utilizada no setor público em larga escala. O gestor público que escolhe usar a inteligência artificial, ele o faz em nome do princípio constitucional do artigo 37, que é a eficiência da administração.
Mas há uma certa crítica no sentido democrático, na afetação da democracia, porque você tem inteligência artificial no setor público, por exemplo, no uso de reconhecimento facial. Você tem São Paulo tentando colocar o SmartSampa para resolver o problema da Cracolândia, na segurança pública, para ingresso de pessoas na migração do país, na alfândega. O próprio INSS, existem dados dizendo que 40% das aposentadorias no Brasil já são decididas por robôs do INSS. No judiciário brasileiro; tem uma pesquisa da FGV que diz que 44 dos 92 tribunais estão desenvolvendo inteligência artificial.
Tem o caso polêmico também de algumas escolas públicas no Paraná que estão usando inteligência artificial para reconhecimento facial e análise dos sentimentos e emoções — práticas que são, pelo projeto da Europa, banidas. Porque imagina, se você usa isso para uma criança, para um trabalho, isso pode gerar sérias discriminações. Você dizer, ‘olha, essa criança aqui, ela não tem jeito não’.
Isso mexe com a democracia no sentido de que essas aplicações, a população, a sua maioria, nem sabe que está tendo essas coisas negadas, ela não tem capacidade e nem possibilidade de recorrer.
Por exemplo, se você não ingressa num país ou se você tem uma concessão de benefício negada pelo INSS, os sistemas de inteligência artificial são opacos, então você não consegue nem explicar e recorrer, porque nem o próprio desenvolvedor vai saber como aquele sistema chegou àquela decisão. Não há uma transparência de, por exemplo, ‘a administração pública, ela gastou X, que é um X alto, mas ao mesmo tempo ela está conseguindo economizar ou isso está trazendo de retorno para a população duas vezes’.
Não há uma transparência também no sentido de explicar no que que isso está melhorando ou piorando a vida da população. Isso tudo afeta a democracia porque é o Estado que está promovendo ou deixando de promover políticas públicas para o cidadão, e aí você fica com todas essas questões afetadas, falta de transparência, opacidade.
Sabendo da fidelidade das imagens e dos áudios criados por inteligência artificial, o que você considera principal para mitigar o impacto na disseminação de notícias falsas, em especial no contexto das eleições?
Olha, eu acho que o principal, e a gente já está atrás nessa corrida, é trabalhar o letramento digital ou desalienação das pessoas. A principal questão é promoção de educação, de entender quais os riscos, de entender que existem, que essas coisas podem ser produzidas, não confiar, buscar sempre a fonte, mas paralelamente o Estado precisa se preparar para responder de forma segura.
A gente tem duas maneiras de colocar isso legislativamente: ou na reforma do Código Eleitoral ou no próprio projeto de lei. Fazendo como os Estados Unidos, por exemplo, vetando que candidatos utilizem inteligência artificial, proibindo que eles usem inteligência artificial para enganar as pessoas ou para colocar discursos falsos, exigindo que as empresas desenvolvam tecnologias que vão gerar algum tipo de aviso às pessoas de que aquele conteúdo não é real, que aquilo é um conteúdo gerado por inteligência artificial.
Precisa haver algum tipo de punição para os candidatos que utilizam esse recurso sem avisar aos seus eleitores, sob pena de a gente cair num discurso desinformativo, aumentar também a polarização, enfim.
Você comentou que houve a criação da CTIA, há essas discussões sobre a regulamentação, mas há medidas mais práticas, atuais, para evitar o uso, ou para diminuir o impacto do uso da inteligência artificial na disputa eleitoral, ou para que a IA seja usada na checagem de informações?
Pois é, essa é uma notícia triste que eu tenho para te dar. Não existe, e por isso é importante o letramento digital. Por exemplo, a inteligência artificial generativa é usada na educação. Já tem professor dizendo assim, ‘eu tenho um software aqui que denuncia o conteúdo gerado por inteligência artificial’. Você como aluno pode dizer ‘não é verdade’. Hoje não existe, infelizmente, nenhum conteúdo, nenhum software, nenhuma inteligência artificial capaz de reconhecer que aquilo é produto da IA.
Então, o que a gente pode fazer em termos de regulação hoje é o letramento digital, estabelecer obrigações preventivas aos candidatos, estabelecer estímulos para que as empresas façam relatórios de avaliação de impacto daquelas tecnologias, regras de governança, para que também o cidadão tenha confiabilidade naqueles sistemas e o próprio mercado.
Você também pode estimular que as empresas desenvolvam essa tecnologia, talvez por meio de blockchain ou NFT, para que identifique mais facilmente que aquele é um produto de inteligência artificial para evitar a desinformação.
E também a gente tem o PL das Fake News, que ficou um pouco morto, mas que de toda forma tenta regular e modificar um pouco o modelo de negócios das Big Techs, mais na área dessa bolha algorítmica que favorece um clima polarizado.
Então, para você evitar que conteúdos de cunho desinformativo ou de cunho odioso, recebam pelo tráfego, você pode tomar essa medida que o PL das Fake News está tentando, mas que nunca engrena.