Big techs anunciam acordo contra fake news de inteligência artificial nas eleições
Documento cita princípios genéricos para evitar interferência enganosa pelo mundo; no Brasil, tema é alvo de proposta no TSE
- Data: 17/02/2024 13:02
- Alterado: 17/02/2024 13:02
- Autor: Redação
- Fonte: Folhapress
Crédito:Wilson Dias/Agência Brasil
Um grupo com 20 grandes empresas globais de tecnologia – que inclui a OpenAI, criadora do ChatGPT, o Google, o X (ex-Twitter), o TikTok e a Meta (dona de Facebook, Instagram e WhatsApp) – anunciou na sexta-feira (16) a assinatura de um acordo para evitar que conteúdos enganosos, com Fake News gerados por inteligência artificial, tenham interferência em eleições pelo mundo em 2024.
Segundo nota da assessoria de imprensa das companhias, as big techs firmaram o compromisso de “trabalhar colaborativamente em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, conduzir campanhas educacionais e fornecer transparência, entre outras medidas concretas”.
O acordo foi divulgado em uma conferência de segurança em Munique, Alemanha, e teve as assinaturas das companhias Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic e X.
O documento com três páginas traz metas e princípios genéricos, como desenvolver a tecnologia para mitigar riscos, procurar detectar a distribuição de conteúdo enganoso e fornecer transparência ao público sobre a abordagem das empresas ao tema.
O acordo não faz citação a nenhum país e menciona que a preocupação é com mais de 40 países com mais de 40 bilhões de pessoas que terão eleições em 2024.
No Brasil, onde não há uma lei específica sobre o tema, a questão da inteligência artificial na campanha eleitoral deste ano deverá ser abordada em resolução do TSE (Tribunal Superior Eleitoral).
Uma minuta elaborada pela vice-presidente da corte, a ministra Cármen Lúcia, e que ainda deve passar por análise do plenário, indica que será obrigatório que os usuários informem o uso de inteligência artificial para geração de conteúdos.
O ministro do TSE Floriano de Azevedo Marques Neto afirmou em meados de janeiro que a principal preocupação do tribunal brasileiro é com o falseamento de imagens e vozes de pessoas, nas chamadas deepfakes. “O fato é que a IA foi pouco presente no pleito de 2022 e quase nada em 2020”, disse.
Anna Makanju, vice-presidente de Assuntos Globais da OpenAI, disse que a companhia está comprometida “em proteger a integridade das eleições através da implementação de políticas que previnam abusos e melhorem a transparência em torno do conteúdo gerado por IA”, de acordo com a nota.
“Estamos ansiosos para colaborar com parceiros da indústria, líderes da sociedade civil e governos ao redor do mundo para ajudar a proteger as eleições do uso enganoso de IA”, completou.
O executivo do TikTok Theo Bertram afirmou que “é crucial para a indústria trabalhar em conjunto para proteger as comunidades contra IA enganosa neste ano eleitoral histórico”.
“Não podemos permitir que o abuso digital ameace a oportunidade geracional da IA de melhorar nossas economias, criar novos empregos e impulsionar o progresso na saúde e na ciência”, disse o presidente de Assuntos Globais do Google, Kent Walker, segundo a assessoria.
Nick Clegg, presidente de Assuntos Globais da Meta, afirmou que “este trabalho é maior do que qualquer empresa e exigirá um esforço enorme em toda a indústria, governo e sociedade civil”.
No Brasil, as últimas eleições já foram marcadas pelo desafio de combater as fake news, que por vezes envolviam meramente informações descontextualizadas.
Para especialistas, embora a desinformação associada à política não seja novidade, a dificuldade de lidar com o problema pode se ampliar com o avanço da tecnologia, capaz de deixar um número maior de eleitores em dúvida sobre o que é mentira ou verdade.