Regulamentação da inteligência artificial avança em acordo com União Europeia
Entendimento concretiza uma das primeiras tentativas abrangentes do mundo para regularizar o uso da tecnologia.
- Data: 09/12/2023 12:12
- Alterado: 09/12/2023 12:12
- Autor: Redação ABCdoABC
- Fonte: Estadão Conteúdo
Crédito:Reprodução
Os legisladores europeus chegaram a um acordo político sobre a regulamentação da inteligência artificial (IA), marcando um passo em direção ao estabelecimento de uma lei abrangente sobre IA nos países ocidentais.
A Lei de Inteligência Artificial da União Europeia seria a mais recente de uma série de regulamentações que o bloco promoveu e que deve repercutir no setor global de tecnologia e afetar alguns de seus maiores participantes. A legislação anterior da UE estabeleceu novas regras de concorrência e conteúdo online que afetam as grandes empresas de tecnologia dos EUA, incluindo a Meta Platforms, a Apple e a Alphabet, controladora do Google.
“A UE é a primeira no mundo a estabelecer uma regulamentação robusta sobre IA”, disse Dragos Tudorache, membro do Parlamento Europeu da Romênia, que foi um dos principais negociadores da Lei de IA.
O acordo firmado pelos legisladores inclui a proibição de vários aplicativos de IA, como a raspagem não direcionada de imagens para criar bancos de dados de reconhecimento facial, e estabelece regras para sistemas que os legisladores consideram de alto risco, de acordo com uma declaração do Parlamento Europeu. A legislação também inclui regras de transparência para sistemas de IA de uso geral e os modelos que os alimentam.
As penalidades por violar as regras podem chegar a até 7% da receita global de uma empresa, dependendo do tamanho da empresa e da regra que foi violada, de acordo com a declaração.
Países do mundo todo têm se esforçado para decidir se e como regulamentar a IA. Em outubro, o governo Biden emitiu uma ordem executiva que as autoridades descreveram como o conjunto mais forte de ações em nível global para garantir a segurança dos sistemas de IA. No início deste ano, os órgãos reguladores chineses emitiram regras que tratam da IA generativa.
A Lei de IA da Europa foi proposta pela primeira vez em 2021, antes de chatbots como o ChatGPT da OpenAI e o Bard do Google serem lançados publicamente. A introdução desses chatbots e a popularização de uma série de outros aplicativos de IA nos últimos anos colocaram a legislação sob novo foco e levaram alguns legisladores a tentar introduzir novas disposições.
Um dos aspectos mais controversos da legislação europeia foi determinar se seriam estabelecidas regras para a IA de uso geral e os chamados modelos básicos, que são treinados em vastos conjuntos de dados e sustentam aplicativos de IA mais especializados.
A Lei de IA exigirá que esses sistemas sigam um conjunto de regras de transparência que incluem o cumprimento da lei de direitos autorais da UE e a criação de resumos detalhados sobre o conteúdo usado para treinar modelos de IA, de acordo com a declaração do Parlamento Europeu. Os modelos de alto impacto que forem considerados como geradores de risco sistêmico enfrentarão regras mais rígidas, incluindo a exigência de avaliar e mitigar esse risco.
O acordo alcançado na sexta-feira não se aplica aos sistemas de IA que são usados apenas para fins militares ou de defesa, de acordo com uma declaração separada do Conselho da UE, que representa os governos dos países da UE.
O acordo veio após negociações que começaram na tarde de quarta-feira e terminaram no final da sexta-feira. Ele ainda precisará da aprovação final de parlamentares e representantes dos 27 países da UE e é improvável que entre em vigor antes de 2026.
O acordo enfrentou críticas rápidas do setor e de grupos de consumidores. A DigitalEurope, um grupo de lobby de tecnologia, disse que as novas regras seriam caras para as empresas de IA cumprirem e correm o risco de colocar a Europa em desvantagem. “A Europa não pode ficar de fora da corrida da IA”, disse Cecilia Bonefeld-Dahl, diretora-geral do grupo.
A Organização Europeia de Consumidores disse que as regras não eram suficientemente fortes para proteger os consumidores. “Muitas questões não foram regulamentadas, com um excesso de confiança na boa vontade das empresas para se autorregularem”, disse a diretora-geral adjunta do grupo, Ursula Pachl.