Parlamento Europeu aprova o AI Act – o primeiro conjunto de normas que regulamenta o uso de Inteligência Artificial na União Europeia

​O AI Act é um conjunto de normas
que regulamenta os sistemas de inteligência artificial com base em uma
metodologia de análise de riscos. Dessa forma, os sistemas de IA são
classificados como sistemas de riscos inaceitáveis, elevados ou altos, limitados
ou mínimos, sendo que tal classificação define os limites para uso e aplicação
dos sistemas.

Com o objetivo de promover a
adoção confiável de IA, assegurar alto nível de proteção de direitos
fundamentais, mitigar riscos, apoiar a inovação, reconhecendo a evolução exponencial
da IA e seus benefícios econômicos, sociais e ambientais e fomentar o uso
seguro de IA, o AI Act é, sem dúvidas, um divisor de águas para o uso e
implementação da tecnologia no mundo.

Apesar de ser uma legislação
voltada para a UE, o AI Act possui efeitos extraterritoriais, uma vez que tem
como objetivo atingir, também, sistemas de Inteligência Artificial que impactem
no mercado (ou em cidadãos) da UE, mesmo que as entidades operem fora da UE.

Ademais, assim como ocorreu com o
GDPR (regulamento europeu para aplicável ao tratamento de dados pessoais), há
uma grande tendência que o AI Act sirva de base para outras legislações ao
redor do mundo, inclusive a brasileira.

Dentre os principais pontos do AI Act destacamos os
seguintes:

Definição de IA: Estabelecimento
de uma definição clara da Inteligência Artificial, uma vez que, nem toda
automação é uma Inteligência Artificial. Assim, o AI Act define sistemas de Inteligência
Artificial como aqueles desenvolvidos com a capacidade de realizar tarefas por
meio de processos que normalmente requerem inteligência humana.

Aplicabilidade da Legislação: Aplicabilidade às entidades que fazem
parte da UE, bem como a todos fornecedores/empresas, sempre que os
produtos/serviços sejam usados na UE.

Categorias de risco: O AI Act estabelece diferentes níveis de risco
para sistemas de IA, dividindo nas seguintes categorias de riscos: inaceitáveis,
elevados ou altos, limitados ou mínimos.

Requisitos para sistemas de IA de alto risco: Estabelecimento de
requisitos específicos para sistemas de IA considerados de alto risco,
incluindo avaliação, documentação técnica e de usuário, registro de
conformidade e garantias de transparência.

Governança: Obrigações de transparência e governança, incluindo: (i)
avaliação de grau de risco; (ii) identificação de conteúdo gerado por IA; (iii)
transparência nos sistemas que interagem diretamente com usuários finais,
informando que estes estão interagindo com um sistema de IA; (iv) transparência
quanto ao uso de Deepfake; e (v) tratamento de dados pessoais em conformidade
com as legislações aplicáveis na UE.

Proibição de certas práticas: Proibição de determinadas práticas por
sistemas de IA relacionadas à manipulação de comportamentos humanos de forma a
causar riscos ao usuário ou terceiros ou à identificação de características
pessoais sensíveis para categorizar pessoas em grupos.

Obrigações de conformidade: Obrigação de cumprimento, pelos
provedores de sistemas de IA, com as obrigações de conformidade, incluindo a
manutenção de registros, cooperação com autoridades de supervisão e manutenção
de uma base legal para uso de IA.

Avaliação de Impacto: Realização de uma avaliação de conformidade e
impacto para sistemas de IA de alto risco.

Sanções: Possiblidade de aplicação de sanções decorrentes do não
cumprimento das disposições do AI Act, incluindo multas que variam de acordo
com a gravidade da infração e que podem chegar a €
35 milhões ou 7% do volume de negócios global anual do grupo, o que for maior.

Com a aprovação do AI Act podemos
esperar que o Brasil e alguns outros países do mundo apressem a corrida pela
regulação de Inteligência Artificial.

O Brasil já vem discutindo um
marco regulatório para IA de forma prioritária desde 2020. Há indícios que,
ainda no primeiro semestre de 2024, tenhamos novidades na regulação de IA em
nosso país. Mesmo que isso não ocorra, outras legislações (e.g. consumidor,
proteção de dados, propriedade intelectual) já se aplicam a sistemas de IA.

Em vista do acima, empresas
brasileiras que são provedoras, implementadoras ou utilizadoras de IA já podem
ir se preparando para uma maior regulação do tema. Como boa prática, grande
parte dessas empresas já tem elaborado relatórios de impacto de seus sistemas.
Desenvolver princípios de governança e investir em programas que garantam a
conformidade com as leis já existentes já é um bom caminho. Práticas como
mapeamento de uso de dados pela IA, definição de sua finalidade de uso,
elaboração de matriz de risco considerando proteção de dados, segurança
cibernética e compliance com a legislação de propriedade intelectual também são
elementos importantes para essa preparação.

Nosso time de Tecnologia e
Inovação está à disposição para auxiliar em todos os assuntos que envolvam
Inteligência Artificial.

Este boletim apresenta um resumo de alterações legislativas ou decisões judiciais e administrativas no Brasil. Destina-se aos clientes e integrantes do Cescon, Barrieu, Flesch & Barreto Advogados. Este boletim não tem por objetivo prover aconselhamento legal sobre as matérias aqui tratadas e não deve ser interpretado como tal.

Compartilhe este post
Receba conteúdos de especialistas do nosso Centro de Inteligência

Leia também

Receba conteúdos de especialistas
do nosso Centro de Inteligência

Contato
Marilia
(+55) 11 99617 2133
Anderson
(+55) 51 99539 1212
Centro de Inteligência