AI Act

Artificial Intelligence Act

Visão Geral

O AI Act da UE é o primeiro regulamento horizontal abrangente do mundo sobre inteligência artificial. Adotado em março de 2024 e entrando em vigor em 1º de agosto de 2024, estabelece um quadro baseado em risco que categoriza os sistemas de IA com base em seu potencial de dano e impõe requisitos de acordo.[1]

O regulamento visa garantir que os sistemas de IA colocados no mercado da UE sejam seguros, respeitem os direitos fundamentais e promovam a inovação por meio da segurança jurídica.

Datas de Aplicação Faseada

DataMarco
1º de agosto de 2024Entrada em vigor do AI Act
2 de fevereiro de 2025Práticas de IA proibidas banidas; obrigações de alfabetização em IA aplicam-se
2 de agosto de 2025Obrigações do modelo GPAI; regras de governança aplicam-se
2 de agosto de 2026Aplicação total para sistemas de IA de alto risco
2 de agosto de 2027Requisitos para IA de alto risco (Anexo I) para certa legislação de segurança de produtos

Categorias de Risco

Práticas de IA Proibidas (Artigo 5)[2]

As seguintes práticas de IA são proibidas a partir de 2 de fevereiro de 2025:

  • Manipulação subliminar: IA explorando vulnerabilidades além da consciência
  • Exploração de vulnerabilidades: Alvo em idade, deficiência ou circunstâncias socioeconômicas
  • Classificação social: Classificar pessoas com base em comportamento levando a tratamento prejudicial
  • Policiamento preditivo: Previsão individual de crimes baseada apenas em perfilamento
  • Coleta facial não direcionada: Criação de bases de dados de reconhecimento facial a partir de fontes públicas
  • Reconhecimento de emoções: Em locais de trabalho e instituições educacionais (com exceções)
  • Categorização biométrica: Inferir atributos sensíveis como raça, política ou religião
  • Identificação biométrica remota em tempo real: Em espaços públicos para aplicação da lei (com exceções)

Sistemas de IA de Alto Risco (Artigo 6)[3]

Sistemas de IA nessas áreas estão sujeitos a requisitos rigorosos:

  • Identificação e categorização biométrica
  • Gestão de infraestrutura crítica (energia, transporte, água, gás)
  • Educação e formação profissional (admissões, avaliações)
  • Emprego (recrutamento, avaliação de desempenho, demissão)
  • Acesso a serviços essenciais (pontuação de crédito, serviços de emergência)
  • Aplicação da lei (avaliação de evidências, avaliação de risco)
  • Migração e controle de fronteiras
  • Justiça e processos democráticos

Modelos de IA de Propósito Geral (GPAI)

Os provedores de modelos GPAI devem:

  • Manter documentação técnica
  • Fornecer informações para conformidade de provedores a jusante
  • Estabelecer políticas de conformidade de direitos autorais
  • Publicar resumos do conteúdo de treinamento

GPAI de risco sistêmico (modelos treinados com >10^25 FLOPs) têm obrigações adicionais incluindo testes adversariais e reporte de incidentes.[4]

Requisitos para IA de Alto Risco

RequisitoDescrição
Gestão de RiscoEstabelecer, documentar e manter sistema de gestão de risco
Governança de DadosGarantir que os dados de treinamento sejam relevantes, representativos e sem erros
Documentação TécnicaDocumentação detalhada do sistema antes da colocação no mercado
RegistroRegistro automático das operações do sistema
TransparênciaInstruções claras para o usuário e informações sobre capacidades
Supervisão HumanaPermitir supervisão e intervenção humana
Precisão e RobustezDesempenho consistente nos casos de uso pretendidos
Segurança CibernéticaProteção contra acesso e manipulação não autorizados

Obrigação de Alfabetização em IA (Artigo 4)

A partir de 2 de fevereiro de 2025, todos os provedores e implementadores devem garantir:

"Funcionários e outras pessoas que lidam com a operação e uso de sistemas de IA em seu nome possuem um nível suficiente de alfabetização em IA."[5]

Isso se aplica amplamente a todos os casos de uso de IA, não apenas a sistemas de alto risco.

Penas

  • Práticas de IA proibidas: Até €35 milhões ou 7% do faturamento global
  • Infrações de alto risco: Até €15 milhões ou 3% do faturamento global
  • Informações incorretas: Até €7,5 milhões ou 1% do faturamento global[6]

PMEs e startups podem beneficiar-se de limites proporcionais.

Ações Principais para Desenvolvedores

  1. Classifique seus sistemas de IA por nível de risco
  2. Documente os casos de uso de IA e propósitos pretendidos
  3. Implemente programas de alfabetização em IA para toda a equipe
  4. Avalie as obrigações para alto risco, se aplicável
  5. Monitore os requisitos do GPAI para uso de modelos base
  6. Prepare-se para avaliações de conformidade (sistemas de alto risco)

Fontes e Referências

[1]
Regulation (EU) 2024/1689 que estabelece regras harmonizadas sobre inteligência artificial. EUR-Lex: Texto Oficial do AI Act
[2]
AI Act Artigo 5: Práticas de IA Proibidas. AI Act Explorer: Artigo 5
[3]
AI Act Artigo 6: Regras de classificação para sistemas de IA de alto risco. AI Act Explorer: Artigo 6
[4]
Obrigações do modelo de IA de Propósito Geral. Comissão Europeia: Obrigações do GPAI
[5]
AI Act Artigo 4: Alfabetização em IA. AI Act Explorer: Artigo 4
[6]
AI Act Artigo 99: Penalidades. AI Act Explorer: Artigo 99