AI Act
Artificial Intelligence Act
Visão Geral
O AI Act da UE é o primeiro regulamento horizontal abrangente do mundo sobre inteligência artificial. Adotado em março de 2024 e entrando em vigor em 1º de agosto de 2024, estabelece um quadro baseado em risco que categoriza os sistemas de IA com base em seu potencial de dano e impõe requisitos de acordo.[1]
O regulamento visa garantir que os sistemas de IA colocados no mercado da UE sejam seguros, respeitem os direitos fundamentais e promovam a inovação por meio da segurança jurídica.
Datas de Aplicação Faseada
| Data | Marco |
|---|---|
| 1º de agosto de 2024 | Entrada em vigor do AI Act |
| 2 de fevereiro de 2025 | Práticas de IA proibidas banidas; obrigações de alfabetização em IA aplicam-se |
| 2 de agosto de 2025 | Obrigações do modelo GPAI; regras de governança aplicam-se |
| 2 de agosto de 2026 | Aplicação total para sistemas de IA de alto risco |
| 2 de agosto de 2027 | Requisitos para IA de alto risco (Anexo I) para certa legislação de segurança de produtos |
Categorias de Risco
Práticas de IA Proibidas (Artigo 5)[2]
As seguintes práticas de IA são proibidas a partir de 2 de fevereiro de 2025:
- Manipulação subliminar: IA explorando vulnerabilidades além da consciência
- Exploração de vulnerabilidades: Alvo em idade, deficiência ou circunstâncias socioeconômicas
- Classificação social: Classificar pessoas com base em comportamento levando a tratamento prejudicial
- Policiamento preditivo: Previsão individual de crimes baseada apenas em perfilamento
- Coleta facial não direcionada: Criação de bases de dados de reconhecimento facial a partir de fontes públicas
- Reconhecimento de emoções: Em locais de trabalho e instituições educacionais (com exceções)
- Categorização biométrica: Inferir atributos sensíveis como raça, política ou religião
- Identificação biométrica remota em tempo real: Em espaços públicos para aplicação da lei (com exceções)
Sistemas de IA de Alto Risco (Artigo 6)[3]
Sistemas de IA nessas áreas estão sujeitos a requisitos rigorosos:
- Identificação e categorização biométrica
- Gestão de infraestrutura crítica (energia, transporte, água, gás)
- Educação e formação profissional (admissões, avaliações)
- Emprego (recrutamento, avaliação de desempenho, demissão)
- Acesso a serviços essenciais (pontuação de crédito, serviços de emergência)
- Aplicação da lei (avaliação de evidências, avaliação de risco)
- Migração e controle de fronteiras
- Justiça e processos democráticos
Modelos de IA de Propósito Geral (GPAI)
Os provedores de modelos GPAI devem:
- Manter documentação técnica
- Fornecer informações para conformidade de provedores a jusante
- Estabelecer políticas de conformidade de direitos autorais
- Publicar resumos do conteúdo de treinamento
GPAI de risco sistêmico (modelos treinados com >10^25 FLOPs) têm obrigações adicionais incluindo testes adversariais e reporte de incidentes.[4]
Requisitos para IA de Alto Risco
| Requisito | Descrição |
|---|---|
| Gestão de Risco | Estabelecer, documentar e manter sistema de gestão de risco |
| Governança de Dados | Garantir que os dados de treinamento sejam relevantes, representativos e sem erros |
| Documentação Técnica | Documentação detalhada do sistema antes da colocação no mercado |
| Registro | Registro automático das operações do sistema |
| Transparência | Instruções claras para o usuário e informações sobre capacidades |
| Supervisão Humana | Permitir supervisão e intervenção humana |
| Precisão e Robustez | Desempenho consistente nos casos de uso pretendidos |
| Segurança Cibernética | Proteção contra acesso e manipulação não autorizados |
Obrigação de Alfabetização em IA (Artigo 4)
A partir de 2 de fevereiro de 2025, todos os provedores e implementadores devem garantir:
"Funcionários e outras pessoas que lidam com a operação e uso de sistemas de IA em seu nome possuem um nível suficiente de alfabetização em IA."[5]
Isso se aplica amplamente a todos os casos de uso de IA, não apenas a sistemas de alto risco.
Penas
- Práticas de IA proibidas: Até €35 milhões ou 7% do faturamento global
- Infrações de alto risco: Até €15 milhões ou 3% do faturamento global
- Informações incorretas: Até €7,5 milhões ou 1% do faturamento global[6]
PMEs e startups podem beneficiar-se de limites proporcionais.
Ações Principais para Desenvolvedores
- Classifique seus sistemas de IA por nível de risco
- Documente os casos de uso de IA e propósitos pretendidos
- Implemente programas de alfabetização em IA para toda a equipe
- Avalie as obrigações para alto risco, se aplicável
- Monitore os requisitos do GPAI para uso de modelos base
- Prepare-se para avaliações de conformidade (sistemas de alto risco)