Nota Informativa

AI Act: Orientações da Comissão sobre sistemas de risco elevado

20/06/2025

A Comissão Europeia lançou recentemente uma consulta pública sobre as Orientações a considerar na classificação de sistemas de Inteligência Artificial (IA) de risco elevado. O objetivo da consulta é a recolha de contributos sobre:

Classificação de Sistemas de IA de risco elevado
  • Exemplos práticos de sistemas de IA que podem ser classificados como de risco elevado;
  • Questões sobre as regras de classificação de sistemas de IA de risco elevado nos termos previstos no artigo 6.º e anexos I e III do Regulamento da Inteligência Artificial[1] (AI Act)
Proposta de orientações da Comissão relativas ao artigo 6.º do AI Act (Orientações)
  • Questões a esclarecer nas Orientações a emitir pela Comissão sobre a classificação de sistemas de IA de risco elevado.
  • Futuras directrizes sobre requisitos e obrigações que os sistemas de IA de risco elevado devem cumprir.
  • Definição clara das responsabilidades de prestadores, implementadores e outros interveniente ao longo da cadeia de valor da IA
CLASSIFICAÇÃO DE SISTEMAS NO AI ACT

O AI Act entrou em vigor a 1 de agosto de 2024 para estabelecer regras harmonizadas visando o uso de sistemas de inteligência artificial coerentes, de confiança e eticamente corretos (centrados no ser humano).

A classificação dos sistemas de IA segue uma abordagem baseada no risco (risk based approach)[2], especialmente no que respeita aos de risco elevado previstos no Capítulo III do AI Act.

A figura abaixo ilustra os vários níveis de classificação de risco, incluindo os sistemas de IA cuja utilização não é permitida por serem consideradas práticas proibidas, nos termos do artigo 5.º do AI Act[3].

Fonte: Comissão Europeia

Segundo o AI Act, os sistemas de risco elevado apenas podem ser usados quando não representem riscos inaceitáveis para a saúde, segurança ou direitos fundamentais das pessoas. Estes sistemas dividem-se em:

  • Sistemas de IA utilizados como componentes de segurança de produtos ou produtos referidos no anexo I[4] ;
  • Sistemas de IA previstos no Anexo III do AI Act que geram riscos significativos para saúde, segurança ou direitos fundamentais[5]. Quando não representem um risco significativo, estes sistemas não são considerados de risco elevado [6].
OBJETIVO DAS ORIENTAÇÕES PROPOSTAS PELA COMISSÃO

De acordo com o AI Act, a Comissão Europeia deve publicar orientações sobre a aplicação prática deste regulamento, em especial directrizes sobre a classificação de sistemas de IA de risco elevado até fevereiro de 2026[7]. Adicionalmente, a Comissão deve elaborar orientações sobre os requisitos legais e as responsabilidades dos operadores ao longo da cadeia de valor[8]. As Orientações visam:

  • Fornecer exemplos práticos e esclarecer questões sobre a classificação de sistemas de IA de risco elevado referidos nos n.ºs 1 e 2 do artigo 6.º e nos anexos I e III do AI Act;
  • Ajudar prestadores e implementadores a compreender e cumprir os requisitos e obrigações aplicá - veis aos sistemas de IA de risco elevado, tais como:

A consulta promovida pela Comissão Europeia termina a 18 de julho de 2025 e as Orientações serão publicadas até 2 de fevereiro de 2026. As regras relativas à classificação de sistemas de risco elevado previstas no n.º 1 do artigo 6.º serão aplicáveis a partir de 2 de agosto de 2027.

Downloads

Mantenha-se informado

Please note, your browser is out of date.
For a good browsing experience we recommend using the latest version of Chrome, Firefox, Safari, Opera or Internet Explorer.