Com o objetivo de regulamentar o Estatuto da União Europeia – que ainda não entrou em vigor – a Espanha é o primeiro país integrante a criar uma Agência para tratar sobre o tema.
Trata-se de desdobramento da Agenda Digital 2026 que prioriza o avanço tecnológico e a transformação digital e considera essencial o desenvolvimento da IA inclusiva, sustentável e centrada nos cidadãos.
A Agência será supervisionada pelo Ministério de Assuntos Econômicos e transformação digital, por intermédio de sua Secretaria de Digitalização e Inteligência Artificial.
O Regulamento Europeu possui regras de acordo com os níveis de risco da IA: o primeiro seria o inaceitável, ou seja, aqueles considerados uma ameaça para as pessoas e que serão proibidos, a exemplo dos que permitam manipular o comportamento de pessoas ou grupos vulneráveis específicos (brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças); aqueles que classificam as pessoas com base no comportamento socioeconómico, em razão de caraterísticas pessoais, ou ainda, aqueles sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial, com exceção dos mecanismos voltados à repressão de crimes graves.
As IA de riscos elevados são aquelas que afetem negativamente a segurança ou os direitos fundamentais e dividem-se em duas categorias:
1. Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos, a exemplo de brinquedos, aviação, automóveis, dispositivos médicos e elevadores;
2. Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE:
• identificação biométrica e categorização de pessoas singulares;
• gestão e funcionamento de infraestruturas essenciais;
• educação e formação profissional;
• emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria;
• acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos;
• aplicação da lei;
• gestão da migração, do asilo e do controlo das fronteiras;
• assistência na interpretação jurídica e na aplicação da lei.
Todos os sistemas de IA de risco elevado serão avaliados tanto antes de serem colocados no mercado como durante todo o seu ciclo de vida.
Já as IA de risco limitado devem cumprir requisitos mínimos de transparência de forma a permitir aos usuários tomar decisões informadas, isto é, ao interagir com os sistemas, as pessoas poderão decidir se querem ou não continuar a utilizá-las, principalmente aqueles que geram ou manipulam conteúdos de imagem, áudio ou vídeo.