Tecnologia – Lei de IA: os legisladores da UE definem regras sobre modelos de IA, enfrentam a aplicação da lei

Inscreva-se no grupo de análise e inteligência no Telegram ?? https://t.me/areamilitar

Após 22 horas de negociações intensas, os decisores políticos da UE encontraram um acordo provisório sobre as regras para os modelos de IA mais poderosos, mas um forte desacordo no capítulo da aplicação da lei forçou os funcionários exaustos a pedir um recesso.

A Lei da IA ??é um projeto de lei histórico para regular a Inteligência Artificial com base na sua capacidade de causar danos. O dossiê está na última fase do processo legislativo, enquanto a Comissão, o Conselho e o Parlamento da UE se reúnem nos chamados trílogos para discutir as disposições finais.

O trílogo final começou na quarta-feira (6 de dezembro) e durou quase ininterruptamente durante um dia inteiro, até que foi convocado um recesso para a manhã de sexta-feira. Nesta primeira parte da negociação, foi alcançado um acordo sobre a regulamentação de modelos poderosos de IA.

Escopo

A definição de IA constante do regulamento incorpora todos os elementos principais da definição da OCDE, embora não a repita palavra por palavra.

Como parte do acordo provisório, o software livre e de código aberto será excluído do âmbito de aplicação do regulamento, a menos que seja um sistema de alto risco, aplicações proibidas ou uma solução de IA com risco de causar manipulação.

Na mesa dos negociadores após o recesso estará a questão da isenção de segurança nacional, uma vez que os países da UE, liderados pela França, solicitaram uma ampla isenção para qualquer sistema de IA utilizado para fins militares ou de defesa, incluindo para contratantes externos.

Outro ponto a discutir é se o regulamento se aplicará aos sistemas de IA que estavam no mercado antes de começar a ser aplicado, caso sofram uma alteração significativa.

Modelos de fundação

De acordo com um documento de compromisso visto pela Euractiv, a abordagem escalonada foi mantida com uma categorização automática como ‘sistêmica’ para modelos que foram treinados com poder computacional acima de 10~25.

Um novo anexo fornecerá critérios para que o Gabinete de IA tome decisões de designação qualitativa ex officio ou com base num alerta qualificado do painel científico. Os critérios incluem o número de usuários empresariais e os parâmetros do modelo, e podem ser atualizados com base na evolução tecnológica.

As obrigações de transparência aplicar-se-ão a todos os modelos, incluindo a publicação de um resumo suficientemente detalhado dos dados de formação “sem prejuízo dos segredos comerciais”. O conteúdo gerado pela IA terá que ser imediatamente reconhecível.

É importante ressaltar que modelos não sistêmicos e pré-treinados podem evitar as obrigações horizontais se “forem acessíveis ao público sob uma licença que permita o acesso, uso, modificação e distribuição do modelo, e cujos parâmetros […] são disponibilizados publicamente”.

Para os modelos de nível superior, as obrigações incluem a avaliação do modelo, a avaliação e o acompanhamento dos riscos sistémicos, a proteção da cibersegurança e a comunicação de informações sobre o consumo de energia do modelo.

Os códigos de prática destinam-se apenas a complementar as obrigações vinculativas até que sejam implementadas normas técnicas harmonizadas, e a Comissão poderá intervir através de atos delegados se o processo demorar demasiado tempo.

Governança

Será criado um Gabinete de IA na Comissão para fazer cumprir as disposições do modelo de base. As instituições da UE devem fazer uma declaração conjunta de que o Gabinete de IA terá uma rubrica orçamental específica.

Os sistemas de IA serão supervisionados pelas autoridades nacionais competentes, que serão reunidas no Conselho Europeu de Inteligência Artificial para garantir a aplicação consistente da lei.

Um fórum consultivo recolherá o feedback das partes interessadas, nomeadamente da sociedade civil. Foi criado um painel científico de peritos independentes para aconselhar sobre a aplicação do regulamento, sinalizar potenciais riscos sistémicos e informar a classificação de modelos de IA com riscos sistémicos.

Práticas proibidas

A Lei AI inclui uma lista de aplicativos proibidos porque são considerados um risco inaceitável. As proibições confirmadas até agora dizem respeito a técnicas de manipulação, sistemas que exploram vulnerabilidades, pontuação social e extração indiscriminada de imagens faciais.

No entanto, o Parlamento Europeu propôs uma lista muito mais longa de aplicações proibidas e enfrenta uma forte resistência por parte do Conselho. Segundo várias fontes familiarizadas com o assunto, os eurodeputados estavam a ser pressionados a aceitar um pacote de acordo, visto pela Euractiv, que está extremamente próximo da posição do Conselho.

Os parlamentares estavam divididos sobre este assunto, com o Partido Popular Europeu de centro-direita, o co-relator Drago? Tudorache, e o presidente do grupo parlamentar social-democrata, Iratxe García, pressionando pela aceitação do acordo.

O texto do Conselho pretende proibir os sistemas de categorização biométrica baseados em características pessoais sensíveis, como raça, opiniões políticas e crenças religiosas, “a menos que essas características tenham uma ligação direta com um crime ou ameaça específica”.

Os exemplos dados foram de crimes de motivação religiosa ou política. Ainda assim, a presidência também insistiu em manter o perfil racial.

Embora os legisladores de centro-esquerda queiram proibir o policiamento preditivo, a proposta do Conselho limita a proibição a investigações baseadas exclusivamente nas previsões do sistema e não a casos com suspeita razoável de envolvimento em actividades criminosas.

O Parlamento também introduziu uma proibição de software de reconhecimento de emoções no local de trabalho, na educação, na aplicação da lei e no controlo da migração. O Conselho só está disposto a aceitá-la nas duas primeiras áreas, excepto por razões médicas ou de segurança.

Outro tema polêmico é o uso da Identificação Biométrica Remota (RBI). Os eurodeputados concordaram em abandonar a proibição total em favor de excepções restritas relacionadas com crimes graves. O Conselho está a insistir no sentido de dar mais espaço de manobra às autoridades responsáveis ??pela aplicação da lei e de tornar a utilização ex-post numa aplicação de alto risco.

Uma questão adicional em aberto diz respeito a saber se estas proibições devem aplicar-se apenas aos sistemas utilizados na União ou também impedir que as empresas sediadas na UE vendam estas aplicações proibidas no estrangeiro.

[Edited by Zoran Radosavljevic]

Leia mais com EURACTIV

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading