Inscreva-se no grupo de análise e inteligência no Telegram ▶️ https://t.me/areamilitar
A Comissão Europeia divulgou no domingo (19 de novembro) um possível compromisso sobre a lei da IA para quebrar o impasse nos modelos básicos, aplicando a abordagem escalonada à IA de uso geral e introduzindo códigos de prática para modelos com riscos sistémicos.
A Lei da IA é um projeto de lei histórico para regular a Inteligência Artificial com base em seus riscos potenciais. A proposta legislativa encontra-se atualmente na última fase do processo legislativo, os chamados trílogos, entre a Comissão da UE, o Conselho e o Parlamento.
Nas últimas semanas, os decisores políticos da UE envolvidos têm entrado em conflito na regulamentação de modelos de base poderosos como o GPT-4, que alimenta o chatbot mais famoso do mundo, o ChatGPT, um tipo versátil de sistema conhecido como IA de Propósito Geral.
Em 10 de Novembro, a Euractiv informou sobre a forma como toda a legislação corria o risco de descarrilar após o conflito, com as três maiores economias da Europa a manifestarem-se contra a abordagem escalonada inicialmente prevista nos modelos de base e a rejeitarem qualquer regulamentação que não fosse os códigos de conduta.
No entanto, não ter quaisquer obrigações relativamente aos modelos de fundação não é considerado uma opção para o Parlamento Europeu. Os eurodeputados envolvidos no processo reúnem-se na terça-feira (21 de novembro) para discutir modelos de fundação, governação e aplicação da lei.
No domingo, o executivo da UE partilhou um compromisso com os co-relatores do Parlamento Europeu, que o partilharam com os seus colegas na segunda-feira. O texto mantém a abordagem escalonada, mas centra-se na IA de uso geral, atenua as obrigações e introduz códigos de práticas.
Modelos e sistemas GPAI
O texto representa uma reformulação significativa em comparação com o que foi divulgado pela presidência espanhola, e os principais eurodeputados forneceram feedback no início deste mês. Basicamente, existe agora uma distinção entre modelos e sistemas de IA de uso geral (GPAI).
“’Modelo de IA de uso geral’ significa um modelo de IA, inclusive quando treinado com uma grande quantidade de dados usando autosupervisão em escala, que é capaz de [competently] realizar uma ampla gama de tarefas distintas, independentemente da forma como o modelo é lançado no mercado”, diz a nova definição.
Por outro lado, um sistema GPAI seria “baseado num modelo de IA que tem a capacidade de servir uma variedade de propósitos, tanto para uso direto como para integração noutros sistemas de IA”.
A ideia é que os modelos GPAI podem implicar riscos sistémicos relacionados com “capacidades fronteiriças” baseadas em ferramentas técnicas e metodologias “apropriadas”. Nas notas, os co-relatores questionam a terminologia e a imprecisão do texto.
Além deste critério qualitativo, o projeto classifica inicialmente os modelos GPAI com riscos sistêmicos usando um limite quantitativo: a quantidade de computação utilizada para seu treinamento medida em operação de ponto flutuante, uma medida de desempenho do computador, superior a 10~26.
A Comissão ficaria habilitada a adotar legislação secundária para especificar melhor os elementos técnicos dos modelos GPAI e manter os parâmetros de referência atualizados em função do mercado e do desenvolvimento tecnológico.
Os co-relatores comentaram, perguntando se a Comissão pode ser incumbida de atualizar a definição dos modelos GPAI e propor uma redação adicional que exija que o executivo da UE desenvolva uma metodologia para avaliar as capacidades de formação em computação no prazo de 18 meses a partir da entrada em vigor do regulamento.
À semelhança da Lei dos Serviços Digitais, os fornecedores do modelo GPAI que cumpram este limiar devem notificar a Comissão. No entanto, o texto inclui a possibilidade de os prestadores solicitarem uma isenção, argumentando que o seu modelo não tem capacidades fronteiriças – uma disposição que os co-relatores parecem considerar desnecessária.
A Comissão poderá também designar modelos GPAI que apresentem riscos sistémicos por sua própria iniciativa.
Obrigações para modelos GPAI
O texto inclui algumas obrigações horizontais para todos os modelos GPAI, o que exigiria documentação técnica atualizada através de fichas de modelo – proposta também presente no documento oficioso franco-alemão-italiano.
Os cartões modelo incluiriam informações sobre o processo de formação, estratégias de avaliação e informações suficientes para os operadores económicos a jusante que pretendam desenvolver no modelo um novo sistema de IA para cumprir a Lei da IA. Um número mínimo de elementos é detalhado em anexo.
No que diz respeito aos direitos de autor, o texto apenas afirma que os fornecedores-modelo devem implementar uma política para respeitar a Directiva dos Direitos de Autor, especialmente a reserva de direitos. Um ‘resumo suficientemente detalhado’ do conteúdo fornecido para treinar o modelo precisaria ser publicado.
O conteúdo gerado sinteticamente, como texto e imagens, deve ser marcado em formato legível por máquina e detectável como gerado ou manipulado artificialmente.
Obrigações para modelos GPAI com riscos sistêmicos
Os requisitos adicionais para os modelos com riscos sistémicos incluem o estabelecimento de medidas internas e o envolvimento com a Comissão para identificar potenciais riscos sistémicos e desenvolver possíveis medidas de atenuação, nomeadamente através de um código de práticas alinhado com as abordagens internacionais.
Estes prestadores também teriam de acompanhar e comunicar imediatamente à Comissão ou às autoridades nacionais, conforme relevante, quaisquer incidentes graves e medidas corretivas relevantes.
Códigos de prática
Um novo artigo é dedicado aos códigos de prática que o executivo da UE deveria facilitar a elaboração – no que parece ser uma resposta ao documento oficioso liderado pela França que apelava a códigos de conduta alinhados com os princípios elaborados através do Processo de Hiroshima do G7.
Os códigos de prática devem abranger pelo menos as obrigações de transparência para todos os modelos GPAI, como fichas modelo e modelos de resumo, a identificação de riscos sistémicos a nível da UE e as medidas de avaliação e mitigação de riscos – incluindo a possível propagação ao longo da cadeia de valor.
A elaboração dos códigos de prática incluiria os fornecedores relevantes do modelo GPAI e as autoridades nacionais, com o apoio da sociedade civil e de outras partes interessadas. Os códigos devem incluir indicadores-chave de desempenho e relatórios regulares sobre a implementação dos compromissos.
A Comissão poderá aprovar um código de práticas que se considere contribuir para a aplicação da Lei da IA, fazendo com que os membros aderentes beneficiem de uma presunção de conformidade com as obrigações do regulamento. O texto não menciona possíveis sanções.
[Edited by Nathalie Weatherald]