Tecnologia – Lei AI: Cartões de modelo e ‘Roupas Novas do Imperador’?

Inscreva-se no grupo de análise e inteligência no Telegram ▶️ https://t.me/areamilitar

No debate sobre a regulamentação da IA ​​na UE, os cartões modelo – resumos de um modelo de aprendizagem automática – enfatizam uma mudança de risco dos desenvolvedores para os utilizadores e podem ser ilusórios na obtenção do impacto pretendido, escreve Cristina Vanberghen.

Cristina Vanberghen trabalha no Instituto Universitário Europeu de Florença, especializando-se em governação da União Europeia, política de segurança comum e externa e segurança cibernética na Université Libre de Bruxelles e no Instituto Europeu de Administração Pública do Luxemburgo. Ela também é membro do Conselho Empresarial WICCI Índia-UE e atua no Conselho Consultivo da Sociedade Indiana de Inteligência Artificial e Direito.

A UE está atualmente no processo de regulamentação da IA, mas continua a existir um dilema sobre como regular os sistemas de IA de uso geral. Alguns propõem a regulamentação de aplicações específicas em vez de modelos básicos, alinhando-se mais com a abordagem baseada no risco. Isso significa que os desenvolvedores de modelos básicos teriam que definir cartões de modelo, incluindo documentação técnica que apresenta informações sobre modelos treinados de forma acessível, seguindo as melhores práticas da comunidade de desenvolvedores.

Embora o conceito de definir cartões-modelo como um elemento obrigatório de autorregulação esteja alinhado com o princípio da “IA transparente”, representa essencialmente uma transparência formal semelhante à informação disponível sobre produtos alimentares. Os cartões modelo exigirão a inclusão de parâmetros como usos pretendidos, limitações potenciais, preconceitos e avaliações de segurança. No entanto, esta informação permite principalmente que os utilizadores tomem decisões informadas – “comprar ou não comprar”.

Embora o fornecimento de informações detalhadas através de cartões modelo permita aos utilizadores tomar decisões mais informadas, é crucial reconhecer que a transparência, a responsabilização e os critérios de IA responsáveis ​​são difíceis de implementar devido à natureza altamente complexa dos sistemas de IA. Usuários com conhecimentos técnicos variados podem achar difícil interpretar as informações com precisão. Os cartões modelo são mais acessíveis para desenvolvedores e pesquisadores com alto nível de formação em IA. Existe um desequilíbrio de poder entre criadores e utilizadores no que diz respeito à finalidade e às limitações dos modelos, e a normalização da informação continua a ser uma parte necessária da governação da IA.

Fornecer muitas informações em cartões de modelo pode sobrecarregar os usuários. Encontrar o equilíbrio certo entre transparência e simplicidade é crucial quando estamos sobrecarregados de informações. Os usuários podem não estar cientes da existência de cartões modelo ou não reservar tempo para revisá-los, especialmente nos casos em que os sistemas de IA estão profundamente integrados em processos críticos.

A questão de sufocar a inovação também é relevante para os modelos de cartões, uma vez que podem evoluir ao longo do tempo e as informações podem ficar desatualizadas. Como atualizar e estabelecer modelos de cartões precisos? Há também a questão de propor cartões de modelo baseados nas melhores práticas da comunidade de desenvolvedores de IA, contribuindo para uma compreensão mais coerente dos modelos de IA em diferentes domínios e aplicações.

Abordar os preconceitos nos cartões modelo é essencial para o desenvolvimento responsável da IA, promovendo a consciencialização e incentivando esforços para mitigar os preconceitos. Incluir cartões modelo significa que a governança da IA ​​acrescenta uma camada adicional de responsabilidade e supervisão sobre como os desenvolvedores podem implementar padrões de autorregulação. Este modelo exigirá mais considerações éticas e de segurança, ao mesmo tempo que permitirá mais flexibilidade para os desenvolvedores.

A adoção automática de modelos de cartões de autorregulação como opção padrão, apenas devido aos desafios que os quadros regulamentares enfrentam para acompanhar as rápidas mudanças, pode não representar a solução ideal. Os modelos básicos abrangem um amplo espectro de aplicações de IA em vários setores, dificultando a elaboração de regulamentações que sejam aplicáveis ​​e eficazes em diversos contextos. Surge a questão: como podemos estabelecer uma abordagem regulatória que sirva para todos?

O principal desafio reside na nossa incapacidade de gerir a interdisciplinaridade e a coordenação necessárias para a regulamentação responsável da IA. Reunir especialistas em ciência da computação, ética, direito e ciências sociais na mesma mesa torna-se uma tarefa difícil. Como podemos abordar a questão das práticas justas de IA quando o conceito de justiça varia dependendo da perspectiva dos desenvolvedores ou usuários?

A gestão eficaz destes riscos requer monitorização, avaliação e atualizações contínuas, um processo que pode consumir muitos recursos e tempo. Esta abordagem visa proteger os usuários e manter uma perspectiva centrada no ser humano. As perspetivas éticas evoluem ao longo do tempo, abrangendo preocupações relacionadas com a privacidade, a autonomia, a responsabilização e o impacto social das aplicações de IA.

Um potencial conflito de interesses entre considerações comerciais e considerações éticas pode levar a práticas desleais de IA. O desafio reside na elaboração de regulamentos que abordem considerações éticas sem impedir a inovação. Encontramo-nos num momento crucial, onde a IA se tornou uma questão geopolítica e diferentes países podem adotar diversas abordagens regulamentares com base nas suas perspetivas culturais, jurídicas e éticas. O ponto crucial é alinhar os valores sociais com regulamentos que lidam com questões de legitimidade e aceitação.

Os consumidores antecipam um quadro jurídico robusto para protegê-los dos danos relacionados com a IA. No entanto, buscar soluções legais e responsabilizar os desenvolvedores por questões como violações de privacidade ou tomadas de decisão tendenciosas pode ser impraticável para consumidores com agendas lotadas. Regulamentações eficazes são cruciais para inspirar confiança de que os cartões modelo permanecem sintonizados com a evolução social mais ampla, defendem os princípios de justiça e equidade e evitam que os desenvolvedores causem danos à reputação através de práticas injustas de IA.

Mais ainda, a eficácia da autorregulação depende do compromisso de uma organização com práticas éticas, transparência e desenvolvimento responsável de IA. Então, os cartões modelo são uma forma realista de “regular” a IA? A fiabilidade dos modelos de autorregulação na IA depende não só do historial da organização, mas também dos seus mecanismos de governação interna. A autorregulação depende da confiança na liderança empresarial para implementar princípios éticos, enquanto a regulamentação prescritiva exige um envolvimento mais abrangente do público, dos decisores políticos e da comunidade de IA.

Em conclusão, os modelos de cartões autorregulados implicam uma potencial ausência de monitorização externa, transferindo assim o equilíbrio do risco diretamente dos criadores para os utilizadores. Como podemos melhorar a supervisão dos desenvolvedores para coibir práticas injustas, especialmente quando este desafio persiste mesmo no mundo offline e pode resultar no desenvolvimento da IA ​​desviando-se para direções não intencionais?

A adoção de modelos de cartões autorregulados pode promover uma série de práticas, levando a disparidades nos sistemas de IA. É essencial reconhecer que a maior parte do cartão modelo se concentra em dados de treinamento derivados de informações de código aberto e disponíveis publicamente. No entanto, confiar em modelos de cartões de autorregulação nem sempre garante a contribuição suficiente do público em geral e pode excluir inadvertidamente diversas perspetivas. Os promotores, nos seus esforços para se adaptarem rapidamente aos riscos em evolução, podem inadvertidamente criar lacunas na abordagem de preocupações éticas emergentes.

Lembre-se do conto de fadas ‘As roupas novas do imperador’. Os cartões modelo podem ser comparados a um traje mágico que permanece invisível para os usuários. Embora pareça oferecer protecção aos utilizadores, a realidade é que as empresas envolvidas em actividades de lobby criam uma ilusão, exibindo a noção de protecção contra a IA injusta com estas roupas imaginárias. No entanto, tal como a criança da história, pode-se afirmar que os cartões modelo carecem de verdadeira substância ou eficácia no seu suposto papel.

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue lendo