Lexicon on AI: NIST dos EUA cria padrões para tornar a inteligência artificial segura e confiável

Nenhuma tecnologia desde a fissão nuclear moldará o nosso futuro colectivo como a inteligência artificial, por isso é fundamental que os sistemas de IA sejam seguros, fiáveis ??e socialmente responsáveis. Mas, ao contrário da bomba atómica, esta mudança de paradigma foi quase completamente impulsionada pelo sector tecnológico privado, que tem sido resistente à regulamentação, para dizer o mínimo. Bilhões estão em jogo, tornando a tarefa da administração Biden de estabelecer padrões para a segurança da IA ??um grande desafio.

Para definir os parâmetros, recorreu a uma pequena agência federal, o Instituto Nacional de Padrões e Tecnologia. As ferramentas e medidas do NIST definem produtos e serviços, desde relógios atômicos até tecnologia de segurança eleitoral e nanomateriais.

No comando dos esforços de IA da agência está Elham Tabassi, conselheiro-chefe de IA do NIST. Ela liderou a Estrutura de gerenciamento de risco de IA publicada há 12 meses, que lançou as bases para a ordem executiva de IA de Biden em 30 de outubro. Catalogou riscos como preconceito contra não-brancos e ameaças à privacidade.

Estamos nos canais do WhatsApp. Clique juntar-se.

Nascida no Irã, Tabassi veio para os EUA em 1994 para fazer mestrado em engenharia elétrica e ingressou no NIST pouco depois. Ela é a principal arquiteta de um padrão que o FBI usa para medir a qualidade da imagem de impressões digitais.

Esta entrevista com Tabassi foi editada para maior extensão e clareza.

P: As tecnologias emergentes de IA têm capacidades que seus criadores nem sequer entendem. Não existe sequer um vocabulário acordado, a tecnologia é muito nova. Você enfatizou a importância de criar um léxico sobre IA. Por que?

R: A maior parte do meu trabalho tem sido em visão computacional e aprendizado de máquina. Também aí precisávamos de um léxico partilhado para evitar evoluir rapidamente para um desacordo. Um único termo pode significar coisas diferentes para pessoas diferentes. Conversar uns com os outros é particularmente comum em campos interdisciplinares como a IA.

P: Você disse que para que seu trabalho tenha sucesso você precisa da contribuição não apenas de cientistas e engenheiros da computação, mas também de advogados, psicólogos e filósofos.

R: Os sistemas de IA são inerentemente sociotécnicos, influenciados pelos ambientes e condições de utilização. Eles devem ser testados em condições reais para compreender os riscos e impactos. Portanto, precisamos de cientistas cognitivos, de cientistas sociais e, sim, de filósofos.

P: Esta tarefa é uma tarefa difícil para uma pequena agência, subordinada ao Departamento de Comércio, que o Washington Post chamou de “notoriamente subfinanciada e com falta de pessoal”. Quantas pessoas no NIST estão trabalhando nisso?

R: Em primeiro lugar, gostaria de dizer que nós, do NIST, temos uma história espetacular de envolvimento com comunidades amplas. Ao montar a estrutura de risco de IA, ouvimos mais de 240 organizações distintas e obtivemos cerca de 660 conjuntos de comentários públicos. Em qualidade de resultados e impacto, não parecemos pequenos. Temos mais de uma dezena de pessoas na equipe e estamos expandindo.

P: O orçamento do NIST crescerá dos actuais 1,6 mil milhões de dólares tendo em vista a missão de IA?

R: O Congresso assina os cheques para nós e ficamos gratos pelo seu apoio.

P: A ordem executiva dá até julho para criar um conjunto de ferramentas para garantir a segurança e a confiabilidade da IA. Eu entendo que você chamou isso de “um prazo quase impossível” em uma conferência no mês passado.

R: Sim, mas rapidamente acrescentei que não é a primeira vez que enfrentamos esse tipo de desafio, que temos uma equipe brilhante, comprometida e entusiasmada. Quanto ao prazo, não estamos começando do zero. Em junho, reunimos um grupo de trabalho público focado em quatro conjuntos diferentes de diretrizes, inclusive para autenticação de conteúdo sintético.

P: Os membros do Comitê de Ciência e Tecnologia da Câmara disseram em uma carta no mês passado que souberam que o NIST pretende conceder doações ou prêmios por meio de um novo instituto de segurança de IA – sugerindo falta de transparência. R: Na verdade, estamos explorando opções para um processo competitivo para apoiar oportunidades de pesquisa cooperativa. Nossa independência científica é muito importante para nós. Embora estejamos executando um processo de engajamento massivo, somos os autores finais de tudo o que produzimos. Nunca delegamos a outra pessoa.

P: Um consórcio criado para auxiliar o instituto de segurança de IA pode gerar polêmica devido ao envolvimento da indústria. O que os membros do consórcio devem concordar?

R: Publicamos um modelo desse acordo em nosso site no final de dezembro. Abertura e transparência são uma marca registrada para nós. O modelo está aí.

P: A estrutura de risco de IA era voluntária, mas a ordem executiva impõe algumas obrigações aos desenvolvedores. Isso inclui o envio de modelos em linguagem ampla para equipes governamentais (testes de riscos e vulnerabilidades) assim que atingirem um determinado limite em tamanho e poder computacional. O NIST será responsável por determinar quais modelos serão red-team?

R: Nosso trabalho é avançar na ciência e nos padrões de medição necessários para este trabalho. Isso incluirá algumas avaliações. Isso é algo que fizemos para algoritmos de reconhecimento facial. Quanto às tarefas (a equipe vermelha), o NIST não fará nenhuma dessas coisas. Nosso trabalho é ajudar a indústria a desenvolver padrões tecnicamente sólidos e cientificamente válidos. Somos uma agência não reguladora, neutra e objetiva.

P: A forma como as IAs são treinadas e as proteções colocadas sobre elas podem variar amplamente. E às vezes recursos como a segurança cibernética foram deixados de lado. Como podemos garantir que o risco seja avaliado e identificado com precisão — especialmente quando podemos não saber em quais modelos divulgados publicamente foram treinados?

R: Na estrutura de gestão de riscos de IA, criamos uma espécie de taxonomia para a confiabilidade, enfatizando a importância de abordá-la durante o projeto, o desenvolvimento e a implantação — incluindo monitoramento e avaliações regulares durante os ciclos de vida dos sistemas de IA. Todos aprenderam que não podemos nos dar ao luxo de tentar consertar sistemas de IA depois que eles estiverem em uso. Tem que ser feito o mais cedo possível.

E sim, depende muito do caso de uso. Faça o reconhecimento facial. Uma coisa é usá-lo para desbloquear meu telefone. Um conjunto totalmente diferente de requisitos de segurança, privacidade e precisão entra em jogo quando, digamos, as autoridades policiais o utilizam para tentar resolver um crime. As compensações entre conveniência e segurança, preconceito e privacidade – tudo depende do contexto de uso.

Leia também as principais notícias de hoje:

Apple Vision Pro e o futuro: A Apple já está prevendo futuras aplicações do dispositivo no local de trabalho, incluindo seu uso em cirurgias, reparos de aeronaves e ensino de alunos. Saiba o que o gadget está preparado para fazer aqui.

Armadilhas cibernéticas está se tornando a ruína da vida moderna. Em 2022–23, quase 94.000 crimes cibernéticos foram relatados na Austrália, um aumento de 23% em relação ao ano anterior. Saiba como se proteger aqui.

IA para o bem ou para o mal? Se a IA em rápida melhoria atingir o seu elevado objectivo de imortalidade digital – como os seus defensores acreditam que pode – será uma força para o bem ou para o mal? Li tudo sobre isso aqui.

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading