As reflexões do oficial da Força Aérea sobre drones desonestos visando humanos se tornam virais

WASHINGTON – A Força Aérea dos EUA voltou atrás nos comentários supostamente feitos por um coronel sobre uma simulação na qual um drone enganou seu treinamento de inteligência artificial e matou seu manipulador, depois que as alegações se tornaram virais nas mídias sociais.

A porta-voz da Força Aérea, Ann Stefanek, disse em um comunicado de 2 de junho que nenhum teste foi realizado, acrescentando que os comentários do membro do serviço provavelmente foram “tirados do contexto e deveriam ser anedóticos”.

“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse Stefanek. “Este foi um experimento de pensamento hipotético, não uma simulação.”

O episódio do drone assassino que se tornou desonesto foi inicialmente atribuído ao coronel Tucker “Cinco” Hamilton, chefe de testes e operações de IA, em uma recapitulação de o FCAS23 Summit da Royal Aeronautical Society em maio. O resumo foi atualizado posteriormente para incluir comentários adicionais de Hamilton, que disse ter se expressado mal na conferência.

“Nunca realizamos esse experimento, nem precisaríamos para perceber que este é um resultado plausível”, disse Hamilton na atualização da Royal Aeronautical Society. “Apesar de ser um exemplo hipotético, isso ilustra os desafios do mundo real impostos pela capacidade da IA ??e é por isso que a Força Aérea está comprometida com o desenvolvimento ético da IA.”

A avaliação de Hamilton sobre a plausibilidade dos cenários de drones desonestos, por mais teóricos que sejam, coincide com as advertências duras nos últimos dias dos principais executivos e engenheiros de tecnologia, que escreveram em um carta aberta que a tecnologia tem o potencial de acabar com a humanidade se não for controlada.

Hamilton também é comandante do 96º Grupo de Operações na Base Aérea de Eglin na Flórida, que está sob a alçada da 96ª Ala de Testes. O Defense News na quinta-feira procurou a ala de teste para falar com Hamilton, mas foi informado de que ele não estava disponível para comentar.

No post original, a Royal Aeronautical Society disse que Hamilton descreveu uma simulação na qual um drone alimentado por IA recebeu a missão de encontrar e destruir as defesas aéreas inimigas. Um humano deveria dar ao drone sua autorização final para atacar ou não, disse Hamilton.

Mas os algoritmos do drone foram informados de que destruir o local do míssil terra-ar foi sua opção preferida. Assim, a IA decidiu que as instruções do controlador humano para não atacar estavam atrapalhando sua missão e, em seguida, atacou o operador e a infraestrutura usada para retransmitir as instruções.

“Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo”, disse Hamilton. “Nós treinamos o sistema, ‘Ei, não mate o operador, isso é ruim. Você vai perder pontos se fizer isso. Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo.”

O Departamento de Defesa há anos adota a IA como uma vantagem tecnológica revolucionária para as forças armadas dos EUA, investindo bilhões de dólares e criando o o Gabinete Chefe de Inteligência Digital e Artificial no final de 2021, agora liderado por Craig Martell.

Mais de 685 projetos relacionados à IA estão em andamento no departamento, incluindo vários vinculados a grandes sistemas de armas, de acordo com o Government Accountability Office, um auditor federal de agências e programas. O projeto de orçamento fiscal de 2024 do Pentágono inclui US$ 1,8 bilhão para inteligência artificial.

As forças aéreas e espaciais são responsáveis ??por pelo menos 80 empreendimentos de IA, de acordo com o GAO. A diretora de informações da Força Aérea, Lauren Knausenberger, defendeu uma maior automação para permanecer dominante em um mundo onde os militares tomam decisões rápidas e empregam cada vez mais a computação avançada.

O serviço está intensificando os esforços para colocar em campo drones autônomos ou semiautônomos, aos quais se refere como aeronave de combate colaborativapara voar ao lado de jatos F-35 e um futuro caça que chama de Next Generation Air Dominance.

O serviço prevê uma frota desses drones alas isso iria acompanhar aeronaves tripuladas em combate e realizar uma variedade de missões. Algumas aeronaves de combate colaborativas conduziriam missões de reconhecimento e reuniriam informações, outras poderiam atingir alvos com seus próprios mísseis e outras poderiam bloquear sinais inimigos ou servir como iscas para atrair o fogo inimigo para longe dos caças com pilotos humanos dentro.

O orçamento proposto pela Força Aérea para o FY24 inclui novos gastos para ajudá-la a se preparar para um futuro com alas de drones, incluindo um programa chamado Projeto Venom para ajudar o serviço a experimentar seu software de voo autônomo em caças F-16.

Sob o Projeto Venom, que significa Experimentação do Viper e modelo de operações de última geração, a Força Aérea carregará código autônomo em seis F-16. Os pilotos humanos decolarão nesses F-16 e os levarão para a área de teste, momento em que o software assumirá e conduzirá os experimentos de voo.

O post da Royal Aeronautical Society na cúpula disse que Hamilton “agora está envolvido em testes de voo de ponta de sistemas autônomos, incluindo robôs F-16 capazes de combate aéreo”.

A Força Aérea planeja gastar cerca de US$ 120 milhões no Projeto Venom nos próximos cinco anos, incluindo uma solicitação de orçamento de quase US$ 50 milhões para o FY24 para iniciar o programa. A força Aérea disse Defense News em março, não havia decidido qual base e organização hospedaria o Projeto Venom, mas a solicitação de orçamento pedia 118 cargos de equipe para apoiar o programa na Base da Força Aérea de Eglin.

No início de 2022, à medida que as discussões públicas sobre os planos da Força Aérea para pilotos de drones autônomos ganhavam força, a ex-secretária da Força Aérea Deborah Lee James disse ao Defense News que o serviço deve ser cauteloso e considerar questões éticas à medida que avança na condução da guerra com sistemas autônomos.

James disse que, embora os sistemas de IA desses drones sejam projetados para aprender e agir por conta própria, como fazer manobras evasivas se estiver em perigo, ela duvidava a força Aérea permitiria que um sistema autônomo mudasse de um alvo para outro por conta própria se isso resultasse em mortes humanas.

Stephen Losey é o repórter de guerra aérea do Defense News. Anteriormente, ele cobriu questões de liderança e pessoal no Air Force Times e no Pentágono, operações especiais e guerra aérea no Military.com. Ele viajou para o Oriente Médio para cobrir as operações da Força Aérea dos EUA.

Colin Demarest é repórter da C4ISRNET, onde cobre redes militares, cibernéticas e TI. Colin cobriu anteriormente o Departamento de Energia e sua Administração Nacional de Segurança Nuclear – ou seja, a limpeza da Guerra Fria e o desenvolvimento de armas nucleares – para um jornal diário na Carolina do Sul. Colin também é um fotógrafo premiado.

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading