Possíveis implicações éticas do uso de IA no projeto causou revolta entre os funcionários do Google, que pediram à empresa que encerrasse sua parceria com o Pentágono
Carolina Unzelte
O Departamento de Defesa dos EUA utilizaram inteligência artificial para identificar alvos de 85 ataques aéreos no Iraque e na Síria, em resposta a um ataque de milicianos apoiados pelo Irã, apenas neste mês, segundo uma reportagem da Bloomberg. Os algoritmos foram usados para encontrar foguetes, mísseis, armazéns de drones e centros de operação – que foram parcial ou completamente destruídos depois das ações dos EUA.
Essa tática de guerra só foi possível por causa do projeto Maven, que nasceu em 2017 com uma parceria entre o exército norte-americano e o Google. O projeto possibilitou o uso da tecnologia de inteligência artificial da big tech pelas Forças Armadas dos EUA para analisar imagens de drones e sinalizar imagens para uma revisão humana adicional.
As possíveis implicações éticas do uso de IA no projeto causou revolta entre os funcionários do Google, que pediram à empresa que encerrasse sua parceria com o Pentágono. Alguns chegaram a se demitir. Alguns meses depois, o Google decidiu não renovar seu contrato, que terminou em 2019. Após a saída da big tech, o Pentágono formalmente isentou o Maven de divulgação pública, argumentando que informações sobre suas capacidades eram tão sensíveis que divulgá-las poderia dar uma vantagem aos inimigos dos EUA.
Como o Maven funciona?
Segundo Schuyler Moore, diretora de tecnologia do Comando Central dos EUA, trabalhadores humanos constantemente verificavam as recomendações de alvos dos sistemas de IA. Pessoal humano também era responsável por propor como realizar os ataques e quais armas usar. “Nunca há um algoritmo que esteja apenas funcionando, chegando a uma conclusão e depois avançando para o próximo passo”, disse ela à Bloomberg. “Cada etapa que envolve IA tem um humano verificando no final.”
O 18º, uma corporação de reação rápida com 90.000 soldados, é o maior campo de testes operacionais para o Maven, um sistema construído em torno de algoritmos destinados a identificar pessoal e equipamento no campo de batalha. Contando com avanços em aprendizado de máquina, o sistema pode aprender por si próprio a identificar objetos com base em dados de treinamento e feedback do usuário.
Os modelos de IA do Pentágono também podem aprender se as mudanças nos objetos são provavelmente significativas – sugerindo, por exemplo, que um adversário está construindo uma nova instalação militar. Tudo isso é fundido com informações como imagens de satélite e dados de geolocalização de interceptações de comunicações em uma única interface de computador, chamada Maven Smart System.
O sistema avançou muito desde seu início, em 2017. Além de imagens de vídeo, agora pode incorporar dados de sistemas de radar que enxergam através de nuvens, escuridão e chuva, bem como de sensores infravermelhos de detecção de calor – permitindo-lhe procurar objetos de interesse como motores ou fábricas de armas.
Também pode analisar informações não visuais, cruzando etiquetas de geolocalização de vigilância eletrônica e feeds de mídia social, por exemplo. O processo de tomada de decisão do 18º tem seis estágios – quatro deles são ocupados por computadores.
O software determina quais dados coletar, coloca e analisa as informações resultantes e comunica a decisão de agir de um comandante – potencialmente para um sistema de armas. Com a assistência do Maven, é possível aprovar até 80 alvos em uma hora de trabalho, em comparação com 30 sem ele, segundo a Bloomberg.
Apesar da saída do Google, muitas outras empresas de tecnologia e defesa permaneceram envolvidas com o Maven, segundo fontes da Bloomberg. Palantir Technologies, Amazon Web Services, ECS Federal, L3Harris Technologies, Maxar Technologies, Microsoft e Sierra Nevada estão entre os principais parceiros.
No ano passado, o Pentágono atribuiu a responsabilidade primária pelo desenvolvimento do Maven à Agência Nacional de Inteligência Geoespacial (NGA), que se especializa em análise de mapeamento e imagens. A NGA, que estabeleceu um escritório dedicado em Fort Liberty, está focada em expandir os feeds de dados, velocidade e capacidades do Maven, que são então implantados para teste no 18º.
Exterminador do futuro?
À medida que os EUA e seus aliados passam a depender de sistemas de IA, os adversários podem tentar miná-los envenenando os dados de treinamento ou hackeando atualizações de software. Os algoritmos podem perder precisão ao longo do tempo e, como sua tomada de decisão é opaca, são mais difíceis de testar do que outras tecnologias militares.
Tudo isso significa que, quando se trata de usar IA no campo, os comandantes terão que julgar se a necessidade militar e o contexto mais amplo justificam o risco de erros. Confundir uma onda com um navio de guerra é uma coisa; na pior das hipóteses, isso pode resultar em um míssil caindo inofensivamente no mar. Usar mira de IA em um campo de batalha terrestre lotado, com civis por perto, é muito mais perigoso.
Apesar de suas limitações, os EUA indicaram que pretendem expandir a autonomia de seus sistemas algorítmicos. O Departamento de Defesa emitiu uma diretiva no ano passado instruindo comandantes e operadores a exercerem “níveis apropriados de julgamento humano” sobre o uso da força – sugerindo que os funcionários podem ver a supervisão humana, em vez da iniciação da tomada de decisões, como adequada.
O secretário-geral da ONU, António Guterres, lidera um grupo de mais de 80 países que pediu uma proibição de sistemas de armas autônomas. “Máquinas com poder e discrição para tirar vidas sem envolvimento humano são moralmente repugnantes e politicamente inaceitáveis e devem ser proibidas”, disse Guterres em julho. No total, o exército dos EUA tem mais de 800 projetos de IA ativos, com objetivos que incluem processamento de dados de sensores de armas e planejamento de rotas de ressuprimento de munição, entre muitos outros.
Pairando sobre todos esses esforços está a ansiedade em relação à China. Funcionários dos EUA se preocupam que Pequim possa estar à frente em tecnologias como aprendizado profundo e esteja se movendo para integrar essas capacidades em suas forças armadas. A preocupação com o uso militar de IA pela China foi uma das razões pelas quais a Casa Branca impôs controles de exportação mais rigorosos em chips de computador de alta tecnologia em outubro. O Pentágono também adicionou o principal fabricante chinês de chips de memória e uma proeminente empresa de reconhecimento facial a uma lista de empresas que, segundo ele, estão ajudando o Exército de Libertação do Povo.
Além dos EUA, o exército de Israel já disse que está usando inteligência artificial para fazer recomendações de alvos na Faixa de Gaza, e a Ucrânia está empregando um software de IA na guerra com a Rússia.