Escolha uma Página
Sentado numa sala de comando, o militar move robôs no campo de batalha com um joystick. A guerra por controle remoto envolve novos riscos

FELIPE PONTES
CONTROLE REMOTO (Foto: Heather Ainsworth/The New York Times e Ethan Miller/Getty Images)
(Fotos: Heather Ainsworth/The New York Times e Ethan Miller/Getty Images)
Em 2011, a Força Aérea americana formou 350 operadores de drones (aviões controlados à distância), mais do que pilotos de caça e bombardeiros somados. Sentados em salas cercadas por botões e monitores, sem sair do chão, esses novos Top Guns têm à disposição 7 mil drones. Com tamanho de 140 vezes o que havia há dez anos, a esquadrilha é tão numerosa quanto a de aviões convencionais. Mandar robôs para a guerra tem uma vantagem incontestável. A dezenas de quilômetros de distância do lugar de conflito, um soldado corre menos risco de morrer. Mas trocar homens por máquinas num campo de batalha, como fazem os Estados Unidos em países como Paquistão e Afeganistão, tem implicações éticas e práticas ainda pouco compreendidas.
Segundo o site especializado The Long War Journal, em três anos, o governo Barack Obama autorizou cerca de 750 ataques de drones armados com bombas. O número de ações militares é o quádruplo do autorizado por seu antecessor, George W. Bush, em nove anos. Com câmeras, sensores de calor e raios infravermelhos, os aviões-robôs procuram suspeitos no território inimigo. De uma sala de comando, militares acompanham imagens e alertas. Podem decidir o envio de soldados, como fizeram na captura do líder da al-Qaeda, Osama bin Laden, no Paquistão. Ou autorizar o robô a atirar, como fizeram para matar outro líder da al-Qaeda, Ilyas Kashmiri. Quando o alvo identificado faz parte de uma lista de procurados, ou diante do risco de atingir civis, o disparo depende de autorização pessoal do presidente Obama. Desde 2006, afirma o site, mais de 1.900 pessoas foram mortas no Paquistão por drones americanos.
Das salas de comando, os militares que operam os drones ficam menos sujeitos a erros provocados pela tensão do campo de combate. E, segundo Ronald Arkin, professor de robótica do Instituto de Tecnologia da Geórgia, as máquinas erram menos que os homens em atividades perigosas e de alta precisão. Máquinas não sentem fome, frio, estresse ou ódio. “Não cometem abusos de guerra, como estupros”, diz. Arkin está desenvolvendo, em parceria com o Exército americano, um software para robôs militares se comportarem mais eticamente que humanos no campo de batalha.
Mas comandar um exército de robôs à distância, numa sala, torna o combate semelhante a um videogame. É mais fácil encarar o inimigo com indiferença, desumanizá-lo. “Militares perdem o pudor de matar e a opinião pública fica apática”, afirmou a advogada britânica Jennifer Robinson, à rede de comunicações Al Jazeera. Autor do livro The United States of fear (Os Estados Unidos do medo, numa tradução livre), o escritor Tom Engelhardt diz que os robôs soldados são a última etapa para tornar a guerra um evento remoto para a maioria das pessoas. “Primeiro veio a batalha profissional, depois a privatizada, então a terceirizada – e todas tornaram o conflito mais distante à maioria do público. Agora, literal e figurativamente, surgiu a guerra remota.”
Os robôs nas telas dos cinemas (Foto: MGM/The Kobal Collection, Warner Bros/Everett Collection e divulgação)O governo dos Estados Unidos não diz oficialmente quantas vezes usou drones em ataques militares, quantas pessoas matou intencionalmente ou quantas matou sem intenção. Segundo uma autoridade do governo americano ouvida pelo jornal The New York Times, o número de mortos por engano “é inferior a dois dígitos”. Aparentemente, portanto, a eficácia do Exército americano serve de argumento a favor do uso de robôs. Mas a taxa de erro dos robôs é determinada por critérios discutíveis. “Obama considera combatentes todos os homens, em idade de serviço militar, encontrados em área de conflito”, afirma o jornal. “Eles passam à lista de inocentes apenas se o serviço de inteligência assim os considerar, depois de mortos.” Até partidários do presidente Obama criticam a falta de informações sobre o uso de robôs em combate. “Nossas ações militares com drones não têm transparência, contabilidade ou supervisão”, afirmou Dennis Kucinich, congressista de Ohio, do Partido Democrata.
A falta de informações sobre o uso dos drones do Exército americano dá força àqueles que são contra robôs em tarefas de risco. Os opositores dizem ser quase impossível, para uma equipe de programadores de software, prever todas as situações que um robô terá de encarar num campo de batalha. Seus argumentos ecoam ideias abordadas, há seis décadas, pelo escritor britânico Arthur C. Clarke. Inspirado em um conto seu, o filme 2001: uma odisseia no espaço (1968), do diretor Stanley Kubrick, mostra a luta entre homens e uma máquina. Sistema central de uma nave, o computador HAL-9000 recebeu dois comandos: realizar uma missão espacial e não deixar seus tripulantes saber do que se trata. Quando as instruções entram em conflito, HAL-9000 toma a decisão que lhe parece adequada: matar os astronautas. George Bekey, professor de engenharia da Universidade Politécnica Estadual da Califórnia (Calpoly), diz que robôs controlados por inteligência artificial têm ações imprevistas, como as do fictício computador HAL-9000. “Quem diz que temos controle total sobre os computadores está 20 anos atrasado”, afirma Bekey, editor do livro Robot ethics: the ethical and social implication of robotics (algo como Ética dos robôs: a implicação ética e social da robótica).
A ideia do robô descontrolado que mata humanos, prenunciada pelo filme de Kubrick, se concretizou em 2007, na África do Sul. Uma bateria antiaérea do Exército sul-africano, com autonomia para mirar e atirar por conta própria, sofreu uma pane durante um teste. Disparando com precisão, matou nove soldados e feriu 14. Em seguida, voltou a funcionar normalmente. Em agosto de 2010, um helicóptero-robô do Exército dos Estados Unidos fugiu da rota prevista durante 30 minutos. Sobrevoou 48 quilômetros em direção a Washington e violou o espaço aéreo da capital americana. Como estava desarmado, provocou apenas um susto. “As máquinas capazes de matar são o começo do nosso fim”, afirma Gianmarco Veruggio, cientista italiano especialista em robótica. Ele organizou, em 2004, na Itália, o primeiro simpósio internacional de “Roboética”. A disciplina discute como programar padrões morais em máquinas e limitar seu poder. “Precisamos criar agora normas elaboradas para não ter problemas com robôs no futuro”, afirma Veruggio.
Talvez seja tarde demais para discutir um código de ética. Cerca de 50 países – entre eles o Brasil – trabalham com drones. Eles podem assinar tratados de restrição à atividade de drones armados, como já se fez a respeito de minas terrestres e armas nucleares. Mas pouco poderão fazer a respeito de grupos terroristas, indiferentes a acordos diplomáticos e com livre acesso a robôs baratos. Terroristas do grupo Hezbollah já usaram um drone.
A popularização dos robôs inspira outra preocupação, quanto à proliferação de vírus. O aumento no número de máquinas baseadas em programas de código aberto, com componentes comuns a videogames e celulares, torna mais fácil e atraente o desenvolvimento de programas para corrompê-las. Com o programa certo, um hacker pode transformar o robô de aliado em inimigo. Ou agente duplo. Foi o que, de certa forma, fizeram os serviços de inteligência de Estados Unidos e Israel ao inocular o vírus Stuxnet em computadores de usinas de enriquecimento de urânio do Irã. Infectado, o computador central das usinas mandava suas centrífugas girar 40% mais rápido, em ciclos de 15 minutos, a fim de rachar suas estruturas. Vulnerável e desprovido de autocontrole, o computador aceitou as novas ordens sem discutir. Os funcionários das usinas nada perceberam, pois passaram a receber relatórios falsos forjados pela máquina. O Stuxnet interrompeu o funcionamento de 1.000 a 5 mil centrífugas. A guerra travada com robôs já começou. Isso não torna o mundo apenas mais difícil. Cria um novo campo de batalha – virtual – e novas preocupações.
Época/montedo.com
Skip to content