Uma nova geração de armas autônomas está sendo desenvolvida
em diversos laboratórios ao redor do mundo. Quando finalmente chegarem ao campo
de batalha, devem transformar o modo como as guerras são travadas
Do arco e flecha à bomba atômica, a tecnologia tem sido
usada para decidir guerras e conflitos desde o início da civilização humana.
Até agora, no entanto, o homem sempre esteve no controle, decidindo quando e em
cima de quem descarregar o golpe fatal. Na guerra do futuro, esse poder pode
escapar de suas mãos. Daqui a alguns anos, robôs avançados terão a capacidade
de decidir quem vive e quem morre nos campos de batalha. Seja se locomovendo
sobre quatro patas – impossíveis de derrubar – ou voando a centenas de metros
do combate, estarão equipados com metralhadoras e pistolas automáticas e serão
capazes de acertar alvos a quilômetros de distância. Se sofrerem algum tipo de
dano, estarão equipados com chips capazes de se regenerar, para que continuem
em ação ininterruptamente. Inteligentes, saberão o modo mais eficaz de atacar
um alvo, causando o maior estrago possível. Esses robôs ainda não são
realidade. Mas a tecnologia descrita existe, espalhada por diversos
laboratórios científicos nos Estados Unidos — todos financiados pelo exército
americano. É apenas questão de tempo para que as armas autônomas e letais saiam
dos laboratórios e passem a ser aplicadas nos conflitos humanos, mudando a
experiência da guerra para sempre.
Há mais de dez anos, o uso de robôs nos campos e batalha é
uma realidade. Hoje, cerca de 12.000 aviões não-tripulados — também chamados de
drones — cruzam os céus do Oriente Médio comandados pelo exército americano. O
Predator, por exemplo, é usado no Iraque e Afeganistão para missões de
vigilância e espionagem, e pode ser controlado desde os Estados Unidos. No
chão, mais 8.000 robôs são usados pelos soldados para desarmar bombas a
distância, prevenindo danos à tropa. O Packbot, o mais famosos deles, foi
desenvolvido pela empresa iRobot, responsável também pelo Roomba, o primeiro
aspirador de pó robótico do mundo.
Faltava a esse robôs, no entanto, um grau de autonomia e
letalidade que aumentasse sua eficiência nas zonas de guerra. Por isso, nos
últimos anos, centenas de drones começaram a receber armas e sistemas de GPS
que facilitam sua navegação automática. O SWORD, uma espécie de Packbot com uma
arma na topo, já foi enviado ao Afeganistão e Iraque. Ele, no entanto, ainda
não é levado muito a sério pelas tropas. Por ser fácil de derrubar e incapaz de
se levantar sozinho, é vítima fácil de emboscadas e costuma fornecer armas aos
inimigos – recebeu por isso o apelido jocoso de "Veículo de
Reabastecimento do Talibã".
Essa tecnologia, no entanto, não dever ser motivo de piada
por muito tempo. O que está sendo mostrado no Oriente Médio é apenas a primeira
geração de robôs desenvolvidos para a guerra, ainda com uma série de limitações
que estão sendo superadas por protótipos testados em diversos laboratórios nos
Estados Unidos. Segundo Peter W. Singer, cientista político que já trabalhou
com o Departamento de Defesa dos Estados Unidos e hoje é pesquisador do
Instituto Brookings, um think tank sediado em Washington D.C., essa primeira
geração é comparável ao Ford T, um dos primeiros carros a ser fabricado em
massa no mundo, ainda no início do século XX. Quando eles aparecerem, era
impossível prever a importância que os automóveis viriam a ter, e a revolução
que causariam no estilo de vida americano. Do mesmo modo, só agora começam a se
mostrar as aplicações militares mais avançadas dos robôs, com cada vez mais
autonomia em relação aos seus controladores humanos. Segundo Singer, o cenário
que se desenha é claro: os homens estão perdendo o monopólio da guerra.
Corrida de cientistas — Os especialistas concordam que os
Estados Unidos saem na frente nessa nova corrida armamentista. A maioria dos
robôs usados no mundo vêm de seus laboratórios e é de lá que surgem as
principais novidades no campo. O principal polo de desenvolvimento das armas
robóticas é a DARPA (Defense Advanced Research Projects Agency - Agência para a
Pesquisa de Projetos Avançados de Defesa), agência fundada ainda na década de
50, logo após a União Soviética ter colocado o primeiro satélite em órbita da
Terra. À época, seu objetivo era incentivar o desenvolvimento tecnológico americano,
para que o país não ficasse defasado durante a Guerra Fria. Hoje a agência é
voltada especialmente para novas tecnologias com aplicações militares.
Os cientistas do DARPA costumam financiar pesquisas
científicas ousadas e ainda em seus estágios iniciais, sem aplicações
imediatas. Os investimentos do grupo são aplicados em uma série de tecnologias
experimentais, desde armas sônicas e a laser até exoesqueleteos e interfaces
cérebro-máquina — como as desenvolvidas pelo neurocientista brasileiro Miguel
Nicolelis. É importante destacar que as tecnologias financiadas pela agência
costumam sair do papel. "O DARPA é importante não só para a robótica mas
também para o desenvolvimento de uma grande variedade de inovações que
literalmente mudaram o mundo, desde os foguetes que levaram o homem à Lua até a
rede mundial de computadores. Quando as pessoas dizem que o governo não e capaz
de desenvolver novas tecnologias, eu pergunto: 'você já usou a
internet?'", disse Peter W. Singer, em entrevista ao site de VEJA.
Apesar da dianteira, os Estados Unidos não são o único país
que domina esse tipo de tecnologia. "Hoje já existem 60 nações que estão
usando ou desenvolvendo a robótica para a guerra", diz Peter Assaro,
pesquisador da Faculdade de Direito de Stanford especializado nas implicações
éticas da tecnologia, em entrevista ao site de VEJA. O Brasil, por exemplo, usa
drones (aqui chamados de VANTs, Veículos Aéreos Não Tripulados) para patrulhar
fronteiras e monitorar a Amazônia. "A maioria dos países ainda não está
desenvolvendo versões armadas dessa tecnologia, mas temos notícia de que pelos
menos dez estão", diz o pesquisador. Entre eles, estão Coreia do Sul,
China, Rússia e Inglaterra — sinal de que a tendência das armas autônomas é
mundial.
Condolências e responsabilidades — Essas tecnologias devem
afetar não só os campos de batalha, mas o modo como a guerra é debatida por
políticos, eleitores e imprensa. Sem a necessidade de enviar soldados para
territórios longínquos, os custos morais de se envolver em um combate diminuem.
"Agora, nós possuímos a tecnologia que remove as últimas barreiras
políticas à guerra. O principal apelo dos sistemas autônomos é que não
precisamos mais enviar o filho de alguém em direção à morte. Se os políticos podem
evitar as consequências políticas das cartas de condolências — e o impacto que
as mortes têm no eleitorado e na opinião pública — eles passam a avaliar os
pesos de guerra e da paz de modo diferente", afirma Singer em um artigo
intitulado A Revolução Robótica, publicado pelo Instituto Brookings.
Como exemplo dessa alteração, Singer cita o fato de os
drones americanos estarem sendo usados para atacar inimigos em lugares como o
Iêmen e o Paquistão — já são mais de 350 ataques — sem que isso seja debatido
pelo congresso ou pela imprensa do país. "Algo que antes seria claramente
chamado de guerra, não apenas pelos nosso líderes mas também pelo publico e
pela imprensa, não é mais tratado como tal", diz.
Ao mesmo tempo, a utilização de robôs autônomos nas zonas de
combate faz surgir complicadas questões de responsabilidade. Os robôs podem ter
a capacidade de decidir matar alguém, mas não podem ser responsabilizados pelo
ato — nenhum juiz em sã consciência mandaria uma máquina para a cadeia.
"Imagine que, durante uma missão, um robô mate toda população de uma
aldeia isolada, incluindo os civis. Quem na cadeia de comando poderá ser
responsabilizado por isso? É difícil dizer, principalmente se o robô se
comportou de maneira inesperada e as mortes não foram intencionais. É difícil
chamar a situação de crime de guerra, mesmo que exista uma vila cheia de civis
mortos. Isso pode acabar se tornando um modo de eliminar a responsabilidade
humana dessas questões", diz Peter Assaro.
Alertas – Por esses e outros motivos, Assaro é um defensor
do controle desse tipo de tecnologia. Em 2009, em parceria com especialistas de
diferentes aéreas, filósofos, engenheiros, cientistas da computação e
especialistas em robóticas, ele fundou o ICRAC (International Comitte for Robot
Arms Control - Comitê Internacional para o Controle de Armas Robóticas), que
propõe o banimento total das tecnologias autônomas letais. "Qualquer tipo
de sistema tecnológico — recomendo que você olhe para seu celular ou laptop —
quebra, tem falhas e começa funcionar de modos não esperados. Quando eles estão
armados com tecnologia letal, esse tipo de imprevisibilidade pode ser muito
perigosa", diz.
O grupo, que já conta com mais de cem pesquisadores
inscritos, diz que as armas autônomas podem até existir e se tornar comuns nos
arsenais dos exércitos. No entanto, é necessário que em algum momento de seu
funcionamento exista um humano no controle — seja na hora decidir quais serão
os alvos, seja na hora de apertar o gatilho. "A autonomia dessas armas é
um perigo às pessoas nas zonas de combate. A inteligência artificial ainda não
é capaz de distinguir combatentes de civis ou crianças de adultos. Elas são
incapazes de compreender quando um adversário se rende. Esse sistemas são bons
em atirar em pessoas, mas entender o funcionamento de leis e tratados, como a
Convenção de Genebra, é mais difícil", diz Assaro.
Alguns pesquisadores preocupados com os rumos dessa
tecnologia comparam seu estágio atual ao Projeto Manhattan, que desenvolveu as
bombas nucleares durante a década de 1940. Pesquisadores de todo o mundo foram
até os Estados Unidos trabalhar na pesquisa. A física nuclear era uma área
cientificamente excitante e o financiamento era farto. No entanto, seu trabalho
levou ao desenvolvimento de uma das armas mais letais da história humana — e
inúmeros pesquisadores relataram, anos depois, arrependimento por ter se
envolvido no projeto.
Os críticos das armas robóticas dizem que suas consequências
podem ser as mesmas, mas não está nas mãos dos cientistas parar seu
desenvolvimento. "Ao contrário do que aconteceu com a física atômica, os
conhecimentos de hardware e software necessários para construir essas
tecnologias estão espalhados pelo globo. Sua aplicação militar é impossível de
ser freada pelo esforço de um grupo de pesquisadores. Nós defendemos um tratado
internacional entre os governos para frear o desenvolvimento dessas
armas", diz Assaro. Os alertas não parecem chamar muito a atenção dos
governantes e os robôs letais e autônomos continuam a ser estudados ao redor do
mundo — principalmente por causa de seu potencial de retirar os soldados dos
momentos mais sangrentos das guerras e poupar um grande número de vidas de pelo
menos um dos lados do conflito. Os humanos estão prestes a se tornar obsoletos
nos campos de batalha.
Fonte: veja.abril.com.br
0 comentários:
Postar um comentário