15 de maio de 2014

Um robô pode ser um melhor soldado que o homem?

ONU discute pela primeira vez em Genebra a legitimidade de sistemas autónomos letais
O que lhe vem à cabeça quando pensa em robô armado? Com grande probabilidade, Schwarzenegger no papel de "Terminator". A tradução para português, "Exterminador Implacável", será apenas uma a contribuir para de imediato surgir na nossa mente a imagem de lado mau da força, mas não faltam outros exemplos na ficção científica de Hollywood. Com cada vez mais países a investir no desenvolvimento de armamento autónomo, e na ressaca da descoberta pública do programa de drones dos Estados Unidos, há uma pergunta desconcertante na reunião da Nações Unidas que decorre esta semana em Genebra para discutir a legitimidade destas máquinas de guerra por agora apenas nos planos dos engenheiros militares: e se um robô puder ser um melhor soldado do que homem?
O encontro de peritos arrancou ontem e foi convocado pela Convenção da ONU sobre Armas Convencionais, que desde 1980 tem vindo a proibir ou restringir armas excessivamente mortíferas ou de impacto indiscriminado como minas. No ano passado, os 117 países que ratificam a convenção acordaram que o tema "sistemas de armamento autónomos letais" tinha de ser discutido e comprometem-se a elaborar um relatório neste encontro, que deverá ser discutido em Novembro. Nessa altura, vão decidir também se as auscultações continuam ou se estão prontos a negociar uma posição.
Se só agora a questão chega oficialmente à arena política, peritos em direitos humanos e cientistas têm defendido uma moratória ao desenvolvimento ou a proibição aos já chamados "robôs assassinos", por considerarem que máquinas nunca serão capazes do discernimento humano na hora de disparar e que é impossível prever se vão obedecer à lei internacional. No ano passado, 270 investigadores de 37 países apelaram à proibição e diferentes organizações humanitárias uniram-se na campanha Stop Killer Robots. "Terão o poder para determinar quando tirar uma vida humana", lê-se num relatório divulgado esta semana pela Human Rights Watchs (HRW), que integra a campanha e considera que armas completamente autónomas, o passo a seguir aos drones de controlo remoto, são uma ameaça ao núcleo fundacional dos direitos humanos. "Podem violar o direito à vida, pré-requisito de todos os outros. Deficiências na capacidade de discernimento, compaixão e identificação com outros humanos podem levar ao massacre arbitrário de civis durante acções policiais ou conflitos armados", alega a HRW.
Se esta é a posição pública dominante, o assunto tem algum cinzento. Se haverá vantagens na diminuição de danos colaterais com ataques mais precisos e menos soldados em perigo de vida, como impedir a proliferação irresponsável? A ideia do encontro é precisamente começar o debate do zero. Em agenda estão previstas discussões técnicas como a definição do conceito ou a diferença entre automatismo e autonomia em robótica, mas também éticas, das vantagens e desvantagens dos robôs em teatros de guerra ao impacto que isso teria na doutrina militar. Há também dilemas jurídicos: em caso de crime de guerra, de quem seria a culpa?
No meio de muitas vozes contra, existe uma réstia de optimismo e é nela que emerge a pergunta desconcertante. Ronald Arkin é um dos roboticistas convidados pela ONU para o encontro. Num artigo que submeteu à convenção, o investigador do Instituto de Tecnologia da Georgia, responsável do Mobile Robot Laboratory onde são feitas simulações e estudos de ética militar, considera que, na inevitabilidade da humanidade continuar a mover guerras, poderá haver um "imperativo moral" para prosseguir a investigação em torno destas armas, que diz estarem ainda longe da realidade de uma decisão totalmente autónoma.
À falta de humanidade e compaixão contrapõe algumas vantagens para sublinhar que o debate não deve ser encerrado por ignorância ou argumentos baseados no medo e em ficções de Hollywood. Sistemas autónomos letais, programados de forma cautelosa, não teriam o dever de "auto preservação" como tensão no terreno, explica. "Podem ser sacrificados se necessário sem haver reservas por parte do comandante. Deixa de haver motivo para a abordagem 'disparar primeiro, perguntar depois'. Podem assumir riscos em prol dos civis, algo que os soldados também devem fazer mas alguns têm dificuldade em implementar na prática." Por outro lado, podem ser equipados com mais sensores e decidir mais rápido e com informação de mais fontes, prossegue. "Podem ser desenhados sem emoções que enevoam o julgamento ou resultam em ódio e frustração."
E se assim for e se portarem "eticamente" tão bem ou melhor do que soldados humanos, que apesar de leis e convenções continuam a cometer crimes de guerra? "Dizer apenas que estes sistemas não podem ser criados para agir correctamente não o torna uma afirmação verdadeira", alega o investigador, defendendo que, ser-se humano parece ser o ponto mais fraco da cadeia de massacres, "ou seja, a nossa biologia funciona contra o cumprimento dos direitos internacionais".
Segundo este investigador, mais do que uma proibição, o Direito Internacional Humanitário é por agora suficiente para equipamentos de maior autonomia serem desenvolvidos e usados na medida em que demonstrem a capacidade de distinção, proporcionalidade e não produzam sofrimento desnecessário. Fora destes limites, os responsáveis devem ser chamados à justiça. "Como não têm pessoa moral, um humano tem sempre de se responsabilizar pelo seu uso", defende. Quanto a futuros robôs autónomos, se funcionarem, admite que poderão ser úteis em cenários mais diferenciados. Com o assunto já virado do avesso, fica mais uma pergunta: "Não é a nossa responsabilidade enquanto cientistas e cidadãos procurar formas efectivas de reduzir a desumanidade humana através da tecnologia? Onde é que isso é mais evidente do que no campo de batalha?"

Cronologias de máquinas assassinas
495 Leonardo da Vinci projecta o primeiro robô humanóide em teoria capaz de matar: um cavaleiro mecânico que imitar os gestos humanos. Pensa-se que, tal como muitas outras invenções do artista italiano, nunca chegou a ser construído.

1898 Nikola Testla apresenta o primeiro dispositivo de controlo remoto com o protótipo de um barco não tripulado, chamado telautomaton. Tentaria vender o conceito ao exército americano, sem sucesso.

1914 Na primeira guerra surgem as experiências pioneiras de armamento robotizado, como o torpedo não tripulado alemão Kettering Bug.

1943 Os mísseis Fritz X são estão nos primórdios das bombas inteligentes, podendo ser controladas em unidades operacionais até 5 quilómetros de distância. São considerados os primeiros drones controlados através de sinal rádio.

1953 Apenas três anos depois de o matemático britânico Alan Turing lançar o debate em torno da inteligência artificial, questionando se as máquinas poderiam pensar, os EUA começam a testar os primeiros mísseis controlados através de computador. Nos anos seguintes, em plena guerra fria, os americanos reforçam o investimento em investigações de inteligência artificial com intuitos militares.

1972 A ofensiva americana a Thank Hoa Bridge, no Vietname do Norte, é considerado o primeiro ataque com sucesso de uma bomba inteligente, à época as chamadas bombas guiadas por laser, em que após serem largadas se orientam até ao alvo através de reflexo do laser.

1978 Com o lançamento do primeiro satélite Navstar, os EUA começam a incluir GPS nas suas defesas. Durante a Guerra do Golfo, o sistema de defesa área norte-americano começa a fazer ataques com base em alertas de intrusão no espaço aéreo usando o sistema de georreferenciação. Um dos primeiros modelos ainda em uso é o Phanlax.

1994 O governo norte-americano adjudica a construção do primeiro veículo aéreo não tripulado capaz de transmitir imagens em tempo real. Os primeiros drones modernos são enviados para a Bósnia e a partir de 2001 passam a estar equipados com mísseis.

2006 A Coreia do Sul revela planos para instalar robôs armados na Zona Desmilitarizada da Coreia para substituir tropas, invocando inclusive razões demográficas. Os SGR-A1 conseguem detectar alvos de dia ou de noite e atiram caso este não responda a avisos verbais. Actualmente funcionam com controlo remoto, mas estão equipados com um modo automático.

2009 As Forças Aéreas dos Estados Unidos revelam um documento estratégico que prevê a autonomia completa de veículos aéreos militares a longo prazo. “O objectivo final será uma revolução no papel dos humanos no combate aéreo.” Por agora, há apenas drones. Embora os EUA tenham sido os primeiros a assumi-los em teatro de guerra, 40 países têm actualmente a tecnologia.

2012 Começam a ganhar peso os receios em torno das futuras máquinas assassinas, sobretudo com a apresentação de alguns protótipos efectivamente autónomos na capacidade de se deslocar, detectar e disparar sobre alvos. O departamento de Defesa dos EUA emite uma directiva que, embora não exclua o desenvolvimento destes sistemas, mantém a exigência de discernimento humano na tomada de decisão.

2013 Uma coligação liderada por várias organizações internacionais como a Humans Rights Watch lança a campanha “Stop Killer Robots”. Christof Heyns, consultor independente de direitos humanos da ONU, pede uma moratória ao desenvolvimento e utilização de robôs autónomos e recomenda aos estados-membros para considerarem se a lei internacional é suficiente para regular o seu uso, sublinhando que “guerra sem reflexão é massacre mecânico”. Em Novembro, os 117 estados-membros da Convenção da ONU sobre Armas Convencionais adoptam um relatório onde se comprometem a discutir o tema das armas autónomas este ano.

2014 O programa de drones dos EUA, lançado pela administração Obama, completa cinco anos. As organizações internacionais de direitos humanos estimam que só estes veículos armados controlados à distância tenham estado por detrás de 2400 mortes, a maioria no Paquistão.
Jornal i(Portugal)/montedo.com

Arquivo do blog

Compartilhar no WhatsApp
Real Time Web Analytics