Pesquisar
PATROCINADORES
PATROCINADORES

Precisamos entender o que são os drones suicidas – e reler Asimov

Uso de dispositivos inteligentes autônomos pode tornar os conflitos mais longos e letais para os civis
Asimov estabeleceu as Leis da Robótica

O conflito na Ucrânia deve ser o último confronto aberto entre nações com presença de soldados em território estrangeiro na qual drones suicidas não foram empregados em larga escala desde o início. As imagens de uma coluna russa sendo bombardeada por veículos aéreos não-tripulados (vants, na sigla em português; uav, em inglês) de fabricação turca Bayraktar TB2 foi só um repeteco do tipo de ação que americanos praticaram aos montes no Afeganistão, Iraque e Síria. Em um ataque desta natureza, há sempre alguém para apertar o botão. A última linha de decisão é humana – mesmo diante de uma força invasora. Mas o que vem por aí são aeronaves ou veículos terrestres e náuticos que representam o ponto culminante da corrida por armas de inteligência artificial. Do tamanho de um jatinho ou cabendo na palma da mão, um drone suicida age sozinho. Só precisa ter o perímetro de operação e a missão definidos. A quem estiver no caminho só resta se esconder, pois em um conflito como o da Ucrânia ou afins, esses aparelhos virão em enxames kamikazes. Em vez de disparar contra o alvo, apenas se jogarão contra eles para explodir. É por isso que parte dos blindados russos na Ucrânia usam uma espécie de gaiola sobre as torres, forçando a detonação prematura das ogivas – o que se mostra inútil até agora.

Ucranianos usam o dronne turco Bayraktar TB2

Mas o que Isaac Asimov (1926-1992) tem com isso? Humanista, pacifista, bioquímico e prolífico escritor de ficção científica americano, a partir de 1942 ele introduziu o que seriam as Leis da Robótica (ler abaixo), ditames inseridos na programação impedindo que máquinas inteligentes pratiquem qualquer ato que prejudique a integridade de um ser humano. E durante décadas, quando mal havia equipamentos radiodirecionados e, depois, veículos com alguma capacidade automática, foi possível crer que essa parte o futuro previsto pelo escritor viraria realidade. Se estivesse vivo, esse judeu russo nascido na aldeia de Petrovichi, mais perto de Belarus e da Ucrânia que de Moscou, veria com desgosto suas ideias serem deixadas de lado. Americanos, chineses, israelenses e russos se dedicam a criar drones suicidas com afinco.

Enxame e tomada de decisão

Denominados slaughterbots (robôs de abate), suas implicações na geopolítica são as piores possíveis, pois manteriam grupos ou países distantes das mesas de negociação por um custo relativamente baixo, quando comparado a manter guerrilhas e milícias motivadas e remuneradas. O apoio político das populações e as oportunidades de estabilização democrática perderiam força. No momento, há lugar para uso de drones suicidas do Himalaia até a África central. O curta-metragem de ficção “Slaughterbots – if human: kill” (2021), apresentou cenários e sugeriu que a ONU proíba “armas letais autônomas que visem pessoas”.

Em 2017, o Pentágono lançou a partir de três caças Super Hornet um “enxame” 103 microdrones que “demonstrou capacidade de tomada de decisões e adaptabilidade aos obstáculos”. Os aparelhos tinham missão de vigilância, mas poderiam ser adaptados para abater pessoas – ou qualquer animal de porte que aparecesse. No mesmo ano, a revista The Economist se mostrou cética de que “o controle de armas possa impedir tal militarização de enxames de drones”. Denominadas também armas totalmente automatizadas (FAWs, em inglês), esse dispositivos podem até ser inutilizados por militares, que disporiam rapidamente de recursos de defesa, mas a população civil estaria por demais vulnerável. E se versões low cost desses dispositivos caíssem nas mãos de organizações criminosas? A opinião pública nos países desenvolvidos ainda não deu bola, mas há sete anos um pedido de regulamentação e limitação foi assinado por gente como o finado astrofísico Stephen Hawking, o dono da Tesla, Elon Musk, e os fundadores da Apple e do Twitter, Steve Wosniak e Jack Dorsey, respectivamente. Eles leram Asimov. Mais gente deveria.

As 3 Leis da Robótica – e um apêndice
  • 1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • 2ª Lei: um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
  • 3ª Lei: um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
  • Mais tarde Asimov acrescentou a Lei Zero, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

O que MONEY REPORT publicou

Compartilhe

Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Pesquisar

©2017-2020 Money Report. Todos os direitos reservados. Money Report preza a qualidade da informação e atesta a apuração de todo o conteúdo produzido por sua equipe.