Uso de dispositivos inteligentes autônomos pode tornar os conflitos mais longos e letais para os civis
O conflito na Ucrânia deve ser o último confronto aberto entre nações com presença de soldados em território estrangeiro na qual drones suicidas não foram empregados em larga escala desde o início. As imagens de uma coluna russa sendo bombardeada por veículos aéreos não-tripulados (vants, na sigla em português; uav, em inglês) de fabricação turca Bayraktar TB2 foi só um repeteco do tipo de ação que americanos praticaram aos montes no Afeganistão, Iraque e Síria. Em um ataque desta natureza, há sempre alguém para apertar o botão. A última linha de decisão é humana – mesmo diante de uma força invasora. Mas o que vem por aí são aeronaves ou veículos terrestres e náuticos que representam o ponto culminante da corrida por armas de inteligência artificial. Do tamanho de um jatinho ou cabendo na palma da mão, um drone suicida age sozinho. Só precisa ter o perímetro de operação e a missão definidos. A quem estiver no caminho só resta se esconder, pois em um conflito como o da Ucrânia ou afins, esses aparelhos virão em enxames kamikazes. Em vez de disparar contra o alvo, apenas se jogarão contra eles para explodir. É por isso que parte dos blindados russos na Ucrânia usam uma espécie de gaiola sobre as torres, forçando a detonação prematura das ogivas – o que se mostra inútil até agora.
Mas o que Isaac Asimov (1926-1992) tem com isso? Humanista, pacifista, bioquímico e prolífico escritor de ficção científica americano, a partir de 1942 ele introduziu o que seriam as Leis da Robótica (ler abaixo), ditames inseridos na programação impedindo que máquinas inteligentes pratiquem qualquer ato que prejudique a integridade de um ser humano. E durante décadas, quando mal havia equipamentos radiodirecionados e, depois, veículos com alguma capacidade automática, foi possível crer que essa parte o futuro previsto pelo escritor viraria realidade. Se estivesse vivo, esse judeu russo nascido na aldeia de Petrovichi, mais perto de Belarus e da Ucrânia que de Moscou, veria com desgosto suas ideias serem deixadas de lado. Americanos, chineses, israelenses e russos se dedicam a criar drones suicidas com afinco.
Enxame e tomada de decisão
Denominados slaughterbots (robôs de abate), suas implicações na geopolítica são as piores possíveis, pois manteriam grupos ou países distantes das mesas de negociação por um custo relativamente baixo, quando comparado a manter guerrilhas e milícias motivadas e remuneradas. O apoio político das populações e as oportunidades de estabilização democrática perderiam força. No momento, há lugar para uso de drones suicidas do Himalaia até a África central. O curta-metragem de ficção “Slaughterbots – if human: kill” (2021), apresentou cenários e sugeriu que a ONU proíba “armas letais autônomas que visem pessoas”.
Em 2017, o Pentágono lançou a partir de três caças Super Hornet um “enxame” 103 microdrones que “demonstrou capacidade de tomada de decisões e adaptabilidade aos obstáculos”. Os aparelhos tinham missão de vigilância, mas poderiam ser adaptados para abater pessoas – ou qualquer animal de porte que aparecesse. No mesmo ano, a revista The Economist se mostrou cética de que “o controle de armas possa impedir tal militarização de enxames de drones”. Denominadas também armas totalmente automatizadas (FAWs, em inglês), esse dispositivos podem até ser inutilizados por militares, que disporiam rapidamente de recursos de defesa, mas a população civil estaria por demais vulnerável. E se versões low cost desses dispositivos caíssem nas mãos de organizações criminosas? A opinião pública nos países desenvolvidos ainda não deu bola, mas há sete anos um pedido de regulamentação e limitação foi assinado por gente como o finado astrofísico Stephen Hawking, o dono da Tesla, Elon Musk, e os fundadores da Apple e do Twitter, Steve Wosniak e Jack Dorsey, respectivamente. Eles leram Asimov. Mais gente deveria.
As 3 Leis da Robótica – e um apêndice
- 1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
- 2ª Lei: um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
- 3ª Lei: um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
- Mais tarde Asimov acrescentou a Lei Zero, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
O que MONEY REPORT publicou
- Brasil dará passaportes humanitários para ucranianos
- Volvo anuncia suspensão de exportações para a Rússia
- Rússia e Ucrânia terminam reunião sem acordo
- Rússia proíbe voos de companhias aéreas de 36 países
- BC da Rússia sobe taxa de juros de 9,5% a 20%
- Assembleia Geral da ONU se reúne para tratar da invasão russa
- Assimetria é o nome do jogo
- Brasileiros que saíram de Kiev estão em segurança na Romênia
- Comissão Europeia quer punir Putin
- Alemanha enviará armas à Ucrânia
- Vídeos da guerra: Rússia chega à segunda maior cidade da Ucrânia
- Europa e EUA concordam em tirar bancos russos do Swift
- FAB tem aviões prontos para retirar brasileiros da Ucrânia
- Embaixada em Kiev anuncia retirada de brasileiros
- Celulares registram primeiros ataques
- Inflação e dólar devem subir com guerra na Europa Oriental
- Blinder fala sobre Putin e geopolítica com os 4 Ases
- Biden anuncia novas sanções econômicas à Rússia
- Personalidades ucranianas desabafam nas redes
- Rússia ataca Ucrânia com mísseis, mas nega invasão
- Os Sudetos cubanos de Vladimir Putin
- Petróleo se aproxima dos US$ 100 com notícias da Ucrânia
- Embaixada na Ucrânia pede a brasileiros que busquem segurança
- Guerra entre Rússia e Ucrânia pode elevar preço do pãozinho francês
- Guerra com a Rússia de Putin seria insanidade, diz cientista político
- Tensão na Ucrânia é risco inflacionário e geopolítico ao Brasil
- A fome na Ucrânia – um dos maiores crimes de estado foi esquecido