A fabricante de armas russa Kalashnikov Group fez um anúncio discreto com implicações assustadoras: a empresa revelou que desenvolveu uma série de robôs de combate totalmente automatizados, que usam inteligência artificial para identificar alvos e tomar decisões independentes. Isso reavivou o debate sobre armas autônomas, depois que, em 2015, mais de mil pesquisadores em robótica e inteligência artificial, incluindo Elon Musk e Stephen Hawking, assinaram uma carta aberta pedindo às Nações Unidas que impeçam o desenvolvimento e implantação de inteligência artificial armada. Enquanto as Nações Unidas ainda estão formando um grupo para discutir a possibilidade de introduzir uma proibição do armamento controlado por IA, a Rússia está prestes a demonstrar robôs de combate autônomos reais
O presidente russo Vladimir Putin visitou recentemente o Kalashnikov Group, infame por ter inventado a AK-47, conhecida como a máquina de matar mais eficaz da história humana, na mesma época em que a diretora de comunicações do grupo, Sofiya Ivanova, proclamou: “No futuro iminente, o Kalashnikov Group apresentará uma gama de produtos baseados em redes neurais. Um módulo de combate totalmente automatizado com esta tecnologia está planejado para ser demonstrado no fórum do Exército-2017”.
A brevidade dos comentários não deixa claro quanto ao que foi produzido ou como ele seria implantado, mas a empresa afirmou com todas as letras que desenvolveu um sistema “totalmente automatizado” baseado em “redes neurais”. Isso só pode significar um robô armado que pode aparentemente identificar alvos e tomar decisões por conta própria.
E os EUA?
Atualmente, a posição oficial dos Estados Unidos sobre armas autônomas é que a aprovação humana deve estar no controle de qualquer envolvimento envolvendo força letal. Os sistemas autônomos só podem ser implantados para “força não letal e não cinética, como algumas formas de ataque eletrônico”.
Mas isso pode mudar. O ex-coronel do Exército dos EUA Joseph Brecher já escreveu contra a proibição do armamento autônomo, por exemplo, descrevendo um cenário no qual dois combatentes se enfrentam, sendo que um possui um arsenal de robôs de combate totalmente autônomos, enquanto o outro possui armamento semelhante, com capacidades apenas semiautônomas.
Nesse cenário, o combatente com capacidade semiautônoma possui duas desvantagens significativas: velocidade, uma vez que o sistema autônomo será inerentemente capaz de agir mais rápido, sem precisar fazer uma pausa para um humano aprovar suas ações letais; e vulnerabilidade a hackers, uma vez que o sistema semiautônomo requer um link de comunicação que, em última instância, pode ser comprometido.
A conclusão que confronta essa linha de pensamento é que restringir o desenvolvimento de sistemas de armas letais autônomas fortaleceria a força militar de países menos escrupulosos que vão continuar a perseguir essas tecnologias.
O lado “bom”?
Deixando de lado a imagem mental assustadora de robôs autônomos assassinos por um momento, alguns pesquisadores acreditam que uma implementação de inteligência artificial armada em processos militares pode realmente melhorar a precisão e reduzir mortes civis acidentais.
O erro humano ou alvejamento indiscriminado muitas vezes resulta em histórias horríveis de civis sangrando por bombas que atingem centros urbanos por engano. Talvez sistemas de armas artificialmente inteligentes pudessem impedir tais situações.
Fonte: NewAtlas
Postar um comentário