Header Ads

A ascensão dos robôs assassinos

Por Renato Andalik

Inicialmente, você saberia dizer o que é um robô? Pergunte a três roboticistas diferentes e você terá três respostas diferentes. Entretanto, como exemplo, podemos citar desde o aspirador de pó Roomba em sua casa até os carros autônomos. Hoje em dia, podemos classificar muitas coisas como robô, e este é apenas o início de sua proliferação.

"Eu diria que um robô é um agente artificialmente incorporado que pode tomar decisões que tem efeitos no mundo real”, diz a roboticista Anca Dragan, da Universidade Berkeley.

A inteligência, então, é o componente central que torna o robô uma máquina pensante e não apenas um brinquedo. Essa nuance é importante porque "robô" é uma palavra poderosa.

E aí começam as preocupações. Há dois lados inconfundíveis no debate sobre o futuro da inteligência artificial e da robótica. De um lado, empresas como o Google, Facebook, Amazon e Microsoft investem agressivamente em tecnologia para tornar seus sistemas cada vez mais inteligentes, e, do outro lado, estão pensadores proeminentes como Elon Musk e Stephen Hawking, que alertam para a necessidade de uma regulação pró-ativa da inteligência artificial, chamando-a de maior ameaça existencial da humanidade.

Recentemente, o Google decidiu tomar precauções adicionais para que as máquinas não se rebelem contra nós. A DeepMind, adquirida pela companhia em 2014 e que se tornou seu braço de inteligência artificial, criou medidas de segurança para que operadores humanos possam, em caso de necessidade, “tomar o controle de um robô que não esteja se comportando adequadamente e que possa causar consequências irreversíveis”.

O documento publicado foi um esforço conjunto entre a DeepMind do Google e o Instituto do Futuro da Humanidade da Universidade de Oxford, que, como o nome sugere, deseja que haja um futuro para a humanidade. O diretor-fundador, Nick Bostrom, falou sobre os possíveis perigos do desenvolvimento da inteligência artificial por décadas e escreveu livros inteiros sobre as implicações dos robôs superinteligentes.

Esse artigo em particular, intitulado "Safely Interruptible Agents", investiga como desativar a inteligência artificial caso ela comece a se comportar de maneira indesejada. O artigo é extremamente científico, mas resumidamente descreve métodos para construir o equivalente a um "grande botão vermelho de pânico “.

“Assim que a inteligência artificial atingir um nível humano, será possível criar um ciclo de realimentação positivo que irá aumentar o ritmo de desenvolvimento. As IAs ajudariam a construir IAs melhores, que então ajudariam a criar IAs melhores, e assim sucessivamente”.

Os especialistas em tecnologia preveem que a inteligência artificial será usada em breve para fazer drones, veículos blindados e submarinos que possam encontrar e reconhecer alvos, tomar decisões sobre a abertura de fogo e aprender com as missões.

Preocupados, alguns dos principais pioneiros em robótica e inteligência artificial do mundo estão convocando as Nações Unidas a proibir o desenvolvimento e o uso de robôs assassinos. Mustafa Suleyman, da Alphabet, e Elon Musk, da Tesla, lideram um grupo de 116 especialistas de 26 países que estão pedindo a proibição de armas autônomas, comumente chamadas de 'robôs assassinos'.

Segundo os signatários, "armas autônomas letais ameaçam se tornar a terceira revolução da guerra. Uma vez criadas, elas permitirão que o conflito armado se faça numa escala nunca visto antes, e em uma velocidade maior do que humanos podem entender".

Eles reforçam ainda que "nós não tempos muito tempo para agir", já que "uma vez que essa caixa de Pandora for aberta, será difícil fechá-la". Por esses motivos, os especialistas dizem: "imploramos às partes envolvidas que encontrem um meio de proteger a todos nós desses perigos".

A urgência que os especialistas pedem em sua carta não é infundada. Ryan Gariepy, o fundador da Clearpath Robotics, disse: "Ao contrário de outras manifestações sobre IA que ainda permanecem no domínio da ficção científica, os sistemas de armas autônomas estão em desenvolvimento no momento e têm um potencial destrutivo muito real para causar danos significativos a pessoas inocentes, além de instabilidade global”.

Enquanto a sugestão de robôs assassinos evoca imagens de ficção científica, como no filme Exterminador do Futuro, armas autônomas letais já estão em uso. A Coreia do Sul, por exemplo, já usa drones armados desenvolvidos pela empresa Dodaam Systems para patrulhar sua fronteira com a Coreia do Norte - embora, por enquanto, ações letais ainda exijam a autorização de um ser humano.

Outro exemplo é o sentinela SGR-A1 da Samsung, que, segundo informações, é tecnicamente capaz de disparar de forma autônoma, e está em uso ao longo da fronteira sul-coreana na zona desmilitarizada de 2,5m de largura. A arma de segurança, desenvolvida em nome do governo sul-coreano, foi a primeira de seu tipo com um sistema autônomo capaz de realizar vigilância, reconhecimento de voz, rastreamento e disparos com metralhadora ou lançador de granadas.

O fabricante de armas russo Kalashnikov anunciou no mês passado um "módulo de combate totalmente automatizado" equipado com múltiplas armas de fogo que pode identificar alvos e tomar decisões por conta própria.

Isso, no entanto, gera uma situação na qual outros países também se sentem pressionados a criar armas desse tipo, por medo de serem deixados para trás. Em uma recente matéria do Financial Times, um relatório do Departamento de Defesa dos EUA sugeria o investimento em armas autônomas letais para que os EUA pudessem "se manter à frente de seus adversários que também se aproveitarão dos benefícios dessa tecnologia". Ou seja, estamos em rota de colisão com um futuro bastante perturbador.

“O surgimento de robôs assassinos militares é quase inevitável e qualquer tentativa de proibição internacional terá dificuldade em parar essa nova corrida armamentista”, conclui Renato Andalik, especialista em Tecnologia e Cibersegurança e cofundador da Ertech Systems.

* Renato Andalik é especialista em tecnologia e cibersegurança e cofundador da Ertech Systems

Nenhum comentário

Tecnologia do Blogger.