Foto: Reprodução

Um trio de pesquisadores do Instituto Politécnico Rennselaer (NY, EUA), a mais antiga universidade de tecnologia em língua inglesa do mundo, publicou recentemente um artigo propondo a criação de uma inteligência artificial ética, que poderia ser usada para impedir tiroteios em massa.

O sistema seria capaz de reconhecer a intenção do usuário, determinar se o uso de uma arma é ético e, caso contrário, impedir seu acionamento. Parece algo distante, e os próprios pesquisadores admitem que é um projeto “Blue Sky”, ou seja, uma simples exploração de um conceito sem preocupação com sua aplicação.

Ainda assim, eles afirmam: “Previsivelmente, alguns irão se opor com o seguinte argumento: o conceito que vocês introduzem é atraente. Mas infelizmente não é mais que um sonho. Na verdade, nada mais que um sonho maluco. Esta IA seria realmente possível do ponto de vista da ciência e engenharia? Com confiança, respondemos que sim”.

O artigo não detalha a criação desta IA, ou de uma arma com ela, mas sim a eficácia de um sistema que possa tomar as mesmas decisões sobre o uso de uma arma que um carro autônomo toma quando o motorista é reprovado no bafômetro.

Vale lembrar que a analogia não é tão simples. O nível de álcool no sangue pode ser detectado com um processo químico que é quantificado numericamente. A intenção de uma pessoa é algo muito mais subjetivo, ainda mais quando é necessário considerá-la em relação à intenção de todas as outras pessoas no ambiente ao seu redor.

Um exemplo de uso desta “IA ética” é descrito da seguinte forma:

Um atirador está dirigindo para um supermercado, com um rifle de assalto e uma grande quantidade de munição em seu veículo. A IA que imaginamos sabe que essa arma está lá e que pode ser usada apenas para propósitos muito específicos, em ambientes muito específicos (e, é claro, que sabe quais são esses propósitos e ambientes).

Já no estacionamento do supermercado, qualquer tentativa do suposto atirador de usar sua arma, ou mesmo posicioná-la para uso de qualquer forma, resultará em seu travamento pela IA. No caso em questão, a IA sabe que matar qualquer um com a arma, exceto por motivo de autodefesa, é antiético. Como ela também sabe que esta exceção não se aplica ao caso, a arma é bloqueada e se torna inútil.

Embora não sejam citadas diretamente, a descrição soa como uma inteligência artificial capaz de seguir as três leis da robótica, brilhantemente descritas pelo escrito Isaac Asimov em seu livro “Eu, robô” de 1950:

1- Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano seja ferido.
2- Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos que entrem em conflito com a Primeira Lei.
3- Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Estudos mostram que reconhecimento facial é até 10 vezes mais propenso a falsos positivos em fotos de pessoas negras do que brancas
Estudos mostram que reconhecimento facial é até 10 vezes mais propenso a falsos positivos em fotos de pessoas negras do que brancas. Precisão também varia de acordo com o sexo da pessoa sendo identificada. Imagem: Shutterstock
Os pesquisadores se anteciparam a algumas críticas, como o fato que criminosos usariam armas que não tem a IA guardiã instalada. Em resposta, eles afirmam que “nosso conceito não está de forma alguma restrito à ideia de que a IA está presente apenas nas armas em questão”.

Por exemplo, o sistema poderia ser usado em câmeras de vigilância e sensores que, ao detectar uma pessoa com uma arma, poderiam avisar a polícia e fechar todas as vias de acesso a um local.

Mas os pesquisadores ignoram um argumento mais importante: limitar o acesso de civis a armas de grosso calibre (especialmente aquelas que são usadas por forças militares) é muito mais fácil do que criar um novo e revolucionário sistema de IA capaz de compreender as nuances da personalidade humana.

Além disso, assumem que sua IA seria infalível. É sabido que muitos sistemas de vigilância atualmente em uso, como os de reconhecimento facial (novamente, algo que pode ser numericamente quantificado) falham na maioria dos casos.

Quando o reconhecimento facial falha, um inocente pode ir para a cadeia. Mas se a IA guardiã falhar, um inocente pode morrer em uma reação da polícia (no caso de um falso positivo) ou em um ataque não detectado (no caso de falso negativo).

Ainda assim, o artigo pode ser um interessante exercício de pensamento. O texto é curto (apenas cinco páginas, sendo uma de referências), e pode ser lido em inglês no site Arxiv.org.






Por: Rafael Rigues, Olhar Digital
Fonte: The Next Web