Sair do modo leitor

Inteligência artificial: leis e perigos

Futurismo

Apesar de ser um tema que está em alta, a inteligência artificial é novidade? Talvez seja, se levarmos em conta a forma como a conhecemos atualmente, mas a verdade é que um cara russo nascido lá em 1920 já falava – e muito – desse trem. Isaac Asimov, conhecido pelos seus trabalhos literários no gênero de ficção científica pode ter brincado uma ou duas vezes de prever o futuro no que diz respeito a inteligência artificial e – pasmem – acertado. Filmes como O Homem Bicentenário (1999) e Eu, Robô (2004) são adaptações de suas obras para o cinema.

Entretanto, para aprofundar o assunto trouxemos também uma cientista mais familiarizada com a tecnologia atual e que pesquisa sobre inteligência artificial: Janelle Shane.

Afinal, o que é inteligência artificial?

É a tecnologia utilizada para reproduzir a capacidade humana de refletir, raciocinar, encarar problemas e até tomar decisões. Em suma, inteligência artificial (AI) é o ramo da ciência da computação que se dedica a simular a capacidade de ser inteligente.

A inteligência artificial é realmente perigosa?

Voltemos a falar da Janelle Shane. Em uma palestra para o TED2019, a cientista foi bem direta: “O perigo da IA não é que ela se rebelará contra nós; é que ela fará exatamente o que pedirmos”.

É muito interessante a forma como Shane ressalta, o tempo inteiro, que a função de evitar problemas é nossa e somente nossa. Agora pense, se já é difícil os humanos aprenderem a se comunicar entre si, imagine com as máquinas.

Outra ideia que a cientista desmistifica é que ficção é ficção e realidade é realidade. Não existe ainda uma inteligência artificial supercompetente e onisciente. A verdade é que estamos falando de um cerebrozinho de minhoca que não consegue entender o que tentamos pedir que ele faça. O que temos de mais próximo das ideias ficcionais seria Big Data: computadores que processam IMENSOS volumes de conteúdo, cruzando informações. Mas não necessariamente isso é sinônimo de inteligência.

A.I. é uma terra sem leis?

Calma lá, agora é o momento que a gente faz um passeio no passado para explicar que já haviam leis antes mesmo da própria inteligência artificial existir e o culpado disso é aquele russo que falamos lá no início.

Isaac Asimov é responsável por muitos dos estereótipos que existem sobre inteligência artificial, mas ele também é responsável pelo o que ficou conhecido como as três leis da robótica. Vejamos:

A ideia do autor é que essas regras fossem implantadas no mais profundo nível das mentes robóticas, porém nem tudo é perfeito, não é mesmo? Anos depois, o próprio Isaac Asimov enxergou brechas nas suas leis e daí nasceu mais uma, que se sobrepõe a todas as outras:

As três Leis da Robótica podem funcionar?

Há quem diga, como o pesquisador George Dvorsky, que as leis da robótica criadas por Asimov são apenas um recurso literário pensadas para enriquecer a trama visto que são muito impeditivas e também muito falhas quando conveniente de acordo com a dramaticidade do enredo.

No entanto, o próprio Isaac Asimov relatou em uma entrevista que deu em 1981 que:

“Tenho a minha resposta pronta sempre que alguém me pergunta se eu acho que as Três Leis da Robótica vão ser realmente usadas para comandar o comportamento dos robôs, uma vez que eles se tornem versáteis e flexíveis o suficiente para escolher entre diferentes comportamentos. Minha resposta é: ‘sim, as Três Leis são a única maneira pela qual seres humanos racionais podem lidar com robôs – ou com qualquer outra coisa’.”

No final, as leis soam boas na teoria, mas na prática são controversas visto que já existem drones militares autônomos, dotados de inteligência artificial, que podem matar sem qualquer autorização ou participação humana, por exemplo. O que nos leva a Shane novamente, e a certeza que, em relação a inteligência artificial, a responsabilidade de evitar problemas é 100% humana. Mas e você, que lei criaria para manter as máquinas sob controle?