Reflexões sobre a Inteligência Artificial: Leis de Asimov, a humanidade soltando o volante e o longo caminho até o topo do Everest

Reflexões sobre a IA

“I’m sorry Elon, I’m afraid I can’t do that. This mission is too important for me to allow you to jeopardize it.”

A fala acima, adaptada da obra “2001: Uma Odisseia no Espaço”, foi proferida em seu teor original pelo icônico personagem Hal 9000, uma inteligência artificial altamente desenvolvida, responsável pela gestão e funcionamento da espaçonave Discovery, mas se encaixaria perfeitamente no contexto tecno-antropológico que vivemos neste exato momento, mínima alteração ao seu destinatário.

Nas últimas semanas, uma carta aberta publicada pelo Future of Life Institute, ONG destinada a garantir que o futuro da humanidade não seja ameaçado por riscos existenciais e de catástrofe global, foi assinada por centenas de autoridades e especialistas em tecnologia, chamando a atenção da sociedade geral para sua relevância.

A carta expressa uma profunda – e convenhamos, fundada – preocupação com o fato de que a taxa de evolução das inteligências artificiais pode ter superado por demais a nossa capacidade de acompanhar essa mesma evolução, quiçá a nossa habilidade para avaliar seus riscos e reagir com as necessárias medidas de mitigação.

Especificamente no que tange às tecnologias de AI subsequentes ao GPT-4, a carta e seus signatários invocam uma imperiosa suspensão nas suas pesquisas, testes e desenvolvimento, notadamente pelo risco que sua evolução desenfreada e irresponsável pode trazer à humanidade e seus meios de vida.

Os apoiadores defendem que as pesquisas sejam suspensas por ao menos seis meses, para que durante este período grupos de debate sejam constituídos para tratar os elementos éticos, sociológicos e de privacidade e segurança da informação que precisam ser implementados para garantir uma maturação saudável das inteligências artificiais.

Esse debate deverá, em tese, desaguar em regulações eficientes do uso e desenvolvimento da inteligência artificial, buscando, em última instância, preservar o intuito fundamental de que as AIs sejam direcionadas para o incremento do bem maior da humanidade.

Fato é que as “Leis de Asimov” já não bastam como arcabouço regulatório das inteligências artificiais, e que precisamos nos desvincular das ameaças literárias de robôs que tomam o mundo de assalto por meio de armas e mísseis nucleares, o perigo é muito mais sutil e potencialmente destrutivo.

No ano passado, palestrei a uma plateia de empresários e estudantes sobre os riscos que permeiam a falta de uma governança algorítmica nas organizações, tanto por parte daquelas que desenvolvem as AIs, quanto por parte das que as implementam em seus processos corporativos.

A automação de processos por meio de algoritmos, com seu consequente aumento de eficiência produtiva e queda de custos operacionais, é justificadamente sedutora para as empresas, mas sua adoção não supervisionada pode resultar em impactos gravíssimos, tanto aos sujeitos dos processos, quanto às empresas que os adotam.

O emprego de machine learning por essas tecnologias agrava ainda mais o problema, já que tornou cada vez mais difícil evitar a opacidade algorítmica, cenário em que os desenvolvedores ou usuários da AI não são capazes de explicar razoavelmente o processo cognitivo utilizado para tomada da decisão automatizada. O nível de complexidade dos códigos após inúmeras reformulações automáticas, movidas pelo machine learning, os torna essencialmente inauditáveis, e, por conseguinte, passíveis de irregularidades e enviesamento.

Um sistema de recrutamento e seleção de uma empresa, por exemplo, que faça uso de inteligência artificial e recorra ao machine learning para aprimorar constantemente sua assertividade, pode acabar por replicar pequenos padrões de discriminação da organização que, de outra maneira, seriam praticamente imperceptíveis, mas que uma vez incorporados ao código, se tornam parâmetros objetivos do processo de seleção, resultando em grave e perigosíssimo enviesamento cognitivo.

As tangentes com os tópicos de privacidade e segurança da informação também são inúmeras. Se partirmos do pressuposto de que vamos entregar boa parte da gestão da nossa vida às inteligências artificiais, precisamos ter certeza de que elas não serão desviadas da sua missão. Ora, se no contexto informacional atual, no qual ainda temos algum nível de controle manual e direto sobre a tomada de decisões, somos constante e reiteradamente vitimizados por incidentes de segurança, por qual motivo devemos crer que a entrega total deste controle a sistemas informatizados seria menos perigosa?

Veja que, nos sistemas de gestão da segurança da informação atuais, o elemento humano é, ao mesmo tempo, fragilidade e linha de defesa. Se por um lado o usuário é a mais incerta das variáveis de vulnerabilidade, é também o estabelecimento, homologação e monitoramento de processos de segurança da informação, conduzidos por seres humanos, que opera como última fronteira diante de uma falha sistêmica de segurança.

Sempre foi consenso na prática de segurança da informação que a sua busca passa pelo investimento equilibrado entre pessoas, processos e tecnologia. A ideia aqui é que não adianta uma organização investir centenas de milhões de dólares em ferramentário de cybersegurança, sem também criar processos condizentes com o nível da tecnologia implementada; ou, ainda, não adianta desenvolver processos extremamente elaborados, sem que se capacite o usuário para os seguir.

Com esta ideia em mente, a proposta de entregar por completo a administração dessa sociedade da informação a sistemas automatizados algorítmicos, deve ser observa sob a ótica crítica de um questionamento fundamental: Se não acreditamos, até hoje, que apenas a tecnologia sozinha seja capaz de garantir a segurança da informação, o que mudou para que passemos a acreditar agora?

Os desafios do desenvolvimento desregulado da AI são inúmeros, mas talvez o mais crítico deles seja a própria falta de percepção por parte dos desenvolvedores de que, por circunstâncias como crescimento das fake news, analfabetismo digital e desigualdade sociais e de acesso a tecnologias, a humanidade talvez não esteja pronta para soltar o volante, pelo menos não ainda.

Alguns podem propor que a ideia de ceder o controle seja exagerada, e que na verdade a inteligência artificial não passa de uma ferramenta, que continuará a ser manuseada por nós, seres humanos, na posição de protagonistas. Mas a realidade é menos reconfortante, especialmente se pensarmos que não existem, hoje, normas éticas objetivas para o desenvolvimento desse tipo de tecnologia. Como dito anteriormente: As Leis de Asimov já não bastam como bússola para essa missão.

Nos últimos anos o desenvolvimento das inteligências artificiais não ganhou apenas velocidade, mas também aceleração, o que exponencializa dramaticamente as suas fronteiras a cada nova descoberta e inovação. O pensamento exponencial é, há algum tempo, característica inerente da sociedade de informação, mas temos que reconhecer que existe uma diferença fundamental entre a situação em que esta exponencialidade está sendo exercida no sentido de expandir nossos limites humanos, para outra em que ela se presta a entregar, cada vez mais, o controle.
Não me entendam mal, não sou opositor ou conservador quanto ao desenvolvimento das AIs, muito contrariamente, sou seu mais assíduo entusiasta, mas como operador do direito e estudioso da inovação, é mais do que minha paixão questionar ativamente o motivo de cada barreira rompida, é, na verdade, minha responsabilidade.

O ser-humano tem um histórico desanimador no que tange à destinação de novas tecnologias, vimos isso com as criptomoedas, que na contramão do seu objetivo original, tornaram-se meros investimentos especulativos; vimos isso com as NFTs, que atendendo à nossa própria ansiedade, se tornaram o mais caro álbum de figurinhas da história da humanidade; e – me atrevo a mencionar? – vimos isso com a energia nuclear, que em oposição essencial à sua proposição original, se tornou combustível para o insaciável potencial de destruição humano.

Com exceção do terceiro exemplo, os outros dois são relativamente inofensivos quando comparados ao potencial malevolente que o mal uso das AIs tem para nossa vida na Terra, em todos os sentidos, ambiental, antropológico, econômico e social. É absolutamente verdade que o mesmo potencial existe para uma revolucionária melhora em todos esses mesmos aspectos, mas será que queremos fazer essa aposta sem qualquer salvaguarda? Você confiaria o seu futuro a imensos conglomerados sem rosto, nome e nem humanidade? Como podemos dizer que não confiamos em cookies de websites, mas confiamos o próximo grande passo da nossa existência aos hospedeiros e desenvolvedores destes mesmos websites?

E os desafios não param por aí. Existem incontáveis dilemas éticos, criativos, securitários, jurídicos, médicos, artísticos, existenciais, etc, etc, etc, na evolução desregulada das inteligências artificiais, e adentrar em cada um deles retiraria o caráter “de opinião” do presente artigo, mas acho que passei bem a ideia geral.

Não se trata, portanto, de estacionar o desenvolvimento das inteligências artificiais, muito menos de enterrá-lo de vez. Trata-se de pararmos um pouco, respirarmos fundo, e olharmos com um olhar mais crítico e desapaixonado para o caminho que temos pela frente. A humanidade precisa desviar a atenção, por um momento, das inteligências artificiais, e direcioná-la à inteligência humana. Nos questionarmos se estamos preparados para a próxima etapa da escalada, ou se vamos sucumbir aos perigos da montanha na nossa gana por grandes alturas.

Se os maiores escaladores do planeta sobem e descem os titânicos degraus do Montes Everest, incontáveis vezes antes de atingir o cume (obrigado pela fantástica palestra inclusive, mestre Gustavo Ziller), por que seria diferente na longa escalada até um futuro automatizado e algorítmico?

Os escaladores fazem isso para se aclimatizarem às imensuráveis altitudes, mirando, em última instância, na subida segura até o cume da maior montanha do planeta. A proposta aqui é que a humanidade faça o mesmo na busca por uma implementação saudável e positiva das inteligências artificiais nas nossas vidas.

Precisamos garantir que as inteligências artificiais sejam direcionadas ao bem da humanidade desde a sua concepção, precisamos buscar mecanismos que nos tragam um nível satisfatório de segurança informacional para o seu pleno funcionamento, e precisamos nos lembrar que, acima de tudo, por mais fantástica que seja a AI, ela não passa de uma ferramenta; revolucionária, como já foi a roda, mas ainda assim, uma ferramenta.

O protagonista não pode, jamais, deixar de ser o ser-humano. E a verdade é que, historicamente falando, este mesmo ser-humano se provou, mais vezes de do que gostamos de admitir, altamente capacitado na autodestruição, e agora, mais do que nunca, se o objetivo final é largar o volante, precisamos garantir que esse nosso talento para o autoflagelo seja controlado.

João Saldanha, sócio-Diretor de Compliance Digital, Privacidade e Proteção de Dados Pessoais – Tripla

Checklist: Planejamento estratégico de TI e Segurança em 2025

Participe da comunidade de tecnologia da Tripla

Siga a Tripla nas redes

Quer saber como nossas soluções podem beneficiar sua empresa? Converse com nossos especialistas!

Participe da comunidade
de tecnologia da Tripla

Copyright © 2020 Tripla

Fale com um de nossos consultores