Em um artigo de opinião desenvolvido pelo Head de Privacidade e Compliance da Tripla, João Lucas Saldanha, descubra mais sobre a opacidade algorítmica e o “sentido da vida, do universo e de tudo mais”.
Escrito pelo Head de privacidade e especialista Tripla, veja as percepções, análises e reflexões sobre obras aclamadas e importantes, a era digital e a complexidade da opacidade algorítma.
Boa leitura! Para compartilhar suas reflexões, sugestões e visões sobre os artigos da Tripla, não deixe de interagir em nosso perfil no LinkedIn – Tripla.
[Artigo de opinião]
Opacidade algorítmica e o “sentido da vida, do universo e de tudo mais”
Na aclamada obra literária de Douglas Adams, O Guia do Mochileiro das Galáxias, uma raça alienígena super avançada desenvolve um computador com a finalidade de responder à “questão fundamental”, qual seja, “qual é o sentido da vida, do universo e de tudo mais?”.
Na trama, o computador solicita aos seus criadores o prazo de sete milhões e meio de anos para calcular a resposta, e pede que retornem ao final deste período, e assim eles o fazem. Milhares de milênios depois toda a civilização alienígena se reúne ao redor do supercomputador para finalmente ouvir a resposta, mas a recompensa por tanto tempo de espera é anticlimática, na medida em que a máquina revela, com confiança, que a resposta é “42”.
Revoltados, os alienígenas retrucam o computador, dizendo que a resposta não faz sentido, ao que o Pensador Profundo – nome dado à máquina – contesta, sustentando que a resposta só não faz sentido porque eles não sabem a pergunta, esta sim, inconcebivelmente mais complexa do que a resposta em si.
O livro, publicado pela primeira vez em 1979, fazia, com essa passagem, uma crítica ao anseio humano por sentido existencial, e, mais ainda, com a busca desta mesma humanidade por respostas simples para problemas complexos. O que Douglas Adams não sabia, à época, era que o trecho em questão viria a servir de crítica a algo muito mais palpável no futuro, ironicamente, pouco mais de 42 anos após a publicação.
Em uma primeira análise, pode parecer que o humor absurdo de Adams e a busca desenfreada por respostas se limita ao mundo fictício de sua narrativa. No entanto, ao mergulharmos na realidade da revolução tecnológica em que vivemos, percebemos que a sátira de Adams encontra paralelos inesperados em nossa sociedade. Assim como os alienígenas ansiavam por uma resposta simplificada para uma questão complexa, nós, seres humanos do século XXI, nos vemos diante de máquinas e sistemas que prometem respostas rápidas para dilemas intricados
Com o advento das inteligências artificiais, especialmente as generativas, a humanidade se vê diante de uma das mais revolucionárias transformações antropológicas desde a invenção da roda, e, sendo honesto, não estamos indo muito bem até aqui.
A era digital trouxe consigo uma incontável quantidade de avanços tecnológicos, dentre os quais os algoritmos se destacam como os que, provavelmente, são os mais disruptivos. São eles que alimentam nossos mecanismos de busca, plataformas de mídia social, sistemas financeiros e muitas outras ferramentas que usamos diariamente. No entanto, à medida que estes sistemas se tornam mais complexos, surge um fenômeno intrigante: a opacidade algorítmica.
Chamamos de “opacidade algorítmica” a dificuldade ou, em alguns casos, a completa impossibilidade de compreender como determinados algoritmos operam, fazem escolhas ou chegam a conclusões específicas. Isso acontece por diversas razões:
Complexidade Intrínseca: Alguns algoritmos, especialmente aqueles usados em aprendizado profundo e inteligência artificial, têm múltiplas camadas e interações que os tornam intrinsecamente difíceis de decifrar.
Design Intencional: Em muitos casos, a opacidade é intencionalmente incorporada para proteger propriedade intelectual, prevenir manipulações ou simplesmente como uma consequência de otimizações que tornam o código menos “palpável”.
Dinâmica Adaptativa: Alguns algoritmos são projetados para evoluir e adaptar-se com o tempo. Esta evolução constante pode tornar difícil, se não impossível, entender completamente seu comportamento em qualquer momento específico.
Imaginemos o seguinte cenário, que, apesar de hipotético, já é cotidiano dos setores de recursos humanos de incontáveis empresas pelo Brasil e no mundo: uma empresa adquire um sistema de recrutamento e seleção terceirizado, que, dentre outras características, utiliza um sistema algorítmico com aprendizado de máquina para tornar o processo mais assertivo.
O sistema é alimentado pela empresa com as características necessárias ao cargo, como formação, experiência, certificações etc., e, a partir dessas variáveis objetivas, filtra nas bases de dados de candidatos aqueles que mais se encaixam na definição pretendida, oferecendo-os, em seguida, ao time de recursos humanos para que este sim proceda com as entrevistas e escolha do melhor candidato.
Até aqui tudo é muito claro, afinal, os critérios são objetivos e inseridos na plataforma pelos próprios operadores humanos. Ocorre que, como dito anteriormente, a ferramenta utiliza de aprendizado de máquina para se tornar cada vez mais assertiva, extraindo dados das escolhas humanas e integrando-os ao seu processo cognitivo cada vez mais e mais, e é aqui que mora o perigo.
Vamos supor que ao final de dezenas de processos de recrutamento realizados, o sistema observe que todos os candidatos de um determinado grupo étnico ou racial que ele aponta como candidatos potenciais para as vagas são rejeitados. Com o tempo o sistema pode começar a entender que este é um critério que pesa negativamente na escolha do profissional, e assim recomendar cada vez menos os candidatos daquele determinado grupo, até que, eventualmente, deixe completamente de considerá-los como candidatos em potencial.
Observe que, neste caso, em momento algum os operadores do sistema estabeleceram esse critério de maneira expressa ou objetiva, mas o aprendizado de máquina fez com que o sistema interpretasse essa característica como um peso negativo na decisão, incorporando-a ao processo algorítmico de maneira automatizada.
Caso a empresa em questão não possua governança algorítmica o bastante para auditar e controlar o sistema, enviesamentos como este continuarão a ocorrer e se agravar, o que pode levar não apenas a processos discriminatórios, mas desvios reais de resultado.
A opacidade algorítmica não é apenas um desafio técnico, mas também traz implicações éticas e sociopolíticas. Em um mundo onde as decisões algorítmicas podem determinar tudo, desde a aprovação de um crédito até o diagnóstico médico ou mesmo sentenças judiciais, a falta de transparência pode levantar questões sobre responsabilidade, justiça e direitos individuais.
Na obra de Douglas Adams, a raça de alienígenas super avançada confia uma tarefa essencialmente filosófica a uma inteligência artificial, que, por sua vez, reconhece a complexidade da solicitação, o que deixa claro pelo prazo solicitado para oferecer a resposta.
Se partirmos do pressuposto que o Pensador Profundo funciona de maneira semelhante a inteligências artificiais que usamos hoje em dia, as redes neurais precisariam de uma quantidade inimaginável de camadas de raciocínio complexo para oferecer a resposta para uma pergunta tão abstrata, e, ainda assim, acabaria por oferecer uma resposta que provavelmente não seríamos capazes de compreender, pelo simples fato de que o processo cognitivo necessário para atingi-la é inconcebível pra nós.
A grande diferença está na forma como lidamos com a resposta, já que, na obra, a raça de alienígenas imediatamente questiona a resposta, inclusive propondo que ela não faz sentido, mas isso pressupõe um nível de maturidade para utilização das IAs que, hoje em dia, a maioria esmagadoras das pessoas não têm. O que vemos ocorrer na nossa sociedade atual é um fenômeno que eu chamo de “Complexo do Oráculo de Delfos”, em que aceitamos sem qualquer filtro ou senso crítico as respostas fornecidas pelos sistemas de IA, de modo que ignoramos complemente elementos como margem de erro, má engenharia de prompts ou o próprio enviesamento da máquina.
Existem diversas maneiras de combater a opacidade algorítmica e o enviesamento de máquina, mas a verdade é que todas elas passam por um necessário processo de maturação social que estamos longe de desenhar, quanto mais colocar em prática. As tecnologias avançam mais rapidamente que as regulações e a capacidade de aprendizado humana, isso significa que as pessoas têm mais acesso a tecnologias sem as compreender por completo, e é exatamente isso que tem ocorrido com as IAs generativas como ChatGPT ou Midjourney.
Em uma era onde a tecnologia avança a passos largos, torna-se imperativo que nossa capacidade de compreensão e regulação avance na mesma proporção. A obra de Douglas Adams, embora cômica e satírica, nos oferece uma janela para os perigos de confiar cegamente em entidades e sistemas que mal compreendemos. Assim como os alienígenas se frustraram com a resposta “42”, podemos nos encontrar em encruzilhadas semelhantes se não buscarmos a transparência e a ética nas máquinas que estão se tornando uma parte integrante de nossa sociedade.
O “Complexo do Oráculo de Delfos” não deve ser a norma. Em vez de aceitar cegamente os ditames das inteligências artificiais, é nosso dever como sociedade questionar, regular e compreender essas entidades, garantindo que elas sejam usadas para o bem comum e não para a perpetuação de preconceitos e injustiças. A maturidade tecnológica não é apenas sobre inovação, mas também sobre a sabedoria de usar essa inovação de maneira responsável. E, talvez, em nosso próprio caminho para descobrir o sentido da vida, do universo e tudo mais, possamos reconhecer que a transparência, a ética e a compreensão são componentes vitais nessa jornada.