A verdade sobre os termos “algoritmo”, “machine learning” e “inteligência artificial”
Por Cássio Pantaleoni
No capítulo I de seu tratado Sobre o céu, Aristóteles escreve: “O menor desvio inicial da verdade é multiplicado por mil mais tarde”. Tomás de Aquino, na introdução de Sobre o ser e a essência, o parafrasearia escrevendo: “Um pequeno erro no começo leva a um grande erro no final”.
Todos os empréstimos tomados da expressão “Inteligência Artificial” para nutrir as opiniões hiperbólicas, que ora se lê ou se escuta, radicam neste mal-entendido epigenético, ou seja, a alteração das características essenciais de uma ferramenta por alteração ou por introdução de conceitos inapropriados.
Em última instância, há um movimento – consciente ou inconsciente – para encontrar nos algoritmos qualquer coisa que se assemelhe à inteligência, mesmo quando tudo do que dispomos são nada mais do que técnicas de Machine Learning (ML – aprendizado de máquina).
Como destaca Noam Chomsky em recente entrevista: “Por mais úteis que esses programas possam ser em alguns domínios estreitos, não há como equiparar o Machine Learning de agora com a mente humana”.
Há algo substancialmente importante a considerar: colocar na mesma categoria artefatos construído por humanos – os algoritmos – e as características essencialmente humanas é um erro inicial perigoso. O que deriva desta assunção (as opiniões decorrentes) ignora que nossa inteligência dispõe de recursos muito mais específicos do que isto que convencionamos denominar ML. Ao intercambiarmos os conceitos de ML e IA, degeneramos nossa capacidade de analisar criticamente (e por consequência, construtivamente) os impactos reais desta novas ferramenta.
Em função disto, já há algum tempo evito a expressão “inteligência artificial” para qualificar ferramentas como o ChatGPT ou o MidJourney. Não me parece fazer qualquer sentido. É aceitável considerar estes códigos de vocação probabilística na categoria de Machine Learning; mas aludirmos à inteligência para nos referirmos a eles já desconfigura o estreito deste Gilbraltar conceitual.
Inteligência não, automação sim.
Preliminarmente deve-se compreender que ML nada mais é senão um robusto algoritmo de base estatística escrito para encontrar padrões em gigantescas bases de dados. Sua função é descobrir estruturas probabilisticamente relevantes que possibilitarão a construção de estruturas análogas.
Em outras palavras, é simplesmente uma automação de um processo de análise probabilística orientado à meta de “responder” com base nos padrões encontrados. Não há nada inteligente nisso. Toda a automação é fundamentalmente estúpida: tudo que está fora do seu escopo é ignorado.
Alguém poderia argumentar que poderíamos ter uma infinidade de escopos orquestrados por um algoritmo supervisor e com isso teríamos algo inteligente. Bem, o fundador da empresa de videogames Significant Gravitas Ltd, Toran Bruce Richards, lançou uma ferramenta que pretendia algo semelhante – o AutoGPT. Mas aqui reside novo equívoco interpretativo. O AutoGPT nada mais é do que uma camada entre o usuário e o ChatGPT que automatiza as tarefas que supostamente seriam necessárias para atingir um objetivo desse usuário.
Apenas como exemplo, suponha que você queira escrever um parágrafo no estilo de James Joyce. A primeira coisa que você precisaria saber é quem foi James Joyce e o que ele escreveu. Depois você teria que ler algumas páginas de Ulysses (a obra mais famosa dele). Em seguida teria que entender o que significa o estilo “fluxo de consciência” e, por fim, gerar um texto que se aproxime das características do escritor.
O AutoGPT exime o usuário de todas estas tarefas na medida em que ele transfere o comando original para o ChatGPT (escrever um parágrafo ao estilo de James Joyce), criando uma série de tarefas derivadas para atingir o objetivo, sem a necessidade de novas interações com o usuário. Novamente, é pura automação de tarefas. Não há nada de imaginação inteligente ali.
Como já afirmei diversas vezes, os algoritmos “respondem” aos seus usuários somente se solicitados. Eles não possuem a necessidade vital de comunicar qualquer coisa sem que haja uma solicitação formal de um usuário. O AutoGPT não é exceção. Aliás, eles nem estão pensando ou mesmo imaginando que isto possa ser possível!
Recentemente, em um final de semana na serra, tive a oportunidade de observar uma aranha a tecer laboriosamente a sua teia. A obra do aracnídeo me impressionou de algum modo e, tão logo voltei para São Paulo, senti necessidade de comunicar esta minha experiência para outras pessoas. Esta necessidade de comunicar – que inexiste no ML – é o que nos torna inteligentes.
O fato de que o ChatGPT sintetize a forma mais humana de expressão (que é a linguagem), nos assombra muito mais do que a capacidade do MidJourney ou do Dall-e de gerar imagens. Não é fortuito. Como escreveu o grande Guimarães Rosa: “(…) a linguagem e a vida são uma coisa só. Quem não fizer do idioma o espelho de sua personalidade não vive; e como a vida é uma corrente contínua, a linguagem também deve evoluir constantemente (…) O idioma é a única porta para o infinito (…) e como é a expressão da vida, sou eu o responsável por ele, pelo que devo constantemente cuidar dele”.
A linguagem é onde o ser habita e ao observarmos uma máquina capaz de a dominar, tendemos a humanizá-la, como se ela tivesse a mesma necessidade que temos de criar pela linguagem o sentido da existência. A necessidade nos levou a inventar a roda, a criar a agricultura, a criar indústrias, a criar tecnologia. Tecnologias que nos permitiram existir tal qual existimos hoje, demonstrações de nossa inteligência.
Alguém poderia contra-argumentar de que, nos humanos, toda esta suposta inteligência seja algo geneticamente programado para que atuemos tal qual um criador. Nesse caso poderíamos aludir à inteligência dos genes, que nos criaram do modo como somos para se eles – os genes – pudessem perpetuar ao longo das inúmeras gerações (Como já afirmava Richard Dawkins: um organismo nada mais é do que um meio para que os genes sejam repassados de geração à geração, por necessidade da se perpetuar). Mas estaríamos fugindo do aspecto essencial desta discussão: o erro preliminar que contamina nossas opiniões sobre a “inteligência” sintética.
Machine Learning é um algoritmo burro como uma rocha. Ele só procura padrões a partir dos dados de que dispõe. Se alguém mal-intencionado modificasse a palavra “dinheiro” por “carvão” em seu banco de dados, eventualmente, poderíamos ler a frase “carvão não traz felicidade” na tela do ChatGPT.
Inteligência é intenção, função é operação
Seres humanos possuem a intenção no agir, assim como outros animais, seja esta intenção intuitiva ou consciente. Mas algoritmos de ML apenas cumprem uma função. Chaves de fenda não possuem a intenção de apertar parafusos; a intenção reside em quem as manuseiam. Algoritmos de ML não tem a intenção de produzir imagens com o estilo de Michelangelo ou Portinari; tais imagens só serão produzidas se houver a intenção de alguém.
Podemos, entretanto, aludir a intenção de quem inventa a chave de fenda ou de quem desenvolveu o algoritmo. Esta intenção reside na entidade humana e não na ferramenta (sim, é isto que o ML é: uma ferramenta).
Para termos uma ideia da importância deste aspecto caracteristicamente humano, basta fazer remissão à obra Society of Mind, do co-fundador do laboratório de IA do MIT lá em 1959. Minsky já discorria sobre a essencialidade da inteligência na observação de crianças brincando com blocos.
No capítulo 2 ele explica que as crianças não somente gostam de construir com os blocos, mas também gostam de ver tudo vir abaixo. Uma entidade inteligente, nesse exemplo das crianças, dispõe de 2 agentes distintos: o Construtor e o Destruidor. E assim ele postula: “Uma criança real pode ir para a cama e ainda construir ou destruir blocos na sua imaginação”. Esta urgência em brincar, ou imaginar a brincadeira com os blocos, aumenta ou diminui conforme a intenção da criança. E esse é um traço de sua inteligência.
O algoritmo, por sua vez, não tem intenção alguma. Quando solicitado pelo usuário, o ML apenas opera de acordo com a função para o qual foi desenvolvido. Não há algo como “gostar de responder”. Nem mesmo agentes do tipo Responder ou Calar. Não há imaginação. Ele só responde aquilo para o qual foi desenvolvido – sua função.
Logo, toda e qualquer alusão a senciência ou inteligência é uma notícia alvissareira.
Boas respostas ou respostas convenientes?
As respostas produzidas por Machine Learning são essencialmente convenientes ao viés da probabilidade estatística que as sustentam. Elas não resultam de reflexão, compreensão profunda ou conhecimentos construídos ao modo da cognição humana. Assim, não podemos assumir que o ChatGPT ou o MidJourney produzam boas respostas aos nossos questionamentos. São apenas respostas convenientes para o algoritmo em si, segundo o paradigma das probabilidades.
Em recente entrevista, Chomsky usa um argumento bastante esclarecedor: “Enquanto os humanos encontram explicações conjecturadas racionalmente, os sistemas de ML podem aprender tanto que a Terra é plana quanto redonda, pautando-se apenas por probabilidades dadas pelos padrões disponíveis”.
Acreditar que o ML possa substituir a capacidade da mente humana para interpretar fatos e dados e assim produzir boas respostas é subestimar sua superficialidade e dubiedade. Dado que o algoritmo opera de modo a produzir respostas convenientes para a função para o qual foi desenvolvido, a ideia de boa resposta é apenas um traço de nossa ingenuidade em humanizar entidades não humanas.
Assim que reitero, sem qualquer hesitação: é preciso subtrair o uso da expressão “inteligência artificial” para nos referirmos a esses algoritmos, sob o risco de sempre e toda vez emitir opiniões assentadas em um equívoco original. A expressão “aprendizado de máquina” reinaugura o sentido dessa distância entre humanos e máquinas. Qualquer tentativa de aproximação entre o orgânico e o inorgânico confunde a essencialidade que define as entidades materiais e abstratas. O risco é bem mais sutil do que podemos imaginar: que a AI Generativa seja um disfarce da AI Degenerativa, transformando-nos em humanos artificiais.
Cássio Pantaleoni é autor de Humanamente Digital – Inteligência Artificial centrada no Humano, colunista regular do MIT, escritor de nove livros de ficção, tendo duas premiações, e de dois livro de negócios. Estudou M.A Fenomenologia e Hermenêutica (PUC/RS); Filosofia (PUC/RS); Neuroscience Fundamentals (Harvard X); Finance & Accounting (The Wharton School); Fundamentals of Market Structure (New York Institute of Finance) e complementação curricular em Psicologia (PUC/RS). Tem mais de 35 anos de experiência na área de Tecnologia da Informação, tendo atuado como SAS Country Manager (2017-2020), ADOBE AVP LATAM Digital Experience (2020-2022) e Sócio-Investidor na Bloom Capital (2022).