Veio a público, recentemente, uma entrevista com o importante filósofo e linguista Noam Chomsky, onde ele analisa alguns aspectos do ChatGPT, a mais comentada ferramenta de inteligência artificial já desenvolvida.

Obviamente, na entrevista, são abordados assuntos como o quanto o desenvolvimento desse tipo de “inteligência” ameaça a humanidade e se ela poderá, eventualmente, superar o ser humano em suas diferentes capacidades, coisa que sempre importa, dada a possibilidade de aumentar o desemprego. No entanto, o assunto que dá eixo à entrevista é a percepção desse filósofo sobre a possível contribuição desse sistema no desenvolvimento da ciência.

Logo no início da conversa, como bom filósofo, Chomsky pede que o entrevistador deixe mais claro o que ele considera serem as tais “capacidades” humanas a serem superadas. Afinal, se entendermos esse termo como desempenho, uma simples calculadora supera, em muito, a nossa capacidade de fazer contas rapidamente. Logo, ao menos em desempenho, tal superação do ser humano já está em curso há anos, independentemente dos novos caminhos trilhados pela inteligência artificial. Mas seriam essas “máquinas” ou, mais precisamente, esses “programas”, superiores em outras áreas do saber?

Para resolver isso, outra distinção nevrálgica foi apresentada pelo autor: aquela entre um puro processo de engenharia e ciência. Essa distinção perpassa toda a construção intelectual presente na entrevista e não pode ser esquecida por antecipar a reflexão sobre os limites teóricos da inteligência artificial. Seria ela capaz de investigar o mundo mediante propósito e óticas próprios? Estes sistemas estabeleceriam algum tipo de relação “consciente” com o mundo ao seu redor, ou eles teriam que ser sempre conduzidos por seus criadores e, portanto, relegados à condição permanente de ferramenta?

A distinção apresentada por Chomsky entre engenharia pura e ciência reside, justamente, no fato de a engenharia pura ter como fim o desenvolvimento de produtos, enquanto as ciências lidam com o entendimento do mundo e de nós mesmos. Como bem suportado pelas palavras do filósofo, hoje, a importância das IAs está no desenvolvimento de produtos. Estes podem ser desde equipamentos, até ferramentas que aumentam a performance de investigações científicas – por sinal, o que já podia ser facilmente constatado quando observados os sistemas de busca disponíveis na internet. Como toda ferramenta ou produto, entretanto, é claro que o ChatGPT, assim como qualquer outro sistema similar, pode ser bem ou mal usado.

Mas enumerar bons e maus usos dessas tecnologias não nos interessa tanto aqui, mesmo porque isso já abunda na literatura e na rede. Interessa-nos, sim, profundamente, oferecer uma resposta à pergunta anterior sobre as reais possibilidades desses sistemas de gerar, de maneira autônoma, algum tipo de entendimento sobre o mundo à nossa volta. Produziriam, esses sistemas, ciência algum dia? No caso da linguística, especificamente, a resposta de Chomsky é clara. Não!! Mas por quê?

Embora o ChatGPT seja comumente chamado de inteligência artificial, ele seria mais precisamente classificado como um software generativo baseado em machine learning ou deep learning (aprendizado de máquina ou aprendizado profundo). A diferença é que se pressupõe que uma inteligência artificial deveria ser semelhante à humana e, portanto, capaz de inteligir, ou seja, perceber e compreender o mundo com representações mentais. Machine learning é algo muito mais limitado. Ela constitui uma ferramenta que estabelece correlações entre dados históricos e, através de interações autônomas repetidas e treinamento de humanos, tenta projetar o futuro e gerar resultados (no caso, o software foi treinado usando o vasto reservatório de textos da internet que resultou em 500 bilhões de amostras de texto correlacionadas por 175 bilhões de parâmetros e variáveis). O ChatGPT simula a produção de textos e diálogos a partir de um input humano (a pergunta ou pedido, tipo, quero um soneto sobre bananas), mas sem ter consciência do que fala. Seu produto é mero output estatístico/probabilístico.

Dessa forma, assim como os demais grandes modelos de linguagem (ou LLMs, “large language models), o ChatGPT foi criado de tal modo que é, por princípio, totalmente incapaz de produzir qualquer conhecimento sobre linguagem ou aprendizado. Ou seja, os sistemas computacionais poderão, a partir de sua imensa base de dados, combinar e trabalhar qualquer linguagem existente, sendo elas possíveis para o aprendizado humano (em crianças) sejam elas impossíveis, e é justamente esse o problema. Os LLMs não vão compreender como tais linguagens se relacionam com nosso cérebro, com nossas capacidades cognitivas ou mesmo com a história de nossa cultura. O mundo real continua intangível para as “máquinas”.

Segundo Chomsky, uma analogia possível seria a de um biólogo que elaborasse uma nova teoria sobre os organismos que listasse espécies existentes e espécies que sequer poderiam existir, sem haver qualquer condição de dizer a diferença entre elas. O autor segue abordando dilemas e problemas relacionados à forma como esses sistemas operacionais encarariam os dados disponíveis na hora de entender nossas teorias. Teorias como a da evolução, a da biologia molecular ou mesmo aquelas ligadas ao movimento não são meros trabalhos estatísticos que prescindam de uma dialética com o mundo e, portanto, não seriam acessíveis às IAs. Elas constituem representações humanas de entendimento do mundo mais do que o mundo em si e daí a questão de princípio levantada por Chomsky.

Talvez fique mais fácil de entender o pensamento de Chomsky se nos lembrarmos dos paradoxos formulados na Grécia clássica. Lá, para figuras como Pitágoras e Parmênides, a matemática era uma ferramenta divina e, portanto, o que ela falava era “sagrado”. Na verdade, isso sequer mudou muito hoje em dia. Se tiverem um tempo, procurem assistir os vídeos sobre a Sequência de Fibonacci disponíveis na internet. Todos vêm acompanhados de uma música de inspiração religiosa, o que, no fundo, insinua a mesma coisa.

Pois bem. Vocês se lembram dos paradoxos de Zenão, o discípulo mais proeminente de Parmênides? Uma reles tartaruga, ou melhor dizendo, um jabuti sai na frente em uma corrida de 100 metros rasos. Quando ele atinge o décimo metro, alguém solta o outro competidor, que calhava de ser Aquiles, o homem mais rápido do mundo. Segundo Zenão, aí começava o problema. Antes de ultrapassar o jabuti, Aquiles teria que percorrer a metade da distância entre ele e seu vagaroso competidor; e, após passar por essa metade, teria que passar pela metade da distância restante; depois, por metade da metade; e assim infinitamente. Aquiles gastaria toda a sua vida percorrendo infinitas metades cada vez menores e jamais alcançaria o jabuti. Sendo assim, do ponto de vista matemático, o próprio movimento não existiria.

A chave para a solução do problema está em entender que o mundo não é matemático nem lógico e que isso tem profunda relação com o aprendizado. Entender que a matemática jamais foi divina, mas sim humana e que não se relaciona com o mundo à nossa volta, sendo, portanto, um sistema impermeável. A matemática é apenas uma ferramenta de representação humana que não está em qualquer outro lugar senão em nosso intelecto. A geração de conhecimento, por outro lado, exige constante fluxo entre nós e o mundo. Exige um bate-bola dialético e o entendimento de que tudo que podemos alcançar é um saber aproximado.

Claro, a tecnologia avança na velocidade da luz e, além das atualizações do ChatGPT, já existem IAs (chamadas “agentes autônomos”) que parecem mais independentes na sua relação com o mundo. A questão é: será que não haveria um impedimento absoluto, uma barreira intransponível que, mesmo considerando o progresso exponencial dessa tecnologia, se coloque entre ela e uma inteligência similar à humana? Não seria a distância entre a chamada “inteligência artificial” e a nossa inteligência similar àquela entre Aquiles e o jabuti? Em um olhar inocente, simples de transpor, afinal, o que seria o conhecimento que não a combinação de conhecimentos anteriores? Mas, quando se olha de perto, se percebe que nossa relação com o mundo não é fruto de uma simples análise combinatória. Que o significado de uma palavra, por exemplo, não se encontra somente nela; que conceitos têm tantos sentidos quanto o número de cabeças humanas. Eles não se encontram nas palavras em si, mas em nossas mentes, que são únicas e um agregado de símbolos, experiência, tradições, potência genética, imaginação, criação, valores etc.

Após distinguir as limitações de quaisquer programas diante de sistemas tão dinâmicos quanto o aprendizado que se dá na cabeça de crianças, Chomsky segue introduzindo situações e conceitos auxiliares na discussão. Ao mostrar que crianças nascem com o dom da linguagem pronto para ser acionado, mas que o fazem mediante etapas razoavelmente bem conhecidas pela ciência comum e necessariamente ignoradas por sistemas de linguagem como o ChatGPT, o filósofo resgata na Grécia clássica outra interessante ferramenta para a compreensão do causo: a dicotomia aristotélica de “posse de conhecimento” X “uso do conhecimento”. As máquinas terão sempre uma quantidade crescente de dados nelas introduzidos e prontos para serem processados, mas jamais o saberão.

O filósofo linguista segue explicando esse sutil calcanhar de Aquiles dos LLMs com o uso de uma série de bons exemplos, o que pode ser checado diretamente no texto que, obviamente, termina com a resposta ao quanto essa tecnologia nos ameaça. Essa, entretanto, é outra longa conversa. Mesmo porque nós, sem muita ajuda de sistemas de IA, já estamos fazendo esse trabalho de destruição global com muita competência e nada indica que ele será interrompido tão cedo.

Nesse sentido, não deixa de ser engraçado especular que nos aproximamos do fim da humanidade por conta do desenvolvimento de ferramentas como o ChatGPT. Afinal, o grande problema não é o sistema em si, mas sim a nossa incapacidade de regular, globalmente, seu desenvolvimento e uso por humanos. Ou seja, nosso problema, como sempre, continua sendo nós mesmos.

Em suma, as IAs fazem apenas operações de dados. Elas não têm o equipamento necessário para ter consciência sobre eles. O ChatGPT não sabe o que está fazendo. No caso específico, o programa não aprendeu língua nenhuma, ele simplesmente faz uma pantomima de linguagem a partir de amostragens estatísticas gigantescas. O mundo está longe de ser dominado pelas IAs que, por sua vez estão muito longe de ser nosso real problema. O problema real é que, na era da informação e desinformação, IAs são ferramentas poderosas nas mãos de uma oligarquia que cada vez mais quer controlar todos os aspectos das nossas vidas. É mais uma ferramenta dos detentores do capital.

Por fim, não se pode abordar esse assunto sem apontar um risco que já habita o caminho que trilhamos há tempos. Embora defendamos aqui que os mecanismos de inteligência artificial estejam bem longe de atingir uma inteligência aproximadamente humana, o movimento oposto se dá de maneira igual ou talvez até mais veloz e preocupante. Seja na ciência, onde se abandona cada vez mais a filosofia (conceitos) e se abraça cada vez mais o método; seja nas redes sociais, onde algoritmos ditam nossas amizades; ou mesmo nas religiões, onde paramos de refletir para abraçar fórmulas prontas de transcendência (niilismo nietzschiano) abrimos mão, gradativamente, daquilo que mais nos distingue como humanos. Mas isso é assunto para outro texto, não é?

***
Os artigos representam a opinião dos autores e não necessariamente do Conselho Editorial do Terapia Política. 

Ilustração: Mihai Cauli  e  Revisão: Celia Bartone
Leia também “Chat GPT, inteligência para o bem?“, de Paulo Jannuzzi, Vicente Rocha e Fernanda Reis.