Analisar o Plano Brasileiro de Inteligência Artificial frente aos direitos indígenas é não apenas inédito, como significa lembrar que, se a IA é ciência com imaginação baseada na centralidade do humano, temos uma contraproposta: a IA centrada no indígena.

O Plano Brasileiro de Inteligência Artificial (PBIA) foi anunciado em meados de 2024 com a promessa de uma IA para o bem de todos e conta com um plano de investimentos de 23 bilhões até 2028.
Se uma meta tão grandiosa precisa incluir todos os que vivem neste território chamado Brasil, por nós Pindorama, cabe aos mais excluídos dos planejamentos de políticas públicas apresentarem suas posições sobre tal plano, de modo a aprimorá-lo e garantir seu sucesso no cumprimento das premissas da IA justa, ética e responsável.
Em diversos cantos do mundo, em especial nos países com maiores infraestruturas tecnológicas, os povos indígenas vêm se organizando para participar ativamente deste debate. Em 2020, o Instituto Canadense de Pesquisa Avançada e a Iniciativa para Futuros Indígenas publicou “Protocolos Indígenas e a Inteligência Artificial”, anunciando que: “Dada a longa história de avanços tecnológicos sendo usados contra os povos indígenas, é imperativo que nos envolvamos com este paradigma tecnológico mais recente o mais cedo e vigorosamente possível para influenciar seu desenvolvimento em direções que sejam vantajosas para nós.”
O primeiro ponto a ser observado e que também vimos discutindo desde 2020 no grupo Inteligência Artificial para a África é que o próprio conceito de inteligência que guia a IA vem de uma tradição epistemológica que separa o corpo da mente, a natureza da cultura, e coloca o humano no centro dos interesses de todos os desenvolvimentos tecnocientíficos.
O problema ético que tem se apresentado é que a ideia sobre o que vem a ser este humano que deve estar no centro para um design responsável replica uma visão da Antiguidade Clássica do Ocidente onde a distinção entre incluídos e excluídos de plenos direitos torna-se aceitável a partir de uma lógica de organização do mundo.
A racionalidade tem sido uma paixão do Ocidente e, olhando para a etimologia da palavra, o que temos? A partir do radical em latim, ratio significa calcular, ou seja, exercer o pensamento com base na lógica, sendo esta uma característica que acredita distinguir o ser humano dos outros animais. E, embora saibamos que a crença de que não há inteligência em animais – e mesmo nas plantas – já não mais se sustenta, esta é uma visão ainda presente, pois transita livremente nas entrelinhas dos sistemas de conhecimento. Os modos de saber, conhecer e produzir na visão Ocidental vêm invisivelmente fortalecendo o especismo que é, sobretudo, uma narrativa da exclusão.
O especismo não apenas privilegia uma espécie, colocando-a no centro. Ele se reflete no Antropoceno que subalterniza a natureza. Em adição, antropo é o humano, e também o homem que funda o humanismo, este que, na prática, é mais uma proposta de irmandade entre os homens que se reconhecem como iguais, do que realmente sobre a humanidade.
As mulheres, assim como estrangeiros e ‘estranhos outros’, vivendo sob uma soberania sequestrada, entraram em categorias de ‘segundos humanos’ ou ‘sub-humanos’. E revisitamos estes temas muito antigos quando percebemos que, através das tecnologias da informação, eles vêm se tornando fortemente presentes em ações de racismo, misoginia e discursos de ódio sobre quaisquer diversidades que contrastam com padrões normativos. Com este pensamento manifestam-se os negacionismos climáticos/ambientais, econômicos, sociais, identitários e mesmo os lógicos da própria racionalidade, já que a ciência ocidental, em suas mais diversas ramificações, vem comprovando por metodologias, estatísticas e probabilidades que há aquecimento global, que o investimento brutal em Data Centers não tem previsão de retorno financeiro e que há um aumento das desigualdades a nível mundial.
E, se as tensões advindas das desigualdades pesam sobre as pessoas e grupos mais vulneráveis, os povos indígenas, assim como pessoas racializadas e periféricas, entendem no corpo que as narrativas do mundo moderno sobre justiça falharam em integridade sobre o que evocam. A visão antiga sobre a vida nua – e desprotegida de direitos – e a vida qualificada prevalece pois integra invisivelmente os sistemas de conhecimento do Ocidente, estes agora convertidos em dados que representam um reforço nas práticas colonialistas e coronelistas (no caso brasileiro).
É certo que a figura do homo sacer do antigo Direito Romano sempre foi combatida pela visão moderna do humanismo. O homo sacer, que é aquele que se pode matar sem que isto seja considerado um crime sujeito à punição, continua sendo objeto da necropolítica diária nas sociedades contemporâneas, de modo que a defesa dos Direitos Humanos vem se tornando um romantismo de alguns que teimam em acreditar que é possível ter uma sociedade mais justa, mesmo em meio a desigualdades viscerais.
Antes da globalização e a consequente digitalização do mundo e da vida, acreditou-se por séculos, dia após dia, que o desrespeito à vida fazia parte de exceções à regra que deveriam ser vigorosamente combatidas. Pouco se percebeu que as narrativas contidas nos sistemas computacionais, desde as práticas humanas e sua representação em volume de dados, estavam trazendo de volta imaginários que pareciam mortos. Do contrário, cada vez mais vivos e reforçando desigualdades e preconceitos.
Assim, o desafio de tornar a IA Responsável requer políticas que sejam capazes de ampliar o letramento, capacitação e qualificação para entender este novo momento do mundo, onde todas as políticas acontecem dentro dos sistemas computacionais. E, se o PBIA representa um plano de políticas públicas, precisamos iniciar os processos de engajamento e consulta pública.
Isto quer dizer que é necessário garantir a presença das Humanidades no PBIA e centros de IA para que seja possível conduzir pesquisas, consultas e análises. Os usos da IA nos contextos de tomada de decisão envolvendo dados sensíveis sobre perfil de saúde ou comportamental, assim como histórico educacional, profissional e status social, precisam ser examinados cautelosamente.
Atualmente já se vislumbra a descontinuidade de diversos projetos de IA, significando que um grande volume de investimentos se perdeu nas narrativas de um mundo perfeito e uma inteligência superestimada que nunca é confrontada com os desafios do mundo físico, corpóreo e que precisa de uma atmosfera saudável para existir.
Analisar o PBIA frente aos direitos indígenas é não apenas inédito, como significa lembrar que, se a IA é ciência com imaginação baseada na centralidade do humano, temos uma contraproposta: a IA centrada no indígena. Os valores indígenas para uma IA Responsável são da consciência sobre a cultura, relacionalidade, colaboração e responsabilidade ambiental.
Apenas imagine que uma IA centrada no humano, assim como a internet das coisas, representa visões de mundo que estabelece necessidades de consumo, como ter um veículo autônomo ou uma casa inteligente em que é possível iniciar ações como acender as luzes, colocar roupa para lavar, iniciar o aquecimento da comida e o preparo do banho, antes mesmo de se chegar em casa. Esta versão robotizada do ‘sonho americano’ na versão animada “Família Jetsons” permanece como inspiração para desenvolvimentos tecnocientíficos que não somente estão distantes da cosmovisão indígena, como pecam em querer exterminá-la em um processo de colonização 2.0.

***
Os artigos representam a opinião dos autores e não necessariamente do Conselho Editorial do Terapia Política.
Ilustração: Mihai Cauli e Revisão: Celia Bartone
Leia também “A Inteligência Artificial e sua bolha potencial“, de Marcos Grillo.


