O livro de Harari é um daqueles que nos deixam com saudades ao terminar a leitura.

Sabe aqueles livros densos, mas que lamentamos quando chegamos ao final? É essa a sensação que experimentei ao percorrer as 404 páginas do Nexus, de Harari. Ele acaba de nos brindar com uma curadoria sobre as redes de informação do passado e do presente. Analisando a revolução da inteligência artificial, ele aponta riscos futuros.

Até há pouco, a comunicação se dava de humano a humano. Potencializada por diversos meios. Seja o tablete de argila, o papiro manual, a escrita multiplicada pela prensa, o telégrafo, o jornal, o rádio. A novidade das atuais ferramentas digitais (robôs, bots, algoritmos e computadores empoderados pela inteligência artificial) é que elas desenvolveram a capacidade de gerar conteúdos e tomar decisões. Algo que nenhuma máquina anterior chegou a fazer. A comunicação que antes era feita entre humanos agora pode ser feita entre não-humanos. Trata-se de uma revolução na estrutura da comunicação.

Uma concepção ingênua (ou interesseira) sobre a comunicação acreditava que o amplo acesso às redes sociais iria culminar na autocorreção dos erros e excessos. E que, ao final, a descoberta da “verdade” e do conhecimento prevaleceria. Tudo em nome da liberdade de expressão. Ocorre que as coisas se passaram de outro modo.

As “tech giants” logo perceberam como os seus modelos de negócio poderiam ser maximizados. A disputa pela audiência digital passou a depender da forma de organização dos algoritmos criados para colocar certos conteúdos em nossas telas. E logo descobriram que as mensagens de ódio, mentiras e ultrajes atraem mais atenção. Muito mais do que as de moderação, empatia ou as que buscam explicar as complexidades da realidade. Destruir sempre é mais fácil do que construir. Coisas da mente humana.

Os acionistas e engenheiros das “tech giants” defendem-se dizendo que exercem a moderação ou contenção das mensagens mais escatológicas. E que esse tipo de conteúdo tóxico não é produzido pelas plataformas. Elas apenas transmitem o que os usuários criam. Mas que buscam se equilibrar entre a liberdade de expressão e o dever de cuidado. E que, por isso, não precisariam de regulação externa. Deixam de esclarecer, contudo, que instruem seus algoritmos para maximizar a captura das atenções. De qualquer modo. Mesmo estando cientes de que essa maximização do engajamento tem sido feita através da ampliação dos conteúdos de ódio e desinformação, como confessado em alguns relatórios internos vazados: “64% das adesões a grupos extremistas devem-se às nossas ferramentas de recomendação… Nosso sistema de recomendações aumenta o problema.” (relatório interno do Facebook em 2016). “Temos evidências de que a mecânica dos nossos produtos – viralização, recomendações e otimização de engajamento – é parte significativa da explicação sobre o florescimento desse tipo de discurso [ódio e desinformação] na plataforma” (memorando interno do Facebook em 2019). Confissões que demonstram como a natureza humana é falha e propensa ao abuso de poder.

Harari levanta questões. Aponta os riscos dos abusos totalitários. Mirando-se em experiências totalitárias como as da Inquisição e do Estalinismo, adverte para os riscos ainda maiores que decorrem do poder da IA de criar ideias e tomar decisões. As redes de comunicação atuais potencializam riscos maiores porque a estrutura da comunicação agora também envolve membros não-humanos. Há riscos de novas formas de totalitarismos e de entrarmos numa nova cortina a nos dividir. Agora, não mais a de ferro, mas a Cortina do Silício. Não basta instruir os algoritmos da IA com a ordem para maximizar a audiência. Já sabemos como eles cumprem essa determinação. Agora a comunicação também ocorre entre humanos e não-humanos. E entre não-humanos e não-humanos. Isso exige novas cautelas.

Se as ferramentas digitais das redes inorgânicas criam ideias e tomam decisões, precisamos redefinir os objetivos dos algoritmos para alinhá-los com os fins últimos das nossas sociedades. Trata-se de enfrentar o problema do alinhamento de propósitos. Isso não é trivial. De plano, identifico dois problemas: i) esses objetivos estão longe de serem consensuais; e ii) o extraordinário poder das “tech giants” continua impedindo que um agente externo (a sociedade, o Estado e os organismos multilaterais) exerça a moderação que elas fracassaram em exercer internamente. Só esse tipo de intervenção externa pode promover o alinhamento de propósitos de que fala Harari.

No presente, as “tech giants” ainda têm mais poder. Até quando, não se pode prever. A história não é determinista. Não é impossível desenhar algoritmos melhores que privilegiem o diálogo democrático e o conhecimento. Que deixem de cultivar nossas piores emoções. Podemos preservar os mecanismos de autocorreção da democracia, a liberdade, a justiça e a capacidade de decidir com base em evidências. Podemos criar redes de informação balanceadas capazes de controlar seus próprios poderes. Mas também podemos cair em novos totalitarismos ou numa Cortina de Silício. Não podemos sequer descartar a possibilidade de que entes superinteligentes, mas desprovidos de consciência – que é própria apenas do sapiens – venham a dominar o universo. Tudo está em aberto.

***
Os artigos representam a opinião dos autores e não necessariamente do Conselho Editorial do Terapia Política. 

Ilustração: Mihai Cauli e Revisão: Celia Bartone
Leia também “Algoritmo racista explica por que conteúdo produzido por negros fatura menos no YouTube“, de Giovanna Carneiro.