Nexus e Maniac

I

No seu site pessoal, o israelense Yuval Harari se apresenta como historiador (historian) e filósofo (philosopher), no entanto, as suas publicações possuem um formato um tanto jornalístico, isto é, informativo e, conjuntamente, opinativo. De fato, se o colocarmos em frente de personagens como Erick Hobsbawn ou Byung Chul-Han, a forma que Harari usa para escrever seus textos, mais do que afirmar e aprofundar uma tese histórica ou filosófica, parece fazer relatos históricos tecendo argumentos previamente defendidos por vários autores (incluindo filósofos e cientistas). Se perguntarmos qual a tese histórica ou filosófica de Homo Sapiens ou de Homo Deus, acho que podemos encontrar respostas, mas ainda respostas que podem parecer frágeis ou no mínimo polémicas aos olhos de certos historiadores e filósofos.

Sem embago, seus livros são amplamente lidos mundo afora e isso tem ajudado muitas pessoas a conhecer de uma maneira mais amigável diversas questões relativas aos efeitos que a sociedade e os indivíduos vêm experimentando em função das transformações tecnológicas.

Em seu recente livro Nexus (Companhia das Letras, 2024), Harari se propõe fazer uma história das redes de informação para nos colocar diante de um dos desafios mais importantes do nosso tempo: os impactos da Inteligência Artificial na sociedade. Suas preocupações – e suas preferências – giram em torno da democracia e aparentemente nesse contexto um dos inimigos mais relevantes toma a forma de ‘totalitarismo’.

Aplicando a ideia de que o ‘mecanismo de correção’ da democracia é o que permite que regimes totalitários não prosperem, Harari nos induz a pensar que para que a humanidade não colapse, será necessário que as democracias produzam um mecanismo de correção para controlar  os efeitos dos algoritmos da inteligência artificial, mesmo quando essa perspectiva sempre se choca com aquela conhecida máxima: e quem controla o controlador?

Desde faz muito tempo que as democracias têm utilizado essa fórmula – os mecanismos de correção – para garantir certa estabilidade na ordem social do estado democrático de direito, porém eu não estaria tão seguro de pensar que isto se aplica a todas as democracias nem me sentiria seguro de pensar que não sendo assim, dentre os males, a democracia é o menor. É muito comum isolar o regime democrático dos seus efeitos colaterais. Se um governo democrático invade e destrói um país com o pretexto de resgatar reféns de um grupo terrorista, parece existir, minimamente, algo contraditório no seio dessa democracia. Se um país democrático realiza operações ultrassecretas que detonam bombas escondidas em pagers e se propõe utilizar certos mecanismos de correção para tornar transparentes os algoritmos sociais, dá a impressão de que algo parece estar fora da ordem democrática.

Assim, ainda quando pareça que as preferências de Harari sejam altamente razoáveis devemos considerar que o argumento ‘a pesar disso …’ também se aplica a outras formas de regimes não democráticos, os quais não necessariamente podem ser chamados de totalitários. Ou ainda, aquilo que caracteriza um regime totalitário só se diferencia de um regime democrático pela forma de exercer o poder, pois no caso de alguns estados democráticos, também se invade – mediante outras vias – a totalidade da vida das pessoas. Ao lançar mão do totalitarismo para nos colocar de frente à ameaça totalitária da inteligência artificial, Harari aproveita para tentar nos convencer de que sendo a inteligência artificial uma ameaça potencial a todas as vidas do planeta, só na forma totalitária é que ela representa o verdadeiro problema, pois esse tipo de sistema não possui mecanismos de correção. Porém, desde que este exista (e estaria presente nos regimes democráticos), a Inteligência Artificial se torna uma aliada da humanidade.

Não é necessário adentrar naqueles mesmos argumentos utilizados desde sempre para nos convencer dos benefícios de uma nova tecnologia e assim justificar a sua inserção na sociedade, porque sabemos que elencar esses argumentos tem sido o modus operandi do capitalismo ao longo da história e nesse sentido, pode parecer evidente que Harari considera que a Inteligência Artificial deva ser apropriada pelos estados democráticos antes que seu inimigo mais perigoso – o estado totalitário – o faça.

Com diz Bergson, os falsos problemas se evidenciam porque suas diferenças são de grau e não de natureza. No meio da segunda década do século XXI, o maior exemplo de totalitarismo para Harari é a Rússia, portanto, a corrida é contra eles; e claro, a sua pátria mãe, Israel, deve ser o tipo de democracia que pode ser citada como exemplo de garantias de mecanismos de correção, pois, nenhuma só linha é dedicada ao genocídio que ocorre desde outubro de 2023 na faixa de Gaza, ainda quando fatos e referências de 2024 são incluídos ao longo de todo o livro. Com isto, poderíamos dizer que os argumentos que Harari usa podem ser tendenciosos, pois como historiador que se intitula, sabe que escolher fatos para contar uma história, demostra uma preferência.

Sem embargo, não é essa história que quero destacar nas próximas linhas, senão outra que induz a pensar que a inteligência artificial, tal qual a conhecemos hoje, é uma realidade da qual não podemos escapar. Claro, podemos concordar com a perspectiva de que não podemos escapar dela, mas de qual realidade estamos falando? Daquela com agentes, chatbots ou apps que nascem todo dia e geram diversos efeitos aparentemente impensados na sociedade ou daquela onde a Inteligência Artificial é entendida como uma tecnologia que está sendo construída nos porões das Big Tech e que seus mecanismos de autocorreção já mostraram em Mianmar que dependem dos impactos que provocam nos seus próprios ganhos econômicos?

Vejo que os relatos de Harari parecem um pouco tendenciosos e ao me perguntar por que Harari contou somente um lado da história do confronto entre AlphaGo e Lee Sedol minha tendência é corroborar essa impressão porque constantemente leio no seu livro Nexus relatos que privilegiam um lado da história.

Vejamos o exemplo do confronto entre AlphaGo e Lee Sedol.

II

Harari começa o relato do confronto entre AlphaGo e Sedol nos seguintes termos:

O contexto deste relato gira em torno da preocupação que Harari demostra ao confirmar que os algoritmos de Inteligência Artificial apresentam características criativas. Mas a preocupação cede rapidamente ao êxtase quando passa a ressaltar o papel que certas empresas privadas tiveram na corrida por desenvolver a Inteligência Artificial no mundo (principalmente em países como a China e Rússia):

Assim como no começo do século XIX a construção de ferrovias se deu com o esforço pioneiro de empreendedores privados, da mesma forma, no início do século XXI, os principais competidores iniciais na corrida da IA eram corporações privadas. Os executivos do Google, do Facebook, do Alibaba e do Baidu perceberam antes que os presidentes e generais o valor de reconhecer imagens de gatos. O segundo eureca! se deu em meados de março de 2016, quando os presidentes e generais entenderam o que se passava. Foi a supracitada vitória do AlphaGo do Google contra Lee Sedol. (pág. 368)

O importante deste relato não reside somente no fato da jogada 37 ter demonstrado o poder da Inteligência Artificial e com isso ter iniciado uma carreira ao novo ‘ouro’ digital. Isso está explicito no texto. O relato sugere que o segundo eureca funciona como um dispositivo político que inaugura a disputa pelo controle dessa tecnologia entre os grandes atores globais, caracterizados, por um lado, pelas possibilidades reais de governos democráticos, munidos de mecanismos de correção apropriados, garantir seu uso adequado e, por outro lado, pelos terríveis efeitos que seu uso pode ter nas mãos de governos totalitários, pois de alguma maneira, o que se afirma é que o poder da Inteligência Artificial é imbatível e este é o motivo pelo qual é necessário implementar com urgência no âmbito da Inteligência Artificial os mecanismos de correção próprios da democracia.

Assim como Harari não conta o genocídio que ocorre em Gaza pelas mãos de Israel desde 2023, também não conta que o confronto entre AlphaGo e Lee Sedol foi de cinco partidas. O relato da jogada 37 acontece na segunda partida e para ele configura o ‘segundo eureca’: um sinal de choque que ativou particularmente os governos de Extremo Oriente (ver pág. 368) na corrida pelo controle da Inteligência Artificial. Porém, no seu livro, o professor de história não atribui nenhum significado especial para a jogada 78 do quarto jogo.

Quem faz esse relato de forma extremamente brilhante é o escritor chileno Benjamin Labatut no seu livro Maniac (Anagrama, 2023):

O que Harari não contou foi que a quarta partida foi vencida por Lee Sedol. Sim, pode parecer irrelevante aos olhos do escritor israelense, assim como também pode parecer irrelevante que, a quinta e última partida “se estendeu por mais de cinco horas e terminou em um cenário final de uma complexidade insuportável”, um jogo “de 280 movimentos, cobrindo o tabuleiro quase completamente”, “onde era quase impossível saber quem tinha vencido. Quando os expertos terminaram de contar os pontos, perceberam que esse tinha sido de longe, o mais equilibrado dos cinco duelos: AlphaGo tinha vencido Lee só por dois pontos e meio” (pág. 376-377).

Assim como com fizeram com Facebook ou outros algoritmos computacionais, acredito ser necessário pedir uma explicação de Harari em relação a esta escura omissão, pois ela nos ensina outra coisa em relação ao poder da Inteligência Artificial e às capacidade humanas de lidar com ela.

Aparentemente, o recurso a regimes totalitários pode ser parte do alinhamento estratégico que quer nos fazer pensar que não há alternativa a não ser aceitar que as democracias liberais de ocidente detêm o papel de controladoras do mecanismo de correção da Inteligência Artificial. Harari não indica caminhos a não ser aceitar que dependeremos dessa tecnologia e que a moral ocidental é a que pode controlar os algoritmos.

De fato, quando aborda a escuridão dos algoritmos o faz associando-a à nossa incapacidade de compreender as mágicas ‘jogadas 37’ porque, diferente da Inteligência Artificial, nosso raciocínio é limitado; nossa capacidade de fazer contas é muito pequena comparados com a máquina. Porem, Harari não tece nenhuma consideração em relação a nossa faculdade consciente, nossa capacidade de pensar de forma sintética e baseada em uma história de corpo, de uma concatenação de estados subjetivos ou da corporificação dos estímulos constantes que vivenciamos na presença de outros corpos. Harari faz como todos já fizeram: separa a mente do corpo e separa o corpo do grupo social em que existe; trata a mente como se fosse um computador, sem sequer pensar nas articulações de nível orgânico, psicossocial e técnicas que acontecem em um corpo que é um teatro de individuações, no qual o que se individua produz um indivíduo individualizado com potencial de individuação constante.

Se formos pensar nos algoritmos e na forma como processam alguns dos sinais decifráveis do comportamento humano através de camadas de neurônios dispostas sobre arquiteturas densas ou convulsionais, veremos que neles não se dá nenhum crédito à forma em que nossa experiência é constituída, por exemplo, mediante a vivência de experiências significativas, ou pelas marcas impregnadas na escuridão do nosso inconsciente, nossa subjetividade antropofágica como descreve Suely Rolnik. Esse devir que se constitui física, biológica, psíquica e socialmente como fluxo contínuo, resulta irredutível a padrões absolutos de comportamento visível, formalizável ou caracterizável por engenheiros de atributos ou similares. O recorte que opera na Inteligência Artificial, mais do que estar sendo realizado através de um processo extrativista de padrões, esta sendo realizado mediante processos que induzem propositalmente certos padrões de comportamento baseados nos interesses econômicos dos donos das Big Tech.

Como se diz em bom português brasileiro se trata de chutar o escanteio e correr para cabecear no gol.

Embora pareça natural que após esta reflexão você queira comprar e ler o livro Nexus, reforçando a ideia de que a leitura das obras do professor de história é amplamente acessível, por outro lado, ao ler estas linhas você também pode produzir uma experiência significativa diferente à proposta pelo autor e variar os pesos e reprogramar seu algoritmo interno para ler o autor de forma crítica e assim passar a relativizar os argumentos de Harari sobre o Homo que ele constrói no seu jornalismo opinativo.

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.