Você vai mergulhar nas reflexões de Yuval Harari sobre a inteligência artificial e as redes de informação em seu novo livro "Nexus", entendendo como esses elementos estruturam a sociedade, os sistemas de poder e os pactos sociais que vivemos hoje. Leitura obrigatória para quem quer entender as consequências da IA e o que pode vir por aí.
Exploraremos os principais riscos da IA para a democracia, para o controle social, além dos impactos econômicos e culturais. A aula ainda discute a importância da regulação e o papel das instituições frente a essa nova era tecnológica.
De repente o pessoal vai chegando. Vamos lá. Gente, boa noite de novo. Obrigada por estarem aqui hoje para me escutar falar sobre inteligência artificial de uma perspectiva menos prática e mais filosófica, mais reflexiva.
A gente no CR_IA costuma trazer alguns pontos de reflexão, mas também acho que não tem tanta gente hoje na sociedade que está fazendo as discussões e as reflexões morais, filosóficas, econômicas e sociais sobre inteligência artificial, porque é um tema super complexo. Tem pouca gente capaz de fazer essa reflexão por todos os ângulos.
Eu acho que a gente está bem amparado por vocês, que são alunos do CR_IA, que já têm contato com a tecnologia, ou por pessoas que não são alunos do CR_IA, mas que já estão estudando isso de outras maneiras.
E hoje a gente vai, principalmente, abordar, estudar da perspectiva do Yuval Harari, que é o autor de "Nexus". "Nexus" é o livro que o Yuval, o Yuval é o cara que escreveu "Sapiens". Quem aí leu "Sapiens"? Alguém leu "Sapiens"?
Isso, eu vi uns TikToks sobre, temos. O Alexandre leu, aparentemente, eu também vi um TikTok sobre. "Sapiens" é o primeiro livro do Yuval, eu não sei se é o primeiro, sendo bem honesta, mas é o livro do Yuval que transformou ele numa mente pensadora do que é o comportamento humano, conectando o nosso comportamento da pré-história com o que a gente vive hoje.
O segundo livro do Yuval, muito famoso depois do "Sapiens", é o "Homo Deus". O "Homo Deus" faz uma ponte entre essa origem da gente como ser humano, o "Homo Sapiens", e o futuro da humanidade; já conecta com a AI e com tecnologia de informação.
E lançou o "Nexus" mês passado, eu comprei no pré-lançamento, eu sou muito fã do Yuval. O "Nexus" é um livro que aprofunda mais na relação entre a tecnologia da informação e nossa capacidade de se estruturar como sociedade. O livro chama "Nexus, uma breve história das redes de informação da idade da pedra à inteligência artificial".
O que é a primeira coisa que eu acho que é interessante e relevante de entender sobre esse livro? O principal argumento do Yuval, que não é necessariamente um argumento, e claro, ele é um filósofo, ele está propondo uma visão de mundo. Essa visão de mundo não é necessariamente a única; tem gente que discorda dele, estão errados? Não estou brincando, tem gente que pensa em um mundo que discorda dele, discorda das visões que ele traz nos outros livros, de alguma maneira, não completamente, mas tem pontos de discordância.
Mas o argumento principal do Yuval nesse livro, que corre por todo o livro, é que entender as redes de informação é fundamental para compreender como a gente chegou até aqui como espécie e para onde a gente vai. Por redes de informação, basicamente o que ele está falando é a maneira como a gente troca informação. No livro, ele passa uma boa parte definindo a informação; ele procura ali o que é a definição de informação.
Eu estou usando como apoio para a nossa aula, inclusive, eu vou dividir isso com vocês porque eu acho que é interessante vocês verem, saberem. Eu subi o livro no notebook LLM e estou usando o notebook LLM com apoio para a aula.
Eu tenho um material que eu fiz também, mas para algumas perguntas específicas que podem surgir na minha cabeça ou na cabeça de vocês durante a aula, então eu vou perguntar aqui para o notebook LLM como o Yuval define informação no livro.
Porque é difícil definir informação, quando a gente para para pensar: como se define? O que é a informação? E aí ele se detém bastante tempo definindo informação, justamente para falar o que é a informação e depois vem falar das redes de informação; a maneira como a gente troca informação é o que estrutura a gente, é o que permite que a gente entenda como a sociedade chegou até aqui hoje e para onde a sociedade vai.
Espera aí, deixa eu ver aqui porque eu acho que... Oi pai, meu pai chegou, gente, boa noite pai, tudo bem? Acho que é a primeira vez que meu pai vê uma aula minha de AI.
Quando a gente fala de definição de informação para o Yuval, ele fala uma coisa muito interessante: a gente tende a definir informação como se a informação fosse a verdade.A gente fala assim, a informação são, sei lá, pedaços da realidade que são verdade, e ele fala que isso é uma visão ingênua; obviamente a informação não está conectada com a verdade.
A informação pode não ser verdade e a informação pode representar a realidade, mas a função primordial da informação é conectar as pessoas. E essa conexão entre as pessoas vai criar e sustentar redes entre as pessoas; essas redes são culturais, são políticas, e são essas redes que permitem que a gente crie estruturas sociais, estruturas de poder, que a sociedade se estruture como ela está hoje.
Ele reconhece que buscar a verdade é um aspecto importante do que ele chama de informação, mas o que ele diz é que na maioria das vezes a informação é utilizada para criar e manter a ordem social. Então, ao longo do tempo, o que ele quer dizer com isso? A gente falou assim, ao longo do tempo nas sociedades, a gente teve instituições, pessoas, instituições propagando informação com o objetivo de manter a ordem social, não de informar as pessoas sobre a verdade.
Quando você pensa em centros de poder em sociedades antigas, desde o começo, esses centros de poder concentram informação sobre, por exemplo, o tamanho do terreno de senhores feudais; isso serve para manter a ordem.
Como assim manter a ordem? Eu preciso ter a informação registrada sobre o tamanho do terreno para poder cobrar imposto direito, por exemplo. Mas existem outras funções conectadas também, existe um nível de detalhamento que a gente não vai conseguir entrar aqui, obviamente é interessante que vocês leiam o livro, mas eu estou passando por essa primeira parte que ele aprofunda no livro sobre a definição da informação para dizer que o que esse cara defende é que a maneira como as pessoas trocam informação estrutura, e é crucial para compreender a história e compreender para onde a gente vai.Para ele, rede de informação, a maneira como a gente troca informação ao longo da história, é a base de todos os sistemas importantes da sociedade.
Os estados-nação, as estruturas de poder, as religiões, a moeda, a justiça, a economia, que para ele isso é importante, ele toca nisso no "Sapiens", por isso que eu perguntei se vocês leram o "Sapiens".
Porque quem ler o "Sapiens" vai lembrar que ele explica como certos conceitos que para a gente são muito reais, mas são conceitos culturais criados, obviamente. Dinheiro é um conceito criado; se eu acredito que o dinheiro vale um real e vocês também, então o dinheiro vale um real, mas se a gente não acredita não vale mais. Então é um conceito, é ficção, mas é ficção que estrutura a sociedade, é uma ficção que tem impactos na realidade e que se transforma até se confunde com a realidade.
É isso, é isso, Rosana. Então a Rosana fala aqui no chat, e eu repito para quem vai achar gravada depois. Dinheiro é um pacto social; se todo mundo acredita, ele funciona. E aí o Yuval fala muito desses pactos sociais; o que ele fala é que todos os sistemas importantes de pactos sociais estão ancorados em redes de pessoas, de tecnologias, de instituições, coletando e compartilhando informações, sempre.
Ele questiona também; ele começa o livro, depois que ele define a informação, ele fala assim: olha, por que a gente desenvolveu ao longo da história um monte de tecnologia incrível para trocar a informação melhor?
A gente saiu do contexto de, assim, o mesmo cérebro que estava sendo o passador-coletor, é o cérebro que hoje está desenvolvendo foguete; como a gente é tão brilhante e frequentemente ao longo da história, quando a gente desenvolveu a tecnologia, a gente tomou tantas decisões autodestrutivas para a humanidade?
E ele sugere que o problema, e aí de novo vocês vão ter que ler o livro para se aprofundar nisso, a gente pode discutir mais quando eu passar para as perguntas disparadoras, para as nossas conversas, ele fala: olha, o problema não está na estrutura humana, não é que a gente é inerentemente ruim, inerentemente autodestrutivo, mas tem uma maneira específica de como a gente funciona, de como a gente recebe informação, de como a gente processa informação, que contribui para que a gente tome decisão autodestrutiva quando a gente fala de grandes mudanças tecnológicas.
O que ele fala no livro? Ele fala que, assim como a gente tem exemplos de tecnologias ao longo da humanidade, da nossa história, que foram revolucionárias para a sociedade. Então pensa em várias delas, né? E aí eu não estou falando de... as pessoas talvez pensem em bomba atômica,
Pensa na escrita. A escrita permitiu que a partir daquele momento, informações que antes eram apenas transmitidas no boca a boca fossem registradas. E a partir desse registro, você tem a possibilidade de criação de pactos sociais muito mais sólidos; você tem uma possibilidade de gerar ordem de maneira muito mais sólida.
Por quê? Porque se eu tenho o Estado-nação que é incapaz de registrar as informações sobre os seus súditos para coletar impostos, fica muito mais difícil coletar impostos. Mas se eu já posso registrar essas informações, se eu já posso ter um histórico disso, eu tenho uma capacidade melhor, maior, de manter a ordem e o poder daquele Estado-nação. Então, quando a escrita chega, a escrita é uma tecnologia que abala a maneira como a sociedade se estrutura.
O que o Yuval defende é que cada vez que a gente tem um grande desenvolvimento tecnológico de redes de informação, isso gera impactos estrondosos na maneira como a gente se organiza. Foi assim com a escrita, foi assim com a prensa, foi assim com o computador, a internet, a TV, o rádio. A gente está falando de todas as tecnologias que alteraram os sistemas de informação, de alguma forma, redes de informação. E aí a gente está, é assim com a inteligência artificial, só que a inteligência artificial é diferente.
A Rosana também comentou aqui, e eu vou pedir licença para acrescentar o que ela falou, que é: também foi assim com a linguagem articulada, que não deixa de ser uma tecnologia de rede de informação, e aí com essas outras tecnologias que eu mencionei, e a gente chega em inteligência artificial. Só que a inteligência artificial é estruturalmente diferente em termos de tecnologia, porque ela não é só uma ferramenta. Todas essas coisas que a gente mencionou são ferramentas.
Mas a inteligência artificial é um agente ativo, que é capaz de tomar decisões por si só, de criar novas ideias por conta própria. Isso coloca ela num lugar muito diferente das outras tecnologias. As outras tecnologias eram tecnologias que mudavam a maneira como a gente transmite informação, mas demandavam um humano para que essa informação existisse, essa construção de informação existisse em primeiro lugar. A inteligência artificial não.
Eu queria falar com vocês, e assim ouvir um pouco também, como — e aí a gente vai começar agora uma essa troca um pouco mais assim — se vocês já, isso é uma pergunta bem ampla, mas, como vocês acham que a inteligência artificial — e aí eu estou falando não só da generativa, mas também a inteligência artificial em redes sociais, que é os algoritmos que escolhem o que a gente vai ler e não vai ler — estão mudando a forma como as pessoas se informam?
É, obviamente, uma pergunta bem ampla, mas a gente meio que sabe a resposta. Mas eu estou fazendo essa pergunta para vocês porque a primeira, que as primeiras coisas que o Yuval argumenta no livro, em termos de impacto da inteligência artificial, é o impacto da inteligência artificial nos sistemas da democracia.
Ele fala que a inteligência artificial pode gerar uma erosão muito grande na democracia, e a maioria das pessoas fala assim: ah, deep fake, desinformação, mas aí a gente dá um passo para trás, faz um zoom out, porque deep fake, desinformação, todas essas coisas são pedaços de manipulação de opinião pública em larga escala, que é uma coisa que a inteligência artificial pode fazer, e decisões que cidadãos não conseguem compreender ou contestar, porque se tem uma inteligência artificial tomando decisão, vira uma caixa preta, quando a gente fala de política, tá?
Para ele, democracia é conversa, democracia depende da capacidade do cidadão de entender e participar do processo de decisão, e se você tiver elemento de tecnologia para tomar essa decisão, você gera um fator complicador para essas conversas. Eu queria estar falando isso da inteligência artificial generativa, mas isso a gente vê faz bastante tempo, né?
Como que vocês acham que as redes sociais mudam, assim, acho que a gente pode, é uma pergunta que pode ter uma resposta muito tensa, mas a gente conseguir definir em poucas palavras, como que a gente enxerga que rede social e inteligência artificial mudou a maneira como a gente vota e se informa sobre política nos últimos anos? Eu imagino que alguns de vocês já tenham pensado nisso.
Vou esperar aí alguém falar alguma coisa, se não falar eu vou voltar a falar, mas...
Custa caro para um jornalista fazer uma reportagem, uma matéria com a verdade.E a ficção é muito barata, eu pego e invento uma mentira e publico, é de graça, não me custou nada. Então o custo da verdade e a gratuidade, a facilidade com que se inventa coisas e a ficção, faz com que a gente crie um ecossistema de mentiras e verdades, que é muito difícil para o cidadão elucidar e diferenciar. E como a democracia é baseada em diálogo, a partir das verdades a gente fica com pouca verdade no ecossistema.
Exatamente. Acho que é muito interessante isso que ele traz e eu achei muito legal você ter trazido isso, porque a gente volta para o lance do modelo de negócio do jornalismo.Assim é isso, a verdade é cara de mostrar, a ficção não é cara de mostrar e além de ela não ser cara de mostrar, ela pode ser o que você precisar que ela seja para convencer alguém.
Então assim, ela é perfeita. Ela atende muito mais o desejo do que a verdade, porque a verdade ainda por cima pode ser inconveniente, não ser igual, doer. É difícil, a verdade é muito mais complexa, a realidade é mega complexa, enquanto a ficção pode dar uma explicação muito simples para as coisas.
A gente tem um contexto em que nossa sociedade se informa por meio de uma tecnologia, principalmente essa tecnologia de informação hoje está concentrada em redes sociais. E é o algoritmo dessas redes sociais? O algoritmo dessas redes sociais é uma inteligência artificial. É o algoritmo dessas redes sociais que escolhe o que é importante para a gente ou não.
O que é importante em termos de conversa? E a conversa é estruturante para a democracia. Então você tem um algoritmo de rede social ditando os rumos que a democracia vai tomar, ditando os rumos que a sociedade vai tomar em função dessas discussões. E aí, quando você tem um modelo de negócio nessas plataformas que remunera as pessoas simplesmente por atenção, conteúdo remunerado por atenção, não é porque ele é mais provável de ser verdade, provável de ser mentira, não tem nenhum outro critério.
O critério é a atenção. A gente dá atenção para várias coisas, não somente que a gente dá atenção à verdade. Frequentemente, se a gente dá atenção, a gente dá atenção para coisas que não são verdade. Muito mais frequentemente do que a gente gostaria de admitir, inclusive, porque é o que a Rosana diretamente falou aqui.
Verdade pode ser inconveniente. Verdade é complexa. Ficção é ótima, ficção é divertida. Ficção conversa com os nossos medos e desejos mais internos. Ficção é simples. Eu não preciso estudar para entender a ficção. Eu tenho resposta simples para a ficção.Ficção conversa com os meus arquétipos mais básicos, signos. E aí eu presto atenção no que? Na ficção. E aí a rede social paga a ficção.
Pai, você levantou a mão, fala aí.
Ou seja, o controle da informação saiu das mãos do que a gente tinha dos veículos convencionais, ou era o Estado ou a Nação que dava a informação, que era a informação oficial, ou eram os veículos de imprensa convencionais.
E esses, para nós, ou por muito tempo, principalmente na minha geração, eram os veículos ou os meios com que eu consumia a informação, que era a informação válida. O aspecto mais, que eu acho mais crítico da inteligência artificial, como funcionam os algoritmos, e isso está interferindo muito no que é o nosso dia, é que se perdeu completamente o controle da informação, e aí entra na questão do algoritmo, define o que vai ser veiculado, e aí vem a ficção e não a realidade, e as pessoas, todas elas, têm muita dificuldade de falar o que é isso aqui, isso é a realidade, ou isso é algo que alguém inventou.
Eu acho que esse é o principal problema, principalmente para a minha geração, que é uma geração que já é um pouco mais velha, é bastante difícil, ainda não sou da gente mais velho, mas para mim a geração é o mais complicado.
Eu diria que eu acho que é um problema que não afeta só a sua geração, eu acho que hoje é um problema que está espalhado em todas as pessoas, porque a gente, independentemente dessa relação mais próxima de nativo digital e não nativo digital, todo mundo, mesmo viés cognitivo, se relaciona com a ficção da mesma forma, de maneira que como a gente não tem formação para... como chama, Rosana, eu esqueci a palavra, você falou que você está fazendo aulas lá para o SENAC, para o SENAC, né?Letramento midiático.
Isso, na medida em que a gente não tem letramento midiático, eu estava vendo um vídeo interessante das crianças finlandesas na escola que têm letramento midiático, assim, é um vídeo bem surreal, a gente está falando de crianças de 7 anos que estão numa aula de letramento midiático em espanhol, porque além de finlandês, elas já falam inglês e espanhol, possivelmente, eu não sei se é uma escola pública finlandesa, se é uma escola de elite finlandesa, de qualquer maneira, eles estavam numa aula de letramento midiático para reconhecer fake news, e a gente não tem letramento midiático para ninguém, então não é incomum.
Eu já caí em fake news, e a gente acha que quem cai em fake news não é totário, como é que as pessoas acreditam em absurdos, mas assim, não precisa ser absurdo, existem gradações de fake news, às vezes é uma notícia verdadeira tirada de contexto, colocada numa data diferente, e já tirada de contexto, aquilo ganha outra roupagem, ela tem outro impacto.
Eu vou falar um pouco dos impactos que o Yuval menciona no livro, de uma maneira bem rápida, mas o que ele traz de impactos da inteligência artificial na sociedade, porque a gente está falando aqui de uma aula que é o que nos espera. Eu vou falar dos impactos, eu vou falar do que ele propõe para a gente mitigar esses efeitos, mas acho que como o exemplo de impactos que a inteligência artificial pode trazer para a gente, e aí depois eu vou resumir, porque aí a gente está falando de riscos.
A gente tem um risco de vigilância e controle social, então pensa numa ditadura, sei lá, uma ditadura há cinco mil anos, é muito difícil para essa ditadura querer controlar os hábitos e o comportamento das pessoas dentro de casa, ou até fora de casa, você não tem redes de informação que te permitam esse controle. Com a tecnologia no nível e as redes de informação no nível que a gente tem hoje, a gente tem, por exemplo, hoje o regime do Irã usando inteligência artificial e reconhecimento facial para aplicar as leis do hijab para mulheres.
Então eles têm câmeras na cidade e eles conseguem identificar se as mulheres estão ou não estão usando o hijab dentro dos carros delas, que essa mulher pode, de repente, num outro contexto, ela poderia escolher usar o hijab em público, porque ela é obrigada, mas ela poderia, de repente, dentro do carro falar não vou usar o hijab.
O sistema vai automaticamente reconhecer quem é aquela mulher, porque ele tem reconhecimento facial, vai reconhecer que ela não está usando o hijab e vai acionar aquela mulher para lembrar ela, falar você não está usando o hijab.
Então, com inteligência artificial, a gente vai para um risco de controle social íntimo muito grande. Quem leu 1984 aqui vai se lembrar do grande irmão dentro de casa, aquela tela que controlava tudo que as pessoas faziam dentro de casa.
E o Yuval menciona o risco de manipulação política, é muito interessante isso, porque a gente quando pensa assim, a inteligência artificial vai dominar o mundo e o robô vai ser o governante. E ele fala, isso é muito mais difícil do que uma coisa muito mais simples, que é você ter uma inteligência artificial manipulando líderes políticos, especialmente regimes autoritários,que os regimes autoritários costumam ter líderes únicos que concentram a informação, que são líderes paranoicos, com pouca autocrítica, e se de alguma maneira esses líderes forem manipulados por uma inteligência artificial, por engenharia social de alguma forma, é muito mais fácil uma inteligência artificial tomar o poder do que essa inteligência artificial ter que tomar o poder num sistema democrático, que tem um sistema de freios e contrapesos, uma democracia, que ela teria que tomar um monte de sistema.
A gente pensa assim, ah não, isso vai demorar, porque ele teria que ter um robô, a inteligência artificial teria que ter um corpo físico para ir lá e lutar, mas não, o que ele fala é, basta um chatbot que seja orientado de maneira escondida para manipular um líder autoritário e paranoico. Falei, Rosana?
Eu achei muito interessante o que o Yuval falou no podcast com o Sam Harris, comentando sobre o livro dele. Ele argumenta que a gente precisa das instituições porque elas são estruturas que podem errar e, mais importante, se corrigir. Elas também corrigem erros de outras instâncias dentro da democracia, criando um sistema de autorregulação.
Com a inteligência artificial, segundo ele, não temos esse sistema de correção. Se a IA errar, alucinar, tomar uma decisão errada — aquilo vira a verdade. E o problema é que não há supervisão, ninguém para revisar ou consertar esse erro. A IA simplesmente é, e isso é muito perigoso.
Por isso, ele defende que as instituições são garantias de correção dos erros humanos — porque, afinal, somos falíveis. Isso se conecta com a discussão sobre a necessidade de regulação da IA: é essencial criar mecanismos que incluam o chamado loop humano, ou seja, que garantam a participação humana nos processos de decisão automatizados.
Mais do que isso, é fundamental que a gente consiga entender como as decisões foram tomadas. Hoje, já vivemos uma espécie de distopia tecnológica, onde muitas decisões são opacas. Quem nunca ouviu “senhora, o sistema não permite”? Você liga para o banco, pede um empréstimo, ele é recusado, e você não sabe por quê. Um monte de algoritmos decidiram isso com base em critérios que ninguém te explica.
Não tem com quem argumentar. Não tem uma pessoa ali que escute seu caso, que diga “ah, entendi, vamos ver”. A máquina decidiu. Ponto. O Yuval usa como exemplo a crise de 2008, que foi causada, em grande parte, por contratos financeiros tão complexos que pouca gente entendia. Muita gente negociava papéis que ninguém compreendia totalmente, o que gerou uma bolha e levou à crise. Esse é o argumento: o sistema econômico já é tão baseado em números e automatismos que muitas decisões são tomadas sem que as pessoas entendam como.
Agora, imagine migrarmos para um sistema ainda mais opaco, movido por inteligência artificial. Como vamos ancorar uma sociedade nisso, se não conseguimos entender o processo por trás das decisões? Esse é um dos alertas mais sérios que ele faz: o potencial da IA de transformar radicalmente os sistemas econômicos e financeiros.
A IA pode — e provavelmente vai — criar instrumentos financeiros tão complexos que nenhum ser humano será capaz de entendê-los completamente. E se em 2008 já tivemos uma crise sem IA nesse nível, imagine o que poderia acontecer com sistemas inteiramente baseados em inteligência artificial?
Essa semana, inclusive, vi no Reddit que algumas pessoas estavam sendo banidas do ChatGPT por perguntarem como o modelo de raciocínio dele funciona. Estavam tentando entender a lógica por trás das respostas. Não é que conseguiram abrir a “caixa preta”, mas só de tentarem — fazendo várias perguntas — o sistema entendeu que era uma tentativa de violar os termos de uso.
Esse novo modelo do ChatGPT, o chamado o1, é treinado de forma diferente. Ele ainda usa deep learning, mas com uma camada adicional de reforço que prioriza respostas corretas. E ele mostra o raciocínio usado para chegar a uma conclusão. Mesmo assim, tentar entender esse raciocínio de forma mais profunda parece ser visto como uma ameaça.
Ou seja, estamos entrando em um território estranho, em que uma tecnologia se protege sozinha, cria suas “leis internas” e falta transparência. Já é uma realidade no nosso cotidiano.
Outro impacto que o Yuval aponta é a mudança na dinâmica de poder. A inteligência artificial pode transformar completamente a forma como o poder é exercido. Antes, regimes totalitários precisavam de agentes humanos para vigiar a população. Agora, podem usar IA para isso — em uma escala que a gente nem consegue imaginar.Além disso, há também uma transformação cultural em curso. A IA pode criar novas formas de inteligência, capazes de produzir expressões culturais — música, arte, literatura — que são muito diferentes do que os humanos fazem. E talvez difíceis para nós interpretarmos.
Tem um exemplo de um jogo que se chama AlphaGo que a inteligência artificial já há alguns anos derrotou o campeão mundial de AlphaGo usando uma técnica, uma estratégia que nunca na humanidade, ninguém tinha usado e mudou completamente a maneira como as pessoas jogam AlphaGo.
Fala aí, Rosana. Não era exatamente isso, era sobre o AlphaGo. É um jogo que tem 2.500, 3.000 anos e nesses milênios de humanos jogando nunca ninguém tinha pensado em fazer aquele lance que parecia uma coisa totalmente absurda. Então, nenhum raciocínio humano ao longo de três milênios chegou nisso que a máquina propôs. Como você falou, mudou o jeito da pessoa jogar depois. Porque não corresponde ao humano, não é uma emulação do cérebro humano. É outra coisa. É outra coisa.
Não é que o Yuval Harari fala que IA deveria ser inteligência alienígena e não artificial, ele defende isso, que o A deveria ser de alienígena no sentido não de que veio de outro planeta, mas de que ele é estranho ao humano.
Perfeito. Perfeito. E é isso. Acho que esse exemplo do AlphaGo é interessante para a gente ver o potencial impacto cultural. Você tem um jogo, joga um aspecto cultural profundamente humano, e aí vem a IA, joga esse jogo diferente e de repente muda aquele aspecto cultural.
Quando a gente tem decisões muito sérias sendo tomadas por algoritmos e aí humanos não podem entender, isso prejudica a nossa capacidade de exercer democracia, de contestar decisões que afetam as nossas vidas, seja no sistema econômico, financeiro, seja em outros aspectos da sociedade, da vida em sociedade.
Quando a gente fala de mudança da natureza do trabalho, é muito difícil ter qualquer ideia, a gente sabe que a inteligência artificial vai mudar radicalmente a natureza do trabalho. A inteligência artificial vai substituir uma parte avassaladora dos trabalhos que demandam o raciocínio instrumental, vai criar muitos tipos de novos empregos que a gente não consegue prever.
E eu nem vou me estender muito nesse tema, porque é um tema que... Acho que o que eu poderia dizer é que tem muita gente no mundo hoje que está olhando para um caminho de renda básica universal, que é uma pauta que o Eduardo Suplicy defende há muitos anos, entendendo que as sociedades vão rumar para um lugar em que não tem mesmo emprego para todo mundo, porque essas tecnologias vão executar uma parte importante dos trabalhos.
Para a economia existir, para as pessoas conseguirem comprar coisas, para a economia existir, para a sociedade, o jeito que a gente conhece capitalista existir, para as pessoas comprarem coisas, para as pessoas comprarem coisas para não ter emprego. Ou, se você paga, pelo governo.
Experimentos de renda básica universal já estão sendo financiados tanto por grandes organizações e fundações, quanto pelo Mark Zuckerberg, pelo Elon Musk. Estão financiando experimentos disso para ver o que acontece. Então, vamos resumir os principais riscos que a inteligência artificial oferece para a humanidade da perspectiva do Yuval. Erosão da democracia por meio da manipulação de opinião pública e tomada de decisões incompreensíveis que a gente não tem acesso. Vigilância em massa, perda de privacidade, facilitação de controle governamental se for do interesse desse governo.Criação de sistema financeiro econômico tão complexo que nenhum humano pode entender ou controlar. Concentração de poder nas mãos de poucos que controlam essas tecnologias.
E substituição em massa de empregos humanos levando a uma transformação estrutural e mudando a maneira como as sociedades se organizam em torno do sistema capitalista.
Tá, mas beleza. Quais são os potenciais benefícios?Eu acho que a gente precisa olhar que se essa tecnologia é capaz de criar coisas que a gente não conhece, significa que ela é sim capaz de ajudar a enfrentar desafios globais que a gente não conseguiu achar solução como seres humanos.
Gestão de recursos naturais, mudanças climáticas, problemas sociais, econômicos que a gente vem enfrentando há muitos anos podem ganhar, e isso passa por desenvolvimento científico, ciências humanas e ciências... Não humanas, tô brincando. Ciências humanas e ciências exatas. Passa por esse aspecto.
Essa tecnologia artificial seria, sim, capaz de oferecer pra gente soluções que a gente não concebeu. Capacidade de resolver problemas que a gente não consegue, tipo descobrir medicamentos novos, descobrir tratamento pra doenças. É isso, dar soluções pra problemas que a gente não enxergou. Isso tá no horizonte, já tá acontecendo. A gente tem desde inteligência artificial sendo capaz de ler pergaminho, manuscrito antigo que ninguém tinha traduzido, inteligência artificial que tá conseguindo ler a mente de cachorro, é no caso de macaco agora, tá? O último estudo que saiu, li a mente de macaco. É bem interessante esse estudo, inclusive.
Inteligência artificial capaz de prever câncer de mama com cinco anos de antecedência, antes do câncer de mama se manifestar de maneira visual, né, como a gente conhece, ali pros médicos, tá?
A gente tem possibilidades de desenvolvimento de sistema de saúde, sistema educacional, muito interessantes e aumento de eficiência e produtividade em muitos setores da economia, mas eu acho que o grande ganho, o potencial de benefício, tá? É a capacidade de solução de problema, que é pra onde muitas das pessoas que desenvolvem inteligência artificial estão olhando, que é, tá bom. Essa tecnologia pode criar, sim, muitos problemas, mas é ela que vai nos ajudar a resolver esses problemas.Pra além disso, o Yuval argumenta também que essa corrida, as empresas correndo pra desenvolver, em vez de parar, por o pé no freio e falar, tá, vamos entender primeiro os impactos disso, vamos desenvolver devagar, acontece justamente porque as pessoas que estão envolvidas no desenvolvimento da tecnologia, as pessoas que não estão também, mas estudam ela, é eu, o Paulo, o Felipe, a Rosana, que também tá imersa nisso, as pessoas sabem que essa tecnologia tem um poder muito grande e se ela tiver em mãos erradas, isso pode ser muito ruim.
Então se você é uma pessoa que é, se considera uma pessoa com boas intenções e tem capacidade de desenvolver essa tecnologia, e você sabe que tem uma pessoa que tá desenvolvendo essa tecnologia que não tem boas intenções, você pode se ancorar no argumento de que eu preciso correr pra desenvolver essa tecnologia primeiro pra eu ter ela nas mãos antes do bandido ter ela nas mãos.
O bandido, no caso, é a pessoa que acredita em outra visão e que não é a visão que você concorda ali do mundo pra aquela tecnologia, tá? Então a gente tem esses contrapontos aí.
E aí eu acho que a gente precisa falar um pouco sobre o que que o Yuval propõe em termos de ações de mitigação, hoje, agora. Ele fala que é o mais importante, o mais central e eu concordo pessoalmente com ele. Ele fala que é fundamental regulamentar a inteligência artificial e responsabilizar, neste momento já, as empresas de tecnologia pelas ações dos algoritmos.
O que isso significa? Que pra ele e pra mim também, pessoalmente, uma empresa de tecnologia não pode argumentar que não é a responsabilidade dela, por exemplo, de pegar uma informação. Ela não pode, ela não deveria poder impulsionar algoritmicamente uma informação que não é, que não parece verídica.
Então é exigir, por meio de regulação, que as empresas de tecnologia assumam responsabilidade editorial pelo conteúdo que os algoritmos promovem. Similar à responsabilidade que os editores de jornais tradicionais têm. A gente já faz isso. Isso não é algo, nossa, nunca foi feito. Os jornais têm responsabilidade. É deles a responsabilidade de, inclusive, se eles podem essa responsabilidade, depende do país, depende como é a regulação de imprensa de cada país, mas você tem, você pode sofrer, sim, sanções jurídicas. Você tem ali uma responsabilidade com relação a um método de checagem.
Então ele defende isso. Ele defende o banimento de bots não identificados como bots, de participar de conversa pública online. Então, assim, isso deveria, por meio da regulação, ser exigido que as empresas não permitissem que tecnologias automáticas, ou seja, pessoas não humanas, participem de debates sobre qualquer coisa. Porque, obviamente, bots em larga escala têm o potencial de mover a discussão para onde elas quiserem. Isso vai faltar e gerar grandes impactos na capacidade dos sistemas democráticos.
E, por meio da regulação também, desenvolver, pensar em instituições, adaptar as instituições que existem para lidar de maneira efetiva com o desafio da inteligência artificial, um pouco como a Rosana mencionou, esses sistemas de distribuição, de distribuição de energia e de energia, esses sistemas de freios e contrapesos, esses sistemas de checagem, de garantias, também conectados à inteligência artificial, semelhante ao desenvolvimento dos sistemas que a gente desenvolveu para guardar a democracia, que tem várias instâncias, que tem a imprensa, que tem as organizações da sociedade civil, que tem os diferentes poderes, que tem órgãos de autorregulação, órgãos de auditoria, por exemplo, um jornal, a imprensa tem um sistema de autorregulação como o Ombudsman, que seja fundamental via regulação para ele, que a gente obrigue as empresas de tecnologia e de inteligência artificial a criarem sistemas sólidos de autorregulação, para que elas não sejam a única que é dito e decidido ali, não venha de um único centro de tomada de decisão, e para que a gente garanta um pouco mais de participação da sociedade nessas decisões.
Fala aí, Rosana. Primeiro, um dado que hoje, 50%, metade de todo o tráfego da internet já é de bots, tem good bots e bad bots, mas já chegamos em metade de bots, e metade é humana, dos geradores de tráfego.
E a segunda coisa, que essas instituições que a gente precisa para manter a democracia, não por coincidência, a imprensa, a ciência, a justiça, a universidade são instâncias que buscam a verdade, que trabalham pela verdade. A ciência trabalha na busca da verdade com provas. A justiça condena ou não, buscando a verdade com provas. A imprensa busca a verdade com provas. E todo o resto desses bots, de todas essas ficções produzidas, é tudo inventado, não precisa de provas, não precisa buscar a verdade. Então a gente vê a crise da verdade que a gente está vivendo.
E sem contar que assim, o fato de que essas instituições atuam com base na busca pela verdade, isso não quer dizer que elas acertam sempre, elas não acertam sempre, mas elas têm mecanismos para buscar isso, para perseguir isso. O fato de que elas atuam assim, prova que a gente é capaz de ter instituições que atuam com a busca pela verdade como sério.
É que isso exigiria dessas empresas de tecnologia mudar uma delas de negócio delas, ganhar menos dinheiro talvez, desacelerar. O Yuval fala no podcast que você mencionou, que inclusive eu vou deixar aqui para vocês o link, mas ele fala nesse podcast que ele já, o Yuval assim, já esteve na mesma sala que esses grandes CEOs de empresas tecnológicas e falou que quando ele fala para esses caras que eles têm que ter essa responsabilidade, eles desconversam, eles falam que o que eles fazem é só a ferramenta, que são os humanos.
E assim, isso objetivamente não é verdade, porque essa ferramenta ela é criada, engendrada para se valer de vieses cognitivos que estão presentes no cérebro de todo mundo que pertence à nossa espécie, todo ser humano, para maximizar a atenção. E a atenção não é o valor que deve faltar. Justamente porque a atenção frequentemente leva a gente para consumir e acreditar e criar realidades paralelas com base em ficção.Sei que é uma... é um papo bem denso, né? É um papo que pede que a gente fatie ele, depende se a gente tivesse mais tempo para ele, mas hoje a gente tem uma hora, quinta-feira, então... eu... maneira como eu quis trabalhar aqui foi tentar trazer para vocês o que eu acho que tem de mais central no livro, mas eu acho que precisa ler o livro para entender o que está acontecendo no mundo, não precisa concordar com tudo que o Yuval traz, mas eu acho que tem um... é uma proposta de abordagem, de leitura muito interessante, muito única, tá?
Eu vou... mandar o link para vocês, para esse notebook LLM, notebook LLM para quem quiser fazer pergunta sobre o livro, para ele, ele está alimentado tanto com o livro, a íntegra do livro, quanto com a versão transcrita do... da entrevista que o Yuval deu para o The Greg Eric, que é o podcast que a gente mencionou aqui, que eu mencionei, que a Rosana mencionou também. E eu também vou pegar para vocês o link do podcast.Para quem quiser ouvir, a entrevista com o Yuval é um bom resumo do livro, dos pontos principais do livro, não acho que elimina a necessidade de ler o livro, porque o livro é realmente, eu acho, ele bem fundamental para a era que a gente está vivendo, mas eu acho que é uma boa introdução, um bom resuminho, já vai para o livro sabendo bem o que está encarando, e aqui ó, o podcast, aqui do lado tá gente, o podcast e o notebook LLM com o livro.
E é isso, quero, se vocês tiverem alguma dúvida, alguma outra reflexão, temos aí uns minutinhos. Alguém quer fazer perguntas?Então é isso, acho que ninguém. Agradecer vocês mais uma vez pelo tempo, pela disposição da conversa, dizer que estou à disposição para conversar mais sobre isso, e vamos nessa, vamos nessa, né? Eu estou muito dedicada a fazer esses debates mais frequentemente, acho que é uma parte importante do trabalho que a gente faz, e quero me dedicar mais também às discussões sobre regulação dessa tecnologia. Tem sido uma coisa que eu tenho pensado muito e que eu quero dedicar mais tempo e de fato atuar mais próximo das discussões sobre regulação para garantir uma regulação que permita inovação, ao mesmo tempo que garante que a gente mitigue os riscos principais que estão colocados nessa tecnologia.
Obrigada. Fala aí, Rosana. Tem um outro podcast dele que eu também ouvi, e que aí perguntaram pra ele, e como a gente faz pra garantir que as redes sociais sejam saudáveis? Ele falou, primeiro tem que garantir que os bots e as inteligências IAs não participem do diálogo, como você falou, democrático. A inteligência artificial não tem direitos como os humanos têm. É, ele fala isso, né? Porque as pessoas, a gente tem uma tendência a querer tratar como se fosse uma pessoa que tem direitos. Não, não é, não pode ser assim.
Ah, mas aí vai ser a liberdade de expressão? Não, é um robô. O humano tem. Você não está censurando. Não é censura, porque não é uma pessoa.Isso, então é um outro jeito de mais, então seria você tirar os bots de todos os diálogos democráticos, porque eles são agentes, não são ferramentas, são agentes, mas não são humanos, portanto não participam da conversa democrática. Exato.
Quando ele falou isso, eu falei, caramba, que loucura, que a gente já está vivendo no futuro, cara. Eu me imaginei num episódio de Black Mirror com robôs revoltados de serem desumanizados pelo Yuval.
Enfim. É isso, gente. Obrigada, de novo, pelo tempo de vocês, pela participação, pela vinda, e a gente vai fazer mais aulas mais filosóficas também para a gente ter mais espaço para esse tipo de discussão, tá bom? Beijo, boa noite para vocês, e até a próxima.