Essa série de aulas, chamada Termômetro da IA, é uma aula que a gente sempre atualiza aqui dentro do CR_IA, mostrando o que tem de novidade em diversas áreas da inteligência artificial. Então, ela vai servir para inspirar você e para fazer você ver o que está vindo pela frente, talvez para você pesquisar um pouco mais e coisas assim. Nesta aula, vamos falar sobre as LLMs.
Mas o que são as LLMs, se você ainda não sabe? São o que a gente chama de Large Language Models, ou seja, qualquer chatbot como o ChatGPT, Gemini, Claude, está tudo dentro disso. A gente chama de Large Language Models, ou seja, modelos de linguagem grandes, porque eles foram treinados com bilhões, às vezes trilhões, de palavras, termos e tudo mais, para conseguir fazer esse modelo preditivo de entender o que você espera dele.
Todos eles entram mais ou menos dentro dessa categoria, apesar de fazerem mais do que apenas linguagem em si. Então, beleza, temos um cenário com muitos modelos diferentes de diferentes empresas. Temos o ChatGPT, que é o nosso queridinho, todo mundo conhece; o Gemini do Google; o Claude da Anthropic; o Perplexity, que é bom para pesquisa; o DeepSeek, que é chinês; o Le Chat, que é francês; o Llama, da Meta; e o Grok, que é do X, antigo Twitter.
Cada um deles tem funções diferentes, formas diferentes de usar e tudo mais, mas basicamente é a mesma coisa: você tem um chat com a Inteligência Artificial, que você pode pedir ordens e obter resultados a partir disso. Aqui, o foco principal dentro do CR_IA, exceto para momentos especiais, será o ChatGPT, o Perplexity, o Claude e o Gemini. O ChatGPT é o queridinho, todo mundo usa e tudo mais, então é essencial que você o conheça pelo menos.
O Perplexity é bom para pesquisa, temos muitas aulas de pesquisa aqui no CR_IA que usam o Perplexity para isso. O Claude é bom tanto para criatividade, para ter uma abordagem fora da caixa, quanto para código. O Gemini tem surpreendido muito nos testes e acredito que vale o investimento apostar no Google com o Gemini.
A evolução das LLMs nos últimos anos é surreal. Quando começamos o CR_IA, na verdade, antes mesmo de começar, só existia o modelo de texto simples: você dava uma ordem para o GPT, que era o que existia na época, numa caixa de texto, e recebia apenas uma resposta para aquela ordem específica. Não existia essa conversa dinâmica. Essa conversa dinâmica apareceu logo depois que lançamos o CR_IA, em 2022, com o GPT-3, que é o ChatGPT propriamente dito. Ele funciona com um contexto dinâmico de interações, você fala, recebe respostas, ele tem uma memória dentro da conversa, que vai se desenvolvendo. Esses modelos de texto, as LLMs, evoluíram para o que chamamos de multimodal. Multimodal significa integração com diversos tipos de documentos: elas podem ler imagens, criar imagens, ler tabelas, ler PDFs, tornando-se muito mais úteis. Você não precisa apenas conversar por texto, pode dar exemplos com outros tipos de materiais, tornando o uso mais natural para o nosso trabalho. Essa foi uma grande diferença surgida em 2023 com o GPT-4, que é multimodal. Surgiram também assistentes de voz, que não só têm controle por voz, facilitando muito a acessibilidade, mas também têm funcionalidades executivas. Eles tentam resolver problemas a partir do que você dá para eles; não são apenas elementos de pesquisa, mas dão passo a passo para resolver as coisas, uma nova forma de ver e usar essa tecnologia, que veio em 2024. Já em 2025, o foco é nos agentes autônomos, que temos aulas específicas aqui no CR_IA, então nem vou me aprofundar muito, mas basicamente eles têm decisões proativas, conseguem integrar com a plataforma em questão e com outras para executar tarefas, como ativar o Notion para uma ação, usar o Excel para outra, e por aí vai. Essa parte dos agentes autônomos é mais sobre tomar decisões proativas, pensando no que podem fazer a partir de uma ordem sua. Eles entendem o que podem trabalhar, um exemplo é o Operator do ChatGPT e o MCP, que vou mostrar daqui a pouco nesta aula.
Existe, portanto, uma diversidade enorme e cada vez mais surgem novas funções. Quero trazer algumas que apareceram nos últimos meses para termos um comparativo e mostrar o que está acontecendo. Tem aulas específicas sobre cada função aqui no CR_IA também.
Por exemplo, o ChatGPT lançou o Connector, que permite fazer buscas dentro dos seus arquivos. Você conecta ferramentas que já usa, como Gmail, Google Drive, Teams, Canva, Notion, entre outras, e pode fazer perguntas sobre esses dados. Se ativar o modo de investigação, que existe só nas versões pagas, pode escolher as fontes para pesquisa, que podem ser seu Gmail, Notion, facilitando buscas dentro de um contexto personalizado.
Quando falamos de experiência integrada nas plataformas, um bom exemplo é o que o Google vem fazendo com o Gemini, que está integrado praticamente em todas as funções do Google — Google Docs, Google Sheets, Google Slides — atuando como um copiloto do seu trabalho. Ele ajuda desde brainstorm até a criação de propostas diretamente para o cliente, com documentos bonitos em Google Docs, ou até criação de imagens no Google Slides. Eu não recomendava muito o Gemini para isso no passado, achava fraco, mas agora vale a pena explorar mais, pois essa integração com seu dia a dia e com as ferramentas que você usa é uma grande vantagem.
Além disso, recentemente o ChatGPT combinou o Operator, um agente, para uso mais prático no dia a dia, o que eles chamam de agent mode. Se você tem a versão paga do ChatGPT, pode ativar esse modo agente, que permite realizar tarefas automaticamente dentro de um navegador próprio. Ele pode buscar voos, olhar seu calendário, verificar emails importantes, e realizar várias tarefas automatizadas dentro dos aplicativos que você liberar para ele, criando uma experiência muito mais dinâmica e eficiente.
Temos aulas sobre isso no CR_IA também. É muito interessante notar essa evolução, que não acontece só no ChatGPT, mas também no Claude, por exemplo, com o MCP — Model Context Protocol — que são atribuições que você dá para a inteligência artificial usar o navegador e outras funções. Em um exemplo, o Claude dá instruções para como usar o ChatGPT para criar imagens, criando um agente no processo. Isso é um passo mais avançado, mas que usamos aqui no CR_IA, inclusive para ajudar a subir aulas, por exemplo.
Você pode aplicar MCP para várias outras funções, como modelagem 3D no Blender — uma ferramenta que ele consegue usar sozinho a partir de prompts de texto, porque sabe o que fazer dentro da plataforma.
Falando em assistentes de código, eles também são LLMs, voltados para problemas específicos de programação. Exemplos principais são o Cursor, o Replit e o Lovable.
Sem o Cursor, a plataforma do CR_IA não existiria do jeito que temos hoje. Um programador que me ajudou a fazer a plataforma diz que o trabalho que antes fazia em um ano agora faz em um dia usando o Cursor. O Replit também tem funcionalidades ótimas e o Lovable é mais fácil para quem nunca programou, permitindo criar sites protótipos a partir de texto, com apenas uma ordem textual para criar sites com efeitos e tudo mais. Temos aulas do CR_IA sobre o Lovable e outras funções também, então fique atento a isso.
Mostrando rápido um exemplo de Replit: ontem criei um aplicativo chamado "deitado no sofá" pelo celular, sem saber programar. É um aplicativo de flashcards para memorização, criado em 20 minutos, usando o agente do Replit. Eu dei a ordem "flashcard app", ele criou a base do app em cinco minutos, e só precisei pedir alterações para finalizar o aplicativo.
Enfim, quis mostrar o que tem acontecido no mundo das LLM para você nesta aula. Vale muito a pena explorar e ver as novidades. Essa aula é atualizada sempre e serve como um documento atualizado com o que está acontecendo nesse mercado.
Todo mês tentamos atualizar para trazer o que tem de mais novo. Fica como lição de casa para você explorar e a gente se vê na próxima aula.