É grande chance de você já ter ouvido o termo engenharia de prompt por aí, porque ele se tornou muito popular — todo mundo fala muito sobre isso. Mas, o que é isso? Que raios é engenharia de prompt? Eu preciso ser um grande engenheiro para isso?
Obviamente não, né? Então a gente vai destrinchar um pouquinho isso nessa aula, vou dar alguns exemplos de prompt e como você pode aproveitar um pouco dessa ideia do que é engenharia de prompt de uma forma geral.
Para começar, vamos pela definição: Engenharia de Prompt é o conjunto de técnicas para dar instruções claras e estratégicas para IAs como o ChatGPT entenderem e entregarem exatamente o que você precisa da melhor forma possível. Basicamente, engenharia de prompt é quase um estudo da forma como você se comunica com as máquinas. Você vai aprendendo como elas respondem melhor e tem certas estratégias para, de acordo com o que você quer, já saber como pedir para elas. Porque eu acho que sim, um dos grandes problemas quando lidamos com o ChatGPT da vida é não saber o que pedir.
Se você não sabe o que pedir, vai ser difícil ter um resultado do jeito que quer, e aí você fica penando, brigando com ele, sem conseguir o resultado desejado. Cada vez mais, a engenharia de prompt está menos importante, de uma forma geral, porque as IAs acabam te guiando mais dentro disso. Mas eu acho importante — por isso que trazemos essa aula aqui para o CR_IA — você ter alguma base de engenharia de prompt para entender melhor como funciona, de uma forma geral, as possibilidades das LLMs, como o ChatGPT, Claude, Gemini, e como você pode tirar mais vantagem a partir disso.
Até porque, quando falamos de engenharia de prompt, por que ela pode ser importante ainda?
- Para melhorar a clareza, relevância e precisão das suas respostas — ou seja, melhorar a qualidade geral das respostas.
- Evitar resultados genéricos ou fora do contexto, justamente o que não queremos: você ter um resultado que todo mundo terá.
- Aumentar a produtividade, já que você terá resultados melhores em menos tentativas.
Claro, podemos passar o dia iterando com o ChatGPT, pedindo para ele arrumar coisas, mas é bom conseguir resolver o problema logo de forma direta. Para isso, quero trazer algumas técnicas de engenharia de prompt. São técnicas muito comentadas por aí, e vamos entender um pouco por que elas seriam melhores e como funcionam de acordo com cada ponto.
Vamos lá:
Zero-Shot
Os termos estão em inglês, pois são os termos usados na engenharia de prompt. Zero-Shot é basicamente pedir a tarefa diretamente, sem dar exemplos. Você abre o ChatGPT e manda o prompt na hora, improvisando — o que é o comum em geral.
Normalmente, existe aquele gráfico mostrando que quando você não sabe nada, faz zero-shot. Quando sabe mais, já sabe como lidar.
Few-Shot
Aqui você inclui exemplos práticos para orientar. Eu sempre repito isso: Claude, ChatGPT, Gemini, essas LLMs, chatbots em geral, conseguem lidar muito bem com exemplos. Às vezes, explicar na sua língua pode não ser o suficiente, mas mostrando um exemplo, ele entende melhor.
Role Prompting
É basicamente o prompt de persona, de papel. Você define quem ele é — por exemplo, "você é um advogado", ou "você é um engenheiro" —, e ele assume esse papel para te responder. Isso funciona porque o Chat entende o tipo de aprendizado e a forma de ver o mundo daquela persona, então já vem com bagagem para te dar uma resposta mais adequada.
Chain of Thought
Cadeia de pensamento, onde você pede um raciocínio passo a passo, e ele te dá esse passo a passo mais organizado antes de responder diretamente.
Self-reflection
Auto-reflexão, para corrigir e revisar a própria resposta. Às vezes está relacionado com chain of thought, quando você pede no prompt para ele dar uma resposta e em seguida "reveja esses dados e faça um fact check". Você mistura cadeia de pensamento com uma autoavaliação, o que facilita ter uma resposta mais correta.
Least to Most
Divide as tarefas complexas em etapas guiadas. Você vai pedindo, por exemplo: "Ok, qual é essa tarefa que eu quero? Primeiro faça isso, depois aquilo." Em vez de um único comando, você vai por etapas. Isso facilita em tarefas mais complexas.
Self-consistency
Gera múltiplas respostas e escolhe a mais consistente. Aí você pede para gerar várias respostas e ele escolhe a que achar mais interessante. Isso também se conecta com chain of thought.
Vou destrinchar algumas dessas técnicas com exemplos no ChatGPT.
Zero-Shot Prompting: você pede diretamente para o modelo executar uma tarefa sem dar exemplos.
Exemplo no ChatGPT:
Classifique recentemente e deixe um comentário: "O filme foi melhor do que eu esperava." Resposta simples, direta. Esse tipo de prompt é comum, normalmente você faz uma pergunta direta.
Outro exemplo: Me conte 10 curiosidades da queda da Bastilha, feriado da França. Ele responde com as 10 curiosidades direto, zero-shot, sem mais nada.
- Vantagens: rápido, fácil e direto, funciona bem para tarefas simples e conhecidas.
- Limitações: é menos confiável para tarefas complexas ou ambíguas, porque você não dá muito contexto e pode receber respostas vagas. É importante lembrar que a conversa com o ChatGPT é como um briefing para uma pessoa: se você der briefing pela metade, vai ficar difícil. Então, zero-shot funciona para o dia a dia e rapidez, mas para tarefas mais complexas fica mais difícil.
Role Prompting: um dos modelos mais populares de prompt. Você dá um papel para ele.
Exemplo: "Você é um professor de Física, explique o que é computação quântica em termos simples."
Pra quem nunca estudou Física Quântica, a explicação virá usando uma linguagem mais acessível, considerando esse papel. A resposta explica computação quântica como uma forma diferente de fazer cálculos usando as leis da física quântica, que estudam partículas muito pequenas como átomos e elétrons, ressaltando que é diferente da computação tradicional e pode ser muito mais rápida para certos problemas.
- Vantagens: o estilo e tom são adaptados ao público e objetivo, já que o papel define o tom. Respostas são mais direcionadas, pois a persona tem uma "bagagem" para explicar o tema melhor.
- Limitações: uma persona mal definida pode gerar respostas deslocadas. Não faz sentido pedir para uma costureira explicar física quântica se você não quiser algo ligado a esse universo. Pode reforçar vieses e estereótipos ao usar papeis fixos.
Chain-of-Thought: técnica para pedir raciocínio, dando mais transparência ao processo.
Hoje em dia, ela está sendo usada menos explicitamente porque modelos mais avançados (como ChatGPT O3, O3 Pro) já vêm com essa cadeia de pensamento embutida.
Exemplo de uso: "Quero estudar para o concurso em 8 semanas, disponho de 12 horas por semana. Liste passo a passo como dividir as matérias por importância, revisar e fazer simulados antes de apresentar o programa final."
O modelo vai listar passo a passo: levantamento das matérias, classificação por importância, divisão do tempo semanal, etc. Antes de dar o programa final, você vê o processo para poder ajustar se quiser.
- Vantagens: Isso gera soluções mais confiáveis e você vê o raciocínio, podendo alterar o processo.
- Limitações: respostas longas consomem mais recursos, modelos menores podem falhar nesse passo a passo, e justificativas equivocadas podem aparecer.
Quando usamos essas técnicas no CR_IA, o importante é saber que o uso depende do seu trabalho, da sua dinâmica e dos seus processos ao trabalhar com IA. Recomendo que você teste cada tipo de prompt, brinque, acrescente "agora me dê o passo a passo", dê um papel para a IA e observe as diferenças de resposta. Quanto mais você testar e brincar com prompts, melhor vai entender no que a IA é melhor ou pior para o seu caso, e assim desenvolverá muito melhor suas habilidades.
Então é isso. Espero você na próxima aula do CR_IA.