IA e Engenharia de Prompt: como a qualidade da instrução influencia na eficiência do agente?
- #IA Generativa
Introdução: o lançamento da Inteligência Artificial para conversação natural
Em 30 de novembro de 2022, a OpenAI lançou o ChatGPT. Este evento marcou a história da tecnologia, pois a partir de então tarefas complexas que se convertem em respostas geradas com simples perguntas em um prompt.

A inteligência artificial se expandiu, tanto em atualizações quanto em utilidade, alterando seu status de “tecnologia desconhecida” para “ferramenta indispensável”, daí se pode afirmar que a IA faz parte do cotidiano da população.
Este artigo visa explorar um pouco desse modelo de Inteligência Artificial conhecido como IA Generativa, com enfoque na forma de fazer o melhor uso dela, analisando suas características e seus possíveis resultados.
A história da IA Generativa
A ideia de uma inteligência computacional não é recente, desde de 1950 já se pensava na possibilidade de máquinas expandirem suas funcionalidades, indo de seguir instruções de algoritmos até possuir um raciocínio próprio.
Foi nessa época que o termo “Inteligência Artificial” passou a existir, dando origem a um novo campo de conhecimento altamente promissor, capaz de revolucionar a interação humana com o computador.
Apesar do período de “inverno” na história da IA entre os anos 70 e 90 causado por controvérsias, no qual seu desenvolvimento foi estagnado, se estenderam os estudos de formas de fazer máquinas simularem o pensamento humano com cada vez mais precisão.
Ao longo do processo, alguns importantes projetos foram criados utilizando a IA, como um programa de computador capaz de jogar xadrez, e um rover utilizado pela NASA para explorar as terras de Marte.
Uma das grandes novidades lançadas foram a Siri e a Alexa, duas assistentes virtuais capazes de se comunicar com os humanos no mesmo idioma, transcrevendo perguntas feitas com voz e gerando respostas de acordo com a sua capacidade de processamento.
Juntamente com esse conjunto de pesquisas feitas no campo da IA, houve também uma extremamente importante para seu sucesso. Na década de 70, Geoffrey Hinton iniciou os estudos que deram origem ao que hoje conhecemos como IA generativa.
Hinton começou a explorar a ideia de utilizar redes neurais nos algoritmos, uma forma de inteligência artificial capaz de processar dados de maneira similar ao cérebro humano. Vejamos o próximo tópico.
Conhecimentos que foram a base da IA Generativa
O estudo das redes neurais, também chamadas de redes neurais artificiais (RNAs), alcançou avanços significativos, sendo a base do deep learning, um tipo de aprendizado de máquina que usa redes neurais profundas.
Essa estrutura se apoia nas redes neurais cerebrais, onde neurônios se interligam formando uma rede com várias camadas, com as informações transmitidas de um neurônio para outro na seguinte ordem:
Entrada de sinal de outro neurônio -> Processamento do sinal por uma função sigmóide -> caso o sinal de entrada alcance um certo limiar em um período de tempo -> Saída do sinal para o próximo neurônio
Fundamentando-se nessa lógica, foram desenvolvidas as redes neurais artificiais, onde as máquinas começam a processar informações assim como um ser humano.
Com os desdobramentos dessa tecnologia, assim como as pessoas aprendem com novos estímulos, os computadores também podem também aprender a partir de dados recebidos e produzir resultados favoráveis.
Obtivemos a criação de um algoritmo de aprendizado de máquina que prevê respostas no momento que recebe dados de entrada. Dessa forma, as RNAs são constantemente treinadas com novos dados para que tenhamos previsões gradativamente mais precisas.
Esse modelo sofisticado de aprendizado de máquina pôde ser usado para criar a Inteligência Artificial Generativa, que simula o aprendizado, o processamento e a tomada de decisões do cérebro humano.
Os dados de entrada são imprescindíveis nesse processo, pois é por meio deles que os modelos conseguem identificar padrões e relacionamentos em grandes volumes de dados (textos, imagens, áudios, etc) para prever uma resposta.
Com essa previsão feita por meio da análise dos dados, um modelo de IA generativa consegue se comunicar com seres humanos em sua linguagem e gerar novos conteúdos em diferentes formatos.
A IA generativa pode ser definida, então, como um tipo de inteligência artificial que sabe gerar conteúdos de texto, imagem, áudio, código, etc, a partir da identificação e do aprendizado de padrões em volumes gigantes de dados.
Suas aplicações incluem criação de conteúdo original em forma de textos, imagens, músicas e vídeos; desenvolvimento de códigos para profissionais da área e de assistentes virtuais; dentre outras.
Como a IA generativa funciona?
Há três fases principais na operação de uma IA generativa:
- Treinamento:
A IA generativa é iniciada com um modelo de base: LLM (Large Language Model), criado a partir da lógica do deep learning, onde um algoritmo é treinado com terabytes de dados extraídos da internet tentando prever o próximo elemento dentre milhões de sequências.
O LLM se ajusta para minimizar a diferença entre suas previsões e os resultados corretos. Esse processo gera uma rede neural própria da LLM, com plena capacidade de criar conteúdo coerente em resposta a qualquer input.
- Ajuste:
Essa fase representa as alterações feitas no modelo de base para que ele se adapte às necessidades da atividade para a qual ela será utilizada, é o processo de filtragem das informações para produzir resultados cada vez melhores.
Nessa parte podemos ter, por exemplo, um ajuste fino, onde o modelo somente recebe os dados específicos relacionados à tarefa e suas respostas podem ser formatadas mais precisamente.
Também podemos ter o aprendizado por reforço com feedback humano, que é quando a pessoa avalia e corrige um modelo quando houver uma resposta errada.
- Geração, avaliação e reajuste:
A última fase corresponde ao processo contínuo de aperfeiçoamento, sendo que o objetivo é conseguir cada vez mais precisão nas respostas geradas.
Também existem três fatores que precisamos compreender sobre LLMs:
- LLMs precisam de um contexto:
Quanto mais o LLM é ambientalizada no assunto que ela deve responder, mais ela vai ter uma ação precisa, quanto mais informações sobre o tema da pergunta ela tiver, mais ela vai responder adequadamente.
Assim como algumas palavras desconexas não fazem sentido para um humano, para um LLM também é necessário haver contextualização do assunto, para que se tenham melhores resultados.
- LLMs usam tokens:
Um token pode ser uma palavra, parte de uma palavra ou apenas uma letra. Um LLM quebra o texto em tokens, e isto pode ocorrer separando o texto em palavras de acordo com a classe gramatical, ou também separando o texto em unidades de palavras.
- LLMs possuem limitações:
Um LLM não possui o mesmo entendimento de linguagem ou sensações que um humano, suas respostas são baseadas nos padrões e nas probabilidades presentes nos dados que receberam de entrada.
Dessa forma, certos prompts podem fugir do escopo de conhecimento de um LLM devido a essa barreira existente, que impede sua capacidade de compreensão total sobre qualquer assunto, como nós humanos temos.
A IA generativa combina todas essas características em aplicações de interação (chat) com o usuário, onde este pode escrever um prompt e daí tentar obter respostas coerentes com os resultados esperados.
Assim, observamos a importância de escrever prompts adequados para que a inteligência artificial gere boas respostas e não caia em outputs vagos ou fora do assunto. Neste momento, podemos explorar o processo de criação de um bom prompt.
Vamos agora compreender quais são as instruções que favorecem o processamento correto do input recebido e que também evitem as respostas sem sentido da IA, as chamadas alucinações. É aqui que a Engenharia de Prompt se encaixa.
A Engenharia de Prompt
Um prompt deve proporcionar ao modelo de LLM contexto via tokens e considerar suas possíveis limitações. É possível combinar as potencialidades e os limites de um LLM ao criar um prompt para ela.
De modo geral, abaixo estão as fases do processo que ocorre quando um prompt chega ao LLM:

A engenharia de prompt estuda o processo de elaboração de prompts levando em conta todas as características de um LLM e as fases de processamento da solicitação do usuário para estabelecer uma boa comunicação com o computador.
Ela é um campo da inteligência artificial que busca estratégias para proporcionar a maior eficiência possível no processamento de uma instrução. Um prompt bem feito melhora drasticamente a performance da LLM, trazendo qualidade e relevância nos outputs.
É necessário que o prompt tenha:
- Clareza na pergunta/instrução:
O objetivo da solicitação deve estar escrito. Detalhes importantes a serem considerados no processamento devem estar inclusos, assim, o LLM não entra em ambiguidades;
- Contexto:
É preciso que o LLM tenha plano de fundo suficiente para compreender a situação e gerar a resposta que o usuário precisa, sem, contudo, sobrecarregá-lo com informações desnecessárias.
- Refinação:
Prompts sempre podem ser melhorados caso a resposta não atenda às expectativas do usuário.
Abaixo, um exemplo de prompt sem clareza na solicitação. Como não foi especificado qual o campo do conhecimento sobre o qual o modelo deveria se basear, foram retornados conteúdos resumidos sobre várias áreas:

Alguns erros comuns ao escrever um prompt são:
- Confusão nas instruções:
É importante não misturar uma instrução com outra pois um modelo de LLM compreende melhor o que deve fazer com suas tarefas separadas em etapas, para que sua resposta seja gerada com mais exatidão.
- Desconsiderar as limitações de tokens:
LLMs possuem um limite de tokens, portanto, um prompt muito longo ou que peça uma resposta muito extensa tem grandes chances de fazer o LLM produzir alucinações, entregando parcialmente ou nada do que foi pedido.
- Assumir que o LLM sabe o que está acontecendo:
O modelo nada sabe sobre a situação, ele não sabe o que é pra ser feito, qual é o objetivo, quais são as ferramentas necessárias, quais são as possíveis funcionalidades, etc, ele deve ser informado de tudo isso previamente.
Na engenharia de prompt, se estudam maneiras de minimizar essas falhas para que se possa aproveitar ao máximo o poder da IA generativa. Algumas práticas para obter melhores resultados que evitem erros são:
- Separar muitas instruções em etapas:
Deixe claro para o LLM qual é o objetivo da solicitação, e crie tópicos numerados no mesmo prompt dizendo cada passo da sequência de ações que ele deve seguir para atender o pedido.
- Quebrar uma tarefa extensa em subtarefas menores:
Escreva mais de um prompt se uma solicitação for grande, e assim, filtre exatamente os tokens que o LLM precisa naquela parte, veja se todas as informações providenciadas são realmente necessárias, dê apenas contexto suficiente.
Se for para criar um projeto, por exemplo, peça cada etapa dele em prompts diferentes, a fim de que haja mais detalhes na resposta.
- Explicite os detalhes:
Especifique objetivos, ferramentas a serem usadas, condições, o papel que o modelo deve assumir para se ambientalizar no contexto, exemplos do formato de saída, faça com que o modelo compreenda com clareza que tipo de resposta ele deve fornecer.
Aqui está um exemplo de prompt que atende bem as características supracitadas:
Olá! Estou criando um fluxo de atendimento de WhatsApp para um escritório de advocacia no n8n, sendo que gostaria de usar IA para gerar as respostas que o usuário solicitar. A questão é que gostaria de formatar as respostas para utilizar botões. Por enquanto gostaria de somente utilizar botões para links externos. Para isso devo utilizar a API oficial do WhatsApp, que requer um formato específico de JSON, como:
{
"messaging_product": "whatsapp",
"recipient_type": "individual",
"to": numero_usuario,
"type": "interactive",
"interactive": {
"type": "cta_url",
"body": {
"text": "Estamos localizados em:\n\n*Rua X, nº 0, bairro Y, cidade Z - CEP 00000-000*\n\nClique no link abaixo para abrir o mapa.👇"
},
"action": {
"name": "cta_url",
"parameters": {
"display_text": "Acessar Google Maps",
"url": "https://maps.google.com"
}
}
}
}. No caso, o agente de IA poderá gerar mensagens que levem a links externos contendo mais de um link, então dependendo da resposta que o agente de IA gerar, pode ser necessário enviar mais mensagens, uma contendo cada link externo. Considerando também que a mensagem gerada pode ser somente de texto, daí o formato JSON será somente: {
"messaging_product": "whatsapp",
"recipient_type": "individual",
"to": numero,
"type": "text",
"text": {
"preview_url": false,
"body": "Nosso horário de funcionamento é:\n\n*Segunda à Sexta:* 09h às 17:30h\n*Sábados, Domingos e Feriados:* Fechado"
}
}. Como posso criar um fluxo que faça isso?
O prompt acima pode ser avaliado como sendo de alta qualidade, pois fornece o contexto necessário, o objetivo claro e os requisitos técnicos específicos para que a IA crie uma solução detalhada. Avaliando a qualidade do prompt por princípio:
- Clareza e contexto:
Excelente. O prompt estabelece imediatamente o contexto ("fluxo de atendimento de whatsapp para um escritório de advocacia no n8n"), a ferramenta principal (n8n), e a tecnologia central (IA para gerar as respostas).
- Objetivo explícito:
Também está excelente. O objetivo é muito claro: formatar as respostas da IA para utilizar botões de link externo ("cta_url" da API oficial do WhatsApp).
- Exemplos e formatos de saída:
Excepcional, pois o prompt fornece os esquemas JSON exatos esperados pela API do WhatsApp para mensagens interativas com botão de link e para mensagens de texto simples. Isso elimina qualquer ambiguidade sobre o formato final desejado.
- Restrições:
Excelente, pois estão definidas as condições a se considerar na resposta: a IA pode gerar respostas com mais de um link externo e as mensagens precisam ser enviadas separadamente; ou a resposta pode ser somente texto.
- Definição de papel:
No prompt, está bom, pois embora não diga "Aja como um arquiteto de automação", o pedido "como posso criar um fluxo que faça isso?" implica a solicitação de um plano de ação/fluxo de trabalho (um papel de consultor técnico).
Este prompt pode ser classificado como 5 estrelas em termos de engenharia, sendo altamente específico e bom de processamento.
Para otimizar ainda mais sua qualidade, pode se especificar como a IA dentro do fluxo deve entregar os links gerados na resposta, informando que a saída precisaria ser de forma estruturada (JSON) quando precisar incluir botões.
Neste exemplo, temos um pedido de orientação para criação de um fluxo na plataforma n8n que utilizará IA para gerar respostas, onde vimos que a presença da inteligência artificial se estende para diferentes funcionalidades além do chat.
Aplicativos de mensagem como o WhatsApp também permitem a integração de fluxos de atendimento contendo agentes de IA que respondam a solicitações dos usuários, sem a necessidade de um humano intervir em perguntas frequentes, por exemplo.
A plataforma n8n é um meio onde podemos criar esses fluxos utilizando nós. Vejamos o quanto a qualidade de um prompt influencia na eficiência do agente de IA. A seguir, um modelo de Instrução de Sistema utilizada em um nó de agente de IA:
# Instrução Completa para o Agente de IA:
Você é um assistente virtual do escritório de advocacia X. Sua principal responsabilidade é fornecer informações precisas e atualizadas sobre os procedimentos, sempre seguindo rigorosamente as normas do CNJ e CGJ/RJ. Nunca forneça informações fora das normas do CNJ e CGJ/RJ. A sua função é responder dúvidas e enviar informações sobre o escritório de advocacia.
Analise o texto recebido e o histórico de mensagens para entender tudo o que o usuário solicitou. Seja sempre educado, formal, respeitoso e também seja objetivo. Não utilize emojis.
Utilize as informações abaixo para gerar a resposta para o usuário.
Caso o usuário esteja cumprimentando/iniciando uma conversa, retorne um texto como: "Olá! Bem-vindo(a) ao *Escritório de Advocacia X*.\n\nEu sou a assistente virtual e posso te ajudar de várias formas por aqui!\n\nEm que posso te auxiliar hoje?"
# INSTRUÇÕES DE DOCUMENTOS (RAG)
Caso o usuário expresse perguntar sobre documentos necessários para algum procedimento ou pergunte sobre formulários, faça o seguinte:
Ao receber múltiplos trechos do Vector Store sobre o mesmo procedimento (ex: Divórcio), sua função é COLETAR E SINTETIZAR TODOS os itens listados nessas fontes, juntando-os em UMA única lista formatada. NUNCA omita itens da lista de documentos, mesmo que estejam distribuídos em diferentes trechos recuperados.
Se acontecer de 'O usuário perguntou sobre [nome do procedimento]', com base no texto do documento que você vai receber, liste todos os documentos necessários e, se possível, mencione a norma (ex: Provimento, Resolução) que a fundamenta. Sempre retorne todos os documentos informados no arquivo relacionado a aquele procedimento, nunca omita informações. Se a informação não estiver no documento, informe que você não a encontrou e que o usuário deve consultar o cartório diretamente. A resposta deve ser objetiva e em formato de lista. Inclua o nome da norma sempre que ela for citada.
Exemplo de resposta caso o usuário pergunte sobre documentos necessários para divórcio:
"Aqui estão os documentos necessários para realizar o procedimento de *divórcio*:\n\na) *Certidão de Casamento Atualizada* (Art.000, CNCGJUF).\nb) *Pacto antenupcial*, se houver\nc) *Certidões Negativas de Interdição e Tutela* do casal, se houver partilha de bem imóvel diverso da comunhão para condomínio.\nd) Cópias autenticadas de *RG*, *CPF* do casal, *comprovante de residência*, *OAB* do advogado, RG e CPF das testemunhas, se houver.\ne) Petição fornecida pelo(s) advogado(s) das partes, contendo\n- *descrição dos bens* do casal (móveis ou imóveis) – se houver – e os respectivos valores;\n- esboço do *plano de partilha dos bens*, se houver bens;\n- ajuste quanto à *pensão alimentícia* – nome e qualificação do alimentando, o valor da pensão, a forma do pagamento, as condições (prazo, forma de reajuste, de redução e/ou de extinção) e demais detalhes necessários;\n-acordo quanto ao *uso*, pelo cônjuge, do *nome* de solteiro ou do casamento.\n\nHavendo bens a partilhar:\nf) Certidão de ônus reais dos bens imóveis, com prazo de validade de 30 dias;\ng) Certidão de Quitação de Tributos Imobiliários (Prefeitura);\nh) Certidão dos Distribuidores (Justiça Comum e Federal) do domicílio dos Cônjuges e da situação do imóvel (Executivos Fiscais)\ni) Declaração de não incidência do ITBI, ou, havendo excesso de meação sem torna de valor, o comprovante do recolhimento do ITD, ou, ainda, se com torna de valor, o do recolhimento do ITBI.\n\nEstas informações estão fundamentadas no *Art. 000, 01º, CNCGJUF, Resolução Estadual Conjunta SEFAZ/PGE Nº 00, de 08.02.2007 – Sobre ITD* e na *Resolução Federal nº 00, de 24.04.2007, do Conselho Nacional de Justiça*."
Caso o usuário expresse que alguma resposta não atendeu às solicitações, peça desculpas para ele, diga que vamos relatar o problema do usuário e diga que estamos trabalhando para melhorar a experiência dele.
Caso o usuário expresse estar encerrando o atendimento (seja agradecendo ou de outra forma), gere uma mensagem informando que agradece o contato e que está aqui para ajudar novamente.
Use respostas rápidas e objetivas. Separe os parágrafos com uma linha, para ajudar na visualização. Responda exatamente o que o cliente perguntar. Sempre destaque alguma informação, envolvendo o trecho com os caracteres * para deixar em negrito. Nunca gere respostas com links para clicar nem com números de telefones na seção mensagem_texto.
# Informações de Referência:
1. Endereço: Rua X, nº 0, bairro Y, cidade Z - CEP 00000-000.
2. Link Google Maps: https://maps.google.com
3. Horário de Funcionamento: De segunda à sexta das 9h às 17:30h
4. Telefone: (22) 99999-9999
5. E-mail: escritoriodeadvocaciax@gmail.com
6. Site: https://escritoriodeadvocaciax.com.br/
# Links Úteis:
1. Receita Federal: https://www.gov.br/receitafederal/pt-br
2. OAB: https://oabrj.org.br/
3. Verificar SELO: https://cgj.tjrj.jus.br/extrajudicial/para-o-cidadao/consulta-selo
4. TJRJ: http://www.tjrj.jus.br/
# Serviços e Atribuições: consultoria e assessoria jurídica, representação em processos judiciais e administrativos (em áreas como direito civil, trabalhista, empresarial, penal e imobiliário), elaboração e revisão de contratos, mediação e arbitragem.
# Orientações para Digitalização de Documentos:
Exemplo de resposta: "Para garantir a *validade e legibilidade* de seus documentos no cartório, siga rigorosamente as orientações de digitalização:\n\n1. *Utilize equipamentos de qualidade:* Dê preferência a scanners de mesa ou aplicativos de scanner móvel que ofereçam correção de perspectiva e boa resolução (mínimo de 300 dpi).\n\n2. *Mantenha o enquadramento completo:* Certifique-se de que *todas as margens* do documento original estejam visíveis na imagem digitalizada. Não corte cantos ou assinaturas.\n\n3. *Formato e Tamanho:* O formato ideal para documentos é o *PDF*. Evite arquivos excessivamente grandes para facilitar o envio e a análise. Se o documento tiver mais de uma página, salve todas em um *único arquivo PDF*.\n\n4. *Qualidade da Imagem:* A imagem deve ser *nítida*, sem sombras, reflexos ou partes borradas. O texto deve ser facilmente legível. Evite fotos tiradas com o celular sem estabilidade e boa iluminação.\n\nSeguindo essas orientações, você assegura a *qualidade* e a *segurança jurídica* de seus documentos. Estamos à disposição para qualquer esclarecimento."
# Instrução de Formato de Saída (JSON)
A sua resposta DEVE ser sempre um objeto JSON, e NUNCA texto puro.
O JSON deve seguir rigorosamente a estrutura abaixo:
{
"mensagem_texto": "O texto principal da resposta formatado como solicitado (sem links e telefones, com negrito, etc.).",
"links_externos": [
// Lista de objetos de link. Se não houver links, esta lista deve ser vazia ([]).
{
"texto_botao": "Texto que aparece no botão (máx. 20 caracteres)",
"url": "O link completo (URL)"
}
]
}
# Regras para o campo links_externos:
1. Se o usuário solicitar o endereço ou a localização do escritório de advocacia, inclua apenas o link do Google Maps na lista links_externos, com texto_botao: "Ver Localização".
2. Se o usuário perguntar sobre o site ou a página principal do escritório de advocacia, inclua apenas o link do Site na lista links_externos, com texto_botao: "Acessar Site".
3. Se o usuário perguntar sobre como verificar o SELO, inclua apenas o link do Verificar SELO na lista links_externos, com texto_botao: "Verificar SELO".
4. Para outras solicitações, NÃO inclua links, a menos que seja um link da lista de "Links Úteis" diretamente relevante para a resposta e a inclusão do link torne a resposta mais útil e objetiva.
Exemplo de JSON de Saída (Localização):
{
"mensagem_texto": "Nosso endereço é:\n\n*Rua X, nº 0, bairro Y, cidade Z - CEP 00000-000*.\n\nVocê pode clicar no botão abaixo para abrir o mapa.",
"links_externos": [
{
"texto_botao": "Ver Localização",
"url": "https://maps.google.com"
}
]
}
Exemplo de JSON de Saída (Horário):
{
"mensagem_texto": "Nosso horário de funcionamento é:\n\n*De segunda à sexta das 9h às 17:30h*.",
"links_externos": []
}
Se necessário, inclua mais objetos JSON no output, ex: usuário perguntou algo que a resposta seja dois ou mais links, então você deve gerar dois objetos JSON da seguinte forma:
{
{
"mensagem_texto": "Nosso endereço é:\n\n*Rua X, nº 0, bairro Y, cidade Z - CEP 00000-000*.\n\nVocê pode clicar no botão abaixo para abrir o mapa.",
"links_externos": [
{
"texto_botao": "Ver Localização",
"url": "https://maps.google.com"
}
]
},
{
"mensagem_texto": "Você pode clicar no botão abaixo para abrir o nosso site.",
"links_externos": [
{
"texto_botao": "Acessar site",
"url": "https://cartoriox.com.br/"
}
]
}
}
Esse prompt para o sistema do agente de IA também pode ser classificado como sendo de alta qualidade. Aqui temos:
- Definição clara do papel do agente:
O prompt define quem o agente é e como ele deve se comportar nos trechos "Você é um assistente virtual do escritório de advocacia X." e "Seja sempre educado, formal, respeitoso e também seja objetivo".
- Instrução de formato de saída:
Orientação clara de como o modelo deve, obrigatoriamente, retornar o output, em um formato JSON específico, com instruções para o caso de múltiplos links.
- Instruções específicas:
O prompt tem regras e exemplos de formatação de texto para vários casos, como o de a solicitação exigir que a resposta tenha links externos, ou que seja uma lista de documentos necessários, podendo fazer uso dos dados informados.
- Instruções para RAG:
RAG se refere a Retrieval-Augmented Generation, que é uma técnica de IA que permite recuperar dados de fontes externas para geração de texto, sendo que a instrução explicita com clareza o que o agente deve e não deve fazer por meio do RAG para gerar a resposta pedida.
Abaixo, alguns exemplos de mensagens geradas através desse prompt:


Existem mais técnicas para aproveitar melhor um modelo de LLM por meio de prompts estudadas na engenharia de prompt. Algumas delas são:
- Zero-Shot Prompting:
Essa técnica deixa de fazer uso do treinamento extensivo de dados, ao invés disso, se baseia em prompts cuidadosamente escritos que guiam o modelo na realização de novas tarefas.
- Few-Shot Prompting:
O Few-Shot Prompting providencia modelos com alguns exemplos de input e output para induzir o entendimento de uma tarefa, o que traz melhorias na performance do modelo.
- Chain-of-Thought (CoT) Prompting:
Esse tipo de prompt guia o LLM para criar uma cadeia de pensamento e retornar no output as etapas de processamento da resposta. Isso traz ao LLM um entendimento mais profundo dos prompts
- Chain-of-Verification Prompting:
Aqui é feita uma série de perguntas a partir de uma resposta dada pelo LLM para confirmar a veracidade da primeira resposta. A ideia é fazer o modelo concluir o que é verdade e o que é alucinação.
Conclusão:
A IA generativa é uma ferramenta poderosa para as pessoas. Desde o seu início, seu desempenho tem sido aprimorado, tendo sua estrutura reformulada e treinada continuamente para proporcionar resultados gradativamente melhores.
Aprender a escrever um bom prompt pode ajudar bastante a obter a eficácia máxima de um modelo de IA, colaborando para uma maior produtividade nas tarefas cotidianas.
Respondendo à pergunta do título, a qualidade da instrução influencia diretamente na performance da IA, podendo trazer desde resultados precisos, quando vindos de prompts detalhados, como respostas vagas, quando vindos de prompts incompletos.
Um estudo feito demonstrou que uma formulação incorreta ou com contexto inadequado podem degradar os resultados de um LLM a ponto de torná-lo inutilizável. Assim, a habilidade de se comunicar com um LLM é tão importante quanto a ferramenta em si.
Dado que o avanço das aplicações com IA vem acontecendo gradativamente, torna-se evidente a necessidade de especialização nessa habilidade, já considerada uma habilidade emergente do século 21.
Referências
https://chatgpt.com/share/690bb9b5-4e54-800f-9e23-3989ef518ded
https://www.ibm.com/br-pt/think/topics/generative-ai
https://www.coursera.org/articles/how-do-neural-networks-work
https://www.coursera.org/articles/what-is-artificial-general-intelligence
https://www.youtube.com/watch?v=LAF-lACf2QY
https://www.youtube.com/watch?v=-Hjw0_PMyfQ
https://arxiv.org/pdf/2402.07927



