Do curso: Prompt Engineering: Aprenda a Conversar com uma IA Generativa

Como aprender novos prompts

Aprender a criar prompts de maneira eficaz envolve compreender como estruturar e comunicar suas solicitações de maneira que a inteligência artificial compreenda suas intenções e proporcione resultados úteis. Não quero dar prompts específicos porque podem ficar desatualizados com o tempo. Além disso, talvez não possam ser personalizados para sua situação em particular. Nos arquivos de exercícios do curso, você encontra repositórios de prompts bem atualizados e em evolução que você pode ir testando. Na bibliografia complementar, você encontra links diretos para a documentação oficial de cada inteligência artificial, que são como manuais de uso. Além disso, vou contar algumas das minhas estratégias para usar nas entradas. São válidas para muitas inteligências artificiais, e você pode personalizar os comandos conforme a necessidade. Tudo consiste em testar estratégias diferentes para cada finalidade. Por exemplo: primeiro você deve escolher o tipo de prompt mais adequado para a solicitação. Os prompts com lacunas contêm um texto com espaços vazios que a inteligência artificial precisa preencher. Já os prompts com preâmbulo apresentam um texto que deve ser continuado ou respondido. Existem mais categorias, como os prompts padrão, que são as solicitações mais diretas com uma instrução simples. A linha de pensamento, chain of thought, descreve o processo que a inteligência artificial segue para responder. Ela a obriga a gerar como chegou àquele resultado. O zero-shot e o few-shot definem se são apresentados exemplos para a inteligência artificial ou não. Também é possível personalizar parâmetros. Existem inúmeros parâmetros, e disponibilizei recursos nos arquivos de exercícios, mas vou dizer alguns dos mais comuns. A temperatura e o top_p regulam a variedade do texto gerado, ou seja, limitam a originalidade. O chaos e o CFG scale também controlam a originalidade dos resultados, mas para inteligências artificiais de imagem. O maximum length define o número máximo de tokens gerados. Costuma ser mais eficaz do que usar words ou sentences. O stop sequences delimita quando interromper a geração de texto. As configurações frequency e presence penality penalizam a repetição de tokens. É bom para evitar a argumentação circular. O recurso Inject Start Text inclui um texto inicial na resposta. É útil, por exemplo, para um bot que sempre precise fazer a mesma saudação. Com Best Of, são geradas várias respostas e a melhor é mostrada. Show Probabilities revela as opções avaliadas pela inteligência artificial. Aspect Ratio controla a proporção das imagens. No define o que você não quer no resultado. Como vemos, no próprio prompt é possível incluir muitos parâmetros de modificação, e é impossível abordar todos. Só peço que leve em consideração o seguinte: utilize sempre o último modelo. Ele sempre traz melhorias em relação ao anterior. Separe o contexto das instruções. Isso melhora a compreensão da inteligência artificial. Seja claro e específico. Minimize as ambiguidades o máximo possível. Concatene gerações. A geração em partes com instruções simples pode ser mais eficaz do que uma instrução complexa. Você também pode definir funções. A inteligência artificial interpreta funções com muita eficácia. Use marcações de linguagem de programação, se quiser. As IAs conseguem entendê-las, e ajudam a dar forma e estrutura. Além disso, é melhor colocar os parâmetros no final. Por último, aperfeiçoe seu prompt. Ao dedicar tempo para aprimorá-lo, você evita esforço em longo prazo. Eu garanto. Foi um prazer acompanhar você nesta jornada pelo mundo das inteligências artificiais e falar da importância da comunicação eficaz com elas. À medida que você praticar e fizer experiências, vai se lembrar da importância de um bom prompt e da diferença que isso pode fazer nos resultados.

Conteúdos