A IA Generativa (IAGen) está causando uma série de transformações em diversas áreas do conhecimento, especialmente no futuro do trabalho. Com um número crescente de ferramentas que usam essa modalidade de inteligência artificial para diferentes aplicações, a cada instante várias aplicações vêm sendo criadas por empresas, inclusive se aproveitando de outras já existentes por meio de interfaces programáveis de aplicação (APIs). Essa é uma das diversas páginas de curadoria de soluções disponíveis.
Quem já usou o ChatGPT percebe que o ganho de produtividade é enorme para a produção de textos, geração de resumos, pesquisas, traduções, dentre outras atividades. Sob o olhar da criação de imagens, ferramentas como Midjourney, DallE, Leonardo e Stable Diffusion têm sido amplamente adotadas pelos criadores de conteúdo. Entretanto, tem pessoas que conseguem obter melhores resultados com essas plataformas do que outras… Será que existe um “ingrediente secreto”?
Bem, a resposta é simples: elas perguntam melhor! Na verdade, não precisa ser uma pergunta em si, mas uma solicitação ao agente inteligente do chat.
Mas, o que faz um comando ser melhor do que outro? A “mágica” está na forma como montamos as questões, com descrições mais apuradas sobre o contexto em que deseja-se obter as respostas.
Esse método foi batizado de “prompt engineering” e o interesse sobre o tema tem crescido no mundo, segundo os dados do Google Trends, ferramenta que permite analisar o interesse da população em assuntos de acordo com o volume de buscas no Google.
Repare nesse gráfico dos últimos 365 dias (até 13 de junho de 2023).
Observa-se um crescimento a partir de meados de janeiro deste ano, atingindo o pico no final de março e depois diminuindo para um possível platô, região estável onde o comportamento do gráfico se mantém quase estável. Para quem quiser ter acesso a uma explicação um pouco mais técnica, recomendo o vídeo a seguir sobre grandes modelos de linguagem, os “large language models” (LLM), produzido pela equipe do Google Cloud, onde deixamos separado uma explicação sobre a engenharia de prompts.
De fato, explicitar adequadamente o contexto nas perguntas é diferencial nos resultados a serem obtidos em IAGen.
– NOTA DO REDATOR – Tenho obtido melhores resultados no meu cotidiano com o chatCPT depois que passei a explicitar o contexto.
A OpenAI fez um guia de boas práticas para a criação de prompts no chatGPT e vamos listar os principais pontos aqui:
- Dê instruções claras;
- Forneça um texto de referência;
- Divida tarefas complexas em tarefas mais simples;
- Dê tempo para o modelo “pensar”;
- Utilize ferramentas externas.
Para tornar as instruções mais claras, recomenda-se:
- Incluir detalhes no prompt para obter respostas mais relevantes;
- Recomende que o modelo assuma uma persona;
- Use delimitadores para indicar as partes do prompt;
- Especifique os passos requeridos para a realização da tarefa;
- Dê exemplos;
- Especifique o tamanho de saída desejado.
Deixo aqui um post com exemplos adicionais de prompts que podem ser testados para buscarem maior produtividade no chatGPT.
Como disse em textos anteriores, estamos vivenciando uma revolução em tempo real com a IAGen e as transformações que observamos. Há um certo hype, uma espécie de êxtase, em torno da engenharia de prompt que vem contribuindo bastante para os ganhos de produtividade. Há empresas anunciando vagas de engenheiros de prompt… Será que essa vai ser uma nova ocupação no futuro?
Bem, o futuro está sendo escrito agora, em tempo real. Há quem diga que essa é uma excitação temporária. Oguz A. Acar, professor de Marketing na King’s Business School, a escola de negócios do King’s College London, descreve em um artigo na Harvard Business Review que vivemos um momento em que essa temática ganha destaque. Mas, à medida que as pessoas aprendem a delimitar, especificar, enquadrar e contextualizar bem os problemas, a engenharia de prompt tenderá a perder esse hype atual.
De certa forma, vimos como o Google, ao longo do tempo, foi melhorando a performance, especialmente frente a outros mecanismos de busca. Acredito que devemos vivenciar algo semelhante, caso os LLMs consigam captar cada vez melhor dados sobre o contexto.
E você, o que acha? Conto com a sua colaboração nesse debate! Passa lá nas redes do Porto Digital e deixe sua opinião. Se quiser se aprofundar mais nesse tema, inclusive olhando alguns tópicos que estão sendo pesquisados na academia, dê uma olhada nesse repositório da OpenAI no GitHub.
Fernando Sales é professor do Departamento de Engenharia Biomédica da UFPE e Pesquisador do Porto Digital
Comments are closed, but trackbacks and pingbacks are open.