REGISTRO DOI: 10.69849/revistaft/cs10202503161004
Abdon de Paula, PhD1
Resumo
Este estudo investiga a formulação de prompts eficazes, eficientes e efetivos para interações com modelos de inteligência artificial (IA) baseados em processamento de linguagem natural. A pesquisa, fundamentada numa revisão integrativa da literatura, evidencia que a qualidade dos comandos fornecidos influencia diretamente a precisão, coerência e relevância das respostas geradas pela IA. Inicialmente, são explorados os avanços tecnológicos que possibilitaram essa evolução, destacando o papel do aprendizado contextual. Em seguida, são analisadas metodologias e estratégias de engenharia de prompts, incluindo abordagens como Chain-of-Thought e Few-shot prompting. A seção de resultados e discussões avalia a eficácia dessas estratégias com base em estudos de caso, demonstrando que o refinamento contínuo dos prompts impacta significativamente o desempenho da IA. Como contribuição prática, é apresentado um guia estruturado para a criação de prompts otimizados. Por fim, a pesquisa reafirma a importância da engenharia de prompts como uma habilidade essencial para maximizar o potencial das inteligências artificiais (IAs), apontando desafios e oportunidades para aplicações futuras em diferentes domínios.
Palavras-chave: Engenharia de prompts, inteligência artificial, processamento de linguagem natural, modelos de linguagem, estratégias de interação.
Abstract
This study investigates the formulation of effective, efficient, and impactful prompts for interactions with artificial intelligence models based on natural language processing. Grounded in an integrative literature review, the research highlights how the quality of user input directly influences the accuracy, coherence, and relevance of AI-generated responses. Initially, the study explores the technological advancements that enabled this progress, emphasizing the role of contextual learning. Subsequently, methodologies and prompt engineering strategies, such as Chain-of-Thought and Few-shot prompting, are analyzed. The results and discussion section evaluates the effectiveness of these strategies through case studies, demonstrating that continuous refinement of prompts significantly enhances AI performance. As a practical contribution, a structured guide for optimizing prompt creation is presented. Ultimately, the study reaffirms the importance of prompt engineering as a crucial skill for maximizing the potential of artificial intelligence, highlighting challenges and opportunities for future applications across various domains.
Keywords: Prompt engineering, artificial intelligence, natural language processing, language models, interaction strategies.
1. Introdução
A ascensão dos modelos de inteligência artificial (IA) baseados em linguagem natural transformou a maneira como humanos interagem com máquinas, permitindo a automatização de tarefas, a geração de conhecimento e o aprimoramento de processos criativos. No entanto, a qualidade das respostas fornecidas por esses sistemas depende diretamente da formulação dos comandos inseridos pelos utilizadores, conhecidos como prompts. A habilidade de estruturar prompts de maneira eficiente, eficaz e efetiva tornou-se essencial para maximizar o potencial dessas tecnologias (BROWN et al., 2020).
Há décadas, os computadores possuem uma capacidade extraordinária de processamento de dados, realizando cálculos complexos e armazenando informações em velocidades inatingíveis para o ser humano. No entanto, a interação com essas máquinas sempre exigiu conhecimentos específicos, como o domínio de linguagens de programação, comandos técnicos ou interfaces estruturadas. Essa barreira técnica limitava o uso avançado dos computadores a especialistas, restringindo o acesso a todo o seu potencial computacional (RUSSELL; NORVIG, 2021).
A grande revolução trazida pela IA moderna não está apenas no aumento do poder de processamento, mas principalmente na capacidade de compreender e gerar linguagem natural. Diferente da linguagem formal e estruturada exigida pelos sistemas tradicionais, a linguagem natural refere-se à maneira como os seres humanos se comunicam entre si, com toda a sua complexidade, ambiguidade e riqueza contextual. Isso significa que, ao invés de utilizar códigos ou comandos rígidos, os utilizadores podem agora interagir com as máquinas por meio de frases comuns, tornando a tecnologia mais acessível e intuitiva (JURAFSKY; MARTIN, 2023).
Essa inovação representa um salto tecnológico sem precedentes, pois permite que qualquer pessoa, independentemente do seu nível de especialização, possa usufruir dos benefícios da IA. Hoje, modelos de linguagem como o ChatGPT podem responder perguntas, gerar textos, resumir documentos e até mesmo auxiliar na tomada de decisões com base em descrições informais fornecidas pelos utilizadores (OPENAI, 2023). No entanto, apesar dessa facilidade, a qualidade da interação ainda depende fortemente da forma como os prompts são formulados. Vale ressaltar que a interpretação errônea é comum mesmo entre os seres humanos e frequentemente se tornam necessários esclarecimentos sobre alguma mensagem. Um comando mal estruturado pode resultar em respostas imprecisas, incompletas ou irrelevantes, comprometendo a eficácia da IA como ferramenta (GUDIVADA, 2022).
Está se tornando crescente popularidade da engenharia de prompts, muitos utilizadores enfrentam dificuldades na formulação de comandos que produzam respostas coerentes e alinhadas às suas intenções. A falta de clareza, a ambiguidade e a ausência de técnicas estruturadas resultam em interações subótimas, quando não totalmente distorcidas, levando a respostas genéricas ou pouco úteis. Além disso, há uma lacuna na sistematização de métodos para o ensino da construção de prompts, o que dificulta a difusão de boas práticas tanto em ambientes acadêmicos quanto no mercado profissional (MOLLICK; MOLLICK, 2023).
Diante desse cenário, este artigo pretende explorar e apresentar estratégias para ensinar a formulação de prompts eficientes, eficazes e efetivos, abordando desde conceitos básicos até as técnicas avançadas de refinamento. Para isso, serão discutidas abordagens teóricas sobre a interação humano – IA, estratégias pedagógicas para o ensino da escrita de prompts e uma análise comparativa entre diferentes tipos de comandos.
A estrutura deste artigo está organizada da seguinte forma: a Seção 2 descreve a metodologia utilizada para avaliar e ensinar a formulação de prompts. a Seção 3 apresenta a fundamentação teórica sobre eficiência, eficácia e efetividade na engenharia de prompts, bem como os princípios de interação com modelos de IA. A Seção 4 discute diferentes tipos de comandos, destacando boas práticas e erros comuns. Em seguida, a Seção 5 analisa os resultados obtidos a partir da aplicação de técnicas de refinamento. Por fim, a Seção 6 sintetiza os resultados e a Seção 7 traz a conclusão.
2. Metodologia
Este estudo adota a revisão integrativa da literatura como método principal, visando identificar, analisar e sintetizar as melhores práticas para a formulação de prompts eficientes, eficazes e efetivos na interação com modelos de inteligência artificial. A revisão integrativa permite reunir estudos teóricos e empíricos sobre um determinado tema, proporcionando uma visão abrangente e crítica do conhecimento existente (TORRACO, 2016; SNYDER, 2019). Ao mesmo tempo que os conceitos são revistos da literatura atual, integra-se o conhecimento com a aplicação real de exemplos concomitantes sobre as IAs existentes, como o ChatGPT 4, a Clause 3.7 Sonnet e o ONE Pro (beta).
Nesta seção, detalha-se o delineamento metodológico da pesquisa, os critérios de seleção e análise das fontes, bem como a abordagem utilizada para a sistematização dos dados coletados.
2.1 Revisão Integrativa da Literatura como Método
A revisão integrativa da literatura constitui uma abordagem metodológica que possibilita a análise de múltiplos tipos de estudos, incluindo pesquisas experimentais, teóricas e estudos de caso, favorecendo a síntese do conhecimento e a identificação de lacunas na literatura existente (WHITTEMORE; KNAFL, 2005). Diferentemente das revisões sistemáticas, que seguem um protocolo rigoroso para a seleção e análise de artigos, a revisão integrativa combina evidências de diferentes abordagens, permitindo uma compreensão mais ampla e crítica do tema estudado (SNYDER, 2019).
Segundo Torraco (2016), a revisão integrativa revela-se especialmente útil em áreas emergentes, onde o conhecimento continua em desenvolvimento e há necessidade de consolidar conceitos, teorias e aplicações práticas. Considerando que a engenharia de prompts para IA configura-se como um campo recente, a adoção dessa metodologia possibilita a identificação de padrões e melhores práticas na formulação de comandos para modelos de linguagem natural.
A pesquisa segue as etapas recomendadas por Whittemore e Knafl (2005) para a realização de revisões integrativas, compreendendo:
- Identificação do problema de pesquisa – Definição clara do objetivo da revisão, que neste estudo consiste em investigar as melhores práticas na formulação de prompts para interação eficiente com modelos de IA.
- Busca na literatura – Coleta sistemática de artigos, livros e relatórios técnicos sobre o tema, considerando fontes acadêmicas e institucionais reconhecidas.
- Avaliação dos estudos selecionados – Análise crítica da qualidade e relevância dos materiais encontrados.
- Extração e categorização dos dados – Identificação dos principais conceitos, abordagens e técnicas discutidas nos estudos selecionados.
- Análise e síntese dos achados – Integração das informações para a construção de um arcabouço teórico sobre engenharia de prompts.
2.2 Estratégia de Busca e Seleção de Estudos
A busca por referências foi conduzida em bases de dados acadêmicas reconhecidas, incluindo Scopus, Web of Science, IEEE Xplore, ACM Digital Library e Google Scholar. Para garantir a abrangência da pesquisa, foram empregados descritores estratégicos, tais como:
– “Prompt Engineering”
– “Natural Language Processing and AI Interaction”
– “Human-AI Communication Strategies”
– “Effective Prompting in Large Language Models”
Foram considerados estudos publicados entre 2018 e 2024, dado que os avanços recentes em modelos de linguagem, como os da família GPT e BERT2 (Bidirectional Encoder Representations from Transformers), demandam uma revisão atualizada. Trabalhos anteriores foram analisados apenas se apresentassem relevância teórica consolidada na área de interação humano-máquina.
Os critérios de inclusão e exclusão seguiram as diretrizes propostas por Snyder (2019) para revisões integrativas:
Critérios de Inclusão:
✔ Estudos que abordam técnicas e estratégias de formulação de prompts para modelos de IA.
✔ Pesquisas que analisam a influência da clareza e estruturação do input na qualidade das respostas da IA.
✔ Trabalhos que discutem conceitos fundamentais de linguagem natural e interação humano-máquina.
✔ Artigos e livros publicados em inglês ou português em periódicos e editoras de alto impacto.
Critérios de Exclusão:
✘ Trabalhos que não apresentam rigor metodológico ou não possuem revisão por pares.
✘Estudos limitados a linguagens de programação e interfaces técnicas sem relação com PLN.
✘ Pesquisas que analisam modelos de IA desatualizados ou sem relevância para o contexto atual.
A aplicação desses critérios resultou na seleção de 47 estudos altamente relevantes, que foram analisados qualitativamente para identificar padrões, tendências e lacunas na literatura.
2.3 Análise e Síntese das Evidências
A análise dos estudos seguiu uma abordagem temática e categorial, conforme recomendado por Braun e Clarke (2006) para pesquisas qualitativas. Os dados extraídos dos artigos foram organizados em categorias, permitindo uma síntese estruturada do conhecimento disponível sobre engenharia de prompts. As principais categorias identificadas foram:
- Fundamentos da Linguagem Natural e IA – Estudos que discutem a importância da estruturação linguística para a interação humano-IA (RUSSELL; NORVIG, 2021).
- Eficiência, Eficácia e Efetividade na Formulação de Prompts – Trabalhos que abordam as dimensões da qualidade na criação de comandos para IA (MOLLICK; MOLLICK, 2023).
- Técnicas e Estratégias para a Construção de Prompts – Pesquisas que exploram práticas como especificidade, fornecimento de contexto e uso de exemplos (GUDIVADA, 2022).
- Desafios e Limitações na Interação com Modelos de Linguagem – Estudos que apontam dificuldades na interpretação de comandos pela IA e estratégias de refinamento iterativo (JURAFSKY; MARTIN, 2023).
A partir da categorização, foi possível identificar as melhores práticas para a engenharia de prompts e propor um modelo sistematizado para ensinar a formulação de comandos eficazes.
2.4 Considerações sobre a Metodologia
A revisão integrativa possibilitou a consolidação de uma base teórica robusta sobre o tema, integrando pesquisas acadêmicas e diretrizes técnicas de forma sistemática. No entanto, algumas limitações da metodologia devem ser consideradas:
- Dependência da literatura existente – Como o campo da engenharia de prompts continua em fase de desenvolvimento, podem existir lacunas conceituais que exigem estudos futuros.
- Foco qualitativo – A análise foi predominantemente qualitativa, o que pode limitar a mensuração exata do impacto de diferentes estratégias de formulação de prompts.
- Evolução contínua dos modelos de IA – As práticas mais eficazes podem se modificar à medida que novas arquiteturas e abordagens são desenvolvidas.
Dessa forma, os achados desta pesquisa representam um panorama atualizado e abrangente, mas demandam acompanhamento contínuo para adaptação às inovações tecnológicas. A próxima seção apresentará os resultados e discussões derivados da revisão da literatura, enriquecidas pela apresentação de exemplos reais, detalhando as melhores práticas e diretrizes identificadas.
3. Fundamentação Teórica
No contexto deste trabalho, eficácia refere-se à capacidade de uma ação alcançar o resultado desejado; eficiência, à realização desse resultado com economia de recursos; e efetividade, ao impacto da solução no empreendimento (DE PAULA, 2023). Com essas definições, a criação de prompts para modelos de inteligência artificial (IA) requer compreensão dos princípios dessa comunicação.
Os avanços nos modelos de linguagem natural melhoraram a compreensão e geração de textos pelas máquinas, mas a qualidade da interação depende da estrutura dos comandos. Esta seção explora os conceitos de eficiência, eficácia e efetividade na formulação de prompts, a importância da linguagem natural na interação humano – IA, e técnicas para melhorar a formulação de comandos.
Para criar prompts eficazes para IA, é crucial entender o processamento de linguagem natural (PLN), as melhores práticas na comunicação humano-máquina e os desafios da engenharia de comandos. Esta análise se baseia na revisão de literatura, permitindo identificar padrões e estratégias aprimoradas para a interação com modelos de IA.
Da literatura emergem principais conceitos sobre engenharia de prompts em quatro áreas: (i) fundamentos da linguagem natural e interação com IA; (ii) critérios para criar prompts de alta qualidade; (iii) estratégias avançadas para melhorar respostas; e (iv) desafios e limitações. Os casos e exemplos ao longo do capítulo ilustram a aplicação prática desses conceitos.
Os avanços em IA com base em processamento de linguagem natural (PLN) são uma das maiores inovações tecnológicas recentes. Enquanto computadores sempre processaram dados estruturados eficientemente, a revolução da IA está na interpretação e geração coerente de linguagem natural (JURAFSKY; MARTIN, 2023). A linguagem natural é a forma de comunicação humana, com nuances que tradicionalmente eram difíceis para máquinas (MANNING; SCHÜTZE, 1999). Porém, com arquiteturas como Transformers (VASWANI et al., 2017), os modelos de IA agora interpretam o contexto de forma avançada.
É essencial entender que esses modelos não aprendem continuamente de forma tradicional. Eles são pré-treinados em vastos dados, mas não retêm novos conhecimentos após o treinamento. Durante interações, a IA usa o contexto imediatista (num limite de tokens, sendo token a unidade básica de processamento de texto em modelos de linguagem, que pode ser uma palavra, parte de uma palavra ou um caractere), mas essa informação não é retida após a interação (BROWN et al., 2020). Essa característica é crucial para formular prompts eficazes, indicando que usuários devem fornecer o contexto necessário sempre, pois a IA não mantém memória de interações anteriores.
3.1 Eficiência, Eficácia e Efetividade na Formulação de Prompts
A avaliação da qualidade de um prompt pode ser feita com base em três dimensões fundamentais: eficiência, eficácia e efetividade. Embora frequentemente utilizados como sinônimos, esses conceitos possuem diferenças sutis e complementares (DE PAULA, 2023), que impactam diretamente na qualidade da interação com a IA.
- Eficácia diz respeito à capacidade do prompt de gerar a resposta esperada. Um comando eficaz apresenta instruções bem definidas e estruturadas, reduzindo ambiguidades e aumentando a previsibilidade dos resultados (MOLLICK; MOLLICK, 2023).
Exemplo Incorreto (Ineficaz):
Prompt: “O que você acha sobre prompts e inteligência artificial?”
Análise: Este prompt é ineficaz porque é vago e não fornece instruções claras sobre o tipo de resposta desejada. A IA pode gerar uma resposta genérica e pouco útil, que não atenda ao objetivo de demonstrar a importância da eficácia na formulação de prompts.
Exemplo Correto (Eficaz):
Prompt: “Explique, com exemplos, como a formulação de prompts com instruções bem definidas e estruturadas aumenta a probabilidade de obter a resposta esperada de um modelo de IA.”
Análise: Ele é eficaz porque fornece instruções claras e estruturadas sobre o tipo de resposta desejada. Ele especifica que a resposta deve explicar como a formulação de prompts com instruções bem definidas e estruturadas aumenta a probabilidade de obter a resposta esperada, e solicita exemplos para ilustrar o ponto.
- Eficiência refere-se ao uso otimizado de recursos para alcançar um objetivo. No contexto da formulação de prompts, um comando eficiente deve ser claro e direto, evitando informações desnecessárias ou redundantes que possam confundir a IA ou tornar a resposta excessivamente genérica (GUDIVADA, 2022).
Exemplo Incorreto (Ineficiente):
Prompt: “Explique tudo o que você sabe sobre a formulação de prompts para modelos de inteligência artificial. Inclua uma discussão detalhada sobre todos os aspectos relevantes, como clareza, especificidade, contextualização e eficiência. Em seguida, forneça exemplos de como esses aspectos podem afetar a qualidade das respostas geradas pela IA. Além disso, discuta as diferentes abordagens para avaliar a qualidade dos prompts e os desafios associados à engenharia de prompts. Por fim, mencione todas as fontes relevantes que você utilizou para obter essas informações.”
Análise: Ele é ineficiente porque solicita uma quantidade excessiva de informações, muitas das quais não são diretamente relevantes para o objetivo principal (explicar a importância da eficiência). Ele também é vago e não orienta a IA a fornecer uma resposta concisa e focada.
Exemplo Correto (Eficiente):
Prompt: “Em poucas frases, explique por que a eficiência é importante na formulação de prompts para modelos de IA. Destaque como prompts claros e diretos, que evitam informações desnecessárias, podem melhorar a qualidade das respostas.”
Análise: A solução adequada é eficiente porque é clara, direta e focada no objetivo principal (explicar a importância da eficiência). Ele também restringe a IA a fornecer uma resposta concisa, evitando informações desnecessárias ou redundantes.
- Efetividade combina os conceitos de eficiência e eficácia, focando não apenas na qualidade da resposta gerada, mas também no impacto prático que ela tem para o usuário. Um prompt efetivo não apenas gera uma resposta relevante, mas também facilita sua aplicação no contexto desejado (JURAFSKY; MARTIN, 2023).
Exemplo Incorreto (Inefetivo):
Prompt: “Inteligência artificial, prompts.”
Análise: Ele é inefetivo porque é extremamente vago e não fornece instrução alguma sobre o tipo de resposta desejada. A IA pode gerar uma resposta aleatória e sem utilidade prática para o usuário.
Exemplo Correto (Efetivo):
Prompt: “Forneça um exemplo de como um prompt bem formulado pode gerar uma resposta de IA que não apenas seja relevante e precisa, mas também facilite a resolução de um problema prático específico para um usuário.”
Análise: Ele é efetivo porque fornece instruções claras e específicas sobre o tipo de resposta desejada. Ele especifica que a resposta deve fornecer um exemplo de como um prompt bem formulado pode gerar uma resposta de IA que seja relevante, precisa e facilite a resolução de um problema prático específico.
A formulação de prompts que equilibram estes três aspectos é essencial para maximizar a utilidade da IA. Um comando mal formulado pode resultar em respostas genéricas ou irrelevantes, enquanto um prompt bem estruturado orienta o modelo a gerar saídas alinhadas às necessidades do usuário.
3.2 Fundamentos da Linguagem Natural e Interação com IA
Enquanto os computadores tradicionais sempre possuíram grande capacidade de processamento de dados estruturados, a verdadeira revolução proporcionada pela IA ocorre na capacidade de interpretar e gerar linguagem natural de maneira coerente e contextualizada (JURAFSKY; MARTIN, 2023).
A linguagem natural refere-se ao meio de comunicação humano, caracterizado por nuances semânticas, sintáticas e pragmáticas que, historicamente, eram de difícil interpretação para máquinas (MANNING; SCHÜTZE, 1999). No entanto, com o desenvolvimento de arquiteturas como Transformers (VASWANI et al., 2017), os modelos de IA passaram a demonstrar uma capacidade avançada de interpretação contextual numa interação específica.
É importante ressaltar que esses modelos não possuem aprendizado contextual contínuo no sentido tradicional do termo. Eles são treinados previamente em grandes quantidades de dados, mas, após esse treinamento, não adquirem novos conhecimentos de forma permanente. Durante uma interação, a IA pode considerar informações fornecidas no mesmo contexto (numa janela limitada de tokens), ajustando suas respostas com base nos dados imediatamente disponíveis. No entanto, essa informação não é retida após o encerramento da interação (BROWN et al., 2020).
Essa distinção é fundamental para a formulação de prompts eficazes, pois indica que um utilizador deve fornecer contexto sempre que necessário, ao invés de assumir que a IA manterá memória de interações anteriores. Esse princípio será aprofundado na próxima seção.
Tradicionalmente, a comunicação com computadores exigia o uso de linguagens formais e comandos estruturados. Com o desenvolvimento de modelos avançados de processamento de linguagem natural (PLN), os sistemas atuais conseguem compreender e gerar textos com maior precisão e contextualização (BROWN et al., 2020).
Diferente das linguagens de programação, que seguem sintaxes rígidas e bem definidas, a linguagem natural é flexível e interpretativa. Isso apresenta desafios para os sistemas computacionais, que precisam desambiguar termos e interpretar intenções para fornecer respostas adequadas (RUSSELL; NORVIG, 2021). Observe os exemplos simples que ilustram bem esse fato:
Prompt: “O tempo voa, não é?”
Interpretação 1 (Linguagem Natural):
Intenção: Expressar a percepção de que o tempo está passando rapidamente. Contexto: Uma conversa casual sobre como o tempo parece passar mais rápido à medida que envelhecemos ou quando estamos ocupados.
Resposta Esperada: Uma concordância ou comentário sobre a rapidez com que o tempo está passando: “Sim, parece que foi ontem que estávamos no ano passado!”
Interpretação 2 (Interpretação Literal):
Intenção: Questionar se alguém está medindo a velocidade de um objeto voador (ex: um pássaro ou um avião). Contexto: Uma discussão sobre física ou aerodinâmica, onde a velocidade de um objeto é um fator importante.
Resposta Esperada: Uma resposta que forneça informações sobre a velocidade do objeto em questão: “Sim, o tempo que o avião leva para percorrer essa distância indica que ele está voando a X km/h.”
Essas respostas esperadas demonstram como a linguagem natural pode ser ambígua e sujeita a diferentes interpretações, dependendo do contexto e da intenção do falante. A frase “O tempo voa” pode ser entendida como uma expressão idiomática sobre a passagem do tempo ou como uma pergunta literal sobre a velocidade de um objeto voador.
Para um sistema computacional, desambiguar essa frase requer a capacidade de: reconhecer expressões idiomáticas, analisar o contexto da conversa e inferir a intenção do utilizador. Se o sistema não for capaz de realizar essas tarefas, ele pode gerar uma resposta inadequada ou sem sentido. Se o sistema interpretar a frase literalmente num contexto casual, ele pode responder com informações sobre a velocidade de um pássaro, o que seria totalmente descontextualizada e irrelevante para o interlocutor.
Os modelos de linguagem modernos são treinados com vastas quantidades de dados textuais e utilizam aprendizado profundo para identificar padrões e prever as sequências de palavras prováveis para um determinado contexto (OPENAI, 2023). Isso permite que as inteligências artificiais respondam de maneira coerente e contextualizada, do mesmo modo exige que os utilizadores formulem prompts bem estruturados para obter resultados úteis (JURAFSKY; MARTIN, 2023).
A comunicação eficaz, eficiente e efetiva com modelos de IA, portanto, depende da clareza e da precisão dos prompts. Um comando vago pode gerar respostas amplas e genéricas, enquanto um prompt detalhado e bem delimitado orienta o sistema a produzir respostas mais relevantes. Assim, compreender o funcionamento da linguagem natural e aplicar técnicas estruturadas na criação de prompts são fatores fundamentais, como condição necessária, para uma interação produtiva com a IA, ressalte-se, entretanto, que não é condição suficiente.
4. Técnicas para Aprimoramento da Formulação de Prompts
A eficácia de um prompt depende diretamente de sua estruturação. Estudos indicam que comandos bem elaborados devem atender a três critérios fundamentais: clareza, contextualização e especificidade (GUDIVADA, 2022).
A formulação de prompts eficazes envolve a aplicação de estratégias que aumentam a clareza, a especificidade e a contextualização das solicitações feitas à IA. As principais técnicas incluem:
4.1 Clareza e Objetividade
Um prompt bem estruturado deve ser direto e evitar ambiguidades. Instruções vagas podem gerar respostas imprevisíveis. Por exemplo, um comando genérico como “Me fale sobre IA” pode resultar em uma resposta ampla e pouco útil. Em contraste, um prompt mais específico, como “Explique os principais avanços em inteligência artificial nos últimos cinco anos, focando em modelos de linguagem natural”, orienta a IA a gerar uma resposta mais relevante e informativa (MOLLICK; MOLLICK, 2023). Veja-se essa técnica por meio de um exemplo:
Prompt Sem Clareza e Objetividade (Vago e Ambíguo)
Prompt: “Fale sobre a internet.”
Resposta da IA: “A internet é uma rede global de computadores que permite a comunicação e o compartilhamento de informações.”
Análise: A resposta é muito genérica e não fornece informações específicas sobre a história da internet. O prompt é vago e não especifica o que se deseja saber.
Prompt Com Clareza e Objetividade (Específico e Direto)
Prompt: “Resuma os principais eventos na história da internet, desde sua criação até os dias atuais, destacando os principais avanços tecnológicos e marcos importantes.”
Resposta da IA: “A história da internet começou na década de 1960 com a ARPANET, uma rede de computadores criada pelo Departamento de Defesa dos Estados Unidos. Na década de 1970, o protocolo TCP/IP foi desenvolvido, permitindo a comunicação entre diferentes redes. Na década de 1980, a internet se popularizou com a criação da World Wide Web por Tim Berners-Lee. Na década de 1990, a internet se tornou comercial e se expandiu rapidamente, com o surgimento de provedores de acesso, sites e serviços online. Nos anos 2000, a internet se tornou onipresente com a popularização da banda larga, das redes sociais e dos dispositivos móveis. Atualmente, a internet continua a evoluir com o surgimento de novas tecnologias como a inteligência artificial, a internet das coisas e a blockchain.”
Análise: A resposta é específica, objetiva e fornece informações relevantes sobre a história da internet. O prompt é claro e direto, especificando o que o usuário deseja saber e orientando a IA a fornecer uma resposta detalhada e informativa.
Prompts vagos, ou ambíguos, podem gerar respostas inconsistentes ou pouco úteis, pois os modelos de IA processam informações com base em padrões estatísticos e não em compreensão genuína do significado.
Caso: Comparação entre um prompt vago e um claro
Prompt vago: “Fale sobre inteligência artificial.”
Resposta gerada: pode abordar qualquer aspecto da IA resultando em um texto genérico e sem profundidade específica.
Prompt claro: “Explique o funcionamento das redes neurais artificiais, destacando a estrutura de camadas e o papel da retro propagação no treinamento do modelo.”
Resposta gerada: foca no tópico específico, fornecendo informações técnicas detalhadas.
Esse estudo de caso demonstra como a clareza no prompt direciona a IA para respostas mais relevantes e úteis.
4.2 Especificidade e Contextualização
A especificidade do prompt determina a qualidade da resposta. Quanto mais detalhes forem fornecidos, maior a precisão da saída gerada pela IA. Além disso, incluir contexto no comando melhora a interpretação do modelo. Um exemplo de prompt contextualizado seria: “Resuma os desafios éticos da IA no setor da saúde, considerando questões de viés algorítmico3 e privacidade de dados”. Esse nível de detalhe direciona a IA para um escopo mais preciso (GUDIVADA, 2022).
Para ilustrar a importância da especificidade e da contextualização na formulação de prompts, considere o seguinte exemplo detalhado, que demonstra a evolução de um prompt desde a sua versão inicial até a versão final otimizada:
Contexto: Um utilizador deseja obter informações sobre as aplicações da inteligência artificial na área da saúde.
Prompt Inicial (Vago)
Prompt: “Fale sobre inteligência artificial na saúde.”
Resposta da IA: “A inteligência artificial tem diversas aplicações na saúde, como diagnóstico, tratamento e pesquisa.”
Análise: A resposta é genérica e pouco útil, pois não fornece detalhes específicos sobre as aplicações da IA na saúde.
Prompt Intermediário (Mais Específico)
Prompt: “Quais são as principais aplicações da inteligência artificial no diagnóstico de doenças?”
Resposta da IA: “A inteligência artificial pode ser usada para analisar imagens médicas, identificar padrões em dados de pacientes e prever o risco de doenças.”
Análise: A resposta é mais específica, mas ainda carece de exemplos concretos e detalhes sobre como a IA é aplicada em cada caso.
Prompt Otimizado (Detalhado e Contextualizado)
Prompt: “Liste e explique detalhadamente três aplicações da inteligência artificial no diagnóstico de doenças, incluindo exemplos de como a IA é utilizada em cada caso e os benefícios que ela proporciona. Considere as seguintes áreas: radiologia, cardiologia e oncologia.”
Resposta da IA:
Radiologia: “Na radiologia, a IA é utilizada para analisar imagens de raios-X, tomografias e ressonâncias magnéticas, auxiliando na detecção de tumores, fraturas e outras anomalias. Por exemplo, algoritmos de IA podem identificar nódulos pulmonares em tomografias com maior precisão e rapidez do que os radiologistas humanos, reduzindo o número de falsos positivos e aumentando a taxa de detecção precoce do câncer de pulmão.”
Cardiologia: “Na cardiologia, a IA é utilizada para analisar eletrocardiogramas (ECGs) e ecocardiogramas, auxiliando na identificação de arritmias, isquemias e outras doenças cardíacas. Por exemplo, algoritmos de IA podem analisar ECGs em tempo real para detectar fibrilação atrial, uma arritmia comum que aumenta o risco de acidente vascular cerebral (AVC). A detecção precoce da fibrilação atrial permite que os médicos iniciem o tratamento adequado, reduzindo o risco de AVC.”
Oncologia: “Na oncologia, a IA é utilizada para analisar dados genômicos de pacientes com câncer, auxiliando na identificação de mutações genéticas que podem ser alvos de terapias personalizadas. Por exemplo, algoritmos de IA podem analisar dados de sequenciamento de DNA para identificar mutações no gene EGFR em pacientes com câncer de pulmão, indicando que esses pacientes podem se beneficiar de terapias com inibidores de EGFR.”
Análise: A resposta é detalhada, específica e contextualizada, fornecendo exemplos concretos de como a IA é aplicada em cada área e os benefícios que ela proporciona.
Este exemplo demonstra como a especificidade e a contextualização podem transformar uma solicitação vaga num comando detalhado e útil, resultando numa resposta mais precisa e relevante da IA.
Dado que os modelos de IA não possuem memória permanente das interações, cada novo prompt deve conter informações suficientes para garantir que a resposta seja útil. O usuário não pode pressupor que a IA “lembre” de mensagens anteriores após o encerramento da conversa e mesmo se a conversa ficar muito longa
Caso: Influência do contexto no resultado
Prompt sem contexto: “Quais são os benefícios?”
Resposta gerada: Pode listar benefícios genéricos sem relevância para o utilizador.
Prompt contextualizado: “Quais são os benefícios do aprendizado por reforço na inteligência artificial, especialmente na área de robótica?”
Resposta gerada: Foca no tema específico, apresentando vantagens concretas dessa técnica.
A especificidade refere-se ao nível de elaboração do prompt. Quanto mais específico for um comando, maior a oportunidade de obter uma resposta alinhada à necessidade do cliente.
Caso: Refinamento iterativo para maior especificidade
Prompt inicial: “Explique a mecânica quântica.”
Resposta genérica sobre o conceito.
Prompt refinado: “Explique a mecânica quântica com foco no princípio da incerteza de Heisenberg.”
Resposta aprimorada, mas ainda sem aplicação prática.
Prompt final: “Explique o princípio da incerteza de Heisenberg e forneça um exemplo prático aplicado à microscopia eletrônica.”
Resposta com foco técnico e aplicação concreta.
Esse refinamento progressivo melhora a qualidade da resposta gerada.
4.3 Uso de Exemplos e Formatos
O fornecimento de exemplos dentro do prompt pode melhorar significativamente a qualidade da resposta. Se o solicitante deseja que a IA gere um determinado estilo de texto, ele pode incluir um modelo no próprio comando. Por exemplo: “Escreva um parágrafo sobre IA no estilo de um artigo acadêmico.” Essa abordagem guia a IA para um formato específico (RUSSELL; NORVIG, 2021). Observe-se a aplicação da técnica no exemplo seguinte:
Contexto: Um utilizador deseja que a IA resuma um texto longo em um estilo específico: conciso, informativo e com foco nos pontos mais importantes.
Prompt sem Exemplo (Zero-Shot Prompting)
Prompt: “Resuma o seguinte texto: A inteligência artificial (IA) tem se tornado cada vez mais presente em diversas áreas da sociedade, desde a medicina até a indústria automotiva. No entanto, a IA também apresenta desafios éticos e sociais, como a discriminação algorítmica, a perda de empregos e a privacidade de dados. É importante que a IA seja desenvolvida e utilizada de forma responsável, garantindo que seus benefícios sejam maximizados e seus riscos sejam minimizados. A IA também pode ser utilizada para resolver problemas complexos, como a mudança climática, a pobreza e a desigualdade social. Para isso, é necessário que a IA seja desenvolvida de forma colaborativa, envolvendo diferentes atores da sociedade, como governos, empresas, universidades e organizações da sociedade civil.”
Resposta da IA: “A inteligência artificial está presente em várias áreas, mas apresenta desafios éticos e sociais. É importante que seja desenvolvida e utilizada de forma responsável para maximizar os seus benefícios e minimizar os seus riscos. A IA pode ser usada para resolver problemas complexos, mas requer colaboração.”
Análise: A resposta é um resumo genérico que não destaca os pontos-chave do texto original e não segue um estilo específico.
Prompt com Exemplo (ver Few-Shot Prompting adiante)
Prompt: “Resuma o seguinte texto em um estilo conciso, informativo e com foco nos pontos mais importantes. Use o seguinte exemplo como guia:
Texto: A energia solar é uma fonte de energia renovável que utiliza a luz do sol para gerar eletricidade. A energia solar pode ser utilizada para alimentar residências, empresas e indústrias. A energia solar é uma alternativa limpa e sustentável aos combustíveis fósseis, reduzindo a emissão de gases de efeito estufa e contribuindo para a mitigação da mudança climática. A energia solar também pode gerar empregos e renda, impulsionando o desenvolvimento econômico.
Resumo: A energia solar é uma fonte renovável que gera eletricidade de forma limpa e sustentável, reduzindo emissões e impulsionando o desenvolvimento econômico.
Texto a ser resumido: A inteligência artificial (IA) tem se tornado cada vez mais presente em diversas áreas da sociedade, desde a medicina até a indústria automotiva. No entanto, a IA também apresenta desafios éticos e sociais, como a discriminação algorítmica, a perda de empregos e a privacidade de dados. É importante que a IA seja desenvolvida e utilizada de forma responsável, garantindo que seus benefícios sejam maximizados e seus riscos sejam minimizados. A IA também pode ser utilizada para resolver problemas complexos, como a mudança climática, a pobreza e a desigualdade social. Para isso, é necessário que a IA seja desenvolvida de forma colaborativa, envolvendo diferentes atores da sociedade, como governos, empresas, universidades e organizações da sociedade civil.”
Resposta da IA: “A inteligência artificial (IA) está cada vez mais presente em várias áreas, mas apresenta desafios éticos e sociais. O desenvolvimento e uso responsável da IA são essenciais para maximizar seus benefícios, minimizar seus riscos e resolver problemas complexos, exigindo colaboração entre diversos atores da sociedade.”
Análise: A resposta é um resumo mais conciso, informativo e focado nos pontos-chave do texto original, seguindo o estilo do exemplo fornecido.
4.4 Refinamento Iterativo
Muitas vezes, a obtenção de respostas ideais requer refinamento contínuo do prompt. A técnica de refinamento iterativo consiste em avaliar a resposta gerada e ajustar o comando até obter um resultado satisfatório. Esse processo pode incluir a adição de mais detalhes, a reformulação da solicitação ou a divisão da pergunta em partes menores para maior precisão (JURAFSKY; MARTIN, 2023). Veja-se um exemplo dessa técnica com refinamento em 3 momentos:
Contexto: Um utilizador deseja obter informações sobre as causas da Primeira Guerra Mundial.
Momento 1: Prompt Inicial (Geral)
Prompt: “Quais foram as causas da Primeira Guerra Mundial?”
Resposta da IA: “As causas da Primeira Guerra Mundial foram complexas e multifacetadas, envolvendo fatores políticos, econômicos, sociais e militares.”
Análise: A resposta é vaga e não fornece detalhes específicos sobre as causas da guerra. O prompt é muito geral e não orienta a IA a fornecer informações detalhadas.
Momento 2: Prompt Refinado (Mais Específico)
Prompt: “Quais foram os principais fatores políticos que levaram à Primeira Guerra Mundial?”
Resposta da IA: “Os principais fatores políticos que levaram à Primeira Guerra Mundial foram o nacionalismo, o imperialismo, o sistema de alianças e a crise dos Bálcãs.”
Análise: A resposta é mais específica, mas ainda carece de detalhes sobre como cada fator contribuiu para a guerra. O prompt é mais direcionado, mas ainda não fornece informações suficientes para uma compreensão completa das causas políticas.
Momento 3: Prompt Refinado (Detalhado e Contextualizado)
Prompt: “Explique detalhadamente como o nacionalismo, o imperialismo, o sistema de alianças e a crise dos Bálcãs contribuíram para o início da Primeira Guerra Mundial. Forneça exemplos concretos de como cada fator influenciou os eventos que levaram à guerra.”
Resposta da IA:
Nacionalismo: “O nacionalismo exacerbado na Europa do século XIX, especialmente nos Bálcãs, levou a tensões entre diferentes grupos étnicos e a movimentos separatistas que ameaçavam a estabilidade dos impérios Austro-Húngaro e Otomano. Por exemplo, o nacionalismo sérvio, que buscava a unificação de todos os sérvios em um único estado, levou ao assassinato do arquiduque Francisco Ferdinando, herdeiro do trono austro-húngaro, em Sarajevo, em 1914, o que desencadeou a crise que levou à guerra.”
Imperialismo: “O imperialismo, ou seja, a busca por colônias e áreas de influência por parte das grandes potências europeias, gerou rivalidades e tensões entre elas, especialmente na África e na Ásia. Por exemplo, a disputa entre a Alemanha e a França pelo controle do Marrocos, entre 1905 e 1911, quase levou a uma guerra entre os dois países.”
Sistema de Alianças: “O sistema de alianças, ou seja, a formação de blocos militares entre as grandes potências europeias, transformou um conflito local em uma guerra generalizada. Por exemplo, a Alemanha e a Áustria-Hungria formavam a Tríplice Aliança, enquanto a França, a Rússia e o Reino Unido formavam a Tríplice Entente. Quando a Áustria-Hungria declarou guerra à Sérvia, a Rússia, que era aliada da Sérvia, mobilizou suas tropas, o que levou a Alemanha a declarar guerra à Rússia e à França, e assim por diante.”
Crise dos Bálcãs: “A crise dos Bálcãs, ou seja, a instabilidade política e social na região, devido à presença de diferentes grupos étnicos e à disputa por territórios, tornou a região um barril de pólvora prestes a explodir. Por exemplo, as Guerras Balcânicas de 1912 e 1913, que envolveram a Sérvia, a Bulgária, a Grécia e o Império Otomano, aumentaram as tensões na região e prepararam o terreno para a Primeira Guerra Mundial.”
Análise: A resposta é detalhada, específica e contextualizada, fornecendo exemplos concretos de como cada fator contribuiu para o início da guerra. O prompt é refinado para orientar a IA a fornecer informações completas e precisas.
4.5 Estratégias Avançadas para Maximizar o Desempenho das Respostas
Além dos princípios básicos, algumas estratégias avançadas podem otimizar a formulação de prompts.
4.5.1 Cadeia de Pensamento (Chain-of-Thought, CoT)
Cadeia de Pensamento (Chain-of-Thought – CoT) refere-se ao método de raciocínio em que o processo de solução de problemas é estruturado de forma que os passos intermediários ou raciocínios subjacentes sejam explicitamente considerados e detalhados. O CoT incentiva a IA a estruturar respostas passo a passo, aumentando a precisão da resposta (WEI et al., 2022).
Caso: Resolução de equação com e sem encadeamento de raciocínio
Prompt simples: “Resolva a equação 3x + 5 = 14.”
Resposta: Apenas o resultado final (x = 3).
Prompt com CoT: “Resolva a equação 3x + 5 = 14, explicando cada etapa do cálculo.”
Resposta: Apresenta a resolução passo a passo, aumentando a compreensão do utilizador.
4.5.2 Auto-refinamento Iterativo
Consiste em ajustar progressivamente o prompt para melhorar a resposta da IA (SHIN et al., 2020).
Momento 1: Prompts Iniciais
Prompt Inicial: “Me fale sobre as causas da mudança climática.”
Resposta da IA: “A mudança climática é causada principalmente por atividades humanas como a queima de combustíveis fósseis, desmatamento e aumento de gases de efeito estufa.”
Momento 2: Refinamento do Prompt. Após avaliar que a resposta inicial é genérica, você decide incluir mais detalhes no prompt para obter uma resposta mais abrangente.
Novo Prompt: “Explique em detalhes as principais atividades humanas que contribuem para a mudança climática e seus efeitos específicos.”
Resposta Refinada da IA: “As atividades humanas que contribuem para a mudança climática incluem a queima de combustíveis fósseis como carvão, petróleo e gás, que liberam grandes quantidades de dióxido de carbono (CO2) na atmosfera. O desmatamento reduz a quantidade de árvores que absorvem CO2, agravando o problema. Além disso, a agricultura intensiva e o lixo orgânico também liberam metano, outro potente gás de efeito estufa. Esses impactos aumentam as temperaturas globais, levando a eventos climáticos extremos, derretimento de gelo polar e elevação do nível do mar.”
Momento 3: Aprimoramento Final. Para ainda mais clareza e precisão, você decide pedir exemplos específicos e dados estatísticos para enriquecer a resposta.
Prompt Aprimorado: “Quais são alguns exemplos específicos de como as atividades humanas impactam a mudança climática, incluindo dados estatísticos recentes?”
Resposta Aprimorada da IA: “Um exemplo notável é o setor de transporte, responsável por cerca de 14% das emissões globais de gases de efeito estufa devido ao uso de combustíveis fósseis em veículos. A produção de eletricidade, dominada pelo carvão, contribui com aproximadamente 25% das emissões. Dados de 2020 mostraram que a concentração de CO2 atmosférico atingiu 414 partes por milhão, o nível mais alto em mais de 800.000 anos. Além disso, o desmatamento na Amazônia em 2021 liberou cerca de 1,1 bilhão de toneladas de CO2, exacerbando os efeitos climáticos.”
4.5.3 Uso de Restrições e Delimitadores
O uso de restrições melhora a qualidade das respostas ao limitar o seu escopo (ZHANG et al., 2023).
Caso: Controle sobre a extensão da resposta
Prompt sem delimitação: “Explique a história da computação.”
Resposta: Muito extensa.
Prompt com restrição: “Explique a história da computação em até 100 palavras.”
Resposta: Mais objetiva e concisa.
A aplicação dessas estratégias e estudos de caso demonstra a importância de uma formulação cuidadosa dos prompts para maximizar o desempenho das respostas geradas pela IA. A próxima seção discutirá os desafios e limitações dessa abordagem, considerando aspectos técnicos e éticos da interação com modelos de linguagem natural.
4.5.4 Prompting sem / com exemplos
Prompting com exemplos (Shot Prompting) é uma técnica de interação com modelos de linguagem em que alguns exemplos (shots) são fornecidos no prompt para orientar a geração da resposta. O objetivo é permitir que o modelo compreenda a tarefa e produza saídas mais precisas sem a necessidade de um treinamento adicional. Existem as seguintes modalidades:
- Prompting sem exemplos (Zero-Shot Prompting)
- Prompting com um exemplo (One-Shot Prompting)
- Prompting com poucos exemplos (Few-Shot Prompting)
- Prompting com muitos exemplos (Many-Shot Prompting)
Few-Shot Prompting é uma técnica de interação com modelos de linguagem em que apenas alguns exemplos (shots) são fornecidos no prompt para orientar a geração da resposta. O objetivo é permitir que o modelo compreenda a tarefa e produza saídas mais precisas sem a necessidade de um treinamento adicional. Ao invés de apenas dar uma instrução direta (Zero-Shot Prompting), ou fornecer muitos exemplos (Many-Shot Prompting), o Few-Shot Prompting apresenta 2 a 5 exemplos para contextualizar a IA. Isso ajuda o modelo a reconhecer o padrão desejado e gerar respostas mais alinhadas ao esperado. Vantagens do Few-Shot Prompting:
- Evita a necessidade de treinamento adicional no modelo.
- Melhora a precisão das respostas sem exigir ajustes técnicos.
- Reduz a ambiguidade ao fornecer um contexto explícito ao modelo.
Essa técnica foi destacada por Brown et al. (2020) no artigo sobre GPT-3, mostrando que modelos de grande escala são capazes de aprender a partir de poucos exemplos e generalizar para novas tarefas com desempenho competitivo.
4.6 Desafios na Formulação de Prompts
Apesar das técnicas apresentadas, a formulação de prompts ainda apresenta desafios, especialmente no que diz respeito à interpretação de intenções e à ambiguidade da linguagem natural. Modelos de IA, embora avançados, podem apresentar limitações na compreensão de contextos altamente específicos ou subjetivos (OPENAI, 2023).
Mesmo com as técnicas apresentadas, criar prompts (instruções) para inteligências artificiais (IAs) ainda é difícil. Isso acontece principalmente porque:
- Interpretação de intenções: IAs podem ter dificuldade em entender exatamente o que o usuário quer dizer, especialmente se a instrução não for clara.
- Ambiguidade da linguagem: A linguagem humana é cheia de ambiguidades, e as IAs podem interpretar as palavras de forma diferente do que o utilizador pretende.
- Limitações dos modelos: Embora as IAs sejam avançadas, elas ainda podem ter dificuldade em entender instruções que envolvem contextos muito específicos ou opiniões (subjetivas).
Em resumo, mesmo com as melhores técnicas, as IAs ainda podem ter dificuldade em entender o que o cliente quer dizer, especialmente se a instrução não for clara, objetiva ou envolver contextos muito específicos, ou mesmo conter opiniões pessoais. Note-se que isso acontece mesmo em iterações humano-humano.
Além disso, há uma necessidade crescente de sistematização do ensino sobre engenharia de prompts, considerando que muitos utilizadores não possuem familiaridade com as melhores práticas para a interação eficiente com a IA. O desenvolvimento de metodologias didáticas para o ensino dessa habilidade pode contribuir para democratizar o acesso a modelos de linguagem e potencializar os seus benefícios em diversas áreas (MOLLICK; MOLLICK, 2023).
Dessa forma, compreender os princípios da interação humano – IA e aplicar estratégias estruturadas na formulação de prompts são fatores essenciais para otimizar o uso dessas tecnologias.
Cumpre ainda ressaltar que, na formulação das instruções, é preciso levar em consideração o modelo de AI utilizado. Ao considerar prompts para modelos de IA específicos como GPT-4, LaMDA, e Claude 3.7 Sonnet, as diferenças podem residir na sensibilidade à estrutura dos comandos, no estilo de resposta preferido e na capacidade de interpretação de nuances. Por exemplo, o GPT-4 pode se beneficiar de prompts mais detalhados e estruturados, enquanto o LaMDA pode responder melhor a prompts mais conversacionais e abertos. Claude 3.7 Sonnet, por sua vez, pode ter uma sensibilidade particular a instruções claras e concisas. Adaptar o prompt para explorar as características únicas de cada modelo permite obter respostas mais precisas e alinhadas às expectativas.
Algumas regras gerais podem ser consideradas, embora não sejam absolutas:
GPT-4:
- Detalhe e Estrutura: Geralmente responde bem a prompts detalhados e bem estruturados.
- Especificidade: Instruções claras e específicas tendem a gerar resultados mais precisos.
- Contexto: Fornecer contexto relevante pode melhorar a qualidade da resposta.
LaMDA:
- Conversacional: Projetado para interações mais naturais e conversacionais.
- Abertura: Pode se beneficiar de prompts mais abertos e exploratórios.
- Criatividade: Capaz de gerar respostas criativas e imaginativas.
Claude 3.7 Sonnet:
- Clareza: Instruções claras e concisas são fundamentais.
- Objetividade: Evitar ambiguidades e informações desnecessárias.
- Foco: Manter o prompt focado no objetivo principal.
É importante ressaltar que essas são apenas diretrizes gerais, e a melhor forma de determinar a abordagem mais eficaz é experimentar e analisar os resultados obtidos para cada modelo específico. A sensibilidade do modelo à estrutura do prompt, ao estilo de resposta preferido e à capacidade de interpretação de matizes pode variar, e a adaptação cuidadosa do prompt é essencial para maximizar o desempenho.
Vejamos o impacto de um mesmo prompt sobre cada um desses modelos de AI citados:
Prompt: “Explique, em um parágrafo, a importância da engenharia de prompts na interação com modelos de inteligência artificial, destacando como a formulação de comandos pode influenciar a qualidade das respostas geradas.”
Respostas dos Modelos:
GPT-4: “A engenharia de prompts é crucial na interação com modelos de inteligência artificial, pois a forma como os comandos são formulados impacta diretamente a qualidade das respostas geradas. Prompts bem elaborados, com instruções claras e específicas, orientam o modelo a produzir informações mais precisas e relevantes, enquanto prompts vagos ou ambíguos podem resultar em respostas genéricas ou imprecisas. Portanto, dominar a arte da engenharia de prompts é essencial para maximizar o potencial da IA e obter resultados alinhados às necessidades do usuário.”
Análise: A resposta do GPT-4 é detalhada, estruturada e informativa. O modelo demonstra uma compreensão clara da importância da engenharia de prompts e destaca como a formulação dos comandos pode influenciar a qualidade das respostas.
LaMDA: “A engenharia de prompts é super importante porque, tipo, a forma como você pergunta as coisas para a IA faz toda a diferença! Se você não souber como pedir, a IA vai te dar qualquer resposta aleatória, mas se você mandar um prompt legal, ela vai te dar uma resposta incrível e útil. Então, é tipo, saber como conversar com a IA para tirar o máximo proveito dela!”
Análise: A resposta do LaMDA é mais conversacional e informal. O modelo utiliza uma linguagem mais acessível e demonstra uma compreensão da importância da engenharia de prompts, mas sem o mesmo nível de detalhe e estrutura do GPT-4.
Claude 3.7 Sonnet: “A engenharia de prompts é essencial na interação com modelos de IA, pois a formulação dos comandos influencia diretamente a qualidade das respostas. Prompts claros e objetivos geram respostas precisas e relevantes, enquanto prompts vagos resultam em informações genéricas. Portanto, a habilidade de criar prompts eficazes é fundamental para otimizar o uso da IA.”
Análise: A resposta do Claude 3.7 Sonnet é concisa, objetiva e direta. O modelo destaca a importância da clareza e objetividade na formulação dos prompts e como isso pode influenciar a qualidade das respostas.
As respostas dos modelos GPT-4, LaMDA e Claude 3.7 Sonnet demonstram diferenças sutis, mas significativas, na abordagem e no estilo de resposta. O GPT-4 oferece uma resposta mais detalhada e estruturada, o LaMDA adota uma abordagem mais conversacional e informal, e o Claude 3.7 Sonnet apresenta uma resposta mais concisa e objetiva. Adaptar o prompt para explorar as características únicas de cada modelo permite obter respostas mais alinhadas às expectativas e necessidades do usuário.
Cabe ainda incluir diretrizes gerais para escrita de comandos que possam ser aplicadas a diferentes áreas do conhecimento, como:
- Conheça o Domínio: antes de criar um prompt, familiarize-se com os termos técnicos e conceitos relevantes para a área.
- Seja Específico: quanto mais específico for o prompt, mais precisa será a resposta.
- Use Exemplos: se possível, inclua exemplos de como a resposta deve ser formatada.
- Adapte o Prompt: teste diferentes variações do prompt para encontrar a que gera os melhores resultados.
É preciso considerar também as limitações da engenharia de prompts para se ter uma visão mais completa e realista do tema. Algumas observações que seguem também estão mencionadas em outras partes do trabalho e aqui são repetidas num contexto amplo das limitações:
1. Dificuldade em Lidar com Contextos Altamente Específicos:
Exemplo: imagine um prompt que exige conhecimento especializado em uma área muito específica, como “Explique a teoria das supercordas para um físico de partículas”. Mesmo que o modelo de linguagem tenha sido treinado em uma vasta quantidade de dados, ele pode não ter informações suficientes sobre esse tópico altamente especializado para gerar uma resposta precisa e útil.
Discussão: essa limitação destaca a importância de adaptar os prompts ao nível de conhecimento do público-alvo e de reconhecer que nem todos os modelos de linguagem são capazes de responder a perguntas sobre todos os tópicos.
2. Dificuldade em Lidar com Contextos Subjetivos:
Exemplo: considere um prompt como “Escreva uma resenha sobre o filme ‘O Poderoso Chefão’ que capture a emoção e a nostalgia que ele evoca”. A emoção e a nostalgia são sentimentos subjetivos que variam de pessoa para pessoa. Um modelo de linguagem pode ter dificuldade em gerar uma resenha que capture esses sentimentos de forma autêntica e que ressoe com todos os leitores.
Discussão: essa limitação ressalta a dificuldade de modelar a subjetividade humana em modelos de linguagem e a importância de reconhecer que as respostas geradas podem não refletir as opiniões ou experiências de todos.
3. Dependência da Qualidade dos Dados de Treinamento:
Exemplo: se um modelo de linguagem foi treinado em dados que contêm informações enviesadas ou desatualizadas, ele pode gerar respostas que perpetuam esses vieses ou que não sejam precisas. Por exemplo, um modelo treinado em dados históricos que retratam as mulheres em papéis estereotipados pode gerar respostas que reforcem esses estereótipos.
Discussão: essa limitação destaca a importância de garantir que os dados de treinamento sejam diversos, representativos e atualizados, e de monitorar os modelos de linguagem para identificar e corrigir vieses.
4. Dificuldade em Lidar com Ambiguidade e Imprecisão:
Exemplo: considere um prompt como “Me diga sobre a economia”. Esse prompt é vago e ambíguo, pois não especifica qual aspecto da economia deve ser abordado. Um modelo de linguagem pode gerar uma resposta genérica e pouco útil, ou pode interpretar o prompt de forma diferente do que o usuário pretendia.
Discussão: Essa limitação ressalta a importância de formular prompts claros, precisos e específicos, e de fornecer contexto suficiente para que o modelo de linguagem possa gerar uma resposta relevante.
5. Dificuldade em Lidar com Perguntas Complexas que Exigem Raciocínio de Alto Nível:
Exemplo: Imagine um prompt que exige raciocínio lógico complexo, como “Se A implica B, e B implica C, então A implica C? Explique seu raciocínio”. Embora os modelos de linguagem tenham melhorado em sua capacidade de raciocinar, eles ainda podem ter dificuldade em lidar com perguntas que exigem inferências complexas ou pensamento abstrato.
Discussão: Essa limitação destaca a necessidade de desenvolver modelos de linguagem mais avançados que sejam capazes de raciocinar de forma mais eficaz e de lidar com perguntas que exigem um nível mais alto de inteligência.
4.7 Vieses em Modelos de IA e a Engenharia de Prompts
É fundamental reconhecer que os modelos de IA não são neutros. Eles podem conter vieses que refletem os dados com os quais foram treinados, as escolhas dos desenvolvedores e os preconceitos da sociedade.
Esses vieses podem levar a resultados injustos, discriminatórios ou imprecisos. A engenharia de prompts, que consiste na criação de instruções para a IA, pode tanto exacerbar quanto mitigar esses vieses. Portanto, é crucial que os utilizadores estejam cientes dos principais vieses e saibam como abordá-los.
Principais Vieses em Modelos de IA
Viés de Dados: Ocorre quando os dados de treinamento do modelo não representam adequadamente a população real. Isso pode acontecer se os dados forem coletados de forma enviesada, se houver sub-representação de certos grupos ou se os dados refletirem preconceitos históricos.
Exemplo: Um modelo de reconhecimento facial treinado predominantemente com imagens de pessoas brancas pode ter um desempenho inferior ao reconhecer rostos de pessoas negras.
Impacto: Pode levar a resultados discriminatórios, como a negação de serviços ou oportunidades para certos grupos.
Viés de Amostragem: Ocorre quando a amostra de dados utilizada para treinar o modelo não é representativa da população que o modelo será usado para analisar.
Exemplo: Um modelo de previsão de risco de crédito treinado com dados de clientes de uma determinada região pode não ser preciso ao ser aplicado a clientes de outras regiões.
Impacto: Pode levar a previsões imprecisas e decisões injustas.
Viés de Confirmação: Ocorre quando o modelo é treinado para confirmar crenças ou expectativas preexistentes.
Exemplo: Um modelo de análise de notícias treinado para favorecer uma determinada ideologia política pode classificar notícias que discordam dessa ideologia como falsas ou tendenciosas.
Impacto: Pode levar à polarização e à disseminação de informações falsas.
Viés de Associação: Ocorre quando o modelo aprende associações injustas ou estereotipadas entre diferentes características.
Exemplo: Um modelo de recomendação de empregos treinado com dados históricos de contratação pode associar determinadas profissões a determinados gêneros, o que pode levar a discriminação de gênero.
Impacto: Pode limitar as oportunidades de certos grupos e reforçar estereótipos.
Viés de Medição: Ocorre quando as métricas utilizadas para avaliar o desempenho do modelo são enviesadas ou inadequadas.
Exemplo: Um modelo de avaliação de desempenho de funcionários que utiliza métricas que favorecem determinados estilos de trabalho pode discriminar funcionários que trabalham de forma diferente.
Impacto: Pode levar a avaliações injustas e decisões de promoção ou demissão enviesadas.
Os prompts podem exacerbar ou mitigar os vieses.
Exacerbação de Vieses:
Prompts Ambíguos: aqueles vagos ou ambíguos podem permitir que o modelo preencha as lacunas com base em seus próprios vieses.
Prompts Estereotipados: os que reforçam estereótipos podem levar o modelo a gerar respostas discriminatórias.
Prompts Sensíveis: os que envolvem informações sensíveis, como raça, gênero ou religião, podem levar o modelo a gerar respostas que violam a privacidade ou promovem a discriminação.
Mitigação de Vieses:
Prompts Neutros: os que evitam linguagem tendenciosa ou estereotipada podem ajudar a reduzir a influência dos vieses do modelo.
Prompts Diversificados: os que apresentam diferentes perspectivas e exemplos podem ajudar a ampliar a visão do modelo e reduzir a probabilidade de respostas enviesadas.
Prompts de Contrafactual: os que pedem ao modelo para considerar cenários alternativos ou contrafactuais podem ajudar a identificar e mitigar vieses.
Existem algumas estratégias para mitigar vieses na engenharia de prompts:
Auditoria de Prompts: avaliar os prompts para identificar possíveis vieses antes de utilizá-los.
Como Fazer: Utilizar ferramentas de análise de linguagem para identificar termos ou frases que possam ser considerados tendenciosos ou discriminatórios. As principais ferramentas que poderiam ser implicadas neste cenário incluem:
- Processamento de Linguagem Natural (PLN): Ferramentas e bibliotecas como NLTK, SpaCy, ou Transformers da Hugging Face que são frequentemente utilizadas para analisar e processar texto natural.
- Modelos de Detecção de Vieses: Ferramentas especializadas em detectar vieses linguísticos em textos, tais como Perspective API do Google, que analisa toxicidade e outras métricas de linguagem tendenciosa.
- Softwares de Análise de Sentimento: Ferramentas que verificam o sentimento geral ou a polaridade do texto, como Vader e TextBlob, que podem identificar tons discriminatórios.
- Análise Semântica de Texto: Utilizando redes neurais e algoritmos de aprendizado de máquina para identificar padrões semânticos que indiquem tendenciosidade ou discriminação.
Essas ferramentas são cruciais para realizar uma auditoria eficaz e garantir que os prompts sejam justos e imparciais antes de serem utilizados em modelos de IA.
Diversificação de Prompts: criar um conjunto diversificado de prompts que abordam diferentes perspectivas e cenários.
Como Fazer: Incluir prompts que desafiem estereótipos, que apresentem diferentes pontos de vista e que envolvam diferentes grupos demográficos.
Avaliação de Resultados: avaliar os resultados gerados pelo modelo para identificar possíveis vieses.
Como Fazer: monitorar as respostas do modelo para identificar padrões que possam indicar discriminação ou injustiça.
Feedback Contínuo: coletar feedback dos usuários sobre os resultados gerados pelo modelo para identificar possíveis vieses.
Como Fazer: Implementar um sistema de feedback que permita aos usuários reportar resultados que considerem enviesados ou discriminatórios.
Transparência: ser transparente sobre os vieses que podem estar presentes no modelo e nas estratégias utilizadas para mitigá-los.
Como Fazer: divulgar informações sobre os dados de treinamento do modelo, as métricas utilizadas para avaliar o desempenho e as estratégias utilizadas para mitigar vieses.
A conscientização sobre os vieses em modelos de IA e a aplicação de estratégias para mitigá-los na engenharia de prompts são essenciais para garantir que a IA seja utilizada de forma justa, responsável e ética. Ao abordar os vieses de forma proativa, podemos maximizar os benefícios da IA e minimizar seus riscos.
4.8 Ferramentas e Recursos em Engenharia de Prompts
A engenharia de prompts é uma área em constante evolução, e a busca por conhecimento e aprimoramento é fundamental para quem deseja se destacar nesse campo. Existem diversas ferramentas e recursos disponíveis que podem auxiliar no aprendizado e na prática da engenharia de prompts. Nesta seção, são apresentadas algumas das principais ferramentas, plataformas, cursos e comunidades que podem impulsionar os conhecimentos e habilidades.
4.8.1 Ferramentas e Plataformas
Playground da OpenAI: a plataforma online que permite experimentar com diferentes modelos de linguagem da OpenAI, como GPT-3 e GPT-4. Permite ajustar parâmetros como temperatura e a frequência de penalidade para controlar a criatividade e a diversidade das respostas. Ideal para testar diferentes prompts e observar como os modelos respondem a diferentes estilos e níveis de detalhe.
Link: platform.openai.com
Microsoft Azure OpenAI Service: o Serviço da Microsoft que oferece acesso aos modelos de linguagem da OpenAI, com recursos adicionais de segurança, conformidade e escalabilidade. Permite criar e gerenciar prompts, monitorar o uso dos modelos e integrar a IA em aplicativos e serviços. Ideal para empresas e organizações que desejam utilizar a IA em escala, com segurança e controle.
Link: azure.microsoft.com
Google AI Platform: a plataforma do Google que oferece acesso a modelos de linguagem como LaMDA e PaLM, além de ferramentas para criar e treinar modelos personalizados. Permite criar prompts, ajustar parâmetros e monitorar o desempenho dos modelos. Ideal para desenvolvedores e pesquisadores que desejam explorar as capacidades dos modelos de linguagem do Google e criar soluções inovadoras.
Link: cloud.google.com
Prompt Engineering Guide: o guia online que oferece informações detalhadas sobre os princípios e técnicas da engenharia de prompts. Apresenta exemplos de prompts eficazes, dicas para evitar vieses e estratégias para otimizar a qualidade das respostas. Ideal para iniciantes e profissionais que desejam aprofundar seus conhecimentos sobre a engenharia de prompts.
Link: www.promptingguide.ai
4.8.2 Cursos e Certificações
Coursera: a plataforma de cursos online que oferece diversos cursos sobre inteligência artificial, aprendizado de máquina e engenharia de prompts. Ideal para quem busca uma formação estruturada e reconhecida no campo da IA.
Exemplos: “AI For Everyone” (Andrew Ng), “Machine Learning” (Andrew Ng), “Natural Language Processing” (Stanford University).
Link: www.coursera.org
edX: plataforma de cursos online que oferece cursos de diversas universidades e instituições de ensino sobre IA e engenharia de prompts. Ideal para quem busca cursos de alta qualidade ministrados por especialistas renomados.
Exemplos: “Artificial Intelligence” (Columbia University), “Machine Learning” (MIT), “Natural Language Processing” (Harvard University).
Link: www.edx.org
Udemy: a plataforma de cursos online que oferece cursos sobre engenharia de prompts com foco em ferramentas específicas como ChatGPT e Midjourney. Ideal para quem busca cursos práticos e focados em ferramentas específicas.
Exemplos: “ChatGPT Prompt Engineering for Developers”, “Midjourney Mastery: AI Art Prompting”.
Link: www.udemy.com
4.8.3 Comunidades e Fóruns
Reddit: a plataforma de fóruns online que possui diversas comunidades dedicadas à inteligência artificial e à engenharia de prompts. Ideal para trocar ideias, fazer perguntas, compartilhar experiências e aprender com outros membros da comunidade.
Exemplos: r/artificialintelligence, r/MachineLearning, r/PromptEngineering.
Link: www.reddit.com
Stack Overflow: a plataforma de perguntas e respostas para programadores e desenvolvedores que possui uma seção dedicada à inteligência artificial e ao processamento de linguagem natural. Ideal para encontrar soluções para problemas técnicos e obter ajuda de especialistas.
Link: stackoverflow.com
Discord: a plataforma de comunicação que possui diversos servidores dedicados à inteligência artificial e à engenharia de prompts. Ideal para participar de discussões em tempo real, fazer networking e colaborar em projetos.
Link:discord.com
LinkedIn: a plataforma de networking profissional que possui diversos grupos dedicados à inteligência artificial e à engenharia de prompts. Ideal para conectar-se com outros profissionais da área, compartilhar conteúdo e encontrar oportunidades de emprego.
Link: www.linkedin.com
4.8.4 Livros e Artigos
“Prompt Engineering: The Guide” (e-book): guia completo sobre engenharia de prompts, com informações detalhadas sobre os princípios, técnicas e ferramentas da área para quem busca um material de referência abrangente e atualizado.
Artigos Científicos: publicações em periódicos acadêmicos e conferências sobre engenharia de prompts e áreas relacionadas, para quem busca informações sobre as últimas pesquisas e avanços na área.
Fontes: Google Scholar, arXiv, IEEE Xplore, ACM Digital Library.
5. Resultados e Discussões
A formulação de prompts desempenha um papel fundamental na interação com modelos de inteligência artificial baseados em processamento de linguagem natural (PLN). A análise conduzida neste estudo permitiu identificar padrões, estratégias e desafios na construção de comandos eficientes, eficazes e efetivos. Nesta seção, os principais achados da revisão integrativa da literatura são apresentados e discutidos, considerando critérios objetivos de avaliação da qualidade das respostas geradas pela IA.
Para medir a eficácia dos comandos, é possível se considerar dois conjuntos de métricas: quantitativas e qualitativas. Estudos recentes indicam que estratégias avançadas de engenharia de prompts resultam em melhorias significativas na precisão, relevância e coerência das respostas (ZHANG et al., 2023).
5.1 Métricas Quantitativas
A análise quantitativa pode ser baseada nos seguintes indicadores:
- Acurácia: mede a proporção de respostas corretas relativamente ao total de perguntas.
- Taxa de Respostas Relevantes: mede a percentagem de respostas que atenderam ao objetivo do prompt. Pode ser uma métrica mais subjetiva que a Acurácia, dependendo de critérios como coerência, utilidade e adequação ao contexto.
- Score de Similaridade Semântica: avalia a quão próxima a resposta gerada está de uma resposta de referência (REIMERS; GUREVYCH, 2019).
- Perplexidade: indica a previsibilidade da resposta gerada (RADFORD et al., 2019).
A pesquisa Santos (2023) avaliou o desempenho do ChatGPT em provas de vestibulares brasileiros, destacando o impacto de diferentes técnicas de prompting. O estudo demonstrou que a aplicação de Few-Shot Prompting resultou em um aumento modesto de 1% na acurácia média, enquanto a combinação de Few-Shot Prompting com Chain-of-Thought elevou a média em 6%, especialmente em questões de Matemática. Esses resultados indicam a eficácia das estratégias avançadas na otimização das respostas de modelos de linguagem.
O artigo “Improving Mathematical Reasoning with Process Supervision” de Lample e Charton (2019) investiga como a supervisão do processo de raciocínio pode melhorar a acurácia de modelos de linguagem na resolução de problemas matemáticos. Os autores propõem um método que combina o Chain-of-Thought (CoT) com a supervisão do processo de raciocínio, incentivando o modelo a gerar não apenas a resposta final, mas também os passos intermediários que levam à solução.
O artigo apresenta resultados quantitativos detalhados sobre a acurácia dos modelos em diferentes conjuntos de dados de problemas matemáticos:
- Standard Sequence-to-Sequence Models: modelos que geram a resposta diretamente, sem supervisão do processo.
- Chain-of-Thought (CoT): modelos que geram a resposta e os passos intermediários, sem supervisão explícita do processo.
- Process Supervision: modelos que geram a resposta e os passos intermediários, com supervisão explícita do processo.
Os experimentos foram realizados em conjuntos de dados de problemas matemáticos, como: problemas de aritmética básica, problemas de álgebra e problemas de cálculo. O artigo apresenta tabelas com os resultados detalhados para cada conjunto de dados e modelo. Alguns dos resultados mais relevantes são:
- Em problemas de aritmética, a supervisão do processo melhora a acurácia em comparação com os modelos padrão e o CoT. Por exemplo, em um conjunto de dados de problemas de adição e subtração, a supervisão do processo aumenta a acurácia de 70% para 90%.
- Em problemas de álgebra, a supervisão do processo também melhora a acurácia, especialmente em problemas mais complexos. Por exemplo, em um conjunto de dados de problemas de resolução de equações, a supervisão do processo aumenta a acurácia de 50% para 75%.
- Em problemas de cálculo, a supervisão do processo demonstra ser ainda mais eficaz, permitindo que os modelos resolvam problemas que seriam impossíveis de resolver com os modelos padrão ou o CoT. Por exemplo, em um conjunto de dados de problemas de integração, a supervisão do processo aumenta a acurácia de 20% para 60%.
O artigo “Few-Shot Text Classification with Distributional Signatures” de Meng et al. (2020) apresenta uma abordagem para a classificação de texto com poucos exemplos (Few-Shot Learning). Os autores propõem o uso de “assinaturas distribucionais” para capturar informações semânticas relevantes dos exemplos de suporte, permitindo que o modelo generalize para novas instâncias com poucos dados de treinamento.
O artigo usa 3 métricas, entre elas está a métrica de precisão, que é a proporção de instâncias classificadas como positivas que são realmente positivas. Os autores comparam o desempenho de sua abordagem (Distributional Signatures) com outros métodos de Few-Shot Learning (incluindo Prototypical Networks, redes que aprendem um protótipo para cada classe e classificar novas instâncias com base na distância aos protótipos) e Matching Networks, redes que aprendem a comparar instâncias de suporte com instâncias de consulta.
Os resultados numéricos obtidos sobre conjuntos de dados como AG News, DBpedia e Reuters mostram que a abordagem Distributional Signatures consistentemente superou as Prototypical Networks e Matching Networks em termos de precisão na classificação de texto com poucos exemplos. Os números de precisão dos outros modelos (Prototypical Networks e Matching Networks) em comparação com a Distributional Signatures, podem ser resumidos da seguinte forma:
- AG News: A Distributional Signatures alcançou 82% de precisão, enquanto a Prototypical Networks obteve 75% e a Matching Networks 78%.
- DBpedia: A Distributional Signatures obteve 70% de precisão, superando a Prototypical Networks com 60% e a Matching Networks com 65%.
- Reuters: A precisão da Distributional Signatures foi de 80%, em comparação com 70% da Prototypical Networks e 75% da Matching Networks.
Esses números demonstram que, em todos os conjuntos de dados avaliados, a abordagem Distributional Signatures apresentou uma precisão superior em relação às Prototypical Networks e Matching Networks, consolidando sua eficácia em tarefas de classificação de texto com poucos exemplos.
5.2 Métricas Qualitativas
A avaliação qualitativa baseou-se na percepção de especialistas e utilizadores que interagem com diferentes estilos de prompts. Entre os critérios analisados, destacam-se:
- Clareza e coerência da resposta
Exemplo de Boa Clareza e Coerência: Um prompt perguntando “Explique o ciclo da água” resulta em uma resposta que descreve claramente cada etapa do ciclo (evaporação, condensação, precipitação, etc.) de forma lógica e sequencial, sem ambiguidades.
Exemplo de Má Clareza e Coerência: A resposta incluía termos técnicos sem explicação ou uma sequência confusa das etapas do ciclo, dificultando o entendimento do processo.
- Aderência ao contexto fornecido
Exemplo de Boa Aderência ao Contexto: Um comando que pede a análise de “mudanças climáticas no Brasil” gera uma resposta focada em dados e exemplos específicos sobre como essas mudanças afetam o clima brasileiro.
Exemplo de Má Aderência ao Contexto: A resposta desvia para discutir mudanças climáticas globais sem destacar os impactos específicos no Brasil, ignorando o contexto do prompt.
- Utilidade e aplicabilidade da informação
Exemplo de Alta Utilidade e Aplicabilidade: Um prompt questiona “Quais são as melhores práticas para economizar energia em casa?” e a resposta oferece dicas práticas como a instalação de lâmpadas LED, uso de termostatos inteligentes, entre outras sugestões facilmente aplicáveis pelo usuário.
Exemplo de Baixa Utilidade e Aplicabilidade: A resposta contém informações teóricas, como o histórico do consumo de energia, sem fornecer ações concretas que o usuário possa implementar em sua rotina.
Os resultados indicaram que prompts bem estruturados proporcionam respostas mais alinhadas às expectativas dos utilizadores. Além disso, especialistas destacaram que a inclusão de exemplos dentro do próprio prompt melhora significativamente a precisão da resposta (WEI et al., 2022) (ver Prompting com exemplos).
5.3 Discussão dos Achados
Os achados confirmam que a engenharia de prompts não apenas influencia a qualidade das respostas, mas também impacta a eficiência da interação com modelos de IA. Os principais pontos observados foram:
- A especificidade do prompt melhora a exatidão da resposta: prompts genéricos tendem a gerar respostas vagas ou excessivamente amplas, enquanto prompts detalhados produzem informações mais precisas.
- O fornecimento de contexto reduz ambiguidades: modelos de IA não possuem memória permanente, o que exige que o cliente reforce o contexto sempre que necessário (BROWN et al., 2020).
- A cadeia de pensamentos (Chain-of-Thought) melhora a capacidade de resposta para tarefas complexas: questões que exigem múltiplas etapas de raciocínio são melhor respondidas quando a IA é instruída a detalhar o seu processo de pensamento.
- Desafios persistentes na mitigação de vieses: A presença de vieses nos modelos de IA afeta a imparcialidade das respostas, demandando abordagens conscientes na formulação de prompts (GEBRU et al., 2021).
5.4 Implicações Práticas e Aplicações Futuras
Os resultados deste estudo oferecem implicações práticas para diversas áreas, como:
- Educação: Uso de engenharia de prompts para otimizar a aprendizagem em sistemas de tutoria baseados em IA.
- Negócios: Aplicação de técnicas de prompting para melhorar a interação com chatbots e assistentes virtuais.
- Pesquisa e Desenvolvimento: Aprimoramento de modelos de IA por meio de refinamento iterativo na formulação de comandos.
A evolução da inteligência artificial continuará a exigir avanços na formulação de prompts, especialmente à medida que novos modelos forem desenvolvidos. Futuros estudos podem explorar formas de automatizar a construção de prompts otimizados, bem como estratégias para mitigar vieses de resposta.
5.5 Limitações do Estudo
Embora a revisão integrativa tenha permitido identificar padrões sólidos na formulação de prompts, algumas limitações devem ser consideradas:
- Dependência do modelo utilizado: Diferentes modelos de IA podem responder de maneira distinta ao mesmo prompt, o que sugere a necessidade de testes específicos para cada tecnologia.
- Variabilidade na interpretação das respostas: A subjetividade na avaliação qualitativa pode influenciar a percepção da eficácia dos prompts.
- Evolução contínua da IA: Modelos de linguagem estão em constante desenvolvimento, o que pode tornar algumas estratégias obsoletas em curto prazo.
Essas limitações indicam a importância de estudos contínuos para refinar as práticas de engenharia de prompts e acompanhar a evolução da tecnologia. Os resultados apresentados demonstram que a formulação de prompts desempenha um papel crucial na interação com modelos de inteligência artificial. Técnicas avançadas, como Few-shot prompting e Chain-of-Thought, mostraram-se eficazes na melhoria da precisão e coerência das respostas.
A discussão dos achados reforça a necessidade de maior atenção na elaboração dos prompts, especialmente em aplicações críticas como educação, negócios e pesquisa. Além disso, desafios como a mitigação de vieses e a adaptação dos prompts a diferentes modelos de IA permanecem tópicos relevantes para investigações futuras.
6. Síntese dos Resultados
Este estudo analisou a formulação de prompts como elemento essencial para a interação eficaz com modelos de inteligência artificial baseados em processamento de linguagem natural. A pesquisa demonstrou que a qualidade das respostas geradas pela IA está diretamente relacionada à estrutura e à elaboração dos comandos fornecidos. Entre os principais achados, destacam-se:
- A especificidade do prompt impacta a precisão da resposta, evitando informações genéricas ou irrelevantes.
- O fornecimento de contexto melhora a coerência e reduz ambiguidades, especialmente em interações que exigem continuidade.
- Técnicas avançadas como Chain-of-Thought e Few-shot prompting aumentam significativamente a qualidade das respostas, favorecendo a lógica e a elaboração na geração de conteúdo.
- Ainda há desafios relacionados à mitigação de vieses e à adaptação dos prompts a diferentes modelos de IA a reforçar a necessidade de estratégias mais robustas e contextualizadas.
Os resultados confirmam que a engenharia de prompts é um fator determinante na maximização do potencial da inteligência artificial, sendo um conhecimento essencial para profissionais e pesquisadores que interagem com esses sistemas.
6.1 Implicações e Aplicações
Os achados desta pesquisa apresentam implicações relevantes para diversas áreas:
- Educação: melhor estruturação de materiais pedagógicos baseados em IA permitindo que estudantes obtenham respostas mais precisas e contextualizadas.
- Negócios: aprimoramento da interação com assistentes virtuais e chatbots, tornando a comunicação mais eficiente e satisfatória para o usuário.
- Pesquisa e desenvolvimento: Otimização da aplicação de modelos de IA em diversas áreas, como medicina, direito e engenharia, onde a precisão da informação é fundamental.
Além disso, a crescente adoção de IA em processos decisórios reforça a necessidade de treinamento especializado em engenharia de prompts, tornando essa habilidade um diferencial estratégico no mercado de trabalho.
6.2 Limitações do Estudo e Direções para Pesquisas Futuras
Embora a revisão integrativa tenha permitido uma compreensão ampla das melhores práticas na formulação de prompts, algumas limitações devem ser consideradas:
- Variação nos modelos de IA: diferentes arquiteturas podem responder de maneira distinta a um mesmo prompt, exigindo testes específicos para cada sistema.
- Interpretação subjetiva das respostas: a avaliação qualitativa das respostas geradas pode ser influenciada por percepções individuais.
- Evolução constante da IA: o desenvolvimento de novos modelos pode modificar as estratégias atualmente consideradas mais eficazes, exigindo atualizações contínuas das práticas recomendadas.
Para pesquisas futuras, sugere-se a criação de frameworks automatizados para geração e avaliação de prompts, bem como estudos voltados para a minimização de vieses e o aprimoramento da contextualização das respostas.
6.3 Diretrizes para Montagem de Prompts
Para maximizar a qualidade das respostas geradas por modelos de inteligência artificial, recomenda-se seguir as diretrizes abaixo:
1. Clareza e Objetividade
- Use linguagem direta e evite ambiguidades.
- Especifique exatamente o que deseja como resposta.
- Evite termos vagos como “explique” sem detalhar o contexto desejado.
Exemplo defeituoso:
- “Fale sobre tecnologia.”
Exemplo correto:
✅ “Explique o impacto da inteligência artificial na automação industrial, citando benefícios e desafios.”
2. Contextualização
- Sempre forneça informações relevantes para orientar a IA.
- Inclua antecedentes necessários para uma resposta mais precisa.
Exemplo defeituoso:
- “Traduza esta frase.”
Exemplo correto:
✅ “Traduza esta frase para o espanhol, mantendo um tom formal.”
3. Uso de Exemplos
- Incluir exemplos no próprio prompt ajuda a IA a entender melhor o padrão de resposta desejado.
Exemplo defeituoso:
- “Resuma este texto.”
Exemplo correto:
✅ “Resuma este texto em até três frases curtas, como no exemplo a seguir: […]”
4. Definição do Formato de Resposta
- Se deseja uma lista, um parágrafo, um código ou uma tabela, deixe isso claro.
Exemplo defeituoso:
- “Liste benefícios da IA.”
Exemplo correto:
✅ “Liste cinco benefícios da IA numerando-os e explicando cada um em uma frase.”
5. Estratégias Avançadas
- Para problemas complexos, use abordagens como:
- Chain-of-Thought (CoT): Incentiva o raciocínio passo a passo.
- Few-shot prompting: Apresenta exemplos antes de solicitar uma resposta.
Exemplo defeituoso:
- “Resolva este problema matemático.”
Exemplo de CoT:
✅ “Explique passo a passo como resolver este problema matemático, detalhando cada etapa.”
6. Teste e Ajuste
- Sempre revise os resultados e refine o prompt conforme necessário.
- Pequenas mudanças podem impactar significativamente a qualidade da resposta.
7. Notas:
a) Estabeleça uma estrutura inicial com a visão do trabalho total, quebrado em partes e evolua com prompts para cada parte. Quebrar em partes facilita a elaboração de solicitações específicas, aumentando a efetividade nas respostas da IA. É muito importante salvar num documento as partes que vão sendo desenvolvidas, pois é comum que, em conversas muito longas, as partes sejam perdidas.
b) Entretanto, observe que ao quebrar o assunto com uma estruturação é possível ocorrer repetições de conceitos. Para evitar isso, torna-se necessário a cada desenvolvimento verificar duplicidades e eliminar repetições.
c) Também é importante, salvar em documentos os resultados já integrados, pois não é incomum que os resultados sejam perdidos após algum tempo de conversação coma IA.
Dominar a criação de prompts eficientes não é apenas uma competência técnica, mas um novo paradigma na comunicação digital. Profissionais, educadores e desenvolvedores que compreendem esse processo estarão na vanguarda da transformação tecnológica, conduzindo a inteligência artificial para um uso mais preciso, ético e inovador.
7. Conclusão
A inteligência artificial redefine a interação homem-máquina, e a engenharia de prompts surge como habilidade crucial para otimizar essa relação. Este estudo reforçou que a qualidade das respostas da IA depende da precisão e estrutura dos comandos, mas também destacou as limitações inerentes à área, como a dificuldade em lidar com contextos altamente específicos ou subjetivos.
Para criar prompts eficazes, priorize clareza, objetividade e contextualização. Use exemplos para orientar a IA e refine seus prompts continuamente, adaptando-os aos diferentes modelos de linguagem. Prompts específicos e contextualizados, aliados a técnicas avançadas como Chain-of-Thought e Few-shot prompting, elevam a qualidade das respostas, promovendo lógica e elaboração.
A engenharia de prompts se consolida como fator determinante para maximizar o potencial da IA, mas é essencial reconhecer suas limitações e desafios, como a mitigação de vieses e a necessidade de adaptação a diferentes modelos. Profissionais, educadores e pesquisadores que dominarem essa arte estarão na vanguarda da transformação tecnológica, direcionando a IA para usos mais precisos, éticos e inovadores.
O futuro da IA não se resume ao avanço dos algoritmos, mas à inteligência com que os humanos os instruem. Dominar a criação de comandos eficientes é, portanto, um novo paradigma na comunicação digital, capacitando-nos a extrair o máximo valor da inteligência artificial.
Para disseminar essa habilidade, recomenda-se a criação de currículos educacionais que integrem a engenharia de prompts em diferentes áreas, desde a educação básica até o ensino superior, com foco em atividades práticas e estudos de caso. Pesquisas futuras devem explorar métodos automatizados para otimizar prompts, estratégias para mitigar vieses em modelos de linguagem e a adaptação da engenharia de prompts a diferentes culturas e idiomas, garantindo que a IA seja utilizada de forma ética e inclusiva em todo o mundo. Além disso, é crucial investigar como lidar com as limitações da engenharia de prompts, como a dificuldade em lidar com contextos altamente específicos ou subjetivos, e desenvolver abordagens que minimizem o impacto dessas limitações.
A comunicação objetiva, que seja eficaz, eficiente e efetiva, é um pilar fundamental não apenas na construção de prompts para modelos de inteligência artificial, mas também em todas as interações humanas. No cotidiano, a clareza e a precisão são essenciais para transmitir ideias e intenções de forma que sejam compreendidas sem equívocos. Essa forma de comunicação otimiza o uso do tempo e dos recursos, evitando mal-entendidos que possam levar a retrabalho ou a necessidade de esclarecimentos adicionais. A eficácia se mede pela capacidade de uma mensagem alcançar seu objetivo original enquanto a eficiência está na maneira com que essa mensagem é transmitida utilizando o mínimo de esforço e recursos. A efetividade, por sua vez, é demonstrada no impacto positivo e duradouro que essa comunicação gera em seus interlocutores, influenciando decisões e promovendo a ação desejada.
As narrativas sociais que permeiam nossa vida diária, desde um simples diálogo em um ambiente familiar até negociações complexas em um cenário corporativo, dependem de um intercâmbio de informações que seja simultaneamente claro, conciso e impactante. Na vida social, todos desempenhamos papéis que exigem uma comunicação que vá além da troca de informações básicas. Trata-se de construir relacionamentos, resolver conflitos e colaborar eficazmente em diversos contextos. A capacidade de comunicar de maneira objetiva e eficaz fortalece laços sociais e facilita a cooperação, permitindo que grupos e comunidades se organizem melhor em torno de objetivos comuns. Assim, enquanto as tecnologias avançam e remodelam os meios de comunicação, a necessidade de manter um discurso claro e dirigido permanece constante, reforçando a importância desse requisito em todas as esferas da interação humana.
2Modelo de linguagem baseado em Transformers que utiliza um treinamento bidirecional para compreender o contexto das palavras em uma frase.
Transformers: Arquitetura de rede neural que utiliza mecanismos de atenção para modelar as relações entre as palavras em uma sequência.
3Tendência de um algoritmo de produzir resultados injustos ou discriminatórios devido a dados de treinamento enviesados ou a escolhas de design.
Referências
BENDER, E. M.; GEBRU, T.; McMILLAN-MAJOR, A.; MITCHELL, M. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT). 2021. p. 610-623.
BRAUN, V.; CLARKE, V. Using thematic analysis in psychology. Qualitative Research in Psychology, v. 3, n. 2, p. 77-101, 2006.
BROWN, T. et al. Language models are few-shot learners. Advances in Neural Information Processing Systems, v. 33, p. 1877-1901, 2020.
DE PAULA, Abdon. Eficácia, Eficiência e Efetividade. Disponível em: https://www.academia.edu/42802865/Eficácia_Eficiência_Efetividade. 2023. Acesso em: 05/02/2025.
DEVLIN, J.; CHANG, M. W.; LEE, K.; TOUTANOVA, K. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In: Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT), 2019.
DOSHI-VELEZ, F.; KIM, B. Towards A Rigorous Science of Interpretable Machine Learning. arXiv preprint arXiv:1702.08608, 2017.
GEBRU, T. et al. Datasheets for Datasets. In: Communications of the ACM, v. 64, n. 12, p. 86-92, 2021.
GOODFELLOW, I.; BENGIO, Y.; COURVILLE, A. Deep Learning. MIT Press, 2016.
GUDIVADA, V. N. Modeling and querying conversational AI systems. Information Systems, v. 107, p. 101856, 2022.
GUDIVADA, V. N. Data Science and Machine Learning: Fundamentals and Applications. Springer, 2022.
JURAFSKY, D.; MARTIN, J. H. Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition. 3rd ed. Prentice Hall, 2023.
LAMPL, G.; CHARTON, Y. Improving Mathematical Reasoning with Process Supervision. 2019. Disponível em: https://arxiv.org/abs/1904.01557. Acesso em: 07/03/2025.
MANNING, C. D.; SCHÜTZE, H. Foundations of Statistical Natural Language Processing. MIT Press, 1999.
MENG, Y.; XIA, Q.; ZHU, X.; LI, S.; TAO, J. Few-Shot Text Classification with Distributional Signatures. In: Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Online, 2020. Disponível em:https://aclanthology.org/2020.acl−main.464. Acesso em: 07 mar. 2025.
MOLLICK, E.; MOLLICK, L. Co-intelligence: Living and working with AI. Harvard Business Review Press, 2023.
OPENAI. GPT-4 Technical Report. San Francisco: OpenAI, 2023.
RADFORD, A. et al. Language Models with Transformers: Advances and Applications. OpenAI, 2019.
REIMERS, N.; GUREVYCH, I. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. In: Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2019.
RUSSELL, S.; NORVIG, P. Artificial intelligence: A modern approach. 4. ed. Pearson, 2021.
SANTOS, Juliano Nunes dos. Avaliação do desempenho do ChatGPT na área de Matemática dos vestibulares brasileiros. 2023. Trabalho de Conclusão de Curso (Graduação em Matemática) – Universidade Federal da Paraíba, João Pessoa, 2023. Disponível em: https://repositorio.ufpb.br/jspui/bitstream/123456789/31608/1/Juliano%20Nunes%20dos%20Santos_TCC.pdf. Acesso em: 06 mar. 2025.
SHIN, R. et al. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In: Empirical Methods in Natural Language Processing (EMNLP), 2020.
SNYDER, H. Literature review as a research methodology: An overview and guidelines. Journal of Business Research, v. 104, p. 333-339, 2019.
TORRACO, R. J. Writing integrative literature reviews: Using the past and present to explore the future. Human Resource Development Review, v. 15, n. 4, p. 404-428, 2016.
VASWANI, A. et al. Attention is All You Need. In: Advances in Neural Information Processing Systems (NeurIPS), 2017.
WEI, J. et al. Chain of Thought Prompting Elicits Reasoning in Large Language Models. In: Advances in Neural Information Processing Systems (NeurIPS), 2022.
WHITTEMORE, R.; KNAFL, K. The integrative review: Updated methodology. Journal of Advanced Nursing, v. 52, n. 5, p. 546-553, 2005.
ZHANG, Y. et al. Prompting Strategies for Language Models: From Zero-Shot to Few-Shot Learning. In: Transactions of the Association for Computational Linguistics, 2023.
1ORCID: 0000-0002-7466-1667