Tipos de Prompts
O LabsLLM suporta diferentes maneiras de enviar prompts para os provedores de LLM. Abaixo você encontrará exemplos para os tipos de prompts suportados.
Geração de Texto
A maneira mais básica de interagir com um modelo é através de prompts de texto simples:
$execute = LabsLLM::text()
->using(new OpenAI('sua-chave-api', 'gpt-4o'))
->executePrompt('Explique computação quântica em termos simples');
$response = $execute->getResponseData();
echo $response->response;
Com Instruções de Sistema
Instruções de sistema permitem que você guie o comportamento do modelo e defina o contexto para a conversa:
$execute = LabsLLM::text()
->using(new OpenAI('sua-chave-api', 'gpt-4o'))
->withSystemMessage('Você é um especialista em física quântica explicando conceitos para iniciantes.')
->executePrompt('O que é emaranhamento quântico?');
$response = $execute->getResponseData();
echo $response->response;
Entendendo a Resposta
Quando você chama getResponseData()
, você recebe um objeto com várias propriedades que contêm informações sobre a interação. A mais comumente usada é response
, que contém a resposta de texto do modelo:
$response = $execute->getResponseData();
// Acessar a resposta de texto
echo $response->response;
O objeto de resposta também contém informações sobre chamadas de ferramentas e seus resultados. Para uma explicação detalhada da estrutura de resposta, consulte o guia Objeto de Resposta da API.
Dicas para Prompts Eficazes
- Seja específico: Quanto mais específico seu prompt, melhor a resposta
- Use mensagens de sistema: Defina o contexto com mensagens de sistema para guiar o comportamento do modelo
- Inclua exemplos: Para tarefas complexas, inclua exemplos das saídas desejadas
- Encadeie prompts: Para raciocínios complexos, divida problemas em múltiplas etapas
Para alternar entre diferentes provedores de IA, consulte o guia Provedores.