Skip to content

Tipos de Prompts

O LabsLLM suporta diferentes maneiras de enviar prompts para os provedores de LLM. Abaixo você encontrará exemplos para os tipos de prompts suportados.

Geração de Texto

A maneira mais básica de interagir com um modelo é através de prompts de texto simples:

php
$execute = LabsLLM::text()
    ->using(new OpenAI('sua-chave-api', 'gpt-4o'))
    ->executePrompt('Explique computação quântica em termos simples');

$response = $execute->getResponseData();

echo $response->response;

Com Instruções de Sistema

Instruções de sistema permitem que você guie o comportamento do modelo e defina o contexto para a conversa:

php
$execute = LabsLLM::text()
    ->using(new OpenAI('sua-chave-api', 'gpt-4o'))
    ->withSystemMessage('Você é um especialista em física quântica explicando conceitos para iniciantes.')
    ->executePrompt('O que é emaranhamento quântico?');

$response = $execute->getResponseData();

echo $response->response;

Entendendo a Resposta

Quando você chama getResponseData(), você recebe um objeto com várias propriedades que contêm informações sobre a interação. A mais comumente usada é response, que contém a resposta de texto do modelo:

php
$response = $execute->getResponseData();

// Acessar a resposta de texto
echo $response->response;

O objeto de resposta também contém informações sobre chamadas de ferramentas e seus resultados. Para uma explicação detalhada da estrutura de resposta, consulte o guia Objeto de Resposta da API.

Dicas para Prompts Eficazes

  1. Seja específico: Quanto mais específico seu prompt, melhor a resposta
  2. Use mensagens de sistema: Defina o contexto com mensagens de sistema para guiar o comportamento do modelo
  3. Inclua exemplos: Para tarefas complexas, inclua exemplos das saídas desejadas
  4. Encadeie prompts: Para raciocínios complexos, divida problemas em múltiplas etapas

Para alternar entre diferentes provedores de IA, consulte o guia Provedores.

Lançado sob a Licença MIT.