İçeriğe geç

Responses API

LLMTR gateway, OpenAI’ın yeni /v1/responses endpoint’ini destekler. GPT-5 Codex serisi (gpt-5-codex, gpt-5.1-codex, gpt-5.1-codex-max, gpt-5.1-codex-mini, gpt-5.2-codex, gpt-5.3-codex) gibi modeller yalnızca bu endpoint üzerinden çalışır; bu modelleri /v1/chat/completions’a göndermek 400 endpoint_mismatch hatası döner.

  • Reasoning effort kontrolü gerektiğinde (low / medium / high / xhigh)
  • Cached input avantajı olan modelleri kullanırken
  • Sadece Responses endpoint’ini destekleyen modellerle çalışırken

Klasik chat tamamlama akışı için /v1/chat/completions kullanmaya devam edin.

POST /v1/responses
Authorization: Bearer sk_your_key
Content-Type: application/json
AlanTipZorunluAçıklama
modelstringevetCanonical model ID (örn. openai/gpt-5.1-codex). İsteğe bağlı suffix: openai/gpt-5.3-codex:max
messages veya inputarray | stringevetOpenAI mesaj formatı veya doğrudan input
instructionsstringhayırSystem prompt karşılığı
reasoningobjecthayır{ "effort": "low" | "medium" | "high" | "xhigh", "summary": "auto" | "concise" | "detailed" }
max_output_tokensintegerhayırÇıktı token üst sınırı
temperaturenumberhayırModelin desteklediği aralıkta
toolsarrayhayırFunction calling (destekleyen modellerde)
tool_choicestring | objecthayırauto, none veya belirli tool
response_formatobjecthayırStructured output
streambooleanhayırSSE akışı (yakında)
Terminal window
curl https://llmtr.com/v1/responses \
-H "Authorization: Bearer sk_your_key" \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-5.1-codex:high",
"messages": [
{"role": "user", "content": "Refaktör et: bu fonksiyonu pure yap"}
]
}'

Aynı isteği reasoning.effort body alanı ile de yapabilirsiniz:

Terminal window
curl https://llmtr.com/v1/responses \
-H "Authorization: Bearer sk_your_key" \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-5.1-codex",
"reasoning": { "effort": "high" },
"messages": [
{"role": "user", "content": "Refaktör et: bu fonksiyonu pure yap"}
]
}'
{
"id": "resp_xxx",
"object": "response",
"status": "completed",
"model": "gpt-5.1-codex",
"output": [
{
"type": "message",
"role": "assistant",
"content": [
{ "type": "output_text", "text": "İşte refaktör edilmiş hali..." }
]
}
],
"usage": {
"input_tokens": 142,
"input_tokens_details": { "cached_tokens": 24 },
"output_tokens": 318,
"output_tokens_details": { "reasoning_tokens": 256 }
}
}

status alanı completed, incomplete veya failed olabilir.

  • input_tokens_details.cached_tokens, cache kullanılan token miktarını gösterir.
  • output_tokens_details.reasoning_tokens, reasoning sırasında harcanan tokenları gösterir.
  • Toplam maliyet modelin kendi fiyatlandırmasına göre hesaplanır; platform marjı yalnızca kredi yüklemede uygulanır.
  • Üretim kullanımı öncesinde ilgili modelin güncel fiyatını dashboard veya katalog üzerinden doğrulayın.

Reasoning seviyeleri ayrı bir sayfada detaylandırılmıştır: Reasoning effort.

HTTPerror.typeAnlamı
400invalid_request_errorGeçersiz parametre / bilinmeyen suffix
400endpoint_mismatchModel /v1/responses gerektiriyor ama /v1/chat/completions çağrıldı (veya tersi)
400unsupported_capabilityModel bu reasoning seviyesini veya modaliteyi desteklemiyor
401auth_errorGeçersiz API anahtarı
402insufficient_balanceBakiye yetersiz
429rate_limit_exceededRPM/TPM limiti aşıldı
502provider_errorSağlayıcı hatası

Detay için Hatalar bölümüne bakın.