Responses API
LLMTR gateway, OpenAI’ın yeni /v1/responses endpoint’ini destekler. GPT-5 Codex serisi (gpt-5-codex, gpt-5.1-codex, gpt-5.1-codex-max, gpt-5.1-codex-mini, gpt-5.2-codex, gpt-5.3-codex) gibi modeller yalnızca bu endpoint üzerinden çalışır; bu modelleri /v1/chat/completions’a göndermek 400 endpoint_mismatch hatası döner.
Ne zaman kullanılır
Section titled “Ne zaman kullanılır”- Reasoning effort kontrolü gerektiğinde (low / medium / high / xhigh)
- Cached input avantajı olan modelleri kullanırken
- Sadece Responses endpoint’ini destekleyen modellerle çalışırken
Klasik chat tamamlama akışı için /v1/chat/completions kullanmaya devam edin.
Request
Section titled “Request”POST /v1/responsesAuthorization: Bearer sk_your_keyContent-Type: application/jsonGövde parametreleri
Section titled “Gövde parametreleri”| Alan | Tip | Zorunlu | Açıklama |
|---|---|---|---|
model | string | evet | Canonical model ID (örn. openai/gpt-5.1-codex). İsteğe bağlı suffix: openai/gpt-5.3-codex:max |
messages veya input | array | string | evet | OpenAI mesaj formatı veya doğrudan input |
instructions | string | hayır | System prompt karşılığı |
reasoning | object | hayır | { "effort": "low" | "medium" | "high" | "xhigh", "summary": "auto" | "concise" | "detailed" } |
max_output_tokens | integer | hayır | Çıktı token üst sınırı |
temperature | number | hayır | Modelin desteklediği aralıkta |
tools | array | hayır | Function calling (destekleyen modellerde) |
tool_choice | string | object | hayır | auto, none veya belirli tool |
response_format | object | hayır | Structured output |
stream | boolean | hayır | SSE akışı (yakında) |
Temel örnek
Section titled “Temel örnek”curl https://llmtr.com/v1/responses \ -H "Authorization: Bearer sk_your_key" \ -H "Content-Type: application/json" \ -d '{ "model": "openai/gpt-5.1-codex:high", "messages": [ {"role": "user", "content": "Refaktör et: bu fonksiyonu pure yap"} ] }'Aynı isteği reasoning.effort body alanı ile de yapabilirsiniz:
curl https://llmtr.com/v1/responses \ -H "Authorization: Bearer sk_your_key" \ -H "Content-Type: application/json" \ -d '{ "model": "openai/gpt-5.1-codex", "reasoning": { "effort": "high" }, "messages": [ {"role": "user", "content": "Refaktör et: bu fonksiyonu pure yap"} ] }'Response
Section titled “Response”{ "id": "resp_xxx", "object": "response", "status": "completed", "model": "gpt-5.1-codex", "output": [ { "type": "message", "role": "assistant", "content": [ { "type": "output_text", "text": "İşte refaktör edilmiş hali..." } ] } ], "usage": { "input_tokens": 142, "input_tokens_details": { "cached_tokens": 24 }, "output_tokens": 318, "output_tokens_details": { "reasoning_tokens": 256 } }}status alanı completed, incomplete veya failed olabilir.
Kullanım ve maliyet notları
Section titled “Kullanım ve maliyet notları”input_tokens_details.cached_tokens, cache kullanılan token miktarını gösterir.output_tokens_details.reasoning_tokens, reasoning sırasında harcanan tokenları gösterir.- Toplam maliyet modelin kendi fiyatlandırmasına göre hesaplanır; platform marjı yalnızca kredi yüklemede uygulanır.
- Üretim kullanımı öncesinde ilgili modelin güncel fiyatını dashboard veya katalog üzerinden doğrulayın.
Reasoning effort
Section titled “Reasoning effort”Reasoning seviyeleri ayrı bir sayfada detaylandırılmıştır: Reasoning effort.
Hata kodları
Section titled “Hata kodları”| HTTP | error.type | Anlamı |
|---|---|---|
| 400 | invalid_request_error | Geçersiz parametre / bilinmeyen suffix |
| 400 | endpoint_mismatch | Model /v1/responses gerektiriyor ama /v1/chat/completions çağrıldı (veya tersi) |
| 400 | unsupported_capability | Model bu reasoning seviyesini veya modaliteyi desteklemiyor |
| 401 | auth_error | Geçersiz API anahtarı |
| 402 | insufficient_balance | Bakiye yetersiz |
| 429 | rate_limit_exceeded | RPM/TPM limiti aşıldı |
| 502 | provider_error | Sağlayıcı hatası |
Detay için Hatalar bölümüne bakın.