OpenAIのAPIの処理が遅い!? GPT-5系のReasoning(推論)モードを解除する
Tag:AI
OpenAI のapiの GPT-5、GPT-5 mini、GPT-5 nanoは デフォルトでReasoning(推論)モードで動く(思考 thinkingみたいなもの)。
レスポンスに “reasoning_tokens”: 342, みたいな数値があり、トークンを多く消費し、処理時間も長くなる。
推論をやめて、処理を速く、コストを安くするには、リクエストに “reasoning_effort” パラメータを使う。
値は
minimal: ほぼ0。GPT‑5で新追加。
low: 軽めに考える
medium: デフォルト
high: 最大限考える
curlならこんなリクエスト
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
{ "reasoning_effort": "minimal", "model": "gpt-5-mini-2025-08-07", "verbosity": "low", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "日本の首都は?" } ] } ] } |
OpenAIのライブラリの場合はこんな感じ
|
1 2 3 4 5 6 |
{ model: "gpt-5.1", input: "日本の首都は?", reasoning: { effort: "none" }, text: { verbosity: "low" }, } |
ちなみに verbosity パラメータは
回答をより簡潔または詳細にするよう指示できる
値は
low: 短い
medium(デフォルト): 通常
high: 長い