- Note

OpenAIのAPIの処理が遅い!? GPT-5系のReasoning(推論)モードを解除する

Tag:

OpenAI のapiの GPT-5、GPT-5 mini、GPT-5 nanoは デフォルトでReasoning(推論)モードで動く(思考 thinkingみたいなもの)。
レスポンスに “reasoning_tokens”: 342, みたいな数値があり、トークンを多く消費し、処理時間も長くなる。
推論をやめて、処理を速く、コストを安くするには、リクエストに “reasoning_effort” パラメータを使う。
値は
minimal: ほぼ0。GPT‑5で新追加。
low: 軽めに考える
medium: デフォルト
high: 最大限考える

curlならこんなリクエスト

OpenAIのライブラリの場合はこんな感じ

 

ちなみに verbosity パラメータは
回答をより簡潔または詳細にするよう指示できる
値は
low: 短い
medium(デフォルト): 通常
high: 長い

コメントを残す