⚠️
查看替代方案 →模型已下架
该模型已从API中移除。本页面仅供参考。
O
o3-pro-all
4k ContextTextPopular
OpenAI 推出的 o3-pro-all 模型,支持 4K 上下文。适用于Chat任务。
Pricing / 1M
USD
Input$0.96
Output$0
Context Window
4ktokens
Avg Latency
450ms
能力雷达
Compare with Claude 3
关于 o3-pro-all
"高可靠性 API"
o3-pro-all 是由 OpenAI 开发的先进AI模型。它具备 4K 的上下文窗口,在处理Chat任务时表现出色。该模型通过OkRouter API提供,具有极低的延迟和高可靠性。
⚡ 核心优势
- 高可靠性 API
- 企业级安全性
- 顶级推理能力
🎯 最佳用途
- 智能客服机器人
- 长文档分析与总结
- 创意写作辅助
- 多语言翻译
技术规格
上下文窗口
4K
最大输出
4,096 tokens
知识领域
Chat, Text
提供商
OpenAI
快速开始
example.tsTypeScript
import OpenAI from "openai";
const openai = new OpenAI({
baseURL: "https://api.okrouter.com/v1",
apiKey: "<YOUR_OKROUTER_KEY>",
});
async function main() {
const completion = await openai.chat.completions.create({
model: "o3-pro-all",
messages: [
{ role: "user", content: "你好!你能做什么?" }
],
});
console.log(completion.choices[0].message);
}
main();开始使用 o3-pro-all 非常简单。OkRouter 完全兼容 OpenAI SDK,您可以直接使用现有库访问此模型。 o3-pro-all 完全兼容 OpenAI Chat Completions API,具有 标准上下文处理 和 Text 支持等独特功能。
在线试用
Parameters Setup
0.7
Controls randomness: Lowering results in less random completions.
Return data chunks as they arrive
request.js
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.okrouter.com/v1",
apiKey: process.env.OKROUTER_API_KEY,
});
const completion = await client.chat.completions.create({
model: "o3-pro-all",
messages: [{ role: "user", content: "Hello world!" }],
temperature: 0.7,
stream: true,
});常见问题
?o3-pro-all 的价格是多少?
输入价格为 $0.9600,输出价格为 per request。由于汇率波动,建议查看实时价格表。
?如何调用 o3-pro-all?
您可以使用标准的 OpenAI SDK。只需将 baseURL 设置为 https://api.okrouter.com/v1 并使用您的 API Key 即可。
?o3-pro-all 支持多大的上下文?
该模型支持 4K 的上下文窗口。