QuickRouter API 大模型API聚合中转平台QuickRouter API

OpenAI 兼容接口接入教程

OpenAI 的 API 协议已成为大模型领域的通用标准。QuickRouter 完全兼容 OpenAI 接口协议,开发者可以使用同一个 Base URL、同一套 SDK 调用 OpenAI、Claude、Gemini、DeepSeek 等 300+ 模型。本文介绍如何通过 OpenAI 兼容接口实现大模型 API 的统一调用。

配置前准备

1注册 QuickRouter 账号并获取 API Key
2确认已安装 OpenAI SDK(Python 或 Node.js)

配置方法

1
安装 OpenAI SDK
terminal
pip install openai  # 或 npm install openai
2
在代码中将 base_url 设置为 https://api.quickrouter.ai/v1,将 api_key 替换为 QuickRouter 的 API Key
openai_compatible_example.py
from openai import OpenAI

client = OpenAI(
    api_key="your_quickrouter_api_key",
    base_url="https://api.quickrouter.ai/v1"
)
3
在 model 参数中指定需要使用的模型名称,调用方式和原生 OpenAI SDK 完全一致
openai_compatible_example.py
# 调用 Claude 模型
response = client.chat.completions.create(
    model="claude-sonnet-4-6",  # 或 gpt-5, deepseek-chat 等
    messages=[{"role": "user", "content": "你好"}]
)
print(response.choices[0].message.content)

适用场景与工具

Python SDKfrom openai import OpenAI,替换 base_url 和 api_key 即可调用 300+ 模型
Node.js SDKnew OpenAI({ apiKey, baseURL }),同样只需替换两个参数
第三方工具OpenAI 兼容接口还支持 cURL 以及所有基于 OpenAI 协议的第三方工具

常见问题

QuickRouter 兼容哪些 OpenAI SDK 功能?

兼容 Chat Completions、Stream 流式输出、Embeddings、Function Calling 等核心功能。具体支持情况请参考文档。

如何在不同模型之间切换?

只需修改请求中的 model 参数即可,例如从 gpt-5 切换到 claude-sonnet-4-6,其他代码完全不变。

按量付费是怎么计费的?

根据实际使用的模型和 Token 数量计费,不同模型倍率不同。充值可享折扣,具体价格请查看价格页。

支持流式输出吗?

支持。在请求中设置 stream: true 即可启用流式输出,与 OpenAI 的流式接口用法一致。