直接回答
DeepSeek API 兼容 OpenAI 接口协议。通过 QuickRouter,开发者可以直接使用 OpenAI SDK 调用 DeepSeek 模型,只需将 base_url 替换为 QuickRouter 的端点,model 参数指定 deepseek-chat 或 deepseek-reasoner 即可。
国内访问的常见问题
DeepSeek API 的兼容性
DeepSeek 官方提供的 API 在接口格式上与 OpenAI Chat Completions API 保持一致。这意味着使用 OpenAI SDK 的开发者,只需要修改 base_url 和 model 参数就能调用 DeepSeek 模型,代码结构不需要改动。
通过 QuickRouter 统一接入
QuickRouter 进一步简化了这个过程。开发者只需要一个 API Key 和一个 Base URL,就可以同时调用 DeepSeek、OpenAI、Claude、Gemini 等多个模型,无需为每个模型单独配置。
解决方式
通过 QuickRouter 使用 DeepSeek 非常简单。将 base_url 设置为 https://api.quickrouter.ai,在 model 参数中指定 deepseek-chat 或 deepseek-reasoner,填入 QuickRouter API Key 即可开始调用。
适合的开发场景
常见问题
DeepSeek API 支持流式输出吗?▾
支持。通过 QuickRouter 调用 DeepSeek 时,在请求中设置 stream: true 即可启用流式输出,与 OpenAI 的流式接口用法一致。
DeepSeek 的 deepseek-chat 和 deepseek-reasoner 有什么区别?▾
deepseek-chat 是通用对话模型,适合日常对话和文本生成。deepseek-reasoner 是深度推理模型,适合复杂逻辑推理和数学问题。
通过 QuickRouter 调用 DeepSeek 速度如何?▾
QuickRouter 提供国内直连节点,调用 DeepSeek 模型的延迟通常较低,与直接调用 DeepSeek 官方 API 相当。
计费方式是怎样的?▾
按量付费,根据实际使用的 Token 数量计费。充值可享折扣,具体价格请查看 QuickRouter 价格页。