BuyApiKey 开发者文档
统一的大模型 API 网关,兼容 OpenAI 接口格式,一个 Key 调用 300+ 模型
概述
BuyApiKey 提供统一的 AI 模型 API 接口,完全兼容 OpenAI API 格式。你只需要将基础地址替换为我们的地址,就可以无缝使用 GPT、Claude、Gemini、DeepSeek、Qwen 等 300+ 模型。
https://buyapikey.com
支持的接口端点:
/v1/chat/completions— 对话补全(最常用)/v1/completions— 文本补全/v1/embeddings— 向量嵌入/v1/images/generations— 图像生成/v1/audio/speech— 语音合成/v1/models— 模型列表
快速接入(3 分钟上手)
第 1 步:获取 API Key
登录 buyapikey.com,在控制台创建令牌(Token),获得格式为 sk-xxx 的 API Key。
第 2 步:替换 Base URL
将你代码中的 OpenAI 基础地址替换为:
# 原来
https://api.openai.com
# 改为
https://buyapikey.com
第 3 步:调用 API
curl https://buyapikey.com/v1/chat/completions \
-H "Authorization: Bearer sk-你的密钥" \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-4o-mini", // 注意:必须使用 厂商/模型名 格式
"messages": [{"role": "user", "content": "你好"}]
}'
认证方式
所有 API 请求需要在 Header 中携带 API Key:
Authorization: Bearer sk-你的密钥
模型名称格式(重要)
厂商/模型名,例如 openai/gpt-4o,而不是 gpt-4o。调用时请使用完整名称。
常用模型名称速查表
| 你想用的模型 | 调用时填写的名称 | 说明 |
|---|---|---|
| GPT-4o | openai/gpt-4o | OpenAI 多模态旗舰 |
| GPT-4o Mini | openai/gpt-4o-mini | OpenAI 高性价比 |
| GPT-4.1 | openai/gpt-4.1 | OpenAI 最新旗舰 |
| GPT-4.1 Mini | openai/gpt-4.1-mini | OpenAI 最新轻量 |
| o3 | openai/o3 | OpenAI 推理模型 |
| o4-mini | openai/o4-mini | OpenAI 高效推理 |
| Claude Opus 4.6 | anthropic/claude-opus-4.6 | Anthropic 最强模型 |
| Claude Sonnet 4 | anthropic/claude-sonnet-4 | Anthropic 均衡之选 |
| Claude 3.5 Haiku | anthropic/claude-3.5-haiku | Anthropic 最快最便宜 |
| Gemini 2.5 Pro | google/gemini-2.5-pro | Google 旗舰推理 |
| Gemini 2.5 Flash | google/gemini-2.5-flash | Google 高效快速 |
| DeepSeek V3.2 | deepseek/deepseek-v3.2 | 深度求索最新版 |
| DeepSeek R1 | deepseek/deepseek-r1 | 深度求索推理模型 |
| Llama 4 Maverick | meta-llama/llama-4-maverick | Meta 最新开源 |
| Qwen3 235B | qwen/qwen3-235b-a22b | 通义千问最强版 |
| Qwen Turbo | qwen/qwen-turbo | 通义千问快速版 |
| Mistral Large | mistralai/mistral-large-2512 | Mistral 旗舰 |
| Grok 3 | x-ai/grok-3-beta | xAI 旗舰模型 |
调用示例
# 调用 GPT-4o(注意使用完整名称 openai/gpt-4o)
curl https://buyapikey.com/v1/chat/completions \
-H "Authorization: Bearer sk-你的密钥" \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-4o",
"messages": [{"role": "user", "content": "你好"}]
}'
# 调用 Claude Sonnet 4
curl https://buyapikey.com/v1/chat/completions \
-H "Authorization: Bearer sk-你的密钥" \
-H "Content-Type: application/json" \
-d '{
"model": "anthropic/claude-sonnet-4",
"messages": [{"role": "user", "content": "你好"}]
}'
# 调用 DeepSeek R1
curl https://buyapikey.com/v1/chat/completions \
-H "Authorization: Bearer sk-你的密钥" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek/deepseek-r1",
"messages": [{"role": "user", "content": "证明勾股定理"}]
}'
对话补全 API
/v1/chat/completions
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 模型名称,如 openai/gpt-4o |
messages | array | 是 | 消息列表,包含 role 和 content |
temperature | number | 否 | 温度系数 0-2,默认 1,越高越随机 |
max_tokens | integer | 否 | 最大输出 token 数 |
stream | boolean | 否 | 是否流式输出,默认 false |
top_p | number | 否 | 核采样系数,默认 1 |
tools | array | 否 | 函数调用/工具定义 |
消息格式
{
"messages": [
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "介绍一下人工智能"},
{"role": "assistant", "content": "人工智能是..."},
{"role": "user", "content": "继续深入讲讲"}
]
}
响应示例
{
"id": "chatcmpl-xxx",
"object": "chat.completion",
"created": 1234567890,
"model": "openai/gpt-4o",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "人工智能(AI)是计算机科学的一个分支..."
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 150,
"total_tokens": 170
}
}
获取模型列表
/v1/models
返回当前可用的所有模型列表。
图像生成 API
/v1/images/generations
{
"model": "dall-e-3",
"prompt": "一只穿宇航服的猫在月球上",
"n": 1,
"size": "1024x1024"
}
向量嵌入 API
/v1/embeddings
{
"model": "text-embedding-3-small",
"input": "这是一段需要向量化的文本"
}
Python 示例
使用 OpenAI SDK(推荐)
from openai import OpenAI
client = OpenAI(
api_key="sk-你的密钥",
base_url="https://buyapikey.com/v1"
)
# 普通对话
response = client.chat.completions.create(
model="openai/gpt-4o",
messages=[
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "用Python写一个快速排序"}
],
temperature=0.7,
max_tokens=2000
)
print(response.choices[0].message.content)
流式输出
stream = client.chat.completions.create(
model="anthropic/claude-sonnet-4",
messages=[{"role": "user", "content": "写一首关于春天的诗"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
使用 requests 库
import requests
response = requests.post(
"https://buyapikey.com/v1/chat/completions",
headers={
"Authorization": "Bearer sk-你的密钥",
"Content-Type": "application/json"
},
json={
"model": "deepseek/deepseek-r1",
"messages": [{"role": "user", "content": "证明勾股定理"}],
"max_tokens": 4000
}
)
print(response.json()["choices"][0]["message"]["content"])
Node.js 示例
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'sk-你的密钥',
baseURL: 'https://buyapikey.com/v1'
});
async function main() {
const response = await client.chat.completions.create({
model: 'openai/gpt-4o-mini',
messages: [{ role: 'user', content: '你好,请介绍一下自己' }],
});
console.log(response.choices[0].message.content);
}
main();
流式输出
const stream = await client.chat.completions.create({
model: 'google/gemini-2.5-flash',
messages: [{ role: 'user', content: '写一个Node.js HTTP服务器' }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || '');
}
cURL 示例
curl https://buyapikey.com/v1/chat/completions \
-H "Authorization: Bearer sk-你的密钥" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen/qwen3-235b-a22b",
"messages": [
{"role": "user", "content": "解释量子计算的基本原理"}
],
"temperature": 0.7,
"max_tokens": 2000
}'
兼容 OpenAI SDK
BuyApiKey 完全兼容 OpenAI SDK,你只需要修改两个参数即可:
| 参数 | 原 OpenAI | 改为 BuyApiKey |
|---|---|---|
| base_url | https://api.openai.com/v1 | https://buyapikey.com/v1 |
| api_key | 你的 OpenAI Key | 你的 BuyApiKey Key |
流式输出(SSE)
设置 stream: true 启用流式输出,服务器会以 Server-Sent Events (SSE) 格式逐 token 返回结果,显著提升用户体验。
// 请求中添加
{
"stream": true
}
// 响应格式(每行一个 chunk)
data: {"choices":[{"delta":{"content":"你"},"index":0}]}
data: {"choices":[{"delta":{"content":"好"},"index":0}]}
data: {"choices":[{"delta":{"content":"!"},"index":0}]}
data: [DONE]
函数调用 / 工具使用
{
"model": "openai/gpt-4o",
"messages": [{"role": "user", "content": "北京今天天气怎么样?"}],
"tools": [{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "城市名称"}
},
"required": ["city"]
}
}
}]
}
图像理解(视觉)
支持识图标签的模型可以理解图片内容:
{
"model": "openai/gpt-4o",
"messages": [{
"role": "user",
"content": [
{"type": "text", "text": "描述这张图片"},
{"type": "image_url", "image_url": {
"url": "https://example.com/photo.jpg"
}}
]
}]
}
思维链推理
带"思考"标签的模型(如 o3、DeepSeek-R1、QwQ 等)支持深度推理:
# 使用 DeepSeek R1 进行深度推理
response = client.chat.completions.create(
model="deepseek/deepseek-r1",
messages=[{"role": "user", "content": "证明:对于所有正整数n,1+2+...+n = n(n+1)/2"}],
max_tokens=8000
)
# 模型会展示完整的思考过程
热门模型推荐
| 使用场景 | 推荐模型 | 特点 |
|---|---|---|
| 日常对话 | openai/gpt-4o-mini | 便宜快速,能力均衡 |
| 编程开发 | anthropic/claude-sonnet-4 | 代码质量高,理解力强 |
| 深度推理 | openai/o3 | 数学/逻辑最强,会深度思考 |
| 性价比之王 | deepseek/deepseek-v3.2 | 接近GPT-4水平,价格极低 |
| 超长文档 | google/gemini-2.5-pro | 100万token上下文 |
| 中文优化 | qwen/qwen3-235b-a22b | 中文理解最佳,119种语言 |
| 实时搜索 | perplexity/sonar-pro | 联网搜索,信息最新 |
| 推理+低价 | deepseek/deepseek-r1 | 思维链推理,价格仅o1的1/30 |
| 快速回复 | qwen/qwen-turbo | 响应极快,成本最低 |
错误处理
| HTTP 状态码 | 含义 | 处理建议 |
|---|---|---|
| 400 | 请求参数错误 | 检查 JSON 格式和必填参数 |
| 401 | 认证失败 | 检查 API Key 是否正确 |
| 402 | 余额不足 | 充值后重试 |
| 429 | 请求频率过高 | 降低请求频率或稍后重试 |
| 500 | 服务器内部错误 | 稍后重试,如持续请联系客服 |
| 503 | 上游模型不可用 | 尝试其他模型或稍后重试 |
错误响应格式
{
"error": {
"message": "错误描述信息",
"type": "error_type",
"code": "error_code"
}
}
常见问题
Q: 支持哪些模型?
支持 300+ 模型,包括 OpenAI (GPT-4o, o3, o4-mini)、Anthropic (Claude Opus/Sonnet)、Google (Gemini)、DeepSeek、Qwen、Llama、Mistral 等。完整列表见 模型广场。
Q: 和 OpenAI 官方 API 有什么区别?
接口格式完全一致,但优势是:一个 Key 即可使用所有厂商的模型,无需分别注册和充值。
Q: 模型名称格式是什么?
格式为 厂商/模型名,例如 openai/gpt-4o、anthropic/claude-sonnet-4、deepseek/deepseek-r1。
Q: 支持流式输出吗?
支持。在请求中设置 "stream": true 即可。
Q: 可以在哪些工具中使用?
所有支持自定义 OpenAI API 地址的工具都可以,包括 ChatGPT Next Web、LobeChat、Cherry Studio、Cursor、Continue、Cline、OpenCat 等。
Q: 如何查看使用量和余额?
登录控制台即可查看 Token 用量、余额和调用日志。
速率限制
默认速率限制取决于你的账户等级。如遇到 429 错误,请降低请求频率。建议:
- 添加重试逻辑,遇到 429 时指数退避重试
- 使用流式输出减少并发连接时间
- 对非实时任务使用队列控制并发