返回首页

BuyApiKey 开发者文档

统一的大模型 API 网关,兼容 OpenAI 接口格式,一个 Key 调用 300+ 模型

概述

BuyApiKey 提供统一的 AI 模型 API 接口,完全兼容 OpenAI API 格式。你只需要将基础地址替换为我们的地址,就可以无缝使用 GPT、Claude、Gemini、DeepSeek、Qwen 等 300+ 模型。

基础地址(Base URL):
https://buyapikey.com

支持的接口端点:

快速接入(3 分钟上手)

第 1 步:获取 API Key

登录 buyapikey.com,在控制台创建令牌(Token),获得格式为 sk-xxx 的 API Key。

第 2 步:替换 Base URL

将你代码中的 OpenAI 基础地址替换为:

# 原来
https://api.openai.com

# 改为
https://buyapikey.com

第 3 步:调用 API

curl https://buyapikey.com/v1/chat/completions \
  -H "Authorization: Bearer sk-你的密钥" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o-mini",  // 注意:必须使用 厂商/模型名 格式
    "messages": [{"role": "user", "content": "你好"}]
  }'

认证方式

所有 API 请求需要在 Header 中携带 API Key:

Authorization: Bearer sk-你的密钥
安全提示:请勿在前端代码中直接暴露 API Key。建议通过后端服务器代理请求。

模型名称格式(重要)

请注意:本平台的模型名称格式为 厂商/模型名,例如 openai/gpt-4o,而不是 gpt-4o。调用时请使用完整名称。

常用模型名称速查表

你想用的模型调用时填写的名称说明
GPT-4oopenai/gpt-4oOpenAI 多模态旗舰
GPT-4o Miniopenai/gpt-4o-miniOpenAI 高性价比
GPT-4.1openai/gpt-4.1OpenAI 最新旗舰
GPT-4.1 Miniopenai/gpt-4.1-miniOpenAI 最新轻量
o3openai/o3OpenAI 推理模型
o4-miniopenai/o4-miniOpenAI 高效推理
Claude Opus 4.6anthropic/claude-opus-4.6Anthropic 最强模型
Claude Sonnet 4anthropic/claude-sonnet-4Anthropic 均衡之选
Claude 3.5 Haikuanthropic/claude-3.5-haikuAnthropic 最快最便宜
Gemini 2.5 Progoogle/gemini-2.5-proGoogle 旗舰推理
Gemini 2.5 Flashgoogle/gemini-2.5-flashGoogle 高效快速
DeepSeek V3.2deepseek/deepseek-v3.2深度求索最新版
DeepSeek R1deepseek/deepseek-r1深度求索推理模型
Llama 4 Maverickmeta-llama/llama-4-maverickMeta 最新开源
Qwen3 235Bqwen/qwen3-235b-a22b通义千问最强版
Qwen Turboqwen/qwen-turbo通义千问快速版
Mistral Largemistralai/mistral-large-2512Mistral 旗舰
Grok 3x-ai/grok-3-betaxAI 旗舰模型
如何查看所有模型名称?
模型广场 页面点击任意模型,即可看到完整的模型名称(如 openai/gpt-4o),复制后直接用于 API 调用。

调用示例

# 调用 GPT-4o(注意使用完整名称 openai/gpt-4o)
curl https://buyapikey.com/v1/chat/completions \
  -H "Authorization: Bearer sk-你的密钥" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "messages": [{"role": "user", "content": "你好"}]
  }'

# 调用 Claude Sonnet 4
curl https://buyapikey.com/v1/chat/completions \
  -H "Authorization: Bearer sk-你的密钥" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4",
    "messages": [{"role": "user", "content": "你好"}]
  }'

# 调用 DeepSeek R1
curl https://buyapikey.com/v1/chat/completions \
  -H "Authorization: Bearer sk-你的密钥" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek/deepseek-r1",
    "messages": [{"role": "user", "content": "证明勾股定理"}]
  }'

对话补全 API

POST /v1/chat/completions

请求参数

参数类型必填说明
modelstring模型名称,如 openai/gpt-4o
messagesarray消息列表,包含 role 和 content
temperaturenumber温度系数 0-2,默认 1,越高越随机
max_tokensinteger最大输出 token 数
streamboolean是否流式输出,默认 false
top_pnumber核采样系数,默认 1
toolsarray函数调用/工具定义

消息格式

{
  "messages": [
    {"role": "system", "content": "你是一个有帮助的助手"},
    {"role": "user", "content": "介绍一下人工智能"},
    {"role": "assistant", "content": "人工智能是..."},
    {"role": "user", "content": "继续深入讲讲"}
  ]
}

响应示例

{
  "id": "chatcmpl-xxx",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "openai/gpt-4o",
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": "人工智能(AI)是计算机科学的一个分支..."
    },
    "finish_reason": "stop"
  }],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 150,
    "total_tokens": 170
  }
}

获取模型列表

GET /v1/models

返回当前可用的所有模型列表。

图像生成 API

POST /v1/images/generations
{
  "model": "dall-e-3",
  "prompt": "一只穿宇航服的猫在月球上",
  "n": 1,
  "size": "1024x1024"
}

向量嵌入 API

POST /v1/embeddings
{
  "model": "text-embedding-3-small",
  "input": "这是一段需要向量化的文本"
}

Python 示例

使用 OpenAI SDK(推荐)

from openai import OpenAI

client = OpenAI(
    api_key="sk-你的密钥",
    base_url="https://buyapikey.com/v1"
)

# 普通对话
response = client.chat.completions.create(
    model="openai/gpt-4o",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手"},
        {"role": "user", "content": "用Python写一个快速排序"}
    ],
    temperature=0.7,
    max_tokens=2000
)
print(response.choices[0].message.content)

流式输出

stream = client.chat.completions.create(
    model="anthropic/claude-sonnet-4",
    messages=[{"role": "user", "content": "写一首关于春天的诗"}],
    stream=True
)
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

使用 requests 库

import requests

response = requests.post(
    "https://buyapikey.com/v1/chat/completions",
    headers={
        "Authorization": "Bearer sk-你的密钥",
        "Content-Type": "application/json"
    },
    json={
        "model": "deepseek/deepseek-r1",
        "messages": [{"role": "user", "content": "证明勾股定理"}],
        "max_tokens": 4000
    }
)
print(response.json()["choices"][0]["message"]["content"])

Node.js 示例

import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'sk-你的密钥',
  baseURL: 'https://buyapikey.com/v1'
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'openai/gpt-4o-mini',
    messages: [{ role: 'user', content: '你好,请介绍一下自己' }],
  });
  console.log(response.choices[0].message.content);
}
main();

流式输出

const stream = await client.chat.completions.create({
  model: 'google/gemini-2.5-flash',
  messages: [{ role: 'user', content: '写一个Node.js HTTP服务器' }],
  stream: true,
});

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

cURL 示例

curl https://buyapikey.com/v1/chat/completions \
  -H "Authorization: Bearer sk-你的密钥" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen/qwen3-235b-a22b",
    "messages": [
      {"role": "user", "content": "解释量子计算的基本原理"}
    ],
    "temperature": 0.7,
    "max_tokens": 2000
  }'

兼容 OpenAI SDK

BuyApiKey 完全兼容 OpenAI SDK,你只需要修改两个参数即可:

参数原 OpenAI改为 BuyApiKey
base_urlhttps://api.openai.com/v1https://buyapikey.com/v1
api_key你的 OpenAI Key你的 BuyApiKey Key
支持的客户端和工具:ChatGPT Next Web、LobeChat、Cherry Studio、OpenCat、BotGem、Cursor、Continue、Cline、以及所有支持自定义 OpenAI API 地址的工具。

流式输出(SSE)

设置 stream: true 启用流式输出,服务器会以 Server-Sent Events (SSE) 格式逐 token 返回结果,显著提升用户体验。

// 请求中添加
{
  "stream": true
}

// 响应格式(每行一个 chunk)
data: {"choices":[{"delta":{"content":"你"},"index":0}]}
data: {"choices":[{"delta":{"content":"好"},"index":0}]}
data: {"choices":[{"delta":{"content":"!"},"index":0}]}
data: [DONE]

函数调用 / 工具使用

{
  "model": "openai/gpt-4o",
  "messages": [{"role": "user", "content": "北京今天天气怎么样?"}],
  "tools": [{
    "type": "function",
    "function": {
      "name": "get_weather",
      "description": "获取指定城市的天气信息",
      "parameters": {
        "type": "object",
        "properties": {
          "city": {"type": "string", "description": "城市名称"}
        },
        "required": ["city"]
      }
    }
  }]
}

图像理解(视觉)

支持识图标签的模型可以理解图片内容:

{
  "model": "openai/gpt-4o",
  "messages": [{
    "role": "user",
    "content": [
      {"type": "text", "text": "描述这张图片"},
      {"type": "image_url", "image_url": {
        "url": "https://example.com/photo.jpg"
      }}
    ]
  }]
}

思维链推理

带"思考"标签的模型(如 o3、DeepSeek-R1、QwQ 等)支持深度推理:

# 使用 DeepSeek R1 进行深度推理
response = client.chat.completions.create(
    model="deepseek/deepseek-r1",
    messages=[{"role": "user", "content": "证明:对于所有正整数n,1+2+...+n = n(n+1)/2"}],
    max_tokens=8000
)
# 模型会展示完整的思考过程

热门模型推荐

使用场景推荐模型特点
日常对话openai/gpt-4o-mini便宜快速,能力均衡
编程开发anthropic/claude-sonnet-4代码质量高,理解力强
深度推理openai/o3数学/逻辑最强,会深度思考
性价比之王deepseek/deepseek-v3.2接近GPT-4水平,价格极低
超长文档google/gemini-2.5-pro100万token上下文
中文优化qwen/qwen3-235b-a22b中文理解最佳,119种语言
实时搜索perplexity/sonar-pro联网搜索,信息最新
推理+低价deepseek/deepseek-r1思维链推理,价格仅o1的1/30
快速回复qwen/qwen-turbo响应极快,成本最低

错误处理

HTTP 状态码含义处理建议
400请求参数错误检查 JSON 格式和必填参数
401认证失败检查 API Key 是否正确
402余额不足充值后重试
429请求频率过高降低请求频率或稍后重试
500服务器内部错误稍后重试,如持续请联系客服
503上游模型不可用尝试其他模型或稍后重试

错误响应格式

{
  "error": {
    "message": "错误描述信息",
    "type": "error_type",
    "code": "error_code"
  }
}

常见问题

Q: 支持哪些模型?

支持 300+ 模型,包括 OpenAI (GPT-4o, o3, o4-mini)、Anthropic (Claude Opus/Sonnet)、Google (Gemini)、DeepSeek、Qwen、Llama、Mistral 等。完整列表见 模型广场

Q: 和 OpenAI 官方 API 有什么区别?

接口格式完全一致,但优势是:一个 Key 即可使用所有厂商的模型,无需分别注册和充值。

Q: 模型名称格式是什么?

格式为 厂商/模型名,例如 openai/gpt-4oanthropic/claude-sonnet-4deepseek/deepseek-r1

Q: 支持流式输出吗?

支持。在请求中设置 "stream": true 即可。

Q: 可以在哪些工具中使用?

所有支持自定义 OpenAI API 地址的工具都可以,包括 ChatGPT Next Web、LobeChat、Cherry Studio、Cursor、Continue、Cline、OpenCat 等。

Q: 如何查看使用量和余额?

登录控制台即可查看 Token 用量、余额和调用日志。

速率限制

默认速率限制取决于你的账户等级。如遇到 429 错误,请降低请求频率。建议:

还有其他问题?

返回首页 · 模型广场