HY Router Logo
进入控制台

API 文档

本平台目前仅提供三家供应商的对话类接口:OpenAI Chat Completions、Claude Messages、Gemini generateContent。将 Base URL 换成本网关地址,使用平台分发的 API Key 即可调用,请求体与官方格式一致。

API 地址(Base URL)

https://apiclaw.cc

请将下方示例中的 {API_BASE} 替换为上述地址,将 {API_KEY} 替换为你在控制台获取的密钥。不同租户的域名可能不同,请以管理员提供的地址为准。

认证方式

各供应商使用不同的认证请求头,但 Key 值均为平台分发的统一密钥(格式示例:hy-xxxx):

OpenAIAuthorization: Bearer {API_KEY}
Claude (Anthropic)x-api-key: {API_KEY}
Gemini (Google AI Studio)x-goog-api-key: {API_KEY}

模型列表与计费

以下为本平台当前可用的模型及对应的人民币计价费用(每百万 token)。

模型供应商Input / 百万Output / 百万
claude-haiku-4-5Anthropic¥7¥35
claude-sonnet-4-6Anthropic¥21¥105
claude-opus-4-6Anthropic¥35¥175
gpt-5.3-chatOpenAI¥12.25¥98
gpt-5.4OpenAI¥17.5¥105
gemini-3.1-pro-previewGoogle¥14¥84

实际可用模型以控制台中 API Key 绑定的模型为准,模型价格可能随上游渠道调整。计价时会自动计算缓存的折扣。

OpenAI

兼容 OpenAI Chat Completions。本网关以 GPT-5.x 等旗舰推理模型为主:请用 reasoning_effort、verbosity、max_completion_tokens 等控制推理与输出;详见官方「Using GPT-5.4」与 Chat Completions 参考。

POST/v1/chat/completions

Chat Completions

对话补全。GPT-5.4 等模型默认侧重推理:用 reasoning_effort 控制推理深度(如 none / low / medium / high / xhigh,具体取值因模型而异),用 verbosity 控制答复详略,用 max_completion_tokens 限制总生成量(含推理 token)。

依据 OpenAI 文档:GPT-5.4 / GPT-5.2 在 reasoning_effort 不为 none 时传入 temperature、top_p 或 logprobs 会报错;仅当 reasoning_effort 为 none 时才可使用这些采样参数。详见 https://developers.openai.com/api/docs/guides/latest-model 与 https://developers.openai.com/api/reference/resources/chat/subresources/completions/methods/create/
参数类型必填说明
modelstring模型 ID,例如 gpt-5.3-chat、gpt-5.4、claude-haiku-4-5(以控制台/API Key 绑定为准)
messagesarray消息数组:role(system / user / assistant / tool)与 content
reasoning_effortstring推理强度。官方枚举含 none、minimal、low、medium、high、xhigh 等;不同模型支持的集合不同(如 gpt-5.4 默认 none,可至 xhigh)。更低延迟用 none/low,复杂任务用 medium/high/xhigh。
verbositystring输出详略:low / medium / high(Chat Completions 顶层字段,与官方参考一致)。
max_completion_tokensinteger生成 token 上限,包含可见输出与推理 token;推理模型优先使用本字段(max_tokens 已逐步被替代且与部分 o/推理模型不兼容)。
temperaturenumber新版 GPT-5.2 / GPT-5.4 在 reasoning_effort ≠ none 时不支持,请求将失败;仅在与官方兼容的旧模型或 reasoning_effort 为 none 时使用。
top_pnumber与 temperature 相同限制:旗舰推理模型在 reasoning_effort ≠ none 时不可用。
streamboolean是否 SSE 流式返回
toolsarrayFunction Calling 工具定义
tool_choicestring | object工具选择策略
response_formatobject如 { "type": "json_object" }
请求示例
curl -X POST {API_BASE}/v1/chat/completions \
  -H "Authorization: Bearer {API_KEY}" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.4",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "reasoning_effort": "medium",
    "verbosity": "medium",
    "max_completion_tokens": 2048
  }'
响应示例
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "gpt-5.4",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}

Claude (Anthropic)

兼容 Anthropic Messages API。Claude Opus/Sonnet 4.6 等推荐使用 extended thinking(如 thinking.type=adaptive)控制推理行为;详见官方 Extended thinking 文档。

POST/v1/messages

Messages(对话)

发送对话消息并获取回复。max_tokens 必填。旗舰模型上应用 thinking 管理推理深度;stream、system、tools 等与官方一致。

Anthropic 文档:Claude Opus 4.6 / Sonnet 4.6 推荐 adaptive thinking;手动 budget_tokens 方式仍可用但标记为逐步淘汰。详见 https://platform.claude.com/docs/en/build-with-claude/extended-thinking
参数类型必填说明
modelstring模型 ID,例如 claude-sonnet-4-6、claude-opus-4-6(以控制台绑定为准)
messagesarrayrole 为 user 或 assistant,content 可为文本或多模态块
max_tokensinteger输出 token 上限(必填)
thinkingobjectExtended thinking。推荐 { "type": "adaptive" }(Opus/Sonnet 4.6);或 { "type": "enabled", "budget_tokens": N }(旧式,文档标注将移除)。
systemstring | array系统提示
temperaturenumber旗舰推理向用法以 thinking / 模型内置行为为主;temperature 对新版对话体验影响有限,可不传。
top_pnumber核采样(与官方一致,可选)
top_kintegerTop-k 采样(可选)
streambooleanSSE 流式
stop_sequencesarray停止序列
toolsarrayTool definitions
tool_choiceobject工具选择
metadataobject请求元数据
请求示例
curl -X POST {API_BASE}/v1/messages \
  -H "x-api-key: {API_KEY}" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-opus-4-6",
    "max_tokens": 1024,
    "thinking": {"type": "adaptive"},
    "system": "You are a helpful AI assistant.",
    "messages": [
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ]
  }'
响应示例
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Quantum computing uses quantum bits (qubits) that can exist in multiple states simultaneously..."
    }
  ],
  "model": "claude-opus-4-6",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 25,
    "output_tokens": 150
  }
}

Gemini (Google AI Studio)

兼容 Google AI Studio generateContent。Gemini 3.x / 2.5 等支持 thinkingConfig(thinkingBudget、includeThoughts)控制推理;详见官方 Thinking 文档。

POST/v1beta/models/{model}:generateContent

Generate Content(对话)

通过 contents 多轮对话。旗舰推理模型优先在 generationConfig 内配置 thinkingConfig;maxOutputTokens、stopSequences、systemInstruction、tools 与官方一致。

Google 文档:thinkingBudget 可用 0、正整数或 -1(动态分配);includeThoughts 可返回思考摘要。详见 https://ai.google.dev/gemini-api/docs/thinking
参数类型必填说明
contentsarray对话轮次:role(user / model)与 parts
generationConfigobject生成配置容器;内含 maxOutputTokens、topP、topK、stopSequences、thinkingConfig 等。
generationConfig.thinkingConfigobject嵌于 generationConfig:thinkingBudget(-1 动态、0 关闭或正整数 token 上限)、includeThoughts 等。
generationConfig.temperaturenumber对 Gemini 3.x 等强推理模型,官方更推荐用 thinkingConfig;temperature 对旗舰场景已不是主要旋钮。
safetySettingsarray安全类别阈值
toolsarrayFunction calling 工具
systemInstructionobject系统指令(含 parts)
请求示例
curl -X POST "{API_BASE}/v1beta/models/gemini-3.1-pro-preview:generateContent" \
  -H "x-goog-api-key: {API_KEY}" \
  -H "Content-Type: application/json" \
  -d '{
    "contents": [
      {
        "role": "user",
        "parts": [{"text": "Explain how AI works in simple terms."}]
      }
    ],
    "generationConfig": {
      "maxOutputTokens": 1024,
      "thinkingConfig": {
        "thinkingBudget": -1,
        "includeThoughts": false
      }
    }
  }'
响应示例
{
  "candidates": [
    {
      "content": {
        "parts": [
          {"text": "AI works by learning patterns from large amounts of data..."}
        ],
        "role": "model"
      },
      "finishReason": "STOP",
      "index": 0
    }
  ],
  "usageMetadata": {
    "promptTokenCount": 10,
    "candidatesTokenCount": 85,
    "totalTokenCount": 95
  }
}