Skip to content

API 概览

OpenHub 提供完全兼容 OpenAI 的 API 接口,支持所有主流大模型。

基础信息

  • Base URL: https://api.myopenhub.com/v1
  • 认证方式: Bearer Token (API Key)
  • 响应格式: JSON
  • 字符编码: UTF-8

快速开始

1. 获取 API Key

控制台 创建 API Key。

2. 调用 API

bash
curl https://api.myopenhub.com/v1/llm/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4",
    "messages": [
      {"role": "user", "content": "Hello!"}
    ]
  }'

核心接口

聊天补全

创建聊天补全,支持所有主流模型。

http
POST /v1/llm/chat/completions

参数

  • model: 模型名称(如 gpt-4auto
  • messages: 消息列表
  • temperature: 温度参数(0-2)
  • max_tokens: 最大生成 token 数
  • stream: 是否流式返回

示例

javascript
const response = await fetch('https://api.myopenhub.com/v1/llm/chat/completions', {
  method: 'POST',
  headers: {
    'Authorization': 'Bearer YOUR_API_KEY',
    'Content-Type': 'application/json'
  },
  body: JSON.stringify({
    model: 'auto',
    messages: [
      { role: 'user', content: '写一首关于春天的诗' }
    ]
  })
});

详细文档:聊天补全

流式响应

实时返回生成内容,提升用户体验。

javascript
const response = await fetch('https://api.myopenhub.com/v1/llm/chat/completions', {
  method: 'POST',
  headers: {
    'Authorization': 'Bearer YOUR_API_KEY',
    'Content-Type': 'application/json'
  },
  body: JSON.stringify({
    model: 'gpt-4',
    messages: [{ role: 'user', content: '写一首诗' }],
    stream: true
  })
});

const reader = response.body.getReader();
// 处理流式数据...

详细文档:流式响应

响应格式

成功响应

json
{
  "success": true,
  "data": {
    "id": "chatcmpl-123",
    "object": "chat.completion",
    "created": 1677652288,
    "model": "gpt-4",
    "choices": [
      {
        "index": 0,
        "message": {
          "role": "assistant",
          "content": "你好!我是 AI 助手..."
        },
        "finish_reason": "stop"
      }
    ],
    "usage": {
      "prompt_tokens": 20,
      "completion_tokens": 100,
      "total_tokens": 120
    }
  }
}

错误响应

json
{
  "success": false,
  "data": null,
  "error": {
    "code": "INSUFFICIENT_BALANCE",
    "message": "余额不足,请充值"
  }
}

认证

所有 API 请求需要在 Header 中包含 API Key:

http
Authorization: Bearer YOUR_API_KEY

获取 API Key:

  1. 登录 OpenHub 控制台
  2. 进入「API Keys」页面
  3. 创建新的 API Key

详细文档:认证

支持的模型

OpenHub 支持以下模型:

OpenAI

  • gpt-4, gpt-4-turbo, gpt-3.5-turbo

Anthropic

  • claude-3-opus, claude-3-sonnet, claude-3-haiku

国产模型

  • qwen-max, qwen-plus, qwen-turbo (通义千问)
  • ernie-4.0, ernie-3.5 (文心一言)
  • deepseek-chat, deepseek-coder (DeepSeek)
  • moonshot-v1-128k, moonshot-v1-32k (月之暗面)
  • glm-4, glm-3-turbo (智谱 AI)
  • abab6.5-chat (MiniMax)
  • doubao-pro (豆包)

智能路由

  • auto - 自动选择最优模型
  • auto-cheap - 自动选择最便宜模型
  • auto-fast - 自动选择最快模型

详细文档:模型介绍

速率限制

不同套餐有不同的速率限制:

套餐每分钟请求数每天请求数并发数
免费版6010005
智能版3001000020
专业版10005000050
企业版无限制无限制200

超过限制会返回 429 错误。

详细文档:错误处理

SDK 支持

OpenHub 完全兼容 OpenAI SDK,无需修改代码:

Python

python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.myopenhub.com/v1"
)

response = client.chat.completions.create(
    model="auto",
    messages=[{"role": "user", "content": "Hello"}]
)

Node.js

javascript
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_API_KEY',
  baseURL: 'https://api.myopenhub.com/v1'
});

const response = await client.chat.completions.create({
  model: 'auto',
  messages: [{ role: 'user', content: 'Hello' }]
});

最佳实践

  1. 使用智能路由节省成本

    javascript
    model: 'auto'  // 自动选择最优模型,节省 50-70% 成本
  2. 启用流式响应提升体验

    javascript
    stream: true  // 实时返回生成内容
  3. 设置合理的 max_tokens

    javascript
    max_tokens: 500  // 避免浪费
  4. 实现错误重试

    javascript
    // 使用指数退避策略重试

下一步

Released under the MIT License.