API 概览
OpenHub 提供完全兼容 OpenAI 的 API 接口,支持所有主流大模型。
基础信息
- Base URL:
https://api.myopenhub.com/v1 - 认证方式: Bearer Token (API Key)
- 响应格式: JSON
- 字符编码: UTF-8
快速开始
1. 获取 API Key
在 控制台 创建 API Key。
2. 调用 API
bash
curl https://api.myopenhub.com/v1/llm/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4",
"messages": [
{"role": "user", "content": "Hello!"}
]
}'核心接口
聊天补全
创建聊天补全,支持所有主流模型。
http
POST /v1/llm/chat/completions参数:
model: 模型名称(如gpt-4、auto)messages: 消息列表temperature: 温度参数(0-2)max_tokens: 最大生成 token 数stream: 是否流式返回
示例:
javascript
const response = await fetch('https://api.myopenhub.com/v1/llm/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'auto',
messages: [
{ role: 'user', content: '写一首关于春天的诗' }
]
})
});详细文档:聊天补全
流式响应
实时返回生成内容,提升用户体验。
javascript
const response = await fetch('https://api.myopenhub.com/v1/llm/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'gpt-4',
messages: [{ role: 'user', content: '写一首诗' }],
stream: true
})
});
const reader = response.body.getReader();
// 处理流式数据...详细文档:流式响应
响应格式
成功响应
json
{
"success": true,
"data": {
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1677652288,
"model": "gpt-4",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!我是 AI 助手..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 100,
"total_tokens": 120
}
}
}错误响应
json
{
"success": false,
"data": null,
"error": {
"code": "INSUFFICIENT_BALANCE",
"message": "余额不足,请充值"
}
}认证
所有 API 请求需要在 Header 中包含 API Key:
http
Authorization: Bearer YOUR_API_KEY获取 API Key:
- 登录 OpenHub 控制台
- 进入「API Keys」页面
- 创建新的 API Key
详细文档:认证
支持的模型
OpenHub 支持以下模型:
OpenAI
gpt-4,gpt-4-turbo,gpt-3.5-turbo
Anthropic
claude-3-opus,claude-3-sonnet,claude-3-haiku
国产模型
qwen-max,qwen-plus,qwen-turbo(通义千问)ernie-4.0,ernie-3.5(文心一言)deepseek-chat,deepseek-coder(DeepSeek)moonshot-v1-128k,moonshot-v1-32k(月之暗面)glm-4,glm-3-turbo(智谱 AI)abab6.5-chat(MiniMax)doubao-pro(豆包)
智能路由
auto- 自动选择最优模型auto-cheap- 自动选择最便宜模型auto-fast- 自动选择最快模型
详细文档:模型介绍
速率限制
不同套餐有不同的速率限制:
| 套餐 | 每分钟请求数 | 每天请求数 | 并发数 |
|---|---|---|---|
| 免费版 | 60 | 1000 | 5 |
| 智能版 | 300 | 10000 | 20 |
| 专业版 | 1000 | 50000 | 50 |
| 企业版 | 无限制 | 无限制 | 200 |
超过限制会返回 429 错误。
详细文档:错误处理
SDK 支持
OpenHub 完全兼容 OpenAI SDK,无需修改代码:
Python
python
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.myopenhub.com/v1"
)
response = client.chat.completions.create(
model="auto",
messages=[{"role": "user", "content": "Hello"}]
)Node.js
javascript
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.myopenhub.com/v1'
});
const response = await client.chat.completions.create({
model: 'auto',
messages: [{ role: 'user', content: 'Hello' }]
});最佳实践
使用智能路由节省成本
javascriptmodel: 'auto' // 自动选择最优模型,节省 50-70% 成本启用流式响应提升体验
javascriptstream: true // 实时返回生成内容设置合理的 max_tokens
javascriptmax_tokens: 500 // 避免浪费实现错误重试
javascript// 使用指数退避策略重试