模型介绍
OpenHub 聚合了国内外主流大模型,提供统一的 OpenAI 兼容接口。
文本模型
OpenAI
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
gpt-4 | 128K | 最强推理能力 | 复杂任务、代码生成 |
gpt-4-turbo | 128K | 性价比高 | 通用任务 |
gpt-3.5-turbo | 16K | 速度快、便宜 | 简单对话、文本处理 |
Anthropic
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
claude-3-opus | 200K | 最强性能 | 长文本分析、复杂推理 |
claude-3-sonnet | 200K | 平衡性能 | 通用任务 |
claude-3-haiku | 200K | 速度快 | 快速响应场景 |
阿里云 - 通义千问
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
qwen-max | 32K | 中文能力强 | 中文对话、知识问答 |
qwen-plus | 32K | 性价比高 | 中文通用任务 |
qwen-turbo | 8K | 速度快 | 简单中文任务 |
百度 - 文心一言
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
ernie-4.0 | 8K | 中文理解好 | 中文创作、对话 |
ernie-3.5 | 8K | 性价比高 | 中文通用任务 |
DeepSeek
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
deepseek-chat | 64K | 代码能力强 | 代码生成、技术问答 |
deepseek-coder | 16K | 专业编程 | 代码补全、调试 |
月之暗面 - Moonshot
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
moonshot-v1-128k | 128K | 超长上下文 | 长文档分析 |
moonshot-v1-32k | 32K | 平衡性能 | 通用任务 |
MiniMax
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
abab6.5-chat | 8K | 中文对话 | 中文聊天、客服 |
智谱 AI - GLM
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
glm-4 | 128K | 多模态 | 图文理解、通用任务 |
glm-3-turbo | 128K | 速度快 | 快速响应 |
字节跳动 - 豆包
| 模型名称 | 上下文长度 | 特点 | 适用场景 |
|---|---|---|---|
doubao-pro | 32K | 综合能力强 | 通用任务 |
智能路由模型
OpenHub 提供智能路由功能,自动选择最优模型:
| 模型名称 | 说明 | 路由策略 |
|---|---|---|
auto | 自动选择最优模型 | 综合考虑质量、成本、速度 |
auto-cheap | 自动选择最便宜模型 | 优先考虑成本 |
auto-fast | 自动选择最快模型 | 优先考虑速度 |
池选择语法
OpenHub 支持通过模型前缀选择不同的通道池:
语法格式
[池前缀:]模型名池前缀说明
| 前缀 | 池类型 | 说明 | 示例 |
|---|---|---|---|
self: | 用户私有池 | 使用您自己配置的 API 通道 | self:auto, self:gpt-4o |
| (无前缀) | 系统池 | 使用平台提供的共享通道 | auto, gpt-4o |
使用示例
javascript
// 使用系统池(默认)
model: 'auto' // 系统池 + 智能路由
model: 'gpt-4o' // 系统池 + 指定模型
// 使用用户私有池
model: 'self:auto' // 私有池 + 智能路由
model: 'self:gpt-4o' // 私有池 + 指定模型适用场景
- 系统池:适合大多数用户,使用平台优化的共享通道
- 私有池:适合企业用户,使用自己配置的 API 密钥,享受特定渠道的配额和价格
路由规则
智能路由会根据以下因素选择模型:
语言检测
- 中文任务 → 国产模型(通义千问、文心一言)
- 英文任务 → 国外模型(GPT-4、Claude)
任务类型
- 代码任务 → DeepSeek、GPT-4
- 长文本 → Claude、Moonshot
- 简单对话 → GPT-3.5、Qwen-Turbo
成本优化
- 自动选择性价比最高的模型
- 可节省 50-70% 成本
定价
详细定价请参考 定价页面。
计费方式
- 按 Token 计费
- 输入 Token 和输出 Token 分别计费
- 不同模型价格不同
示例价格(参考)
| 模型 | 输入价格 | 输出价格 |
|---|---|---|
| GPT-4 | ¥0.21/1K tokens | ¥0.42/1K tokens |
| GPT-3.5 | ¥0.01/1K tokens | ¥0.02/1K tokens |
| Claude-3-Opus | ¥0.105/1K tokens | ¥0.21/1K tokens |
| Qwen-Max | ¥0.028/1K tokens | ¥0.028/1K tokens |
| DeepSeek-Chat | ¥0.001/1K tokens | ¥0.002/1K tokens |
如何选择模型
场景推荐
代码生成
- 首选:
deepseek-coder、gpt-4 - 备选:
claude-3-opus
中文对话
- 首选:
qwen-max、ernie-4.0 - 备选:
gpt-4(成本较高)
英文对话
- 首选:
gpt-4、claude-3-opus - 备选:
gpt-3.5-turbo(成本较低)
长文本分析
- 首选:
claude-3-opus(200K 上下文) - 备选:
moonshot-v1-128k、glm-4
快速响应
- 首选:
gpt-3.5-turbo、qwen-turbo - 备选:
claude-3-haiku
成本敏感
- 首选:
auto-cheap(智能路由) - 备选:
deepseek-chat、qwen-turbo
使用建议
优先使用智能路由
javascriptmodel: 'auto' // 自动选择最优模型根据任务选择模型
- 不要所有任务都用 GPT-4
- 简单任务用便宜的模型
测试对比效果
- 在控制台查看不同模型的效果
- 选择性价比最高的模型
关注成本
- 在控制台查看成本统计
- 优化模型选择策略