模型与价格
如何查看可用模型
登录 使用站点 后,你可以在以下位置查看可用模型:
- 控制台首页:通常会展示支持的模型列表
- API 接口:通过调用
/v1/models接口获取完整的模型列表
bash
curl https://api.kkkk24juastin.asia/v1/models \
-H "Authorization: Bearer sk-你的API密钥"如何查看价格
登录使用站点后,进入「价格」或「模型价格」页面,可以查看每个模型的详细定价信息。
不同模型的价格差异较大,建议根据实际需求选择合适的模型类型:
| 模型类型 | 特点 | 适用场景 |
|---|---|---|
| 旗舰模型 | 综合能力最强 | 复杂推理、深度分析、高质量写作 |
| 轻量模型 | 速度快、价格低 | 简单问答、快速任务、日常对话 |
| 长文本模型 | 上下文窗口大 | 文档分析、长文总结、代码审查 |
| 多模态模型 | 支持图文输入 | 图片理解、视觉分析、图文任务 |
| 高性价比模型 | 性能与价格平衡 | 中文场景、日常使用、批量调用 |
具体支持哪些模型以及对应价格,请在使用站点的「价格」页面查看。
Token 怎么计费
AI 模型按 Token 计费。Token 是文本的基本单位,大致理解:
- 1 个英文单词 ≈ 1 个 Token
- 1 个中文字 ≈ 1.5-2 个 Token
- 1000 个 Token ≈ 750 个英文单词 或 500 个中文字
每次 API 调用的费用 = 输入 Token 数 × 输入价格 + 输出 Token 数 × 输出价格
举个例子:你发了一条 100 Token 的消息,AI 回复了 200 Token,那么这次调用消耗了 300 Token。
节省 Token 的技巧
- 提问时尽量简洁明了
- 避免发送过长的上下文
- 对于简单任务,使用轻量模型,价格更便宜
- 合理设置
max_tokens参数限制输出长度
为什么不同模型扣费不一样
不同模型的定价不同,主要原因:
- 模型能力不同:更强大的模型训练成本更高,价格也更贵
- 输入/输出价格不同:大多数模型的输出价格高于输入价格(因为生成比回忆更消耗算力)
- 上下文窗口不同:支持更长上下文的模型通常价格更高
建议根据任务类型选择模型:
- 简单问答、翻译:使用轻量模型,价格便宜
- 复杂推理、编程:使用旗舰模型,效果更好
- 长文档分析:选择支持长上下文的模型
具体模型列表和价格,请登录 使用站点 查看「价格」页面。