返回模型列表
Mistral: Mixtral 8x22B Instruct
mistralai/mixtral-8x22b-instructApr 17, 202465.5K 上下文$2.00/M in · $6.00/M out
描述
Mistral 官方对 Mixtral 8x22B 的 instruct 微调版本。在 141B 总参数中使用 39B active parameters,在同等规模下提供极高成本效率。特点包括:
- 优秀的数学、编码和 reasoning 能力
- 较长的 context 长度(64k)
- 流畅支持英语、法语、意大利语、德语和西班牙语
基准数据见发布公告此处。 #moe
技术规格
供应商
mistralai
上下文长度
65.5K
最大输出
—
模态类型
输入text
输出text
定价
| 类型 | 价格 / 百万 Token |
|---|---|
| 输入 | $2.00 |
| 输出 | $6.00 |
| 缓存读取 | $0.20 |
快速开始
curl https://api.ominigate.ai/v1/chat/completions \
-H "Authorization: Bearer sk-omg-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "mistralai/mixtral-8x22b-instruct",
"messages": [{"role": "user", "content": "Hello!"}]
}'