返回模型列表
Mistral: Mixtral 8x7B Instruct
mistralai/mixtral-8x7b-instructDec 10, 202332.8K 上下文16.4K 最大输出$0.54/M in · $0.54/M out已弃用
此模型已被弃用
此模型已于 2026-05-07 弃用,不再可用于 API 调用。请迁移到替代模型。
描述
Mixtral 8x7B Instruct 是 Mistral AI 发布的预训练稀疏 MoE 生成模型,用于对话和 instruction 场景。包含 8 个专家(前馈网络),总参数 470 亿。
由 Mistral 微调的 instruct 模型。#moe
技术规格
供应商
mistralai
上下文长度
32.8K
最大输出
16.4K
模态类型
输入text
输出text
定价
| 类型 | 价格 / 百万 Token |
|---|---|
| 输入 | $0.54 |
| 输出 | $0.54 |
快速开始
curl https://api.ominigate.ai/v1/chat/completions \
-H "Authorization: Bearer sk-omg-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "mistralai/mixtral-8x7b-instruct",
"messages": [{"role": "user", "content": "Hello!"}]
}'