返回模型列表

Mistral: Mixtral 8x22B Instruct

mistralai/mixtral-8x22b-instruct
Apr 17, 202465.5K 上下文$2.00/M in · $6.00/M out

描述

Mistral 官方对 Mixtral 8x22B 的 instruct 微调版本。在 141B 总参数中使用 39B active parameters,在同等规模下提供极高成本效率。特点包括:

  • 优秀的数学、编码和 reasoning 能力
  • 较长的 context 长度(64k)
  • 流畅支持英语、法语、意大利语、德语和西班牙语

基准数据见发布公告此处。 #moe

技术规格

供应商
mistralai
上下文长度
65.5K
最大输出
模态类型
输入text
输出text

定价

类型价格 / 百万 Token
输入$2.00
输出$6.00
缓存读取$0.20

快速开始

curl https://api.ominigate.ai/v1/chat/completions \
  -H "Authorization: Bearer sk-omg-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "mistralai/mixtral-8x22b-instruct",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'