返回模型列表

Mistral: Mixtral 8x7B Instruct

mistralai/mixtral-8x7b-instruct
Dec 10, 202332.8K 上下文16.4K 最大输出$0.54/M in · $0.54/M out已弃用

此模型已被弃用

此模型已于 2026-05-07 弃用,不再可用于 API 调用。请迁移到替代模型。

描述

Mixtral 8x7B Instruct 是 Mistral AI 发布的预训练稀疏 MoE 生成模型,用于对话和 instruction 场景。包含 8 个专家(前馈网络),总参数 470 亿。

由 Mistral 微调的 instruct 模型。#moe

技术规格

供应商
mistralai
上下文长度
32.8K
最大输出
16.4K
模态类型
输入text
输出text

定价

类型价格 / 百万 Token
输入$0.54
输出$0.54

快速开始

curl https://api.ominigate.ai/v1/chat/completions \
  -H "Authorization: Bearer sk-omg-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "mistralai/mixtral-8x7b-instruct",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'
Mistral: Mixtral 8x7B Instruct — Pricing & API on OminiGate