返回模型列表

Arcee AI: Virtuoso Large

arcee-ai/virtuoso-large
May 5, 2025131.1K 上下文64K 最大输出$0.75/M in · $1.20/M out

描述

Virtuoso-Large 是 Arcee 最顶级的通用 LLM,参数规模 72B,面向跨领域推理、创意写作和企业问答场景调优。与许多 70B 级别同类不同,它保留了从 Qwen 2.5 继承的 128k context,可整书籍、整个代码库或完整财报整包输入。训练过程融合了 DeepSeek R1 蒸馏、多轮 supervised fine-tuning 以及最终的 DPO/RLHF 对齐阶段,在 BIG-Bench-Hard、GSM-8K 和 long-context Needle-In-Haystack 测试上表现强劲。企业常将 Virtuoso-Large 作为 Conductor 流水线中小型 SLM 低置信度时的 "兜底" 模型。尽管体积较大,通过激进的 KV-cache 优化,其在 8 卡 H100 节点上的首 token 延迟仍保持在秒级低位,是真正适合生产级部署的重量级方案。

技术规格

供应商
arcee-ai
上下文长度
131.1K
最大输出
64K
模态类型
输入text
输出text

定价

类型价格 / 百万 Token
输入$0.75
输出$1.20

快速开始

curl https://api.ominigate.ai/v1/chat/completions \
  -H "Authorization: Bearer sk-omg-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "arcee-ai/virtuoso-large",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'
Arcee AI: Virtuoso Large — Pricing & API on OminiGate