返回模型列表
Arcee AI: Virtuoso Large
arcee-ai/virtuoso-largeMay 5, 2025131.1K 上下文64K 最大输出$0.75/M in · $1.20/M out
描述
Virtuoso-Large 是 Arcee 最顶级的通用 LLM,参数规模 72B,面向跨领域推理、创意写作和企业问答场景调优。与许多 70B 级别同类不同,它保留了从 Qwen 2.5 继承的 128k context,可整书籍、整个代码库或完整财报整包输入。训练过程融合了 DeepSeek R1 蒸馏、多轮 supervised fine-tuning 以及最终的 DPO/RLHF 对齐阶段,在 BIG-Bench-Hard、GSM-8K 和 long-context Needle-In-Haystack 测试上表现强劲。企业常将 Virtuoso-Large 作为 Conductor 流水线中小型 SLM 低置信度时的 "兜底" 模型。尽管体积较大,通过激进的 KV-cache 优化,其在 8 卡 H100 节点上的首 token 延迟仍保持在秒级低位,是真正适合生产级部署的重量级方案。
技术规格
供应商
arcee-ai
上下文长度
131.1K
最大输出
64K
模态类型
输入text
输出text
定价
| 类型 | 价格 / 百万 Token |
|---|---|
| 输入 | $0.75 |
| 输出 | $1.20 |
快速开始
curl https://api.ominigate.ai/v1/chat/completions \
-H "Authorization: Bearer sk-omg-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "arcee-ai/virtuoso-large",
"messages": [{"role": "user", "content": "Hello!"}]
}'