[ DATA_STREAM: %E9%98%BF%E9%87%8C%E5%9B%BD%E9%99%85 ]

阿里国际

SCORE
8.9

阿里国际AIDC发布Ovis2.6-80B-A3B:MoE架构重塑多模态推理效率新标杆

TIMESTAMP // 5 月.13
#人工智能 #多模态模型 #开源模型 #混合专家架构 #阿里国际

核心摘要阿里国际(AIDC-AI)正式推出 Ovis2.6-80B-A3B,这是其多模态大语言模型(MLLM)系列的最新迭代。该模型通过将主干网络升级为混合专家(MoE)架构,在显著降低推理成本的同时,实现了长文本理解与高分辨率视觉处理能力的跨越式提升。▶ 算力效率的极致平衡:采用80B总参数量配合3B激活参数(A3B)的MoE架构,Ovis2.6在保持超大规模模型理解深度的同时,将实际推理开销降至轻量级模型水平。▶ 视觉理解深度进化:针对高分辨率图像解析和长序列上下文进行了底层优化,有效解决了多模态模型在复杂视觉任务中常见的“细节丢失”与上下文截断痛点。八卦洞察Ovis2.6 的发布标志着多模态模型竞争进入“效能比”时代。AIDC 并没有盲目追求全参数激活,而是通过 MoE 架构实现了“大模型能力,小模型速度”。这种 80B 总规模、3B 激活的设计,精准切中了企业级部署对 VRAM 占用和 Token 成本的敏感神经。在开源多模态领域,Ovis2.6 展现了在处理复杂文档理解(Document AI)和长视频分析方面的巨大潜力,这不仅是对 GPT-4o 等闭源模型的有力挑战,也为本地化部署高性能 MLLM 提供了最优解。行动建议建议开发者和企业架构师重点关注该模型在 RAG(检索增强生成)视觉链路中的表现,特别是涉及高精度 OCR 和长篇 PDF 解析的场景。对于算力资源有限但对视觉推理质量要求极高的团队,Ovis2.6-80B-A3B 是目前市面上极具竞争力的替代方案,应尽快进行 Benchmarking 测试以评估其在特定业务场景下的端到端表现。

SOURCE: REDDIT LOCALLLAMA // UPLINK_STABLE