Llama 4 Maverick Scout 多模态 MoE 新里程碑

2025年10月13日
"Meta Llama 4 Maverick 和 Scout 重磅登场 以原生多模态 MoE 架构 结合创新长文本处理技术 重新定义 AI 模型能力边界 特别是 Scout 达到了惊人的 10M 上下文长度 展现了效率与性能的完美结合"
Amoorzheyu
Amoorzheyu
增长负责人/Agent 开发者

Meta Llama 4 Maverick 和 Scout 模型近日在 Hugging Face Hub 上发布 这标志着大型语言模型发展的一个重要飞跃 两款模型均采用原生多模态 MoE 架构 不仅能力强大 而且在长文本处理方面展现了惊人创新

Llama 4 技术亮点

Llama 4 是 Meta 推出的新一代自回归混合专家模型 MoE 架构 此次发布包含两个核心模型

两款模型都实现了原生多模态能力 能够直接处理文本和图像输入 Llama 4 在高达 40 万亿个 token 的数据集上训练 覆盖 200 种语言 并针对阿拉伯语 西班牙语 德语和印地语等 12 种语言进行了特定微调

部署与优化

为了提高部署的灵活性和可访问性 Llama 4 Scout 经过优化 可通过即时 4 位或 8 位量化 在单张服务器级 GPU 上运行 而 Maverick 则提供 BF16 和 FP8 格式 这些模型均遵循定制的 Llama 4 社区许可协议发布 可在模型库中查看

Hugging Face 生态整合

Hugging Face 提供了全面的集成支持 助力社区立即投入使用

长文本处理秘诀

Llama 4 模型预训练上下文长度为 256K 指令微调模型支持更长的上下文长度 其中 Maverick 支持 1M 而 Scout 版本则达到了惊人的 10M 这得益于一系列创新架构选择

性能评估

Llama 4 模型在各项评估中展现了卓越性能 显著超越了如 Llama 3.1 405B 等前代模型 例如 在推理和知识任务上 经过指令微调的 Maverick 在 MMLU Pro 上取得了 80.5% 的成绩 在 GPQA Diamond 上达到 69.8% 而 Scout 分别取得了 74.3% 和 57.2%

使用指南

借助transformers库可轻松开始使用 Llama 4 请确保安装transformers v4.51.0或更高版本 例如 使用指令微调的 Maverick 模型处理多模态输入 需要多张 GPU 来并行运行详细用法和示例可在模型仓库中查看包括多模态示例 特定提示格式和高级配置选项

准备好开始您的 AI 之旅了吗?

读完这篇文章,想必您对 AI 技术有了更深的了解。现在就来体验共绩算力,让您的想法快速变成现实。

✓ 已有 10 万 + 开发者在使用

✓ 99.9% 服务可用性

✓ 开箱即用的容器托管