Meta 今年压轴开源 AI模型 Llama 3.3 登场:700 亿参数,性能比肩 4050 亿
Meta 今年的压轴 AI 大模型来了
Meta 用 Llama 3.3 为2024年的模型发布画上了句号。就在昨天,这个拥有700亿参数的新模型正式亮相。参数规模听起来不算最顶尖?但真正让人眼前一亮的,是它的性能表现:竟然能够媲美拥有4050亿参数的 Llama 3.1。这其中的效率提升,着实值得玩味。
Meta 这次主打的核心优势很明确:更高效率,更低成本。他们强调,Llama 3.3 甚至可以在标准工作站上运行,这无疑为众多开发者和企业降低了部署与运营的门槛,同时还能提供高质量的文本AI解决方案。性价比,成了它的一张关键牌。
那么,具体有哪些升级?首先是在语言支持上。Llama 3.3 重点优化了多语言能力,目前能流畅支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,共计8种语言。这对于构建全球化应用来说,是个相当实用的增强。
深入技术架构来看,Llama 3.3 本质上是一款自回归语言模型,采用了经过优化的 Transformer 架构。而其微调版本则更进了一步,结合了监督式微调和基于人类反馈的强化学习。这种组合拳的目的直指一个目标:让模型的输出更贴合人类在实用性和安全性方面的偏好。
此外,它的上下文长度达到了128K,这为处理长文档和复杂对话提供了充足空间。更重要的是,它支持多种工具使用格式,这意味着开发者可以更轻松地将其与外部工具和服务集成,从而极大地扩展模型的实际功能边界。
安全方面,Meta 也阐述了一套组合策略:从训练数据过滤、模型微调,到系统级的安全防护,旨在多层面降低模型被滥用的潜在风险。Meta 还特别鼓励开发者在实际部署时,采用诸如 Llama Guard 3、Prompt Guard 和 Code Shield 等必要的安全工具,以确保整个使用过程是负责任的。毕竟,能力越大,责任越大。
以下为参考来源:
- Meta Wraps Up 2024 with the Release of Llama 3.3
- Llama-3.3-70B-Instruct
