近日消息,科技界迎来了一场重磅盛宴,Meta 公司正式发布了其年度压轴 AI 大模型——Llama 3.3。这款全新的 AI 模型拥有 700 亿参数,尽管参数规模相较之前的 Llama 3.1 缩小了不少,但在性能方面却实现了惊人的提升,足以与拥有 4050 亿参数的 Llama 3.1 媲美。
Meta 强调 Llama 3.3 模型效率更高、成本更低,可以在标准工作站上运行,降低运营成本的同时,提供高质量文本 AI 解决方案。
Llama 3.3 模型重点优化了多语言支持,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语 8 种语言。
在架构方面,Llama 3.3 是一款自回归(auto-regressive)语言模型,使用优化的 transformer 架构,其微调版本使用了监督式微调(SFT)和基于人类反馈的强化学习(RLHF),让其与人类对有用性和安全性的偏好保持一致。
Llama 3.3 上下文长度为 128K,支持多种工具使用格式,可与外部工具和服务集成,扩展模型的功能。
安全方面,Meta 采用数据过滤、模型微调和系统级安全防护等措施,以降低模型滥用的风险;此外 Meta 鼓励开发者在部署 Llama 3.3 时采取必要的安全措施,例如 Llama Guard 3、Prompt Guard 和 Code Shield,以确保模型的负责任使用。
文明上网,理性发言,共同做网络文明传播者