当前位置:AIGC资讯 > AIGC > 正文

重磅 Llama-3最强开源大模型惊艳亮相

重磅!Llama-3,最强开源大模型正式发布!

   

202年4 月 19 日,Meta 发布开源大模型 Llama-3,助力研究人员和开发者推进语言 AI 的界限。

强大的语言模型Llama-3推出,拥有80亿和700亿两个参数量。模型类型涵盖基础预训练和指令微调,另外还有超过4000亿参数的模型正在开发中。

Llama-3 采用广博的 15T tokens 训练数据集,较前代 Llama-2 显著提升。其推理、数学、代码生成和指令跟踪能力皆有大幅跃升。

Llama-3 采用先进技术,如分组查询注意力和掩码,最大限度提高性能,同时降低能耗。Meta 将很快发布相关论文,进一步阐述其创新之处。

探索 Llama3,Meta 创造的强大语言模型,在 OpenAI API 上部署。具有 450B 参数,Llama3 通过先进的 NLP 技术提供无与伦比的准确性和性能。

体验英伟达Llama-3,AI语言模型的最新突破。在交互式在线平台上,探索其无与伦比的文本生成和对话能力。从无到有创作引人入胜的故事,生成高质量代码,并参与深入的对话,感受AI语言技术的真正力量。

"AIGC开放社区"准确预测,基于Llama-3硬件设施和训练速度,OpenAI于4月底发布了其大型语言模型。

Llama-3 性能大幅提升,但功能升级有限。它未能整合类 Sora 的视频或 Suno 的音频生成功能,限制了其直接通过文本生成内容的能力。

Meta 正在整合其庞大的音频、视频和图像产品,预计将推出集成的平台。Llama-3 的最新进展预示着未来几个月令人兴奋的功能更新,为用户带来更无缝的体验。

Llama-3简单介绍

Llama-3采用突破性技术,包括掩码查询和分组查询注意力,为问答和摘要生成提供卓越的准确性和全面性。在大量的测试数据中,Llama-3展示出非凡的性能,体现了Meta在语言理解模型方面的领先地位。

大模型的Transformer架构的核心是强大的自我注意力机制。它处理序列数据,通过加权聚合每个元素,揭示重要关系。这种技术为机器学习模型提供了深入理解复杂序列的能力。

Llama-3介绍

自注意力机制通常与掩码技术结合使用,确保模型不会越过文档边界。掩码应用于注意力权重矩阵,指示有效信息的位置并忽略无关信息。此技术有助于模型专注于相关文档部分,提高建模准确性。

优化处理文档边界时,两种类型的掩码用于防止自我注意力跨越边界。填充掩码用于较短序列的填充,以匹配最长序列的长度。

未来掩码
为了防止模型在生成序列时依赖后续信息,采用未来掩码,阻止模型在当前位置生成输出时查看后续位置的内容。

未来掩码将当前位置之后的位置都掩盖起来,使得自我注意力只能关注当前或之前的位置。

引入分组查询注意力,将查询与键分组,仅计算每个查询与其对应组的键之间的注意力。此优化大幅降低了计算复杂度,提升了模型效率。

分组查询注意力简化计算复杂度,扩展大模型:
处理长序列和海量批次更轻松。
这提升了大规模文本处理和实时应用的效率,潜力巨大。

同时分组查询注意力通过将注意力范围限制在查询和特定组的键之间,提升了模型的表示能力。它精确地捕捉了查询与键之间的依赖关系,改善了模型的查询理解能力,进一步提高了其准确性。

Meta 的先进语言模型 Llama-3 采用 128K 词汇标记器,提升语言编码效率,增强语言处理灵活性。

Lama 3 凭借超过 15 万亿个标记的强大训练数据集,实现了卓越的性能。这个数据集是其前代的 7 倍,并包含 4 倍数量的代码。

Llama 3 的多语言能力源于其预训练数据集中超过 5% 的非英语数据,涵盖 30 多种语言,为全球用户提供跨语言的沟通桥梁。

Llama-3测试数据

为评估 Llama-3 的能力,Meta 创建了一个包含 1,800 个提示的全新数据集。该数据集涵盖 12 个关键用例,包括征求建议、头脑风暴、分类、封闭式问题解答、编码和推理。这套数据集专为衡量大型语言模型在对话式人工智能任务方面的表现而设计。

语言模型突破:Llama-3 性能超越主要竞争对手
在性能测试中,拥有 7000 亿参数的 Llama-3 表现优异,超越了 Claude Sonnet、Mistral Medium 和 GPT-3.5 等同级模型。

Meta 综合测试证实,其 Llama-3 语言模型在 MMLU、AGIEval、BIG、ARC 等知名平台上大幅超越其他开源模型。该模型拥有 700 亿参数,其性能远超 Mistral 7B、Gemma 7B 和 Gemini Pro 1.0 等竞争对手。

本文素材来源Meta官网,如有侵权请联系删除


-对此,您有什么看法见解?-

-欢迎在评论区留言探讨和分享。-

更新时间 2024-06-05