NVIDIA技术突破:Llama-3上下文扩展16倍,挑战GPT-4长文本理解极限
2024.08.14 05:53浏览量:4简介:NVIDIA研究团队通过创新技术,将开源模型Llama-3的上下文长度扩展至128K,实现长上下文理解能力超越GPT-4,为AI在自然语言处理领域的应用带来新突破。
千帆应用开发平台“智能体Pro”全新上线 限时免费体验
面向慢思考场景,支持低代码配置的方式创建“智能体Pro”应用
NVIDIA技术突破:Llama-3上下文扩展16倍,挑战GPT-4长文本理解极限
在人工智能领域,大型语言模型(LLMs)的上下文处理能力一直是衡量其智能水平的重要指标之一。近日,NVIDIA研究团队宣布了一项重大技术突破,成功将开源模型Llama-3的上下文长度从原有的8K扩展到128K,实现了16倍的增长,并在长上下文理解能力上超越了闭源模型GPT-4。
背景与挑战
在Llama-3.1模型发布之前,开源模型与闭源模型在性能上一直存在显著差距,特别是在长上下文理解能力方面。一般而言,开源大模型的上下文长度较短,如Llama-3的8K上下文长度,而闭源模型如GPT-4 Turbo则支持长达128K的上下文长度。这种差距限制了开源模型在处理复杂任务时的表现,尤其是在需要处理大量信息的场景中。
技术创新
为了缩小这一差距,NVIDIA研究团队采取了一系列创新技术,成功将Llama-3的上下文长度扩展至128K。以下是他们采用的关键技术:
数据增强与预训练:
- 研究团队在SlimPajama数据集上生成了总计100亿个Token的128K长度训练数据,以提升预训练质量。
- 为了适应更长的上下文,研究人员将RoPE(Rotary Position Embedding)的基频从500K提升至150M。
指令微调:
- 在后训练阶段,研究团队设计了一个三阶段的指令微调过程,以增强模型的指令遵循能力、检索增强生成(RAG)性能和长上下文理解能力。
- 三个阶段包括:使用高质量的指令遵循数据集微调模型、使用对话QA数据集微调模型、以及专注于长上下文数据集(涵盖32K以下及32K-128K)的微调。
长上下文检索器与模型结合:
- 为了进一步提升模型在实际应用中的表现,团队还探索了长上下文检索器与长上下文模型的结合。他们使用E5-mistral embedding模型作为检索器,并发现使用更大的块大小(chunk size)在总Token数固定的情况下能够获得更好的效果。
实验与成果
通过上述技术的结合,NVIDIA成功将Llama-3的上下文长度扩展至128K,并命名为Llama3-ChatQA-2-70B。该模型在长上下文理解能力上达到了GPT-4的水平,并在某些任务上甚至超过了GPT-4。
- 在“大海捞针”测试中,Llama3-ChatQA-2-70B在128K Token长度内实现了100%的准确率,证明了其出色的长上下文检索能力。
- 在InfiniteBench基准测试中,对于超过100K Token的长上下文任务,Llama3-ChatQA-2-70B在长文本摘要、长文本问答、长文本多项选择和长文本对话四个任务上的平均得分为34.11,优于GPT-4-Turbo-2024-04-09和Claude 2。
实际应用与意义
扩展大模型的上下文长度对于提升模型在处理复杂任务时的能力至关重要。更长的上下文使模型能够处理和理解更长的文档、对话和代码段,对于文档摘要、长篇对话分析等任务至关重要。此外,长上下文还允许模型在单次推理中保持更多信息,有助于解决复杂的多步骤问题,如数学证明或复杂的逻辑推理任务。
NVIDIA的这一技术突破不仅弥补了开源模型在上下文长度方面的不足,还为AI在自然语言处理领域的应用提供了新的可能性。未来,随着技术的不断进步和应用的不断拓展,我们有理由相信大型语言模型将在更多领域发挥更大的作用。
结语
NVIDIA研究团队通过一系列创新技术成功将Llama-3的上下文长度扩展至128K,并在长上下文理解能力上超越了GPT-4。这一成果不仅展示了NVIDIA在AI领域的深厚实力,也为整个行业树立了新的标杆。我们期待未来能够看到更多类似的技术突破,推动AI技术的不断发展和应用。

发表评论
登录后可评论,请前往 登录 或 注册