河东苏州网站建设个人如何做网站

张小明 2025/12/31 22:36:59
河东苏州网站建设,个人如何做网站,wordpress没有加载图片,网站负责人备案采集照长文本任务是当下大模型研究的重点之一。在实际场景和应用中#xff0c;普遍存在大量长序列#xff08;文本、语音、视频等#xff09;#xff0c;有些甚至长达百万级 tokens。扩充模型的长文本能力不仅意味着可以在上下文窗口中装入更长的文本#xff0c;更是能够更好地建…长文本任务是当下大模型研究的重点之一。在实际场景和应用中普遍存在大量长序列文本、语音、视频等有些甚至长达百万级 tokens。扩充模型的长文本能力不仅意味着可以在上下文窗口中装入更长的文本更是能够更好地建模文本段落间信息的长程依赖关系增强对长文的阅读理解和推理。现有大模型解决长文本任务的难点之一是传统的 dot-product attention 对输入长度呈平方复杂度且存储 KV cache 的开销随输入长度增加时间和空间开销都较高**。**此外模型难以真正理解散落在长文本各处信息间的长程依赖。主流的长文本解决方法包括 Retrieval-Augmented GenerationRAG[1]、long-context adaption 等。RAG 从长文本中抽取与问题相关的信息放入 context window 进行推理但它依赖准确的检索方法大量的噪声和无关信息会进一步引起模型幻觉。long-context adaption 通过在大量长文本的数据集上后训练[2]扩展模型的 context window但其推理复杂度随文本长度平方增长、显存占用高且 context window 仍然有限。为了应对长文本开销大、难以建立长程依赖的挑战北京大学张牧涵团队提出全新的框架LongInputFine-TuningLIFT。通过将长输入文本训练进模型参数中LIFT 可以使任意短上下文窗口模型获得长文本能力。题目: LIFT: Improving Long Context Understanding of Large Language Models through Long Input Fine-Tuning文章链接: https://arxiv.org/abs/2502.14644表 1 是 LIFT 和现有常见方法的对比。表 1. LIFT 与传统长文本处理方法的对比LIFT 首次提出将长文本知识存储在模型参数中而不是外部数据库或上下文窗口中类比人类将 working memory 转成 long-term memory实现知识的内化。与此相比我们认为无限地扩充 context window 无法真正解决长文本、长历史的挑战因为无论再长的 context window 仍然有耗尽的一天而只有将上下文持续地转变成 parametric knowledge才能实现无限地学习。研究创新我们的方案具有以下优势动态高效的长输入训练。LIFT 能够通过调整模型参数动态适应新的长输入文本将其作为新的知识源无需进行资源密集型的 long-context adaptation。针对每一篇需要处理的长文本LIFT 通过分段的 language modeling 以及精心设计的辅助任务来微调模型实现用模型参数来记忆和理解长文本从而避免过长的 context 造成的推理复杂度提升和长程依赖丢失。平衡模型参数知识和原有能力。由于模型原有参数比如 Llama 3 8B通常显著大于记忆长文本所需的参数量全参数微调面临过拟合长文本而损失模型基础能力的风险。为了在模型原有能力和微调后新的参数内知识之间找到平衡我们提出了一种专门的参数高效微调模块——门控记忆适配器Gated Memory Adapter它能平衡原始模型的 In-Context LearningICL能力和 LIFT 训练后对长输入的记忆理解能力。在流行的长上下文任务上取得了巨大提升。在几个广泛认可的长上下文基准集例如 LooGLE [3]、Longbench [4]上的评估表明不同 LLM 始终能通过 LIFT 在常见的长/短依赖问答和摘要等通用任务上受益。例如在非常具有挑战性的 LooGLE 长依赖问答上相较仅通过 ICLLIFT 过后的 Llama 3 8B 的正确率从 15.44% 提升至 29.97%。在 LooGLE 短依赖问答上LIFT 将 Gemma 2 9B 的正确率从 37.37% 提升至 50.33%。图 1.LIFT 框架以及和现有方法对比LIFT 方法长文本切段训练受 LLM 预训练的启发LIFT 将「记忆长文本」的任务建模为语言建模Language Modeling任务。但在整篇长文本上进行语言建模训练开销过大且短上下文模型不具备直接在长文本上训练的能力。为此LIFT 将长文本切分为固定长度的片段对所有片段并行进行语言建模训练。如果将长文本切分为互不相交的片段如图 2 中 Trivial segmentation 所示模型将丢失片段间的正确顺序而顺序对于长文本中的长程依赖和总体理解非常重要。因此LIFT 要求相邻片段有一定重叠如图 2 中的 Our segmentation 所示——每个片段的末尾就是下一个片段的开头。这样如果模型能够记忆某个片段那么它就能够续写出下一个片段直到按顺序续写出全文。在实验中我们取重叠的长度为片段长度的 5/8因此训练的复杂度对长文本的长度呈线性。图 2. LIFT 的文章切段方法辅助任务训练在特定任务上微调 LLM 通常会导致其在其他任务上能力下降。同理长文本切段训练可能导致 LLM 的 reasoning、instruction-following 等能力损失。研究团队提出在合成的辅助任务上训练一方面弥补模型的能力损失另一方面帮助模型学会应用长文本中的信息回答问题。具体而言研究团队用预训练的 LLM 基于长文本片段自动生成几十个问答类型的辅助任务。于是 LIFT 训练分为两个阶段第一个阶段只在长文本切段任务上进行语言建模训练第二个阶段在辅助任务上训练模型基于长文本回答问题的能力。Gated Memory 架构尽管 LIFT 可以任意使用全参数微调或 LoRA/PiSSA 等参数高效微调方法来训练模型我们提出了一个专用的 Gated Memory Adapter 来平衡长文本记忆和能力。其核心在于用短窗口模型模拟假设长文本在上下文窗口中时模型的行为和内部表示。为此我们将假设的「全上下文」分为窗口外out-of-context和窗口中in-context两部分——窗口外放置的是预计将通过微调放入参数中的长文本而窗口中放置的是关于长文本的问题。我们的目的是设计一个模型用 LIFT 参数 窗口外内容短上下文去模拟全上下文的行为以此达成只用短上下文模型实现长上下文的注意力机制。为此我们设计了一个门控记忆模块Gated Memory见图 3。该模块为每个注意力层增加了两个特殊的 MLP图 3 中的 Memory MLP 和 Gate MLP均以每个位置的 query vector 为输入分别用于学习「窗口外部分的权重」gate和「窗口外部分的记忆提取内容」memory。这样当一个新的 query 进入模型可以动态地调控其使用多少 LIFT 记忆的窗口外内容当 gate0模型将恢复为纯 ICL不用任何 LIFT 记忆的信息当 gate1模型将完全依赖 LIFT 知识而忽略当前窗口中的上下文。这种动态分配机制可以有效地平衡对长文本的记忆和模型原本的 ICL 能力。LIFT 训练过程中我们将只微调 Gated Memory 中的参数实现了模型在微调较小参数量的情况下有效地记忆长文本内容并用于下游任务。实验证明了这一结构的有效性见下文表 4。图 3.Gated Memory 模块实验测评为了评估 LIFT 的有效性研究团队在 Llama 3 8B 和 Gemma 2 9B 两个短文本开源模型上下文窗口为 8k上和 GPT 3.5 商用模型上下文窗口为 16k上比较了 LIFT 方法和使用截断 ICL 的 baselines。baselines 使用原模型尽可能将长文本填入模型的上下文窗口优先填入开头和末尾 tokens其余截断并保证问题 prompt 全部填入。LIFT 在测试时的输入与 baseline 相同但使用的模型为经过 LIFT 训练的模型并默认使用 Gated Memory 适配器。对于 GPT3.5我们直接调用 GPT 3.5 的训练 API。我们主要在两个代表性的长文本评测集 LooGLE 和 LongBench 上评测其中 LooGLE 包含大量人工标注的极具挑战性的长依赖问答LongQA和 LLM 自动生成的短依赖问答ShortQALongBench 包含问答、摘要等多种任务。结果如表 2、表 3 所示实验表明LIFT 极大提升了短文本模型在 LooGLE 上的表现。LIFT 稳定提升了被测模型在 ShortQA 和 LongQA 中的平均指标。值得注意的是Llama 3 在 LongQA 上的指标从 15.44% 提升至 29.97%Gemma 2 在 ShortQA 上的指标从 37.37% 提升至 50.33%。LIFT 提升了短文本模型在 Longbench 的大多数子任务上的表现。研究团队从 LongBench 中选取了 5 个具有代表性的子任务进行测试任务包括多篇文章间的多跳推理、阅读理解和概括、检索召回等Llama 3 通过 LIFT 在其中 4 个子任务上均有提升。LIFT 的效果与模型的原有能力以及测试任务有关。LIFT 虽然普遍提升了模型的长文本能力但在部分子任务上仍有改进空间。通过分析各个子任务研究团队认为与测试问题相似的辅助任务可以促进模型关注对测试任务有用的长上下文信息有助于下游任务表现。表 2. LIFT 在 LooGLE 上的 GPT4_score 指标表 3. LIFT 在 LongBench 上的表现评测指标和原数据集一致表 4. LIFT Gated Memory 架构的消融实验此外我们通过消融实验验证了 Gated Memory 适配器的作用。如表 4 所示在 LooGLE ShortQA 数据集上Gated Memory 架构相比于使用 PiSSA[5]一种 LoRA 的改进版方法微调的原模型GPT-4 score 提升了 5.48%。总结、展望和讨论在本文中我们提出了一种新颖的框架——LIFT以增强 LLMs 的长上下文理解能力。LIFT 通过高效微调模型参数利用参数内知识in-parameter knowledge来动态适应长输入从而提升长上下文任务的能力。实验结果表明在 LooGLE 和 LongBench 等流行基准测试中LIFT 显著提升了短上下文 LLMs 在长上下文任务中的表现。然而LIFT 仍然存在一定局限性。首先在 context window 不够的情况下我们经常需要截断上下文来做长文本推理但对于需要精确信息提取的任务如「大海捞针任务」Needle in a Haystack该方法仍然性能欠佳。其次LIFT 通过将长文本输入注入模型参数增强了模型对数据的熟悉度但下游任务的效果仍然依赖于模型能否自主提取和利用 LIFT 过程中获得的参数化知识。分析表明模型在「in-context」和「out-of-context」问题上的表现存在显著差距表明 LIFT 后的参数化知识提取能力仍需进一步优化。此外我们发现在 LIFT 过程中引入辅助任务并不能总是显著提高模型能力其性能严重依赖下游测试任务和辅助任务的相似程度甚至可能因过拟合而导致性能下降。因此如何设计更通用的辅助任务是未来的研究重点。最后尽管 Gated Memory 架构显著提升了长文本记忆和 ICL 能力的平衡我们发现 LIFT 后的模型仍存在对原有能力的破坏如何设计更好的适配器来平衡记忆和能力也留作未来工作。LIFT 的理念非常有趣因为人类的短期记忆也会转化为长期记忆这一过程类似于 LIFT 将上下文中的知识转换为参数化知识。虽然距离彻底解决 LLMs 的长上下文挑战仍然任重道远但我们的初步结果表明LIFT 提供了一个极具潜力和前景的研究方向。我们鼓励社区一同探索 LIFT 在更广泛的训练数据、更丰富的模型、更先进的辅助任务设计以及更强计算资源支持下的潜在能力。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

绵阳汽车网站制作南京网站建设王道下拉??

游戏存档编辑神器:如何用uesave轻松掌控你的游戏世界? 【免费下载链接】uesave-rs 项目地址: https://gitcode.com/gh_mirrors/ue/uesave-rs 还在为游戏存档损坏而烦恼吗?是否曾经因为误操作导致辛苦积攒的游戏进度瞬间消失&#xff…

张小明 2025/12/29 4:04:31 网站建设

国外那些网站做展厅比较好seo网站诊断分析报告

就在刚刚,那是一个看似寻常却注定会在我学习生涯中留下深刻印记的时刻,我竟意外地发现了学习AI Agent最伟大的网站!在当今这个科技飞速发展的时代,人工智能领域日新月异,AI Agent更是其中备受瞩目的前沿技术。它就像一…

张小明 2025/12/29 4:04:32 网站建设

2017网站建设价目表凌风wordpress教程

还在为系统运行缓慢而烦恼吗?当Windows系统使用时间越来越长,各种临时文件、缓存数据、系统日志会悄无声息地蚕食你的磁盘空间,导致电脑性能严重下降。今天我们将从系统优化专家的角度,为您深度解析Windows Cleaner这款专业的系统…

张小明 2025/12/29 4:04:30 网站建设

龙华网站建设洛阳 网站建设网页游戏源码下载

Wan2.2视频生成模型终极指南:3分钟快速上手专业级AI视频创作 【免费下载链接】Wan2.2-TI2V-5B Wan2.2-TI2V-5B是一款开源的先进视频生成模型,基于创新的混合专家架构(MoE)设计,显著提升了视频生成的质量与效率。该模型…

张小明 2025/12/30 17:59:30 网站建设

什么是 网站收录网站推广是什么

并行执行技术全解析 1. 布隆过滤器与分区技术 布隆过滤器(Bloom Filters)可以通过将 _bloom_filter_enabled 设置为 FALSE 来禁用。不过要注意,这是一个隐藏参数,没有 Oracle 支持的指导,不建议自行设置。 分区(Partitioning)是一种可以减少数据重新分发量的技术…

张小明 2025/12/29 4:04:36 网站建设

义乌网站建设公司排名杭州平面设计师工资一般多少

GroundingDINO配置选择指南:从SwinT到SwinB的性能跃迁之路 【免费下载链接】GroundingDINO 论文 Grounding DINO: 将DINO与基于地面的预训练结合用于开放式目标检测 的官方实现。 项目地址: https://gitcode.com/GitHub_Trending/gr/GroundingDINO 还在为选择…

张小明 2025/12/29 4:04:34 网站建设