深圳建设工程交易服务网老网站怎么做网络推广优化

张小明 2026/1/10 11:17:54
深圳建设工程交易服务网老网站,怎么做网络推广优化,北京网络网站建设公司,怎样修改网站英文域名RAG系统中的文档切块会导致语义不连贯#xff0c;影响检索完整性。文章分析了无法找到完美切块规则的原因#xff0c;提出上下文重排和上下文扩展二次重排解决方案#xff0c;通过模拟人类阅读习惯#xff0c;先定位关键段落再扩展上下文#xff…RAG系统中的文档切块会导致语义不连贯影响检索完整性。文章分析了无法找到完美切块规则的原因提出上下文重排和上下文扩展二次重排解决方案通过模拟人类阅读习惯先定位关键段落再扩展上下文有效提升检索完整性和准确性。实验证明该策略在长上下文问题中表现最佳是突破断章取义瓶颈的有效路径。尽管大语言模型本身的能力在快速演进但它依然无法凭空获取训练数据之外最新或专有知识。检索增强生成RAG, Retrieval-Augmented Generation正是为解决这一问题而生在回答问题前先从知识库中检索相关资料再让模型参考这些资料生成答案。换言之RAG让大模型从“闭卷考试”变成了“开卷考试”。但“开卷”也不一定更容易。如果检索到的资料不完整、不准确能力再强的大模型也无法给出高质量答案。因此检索是RAG的关键检索的效果取决于系统能否完整、准确地找到与用户问题最相关的内容。1、文档切块不可避免的语义破坏几乎所有RAG系统都遵循同一条技术路径文档解析 → 文本切块(Chunks) → 向量化 → 初步检索 → 精细重排 → 大语言模型生成RAG系统流程图由于检索模型的输入长度往往有限“文本切块”就成为了必要的步骤。 文本块越小语义匹配也就越精确。但切块正是影响RAG检索质量的元凶。为了适应模型限制原本连贯的长文档被机械切分为多个独立片段容易因语义缺失、语义歧义或全局结构信息丢失导致检索不完整。以《中华人民共和国民法典》为例点击查看原文档下同在固定长度切块策略下第一百二十三条关于知识产权的定义会被切成两块当用户提问**“根据知识产权定义哪些对象可享有专有权利”**时文本块1因包含关键词“知识产权”很容易被系统检索命中文本块2虽然包含条目内容但由于缺失标题和上下文语义匹配得分低极有可能被检索系统忽略最终大模型只回答了法条的前四项内容而遗漏了后四项。因切块导致的语义割裂是 RAG 产生“回答不全”问题的根源。2、为什么找不到完美的切块规则既然切块会导致断章取义那能否通过优化切块规则解决问题答案是很难甚至不可能。文档格式高度多样、内容结构千差万别没有一种切块规则能够适用于所有文档。例如在《小学生满分作文》中包含题目、作者、点评等多种非统一格式元素想用规则自动将完整作文切块非常困难。《小学生满分作文》石元达作文原文更重要的是切块的“合理性”是相对于“提问”而言的。在用户提问之前我们根本不知道哪种切块方式是最优的。以《深圳市前海一方恒融商业保理有限公司2024年度第二期华发优生活四号资产支持票据募集说明书》简称《募集说明书》为例当用户提问“华发股份董事会有多少位董事”相关的内容文档中有两段第179页“公司设董事会由9名董事组成…”第522页“公司董事局由十四名董事组成…”《募集说明书》第179页但问题在于仅看这两段无法判断两处“公司”具体所指的对象。我们还要依据第132页“共同债务人一华发集团”和第499页“共同债务人二华发股份”才能确定第179页的**“公司”指的是“华发集团”**第522页的**“公司”指的是“华发股份”**。依据这个问题理想的切块需要将第132-179页共48页切到一个文本块第499-522页共24页切到另一文本块。但这样大块的内容往往超出了检索模型的可处理长度同时切得过粗也会削弱对其他细节类问题的回答精度。所以并不存在能适应所有未来提问的“十全十美”的静态切块方案。只要切块存在语义连贯性的破坏就不可避免。3、上下文重排优势及盲区既然无法从优化切块上解决问题我们能否在检索阶段进行补救当前主流检索方案采用“逐个评估” 方式检索模型单独判断一个文本块与查询的相关性从而忽视了切块造成的上下文问题。为此我们提出了“上下文重排”模式。传统重排方式与长上下文重排方式比较不同于传统重排模型“一次只给一个切片打分”、需要多次独立输入的模式上下文重排采用“整体评估”模式将初步检索到的多个候选文本切片去重、按原文顺序拼接组成一段包含完整上下文的连续长文本例如60k tokens依据硬件配置长度有所不同一次性输入给重排模型。这样重排模型能够感知检索内容间的语义关联更准确地评估各部分内容与提问的相关性。回到《民法典》的例子当初步检索召回文本块1和2后重排模型将两个文本块作为整体输入理解了文本块2的前半部分是文本块1的延续最终将“知识产权”对应的法规完整返回。上下文重排流程但这一方案并非一劳永逸。如果文档较短初步检索返回的结果能完整放入60k tokens的上下文窗口那上下文重排的确能直接解决问题但当文档很长初步检索返回的候选内容长度超过60k tokens时我们不得不在重排前再做一轮筛选而这依然可能导致关键信息遗漏。换言之上下文重排的效果其实取决于初步检索是否把关键切片“捞回”。例如在《小学生满分作文集》中石元达的作文被切分成四个文本块。对于提问“石元达的作文全文是什么”初步检索的60k内容中只包含文本块1和2、传统重排仅能召回文本块1。引入上下文重排模型后成功召回了文本块1和2但文本块3和4仍然缺失。文本块3和4在初步检索阶段因语义相似度较低被过滤掉部分相关内容在初步检索阶段就被永久丢失。4、上下文扩展让RAG像人类一样“扫视”为了解决这个问题我们不妨先回顾一下在RAG技术出现之前人们是如何从文档中获取知识的在传统搜索引擎中系统只需按相关性排序返回片段列表用户会自行阅读、判断、前后翻阅从而补全上下文信息而在RAG系统中由于检索结果面向大模型大模型无法“主动翻页”或“扫视前后文”只能基于给定片段生成答案。一旦关键上下文缺失错误或不完整的回答几乎不可避免。因此RAG对检索结果的完整性要求远高于传统搜索引擎。它不能依赖“用户智慧”来弥补缺口必须通过检索机制自身来确保信息的充分性。上下文扩展一次重排为了有效实施上下文扩展我们起初尝试直接依据初步检索阶段的向量相似度分数来决定扩展策略向量相似度越⾼的⽂本块扩展范围越⼤周围文本被纳入候选集合的可能性也越高。此时RAG系统的检索流程如下上下文扩展上下文重排该策略对检索完整性的提升较为有限——许多关键但未被初步检索召回的文本块依然未能通过上下文扩展被有效补充。例如在“石元达的作文”案例中初步检索仅召回文本块1和2对文本块1和2进行上下文扩展由于文本块1和2的分数较低仅文本块3纳入候选集合文本块4并未被包含进候选集合文本块1、2与3输入重排模型文本块1-3输入大模型生成回答中遗漏文本块4可见上下文扩展并不能盲目地“多拿一点”而是需要先精准识别关键片段再有针对性地扩展其上下文。上下文扩展二次重排先识别后扩展对此我们提出“上下文扩展二次重排”方案引入两阶段重排机制第一次重排使用上下文重排模型对初步检索结果进行精确评分上下文扩展基于重排得分对高分文本块进行扩展——将其在文档中相邻但未被召回的前后文本块纳入候选集。得分越高扩展范围越大二次重排对扩展后的候选集再次重排筛选出最终输入大模型的最优内容这一流程赋予了RAG系统类似人类的“扫视”能力先定位最相关的关键段落再对其上下文扩展最终结合更完整语境判断相关性。上下文扩展二次重排回到“石元达的作文”案例初步检索仅召回文本块1和2第一次重排后获得较高分数上下文扩展将相邻的文本块3和4一并纳入第二次重排识别全部内容最终文本块1-4输入大模型生成准确完整的回答。可以看到经过“上下文扩展二次重排”RAG系统具备了更强的语义连贯性感知能力。5、实验评测为验证所提出策略的有效性我们在50篇长文档上构建了包含855个问题的评测集平均每个问题涉及11.3个相关段落。三种检索流程对比在实验中我们采用统一的文档解析与切分策略并使用 BGE-M3 向量模型进行初步检索。随后对各类重排模型与重排流程进行了系统评估no_rerank直接使用初步检索的向量召回结果不进行任何重排bge_rerank采用 BGE-M3 重排模型“逐个评估”模式对每个候选文本块与查询进行独立相关性评估jina_rerank采用 Jina-Reranker-v3 模型“整体评估”模式作为业界公认性能领先的长上下文重排模型能够联合评估所有候选文本块与查询的整体相关性context_rerank采用庖丁长上下文重排模型“整体评估”模式联合建模查询与全部候选文本块按照图6所示的“流程一直接重排”方案执行extend_rerank基于庖丁长上下文重排模型按照图6所示的“流程二扩展后重排”方案执行rerank_extend_rerank在庖丁长上下文重排模型的基础上按照图6所示的“流程三重排–扩展–重排”方案执行。对比六种方案我们分别截取1k、5k 和 10k tokens 的上下文作为最终召回结果并计算其与人工标注结果之间的召回率。不同上下文长度下的平均召回率实验结果表明对于依赖长上下文的问题“整体评估”形式的重排模型显著优于”逐个评估“的重排模型“上下文扩展 二次重排”策略能够进一步提升召回完整性在全部召回长度下均取得最佳性能。6、总结在RAG系统中文档切块是绕不开的工程妥协但它带来的语义碎片化是检索完整性的最大敌人。我们提出的****“上下文扩展与二次重排”****策略本质上是让RAG系统模仿人类的阅读习惯不只看孤立的片段更要基于线索去扫视周围的语境。这种方法并未改变切块的规则而是改变了检索的逻辑以极低的成本有效弥补了信息缺口。对于追求高精度、高完整性的企业级RAG应用而言这或许是突破“断章取义”瓶颈的最有效路径。7、实战应用“上下文扩展与二次重排”技术现已在ChatDOC Studio正式发布上线您可以通过PC端访问https://chatdoc.studio/ 体验不同方案的实际效果。ChatDOC Studio 提供多种服务形态您可通过网页端即时检索也可通过API调用与任意业务系统集成。我们仍以石元达作文为例对比上文不同检索模式的实际表现“Basic初步检索后直接输入”模式检索结果“Contextual上下文扩展上下文重排”模式检索结果能够看到无论是选用“Basic初步检索后直接输入”还是“Contextual上下文扩展上下文重排”模式在6k token长度下系统仅能检索召回包含石元达姓名的文本切片**黄色高亮显示**而在检索步骤中就遗漏了所需要的关键信息。“Expanded上下文扩展二次重排”模式检索结果而选择“Expanded上下文扩展二次重排”模式时可以看到同样token长度下石元达作文全文被完整召回**黄色高亮显示**证明“上下文扩展二次重排”在实际应用中具备显著提升检索完整性的优势。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

115做网站seo关键词快速排名介绍

工业控制场景下RS232接口抗干扰设计实战:从“通信掉包”到“三年零故障”的逆袭之路你有没有遇到过这样的场景?一台PLC通过RS232连接温控仪,程序写得严丝合缝,逻辑毫无漏洞,可现场一启动变频器,通信立刻超时…

张小明 2026/1/5 17:41:31 网站建设

外贸公司没网站个人网站怎么做视频

这套原则非常清晰、严谨且可操作性强,已经完全解决了“存在概念的自动生成、去重、树结构插入、底层优先”这几个核心问题。 特征类型集合作为概念的“本质标识”,用集合的子集/包含关系自然对应概念树的层次关系,用标准key实现精确去重&…

张小明 2026/1/5 19:10:18 网站建设

网站建设自建服务器任丘 做网站

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

张小明 2026/1/5 22:28:49 网站建设

做网站怎么打不开localhost河北石家庄新闻

操作系统中的流与进程间通信技术详解 1. STREAMS 相关内容 STREAMS 是操作系统中一个重要的概念,它涉及到模块、驱动程序和多路复用器等组件。下面我们来详细探讨一些与 STREAMS 相关的问题。 1.1 STREAMS 组件差异 模块(Module) :在 STREAMS 中,模块起到对数据进行处…

张小明 2026/1/6 2:11:53 网站建设

建立网站第一步是建立什么化妆品营销型网站模板

Folo翻译功能终极指南:轻松跨越语言障碍的完整方案 【免费下载链接】follow [WIP] Next generation information browser 项目地址: https://gitcode.com/GitHub_Trending/fol/follow 你是否曾经因为语言不通而错过精彩的外文内容?😕 …

张小明 2026/1/5 23:38:48 网站建设

桐庐住房和城乡建设局网站找别人做网站

还在为烦人的网页广告、弹窗和追踪代码困扰吗?AdGuard Home作为开源DNS过滤工具,能够为整个局域网提供广告拦截服务。本文将为你详细介绍如何使用AdGuardHomeRules项目中的百万级规则集,快速搭建高效的广告拦截系统。 【免费下载链接】AdGuar…

张小明 2026/1/6 2:12:47 网站建设