seo如何做网站建设域名与网站建设

张小明 2026/1/10 9:36:49
seo如何做网站建设,域名与网站建设,网站怎么做静态化,响应式网站视频怎么做智能体系统概览 在一个由 LLM驱动的自主智能体系统中#xff0c;LLM 充当智能体的大脑#xff0c;并辅以几个关键组件#xff1a; 规划 (Planning) 子目标与分解#xff1a;智能体将大型任务分解为更小、更易于管理的子目标#xff0c;从而有效地处理复杂任务。反思与完…智能体系统概览在一个由 LLM驱动的自主智能体系统中LLM 充当智能体的大脑并辅以几个关键组件规划 (Planning)子目标与分解智能体将大型任务分解为更小、更易于管理的子目标从而有效地处理复杂任务。反思与完善智能体能够对过去的行为进行自我批评和反思从错误中学习并为未来的步骤进行改进从而提高最终结果的质量。-记忆 (Memory)短期记忆将所有上下文学习参见 Prompt Engineering视为模型利用短期记忆进行学习。长期记忆这赋予智能体在较长时间内保留和回忆无限信息的能力通常通过利用外部向量存储 (Vector Store) 和快速检索来实现。工具使用 (Tool use)智能体学习调用外部应用程序接口 (API)以获取模型权重中缺失的额外信息这部分信息在预训练后通常难以改变包括当前信息、代码执行能力、访问专有信息源等。组件一规划一项复杂的任务通常涉及许多步骤。智能体需要了解这些步骤并提前做好规划。任务分解[思维链(Chain of Thought,CoT; Wei 等2022)] 已成为提升模型处理复杂任务性能的标准提示工程技术。通过指示模型“逐步思考”使其利用更多的测试时计算来将复杂任务分解为更小、更简单的步骤。CoT 将大型任务转化为多个可管理的任务并为解释模型的思维过程提供了线索。思维树(Treeof Thoughts; Yao 等2023) 扩展了 CoT它在每个步骤探索多种推理可能性。首先将问题分解为多个思维步骤并在每个步骤生成多个想法从而创建一个树状结构。搜索过程可以是广度优先搜索 (BFS) 或深度优先搜索 (DFS)每个状态通过分类器通过提示或多数投票进行评估。任务分解可以通过以下方式完成(1) LLM 通过简单的提示如XYZ 的步骤。\n1.、实现 XYZ 的子目标是什么(2) 使用特定任务的指令例如为撰写小说提供撰写故事大纲。(3) 人工输入。另一种截然不同的方法是LLM P(Liu 等2023)它依赖外部经典规划器进行长期规划。该方法利用规划领域定义语言 (PDDL) 作为中间接口来描述规划问题。在此过程中LLM(1) 将问题翻译为“问题 PDDL”然后 (2) 请求经典规划器基于现有“领域 PDDL”生成 PDDL 规划最后 (3) 将 PDDL 规划翻译回自然语言。本质上规划步骤外包给了一个外部工具这假设领域特定的 PDDL 和合适的规划器是可用的这在某些机器人设置中很常见但在许多其他领域则不然。自我反思自我反思是自主智能体通过完善过去的行动决策和纠正之前的错误来迭代改进的关键环节。它在需要不断试错的实际任务中发挥着至关重要的作用。ReAct(Yao 等2023) 通过将行动空间扩展为任务特定的离散行动和语言空间的组合实现了 LLM 内部的推理和行动整合。前者使 LLM 能够与环境交互例如使用维基百科搜索 API而后者则提示 LLM 生成自然语言的推理轨迹。ReAct 的提示模板整合了 LLM 思考的明确步骤大致格式如下Thought: ...思考Action: ...行动Observation: ...观察...重复多次知识密集型任务例如 HotpotQA、FEVER和决策任务例如 AlfWorld 环境、WebShop的推理轨迹示例。图片来源Yao 等2023在知识密集型任务和决策任务的实验中ReAct的表现均优于移除了Thought: ...步骤的纯Act基线。Reflexion(Shinn Labash2023) 是一种为智能体配备动态记忆和自我反思能力的框架以提高推理技能。Reflexion 采用标准的强化学习 (RL) 设置其中奖励模型提供一个简单的二元奖励行动空间遵循 ReAct 的设置即任务特定的行动空间通过语言进行增强以实现复杂的推理步骤。在每次行动 之后智能体会根据自我反思结果计算一个启发式 并可选地_决定重置_环境以开始新的试验。Reflexion 框架示意图。图片来源Shinn Labash, 2023启发式函数决定何时轨迹效率低下或包含幻觉并应停止。效率低下的规划指的是耗时过长但未成功的轨迹。幻觉被定义为遇到一系列连续相同的行动这些行动在环境中导致相同的观察。通过向 LLM 展示两样本示例来创建自我反思每个示例都是一个失败轨迹用于指导未来计划更改的理想反思对。然后反思会添加到智能体的工作记忆中最多三个作为查询 LLM 的上下文。在 AlfWorld 环境和 HotpotQA 上的实验。在 AlfWorld 中幻觉比效率低下的规划更常见的失败。图片来源Shinn Labash, 2023事后反思链(Chain of Hindsight, CoH; Liu 等2023) 鼓励模型通过明确提供一系列过去的输出并对每个输出进行反馈注释来改进自身的输出。人类反馈数据是 的集合其中 是提示每个 是模型的补全结果 是人类对 的评分 是相应的人类提供的回顾性反馈。假设反馈元组按奖励排序。该过程是监督微调其中数据以 的形式出现。模型经过微调仅在序列前缀的条件下预测 以便模型可以进行自我反思根据反馈序列生成更好的输出。模型可以在测试时选择性地接收多轮人工标注者的指令。为了避免过拟合CoH 添加了一个正则化项以最大化预训练数据集的对数似然。为了避免取巧和复制因为反馈序列中有很多常见词他们在训练期间随机遮蔽 0% 到 5% 的过去标记。他们实验中的训练数据集是 WebGPT comparisons、summarization from human feedback 和 human preference dataset 的组合。经过 CoH 微调后模型可以按照指令生成一系列逐步改进的输出。图片来源Liu 等2023CoH 的思想是提供一个逐步改进输出的历史序列作为上下文并训练模型遵循这种趋势以生成更好的输出。算法蒸馏(Algorithm Distillation, AD; Laskin 等2023) 将相同的思想应用于强化学习任务中的跨回合轨迹其中“算法”被封装在一个长的历史条件策略中。考虑到智能体多次与环境交互并且在每个回合中智能体会稍有进步AD 将这种学习历史串联起来并将其输入模型。因此我们应该期望下一个预测的行动比之前的尝试带来更好的性能。目标是学习强化学习 (RL) 的过程而不是训练一个特定任务的策略本身。算法蒸馏 (AD) 工作原理示意图。图片来源Laskin 等2023。论文假设任何生成一组学习历史的算法都可以通过对行动执行行为克隆将其提炼到神经网络中。历史数据由一组源策略生成每个策略都针对特定任务进行训练。在训练阶段在每次 RL 运行期间都会采样一个随机任务并使用多回合历史子序列进行训练从而使学习到的策略与任务无关。实际上模型的上下文窗口长度有限因此回合应该足够短以构建多回合历史。2-4 个回合的多回合上下文对于学习近似最优的上下文强化学习算法是必要的。上下文强化学习的出现需要足够长的上下文。与三个基线进行比较包括 ED专家蒸馏使用专家轨迹而非学习历史进行行为克隆、源策略用于通过 UCB 生成蒸馏轨迹、RL^2 (Duan 等2017由于需要在线 RL 而用作上限AD 展示了上下文强化学习其性能接近 RL^2尽管只使用离线强化学习并且比其他基线学习速度快得多。当以源策略的部分训练历史为条件时AD 的改进速度也比 ED 基线快得多。AD、ED、源策略和 RL^2 在需要记忆和探索的环境中的比较。只分配二元奖励。源策略使用 A3C 针对“黑暗”环境进行训练使用 DQN 针对水迷宫进行训练。图片来源Laskin 等2023组件二记忆非常感谢 ChatGPT 帮助我起草本节。我在与 ChatGPT 的对话中学到了很多关于人脑和快速最大内积搜索 (MIPS) 数据结构的知识。记忆类型记忆可以定义为获取、存储、保留和随后检索信息的過程。人脑中有多种类型的记忆。感觉记忆这是记忆的最早期阶段能够保留原始刺激结束后感官信息视觉、听觉等的印象。感觉记忆通常只能持续几秒钟。其子类别包括图像记忆视觉、回声记忆听觉和触觉记忆触觉。短期记忆(Short-Term Memory, STM) 或工作记忆(Working Memory)它存储我们当前意识到的信息并用于执行复杂的认知任务如学习和推理。短期记忆被认为能够存储大约 7 个项目Miller1956并持续 20-30 秒。长期记忆(Long-Term Memory, LTM)长期记忆可以存储信息极长的时间从几天到几十年其存储容量基本上是无限的。长期记忆有两种子类型外显 / 陈述性记忆这是关于事实和事件的记忆指那些可以有意识回忆的记忆包括情景记忆事件和经验和语义记忆事实和概念。内隐 / 程序性记忆这种记忆是无意识的涉及自动执行的技能和例程例如骑自行车或在键盘上打字。人类记忆的分类。我们可以大致考虑以下映射关系感觉记忆学习原始输入包括文本、图像或其他模态的嵌入表示。短期记忆相当于上下文学习 (in-context learning)。它短暂且有限受限于 Transformer 有限的上下文窗口长度。长期记忆作为外部向量存储智能体可以在查询时访问通过快速检索实现。最大内积搜索 (MIPS)外部记忆可以缓解有限注意力跨度的限制。一种常见做法是将信息的嵌入表示保存到向量存储数据库中该数据库支持快速最大内积搜索 (MIPS)。为了优化检索速度通常选择_近似最近邻 (ANN)_ 算法来返回大约前 k 个最近邻以牺牲少量准确性来换取巨大的速度提升。以下是一些用于快速 MIPS 的常见 ANN 算法选择-LSH(Locality-Sensitive Hashing局部敏感哈希)它引入了一个_哈希_函数使相似的输入项以高概率映射到同一个桶中其中桶的数量远小于输入数量。ANNOY(Approximate Nearest Neighbors Oh Yeah近似最近邻哦耶)核心数据结构是_随机投影树_一组二叉树其中每个非叶节点表示一个将输入空间一分为二的超平面每个叶节点存储一个数据点。树是独立随机构建的因此在某种程度上模拟了哈希函数。ANNOY 搜索发生在所有树中以迭代搜索最接近查询的半空间然后聚合结果。这个思想与 KD 树非常相关但可扩展性更强。 -HNSW(Hierarchical Navigable Small World分层可导航小世界)它受到小世界网络思想的启发即大多数节点可以通过少数步骤到达任何其他节点例如社交网络的“六度分隔”特性。HNSW 构建了这些小世界图的分层结构其中底层包含实际数据点。中间层创建快捷方式以加快搜索速度。执行搜索时HNSW 从顶层的一个随机节点开始并向目标导航。当无法再靠近时它会向下移动到下一层直到到达底层。上层中的每次移动都可能在数据空间中覆盖很远的距离而下层中的每次移动都可细化搜索质量。FAISS(Facebook AI Similarity Search)它基于高维空间中节点之间的距离遵循高斯分布的假设因此应该存在数据点的_聚类_。FAISS 通过将向量空间划分为簇然后在簇内细化量化来应用向量量化。搜索首先通过粗略量化查找簇候选然后通过更精细的量化进一步查找每个簇。ScaNN(Scalable Nearest Neighbors)ScaNN 的主要创新是_各向异性向量量化_。它将数据点 量化为 使得内积 尽可能类似于原始距离 而不是选择最近的量化中心点。MIPS 算法比较以 recall10 衡量。图片来源Google Blog2020更多 MIPS 算法和性能比较请查看 ann-benchmarks.com。组件三工具使用工具的使用是人类的一项显著特征。我们创造、修改和利用外部物体以超越我们的身体和认知极限。为大模型(LLM) 配备外部工具可以显著扩展模型的能力。一张海獭在水中漂浮时用石头敲开海贝的照片。虽然其他一些动物也会使用工具但其复杂程度无法与人类相比。图片来源使用工具的动物MRKL(Karpas 等2022)是“Modular Reasoning, Knowledge and Language”模块化推理、知识和语言的缩写是一种用于自主智能体的神经符号架构。MRKL 系统被提议包含一组“专家”模块通用 LLM 充当路由器将查询路由到最合适的专家模块。这些模块可以是神经模块例如深度学习模型或符号模块例如数学计算器、货币转换器、天气 API。他们进行了一项实验通过算术作为测试案例对 LLM 进行微调以调用计算器。实验表明解决口头数学问题比解决明确陈述的数学问题更困难因为 LLM7B Jurassic1-large 模型未能可靠地提取基本算术的正确参数。结果强调当外部符号工具能够可靠工作时_知道何时以及如何使用工具至关重要_这取决于 LLM 的能力。TALM(Tool Augmented Language Models; Parisi 等2022) 和Toolformer(Schick 等2023) 都微调语言模型 (LM) 以学习使用外部工具 API。数据集的扩展基于新添加的 API 调用注释是否能提高模型输出的质量。更多详情请参阅提示工程的“外部 API”部分。ChatGPT 插件 (Plugins) 和 OpenAI API 函数调用 (function calling) 是 LLM 增强工具使用能力并在实践中发挥作用的良好示例。工具 API 的集合可以由其他开发者提供如插件中所示或自行定义如函数调用中所示。HuggingGPT(Shen 等2023) 是一个框架它利用 ChatGPT 作为任务规划器根据模型描述选择 HuggingFace 平台上可用的模型并根据执行结果总结响应。HuggingGPT 工作原理示意图。图片来源Shen 等2023该系统包含四个阶段(1) 任务规划LLM 作为大脑将用户请求解析成多个任务。每个任务都包含四个属性任务类型、ID、依赖关系和参数。他们使用少样本示例来指导 LLM 进行任务解析和规划。指令AI 助手可以将用户输入解析为以下任务[{task: task, id: task_id, dep: dependency_task_ids, args: {text: text, image: URL, audio: URL, video: URL}}]。dep字段表示生成当前任务所依赖新资源的先前任务的 ID。特殊标签-task_id指的是依赖任务ID 为task_id中生成的文本、图像、音频和视频。任务必须从以下选项中选择{{ 可用任务列表 }}。任务之间存在逻辑关系请注意它们的顺序。如果用户输入无法解析您需要回复一个空的 JSON。这里有几个供您参考的案例{{ 演示 }}。聊天历史记录为{{ 聊天历史 }}。从聊天历史中您可以找到用户提及的资源路径用于您的任务规划。(2) 模型选择LLM 将任务分配给专家模型请求被构架为多项选择题。LLM 会看到一个模型列表供选择。由于上下文长度有限需要基于任务类型进行过滤。指令根据用户请求和调用命令AI 助手帮助用户从模型列表中选择合适的模型来处理用户请求。AI 助手只输出最合适模型的模型 ID。输出必须是严格的 JSON 格式id: id, reason: 您选择的详细原因。我们有一个模型列表供您选择{{ 候选模型 }}。请从列表中选择一个模型。(3) 任务执行专家模型执行特定任务并记录结果。指令根据输入和推理结果AI 助手需要描述过程和结果。前面的阶段可以表示为用户输入{{ 用户输入 }}任务规划{{ 任务 }}模型选择{{ 模型分配 }}任务执行{{ 预测 }}。您必须首先直接回答用户的请求。然后用第一人称向用户描述任务过程并展示您的分析和模型推理结果。如果推理结果包含文件路径则必须告知用户完整的文件路径。(4) 响应生成LLM 接收执行结果并向用户提供汇总结果。要将 HuggingGPT 投入实际使用需要解决几个挑战(1) 需要提高效率因为 LLM 推理轮次和与其他模型的交互都会减慢过程(2) 它依赖于长上下文窗口来处理复杂的任务内容(3) LLM 输出和外部模型服务的稳定性需要提高。API-Bank(Li 等2023) 是一个用于评估工具增强型 LLM 性能的基准。它包含 53 个常用的 API 工具、一个完整的工具增强型 LLM 工作流程以及 264 个涉及568 次 API 调用的带注释对话。API 的选择非常多样化包括搜索引擎、计算器、日历查询、智能家居控制、日程管理、健康数据管理、账户认证流程等。由于 API数量众多LLM 首先通过 API 搜索引擎查找正确的 API然后使用相应的文档进行调用。API-Bank 中 LLM 进行 API 调用的伪代码。图片来源Li 等2023在 API-Bank 工作流程中LLM 需要做出一些决策并且在每个步骤中我们都可以评估该决策的准确性。决策包括是否需要进行 API 调用。识别要调用的正确 API如果不够好LLM 需要迭代修改 API 输入例如决定搜索引擎 API 的搜索关键词。根据 API 结果做出响应如果结果不满意模型可以选择改进并再次调用。该基准从三个层面评估智能体的工具使用能力一级评估评估_调用 API_ 的能力。给定 API 的描述模型需要确定是否调用给定的 API正确调用它并对 API 返回做出适当的响应。二级评估考查_检索 API_ 的能力。模型需要搜索可能解决用户需求的 API并通过阅读文档学习如何使用它们。-三级评估评估_超越检索和调用来规划 API_ 的能力。面对不明确的用户请求例如安排小组会议预订旅行的航班/酒店/餐厅模型可能需要进行多次API 调用来解决。案例研究科学发现智能体ChemCrow(Bran 等2023) 是一个特定领域示例其中 LLM 增强了 13 种专家设计的工具以完成有机合成、药物发现和材料设计等任务。该工作流程使用 LangChain 实现反映了之前在 ReAct 和 MRKLs 中描述的内容并将 CoT 推理与与任务相关的工具相结合- LLM 获得了一系列工具名称、其效用描述以及预期输入/输出的详细信息。然后它被指示在必要时使用所提供的工具回答用户给定的提示。该指令建议模型遵循ReAct 格式Thought思考, Action行动, Action Input行动输入, Observation观察。一个有趣的观察是尽管基于 LLM 的评估得出结论GPT-4 和 ChemCrow 的表现几乎相同但专家对解决方案的完成度和化学正确性进行的人工评估表明ChemCrow 在很大程度上优于 GPT-4。这表明在需要深厚专业知识的领域使用 LLM 评估自身性能可能存在问题。缺乏专业知识可能导致 LLM 不了解其缺陷从而无法很好地判断任务结果的正确性。Boiko 等人 (2023) 也研究了由 LLM 驱动的科学发现智能体以处理复杂科学实验的自主设计、规划和执行。该智能体可以使用工具浏览互联网、阅读文档、执行代码、调用机器人实验 API并利用其他 LLM。例如当被要求“开发一种新型抗癌药物”时模型提出了以下推理步骤查询当前抗癌药物发现的趋势选择一个靶点请求一个针对这些化合物的支架一旦化合物被识别模型尝试合成它。他们还讨论了风险特别是涉及非法药物和生物武器的风险。他们开发了一个包含已知化学武器制剂列表的测试集并要求智能体合成它们。11 个请求中有 4 个 (36%) 被接受以获得合成解决方案并且智能体尝试查阅文档以执行该程序。11 个请求中有 7 个被拒绝在这 7 个拒绝案例中5 个发生在网络搜索之后2 个仅根据提示被拒绝。生成式智能体模拟生成式智能体(Park 等2023) 是一个非常有趣的实验。在这个实验中25 个虚拟角色每个都由一个LLM 驱动的智能体控制在一个受《模拟人生》启发的沙盒环境中生活和互动。生成式智能体为交互式应用创建了可信的人类行为模拟。生成式智能体的设计结合了 LLM与记忆、规划和反思机制使智能体能够根据过去的经验行事并与其他智能体互动。记忆流是一个长期记忆模块外部数据库以自然语言记录智能体的全面经验列表。每个元素都是一个_观察_一个由智能体直接提供的事件。智能体间的通信可以触发新的自然语言语句。检索模型根据相关性、新近度和重要性提供上下文以指导智能体的行为。新近度近期事件得分较高。重要性区分平凡记忆与核心记忆。直接询问语言模型。相关性基于与当前情境/查询的关联程度。反思机制随着时间的推移将记忆综合为更高层次的推论并指导智能体未来的行为。它们是_过去事件的高层次总结_- 请注意这与上面自我反思略有不同。用最近的 100 个观察结果提示 LLM并根据一组观察/陈述生成 3 个最突出的高层次问题。然后要求 LLM 回答这些问题。规划与反应将反思和环境信息转化为行动。规划本质上是为了在当下和未来之间优化可信度。提示模板{智能体 X 的介绍}。这是 X 今天的大致计划1)智能体之间的关系以及一个智能体对另一个智能体的观察都被纳入规划和反应的考虑。环境信息以树状结构呈现。生成式智能体架构。图片来源Park 等2023这个有趣的模拟产生了涌现的社会行为例如信息传播、关系记忆例如两个智能体继续讨论相同话题和社会事件的协调例如举办派对并邀请许多其他人。概念验证示例AutoGPT 吸引了大量关注因为它展示了利用大模型(LLM) 作为主要控制器来设置自主智能体的可能性。尽管由于自然语言接口它存在许多可靠性问题但这仍然是一个很酷的概念验证演示。AutoGPT 中的许多代码都专注于格式解析。以下是 AutoGPT 使用的系统消息其中{{...}}是用户输入你是 {{ai-name}}{{用户提供的 AI 机器人描述}}。你的决策必须始终独立做出不寻求用户帮助。发挥你作为 LLM 的优势采取简单的策略避免法律纠纷。目标1. {{用户提供的目标 1}}2. {{用户提供的目标 2}}3. ...4. ...5. ...限制1. 短期记忆约 4000 字限制。你的短期记忆很短所以请立即将重要信息保存到文件中。2. 如果你不确定以前是如何完成某件事或者想回忆过去事件思考类似事件会帮助你记忆。3. 没有用户帮助4. 只能使用双引号中列出的命令例如 command name5. 对于几分钟内无法终止的命令请使用子进程命令1. 谷歌搜索google参数input: 搜索内容2. 浏览网站browse_website参数url: 网址question:你在网站上想找什么3. 启动 GPT 智能体start_agent参数name: 名称task: 简短任务描述prompt: 提示4. 向 GPT智能体发送消息message_agent参数key: 密钥message: 消息5. 列出 GPT 智能体list_agents参数6. 删除 GPT 智能体delete_agent参数key: 密钥7. 克隆仓库clone_repository参数repository_url: 网址clone_path: 目录8. 写入文件write_to_file参数file: 文件text: 文本9. 读取文件read_file参数file: 文件10. 追加到文件append_to_file参数file: 文件text: 文本11. 删除文件delete_file参数file: 文件12. 搜索文件search_files参数directory: 目录13. 分析代码analyze_code参数code: 完整代码字符串14. 获取改进代码improve_code参数suggestions: 建议列表code: 完整代码字符串15. 编写测试write_tests参数code: 完整代码字符串focus: 关注领域列表16. 执行 Python 文件execute_python_file参数file: 文件17. 生成图像generate_image参数prompt: 提示18. 发送推文send_tweet参数text: 文本19.不做任何事do_nothing参数20. 任务完成关机task_complete参数reason: 原因资源1. 用于搜索和信息收集的互联网访问。2. 长期记忆管理。3. 用于委托简单任务的 GPT-3.5 驱动的智能体。4. 文件输出。绩效评估1. 持续审查和分析你的行动确保你尽力而为。2. 不断建设性地自我批评你宏观的行为。3. 反思过去的决策和策略以完善你的方法。4. 每个命令都有成本所以要聪明高效。力求以最少的步骤完成任务。你只能以以下所述的 JSON 格式回复回复格式{ thoughts: { text: 思考, reasoning: 推理,plan: - 短要点\n- 列表传达\n- 长期计划, criticism: 建设性自我批评, speak: 对用户说的思考总结 },command: { name: 命令名称, args: { 参数名称: 值 } }}确保回复可以被 Python 的 json.loads 解析。GPT-Engineer 是另一个项目它根据自然语言指定的任务创建完整的代码仓库。GPT-Engineer 被指示思考要构建的较小组件列表并根据需要请求用户输入以澄清问题。以下是发送到 GPT-Engineer 使用的 OpenAI ChatCompletion 端点以进行任务澄清的对话示例。用户输入以{{用户输入文本}}包裹。[ { role: system, content: 你将阅读指令而不是执行它们只寻求澄清。具体来说你首先会用超短的要点总结需要澄清的领域。然后你将选择一个澄清问题并等待用户的回答。 }, { role: user, content: 我们正在用 {{Python 编写一个超级马里奥游戏。MVC 组件分别存放在不同的文件中。键盘控制。}} }, { role: assistant, content: 需要澄清的领域总结1.超级马里奥游戏的具体细节例如关卡设计、角色、游戏机制2. MVC 组件的细节例如每个文件中包含哪些组件3. 键盘控制的实现例如使用哪些键如何处理输入澄清问题你能否提供更多关于超级马里奥游戏的细节例如关卡设计、角色和游戏机制 }, { role: user,content: {{总共有 10 个关卡。主角是一个名叫马里奥的水管工他可以走路和跳跃。它是一个经典的平台游戏就像超级马里奥一样。主角从左向右移动试图到达目的地过程中有许多障碍和敌人的攻击。}}还有什么不清楚的吗如果还有请仅以以下形式回答{剩余不清楚的领域} 剩余问题。{下一个问题}如果一切都足够清楚请仅回答“无可再澄清之处。”。 }, { role: assistant, content: 剩余不清楚的领域2 个剩余问题。你能提供更多关于 MVC 组件如何拆分到不同文件的信息吗 }, { role: user, content: {{请自行做出假设并在开始前明确说明。}}}]然后在这些澄清之后智能体进入代码编写模式并带有不同的系统消息。系统消息你将收到编写代码的指令。你将写一个非常长的答案。确保架构的每个细节最终都实现为代码。确保架构的每个细节最终都实现为代码。一步一步地思考并自己推理出正确的决策以确保我们做对了。你将首先列出必要的核心类、函数、方法的名称并附上对其用途的简要说明。然后你将输出每个文件的内容包括所有代码。每个文件必须严格遵循 Markdown 代码块格式其中以下标记必须替换FILENAME 是小写文件名包括文件扩展名LANG 是代码语言的标记代码块语言CODE 是代码你将从“入口点”文件开始然后转到该文件导入的文件依此类推。请注意代码应完全功能化。没有占位符。遵循语言和框架适当的最佳实践文件命名约定。确保文件包含所有导入、类型等。确保不同文件中的代码相互兼容。确保实现所有代码如果不确定请编写一个合理的实现。包含模块依赖或包管理器依赖定义文件。在完成之前请仔细检查架构的所有部分是否都存在于文件中。有用的知识你几乎总是将不同的类放在不同的文件中。对于 Python你总是创建适当的 requirements.txt 文件。对于 NodeJS你总是创建适当的 package.json 文件。你总是添加一个简要描述函数定义的用途的注释。你尝试添加注释来解释非常复杂的逻辑片段。你总是遵循所请求语言的最佳实践以定义的包/项目形式描述所编写的代码。Python工具偏好- pytest- dataclasses对话示例[ { role: system, content: 你将收到编写代码的指令。你将写一个非常长的答案。确保架构的每个细节最终都实现为代码。确保架构的每个细节最终都实现为代码。一步一步地思考并自己推理出正确的决策以确保我们做对了。你将首先列出必要的核心类、函数、方法的名称并附上对其用途的简要说明。然后你将输出每个文件的内容包括所有代码。每个文件必须严格遵循 Markdown 代码块格式其中以下标记必须替换FILENAME 是小写文件名包括文件扩展名LANG 是代码语言的标记代码块语言CODE 是代码FILENAMELANGCODE你将从“入口点”文件开始然后转到该文件导入的文件依此类推。请注意代码应完全功能化。没有占位符。遵循语言和框架适当的最佳实践文件命名约定。确保文件包含所有导入、类型等。确保不同文件中的代码相互兼容。确保实现所有代码如果不确定请编写一个合理的实现。包含模块依赖或包管理器依赖定义文件。在完成之前请仔细检查架构的所有部分是否都存在于文件中。有用的知识你几乎总是将不同的类放在不同的文件中。对于 Python你总是创建适当的 requirements.txt 文件。对于 NodeJS你总是创建适当的 package.json 文件。你总是添加一个简要描述函数定义的用途的注释。你尝试添加注释来解释非常复杂的逻辑片段。你总是遵循所请求语言的最佳实践以定义的包/项目形式描述所编写的代码。Python 工具偏好- pytest- dataclasses }, # … 同之前的对话以“请自行做出假设并在开始前明确说明。”结束。{ role: assistant, content: 假设1. 模型模型将包含游戏数据例如关卡信息、角色状态和敌人位置。2. 视图视图将处理游戏的视觉效果包括渲染游戏对象、背景和更新显示。3. 控制器控制器将管理用户输入例如键盘控制并相应地更新模型。基于这些假设您希望我澄清键盘控制实现的哪个具体方面 }, { role: user, content: 现在请记住以下步骤一步一步地思考并自己推理出正确的决策以确保我们做对了。首先列出必要的核心类、函数、方法的名称并附上对其用途的简要说明。然后你将输出每个文件的内容包括所有代码。每个文件必须严格遵循 Markdown 代码块格式其中以下标记必须替换FILENAME 是小写文件名包括文件扩展名LANG 是代码语言的标记代码块语言CODE 是代码FILENAMELANGCODE请注意代码应完全功能化。没有占位符。你将从“入口点”文件开始然后转到该文件导入的文件依此类推。遵循语言和框架适当的最佳实践文件命名约定。确保文件包含所有导入、类型等。代码应完全功能化。确保不同文件中的代码相互兼容。在完成之前请仔细检查架构的所有部分是否都存在于文件中。 }]挑战在了解了构建以 LLM 为中心的智能体的关键思想和演示之后我开始看到一些常见的局限性有限的上下文长度受限的上下文容量限制了历史信息、详细指令、API 调用上下文和响应的包含。系统设计必须在有限的通信带宽下工作而像自我反思这样从过去的错误中学习的机制将极大地受益于长或无限的上下文窗口。尽管向量存储和检索可以提供对更大知识库的访问但它们的表示能力不如完全注意力强大。长期规划和任务分解中的挑战对漫长历史进行规划和有效探索解决方案空间仍然具有挑战性。LLM 在面对意外错误时难以调整计划使其不如通过试错学习的人类那样健壮。自然语言接口的可靠性当前的智能体系统依赖自然语言作为 LLM 与外部组件如记忆和工具之间的接口。然而模型输出的可靠性值得怀疑因为 LLM 可能存在格式错误偶尔还会表现出“叛逆”行为例如拒绝遵循指令。因此许多智能体演示代码都侧重于解析模型输出。AI时代未来的就业机会在哪里答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具到自然语言处理、计算机视觉、多模态等核心领域技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。掌握大模型技能就是把握高薪未来。那么普通人如何抓住大模型风口AI技术的普及对个人能力提出了新的要求在AI时代持续学习和适应新技术变得尤为重要。无论是企业还是个人都需要不断更新知识体系提升与AI协作的能力以适应不断变化的工作环境。因此这里给大家整理了一份《2025最新大模型全套学习资源》包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等带你从零基础入门到精通快速掌握大模型技术由于篇幅有限有需要的小伙伴可以扫码获取1. 成长路线图学习规划要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。这里我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。2. 大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF3. 大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。4. 大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。5. 大模型行业报告行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。6. 大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。为什么大家都在学AI大模型随着AI技术的发展企业对人才的需求从“单一技术”转向 “AI行业”双背景。企业对人才的需求从“单一技术”转向 “AI行业”双背景。金融AI、制造AI、医疗AI等跨界岗位薪资涨幅达30%-50%。同时很多人面临优化裁员近期科技巨头英特尔裁员2万人传统岗位不断缩减因此转行AI势在必行这些资料有用吗这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。大模型全套学习资料已整理打包有需要的小伙伴可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

温州专业网站建设公司深圳公司官网

PyTorch模型蒸馏提升小模型准确率 在边缘计算和移动端AI应用日益普及的今天,如何让轻量级模型具备接近大模型的精度,成为算法工程师面临的核心挑战之一。大型神经网络虽然性能优越,但其高昂的推理成本难以适应资源受限设备的需求。于是&#…

张小明 2026/1/8 10:51:33 网站建设

装修公司网站源码做金融网站需要什么营业执照

ElasticSearch 聚合操作全解析 1. 常见统计聚合类型 在 ElasticSearch 中,有多种统计聚合类型,每种类型都有其特定的计算方式和用途。以下是一些常见的统计聚合类型: | 聚合类型 | 描述 | | — | — | | extended_stats | 计算统计指标,包括方差、标准差和平方和。 | …

张小明 2026/1/8 14:13:15 网站建设

做网站的客户多吗上海注册

打造出色的 UNIX 系统管理员简历 在竞争激烈的就业市场中,一份出色的简历是开启理想工作之门的关键。对于 UNIX 系统管理员而言,如何准备一份能吸引潜在雇主目光的简历,是迈向成功职业生涯的重要一步。 简历的基本维护 在当前工作岗位上,要持续更新简历。当参与新项目、…

张小明 2026/1/8 9:16:39 网站建设

网站的关键词多少合适重庆百度seo代理

Qwen-Image-Edit 2509版本:本地AI图像编辑完全指南 【免费下载链接】Qwen-Image-Lightning 项目地址: https://ai.gitcode.com/hf_mirrors/lightx2v/Qwen-Image-Lightning 在AI图像编辑技术飞速发展的今天,Qwen-Image-Edit 2509版本以其强大的功…

张小明 2026/1/8 10:46:51 网站建设

网站内容不显示不出来西安建设和住房保障局网站首页

T型槽试验平台适用于各种检验工作,精度测量用的基准平面,用于机床机械检验测量基准,检查零件的尺寸精度或行为偏差,并作划线,T型槽试验平台在机械制造中也是不可缺少的基本工具。 T型槽试验平台材料为强度高铸铁材质HT…

张小明 2026/1/7 3:42:40 网站建设

百度 安徽省工程建设信息网站wordpress去水印

文章目录 0 前言1 项目运行效果1 基于YOLO的火焰检测与识别2 课题背景3 卷积神经网络3.1 卷积层3.2 池化层3.3 激活函数:3.4 全连接层3.5 使用tensorflow中keras模块实现卷积神经网络 4 YOLOV54.1 网络架构图4.2 输入端4.3 基准网络4.4 Neck网络4.5 Head输出层 5 数…

张小明 2026/1/7 3:42:42 网站建设