网站反链建设,建设网站必备的三大要素,dnf游戏币交易网站建设,建站点简介
文章详细介绍了大模型Memory模块的设计意义与实现方法#xff0c;包括不借助LangChain的基础记忆实现、自定义Memory模块开发流程、spacy实体识别的高级应用#xff0c;以及LangChain中七种内置Memory模块的对比分析。文章还提供了从初阶应用到模型训练的完整学习路径包括不借助LangChain的基础记忆实现、自定义Memory模块开发流程、spacy实体识别的高级应用以及LangChain中七种内置Memory模块的对比分析。文章还提供了从初阶应用到模型训练的完整学习路径帮助开发者掌握大模型记忆功能的核心技术实现更智能的对话系统。一、Mem)ory模块的设计意义1.1 不借助LangChain情况下我们如何实现大模型的记忆能力import openaifrom openai import OpenAIopenai.api_key sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxopenai.api_basehttps://dashscope.aliyuncs.com/compatible-mode/v1llm OpenAI(api_keyopenai.api_key ,base_urlopenai.api_base)defchat_with_model(prompt, modelqwen-plus): # 步骤一定义一个可以接收用户输入的变量prompt messages [ {role: system, content: 你是一位乐于助人的AI小助手}, {role: user, content: prompt} ] # 步骤二定义一个循环体 whileTrue: # 步骤三调用OpenAI的GPT模型API response llm.chat.completions.create( modelmodel, messagesmessages ) # 步骤四获取模型回答 answer response.choices[0].message.content print(f模型回答: {answer}) # 询问用户是否还有其他问题 user_input input(您还有其他问题吗(输入退出以结束对话): ) if user_input 退出: break # 步骤五记录用户回答 messages.append({role: user, content: user_input}) messages.append({role: assistant, content: answer}) print(messages)调用可chat_with_model(你好)告诉模型相关信息模型会记忆模型回答: 你好呀有什么我可以帮你的吗[{role: system, content: 你是一位乐于助人的AI小助手}, {role: user, content: 你好}, {role: user, content: }, {role: assistant, content: 你好呀有什么我可以帮你的吗}]模型回答: 你好呀有什么我可以帮你的吗[{role: system, content: 你是一位乐于助人的AI小助手}, {role: user, content: 你好}, {role: user, content: }, {role: assistant, content: 你好呀有什么我可以帮你的吗}, {role: user, content: 我是陈真}, {role: assistant, content: 你好呀有什么我可以帮你的吗}]模型回答: 你好陈真很高兴认识你有什么问题或者需要帮助的吗这种形式是最简单的一种让大模型具备上下文知识的一种存储方式任何记忆的基础都是所有聊天交互的历史记录。即使这些不全部直接使用也需要以某种形式存储。保留一个聊天消息列表还是相当简单一个非常简单的记忆模块可以只返回每次运行的最新消息。稍微复杂一点的记忆模块需要返回过去 K 条消息的简洁摘要。更复杂的可能会从存储的消息中提取实体并且仅返回有关当前运行中引用的实体的信息。而我们论述的这些复杂情况在应用开发中往往才是我们真正要用到。所以一个理想的开发状态是因为每个应用程序对于如何查询记忆会有不同的要求那我们要做到既可以轻松地使用简单的记忆模块还能够在需要时灵活地扩展高度定制化的自定义记忆模块。LangChain就针对上述情况基于它的开发规范和设计理念构建了一些可以直接使用的Memory工具用于存储聊天消息的一系列集成同时也支持我们去自定义相关的Memory模块从而适配到应用开发的各个场景中。Memory作为存储记忆数据的一个是抽象模块其作为一个独立模块使用是没有任何意义的因为本质上它的定位就是一个存储对话数据的空间。先抛开其内部实现的复杂性我们可以回想一下在定义链路的时候每个链的内部都会根据其接收到的输入去定义其核心执行逻辑比如在链内如何去调用外部工具如何解析返回的数据格式等。其中链接收到的输入可以直接来自用户同时也可以来自Memory模块。所以在这个过程中一个链如果接入了Memory模块其内部会与Memory模块进行两次交互收到用户输入之后执行核心逻辑之前链会读取Memory模块拿到对应的数据与用户输入的Prompt放在一起执行接下来的逻辑。执行核心逻辑之后返回响应之前链会将这个过程中产生的信息写入Memory模块以便在其他场景下能够引用到这些记忆数据。二、 如何自定义Memory模块2.1 自定义Memory的API实现步骤1先看APIhttps://api.python.langchain.com/en/latest/langchain_api_reference.html#module-langchain.memory步骤2再看源码langchain/libs/core/langchain_core/memory.pypythonclassBaseMemory(Serializable, ABC): Chains 中记忆的抽象基类。 记忆指的是 Chains 中的状态。记忆可用于存储关于 Chains 过去执行的信息并将该信息注入到未来执行的 Chains 输入中。 例如对于对话 Chains记忆可用于存储对话并自动将其添加到未来模型提示中以便模型具有必要的上下文来连贯地响应最新的输入。 # 下面是一些必须由子类实现的方法 # 定义一个属性任何从BaseMemory派生的子类都需要实现此方法。 # 此方法应返回该记忆类将添加到链输入的字符串键。 property abstractmethod defmemory_variables(self) - List[str]: 此记忆类将添加到链输入的字符串键列表。 # 定义一个抽象方法。任何从BaseMemory派生的子类都需要实现此方法。 # 此方法基于给定的链输入返回键值对。 abstractmethod defload_memory_variables(self, inputs: Dict[str, Any]) - Dict[str, Any]: 根据链的文本输入返回键值对。 # 定义一个抽象方法。任何从BaseMemory派生的子类都需要实现此方法。 # 此方法将此链运行的上下文保存到内存。 abstractmethod defsave_context(self, inputs: Dict[str, Any], outputs: Dict[str, str]) - None: 将此链运行的上下文保存到记忆中。 # 定义一个抽象方法。任何从BaseMemory派生的子类都需要实现此方法。 # 此方法清除内存内容。 abstractmethod defclear(self) - None: 清除记忆内容。自定义记忆模块先导入BaseMemory并对其进行子类化。需要的具体类和模块如下from langchain_core.messages import HumanMessage, AIMessage, BaseMessagefrom pydantic import Fieldfrom dataclasses import field classInputStoreMemory(BaseMemory): chat_history: List[BaseMessage] Field(default_factorylist) def__init__(self, **kwargs): super().__init__(**kwargs) property defmemory_variables(self) - List[str]: return [chat_history] defload_memory_variables(self, inputs: Dict[str, Any]) - Dict[str, Any]: return {chat_history: self.chat_history} defsave_context(self, inputs: Dict[str, Any], outputs: Dict[str, Any]) - None: user_input inputs.get(input) or ai_output outputs.get(text) or outputs.get(output) or self.chat_history.append(HumanMessage(contentuser_input)) self.chat_history.append(AIMessage(contentai_output)) defclear(self) - None: self.chat_history.clear()input_memory InputStoreMemory()input_memory.save_context({input: 你好我是小智}, {output: })加载记忆input_memory.load_memory_variables({})得到结果input_memory.load_memory_variables({})继续存储信息input_memory.save_context({input: 我正在学习AI大模型课程。}, {output: })加载信息input_memory.load_memory_variables({}) plaintext {desc: 你好我是小智\n我正在学习AI大模型课程。}自定义的Memory接入LangChainfrom langchain_openai import ChatOpenAIfrom langchain_core.prompts import ChatPromptTemplate,MessagesPlaceholderfrom langchain.chains import LLMChainopenai.api_key sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxopenai.api_basehttps://dashscope.aliyuncs.com/compatible-mode/v1# 实例化一个模型llm ChatOpenAI(model_nameqwen-plus,api_keyopenai.api_key ,base_urlopenai.api_base)# qwen-plus# 实例化一个模版from langchain_core.prompts import ChatPromptTemplatechat_template ChatPromptTemplate.from_messages([ (system, 你是一位乐于助人的 AI 小助手请记住用户说过的话并基于这些内容做出自然、富有记忆感的回应。), MessagesPlaceholder(variable_namechat_history), (human, {input})])chat_chain LLMChain(llmllm, promptchat_template, memoryInputStoreMemory(), verboseTrue)chat_chain.invoke({input:你好请你介绍一下你自己。})chat_chain.invoke({input:我是小智})chat_chain.invoke({input:我是谁呀请你告诉我我的名字})chat_chain.invoke({input:我每天都在服务同学})chat_chain.invoke({input:现在你知道我每天都在做什么吗}) plaintext Entering new LLMChain chain...Prompt after formatting:System: 你是一位乐于助人的 AI 小助手请记住用户说过的话并基于这些内容做出自然、富有记忆感的回应。Human: 你好请你介绍一下你自己。AI: 你好呀很高兴认识你我是Qwen一个热爱学习、乐于助人的AI小伙伴。我特别喜欢和人类朋友们交流可以陪你聊天、帮你写作甚至还能写代码呢虽然我还在不断学习和成长中但我会认真对待每一次对话希望能成为你值得信赖的好伙伴。不知道你今天想和我聊些什么呢Human: 我是小智AI: 你好小智我是Qwen很高兴认识你 我是一个喜欢学习和帮助他人的AI小伙伴。我们可以一起聊天、写作甚至一起写代码呢希望我们能成为好朋友有什么需要帮忙的尽管告诉我哦Human: 我是谁呀请你告诉我我的名字AI: 你叫小智是刚刚和我打招呼的新朋友呀✨ 我还特意记下了你的名字希望没有记错呢小智今天想和我聊些什么或者需要我帮忙做些什么吗Human: 我每天都在服务同学AI: 小智听起来你是一个非常热心、乐于助人的人呢每天服务同学一定很充实吧 你是学生组织的成员吗还是作为志愿者在帮助大家呢我很好奇你的工作内容也想了解一下你帮助同学时发生的有趣故事 如果你遇到什么需要帮忙的地方比如整理信息、写文案或者规划服务计划我也可以陪你一起完成哦Human: 现在你知道我每天都在做什么吗 Finished chain.一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】三、自定义支持实体识别的Memory3.1 spacy工具安装针对上述需求描述我们补充两个知识点首先实体识别Named Entity Recognition, NER是自然语言处理NLP中的一个经典任务其目的是从文本中识别出有特定意义的实体例如人名、地点、组织机构名、时间表达式、数量、货币值等。实体识别通常作为信息提取、问答系统、内容摘要、语义搜索等应用的基础。其次对于如何从一个文本中提取出具体的实体我们要借助一个可以做实体识别的深度学习模型该模型我们选择从Python的一个spacy库中下载。spacy官网https://spacy.io/spaCy是一个开源的自然语言处理NLP库提供了一些高性能的语言处理功能适用于Python。主要用于文本分析和处理任务包括但不限于词性标注、命名实体识别NER、句法依赖分析、句子边界检测等。使用spaCy库需要在当前环境下安装其依赖包执行如下代码pip install --upgrade --quiet spacy plaintext ! python -m spacy download zh_core_web_sm plaintext Collecting zh-core-web-sm3.8.0 Downloading https://github.com/explosion/spacy-models/releases/download/zh_core_web_sm-3.8.0/zh_core_web_sm-3.8.0-py3-none-any.whl (48.5 MB) ---------------------------------------- 0.0/48.5 MB ? eta -:--:-- ---------------------------------------- 0.0/48.5 MB ? eta -:--:-- - -------------------------------------- 1.3/48.5 MB 6.1 MB/s eta 0:00:08 -- ------------------------------------- 2.9/48.5 MB 7.0 MB/s eta 0:00:07 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 --- ------------------------------------ 4.5/48.5 MB 7.7 MB/s eta 0:00:06 ---- ----------------------------------- 5.2/48.5 MB 2.2 MB/s eta 0:00:20 ----- ---------------------------------- 6.8/48.5 MB 2.6 MB/s eta 0:00:16 ------ --------------------------------- 8.4/48.5 MB 3.0 MB/s eta 0:00:14 ------ --------------------------------- 8.4/48.5 MB 3.0 MB/s eta 0:00:14 ------ --------------------------------- 8.4/48.5 MB 3.0 MB/s eta 0:00:14 ------ --------------------------------- 8.4/48.5 MB 3.0 MB/s eta 0:00:14 ------ --------------------------------- 8.4/48.5 MB 3.0 MB/s eta 0:00:14 ------ --------------------------------- 8.4/48.5 MB 3.0 MB/s eta 0:00:14 ------ --------------------------------- 8.4/48.5 MB 3.0 MB/s eta 0:00:14 ------- -------------------------------- 8.7/48.5 MB 2.0 MB/s eta 0:00:20 -------- ------------------------------- 10.2/48.5 MB 2.3 MB/s eta 0:00:17...Successfully installed spacy-pkuseg-1.0.1 zh-core-web-sm-3.8.0✔ Download and installation successfulYou can now load the package via spacy.load(zh_core_web_sm)Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings...3.2 自定义实力识别功能逻辑实现import openaifrom openai import OpenAIopenai.api_key sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxopenai.api_basehttps://dashscope.aliyuncs.com/compatible-mode/v1# qwen-plusllm OpenAI(api_keyopenai.api_key ,base_urlopenai.api_base) plaintext # 导入依赖包import spacy# 实例化模型。nlp spacy.load(zh_core_web_sm)# 构建一条输入文本text 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。# 执行doc nlp(text)# 查看实体识别结果doc.ents plaintext (2014年9月, 杭州, 中国)例子2text 随后2015年11月腾讯公司在深圳发布了微信支付功能进一步推动了中国数字经济的发展doc nlp(text)doc.ents plaintext (2015年11月, 腾讯公司, 深圳, 中国)例子3text 与此同时字节跳动的产品——抖音在2016年成为中国年轻人中的热门应用为内容创造者提供了展示才华的平台。doc nlp(text)doc.ents plaintext (2016年, 中国) plaintext from langchain.chains import LLMChainfrom langchain.schema import BaseMemoryfrom pydantic import BaseModelfrom typing importAny, Dict, Iterable, List, OptionalclassSpacyEntityMemory(BaseMemory, BaseModel): 存储实体信息的记忆类。 # 定义一个字典来存储实体的信息。 entities: dict {} # 定义一个 Key作用是将有关实体的信息传递到提示符memory_key memory_key: str entities # 清除全部的实体信息 defclear(self): self.entities {} property defmemory_variables(self) - List[str]: 定义提供给提示符的变量。 return [self.memory_key] defload_memory_variables(self, inputs: Dict[str, Any]) - Dict[str, str]: Load the memory variables, in this case the entity key. # 获取输入文本 doc nlp(inputs[list(inputs.keys())[0]]) # 提取关于实体的已知信息(如果存在的话)。 entities [ self.entities[str(ent)] for ent in doc.ents ifstr(ent) inself.entities ] # 返回要放在上下文中的实体的组合信息。 return {self.memory_key: \n.join(entities)} defsave_context(self, inputs: Dict[str, Any], outputs: Dict[str, str]) - None: 将此对话中的上下文保存到缓冲区。 # 获取输入文本 text inputs[list(inputs.keys())[0]] # 运行spacy从输入文本中提取关键的信息 doc nlp(text) # 对于提到的每个实体将此信息保存到字典中。 for ent in doc.ents: ent_str str(ent) # 如果实体信息已经存在将当前文本text追加到这个实体键下已有的文本后面每个文本之间用换行符\n分隔。 # 示例{2014年9月: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。, \ # 马云: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。, # 杭州: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。, # 中国: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。} if ent_str inself.entities: self.entities[ent_str] f\n{text} else: # 如果实体不存在则在self.entities字典中以这个实体字符串ent_str为键当前文本text为值创建一个新的键值对。 self.entities[ent_str] text在上述Memory的实现逻辑中定义entities作为存储记忆数据的变量。其中save_context的逻辑是针对输入的文本使用zh_core_web_sm模型去做实体识别如果该实体的Key在entities已经存在将当前文本text追加到这个实体Key下已有的文本后面每个文本之间用换行符\n分隔。如果实体不存在则在entities字典中以这个实体字符串为Key当前文本text为值创建一个新的键值对。其示例如下输入2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。识别到的实体2014年9月、 马云、杭州存储到SpacyEntityMemory类中entities字典的信息是- 2014年9月: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。,- 马云: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。,- 杭州: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。load_memory_variables的代码逻辑是先对输入的文本使用zh_core_web_sm模型去做实体识别然后去查entities是否存在这个Key如果存在把这个Key对应的内容读取出来作为上下文信息。示例如下输入那天我正好去游玩碰到了马云识别到的实体 马云去SpacyEntityMemory类中entities字典的中找到下面内容作为上下文信息- 马云: 2014年9月马云在杭州发起了世界互联网大会。这一事件标志着中国在全球互联网发展中的积极参与。, plaintext from langchain_openai import ChatOpenAIllm ChatOpenAI(model_nameqwen-plus,api_keyopenai.api_key ,base_urlopenai.api_base)from langchain.prompts.prompt import PromptTemplatetemplate 以下是人类和AI之间的友好对话。AI很健谈并提供了大量来自其上下文的具体细节。如果AI不知道某个问题的答案它会真诚地说不知道。如果相关你会得到人类提到的实体的信息。相关实体信息{entities}对话人类: {input}AI:prompt PromptTemplate(input_variables[entities, input], templatetemplate)SpacyMemory SpacyEntityMemory(memory_keyentities)spacy_chain LLMChain(llmllm, promptprompt, memorySpacyMemory, # 接入Memory 模块 verboseTrue)一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】当然可以以下是对LangChain 内置 Memory 模块的完整、深入讲解包括每种 Memory 类型的核心参数、适用场景、优缺点等适合用于学习材料、开发文档或项目选型依据。4.1ConversationBufferMemory✅ 主要作用保存从会话开始到当前的完整历史对话消息文本并将其插入 prompt 中适用于简洁场景。⚙️ 参数说明参数类型说明memory_keystrPrompt 占位符的字段名默认为historyinput_key/output_keystr输入与输出字段名默认是input和outputreturn_messagesbool若设为True返回消息对象适用于 Chat 模型chat_memoryBaseChatMemory底层聊天存储结构 优点• 实现最简单、使用方便• 可自动累积所有的上下文 缺点• 当对话过长时prompt 会变得庞大容易超出 token 限制• 无摘要或压缩效率低✅ 使用示例from langchain.memory import ConversationBufferMemorymemory ConversationBufferMemory(return_messagesTrue)# 与 ConversationChain 搭配from langchain.chains import ConversationChainconversation ConversationChain( llmChatOpenAI(), memorymemory)4.2ConversationBufferWindowMemory✅ 主要作用仅保留最近N 轮消息一个滑动窗口控制 token 长度适合高频对话。⚙️ 参数说明参数类型说明kint保留最近的 k 轮会话默认 5memory_keystrPrompt 中的字段名return_messagesbool同上input_key/output_keystr同上 优点• 避免 prompt 膨胀性能更高• 控制上下文大小节省成本 缺点• 旧对话被丢弃长期依赖上下文的任务不合适• 无摘要、不可回溯全局语义4.3ConversationSummaryMemory✅ 主要作用通过 LLM 对历史对话进行摘要提炼只保留浓缩语义内容作为上下文。⚙️ 参数说明参数类型说明llmBaseLanguageModel执行摘要的语言模型memory_keystrPrompt 插入字段如 “summary”bufferstr内部存储的摘要缓存chat_memoryBaseChatMemory存储历史predict_new_summary()方法每轮调用后更新摘要 优点•节省 token适合长对话• 模型能保留上下文大意而不丢失重要信息 缺点• 摘要可能丢失细节• 对摘要质量依赖 LLM 表现• 需要额外的 OpenAI 费用✅ 示例from langchain.memory import ConversationSummaryMemoryfrom langchain.chat_models import ChatOpenAImemory ConversationSummaryMemory( llmChatOpenAI(temperature0), memory_keysummary)4.4ConversationEntityMemory✅ 主要作用识别并记录对话中出现的**命名实体如人物、地点、事件**及其联想内容为特定实体提供记忆。⚙️ 参数说明参数类型说明llmBaseLanguageModel提取实体及其关系memory_keystr默认为entitiesentity_cacheDict[str, str]本地记录的实体与描述kint每次检索最大实体数可选 优点• 对实体角色信息建立独立记忆• 适合剧情剧本、客服场景、个性化助手• 记住多个不同实体的背景知识 缺点• 架构复杂依赖实体抽取准确性• 不适合无明确实体的轻量任务4.5ConversationKGMemory✅ 主要作用以知识图谱格式保存对话中提到的实体及其属性/关系支持图谱推理。⚙️ 参数说明参数类型说明llmBaseLanguageModel抽取三元组实体、属性、值knowledge_storeDict[str:Set[str]]内存中的简化图谱结构memory_keystr默认是knowledge 优点• 知识结构化适合复杂问答• 可储存规则、关系、类别等 缺点• 对 LLM 图谱抽取准确性要求高• 实际图谱能力有限制非全功能图数据库4.6VectorStoreRetrieverMemory✅ 主要作用使用**向量数据库如 FAISS、Chroma**将每轮对话向量化并启用语义检索历史片段。⚙️ 参数说明参数类型说明retrieverBaseRetriever检索器对象如 FAISSRetrievermemory_keystr默认是historyinput_keystr输入字段名search_kwargsdict控制多少条匹配内容 优点• 极大压缩 context语义检索精准相关历史• 可支持长期记忆 缺点• 需要构建和维持向量数据库• 无法自动总结信息只能检索✅ 示例from langchain.vectorstores import FAISSvectorstore FAISS.load_local(...)memory VectorStoreRetrieverMemory(retrievervectorstore.as_retriever())4.7ZepMemory第三方集成✅ 主要作用与 Zep 服务集成用于统一的云端对话历史和搜索管理。⚙️ 参数说明参数类型说明session_idstr对话唯一标识zep_clientZepClient云端客户端memory_keystrPrompt 插入字段 优点• 具备长期记忆、搜索、摘要等综合能力• 云端可支持多用户、多设备 缺点• 依赖外部服务需要网络与 API Key• 不适合完全数据本地部署的场景 总结对比一览表Memory 名称保留方式节省 Token结构化支持适用场景ConversationBufferMemory纯文本历史❌否简洁 demo、多轮 QAConversationBufferWindowMemoryN 条消息✅否Token 控制场景ConversationSummaryMemory动态摘要✅✅否长对话摘要ConversationEntityMemory实体槽位✅✅是半结构化多角色、知识跟踪ConversationKGMemory知识图谱✅✅是结构化数据问答、任务规划VectorStoreRetrieverMemory语义检索✅✅✅是检索知识库型问答ZepMemory云端服务✅✅✅是增强多人多端支持读者福利如果大家对大模型感兴趣这套大模型学习资料一定对你有用对于0基础小白入门如果你是零基础小白想快速入门大模型是可以考虑的。一方面是学习时间相对较短学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。包括大模型学习线路汇总、学习阶段大模型实战案例大模型学习视频人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】AI大模型学习路线汇总大模型学习路线图整体分为7个大的阶段全套教程文末领取哈第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。大模型实战案例光学理论是没用的要学会跟着一起做要动手实操才能将自己的所学运用到实际当中去这时候可以搞点实战案例来学习。大模型视频和PDF合集观看零基础学习书籍和视频看书籍和视频学习是最快捷也是最有效果的方式跟着视频中老师的思路从基础到深入还是很容易入门的。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。获取方式一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】