做的好的h游戏下载网站有哪些,低价格的网站建设公司,怎么把wordpress字去掉,神马网站快速排名软件在AI的世界里万物皆向量#xff0c;向量可以用统一的方式表示一切信息#xff1a;图片-像素#xff0c;文字-编码#xff0c;声音-频率特征向量#xff0c;文件-向量化。前文介绍了线性代数#xff1a;标量、向量、矩阵、张量#xff1b;矩阵乘法、转置、点积运算等基本…在AI的世界里万物皆向量向量可以用统一的方式表示一切信息图片-像素文字-编码声音-频率特征向量文件-向量化。前文介绍了线性代数标量、向量、矩阵、张量矩阵乘法、转置、点积运算等基本知识。深度学习的本质就是数学运算而向量和矩阵是基石。神经网络的前向传播、反向传播、梯度下降都离不开向量和矩阵运算。本文重点介绍点积计算如何应用在transformer注意力机制中。你肯定好奇到底点积运算发挥了什么作用这篇文章篇幅较长比较烧脑纰漏之处欢迎指出讨论希望可以边看边实践本文重点结合理论与代码实践回答下面几个问题。1什么是向量的点积运算python如何实现点积运算 2点积运算与向量相似度有什么关系python如何计算相似度 3相似度与transformer里面注意力attention机制又是什么关系 4python实现注意力机制。1.什么是点积运算点积是深度学习中最基础、最重要的运算它是每个神经元进行计算的核心操作。点积Dot Product是两个向量之间的一种运算结果是一个标量。用于衡量两个向量在方向上有多“一致”。两种定义1代数定义: A · B a1*b1 a2*b2 … an*bn对应位置的分量相乘然后将所有乘积结果相加。神经网络的智能就来自于学会给不同输入分配合适的权重然后做加权求和。向量点积运算就是这个加权求和过程让每个输入乘以权重全部加起来。不同神经元的点积运算重复千万次就产生了人工智能大道至简从简单规则到复杂智能是不是有点类似蚂蚁群体单个蚂蚁类似神经元的能力极其有限但当它们通过简单规则相互连接并大规模组织起来时就会涌现出全新的、更高层次的特性。1.数学表达# 输入向量比如一张简化的3像素图片input_vector [1.0,0.5,2.0]# 权重向量神经元学到的参数 weight_vector [0.3,0.7,-0.1]# 点积计算这就是神经元在做的事情result1.0×0.30.5×0.72.0×(-0.1)0.30.35-0.20.452.程序实现利用python的numpy模块实现点积运算# 输入向量比如一张简化的3像素图片input_vector np.array([1.0,0.5,2.0])# 权重向量神经元学到的参数weight_vector np.array([0.3,0.7,-0.1])# 点积计算这就是神经元在做的事情result np.dot(input_vector,weight_vector)print(点积计算结果,result)3.自己实现Vector向量类及点积运算函数class Vector: def __init__(self, components): self.components components def dot(self, other): if len(self.components)!len(other.components): raise ValueError(向量维度必须相同) return sum(x * y for x, y in zip(self.components, other.components))2几何定义: A · B ||A|| * ||B|| * cos(θ)点积的结果由两个向量的长度和它们之间的夹角共同决定。||A|| 是向量 A 的模长可以理解为向量的长度。 ||B|| 是向量 B 的模长。 θ 是向量 A 和向量 B 之间的夹角。3模长||A||如何计算向量的模长Magnitude也叫范数Norm直观来说就是向量在空间中的“长度”从原点(0,0,…)指向向量坐标点的距离。对于一个 n维向量 A [a1, a2, a3, …, an]其模长 ||A|| 的计算公式为||A|| √(a1² a2² a3² ... an²)。文字描述就是向量模长等于其所有分量的平方和再开平方根。假设有一个二维向量 A [3, 4]它在坐标系中就是从原点 (0,0) 指向点 (3,4) 的箭头。计算分量的平方和: 3² 4² 9 16 25 对结果开平方根:√25 5所以向量 A 的模长 ||A|| 5。4两种定义是等价的点积的数学本质A · B ||A|| * ||B|| * cos(θ)它同时衡量了向量的长度和方向一致性。a1\*b1 a2\*b2 ... an\*bn ||A|| \* ||B|| \* cos(θ)让我们用一个二维的例子来可视化这个过程这能极大地帮助理解。假设有两个向量:A [3, 4]B [1, 0]第一步计算点积 A · B A · B (3 * 1) (4 * 0) 3 0 3第二步计算模长 ||A|| 和 ||B|| ||A|| sqrt(3² 4²) sqrt(9 16) sqrt(25) 5 ||B|| sqrt(1² 0²) sqrt(1 0) 1第三步计算余弦值 cos(θ) cos(θ) (A · B) / (||A|| * ||B||) 3 / (5 * 1) 3/5 0.62.点积vs向量相似度是什么关系2.1向量相似度计算如何衡量向量相似度本质上我们是用夹角余弦值 cos(θ) 来衡量“方向上的相似度”而点积 A · B 是计算 cos(θ) 的一个关键步骤但它本身并不是一个纯粹的相似度度量。1最纯粹的相似度度量是 cos(θ)它只关心两个向量的方向是否一致完全忽略了它们的长度模长。这使得它成为衡量“本质相似性”的理想指标。cos(θ) 的本质是衡量方向一致性✧ 当 θ 0° 时cos(0°) 1。这意味着两个向量方向完全相同。此时点积达到最大值正值。 ✧ 当 θ 90° 时cos(90°) 0。这意味着两个向量互相垂直。此时点积为 0。 ✧ 当 θ 180° 时cos(180°) -1。这意味着两个向量方向完全相反。此时点积达到最小值负值。 所以cos(θ) 本身就是一个完美的“相似度”度量指标它衡量了两个向量在方向上的对齐程度。2点积 A · B 是 cos(θ) 的“未标准化”版本点积的结果同时受到向量方向和向量长度的影响。 ||A|| * ||B|| 是缩放因子它保证了更长的向量会对点积结果产生更大的影响。但如果两个向量的模长是固定的归一化那么点积的大小就完全由cos(θ)即方向的一致性来决定。特征点积 (Dot Product)余弦相似度 (Cosine Similarity)公式A · B Σ(a_i * b_i)cos(θ) (A · B) / (取值范围(-∞, ∞)[-1, 1]受向量长度影响是否衡量的是什么方向相似性强度模长纯方向相似性主要用途注高效计算相似度理论上纯粹的相似度度量2.2向量相似度实现Transformer通过简单的点积运算(余弦相似度的核心)在大规模应用中涌现出强大的语言理解能力这正是大道至简的完美体现。import numpy as npfrom numpy.linalg import norm#基于numpy模块实现两个向量余弦相似度相似度计算def cosine_similarity(vec1, vec2): 计算两个向量的余弦相似度 公式:cos(θ)(A·B)/(||A||*||B||) 值域:[-1,1]值越大表示越相似1 完全相同方向,0 正交,-1 完全相反方向Args: vec1 (list/np.array): 第一个向量 vec2 (list/np.array): 第二个向量Returns: float: 余弦相似度值 # 确保输入是numpy数组 vec1 np.array(vec1) vec2 np.array(vec2) # 计算点积 dot_product np.dot(vec1, vec2) # 计算向量的模长(L2范数) norm_vec1 norm(vec1) norm_vec2 norm(vec2) # 防止除以零 if norm_vec1 0 or norm_vec2 0: return 0.0 # 计算余弦相似度 similarity dot_product /(norm_vec1 * norm_vec2) return similarity# 纯Python实现(不依赖numpy)代数相似度vs几何相似度等价def cosine_similarity_python(vec1, vec2):不使用numpy的余弦相似度实现 # 计算点积 dot_product sum(a * b for a, b in zip(vec1, vec2)) # 计算模长 norm1 sum(a * a for a in vec1)**0.5 norm2 sum(b * b for b in vec2)**0.5 # 防止除以零 if norm1 0 or norm2 0: return 0.0 return dot_product /(norm1 * norm2)#测试向量相似度def test_cosine_similarity():测试余弦相似度函数print( 余弦相似度测试 ) # 相同方向的向量 a [1,2,3] b [2,4,6] # a的2倍完全同向print(f向量 {a} 和 {b} 的余弦相似度: {cosine_similarity(a, b):.4f} (应接近1.0)) # 正交向量 c [1,0,0] d [0,1,0]print(f向量 {c} 和 {d} 的余弦相似度: {cosine_similarity(c, d):.4f} (应为0.0)) # 相反方向 e [1,2,3] f [-1,-2,-3]print(f向量 {e} 和 {f} 的余弦相似度: {cosine_similarity(e, f):.4f} (应接近-1.0)) # 实际应用示例 - 文本向量 # 假设是词嵌入向量 apple [0.8,0.6,0.1,-0.2] fruit [0.7,0.5,0.2,-0.1] car [-0.1,-0.3,0.9,0.8]print(\n实际应用示例 (词向量):)print(fapple 和 fruit 的相似度: {cosine_similarity(apple, fruit):.4f})print(fapple 和 car 的相似度: {cosine_similarity(apple, car):.4f})print(\n)# 执行测试test_cosine_similarity(3.向量相似度vs注意力机制什么关系3.1Transformer的自注意力机制维基百科里面注意力机制英语attention是人工神经网络中一种模仿人类认知注意力的技术。这种机制可以增强神经网络输入数据中某些部分的权重同时减弱其他部分的权重以此将网络的关注点聚焦于数据中最重要的一小部分。数据中哪些部分比其他部分更重要取决于上下文。可以通过梯度下降法对注意力机制进行训练。允许模型在处理数据时动态分配权重重点关注输入中的重要部分。让AI模型具备像人类一样“抓重点”的能力这样AI在处理信息时也会自动分配“注意力权重”强化关键特征弱化次要信息。3.1.1transformer里面的self-attentionlayer下面截图来自李宏毅老师的视频课程这个结构相信大家看了无数遍。今天我们主要聚集这幅图里面的self-attentionlayer模块。3.1.2Self-attention矩阵运算过程自注意力机制允许模型在处理序列数据时关注输入序列中的不同部分。其核心是使用点积计算查询Query、键Key和值Value之间的相关性。自注意力机制公式Attention(Q, K, V) softmax(QKᵀ/√dₖ)V点积用于计算查询(Query)和键(Key)之间的相似度。其中Q: 查询矩阵K: 键矩阵V: 值矩阵dₖ: 键向量的维度用于缩放整体步骤如下3.1.3运算步骤拆解1根据输入x与权重矩阵WqWkWv计算Q、K、V矩阵。词向量xi位置编码eiai——WqWkWv*ai2每个q与每个k做点积运算Q*K做 dot product并行运算3Softmax运算-归一化矩阵运算结果进行softmax运算将点积运算得到的原始分数转换为有意义的概率分布是连接神经网络计算与概率解释的桥梁这里不做展开后面概率论单独文章再去理解。4计算输出结果3.1.4多头自注意力机制Q、K、V不同维度分解多维度理解就像用多个不同角度的摄像头同时拍摄一个场景1第一个头专注语法关系主谓宾结构2第二个头专注语义关系词汇含义3第三个头专注长距离依赖句子间逻辑3.2点积相似度计算vs注意力关系点积在注意力中的角色利用其衡量方向一致性的特性来计算查询Query 和键Key 之间的相似度。方向越一致代表Key越能回答Query的“提问”其对应的Value就越重要。1在概念上我们是用 cos(θ) 来衡量向量的相似度。余弦的优势余弦值通过除以模长消除了向量长度的影响。cos(A, B) 1 精确地表示它们方向完全相同。cos(A, C) -1 表示它们方向完全相反。cos(θ) 给出了一个归一Normalized的结果它的值永远在 [-1, 1] 之间这使得不同向量之间的相似度可以公平地进行比较。2在实际操作中尤其是在注意力机制里我们常用点积 (Q · K) 作为其高效且有效的近似计算方式例如在Transformer中Query和Key向量通常会被归一化到相同的尺度。3.3点积运算如何在transformer注意力机制中发挥作用Transformer原论文中将核心部分称为Scaled Dot-Product Attention缩放点积注意力最核心的公式为1核心思想对于当前要处理的元素Query例如一个词决定应该“关注”序列中其他元素Key的多少程度。这个“关注程度”就是一个权重最终效果通过点积注意力机制能够动态地、有针对性地从输入序列中提取最相关的信息这是Transformer和大型语言模型取得成功的关键突破之一。2Query, Key, Value 类比Query (查询向量)代表当前元素发出的“提问”“我正在处理我需要哪些信息”比喻就像你在搜索引擎里输入的关键词。Key (键向量)代表序列中每个元素所拥有的“标签”或“标识”。它用来回应 Query的提问。比喻 就像互联网上每个网页的关键词标签索引。Value (值向量)代表序列中每个元素实际包含的“信息”或“内容”。比喻 就像网页本身的完整内容。3注意力的工作流程将当前的 Query 与序列中所有元素的 Key 进行比较。点积就是执行这个比较操作的完美工具相似度分数 Query · Key加权将这些相似度分数通过Softmax函数转换为权重所有权重之和为1的正数概率分布。分数越高权重越大。求和用这些权重对所有的 Value 进行加权求和得到最终的注意力输出。4为什么点积是计算相似度的完美工具现在我们结合几何意义来理解➢ Query · Key 的值越大 - 根据点积公式这意味着 cos(θ) 接近 1 - 两个向量的方向非常接近 - 这个Key所对应的元素所拥有的“标签”Key与当前的“提问”Query高度相关 - 因此这个元素应该获得高注意力权重。➢ Query · Key 的值接近 0 - cos(θ) 接近 0 - 两个向量近乎垂直 - Key 和 Query 不相关 - 权重应接近 0。➢ Query · Key 的值为负 - cos(θ) 为负 - 两个向量方向相反 - 可能意味着某种排斥或对立关系 - 权重会非常小因为Softmax会将负值压得很低。5既然 cos(θ) 更好为什么Transformer的论文《Attention Is All You Need》中用的是点积公式 Q · K而不是直接写 cos(θ) 呢理解点积受长度影响这一缺陷是理解为何需要LayerNorm、缩放因子等技巧的关键。架构设计如LayerNorm和缩放操作 (/ √d_k) 确保了 (Q · K) 能够有效地充当相似度的度量指标。➢ 计算效率点积 Q · K 只需要一次矩阵乘法计算速度极快。如果先分别计算每个Q和K的模长再做除法计算成本更高。使用 (Q · K) 是出于计算效率和实现便利的考虑。隐含的假设在标准的Transformer架构中Query和Key向量通常已经进行了某种形式的归一化例如通过其初始化方式和层归一化LayerNorm它们的模长被控制在一个较小的范围内波动。因此点积 Q · K 的结果虽然不完全等价但已经高度近似于余弦相似度 cos(θ) 所表达的方向相似性。其内在的物理意义仍然是衡量Query和Key向量方向的相似性即 cos(θ)。➢ 可学习的缩放因子论文中并没有直接使用点积而是使用了缩放点积注意力Scaled Dot-Product Attention注意力分数 (Q · K) / √d_k)这里除以 √d_kKey向量的维度的主要原因之一是防止点积结果过大导致Softmax函数的梯度消失问题因为Softmax会将非常大的输入值推向饱和区。这个缩放操作进一步稳定了训练。4.点积运算vs自注意力python实现在Transformer模型中自注意力机制(Self-Attention)的核心就是使用点积来计算查询(Query)和键(Key)之间的相似度。具体步骤如下1准备输入初始化参数将输入向量转换为Query、Key和Value矩阵2计算注意力分数通过Query和Key的点积计算注意力分数attentionscore3缩放将点积结果除以Key向量维度的平方根(√dₖ)4Softmax对缩放后的分数应用Softmax函数获得注意力权重5加权求和用注意力权重对Value进行加权求和6输出结果。感兴趣的朋友可以阅读并运行下面代码。import numpy as npimport matplotlib.pyplot as pltfrom math import sqrt#点积计算注意力defscaled_dot_product_attention(Q, K, V, print_stepsFalse): 实现缩放点积注意力机制 参数: Q -- 查询矩阵 (batch_size, num_heads, seq_len, d_k) K -- 键矩阵 (batch_size, num_heads, seq_len, d_k) V -- 值矩阵 (batch_size, num_heads, seq_len, d_k) print_steps -- 是否打印中间步骤 返回: 输出张量和注意力权重 # 1. 计算注意力分数: Q·K^T# 形状: (batch_size, num_heads, seq_len, seq_len) matmul_qk np.matmul(Q, K.transpose(0,1,3,2))if print_steps:print(\n步骤1: 计算Q·K^T)print(Q·K^T 形状:, matmul_qk.shape)print(示例值(第一个样本,第一个头):\n, matmul_qk[0,0,:,:])# 2. 缩放注意力分数 (除以sqrt(d_k)) d_k Q.shape[-1] scaled_attention_logits matmul_qk / sqrt(d_k)if print_steps:print(\n步骤2: 缩放注意力分数 (除以√d_k))print(d_k , d_k)print(缩放后形状:, scaled_attention_logits.shape)print(示例值(第一个样本,第一个头):\n, scaled_attention_logits[0,0,:,:])# 3. 应用softmax获取注意力权重# 注意: softmax应用于最后一个维度(seq_len) attention_weights np.exp(scaled_attention_logits - np.max(scaled_attention_logits, axis-1, keepdimsTrue)) attention_weights / np.sum(attention_weights, axis-1, keepdimsTrue)if print_steps:print(\n步骤3: 应用softmax获取注意力权重)print(注意力权重形状:, attention_weights.shape)print(示例值(第一个样本,第一个头):\n, attention_weights[0,0,:,:])print(检查行和(应接近1):, np.sum(attention_weights[0,0,0,:]))# 4. 将注意力权重与值矩阵相乘 output np.matmul(attention_weights, V)if print_steps:print(\n步骤4: 注意力权重·V)print(输出形状:, output.shape)print(示例值(第一个样本,第一个头):\n, output[0,0,:,:5])# 只显示前5个特征return output, attention_weights#多头注意力机制classMultiHeadAttention: Multi-Head Attention层实现 [[5]] 这个实现将输入分割为多个注意力头分别计算注意力然后合并结果。 def__init__(self, d_model, num_heads): 初始化Multi-Head Attention层 参数: d_model -- 模型维度(输入和输出的维度) num_heads -- 注意力头的数量 self.d_model d_model self.num_heads num_heads# 确保d_model可以被num_heads整除assert d_model % num_heads 0,d_model must be divisible by num_heads self.d_k d_model // num_heads # 每个注意力头的维度# 初始化权重矩阵 (使用Xavier初始化) self.W_q np.random.randn(d_model, d_model)/ sqrt(d_model) self.W_k np.random.randn(d_model, d_model)/ sqrt(d_model) self.W_v np.random.randn(d_model, d_model)/ sqrt(d_model) self.W_o np.random.randn(d_model, d_model)/ sqrt(d_model)print(fMultiHeadAttention初始化完成:)print(f- d_model: {d_model})print(f- num_heads: {num_heads})print(f- d_k per head: {self.d_k})print(f- 权重矩阵形状: W_q{self.W_q.shape}, W_k{self.W_k.shape}, W_v{self.W_v.shape}, W_o{self.W_o.shape})defsplit_heads(self, x, batch_size): 将最后一个维度分割为(num_heads, d_k) 参数: x -- 输入张量 (batch_size, seq_len, d_model) batch_size -- 批次大小 返回: 重排后的张量 (batch_size, num_heads, seq_len, d_k) x x.reshape(batch_size,-1, self.num_heads, self.d_k)# 交换维度以获得 (batch_size, num_heads, seq_len, d_k)return np.transpose(x,(0,2,1,3))defcombine_heads(self, x, batch_size): 将多个注意力头的结果合并 参数: x -- 分割后的张量 (batch_size, num_heads, seq_len, d_k) 返回: 合并后的张量 (batch_size, seq_len, d_model) # 交换维度以获得 (batch_size, seq_len, num_heads, d_k) x np.transpose(x,(0,2,1,3))# 合并最后两个维度return x.reshape(batch_size,-1, self.d_model)defforward(self, x, print_stepsFalse): 前向传播 参数: x -- 输入张量 (batch_size, seq_len, d_model) print_steps -- 是否打印中间步骤 返回: 输出张量和所有注意力头的注意力权重 batch_size x.shape[0] seq_len x.shape[1]if print_steps:print(\n Multi-Head Attention 前向传播 )print(输入形状:, x.shape)print(示例输入(第一个样本):\n, x[0,:,:5])# 只显示前5个特征# 1. 线性投影得到Q, K, V Q np.matmul(x, self.W_q) K np.matmul(x, self.W_k) V np.matmul(x, self.W_v)if print_steps:print(\n步骤1: 线性投影得到Q, K, V)print(Q形状:, Q.shape,K形状:, K.shape,V形状:, V.shape)print(示例Q值(第一个样本):\n, Q[0,:,:5])# 2. 分割为多个注意力头 Q self.split_heads(Q, batch_size) K self.split_heads(K, batch_size) V self.split_heads(V, batch_size)if print_steps:print(\n步骤2: 分割为多个注意力头)print(分割后Q形状:, Q.shape,K形状:, K.shape,V形状:, V.shape)print(示例Q值(第一个样本,第一个头):\n, Q[0,0,:,:5])# 3. 计算缩放点积注意力 attn_output, attn_weights scaled_dot_product_attention( Q, K, V, print_stepsprint_steps)# 4. 合并所有注意力头 attn_outputself.combine_heads(attn_output, batch_size)if print_steps:print(\n步骤4: 合并所有注意力头)print(合并后输出形状:, attn_output.shape)print(示例输出(第一个样本):\n, attn_output[0,:,:5])# 5. 应用最终的线性变换 output np.matmul(attn_output, self.W_o)if print_steps:print(\n步骤5: 应用最终线性变换 (W_o))print(最终输出形状:, output.shape)print(示例输出(第一个样本):\n, output[0,:,:5])return output, attn_weights# 测试实现if __name____main__:# 设置随机种子以确保结果可重现 np.random.seed(42)# 创建示例输入 (batch_size2, seq_len3, d_model8) batch_size 2 seq_len 3 d_model 8 num_heads 2print( 创建测试环境 )print(f批次大小: {batch_size}, 序列长度: {seq_len}, 模型维度: {d_model}, 注意力头数: {num_heads})# 随机生成输入数据 (模拟词嵌入) x np.random.randn(batch_size, seq_len, d_model)# 创建Multi-Head Attention层 mha MultiHeadAttention(d_model, num_heads)# 执行前向传播并打印所有中间步骤print(\n*50)print(开始执行前向传播打印所有中间步骤...)print(*50) output, attn_weights mha.forward(x, print_stepsTrue)# 打印最终结果摘要print(\n*50)print(Multi-Head Attention 计算完成)print(*50)print(输入形状:, x.shape)print(输出形状:, output.shape)print(注意力权重形状 (用于可视化):, attn_weights.shape)print(\n注意力权重示例(第一个样本,第一个头):)print(attn_weights[0,0,:,:])# 可视化第一个样本的第一个注意力头 plt.figure(figsize(8,6)) plt.imshow(attn_weights[0,0], cmaphot, interpolationnearest) plt.colorbar() plt.title(Attention Weights (Sample 0, Head 0)) plt.xlabel(Key Positions) plt.ylabel(Query Positions)for i inrange(seq_len):for j inrange(seq_len): plt.text(j, i,f{attn_weights[0, 0, i, j]:.2f}, hacenter, vacenter, colorw) plt.savefig(attention_weights.png)print(\n已保存注意力权重可视化到 attention_weights.png)想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容2025 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”