张小明 2026/1/13 6:11:23
wordpress获取摘要,网站优化,网站建设南沙,上海企业专属网页#x1f6a9; 常见的 专有名词 笔记它来咯#xff01; 正在完善每一项的内容ing… #x1f6a9; 版本号#xff1a;V1.0 文章目录1. 学习范式类1.1 监督学习#xff08;Supervised Learning#xff09;1.2 无监督学习#xff08;Unsupervised Learning#xff09;1.3 自… 常见的专有名词笔记它来咯 正在完善每一项的内容ing… 版本号V1.0文章目录1. 学习范式类1.1 监督学习Supervised Learning1.2 无监督学习Unsupervised Learning1.3 自监督学习Self-Supervised Learning, SSL1.4 半监督学习Semi-Supervised Learning1.5 弱监督学习Weakly Supervised Learning1.6 多实例学习Multiple Instance Learning, MIL1.7 元学习Meta-Learning1.8 联邦学习Federated Learning2. 表征与预训练2.1 表征学习Representation Learning2.2 特征学习Feature Learning2.3 预训练Pretraining2.4 微调Fine-tuning3. 对比学习3.1 对比学习Contrastive Learning3.2 正样本 / 负样本Positive / Negative Samples3.3 数据增强Data Augmentation3.4 表征坍塌Representation Collapse4. 生成式4.1 掩码Mask4.2 自动编码器Autoencoder4.3 变分自动编码器Variational Autoencoder, VAE4.4 自回归Autoregressive5. 迁移与泛化5.1 迁移学习Transfer Learning5.2 域泛化Domain Generalization5.3 域自适应Domain Adaptation5.4 过拟合Overfitting5.5 欠拟合Underfitting6. 多模态6.1 多模态学习Multimodal Learning6.2 跨模态对齐Cross-modal Alignment6.3 表征解耦Representation Disentanglement7. 深度学习组件7.1 卷积神经网络CNN7.2 循环神经网络RNN7.3 长短期记忆网络Long Short-Term Memory, LSTM7.4 门控循环单元GRU7.5 Transformer7.6 注意力机制Attention Mechanism7.7 自注意力Self-Attention7.8 多头注意力Multi-Head Attention7.9 生成对抗网络Generative Adversarial Network, GAN7.10 扩散模型Diffusion8. 自然语言处理NLP8.1 词嵌入Word Embedding8.2 词袋模型Bag-of-Words, BoW8.3 语言模型Language Model, LM8.4 掩码语言模型Masked Language Model, MLM8.5 因果语言模型Causal Language Model, CLM8.6 零样本学习Zero-Shot Learning8.7 少样本学习Few-Shot Learning9. 计算机视觉CV9.1 卷积Convolution9.2 池化Pooling9.3 特征图Feature Map9.4 目标检测Object Detection9.5 图像分割Image Segmentation9.6 图像生成Image Generation9.7 迁移表征Transferred Representation9.8 数据增强Data Augmentation10. 模型训练与优化10.1 损失函数Loss Function10.2 优化器Optimizer10.3 反向传播Backpropagation10.4 梯度下降Gradient Descent10.5 学习率Learning Rate10.6 批大小Batch Size10.7 正则化Regularization10.8 归一化Normalization10.9 早停Early Stopping1. 学习范式类1.1 监督学习Supervised Learning定义人工标注训练数据包含明确的“输入-输出”标签Label优点目标明确、收敛稳定、效果通常最好同分布标注充分时。缺点标注昂贵对分布偏移敏感标签噪声会显著影响上限。典型场景目标检测、语义分割、分类、关键点。1.2 无监督学习Unsupervised Learning定义没有人工标签目标是发现数据的结构/分布优点不需要标注数据规模往往更大可用于探索性分析。缺点目标通常不直接对应下游任务评价指标不统一。典型场景聚类、降维、异常检测、学习数据分布。1.3 自监督学习Self-Supervised Learning, SSL定义不依赖人工标签但从数据自身构造监督信号伪标签/预任务来学习表征形式上仍是“监督训练”。优点不需要标注数据规模往往更大利用海量无标注数据学习通用特征。缺点目标通常不直接对应下游任务需大规模计算资源伪标签可能含噪声。典型场景通用表征学习、多模态理解、对比学习、掩码建模。1.4 半监督学习Semi-Supervised Learning定义同时使用少量人工标注数据和大量无标注数据进行训练。优点减少标注成本借助无标注数据改善模型泛化。缺点对无标注数据质量敏感。典型场景标注成本高、数据量大的任务。1.5 弱监督学习Weakly Supervised Learning定义使用不完整、不精确或不确切的人工标注信号非全监督的精细标注也非半监督学习采用的大量无标注数据。优点减少标注成本借助无标注数据改善模型泛化。缺点监督信号存在歧义或噪声性能通常低于全监督学习。典型场景标注成本高、数据量大的任务。1.6 多实例学习Multiple Instance Learning, MIL定义标签作用于“包”bag而非单个实例一个包由多个实例组成bag 有标签但 bag 内每个实例没有标签。优点显著降低标注成本能从粗粒度标签中学习细粒度特征。缺点学习目标间接实例与包的关系复杂易出现歧义。典型场景适用于实例级标注困难但包级标注可行的场景。1.7 元学习Meta-Learning“学会学习”快速适应新任务。1.8 联邦学习Federated Learning多方协作训练模型但不共享原始数据。2. 表征与预训练2.1 表征学习Representation Learning自动学习对下游任务有用的特征表示而非人工设计特征。不是直接做任务输出而是学“中间表示”——embedding/feature多采用自监督学习少量采用可监督学习2.2 特征学习Feature Learning表征学习的早期说法强调从数据中学习特征而不是手工提取。2.3 预训练Pretraining在大规模数据上先训练通用模型再迁移到具体任务。监督预训练ImageNet 分类预训练自监督预训练SimCLR/MAE/CLIP 式预训练多模态预训练图文对齐、语音-文本等2.4 微调Fine-tuning在预训练模型基础上用下游任务数据进一步训练模型参数。全量微调更新全部参数冻结骨干只训练 head 或部分层省算力、避免过拟合参数高效微调PEFT只训练少量新增参数LoRA、Adapter更多见于大模型3. 对比学习3.1 对比学习Contrastive Learning通过拉近正样本、拉远负样本来学习判别性表示。常用损失InfoNCE基于 softmax 的对比损失关键要素增强策略、负样本数量/质量、温度系数、投影头projection head代表方法SimCLR大 batch、MoCo动量编码器队列、SupCon有监督对比3.2 正样本 / 负样本Positive / Negative Samples通过“相似性学习”让正样本更近、负样本更远。假负样本False Negative负样本其实语义相同会误导训练。难负样本Hard Negative相似但不同能提高判别性但也更不稳定。3.3 数据增强Data Augmentation对输入施加可控变换生成不同视图提高鲁棒性或构造自监督信号。常见增强CV随机裁剪、翻转、颜色抖动、模糊、灰度化、Cutout/Mixup/CutMix。3.4 表征坍塌Representation Collapse模型输出退化为常数向量失去区分能力是自监督训练的重要风险。避免思路显式负样本对比学习结构非对称predictor、stop-gradient方差/协方差正则VICReg、Barlow Twins合理的归一化与 batch 设置4. 生成式4.1 掩码Mask随机遮挡部分输入让模型预测被遮挡内容如 BERT、MAE。4.2 自动编码器Autoencoder通过编码–解码重建输入数据来学习低维表示。4.3 变分自动编码器Variational Autoencoder, VAE在概率空间中学习数据分布的生成模型具有连续潜空间。4.4 自回归Autoregressive基于历史信息逐步预测未来内容如语言模型、时间序列建模。5. 迁移与泛化5.1 迁移学习Transfer Learning将一个任务中学到的知识迁移到另一个相关任务。5.2 域泛化Domain Generalization在未见过的新数据分布上仍能保持性能。5.3 域自适应Domain Adaptation在源域有标签、目标域无或少标签的情况下适配模型。5.4 过拟合Overfitting模型在训练集表现很好但在测试集表现差。5.5 欠拟合Underfitting模型在训练集和测试集均表现不佳未能捕捉数据规律。6. 多模态6.1 多模态学习Multimodal Learning联合建模图像、文本、语音等多种模态信息。6.2 跨模态对齐Cross-modal Alignment将不同模态映射到同一语义空间实现语义一致性。6.3 表征解耦Representation Disentanglement将不同因素外观、运动、语义分离建模提升可解释性和鲁棒性。7. 深度学习组件7.1 卷积神经网络CNN擅长处理图像的网络结构。7.2 循环神经网络RNN处理序列数据的网络结构。7.3 长短期记忆网络Long Short-Term Memory, LSTM改进型 RNN解决长程依赖问题。7.4 门控循环单元GRU简化的 LSTM计算效率更高。7.5 Transformer基于自注意力机制的序列/多模态模型架构。7.6 注意力机制Attention Mechanism动态加权关注输入的不同部分。7.7 自注意力Self-Attention输入内部各位置相互计算相关性。7.8 多头注意力Multi-Head Attention并行多个注意力头捕获不同特征子空间。7.9 生成对抗网络Generative Adversarial Network, GAN生成器与判别器对抗训练的模型。7.10 扩散模型Diffusion通过逐步去噪生成数据的模型。8. 自然语言处理NLP8.1 词嵌入Word Embedding将词语映射为低维向量如 Word2Vec。8.2 词袋模型Bag-of-Words, BoW忽略词序的文本表示方法。8.3 语言模型Language Model, LM预测词序列概率分布的模型。8.4 掩码语言模型Masked Language Model, MLM随机遮盖词并预测如 BERT。8.5 因果语言模型Causal Language Model, CLM从左到右预测下一个词如 GPT。8.6 零样本学习Zero-Shot Learning模型在未见过的类别上直接推理。8.7 少样本学习Few-Shot Learning用极少标注样本适应新任务。9. 计算机视觉CV9.1 卷积Convolution提取局部特征的运算。9.2 池化Pooling降采样减少参数量如 Max Pooling。9.3 特征图Feature Map卷积层输出的二维激活图。9.4 目标检测Object Detection定位并分类图像中的物体。9.5 图像分割Image Segmentation像素级别的分类语义/实例分割。9.6 图像生成Image Generation生成逼真图像GAN/扩散模型。9.7 迁移表征Transferred Representation从预训练模型中提取的通用视觉特征。9.8 数据增强Data Augmentation通过旋转、裁剪等方式扩充训练数据。10. 模型训练与优化10.1 损失函数Loss Function衡量预测与真实值差距的函数。10.2 优化器Optimizer更新模型参数的算法如 SGD、Adam。10.3 反向传播Backpropagation计算梯度的链式法则算法。10.4 梯度下降Gradient Descent沿梯度反方向更新参数以最小化损失。10.5 学习率Learning Rate参数更新步长的系数。10.6 批大小Batch Size一次参数更新使用的样本数量。10.7 正则化Regularization防止过拟合如 L1/L2、Dropout。10.8 归一化Normalization调整数据/特征分布如 BatchNorm、LayerNorm。10.9 早停Early Stopping验证集性能不再提升时提前终止训练。
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
有经验的宁波网站建设店铺logo图片免费
多普勒流速仪是一种基于多普勒效应原理的高精度流速测量设备,广泛应用于水文、水利、环保、工业、农业等领域,为水资源管理、水环境监测及工程安全提供关键数据支持。其核心原理是利用声波(或激光)在流体中的传播特性,…
网站建设绩效考核方案ppt长宁网站设计
版本历史版本号修订说明修订人修订日期1.0初始版本--2.0增加通道选择、完善增益配置、修正传感器类型-2024-12 一、串口信息参数值物理接口USB(CH340转串口)波特率115200数据位8停止位2校验无 二、报文帧格式 2.1 标准帧结构(8字节࿰…
公司网站建设价位智慧团建登录平台入口
相声双簧表演?两个Sonic角色互动实验成功 在短视频内容爆炸式增长的今天,一个令人头疼的问题浮出水面:如何以极低成本、快速生成自然逼真的“对话类”数字人视频?传统方式依赖3D建模、动画师逐帧调参,动辄数天周期和高…
icp网站授权函2008iis7怎么搭建网站
微分几何与非线性系统线性化:理论、方法与应用 1. 魏 - 诺曼公式与问题转换 魏 - 诺曼公式将李群上的微分方程问题转化为 $\mathbb{R}^n$ 中的问题。它把从初始配置 $g_i$ 到最终配置 $g_f$ 的控制问题,转换为从 $\mathbb{R}^n$ 中的向量 $y(0)$ 到 $y(1)$ 的控制问题。这一…
织梦网站被植入广告音乐网站制作源代码
凌晨三点,实验室的灯光还亮着。你刚跑完最后一组对照实验,数据漂亮得令人安心。但一打开Word文档,光标在空白页上闪烁,仿佛在质问:“你真的准备好向世界讲述这个故事了吗?”对大多数科研工作者而言…