好网站在哪里wordpress可以用火车头采集

张小明 2026/1/5 12:15:24
好网站在哪里,wordpress可以用火车头采集,怎么做好邯郸网站建设,湖北省住房和城乡建设部门户网站一、CNN基本概念 站内已经有详细的教程 【深度学习】一文搞懂卷积神经网络#xff08;CNN#xff09;的原理#xff08;超详细#xff09;_卷积神经网络原理-CSDN博客、 二、完成一个简单实例需要掌握什么 1.张量基本操作 我们将张量基本操作分为 4 个层次 #xff0…一、CNN基本概念站内已经有详细的教程【深度学习】一文搞懂卷积神经网络CNN的原理超详细_卷积神经网络原理-CSDN博客、二、完成一个简单实例需要掌握什么1.张量基本操作我们将张量基本操作分为 4 个层次1创建固定形状、随机初始化x torch.randn(1, 1, 28, 28) # 模拟一张 28×28 单通道灰度图batch1 #1 N - batch 个数一次喂 1 张图 #1 C - 通道数单通道灰度所以是 1RGB 的话这里是 3 #28 H - 高纵向像素行数 #28 W - 宽横向像素列数 y torch.zeros(2, 3, 4) # 全 0 z torch.ones(3, 3) # 全 1 w torch.eye(5) # 5×5 单位矩阵 v torch.arange(12) # 0..11 的一维向量2查看形状 维度压缩print(x.shape) # torch.Size([1, 1, 28, 28]) print(x.size()) # 同上shape 的别名 print(x.numel()) # 总元素个数 1×1×28×28784 x_squeezed x.squeeze() # 去掉所有长度为 1 的维度 → [28,28] x_unsqueezed x_squeezed.unsqueeze(0).unsqueeze(0) # 加回去 → [1,1,28,28]3切片 索引# 取 batch 里第 0 张图通道 0高 10:18宽 10:18 → [8,8] patch x[0, 0, 10:18, 10:18] # 隔行隔列采样 sub x[0, 0, ::2, ::2] # 14×14 # 布尔索引 mask x 0.5 # 同 shape 的 BoolTensor x_pos x[mask] # 一维向量只含 0.5 的元素4变形 / 压平# 把图片拉成一维向量 flat x.flatten() # 等价于 x.view(-1) → 784 flat x.view(-1) # 同上 # 保留 batch把每张图拉成 784 维特征 feat x.view(1, -1) # → [1, 784] # 更安全的写法内存连续 feat x.reshape(1, -1) # 若内存不连续会自动复制2.nn.Module骨架nn.Module 骨架 PyTorch 里“所有可训练模型”的唯一官方模板模板要求1必须继承nn.Module2所有“可学习参数”放进__init__用nn.Xxx层封装3计算图写在forwardPyTorch 自动帮你做反向传播模板示例#最小可运行骨架 class Net(nn.Module): # ① 继承 def __init__(self): # ② 放层 super().__init__() # 初始化父类 self.conv1 nn.Conv2d(1, 16, 3, padding1) self.pool nn.MaxPool2d(2) self.fc1 nn.Linear(16*14*14, 10) def forward(self, x): # ③ 写计算图 x self.pool(F.relu(self.conv1(x))) # [B,16,14,14] x x.view(x.size(0), -1) # 压平 x self.fc1(x) # [B,10] return x #使用 model Net() # 实例化 out model(torch.randn(4,1,28,28)) # 前向一次 print(out.shape) # torch.Size([4, 10])3.卷积层nn.Conv2d的 5 个关键参数nn.Conv2d通常这样写nn.Conv2d( in_channels, # 必填 out_channels, # 必填 kernel_size, # 必填 stride1, # 默认 1 padding0, # 默认 0 nn.Conv2d(1, 16, 3) # 最简 nn.Conv2d(1, 16, 3, stride2, padding1) # 常用(1) in_channels输入特征图的“通道”张数。例灰度 1RGB 彩色 3上一层 feature map 64 张就当 64。(2) out_channels想让这一层“生”出多少张新特征图就是 out_channels。每个输出通道对应一个独立的卷积核所以也是“卷积核个数”。(3) kernel_size卷积核的空间大小常用 3即 3×3、5、7也可给正方形 (3) 或长方形 (3,5)。(4) stride核在图上滑动的步长。stride1 逐像素滑stride2 隔一跳一会把输出尺寸减半配合后面公式。(5) padding在输入图四周补 0 的圈数。padding1 相当于给 28×28 外边再包一圈 0变成 30×30用来“保尺寸”或控制输出大小。在卷积神经网络中我们输入特征图输入特征图的纵向像素大小我们称为输入高经过cnn处理后的输出特征图的纵向像素大小我们称为输出高。我们设输入高为H_in,输出高为H_out,那么我们可以根据以下公式得到输入高和输出高的关系H_out (H_in 2×padding − kernel_size) // stride 1 //表示向下取整例如输入 32×32卷积层nn.Conv2d(in_channels3, out_channels64, kernel_size5, stride1, padding2)H_out (32 2×2 − 5) // 1 1 324.池化层nn.MaxPool2dnn.MaxPool2d 就是“用一个小窗口在特征图上滑每个窗口只留最大值”用来快速砍掉冗余、把宽高减半。示例pool nn.MaxPool2d(kernel_size2, stride2) #窗口 2×2 步长 2效果输入[B, C, 28, 28]→ 输出[B, C, 14, 14]高宽直接砍半通道数不变没有可学习参数。除了MaxPool2d还有AvgPool2d平均池化层5.激活函数激活函数就是“给线性输出加非线性”没有它再深的 CNN 也只是一层线性变换。常见两种写法1函数式最常用直接调用x F.relu(x) # 一行搞定无需在 __init__ 注册2层式先实例化再当层用self.relu nn.ReLU() # 写在 __init__ x self.relu(x) # 写在 forwardReLU函数图像公式ReLU(x) max(0, x)即当 x ≥ 0 时输出 x当 x 0 时输出 0除ReLU外常见激活函数还有Sigmoid和Tanh等。6.把“特征图”拉平接全连接把“特征图”拉平 把二维/三维的“图像”变成一维“向量”才能塞进全连接层。需要是先算好拉平后的节点数再写Linear(节点数, 类别数)。节点数 C × H × W(1) 卷积池化后看形状x.shape # [B, 32, 7, 7]→ C32, H7, W7节点数 32×7×7 1568(2) 拉平两种写法等价x torch.flatten(x, 1) # 从第1维开始压扁保留batch # 或 x x.view(x.size(0), -1) # x.size(0)就是B结果[B, 1568](3) 接全连接self.fc nn.Linear(1568, 10)7.训练循环最小模板会写“zero_grad→前向→loss→反向→step”四连击zero_grad必须在backward之前否则梯度会累加for data, target in loader: # 1. 取一批数据 optimizer.zero_grad() # 2. 清空旧梯度 output model(data) # 3. 前向 → logits loss F.cross_entropy(output, target) # 4. 算交叉熵 loss.backward() # 5. 反向传播求梯度 optimizer.step() # 6. 用梯度更新权重三、一个CNN的简单实例import torch, torch.nn as nn, torch.nn.functional as F from matplotlib import pyplot as plt from torchvision import datasets, transforms from torch.utils.data import DataLoader # 1. 网络 class CNN(nn.Module): def __init__(self): super().__init__() self.conv nn.Conv2d(1, 16, 3, padding1) # 28x28 → 28x28 self.pool nn.MaxPool2d(2) # 28x28 → 14x14 self.fc nn.Linear(16 * 14 * 14, 10) # 3136 → 10类 def forward(self, x): x self.pool(F.relu(self.conv(x))) # [B,16,14,14] x x.view(x.size(0), -1) # [B,3136] return self.fc(x) # [B,10] # 2. 数据 transform transforms.ToTensor() train_set datasets.MNIST(root., trainTrue, downloadTrue, transformtransform) test_set datasets.MNIST(root., trainFalse, downloadTrue, transformtransform) train_loader DataLoader(train_set, batch_size64, shuffleTrue) test_loader DataLoader(test_set, batch_size64, shuffleTrue) # 3. 训练准备 device cuda if torch.cuda.is_available() else cpu model CNN().to(device) optimizer torch.optim.Adam(model.parameters(), lr1e-3) # 4. 训练循环 for epoch in range(3): # 3 个 epoch 意思一下 model.train() for x, y in train_loader: x, y x.to(device), y.to(device) optimizer.zero_grad() out model(x) loss F.cross_entropy(out, y) loss.backward() optimizer.step() print(fepoch {epoch1} loss{loss.item():.4f}) # 5. 测试 model.eval() correct, total 0, 0 with torch.no_grad(): for x, y in test_loader: x, y x.to(device), y.to(device) pred model(x).argmax(1) total y.size(0) correct (pred y).sum().item() print(f测试准确率: {100*correct/total:.2f}%) # 随机 12 张预测可视化 model.eval() sample_iter iter(test_loader) images, labels next(sample_iter) images, labels images[:12].to(device), labels[:12] preds model(images).argmax(1).cpu() fig, axes plt.subplots(3, 4, figsize(8,6)) for i, ax in enumerate(axes.ravel()): img images[i].cpu().squeeze() ax.imshow(img, cmapgray) ax.set_title(fTrue:{labels[i].item()} Pred:{preds[i].item()}, colorgreen if preds[i]labels[i] else red) ax.axis(off) plt.tight_layout() plt.show()
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

西安网站搭建的公司wordpress企业微信

STM32-S371-存取柜人脸识别光敏灯光消毒存取柜取件码二维码语音播报存件手机号录入后台数据4舵机OLED屏按键(无线方式选择)产品功能描述:本系统由STM32F103C8T6单片机核心板、OLED屏、(无线蓝牙/无线WIFI/无线视频监控/联网云平台模块-可选择&#xff09…

张小明 2025/12/22 20:04:23 网站建设

国内个人网站设计登不上学校的网站该怎么做

量子世界的对称与计算革命 1. 量子世界的对称探索 1.1 CP 对称的思考 在量子物理的研究中,CP 对称是一个重要的概念。通过费曼的钴 - 60 反物质时钟实验,我们能看到其在镜像宇宙中的表现。在正常宇宙中,钴 - 60 原子在磁场作用下自旋轴向上;而其反物质对应物,由于原子核…

张小明 2026/1/1 10:37:51 网站建设

网站及其建设的心得体会定制做网站报价

文章目录具体实现截图主要技术与实现手段关于我本系统开发思路java类核心代码部分展示结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!具体实现截图 同行可拿货,招校园代理 nodejsnodejsVue基于express框架的网吧管理系统_网吧网咖…

张小明 2025/12/22 20:02:21 网站建设

南京建设工程管理局网站创网网络

当我在Java后端项目中深入使用JWT时,深刻体会到它的“自包含性”是一把锋利的双刃剑。这个特性让JWT在微服务架构中大放异彩,同时也带来了难以根治的安全隐患。一、什么是“自包含性”?自包含性指的是:JWT Token自身携带了所有必要…

张小明 2025/12/22 20:01:16 网站建设

基础网站建设的实施步骤dw个人主页制作代码

简要总结: 经过五年的持续开发,huggingface_hub 发布 v1.0 正式版!这一里程碑标志着这个库的成熟与稳定。它已成为 Python 生态中支撑 20 万个依赖库 的核心组件,并提供访问超过 200 万公开模型、50 万公开数据集 和 100 万 Space…

张小明 2026/1/5 10:24:39 网站建设

企业网站主页模板东莞网站建设(信科网络)

Langchain-Chatchat多模态扩展可能性探讨 在企业知识管理日益复杂的今天,如何让AI真正“理解”内部文档、又不把敏感数据交给云端模型,成了一个棘手的难题。通用大模型虽然强大,但面对公司私有的制度文件、技术手册或财务报告时,常…

张小明 2025/12/22 19:59:12 网站建设