当前位置: 首页 > news >正文

torch.nn

卷积层

通过卷积核(滤波器)在输入数据上滑动,卷积层能够自动检测和提取局部特征,如边缘、纹理、颜色等。不同的卷积核可以捕捉不同类型的特征。 

nn.conv2d()

in_channels:输入的通道数,彩色图片一般为3通道

out_channels:通过卷积之后输出的通道数

kernel_size(int or tuple):卷积核的大小,一个数表示正方形

kernel_size(int or tuple):卷积核的大小,一个数表示正方形

stride:计算过程中的步长

padding:输入边缘填充的大小

padding_mode:填充方式,一般设置为0,即填充数为0

import torch
import torch.nn.functional as F
input=torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]])
kernel=torch.tensor([[1,2,1],[0,1,0],[2,1,0]])
print(input.shape)
print(kernel.shape)
#由于con2d要求尺寸数字为4,变换形状
#元组第一个参数是batch size样本数量(也就是图片的数量),第二个参数是channel图像的通道数量,H高,W宽
input=torch.reshape(input,(1,1,5,5))
kernel=torch.reshape(kernel,(1,1,3,3))print(input.shape)
print(kernel.shape)
#stride为步长,也就是卷积核移动的格数
output=F.conv2d(input,kernel,stride=1)
print(output)
#向右移动两格,向下移动两格
output2=F.conv2d(input,kernel,stride=2)
print(output2)
#padding为填充原数据,如果为1,上下左右各填充一行一列
output3=F.conv2d(input,kernel,stride=1,padding=1)
print(output3)

 实战,对数据集CIFAR10进行卷积

import torch
import torchvision
from torch import nn
from torch.nn import Conv2d
from torch.utils.data import DataLoader#获取数据集
from torch.utils.tensorboard import SummaryWriterdataset=torchvision.datasets.CIFAR10("./data",train=False,transform=torchvision.transforms.ToTensor(),download=True)#加载数据
dataloader=DataLoader(dataset,batch_size=64)#定义卷积层
class operate(nn.Module):def __init__(self):super(operate, self).__init__()self.conv1=Conv2d(in_channels=3,out_channels=3,kernel_size=3,stride=1,padding=0)def forward(self,x):x=self.conv1(x)return xop=operate()writer=SummaryWriter("conv")
step=0
for data in dataloader:imgs,targets=dataoutput=op(imgs)writer.add_images("input",imgs,step)writer.add_images("output",output,step)step+=1writer.close()

 卷积前后的效果

池化层

池化操作通过减小特征图的空间尺寸(如高度和宽度),降低后续层的计算负担,同时保留主要特征信息。

nn.MaxPool2d()

kernel_size:池化核的大小

stride:步长,默认值为池化核的大小

padding:填充大小

dilation:空洞卷积

ceil_mode:设置为True时,为ceil模式向上取整,否则为floor模式,向下取整。在池化过程,如果输入比池化核小的话,是否进行池化,取决于ceil_mode的值,如果为True则保留,否则舍弃。

import torch
from torch import nn
from torch.nn import MaxPool2dinput=torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]],dtype=torch.float32)#设置为浮点数
input=torch.reshape(input,(-1,1,5,5))
#池化层
class operate(nn.Module):def __init__(self):super(operate, self).__init__()self.mp1 = MaxPool2d(kernel_size=3,ceil_mode=True)def forward(self,input):output= self.mp1(input)return outputop=operate()
output=op(input)
print(output)

实战,对CIFAR10进行池化

import torch
import torchvision#获取数据集
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset=torchvision.datasets.CIFAR10("./data",train=False,transform=torchvision.transforms.ToTensor(),download=True)
#加载数据
dataloader=DataLoader(dataset,batch_size=64)#定义池化层
class operate(nn.Module):def __init__(self):super(operate, self).__init__()self.mp=MaxPool2d(kernel_size=3,ceil_mode=True)def forward(self,input):output=self.mp(input)return outputop=operate()writer=SummaryWriter("maxpool")step=0
for data in dataloader:imgs,targets=dataoutput=op(imgs)writer.add_images("input",imgs,step)writer.add_images("output",output,step)step+=1writer.close()

池化结果

 非线性激活

让网络能够学习复杂的非线性关系,但可能导致模型过拟合。

nn.relu()

inplace:是否采用返回值的形式接收返回值,如果为True,则直接修改原变量,否则返回一个新变量,原值不变

import torch
from torch import nn
from torch.nn import ReLUinput=torch.tensor([[1,0.5],[-1,3]])input=torch.reshape(input,(-1,1,2,2))class operater(nn.Module):def __init__(self):super(operater, self).__init__()self.relu1=ReLU()def forward(self,input):output=self.relu1(input)return  outputop=operater()
output=op(input)
print(output)

实战,对CIFAR10进行sigmoid激活

import torch
import torchvision#获取数据集
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset=torchvision.datasets.CIFAR10("./data",train=False,transform=torchvision.transforms.ToTensor(),download=True)
#加载数据
dataloader=DataLoader(dataset,batch_size=64)#激活函数
class operater(nn.Module):def __init__(self):super(operater, self).__init__()self.relu=ReLU()self.sg=Sigmoid()def forward(self,input):output=self.sg(input)return outputop=operater()writer=SummaryWriter("sigmoid")
step=0
for data in dataloader:imgs,targets=dataoutput=op(imgs)writer.add_images("input",imgs,step)writer.add_images("output",output,step)step+=1writer.close()

实验结果

正则化

通过约束模型复杂度,确保网络学习到的是有意义的模式,而非噪声。

BatchNormal2d

num_features:通道数

线性层

nn.liner()

in_features:输入数据的大小

out_features:输出数据的大小

bias(bool):偏置值

import torch
import torchvision
from torch import nn
from torch.nn import Linear
from torch.utils.data import DataLoaderdataset=torchvision.datasets.CIFAR10("./data",train=False,transform=torchvision.transforms.ToTensor(),download=True)
dataloader=DataLoader(dataset,batch_size=64)class operater(nn.Module):def __init__(self):super(operater, self).__init__()self.liner1=Linear(196608,10)def forward(self,input):output=self.liner1(input)return outputop=operater()
for data in dataloader:imgs,targets=dataprint(imgs.shape)input=torch.flatten(imgs)#将数据降成一维print(input.shape)output=op(input)print(output.shape)

http://www.lqws.cn/news/597115.html

相关文章:

  • Postman - API 调试与开发工具 - 标准使用流程
  • Mac 部署 Dify小红书种草工作流
  • 新手向:从零开始MySQL超详细安装、配置与使用指南
  • stm32l4系列启用看门狗后,调用HAL_IWDG_Refreh()就复位
  • HakcMyVM-Arroutada
  • java生成word文档
  • 飞算JavaAI:重构软件开发范式的智能引擎
  • ABB驱动系列SCYC51213 63911607C驱动板
  • java微服务-linux单机CPU接近100%优化
  • Python应用指南:利用高德地图API获取公交+地铁可达圈(二)
  • 再见 RAG?Gemini 2.0 Flash 刚刚 “杀死” 了它!
  • 学习面向对象
  • 第TR3周:Pytorch复现Transformer
  • 快速手搓一个MCP服务指南(九): FastMCP 服务器组合技术:构建模块化AI应用的终极方案
  • 【仿muduo库实现并发服务器】Poller模块
  • 基于中国印尼会计准则差异,中国企业在印尼推广ERP(SAP、Oracle)系统需要注意的细节
  • Pycharm命令行能运行,但绿色三角报错?
  • mac重复文件清理,摄影师同款清理方案
  • nosql项目:基于 Redis 哨兵模式的鲜花预订配送系统
  • 设计模式之组合模式
  • 将实时流的 H.264(视频)与 G.711A(音频)封装成 MP4 文件
  • 关于量子计算的一份介绍
  • 12【进程间通信——管道】
  • Vue 响应式数据传递:ref、reactive 与 Provide/Inject 完全指南
  • 基于 Three.js 与 WebGL 的商场全景 VR 导航系统源码级解析
  • 遥感云大数据在灾害、水体与湿地领域案例及GPT应用
  • 第八章:LeRobot摄像头配置与应用指南
  • 使用GeoServer发布地图shapefi(.shp)数据
  • Spring Bean的生命周期与作用域详解
  • Vue-17-前端框架Vue之应用基础集中式状态管理pinia(二)