当前位置: 首页 > news >正文

PyTorch 中 nn.Linear() 参数详解与实战解析(gpt)


🔍 PyTorch 中 nn.Linear() 参数详解与实战解析

在使用 PyTorch 构建神经网络时,nn.Linear() 是最常用也最基础的模块之一。它用于实现一个全连接层(Fully Connected Layer),本质上就是对输入进行一次线性变换

y = x A T + b y = xA^T + b y=xAT+b

本文将详细介绍 nn.Linear() 的参数含义、属性说明、初始化机制,并结合实际代码案例帮助你真正理解它的工作原理。


📌 一、基本用法:线性层的定义

PyTorch 中创建一个线性层的语法如下:

nn.Linear(in_features, out_features, bias=True)
  • in_features: 输入特征的维度
  • out_features: 输出特征的维度
  • bias: 是否包含偏置项 b,默认 True

这个线性层的作用是:将输入 x ∈ ℝ^{in_features} 映射为输出 y ∈ ℝ^{out_features},形如:

y = W x T + b y = Wx^T + b y=WxT+b

其中:

  • 权重矩阵 W 形状为 (out_features, in_features)
  • 偏置向量 b 形状为 (out_features,)

🧪 二、代码案例解析

import torch
import torch.nn as nna_data = nn.Sequential()
a_data.fc1 = nn.Linear(28 * 28, 500)  # 输入 784 维,输出 500 维
print(a_data.fc1)
print(a_data.fc1.weight.shape)

输出结果:

Linear(in_features=784, out_features=500, bias=True)
torch.Size([500, 784])

解释:

  • 输入是一张 28x28 的图像,展平成 784 维向量
  • 线性层输出 500 维特征,因此 weight 的形状为 [500, 784]
  • 每一行表示将输入 784 维投影到某个输出维度的权重组合

⚙️ 三、权重与偏置的初始化机制

nn.Linear 中,PyTorch 默认使用如下规则初始化参数:

✅ 权重 weight

  • 形状:(out_features, in_features)
  • 初始化:均匀分布 U ( − k , k ) \mathcal{U}(-\sqrt{k}, \sqrt{k}) U(k ,k ),其中 k = 1 in_features k = \frac{1}{\text{in\_features}} k=in_features1

✅ 偏置 bias

  • 形状:(out_features,)
  • 初始化:同样是 U ( − k , k ) \mathcal{U}(-\sqrt{k}, \sqrt{k}) U(k ,k )

这种初始化策略可以有效防止神经网络训练初期出现梯度爆炸或消失问题。


💡 四、实战示例:批量输入与输出

m = nn.Linear(20, 30)
input = torch.randn(128, 20)   # 批量输入 128 个样本,每个 20 维
output = m(input)
print(output.shape)            # 输出为 [128, 30]

解释:

  • 输入张量 shape 是 [128, 20]
  • 经过线性层后,输出变成 [128, 30],即每个样本都被线性映射为 30 维向量

📘 五、总结

项目含义
输入 shape[batch_size, in_features]
输出 shape[batch_size, out_features]
权重 shape[out_features, in_features]
偏置 shape[out_features]
初始化方式 U ( − k , k ) \mathcal{U}(-\sqrt{k}, \sqrt{k}) U(k ,k ) k = 1 in_features k = \frac{1}{\text{in\_features}} k=in_features1

🎯 写在最后

nn.Linear() 是深度学习网络中非常核心的组成部分。搞懂它,不仅能帮你设计自己的神经网络架构,还能更深入理解神经网络中的矩阵运算和参数更新机制。


http://www.lqws.cn/news/578431.html

相关文章:

  • K8s环境下基于Nginx WebDAV与TLS/SSL的文件上传下载部署指南
  • 极易搭建的自助Git服务Gogs
  • LeetCode 594. Longest Harmonious Subsequence
  • Hyperledger Fabric 入门笔记(二十一)Fabric V2.5 使用K8S部署测试网络
  • UI_NGUI_三大基础控件
  • 祛魅 | 在祛魅中成长,在成长中祛魅
  • DAY 43 预训练模型
  • 完整的ROS节点来实现果蔬巡检机器人建图与自主避障系统
  • 《从量子奇境到前端优化:解锁卡西米尔效应的隐藏力量》
  • API接口安全-1:身份认证之传统Token VS JWT
  • VMware 在局域网环境将虚拟机内部ip 端口开放
  • 使用SRS+ffmpeg实现https推流flv
  • python+uniapp基于微信小程序面向品牌会员的在线商城系统
  • 如何让Excel自动帮我们算加减乘除?
  • 基于llama-factory+ollama+vllm加速大模型训推生产
  • 深入 ARM-Linux 的系统调用世界
  • C++ std::list详解:深入理解双向链表容器
  • 分库分表之实战-sharding-JDBC
  • 【数论 拆位法】P10308 「Cfz Round 2」Osmanthus|普及+
  • 车辆工程中的压力传感技术:MEMS与薄膜传感器的实战应用
  • 从设计到开发一个小程序页面
  • Java + 阿里云 Gmsse 实现 SSL 国密通信
  • 用基础模型构建应用(第四章)AI Engineering: Building Applications with Foundation Models学习笔记
  • Springboot + vue + uni-app小程序web端全套家具商场
  • MongoDB 安装使用教程
  • 第81题:搜索旋转排序数组Ⅱ
  • 【软考高项论文】论信息系统项目的干系人管理
  • 百度文库智能PPT月访问量超3400万,用户规模翻倍增长
  • 中钧科技亮相2025 亚欧商品贸易博览会,赋能数字经济新未来!
  • pyspark driver 上传pod本地文件到对象存储