当前位置: 首页 > news >正文

python训练营打卡第46天

通道注意力(SE注意力)

知识点回顾:

  1. 不同CNN层的特征图:不同通道的特征图
  2. 什么是注意力:注意力家族,类似于动物园,都是不同的模块,好不好试了才知道。
  3. 通道注意力:模型的定义和插入的位置
  4. 通道注意力后的特征图和热力图

未添加前的计算过程:

import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt
import numpy as np# 设置中文字体支持
plt.rcParams["font.family"] = ["SimHei"]
plt.rcParams['axes.unicode_minus'] = False  # 解决负号显示问题# 检查GPU是否可用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"使用设备: {device}")# 1. 数据预处理
# 训练集:使用多种数据增强方法提高模型泛化能力
train_transform = transforms.Compose([# 随机裁剪图像,从原图中随机截取32x32大小的区域transforms.RandomCrop(32, padding=4),# 随机水平翻转图像(概率0.5)transforms.RandomHorizontalFlip(),# 随机颜色抖动:亮度、对比度、饱和度和色调随机变化transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2, hue=0.1),# 随机旋转图像(最大角度15度)transforms.RandomRotation(15),# 将PIL图像或numpy数组转换为张量transforms.ToTensor(),# 标准化处理:每个通道的均值和标准差,使数据分布更合理transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])# 测试集:仅进行必要的标准化,保持数据原始特性,标准化不损失数据信息,可还原
test_transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])# 2. 加载CIFAR-10数据集
train_dataset = datasets.CIFAR10(root='./data',train=True,download=True,transform=train_transform  # 使用增强后的预处理
)test_dataset = datasets.CIFAR10(root='./data',train=False,transform=test_transform  # 测试集不使用增强
)# 3. 创建数据加载器
batch_size = 64
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)
# 4. 定义CNN模型的定义(替代原MLP)
class CNN(nn.Module):def __init__(self):super(CNN, self).__init__()  # 继承父类初始化# ---------------------- 第一个卷积块 ----------------------# 卷积层1:输入3通道(RGB),输出32个特征图,卷积核3x3,边缘填充1像素self.conv1 = nn.Conv2d(in_channels=3,       # 输入通道数(图像的RGB通道)out_channels=32,     # 输出通道数(生成32个新特征图)kernel_size=3,       # 卷积核尺寸(3x3像素)padding=1            # 边缘填充1像素,保持输出尺寸与输入相同)# 批量归一化层:对32个输出通道进行归一化,加速训练self.bn1 = nn.BatchNorm2d(num_features=32)# ReLU激活函数:引入非线性,公式:max(0, x)self.relu1 = nn.ReLU()# 最大池化层:窗口2x2,步长2,特征图尺寸减半(32x32→16x16)self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)  # stride默认等于kernel_size# ---------------------- 第二个卷积块 ----------------------# 卷积层2:输入32通道(来自conv1的输出),输出64通道self.conv2 = nn.Conv2d(in_channels=32,      # 输入通道数(前一层的输出通道数)out_channels=64,     # 输出通道数(特征图数量翻倍)kernel_size=3,       # 卷积核尺寸不变padding=1            # 保持尺寸:16x16→16x16(卷积后)→8x8(池化后))self.bn2 = nn.BatchNorm2d(num_features=64)self.relu2 = nn.ReLU()self.pool2 = nn.MaxPool2d(kernel_size=2)  # 尺寸减半:16x16→8x8# ---------------------- 第三个卷积块 ----------------------# 卷积层3:输入64通道,输出128通道self.conv3 = nn.Conv2d(in_channels=64,      # 输入通道数(前一层的输出通道数)out_channels=128,    # 输出通道数(特征图数量再次翻倍)kernel_size=3,padding=1            # 保持尺寸:8x8→8x8(卷积后)→4x4(池化后))self.bn3 = nn.BatchNorm2d(num_features=128)self.relu3 = nn.ReLU()  # 复用激活函数对象(节省内存)self.pool3 = nn.MaxPool2d(kernel_size=2)  # 尺寸减半:8x8→4x4# ---------------------- 全连接层(分类器) ----------------------# 计算展平后的特征维度:128通道 × 4x4尺寸 = 128×16=2048维self.fc1 = nn.Linear(in_features=128 * 4 * 4,  # 输入维度(卷积层输出的特征数)out_features=512          # 输出维度(隐藏层神经元数))# Dropout层:训练时随机丢弃50%神经元,防止过拟合self.dropout = nn.Dropout(p=0.5)# 输出层:将512维特征映射到10个类别(CIFAR-10的类别数)self.fc2 = nn.Linear(in_features=512, out_features=10)def forward(self, x):# 输入尺寸:[batch_size, 3, 32, 32](batch_size=批量大小,3=通道数,32x32=图像尺寸)# ---------- 卷积块1处理 ----------x = self.conv1(x)       # 卷积后尺寸:[batch_size, 32, 32, 32](padding=1保持尺寸)x = self.bn1(x)         # 批量归一化,不改变尺寸x = self.relu1(x)       # 激活函数,不改变尺寸x = self.pool1(x)       # 池化后尺寸:[batch_size, 32, 16, 16](32→16是因为池化窗口2x2)# ---------- 卷积块2处理 ----------x = self.conv2(x)       # 卷积后尺寸:[batch_size, 64, 16, 16](padding=1保持尺寸)x = self.bn2(x)x = self.relu2(x)x = self.pool2(x)       # 池化后尺寸:[batch_size, 64, 8, 8]# ---------- 卷积块3处理 ----------x = self.conv3(x)       # 卷积后尺寸:[batch_size, 128, 8, 8](padding=1保持尺寸)x = self.bn3(x)x = self.relu3(x)x = self.pool3(x)       # 池化后尺寸:[batch_size, 128, 4, 4]# ---------- 展平与全连接层 ----------# 将多维特征图展平为一维向量:[batch_size, 128*4*4] = [batch_size, 2048]x = x.view(-1, 128 * 4 * 4)  # -1自动计算批量维度,保持批量大小不变x = self.fc1(x)           # 全连接层:2048→512,尺寸变为[batch_size, 512]x = self.relu3(x)         # 激活函数(复用relu3,与卷积块3共用)x = self.dropout(x)       # Dropout随机丢弃神经元,不改变尺寸x = self.fc2(x)           # 全连接层:512→10,尺寸变为[batch_size, 10](未激活,直接输出logits)return x  # 输出未经过Softmax的logits,适用于交叉熵损失函数# 初始化模型
model = CNN()
model = model.to(device)  # 将模型移至GPU(如果可用)criterion = nn.CrossEntropyLoss()  # 交叉熵损失函数
optimizer = optim.Adam(model.parameters(), lr=0.001)  # Adam优化器# 引入学习率调度器,在训练过程中动态调整学习率--训练初期使用较大的 LR 快速降低损失,训练后期使用较小的 LR 更精细地逼近全局最优解。
# 在每个 epoch 结束后,需要手动调用调度器来更新学习率,可以在训练过程中调用 scheduler.step()
scheduler = optim.lr_scheduler.ReduceLROnPlateau(optimizer,        # 指定要控制的优化器(这里是Adam)mode='min',       # 监测的指标是"最小化"(如损失函数)patience=3,       # 如果连续3个epoch指标没有改善,才降低LRfactor=0.5        # 降低LR的比例(新LR = 旧LR × 0.5)
)
# 5. 训练模型(记录每个 iteration 的损失)
def train(model, train_loader, test_loader, criterion, optimizer, scheduler, device, epochs):model.train()  # 设置为训练模式# 记录每个 iteration 的损失all_iter_losses = []  # 存储所有 batch 的损失iter_indices = []     # 存储 iteration 序号# 记录每个 epoch 的准确率和损失train_acc_history = []test_acc_history = []train_loss_history = []test_loss_history = []for epoch in range(epochs):running_loss = 0.0correct = 0total = 0for batch_idx, (data, target) in enumerate(train_loader):data, target = data.to(device), target.to(device)  # 移至GPUoptimizer.zero_grad()  # 梯度清零output = model(data)  # 前向传播loss = criterion(output, target)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 更新参数# 记录当前 iteration 的损失iter_loss = loss.item()all_iter_losses.append(iter_loss)iter_indices.append(epoch * len(train_loader) + batch_idx + 1)# 统计准确率和损失running_loss += iter_loss_, predicted = output.max(1)total += target.size(0)correct += predicted.eq(target).sum().item()# 每100个批次打印一次训练信息if (batch_idx + 1) % 100 == 0:print(f'Epoch: {epoch+1}/{epochs} | Batch: {batch_idx+1}/{len(train_loader)} 'f'| 单Batch损失: {iter_loss:.4f} | 累计平均损失: {running_loss/(batch_idx+1):.4f}')# 计算当前epoch的平均训练损失和准确率epoch_train_loss = running_loss / len(train_loader)epoch_train_acc = 100. * correct / totaltrain_acc_history.append(epoch_train_acc)train_loss_history.append(epoch_train_loss)# 测试阶段model.eval()  # 设置为评估模式test_loss = 0correct_test = 0total_test = 0with torch.no_grad():for data, target in test_loader:data, target = data.to(device), target.to(device)output = model(data)test_loss += criterion(output, target).item()_, predicted = output.max(1)total_test += target.size(0)correct_test += predicted.eq(target).sum().item()epoch_test_loss = test_loss / len(test_loader)epoch_test_acc = 100. * correct_test / total_testtest_acc_history.append(epoch_test_acc)test_loss_history.append(epoch_test_loss)# 更新学习率调度器scheduler.step(epoch_test_loss)print(f'Epoch {epoch+1}/{epochs} 完成 | 训练准确率: {epoch_train_acc:.2f}% | 测试准确率: {epoch_test_acc:.2f}%')# 绘制所有 iteration 的损失曲线plot_iter_losses(all_iter_losses, iter_indices)# 绘制每个 epoch 的准确率和损失曲线plot_epoch_metrics(train_acc_history, test_acc_history, train_loss_history, test_loss_history)return epoch_test_acc  # 返回最终测试准确率# 6. 绘制每个 iteration 的损失曲线
def plot_iter_losses(losses, indices):plt.figure(figsize=(10, 4))plt.plot(indices, losses, 'b-', alpha=0.7, label='Iteration Loss')plt.xlabel('Iteration(Batch序号)')plt.ylabel('损失值')plt.title('每个 Iteration 的训练损失')plt.legend()plt.grid(True)plt.tight_layout()plt.show()# 7. 绘制每个 epoch 的准确率和损失曲线
def plot_epoch_metrics(train_acc, test_acc, train_loss, test_loss):epochs = range(1, len(train_acc) + 1)plt.figure(figsize=(12, 4))# 绘制准确率曲线plt.subplot(1, 2, 1)plt.plot(epochs, train_acc, 'b-', label='训练准确率')plt.plot(epochs, test_acc, 'r-', label='测试准确率')plt.xlabel('Epoch')plt.ylabel('准确率 (%)')plt.title('训练和测试准确率')plt.legend()plt.grid(True)# 绘制损失曲线plt.subplot(1, 2, 2)plt.plot(epochs, train_loss, 'b-', label='训练损失')plt.plot(epochs, test_loss, 'r-', label='测试损失')plt.xlabel('Epoch')plt.ylabel('损失值')plt.title('训练和测试损失')plt.legend()plt.grid(True)plt.tight_layout()plt.show()# 8. 执行训练和测试
epochs = 50  # 增加训练轮次为了确保收敛
print("开始使用CNN训练模型...")
final_accuracy = train(model, train_loader, test_loader, criterion, optimizer, scheduler, device, epochs)
print(f"训练完成!最终测试准确率: {final_accuracy:.2f}%")# # 保存模型
# torch.save(model.state_dict(), 'cifar10_cnn_model.pth')
# print("模型已保存为: cifar10_cnn_model.pth")def visualize_feature_maps(model, test_loader, device, layer_names, num_images=3, num_channels=9):"""可视化指定层的特征图(修复循环冗余问题)参数:model: 模型test_loader: 测试数据加载器layer_names: 要可视化的层名称(如['conv1', 'conv2', 'conv3'])num_images: 可视化的图像总数num_channels: 每个图像显示的通道数(取前num_channels个通道)"""model.eval()  # 设置为评估模式class_names = ['飞机', '汽车', '鸟', '猫', '鹿', '狗', '青蛙', '马', '船', '卡车']# 从测试集加载器中提取指定数量的图像(避免嵌套循环)images_list, labels_list = [], []for images, labels in test_loader:images_list.append(images)labels_list.append(labels)if len(images_list) * test_loader.batch_size >= num_images:break# 拼接并截取到目标数量images = torch.cat(images_list, dim=0)[:num_images].to(device)labels = torch.cat(labels_list, dim=0)[:num_images].to(device)with torch.no_grad():# 存储各层特征图feature_maps = {}# 保存钩子句柄hooks = []# 定义钩子函数,捕获指定层的输出def hook(module, input, output, name):feature_maps[name] = output.cpu()  # 保存特征图到字典# 为每个目标层注册钩子,并保存钩子句柄for name in layer_names:module = getattr(model, name)hook_handle = module.register_forward_hook(lambda m, i, o, n=name: hook(m, i, o, n))hooks.append(hook_handle)# 前向传播触发钩子_ = model(images)# 正确移除钩子for hook_handle in hooks:hook_handle.remove()# 可视化每个图像的各层特征图(仅一层循环)for img_idx in range(num_images):img = images[img_idx].cpu().permute(1, 2, 0).numpy()# 反标准化处理(恢复原始像素值)img = img * np.array([0.2023, 0.1994, 0.2010]).reshape(1, 1, 3) + np.array([0.4914, 0.4822, 0.4465]).reshape(1, 1, 3)img = np.clip(img, 0, 1)  # 确保像素值在[0,1]范围内# 创建子图num_layers = len(layer_names)fig, axes = plt.subplots(1, num_layers + 1, figsize=(4 * (num_layers + 1), 4))# 显示原始图像axes[0].imshow(img)axes[0].set_title(f'原始图像\n类别: {class_names[labels[img_idx]]}')axes[0].axis('off')# 显示各层特征图for layer_idx, layer_name in enumerate(layer_names):fm = feature_maps[layer_name][img_idx]  # 取第img_idx张图像的特征图fm = fm[:num_channels]  # 仅取前num_channels个通道num_rows = int(np.sqrt(num_channels))num_cols = num_channels // num_rows if num_rows != 0 else 1# 创建子图网格layer_ax = axes[layer_idx + 1]layer_ax.set_title(f'{layer_name}特征图 \n')# 加个换行让文字分离上去layer_ax.axis('off')  # 关闭大子图的坐标轴# 在大子图内创建小网格for ch_idx, channel in enumerate(fm):ax = layer_ax.inset_axes([ch_idx % num_cols / num_cols, (num_rows - 1 - ch_idx // num_cols) / num_rows, 1/num_cols, 1/num_rows])ax.imshow(channel.numpy(), cmap='viridis')ax.set_title(f'通道 {ch_idx + 1}')ax.axis('off')plt.tight_layout()plt.show()# 调用示例(按需修改参数)
layer_names = ['conv1', 'conv2', 'conv3']
visualize_feature_maps(model=model,test_loader=test_loader,device=device,layer_names=layer_names,num_images=5,  # 可视化5张测试图像 → 输出5张大图num_channels=9   # 每张图像显示前9个通道的特征图
)

输出结果:

使用设备: cpu
开始使用CNN训练模型...
Epoch: 1/50 | Batch: 100/782 | 单Batch损失: 1.8539 | 累计平均损失: 2.0268
Epoch: 1/50 | Batch: 200/782 | 单Batch损失: 1.8638 | 累计平均损失: 1.8953
Epoch: 1/50 | Batch: 300/782 | 单Batch损失: 1.5713 | 累计平均损失: 1.8195
Epoch: 1/50 | Batch: 400/782 | 单Batch损失: 1.5816 | 累计平均损失: 1.7708
Epoch: 1/50 | Batch: 500/782 | 单Batch损失: 1.7706 | 累计平均损失: 1.7368
Epoch: 1/50 | Batch: 600/782 | 单Batch损失: 1.6522 | 累计平均损失: 1.7073
Epoch: 1/50 | Batch: 700/782 | 单Batch损失: 1.3720 | 累计平均损失: 1.6835
Epoch 1/50 完成 | 训练准确率: 39.02% | 测试准确率: 51.93%
Epoch: 2/50 | Batch: 100/782 | 单Batch损失: 1.3814 | 累计平均损失: 1.4169
Epoch: 2/50 | Batch: 200/782 | 单Batch损失: 1.3478 | 累计平均损失: 1.3808
Epoch: 2/50 | Batch: 300/782 | 单Batch损失: 1.0885 | 累计平均损失: 1.3510
Epoch: 2/50 | Batch: 400/782 | 单Batch损失: 1.3697 | 累计平均损失: 1.3262
Epoch: 2/50 | Batch: 500/782 | 单Batch损失: 1.3418 | 累计平均损失: 1.3032
Epoch: 2/50 | Batch: 600/782 | 单Batch损失: 1.1939 | 累计平均损失: 1.2870
Epoch: 2/50 | Batch: 700/782 | 单Batch损失: 1.1860 | 累计平均损失: 1.2700
Epoch 2/50 完成 | 训练准确率: 54.34% | 测试准确率: 66.25%
Epoch: 3/50 | Batch: 100/782 | 单Batch损失: 1.1368 | 累计平均损失: 1.1452
Epoch: 3/50 | Batch: 200/782 | 单Batch损失: 0.9733 | 累计平均损失: 1.1278
Epoch: 3/50 | Batch: 300/782 | 单Batch损失: 1.1260 | 累计平均损失: 1.1159
Epoch: 3/50 | Batch: 400/782 | 单Batch损失: 1.0878 | 累计平均损失: 1.1081
Epoch: 3/50 | Batch: 500/782 | 单Batch损失: 0.8611 | 累计平均损失: 1.0984
Epoch: 3/50 | Batch: 600/782 | 单Batch损失: 1.0862 | 累计平均损失: 1.0909
Epoch: 3/50 | Batch: 700/782 | 单Batch损失: 0.9239 | 累计平均损失: 1.0838
Epoch 3/50 完成 | 训练准确率: 61.44% | 测试准确率: 70.01%
Epoch: 4/50 | Batch: 100/782 | 单Batch损失: 0.9884 | 累计平均损失: 1.0094
Epoch: 4/50 | Batch: 200/782 | 单Batch损失: 1.1597 | 累计平均损失: 1.0034
Epoch: 4/50 | Batch: 300/782 | 单Batch损失: 0.8105 | 累计平均损失: 0.9934
Epoch: 4/50 | Batch: 400/782 | 单Batch损失: 1.0249 | 累计平均损失: 0.9882
Epoch: 4/50 | Batch: 500/782 | 单Batch损失: 0.9399 | 累计平均损失: 0.9859
Epoch: 4/50 | Batch: 600/782 | 单Batch损失: 0.9402 | 累计平均损失: 0.9808
Epoch: 4/50 | Batch: 700/782 | 单Batch损失: 1.2411 | 累计平均损失: 0.9801
Epoch 4/50 完成 | 训练准确率: 65.21% | 测试准确率: 71.28%
Epoch: 5/50 | Batch: 100/782 | 单Batch损失: 0.9199 | 累计平均损失: 0.9320
Epoch: 5/50 | Batch: 200/782 | 单Batch损失: 0.8564 | 累计平均损失: 0.9236
Epoch: 5/50 | Batch: 300/782 | 单Batch损失: 0.8248 | 累计平均损失: 0.9306
Epoch: 5/50 | Batch: 400/782 | 单Batch损失: 0.7376 | 累计平均损失: 0.9271
Epoch: 5/50 | Batch: 500/782 | 单Batch损失: 1.0709 | 累计平均损失: 0.9262
Epoch: 5/50 | Batch: 600/782 | 单Batch损失: 0.6783 | 累计平均损失: 0.9203
Epoch: 5/50 | Batch: 700/782 | 单Batch损失: 0.8396 | 累计平均损失: 0.9191
Epoch 5/50 完成 | 训练准确率: 67.90% | 测试准确率: 74.32%
Epoch: 6/50 | Batch: 100/782 | 单Batch损失: 0.9785 | 累计平均损失: 0.8872
Epoch: 6/50 | Batch: 200/782 | 单Batch损失: 0.8902 | 累计平均损失: 0.8816
Epoch: 6/50 | Batch: 300/782 | 单Batch损失: 0.8828 | 累计平均损失: 0.8811
Epoch: 6/50 | Batch: 400/782 | 单Batch损失: 0.7679 | 累计平均损失: 0.8793
Epoch: 6/50 | Batch: 500/782 | 单Batch损失: 0.8801 | 累计平均损失: 0.8768
Epoch: 6/50 | Batch: 600/782 | 单Batch损失: 0.9959 | 累计平均损失: 0.8774
Epoch: 6/50 | Batch: 700/782 | 单Batch损失: 0.9286 | 累计平均损失: 0.8773
Epoch 6/50 完成 | 训练准确率: 69.15% | 测试准确率: 75.02%
Epoch: 7/50 | Batch: 100/782 | 单Batch损失: 1.0258 | 累计平均损失: 0.8453
Epoch: 7/50 | Batch: 200/782 | 单Batch损失: 0.6134 | 累计平均损失: 0.8398
Epoch: 7/50 | Batch: 300/782 | 单Batch损失: 0.7865 | 累计平均损失: 0.8327
Epoch: 7/50 | Batch: 400/782 | 单Batch损失: 0.9811 | 累计平均损失: 0.8390
Epoch: 7/50 | Batch: 500/782 | 单Batch损失: 0.9686 | 累计平均损失: 0.8358
Epoch: 7/50 | Batch: 600/782 | 单Batch损失: 0.9512 | 累计平均损失: 0.8295
Epoch: 7/50 | Batch: 700/782 | 单Batch损失: 0.8695 | 累计平均损失: 0.8296
Epoch 7/50 完成 | 训练准确率: 70.90% | 测试准确率: 75.37%
Epoch: 8/50 | Batch: 100/782 | 单Batch损失: 0.5723 | 累计平均损失: 0.7976
Epoch: 8/50 | Batch: 200/782 | 单Batch损失: 0.6787 | 累计平均损失: 0.7980
Epoch: 8/50 | Batch: 300/782 | 单Batch损失: 0.9475 | 累计平均损失: 0.8070
Epoch: 8/50 | Batch: 400/782 | 单Batch损失: 0.7365 | 累计平均损失: 0.8067
Epoch: 8/50 | Batch: 500/782 | 单Batch损失: 0.7936 | 累计平均损失: 0.8063
Epoch: 8/50 | Batch: 600/782 | 单Batch损失: 0.8557 | 累计平均损失: 0.8058
Epoch: 8/50 | Batch: 700/782 | 单Batch损失: 0.6426 | 累计平均损失: 0.8029
Epoch 8/50 完成 | 训练准确率: 71.71% | 测试准确率: 76.15%
Epoch: 9/50 | Batch: 100/782 | 单Batch损失: 1.0393 | 累计平均损失: 0.7635
Epoch: 9/50 | Batch: 200/782 | 单Batch损失: 0.9073 | 累计平均损失: 0.7807
Epoch: 9/50 | Batch: 300/782 | 单Batch损失: 0.7449 | 累计平均损失: 0.7763
Epoch: 9/50 | Batch: 400/782 | 单Batch损失: 0.8752 | 累计平均损失: 0.7749
Epoch: 9/50 | Batch: 500/782 | 单Batch损失: 0.7307 | 累计平均损失: 0.7752
Epoch: 9/50 | Batch: 600/782 | 单Batch损失: 0.6169 | 累计平均损失: 0.7747
Epoch: 9/50 | Batch: 700/782 | 单Batch损失: 0.8747 | 累计平均损失: 0.7758
Epoch 9/50 完成 | 训练准确率: 72.71% | 测试准确率: 77.26%
Epoch: 10/50 | Batch: 100/782 | 单Batch损失: 1.0480 | 累计平均损失: 0.7471
Epoch: 10/50 | Batch: 200/782 | 单Batch损失: 0.6623 | 累计平均损失: 0.7597
Epoch: 10/50 | Batch: 300/782 | 单Batch损失: 0.8468 | 累计平均损失: 0.7650
Epoch: 10/50 | Batch: 400/782 | 单Batch损失: 0.9976 | 累计平均损失: 0.7689
Epoch: 10/50 | Batch: 500/782 | 单Batch损失: 0.5805 | 累计平均损失: 0.7666
Epoch: 10/50 | Batch: 600/782 | 单Batch损失: 0.9246 | 累计平均损失: 0.7629
Epoch: 10/50 | Batch: 700/782 | 单Batch损失: 0.6942 | 累计平均损失: 0.7612
Epoch 10/50 完成 | 训练准确率: 73.17% | 测试准确率: 77.55%
Epoch: 11/50 | Batch: 100/782 | 单Batch损失: 0.6047 | 累计平均损失: 0.7467
Epoch: 11/50 | Batch: 200/782 | 单Batch损失: 0.7159 | 累计平均损失: 0.7444
Epoch: 11/50 | Batch: 300/782 | 单Batch损失: 0.8179 | 累计平均损失: 0.7398
Epoch: 11/50 | Batch: 400/782 | 单Batch损失: 0.5692 | 累计平均损失: 0.7327
Epoch: 11/50 | Batch: 500/782 | 单Batch损失: 0.7060 | 累计平均损失: 0.7322
Epoch: 11/50 | Batch: 600/782 | 单Batch损失: 0.7626 | 累计平均损失: 0.7320
Epoch: 11/50 | Batch: 700/782 | 单Batch损失: 0.7075 | 累计平均损失: 0.7321
Epoch 11/50 完成 | 训练准确率: 74.30% | 测试准确率: 78.45%
Epoch: 12/50 | Batch: 100/782 | 单Batch损失: 0.6591 | 累计平均损失: 0.7149
Epoch: 12/50 | Batch: 200/782 | 单Batch损失: 0.6778 | 累计平均损失: 0.7116
Epoch: 12/50 | Batch: 300/782 | 单Batch损失: 0.6202 | 累计平均损失: 0.7181
Epoch: 12/50 | Batch: 400/782 | 单Batch损失: 1.0876 | 累计平均损失: 0.7253
Epoch: 12/50 | Batch: 500/782 | 单Batch损失: 0.6302 | 累计平均损失: 0.7219
Epoch: 12/50 | Batch: 600/782 | 单Batch损失: 0.7123 | 累计平均损失: 0.7233
Epoch: 12/50 | Batch: 700/782 | 单Batch损失: 1.0204 | 累计平均损失: 0.7240
Epoch 12/50 完成 | 训练准确率: 74.65% | 测试准确率: 78.17%
Epoch: 13/50 | Batch: 100/782 | 单Batch损失: 0.6519 | 累计平均损失: 0.7068
Epoch: 13/50 | Batch: 200/782 | 单Batch损失: 0.7013 | 累计平均损失: 0.7047
Epoch: 13/50 | Batch: 300/782 | 单Batch损失: 1.0340 | 累计平均损失: 0.7107
Epoch: 13/50 | Batch: 400/782 | 单Batch损失: 0.8141 | 累计平均损失: 0.7153
Epoch: 13/50 | Batch: 500/782 | 单Batch损失: 0.7780 | 累计平均损失: 0.7124
Epoch: 13/50 | Batch: 600/782 | 单Batch损失: 0.6295 | 累计平均损失: 0.7123
Epoch: 13/50 | Batch: 700/782 | 单Batch损失: 0.6402 | 累计平均损失: 0.7070
Epoch 13/50 完成 | 训练准确率: 75.41% | 测试准确率: 77.77%
Epoch: 14/50 | Batch: 100/782 | 单Batch损失: 0.8706 | 累计平均损失: 0.6945
Epoch: 14/50 | Batch: 200/782 | 单Batch损失: 0.5825 | 累计平均损失: 0.6967
Epoch: 14/50 | Batch: 300/782 | 单Batch损失: 0.5823 | 累计平均损失: 0.7019
Epoch: 14/50 | Batch: 400/782 | 单Batch损失: 0.5279 | 累计平均损失: 0.6954
Epoch: 14/50 | Batch: 500/782 | 单Batch损失: 0.5484 | 累计平均损失: 0.6961
Epoch: 14/50 | Batch: 600/782 | 单Batch损失: 0.9330 | 累计平均损失: 0.6951
Epoch: 14/50 | Batch: 700/782 | 单Batch损失: 0.6501 | 累计平均损失: 0.6969
Epoch 14/50 完成 | 训练准确率: 75.53% | 测试准确率: 79.26%
Epoch: 15/50 | Batch: 100/782 | 单Batch损失: 0.7403 | 累计平均损失: 0.6968
Epoch: 15/50 | Batch: 200/782 | 单Batch损失: 0.5562 | 累计平均损失: 0.6837
Epoch: 15/50 | Batch: 300/782 | 单Batch损失: 0.9430 | 累计平均损失: 0.6854
Epoch: 15/50 | Batch: 400/782 | 单Batch损失: 0.6468 | 累计平均损失: 0.6837
Epoch: 15/50 | Batch: 500/782 | 单Batch损失: 0.7006 | 累计平均损失: 0.6873
Epoch: 15/50 | Batch: 600/782 | 单Batch损失: 0.7594 | 累计平均损失: 0.6857
Epoch: 15/50 | Batch: 700/782 | 单Batch损失: 0.7708 | 累计平均损失: 0.6876
Epoch 15/50 完成 | 训练准确率: 76.05% | 测试准确率: 79.30%
Epoch: 16/50 | Batch: 100/782 | 单Batch损失: 0.4919 | 累计平均损失: 0.6672
Epoch: 16/50 | Batch: 200/782 | 单Batch损失: 0.6408 | 累计平均损失: 0.6614
Epoch: 16/50 | Batch: 300/782 | 单Batch损失: 0.6131 | 累计平均损失: 0.6698
Epoch: 16/50 | Batch: 400/782 | 单Batch损失: 0.6118 | 累计平均损失: 0.6677
Epoch: 16/50 | Batch: 500/782 | 单Batch损失: 0.6467 | 累计平均损失: 0.6764
Epoch: 16/50 | Batch: 600/782 | 单Batch损失: 0.7420 | 累计平均损失: 0.6736
Epoch: 16/50 | Batch: 700/782 | 单Batch损失: 0.8059 | 累计平均损失: 0.6745
Epoch 16/50 完成 | 训练准确率: 76.52% | 测试准确率: 80.07%
Epoch: 17/50 | Batch: 100/782 | 单Batch损失: 0.5687 | 累计平均损失: 0.6512
Epoch: 17/50 | Batch: 200/782 | 单Batch损失: 0.6869 | 累计平均损失: 0.6592
Epoch: 17/50 | Batch: 300/782 | 单Batch损失: 0.5542 | 累计平均损失: 0.6649
Epoch: 17/50 | Batch: 400/782 | 单Batch损失: 0.7179 | 累计平均损失: 0.6650
Epoch: 17/50 | Batch: 500/782 | 单Batch损失: 0.4249 | 累计平均损失: 0.6653
Epoch: 17/50 | Batch: 600/782 | 单Batch损失: 0.5819 | 累计平均损失: 0.6695
Epoch: 17/50 | Batch: 700/782 | 单Batch损失: 0.4027 | 累计平均损失: 0.6683
Epoch 17/50 完成 | 训练准确率: 76.77% | 测试准确率: 79.61%
Epoch: 18/50 | Batch: 100/782 | 单Batch损失: 0.7578 | 累计平均损失: 0.6631
Epoch: 18/50 | Batch: 200/782 | 单Batch损失: 0.7089 | 累计平均损失: 0.6611
Epoch: 18/50 | Batch: 300/782 | 单Batch损失: 0.7038 | 累计平均损失: 0.6618
Epoch: 18/50 | Batch: 400/782 | 单Batch损失: 0.6911 | 累计平均损失: 0.6581
Epoch: 18/50 | Batch: 500/782 | 单Batch损失: 0.6647 | 累计平均损失: 0.6526
Epoch: 18/50 | Batch: 600/782 | 单Batch损失: 0.8129 | 累计平均损失: 0.6520
Epoch: 18/50 | Batch: 700/782 | 单Batch损失: 0.7677 | 累计平均损失: 0.6537
Epoch 18/50 完成 | 训练准确率: 77.11% | 测试准确率: 79.66%
Epoch: 19/50 | Batch: 100/782 | 单Batch损失: 0.7401 | 累计平均损失: 0.6281
Epoch: 19/50 | Batch: 200/782 | 单Batch损失: 0.6489 | 累计平均损失: 0.6344
Epoch: 19/50 | Batch: 300/782 | 单Batch损失: 0.4571 | 累计平均损失: 0.6304
Epoch: 19/50 | Batch: 400/782 | 单Batch损失: 0.7168 | 累计平均损失: 0.6347
Epoch: 19/50 | Batch: 500/782 | 单Batch损失: 0.8499 | 累计平均损失: 0.6380
Epoch: 19/50 | Batch: 600/782 | 单Batch损失: 0.6468 | 累计平均损失: 0.6373
Epoch: 19/50 | Batch: 700/782 | 单Batch损失: 0.7811 | 累计平均损失: 0.6413
Epoch 19/50 完成 | 训练准确率: 77.59% | 测试准确率: 80.51%
Epoch: 20/50 | Batch: 100/782 | 单Batch损失: 0.6995 | 累计平均损失: 0.6177
Epoch: 20/50 | Batch: 200/782 | 单Batch损失: 0.8608 | 累计平均损失: 0.6287
Epoch: 20/50 | Batch: 300/782 | 单Batch损失: 0.7941 | 累计平均损失: 0.6363
Epoch: 20/50 | Batch: 400/782 | 单Batch损失: 0.5888 | 累计平均损失: 0.6306
Epoch: 20/50 | Batch: 500/782 | 单Batch损失: 0.5659 | 累计平均损失: 0.6309
Epoch: 20/50 | Batch: 600/782 | 单Batch损失: 0.4776 | 累计平均损失: 0.6331
Epoch: 20/50 | Batch: 700/782 | 单Batch损失: 0.6303 | 累计平均损失: 0.6331
Epoch 20/50 完成 | 训练准确率: 77.87% | 测试准确率: 80.89%
Epoch: 21/50 | Batch: 100/782 | 单Batch损失: 0.4719 | 累计平均损失: 0.6032
Epoch: 21/50 | Batch: 200/782 | 单Batch损失: 0.7351 | 累计平均损失: 0.6194
Epoch: 21/50 | Batch: 300/782 | 单Batch损失: 0.5383 | 累计平均损失: 0.6229
Epoch: 21/50 | Batch: 400/782 | 单Batch损失: 0.4895 | 累计平均损失: 0.6169
Epoch: 21/50 | Batch: 500/782 | 单Batch损失: 0.6693 | 累计平均损失: 0.6237
Epoch: 21/50 | Batch: 600/782 | 单Batch损失: 0.7677 | 累计平均损失: 0.6250
Epoch: 21/50 | Batch: 700/782 | 单Batch损失: 0.5635 | 累计平均损失: 0.6258
Epoch 21/50 完成 | 训练准确率: 78.27% | 测试准确率: 80.38%
Epoch: 22/50 | Batch: 100/782 | 单Batch损失: 0.5157 | 累计平均损失: 0.6428
Epoch: 22/50 | Batch: 200/782 | 单Batch损失: 0.6294 | 累计平均损失: 0.6304
Epoch: 22/50 | Batch: 300/782 | 单Batch损失: 0.6815 | 累计平均损失: 0.6201
Epoch: 22/50 | Batch: 400/782 | 单Batch损失: 0.6121 | 累计平均损失: 0.6171
Epoch: 22/50 | Batch: 500/782 | 单Batch损失: 0.5409 | 累计平均损失: 0.6207
Epoch: 22/50 | Batch: 600/782 | 单Batch损失: 0.7161 | 累计平均损失: 0.6229
Epoch: 22/50 | Batch: 700/782 | 单Batch损失: 0.5455 | 累计平均损失: 0.6191
Epoch 22/50 完成 | 训练准确率: 78.24% | 测试准确率: 81.05%
Epoch: 23/50 | Batch: 100/782 | 单Batch损失: 0.5670 | 累计平均损失: 0.6112
Epoch: 23/50 | Batch: 200/782 | 单Batch损失: 0.8385 | 累计平均损失: 0.6131
Epoch: 23/50 | Batch: 300/782 | 单Batch损失: 0.7163 | 累计平均损失: 0.6088
Epoch: 23/50 | Batch: 400/782 | 单Batch损失: 0.4712 | 累计平均损失: 0.6129
Epoch: 23/50 | Batch: 500/782 | 单Batch损失: 0.7712 | 累计平均损失: 0.6132
Epoch: 23/50 | Batch: 600/782 | 单Batch损失: 0.5998 | 累计平均损失: 0.6127
Epoch: 23/50 | Batch: 700/782 | 单Batch损失: 0.6282 | 累计平均损失: 0.6126
Epoch 23/50 完成 | 训练准确率: 78.42% | 测试准确率: 81.23%
Epoch: 24/50 | Batch: 100/782 | 单Batch损失: 0.5343 | 累计平均损失: 0.6257
Epoch: 24/50 | Batch: 200/782 | 单Batch损失: 0.5420 | 累计平均损失: 0.6201
Epoch: 24/50 | Batch: 300/782 | 单Batch损失: 0.8932 | 累计平均损失: 0.6172
Epoch: 24/50 | Batch: 400/782 | 单Batch损失: 0.7989 | 累计平均损失: 0.6123
Epoch: 24/50 | Batch: 500/782 | 单Batch损失: 0.5696 | 累计平均损失: 0.6118
Epoch: 24/50 | Batch: 600/782 | 单Batch损失: 0.5766 | 累计平均损失: 0.6093
Epoch: 24/50 | Batch: 700/782 | 单Batch损失: 0.5001 | 累计平均损失: 0.6078
Epoch 24/50 完成 | 训练准确率: 78.81% | 测试准确率: 80.19%
Epoch: 25/50 | Batch: 100/782 | 单Batch损失: 0.6670 | 累计平均损失: 0.5957
Epoch: 25/50 | Batch: 200/782 | 单Batch损失: 0.6242 | 累计平均损失: 0.6117
Epoch: 25/50 | Batch: 300/782 | 单Batch损失: 0.6651 | 累计平均损失: 0.6002
Epoch: 25/50 | Batch: 400/782 | 单Batch损失: 0.4729 | 累计平均损失: 0.5986
Epoch: 25/50 | Batch: 500/782 | 单Batch损失: 0.5653 | 累计平均损失: 0.5986
Epoch: 25/50 | Batch: 600/782 | 单Batch损失: 0.5677 | 累计平均损失: 0.6006
Epoch: 25/50 | Batch: 700/782 | 单Batch损失: 0.5492 | 累计平均损失: 0.6000
Epoch 25/50 完成 | 训练准确率: 79.09% | 测试准确率: 81.24%
Epoch: 26/50 | Batch: 100/782 | 单Batch损失: 0.5510 | 累计平均损失: 0.5756
Epoch: 26/50 | Batch: 200/782 | 单Batch损失: 0.4946 | 累计平均损失: 0.5898
Epoch: 26/50 | Batch: 300/782 | 单Batch损失: 0.4042 | 累计平均损失: 0.5998
Epoch: 26/50 | Batch: 400/782 | 单Batch损失: 0.6142 | 累计平均损失: 0.6017
Epoch: 26/50 | Batch: 500/782 | 单Batch损失: 0.5878 | 累计平均损失: 0.6018
Epoch: 26/50 | Batch: 600/782 | 单Batch损失: 0.7889 | 累计平均损失: 0.6004
Epoch: 26/50 | Batch: 700/782 | 单Batch损失: 0.6796 | 累计平均损失: 0.6005
Epoch 26/50 完成 | 训练准确率: 78.99% | 测试准确率: 82.02%
Epoch: 27/50 | Batch: 100/782 | 单Batch损失: 0.6384 | 累计平均损失: 0.5876
Epoch: 27/50 | Batch: 200/782 | 单Batch损失: 0.4381 | 累计平均损失: 0.5921
Epoch: 27/50 | Batch: 300/782 | 单Batch损失: 0.5611 | 累计平均损失: 0.5852
Epoch: 27/50 | Batch: 400/782 | 单Batch损失: 0.6130 | 累计平均损失: 0.5851
Epoch: 27/50 | Batch: 500/782 | 单Batch损失: 0.6033 | 累计平均损失: 0.5838
Epoch: 27/50 | Batch: 600/782 | 单Batch损失: 0.6882 | 累计平均损失: 0.5887
Epoch: 27/50 | Batch: 700/782 | 单Batch损失: 0.5520 | 累计平均损失: 0.5901
Epoch 27/50 完成 | 训练准确率: 79.39% | 测试准确率: 81.67%
Epoch: 28/50 | Batch: 100/782 | 单Batch损失: 0.5000 | 累计平均损失: 0.5795
Epoch: 28/50 | Batch: 200/782 | 单Batch损失: 0.9605 | 累计平均损失: 0.5807
Epoch: 28/50 | Batch: 300/782 | 单Batch损失: 0.7974 | 累计平均损失: 0.5800
Epoch: 28/50 | Batch: 400/782 | 单Batch损失: 0.6085 | 累计平均损失: 0.5783
Epoch: 28/50 | Batch: 500/782 | 单Batch损失: 0.6021 | 累计平均损失: 0.5789
Epoch: 28/50 | Batch: 600/782 | 单Batch损失: 0.5852 | 累计平均损失: 0.5795
Epoch: 28/50 | Batch: 700/782 | 单Batch损失: 0.4722 | 累计平均损失: 0.5796
Epoch 28/50 完成 | 训练准确率: 79.90% | 测试准确率: 81.78%
Epoch: 29/50 | Batch: 100/782 | 单Batch损失: 0.5543 | 累计平均损失: 0.5862
Epoch: 29/50 | Batch: 200/782 | 单Batch损失: 0.5983 | 累计平均损失: 0.5850
Epoch: 29/50 | Batch: 300/782 | 单Batch损失: 0.4655 | 累计平均损失: 0.5769
Epoch: 29/50 | Batch: 400/782 | 单Batch损失: 0.5777 | 累计平均损失: 0.5731
Epoch: 29/50 | Batch: 500/782 | 单Batch损失: 0.7751 | 累计平均损失: 0.5735
Epoch: 29/50 | Batch: 600/782 | 单Batch损失: 0.5230 | 累计平均损失: 0.5792
Epoch: 29/50 | Batch: 700/782 | 单Batch损失: 0.6486 | 累计平均损失: 0.5777
Epoch 29/50 完成 | 训练准确率: 79.83% | 测试准确率: 80.93%
Epoch: 30/50 | Batch: 100/782 | 单Batch损失: 0.4349 | 累计平均损失: 0.5627
Epoch: 30/50 | Batch: 200/782 | 单Batch损失: 0.7379 | 累计平均损失: 0.5528
Epoch: 30/50 | Batch: 300/782 | 单Batch损失: 0.3813 | 累计平均损失: 0.5641
Epoch: 30/50 | Batch: 400/782 | 单Batch损失: 0.6274 | 累计平均损失: 0.5666
Epoch: 30/50 | Batch: 500/782 | 单Batch损失: 0.4929 | 累计平均损失: 0.5688
Epoch: 30/50 | Batch: 600/782 | 单Batch损失: 0.5129 | 累计平均损失: 0.5682
Epoch: 30/50 | Batch: 700/782 | 单Batch损失: 0.3648 | 累计平均损失: 0.5698
Epoch 30/50 完成 | 训练准确率: 80.27% | 测试准确率: 80.81%
Epoch: 31/50 | Batch: 100/782 | 单Batch损失: 0.4752 | 累计平均损失: 0.5344
Epoch: 31/50 | Batch: 200/782 | 单Batch损失: 0.6112 | 累计平均损失: 0.5270
Epoch: 31/50 | Batch: 300/782 | 单Batch损失: 0.7097 | 累计平均损失: 0.5279
Epoch: 31/50 | Batch: 400/782 | 单Batch损失: 0.6439 | 累计平均损失: 0.5242
Epoch: 31/50 | Batch: 500/782 | 单Batch损失: 0.5794 | 累计平均损失: 0.5255
Epoch: 31/50 | Batch: 600/782 | 单Batch损失: 0.5100 | 累计平均损失: 0.5236
Epoch: 31/50 | Batch: 700/782 | 单Batch损失: 0.3518 | 累计平均损失: 0.5217
Epoch 31/50 完成 | 训练准确率: 81.78% | 测试准确率: 83.44%
Epoch: 32/50 | Batch: 100/782 | 单Batch损失: 0.5401 | 累计平均损失: 0.4996
Epoch: 32/50 | Batch: 200/782 | 单Batch损失: 0.4010 | 累计平均损失: 0.5038
Epoch: 32/50 | Batch: 300/782 | 单Batch损失: 0.3299 | 累计平均损失: 0.5028
Epoch: 32/50 | Batch: 400/782 | 单Batch损失: 0.4963 | 累计平均损失: 0.5026
Epoch: 32/50 | Batch: 500/782 | 单Batch损失: 0.3892 | 累计平均损失: 0.5044
Epoch: 32/50 | Batch: 600/782 | 单Batch损失: 0.5406 | 累计平均损失: 0.5075
Epoch: 32/50 | Batch: 700/782 | 单Batch损失: 0.4213 | 累计平均损失: 0.5080
Epoch 32/50 完成 | 训练准确率: 82.19% | 测试准确率: 83.31%
Epoch: 33/50 | Batch: 100/782 | 单Batch损失: 0.3157 | 累计平均损失: 0.4888
Epoch: 33/50 | Batch: 200/782 | 单Batch损失: 0.2931 | 累计平均损失: 0.4940
Epoch: 33/50 | Batch: 300/782 | 单Batch损失: 0.4893 | 累计平均损失: 0.5020
Epoch: 33/50 | Batch: 400/782 | 单Batch损失: 0.4614 | 累计平均损失: 0.4987
Epoch: 33/50 | Batch: 500/782 | 单Batch损失: 0.6587 | 累计平均损失: 0.4954
Epoch: 33/50 | Batch: 600/782 | 单Batch损失: 0.3291 | 累计平均损失: 0.4965
Epoch: 33/50 | Batch: 700/782 | 单Batch损失: 0.4636 | 累计平均损失: 0.4986
Epoch 33/50 完成 | 训练准确率: 82.52% | 测试准确率: 83.57%
Epoch: 34/50 | Batch: 100/782 | 单Batch损失: 0.3985 | 累计平均损失: 0.4882
Epoch: 34/50 | Batch: 200/782 | 单Batch损失: 0.6551 | 累计平均损失: 0.4933
Epoch: 34/50 | Batch: 300/782 | 单Batch损失: 0.5708 | 累计平均损失: 0.4956
Epoch: 34/50 | Batch: 400/782 | 单Batch损失: 0.4960 | 累计平均损失: 0.4930
Epoch: 34/50 | Batch: 500/782 | 单Batch损失: 0.4952 | 累计平均损失: 0.4935
Epoch: 34/50 | Batch: 600/782 | 单Batch损失: 0.4377 | 累计平均损失: 0.4969
Epoch: 34/50 | Batch: 700/782 | 单Batch损失: 0.5385 | 累计平均损失: 0.4950
Epoch 34/50 完成 | 训练准确率: 82.82% | 测试准确率: 83.00%
Epoch: 35/50 | Batch: 100/782 | 单Batch损失: 0.5073 | 累计平均损失: 0.4926
Epoch: 35/50 | Batch: 200/782 | 单Batch损失: 0.5737 | 累计平均损失: 0.4848
Epoch: 35/50 | Batch: 300/782 | 单Batch损失: 0.3960 | 累计平均损失: 0.4841
Epoch: 35/50 | Batch: 400/782 | 单Batch损失: 0.4377 | 累计平均损失: 0.4836
Epoch: 35/50 | Batch: 500/782 | 单Batch损失: 0.3061 | 累计平均损失: 0.4840
Epoch: 35/50 | Batch: 600/782 | 单Batch损失: 0.4411 | 累计平均损失: 0.4857
Epoch: 35/50 | Batch: 700/782 | 单Batch损失: 0.5037 | 累计平均损失: 0.4871
Epoch 35/50 完成 | 训练准确率: 82.90% | 测试准确率: 83.85%
Epoch: 36/50 | Batch: 100/782 | 单Batch损失: 0.4132 | 累计平均损失: 0.4892
Epoch: 36/50 | Batch: 200/782 | 单Batch损失: 0.2313 | 累计平均损失: 0.4857
Epoch: 36/50 | Batch: 300/782 | 单Batch损失: 0.3319 | 累计平均损失: 0.4865
Epoch: 36/50 | Batch: 400/782 | 单Batch损失: 0.4715 | 累计平均损失: 0.4915
Epoch: 36/50 | Batch: 500/782 | 单Batch损失: 0.4068 | 累计平均损失: 0.4903
Epoch: 36/50 | Batch: 600/782 | 单Batch损失: 0.4756 | 累计平均损失: 0.4912
Epoch: 36/50 | Batch: 700/782 | 单Batch损失: 0.4490 | 累计平均损失: 0.4913
Epoch 36/50 完成 | 训练准确率: 82.77% | 测试准确率: 83.55%
Epoch: 37/50 | Batch: 100/782 | 单Batch损失: 0.4859 | 累计平均损失: 0.4836
Epoch: 37/50 | Batch: 200/782 | 单Batch损失: 0.4128 | 累计平均损失: 0.4732
Epoch: 37/50 | Batch: 300/782 | 单Batch损失: 0.3715 | 累计平均损失: 0.4701
Epoch: 37/50 | Batch: 400/782 | 单Batch损失: 0.4911 | 累计平均损失: 0.4717
Epoch: 37/50 | Batch: 500/782 | 单Batch损失: 0.4341 | 累计平均损失: 0.4757
Epoch: 37/50 | Batch: 600/782 | 单Batch损失: 0.5582 | 累计平均损失: 0.4749
Epoch: 37/50 | Batch: 700/782 | 单Batch损失: 0.6475 | 累计平均损失: 0.4770
Epoch 37/50 完成 | 训练准确率: 83.12% | 测试准确率: 83.20%
Epoch: 38/50 | Batch: 100/782 | 单Batch损失: 0.5541 | 累计平均损失: 0.4553
Epoch: 38/50 | Batch: 200/782 | 单Batch损失: 0.4105 | 累计平均损失: 0.4551
Epoch: 38/50 | Batch: 300/782 | 单Batch损失: 0.4476 | 累计平均损失: 0.4513
Epoch: 38/50 | Batch: 400/782 | 单Batch损失: 0.4791 | 累计平均损失: 0.4534
Epoch: 38/50 | Batch: 500/782 | 单Batch损失: 0.4224 | 累计平均损失: 0.4551
Epoch: 38/50 | Batch: 600/782 | 单Batch损失: 0.4507 | 累计平均损失: 0.4543
Epoch: 38/50 | Batch: 700/782 | 单Batch损失: 0.6033 | 累计平均损失: 0.4530
Epoch 38/50 完成 | 训练准确率: 84.08% | 测试准确率: 84.58%
Epoch: 39/50 | Batch: 100/782 | 单Batch损失: 0.5436 | 累计平均损失: 0.4502
Epoch: 39/50 | Batch: 200/782 | 单Batch损失: 0.4747 | 累计平均损失: 0.4476
Epoch: 39/50 | Batch: 300/782 | 单Batch损失: 0.5037 | 累计平均损失: 0.4462
Epoch: 39/50 | Batch: 400/782 | 单Batch损失: 0.4014 | 累计平均损失: 0.4443
Epoch: 39/50 | Batch: 500/782 | 单Batch损失: 0.4490 | 累计平均损失: 0.4425
Epoch: 39/50 | Batch: 600/782 | 单Batch损失: 0.4424 | 累计平均损失: 0.4414
Epoch: 39/50 | Batch: 700/782 | 单Batch损失: 0.3164 | 累计平均损失: 0.4411
Epoch 39/50 完成 | 训练准确率: 84.58% | 测试准确率: 84.35%
Epoch: 40/50 | Batch: 100/782 | 单Batch损失: 0.2633 | 累计平均损失: 0.4423
Epoch: 40/50 | Batch: 200/782 | 单Batch损失: 0.5159 | 累计平均损失: 0.4352
Epoch: 40/50 | Batch: 300/782 | 单Batch损失: 0.3438 | 累计平均损失: 0.4408
Epoch: 40/50 | Batch: 400/782 | 单Batch损失: 0.5254 | 累计平均损失: 0.4400
Epoch: 40/50 | Batch: 500/782 | 单Batch损失: 0.5095 | 累计平均损失: 0.4392
Epoch: 40/50 | Batch: 600/782 | 单Batch损失: 0.4860 | 累计平均损失: 0.4396
Epoch: 40/50 | Batch: 700/782 | 单Batch损失: 0.4159 | 累计平均损失: 0.4387
Epoch 40/50 完成 | 训练准确率: 84.44% | 测试准确率: 84.55%
Epoch: 41/50 | Batch: 100/782 | 单Batch损失: 0.4876 | 累计平均损失: 0.4398
Epoch: 41/50 | Batch: 200/782 | 单Batch损失: 0.2472 | 累计平均损失: 0.4365
Epoch: 41/50 | Batch: 300/782 | 单Batch损失: 0.4353 | 累计平均损失: 0.4410
Epoch: 41/50 | Batch: 400/782 | 单Batch损失: 0.4128 | 累计平均损失: 0.4449
Epoch: 41/50 | Batch: 500/782 | 单Batch损失: 0.5471 | 累计平均损失: 0.4443
Epoch: 41/50 | Batch: 600/782 | 单Batch损失: 0.5178 | 累计平均损失: 0.4416
Epoch: 41/50 | Batch: 700/782 | 单Batch损失: 0.7246 | 累计平均损失: 0.4416
Epoch 41/50 完成 | 训练准确率: 84.47% | 测试准确率: 84.53%
Epoch: 42/50 | Batch: 100/782 | 单Batch损失: 0.4572 | 累计平均损失: 0.4389
Epoch: 42/50 | Batch: 200/782 | 单Batch损失: 0.5343 | 累计平均损失: 0.4412
Epoch: 42/50 | Batch: 300/782 | 单Batch损失: 0.3267 | 累计平均损失: 0.4405
Epoch: 42/50 | Batch: 400/782 | 单Batch损失: 0.4651 | 累计平均损失: 0.4437
Epoch: 42/50 | Batch: 500/782 | 单Batch损失: 0.5116 | 累计平均损失: 0.4407
Epoch: 42/50 | Batch: 600/782 | 单Batch损失: 0.4917 | 累计平均损失: 0.4420
Epoch: 42/50 | Batch: 700/782 | 单Batch损失: 0.3828 | 累计平均损失: 0.4428
Epoch 42/50 完成 | 训练准确率: 84.43% | 测试准确率: 84.63%
Epoch: 43/50 | Batch: 100/782 | 单Batch损失: 0.4204 | 累计平均损失: 0.4377
Epoch: 43/50 | Batch: 200/782 | 单Batch损失: 0.5453 | 累计平均损失: 0.4351
Epoch: 43/50 | Batch: 300/782 | 单Batch损失: 0.2920 | 累计平均损失: 0.4286
Epoch: 43/50 | Batch: 400/782 | 单Batch损失: 0.2722 | 累计平均损失: 0.4296
Epoch: 43/50 | Batch: 500/782 | 单Batch损失: 0.5605 | 累计平均损失: 0.4324
Epoch: 43/50 | Batch: 600/782 | 单Batch损失: 0.4332 | 累计平均损失: 0.4335
Epoch: 43/50 | Batch: 700/782 | 单Batch损失: 0.2315 | 累计平均损失: 0.4352
Epoch 43/50 完成 | 训练准确率: 84.80% | 测试准确率: 84.91%
Epoch: 44/50 | Batch: 100/782 | 单Batch损失: 0.3488 | 累计平均损失: 0.4126
Epoch: 44/50 | Batch: 200/782 | 单Batch损失: 0.2722 | 累计平均损失: 0.4197
Epoch: 44/50 | Batch: 300/782 | 单Batch损失: 0.5089 | 累计平均损失: 0.4239
Epoch: 44/50 | Batch: 400/782 | 单Batch损失: 0.3919 | 累计平均损失: 0.4279
Epoch: 44/50 | Batch: 500/782 | 单Batch损失: 0.2832 | 累计平均损失: 0.4281
Epoch: 44/50 | Batch: 600/782 | 单Batch损失: 0.4690 | 累计平均损失: 0.4283
Epoch: 44/50 | Batch: 700/782 | 单Batch损失: 0.5393 | 累计平均损失: 0.4304
Epoch 44/50 完成 | 训练准确率: 84.63% | 测试准确率: 84.37%
Epoch: 45/50 | Batch: 100/782 | 单Batch损失: 0.2962 | 累计平均损失: 0.4168
Epoch: 45/50 | Batch: 200/782 | 单Batch损失: 0.2556 | 累计平均损失: 0.4159
Epoch: 45/50 | Batch: 300/782 | 单Batch损失: 0.3362 | 累计平均损失: 0.4200
Epoch: 45/50 | Batch: 400/782 | 单Batch损失: 0.3593 | 累计平均损失: 0.4196
Epoch: 45/50 | Batch: 500/782 | 单Batch损失: 0.5386 | 累计平均损失: 0.4264
Epoch: 45/50 | Batch: 600/782 | 单Batch损失: 0.3800 | 累计平均损失: 0.4322
Epoch: 45/50 | Batch: 700/782 | 单Batch损失: 0.4084 | 累计平均损失: 0.4287
Epoch 45/50 完成 | 训练准确率: 84.81% | 测试准确率: 84.41%
Epoch: 46/50 | Batch: 100/782 | 单Batch损失: 0.5096 | 累计平均损失: 0.4304
Epoch: 46/50 | Batch: 200/782 | 单Batch损失: 0.4779 | 累计平均损失: 0.4314
Epoch: 46/50 | Batch: 300/782 | 单Batch损失: 0.6787 | 累计平均损失: 0.4280
Epoch: 46/50 | Batch: 400/782 | 单Batch损失: 0.5720 | 累计平均损失: 0.4356
Epoch: 46/50 | Batch: 500/782 | 单Batch损失: 0.7186 | 累计平均损失: 0.4320
Epoch: 46/50 | Batch: 600/782 | 单Batch损失: 0.3907 | 累计平均损失: 0.4306
Epoch: 46/50 | Batch: 700/782 | 单Batch损失: 0.4491 | 累计平均损失: 0.4275
Epoch 46/50 完成 | 训练准确率: 84.99% | 测试准确率: 84.75%
Epoch: 47/50 | Batch: 100/782 | 单Batch损失: 0.3529 | 累计平均损失: 0.4073
Epoch: 47/50 | Batch: 200/782 | 单Batch损失: 0.3394 | 累计平均损失: 0.4157
Epoch: 47/50 | Batch: 300/782 | 单Batch损失: 0.3116 | 累计平均损失: 0.4183
Epoch: 47/50 | Batch: 400/782 | 单Batch损失: 0.3315 | 累计平均损失: 0.4167
Epoch: 47/50 | Batch: 500/782 | 单Batch损失: 0.3389 | 累计平均损失: 0.4216
Epoch: 47/50 | Batch: 600/782 | 单Batch损失: 0.3032 | 累计平均损失: 0.4226
Epoch: 47/50 | Batch: 700/782 | 单Batch损失: 0.6355 | 累计平均损失: 0.4238
Epoch 47/50 完成 | 训练准确率: 84.90% | 测试准确率: 84.61%
Epoch: 48/50 | Batch: 100/782 | 单Batch损失: 0.4317 | 累计平均损失: 0.4142
Epoch: 48/50 | Batch: 200/782 | 单Batch损失: 0.3190 | 累计平均损失: 0.4180
Epoch: 48/50 | Batch: 300/782 | 单Batch损失: 0.3532 | 累计平均损失: 0.4163
Epoch: 48/50 | Batch: 400/782 | 单Batch损失: 0.5180 | 累计平均损失: 0.4183
Epoch: 48/50 | Batch: 500/782 | 单Batch损失: 0.7002 | 累计平均损失: 0.4209
Epoch: 48/50 | Batch: 600/782 | 单Batch损失: 0.4239 | 累计平均损失: 0.4214
Epoch: 48/50 | Batch: 700/782 | 单Batch损失: 0.4616 | 累计平均损失: 0.4190
Epoch 48/50 完成 | 训练准确率: 85.35% | 测试准确率: 84.38%
Epoch: 49/50 | Batch: 100/782 | 单Batch损失: 0.4101 | 累计平均损失: 0.3983
Epoch: 49/50 | Batch: 200/782 | 单Batch损失: 0.3606 | 累计平均损失: 0.4036
Epoch: 49/50 | Batch: 300/782 | 单Batch损失: 0.5050 | 累计平均损失: 0.4105
Epoch: 49/50 | Batch: 400/782 | 单Batch损失: 0.4918 | 累计平均损失: 0.4129
Epoch: 49/50 | Batch: 500/782 | 单Batch损失: 0.2756 | 累计平均损失: 0.4106
Epoch: 49/50 | Batch: 600/782 | 单Batch损失: 0.4527 | 累计平均损失: 0.4154
Epoch: 49/50 | Batch: 700/782 | 单Batch损失: 0.4894 | 累计平均损失: 0.4172
Epoch 49/50 完成 | 训练准确率: 85.08% | 测试准确率: 85.05%
Epoch: 50/50 | Batch: 100/782 | 单Batch损失: 0.3366 | 累计平均损失: 0.4077
Epoch: 50/50 | Batch: 200/782 | 单Batch损失: 0.3599 | 累计平均损失: 0.4167
Epoch: 50/50 | Batch: 300/782 | 单Batch损失: 0.5351 | 累计平均损失: 0.4141
Epoch: 50/50 | Batch: 400/782 | 单Batch损失: 0.4744 | 累计平均损失: 0.4133
Epoch: 50/50 | Batch: 500/782 | 单Batch损失: 0.4387 | 累计平均损失: 0.4132
Epoch: 50/50 | Batch: 600/782 | 单Batch损失: 0.3936 | 累计平均损失: 0.4174
Epoch: 50/50 | Batch: 700/782 | 单Batch损失: 0.2873 | 累计平均损失: 0.4190
Epoch 50/50 完成 | 训练准确率: 85.25% | 测试准确率: 84.33%
训练完成!最终测试准确率: 84.33%

添加通道注意力(SE注意力)模块的计算过程:

    import torch
    import torch.nn as nn
    import torch.optim as optim
    from torchvision import datasets, transforms
    from torch.utils.data import DataLoader
    import matplotlib.pyplot as plt
    import numpy as np# 设置中文字体支持
    plt.rcParams["font.family"] = ["SimHei"]
    plt.rcParams['axes.unicode_minus'] = False  # 解决负号显示问题# 检查GPU是否可用
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    print(f"使用设备: {device}")# 1. 数据预处理
    # 训练集:使用多种数据增强方法提高模型泛化能力
    train_transform = transforms.Compose([# 随机裁剪图像,从原图中随机截取32x32大小的区域transforms.RandomCrop(32, padding=4),# 随机水平翻转图像(概率0.5)transforms.RandomHorizontalFlip(),# 随机颜色抖动:亮度、对比度、饱和度和色调随机变化transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2, hue=0.1),# 随机旋转图像(最大角度15度)transforms.RandomRotation(15),# 将PIL图像或numpy数组转换为张量transforms.ToTensor(),# 标准化处理:每个通道的均值和标准差,使数据分布更合理transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
    ])# 测试集:仅进行必要的标准化,保持数据原始特性,标准化不损失数据信息,可还原
    test_transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
    ])# 2. 加载CIFAR-10数据集
    train_dataset = datasets.CIFAR10(root='./data',train=True,download=True,transform=train_transform  # 使用增强后的预处理
    )test_dataset = datasets.CIFAR10(root='./data',train=False,transform=test_transform  # 测试集不使用增强
    )# 3. 创建数据加载器
    batch_size = 64
    train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
    test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)
    # 4. 定义CNN模型的定义(替代原MLP)
    class CNN(nn.Module):def __init__(self):super(CNN, self).__init__()  # 继承父类初始化# ---------------------- 第一个卷积块 ----------------------# 卷积层1:输入3通道(RGB),输出32个特征图,卷积核3x3,边缘填充1像素self.conv1 = nn.Conv2d(in_channels=3,       # 输入通道数(图像的RGB通道)out_channels=32,     # 输出通道数(生成32个新特征图)kernel_size=3,       # 卷积核尺寸(3x3像素)padding=1            # 边缘填充1像素,保持输出尺寸与输入相同)# 批量归一化层:对32个输出通道进行归一化,加速训练self.bn1 = nn.BatchNorm2d(num_features=32)# ReLU激活函数:引入非线性,公式:max(0, x)self.relu1 = nn.ReLU()# 最大池化层:窗口2x2,步长2,特征图尺寸减半(32x32→16x16)self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)  # stride默认等于kernel_size# ---------------------- 第二个卷积块 ----------------------# 卷积层2:输入32通道(来自conv1的输出),输出64通道self.conv2 = nn.Conv2d(in_channels=32,      # 输入通道数(前一层的输出通道数)out_channels=64,     # 输出通道数(特征图数量翻倍)kernel_size=3,       # 卷积核尺寸不变padding=1            # 保持尺寸:16x16→16x16(卷积后)→8x8(池化后))self.bn2 = nn.BatchNorm2d(num_features=64)self.relu2 = nn.ReLU()self.pool2 = nn.MaxPool2d(kernel_size=2)  # 尺寸减半:16x16→8x8# ---------------------- 第三个卷积块 ----------------------# 卷积层3:输入64通道,输出128通道self.conv3 = nn.Conv2d(in_channels=64,      # 输入通道数(前一层的输出通道数)out_channels=128,    # 输出通道数(特征图数量再次翻倍)kernel_size=3,padding=1            # 保持尺寸:8x8→8x8(卷积后)→4x4(池化后))self.bn3 = nn.BatchNorm2d(num_features=128)self.relu3 = nn.ReLU()  # 复用激活函数对象(节省内存)self.pool3 = nn.MaxPool2d(kernel_size=2)  # 尺寸减半:8x8→4x4# ---------------------- 全连接层(分类器) ----------------------# 计算展平后的特征维度:128通道 × 4x4尺寸 = 128×16=2048维self.fc1 = nn.Linear(in_features=128 * 4 * 4,  # 输入维度(卷积层输出的特征数)out_features=512          # 输出维度(隐藏层神经元数))# Dropout层:训练时随机丢弃50%神经元,防止过拟合self.dropout = nn.Dropout(p=0.5)# 输出层:将512维特征映射到10个类别(CIFAR-10的类别数)self.fc2 = nn.Linear(in_features=512, out_features=10)def forward(self, x):# 输入尺寸:[batch_size, 3, 32, 32](batch_size=批量大小,3=通道数,32x32=图像尺寸)# ---------- 卷积块1处理 ----------x = self.conv1(x)       # 卷积后尺寸:[batch_size, 32, 32, 32](padding=1保持尺寸)x = self.bn1(x)         # 批量归一化,不改变尺寸x = self.relu1(x)       # 激活函数,不改变尺寸x = self.pool1(x)       # 池化后尺寸:[batch_size, 32, 16, 16](32→16是因为池化窗口2x2)# ---------- 卷积块2处理 ----------x = self.conv2(x)       # 卷积后尺寸:[batch_size, 64, 16, 16](padding=1保持尺寸)x = self.bn2(x)x = self.relu2(x)x = self.pool2(x)       # 池化后尺寸:[batch_size, 64, 8, 8]# ---------- 卷积块3处理 ----------x = self.conv3(x)       # 卷积后尺寸:[batch_size, 128, 8, 8](padding=1保持尺寸)x = self.bn3(x)x = self.relu3(x)x = self.pool3(x)       # 池化后尺寸:[batch_size, 128, 4, 4]# ---------- 展平与全连接层 ----------# 将多维特征图展平为一维向量:[batch_size, 128*4*4] = [batch_size, 2048]x = x.view(-1, 128 * 4 * 4)  # -1自动计算批量维度,保持批量大小不变x = self.fc1(x)           # 全连接层:2048→512,尺寸变为[batch_size, 512]x = self.relu3(x)         # 激活函数(复用relu3,与卷积块3共用)x = self.dropout(x)       # Dropout随机丢弃神经元,不改变尺寸x = self.fc2(x)           # 全连接层:512→10,尺寸变为[batch_size, 10](未激活,直接输出logits)return x  # 输出未经过Softmax的logits,适用于交叉熵损失函数# 初始化模型
    model = CNN()
    model = model.to(device)  # 将模型移至GPU(如果可用)criterion = nn.CrossEntropyLoss()  # 交叉熵损失函数
    optimizer = optim.Adam(model.parameters(), lr=0.001)  # Adam优化器# 引入学习率调度器,在训练过程中动态调整学习率--训练初期使用较大的 LR 快速降低损失,训练后期使用较小的 LR 更精细地逼近全局最优解。
    # 在每个 epoch 结束后,需要手动调用调度器来更新学习率,可以在训练过程中调用 scheduler.step()
    scheduler = optim.lr_scheduler.ReduceLROnPlateau(optimizer,        # 指定要控制的优化器(这里是Adam)mode='min',       # 监测的指标是"最小化"(如损失函数)patience=3,       # 如果连续3个epoch指标没有改善,才降低LRfactor=0.5        # 降低LR的比例(新LR = 旧LR × 0.5)
    )
    # 5. 训练模型(记录每个 iteration 的损失)
    def train(model, train_loader, test_loader, criterion, optimizer, scheduler, device, epochs):model.train()  # 设置为训练模式# 记录每个 iteration 的损失all_iter_losses = []  # 存储所有 batch 的损失iter_indices = []     # 存储 iteration 序号# 记录每个 epoch 的准确率和损失train_acc_history = []test_acc_history = []train_loss_history = []test_loss_history = []for epoch in range(epochs):running_loss = 0.0correct = 0total = 0for batch_idx, (data, target) in enumerate(train_loader):data, target = data.to(device), target.to(device)  # 移至GPUoptimizer.zero_grad()  # 梯度清零output = model(data)  # 前向传播loss = criterion(output, target)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 更新参数# 记录当前 iteration 的损失iter_loss = loss.item()all_iter_losses.append(iter_loss)iter_indices.append(epoch * len(train_loader) + batch_idx + 1)# 统计准确率和损失running_loss += iter_loss_, predicted = output.max(1)total += target.size(0)correct += predicted.eq(target).sum().item()# 每100个批次打印一次训练信息if (batch_idx + 1) % 100 == 0:print(f'Epoch: {epoch+1}/{epochs} | Batch: {batch_idx+1}/{len(train_loader)} 'f'| 单Batch损失: {iter_loss:.4f} | 累计平均损失: {running_loss/(batch_idx+1):.4f}')# 计算当前epoch的平均训练损失和准确率epoch_train_loss = running_loss / len(train_loader)epoch_train_acc = 100. * correct / totaltrain_acc_history.append(epoch_train_acc)train_loss_history.append(epoch_train_loss)# 测试阶段model.eval()  # 设置为评估模式test_loss = 0correct_test = 0total_test = 0with torch.no_grad():for data, target in test_loader:data, target = data.to(device), target.to(device)output = model(data)test_loss += criterion(output, target).item()_, predicted = output.max(1)total_test += target.size(0)correct_test += predicted.eq(target).sum().item()epoch_test_loss = test_loss / len(test_loader)epoch_test_acc = 100. * correct_test / total_testtest_acc_history.append(epoch_test_acc)test_loss_history.append(epoch_test_loss)# 更新学习率调度器scheduler.step(epoch_test_loss)print(f'Epoch {epoch+1}/{epochs} 完成 | 训练准确率: {epoch_train_acc:.2f}% | 测试准确率: {epoch_test_acc:.2f}%')# 绘制所有 iteration 的损失曲线plot_iter_losses(all_iter_losses, iter_indices)# 绘制每个 epoch 的准确率和损失曲线plot_epoch_metrics(train_acc_history, test_acc_history, train_loss_history, test_loss_history)return epoch_test_acc  # 返回最终测试准确率# 6. 绘制每个 iteration 的损失曲线
    def plot_iter_losses(losses, indices):plt.figure(figsize=(10, 4))plt.plot(indices, losses, 'b-', alpha=0.7, label='Iteration Loss')plt.xlabel('Iteration(Batch序号)')plt.ylabel('损失值')plt.title('每个 Iteration 的训练损失')plt.legend()plt.grid(True)plt.tight_layout()plt.show()# 7. 绘制每个 epoch 的准确率和损失曲线
    def plot_epoch_metrics(train_acc, test_acc, train_loss, test_loss):epochs = range(1, len(train_acc) + 1)plt.figure(figsize=(12, 4))# 绘制准确率曲线plt.subplot(1, 2, 1)plt.plot(epochs, train_acc, 'b-', label='训练准确率')plt.plot(epochs, test_acc, 'r-', label='测试准确率')plt.xlabel('Epoch')plt.ylabel('准确率 (%)')plt.title('训练和测试准确率')plt.legend()plt.grid(True)# 绘制损失曲线plt.subplot(1, 2, 2)plt.plot(epochs, train_loss, 'b-', label='训练损失')plt.plot(epochs, test_loss, 'r-', label='测试损失')plt.xlabel('Epoch')plt.ylabel('损失值')plt.title('训练和测试损失')plt.legend()plt.grid(True)plt.tight_layout()plt.show()# 8. 执行训练和测试
    epochs = 50  # 增加训练轮次为了确保收敛
    print("开始使用CNN训练模型...")
    final_accuracy = train(model, train_loader, test_loader, criterion, optimizer, scheduler, device, epochs)
    print(f"训练完成!最终测试准确率: {final_accuracy:.2f}%")# # 保存模型
    # torch.save(model.state_dict(), 'cifar10_cnn_model.pth')
    # print("模型已保存为: cifar10_cnn_model.pth")# ===================== 新增:通道注意力模块(SE模块) =====================
    class ChannelAttention(nn.Module):"""通道注意力模块(Squeeze-and-Excitation)"""def __init__(self, in_channels, reduction_ratio=16):"""参数:in_channels: 输入特征图的通道数reduction_ratio: 降维比例,用于减少参数量"""super(ChannelAttention, self).__init__()# 全局平均池化 - 将空间维度压缩为1x1,保留通道信息self.avg_pool = nn.AdaptiveAvgPool2d(1)# 全连接层 + 激活函数,用于学习通道间的依赖关系self.fc = nn.Sequential(# 降维:压缩通道数,减少计算量nn.Linear(in_channels, in_channels // reduction_ratio, bias=False),nn.ReLU(inplace=True),# 升维:恢复原始通道数nn.Linear(in_channels // reduction_ratio, in_channels, bias=False),# Sigmoid将输出值归一化到[0,1],表示通道重要性权重nn.Sigmoid())def forward(self, x):"""参数:x: 输入特征图,形状为 [batch_size, channels, height, width]返回:加权后的特征图,形状不变"""batch_size, channels, height, width = x.size()# 1. 全局平均池化:[batch_size, channels, height, width] → [batch_size, channels, 1, 1]avg_pool_output = self.avg_pool(x)# 2. 展平为一维向量:[batch_size, channels, 1, 1] → [batch_size, channels]avg_pool_output = avg_pool_output.view(batch_size, channels)# 3. 通过全连接层学习通道权重:[batch_size, channels] → [batch_size, channels]channel_weights = self.fc(avg_pool_output)# 4. 重塑为二维张量:[batch_size, channels] → [batch_size, channels, 1, 1]channel_weights = channel_weights.view(batch_size, channels, 1, 1)# 5. 将权重应用到原始特征图上(逐通道相乘)return x * channel_weights  # 输出形状:[batch_size, channels, height, width]class CNN(nn.Module):def __init__(self):super(CNN, self).__init__()  # ---------------------- 第一个卷积块 ----------------------self.conv1 = nn.Conv2d(3, 32, 3, padding=1)self.bn1 = nn.BatchNorm2d(32)self.relu1 = nn.ReLU()# 新增:插入通道注意力模块(SE模块)self.ca1 = ChannelAttention(in_channels=32, reduction_ratio=16)  self.pool1 = nn.MaxPool2d(2, 2)  # ---------------------- 第二个卷积块 ----------------------self.conv2 = nn.Conv2d(32, 64, 3, padding=1)self.bn2 = nn.BatchNorm2d(64)self.relu2 = nn.ReLU()# 新增:插入通道注意力模块(SE模块)self.ca2 = ChannelAttention(in_channels=64, reduction_ratio=16)  self.pool2 = nn.MaxPool2d(2)  # ---------------------- 第三个卷积块 ----------------------self.conv3 = nn.Conv2d(64, 128, 3, padding=1)self.bn3 = nn.BatchNorm2d(128)self.relu3 = nn.ReLU()# 新增:插入通道注意力模块(SE模块)self.ca3 = ChannelAttention(in_channels=128, reduction_ratio=16)  self.pool3 = nn.MaxPool2d(2)  # ---------------------- 全连接层(分类器) ----------------------self.fc1 = nn.Linear(128 * 4 * 4, 512)self.dropout = nn.Dropout(p=0.5)self.fc2 = nn.Linear(512, 10)def forward(self, x):# ---------- 卷积块1处理 ----------x = self.conv1(x)       x = self.bn1(x)         x = self.relu1(x)       x = self.ca1(x)  # 应用通道注意力x = self.pool1(x)       # ---------- 卷积块2处理 ----------x = self.conv2(x)       x = self.bn2(x)         x = self.relu2(x)       x = self.ca2(x)  # 应用通道注意力x = self.pool2(x)       # ---------- 卷积块3处理 ----------x = self.conv3(x)       x = self.bn3(x)         x = self.relu3(x)       x = self.ca3(x)  # 应用通道注意力x = self.pool3(x)       # ---------- 展平与全连接层 ----------x = x.view(-1, 128 * 4 * 4)  x = self.fc1(x)           x = self.relu3(x)         x = self.dropout(x)       x = self.fc2(x)           return x  # 重新初始化模型,包含通道注意力模块
    model = CNN()
    model = model.to(device)  # 将模型移至GPU(如果可用)criterion = nn.CrossEntropyLoss()  # 交叉熵损失函数
    optimizer = optim.Adam(model.parameters(), lr=0.001)  # Adam优化器# 引入学习率调度器,在训练过程中动态调整学习率--训练初期使用较大的 LR 快速降低损失,训练后期使用较小的 LR 更精细地逼近全局最优解。
    # 在每个 epoch 结束后,需要手动调用调度器来更新学习率,可以在训练过程中调用 scheduler.step()
    scheduler = optim.lr_scheduler.ReduceLROnPlateau(optimizer,        # 指定要控制的优化器(这里是Adam)mode='min',       # 监测的指标是"最小化"(如损失函数)patience=3,       # 如果连续3个epoch指标没有改善,才降低LRfactor=0.5        # 降低LR的比例(新LR = 旧LR × 0.5)
    )# 训练模型(复用原有的train函数)
    print("开始训练带通道注意力的CNN模型...")
    final_accuracy = train(model, train_loader, test_loader, criterion, optimizer, scheduler, device, epochs=50)
    print(f"训练完成!最终测试准确率: {final_accuracy:.2f}%")

    输出结果:

    使用设备: cpu
    开始使用CNN训练模型...
    Epoch: 1/50 | Batch: 100/782 | 单Batch损失: 1.8804 | 累计平均损失: 2.0790
    Epoch: 1/50 | Batch: 200/782 | 单Batch损失: 1.9115 | 累计平均损失: 1.9446
    Epoch: 1/50 | Batch: 300/782 | 单Batch损失: 1.7432 | 累计平均损失: 1.8683
    Epoch: 1/50 | Batch: 400/782 | 单Batch损失: 1.8155 | 累计平均损失: 1.8085
    Epoch: 1/50 | Batch: 500/782 | 单Batch损失: 1.6644 | 累计平均损失: 1.7684
    Epoch: 1/50 | Batch: 600/782 | 单Batch损失: 1.7194 | 累计平均损失: 1.7309
    Epoch: 1/50 | Batch: 700/782 | 单Batch损失: 1.4426 | 累计平均损失: 1.7054
    Epoch 1/50 完成 | 训练准确率: 37.58% | 测试准确率: 53.07%
    Epoch: 2/50 | Batch: 100/782 | 单Batch损失: 1.5449 | 累计平均损失: 1.4279
    Epoch: 2/50 | Batch: 200/782 | 单Batch损失: 1.3386 | 累计平均损失: 1.3918
    Epoch: 2/50 | Batch: 300/782 | 单Batch损失: 1.2722 | 累计平均损失: 1.3750
    Epoch: 2/50 | Batch: 400/782 | 单Batch损失: 1.2200 | 累计平均损失: 1.3546
    Epoch: 2/50 | Batch: 500/782 | 单Batch损失: 1.2291 | 累计平均损失: 1.3389
    Epoch: 2/50 | Batch: 600/782 | 单Batch损失: 1.1832 | 累计平均损失: 1.3175
    Epoch: 2/50 | Batch: 700/782 | 单Batch损失: 1.1499 | 累计平均损失: 1.3022
    Epoch 2/50 完成 | 训练准确率: 52.95% | 测试准确率: 62.93%
    Epoch: 3/50 | Batch: 100/782 | 单Batch损失: 1.2510 | 累计平均损失: 1.1462
    Epoch: 3/50 | Batch: 200/782 | 单Batch损失: 1.1035 | 累计平均损失: 1.1452
    Epoch: 3/50 | Batch: 300/782 | 单Batch损失: 1.2043 | 累计平均损失: 1.1355
    Epoch: 3/50 | Batch: 400/782 | 单Batch损失: 0.7897 | 累计平均损失: 1.1276
    Epoch: 3/50 | Batch: 500/782 | 单Batch损失: 1.0365 | 累计平均损失: 1.1254
    Epoch: 3/50 | Batch: 600/782 | 单Batch损失: 0.9369 | 累计平均损失: 1.1168
    Epoch: 3/50 | Batch: 700/782 | 单Batch损失: 1.0173 | 累计平均损失: 1.1136
    Epoch 3/50 完成 | 训练准确率: 60.63% | 测试准确率: 66.23%
    Epoch: 4/50 | Batch: 100/782 | 单Batch损失: 1.1003 | 累计平均损失: 1.0444
    Epoch: 4/50 | Batch: 200/782 | 单Batch损失: 0.9716 | 累计平均损失: 1.0432
    Epoch: 4/50 | Batch: 300/782 | 单Batch损失: 0.8052 | 累计平均损失: 1.0393
    Epoch: 4/50 | Batch: 400/782 | 单Batch损失: 1.0694 | 累计平均损失: 1.0350
    Epoch: 4/50 | Batch: 500/782 | 单Batch损失: 0.9170 | 累计平均损失: 1.0251
    Epoch: 4/50 | Batch: 600/782 | 单Batch损失: 0.9228 | 累计平均损失: 1.0221
    Epoch: 4/50 | Batch: 700/782 | 单Batch损失: 1.0522 | 累计平均损失: 1.0162
    Epoch 4/50 完成 | 训练准确率: 63.88% | 测试准确率: 69.01%
    Epoch: 5/50 | Batch: 100/782 | 单Batch损失: 0.9834 | 累计平均损失: 0.9809
    Epoch: 5/50 | Batch: 200/782 | 单Batch损失: 0.8592 | 累计平均损失: 0.9495
    Epoch: 5/50 | Batch: 300/782 | 单Batch损失: 1.1271 | 累计平均损失: 0.9419
    Epoch: 5/50 | Batch: 400/782 | 单Batch损失: 0.9807 | 累计平均损失: 0.9472
    Epoch: 5/50 | Batch: 500/782 | 单Batch损失: 0.8354 | 累计平均损失: 0.9516
    Epoch: 5/50 | Batch: 600/782 | 单Batch损失: 0.9758 | 累计平均损失: 0.9435
    Epoch: 5/50 | Batch: 700/782 | 单Batch损失: 0.8480 | 累计平均损失: 0.9449
    Epoch 5/50 完成 | 训练准确率: 66.56% | 测试准确率: 72.83%
    Epoch: 6/50 | Batch: 100/782 | 单Batch损失: 0.6795 | 累计平均损失: 0.9080
    Epoch: 6/50 | Batch: 200/782 | 单Batch损失: 0.8612 | 累计平均损失: 0.9206
    Epoch: 6/50 | Batch: 300/782 | 单Batch损失: 0.7702 | 累计平均损失: 0.9167
    Epoch: 6/50 | Batch: 400/782 | 单Batch损失: 0.6104 | 累计平均损失: 0.9126
    Epoch: 6/50 | Batch: 500/782 | 单Batch损失: 0.6786 | 累计平均损失: 0.9099
    Epoch: 6/50 | Batch: 600/782 | 单Batch损失: 0.7777 | 累计平均损失: 0.9067
    Epoch: 6/50 | Batch: 700/782 | 单Batch损失: 0.8659 | 累计平均损失: 0.9065
    Epoch 6/50 完成 | 训练准确率: 68.22% | 测试准确率: 72.40%
    Epoch: 7/50 | Batch: 100/782 | 单Batch损失: 1.0312 | 累计平均损失: 0.8870
    Epoch: 7/50 | Batch: 200/782 | 单Batch损失: 0.7822 | 累计平均损失: 0.8779
    Epoch: 7/50 | Batch: 300/782 | 单Batch损失: 0.7379 | 累计平均损失: 0.8722
    Epoch: 7/50 | Batch: 400/782 | 单Batch损失: 0.7646 | 累计平均损失: 0.8676
    Epoch: 7/50 | Batch: 500/782 | 单Batch损失: 1.0125 | 累计平均损失: 0.8715
    Epoch: 7/50 | Batch: 600/782 | 单Batch损失: 0.7491 | 累计平均损失: 0.8685
    Epoch: 7/50 | Batch: 700/782 | 单Batch损失: 0.8418 | 累计平均损失: 0.8630
    Epoch 7/50 完成 | 训练准确率: 69.65% | 测试准确率: 73.06%
    Epoch: 8/50 | Batch: 100/782 | 单Batch损失: 0.7984 | 累计平均损失: 0.8390
    Epoch: 8/50 | Batch: 200/782 | 单Batch损失: 0.7748 | 累计平均损失: 0.8353
    Epoch: 8/50 | Batch: 300/782 | 单Batch损失: 0.7825 | 累计平均损失: 0.8401
    Epoch: 8/50 | Batch: 400/782 | 单Batch损失: 0.7028 | 累计平均损失: 0.8370
    Epoch: 8/50 | Batch: 500/782 | 单Batch损失: 0.6108 | 累计平均损失: 0.8339
    Epoch: 8/50 | Batch: 600/782 | 单Batch损失: 0.7063 | 累计平均损失: 0.8289
    Epoch: 8/50 | Batch: 700/782 | 单Batch损失: 1.1524 | 累计平均损失: 0.8290
    Epoch 8/50 完成 | 训练准确率: 70.98% | 测试准确率: 76.45%
    Epoch: 9/50 | Batch: 100/782 | 单Batch损失: 0.7224 | 累计平均损失: 0.8015
    Epoch: 9/50 | Batch: 200/782 | 单Batch损失: 0.6018 | 累计平均损失: 0.7989
    Epoch: 9/50 | Batch: 300/782 | 单Batch损失: 0.8053 | 累计平均损失: 0.8013
    Epoch: 9/50 | Batch: 400/782 | 单Batch损失: 0.8446 | 累计平均损失: 0.7961
    Epoch: 9/50 | Batch: 500/782 | 单Batch损失: 0.9165 | 累计平均损失: 0.7945
    Epoch: 9/50 | Batch: 600/782 | 单Batch损失: 0.7693 | 累计平均损失: 0.7971
    Epoch: 9/50 | Batch: 700/782 | 单Batch损失: 0.9040 | 累计平均损失: 0.7986
    Epoch 9/50 完成 | 训练准确率: 72.01% | 测试准确率: 76.22%
    Epoch: 10/50 | Batch: 100/782 | 单Batch损失: 1.0000 | 累计平均损失: 0.7824
    Epoch: 10/50 | Batch: 200/782 | 单Batch损失: 0.6082 | 累计平均损失: 0.7821
    Epoch: 10/50 | Batch: 300/782 | 单Batch损失: 0.7632 | 累计平均损失: 0.7747
    Epoch: 10/50 | Batch: 400/782 | 单Batch损失: 0.7196 | 累计平均损失: 0.7831
    Epoch: 10/50 | Batch: 500/782 | 单Batch损失: 0.8115 | 累计平均损失: 0.7835
    Epoch: 10/50 | Batch: 600/782 | 单Batch损失: 0.5673 | 累计平均损失: 0.7854
    Epoch: 10/50 | Batch: 700/782 | 单Batch损失: 0.7737 | 累计平均损失: 0.7825
    Epoch 10/50 完成 | 训练准确率: 72.54% | 测试准确率: 77.54%
    Epoch: 11/50 | Batch: 100/782 | 单Batch损失: 0.7978 | 累计平均损失: 0.7442
    Epoch: 11/50 | Batch: 200/782 | 单Batch损失: 0.6018 | 累计平均损失: 0.7547
    Epoch: 11/50 | Batch: 300/782 | 单Batch损失: 0.5849 | 累计平均损失: 0.7571
    Epoch: 11/50 | Batch: 400/782 | 单Batch损失: 0.9972 | 累计平均损失: 0.7612
    Epoch: 11/50 | Batch: 500/782 | 单Batch损失: 0.9049 | 累计平均损失: 0.7605
    Epoch: 11/50 | Batch: 600/782 | 单Batch损失: 0.7170 | 累计平均损失: 0.7605
    Epoch: 11/50 | Batch: 700/782 | 单Batch损失: 0.8418 | 累计平均损失: 0.7574
    Epoch 11/50 完成 | 训练准确率: 73.26% | 测试准确率: 77.11%
    Epoch: 12/50 | Batch: 100/782 | 单Batch损失: 0.5881 | 累计平均损失: 0.7255
    Epoch: 12/50 | Batch: 200/782 | 单Batch损失: 0.5634 | 累计平均损失: 0.7350
    Epoch: 12/50 | Batch: 300/782 | 单Batch损失: 0.6612 | 累计平均损失: 0.7410
    Epoch: 12/50 | Batch: 400/782 | 单Batch损失: 0.5861 | 累计平均损失: 0.7366
    Epoch: 12/50 | Batch: 500/782 | 单Batch损失: 0.6340 | 累计平均损失: 0.7421
    Epoch: 12/50 | Batch: 600/782 | 单Batch损失: 0.7466 | 累计平均损失: 0.7437
    Epoch: 12/50 | Batch: 700/782 | 单Batch损失: 0.6112 | 累计平均损失: 0.7451
    Epoch 12/50 完成 | 训练准确率: 73.89% | 测试准确率: 78.45%
    Epoch: 13/50 | Batch: 100/782 | 单Batch损失: 0.3919 | 累计平均损失: 0.7100
    Epoch: 13/50 | Batch: 200/782 | 单Batch损失: 0.6381 | 累计平均损失: 0.7199
    Epoch: 13/50 | Batch: 300/782 | 单Batch损失: 0.6814 | 累计平均损失: 0.7224
    Epoch: 13/50 | Batch: 400/782 | 单Batch损失: 0.8414 | 累计平均损失: 0.7240
    Epoch: 13/50 | Batch: 500/782 | 单Batch损失: 0.8057 | 累计平均损失: 0.7260
    Epoch: 13/50 | Batch: 600/782 | 单Batch损失: 0.6294 | 累计平均损失: 0.7256
    Epoch: 13/50 | Batch: 700/782 | 单Batch损失: 0.7069 | 累计平均损失: 0.7247
    Epoch 13/50 完成 | 训练准确率: 74.63% | 测试准确率: 77.96%
    Epoch: 14/50 | Batch: 100/782 | 单Batch损失: 0.7482 | 累计平均损失: 0.7141
    Epoch: 14/50 | Batch: 200/782 | 单Batch损失: 0.7839 | 累计平均损失: 0.7149
    Epoch: 14/50 | Batch: 300/782 | 单Batch损失: 0.5976 | 累计平均损失: 0.7149
    Epoch: 14/50 | Batch: 400/782 | 单Batch损失: 0.7433 | 累计平均损失: 0.7161
    Epoch: 14/50 | Batch: 500/782 | 单Batch损失: 0.7564 | 累计平均损失: 0.7181
    Epoch: 14/50 | Batch: 600/782 | 单Batch损失: 0.6492 | 累计平均损失: 0.7117
    Epoch: 14/50 | Batch: 700/782 | 单Batch损失: 0.6221 | 累计平均损失: 0.7109
    Epoch 14/50 完成 | 训练准确率: 74.96% | 测试准确率: 77.63%
    Epoch: 15/50 | Batch: 100/782 | 单Batch损失: 0.6556 | 累计平均损失: 0.7075
    Epoch: 15/50 | Batch: 200/782 | 单Batch损失: 0.7323 | 累计平均损失: 0.6995
    Epoch: 15/50 | Batch: 300/782 | 单Batch损失: 0.7151 | 累计平均损失: 0.6987
    Epoch: 15/50 | Batch: 400/782 | 单Batch损失: 0.8272 | 累计平均损失: 0.6992
    Epoch: 15/50 | Batch: 500/782 | 单Batch损失: 0.9141 | 累计平均损失: 0.6963
    Epoch: 15/50 | Batch: 600/782 | 单Batch损失: 0.7364 | 累计平均损失: 0.6954
    Epoch: 15/50 | Batch: 700/782 | 单Batch损失: 0.5913 | 累计平均损失: 0.6988
    Epoch 15/50 完成 | 训练准确率: 75.45% | 测试准确率: 78.00%
    Epoch: 16/50 | Batch: 100/782 | 单Batch损失: 0.5133 | 累计平均损失: 0.6844
    Epoch: 16/50 | Batch: 200/782 | 单Batch损失: 0.6389 | 累计平均损失: 0.6829
    Epoch: 16/50 | Batch: 300/782 | 单Batch损失: 0.8213 | 累计平均损失: 0.6916
    Epoch: 16/50 | Batch: 400/782 | 单Batch损失: 0.5630 | 累计平均损失: 0.6950
    Epoch: 16/50 | Batch: 500/782 | 单Batch损失: 0.7302 | 累计平均损失: 0.6914
    Epoch: 16/50 | Batch: 600/782 | 单Batch损失: 0.6918 | 累计平均损失: 0.6903
    Epoch: 16/50 | Batch: 700/782 | 单Batch损失: 0.8583 | 累计平均损失: 0.6911
    Epoch 16/50 完成 | 训练准确率: 75.99% | 测试准确率: 79.84%
    Epoch: 17/50 | Batch: 100/782 | 单Batch损失: 0.5495 | 累计平均损失: 0.6748
    Epoch: 17/50 | Batch: 200/782 | 单Batch损失: 0.6594 | 累计平均损失: 0.6669
    Epoch: 17/50 | Batch: 300/782 | 单Batch损失: 0.8426 | 累计平均损失: 0.6737
    Epoch: 17/50 | Batch: 400/782 | 单Batch损失: 0.5360 | 累计平均损失: 0.6747
    Epoch: 17/50 | Batch: 500/782 | 单Batch损失: 1.0603 | 累计平均损失: 0.6732
    Epoch: 17/50 | Batch: 600/782 | 单Batch损失: 0.9159 | 累计平均损失: 0.6735
    Epoch: 17/50 | Batch: 700/782 | 单Batch损失: 0.7355 | 累计平均损失: 0.6734
    Epoch 17/50 完成 | 训练准确率: 76.44% | 测试准确率: 78.82%
    Epoch: 18/50 | Batch: 100/782 | 单Batch损失: 0.5686 | 累计平均损失: 0.6775
    Epoch: 18/50 | Batch: 200/782 | 单Batch损失: 0.6361 | 累计平均损失: 0.6664
    Epoch: 18/50 | Batch: 300/782 | 单Batch损失: 0.6827 | 累计平均损失: 0.6619
    Epoch: 18/50 | Batch: 400/782 | 单Batch损失: 0.7074 | 累计平均损失: 0.6590
    Epoch: 18/50 | Batch: 500/782 | 单Batch损失: 0.6445 | 累计平均损失: 0.6616
    Epoch: 18/50 | Batch: 600/782 | 单Batch损失: 0.4613 | 累计平均损失: 0.6614
    Epoch: 18/50 | Batch: 700/782 | 单Batch损失: 0.4776 | 累计平均损失: 0.6627
    Epoch 18/50 完成 | 训练准确率: 76.92% | 测试准确率: 79.77%
    Epoch: 19/50 | Batch: 100/782 | 单Batch损失: 0.7114 | 累计平均损失: 0.6552
    Epoch: 19/50 | Batch: 200/782 | 单Batch损失: 0.5474 | 累计平均损失: 0.6565
    Epoch: 19/50 | Batch: 300/782 | 单Batch损失: 0.7322 | 累计平均损失: 0.6614
    Epoch: 19/50 | Batch: 400/782 | 单Batch损失: 0.5074 | 累计平均损失: 0.6592
    Epoch: 19/50 | Batch: 500/782 | 单Batch损失: 0.7702 | 累计平均损失: 0.6596
    Epoch: 19/50 | Batch: 600/782 | 单Batch损失: 0.5436 | 累计平均损失: 0.6563
    Epoch: 19/50 | Batch: 700/782 | 单Batch损失: 0.5445 | 累计平均损失: 0.6557
    Epoch 19/50 完成 | 训练准确率: 76.96% | 测试准确率: 80.41%
    Epoch: 20/50 | Batch: 100/782 | 单Batch损失: 0.6065 | 累计平均损失: 0.6380
    Epoch: 20/50 | Batch: 200/782 | 单Batch损失: 0.5390 | 累计平均损失: 0.6287
    Epoch: 20/50 | Batch: 300/782 | 单Batch损失: 0.7340 | 累计平均损失: 0.6380
    Epoch: 20/50 | Batch: 400/782 | 单Batch损失: 0.7098 | 累计平均损失: 0.6397
    Epoch: 20/50 | Batch: 500/782 | 单Batch损失: 0.9628 | 累计平均损失: 0.6414
    Epoch: 20/50 | Batch: 600/782 | 单Batch损失: 0.5135 | 累计平均损失: 0.6429
    Epoch: 20/50 | Batch: 700/782 | 单Batch损失: 0.7025 | 累计平均损失: 0.6445
    Epoch 20/50 完成 | 训练准确率: 77.47% | 测试准确率: 80.47%
    Epoch: 21/50 | Batch: 100/782 | 单Batch损失: 0.6144 | 累计平均损失: 0.6170
    Epoch: 21/50 | Batch: 200/782 | 单Batch损失: 0.9111 | 累计平均损失: 0.6424
    Epoch: 21/50 | Batch: 300/782 | 单Batch损失: 0.5473 | 累计平均损失: 0.6414
    Epoch: 21/50 | Batch: 400/782 | 单Batch损失: 0.3440 | 累计平均损失: 0.6401
    Epoch: 21/50 | Batch: 500/782 | 单Batch损失: 0.6674 | 累计平均损失: 0.6386
    Epoch: 21/50 | Batch: 600/782 | 单Batch损失: 0.5903 | 累计平均损失: 0.6355
    Epoch: 21/50 | Batch: 700/782 | 单Batch损失: 0.8342 | 累计平均损失: 0.6395
    Epoch 21/50 完成 | 训练准确率: 77.94% | 测试准确率: 81.56%
    Epoch: 22/50 | Batch: 100/782 | 单Batch损失: 0.5807 | 累计平均损失: 0.6195
    Epoch: 22/50 | Batch: 200/782 | 单Batch损失: 0.7575 | 累计平均损失: 0.6287
    Epoch: 22/50 | Batch: 300/782 | 单Batch损失: 0.7067 | 累计平均损失: 0.6193
    Epoch: 22/50 | Batch: 400/782 | 单Batch损失: 0.6273 | 累计平均损失: 0.6223
    Epoch: 22/50 | Batch: 500/782 | 单Batch损失: 0.5578 | 累计平均损失: 0.6229
    Epoch: 22/50 | Batch: 600/782 | 单Batch损失: 0.4816 | 累计平均损失: 0.6296
    Epoch: 22/50 | Batch: 700/782 | 单Batch损失: 0.4454 | 累计平均损失: 0.6317
    Epoch 22/50 完成 | 训练准确率: 78.26% | 测试准确率: 80.59%
    Epoch: 23/50 | Batch: 100/782 | 单Batch损失: 0.6729 | 累计平均损失: 0.6194
    Epoch: 23/50 | Batch: 200/782 | 单Batch损失: 0.6826 | 累计平均损失: 0.6167
    Epoch: 23/50 | Batch: 300/782 | 单Batch损失: 0.4908 | 累计平均损失: 0.6209
    Epoch: 23/50 | Batch: 400/782 | 单Batch损失: 0.4594 | 累计平均损失: 0.6246
    Epoch: 23/50 | Batch: 500/782 | 单Batch损失: 0.4921 | 累计平均损失: 0.6218
    Epoch: 23/50 | Batch: 600/782 | 单Batch损失: 0.8005 | 累计平均损失: 0.6212
    Epoch: 23/50 | Batch: 700/782 | 单Batch损失: 0.5926 | 累计平均损失: 0.6202
    Epoch 23/50 完成 | 训练准确率: 78.18% | 测试准确率: 80.71%
    Epoch: 24/50 | Batch: 100/782 | 单Batch损失: 0.6162 | 累计平均损失: 0.6228
    Epoch: 24/50 | Batch: 200/782 | 单Batch损失: 0.5634 | 累计平均损失: 0.6228
    Epoch: 24/50 | Batch: 300/782 | 单Batch损失: 0.7384 | 累计平均损失: 0.6250
    Epoch: 24/50 | Batch: 400/782 | 单Batch损失: 0.5110 | 累计平均损失: 0.6212
    Epoch: 24/50 | Batch: 500/782 | 单Batch损失: 0.7439 | 累计平均损失: 0.6215
    Epoch: 24/50 | Batch: 600/782 | 单Batch损失: 0.7545 | 累计平均损失: 0.6203
    Epoch: 24/50 | Batch: 700/782 | 单Batch损失: 0.5234 | 累计平均损失: 0.6192
    Epoch 24/50 完成 | 训练准确率: 78.44% | 测试准确率: 80.40%
    Epoch: 25/50 | Batch: 100/782 | 单Batch损失: 0.8234 | 累计平均损失: 0.6148
    Epoch: 25/50 | Batch: 200/782 | 单Batch损失: 0.5215 | 累计平均损失: 0.6110
    Epoch: 25/50 | Batch: 300/782 | 单Batch损失: 0.6046 | 累计平均损失: 0.6023
    Epoch: 25/50 | Batch: 400/782 | 单Batch损失: 0.6976 | 累计平均损失: 0.6018
    Epoch: 25/50 | Batch: 500/782 | 单Batch损失: 0.6344 | 累计平均损失: 0.6036
    Epoch: 25/50 | Batch: 600/782 | 单Batch损失: 0.3874 | 累计平均损失: 0.6061
    Epoch: 25/50 | Batch: 700/782 | 单Batch损失: 0.5989 | 累计平均损失: 0.6079
    Epoch 25/50 完成 | 训练准确率: 78.70% | 测试准确率: 81.23%
    Epoch: 26/50 | Batch: 100/782 | 单Batch损失: 0.4534 | 累计平均损失: 0.5740
    Epoch: 26/50 | Batch: 200/782 | 单Batch损失: 0.6579 | 累计平均损失: 0.5676
    Epoch: 26/50 | Batch: 300/782 | 单Batch损失: 0.5815 | 累计平均损失: 0.5663
    Epoch: 26/50 | Batch: 400/782 | 单Batch损失: 0.6108 | 累计平均损失: 0.5631
    Epoch: 26/50 | Batch: 500/782 | 单Batch损失: 0.5216 | 累计平均损失: 0.5622
    Epoch: 26/50 | Batch: 600/782 | 单Batch损失: 0.3319 | 累计平均损失: 0.5554
    Epoch: 26/50 | Batch: 700/782 | 单Batch损失: 0.4676 | 累计平均损失: 0.5551
    Epoch 26/50 完成 | 训练准确率: 80.50% | 测试准确率: 82.49%
    Epoch: 27/50 | Batch: 100/782 | 单Batch损失: 0.5525 | 累计平均损失: 0.5183
    Epoch: 27/50 | Batch: 200/782 | 单Batch损失: 0.4482 | 累计平均损失: 0.5336
    Epoch: 27/50 | Batch: 300/782 | 单Batch损失: 0.6343 | 累计平均损失: 0.5340
    Epoch: 27/50 | Batch: 400/782 | 单Batch损失: 0.5796 | 累计平均损失: 0.5434
    Epoch: 27/50 | Batch: 500/782 | 单Batch损失: 0.5153 | 累计平均损失: 0.5425
    Epoch: 27/50 | Batch: 600/782 | 单Batch损失: 0.4511 | 累计平均损失: 0.5418
    Epoch: 27/50 | Batch: 700/782 | 单Batch损失: 0.7648 | 累计平均损失: 0.5421
    Epoch 27/50 完成 | 训练准确率: 80.98% | 测试准确率: 82.73%
    Epoch: 28/50 | Batch: 100/782 | 单Batch损失: 0.4010 | 累计平均损失: 0.5277
    Epoch: 28/50 | Batch: 200/782 | 单Batch损失: 0.3738 | 累计平均损失: 0.5406
    Epoch: 28/50 | Batch: 300/782 | 单Batch损失: 0.3819 | 累计平均损失: 0.5378
    Epoch: 28/50 | Batch: 400/782 | 单Batch损失: 0.5203 | 累计平均损失: 0.5354
    Epoch: 28/50 | Batch: 500/782 | 单Batch损失: 0.5006 | 累计平均损失: 0.5371
    Epoch: 28/50 | Batch: 600/782 | 单Batch损失: 0.5100 | 累计平均损失: 0.5353
    Epoch: 28/50 | Batch: 700/782 | 单Batch损失: 0.3165 | 累计平均损失: 0.5331
    Epoch 28/50 完成 | 训练准确率: 81.24% | 测试准确率: 82.15%
    Epoch: 29/50 | Batch: 100/782 | 单Batch损失: 0.5312 | 累计平均损失: 0.5486
    Epoch: 29/50 | Batch: 200/782 | 单Batch损失: 0.2998 | 累计平均损失: 0.5326
    Epoch: 29/50 | Batch: 300/782 | 单Batch损失: 0.5340 | 累计平均损失: 0.5281
    Epoch: 29/50 | Batch: 400/782 | 单Batch损失: 0.5836 | 累计平均损失: 0.5271
    Epoch: 29/50 | Batch: 500/782 | 单Batch损失: 0.4113 | 累计平均损失: 0.5252
    Epoch: 29/50 | Batch: 600/782 | 单Batch损失: 0.5142 | 累计平均损失: 0.5284
    Epoch: 29/50 | Batch: 700/782 | 单Batch损失: 0.6041 | 累计平均损失: 0.5295
    Epoch 29/50 完成 | 训练准确率: 81.28% | 测试准确率: 82.58%
    Epoch: 30/50 | Batch: 100/782 | 单Batch损失: 0.5609 | 累计平均损失: 0.5183
    Epoch: 30/50 | Batch: 200/782 | 单Batch损失: 0.4766 | 累计平均损失: 0.5339
    Epoch: 30/50 | Batch: 300/782 | 单Batch损失: 0.5672 | 累计平均损失: 0.5293
    Epoch: 30/50 | Batch: 400/782 | 单Batch损失: 0.4788 | 累计平均损失: 0.5271
    Epoch: 30/50 | Batch: 500/782 | 单Batch损失: 0.3569 | 累计平均损失: 0.5210
    Epoch: 30/50 | Batch: 600/782 | 单Batch损失: 0.5494 | 累计平均损失: 0.5193
    Epoch: 30/50 | Batch: 700/782 | 单Batch损失: 0.3976 | 累计平均损失: 0.5193
    Epoch 30/50 完成 | 训练准确率: 81.51% | 测试准确率: 82.48%
    Epoch: 31/50 | Batch: 100/782 | 单Batch损失: 0.5980 | 累计平均损失: 0.5027
    Epoch: 31/50 | Batch: 200/782 | 单Batch损失: 0.6196 | 累计平均损失: 0.5037
    Epoch: 31/50 | Batch: 300/782 | 单Batch损失: 0.7363 | 累计平均损失: 0.5129
    Epoch: 31/50 | Batch: 400/782 | 单Batch损失: 0.3887 | 累计平均损失: 0.5119
    Epoch: 31/50 | Batch: 500/782 | 单Batch损失: 0.3435 | 累计平均损失: 0.5102
    Epoch: 31/50 | Batch: 600/782 | 单Batch损失: 0.4684 | 累计平均损失: 0.5085
    Epoch: 31/50 | Batch: 700/782 | 单Batch损失: 0.4045 | 累计平均损失: 0.5132
    Epoch 31/50 完成 | 训练准确率: 82.02% | 测试准确率: 82.96%
    Epoch: 32/50 | Batch: 100/782 | 单Batch损失: 0.7637 | 累计平均损失: 0.4916
    Epoch: 32/50 | Batch: 200/782 | 单Batch损失: 0.5358 | 累计平均损失: 0.4939
    Epoch: 32/50 | Batch: 300/782 | 单Batch损失: 0.5574 | 累计平均损失: 0.4928
    Epoch: 32/50 | Batch: 400/782 | 单Batch损失: 0.3670 | 累计平均损失: 0.4963
    Epoch: 32/50 | Batch: 500/782 | 单Batch损失: 0.6160 | 累计平均损失: 0.4974
    Epoch: 32/50 | Batch: 600/782 | 单Batch损失: 0.7010 | 累计平均损失: 0.4994
    Epoch: 32/50 | Batch: 700/782 | 单Batch损失: 0.5409 | 累计平均损失: 0.5007
    Epoch 32/50 完成 | 训练准确率: 82.29% | 测试准确率: 82.55%
    Epoch: 33/50 | Batch: 100/782 | 单Batch损失: 0.3576 | 累计平均损失: 0.5117
    Epoch: 33/50 | Batch: 200/782 | 单Batch损失: 0.5263 | 累计平均损失: 0.4964
    Epoch: 33/50 | Batch: 300/782 | 单Batch损失: 0.6413 | 累计平均损失: 0.5014
    Epoch: 33/50 | Batch: 400/782 | 单Batch损失: 0.3628 | 累计平均损失: 0.5074
    Epoch: 33/50 | Batch: 500/782 | 单Batch损失: 0.4851 | 累计平均损失: 0.5050
    Epoch: 33/50 | Batch: 600/782 | 单Batch损失: 0.5136 | 累计平均损失: 0.5054
    Epoch: 33/50 | Batch: 700/782 | 单Batch损失: 0.4623 | 累计平均损失: 0.5077
    Epoch 33/50 完成 | 训练准确率: 82.02% | 测试准确率: 82.86%
    Epoch: 34/50 | Batch: 100/782 | 单Batch损失: 0.4251 | 累计平均损失: 0.5104
    Epoch: 34/50 | Batch: 200/782 | 单Batch损失: 0.3544 | 累计平均损失: 0.5102
    Epoch: 34/50 | Batch: 300/782 | 单Batch损失: 0.5685 | 累计平均损失: 0.5033
    Epoch: 34/50 | Batch: 400/782 | 单Batch损失: 0.3753 | 累计平均损失: 0.4994
    Epoch: 34/50 | Batch: 500/782 | 单Batch损失: 0.3492 | 累计平均损失: 0.5030
    Epoch: 34/50 | Batch: 600/782 | 单Batch损失: 0.5166 | 累计平均损失: 0.5040
    Epoch: 34/50 | Batch: 700/782 | 单Batch损失: 0.4232 | 累计平均损失: 0.5024
    Epoch 34/50 完成 | 训练准确率: 82.33% | 测试准确率: 83.19%
    Epoch: 35/50 | Batch: 100/782 | 单Batch损失: 0.3979 | 累计平均损失: 0.4784
    Epoch: 35/50 | Batch: 200/782 | 单Batch损失: 0.8356 | 累计平均损失: 0.4899
    Epoch: 35/50 | Batch: 300/782 | 单Batch损失: 0.5649 | 累计平均损失: 0.5025
    Epoch: 35/50 | Batch: 400/782 | 单Batch损失: 0.4824 | 累计平均损失: 0.4985
    Epoch: 35/50 | Batch: 500/782 | 单Batch损失: 0.5214 | 累计平均损失: 0.4966
    Epoch: 35/50 | Batch: 600/782 | 单Batch损失: 0.5964 | 累计平均损失: 0.4990
    Epoch: 35/50 | Batch: 700/782 | 单Batch损失: 0.5813 | 累计平均损失: 0.4984
    Epoch 35/50 完成 | 训练准确率: 82.61% | 测试准确率: 83.08%
    Epoch: 36/50 | Batch: 100/782 | 单Batch损失: 0.6255 | 累计平均损失: 0.4969
    Epoch: 36/50 | Batch: 200/782 | 单Batch损失: 0.5726 | 累计平均损失: 0.4903
    Epoch: 36/50 | Batch: 300/782 | 单Batch损失: 0.5598 | 累计平均损失: 0.4963
    Epoch: 36/50 | Batch: 400/782 | 单Batch损失: 0.5642 | 累计平均损失: 0.4912
    Epoch: 36/50 | Batch: 500/782 | 单Batch损失: 0.5219 | 累计平均损失: 0.4903
    Epoch: 36/50 | Batch: 600/782 | 单Batch损失: 0.5286 | 累计平均损失: 0.4917
    Epoch: 36/50 | Batch: 700/782 | 单Batch损失: 0.6189 | 累计平均损失: 0.4926
    Epoch 36/50 完成 | 训练准确率: 82.49% | 测试准确率: 82.75%
    Epoch: 37/50 | Batch: 100/782 | 单Batch损失: 0.5559 | 累计平均损失: 0.4673
    Epoch: 37/50 | Batch: 200/782 | 单Batch损失: 0.4496 | 累计平均损失: 0.4687
    Epoch: 37/50 | Batch: 300/782 | 单Batch损失: 0.5095 | 累计平均损失: 0.4743
    Epoch: 37/50 | Batch: 400/782 | 单Batch损失: 0.4123 | 累计平均损失: 0.4771
    Epoch: 37/50 | Batch: 500/782 | 单Batch损失: 0.7280 | 累计平均损失: 0.4831
    Epoch: 37/50 | Batch: 600/782 | 单Batch损失: 0.2933 | 累计平均损失: 0.4860
    Epoch: 37/50 | Batch: 700/782 | 单Batch损失: 0.5070 | 累计平均损失: 0.4875
    Epoch 37/50 完成 | 训练准确率: 82.63% | 测试准确率: 84.01%
    Epoch: 38/50 | Batch: 100/782 | 单Batch损失: 0.4836 | 累计平均损失: 0.5003
    Epoch: 38/50 | Batch: 200/782 | 单Batch损失: 0.4928 | 累计平均损失: 0.4882
    Epoch: 38/50 | Batch: 300/782 | 单Batch损失: 0.3633 | 累计平均损失: 0.4883
    Epoch: 38/50 | Batch: 400/782 | 单Batch损失: 0.3723 | 累计平均损失: 0.4927
    Epoch: 38/50 | Batch: 500/782 | 单Batch损失: 0.4839 | 累计平均损失: 0.4896
    Epoch: 38/50 | Batch: 600/782 | 单Batch损失: 0.5092 | 累计平均损失: 0.4906
    Epoch: 38/50 | Batch: 700/782 | 单Batch损失: 0.5949 | 累计平均损失: 0.4895
    Epoch 38/50 完成 | 训练准确率: 82.93% | 测试准确率: 83.54%
    Epoch: 39/50 | Batch: 100/782 | 单Batch损失: 0.6205 | 累计平均损失: 0.4837
    Epoch: 39/50 | Batch: 200/782 | 单Batch损失: 0.3938 | 累计平均损失: 0.4736
    Epoch: 39/50 | Batch: 300/782 | 单Batch损失: 0.6392 | 累计平均损失: 0.4716
    Epoch: 39/50 | Batch: 400/782 | 单Batch损失: 0.5812 | 累计平均损失: 0.4748
    Epoch: 39/50 | Batch: 500/782 | 单Batch损失: 0.6059 | 累计平均损失: 0.4781
    Epoch: 39/50 | Batch: 600/782 | 单Batch损失: 0.7024 | 累计平均损失: 0.4800
    Epoch: 39/50 | Batch: 700/782 | 单Batch损失: 0.3932 | 累计平均损失: 0.4833
    Epoch 39/50 完成 | 训练准确率: 83.05% | 测试准确率: 83.59%
    Epoch: 40/50 | Batch: 100/782 | 单Batch损失: 0.2423 | 累计平均损失: 0.4547
    Epoch: 40/50 | Batch: 200/782 | 单Batch损失: 0.6337 | 累计平均损失: 0.4672
    Epoch: 40/50 | Batch: 300/782 | 单Batch损失: 0.3422 | 累计平均损失: 0.4693
    Epoch: 40/50 | Batch: 400/782 | 单Batch损失: 0.5373 | 累计平均损失: 0.4729
    Epoch: 40/50 | Batch: 500/782 | 单Batch损失: 0.6128 | 累计平均损失: 0.4728
    Epoch: 40/50 | Batch: 600/782 | 单Batch损失: 0.6603 | 累计平均损失: 0.4763
    Epoch: 40/50 | Batch: 700/782 | 单Batch损失: 0.5845 | 累计平均损失: 0.4775
    Epoch 40/50 完成 | 训练准确率: 83.07% | 测试准确率: 84.05%
    Epoch: 41/50 | Batch: 100/782 | 单Batch损失: 0.6400 | 累计平均损失: 0.4769
    Epoch: 41/50 | Batch: 200/782 | 单Batch损失: 0.3291 | 累计平均损失: 0.4760
    Epoch: 41/50 | Batch: 300/782 | 单Batch损失: 0.4277 | 累计平均损失: 0.4784
    Epoch: 41/50 | Batch: 400/782 | 单Batch损失: 0.4788 | 累计平均损失: 0.4785
    Epoch: 41/50 | Batch: 500/782 | 单Batch损失: 0.5424 | 累计平均损失: 0.4726
    Epoch: 41/50 | Batch: 600/782 | 单Batch损失: 0.3196 | 累计平均损失: 0.4741
    Epoch: 41/50 | Batch: 700/782 | 单Batch损失: 0.6225 | 累计平均损失: 0.4720
    Epoch 41/50 完成 | 训练准确率: 83.42% | 测试准确率: 83.78%
    Epoch: 42/50 | Batch: 100/782 | 单Batch损失: 0.4403 | 累计平均损失: 0.4654
    Epoch: 42/50 | Batch: 200/782 | 单Batch损失: 0.4967 | 累计平均损失: 0.4707
    Epoch: 42/50 | Batch: 300/782 | 单Batch损失: 0.5875 | 累计平均损失: 0.4693
    Epoch: 42/50 | Batch: 400/782 | 单Batch损失: 0.4625 | 累计平均损失: 0.4671
    Epoch: 42/50 | Batch: 500/782 | 单Batch损失: 0.4604 | 累计平均损失: 0.4699
    Epoch: 42/50 | Batch: 600/782 | 单Batch损失: 0.6958 | 累计平均损失: 0.4716
    Epoch: 42/50 | Batch: 700/782 | 单Batch损失: 0.4940 | 累计平均损失: 0.4701
    Epoch 42/50 完成 | 训练准确率: 83.32% | 测试准确率: 83.23%
    Epoch: 43/50 | Batch: 100/782 | 单Batch损失: 0.5904 | 累计平均损失: 0.4681
    Epoch: 43/50 | Batch: 200/782 | 单Batch损失: 0.4194 | 累计平均损失: 0.4671
    Epoch: 43/50 | Batch: 300/782 | 单Batch损失: 0.4326 | 累计平均损失: 0.4726
    Epoch: 43/50 | Batch: 400/782 | 单Batch损失: 0.5504 | 累计平均损失: 0.4723
    Epoch: 43/50 | Batch: 500/782 | 单Batch损失: 0.5225 | 累计平均损失: 0.4725
    Epoch: 43/50 | Batch: 600/782 | 单Batch损失: 0.5516 | 累计平均损失: 0.4714
    Epoch: 43/50 | Batch: 700/782 | 单Batch损失: 0.4192 | 累计平均损失: 0.4729
    Epoch 43/50 完成 | 训练准确率: 83.26% | 测试准确率: 83.70%
    Epoch: 44/50 | Batch: 100/782 | 单Batch损失: 0.4886 | 累计平均损失: 0.4756
    Epoch: 44/50 | Batch: 200/782 | 单Batch损失: 0.3064 | 累计平均损失: 0.4646
    Epoch: 44/50 | Batch: 300/782 | 单Batch损失: 0.2318 | 累计平均损失: 0.4660
    Epoch: 44/50 | Batch: 400/782 | 单Batch损失: 0.3899 | 累计平均损失: 0.4661
    Epoch: 44/50 | Batch: 500/782 | 单Batch损失: 0.7034 | 累计平均损失: 0.4678
    Epoch: 44/50 | Batch: 600/782 | 单Batch损失: 0.3345 | 累计平均损失: 0.4661
    Epoch: 44/50 | Batch: 700/782 | 单Batch损失: 0.3029 | 累计平均损失: 0.4666
    Epoch 44/50 完成 | 训练准确率: 83.52% | 测试准确率: 83.39%
    Epoch: 45/50 | Batch: 100/782 | 单Batch损失: 0.4270 | 累计平均损失: 0.4517
    Epoch: 45/50 | Batch: 200/782 | 单Batch损失: 0.2457 | 累计平均损失: 0.4399
    Epoch: 45/50 | Batch: 300/782 | 单Batch损失: 0.4581 | 累计平均损失: 0.4347
    Epoch: 45/50 | Batch: 400/782 | 单Batch损失: 0.3834 | 累计平均损失: 0.4381
    Epoch: 45/50 | Batch: 500/782 | 单Batch损失: 0.2920 | 累计平均损失: 0.4365
    Epoch: 45/50 | Batch: 600/782 | 单Batch损失: 0.2779 | 累计平均损失: 0.4365
    Epoch: 45/50 | Batch: 700/782 | 单Batch损失: 0.5533 | 累计平均损失: 0.4373
    Epoch 45/50 完成 | 训练准确率: 84.71% | 测试准确率: 84.28%
    Epoch: 46/50 | Batch: 100/782 | 单Batch损失: 0.5687 | 累计平均损失: 0.4224
    Epoch: 46/50 | Batch: 200/782 | 单Batch损失: 0.4123 | 累计平均损失: 0.4248
    Epoch: 46/50 | Batch: 300/782 | 单Batch损失: 0.3484 | 累计平均损失: 0.4268
    Epoch: 46/50 | Batch: 400/782 | 单Batch损失: 0.5262 | 累计平均损失: 0.4273
    Epoch: 46/50 | Batch: 500/782 | 单Batch损失: 0.4655 | 累计平均损失: 0.4308
    Epoch: 46/50 | Batch: 600/782 | 单Batch损失: 0.5010 | 累计平均损失: 0.4296
    Epoch: 46/50 | Batch: 700/782 | 单Batch损失: 0.5014 | 累计平均损失: 0.4296
    Epoch 46/50 完成 | 训练准确率: 84.74% | 测试准确率: 84.45%
    Epoch: 47/50 | Batch: 100/782 | 单Batch损失: 0.4932 | 累计平均损失: 0.4289
    Epoch: 47/50 | Batch: 200/782 | 单Batch损失: 0.3284 | 累计平均损失: 0.4265
    Epoch: 47/50 | Batch: 300/782 | 单Batch损失: 0.2590 | 累计平均损失: 0.4290
    Epoch: 47/50 | Batch: 400/782 | 单Batch损失: 0.4246 | 累计平均损失: 0.4255
    Epoch: 47/50 | Batch: 500/782 | 单Batch损失: 0.4396 | 累计平均损失: 0.4261
    Epoch: 47/50 | Batch: 600/782 | 单Batch损失: 0.5747 | 累计平均损失: 0.4261
    Epoch: 47/50 | Batch: 700/782 | 单Batch损失: 0.3096 | 累计平均损失: 0.4278
    Epoch 47/50 完成 | 训练准确率: 84.84% | 测试准确率: 84.33%
    Epoch: 48/50 | Batch: 100/782 | 单Batch损失: 0.5629 | 累计平均损失: 0.4181
    Epoch: 48/50 | Batch: 200/782 | 单Batch损失: 0.4229 | 累计平均损失: 0.4182
    Epoch: 48/50 | Batch: 300/782 | 单Batch损失: 0.4900 | 累计平均损失: 0.4151
    Epoch: 48/50 | Batch: 400/782 | 单Batch损失: 0.2474 | 累计平均损失: 0.4148
    Epoch: 48/50 | Batch: 500/782 | 单Batch损失: 0.3705 | 累计平均损失: 0.4162
    Epoch: 48/50 | Batch: 600/782 | 单Batch损失: 0.5766 | 累计平均损失: 0.4194
    Epoch: 48/50 | Batch: 700/782 | 单Batch损失: 0.4306 | 累计平均损失: 0.4206
    Epoch 48/50 完成 | 训练准确率: 85.15% | 测试准确率: 84.28%
    Epoch: 49/50 | Batch: 100/782 | 单Batch损失: 0.3949 | 累计平均损失: 0.4161
    Epoch: 49/50 | Batch: 200/782 | 单Batch损失: 0.5401 | 累计平均损失: 0.4129
    Epoch: 49/50 | Batch: 300/782 | 单Batch损失: 0.4521 | 累计平均损失: 0.4166
    Epoch: 49/50 | Batch: 400/782 | 单Batch损失: 0.3376 | 累计平均损失: 0.4217
    Epoch: 49/50 | Batch: 500/782 | 单Batch损失: 0.3546 | 累计平均损失: 0.4248
    Epoch: 49/50 | Batch: 600/782 | 单Batch损失: 0.4677 | 累计平均损失: 0.4225
    Epoch: 49/50 | Batch: 700/782 | 单Batch损失: 0.5923 | 累计平均损失: 0.4231
    Epoch 49/50 完成 | 训练准确率: 85.06% | 测试准确率: 84.42%
    Epoch: 50/50 | Batch: 100/782 | 单Batch损失: 0.4159 | 累计平均损失: 0.4173
    Epoch: 50/50 | Batch: 200/782 | 单Batch损失: 0.3468 | 累计平均损失: 0.4172
    Epoch: 50/50 | Batch: 300/782 | 单Batch损失: 0.4118 | 累计平均损失: 0.4162
    Epoch: 50/50 | Batch: 400/782 | 单Batch损失: 0.4406 | 累计平均损失: 0.4176
    Epoch: 50/50 | Batch: 500/782 | 单Batch损失: 0.3126 | 累计平均损失: 0.4199
    Epoch: 50/50 | Batch: 600/782 | 单Batch损失: 0.4453 | 累计平均损失: 0.4189
    Epoch: 50/50 | Batch: 700/782 | 单Batch损失: 0.4834 | 累计平均损失: 0.4218
    Epoch 50/50 完成 | 训练准确率: 85.16% | 测试准确率: 84.37%
    训练完成!最终测试准确率: 84.37%

    @浙大疏锦行

    http://www.lqws.cn/news/173467.html

    相关文章:

  1. 打造你的 Android 图像编辑器:深入解析 PhotoEditor 开源库
  2. windows server 添加自动启动服务
  3. 使用阿里云百炼embeddings+langchain+Milvus实现简单RAG
  4. PostgreSQL17 编译安装+相关问题解决
  5. KAG与RAG在医疗人工智能系统中的多维对比分析
  6. 完美搭建appium自动化环境
  7. PyQt常用控件的使用:QFileDialog、QMessageBox、QTreeWidget、QRadioButton等
  8. html表格转换为markdown
  9. 【cmake】单配置生成器与多配置生成器的构建安装问题分析
  10. Ubuntu Cursor升级成v1.0
  11. C文件操作2
  12. 什么是敏捷项目管理?敏捷项目管理有哪些功能?
  13. 《100天精通Python——基础篇 2025 第5天:巩固核心知识,选择题实战演练基础语法》
  14. 抽象工厂模式深度解析:从原理到与应用实战
  15. android 之 MediaExtractor
  16. JuiceFS v1.3-Beta2:集成 Apache Ranger,实现更精细化的权限控制
  17. 使用 Windows 完成 iOS 应用上架:Appuploader对比其他证书与上传方案
  18. uniapp map组件的基础与实践
  19. Flink checkpoint
  20. LlamaIndex 工作流简介以及基础工作流
  21. 中国首套1公里高分辨率大气湿度指数数据集(2003~2020)
  22. C++11完美转发
  23. 练习:对象数组 4
  24. Electron Fiddle使用笔记
  25. 面向无人机海岸带生态系统监测的语义分割基准数据集
  26. stylus - 新生代CSS预处理框架
  27. 我用Amazon Q写了一个Docker客户端,并上架了懒猫微服商店
  28. SSL证书深度解析与实践指南
  29. 宝塔think PHP8 安装使用FFmpeg 视频上传
  30. matlab不同版本对编译器的要求(sfunction 死机)