热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

pytorch(一):torch构建数据集并训练一个神经网络

目录预备知识导包构建数据集神经网络结构训练测试精度可视化计算模型精度损失可视化输出网络结构信息训练神经网络定义参数载入数据载入神经网络结构、损失及优化训练及测试损失、精度可视化qu

目录

预备知识

导包

构建数据集

神经网络结构

训练测试精度可视化

计算模型精度

损失可视化

输出网络结构信息

训练神经网络

定义参数

载入数据

载入神经网络结构、损失及优化

训练及测试

损失、精度可视化

question


预备知识



  1. pytorch(二):torch常用API应用及详解、torch.max()
  2. 卷积层设置及输出大小计算
  3. torch.utils.data.DataLoader使用方法
  4. 加载手写数据集load_digits()
  5. sklearn的train_test_split()的参数含义解释
  6. torch.nn介绍
  7. nn.Sequential
  8. torch.nn.Conv2d()函数
  9. relu()激活函数、relu图像、其他相关函数
  10. nn.MaxPool2d()
  11. nn.Linear()全连接层
  12. x = x.view(x.size(0), -1)、Flatten
  13. nn.CrossEntropyLoss()
  14. torch.optim 优化器的使用
  15. torch的Module模块中named_parameters函数
  16. epoch
  17. torch的net.train() 与net.eval()
  18. enumerate(train_loader, start=0)函数的详解
  19. python __getitem__()方法理解(扩充)
  20. pytorch 损失函数及其应用代码详解、Pytorch十九种损失函数的使用、pytorch的nn.MSELoss损失函数
  21. loss.backward() 
  22. print()+end=""+\r实现滚动条显示
  23. torch.no_grad和验证模式
  24. (predicted == labels).sum().item()作用
  25. python基础之np.arange函数
  26. Pytorch查看模型参数并计算模型参数量与可训练参数量

导包


import torch
from sklearn import datasets #加载数据集用
from sklearn import model_selection #数据集切分
import torch.utils.data as Data #分批次loader数据集使用
import torch.nn as nn #神经网络API
import torch.optim as optim #神经网络优化器
import numpy as np #数字格式转换
import matplotlib.pyplot as plt #数据可视化

构建数据集


class train_mini_train():'''构建训练集'''def __init__(self):# 加载手写数字数据集digits,有标签,class为1~10self.X,self.y = \datasets.load_digits(return_X_y=True)print('样本总数:',len(self.X))print('样本特征维度:', len(self.X[0]))#数据集切分self.X_train,self.X_test,self.y_train,self.y_test = \model_selection.train_test_split(self.X,self.y,random_state=0)print('构建训练集样本总数:', len(self.y_train))def __len__(self):#返回训练集数据量return len(self.y_train)def __getitem__(self, index):return torch.tensor(self.X_train[index].reshape(1,8,8),dtype=torch.float32),self.y_train[index]class test_mini_test():'''构建测试集'''def __init__(self):self.X,self.y=datasets.load_digits(return_X_y=True)self.X_train,self.X_test,self.y_train,self.y_test =\model_selection.train_test_split(self.X,self.y,random_state=0)print('构建测试集样本总数:', len(self.y_test))def __getitem__(self, index):return torch.tensor(self.X_test[index].reshape(1,8,8),dtype=torch.float32),self.y_test[index]def __len__(self):return len(self.y_test)

神经网络结构


class SimpleNet(nn.Module):'''定义神经网络结构'''def __init__(self):super(SimpleNet,self).__init__()self.conv1 = nn.Sequential(#(1, 8, 8)nn.Conv2d(in_channels=1,out_channels=4,kernel_size=2,stride=1,padding=1), #(4, 8, 8))self.conv2 = nn.Sequential(nn.ReLU(), # (4, 8, 8))self.conv3 = nn.Sequential(nn.MaxPool2d(kernel_size=2) # (4,4,4) 不改变通道数)self.conv4 = nn.Sequential(nn.Conv2d(in_channels=4,out_channels=8,kernel_size=2,stride=1,padding=1), #(8,5,5))self.conv5 = nn.Sequential(nn.ReLU(), # (8,5,5))self.conv6 = nn.Sequential(nn.MaxPool2d(kernel_size=2) # (8,2,2))self.fc = nn.Linear(8*2*2,10) #(10)def forward(self, x):x = self.conv1(x)x = self.conv2(x)x = self.conv3(x)x = self.conv4(x)x = self.conv5(x)x = self.conv6(x)x = x.view(x.size(0),-1) #相当于Flattenx = self.fc(x)return x

训练测试精度可视化


def plot_train_and_test_result(train_accs,test_accs):epoches = np.arange(1,len(train_accs)+1,dtype=np.int32)plt.plot(epoches,train_accs,label='train accuracy')plt.plot(epoches,test_accs, label='test accuracy')plt.xlabel('epoches')plt.ylabel('accuracy')plt.legend()

计算模型精度


def eval_on_dataloader(name,loader,len):acc = 0.0with torch.no_grad():for data in loader:images,labels = dataoutputs = net(images)# torch.max返回两个数值,一个[0]是最大值,一个[1]是最大值的下标predict_y = torch.max(outputs,dim=1)[1]acc += (predict_y == labels.long()).sum().item()accurate = acc/lenreturn accurate

损失可视化


def plot_loss_result(losses):epoches = np.arange(1, len(losses) + 1, dtype=np.int32)plt.plot(epoches, losses, label='loss')plt.xlabel('epoches')plt.ylabel('loss')plt.legend()

输出网络结构信息


def printNetInfo(net):'''输出神经网络结构的信息'''for name,parameters in net.named_parameters():print(name,":",parameters.size())

训练神经网络



定义参数


batch_size = 6
learning_rate = 3e-3
epoches = 10

载入数据


#载入训练集与测试集数据train_data = train_mini_train()test_data = test_mini_test()train_loader = Data.DataLoader(dataset=train_data,batch_size=batch_size,shuffle=True)test_loader = Data.DataLoader(dataset=test_data,batch_size=batch_size,shuffle=True)

载入神经网络结构、损失及优化


#载入网络结构net = SimpleNet()# 声明损失函数及优化器loss_fn = nn.CrossEntropyLoss()optim = optim.Adam(params=net.parameters(),lr=learning_rate)# 输出网络结构信息# printNetInfo(net)

训练及测试


train_accs = []test_accs = []losses = []for epoch in range(epoches):net.train() # 训练for step,data in enumerate(train_loader,start=0):images,labels = dataoptim.zero_grad() # 优化器梯度清0logits = net(images) # 输入images 经过网络推断输出结果loss = loss_fn(logits,labels.long()) # 计算损失函数loss.backward() # 反向传播求梯度optim.step() #优化器进一步优化rate = (step+1)/len(train_loader)a = "*"*int(rate*50)b = "."*int((1-rate)*50)print("\repoch:%s train loss:%3.0f%%:%.4f"%(epoch,int(rate*100),loss),end=" ")losses.append(loss)net.eval() # 测试train_acc = eval_on_dataloader("train",train_loader,train_data.__len__())train_accs.append(train_acc)test_acc = eval_on_dataloader("test", test_loader, test_data.__len__())test_accs.append(test_acc)print("train_acc:", train_acc, " test_acc:", test_acc)

损失、精度可视化


#模型训练损失可视化plot_loss_result(losses)plt.show()#训练集与测试集精度可视化plot_train_and_test_result(train_accs,test_accs)plt.show()

question


  1. AttributeError: module ‘sklearn‘ has no attribute ‘datasets‘解决
  2. RuntimeError: Expected object of scalar type Long but got scalar type Int for argument #2 'target'

solution:data.long()数据类型转换


推荐阅读
  • 本文探讨了如何在Classic ASP中实现与PHP的hash_hmac('SHA256', $message, pack('H*', $secret))函数等效的哈希生成方法。通过分析不同实现方式及其产生的差异,提供了一种使用Microsoft .NET Framework的解决方案。 ... [详细]
  • 深入解析Java枚举及其高级特性
    本文详细介绍了Java枚举的概念、语法、使用规则和应用场景,并探讨了其在实际编程中的高级应用。所有相关内容已收录于GitHub仓库[JavaLearningmanual](https://github.com/Ziphtracks/JavaLearningmanual),欢迎Star并持续关注。 ... [详细]
  • 本文探讨了如何通过预处理器开关选择不同的类实现,并解决在特定情况下遇到的链接器错误。 ... [详细]
  • #print(34or4 ... [详细]
  • 本文将探讨2015年RCTF竞赛中的一道PWN题目——shaxian,重点分析其利用Fastbin和堆溢出的技巧。通过详细解析代码流程和漏洞利用过程,帮助读者理解此类题目的破解方法。 ... [详细]
  • 版本控制工具——Git常用操作(下)
    本文由云+社区发表作者:工程师小熊摘要:上一集我们一起入门学习了git的基本概念和git常用的操作,包括提交和同步代码、使用分支、出现代码冲突的解决办法、紧急保存现场和恢复 ... [详细]
  • 本文将详细探讨 Java 中提供的不可变集合(如 `Collections.unmodifiableXXX`)和同步集合(如 `Collections.synchronizedXXX`)的实现原理及使用方法,帮助开发者更好地理解和应用这些工具。 ... [详细]
  • 本文详细介绍了 Python 中的条件语句和循环结构。主要内容包括:1. 分支语句(if...elif...else);2. 循环语句(for, while 及嵌套循环);3. 控制循环的语句(break, continue, else)。通过具体示例,帮助读者更好地理解和应用这些语句。 ... [详细]
  • 探讨ChatGPT在法律和版权方面的潜在风险及影响,分析其作为内容创造工具的合法性和合规性。 ... [详细]
  • 精选多款高效实用软件及工具推荐
    本文介绍并推荐多款高效实用的软件和工具,涵盖系统优化、网络加速、多媒体处理等多个领域,并提供安全可靠的下载途径。 ... [详细]
  • 在寻找轻量级Ruby Web框架的过程中,您可能会遇到Sinatra和Ramaze。两者都以简洁、轻便著称,但它们之间存在一些关键区别。本文将探讨这些差异,并提供详细的分析,帮助您做出最佳选择。 ... [详细]
  • 本文详细介绍了Java库XChart中的XYSeries类下的setLineColor()方法,并提供了多个实际应用场景的代码示例。 ... [详细]
  • 深入解析Hadoop的核心组件与工作原理
    本文详细介绍了Hadoop的三大核心组件:分布式文件系统HDFS、资源管理器YARN和分布式计算框架MapReduce。通过分析这些组件的工作机制,帮助读者更好地理解Hadoop的架构及其在大数据处理中的应用。 ... [详细]
  • 尾花|花萼_相关性Correlations 皮尔逊相关系数(pearson)和斯皮尔曼等级相关系数(spearman)
    尾花|花萼_相关性Correlations 皮尔逊相关系数(pearson)和斯皮尔曼等级相关系数(spearman) ... [详细]
  • 2017年人工智能领域的十大里程碑事件回顾
    随着2018年的临近,我们一同回顾过去一年中人工智能领域的重要进展。这一年,无论是政策层面的支持,还是技术上的突破,都显示了人工智能发展的迅猛势头。以下是精选的2017年人工智能领域最具影响力的事件。 ... [详细]
author-avatar
文静的疯子19__97
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有