爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      Pytorch神经网络简单入门

      首页 知识中心 其他 文章详情页

      Pytorch神经网络简单入门

      2024-09-25 10:15:01 阅读次数:40

      Pytorch,神经网络

      一、框架说明

      Pytorch具体的APi操作详见Pytorch官方Api文档,torchvision具体Api操作详见torchvision官方Api,下面介绍一下常用的包

      • torch:张量的常见运算。如创建、索引、连接、转置、加减乘除、切片等
      • torch.nn: 包含搭建神经网络层的模块(Modules)和一系列loss函数。如全连接、卷积、BN批处理、dropout、CrossEntryLoss、MSELoss等
      • torch.nn.functional:常用的激活函数relu、leaky_relu、sigmoid等
      • torch.autograd:提供Tensor所有操作的自动求导方法
      • torch.cuda:提供对CUDA张量类型的支持,可以让模型使用gpu运行
      • torch.optim:各种参数优化方法,例如SGD、AdaGrad、Adam、RMSProp等
      • torch.utils.data:用于加载数据
      • torch.nn.init:可以用它更改nn.Module的默认参数初始化方式
      • torchvision.datasets:常用数据集。MNIST、COCO、CIFAR10、Imagenet等
      • torchvision.modules:常用模型。AlexNet、VGG、ResNet、DenseNet等
      • torchvision.transforms:图片相关处理。裁剪、尺寸缩放、归一化等
      • torchvision.utils:将给定的Tensor保存成image文件

      二、GPU相关

      运行需要成功安装CUDA和CUDNN,同时要保证显卡驱动以及CUDA、CUDNN版本相匹配。对于CUDA的安装网上有很多教程

      #True表示可以进行gpu加速
      torch.cuda.is_available()
      #打印gpu数量
      torch.cuda.device_count()
      #显示gpu名字,序号从0开始,例如我的是GeForce GTX 1050
      torch.cuda.get_device_name(0) 
      #输出当前GPU序号,从0开始
      torch.cuda.current_device()
      

      在程序中可以如以下操作

      #如果机器不存在gpu就使用cpu,存在就使用0号gpu,序号可以按自己需求修改
      device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
      #还需要将模型(神经网络)与数据转移到相应的设备上,model代表模型,data代表张量
      model = model.to(device)
      #model = model.cuda()
      data = data.to(device)
      #data = data.cuda()
      

      三、前置知识学习

      Pytorch的一些入门常用操作,以及Numpy的入门常用操作。

      对于网络模型的优化,可以加入Dropout和BN批量归一化

      四、搭建第一个神经网络(回归)

      第一步生成数据

      #导包
      import torch
      import torch.nn.functional as F
      import matplotlib.pyplot as plt
      # reproducible
      torch.manual_seed(1)   
      #这里linspace函数是从-1到1均分成100份,unsqueeze表示在第1轴增加一个维度,原本是一维,现在变成(100,1)维度,即100个数据1个特征。同理squeeze表示减少一个维度
      x = torch.unsqueeze(torch.linspace(-1,1,100),dim=1)
      #增加随机噪声
      y = pow(x,2) + torch.randn(x.size())*0.1
      plt.scatter(x,y)
      plt.show()
      

      Pytorch神经网络简单入门

      第二步,建立神经网络,这里定义了一个隐藏层,并使用ReLu激活函数。

      # 继承 torch 的 Module
      class Net(torch.nn.Module):
          def __init__(self,n_feature,n_hidden,n_outpit):
              # 继承 __init__ 功能,必须要有,定义网络的时候进行初始化
              super(Net,self).__init__()
              self.hidden=torch.nn.Linear(n_feature,n_hidden)
              self.output=torch.nn.Linear(n_hidden,n_outpit)
      
          # 这同时也是 Module 中的 forward 功能,会自动进行前向计算
          def forward(self,x):
              x=F.relu(self.hidden(x))
              x=self.output(x)
              return x
      # to(device)选择在'cpu'或'cuda'上运行
      net = Net(1,10,1)
      #net = Net(1,10,1).to(device)
      #打印一下网络信息
      print(net)
      

      第三步选择损失函数和优化器

      #回归常用MSE,而分类常用Cross Entropy
      loss = torch.nn.MSELoss()
      #pytorch根据当前当属更新参数值,学习率在这里取0.5
      optimizer = torch.optim.SGD(net.parameters,lr=0.5)
      #查看参数值
      #list(net.parameters())[0]
      #list(net.parameters())[0]
      

      第四步模型的训练及其结果

      epochs = 100
      for i in range(epochs):
          #训练给模型的数据,net(x)即net.forward(x)
          prediction = net(x)
          #计算损失函数
          loss = loss_fn(prediction,y)
          #优化器梯度清理,方便下一次梯度下降
          optimizer.zero_grad()
          #反向传播求导
          loss.backward()
          #优化器更新神经网络参数加到 net 的 parameters 上
          optimizer.step()
      
          if i%10==0:
              plt.cla()
              plt.scatter(x.data.numpy(),y.data.numpy())
              plt.plot(x.data.numpy(),prediction.data.numpy())
              plt.text(0.5, 0, 'Loss=%.4f' % loss, fontdict={'size': 16, 'color':  'red'})
              plt.pause(0.1)
      

      Pytorch神经网络简单入门

      第五步模型的保存和加载

      #保存整个模型
      torch.save(net,"mynet.pkl")
      net=torch.load("mynet.pkl")
      #保存模型参数,占用内存小,速度快
      torch.save(net.state_dict(),"mynet.pkl")
      net.load_state_dict("mynet.pkl")
      

      五、CNN卷积神经网络实现MNIST数据集

      首先导入第三方库

      import torch
      import matplotlib.pyplot as plt
      import torchvision
      import torch.utils.data as Data
      import torch.nn as nn
      #设置随机种子以便复现
      torch.manual_seed(1)
      

      训练集和测试集的获取,若本机有cuda环境,也可以运行cuda注释代码

      EPOCH=1
      BATCH_SIZE=32
      LR=0.001
      #如果已经下载好改为False
      DOWNLOAD_MINIST= False
      #获取手写数字训练集
      train_data = torchvision.datasets.MNIST(
          # 保存地点
          root="./minist/",
          # 是否是训练集
          train=True,
          # 转换 PIL.Image or numpy.ndarray 成torch.FloatTensor (C,H,W), 训练的时候 normalize 成 [0.0, 1.0]区间
          transform=torchvision.transforms.ToTensor(),
          # 是否下载
          download=DOWNLOAD_MINIST)
      # 可视化查看一下数据图片
      train,label = train_data[0]
      plt.imshow(train.squeeze())
      plt.show()
      
      test_data = torchvision.datasets.MNIST(
          # 保存地点
          root="./minist/",
          # 是否是训练集
          train=False
      )
      # 批训练(32,1,28,28)
      train_loader = Data.DataLoader(dataset=train_data,batch_size=BATCH_SIZE,shuffle=True)
      # 由原来的(60000,28,28)变为(60000,1,28,28)
      test_x = torch.unsqueeze(test_data.data, dim=1).type(torch.FloatTensor)[:2000]/255.
      test_y = test_data.targets[:2000]
      # 若存在cuda环境,即可使用注释代码
      # test_x = test_x.cuda()
      # test_y = test_y.cuda()
      

      CNN网络配置,输出大小为[(n - k + 2p) / s] + 1,n代表输入大小,k为核大小,p为填充,s为步幅

      class CNN(nn.Module):
          def __init__(self):
              super(CNN,self).__init__()
              #输入形状为(1,28,28),输出形状为(16,14,14)
              self.conv1 = nn.Sequential(
                  nn.Conv2d(in_channels=1,   # 输入通道
                            out_channels=16, # 输出通道
                            kernel_size=5,   # 卷积核大小
                            stride=1,        # 步幅
                            padding=2),      # 填充
                  # 此时输出形状为(16,28,28)
                  nn.ReLU(),                 # 激活函数
                  # 最大池化,核大小为2,此时输出形状(16,14,14)
                  nn.MaxPool2d(kernel_size=2)
              )
              self.conv2 = nn.Sequential(
                  nn.Conv2d(16,32,5,1,2), # 输出形状(32,14,14)
                  nn.ReLU(),
                  nn.MaxPool2d(2)         #输出形状(32,7,7)
              )
              #全连接网络,输出10个类别
              self.out = nn.Linear(32*7*7,10)
      
          def forward(self,x):
              x = self.conv1(x)
              x = self.conv2(x)
              # 将卷积层展平,才能输入全连接网络
              x = x.view(x.size(0),-1)
              output = self.out(x)
              return output
      

      训练与测试

      cnn = CNN()
      # 若存在cuda环境,即可使用注释代码
      # cnn = cnn.cuda()
      # 优化器
      optimizer = torch.optim.Adam(cnn.parameters(),lr=LR)
      # 损失函数,分类问题
      loss_fn = nn.CrossEntropyLoss()
      
      for epoch in range(EPOCH):
          # 迭代运行
          for step, (x, y) in enumerate(train_loader):
              # x = x.cuda()
              # y = y.cuda()
              output = cnn(x)
              loss = loss_fn(output, y)
              optimizer.zero_grad()
              loss.backward()
              optimizer.step()
              if(step % 50 == 0):
                  # 可以单独进行模型的测试
                  test_output = cnn(test_x)
                  # 1代表索引列,因为刚好匹配到0-9,获取概率高的
                  pre_y = torch.max(test_output, 1)[1].data.squeeze()
                  # pre_y = torch.max(test_output, 1)[1].cuda().data.squeeze()
                  # 获取准确率
                  accurary = float((pre_y == test_y).sum()) / float(test_y.size(0))
                  print('Epoch: ',epoch, '| train loss: %.4f' % loss.data, '| test accurary: %.2f' % accurary)
      # 最后可以模型保存
      

      六、RNN循环神经网络实现MNIST数据集

      之前的操作与CNN类似,RNN循环神经网络部分如下

      class LSTM(nn.Module):
          def __init__(self, input_size=28, hidden_size=64, num_layers=1, output_size=10):
             super(LSTM, self).__init__()
             # 使用LSTM比RNN效果好
             self.rnn = nn.LSTM(
                 # 输入数据特征数,这里28个28维度的数据输入
                 input_size = input_size,
                 # 隐藏层特征数    
                 hidden_size = hidden_size,
                 # LSTM层数
                 num_layers = num_layers,
                 # 如果是第一次输入,需要将batch_size与seq_length这两个维度调换
                 batch_first = True
             )
             # 输出10个类别
             self.output = nn.Linear(hidden_size,output_size)
      
          def forward(self,x):
              # x shape (batch, time_step, input_size)
              # r_out shape (batch, time_step, output_size)
              # h_n shape (n_layers, batch, hidden_size)   LSTM 有两个 hidden states, h_n 是分线, h_c 是主线
              # h_c shape (n_layers, batch, hidden_size)
              r_out,(h_n, h_c) = self.rnn(x,None)
              # 选取最后一个时间点的 r_out 输出
              output = self.output(r_out[:,-1,:])
              return output
      
      lstm = LSTM()
      # 优化器
      optimizer = torch.optim.Adam(lstm.parameters(),lr=LR)
      # 损失函数,分类问题
      loss_fn = nn.CrossEntropyLoss()
      
      for epoch in range(EPOCH):
          # 迭代运行
          for step, (x, y) in enumerate(train_loader):
               # 输入输入需要变换形状
              output = lstm(x.view(-1,28,28))
              loss = loss_fn(output, y)
              optimizer.zero_grad()
              loss.backward()
              optimizer.step()
              if(step % 50 == 0):
                  # 可以单独进行模型的测试
                  test_output = lstm(test_x.view(-1,28,28))
                  # 1代表索引列,因为刚好匹配到0-9,获取概率高的
                  pre_y = torch.max(test_output, 1)[1].data.squeeze()
                  # 获取准确率
                  accurary = float((pre_y == test_y).sum()) / float(test_y.size(0))
                  print('Epoch: ',epoch, '| train loss: %.4f' % loss.data, '| test accurary: %.2f' % accurary)
      # 最后可以模型保存
      

      七、AutoEncoder自编码

      首先获取数据集

      import torch
      import matplotlib.pyplot as plt
      import torchvision
      import torch.utils.data as Data
      import torch.nn as nn
      #设置随机种子以便复现
      torch.manual_seed(1)
      EPOCH=1
      BATCH_SIZE=32
      LR=0.001
      #如果已经下载好改为False
      DOWNLOAD_MINIST= False
      #获取手写数字训练集
      train_data = torchvision.datasets.MNIST(
          # 保存地点
          root="./minist/",
          # 是否是训练集
          train=True,
          # 转换 PIL.Image or numpy.ndarray 成torch.FloatTensor (C,H,W), 训练的时候 normalize 成 [0.0, 1.0]区间
          transform=torchvision.transforms.ToTensor(),
          # 是否下载
          download=DOWNLOAD_MINIST)
      # 批训练(32,1,28,28)
      train_loader = Data.DataLoader(dataset=train_data,batch_size=BATCH_SIZE,shuffle=True)
      

      网络的设置与训练,AutoEncoder是先将图片压缩后还原,用还原后的图片与原图片进行评估并梯度下降

      # AutoEncoder 形式很简单, 分别是 encoder  和 decoder , 压缩和解压, 压缩后得到压缩的特征值, 再从压缩的特征值解压成原图片
      class AutoEncoder(nn.Module):
          def __init__(self):
              super(AutoEncoder, self).__init__()
              # 压缩
              self.encoder = nn.Sequential(
                  nn.Linear(28*28, 128),
                  nn.Tanh(),
                  nn.Linear(128, 64),
                  nn.Tanh(),
                  nn.Linear(64, 12),
                  nn.Tanh(),
                  nn.Linear(12, 3),   # 压缩成3个特征, 进行 3D 图像可视化
              )
              # 解压
              self.decoder = nn.Sequential(
                  nn.Linear(3, 12),
                  nn.Tanh(),
                  nn.Linear(12, 64),
                  nn.Tanh(),
                  nn.Linear(64, 128),
                  nn.Tanh(),
                  nn.Linear(128, 28*28),
                  nn.Sigmoid(),       # 激励函数让输出值在 (0, 1)
              )
          def forward(self, x):
              encoded = self.encoder(x)
              decoded = self.decoder(encoded)
              return encoded, decoded
      
      autoencoder = AutoEncoder()
      optimizer = torch.optim.Adam(autoencoder.parameters(),lr=LR)
      loss_fn = nn.MSELoss()
      
      for epoch in range(EPOCH):
          for step, (x, y) in enumerate(train_loader):
              train_x = x.view(-1,28*28)
              train_y = x.view(-1,28*28)
              encoded, decoded = autoencoder(train_x)
              loss = loss_fn(decoded, train_y)
              optimizer.zero_grad()
              loss.backward()
              optimizer.step()
              if(step % 50 == 0):
                  print('Epoch: ',epoch, '| train loss: %.4f' % loss.data)
      

      3D展示图,可以进行旋转观看

      import matplotlib.pyplot as plt
      from mpl_toolkits.mplot3d import Axes3D
      from matplotlib import cm
      
      # 要观看的数据
      view_data = train_data.data[:200].view(-1, 28*28).type(torch.FloatTensor)/255.
      encoded_data, _ = autoencoder(view_data)    # 提取压缩的特征值
      fig = plt.figure(2)
      ax = Axes3D(fig)    # 3D 图
      # x, y, z 的数据值
      X = encoded_data.data[:, 0].numpy()
      Y = encoded_data.data[:, 1].numpy()
      Z = encoded_data.data[:, 2].numpy()
      values = train_data.targets[:200].numpy()  # 标签值
      for x, y, z, s in zip(X, Y, Z, values):
          c = cm.rainbow(int(255*s/9))    # 上色
          ax.text(x, y, z, s, backgroundcolor=c)  # 标位子
      ax.set_xlim(X.min(), X.max())
      ax.set_ylim(Y.min(), Y.max())
      ax.set_zlim(Z.min(), Z.max())
      plt.show()
      

      Pytorch神经网络简单入门

      八、GAN生成对抗网络

      Generator 作为生成器努力生成以假乱真的图片, Discriminator作为判别器,努力判别生成图片为假数据,两者在训练中一起成长,最终训练出可以以假乱真的生成器。这里使用了MNIST作为数据集,生成器是生成数字,判别器验证输入是否为数字,使用了GPU加速训练,这里网络用了简单模型,可以自行修改为卷积网络

      import torch
      import torch.nn as nn
      import numpy as np
      import matplotlib.pyplot as plt
      import torchvision
      import torch.utils.data as Data
      # 随机种子方便再现
      torch.manual_seed(1)
      np.random.seed(1)
      
      # 设置超参数
      EPOCH = 1
      BATCH_SIZE = 32
      LR_G = 0.0001           # 生成器学习率
      LR_D = 0.0001           # 判别器学习率
      #如果已经下载好改为False
      DOWNLOAD_MINIST= False
      # GPU加速
      device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
      #获取手写数字训练集
      train_data = torchvision.datasets.MNIST(
          # 保存地点
          root="./minist/",
          # 是否是训练集
          train=True,
          # 转换 PIL.Image or numpy.ndarray 成torch.FloatTensor (C,H,W), 训练的时候 normalize 成 [0.0, 1.0]区间
          transform=torchvision.transforms.ToTensor(),
          # 是否下载
          download=DOWNLOAD_MINIST)
      # 批训练(32,1,28,28)
      train_loader = Data.DataLoader(dataset=train_data,batch_size=BATCH_SIZE,shuffle=True)
      
      # 生成器
      class generator(nn.Module):
          def __init__(self, input_size):
              super(generator,self).__init__()
              self.gen = nn.Sequential(
                  nn.Linear(input_size,256),
                  nn.ReLU(),
                  nn.Linear(256,512),
                  nn.ReLU(),
                  nn.Linear(512,784),
                  nn.Tanh()
              )
          def forward(self, x):
              output = self.gen(x)
              return output
      # 判别器
      class discriminator(nn.Module):
          def __init__(self):
              super(discriminator,self).__init__()
              self.dis = nn.Sequential(
                  nn.Linear(784,512),
                  nn.LeakyReLU(0.2),
                  nn.Linear(512,256),
                  nn.LeakyReLU(0.2),
                  nn.Linear(256,1),
                  nn.Sigmoid()
              )
          def forward(self, x):
              output = self.dis(x)
              return output
      
      G = generator(28*28).to(device)
      D = discriminator().to(device)
      
      criterion = nn.BCELoss()
      g_optimizer = torch.optim.Adam(G.parameters(), lr=LR_G)
      d_optimizer = torch.optim.Adam(D.parameters(), lr=LR_D)
      # 训练
      for epoch in range(EPOCH):
          for step, (x, _) in enumerate(train_loader):
              # 获取每一次迭代数据的批量值
              x_num = x.size(0)
              # 训练判别器
              train_x = x.view(x_num, -1).to(device)
              # 真实标签值
              real_label = torch.ones(x_num).to(device)
              # 噪声标签值
              fake_label = torch.zeros(x_num).to(device)
              real_out = D(train_x)
              d_loss_real = criterion(real_out, real_label)
              # 噪声数值
              z = torch.randn(x_num,28*28).to(device)
              fake_x = G(z)
              fake_out = D(fake_x)
              d_loss_fake = criterion(fake_out, fake_label)
              d_loss = d_loss_real + d_loss_fake
              d_optimizer.zero_grad()
              d_loss.backward()
              d_optimizer.step()
              # 训练生成器
              z = torch.randn(x_num,28*28).to(device)
              fake_x = G(z)
              fake_out = D(fake_x)
              g_loss = criterion(fake_out, real_label)
              g_optimizer.zero_grad()
              g_loss.backward()
              g_optimizer.step()
              
              if(step % 50 == 0):
                  print('Epoch: ',epoch, '| train d_loss: %.4f' % d_loss.data,'| train g_loss: %.4f' % g_loss.data)
      
      # 绘图展示
      z = torch.randn(x_num,28*28).to(device)
      x = z
      img = x.view(-1,28,28)[3].squeeze()
      plt.subplot(121)
      plt.imshow(img.data.cpu().numpy())
      plt.show()
      x = G(z)
      img = x.view(-1,28,28)[3].squeeze()
      plt.subplot(122)
      plt.imshow(img.data.cpu().numpy())
      plt.show()
      

      一下左图是生成的随机噪声,右图是随机噪声经过生成器后的图片

      Pytorch神经网络简单入门Pytorch神经网络简单入门

      九、DQN强化学习

      通过Q-Learning和神经网络结合,通过反馈可以使机器学得的效果越来越好,下面是简单的demo(有点小难,我还没理解)

      import torch
      import torch.nn as nn
      import torch.nn.functional as F
      import numpy as np
      import gym
      
      # 定义超参数
      BATCH_SIZE = 32
      LR = 0.01
      EPSILON = 0.9  # 最优选择动作百分比
      GAMMA = 0.9  # 奖励递减参数
      TARGET_REPLACE_ITER = 100  # Q 现实网络的更新频率
      MEMORY_CAPACITY = 2000  # 记忆库大小
      env = gym.make("CartPole-v0")  # 立杆子游戏
      env = env.unwrapped
      N_ACTIONS = env.action_space.n  # 杆子能做的动作
      N_STATES = env.observation_space.shape[0]  # 杆子能获取的环境信息数
      ENV_A_SHAPE = 0 if isinstance(env.action_space.sample(),
                                    int) else env.action_space.sample().shape  # to confirm the shape
      
      
      # 构造DON(Deep Q Network)强化学习神经网络 现实网络 (Target Net) 估计网络 (Eval Net)
      class Net(nn.Module):
          def __init__(self):
              super(Net, self).__init__()
              self.fc1 = nn.Linear(N_STATES, 10)
              self.fc1.weight.data.normal_(0, 0.1)  # initialization(初始化)
              self.out = nn.Linear(10, N_ACTIONS)
              self.out.weight.data.normal_(0, 0.1)  # initialization(初始化)
      
          def forward(self, x):
              x = self.fc1(x)
              x = F.relu(x)
              action_value = self.out(x)
              return action_value
      
      
      # 构造DQN体系
      class DQN(object):
          def __init__(self):
              # 建立 target net 和 eval net 还有 memory
              self.eval_net, self.target_net = Net(), Net()
              self.learn_step_counter = 0  # 用于 target 更新计时
              self.memory_counter = 0  # 记忆库记数
              self.memory = np.zeros((MEMORY_CAPACITY, N_STATES * 2 + 2))  # 初始化记忆库
              self.optimizer = torch.optim.Adam(self.eval_net.parameters(), lr=LR)
              self.lose_func = nn.MSELoss()
      
          def choose_action(self, x):
              # 根据环境观测值选择动作的机制
              x = torch.unsqueeze(torch.FloatTensor(x), 0)
              # 这里只输入一个 sample
              if np.random.uniform() < EPSILON:  # 选最优动作
                  actions_value = self.eval_net.forward(x)
                  action = torch.max(actions_value, 1)[1].data.numpy()
                  action = action[0] if ENV_A_SHAPE == 0 else action.reshape(ENV_A_SHAPE)  # return the argmax index
              else:
                  action = np.random.randint(0, N_ACTIONS)
                  action = action if ENV_A_SHAPE == 0 else action.reshape(ENV_A_SHAPE)
              return action
      
          def store_transition(self, s, a, r, s_):
              # 存储记忆
              transition = np.hstack((s, [a, r], s_))
              # 如果记忆库满了, 就覆盖老数据
              index = self.memory_counter % MEMORY_CAPACITY
              self.memory[index, :] = transition
              self.memory_counter += 1
      
          def learn(self):
              # target 网络更新 学习记忆库中的记忆
              if self.learn_step_counter % TARGET_REPLACE_ITER == 0:
                  self.target_net.load_state_dict(self.eval_net.state_dict())
              self.learn_step_counter += 1
              # 抽取记忆库中的批数据
              sample_index = np.random.choice(MEMORY_CAPACITY, BATCH_SIZE)
              b_memory = self.memory[sample_index, :]
              b_s = torch.FloatTensor(b_memory[:, :N_STATES])
              b_a = torch.LongTensor(b_memory[:, N_STATES:N_STATES + 1].astype(int))
              b_r = torch.FloatTensor(b_memory[:, N_STATES + 1:N_STATES + 2])
              b_s_ = torch.FloatTensor(b_memory[:, -N_STATES:])
              # 针对做过的动作b_a, 来选 q_eval 的值, (q_eval 原本有所有动作的值)
              q_eval = self.eval_net(b_s).gather(1, b_a)  # shape (batch, 1)
              q_next = self.target_net(b_s_).detach()  # q_next 不进行反向传递误差, 所以 detach
              q_target = b_r + GAMMA * q_next.max(1)[0]  # shape (batch, 1)
              loss = self.lose_func(q_eval, q_target)
              # 计算, 更新 eval net
              self.optimizer.zero_grad()
              loss.backward()
              self.optimizer.step()
      
      
      # 训练 按照 Qlearning 的形式进行 off-policy 的更新. 我们进行回合制更新, 一个回合完了, 进入下一回合. 一直到他们将杆子立起来很久.
      dqn = DQN()
      for i_episode in range(400):
          s = env.reset()
          while True:
              env.render()  # 显示实验动画
              a = dqn.choose_action(s)
              # 选动作, 得到环境反馈
              s_, r, done, info = env.step(a)
              # 修改 reward, 使 DQN 快速学习
              x, x_dot, theta, theta_dot = s_
              r1 = (env.x_threshold - abs(x)) / env.x_threshold - 0.8
              r2 = (env.theta_threshold_radians - abs(theta)) / env.theta_threshold_radians - 0.5
              r = r1 + r2
              # 存记忆
              dqn.store_transition(s, a, r, s_)
              if dqn.memory_counter > MEMORY_CAPACITY:
                  dqn.learn()
              if done:
                  break
              s = s_
      
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/lemon_TT/article/details/117624374,作者:魅Lemon,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:go struc结构体详解

      下一篇:初学Android,使用自定义的XML资源(十八)

      相关文章

      2025-05-07 09:08:42

      深入理解循环神经网络(RNN):原理、应用与挑战

      在深度学习的众多模型中,循环神经网络(RNN)因其对序列数据处理的特性而备受关注。无论是自然语言处理、时间序列预测,还是语音识别,RNN都展现出了强大的能力。

      2025-05-07 09:08:42
      序列 , 时间 , 神经网络 , 隐藏
      2025-04-14 09:27:25

      杂记(3):在Pytorch中如何操作将数据集分为训练集和测试集?

      杂记(3):在Pytorch中如何操作将数据集分为训练集和测试集?

      2025-04-14 09:27:25
      Pytorch , 方法 , 测试 , 训练
      2025-04-09 09:11:38

      图神经网络与图表示学习: 从基础概念到前沿技术

      随着复杂网络数据的快速增长,图数据的处理和分析成为机器学习领域的一个重要方向。图神经网络(Graph Neural Networks, GNNs)和图表示学习技术逐渐崭露头角,成为处理图数据的有效工具。

      2025-04-09 09:11:38
      学习 , 模型 , 神经网络 , 节点 , 表示
      2025-03-17 07:50:34

      【人工智能五】人工智能基础习题

      【人工智能五】人工智能基础习题

      2025-03-17 07:50:34
      神经网络 , 虚拟
      2025-03-17 07:50:34

      【人工智能基础】学习线路

      【人工智能基础】学习线路

      2025-03-17 07:50:34
      TensorFlow , 人工智能 , 学习 , 深度 , 神经网络
      2025-03-17 07:50:34

      【人工智能基础07】卷积神经网络基础(CNN):卷积神经网络结构、各层计算原理,以及常见卷积神经网络

      【人工智能基础07】卷积神经网络基础(CNN):卷积神经网络结构、各层计算原理,以及常见卷积神经网络

      2025-03-17 07:50:34
      卷积 , 矩阵 , 神经网络 , 输入
      2025-03-05 09:19:11

      BP神经网络理论

      神经网络包括生物神经网络和人工神经网络。

      2025-03-05 09:19:11
      函数 , 梯度 , 神经网络 , 节点
      2025-02-28 09:27:35

      深度学习基础(一)神经网络基本原理

      深度学习基础(一)神经网络基本原理

      2025-02-28 09:27:35
      学习 , 机器 , 深度 , 神经元 , 神经网络
      2025-02-14 08:18:57

      LSTM唐诗生成

      LSTM唐诗生成

      2025-02-14 08:18:57
      LSTM , 信息 , 神经网络 , 输入
      2025-02-10 08:56:02

      深度学习基础(二)卷积神经网络(CNN)

      深度学习基础(二)卷积神经网络(CNN)

      2025-02-10 08:56:02
      卷积 , 图像 , 图像处理 , 学习 , 模型 , 神经网络
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5244475

      查看更多

      最新文章

      深入理解循环神经网络(RNN):原理、应用与挑战

      2025-05-07 09:08:42

      【人工智能五】人工智能基础习题

      2025-03-17 07:50:34

      【人工智能基础】学习线路

      2025-03-17 07:50:34

      BP神经网络理论

      2025-03-05 09:19:11

      深度学习基础(一)神经网络基本原理

      2025-02-28 09:27:35

      LSTM唐诗生成

      2025-02-14 08:18:57

      查看更多

      热门文章

      使用pytorch构建一个神经网络、损失函数、反向传播、更新网络参数

      2023-07-19 07:52:37

      深度学习(二)一文带你了解神经网络,激活函数

      2024-05-24 07:47:12

      注意力机制学习(二)——空间注意力与pytorch案例

      2024-06-13 08:59:42

      文本分类的目的和分类的方法

      2024-05-20 09:53:58

      windows10下 Pytorch 安装和tensorflow 安装

      2024-05-24 07:47:12

      机器学习、深度学习、和神经网络之间的联系

      2024-06-03 09:09:34

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      BP神经网络理论

      深度学习(二)一文带你了解神经网络,激活函数

      文本分类的目的和分类的方法

      windows10下 Pytorch 安装和tensorflow 安装

      LSTM唐诗生成

      深度学习从入门到精通——VGG网络实现(Pytorch)

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号