爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      PyTorch中nn.Module类简介

      首页 知识中心 其他 文章详情页

      PyTorch中nn.Module类简介

      2023-03-30 06:52:34 阅读次数:189

      pytorch

            torch.nn.Module类是所有神经网络模块(modules)的基类,它的实现在torch/nn/modules/module.py中。你的模型也应该继承这个类,主要重载__init__、forward和extra_repr函数。Modules还可以包含其它Modules,从而可以将它们嵌套在树结构中。

            只要在自己的类中定义了forward函数,backward函数就会利用Autograd被自动实现。只要实例化一个对象并传入对应的参数就可以自动调用forward函数。因为此时会调用对象的__call__方法,而nn.Module类中的__call__方法会调用forward函数。

            nn.Module类中函数介绍:

            __init__:初始化内部module状态。

            register_buffer:向module添加buffer,不作为模型参数,可作为module状态的一部分。默认情况下,buffer是持久(persistent)的,将与参数一起保存。buffer是否persistent的区别在于这个buffer是否被放入self.state_dict()中被保存下来。

            register_parameter:向module添加参数。

            add_module:添加一个submodule(children)到当前module中。

            apply:将fn递归应用于每个submodule(children),典型用途为初始化模型参数。

            cuda:将所有模型参数和buffers转移到GPU上。

            xpu:将所有模型参数和buffers转移到XPU上。

            cpu:将所有模型参数和buffers转移到CPU上。

            type:将所有参数和buffers转换为所需的类型。

            float:将所有浮点参数和buffers转换为float32数据类型。

            double:将所有浮点参数和buffers转换为double数据类型。

            half:将所有浮点参数和buffers转换为float16数据类型。

            bfloat16:将所有浮点参数和buffers转换为bfloat16数据类型。

            to:将参数和buffers转换为指定的数据类型或转换到指定的设备上。

            register_backward_hook:在module中注册一个反向钩子。不推荐使用。

            register_full_backward_hook:在module中注册一个反向钩子。每次计算梯度时都会调用此钩子。使用此钩子时不允许就地(in place)修改输入或输出,否则会触发error。

            register_forward_pre_hook:在module中注册前向pre-hook。每次调用forward之前都会调用此钩子。

            register_forward_hook:在module中注册一个前向钩子。每次forward计算输出后都会调用此钩子。

            state_dict:返回包含了module的整个状态的字典。其中keys是对应的参数和buffer名称。

            load_state_dict:将参数和buffers从state_dict复制到module及其后代(descendants)中。

            parameters:返回module的参数的迭代器。

            named_parameters:返回module的参数的迭代器,产生(yield)参数的名称以及参数本身。不会返回重复的parameter。

            buffers:返回module的buffers的迭代器。

            named_buffers:返回module的buffers的迭代器,产生(yield)buffer的名称以及buffer本身。不会返回重复的buffer。

            children:返回直接子module的迭代器。

            named_children:返回直接子module的迭代器,产生(yield)子module的名称以及子module本身。不会返回重复的children。

            modules:返回网络中所有modules的迭代器。

            named_modules:返回网络中所有modules的迭代器,产生(yield)module的名称以及module本身。不会返回重复的module。

            train:将module设置为训练模式。这仅对某些module起作用。module.py实现中会修改self.training并通过self.children()来调整所有submodule的状态。

            eval:将module设置为评估模式。这仅对某些module起作用。module.py实现中直接调用train(False)。

            requires_grad_:更改autograd是否应记录对此module中参数的操作。此方法就地(in place)设置参数的requires_grad属性。

            zero_grad:将所有模型参数的梯度设置为零。

            share_memory:

            extra_repr:设置module的额外表示。你应该在自己的modules中重新实现此方法。

           测试代码如下:

      import torch
      import torch.nn as nn
      import torch.nn.functional as F # nn.functional.py中存放激活函数等的实现
      
      @torch.no_grad()
      def init_weights(m):
          print("xxxx:", m)
          if type(m) == nn.Linear:
               m.weight.fill_(1.0)
               print("yyyy:", m.weight)
      
      class Model(nn.Module):
          def __init__(self):
              # 在实现自己的__init__函数时,为了正确初始化自定义的神经网络模块,一定要先调用super().__init__
              super(Model, self).__init__()
              self.conv1 = nn.Conv2d(1, 20, 5) # submodule(child module)
              self.conv2 = nn.Conv2d(20, 20, 5)
              self.add_module("conv3", nn.Conv2d(10, 40, 5)) # 添加一个submodule到当前module,等价于self.conv3 = nn.Conv2d(10, 40, 5)
              self.register_buffer("buffer", torch.randn([2,3])) # 给module添加一个presistent(持久的) buffer
              self.param1 = nn.Parameter(torch.rand([1])) # module参数的tensor
              self.register_parameter("param2", nn.Parameter(torch.rand([1]))) # 向module添加参数
      
              # nn.Sequential: 顺序容器,module将按照它们在构造函数中传递的顺序添加,它允许将整个容器视为单个module
              self.feature = nn.Sequential(nn.Linear(2, 2), nn.Linear(2, 2))
              self.feature.apply(init_weights) # 将fn递归应用于每个submodule,典型用途为初始化模型参数
              self.feature.to(torch.double) # 将参数数据类型转换为double
              cpu = torch.device("cpu")
              self.feature.to(cpu) # 将参数数据转换到cpu设备上
      
          def forward(self, x):
             x = F.relu(self.conv1(x))
             return F.relu(self.conv2(x))
      
      model = Model()
      print("## Model:", model)
      
      model.cpu() # 将所有模型参数和buffers移动到CPU上
      model.float() # 将所有浮点参数和buffers转换为float数据类型
      model.zero_grad() # 将所有模型参数的梯度设置为零
      
      # state_dict:返回一个字典,保存着module的所有状态,参数和persistent buffers都会包含在字典中,字典的key就是参数和buffer的names
      print("## state_dict:", model.state_dict().keys())
      
      for name, parameters in model.named_parameters(): # 返回module的参数(weight and bias)的迭代器,产生(yield)参数的名称以及参数本身
          print(f"## named_parameters: name: {name}; parameters size: {parameters.size()}")
      
      for name, buffers in model.named_buffers(): # 返回module的buffers的迭代器,产生(yield)buffer的名称以及buffer本身
          print(f"## named_buffers: name: {name}; buffers size: {buffers.size()}")
      
      # 注:children和modules中重复的module只被返回一次
      for children in model.children(): # 返回当前module的child module(submodule)的迭代器
          print("## children:", children)
      
      for name, children in model.named_children(): # 返回直接submodule的迭代器,产生(yield) submodule的名称以及submodule本身
          print(f"## named_children: name: {name}; children: {children}")
      
      for modules in model.modules(): # 返回当前模型所有module的迭代器,注意与children的区别
          print("## modules:", modules)
      
      for name, modules in model.named_modules(): # 返回网络中所有modules的迭代器,产生(yield)module的名称以及module本身,注意与named_children的区别
          print(f"## named_modules: name: {name}; module: {modules}")
      
      model.train() # 将module设置为训练模式
      model.eval() # 将module设置为评估模式
      
      print("test finish")
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/fengbingchun/article/details/122023299,作者:fengbingchun,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:javascript-流程控制-循环-分支-三元运算符

      下一篇:Shell 查看帮助

      相关文章

      2025-03-12 09:32:39

      Android 将项目中的某Module打包成aar

      Android 将项目中的某Module打包成aar

      2025-03-12 09:32:39
      Files , Project
      2024-11-06 07:12:42

      深度学习从入门到精通——VOC 2012数据读取(pytorch)

      深度学习从入门到精通——VOC 2012数据读取(pytorch)

      2024-11-06 07:12:42
      pytorch , 读取
      2024-09-25 10:15:01

      PyTorch实现堆叠自编码器

      以下是一个使用PyTorch实现堆叠自编码器的示例代码,该代码包括三个自编码器和一些辅助函数,用于训练和测试堆叠自编码器。

      2024-09-25 10:15:01
      pytorch
      2024-09-25 10:15:01

      十六、微服务之-耦合、耦合模理论、耦合谐振子模型、嵌入式工程实现低耦合的实例

      组件之间依赖关系强度的度量被称为耦合。好的设计总是高内聚和低耦合的。

      2024-09-25 10:15:01
      微服务
      2024-06-25 09:53:39

      pytorch搭建TextCNN与使用案例

      pytorch搭建TextCNN与使用案例

      2024-06-25 09:53:39
      pytorch
      2024-06-13 08:59:42

      注意力机制学习(一)——通道注意力与pytorch案例

      注意力机制学习(一)——通道注意力与pytorch案例

      2024-06-13 08:59:42
      pytorch
      2024-06-13 08:59:42

      注意力机制学习(二)——空间注意力与pytorch案例

      注意力机制学习(二)——空间注意力与pytorch案例

      2024-06-13 08:59:42
      pytorch , 神经网络
      2024-06-05 08:57:09

      PyTorch中to()和cuda()的区别

      PyTorch中to()和cuda()的区别

      2024-06-05 08:57:09
      pytorch , 张量
      2024-06-04 10:11:10

      PyTorch实现联邦学习堆叠自编码器

      联邦学习是一种用于训练分布在不同设备或地点的模型的技术,其中数据分布在不同的设备上,且不会离开设备。每个设备只训练其本地数据的模型,并将更新的模型参数传递给服务器,服务器对这些更新进行聚合以更新全局模型。

      2024-06-04 10:11:10
      pytorch , 服务器
      2024-05-22 09:13:36

      PyTorch是什么?

      在现代人工智能领域,深度学习技术发挥着至关重要的作用。要实现深度学习,研究人员和工程师需要依赖一些高效、灵活的软件库。PyTorch就是这样一款深受欢迎的库。

      2024-05-22 09:13:36
      pytorch , 机器学习
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5241498

      查看更多

      最新文章

      Android 将项目中的某Module打包成aar

      2025-03-12 09:32:39

      PyTorch实现堆叠自编码器

      2024-09-25 10:15:01

      pytorch搭建TextCNN与使用案例

      2024-06-25 09:53:39

      注意力机制学习(一)——通道注意力与pytorch案例

      2024-06-13 08:59:42

      注意力机制学习(二)——空间注意力与pytorch案例

      2024-06-13 08:59:42

      PyTorch中to()和cuda()的区别

      2024-06-05 08:57:09

      查看更多

      热门文章

      解决导入torch报错from torch._C import xxxx

      2023-04-17 10:58:24

      解决pytorch多进程ValueError: Error initializing torch.distributed using env:// rendezvou...报错

      2023-04-19 09:37:46

      【PyTorch】获取Tensor大小,size与shape的区别

      2023-02-24 08:29:11

      【PyTorch】SiLU激活函数

      2023-02-13 07:55:59

      解决pytorch二分类任务交叉熵损失函数CrossEntropyLoss报错:IndexError: Target 1 is out of bounds.

      2023-04-19 09:38:09

      【PyTorch】rand/randn/randint/randperm的区别

      2023-02-13 07:54:19

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Pytorch解决LSTM前向传播时报错:RuntimeError: input must have 3 dimensions, got 2

      【PyTorch】两种不同分类层的设计方法

      PyTorch中to()和cuda()的区别

      【PyTorch】按照论文思想实现通道和空间两种注意力机制

      pytorch从dataframe中提取信息,变为可训练的tensor

      PyTorch实现堆叠自编码器

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号