爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      【动手学深度学习】Tensor数据操作

      首页 知识中心 数据库 文章详情页

      【动手学深度学习】Tensor数据操作

      2023-07-11 08:45:03 阅读次数:427

      python,pytorch,索引

      Tensor数据操作

      文章目录

      • Tensor数据操作
      • 1. Tensor创建
      • 2. 索引
      • 3. 改变形状
      • 4. 广播机制
      • 5. 运算的存储机制
      • 6. Tensor和NumPy相互转换
      • 7. 梯度

       

      1. Tensor创建

      # 导入一些常用库
      import torch
      from IPython import display
      from matplotlib import pyplot as plt
      import numpy as np
      import random
      import torch.nn as nn
      import torch.optim as optim # torch.optim模块提供了很多常用的优化算法比如SGD、Adam和RMSProp等。
      from torch.nn import init
      import torch.utils.data as Data
      x=torch.zeros(2, 3)# tensor([[0., 0., 0.], [0., 0., 0.]])
      y=torch.rand(2, 3)# tensor([[0.4825, 0.5103, 0.4058], [0.0201, 0.4958, 0.5905]])
      z=torch.tensor([5.5, 2])# tensor([5.5000, 2.0000])

      还可以通过现有的Tensor来创建,此方法会默认重用输入Tensor的一些属性,例如数据类型,除非自定义数据类型。

      x = torch.eye(5, 3)
      y = x.new_ones(5, 3, dtype=torch.float64)#返回的tensor默认具有相同的torch.dtype和torch.device
      z = torch.randn_like(x, dtype=torch.float) # 指定新的数据类型
      # print(f"{x}\n{y}\n{z}")
      print(x)# tensor([[1., 0., 0.], [0., 1., 0.], [0., 0., 1.], [0., 0., 0.], [0., 0., 0.]])
      print(y)# tensor([[1., 1., 1.], [1., 1., 1.], [1., 1., 1.], [1., 1., 1.], [1., 1., 1.]], dtype=torch.float64)
      print(z)# tensor([[ 0.4024, -0.2069, -1.3955], [ 0.2060, -0.0344, -0.7559], [-0.3694,  1.6153, -0.0104], [-0.1180,  0.3266, -0.4363], [ 1.1623,  0.0751,  0.9289]])
      print(x.size())# torch.Size([5, 3])
      print(x.shape)# torch.Size([5, 3])

      2. 索引

      索引出来的结果与原数据共享内存,也即修改一个,另一个会跟着修改。

      y = x[0, :]
      y += 1
      print(y)# tensor([2., 1., 1.])
      # 源tensor也被改了
      print(x[0, :]) # tensor([2., 1., 1.])

      3. 改变形状

      注意view()返回的新Tensor与源Tensor虽然可能有不同的size,但是是共享data的,也即更改其中的一个,另外一个也会跟着改变。虽然view返回的Tensor与源Tensor是共享data的,但是依然是一个新的Tensor(因为Tensor除了包含data外还有一些其他属性),二者id(内存地址)并不一致。

      y = x.view(15)
      z = x.view(-1, 5)  # -1所指的维度可以根据其他维度的值推出来
      print(x.size(), y.size(), z.size())# torch.Size([5, 3]) torch.Size([15]) torch.Size([3, 5])
      x += 1
      print(x)# tensor([[4., 3., 3.], [2., 3., 2.], [2., 2., 3.], [2., 2., 2.], [2., 2., 2.]])
      print(y) # tensor([4., 3., 3., 2., 3., 2., 2., 2., 3., 2., 2., 2., 2., 2., 2.])
      x_cp = x.clone().view(15)# 先用clone创造一个副本然后再使用view,就可以得到一个真正的改变了形状的副本
      x -= 1
      print(x)# tensor([[3., 2., 2.], [1., 2., 1.],[1., 1., 2.], [1., 1., 1.], [1., 1., 1.]])
      print(x_cp)# tensor([3., 2., 2., 1., 2., 1., 1., 1., 2., 1., 1., 1., 1., 1., 1.])
      x = torch.randn(1)# item() 可以将一个标量Tensor转换成一个Python number
      print(x)# tensor([-0.6769])
      print(x.item())# -0.6768880486488342

      4. 广播机制

      # 当对两个形状不同的Tensor按元素运算时,可能会触发广播(broadcasting)机制:先适当复制元素使这两个Tensor形状相同后再按元素运算。
      x = torch.arange(1, 3).view(1, 2)
      print(x)# tensor([[1, 2]])
      y = torch.arange(1, 4).view(3, 1)
      print(y)# tensor([[1], [2], [3]])
      print(x + y)tensor([[2, 3], [3, 4], [4, 5]])

      5. 运算的存储机制

      索引操作是不会开辟新内存的,而像y = x + y这样的运算是会新开内存的,然后将y指向新内存。为了演示这一点,可以使用Python自带的id函数:如果两个实例的ID一致,那么它们所对应的内存地址相同;反之则不同。

      x = torch.tensor([1, 2])
      y = torch.tensor([3, 4])
      id_before = id(y)
      y = y + x
      print(id(y) == id_before) # False
      x = torch.tensor([1, 2])
      y = torch.tensor([3, 4])
      id_before = id(y)
      y[:] = y + x # 运用索引实现 指定结果到原来的y的内存
      print(id(y) == id_before) # True
      x = torch.tensor([1, 2])
      y = torch.tensor([3, 4])
      id_before = id(y)
      torch.add(x, y, out=y) # y += x, y.add_(x)也可以实现 指定结果到原来的y的内存
      print(id(y) == id_before) # True

      6. Tensor和NumPy相互转换

      [tensor转化为numpy]:使用numpy()产生的numpy和tensor数组共享相同的内存(所以他们之间的转换很快),改变其中一个时另一个也会改变!!!

      a = torch.ones(5)
      b = a.numpy()
      print(a, b)# tensor([1., 1., 1., 1., 1.]) [1. 1. 1. 1. 1.]
      a += 1
      print(a, b)# tensor([2., 2., 2., 2., 2.]) [2. 2. 2. 2. 2.]
      b += 1
      print(a, b)# tensor([3., 3., 3., 3., 3.]) [3. 3. 3. 3. 3.]

      [numpy转化为 tensor]:使用from_numpy()或tensor(),from_numpy()产生的numpy和tensor数组共享相同的内存(所以他们之间的转换很快),改变其中一个时另一个也会改变!!!而tensor()总是会进行数据拷贝,返回的Tensor和原来的数据不再共享内存。

      import numpy as np
      a = np.ones(5)
      b = torch.from_numpy(a)
      print(a, b)# [1. 1. 1. 1. 1.] tensor([1., 1., 1., 1., 1.], dtype=torch.float64)
      
      a += 1
      print(a, b)# [2. 2. 2. 2. 2.] tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
      
      b += 1
      print(a, b)# [3. 3. 3. 3. 3.] tensor([3., 3., 3., 3., 3.], dtype=torch.float64)
      
      c = torch.tensor(a)
      a += 1
      print(a, c)# [4. 4. 4. 4. 4.] tensor([3., 3., 3., 3., 3.], dtype=torch.float64)

      7. 梯度

      把tensor的.requires_grad属性设置为True,将开始追踪在其上的所有操作(这样就可以利用链式法则进行梯度传播了)。

      完成计算后,可以调用.backward()来完成所有梯度计算。此Tensor的梯度将累积到.grad属性中。

      grad_fn属性就是说该Tensor是不是通过某些运算得到的,若是,则grad_fn返回一个与这些运算相关的对象,否则是None。

      x = torch.ones(2, 2, requires_grad=True)
      print(x)# tensor([[1., 1.], [1., 1.]], requires_grad=True)
      print(x.grad_fn)# None

      举些例子:

      y = x + 2 print(y)# tensor([[3., 3.], [3., 3.]], grad_fn=<AddBackward0>) # y是通过一个加法操作创建的,所以它有一个为<AddBackward>的grad_fn print(y.grad_fn)# <AddBackward0 object at 0x000002ADB0796048> z = y * y * 3 out = z.mean() print(z, out)# tensor([[27., 27.], [27., 27.]], grad_fn=<MulBackward0>) tensor(27., grad_fn=<MeanBackward0>) # 像x这种直接创建的称为叶子节点,叶子节点对应的grad_fn是None print(x.is_leaf, y.is_leaf) # True False

      a = torch.randn(2, 2) # 缺失情况下默认 requires_grad = False
      a = ((a * 3) / (a - 1))
      print(a.requires_grad) # False
      
      a.requires_grad_(True)# 通过.requires_grad_()来用in-place的方式改变requires_grad属性
      print(a.requires_grad) # True
      
      b = (a * a).sum()
      print(b.grad_fn)# <SumBackward0 object at 0x0000016BBB329208>
      x = torch.ones(2, 2, requires_grad=True)
      y = x + 2
      z = y * y * 3
      out = z.mean()
      out.backward() # 等价于 out.backward(torch.tensor(1.))
      print(x.grad)# tensor([[4.5000, 4.5000], [4.5000, 4.5000]])
      # 再来反向传播一次,注意grad是累加的
      out2 = x.sum()
      out2.backward()
      print(x.grad)# tensor([[5.5000, 5.5000], [5.5000, 5.5000]])
      
      out3 = x.sum()
      x.grad.data.zero_()# 反向传播之前需把梯度清零
      out3.backward()
      print(x.grad)# tensor([[1., 1.], [1., 1.]])
      x = torch.tensor([1.0, 2.0, 3.0, 4.0], requires_grad=True)
      y = 2 * x
      z = y.view(2, 2)
      print(z)# tensor([[2., 4.], [6., 8.]], grad_fn=<ViewBackward0>)
      # 不允许张量对张量求导,只允许标量对张量求导,求导结果是和自变量同形的张量
      v = torch.tensor([[1.0, 0.1], [0.01, 0.001]], dtype=torch.float)
      z.backward(v)# 现在 z 不是一个标量,所以在调用backward时需要传入一个和z同形的权重向量进行加权求和得到一个标量。
      print(x.grad)# tensor([2.0000, 0.2000, 0.0200, 0.0020])

      中断梯度追踪

      x = torch.tensor(1.0, requires_grad=True)
      y1 = x ** 2 
      with torch.no_grad():
          y2 = x ** 3
      y3 = y1 + y2
      
      print(x.requires_grad)# True
      print(y1, y1.requires_grad) # tensor(1., grad_fn=<PowBackward0>) True
      print(y2, y2.requires_grad) # tensor(1.) False
      print(y3, y3.requires_grad) # tensor(2., grad_fn=<AddBackward0>) True
      y3.backward()
      print(x.grad)# tensor(2.)

       

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/u_16165815/6521142,作者:chaoql,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:千万别手欠执行stop slave

      下一篇:全网详细解决Client does not support authentication protocol requested by server;consider upgrading Mysql c

      相关文章

      2025-05-14 10:33:16

      30天拿下Rust之向量

      在Rust语言中,向量(Vector)是一种动态数组类型,可以存储相同类型的元素,并且可以在运行时改变大小。向量是Rust标准库中的一部分,位于std::vec模块中。

      2025-05-14 10:33:16
      Rust , 使用 , 元素 , 向量 , 方法 , 索引 , 迭代
      2025-05-14 10:33:16

      30天拿下Rust之切片

      在Rust中,切片是一种非常重要的引用类型。它允许你安全地引用一段连续内存中的数据,而不需要拥有这些数据的所有权。切片不包含分配的内存空间,它仅仅是一个指向数据开始位置和长度的数据结构。

      2025-05-14 10:33:16
      amp , end , 切片 , 字符串 , 引用 , 索引 , 迭代
      2025-05-14 10:03:13

      【MySQL】-数据库优化(索引)

      索引(index)是帮助数据库高效获取数据的数据结构

      2025-05-14 10:03:13
      index , Tree , 二叉 , 搜索 , 数据 , 索引 , 节点
      2025-05-14 10:03:13

      MySQL 索引优化以及慢查询优化

      MySQL 是一种广泛使用的关系型数据库管理系统,因其性能优异和使用便捷而备受欢迎。然而,随着数据量的增长和查询复杂度的增加,性能瓶颈也变得越来越明显。

      2025-05-14 10:03:13
      MySQL , 优化 , 使用 , 性能 , 数据库 , 查询 , 索引
      2025-05-14 10:02:48

      SQL Server 执行计划1--数据查询

      SQL语言(在SQL Server也叫做T-SQL)是一个解释性的语言(declarative language), 主要是描述的是人想要从数据库里获取数据的逻辑。但数据库接收到SQL语句后,会根据相关的统计信息制定自己的取数策略(执行计划)。

      2025-05-14 10:02:48
      Index , 查找 , 索引
      2025-05-14 09:51:15

      mysql 语句如何优化

      MySQL语句的优化是一个复杂但重要的过程,因为它可以显著提高数据库的性能。

      2025-05-14 09:51:15
      JOIN , MySQL , 优化 , 使用 , 排序 , 查询 , 索引
      2025-05-13 09:50:59

      主键失效对该主键对应列上索引的影响

      主键失效对该主键对应列上索引的影响

      2025-05-13 09:50:59
      主键 , 失效 , 对应 , 索引
      2025-05-09 08:20:32

      MySQL——索引(概述和结构介绍)

      索引(index)是帮助 MySQL 高效获取数据的数据结构(是一种有序的数据结构)。

      2025-05-09 08:20:32
      Tree , 存储 , 引擎 , 数据结构 , 查询 , 索引 , 结构
      2025-05-08 09:04:49

      第9关:索引(2024数据库期末综合)

      第9关:索引(2024数据库期末综合)

      2025-05-08 09:04:49
      代码 , 数据表 , 索引
      2025-05-07 09:12:52

      基础—SQL—DQL(数据查询语言)分页查询

      对于分页,不管以后做的是传统的管理系统还是做互联网的项目,基本上都会遇到分页查询的操作。

      2025-05-07 09:12:52
      分页 , 数据 , 查询 , 索引 , 起始
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5266614

      查看更多

      最新文章

      30天拿下Rust之切片

      2025-05-14 10:33:16

      【MySQL】-数据库优化(索引)

      2025-05-14 10:03:13

      MySQL 索引优化以及慢查询优化

      2025-05-14 10:03:13

      mysql 语句如何优化

      2025-05-14 09:51:15

      主键失效对该主键对应列上索引的影响

      2025-05-13 09:50:59

      【MySQL】MySQL索引与事务的透析——(超详解)

      2025-03-10 09:50:17

      查看更多

      热门文章

      python学习——使用MySQL

      2023-04-27 07:57:16

      正确理解Mysql的列索引和多列索引

      2023-05-12 07:20:42

      关于PyTorch继承nn.Module出现raise NotImplementedError的问题解决方案

      2023-02-27 10:10:19

      python之转义字符

      2023-03-21 03:15:34

      Demo | 神操作,SqlAlchemy用一行命令还原数据库!

      2023-05-06 10:22:26

      python-封装pymysql的思路步骤

      2023-03-30 10:07:24

      查看更多

      热门标签

      数据库 mysql 字符串 数据结构 MySQL 算法 redis oracle java sql python 数据 索引 SQL 查询
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      用户登录的用户库

      MySQL索引分类

      数据结构与算法python版(2)-递归与汉诺塔问题

      判断是否是质数

      mysql中主键索引和联合索引的原理解析

      图文并茂说MySQL索引——入门进阶必备

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号