爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      Pandas高级教程之:Dataframe的重排和旋转

      首页 知识中心 其他 文章详情页

      Pandas高级教程之:Dataframe的重排和旋转

      2023-03-30 06:57:13 阅读次数:481

      Dataframe,Pandas

      简介

      使用Pandas的pivot方法可以将DF进行旋转变换,本文将会详细讲解pivot的秘密。

      使用Pivot

      pivot用来重组DF,使用指定的index,columns和values来对现有的DF进行重构。

      看一个Pivot的例子:

      通过pivot变化,新的DF使用foo中的值作为index,使用bar的值作为columns,zoo作为对应的value。

      再看一个时间变化的例子:

      In [1]: df
      Out[1]: 
               date variable     value
      0  2000-01-03        A  0.469112
      1  2000-01-04        A -0.282863
      2  2000-01-05        A -1.509059
      3  2000-01-03        B -1.135632
      4  2000-01-04        B  1.212112
      5  2000-01-05        B -0.173215
      6  2000-01-03        C  0.119209
      7  2000-01-04        C -1.044236
      8  2000-01-05        C -0.861849
      9  2000-01-03        D -2.104569
      10 2000-01-04        D -0.494929
      11 2000-01-05        D  1.071804
      
      In [3]: df.pivot(index='date', columns='variable', values='value')
      Out[3]: 
      variable           A         B         C         D
      date                                              
      2000-01-03  0.469112 -1.135632  0.119209 -2.104569
      2000-01-04 -0.282863  1.212112 -1.044236 -0.494929
      2000-01-05 -1.509059 -0.173215 -0.861849  1.071804
      

      如果剩余的value,多于一列的话,每一列都会有相应的columns值:

      In [4]: df['value2'] = df['value'] * 2
      
      In [5]: pivoted = df.pivot(index='date', columns='variable')
      
      In [6]: pivoted
      Out[6]: 
                     value                                  value2                              
      variable           A         B         C         D         A         B         C         D
      date                                                                                      
      2000-01-03  0.469112 -1.135632  0.119209 -2.104569  0.938225 -2.271265  0.238417 -4.209138
      2000-01-04 -0.282863  1.212112 -1.044236 -0.494929 -0.565727  2.424224 -2.088472 -0.989859
      2000-01-05 -1.509059 -0.173215 -0.861849  1.071804 -3.018117 -0.346429 -1.723698  2.143608
      

      通过选择value2,可以得到相应的子集:

      In [7]: pivoted['value2']
      Out[7]: 
      variable           A         B         C         D
      date                                              
      2000-01-03  0.938225 -2.271265  0.238417 -4.209138
      2000-01-04 -0.565727  2.424224 -2.088472 -0.989859
      2000-01-05 -3.018117 -0.346429 -1.723698  2.143608
      
      使用Stack

      Stack是对DF进行转换,将列转换为新的内部的index。

      Pandas高级教程之:Dataframe的重排和旋转

      上面我们将列A,B转成了index。

      unstack是stack的反向操作,是将最内层的index转换为对应的列。

      Pandas高级教程之:Dataframe的重排和旋转

      举个具体的例子:

      In [8]: tuples = list(zip(*[['bar', 'bar', 'baz', 'baz',
         ...:                      'foo', 'foo', 'qux', 'qux'],
         ...:                     ['one', 'two', 'one', 'two',
         ...:                      'one', 'two', 'one', 'two']]))
         ...: 
      
      In [9]: index = pd.MultiIndex.from_tuples(tuples, names=['first', 'second'])
      
      In [10]: df = pd.DataFrame(np.random.randn(8, 2), index=index, columns=['A', 'B'])
      
      In [11]: df2 = df[:4]
      
      In [12]: df2
      Out[12]: 
                           A         B
      first second                    
      bar   one     0.721555 -0.706771
            two    -1.039575  0.271860
      baz   one    -0.424972  0.567020
            two     0.276232 -1.087401
      
      In [13]: stacked = df2.stack()
      
      In [14]: stacked
      Out[14]: 
      first  second   
      bar    one     A    0.721555
                     B   -0.706771
             two     A   -1.039575
                     B    0.271860
      baz    one     A   -0.424972
                     B    0.567020
             two     A    0.276232
                     B   -1.087401
      dtype: float64
      

      默认情况下unstack是unstack最后一个index,我们还可以指定特定的index值:

      In [15]: stacked.unstack()
      Out[15]: 
                           A         B
      first second                    
      bar   one     0.721555 -0.706771
            two    -1.039575  0.271860
      baz   one    -0.424972  0.567020
            two     0.276232 -1.087401
      
      In [16]: stacked.unstack(1)
      Out[16]: 
      second        one       two
      first                      
      bar   A  0.721555 -1.039575
            B -0.706771  0.271860
      baz   A -0.424972  0.276232
            B  0.567020 -1.087401
      
      In [17]: stacked.unstack(0)
      Out[17]: 
      first          bar       baz
      second                      
      one    A  0.721555 -0.424972
             B -0.706771  0.567020
      two    A -1.039575  0.276232
             B  0.271860 -1.087401
      

      Pandas高级教程之:Dataframe的重排和旋转

      默认情况下stack只会stack一个level,还可以传入多个level:

      In [23]: columns = pd.MultiIndex.from_tuples([
         ....:     ('A', 'cat', 'long'), ('B', 'cat', 'long'),
         ....:     ('A', 'dog', 'short'), ('B', 'dog', 'short')],
         ....:     names=['exp', 'animal', 'hair_length']
         ....: )
         ....: 
      
      In [24]: df = pd.DataFrame(np.random.randn(4, 4), columns=columns)
      
      In [25]: df
      Out[25]: 
      exp                 A         B         A         B
      animal            cat       cat       dog       dog
      hair_length      long      long     short     short
      0            1.075770 -0.109050  1.643563 -1.469388
      1            0.357021 -0.674600 -1.776904 -0.968914
      2           -1.294524  0.413738  0.276662 -0.472035
      3           -0.013960 -0.362543 -0.006154 -0.923061
      
      In [26]: df.stack(level=['animal', 'hair_length'])
      Out[26]: 
      exp                          A         B
        animal hair_length                    
      0 cat    long         1.075770 -0.109050
        dog    short        1.643563 -1.469388
      1 cat    long         0.357021 -0.674600
        dog    short       -1.776904 -0.968914
      2 cat    long        -1.294524  0.413738
        dog    short        0.276662 -0.472035
      3 cat    long        -0.013960 -0.362543
        dog    short       -0.006154 -0.923061
      

      上面等价于:

      In [27]: df.stack(level=[1, 2])
      
      使用melt

      melt指定特定的列作为标志变量,其他的列被转换为行的数据。并放置在新的两个列:variable和value中。

      Pandas高级教程之:Dataframe的重排和旋转

      上面例子中我们指定了两列first和last,这两列是不变的,height和weight被变换成为行数据。

      举个例子:

      In [41]: cheese = pd.DataFrame({'first': ['John', 'Mary'],
         ....:                        'last': ['Doe', 'Bo'],
         ....:                        'height': [5.5, 6.0],
         ....:                        'weight': [130, 150]})
         ....: 
      
      In [42]: cheese
      Out[42]: 
        first last  height  weight
      0  John  Doe     5.5     130
      1  Mary   Bo     6.0     150
      
      In [43]: cheese.melt(id_vars=['first', 'last'])
      Out[43]: 
        first last variable  value
      0  John  Doe   height    5.5
      1  Mary   Bo   height    6.0
      2  John  Doe   weight  130.0
      3  Mary   Bo   weight  150.0
      
      In [44]: cheese.melt(id_vars=['first', 'last'], var_name='quantity')
      Out[44]: 
        first last quantity  value
      0  John  Doe   height    5.5
      1  Mary   Bo   height    6.0
      2  John  Doe   weight  130.0
      3  Mary   Bo   weight  150.0
      
      使用Pivot tables

      虽然Pivot可以进行DF的轴转置,Pandas还提供了 pivot_table() 在转置的同时可以进行数值的统计。

      pivot_table() 接收下面的参数:

      data: 一个df对象

      values:一列或者多列待聚合的数据。

      Index: index的分组对象

      Columns: 列的分组对象

      Aggfunc: 聚合的方法。

      先创建一个df:

      In [59]: import datetime
      
      In [60]: df = pd.DataFrame({'A': ['one', 'one', 'two', 'three'] * 6,
         ....:                    'B': ['A', 'B', 'C'] * 8,
         ....:                    'C': ['foo', 'foo', 'foo', 'bar', 'bar', 'bar'] * 4,
         ....:                    'D': np.random.randn(24),
         ....:                    'E': np.random.randn(24),
         ....:                    'F': [datetime.datetime(2013, i, 1) for i in range(1, 13)]
         ....:                    + [datetime.datetime(2013, i, 15) for i in range(1, 13)]})
         ....: 
      
      In [61]: df
      Out[61]: 
              A  B    C         D         E          F
      0     one  A  foo  0.341734 -0.317441 2013-01-01
      1     one  B  foo  0.959726 -1.236269 2013-02-01
      2     two  C  foo -1.110336  0.896171 2013-03-01
      3   three  A  bar -0.619976 -0.487602 2013-04-01
      4     one  B  bar  0.149748 -0.082240 2013-05-01
      ..    ... ..  ...       ...       ...        ...
      19  three  B  foo  0.690579 -2.213588 2013-08-15
      20    one  C  foo  0.995761  1.063327 2013-09-15
      21    one  A  bar  2.396780  1.266143 2013-10-15
      22    two  B  bar  0.014871  0.299368 2013-11-15
      23  three  C  bar  3.357427 -0.863838 2013-12-15
      
      [24 rows x 6 columns]
      

      下面是几个聚合的例子:

      In [62]: pd.pivot_table(df, values='D', index=['A', 'B'], columns=['C'])
      Out[62]: 
      C             bar       foo
      A     B                    
      one   A  1.120915 -0.514058
            B -0.338421  0.002759
            C -0.538846  0.699535
      three A -1.181568       NaN
            B       NaN  0.433512
            C  0.588783       NaN
      two   A       NaN  1.000985
            B  0.158248       NaN
            C       NaN  0.176180
      
      In [63]: pd.pivot_table(df, values='D', index=['B'], columns=['A', 'C'], aggfunc=np.sum)
      Out[63]: 
      A       one               three                 two          
      C       bar       foo       bar       foo       bar       foo
      B                                                            
      A  2.241830 -1.028115 -2.363137       NaN       NaN  2.001971
      B -0.676843  0.005518       NaN  0.867024  0.316495       NaN
      C -1.077692  1.399070  1.177566       NaN       NaN  0.352360
      
      In [64]: pd.pivot_table(df, values=['D', 'E'], index=['B'], columns=['A', 'C'],
         ....:                aggfunc=np.sum)
         ....: 
      Out[64]: 
                D                                                           E                                                  
      A       one               three                 two                 one               three                 two          
      C       bar       foo       bar       foo       bar       foo       bar       foo       bar       foo       bar       foo
      B                                                                                                                        
      A  2.241830 -1.028115 -2.363137       NaN       NaN  2.001971  2.786113 -0.043211  1.922577       NaN       NaN  0.128491
      B -0.676843  0.005518       NaN  0.867024  0.316495       NaN  1.368280 -1.103384       NaN -2.128743 -0.194294       NaN
      C -1.077692  1.399070  1.177566       NaN       NaN  0.352360 -1.976883  1.495717 -0.263660       NaN       NaN  0.872482
      

      添加margins=True会添加一个All列,表示对所有的列进行聚合:

      In [69]: df.pivot_table(index=['A', 'B'], columns='C', margins=True, aggfunc=np.std)
      Out[69]: 
                      D                             E                    
      C             bar       foo       All       bar       foo       All
      A     B                                                            
      one   A  1.804346  1.210272  1.569879  0.179483  0.418374  0.858005
            B  0.690376  1.353355  0.898998  1.083825  0.968138  1.101401
            C  0.273641  0.418926  0.771139  1.689271  0.446140  1.422136
      three A  0.794212       NaN  0.794212  2.049040       NaN  2.049040
            B       NaN  0.363548  0.363548       NaN  1.625237  1.625237
            C  3.915454       NaN  3.915454  1.035215       NaN  1.035215
      two   A       NaN  0.442998  0.442998       NaN  0.447104  0.447104
            B  0.202765       NaN  0.202765  0.560757       NaN  0.560757
            C       NaN  1.819408  1.819408       NaN  0.650439  0.650439
      All      1.556686  0.952552  1.246608  1.250924  0.899904  1.059389
      
      使用crosstab

      Crosstab 用来统计表格中元素的出现次数。

      In [70]: foo, bar, dull, shiny, one, two = 'foo', 'bar', 'dull', 'shiny', 'one', 'two'
      
      In [71]: a = np.array([foo, foo, bar, bar, foo, foo], dtype=object)
      
      In [72]: b = np.array([one, one, two, one, two, one], dtype=object)
      
      In [73]: c = np.array([dull, dull, shiny, dull, dull, shiny], dtype=object)
      
      In [74]: pd.crosstab(a, [b, c], rownames=['a'], colnames=['b', 'c'])
      Out[74]: 
      b    one        two      
      c   dull shiny dull shiny
      a                        
      bar    1     0    0     1
      foo    2     1    1     0
      

      crosstab可以接收两个Series:

      In [75]: df = pd.DataFrame({'A': [1, 2, 2, 2, 2], 'B': [3, 3, 4, 4, 4],
         ....:                    'C': [1, 1, np.nan, 1, 1]})
         ....: 
      
      In [76]: df
      Out[76]: 
         A  B    C
      0  1  3  1.0
      1  2  3  1.0
      2  2  4  NaN
      3  2  4  1.0
      4  2  4  1.0
      
      In [77]: pd.crosstab(df['A'], df['B'])
      Out[77]: 
      B  3  4
      A      
      1  1  0
      2  1  3
      

      还可以使用normalize来指定比例值:

      In [82]: pd.crosstab(df['A'], df['B'], normalize=True)
      Out[82]: 
      B    3    4
      A          
      1  0.2  0.0
      2  0.2  0.6
      

      还可以normalize行或者列:

      In [83]: pd.crosstab(df['A'], df['B'], normalize='columns')
      Out[83]: 
      B    3    4
      A          
      1  0.5  0.0
      2  0.5  1.0
      

      可以指定聚合方法:

      In [84]: pd.crosstab(df['A'], df['B'], values=df['C'], aggfunc=np.sum)
      Out[84]: 
      B    3    4
      A          
      1  1.0  NaN
      2  1.0  2.0
      
      get_dummies

      get_dummies可以将DF中的一列转换成为k列的0和1组合:

      df = pd.DataFrame({'key': list('bbacab'), 'data1': range(6)})
      
      df
      Out[9]: 
         data1 key
      0      0   b
      1      1   b
      2      2   a
      3      3   c
      4      4   a
      5      5   b
      
      pd.get_dummies(df['key'])
      Out[10]: 
         a  b  c
      0  0  1  0
      1  0  1  0
      2  1  0  0
      3  0  0  1
      4  1  0  0
      5  0  1  0
      

      get_dummies 和 cut 可以进行结合用来统计范围内的元素:

      In [95]: values = np.random.randn(10)
      
      In [96]: values
      Out[96]: 
      array([ 0.4082, -1.0481, -0.0257, -0.9884,  0.0941,  1.2627,  1.29  ,
              0.0824, -0.0558,  0.5366])
      
      In [97]: bins = [0, 0.2, 0.4, 0.6, 0.8, 1]
      
      In [98]: pd.get_dummies(pd.cut(values, bins))
      Out[98]: 
         (0.0, 0.2]  (0.2, 0.4]  (0.4, 0.6]  (0.6, 0.8]  (0.8, 1.0]
      0           0           0           1           0           0
      1           0           0           0           0           0
      2           0           0           0           0           0
      3           0           0           0           0           0
      4           1           0           0           0           0
      5           0           0           0           0           0
      6           0           0           0           0           0
      7           1           0           0           0           0
      8           0           0           0           0           0
      9           0           0           1           0           0
      

      get_dummies还可以接受一个DF参数:

      In [99]: df = pd.DataFrame({'A': ['a', 'b', 'a'], 'B': ['c', 'c', 'b'],
         ....:                    'C': [1, 2, 3]})
         ....: 
      
      In [100]: pd.get_dummies(df)
      Out[100]: 
         C  A_a  A_b  B_b  B_c
      0  1    1    0    0    1
      1  2    0    1    0    1
      2  3    1    0    1    0
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/flydean/3035381,作者:程序那些事,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:Libra教程之:Libra协议的关键概念

      下一篇:实时流协议(RTSP)简介

      相关文章

      2025-03-03 09:34:17

      力扣176 第二高的薪水

      力扣176 第二高的薪水

      2025-03-03 09:34:17
      Pandas , 返回
      2024-06-25 09:53:00

      # yyds干货盘点 # 盘点一个Pandas中explode()爆炸函数应用实际案例

      # yyds干货盘点 # 盘点一个Pandas中explode()爆炸函数应用实际案例

      2024-06-25 09:53:00
      Pandas , python
      2024-06-07 07:35:31

      pandas的快速使用

      Pandas 是一个功能强大、灵活的数据分析和处理库,它可以帮助我们快速处理和分析大量的数据。

      2024-06-07 07:35:31
      Pandas , 数据表
      2024-05-20 08:43:45

      # yyds干货盘点 #分享Python网络爬虫过程中编码和解码常用的一个库

      # yyds干货盘点 #分享Python网络爬虫过程中编码和解码常用的一个库

      2024-05-20 08:43:45
      Pandas , python
      2023-04-25 10:22:50

      Pandas高级教程之:Dataframe的合并

      文章目录简介使用concat使用append使用merge使用join覆盖数据 简介Pandas提供了很多合并Series和Dataframe的强大的功能,通过这些功能可以方便的进行数据分析。本文将会详细讲解如何使用Pandas来合并Se

      2023-04-25 10:22:50
      Dataframe , Pandas
      2023-04-21 03:11:35

      Python Pandas将多个dataframe写入Excel文件

      Python Pandas将多个dataframe写入Excel文件

      2023-04-21 03:11:35
      dataframe , Pandas , Python
      2023-04-19 09:38:57

      Pandas 生成随机整数序列

      首先使用

      2023-04-19 09:38:57
      Pandas , python
      2023-04-19 09:38:09

      pandas Dataframe统计缺失值占比

      工具函数

      2023-04-19 09:38:09
      Dataframe , python
      2023-04-19 09:37:55

      从Dataframe训练数据,构造可迭代训练的batch数据

      最主要的

      2023-04-19 09:37:55
      Dataframe
      2023-04-19 09:36:36

      pandas Dataframe读取数据表是自定义列名

      pandas Dataframe读取数据表是自定义列名

      2023-04-19 09:36:36
      Dataframe , pandas , python
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5240599

      查看更多

      最新文章

      力扣176 第二高的薪水

      2025-03-03 09:34:17

      # yyds干货盘点 # 盘点一个Pandas中explode()爆炸函数应用实际案例

      2024-06-25 09:53:00

      Pandas高级教程之:Dataframe的合并

      2023-04-25 10:22:50

      Pandas 生成随机整数序列

      2023-04-19 09:38:57

      pandas Dataframe统计缺失值占比

      2023-04-19 09:38:09

      Pandas高级教程之:GroupBy用法

      2023-03-22 09:03:21

      查看更多

      热门文章

      Pandas 生成随机整数序列

      2023-04-19 09:38:57

      Pandas高级教程之:Dataframe的合并

      2023-04-25 10:22:50

      Pandas高级教程之:GroupBy用法

      2023-03-22 09:03:21

      pandas Dataframe统计缺失值占比

      2023-04-19 09:38:09

      pandas3: Pandas基本操作

      2023-03-15 09:21:53

      # yyds干货盘点 # 盘点一个Pandas中explode()爆炸函数应用实际案例

      2024-06-25 09:53:00

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Pandas 生成随机整数序列

      Pandas高级教程之:GroupBy用法

      pandas3: Pandas基本操作

      Pandas高级教程之:Dataframe的合并

      pandas Dataframe统计缺失值占比

      力扣176 第二高的薪水

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号