爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      【ceph】什么是NFS-Ganesha和fuse

      首页 知识中心 软件开发 文章详情页

      【ceph】什么是NFS-Ganesha和fuse

      2025-02-21 08:58:35 阅读次数:12

      NFS,线程,缓存

      一、简略

       什么是FUSE?

      Filesystem in Userspace,用户空间实现文件系统。NFS-Ganesha就是实现FUSE的一种方式。

      FUSE和Ganesha的关系是什么?

      NFS-Ganesha就是实现FUSE的一种方式。

      什么是NFS-Ganesha?

      NFS-Ganesha是一个开源软件项目,它充当一个用户空间文件系统,用于将特定的存储后端(如 ceph)映射到Linux操作系统的标准文件系统接口上。换句话说,NFS-Ganesha允许应用程序和用户像操作常规文件系统一样来访问和交互那些不直接提供POSIX接口的存储系统,使得开发者和用户能够在不了解ceph复杂性的情况下利用其高性能和规模化的存储能力。这意味着用户可以使用熟悉的命令行工具(如ls、cp)、应用程序或者库(通过open、read、write等系统调用)来访问存储在ceph中的数据,而不需要修改这些工具或应用程序以直接支持ceph API/DAOS API。

      NFS-Ganesha:

      • 用户态的支持NFS协议(NFSv3/NFSv4,NFSv4.1)的文件服务器。
      • 它的客户是Unix和类Unix的操作系统。为
      • Unix和类Unix的操作系统提供了FUSE(Filesystem in Userspace)兼容的接口FSAL。
      • Unix和类Unix的操作系统通过NFS Client可以访问存储设备(本地or分布式集群)。

      【ceph】什么是NFS-Ganesha和fuse

       

      二、说明

      1、什么是NFS-Ganesha

      “Ganesha是一个全新的程序,可对比kernel版本的NFSv4” 根据这句话,Ganesha应该是一个第三方文件系统,对标kernel的NFSv4这些系统。

      NFS-Ganesha 通过FSAL((File System Abstraction Layer文件系统抽象层)将一个后端存储抽象成一个统一的API,提供给Ganesha服务端,然后通过NFS协议将其挂载到客户端。在客户端上对挂出来的空间进行操作。

      NFS-Ganesha是一个用户态的支持NFS协议(NFSv3/NFSv4,NFSv4.1)的文件服务器,它为Unix和类Unix的操作系统提供了FUSE(Filesystem in Userspace)兼容的接口FSAL(File System Abstraction Layer) 。这样用户通过NFS Client可以访问自己的存储设备。NFS-Ganesha 服务允许用户通过FSAL在用户态访问数据而不需要和内核频繁的交互,大大的减少了数据读取的响应时间。

      NFS Ganesha 分层架构图

      【ceph】什么是NFS-Ganesha和fuse

       client 要想访问ceph cluster内的数据,用多种方法

      1 app直接调用ceph的操作接口

      2 通过ganesha,samba,hadoop的方式挂载路径到系统中:

      假设 NFS-Ganesha 服务器的 IP 地址是 192.168.1.100,共享目录是 /

      sudo mount -t nfs4 -o proto=tcp,port=2049 192.168.1.100:/ /mnt/nfs4

      3 通过ceph-fuse 挂载路径到系统中:

      ceph-fuse -m 192.168.1.100:6789,192.168.1.101:6789 /mnt/cephfs

      【ceph】什么是NFS-Ganesha和fuse

      2、NFS-Ganesha的优点

      Ganesha是一个全新的程序,可能对比kernel版本的NFSv4,Ganesha的性能有所欠缺,但是基于user-space的方法会带来更多有意思的功能。

      • 灵活的内存分配——只需要4GB来可以实现百万级别的数据缓存
      • 更强的可移植性——如果NFS Ganesha是kernel-space的话,那样NFS Ganesha的内部结构只能适应一款特定的OS,而很难移植到别的OS上.Ganesha设计初衷是成为一个NFSv4通用服务器,可以实现NFSv4的所有功能,因此也需要适配各种文件系统。
      • 更便捷的访问机制——内核中的NFSv4访问用户空间中的服务不是那么方便,因此其引入了rpc_pipefs机制, 用于解决用户空间服务的桥梁,并且 使用kerberos5管理安全性或idmapd守护程序来进行用户名转换。然而Ganesha不需要这些,它使用常规API来对外提供服务。
      • 对接FUSE——由于NFS Ganesha是一个运行在用户空间的程序,因此它还提供了对一些用户空间文件系统(FUSE,Filesystem in Userspace))的支持,可以让我们直接把FUSE挂载在NFS上而不需要内核的帮助。

      3、NFS Ganesha对接Ceph RGW实例

      【ceph】什么是NFS-Ganesha和fuse

       
                                                         NFS Ganesha workflow

      4、什么是FUSE

      fuse是什么?

      FUSE,implementing filesystems in user space,在用户空间实现文件系统。简单讲,用户可通过fuse在用户空间来定制实现自己的文件系统。

      为什么要有fuse?

      现存文件系统难以满足用户的特别需求,内核下定制开发文件系统难度较高,在用户空间可定制实现文件系统是有需求的。并且,用户空间下调试工具丰富,出问题不会导致系统崩溃,开发难度相对较低,开发周期较短。

      fuse工作原理

      完整的fuse功能包括a)用户态customize文件系统b)用户态fuse库(libfuse)c)内核支持(fs/fuse/*),共3层结构协作完成。

      【ceph】什么是NFS-Ganesha和fuse

      接下来,我会站在fuse文件系统使用者的角度,在encounter/solve模式下解释fuse的工作原理,假设开发者发布的基于fuse开发的文件系统名字为ZFUSE。

      现在,/mnt/fuse目录已经挂载了ZFUSE。作为使用者,准备在/mnt/fuse目录下创建第一个文件my.log。

      【ceph】什么是NFS-Ganesha和fuse

      open系统调用进入kernel space,vfs层根据挂载点文件的操作函数对应到fuse_create_open。

      open系统调用进入kernel space,vfs层根据挂载点文件的操作函数对应到fuse_create_open。

      问题1,既然在用户态实现文件系统,那么create代码怎么能在内核空间呢?

      fuse_create_open只是为了对接vfs,真正的处理代码仍然在用户空间实现。

      问题2,目前已在内核空间,如何在用户空间处理?

      简单讲,在fuse_create_open内会创建一个包含FUSE_CREATE操作数的消息,将消息通过管道文件发送给管道另一端的用户态接收进程。

      问题3,用户态接收进程?

      是的,该进程在ZFUSE挂载时由libfuse库代码中创建,作用是读取管道文件消息并根据消息的操作数来执行对应操作,在这里解析到的是FUSE_CREATE操作数,对应libfuse库中的fuse_lib_create函数。

      问题4,目前ZFUSE做了什么?

      libfuse只是将操作接口与内核VFS做到一一对接,而真正完成操作的还是ZFUSE,在fuse_lib_create中会调用ZFUSE内定义的create函数。

      问题5,为什么需要libfuse的接口?

      解耦合,简化ZFUSE开发。假设ZFUSE不需要lseek操作,那么就不需要实现lseek操作,而我们无法控制用户的行为,这里用户是指ZFUSE文件系统的使用者。假设用户在使用ZFUSE时进行了lseek操作,那么会先由libfuse提供的fuse_lib_lseek接口处理,libfuse发现ZFUSE没有实现lseek,就直接返回不支持此操作。

      假设libfuse没有实现这层接口,那么ZFUSE就必须实现一个lseek接口,并且将里面的逻辑操作设置为直接返回不支持,这在设计上明显笨拙。

      到这里,结合下图把过程再串一遍。

      1)ZFUSE挂载到/mnt/fuse,libfuse会fork出后台进程,用于读取管道文件消息。

      2)用户使用ZFUSE文件系统,创建文件my.log

      3)调用系统调用

      4)经VFS交由fuse处理

      5)fuse下的create处理,向管道发送带创建操作(FUSE_CREATE)的消息,当前进程A加入等待队列

      6)libfuse下创建的后台进程读取到消息,解析操作数为FUSE_CREATE,对应到fuse_lib_create,即low level层接口。

      7)fuse_lib_create中调用ZFUSE的上层接口zfuse.create,由ZFUSE来实现创建操作

      8)完成创建后,通过libfuse中的fuse_reply_create向管道发送完成消息从而唤醒之前加入等待队列的进程A

      9)进程A得到创建成功的消息,系统调用结束,/mnt/fuse/my.log文件创建成功

      【ceph】什么是NFS-Ganesha和fuse

       

       

       

      内核:
      它包含一个内核模块,hook了相关的操作在VFS代码里面。 

      【ceph】什么是NFS-Ganesha和fuse

      它提供了一套API和内核通信的接口,允许用户态的进程来调用。
      它能响应来自系统调用的文件操作的请求,然后通过设备接口转发这些请求到自己定义的协议函数,再将响应结果返回给客户端,装配正内核成识别结构。
      用户态:
      它提供了一个库来管理与内核模块的交互
      提供了一套用户态API,如: open(), read(), write(), rename(), symlink() 等来处理来自内核的请求
      用户组件:
      填充fuse_operations 结构的组件,把协议的操作码映射到对应的处理方法

      【ceph】什么是NFS-Ganesha和fuse

       【ceph】什么是NFS-Ganesha和fuse

      摘抄或节选自:NFS-Ganesha_liqingbing12的专栏-CSDN博客_nfs-ganesha

      对接FUSE——由于NFS Ganesha是一个运行在用户空间的程序,因此它还提供了对一些用户空间文件系统(FUSE)的支持,可以让我们直接把FUSE挂载在NFS上而不需要内核的帮助。

      【ceph】什么是NFS-Ganesha和fuse

      【ceph】什么是NFS-Ganesha和fuse
      原图

       

      【ceph】什么是NFS-Ganesha和fuse

      【ceph】什么是NFS-Ganesha和fuse
      原图

       

       

        【ceph】什么是NFS-Ganesha和fuse

       

      5、 nfs-ganesha and CephFS

      nfs-ganesha模块化的体系结构,实现复杂,维护简单:
      ● RPC layer:

      – uses libntirpc

      ● Filesystem Abstraction layer (FSAL)

      – Provides API for exported namespace

      ● Metadata cache (MDCACHE)

      – Chunked dirent cache (version 2.6)

      ● Dbus Interface

      – System management and communication

      ● Log Management– Support for internal logging
      ————————————————

      三、详细说明

      NFSv4 简要概述

      NFS 这个协议( NFSv2 )最初由 Sun Microsystems 在 1984 年设计提出,由于存在一些不足,因此在随后由几家公司联合推出了 NFSv3。到了 NFSv4 时,开发完全由 IETF 主导,设计目标是:

      – 提高互联下的 NFS 访问和性能
      – 提供安全性
      – 更强的跨平台操作
      – 方便后期扩展

      我们可以看到 NFSv4 在缓存能力、扩展性、高可用性方面取得了很大的突破,放弃了之前版本的无状态性,采用了强状态机制,客户端和服务端采用了复杂的方式交互,由此保证了服务器端的负载均衡,减少了客户端或服务端的 RTO。

      在安全性方面,NFSv4 采用了面向连接的协议,强制使用 RPCSEC_GSS 并且提供基于 RPC 的安全机制。放弃了之前版本中采用的 UDP,采用了 TCP。NFSv4 支持通过次要版本进行扩展,我们可以看到在 NFSv4.1 支持了 RDMA、pNFS 范式以及目录委派等功能。

      NFS-Ganesha 的四大优势

      2007 年左右,CEA 的大型计算机中心每天都会产生 10TB 左右的新数据,CEA 将这些数据放在由 HSM 组成的 HPSS 中,而这些 HSM 本身提供了 NFS 接口。但是开发者在生产环境中发现 HSM 和 NFS 的桥接仍旧有不少问题,因此开发者决心写一个新的 NFS Daemon 来让 NFS 接口更好的配合 HPSS。

      这个项目需要解决以上的问题之外,开发团队还指定了其他目标:

      – 可以管理百万级别的数据缓存,从而来避免底层文件系统阻塞
      – 除了可以对接 HPSS 以外,还可以对接其他文件系统
      – 支持 NFSv4,实现易适配( adaptability ),易扩展,安全等特性
      – 从根本上解决软件所带来的性能瓶颈
      – 开源
      – 支持 Unix 系统

      由此 NFS-Ganesha 应运而生,它并不是用来替代内核版本的 NFSv4,相反,NFS Ganesha 是一个全新的程序,可能对比 kernel 版本的 NFSv4,Ganesha 的性能有所欠缺,但是基于 user-space 的方法会带来更多有意思的功能。

      1.灵活的内存分配

      首先,user-space 的程序可以分配大量的内存让程序使用,这些内存可以用来建立软件内部缓存,经过测试,我们只需要 4GB 就可以实现百万级别的数据缓存。在一些 x86_64 平台的机器上,我们甚至可以分配更大的内存(16 32GB),来实现千万级别的数据缓存。

      2.更强的可移植性

      如果 NFS Ganesha 是 kernel-space 的话,那样 NFS Ganesha 的内部结构只能适应一款特定的 OS,而很难移植到别的 OS 上。另外考虑的是代码本身:在不同的平台上编译和运行的产品比在一个单一平台上开发的产品更安全。 我们开发人员的经验表明,只在单一平台上开发会让开发后期困难重重;它通常会显示在 Linux 上不会轻易检测到的错误,因为资源不一样。

      当然可移植性不单单指让 NFS Ganesha 可以运行在不同的 OS 上,能够适配不同的文件系统也是考量之一。在 NFSv2 和 NFSv3 中,由于语义设计上偏向 Unix 类的文件系统,因此基本不可能适配非 Unix 类的文件系统。这一情况在 NFSv4 中大有改观,NFSv4 的语义设计出发点是让 NFS 能尽可能多地适配不同的文件系统,因此加强了文件/目录属性参数的抽象。

      Ganesha 设计初衷是成为一个 NFSv4 通用服务器,可以实现 NFSv4 的所有功能,因此也需要适配各种文件系统。在内核中实现这一功能是不容易的(内核编程会有很多限制),然而在 user-space 中实现这一点会便捷一些。

      3.更便捷的访问机制

      内核中的 NFSv4 访问用户空间中的服务不是那么方便,因此其引入了 rpc_pipefs 机制, 用于解决用户空间服务的桥梁,并且使用 kerberos5 管理安全性或 idmapd 守护程序来进行用户名转换。然而 Ganesha 不需要这些,它使用常规 API 来对外提供服务。

      4.对接FUSE

      由于 NFS Ganesha 是一个运行在用户空间的程序,因此它还提供了对一些用户空间文件系统( FUSE )的支持,可以让我们直接把 FUSE 挂载在 NFS 上而不需要内核的帮助。

      NFS-Ganesha 框架浅析

      【ceph】什么是NFS-Ganesha和fuse

      Figure 1 – NFS Ganesha 分层架构图

      由上图我们可以看到,Ganesha 是一个基于模块的程序,每个模块都负责各自的任务和目标。开发团队在写代码之前就对每个模块进行了精心的设计,保证了后期扩展的便捷性。比如缓存管理模块只负责管理缓存,任何在缓存管理模块上做出的更改不能影响其他模块。这么做大大减少了每个模块间的耦合,虽然开发初期显得困难重重,但在中后期就方便了很多,每个模块可以独立交给不同开发人员来进行开发、验证和测试。

      Ganesha 的核心模块

      – Memory Manager: 负责 Ganesha 的内存管理。
      – RPCSEC_GSS:负责使用 RPCSEC_GSS 的数据传输,通常使用 krb5, SPKM3 或 LIPKEY 来管理安全。
      – NFS 协议模块:负责 NFS 消息结构的管理
      – Metadata(Inode) Cache: 负责元数据缓存管理
      – File Content Cache:负责数据缓存管理
      – File System Abstraction Layer( FSAL ): 非常重要的模块,通过一个接口来完成对命名空间的访问。所访问的对象随后会放置在 inode cache 和 file content cache 中。
      – Hash Tables:提供了基于红黑树的哈希表,这个模块在 Ganesha 里用到很多。

      内存管理

      内存管理是开发 Ganesha 时比较大的问题,因为大多数 Ganesha 架构中的所有模块都必须执行动态内存分配。 例如,管理 NFS 请求的线程可能需要分配用于存储所请求结果的缓冲器。 如果使用常规的 LibC malloc / free 调用,则存在内存碎片的风险,因为某些模块将分配大的缓冲区,而其他模块将使用较小的缓冲区。 这可能导致程序使用的部分内存被交换到磁盘,性能会迅速下降的情况。

      因此 Ganesha 有一个自己的内存管理器,来给各个线程分配需要的内存。内存管理器使用了Buddy Malloc algorithm,和内核使用的内存分配是一样的。内存分配器中调用了 madvise 来管束 Linux 内存管理器不要移动相关页。其会向 Linux 申请一大块内存来保持高性能表现。

      线程管理

      管理 CPU 相比较内存会简单一些。Ganesha 使用了大量的线程,可能在同一时间会有几十个线程在并行工作。开发团队在这里用到了很多 POSIX 调用来管理线程,让 Linux 调度进程单独处理每一个线程,使得负载可以覆盖到所有的 CPU。

      开发团队也考虑了死锁情况,虽然引入互斥锁可以用来防止资源访问冲突,但是如果大量线程因此陷入死锁状态,会大大降低性能。因此开发团队采用了读写锁,但是由于读写锁可能因系统而异,因此又开发了一个库来完成读写锁的转换。

      当一个线程池中同时存在太多线程时,这个线程池会成为性能瓶颈。为了解决这个问题, Ganesha 给每一个线程分配了单独的资源,这样也要求每个线程自己处理垃圾回收,并且定期重新组合它的资源。同时 ”dispatcher thread” 提供了一些机制来防止太多线程在同一时间执行垃圾回收;在缓存层中垃圾回收被分成好几个步骤,每个步骤由单独代理处理。经过生产环境实测,这种设计时得当的。

      哈希表

      关联寻找功能在 Ganesha 被大量使用,比如我们想通过对象的父节点和名称来寻找对象元数据等类似行为是很经常的,因此为了保证 Ganesha 整体的高性能,关联寻找功能必须非常高效。

      为了达到这个目的,开发团队采用了红黑树,它会在 add/update 操作后自动冲平衡。由于单棵红黑树会引发进程调用冲突(多个进程同时 add/update,引发同时重平衡),如果加读写锁在红黑树上,又会引发性能瓶颈。因此开发团队设计了红黑树数组来解决了这个问题,降低了两个线程同时访问一个红黑树的概率,从而避免了访问冲突。

      大型多线程守护程序

      运行 Ganesha 需要很多线程同时工作,因此设计一个大型的线程守护程序在设计之初尤为重要,线程分为以下不同类型:

      • dispatcher thread: 用于监听和分发传入的 NFS、MOUNT 请求。它会选择处于最空闲的 worker 线程然后将请求添加到这个 worker 线程的待处理列表中。这个线程会保留最近 10 分钟内的请求答复,如果在 10 分钟内收到相同指令(存在哈希表并用 RPC Xid4 值寻址),则会返回以前的请求回复。
      • worker thread: Ganesha 中的核心线程,也是使用最多的线程。worker 线程等待 dispatcher 的调度,收到请求后先对其进行解码,然后通过调用 inode cache API 和 file content API 来完成请求操作。
      • statistics thread: 收集每个 module 中的线程统计信息,并定期用 CSV 格式记录数据,以便于进一步处理。
      • admin gateway: 用于远程管理操作,包括清楚缓存,同步数据到 FSAL 存储端,关闭进程等。ganeshaadmin 这个程序专门用于与 admin gateway 线程交互。

      缓存处理

      在上文中提到,Ganesha 使用了大片内存用于建立元数据和数据缓存。我们先从元数据缓存开始讲起。metadata cache 存放在 Cache Inode Layer( MDCache Layer )层 。每个实例对应一个命名空间中的实例(文件,符号链接,目录)。这些 Cache Inode Layer 中的实例对应一个 FSAL 中的对象,把从 FSAL 中读取到的对象结构映射在内存中。

      Cache Inode Layer 将元数据与对应 FSAL 对象 handle 放入哈希表中,用来关联条目。初版的 Ganesha 采用 ’write through’ 缓存策略来做元数据缓存。实例的属性会在一定的时间(可定义)后过期,过期后该实例将会在内存中删除。每个线程有一个 LRU(Least Recently Used) 列表,每个缓存实例只能存在于 1 个线程的 LRU 中,如果某个线程获得了某个实例,将会要求原线程在 LRU 列表中释放对应条目。

      每个线程需要自己负责垃圾回收,当垃圾回收开始时,线程将从 LRU 列表上最旧的条目开始执行。 然后使用特定的垃圾策略来决定是否保存或清除条目。由于元数据缓存应该非常大(高达数百万条目),因此占满分配内存的 90%(高位)之前不会发生垃圾回收。 Ganesha 尽可能多得将 FSAL 对象放入缓存的‘树型拓扑’中,其中节点代表目录,叶子可代表文件和符号链接;叶子的垃圾回收要早于节点,当节点中没有叶子时才会做垃圾回收。

      File Content Cache 数据缓存并不是独立于与 Inode Cache,一个对象的元数据缓存和数据缓存会一一对应(数据缓存是元数据缓存的‘子缓存’),从而避免了缓存不统一的情况。文件内容会被缓存至本地文件系统的专用目录中,一个数据缓存实例会对应 2 个文件:索引文件和数据文件。数据文件等同于被缓存的文件。索引文件中包含了元数据信息,其中包含了对重要的 FSAL handle。索引文件主要用于重建数据缓存,当服务器端崩溃后没有干净地清掉缓存时,FSAL handle 会读取索引文件中的信息来重建元数据缓存,并将其指向数据文件,用以重建数据缓存实例。

      当缓存不足时,worker thread 会查看 LRU 列表中很久未被打开的实例,然后开始做元数据缓存回收。当元数据缓存回收开始时,数据缓存的垃圾回收也会同时进行:在回收文件缓存实例时,元数据缓存会问询数据缓存是否认识该文件实例,如果不认识则代表该数据缓存已经无效,则元数据回收正常进行,并完成实例缓存回收;如果认识,对应的文件缓存以及数据缓存均会被回收,随后对应的元数据缓存也会被回收。这样保证了一个数据缓存有效的实例不会被回收。

      这种方式很符合 Ganesha 的架构设计:worker 线程可以同时管理元数据缓存和数据缓存,两者一直保持一致。Ganesha 在小文件的数据缓存上采用 ’write back’ 策略,如果文件很大的话则会直接读取,而不经过缓存;可以改进的地方是可以把大文件分割成部分放入缓存中,提高读写效率。

      FSAL(File System Abstraction Layer)

      FSAL 是相当重要的模块。FSAL 本身给 Inode Cache 和 File Content Cache 提供了通用接口,收到请求后会调用具体的 FSAL(FSAL_SNMP, FSAL_RGW 等)。FSAL 中的对象对应一个 FSAL handle。由于 FSAL 的语义设计与 NFSv4 很相似,因此开发和可以自己编写新的 FSAL API 来适配 Ganesha。Ganehsa 软件包还提供了 FSAL 源代码模板。

      NFS Ganesha 对接 Ceph RGW 实例

      介绍了许多 NFS Ganesha 的内部构造,这边通过一个 NFS Ganesha 对接 Ceph RGW 的例子来阐述一下代码 IO:

      【ceph】什么是NFS-Ganesha和fuse

      Figure 2 – NFS Ganesha workflow

      以 open( ) 为例来,如上图所示。首先用户或者应用程序开始调用文件操作,经过系统调用 sys_open( ),到达虚拟文件系统层 vfs_open( ),然后交给 NFS 文件系统 nfs_open( )来处理。NFS 文件系统无法操作存储介质,它调用 NFS 客户端函数 nfs3_proc_open( ) 进行通信,把文件操作转发到 NFS Ganesha 服务器。

      Ganesha 中监听客户端请求的是 Dispatcher 这个进程:其中的 nfs_rpc_get_funcdesc( ) 函数通过调用 svc_getargs( )来读取 xprt(rpc 通信句柄)中的数据,从而得到用户的具体请求,然后将这些信息注入到 reqdata 这个变量中。随后 Dispatcher 这个线程会把用户请求- reqdata 插入到请求队列中,等待处理。

      Ganesha 会选择一个最空闲的 worker thread来处理请求:通过调用 nfs_rpc_dequeue_req( )将一个请求从等待队列中取出,随后调用 nfs_rpc_execute( ) 函数处理请求。Ganesha 内部自建了一个请求/回复缓存,nfs_dupreq_start( ) 函数会在哈希表中寻找是否有一样的请求,如果找到,则寻找到对应回复,然后调用 svc_sendreply( ) 将回复发送给客户端,从而完成一个请求的处理。

      如果 Ganesha 没有在哈希表中找到一样的请求,nfs_dupreq_start( ) 这个函数会在缓存中新建一个请求,随后调用 service_function( ),也就是 nfs_open( )。FSAL (filesystem abstract layer) 收到 nfs_open( ) 调用请求后,会调用 fsal_open2( ) 函数。

      由于我们已经在初始化阶段,在 ganesha.conf 指定了FSAL为 RGW,并且在 FSAL/FSAL_RGW/handle.c 文件下我们已经重定向了 FSAL 的操作函数,因此 fsal_open2( ) 实际会调用 rgw_fsal_open2( ),通过使用 librgw 来进行具体操作。请求完成后,回复会插入到对应哈希表中,与请求建立映射,随后回复通过 svc_sendreply( ) 发送给客户端。由此完成了 sys_open( ) 这个函数的调用。

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/bandaoyu/article/details/122302684,作者:bandaoyu,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:【同步】文件同步rsync |自动同步软件FreeFileSync

      下一篇:【C++二分查找 前缀和】2333. 最小差值平方和|2011

      相关文章

      2025-05-16 09:15:17

      Linux系统基础-多线程超详细讲解(5)_单例模式与线程池

      Linux系统基础-多线程超详细讲解(5)_单例模式与线程池

      2025-05-16 09:15:17
      单例 , 线程 , 队列
      2025-05-14 10:07:38

      超级好用的C++实用库之互斥锁

      互斥锁是一种用于多线程编程的同步机制,其主要目的是确保在并发执行环境中,同一时间内只有一个线程能够访问和修改共享资源。

      2025-05-14 10:07:38
      CHP , Lock , 互斥 , 线程 , 释放 , 锁定
      2025-05-14 10:03:13

      超级好用的C++实用库之线程基类

      在C++中,线程是操作系统能够进行运算调度的最小单位。一个进程可以包含多个线程,这些线程共享进程的资源,比如:内存空间和系统资源,但它们有自己的指令指针、堆栈和局部变量等。

      2025-05-14 10:03:13
      Linux , void , Windows , 函数 , 操作系统 , 线程
      2025-05-14 10:03:13

      【Mybatis】-防止SQL注入

      【Mybatis】-防止SQL注入

      2025-05-14 10:03:13
      SQL , 执行 , 日志 , 注入 , 缓存 , 编译 , 语句
      2025-05-14 10:02:48

      互斥锁解决redis缓存击穿

      在高并发系统中,Redis 缓存是一种常见的性能优化方式。然而,缓存击穿问题也伴随着高并发访问而来。

      2025-05-14 10:02:48
      Redis , 互斥 , 数据库 , 线程 , 缓存 , 请求
      2025-05-14 09:51:15

      java怎么对线程池做监控

      对Java线程池进行监控是确保系统性能和稳定性的重要部分。监控线程池可以帮助我们了解线程池的状态,如当前活跃线程数、任务队列长度、已完成任务数等。

      2025-05-14 09:51:15
      Java , 方法 , 监控 , 示例 , 线程 , 队列
      2025-05-13 09:50:28

      分隔链表-146. LRU 缓存

      给你一个链表的头节点 head 和一个特定值 x ,请你对链表进行分隔,使得所有 小于 x 的节点都出现在 大于或等于 x 的节点之前。

      2025-05-13 09:50:28
      int , key , LinkedHashMap , 缓存 , 节点 , 链表
      2025-05-12 08:43:47

      LRU 缓存

      请你设计并实现一个满足  LRU (最近最少使用) 缓存 约束的数据结构。

      2025-05-12 08:43:47
      int , key , lt , 关键字 , 缓存
      2025-05-12 08:40:18

      如何向线程传递参数

      如何向线程传递参数

      2025-05-12 08:40:18
      传递 , 参数 , 封装 , 开启 , 线程
      2025-05-09 08:51:21

      notify和notifyall的区别

      notify和notifyall的区别

      2025-05-09 08:51:21
      notify , synchronized , 方法 , 线程 , 调用 , 释放
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5238189

      查看更多

      最新文章

      Linux系统基础-多线程超详细讲解(5)_单例模式与线程池

      2025-05-16 09:15:17

      超级好用的C++实用库之互斥锁

      2025-05-14 10:07:38

      超级好用的C++实用库之线程基类

      2025-05-14 10:03:13

      互斥锁解决redis缓存击穿

      2025-05-14 10:02:48

      java怎么对线程池做监控

      2025-05-14 09:51:15

      如何向线程传递参数

      2025-05-12 08:40:18

      查看更多

      热门文章

      Java线程同步synchronized wait notifyAll

      2023-04-18 14:15:05

      操作系统中的线程种类

      2023-04-24 11:27:18

      Android Priority Job Queue (Job Manager):线程任务的容错重启机制(二)

      2024-09-25 10:13:46

      Android Priority Job Queue (Job Manager):多重不同Job并发执行并在前台获得返回结果(四)

      2023-04-13 09:54:33

      实现远程线程DLL注入

      2023-05-04 08:57:15

      【Java并发编程】之十:使用wait/notify/notifyAll实现线程间通信的几点重要说明

      2023-04-24 11:25:19

      查看更多

      热门标签

      java Java python 编程开发 代码 开发语言 算法 线程 Python html 数组 C++ 元素 javascript c++
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Springboot项目的行为验证码AJ-Captcha(源码解读)

      SpringBoot多线程进行异步请求的处理

      JVM笔记--如果你写JVM,最需要考虑的重要结构是什么?

      go 语言中的并发特性

      spring源码分析之循环依赖

      多线程—事件Event

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号