云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼建站_相关内容
      • 产品功能
        混合云一体机集成天翼云平台,提供计算、存储、网络、监控、管理等全栈云服务。 计算 弹性云主机:由CPU、内存、镜像、云硬盘组成,是一种可随时获取、即开即用、可弹性扩展的计算服务器。一体机支持创建通用型、计算增强型、内存优化型多种云主机类型,同时支持云主机组、云主机快照等功能。 GPU云主机:结合了GPU计算力与CPU计算力,满足客户在人工智能、高性能计算、专业图形图像处理等场景中的需求。一体机通过扩展GPU服务器的方式支持GPU云主机,GPU云主机支持虚拟化、直通技术。 标准裸金属:具有物理资源独享、高性能的特点,适合部署核心数据库等关键系统。一体机通过虚拟裸金属网关实现对物理服务器的统一纳管。 镜像服务:是弹性云主机实例可选择的运行环境模板,一般包括操作系统和预装软件。云镜像服务包括公共镜像、私有镜像及共享镜像。 弹性伸缩服务:通过策略自动调整计算资源的管理服务。用户通过管理控制台设定弹性伸缩组策略,弹性伸缩服务将根据预设规则自动调整伸缩组内的云主机数量,降低人为反复调整资源以应对业务变化和高峰压力的工作量,帮助用户节约资源和人力成本。 存储 云硬盘:基于分布式架构的、可弹性扩展的数据块级存储设备。可为云主机提供系统盘和数据盘,满足文件系统、数据库或者其他应用等的存储。 云硬盘备份:针对云主机的系统盘、数据盘提供的备份服务。用户可对存储重要数据的磁盘进行备份,并在云主机磁盘故障、用户误删数据、遭到黑客攻击等情况下将备份数据快速恢复到源盘,有效保证用户数据的安全性。 云主机备份:支持多云硬盘一致性快照技术的备份服务,支持利用备份数据恢复弹性云主机数据,提供数据备份和操作恢复的整体方案,具备实时增量备份、快速数据恢复能力,有效保障用户数据的安全性和正确性,确保业务安全。 文件存储:提供按需扩展的高性能文件存储,可为多个弹性云主机、标准裸金属提供共享访问,具备高可用性和高数据持久性。 对象存储:存储非结构化数据(图片、音视频、文本等格式文件),根据客户需求空间确定存储容量。 网络 扁平网络:可与物理机网络直通,也可通过物理网络设置网关和路由直接访问互联网的网络。 虚拟私有云:为云主机等云上资源提供可配置、可管理的虚拟网络环境,不同虚拟私有云之间二层逻辑隔离。 弹性IP:将弹性IP地址和子网中关联的弹性云主机绑定和解绑,可以实现VPC中的弹性云主机通过固定的公网IP地址与互联网互通。 负载均衡:通过将访问流量自动分发到多台云主机,扩展对外的服务能力,解决大量并发访问服务器的问题,实现更高水平的应用程序容错性能。 对等连接:是指两个VPC之间的网络连接。用户可以使用私有IP地址在两个VPC之间进行通信,就像两个VPC在同一个网络中一样。用户可以在自己租户的VPC之间创建对等连接,也可以在自己租户的VPC与其他租户的VPC之间创建对等连接。 安全组:是云主机级别的流量防护规则,默认安全组default放通全部协议全部端口的流出。 ACL:是一个子网级别的流量防护规则,用户可以自定义设置网络ACL规则,并将网络ACL与子网绑定,实现对子网中云主机实例流量的访问控制。通过与子网关联的出方向/入方向规则控制出入子网的流量数据。 NAT网关:能够为虚拟私有云内的弹性云主机提供网络地址转换服务,使多个弹性云主机可以共享使用弹性IP访问Internet。 VPN连接(选配):基于Internet、通过IPSec加密通道连接用户的企业数据中心和一体机的虚拟私有云(VPC),实现两侧资源的内网互通,帮助用户轻松实现混合云环境的部署。 监控 云主机监控:包括CPU使用率、网络流入流出流量的速率、内存使用率、磁盘分配率、磁盘使用率、磁盘剩余存储量等图表数据。 云硬盘监控:包括磁盘读速率、磁盘读请求速率、磁盘写速率、磁盘写请求速率。 弹性IP监控:包括流入流出带宽、网络流入流出速率。 负载均衡监控:包括入网流量、出网流量、出网带宽、活跃连接数、新建连接数、并发连接数等。 管理 云服务:为用户提供资源创建、管理能力,比如创建云主机、管理VPC等。 运维监控:支持通过拓扑、大屏、仪表盘等形式提供告警、性能监控、日志等基础运维服务。 运营管理:匹配组织架构,提供用户管理、配额管理、角色管理等管理能力。
        来自:
        帮助文档
        混合云一体机
        产品简介
        产品功能
      • 添加租户
        本章节主要介绍翼MapReduce的添加租户操作。 操作场景 根据业务对资源消耗以及隔离的规划与需求,管理员可以通过FusionInsight Manager创建租户,以满足实际使用场景。 前提条件 已根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 已规划当前租户可分配的资源,确保每一级别租户下,直接子租户的资源之和不超过当前租户。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 单击,打开添加租户的配置页面,参见下表为租户配置属性。 租户参数一览 参数名 描述 集群 选择要创建租户的集群。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户资源类型 指定租户是否是一个叶子租户: 选择“叶子租户资源”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户资源”:当前租户为非叶子租户,支持添加子租户。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以租户名称创建任务队列。− 如果是叶子租户,叶子租户可直接提交到任务队列中。− 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 配置模式 计算资源参数配置模式。 选择“基础”时,只需配置“默认资源池容量 (%)”参数即可。 选择“高级”时,可手动配置资源分配权重,租户的最小/最大/预留资源。 默认资源池容量(%) 配置当前租户在默认资源池中使用的计算资源百分比,取值范围0~100%。 权重 资源分配权重,取值范围从0到100。 最小资源 保证租户资源能获得的资源(有抢占支持)。取值可以是父租户资源的百分比或绝对值。当租户资源作业量比较少时,资源会自动借给其他租户资源,当租户资源能使用的资源不满足最小资源时,可以通过抢占来要回之前借出的资源。 最大资源 租户资源最多能使用的资源,租户资源不能得到比最大资源设定更多的资源。取值可以是父租户资源的百分比或绝对值。 预留资源 租户资源预留资源。即使租户资源内没有作业,预留的资源也不能给别的租户资源使用。取值可以是父租户资源的百分比或绝对值。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将分配存储资源。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 取值范围:当存储空间配额单位设置为MB时,范围为1~8796093022208。当存储空间配额单位设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在“/tenant”目录中以租户名称创建文件夹。例如租户“ta1”,默认HDFS存储目录为“/tenant/ta1”。 第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。支持自定义存储路径。 服务 是否需要关联使用其他服务的资源,参见步骤4。 描述 配置当前租户的描述信息。 说明 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“系统 > 权限> 角色”进行手动管理,角色名称为“ 租户名称 集群ID ”。首个集群的集群ID默认不显示。 使用此租户时,请创建一个系统用户,并绑定租户对应的角色。具体操作请参见 创建租户时系统会自动创建一个Yarn任务队列,并自动以租户名称命名该队列。如果已经存在同名队列,新队列命名为“租户名称N”。“N”表示从1开始的自然数,存在同名队列的时候N会自动累加以区别已有队列。例如“saletenant”、“saletenant1”和“saletenant2”。 3. 当前租户是否需要关联使用其他服务的资源? 是,执行步骤4。 否,执行步骤5。 4. 单击“关联服务”,配置当前租户关联使用的其他服务资源。 在“服务”选择“HBase”。 在“关联类型”选择: − “独占”表示该租户独占服务资源,其他租户不能再关联此服务。 − “共享”表示共享服务资源,可与其他租户共享使用此服务资源。 说明 创建租户时,租户可以关联的服务资源只有HBase。为已有的租户关联服务时,可以关联的服务资源包含:HDFS、HBase和Yarn。 若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。 若为已有的租户取消关联服务资源:在租户列表单击目标的租户,切换到“服务关联”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”,再单击“确定”删除与服务资源的关联。 单击“确定”。 5. 单击“确定”,等待界面提示租户创建成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        创建租户
        添加租户
      • 添加租户
        本章节主要介绍翼MapReduce的添加租户操作。 操作场景 根据业务对资源消耗以及隔离的规划与需求,管理员可以通过FusionInsight Manager创建租户,以满足实际使用场景。 前提条件 已根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 已规划当前租户可分配的资源,确保每一级别租户下,直接子租户的资源之和不超过当前租户。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 单击,打开添加租户的配置页面,参见下表为租户配置属性。 租户参数一览 参数名 描述 集群 选择要创建租户的集群。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户资源类型 指定租户是否是一个叶子租户: 选择“叶子租户资源”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户资源”:当前租户为非叶子租户,支持添加子租户。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以租户名称创建任务队列。 − 如果是叶子租户,叶子租户可直接提交到任务队列中。 − 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。 但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 配置模式 计算资源参数配置模式。 选择“基础”时,只需配置“默认资源池容量 (%)”参数即可。 选择“高级”时,可手动配置资源分配权重,租户的最小/最大/预留资源。 默认资源池容量(%) 配置当前租户在默认资源池中使用的计算资源百分比,取值范围0~100%。 权重 资源分配权重,取值范围从0到100。 最小资源 保证租户资源能获得的资源(有抢占支持)。取值可以是父租户资源的百分比或绝对值。当租户资源作业量比较少时,资源会自动借给其他租户资源,当租户资源能使用的资源不满足最小资源时,可以通过抢占来要回之前借出的资源。 最大资源 租户资源最多能使用的资源,租户资源不能得到比最大资源设定更多的资源。取值可以是父租户资源的百分比或绝对值。 预留资源 租户资源预留资源。即使租户资源内没有作业,预留的资源也不能给别的租户资源使用。取值可以是父租户资源的百分比或绝对值。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将分配存储资源。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 取值范围:当存储空间配额单位设置为MB时,范围为1~8796093022208。当存储空间配额单位设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在“/tenant”目录中以租户名称创建文件夹。例如租户“ta1”,默认HDFS存储目录为“/tenant/ta1”。 第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。支持自定义存储路径。 服务 是否需要关联使用其他服务的资源,参见步骤4。 描述 配置当前租户的描述信息。 说明 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“系统 > 权限> 角色”进行手动管理,角色名称为“ 租户名称 集群ID ”。首个集群的集群ID默认不显示。 使用此租户时,请创建一个系统用户,并绑定租户对应的角色。具体操作请参见 创建租户时系统会自动创建一个Yarn任务队列,并自动以租户名称命名该队列。如果已经存在同名队列,新队列命名为“租户名称N”。“N”表示从1开始的自然数,存在同名队列的时候N会自动累加以区别已有队列。例如“saletenant”、“saletenant1”和“saletenant2”。 3. 当前租户是否需要关联使用其他服务的资源? a.是,执行步骤4。 b.否,执行步骤5。 4. 单击“关联服务”,配置当前租户关联使用的其他服务资源。 a.在“服务”选择“HBase”。 b.在“关联类型”选择: − “独占”表示该租户独占服务资源,其他租户不能再关联此服务。 − “共享”表示共享服务资源,可与其他租户共享使用此服务资源。 说明 创建租户时,租户可以关联的服务资源只有HBase。为已有的租户关联服务时,可以关联的服务资源包含:HDFS、HBase和Yarn。 若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。 若为已有的租户取消关联服务资源:在租户列表单击目标的租户,切换到“服务关联”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”,再单击“确定”删除与服务资源的关联。 c.单击“确定”。 5. 单击“确定”,等待界面提示租户创建成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        创建租户
        添加租户
      • 创建文件系统
        海量文件系统是天翼云文件存储的产品之一,本文为您介绍创建文件系统的步骤。 操作场景 文件系统支持挂载至多台云主机、物理机等计算服务,从而实现文件系统的共享访问。本文介绍如何创建文件系统实例,包含包年包月和按量付费两种计费模式。 说明 本服务当前在华东1支持创建按实际使用量付费的文件系统实例,您可以提交工单申请白名单试用,具体参考按实际用量付费计费说明。 前提条件 创建文件系统之前,请确认该地域已创建VPC,具体操作请参考创建VPC、子网搭建私有网络。 文件系统和云主机须归属于相同VPC,才能保证网络互通,实现文件的挂载访问。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>海量文件服务 OceanFS”,进入OceanFS文件系统列表页面。 3. 点击“创建OceanFS实例”,进入创建文件系统页面。 4. 根据界面提示配置参数,参数说明如表所示: 参数 说明 计费方式 支持包年包月和按量付费。预付费用户选择按量计费请保证账户余额超过100元。 地域 从地理位置和网络时延维度划分,同一个地域内共享弹性计算、弹性文件服务、VPC网络、弹性公网IP、镜像等公共服务。 企业项目 选择归属的企业项目,默认为default,只能选择已创建的企业项目。启用企业项目管理功能后可进行企业项目迁移。 可用区 同一地域内,电力和网络互相独立的地理区域。文件系统可被同一地域不同可用区的云主机挂载访问。 名称 系统自动生成名称,支持用户自定义修改,不可重复。文件系统名称只能由数字、“”、字母组成,不能以数字和“”开头、且不能以“”结尾,2~255字符。 存储类型 支持OceanFS容量型。 协议类型 支持CIFS协议、NFS协议。NFS协议仅支持Linux,CIFS协议仅支持Windows。 说明 不同资源池覆盖情况不同,以订购页面实际展示为准。各资源池能力情况可参考产品能力地图。 选择网络 选择虚拟私有云(VPC),若当前地域没有虚拟私有云,点击“创建虚拟私有云”,创建完成后刷新可选择新建的虚拟私有云。 注意 文件系统须与计算服务同属一个VPC,才能挂载成功。 终端节点 默认关闭。开启后,创建开启后本服务将为您创建免费的终端节点(VPCE),自动连接OceanFS文件存储服务。若挂载物理机必须通过终端节点访问OceanFS文件系统,其它计算服务如云主机、容器为非必须。创建VPCE后将返回该VPC专属的挂载地址,通常需要1~3分钟。 注意 为您创建的VPC终端节点(VPCE)为免费服务 ,可以在“网络VPC终端节点”控制台查看到,请务必不要删除或修改“VPCEoceanfs”开头的VPCE,否则可能导致客户端与文件系统断开连接,影响业务进行。 若系统检测到您选用的VPC中已有VPC终端节点,将复用该VPC终端节点。 IP地址类型 选择创建VPC终端节点后需要选择子网。目前仅支持IPv4类型的VPC终端节点,VPC终端节点将占用VPC子网中的一个IP,您可以选择对应的子网,方便进行网络规划。 容量 100GB起步,步长1GB。可以选择按GB或TB 自定义容量。默认单文件系统最大支持1PB,可提交工单申请更大容量,最大可申请至4PB。 说明 单用户默认总配额为500TB,若需要创建500TB以上的文件系统实例,请先提交工单申请提高用户总容量配额。 按量付费是根据订购时配置容量按小时计费,不是按实际使用量计费,开通后即开始计费。华东1可申请白名单试用按实际用量付费的文件系统实例。 购买时长 可选择1个月3年。选择按年订购可享受包年一次性折扣,参考包年包月计费说明。 自动续订,是否启动自动续订。按月购买:自动续订周期为1个月;按年购买:自动续订周期为1年。 数量 同一订单创建相同配置文件系统的数量,受用户配额约束。 同时创建多个实例时,系统将自动在名称末尾增加数字编号后缀进行区分。例如数量为2时,名称为“oceanfs36d8001、oceanfs 36d8002"。 5. 配置完成后,点击“下一步”,进入购买界面,确定相关规格配置,阅读天翼云海量文件服务协议。 6. 确认无误,勾选“我已阅读并同意相关协议”,单击“立即购买”,包年/包月模式下完成支付,即完成文件系统的购买。 7. 返回OceanFS控制台,等待文件系统的状态变为“可用”,表示文件系统创建成功。
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        创建文件系统
      • 网站
        本节主要介绍静态网站托管。 在“存储桶列表”页面点击“属性”>“网站”,进入“网页”页面。在该页面,用户可以配置存储桶(Bucket)的网站托管属性,配置完成后,可以使用已经备案的静态网站域名访问存放在存储桶内的数据。 注意 如果配置静态网站托管后,当匿名用户直接访问Bucket的域名,会将静态网站文件下载到本地。如果要实现访问静态网站时是预览网站内容,而非下载静态网站文件,静态网站域名须是Bucket绑定的已备案自定义域名,为Bucket绑定自定义域名请联系天翼云客服申请。 OOS自有网站托管域名不支持HTTPS访问,用户自定义域名支持HTTPS访问。如果需要支持HTTPS访问,请联系天翼云客服,提供域名证书,证书支持格式:crt+key或者PEM,请确保提供的证书在有效期内,建议证书有效期至少1年及以上,避免使用免费证书。 尽量避免目标Bucket名中带有“.”,否则通过HTTPS访问时可能出现客户端校验证书出错。 网站托管配置步骤如下: 1. 创建一个公共读属性的存储桶(Bucket) 。 2. 向天翼云客服提交工单,申请客户自定义域名添加白名单 。 3. 在域名管理中添加别名 。 如果不使用CDN加速,将Bucket的CNAME Record Value(BucketName.ooswebsitecn.oosxx.ctyunapi.cn)作为别名添加到域名管理系统中。 如果使用CDN加速,将CDN厂商提供的别名添加到域名管理系统中,然后在CDN回源地址中配置OOS侧的CNAME Record Value,并将回源host配置为您的自定义域名(如yourdomain.com)。 说明 创建Bucket时显示的Endpoint为ooscn.ctyunapi.cn,该Endpoint是针对整个对象存储网络的域名,该域名在解析时,会根据用户地理位置的不同解析到不同的资源池地址。如果创建Bucket时有多个数据位置,系统默认选取创建时第一个有效数据位置作为CNAME Record Value(BucketName.ooswebsitecn.oosxx .ctyunapi.cn)。如果创建Bucket时,只有一个数据位置可用,则在Bucket区域中展示的CNAME Record Value为BucketName.ooswebsitecn.ooscn.ctyunapi.cn。所以如果使用静态网站托管,建议您根据Bucket区域属性中的数据位置,选择您想使用的数据位置的CNAME Record Value作为域名管理系统中的别名。例如您创建Bucket时有效数据位置为沈阳、兰州、成都、贵阳,则Bucket中展示的CNAME Record Value为BucketName.ooswebsitecn.ooslnsy.ctyunapi.cn,您可以将BucketName.ooswebsitecn.ooslnsy.ctyunapi.cn作为别名,也可以将兰州、成都或者贵阳为域名的CNAME Record Value作为您的别名。 4. 上传文件 。 将网站的所有文件(html、CSS、js、图片等)上传到之前创建的Bucket中,注意保持文件之间的相对路径。 5. 配置Bucket网站属性。 进入“网站属性”,选择“启用”,进行网站托管配置: 托管模式为配置到当前存储桶: 配置首页:首页指访问网站时跳转到的页面。例如将 配置错误页(可选):错误页指当访问网站时,出现错误跳转到的页面。例如将 重定向规则(可选):可以通过制定重定向规则,将满足条件的请求重定向到指定主机或页面。控制台支持配置JSON格式的重定向规则。可以配置多条重定向规则,每条重定向规则一个Condition和一个Redirect。例如: [ { "Condition": { "HttpErrorCodeReturnedEquals": "string", "KeyPrefixEquals": "string" }, "Redirect": { "HostName": "string", "Protocol": "Protocol", "ReplaceKeyPrefixWith": "string" } } ] 重定向规则描述 项目 描述 :: Condition Condition元素可以不配置,若配置,则包含元素不能为空。 Condition中可包含的元素:KeyPrefixEquals(重定向请求时匹配的文件名前缀)、HttpErrorCodeReturnedEquals(重定向请求时匹配的HTTP错误码)。 当某一元素存在多条值时以最后一条为准。 当KeyPrefixEquals和HttpErrorCodeReturnedEquals存在时,需要同时匹配时才生效。 如果Condition未配置,相当于匹配所有规则。 Redirect Redirect必须配置。Redirect可以为空,可以包含元素。 Redirect中可包含的元素:Protocol(重定向请求时使用的协议,取值http或https)、HostName(重定向请求时使用的站点名)、ReplaceKeyPrefixWith(描述重定向请求时使用的文件名前缀)、ReplaceKeyWith(重定向请求时使用的文件名)。 当某一元素存在多条值时,以最后一条为准。 ReplaceKeyPrefixWith和ReplaceKeyWith不能同时存在。 托管模式为重定向请求:需要设置重定向的存储桶访问域名或者URL,所有到达该存储桶的请求将被重定向到该地址。例如,你将重定向页面配置为www.ctyun.cn,所有到您域名(如
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        存储桶管理
        网站
      • 工信部增加备案短信验证功能通知
        工信部增加全国备案短信验证功能通知 “备案短信核验”问题集锦 根据《工业和信息化部关于开展互联网基础管理专项行动的通知》工信部信管函[2016]485号文件要求,工业和信息化部将对通过 ICP/IP地址/域名信息备案管理系统提交备案申请的主体负责人及网站负责人的手机号码进行短信验证。即:备案信息通过天翼云审核后,天翼云在将备案信息提交管局审核时,备案主体负责人和(或)网站负责人手机号码中,将会收到工信部发出的短信息验证码。需在24小时内完成短信验证,备案申请才能进入省通信管理局的审核程序。 目前适用省份: 根据工信部最新要求,自2020年8月17日起,各省市进行以下类型的备案申请时需通过工信部备案管理系统进行短信核验,详情如下所示。 短信验证平台: 您在备案信息中填写的手机号码收到工信部发出的验证码后,需及时访问《工业和信息化部政务服务平台ICP/IP地址/域名信息备案管理系统》网站(以下简称公共查询网站) 填写证件号码、验证手机号和验证码,完成验证。 验证码发送及短信核验原则: 备案类型 验证逻辑 备注 新增备案 验证主体负责人手机号和网站负责人手机号。 若主体负责人与网站负责人为同一人,只发送一个验证码。 新增网站备案 验证网站负责人手机号码。 若主体信息有变更,则需要验证。 新增接入备案 验证网站负责人手机号码。(注意:该手机号码是通过其他接入商在管局侧备案时所提供的号码) 1、如果您更换了手机号码,需先到原备案接入服务商处变更手机号码,再进行接入备案。 2、如果您的网站为空壳网站(即无接入服务商),无法到原接入服务商处变更手机号码。只能注销备案后,再重新提交新增网站备案。 变更备案信息 验证主体负责人手机号或网站负责人手机号。 1、若变更主体信息,则验证主体负责人手机号码。 2、若变更网站信息,则验证网站负责人手机号码。 3、若同时变更了主体和网站信息,那么主体和网站负责人手机号码均需验证。 注销主体 主体负责人验证。 暂时无需验证。验证开放时间待定。 注销网站 无需验证。 暂时无需验证。验证开放时间待定。 取消接入 无需验证。 暂时无需验证。验证开放时间待定。 验证码有效时长: 验证码 24 小时以内有效。您需在 24 小时内,访问公共查询网站,并输入证件号码、验证手机号和验证码进行验证。 手机号码短信验证通过后,您的备案信息将流转至管局审核。 若 24 小时内,没有进行验证或验证失败,备案信息将会自动退回至接入商(天翼云)。需您重新提交备案申请,再次进入短信验证流程。完成短信验证后,备案申请信息才能递交至省管局审核。 验证码发送号码: 电信、联通、移动用户收到的短信验证码的发送号码为短信验证码的发送号码为12381或10612381。 1. 填写信息:验证码、手机号码、证件号码后六位数,完成图形验证,再单击 提交 。验证通过后,系统提示核验完成。如果您的备案订单中,还有其他需验证的手机号,请继续成。 2. 验证通过后,系统提示核验完成。如果您的备案订单中,还有其他需验证的手机号,请继续完成。 注意: 1、如果您的信息输入错误,或输入的三条信息(证件号码、手机号码、验证码)不匹配,则系统找不到对应的订单。系统提示找不到记录。请核实信息后,重新输入。 2、如果负责人证件号码输错 3 次以后,系统提示短信核验失败。您的备案申请信息将被工信部系统退回。 未收到验证短信,怎么办? 在天翼云将您的备案信息提交管局审核的后,请注意查收工信部发出的验证短信。一般在 5 分钟内即可收到验证短信。若 5 分钟后仍然没有收到验证短信,请检查: 1、您的手机网络信号是否正常。 2、您是否设置了短信拦截或安装了垃圾短信拦截软件。 解决方法: 1、如果因手机网络信号不正常导致无法接收短信,请移到信号好的地方;或访问公共查询网站进行手动重发送验证短信。 2、如果因您设置了垃圾短信拦截,或安装了拦截软件,请关闭拦截。如果无法关闭拦截,建议您将您的 SIM 卡换至其他手机。 3、如果您误删了验证短信,可访问公共查询网站,进行手动重发。 4、如果您 24 小时未完成短信验证,备案系统会自动退回您的备案申请。您需重新提交备案申请。 如何操作手动重发验证码短信? 访问公共查询网站,单击网站页面上“短信核验”按钮。 单击 短信重发 ,进入核验短信重发页面。填写您需验证的手机号码和证件号码后 6 位数,然后单击 提交。 发送成功通知:您的短信已发送成功。
        来自:
        帮助文档
        ICP备案
        法律法规及公告
        公告
        工信部增加备案短信验证功能通知
      • 添加子租户
        本章节主要介绍翼MapReduce的添加子租户操作。 操作场景 根据业务对资源消耗以及隔离的规划与需求,管理员可以通过FusionInsight Manager创建子租户,将当前租户的资源进一步分配以满足实际使用场景。 前提条件 已添加父租户,且属于非叶子租户。 已根据业务需求规划子租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 已规划当前租户可分配的资源,确保每一级别租户下,直接子租户的资源之和不超过当前租户。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,选择父租户节点然后单击,打开添加子租户的配置页面,参见下表为子租户配置属性。 子租户参数一览 参数名 描述 集群 显示上级父租户所在集群。 父租户资源 显示上级父租户的名称。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划子租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户资源类型 指定租户是否是一个叶子租户: 选择“叶子租户资源”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户资源”:当前租户为非叶子租户,支持添加子租户,但租户层级不能超过5层。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以子租户名称创建任务队列。 − 如果是叶子租户,叶子租户可直接提交到任务队列中。 − 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。 但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 配置模式 计算资源参数配置模式。 选择“基础”时,只需配置“默认资源池容量 (%)”参数即可。 选择“高级”时,可手动配置资源分配权重,租户的最小/最大/预留资源。 默认资源池容量(%) 配置当前租户使用的计算资源百分比,基数为父租户的资源总量。 权重 资源分配权重,取值范围从0到100。 最小资源 保证租户资源能获得的资源(有抢占支持)。取值可以是父租户资源的百分比或绝对值。当租户资源作业量比较少时,资源会自动借给其他租户资源,当租户资源能使用的资源不满足最小资源时,可以通过抢占来要回之前借出的资源。 最大资源 租户资源最多能使用的资源,租户资源不能得到比最大资源设定更多的资源。取值可以是父租户资源的百分比或绝对值。 预留资源 租户资源预留资源。即使租户资源内没有作业,预留的资源也不能给别的租户资源使用。取值可以是父租户资源的百分比或绝对值。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将自动在HDFS父租户目录中,以子租户名称创建文件夹。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 当存储空间配额单位设置为MB时,范围为1~8796093022208,当“存储空间配额单位”设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 如果此配额大于父租户的配额,实际存储量不超过父租户配额。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在父租户目录中以子租户名称创建文件夹。例如子租户“ta1s”,父目录为“/tenant/ta1”,系统默认自动配置此参数值为“/tenant/ta1/ta1s”,最终子租户的存储目录为“/tenant/ta1/ta1s”。 支持在父目录中自定义存储路径。 服务 是否需要关联使用其他服务的资源,参见步骤4。 描述 配置当前租户的描述信息 说明 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“系统 > 权限> 角色”进行手动管理,角色名称为“ 租户名称 集群ID ”。首个集群的集群ID默认不显示。 使用此租户时,请创建一个系统用户,并绑定租户对应的角色。具体操作请参见添加用户并绑定租户的角色。 子租户可以将当前租户的资源进一步分配。每一级别父租户下,直接子租户的资源百分比之和不能超过100%。所有一级租户的计算资源百分比之和也不能超过100%。 3. 当前租户是否需要关联使用其他服务的资源? a.是,执行步骤4。 b.否,执行步骤5。 4. 单击“关联服务”,配置当前租户关联使用的其他服务资源。 a.在“服务”选择“HBase”。 b.在“关联类型”选择: − “独占”表示该租户独占服务资源,其他租户不能再关联此服务。 − “共享”表示共享服务资源,可与其他租户共享使用此服务资源。 说明 创建租户时,租户可以关联的服务资源只有HBase。为已有的租户关联服务时,可以关联的服务资源包含:HDFS、HBase和Yarn。 若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。 若为已有的租户取消关联服务资源:在租户列表单击目标的租户,切换到“服务关联”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”,再单击“确定”删除与服务资源的关联。 c.单击“确定”。 5. 单击“确定”,等待界面提示租户创建成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        创建租户
        添加子租户
      • 准备工作
        在部署天翼云TeleDB数据库前,您需要获取许可证文件、完成环境初始化并进行相关的数据库参数配置。 1. 获取许可证文件。 说明 请您联系天翼云商务代表获取许可证文件。 2. 环境初始化。 1. 挂载磁盘,对所有机器规划挂载目录,建议您控制台主机用app目录,实例主机用data目录。 1. 执行如下命令,格式化数据盘。若您使用的磁盘不是新盘需格式化数据盘。若您使用的是新盘则可跳过该步骤。 mkfs.xfs f i attr2 l lazycount1,sectsize4096 b size4096 d sectsize4096 L data /dev/vdb 2. 执行如下命令,创建根目录文件,提供给挂载数据盘使用。 mkdir p /app 3. 执行如下命令,挂载数据盘。 mount /dev/vdb /app 4. 执行如下命令,写入磁盘配置文件,开机自动挂载磁盘。 echo "/dev/vdb /app xfs defaults 0 0" >> /etc/fstab 2. 创建部署使用用户teledb 1. 执行如下命令,创建用户(创建部署的用户是teledb,不是teledbx) groupadd f teledb useradd g teledb teledb 2. 执行如下命令,设置密码。 passwd teledb 说明 由于安装teledbX时会将 当作特殊字符,不被识别,所以设置的密码中不包含 。 3. 初始化系统参数。 su teledb cd /etc/security 在/etc/security/limits.conf文件中最后一部分,添加如下内容。 teledb soft nofile 131072 teledb hard memlock 128849018880 teledb soft memlock 128849018880 teledb soft core 1024000 teledb hard core 1024000 teledb hard nproc unlimited teledb soft nproc unlimited teledb hard nofile 131072 teledb hard stack unlimited teledb soft stack unlimited 4. 执行如下命令。 echo vm.swappiness10 >> /etc/sysctl.conf sysctl w vm.swappiness10 echo vm.minfreekbytes102400 >> /etc/sysctl.conf sysctl w vm.minfreekbytes102400 5. 进入/etc/sudoers文件,添加权限. 在root ALL(ALL)ALL 一行下面添加如下内容。 teledb ALL(ALL) NOPASSWD:ALL 6. 修改挂载目录权限. 执行如下命令,修改成可读写运行权限 sudo chmod 777 /app 执行如下命令,修改/app目录下文件所属用户。 sudo chown R teledb:teledb /app 3. (可选)创建软连接。 执行如下命令创建软连接(安装dcp主机不需要执行该操作, 安装teledb控制台的主机以及teledb实例主机需要执行该操作。) cd /usr/local/bin ln s /usr/sbin/ip ip ln s /usr/sbin/sysctl sysctl ln s /usr/sbin/userdel userdel ln s /usr/sbin/useradd useradd 3. 数据库参数配置 1. DN节点参数配置参考以下参数设置,其中sharedbuffers根据服务器配置调整,建议为服务器总内存的1/4,且上限不超过64GB。 服务器总内存小于512G时,根据情况适当下调以下参数,避免出现OOM。 sharedbuffers 64GB effectivecachesize 128GB workmem 100MB maintenanceworkmem 16GB 以下是512G内存服务器的DN节点参数配置建议: maxconnections 5000 maxpoolsize 6000 commitdelay 20 commitsiblings 10 sharedbuffers 64GB effectivecachesize 128GB workmem 100MB maintenanceworkmem 16GB dynamicsharedmemorytype posix bgwriterdelay 10ms bgwriterlrumaxpages 1000 bgwriterlrumultiplier 10.0 effectiveioconcurrency 200 wallevel replica walbuffers 16MB walwriterdelay 10ms minwalsize 60GB maxwalsize 200GB synchronouscommit local fullpagewrites off fsync off checkpointtimeout 30min checkpointcompletiontarget 0.9 effectivecachesize 128GB updateprocesstitle off trackactivities off autovacuum on autovacuummaxworkers 3 logstatement 'none' maxparallelworkerspergather 0 poolerscalefactor 64 sharedqueues 512 enablematerial off vacuumdelta 300 minfreesize300 mlscheckdatamaskoff 2. CN节点参数配置 参考以下参数设置: maxconnections 5000 maxpoolsize 6000 commitdelay 20 commitsiblings 10 sharedbuffers 6GB effectivecachesize 16GB workmem 100MB maintenanceworkmem 4GB dynamicsharedmemorytype posix bgwriterdelay 10ms bgwriterlrumaxpages 1000 bgwriterlrumultiplier 10.0 effectiveioconcurrency 200 randompagecost 1.1 wallevel replica walbuffers 16MB walwriterdelay 10ms minwalsize 1GB maxwalsize 3GB synchronouscommit off fullpagewrites on fsync on checkpointtimeout 30min checkpointcompletiontarget 0.9 updateprocesstitle off trackactivities off autovacuum on autovacuummaxworkers 2 logstatement 'none' maxparallelworkerspergather 0 poolerscalefactor 64 sharedqueues 512 enablematerial off vacuumdelta 300 persistentdatanodeconnections on logdestination 'stderr' loggingcollector on logdirectory 'log' minfreesize300
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装前准备
        准备工作
      • 备份Kafka元数据
        本章主要介绍翼MapReduce的备份Kafka元数据功能。 操作场景 为了确保Kafka元数据安全,或者系统管理员需要对ZooKeeper进行重大操作(如升级或迁移等)时,需要对Kafka元数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份Kafka任务并备份元数据。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。 操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“Kafka”。 说明 若安装了多个Kafka服务,默认备份所有Kafka服务,可单击“指定服务”指定需要备份的Kafka服务。 7.在“Kafka”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。默认保存目录为“ 数据存放路径 /LocalBackup/”。 选择此参数值,还需要配置“最大备份数”,表示备份目录中可保留的备份文件集数量。 “LocalHDFS”:表示将备份文件保存在当前集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端路径”:填写备份文件在HDFS中保存的目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “目标NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “目的端路径”:填写保存备份数据的OBS目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 说明 MRS 3.1.0及之后版本才支持备份数据到OBS。 8.单击“确定”保存。 9.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备份目录中为每个备份任务创建子目录,目录名为 “备份任务名任务创建时间” ,用于保存数据源的备份文件。备份文件的名称为 版本号数据源任务执行时间.tar.gz 。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份Kafka元数据
      • 备份DBService数据
        本章主要介绍翼MapReduce的备份DBService数据功能。 操作场景 为了确保DBService日常数据安全,或者系统管理员需要对DBService进行重大操作(如升级或迁移等)时,需要对DBService数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份DBService任务并备份数据。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。 操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“DBService”。 说明 若安装了多个DBService服务,默认备份所有DBService服务,可单击“指定服务”指定需要备份的DBService服务。 7.在“DBService”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。 默认保存目录为“ 数据存放路径 /LocalBackup/”,例如“/srv/BigData/LocalBackup”。 选择此参数值,还需要配置“最大备份数”,表示备份目录中可保留的备份文件集数量。 “LocalHDFS”:表示将备份文件保存在当前集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端路径”:填写备份文件在HDFS中保存的目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “目标NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的Yarn队列的名称。需和源集群中已存在且状态正常的队列名称相同。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “目的端路径”:填写保存备份数据的OBS目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 说明 MRS 3.1.0及之后版本才支持备份数据到OBS。 8.单击“确定”保存。 9.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备份目录中为每个备份任务创建子目录,目录名为 “备份任务名任务创建时间” ,用于保存数据源的备份文件。 备份文件的名称为 版本号数据源任务执行时间.tar.gz 。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份DBService数据
      • 备份NameNode数据
        本章主要介绍翼MapReduce的备份NameNode数据功能。 操作场景 为了确保NameNode日常数据安全,或者系统管理员需要对NameNode进行重大操作(如升级或迁移等),需要对NameNode数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份NameNode任务。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。 操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 仅支持“每次都全量备份”。 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“NameNode”。 7.在“NameNode”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。默认保存目录为“ 数据存放路径 /LocalBackup/”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:备集群NameNode的业务平面IP地址。 “目的端路径”:备份文件存放的位置。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “目的端路径”:填写保存备份数据的OBS目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 说明 MRS 3.1.0及之后版本才支持备份数据到OBS。 8.单击“确定”保存。 9.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备份目录中为每个备份任务创建子目录,目录名为 “备份任务名任务创建时间 ”,用于保存数据源的备份文件。 备份文件的名称为“ 版本号数据源任务执行时间 .tar.gz”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份NameNode数据
      • 使用限制
        本文介绍了数据管理服务在使用上的限制情况。 数据管理服务在使用过程中存在一些限制,目前正在持续迭代,以增加对多种数据库来源、更多数据库类型的支持,满足更多用户的需求。 以下是对这些限制的详细说明。 数据库来源 目前,数据管理服务主要支持公网/直连数据库、天翼云数据库、AOne环境数据库等数据库来源。 说明 当数据来源选择天翼云数据库时,目前DMS仅支持添加管理以下资源池的天翼云数据库:华东1、上海36、西南1、长沙42、华北2、华南2、南昌5、青岛20、南宁23、郑州5、武汉41、太原4、杭州7、西南2贵州、庆阳2、西安7、苏州、广州4、乌鲁木齐7、呼和浩特3、芜湖4、佛山7、香港2、河北张家口IT上云1、印尼1,另外还有ecx郑州4、ecx北碚1、北京行业云20资源池仅限特定用户可见,更多资源池支持正在不断更新中。 数据库类型 数据管理服务目前主要支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle等数据库类型。 浏览器兼容性 数据管理服务兼容的浏览器与版本信息如下:Chrome浏览器(版本号大于90),FireFox浏览器(版本号大于88),Safari浏览器(版本号大于15),Edge浏览器(版本号大于141)。 各类型数据库支持的功能模块 以下是各类型数据库在DMS的功能支持情况。 菜单 功能模块 MySQL PostgreSQL SQL Server DRDS MongoDB DDS ClickHouse Oracle 查询窗口 SQL执行 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 脚本保存 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 格式化 支持 支持 支持 支持 不支持 不支持 支持 支持 查询窗口 执行计划 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 查询窗口 SQL诊断 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 查询窗口 语法帮助 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 查询窗口 智能提示 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 执行历史 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 结果集可视化编辑 支持 支持 支持 支持 支持 支持 不支持 不支持 查询窗口 结果集导出 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 表结构可视化编辑 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 查询窗口 管理员模式 支持 支持 支持 支持 不支持 不支持 不支持 支持 数据导出 整表导出 支持 支持 支持 支持 不支持 不支持 支持 支持 数据导出 SQL导出 支持 支持 支持 支持 支持 支持 支持 支持 数据导出 集合导出 不支持 不支持 不支持 不支持 支持 支持 不支持 不支持 数据导入 CSV导入 支持 支持 支持 支持 支持 支持 支持 支持 数据导入 SQL导入 支持 支持 支持 支持 不支持 不支持 支持 支持 数据导入 TXT导入 支持 支持 支持 支持 不支持 不支持 支持 支持 数据导入 JSON导入 不支持 不支持 不支持 不支持 支持 支持 不支持 不支持 数据导入 EXCEL导入 支持 支持 支持 支持 不支持 不支持 支持 支持 结构对比 结构对比 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 数据对比 数据对比 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 SQL变更 SQL变更 支持 支持 不支持 支持 不支持 不支持 不支持 支持 数据资产 实例管理 支持 支持 支持 支持 不支持 不支持 支持 支持 数据资产 敏感数据保护 支持 支持 不支持 支持 不支持 不支持 不支持 不支持 数据资产 数据权限管理 支持 支持 支持 支持 不支持 不支持 不支持 不支持 智能运维 实例概览 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 实例画像 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 一键诊断 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 会话管理 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 智能运维 SQL限流 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 实时性能 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 诊断报告 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 空间分析 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 锁分析 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 智能运维 性能洞察 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 数据追踪 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 异常管理 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 SQL治理 慢SQL 支持 不支持 不支持 支持 不支持 支持 不支持 不支持 SQL治理 SQL审计 支持 支持 支持 不支持 不支持 支持 不支持 不支持 SQL治理 SQL规范 支持 支持 不支持 支持 不支持 不支持 不支持 支持 SQL治理 SQL风险 支持 支持 不支持 支持 不支持 不支持 不支持 支持 SQL治理 SQL审核 支持 支持 不支持 支持 不支持 不支持 不支持 支持 安全协作 DMS SQL审计 支持 支持 支持 支持 不支持 不支持 不支持 不支持 安全协作 DMS 操作审计 支持 支持 支持 支持 支持 支持 支持 支持 AI智能 SQL生成 支持 支持 支持 支持 不支持 不支持 不支持 不支持 AI智能 SQL纠错 支持 支持 支持 支持 不支持 不支持 不支持 不支持
        来自:
        帮助文档
        数据管理服务
        产品介绍
        使用限制
      • 域名管理概述
        本文介绍域名管理模块所涉及的功能。 概述 通过对域名管理相关的功能模块进行概括性介绍,方便您全面了解当前天翼云全站加速已支持的相关功能以及指引您快速找到对应功能的介绍入口,更快上手。 相关功能 相关管理模块功能简介如下: 功能 说明 []( 客户往往会存在多个域名需要配置,而配置又是相同的情况,这时我们提供批量配置域名的方式可以使客户快速、便捷的接入域名。 []( 介绍全站加速域名管理中的工单,它是用于跟踪和记录由客户操作发起的域名新增及域名配置变更任务的状态和执行结果,方便跟进变更的进度以及追溯变更历史,辅助管理客户业务。 []( 简述什么是标签和标签组,如何创建/删除标签和标签组,如何绑定/解绑标签,如何使用标签管理域名、筛选数据。 []( 简述基础配置所涉及的配置,包含:域名名称、加速类型选定、域名类型选定、加速区域选定、IPv6开关。 []( 简述天翼云全站加速产品回源相关的功能和配置,包括:源站地址、动态回源策略、回源协议、源站端口、回源HOST、回源SNI、回源HTTP请求头、回源HTTP响应头、回源URI改写、回源参数改写、Common name白名单、回源302/301跟随、Range回源、回源请求超时时间、分区域分运营商回源、区分ipv4/ipv6协议回源、指定源站回源HOST、高级回源等功能。 缓存配置 简述缓存配置相关功能,包括:缓存过期时间、状态码过期时间、配置HTTP响应头、错误页面自定义、自定义重定向、缓存key设置、跨域资源共享等。 []( 简述天翼云全站加速产品的HTTPS相关功能及配置方法。包括:HTTPS配置、国密HTTPS、HTTP2.0、强制跳转、OCSP Stapling、HSTS、TLS协议版本、HTTPS无私钥驻留加速方案、批量配置HTTPS证书、支持的SSL/TLS加密套件等。 []( 简述如何配置HTTP响应头,回源HTTP响应头,回源HTTP请求头。 []( 简述如何配置文件压缩、图片处理功能。 []( 简述访问控制策略及配置方法,包括:IP黑/白名单、Referer防盗链、UA黑/白名单、URI黑/白名单、URL鉴权、全网带宽控制、有序回源、单请求限速等策略。 []( 简述html页面优化、html禁止操作等功能。 []( 简述视频拖拉、视频试看、HLS标准加密改写功能。 websocket加速 简述websocket加速方案及配置方法。 []( 简述上传加速方案及配置方法。 []( 简述什么是QUIC协议,天翼云全站加速对QUIC协议的支持情况,以及配置说明。 []( 介绍天翼云全站加速平台高级配置,包括访问URL重定向,错误页面自定义。 []( 云备源服务可帮助客户实现定期将网站内容从主源自动同步至备源,如主源发生宕机,则全站加速可无缝切换至云备源,实现网站业务高可用。 防攻击处理预案说明 天翼云全站加速默认不提供防攻击服务。当某个客户的域名遭受攻击(例如CC攻击),而出现带宽或QPS异常大幅上涨触发平台稳定性红线时,全站系统有权(根据域名业务情况、攻击影响程度等因素综合判断)将对应客户的域名切入专用隔离资源池以隔离异常业务,避免影响其他正常用户的加速服务。在攻击较严重的情况下,同账户下的其他域名也会切入隔离资源池。 []( 介绍高性能网络的适用场景和配置方法。 []( 天翼云全站加速平台支持自动化业务指标监控和告警功能,客户可以依据实际业务监控/告警需要,设置相关的监控与告警规则。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        域名管理概述
      • 备份OMS数据
        本章主要介绍翼MapReduce的备份OMS数据功能。 操作场景 为了确保FusionInsight Manager系统日常数据安全,或者系统管理员需要对Manager进行重大操作(如扩容、减容等)前后,需要对Manager数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 管理员可以通过FusionInsight Manager创建备份Manager任务并备份数据。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。 操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.设置“备份对象”为“OMS”。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 详见下表: 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份说明 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“OMS”。 7.在“OMS”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。 默认保存目录为“ 数据存放路径 /LocalBackup/”,例如“/srv/BigData/LocalBackup”。 选择此参数值,还需要配置“最大备份数”,表示备份目录中可保留的备份文件集数量。 “LocalHDFS”:表示将备份文件保存在当前集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端路径”:填写备份文件在HDFS中保存的目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “备份时使用集群”:填写备份目录对应的集群名称。 “目标NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “源集群”:选择要备份数据使用的Yarn队列所在的集群。 “队列名称”:填写备份任务执行时使用的Yarn队列的名称。需和源集群中已存在且状态正常的队列名称相同。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “目的端路径”:填写保存备份数据的OBS目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 说明 MRS 3.1.0及之后版本才支持备份数据到OBS。 8.单击“确定”保存。 9.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备份目录中为每个备份任务创建子目录,目录名为“ 备份任务名任务创建时间” ,用于保存数据源的备份文件。 备份文件的名称为“ 版本号数据源任务执行时间 .tar.gz”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份OMS数据
      • 域名全站加速最佳实践
        对于首次使用边缘安全加速平台的初次使用者,如果在熟悉各模块之前,又希望快速实现业务接入,一次配置就获得较优的加速效果,可通过参照本实践案例,从服务开通、域名配置、业务验收、CNAME切量等步骤入手,实现一步到位完成业务接入的目的。 背景信息 对于首次使用边缘安全加速平台的初次使用者,如果在熟悉各模块之前,又希望快速实现业务接入,一次配置就获得较优的加速效果,可通过参照本实践案例,从服务开通、域名配置、业务验收、CNAME切量等步骤入手,实现一步到位完成业务接入的目的。 前提说明 本实例,针对加速场景同时有动静态内容,如文字,图片,视频等静态可缓存内容,以及接口类、在线交易类需要实时回源的动态内容的加速。 业务场景 加速域名:ctyun.cn1 加速内容:文字、图片、接口等。 加速区域:仅中国内地,即该网站的用户都集中在中国内地。 业务要求:客户自己提供源站,对传输安全性要求高,因此推荐客户使用https安全传输协议。 操作流程 步骤一 : 在创建域名之前,需要先通过天翼云官网进行注册和实名制认证、开通边缘安全加速平台的安全与加速服务。步骤详见:开通安全与加速服务。 步骤二 :安全与加速服务开通后,就可以通过客户控制台来进行创建域名,点击进入客户控制台。 步骤三 : 在客户控制台的域名管理页面可以添加域名并配置。域名创建成功的标志是,在域名列表中,域名状态为已启动并且可以查到新建域名的CNAME地址。 为获得更优的加速效果,建议如下配置方案: 1. 指定CDN回源请求访问到源站上的具体站点。 源站是域名时,例如,源站为www.ctyun.cn1,回源HOST为www.ctyun.cn,那么实际回源是请求到www.ctyun.cn1解析到的IP: A,对应IP为A主机上的站点www.ctyun.cn。 源站是IP时,例如,源站为1.1.1.1,回源HOST为www.ctyun.cn2,那么实际回源的是1.1.1.1对应主机上的站点www.ctyun.cn2。 2. 开启HTTPS功能,提高数据传输安全。 3. 开启IPv6功能,当您的用户处于IPv6环境时,客户端可以通过IPv6协议访问天翼云全站加速节点。 4. 通过配置静态缓存策略提升静态内容缓存命中率。 5. 通过动态加速配置多种回源策略实现动态内容最优路径提速回源。 如果您的加速域名有多个源站,可以配置合适的回源策略来实现不同的效果。动态回源策略支持择优回源、按权重回源、保持登录三种回源方式;静态回源策略默认轮询回源,无需配置。 择优回源:顾名思义,即根据全站加速节点探测源站的结果,选择最快的源站回源。 按权重回源:根据每个源站配置的不同权重,轮询回源。目前客户控制台上默认所有源站权重相同,如您需要对不同源站配置不同的权重,请提交工单申请。 保持登录:基于客户端IP进行哈希,保证相同客户端IP的多次请求始终访问到相同的源站。 步骤四 : 在客户控制台成功添加加速域名后,为保证DNS解析顺利切换而不影响现有业务,建议先模拟访问进行功能验收,验收无误后,再切换DNS解析。 具体流程如下: 1.获取加速域名CNAME 在天翼云客户控制台的域名管理页面,复制加速域名对应的CNAME记录值。 2.获取CNAME对应的边缘节点IP 通过ping(Windows)或dig(MAC) CNAME记录的方式,如 ping .ctdns.cn获取该CNAME解析出来的天翼云已为您分配的某个节点IP,即为可测试验证功能的线上节点IP。 3.本地HOST绑定边缘节点IP 用户修改本地电脑“C:WindowsSystem32Driversetc”的hosts文件,添加一条记录,如:“IP 加速域名”,让本地电脑访问加速域名时,强制绑定解析到该节点IP,由该节点IP进行服务,从而可以通过本地电脑来验证加速域名对应的相关业务功能和场景;如遇到修改后的host文件无法访问,可参考如下步骤: Hosts文件无法保存解决方法: Hosts文件无法修改可能是因为没有管理员权限所致的,完成以下的设置后,当我们修改了Hosts文件后就可以顺利保存了。 1. 打开“计算机”,依次进入“C:WindowsSystem32Driversetc”(不同系统不同版本下,该文件的位置可能不同,仅供参考),找到hosts文件。 2. 先选择“hosts”文件,打开其“属性”。 3. 切换到“安全”选项卡,点击“高级”。 4. 在“权限”下,点击“更改权限”。 5. 点击“添加”,增添一个新权限。 6. 点击“高级”进入高级设置。 7. 选择“立即查找”,并在下方选择当前的系统账户,点击“确定”将其打开。 8. 将“完全控制”勾上允许,并点击“确定”。 9. 此时弹出一个安全警告窗口,点击“是”即可。 4.验证内容: 成功绑定hosts文件后,您可以打开浏览器,在本地电脑访问加速域名进行连通性测试,测试结果可通过浏览器自带的开发者工具(F12)查看。如果浏览器访问到的IP和您在hosts文件中绑定的IP一致,表示配置正确。如果访问到的IP和您在hosts文件中绑定的IP不一致,表示配置不正确,您需要检查hosts文件中绑定的IP地址是否正确,确保该IP地址是CNAME地址的IP。 在电脑本地成功访问加速域名绑定的IP后,您可以基于自己的测试用例,或者必要的核验步骤,验证相关功能的准确性,如果功能验证不如预期,请提工单联系运维处理。 步骤五 :如果您在步骤四的验证均正常,或者您通过其他方式已完成功能的验收测试,证明配置已经符合切量解析条件。为了实现正式的全站加速,您需要在域名解析服务商处将加速域名的DNS解析记录指向天翼云为您分配的CNAME域名,访问请求才能转发到CDN节点上,实现加速。 配置CNAME的步骤如下: 1.在天翼云客户控制台的域名管理页面,复制加速域名对应的CNAME记录值。 2.前往您的域名解析(DNS)服务商(如万网、阿里云解析、DNSPod、新网、腾讯云解析、route 53、godaddy等),添加该CNAME记录。 3.验证CDN服务是否生效。配置CNAME后,不同的服务商CNAME生效的时间也不同,一般新增的CNAME记录会立即生效,修改的CNAME记录需要较长时间生效。您可以 ping 或 dig 您所添加的加速域名,如果被指向配置的CNAME即表示配置已经生效。
        来自:
        帮助文档
        边缘安全加速平台
        最佳实践
        技术最佳实践
        域名全站加速最佳实践
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 1. 先准备好介质独立部署,为方便快速部署,TelePG从1.5.3版本开始支持独立部署功能。前期准备好介质,部署好zk,部署好mysql,借助TelePG控制台进行部署。 2. 通过集团云翼平台直接订购开通部署。 3. 流复制是 PostgreSQL 9.0 之后提供的新的传递 WAL 日志的方法。通过流复制,备库不断的从主库同步相应的数据,并在备库应用每个 WAL 文件 。主备模式推荐采用同步及潜在同步至少三节点的方式。 4. 暂不支持自动建立database,需用户手动建立database;支持自动建schema,用户可不用手动建立schema。 内存分配 shared buffer pool,共享内存区域:供 PostgreSQL 服务器的所有进程使用。查看 sharedbuffers 参数可以得到其设置值,建议设为内存的四分之一。 WAL buffer,预写日志缓冲区:WAL 数据在写入持久存储之前的缓冲区,实例初始化时自动计算。 commit log,提交日志:所有事务的状态日志,每个事务占用 2bit,最大512MB。 tempbuffers,临时表缓冲区。 workmem,工作内存:执行器在执行 sort、distinct 使用该区域对元组做排序,以及存储 merge join、hash join 多表连接的数据,受最大连接数 maxconnections 参数影响,建议用户 session 级别进行设置,不要全局设置。 maintenanceworkmem,维护内存:某些类型的维护操作使用该区域(如vacuum、reindex)。 注意 按照小系统上云oltp应用保守设置,如果是大数据、数据仓库,需要再此基础按照测试重新优化调整较大参数值。 最大内存估算可参考如下表: 项目 值(MB) 备注 maxconnections 100 默认值为100 workmem 4 默认值为4,最小值64KB tempbuffers 8 默认值为8,最小值800KB sharedbuffers 128 默认值为8,最小值128KB autovacuummaxworkers 3 默认值为3 maintenanceworkmem 64 默认值为64MB,最小值为1MB。 commit log 48 每个事务2bits,autovacuumfreezemaxage,默认为2亿。 maxconnectionsworkmem+maxconnectionstempbuffers+sharedbuffers+(autovacuummaxworkersmaintenanceworkmem)+clog 1568 wal buffers1 autovacuumworkmem1 操作系统配置规范: 关闭CPU 的节能模式。 关闭NUMA。 建议使用UTF8。 设置时间时区,建议主机工程师设置时间同步服务。 关闭其他服务: systemctl stop tuned.service ktune.service systemctl stop firewalld.service systemctl stop postfix.service systemctl stop avahidaemon.socket systemctl stop avahidaemon.service systemctl stop atd.service systemctl stop bluetooth.service systemctl stop wpasupplicant.service systemctl stop accountsdaemon.service systemctl stop atd.service cups.service systemctl stop postfix.service systemctl stop ModemManager.service systemctl stop debugshell.service systemctl stop rtkitdaemon.service systemctl stop rpcbind.service systemctl stop rngd.service systemctl stop upower.service systemctl stop rhsmcertd.service systemctl stop rtkitdaemon.service systemctl stop ModemManager.service systemctl stop mcelog.service systemctl stop colord.service systemctl stop gdm.service systemctl stop libstoragemgmt.service systemctl stop ksmtuned.service systemctl stop brltty.service systemctl stop avahidnsconfd.service 数据库高可用telePG 数据库高可用telePG组件服务器,bios层需要关闭numa,关闭电源保护模式设置CPU为最大性能模式,让其不降频,cat /proc/cpuinfo grep E "model nameMHz"CPU型号、频率一致。 参数类型 配置项 说明 操作系统内核参数配置 sysctl vm.swappiness5 5~10可选,但不可能阻止使用swap空间 操作系统内核参数配置 vm.minfreekbytes1024000 保证系统空闲内存维持在一定水平,同时保障内存管理low和min水位之间有足够间隔 操作系统内核参数配置 fs.aiomaxnr40960000 aiomaxnr no of process per DB no of databases 4096 操作系统内核参数配置 vm.dirtyratio20 vm.dirtybackgroundratio5 vm.dirtywritebackcentisecs100 vm.dirtyexpirecentisecs500 可选,这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存 操作系统内核参数配置 vm.vfscachepressure150 vm.swappiness10 vm.minfreekbytes524288">> /etc/sysctl.d/99sysctl.conf && sysctl system 可选,该参数表示内核回收用于directory和inode cache内存的倾向。缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;降低该值低于100,将导致内核倾向于保留directory和inode cache;增加该值超过100,将导致内核倾向于回收directory和inode cache 操作系统内核参数配置 fs.filemax 76724200 该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量 操作系统内核参数配置 net.core.rmemmax 4194304 最大的TCP数据接收缓冲 操作系统内核参数配置 net.core.wmemmax 2097152 最大的TCP数据发送缓冲 操作系统内核参数配置 net.core.wmemdefault 262144 表示接收套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.core.rmemdefault 262144 表示发送套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.ipv4.tcpsyncookies 1 当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。 操作系统内核参数配置 net.ipv4.tcptwreuse 1 允许将TIMEWAIT sockets重新用于新的TCP连接,默认为0,表示关闭 操作系统内核参数配置 net.ipv4.tcptwrecycle 1 TCP连接中TIMEWAIT sockets的快速回收,默认为0,表示关闭,注意如果是natnat网络,并与net.ipv4.tcptimestamps 1组合使用,则会出现时断时续的情况 操作系统内核参数配置 net.ipv4.tcpfintimeout 30 修改系統默认的TIMEOUT 时间,避免服务器被大量的TIMEWAIT拖死 操作系统内核参数配置 net.ipv4.iplocalportrange 9000 65000 如果连接数本身就很多,可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力,默认值是32768到61000 操作系统内核参数配置 net.ipv4.tcpmaxsynbacklog 8192 SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数 操作系统内核参数配置 net.ipv4.tcpmaxtwbuckets 5000 系统同时保持TIMEWAIT的最大数量,如果超过这个数字,TIMEWAIT将立刻被清除并打印警告信息,默认为180000 操作系统内核参数配置 net.ipv4.conf.all.rpfilter 0 net.ipv4.conf.all.arpfilter 0 net.ipv4.conf.default.rpfilter 0 net.ipv4.conf.default.arpfilter 0 net.ipv4.conf.lo.rpfilter 0 net.ipv4.conf.lo.arpfilter 0 net.ipv4.conf.em1.rpfilter 0 net.ipv4.conf.em1.arpfilter 0 net.ipv4.conf.em2.rpfilter 0 net.ipv4.conf.em2.arpfilter 0 网卡的设置 操作系统内核参数配置 kernel.shmmni 4096 这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是4096 。通常不需要更改kernel.sem 250 32000 100 142 操作系统内核参数配置 kernel.shmall 1073741824 该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值是2097152,可根据kernel.shmmax大小进行调整(kernel.shmmax/41024或者kernel.shmmax/81024) 操作系统内核参数配置 kernel.shmmax 4398046511104 该参数定义了共享内存段的最大尺寸(以字节为单位),此值默认为物理内存的一半 操作系统内核参数配置 kernel.sysrq 0 如无需调试系统排查问题,这个必须为0 telepg的 limits.conf配置 telepg soft nofile1048576 telepg的 limits.conf配置 telepg soft memlock 1 telepg的 limits.conf配置 telepg hard memlock 1 telepg的 limits.conf配置 telepg hard memlock 128849018880 telepg的 limits.conf配置 telepg soft memlock 128849018880 telepg的 limits.conf配置 telepg soft core6291456 telepg的 limits.conf配置 telepg hard core6291456 telepg的 limits.conf配置 telepg hard nproc131072 telepg的 limits.conf配置 telepg soft nproc131072 telepg的 limits.conf配置 telepg hard nofile 1048576 telepg的 limits.conf配置 telepg hard stack 32768 telepg的 limits.conf配置 telepg soft stack 10240 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/enabled 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/defrag 网络连通性 确保组件和集群内的网络联通。 确保与相关联组件的网络连通。 确保防火墙关闭。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.1.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 1. 先准备好介质独立部署,为方便快速部署,TelePG从1.5.3版本开始支持独立部署功能。前期准备好介质,部署好zk,部署好mysql,借助TelePG控制台进行部署。 2. 通过集团云翼平台直接订购开通部署。 3. 流复制是PostgreSQL 9.0 之后提供的新的传递 WAL 日志的方法。通过流复制,备库不断的从主库同步相应的数据,并在备库应用每个 WAL 文件 。主备模式推荐采用同步及潜在同步至少三节点的方式。 4. 暂不支持自动建立database,需用户手动建立database;支持自动建schema,用户可不用手动建立schema。 内存分配 1.shared buffer pool,共享内存区域:供 PostgreSQL 服务器的所有进程使用。查看 sharedbuffers 参数可以得到其设置值,建议设为内存的四分之一。 2.WAL buffer,预写日志缓冲区:WAL 数据在写入持久存储之前的缓冲区,实例初始化时自动计算。 3.commit log,提交日志:所有事务的状态日志,每个事务占用 2bit,最大512MB。 4.tempbuffers,临时表缓冲区。 5.workmem,工作内存:执行器在执行 sort、distinct 使用该区域对元组做排序,以及存储 merge join、hash join 多表连接的数据,受最大连接数 maxconnections 参数影响,建议用户 session 级别进行设置,不要全局设置。 6.maintenanceworkmem,维护内存:某些类型的维护操作使用该区域(如vacuum、reindex)。 注意 按照小系统上云oltp应用保守设置,如果是大数据、数据仓库,需要再此基础按照测试重新优化调整较大参数值。 最大内存估算可参考如下表: 项目 值(MB) 备注 maxconnections 100 默认值为100 workmem 4 默认值为4,最小值64KB tempbuffers 8 默认值为8,最小值800KB sharedbuffers 128 默认值为8,最小值128KB autovacuummaxworkers 3 默认值为3 maintenanceworkmem 64 默认值为64MB,最小值为1MB。 commit log 48 每个事务2bits,autovacuumfreezemaxage,默认为2亿。 maxconnectionsworkmem+maxconnectionstempbuffers+sharedbuffers+(autovacuummaxworkersmaintenanceworkmem)+clog 1568 wal buffers1 autovacuumworkmem1 操作系统配置规范: 关闭 CPU 的节能模式。 关闭 NUMA。 建议使用 UTF8。 设置时间时区,建议主机工程师设置时间同步服务。 关闭其他服务: systemctl stop tuned.service ktune.service systemctl stop firewalld.service systemctl stop postfix.service systemctl stop avahidaemon.socket systemctl stop avahidaemon.service systemctl stop atd.service systemctl stop bluetooth.service systemctl stop wpasupplicant.service systemctl stop accountsdaemon.service systemctl stop atd.service cups.service systemctl stop postfix.service systemctl stop ModemManager.service systemctl stop debugshell.service systemctl stop rtkitdaemon.service systemctl stop rpcbind.service systemctl stop rngd.service systemctl stop upower.service systemctl stop rhsmcertd.service systemctl stop rtkitdaemon.service systemctl stop ModemManager.service systemctl stop mcelog.service systemctl stop colord.service systemctl stop gdm.service systemctl stop libstoragemgmt.service systemctl stop ksmtuned.service systemctl stop brltty.service systemctl stop avahidnsconfd.service 数据库高可用telePG 数据库高可用telePG组件服务器,bios层需要关闭numa,关闭电源保护模式设置CPU为最大性能模式,让其不降频,cat /proc/cpuinfo grep E "model nameMHz"CPU型号、频率一致。 参数类型 配置项 说明 操作系统内核参数配置 sysctl vm.swappiness5 5~10可选,但不可能阻止使用swap空间 操作系统内核参数配置 vm.minfreekbytes1024000 保证系统空闲内存维持在一定水平,同时保障内存管理low和min水位之间有足够间隔 操作系统内核参数配置 fs.aiomaxnr40960000 aiomaxnr no of process per DB no of databases 4096 操作系统内核参数配置 vm.dirtyratio20 vm.dirtybackgroundratio5 vm.dirtywritebackcentisecs100 vm.dirtyexpirecentisecs500 可选,这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存 操作系统内核参数配置 vm.vfscachepressure150 vm.swappiness10 vm.minfreekbytes524288">> /etc/sysctl.d/99sysctl.conf && sysctl system 可选,该参数表示内核回收用于directory和inode cache内存的倾向。缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;降低该值低于100,将导致内核倾向于保留directory和inode cache;增加该值超过100,将导致内核倾向于回收directory和inode cache 操作系统内核参数配置 fs.filemax 76724200 该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量 操作系统内核参数配置 net.core.rmemmax 4194304 最大的TCP数据接收缓冲 操作系统内核参数配置 net.core.wmemmax 2097152 最大的TCP数据发送缓冲 操作系统内核参数配置 net.core.wmemdefault 262144 表示接收套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.core.rmemdefault 262144 表示发送套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.ipv4.tcpsyncookies 1 当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。 操作系统内核参数配置 net.ipv4.tcptwreuse 1 允许将TIMEWAIT sockets重新用于新的TCP连接,默认为0,表示关闭 操作系统内核参数配置 net.ipv4.tcptwrecycle 1 TCP连接中TIMEWAIT sockets的快速回收,默认为0,表示关闭,注意如果是natnat网络,并与net.ipv4.tcptimestamps 1组合使用,则会出现时断时续的情况 操作系统内核参数配置 net.ipv4.tcpfintimeout 30 修改系統默认的TIMEOUT 时间,避免服务器被大量的TIMEWAIT拖死 操作系统内核参数配置 net.ipv4.iplocalportrange 9000 65000 如果连接数本身就很多,可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力,默认值是32768到61000 操作系统内核参数配置 net.ipv4.tcpmaxsynbacklog 8192 SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数 操作系统内核参数配置 net.ipv4.tcpmaxtwbuckets 5000 系统同时保持TIMEWAIT的最大数量,如果超过这个数字,TIMEWAIT将立刻被清除并打印警告信息,默认为180000 操作系统内核参数配置 net.ipv4.conf.all.rpfilter 0 net.ipv4.conf.all.arpfilter 0 net.ipv4.conf.default.rpfilter 0 net.ipv4.conf.default.arpfilter 0 net.ipv4.conf.lo.rpfilter 0 net.ipv4.conf.lo.arpfilter 0 net.ipv4.conf.em1.rpfilter 0 net.ipv4.conf.em1.arpfilter 0 net.ipv4.conf.em2.rpfilter 0 net.ipv4.conf.em2.arpfilter 0 网卡的设置 操作系统内核参数配置 kernel.shmmni 4096 这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是4096 。通常不需要更改kernel.sem 250 32000 100 142 操作系统内核参数配置 kernel.shmall 1073741824 该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值是2097152,可根据kernel.shmmax大小进行调整(kernel.shmmax/41024或者kernel.shmmax/81024) 操作系统内核参数配置 kernel.shmmax 4398046511104 该参数定义了共享内存段的最大尺寸(以字节为单位),此值默认为物理内存的一半 操作系统内核参数配置 kernel.sysrq 0 如无需调试系统排查问题,这个必须为0 telepg的 limits.conf配置 telepg soft nofile1048576 telepg的 limits.conf配置 telepg soft memlock 1 telepg的 limits.conf配置 telepg hard memlock 1 telepg的 limits.conf配置 telepg hard memlock 128849018880 telepg的 limits.conf配置 telepg soft memlock 128849018880 telepg的 limits.conf配置 telepg soft core6291456 telepg的 limits.conf配置 telepg hard core6291456 telepg的 limits.conf配置 telepg hard nproc131072 telepg的 limits.conf配置 telepg soft nproc131072 telepg的 limits.conf配置 telepg hard nofile 1048576 telepg的 limits.conf配置 telepg hard stack 32768 telepg的 limits.conf配置 telepg soft stack 10240 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/enabled 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/defrag 网络连通性 确保组件和集群内的网络联通。 确保与相关联组件的网络连通。 确保防火墙关闭。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 半托管模式迁移任务的创建与管理
        本文为您介绍半托管模式迁移任务的创建与管理。 操作场景 通过对象存储迁移服务的控制台,创建半托管模式的迁移任务,并对半托管模式的迁移任务进行管理操作。 前提条件 您已经创建完成代理,并完成代理的部署,存在至少一个代理为“已连接”状态。 您的源端存在待迁移的数据,您已经在天翼云对象存储ZOS开通Bucket。 请确保您的业务处于空闲阶段或非高峰期,避免迁移执行时影响您的业务。 请确保您的源端数据已经解冻,并在迁移完成前保持解冻状态,避免因源端数据未解冻迁移失败。 创建半托管模式迁移任务 1. 进入“对象存储>对象存储迁移服务>迁移任务 ”控制台,选择“迁移任务列表”分页进入迁移任务列表页面,点击“创建迁移任务 ”。 注意 使用对象存储迁移服务会获取您的AK/SK等认证信息,为确保您一定知情,创建任务时会有使用提示弹窗,需要您阅读并手动勾选服务协议,进行确认。您有权不勾选服务协议,并不使用该服务,请您知悉。 2. 在创建迁移任务的页面,迁移任务模式选择“半托管迁移”,并选择执行任务的代理。填写其他任务相关参数后,点击“下一步:确认任务 ”即可。参数说明如下表: 参数 说明 任务信息 任务名称 输入自定义的任务名称。 说明: 命名规则:必须为大小写字母、数字、横线或下划线,长度在432个字符之间;自定义的任务名称不能与您已存在的任务名称重复。 迁移模式 迁移任务运行模式 选择创建迁移任务的模式,支持全托管模式和半托管模式。 说明: 全托管模式:迁移任务将在服务端执行,适合数据量在10TB以内,或对迁移耗时没有紧急诉求的客户。 半托管模式:迁移任务将运行在客户自己的设备上,客户可通过提供更高的网络带宽和更多的迁移设备,实现更高速的迁移,适合数据量在10TB以上,或对迁移耗时有明确诉求的客户。 注意: 半托管迁移模式依赖您已经部署完成代理,代理设备与迁移服务服务端连通,否则无法创建半托管模式的迁移任务。 迁移模式 选择执行本任务的代理设备 选择执行本任务的代理设备,迁移任务将会下发给指定的代理设备用于执行迁移。 说明: 仅能选择“已连接”状态的代理。 选择源端 源端 选择源端数据的服务提供方。 说明: 目前支持的源端: 支持阿里云(OSS)、华为云(OBS)、腾讯云(COS)迁移至ZOS。 支持天翼云对象存储(ZOS)、天翼云(OOS)迁移至ZOS。 支持AWS(S3)和其他遵循标准S3协议的对象存储服务迁移至ZOS。 选择源端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 注意: 腾讯云COS的Endpoint较为特殊,仅需填写region即可,例如:apbeijing、apshanghai。 选择源端 Access Key 输入您源端的Access Key。 选择源端 Secret Key 输入您源端的Secret Key。 选择源端 存储桶 输入您源端的对象存储桶名称。 选择源端 迁移方式 选择源端数据的迁移方式,支持:指定存储桶、指定文件夹、指定对象、指定前缀。 说明: 指定存储桶 :选择“指定存储桶”时,将会迁移存储桶内的全部对象。 指定文件夹 :选择“指定文件夹”时,将会迁移选中文件夹下的所有对象。仅支持单个文件夹。 指定对象 :选择“指定对象”时,将会迁移选中的对象。最大支持指定100个对象。 指定前缀 :选择“指定前缀”时,将会迁移桶中所有以该前缀开头的对象。仅支持单个前缀。 选择源端 迁移晚于起始时间的对象 选择该选项时,用户可配置“起始时间 ”,任务将仅迁移最后修改时间晚于该“起始时间 ”的对象。 选择源端 迁移早于终止时间的对象 选择该选项时,用户可配置“终止时间 ”,任务将仅迁移最后修改时间早于该“终止时间 ”的对象。 注意: 若您同时设定“起始时间 ”和“终止时间 ”,限制“终止时间 ”需晚于(不包含等于)“起始时间 ”。 选择目的端 目的端 指定为天翼云对象存储ZOS。 选择目的端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 说明: 目的端为ZOS,您可在对象存储ZOS的bucket“概览域名信息”中找到终端节点(Endpoint)信息。 选择目的端 Access Key 输入您目的端的Access Key。 选择目的端 Secret Key 输入您目的端的Secret Key。 选择目的端 存储桶 输入您目的端的对象存储桶名称。 选择目的端 目的端指定前缀 是否在目的端指定前缀: 关闭 目的端指定前缀,则会将源端数据按原有目录结构迁移至目的端存储桶。 开启 目的端指定前缀,可为迁移至目的端的对象(或文件夹)增加指定的前缀,可分为“增加前缀”和“增加前缀目录”。 说明: 增加前缀 :若您输入的前缀不为目录,则为迁移的对象(或文件夹)增加该部分前缀。例如:指定源端桶 bucketA 的文件夹 bucketA/a/folder1 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test,则迁移至目的端后为 bucketB/Testa/folder1 。 增加前缀目录 :若您输入的前缀为目录,则为迁移的对象(或文件夹)增加该部分前缀目录,实现将对象迁移至指定的目录下的效果。例如:指定源端桶bucketA的对象 bucketA/a/fileA.png 和 bucketA/b/fileB.png 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test/,则迁移至目的端后为 bucketB/Test/a/fileA.png 和 bucketB/Test/b/fileB.png 。 选择目的端 存储类型 选择迁移数据在目的端的存储类型,支持:匹配源端、标准存储、低频存储、归档存储。 说明: 匹配源端 :会自动匹配源端存储类型,与源端存储类型保持一致。但仅能自动匹配源端的“标准”和“低频”类型,匹配源端的“归档”或“深度归档”类型,请您务必提前对源端归档数据进行手动解冻,并确保迁移任务完成前数据保持解冻状态,否则该部分数据会迁移失败。 标准存储 :将会存储为标准类型。 低频存储 :将会存储为低频类型。 归档存储 :将会存储为归档类型。 不同地域的对象存储ZOS bucket所支持的存储类型不一致,若您此处选择的存储类型,在您的目的端bucket所在地域并不支持,则迁移会失败。您可参考对象存储ZOS产品能力地图,以便确定您的目的端对不同存储类型的支持情况。 选择目的端 ACL配置 选择迁移数据在目的端的ACL配置,支持:匹配源端、私有、公共读。 说明: 匹配源端 :会自动匹配源端的ACL配置,与源端保持一致。 私有 :会将目的端ACL配置为私有。 公共读 :会将目的端ACL配置为公共读。 高级选项 同名文件是否覆盖 选择迁移的同名文件处理策略,支持:同名文件不覆盖、同名文件全覆盖、按最后修改时间判断。 说明: 不覆盖 :对同名文件,不进行任何判断,一律执行跳过。 全覆盖 :对于同名文件,不进行任何判断,一律执行覆盖。 按最后修改时间 :对于同名文件,优先判断二者的Lastmodified(即最后修改时间),仅当源端文件相较目的端修改时间更新时,进行覆盖。若源端与目的端文件最后修改时间一致,则判断两者的文件大小,大小一致则执行跳过,大小不一致则执行覆盖。 注意: 选择“全覆盖 ”将会覆盖您目的端的同名文件,被覆盖的文件无法被恢复,请您配置时慎重评估是否全覆盖,避免不必要的损失。 注意 创建迁移任务的参数涉及您源端存储数据的相关信息,需要您自行在源端获取,部分信息涉及您的隐私,请注意保密。 3. 在确认任务页面,您可以再次检查填写的任务参数,确定无误后,点击“创建任务 ”,这里需要您进行二次确认,确认后即可创建任务。回到迁移任务列表页面,该任务会在列表中展示。 说明 针对半托管模式的迁移任务,创建任务后,迁移服务依赖您的代理对源端进行连通性检查,存在一定的等待时间,若创建任务失败,任务状态会变为“创建失败 请重新创建任务 ”,您可选择该状态后方的问号图标,鼠标悬停查看创建失败的具体错误信息,以帮助您检查配置参数是否有误。 4. 若迁移任务参数校验均通过,则会自动启动任务并变为“启动中 ”状态,启动成功的任务会变为“排队中 ”状态,排队等待您的代理执行任务,无需您再手动执行任务。 注意 若自动启动任务失败,您的任务会变为“已创建”状态,您依旧可以手动开始该任务。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        如何使用半托管模式进行迁移
        半托管模式迁移任务的创建与管理
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 权限管理
        本节主要介绍云数据库GeminiDB的权限管理。 如果您需要对购买的云数据库 GeminiDB资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制天翼云资源的访问。 通过IAM,您可以在天翼云账号中给员工创建IAM用户,并授权控制他们对天翼云资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有云数据库 GeminiDB的使用权限,但是不希望他们拥有删除云数据库 GeminiDB等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用云数据库 GeminiDB,但是不允许删除云数据库 GeminiDB的权限策略,控制他们对云数据库 GeminiDB资源的使用范围。 如果天翼云账号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用云数据库 GeminiDB服务的其它功能。 IAM是天翼云提供权限管理的基础服务,无需付费即可使用,您只需要为您账号中的资源进行付费。 关于IAM的详细介绍,请参见《IAM产品介绍》。 云数据库 GeminiDB权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 云数据库 GeminiDB部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域(如广州4)对应的项目(cngdgz1)中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问云数据库 GeminiDB时,需要先切换至授权区域。 根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于天翼云各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对ECS服务,管理员能够控制IAM用户仅能对某一类云主机资源进行指定的管理操作。 如表1所示,包括了云数据库 GeminiDB的所有系统权限。 表1 云数据库 GeminiDB系统权限 策略名称/系统角色 描述 类别 依赖关系 GeminiDB FullAccess 云数据库 GeminiDB服务所有权限。 系统策略 创建包周期实例需要配置CBC权限: bss:balance:view bss:balance:update bss:order:view bss:order:pay bss:order:update bss:renewal:view bss:renewal:update 退订包周期实例需要配置CBC权限: bss:unsubscribe:update GeminiDB ReadOnlyAccess 云数据库 GeminiDB服务只读权限。 系统策略 无 表2列出了云数据库 GeminiDB常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表2 常用操作与系统权限的关系 操作 GeminiDB FullAccess GeminiDB ReadOnlyAccess 创建实例 √ x 查询实例列表 √ √ 查询实例详情 √ √ 查询任务列表 √ √ 删除实例 √ x 重启实例 √ x 重置密码 √ x 变更实例安全组 √ x 修改数据库端口 √ x 绑定/解绑公网IP √ x 磁盘扩容 √ x 规格变更 √ x 节点扩容 √ x 节点缩容 √ x 修改备份策略 √ x 重命名实例 √ x 创建手动备份 √ x 查询备份列表 √ √ 恢复到新实例 √ x 删除备份 √ x 创建参数模板 √ x 查询参数模板列表 √ √ 修改参数模板 √ x 删除参数模板 √ x 查询企业项目配额管理列表 √ √ 修改企业项目配额 √ x 切换SSL开关 √ x 停止备份 √ x 表3列出了云数据库 GeminiDB常用操作以及对应的授权项,您可以参照该表自定义配置权限策略。 表3 常用操作与对应的授权项 操作 授权项 授权范围 备注 实例创建页 vpc:vpcs:list vpc:subnets:get vpc:securityGroups:get 支持: IAM项目(Project) 企业项目(Enterprise Project) 创建页需要查询对应的VPC、子网、安全组。 创建实例 nosql:instance:create vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 企业项目(Enterprise Project) 界面使用默认VPC、子网、安全组需对应配置vpc::create权限, 创建加密实例需要在项目上配置KMS Administrator权限。 查询实例列表 nosql:instance:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 查询实例详情 nosql:instance:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 如果实例详情界面需要展示VPC、子网、安全组,请增加vpc::get和vpc::list授权项。 查询任务列表 nosql:task:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 删除实例 nosql:instance:delete 支持: IAM项目(Project) 企业项目(Enterprise Project) 删除实例需要同时删除数据侧IP地址。 重启实例 nosql:instance:restart 支持: IAM项目(Project) 企业项目(Enterprise Project) 重置密码 nosql:instance:modifyPasswd 支持: IAM项目(Project) 企业项目(Enterprise Project) 变更实例安全组 nosql:instance:modifySecurityGroup 支持: IAM项目(Project) 企业项目(Enterprise Project) 修改数据库端口 nosql:instance:modifyPort 支持: IAM项目(Project) 企业项目(Enterprise Project) 绑定公网IP nosql:instance:bindPublicIp 支持: IAM项目(Project) 绑定公网IP时,需要查询已经创建好的公网IP。 不支持企业项目 不支持细粒度 解绑公网IP nosql:instance:unbindPublicIp 支持: IAM项目(Project) 不支持企业项目 不支持细粒度 磁盘扩容 nosql:instance:modifyStorageSize 支持: IAM项目(Project) 企业项目(Enterprise Project) 规格变更 nosql:instance:modifySpecification 支持: IAM项目(Project) 企业项目(Enterprise Project) 节点扩容 nosql:instance:extendNode vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 企业项目(Enterprise Project) 节点缩容 nosql:instance:reduceNode 支持: IAM项目(Project) 企业项目(Enterprise Project) 删除集群节点。 修改备份策略 nosql:instance:modifyBackupPolicy 支持: IAM项目(Project) 企业项目(Enterprise Project) 重命名实例 nosql:instance:rename 支持: IAM项目(Project) 企业项目(Enterprise Project) 创建手动备份 nosql:backup:create 支持: IAM项目(Project) 企业项目(Enterprise Project) 查询备份列表 nosql:backup:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 下载备份文件 nosql:backup:download 支持: IAM项目(Project) 企业项目(Enterprise Project) 恢复到新实例 nosql:backup:restoreToNewInstance vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 企业项目(Enterprise Project) 加密实例需要在项目上配置KMS Administrator权限。 备份恢复到已有实例 nosql:backup:restoreToExistInstance 支持: IAM项目(Project) 企业项目(Enterprise Project) 删除备份 nosql:backup:delete 支持: IAM项目(Project) 企业项目(Enterprise Project) 创建参数模板 nosql:param:create 支持: IAM项目(Project) 企业项目(Enterprise Project) 查询参数模板列表 nosql:param:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 修改参数模板中的参数值 nosql:param:modify 支持: IAM项目(Project) 企业项目(Enterprise Project) 变更实例下节点的参数配置 nosql:instance:modifyParameter 支持: IAM项目(Project) 企业项目(Enterprise Project) 删除参数模板 nosql:param:delete 支持: IAM项目(Project) 企业项目(Enterprise Project) 标签操作 nosql:instance:tag tms:resourceTags:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 标签列表 nosql:tag:list tms:resourceTags:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 查询企业项目配额管理列表 nosql:quota:list 支持: IAM项目(Project) 企业项目(Enterprise Project) 修改企业项目配额 nosql:quota:modify 支持: IAM项目(Project) 企业项目(Enterprise Project) 切换审计日志开关 nosql:instance:switchAuditLog 支持: IAM项目(Project) 企业项目(Enterprise Project) 下载审计日志 nosql:instance:downloadAuditLog 支持: IAM项目(Project) 企业项目(Enterprise Project) 删除审计日志 nosql:instance:deleteAuditLog 支持: IAM项目(Project) 企业项目(Enterprise Project) 更新慢日志明文开关 nosql:instance:modifySlowLogPlaintextSwitch 支持: IAM项目(Project) 企业项目(Enterprise Project) 切换SSL开关 nosql:instance:switchSSL 支持: IAM项目(Project) 企业项目(Enterprise Project) 修改内网IP nosql:instance:modifyPrivateIp 支持: IAM项目(Project) 企业项目(Enterprise Project) 切换主备节点 nosql:instance:switchover 支持: IAM项目(Project) 企业项目(Enterprise Project) 数据库补丁升级 nosql:instance:upgradeDatabaseVersion 支持: IAM项目(Project) 企业项目(Enterprise Project) 停止备份 nosql:backup:stop 支持: IAM项目(Project) 企业项目(Enterprise Project) 查询日志配置组 lts:groups:get 支持: IAM项目(Project) 企业项目(Enterprise Project) 查询日志配置流 lts:topics:get 支持: IAM项目(Project) 企业项目(Enterprise Project)
        来自:
        帮助文档
        云数据库GeminiDB
        产品简介
        权限管理
      • 功能概览
        本文介绍全站加速产品的功能概览。 天翼云全站加速功能如下表所示: 功能分类 功能名称 功能描述 相关文档 域名管理 批量配置域名 客户往往会存在多个域名需要配置,而配置又是相同的情况,这时我们提供批量配置域名的方式可以使客户快速、便捷的接入域名。 []( 域名管理 域名操作工单 域名操作工单,指的是全站加速域名管理中的工单,是用于跟踪和记录由客户操作发起的域名新增及域名配置变更任务的状态和执行结果,方便跟进变更的进度以及追溯变更历史,辅助管理客户业务。 []( 标签管理 创建/删除标签和标签组 客户控制台上提供了一种域名分类管理工具——标签和标签组,使用标签可以对具有相同属性的域名进行分类管理,使用标签组可以对具有相同归类属性的标签进行分类管理。客户可自助在控制台上创建/删除标签和标签组。 []( 标签管理 域名绑定标签 标签为域名分类管理工具,通过给域名绑定标签功能,用户可以对具有相同属性的域名进行分类管理。 []( 标签管理 域名解绑标签 标签为域名分类管理工具,通过标签功能对具有相同属性的域名进行分类管理。如果标签已不再适用于您当前某个或多个域名的用途,您可以解绑域名标签。 []( 标签管理 使用标签管理域名 在完成域名绑定标签后,您在日常运营时,就可以使用标签快速筛选对应的域名,进行分组管理。 []( 标签管理 使用标签筛选数据 在完成域名绑定标签后,在日常运营时,如果您需要查询某一属性的域名的数据,就可以基于标签筛选相关域名,查询对应的数据。 []( 基础配置 加速类型 天翼云客户控制台,提供CDN加速、全站加速等多款产品的加速类型配置,您可以根据域名的业务类型选择合适的加速类型。 []( 基础配置 域名类型 天翼云全站加速产品提供三种业务类型的加速:全站加速、上传加速、websocket加速,您可以在添加域名时选择不同的域名类型来对不同的业务进行加速。 1.当您的域名以下行分发为主,且无websocket协议时,请选择“全站加速”域名类型。 2.当您的域名有上传业务时,请选择“全站加速上传加速”域名类型。 3.当您的域名有websocket协议时,请选择“全站加速websocket加速”域名类型。 []( 基础配置 加速区域 天翼云全站加速支持“中国内地”、“全球加速(不含中国内地)”、“全球加速”三种加速区域的选择。 []( 基础配置 IPv6配置 天翼云全站加速产品已经支持接收IPv6协议的请求,开启IPv6后,当您的用户处于IPv6环境时,客户端可以通过IPv6协议访问天翼云全站加速节点。 []( 回源配置 源站配置 回源配置模块支持客户自定义源站。支持IP或域名,支持配置多个源站地址,多源站场景下,支持设置源站的主备优先级和权重,实现负载均衡。 []( 回源配置 动态回源策略 在介绍动态回源策略之前,我们先介绍如何区分动态请求和静态请求。天翼云全站加速产品根据您配置的缓存规则来区分动静态请求,有配置缓存规则的被当作静态请求处理,其他请求将被当作动态请求处理。 如果您的加速域名有多个源站,可以配置合适的回源策略来实现不同的效果。动态回源策略支持择优回源、按权重回源、保持登录三种回源方式;静态回源策略默认轮询回源,无需配置。 1.择优回源:顾名思义,即根据全站加速节点探测源站的结果,选择最快的源站回源。 2.按权重回源:根据每个源站配置的不同权重,轮询回源。 3.保持登录:基于客户端IP进行哈希,保证相同客户端IP的多次请求始终访问到相同的源站。 []( 回源配置 回源协议 回源协议指全站加速节点回源站请求资源时使用的协议。配置该功能后,全站加速节点将根据指定的协议回源。全站加速支持HTTP回源协议,HTTPS回源协议、跟随客户端请求使用的协议回源三种回源协议。 []( 回源配置 回源加密算法 回源协议为HTTPS协议时,全站加速默认使用国际标准加密算法回源,也可以选择使用国密加密算法回源或者跟随客户端加密算法回源;未选择默认使用国际加密算法回源。 回源加密算法 回源配置 回源端口 回源端口,是指源站接收用户请求时所用的端口,一般http协议和https协议使用不同的源站端口。 []( 回源配置 默认回源HOST 当您的源站的同一个IP地址上绑定多个域名或站点时配置回源HOST,全站加速在回源时根据HOST信息去对应站点获取资源。 []( 回源配置 回源HOST带端口 当源站绑定了多个域名,且源站服务运行在非80/443端口(比如8080)时,开启回源HOST带端口功能,全站加速回源时可以在回源HOST中带上具体的端口(如test.ctyun.cn:8080),精准找到源站服务。 回源HOST带端口 回源配置 回源SNI 如果您的源站IP绑定了多个域名,且全站加速回源协议为HTTPS时,需配置回源SNI,在回源SNI内指明所请求的具体域名,并使服务器根据该域名正确地返回对应的SSL证书。 []( 回源配置 回源URI改写 回源URI改写可以实现在用户请求需要回源时进行URI改写, 全站加速节点向源站发送回源请求的时候使用改写后的URI。 []( 回源配置 回源参数改写 回源参数改写,改写的是回源请求URL的查询参数,即问号后的参数值。可支持参数的新增、删除、修改,以及保留或忽略所有参数。 []( 回源配置 Common Name白名单 开启Common Name白名单功能后,全站加速节点以HTTPS协议与源站建连时,将会对请求的SNI和源站返回证书的Common Name进行校验。 []( Name白名单 回源配置 回源302/301跟随 配置302/301跟随回源功能后,全站加速节点会代替用户去处理源站响应的302/301状态码内容,即全站加速节点会直接跳转到源站302/301响应中的Location地址去请求对应资源,不会把源站响应的302/301跳转地址直接返回给用户,让用户自己去请求跳转地址的资源。 []( 回源配置 Range回源 Range回源,是指节点收到用户请求后,会在回源时携带Range请求头,源站在收到Range请求后,会返回对应范围的内容数据给全站加速。Range回源功能开启后,全站加速节点可以以分片的形式缓存文件,对于Range请求而言,可以有效提高文件分发效率,降低首包时延,同时提高缓存利用率,减少不必要的回源。 []( 回源配置 回源超时时间设置(新) 回源超时时间包括回源连接超时时间跟回源请求超时时间: 回源连接超时时间指回源节点与源站服务器建立连接的超时时间。回源请求超时时间指回源节点与源站服务器建连成功后,向源站服务器发送请求的超时时间。 回源超时时间设置(新) 回源配置 分区域分运营商回源 如果您的域名有多个源站,且希望通过全站加速实现多个源站之间负载均衡,您可以按照区域或者运营商划分源站,让不同区域或者运营商的客户端IP回不同的源,从而实现同运营商回源,或者就近回源。 []( 回源配置 区分ipv4/ipv6协议回源 如果您的域名既有ipv4源站,又有ipv6源站,可以配置区分ipv4/ipv6协议回源,可实现ipv4协议的客户端回ipv4的源站,ipv6协议的客户端回ipv6的源站。同时也可基于客户实际需求,设置V4和V6用户按指定权重回对应V4和V6源站。 []( 回源配置 指定源站回源HOST 当您的加速域名配置了多个回源站点,且回源站点与加速域名不同时,您可以使用指定源站回源HOST功能,为不同的源站配置不同的回源HOST,天翼云全站加速产品在回源时会根据配置的回源HOST信息去访问不同站点的资源。 []( 回源配置 高级回源 当客户希望全站基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。 []( 回源配置 私有Bucket回源 回源地址使用天翼云媒体存储【即对象存储(融合版)】并且Bucket为私有模式的场景。 私有Bucket回源 证书管理 在全站加速控制台上可以新增/查看/删除https证书,也可以替换已过期的证书。 []( HTTPS相关配置 HTTPS配置 在全站加速控制台上可以启用/停用域名的https开关,上传https证书。 []( HTTPS相关配置 国密HTTPS 天翼云全站加速产品支持SM2(椭圆曲线公钥密码算法)和SM3(杂凑算法)标准,提供更加安全的HTTPS传输协议(即国密HTTPS加密能力)。 []( HTTPS相关配置 HTTP2.0配置 HTTP/2也被称为HTTP 2.0,相对于HTTP 1.1新增了多路复用、压缩HTTP头、划分请求优先级和服务端推送等特性,解决了在HTTP 1.1中一直存在的问题,优化了请求性能,同时兼容了HTTP 1.1的语义。 []( HTTPS相关配置 强制跳转 通过配置强制跳转功能,将客户端到边缘节点的原请求方式强制重定向为HTTP或者HTTPS请求。天翼云全站加速产品支持配置HTTP和HTTPS强制跳转,适用场景: 1、已经配置了HTTPS证书的加速域名,可配置强制跳转,通过301或302重定向方式,将客户端到全站加速节点的HTTP请求强制跳转为HTTPS请求,HTTPS请求更安全。 2、对于安全性要求不高的业务应用,对应的加速域名可配置强制跳转,通过301或302重定向方式,将客户端到全站加速节点的HTTPS请求强制跳转为HTTP请求。 []( HTTPS相关配置 OCSP Stapling 启用OCSP Stapling功能后,OCSP信息查询的工作将由全站加速的服务器完成。全站加速服务器通过低频次查询,将查询结果缓存到服务器中(默认缓存时间60分钟)。当客户端向服务器发起TLS握手请求时,全站加速服务器将证书的OCSP信息和证书一起发送到客户端,供用户验证,无需用户向数字证书认证机构(CA)发送查询请求。极大地提高了TLS握手效率,节省了用户验证时间。 []( Stapling HTTPS相关配置 HSTS配置 开启了HSTS后,当您的域名在全站加速产品开启HTTPS安全加速时,在浏览器输入HTTP协议开头的URL链接,用户请求访问到全站加速节点上的时候,在配置了HTTP协议跳转HTTPS协议的情况,全站加速节点会将该HTTP请求301或302重定向到HTTPS,此时全站加速节点会响应一个强制HSTS的头给客户端,告诉客户端只能使用HTTPS协议访问全站加速节点,此后浏览器将直接使用HTTPS协议访问全站加速节点,不再需要HTTP协议强制跳转HTTPS协议了。 []( HTTPS相关配置 TLS协议版本 天翼云全站加速产品提供TLS协议版本控制功能,您可以按需对不同加速域名配置不同的TLS协议版本,低版本的TLS协议将提供对老版本浏览器的支持,但是协议的安全性相对更差一些,高版本的TLS协议将提供更高的安全性,但是对老版本浏览器的兼容性相对差一些。天翼云全站加速产品支持的TLS协议版本包括TLSv1.0、TLSv1.1、TLSv1.2、TLSv1.3。 []( HTTPS相关配置 HTTPS无私钥驻留加速 通常情况下,HTTPS协议的域名,如果需要在全站加速平台配置加速服务,需要将HTTPS公钥和私钥部署到全站加速平台。使用HTTPS无私钥驻留加速方案后,您只需要将公钥部署到全站加速平台,私钥可以由源站唯一保有,即可实现HTTPS业务的加速。 []( HTTPS相关配置 批量HTTPS证书配置 天翼云全站加速产品支持HTTPS加速服务,您可以通过控制台上传证书,并批量关联域名启用HTTPS加速服务,实现全网数据加密传输。 []( HTTPS相关配置 加密套件 介绍天翼云全站加速支持的加密套件及对应套件支持的最低版本的SSL/TLS协议。 加密套件 HTTPS相关配置 双向认证 双向认证,顾名思义,即客户端与服务器双方均需认证对方的身份,在确认对方身份后才可以建立HTTPS连接。在标准的HTTPS中,通常采用单向认证的方式,即服务器向客户端证明自己的身份以建立一个安全加密的通信连接;双向认证在服务器向客户端证明身份的基础上,还需要客户端也提供客户端证书,供服务器验证客户端的身份,客户端与服务器双方都验证通过对方的身份后,才建立HTTPS连接。 双向认证 缓存配置 缓存过期时间 缓存过期时间指源站资源在全站加速节点缓存的时长,达到预设时间,资源将会被全站加速节点标记为失效资源。如果客户端向全站加速节点请求的资源已经失效,全站加速节点会回源站获取最新资源并缓存到全站加速节点上,供其他请求使用。 全站加速产品支持按后缀名、目录、首页、全部文件、全路径文件类型进行缓存。您可以根据业务需求,按指定路径或文件名后缀配置静态资源的缓存过期时间。 []( 缓存配置 状态码过期时间 全站加速节点从源站获取资源时,源站会返回响应状态码,您可以在客户控制台上配置状态码过期时间,当客户端再次请求相同资源时,由全站加速节点直接响应状态码,不会触发回源,减轻源站压力。当状态码在全站加速节点上的存储时长超过设置的过期时间,缓存的状态码会失效,此时针对同一资源的请求需要回源。配置状态码过期时间主要适用于源站响应了异常状态码的情况下,例如4xx、5xx。正常情况下全站加速节点成功从源站获取到所请求的资源,即源站响应了2xx状态码时,会按照天翼云全站加速缓存规则及优先级进行缓存。如果源站无法迅速响应所有状态码(例如非2xx状态码),且不希望所有请求全部由源站响应,那么可以配置状态码过期时间,由全站加速节点直接响应状态码,减轻源站压力。 []( 缓存配置 状态码过期时间(源站优先) 如您希望在源站响应特殊状态码并携带相关缓存头的情况下,源站相关缓存头优先级更高,无相关缓存头时才按全站加速设置的过期时间生效,则可以配置状态码过期时间(源站优先)功能。 []( 缓存配置 缓存key设置 通过自定义缓存key,可以将原始URL形式不同但实际指向同一个文件的请求,缓存为同一份,从而提升缓存命中率,降低回源量。 []( 缓存配置 跨域资源共享 跨域资源共享,允许Web应用服务器进行跨域访问控制,实现跨域数据的安全传输。当客户的业务需要跨域共享或者访问资源时,客户可以通过自定义HTTP响应头来实现。 []( 头部修改 HTTP响应头 HTTP响应头是HTTP响应消息头的组成部分之一,可携带特定响应参数并传递给客户端。通过配置自定义HTTP响应头,当用户请求加速域名下的资源时,全站加速节点返回的响应消息会携带您配置的响应头,从而实现特定功能。常用场景包括:告知客户端全站加速节点响应文件的资源类型,例如添加响应头ContentType: text/html,告知客户端全站加速节点响应文件的格式是HTML格式。当用户请求全站加速节点上某个域名的资源时,可以在全站加速节点返回的响应消息中配置自定义响应头,以实现跨域访问。 []( 头部修改 回源HTTP请求头 当全站加速节点请求回源站拉取资源时,源站可获取到回源请求头中携带的信息。您可以通过该功能,改写用户回源请求中的HTTP Header信息,携带特定的参数信息给源站,实现特定业务需求。例如,通过XForwardFor头部携带真实客户端IP至源站。 []( 头部修改 回源HTTP响应头 如果您需要改写用户源站响应报文中的HTTP Header,可以通过配置回源HTTP响应头实现。可根据您的实际业务需求,选择添加、修改、删除回源HTTP响应头。 []( 文件处理 文件压缩 介绍Gzip和Brotli压缩算法及配置方式。 文件压缩 文件处理 图片处理 开通图片处理功能后,全站加速可以在回源节点上对客户原始图片做自适应WEBP、自动瘦身,或通过客户端携带的URL参数进行缩放、旋转、裁剪、格式转换等处理后进行分发,并缓存在全站加速节点,使得源站保留原图即可;免去源站对图片的各种处理,降低源站压力,节省源站存储空间,同时提升图片处理响应速度。 图片处理 高级配置 错误页面自定义 当页面访问出错时,客户端会显示默认错误页面,例如404 Not Found。默认的报错页面通常不美观,会带给用户不好的体验。为了帮助客户优化用户体验,全站加速节点支持当出现指定错误码的时候,能够让用户跳转到客户自定义页面的功能。 []( 高级配置 访问URL重定向 当客户源站的内容存放路径发生了变更,全站加速节点上的内容存放路径也发生了变更,但是用户请求URL里面包含的内容路径没有变更时,需要全站加速节点改写用户请求里面的内容路径。技术实现方式是通过响应302状态码重定向的方式,让客户端取302响应里面的Location的新URL,重新向全站加速节点发起访问,确保用户能获得正确的内容。 []( 访问控制 IP黑白名单 IP黑/白名单功能通过识别客户端IP来过滤用户请求,拦截特定IP的访问或者允许特定IP的访问,可以用来解决恶意IP盗刷、攻击等问题。 []( 访问控制 Referer防盗链 Referer防盗链,是基于HTTP请求头中Referer字段(例如,Referer黑白名单)来设置访问控制规则,实现对访客的身份识别和过滤,防止网站资源被非法盗用。配置Referer黑白名单后,全站加速会根据名单识别请求身份,允许或拒绝访问请求。允许访问请求,全站加速会返回资源链接;拒绝访问请求,全站加速会返回403响应码。 []( 访问控制 UA黑白名单 可以通过配置访问的UserAgent头部来对访客身份进行识别和过滤,拒绝非法访问。全站加速通过对用户 HTTP 请求头中的 UserAgent 进行规则判断,按需放行或拒绝用户访问。允许访问时,全站加速会返回资源链接;拒绝访问时,全站加速会返回403响应码。 []( 访问控制 URL黑白名单 URL黑白名单是网络安全管理中的一种重要机制,主要用于控制用户对特定资源的访问权限。 []( 访问控制 URL鉴权 为了防止站点资源被恶意下载或者非法盗用,避免产生不必要的带宽浪费,您可以在天翼云全站加速平台上配置URL鉴权功能。配置URL鉴权后,全站加速产品会对加密串及时间戳进行校验,从而有效地保护用户站点资源。 []( 访问控制 远程同步鉴权 可以通过配置远程同步鉴权功能,在全站加速节点收到用户请求后,将请求转发回提前设定的鉴权源站,在源站鉴权许可后,全站加速节点才给用户返回对应内容,从而实现用户鉴权规则由源站全权定义。 远程同步鉴权 访问控制 全网带宽控制 天翼云全网带宽控制功能可通过设置单个域名或多个域名的总带宽值来控制带宽总用量,避免因带宽突发带来更多的带宽费用。带宽控制功能支持全网边缘总带宽限制,支持分时段控制,您可以根据自身带宽需求选择对应的限制策略。带宽超出设置值后,可选择对请求进行限速、拒绝或者重定向操作。 []( 访问控制 有序回源 全站加速的有序回源功能是一种流量控制方法,用于大量请求并发回源时的排队管理。 []( 访问控制 单请求限速 单请求限速功能可以限制全站加速节点响应给用户的下行速率,从而减少域名的整体带宽,节省成本。 []( 访问控制 IP访问限频 IP访问限频功能可以限制单个用户IP在天翼云全站加速单台服务器上的请求频次,防御CC攻击,防止恶意用户盗刷。 []( 页面优化 html页面优化 置了页面优化功能后,全站加速产品会自动删除页面中的冗余内容,例如HTML页面、JavaScript和CSS中的注释内容和重复的空白符,从而达到缩小文件体积、提升文件分发效率。 []( 页面优化 html禁止操作 html禁止操作,支持在客户控制台自助进行html页面的禁止右键操作和禁止复制操作,以防止源站的源码泄露。 []( 视频相关 视频拖拉 视频点播网站或应用,通常都会提供视频拖拉能力,用户可以随意拖动播放器进度条到想要的位置。使用全站加速后,您可以通过配置视频拖拉功能,支持用户的视频拖拉请求。 视频拖拉 视频相关 视频试看 视频点播网站或应用,除免费视频外,通常还会有一些精品付费视频。为吸引用户观看,网站往往会允许用户免费试看一定时间的内容,例如60s或是更短时间。使用全站加速后,视频网站仍可通过全站加速节点来实现视频试看功能。 视频试看 视频相关 HLS标准加密改写 LS标准加密改写功能,是指全站加速节点回源获取到M3U8文件内容后,改写其中的
        来自:
        帮助文档
        全站加速
        产品介绍
        产品功能
        功能概览
      • 术语表
        本页介绍天翼云TeleDB数据库术语表。 集群(Cluster): 是由多台物理服务器(如果为虚拟机也视为物理服务器)组成的一个系统,他们通过网络互联,并作为一个整体来提供一系列服务。集群是物理资源的集合。 实例(instance) :特指用户可以存取(一系列关联)数据对象的资源集合;即包括一套GTM/CN/DN的逻辑集合。实例是逻辑资源集合。 运维管理控制系统(OSSOperation and Maintenance Service): 简称管控 数据库 :称呼软件主体时是数据库; 库: 称呼create database的database为库;有时候语境原因,数据库可能替代库,请注意。 分表(Distributed): 这里借用的DRDS概念,即在将一张逻辑上的表拆分到多个物理或逻辑独立的分片(sharding)上,使得数据“物理”分散的一种方案。与之对应的是分表键(Distributed key)。 分片(sharding) :数据拆分的逻辑最小区块,与之对应的是分片键(shard key)。 注意: 基于上述定义可知,Distributed在逻辑上略等于sharding,一种是从表物理分布形式称呼,一种是从表的逻辑分布形式称呼。 分区(partition): 大表的数据分成称为分区的许多小的子集,分区是一种在单机数据库中特有的方案,不应与分表、分片的意义重合。 逻辑表,表: 一个逻辑上统一的表,就create table语法创建的表,他可以是分表,单表。 注意: 在部分分布式数据库中,还有region(区)的概率,但这个region与公有云的物理位置地区region重复,原则上我们不使用区(region)或分区这个词。如确实需要描述,应先声明其中文: 逻辑分片(region): 基于某一种分布式规则,负责维护集群的一段(逻辑上不再拆分)的连续数据区域。有一些分布式数据库是基于文件大小进行分区,有些着采用数据的属性(如字段区域、hash规则)等区域。 普通表、单表: 就create table语法创建的表,这里借用的DRDS概念,即仅在一个物理或逻辑的分片上存储的表。也就是传统单机数据库的表。 逻辑表【≥】分表【≥】分片【≥】分区。 广播表、复制表: 这里借用的DRDS概念,即在每个物理或逻辑的分片存放有相同表,并基于某种机制(通常是分布式事务)同时更新。 节点组(node group) :通常是指物理上的一组节点,在teledb中,特指基于node group语法组成的节点。 一组DN节点: 默认情况下也指是基于主从架构则为一主多从结构的DN节点,请注意术语区别节点组功能。 节点(node): 网络中,物理或逻辑上的一个实体。 逻辑节点: 是指这个实体是逻辑上独立的。通常是指CN或者DN的一个进程的集合就是一个逻辑节点。 物理节点: 是指这个实例是物理上独立的。通常是指一台独立的服务器(虚拟机)。由于当前虚拟化(含cgroup)技术,一台物理节点上可能存在多个逻辑节点。 注意: 一个节点组上可能承载一个或多个分片,但一个分片不能被多个节点组再进行拆分。 事务、普通事务、单机事务: 一个具有ACID特性的系列操作,通常一个事务有唯一的事务ID。若未特殊指明,事务通常是指单机事务或单机事务与分布式事务的统称。 分布式事务(distributed transaction): 是指在分布式数据库上执行的,需要多个物理或逻辑上不同的数据协同的具有ACID特性的操作集合。在实际情况下,分布式事务可能被拆分为多个 子事务 。 只读节点【替换原来只读平面】 ,如果是CN节点只读,就称为 只读CN节点 。 读写节点【替换原来的读写平面】 主DN、主CN(主节点) :即DN的负责读写的主节点 备DN、备CN(备节点) :即DN负责同步数据,参与高可用切换(但不参与写)的节点。在mysql中,也称为 从节点 ,这里与备与从等义。 只读实例 :是指参与数据同步但不参与高可用切换的逻辑上的节点组合(在读扩展场景较常见的概念) 灾备实例 :是指参与数据同步,但参与主备之间高可用切换,但参与在主机房灾难情况下,切换过来的的逻辑上的节点组合(在异地容灾能力常见的概念) 注意 除非某个只读节点或灾备节点与主节点共享同一套GTM,否则均称为只读实例和灾备实例称为XX实例。例如,备DN若开启只读能力,可以叫做只读节点。 利用率(Utilization rate) :是指有效利用资源(人力、物力、财力等)的百分比。它通常用于衡量资源的有效利用程度,反映在一定条件下,资源的投入与产出的比例关系。例如,办公区域的利用率、机器设备的利用率等。 使用率(Usage rate) :是指使用资源的程度或频率。它通常用于衡量在一段时间内,资源被使用的次数或时间。例如,图书馆的使用率、健身房的使用率等。 占用率(Occupancy rate) :是指占用资源的人或事物所占的比例。它通常用于衡量在一定时间内,资源被占用的程度。例如,房屋的占用率、车位的占用率等。 如上,一般说百分比的%就叫:CPU利用率、内存利用率,一般是长期占用的比例的%磁盘占用率,次/分这种单位的,就是使用率。 热备(在线备份) 在数据库运行时直接备份,即备份时对数据库操作没有任何影响的备份。 温备(在数据库运行时加全局读锁备份) 保证了备份数据的一致性,但对性能有影响。在当前技术下,热备和温备通常等意,原则上不称呼温备。 冷备(离线备份) 在数据库停止时进行备份。 全量备份(Full Backup) :也称为完全备份,指对某个指定时间点的所有数据和对应的结构进行一个完全的备份。 增量备份(Incremental Backup) :在上一次全备份或上一次增量备份后,以后每次的备份只需备份与前一次相比增加或者被修改的文件。 差异备份(Differential Backup): 与增量备份类似,差异备份是备份的是自上一次完整备份以来的所有更改数据,而不是自上一次备份以来的所有更改。(通常不使用差异备份这个词)。 日志备份: 单独对数据库日志进行的一种备份。日志备份与增量备份主要是备份文件的差异,一个是log的集合;一个是文件系统文件的集合;但有些技术实现的时候可能重复。 区域Region :是指地理的物理位置。 可用区(Availability zone,AZ) :可用区是指在某一地域内,具有独立电力和网络的物理区域。同一可用区内实例之间的网络延时更小。 数据中心(Data Center,简称DC) 是指一种拥有完善的设备(包括高速互联网接入带宽、高性能局域网络、安全可靠的机房环境等)、专业化的管理、完善的应用服务平台。 机房: 存放相关互联网设备的一个房间 机架: 存放相关互联网设备的一个架子 宿主机、母机: 因为有虚拟化概念,所以宿主机、母机特指软件安装所在的物理服务器。 国密: 指符合中国国家标准的商用密码算法;通常简写为SM。 GTM: 全局事务管理器(Global Transaction Manager)(简称GTM),负责管理集群事务信息,同时管理集群的全局对象,比如序列等。 Coordinator :协调节点(简称CN),对外提供接口,负责数据的分发和查询规划,多个节点位置对等,每个节点都提供相同的数据库视图;在功能上CN上只存储系统的全局元数据,并不存储实际的业务数据。 Datanode: 数据节点(简称DN),处理存储本节点相关的元数据,每个节点还存储业务数据的分片。在功能上,DN节点负责完成执行协调节点分发的执行请求。 MPP: 大规模并行处理(Massively Parallel Processing) OLAP: 联机分析处理(OnLine Analytical Processing) OLTP :联机事务处理(Online Transaction Processing) HTAP: 混合事务/ 分析处理(Hybrid Transactional/Analytical Processing 行存: 数据按照逻辑顺序相同的方式来来进行文件存储,一行中的所有列数据按照顺序存储在物理磁盘上,这种格式的好处很明显,如果同时访问一行中的多列数据时,一般只需要一次磁盘IO,比较适合OLTP类型的负载。 列存: 表中的每列数据存储为一个独立的磁盘文件,比如例子中,“姓名”,“部门”,“薪酬”,“家庭信息”每列中的数据都为一个独立的数据文件,这中格式在一次需要访问表中少数列时相比行存能够节省大量的磁盘IO,在聚合类场景下尤其高效,因此多用在OLAP类系统中。 share nothing: 各个处理单元都有自己私有的CPU/内存/硬盘等,不共享资源的集群架构 Shard map: 存储在CN/DN节点中的记录数据块与shard之间映射关系的位图。 Xlog:TeleDB数据库中DN节点的WAL日志文件。 三权分立: 把传统数据库系统DBA的角色分解为三个相互独立的角色,安全管理员,审计管理员,数据管理员,这个三个角色之间相互制约,消除出系统中的超级权限,从系统角色设计上了解决了数据安全问题 列级加密: 针对指定列做单独的加密操作 文件加密: 以数据库内部标准块block为加密计算的最小单位 透明数据脱敏: 在用户无感知的情况下,对非授权用户返回被脱敏的数据。其中,无感知是指用户使用的查询操作变化,也无需增加额外的运算操作;非授权用户的解释为,以访问表为例,用户具备该表的查询权限,但需要限制对某些字段真实值的获得;脱敏是指通过某种运算法则,在真实数据返回给访问终端前,按照既定规则,将原始数据映射到另一种形式(可以支持多种变化),该映射规则对查询用户不可见,且转换后的形式不能做逆向操作(即转换为原始数据) 数据倾斜: 分布式系统中,数据集中存储在某些DN节点组中,而另外一些DN节点组数据较少,导致性能、容量在分布式系统中分布不均衡。 冷热分离: 对热数据和冷数据采用不同的存储设备,就可以大大降低业务的使用成本。 在线扩容: 通过先搬迁存量数据,再搬迁增量数据最后选择合适的时机切换路由的方式来扩容实例,将实例扩容对业务的影响降低在毫秒级。 灾难disaster、故障: 由于人为或自然的原因,造成信息系统严重故障、瘫痪或其数据严重受损,使信息系统支持的业务功能停顿或服务水平达到不可接受的程度,并持续特定时间的突发性事件。 灾难恢复disaster recovery、故障恢复: 为了将信息系统从灾难造成的不可运行状态或不可接受状态恢复到可正常运行状态,并将其支持的业务功能从灾难造成的不正常状态恢复到可接受的状态而设计的活动和流程。 灾难恢复能力disaster recovery capability、故障恢复能力 :在灾难发生后利用灾难恢复资源和灾难恢复预案及时恢复和继续运作的能力。 灾难恢复预案disaster recovery plan: 定义信息系统灾难恢复过程中所需的任务、行动、数据和资源的文件。用于指导相关人员在预定的灾难恢复目标内恢复信息系统支撑的关键业务功能。 风险分析risk analysis: 确定影响信息系统正常运行的风险,评估对单位业务运营至关重要的功能,定义降低潜在危险控制手段的流程。 注:风险分析经常涉及对特殊事件发生可能性的评估。 业务影响分析business impact analysis: 分析业务功能及其相关信息系统资源,评估特定灾难对各业务功能的影响,确定信息系统可接受的RTO和RPO目标。 业务连续性business continuity: 在中断事件发生后,组织在预先确定的可接受的水平上连续交付产品或提供服务的能力。 恢复时间目标recovery time objective;RTO: 灾难发生后,信息系统从停顿到必须恢复的时间要求。 恢复点目标recovery point objective;RPO: 灾难发生后,数据必须恢复到的时间点要求。 系统可用性system availability: 在要求的外部资源得到保证的前提下,分布式事务数据库在规定的条件下和规定的时刻或时间区间内(不包括计划内服务中断时间)处于可执行规定功能状态的能力。 注:一般按允许计划外年服务中断时间、可用程度至少达到“n个九”来衡量。 生产系统production system: 正常情况下支持单位生产运行的信息系统。包括主数据、主数据处理系统和主网络。 生产中心production center: 生产系统所在的数据中心。 同城数据中心data center in the same city: 能够抵御因供电供水中断、水淹、火灾、网络故障、硬件损毁、交通中断等灾难同时影响的数据中心。 注意 一般情况下与生产中心距离为数十公里以内。 异地数据中心data center in the different city: 能够抵御因战争、洪水、海啸、台风、地震等大范围区域性灾害同时影响的数据中心。 说明 一般情况下与生产中心距离为数百公里以上。 演练exercise : 基于灾难恢复预案进行的演习。 注意 形式包括桌面演练、模拟演练、实战演练等。 租户(Tenant) :在云计算中,租户是一个逻辑概念,表示使用系统或计算资源的用户。在公有云平台上注册账户之后,每个人或企业就成为一个租户,云平台会以租户为基本单位来为其分配资源。比如在系统中创建的账户与统计信息,以及在系统中设置的各式数据和用户所设置的客户化应用程序环境等,都属于租户的范围。 用户(User) :用户是指需要使用云计算服务的个人或组织。是客观存在的主体。 客户(Customer) :客户是购买云服务的个人或组织,比如公司的雇员或者个人。 账号(Account) :这可以是在云平台上注册的账户,例如在天翼云、华为云等平台上注册的账户。请注意,本文不区分“账号”与“帐号”,二者等义不做特殊区分。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        术语表
      • 中国电信天翼云对象存储服务协议
        本节主要介绍OBS服务协议。 自2021年11月11日起,新版对象存储服务协议生效,详情请参见这里。 中国电信天翼对象存储系统服务协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 OBS
        相关协议
        中国电信天翼云对象存储服务协议
      • 创建集群
        响应示例 请求成功示例: { "statusCode": 200, "message": "success", "returnObj": { "orderNo": "20221018153152727265" } } 验签失败示例: { "statusCode": 500, "error": "EMR401000", "message": "OpenAPI认证失败", "returnObj": {} } 实名认证失败示例: { "statusCode": 500, "error": "EMR401009", "message": "账号未进行实名认证", "returnObj": {} } 非法操作示例: { "statusCode": 500, "error": "EMR401004", "message": "非法操作", "returnObj": {} } 请求参数类型错误示例: { "statusCode": 500, "error": "EMR401001", "message": "请求参数类型错误", "returnObj": "{"clusterName": "应为字符串"}" } 请求参数值无效示例1: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"clusterName": "不能为空"}" } 请求参数值无效示例2: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"clustertype": "集群类型不存在:xxx"}" } 规格不足示例: { "statusCode": 500, "error": "EMR401012", "message": "规格已售罄", "returnObj": {} } IP不足示例: { "statusCode": 500, "error": "EMR401013", "message": "子网下IP余量不足", "returnObj": {} } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        创建集群
      • 元数据概览
        参数 是否必填 参数类型 说明 示例 下级对象 clusterId 是 String 集群id da595eb1d81503b323fdc01d9bf786b7 timestamp 是 Long 要查询的时间点,以 Unix 时间戳表示(单位:秒) 1700000000
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        元数据概览
      • Kafka性能调优
        本章节主要介绍Kafka的最佳实践。 1. 体系结构概述 Kafka主题用于对记录进行组织。记录由生产者生成,由消费者使用。生产者将记录发送到 Kafka 代理,后者存储数据。 主题跨代理对记录进行分区。在使用记录时,每个分区最多可使用一个消费者来实现数据并行处理。 复制用于在节点之间复制分区。这可以防止节点(代理)发生服务中断。将副本组之间的单个分区指定为分区领导者。生产者流量将根据由ZooKeeper管理的状态路由到每个节点的领导者。 2. 调优方案选择 Kafka性能体现在两个主要方面:吞吐量和延迟。吞吐量是指数据的最大处理速率,通常吞吐量越高越好。延迟是指存储或检索数据所花费的时间。通常,延迟越低越好。在吞吐量、延迟和应用基础结构的开销方面找到适当的平衡可能会有难度。 根据追求的是高吞吐量、低延迟还是此两者,性能要求可能符合以下三种常见情况中的一种: 高吞吐量,低延迟。此方案要求同时满足高吞吐量和低延迟(大约100毫秒)。服务可用性监视就是这种应用场景的一个例子。 高吞吐量,高延迟。此方案要求满足高吞吐量(大约1.5 GBps),但可以容许较高的延迟(< 250 毫秒)。这种应用场景的一个例子是引入遥测数据进行近实时的处理,例如安全与入侵检测应用程序。 低吞吐量,低延迟。此方案要求提供低延迟(< 10毫秒)以完成实时处理,但可以容许较低的吞吐量。在线拼写和语法检查就是这种应用场景的一个例子。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        Kafka性能调优
      • ES集群规划、性能优化
        批量写入 使用批量 API 进行写入操作,以减少网络开销。在高吞吐量写入场景中,可以适度增加 Refresh 间隔,减少索引刷新操作,提高写入性能。示例如下: POST /myindex/doc/bulk { "index": {}} { "field1": "value1" } { "index": {}} { "field2": "value2" } 索引刷新 避免频繁的索引刷新,可以适当调整 Refresh 间隔以平衡写入和查询性能。示例如下: PUT /myindex/settings { "refreshinterval": "30s" } 查询优化 查询性能 使用查询DSL进行复杂查询,以充分利用 Elasticsearch 的强大功能。 使用索引别名和索引模板来优化查询,示例如下: GET /myindex/search { "query": { "bool": { "must": [ { "match": { "productname": "apple" }}, { "range": { "price": { "gte": 100 }}} ] } } } 分页查询 使用游标(Scroll)进行大数据量分页查询,避免深度分页带来的性能问题。示例如下: POST /myindex/search?scroll5m { "query": { "matchall": {}}, "size": 100 } 硬件和监控 硬件选择 选择高性能硬件,特别是快速的磁盘和足够的内存。 使用 SSD 硬盘来提升索引和查询性能。 监控和警报 设置监控指标,如集群健康、节点状态、资源使用等。 使用监控工具持续监测集群,并设置警报以便在出现问题时能及时响应。 安全性
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        ES集群规划、性能优化
      • 扩容集群
        状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        扩容集群
      • 退订集群
        参数 是否必填 参数类型 说明 示例 下级对象 clusterId 是 String 集群id 00c3a04292996955752f073c995a1cc6
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        退订集群
      • 元数据信息查询
        状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        元数据信息查询
      • 使用Trino客户端
        本章节主要介绍使用Trino的操作指导。 操作场景 该任务指导用户使用Trino客户端。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Trino客户端 1. 执行如下命令启动客户端。 plaintext ./trinocliexecutable.jar server catalog hive user presto 2. 执行成功后的客户端界面。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Trino客户端
      • 1
      • ...
      • 39
      • 40
      • 41
      • 42
      • 43
      • ...
      • 57
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      一站式智算服务平台

      人脸实名认证

      推荐文档

      重启实例

      慢日志查询

      云课堂 第十二课:再论ORACLE上云通用技术方案

      实例管理

      服务器迁移相关术语解释

      天翼云最佳实践⑤:linux搭建pureftp

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号