云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云天翼云_相关内容
      • 实例套餐有哪些?
        轻量型云主机服务套餐 主机套餐是您在创建轻量型云主机时选择的硬件配置,它包括 CPU、内存、云硬盘和公网带宽。主机套餐分为两大类: 固定套餐: 这些套餐具有固定的 CPU、内存、系统盘和公网带宽大小。它们适用于用户对资源需求有明确要求的场景,不需要太多的灵活性。 随心购套餐: 这些套餐具有固定的 CPU 和内存的比例,但允许您根据需要自由选择系统盘和公网带宽的大小。这种套餐适用于需要更大灵活性以满足不同应用程序需求的场景。 轻量型云主机的套餐规格: 套餐类型 CPU(核) 内存(GB ) 系统盘 带宽 固定套餐 基础型 2 4 40GB 2Mbits 固定套餐 进阶型 2 8 60GB 5Mbits 搭配套餐 随心购 4 8 40GB 60GB 80GB 1Mbits 2Mbits 5Mbits 10Mbits 15Mbits 搭配套餐 随心购 4 16 40GB 60GB 80GB 1Mbits 2Mbits 5Mbits 10Mbits 15Mbits 搭配套餐 随心购 8 16 40GB 60GB 80GB 1Mbits 2Mbits 5Mbits 10Mbits 15Mbits 搭配套餐 随心购 8 32 40GB 60GB 80GB 1Mbits 2Mbits 5Mbits 10Mbits 15Mbits 具体套餐情况请参见实例套餐。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        产品咨询类
        实例套餐有哪些?
      • 昇腾 910B 物理机大EP推理方案部署指南
        一、资源选型 在天翼云官网开通海量文件服务(OceanFS)或弹性文件服务(SFS)。 注意 创建 OceanFS 时,需开启 “终端节点” 创建开关。 在天翼云官网开通弹性高性能计算服务,具体配置如下: 1 台昇腾 910B NPU 物理机,作为master管理节点 7 台昇腾 910B NPU 物理机,作为compute计算节点 注意 在集群创建过程中,“队列与计算节点” 页面的队列名称需设置为 batch(默认值)。 二、环境准备 2.1 配置管理节点参与计算任务 设置管理节点提供计算资源,可按以下步骤手动配置: 在管理节点修改调度器配置文件,在文件末尾添加以下信息(其中[管理节点名]需替换为集群管理节点的 hostname): plaintext $ vim /opt/galaxy/scheduler/slurm/22.05.9.1/etc/slurm.conf ... NodeName[管理节点名] CPUs192 Boards2 SocketsPerBoard2 CoresPerSocket48 ThreadsPerCore1 RealMemory1546544 Gresgpu:910b2:8 在队列配置文件中,将集群管理节点的 hostname 添加到 Nodes 列表首位: plaintext $ vim /opt/galaxy/scheduler/slurm/22.05.9.1/etc/queueconfig PartitionNamebatch Defaultyes MaxTime1 StateUP PriorityTier40000 Nodes[管理节点名],compute001,compute002,compute003,compute004,compute005,compute006,compute007 将任意一台计算节点的/etc/default/gres.conf文件拷贝到管理节点的/etc/default/目录,示例命令如下(在管理节点执行): plaintext $ scp compute0001:/etc/default/gres.conf /etc/default/ 在管理节点重启 slurm 服务: plaintext $ systemctl start slurmd $ systemctl enable slurmd $ systemctl restart slurmctld 检查管理节点是否已加入计算队列(例如查看 master001 是否在 batch 队列中,已加入的示例如下): plaintext $ sinfo PARTITION AVAIL TIMELIMIT NODES STATE NODELIST batch up infinite 8 idle compute[001007],master001
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        昇腾 910B 物理机大EP推理方案部署指南
      • 网络性能测试的最佳实践
        类型 数量 镜像 规格 被测机(被测机:被压力测试网络性能的弹性云服务器,可作为 iperf3 测试中的 client 端(发送端)) 1台 CTyunOS 23.01(推荐) 4C8G(推荐) 辅助云服务器(作为 iperf3 测试中的 server 端(接收端)) 1台 CTyunOS 23.01(推荐) 4C8G(推荐)
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        网络相关最佳实践
        网络性能测试的最佳实践
      • 资源列表查询:云主机
        参数 参数类型 说明 示例 下级对象 page Integer 页码 1 pageSize Integer 页大小 3 totalPage Integer 总页数 1 currentCount Integer 当前页记录数 2 totalCount Integer 云主机总记录数 30 list Array of Objects 云主机资源列表 ecs
        来自:
        帮助文档
        云监控服务
        API参考
        API
        监控服务
        监控对象
        资源列表查询:云主机
      • 应用场景
        使用场景 电商、视频直播客户、游戏客户:云容器引擎可根据用户的业务需求预设策略自动调整计算资源,使云服务器或容器数量自动随业务负载增长而增加,随业务负载降低而减少,保证业务平稳健康运行,节省成本。
        来自:
        帮助文档
        云容器引擎(旧版)
        产品简介
        应用场景
      • 配置出站路由
        云主机通过云下一代防火墙访问互联网,需要配置源路由进行转发。 操作方法 1.打开菜单栏【网络→路由→源路由】,新建。 2.新建源路由,保障后向业务主机正常访问互联网。
        来自:
        帮助文档
        云下一代防火墙
        用户指南
        配置出站路由
      • 缓存过期时间
        本文介绍缓存过期时间设置方法。 功能介绍 缓存过期时间指源站资源在全站加速节点缓存的时长,在缓存未过期前,对应资源会直接从全站加速节点响应给用户;达到预设缓存过期时间后,资源将会被全站加速节点标记为缓存过期。此时如果客户端向全站加速节点请求该资源,全站加速会携带IfModifiedSince请求头或IfNoneMatch请求头回源站校验内容是否有更新,如有更新则获取最新资源并缓存到全站加速节点,如无更新则继续使用原有缓存文件。您可以根据业务需求,按指定路径或文件名后缀等方式配置静态资源的缓存过期时间。 注意事项 1. 您可基于天翼云默认推荐的缓存设置,按需进行调整后,直接使用,当前默认推荐配置如下: 2. 如您删除了上述默认推荐设置,且未添加其他任何设置情况下,全局默认不缓存走动态加速回源。 3. 如果加速域名下的文件访问热度过低(指同个文件在一段时间内被访问的频次过低),则很可能在过期时间到来之前被其他热度更高的文件覆盖。即:即使某个文件配置的缓存时间较长,如1个月,仍有可能在1个月内重复回源。 4. 天翼云全站加速节点的缓存时间,最长可以设置为3年,即1095天。 配置说明 1. 登录客户控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【缓存配置】。 5. 在【缓存过期时间】下方单击【增加规则】,弹出的对话框中,配置缓存时间规则,并单击【确定】。 (1)选择【类型】,如后缀名、目录、首页、全部文件、全路径文件,并配置相应的内容。 后缀名:指文件后缀名,可单击选择后缀名,如jpg,png。若后缀名不在选择清单内,可在【其他文件】框输入其他后缀名。 目录:指具体目录,例如值为:/a/,表示目录前缀为/a/的文件。 首页:指域名首页,值固定为/。 全部文件:指对应域名下的所有文件,值固定为/。 全路径文件:指对应URI的文件,例如值为:/a/b.js,则表示请求url中位于/a/目录下的b.js文件的缓存规则(无论是否携带问号后参数)。 (2)选择【缓存规则】,默认为强制缓存。 如选择强制缓存,则即使源站返回CacheControl:nocache/nostore/private等不缓存头或类似CacheControl:maxagen (n>0) 的缓存头时,全站加速节点仍将按照预设的规则及时间缓存文件。 注意 如选择强制缓存,且过期时间设置为0,则无论源站如何响应,全站加速节点均不缓存该文件。 如选择优先遵循源站,则源站如果返回CacheControl:nocache/nostore/private等不缓存头或CacheControl:maxagen (n>0)、Expires响应头时,优先按照源站响应头对应的缓存时间生效。 如选择不缓存,则无论源站返回任何缓存相关响应头,全站加速节点均不缓存。 (3)选择【过期时间】单位,如秒、分钟、小时、天,再填写对应的过期时间。 (4)【缓存参数】默认忽略参数,如需要带问号后参数缓存,请选择不忽略参数。 注意 对于可缓存的文件,全站加速节点通常会设置缓存key(缓存key为文件在全站加速节点上缓存的唯一ID)。默认情况下,全站加速节点会将问号后参数去掉的内容作为缓存key,以提升缓存命中率,降低回源量。如果原始URL中携带问号后参数,且参数不同时源站指向不同文件,则选择不忽略参数,避免缓存错误。 (5)填写【权重】。权重即优先级,支持自定义,数字越大则越优先生效。如果同个URL满足不同的缓存规则设置,例如该URL既属于某个文件后缀,又属于某个目录下,此时具体遵循哪条缓存规则,取决于二者的权重设置,最终按权重数字大的生效。 6. 单击【保存】,完成配置。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        缓存配置
        缓存过期时间
      • 使用HTTP API地址对接Grafana或自建应用中接入Prometheus数据
        天翼云Prometheus监控服务提供了HTTP API地址,您可以在自建的Grafana中接入Prometheus监控数据,或在二次开发过程中通过Prometheus API获取监控数据。 前提条件 已创建Prometheus 实例。 客户端网络已经与暴露接口打通。 操作指南 步骤一:获取用户的AccessKey和AccessKey Secret 如果您已创建Prometheus实例,且您需要使用AccessKey和AccessKey Secret进行远程读写,则需要先为获取用户的AccessKey ID和AccessKey Secret。 1. 通过实名认证的账号登录天翼云。 2. 进入天翼云账号中心。 3. 点击【安全设置】进入安全设置中心 4. 在用户AccessKey模块,可创建AKSK,或直接查看已生成的AKSK。 步骤二:获取HTTP API地址 1. 登录应用性能监控控制台,左侧菜单选择Prometheus监控,进入实例列表页面。 2. 单击目标实例名称。 3. 在设置页签上,复制HTTP API地址。 4. 可以单击生成token,获取Prometheus实例的鉴权Token。 注意 生成Token后,可在Grafana中添加数据源时配置Token,否则必须配置用户的AccessKey和AccessKey Secret。 步骤三:接入自建Grafana(token接入) 1. 配置Grafana数据源。 1. 以管理员账号登录本地Grafana系统。 2. 点击页面左上角的图标。 3. 在左侧导航栏中选择Configuration > Data Sources。说明:仅管理员可以看到此菜单。 4. 在Data Sources页签上单击+ Add new data source。 5. 在Add data source页面上单击Prometheus。 6. 在Settings页签的Name字段中输入自定义的名称,在Prometheus server URL字段中粘贴上文【步骤一:获取HTTP API地址】中获得的HTTP API地址。 7. 单击+ Add header,在Custom HTTP Headers区域单击+Add header,设置Header为Authorization,设置Value为【步骤二:获取HTTP API地址】中获取的鉴权Token。 8. 单击页签底部的Save & Test。 2. 验证结果。 1. 登录本地Grafana系统。 2. 点击页面左上角的图标,然后在左侧导航栏中单击Dashboards, 3. 点击Dashboards页面右侧的New,然后在下拉菜单中单击New dashboard。 4. 点击+ Add visualization, 5. 在Select data source页面选择您创建的数据源。 6. 在Edit Panel页面的Query页签下的A区域的Metrics字段和Label filters字段中输入指标名称和值,单击Run queries进行查询。 如果能显示出相应指标的图表,则说明操作成功。否则请检查填写的接口地址或Token是否正确,以及数据源是否有Prometheus的监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        控制台操作指南
        实例管理
        数据访问
        使用HTTP API地址对接Grafana或自建应用中接入Prometheus数据
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 数据库连接失败
        MySQL实例连接数满 1. 请及时排查业务侧连接是否有效,优化实例连接,释放不必要的连接。 2. 规格偏小,请对数据库进行规格扩容。 3. 修改最大连接数。 数据库实例默认最大数据连接数为3000,您可以通过下述命令查看当前实例设置的最大连接数: show global variables like 'maxconnections'; 如果您需要对最大数据连接数进行调整,您可以通过调整数据库实例参数maxconnections进行调整,修改方式参见修改参数组。 如果ECS和数据库部署在了不同的VPC,无法连接怎么办 您可以采用如下任一方式处理该问题: 1. 可以将ECS的虚拟私有云切换为与数据库相同的虚拟私有云。具体操作,请参考虚拟私有云虚拟私有云VPC管理修改虚拟私有云。 2. 为两个不同的虚拟私有云建立对等连接,实现内网互通。具体操作,请参考创建对等连接申请对等连接(同账号)。 MySQL实例状态是否异常 排查数据库实例是否异常,可以在管理控制台上查看实例的状态。如果实例因欠费或者到期而处于不可用的状态,或者因实例本身因某些原因导致异常,也会导致客户端无法连接到实例。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        连接类问题
        数据库连接失败
      • 申请虚拟IP地址
        本文主要介绍如何申请虚拟IP地址 操作场景 当弹性云服务器需要设置虚拟IP地址或预留指定的虚拟IP地址时,可以通过给子网申请虚拟IP地址的方式分配虚拟IP地址。 操作步骤 1. 登录管理控制台。 2. 在系统首页,选择“网络 > 虚拟私有云”。进入虚拟有云列表页面。 3. 在左侧导航栏,选择“虚拟私有云 > 子网”。 4. 在子网列表中,单击需要申请虚拟IP地址的子网名称。 5. 在“IP地址”页签中,单击“申请虚拟IP地址”。 6. 选择虚拟IP地址的分配方式。 − 自动分配:系统将自动分配IP地址。 − 手动分配:系统将分配您指定的IP地址。 7. 选择手动分配方式,请填写虚拟IP地址。 8. 单击“确定”。在IP列表中可以查看申请的虚拟IP地址。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        虚拟IP
        申请虚拟IP地址
      • 弹性云主机启动缓慢怎么办?
        本节介绍了弹性云主机启动缓慢怎么办的解决办法。 问题描述 如果云主机启动时间较长,可以通过修改默认等待时间,提高启动速度。 处理方法 1. 登录云主机。 2. 执行以下命令,切换至root用户。 sudo su 3. 执行以下命令,查询grub文件的版本。 rpm qa grep grub 查询grub版本 4. 将grub文件中timeout时间修改为0s。 − grub版本小于2的: 打开文件“/boot/grub/grub.cfg”或“/boot/grub/menu.lst”,并修改等待时间“timeout0”。 − grub版本为2的: 打开文件“/boot/grub2/grub.cfg”,并修改等待时间“timeout0”。 修改等待时间
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        操作系统类
        弹性云主机启动缓慢怎么办?
      • 产品类问题
        混合云一体机推理基础版基础产品能力包含哪些? 默认提供大模型推理、知识库等服务能力。 混合云一体机推理基础版是否包含虚拟化计算、存储、网络等能力? 默认不提供通用计算能力,如客户有需求,可以为客户开通使用,此部分单独收费。可开通的通用计算资源有限,需提前联系客户经理确认。 混合云一体机推理基础版是否提供等保软件套餐? 默认不提供安全能力,如客户等保需求,可以将官网安全专区中的等保套餐私有化部署到一体机里,为客户提供等保能力,此部分单独收费。等保能力会有资源占用,最终用户可用的资源等于一体机默认提供的资源减去等保能力占用的资源。
        来自:
        帮助文档
        混合云一体机推理基础版
        常见问题
        产品类问题
      • 数据库引擎
        本页面介绍云数据库ClickHouse的数据库引擎。 数据库引擎 云数据库ClickHouse支持以下几种数据库引擎: Atomic 支持事务的引擎,可以对一个数据库的多个表进行ACID事务。实现多语句事务。 Ordinary 默认的数据库引擎,没有任何特殊功能。 Lazy 实现了按需从远程MySQL服务器中读取数据的引擎。 MySQL 允许从远程MySQL服务器上查询数据,可以 Query MySQL。 MaterializeMySQL 先从MySQL加载数据到本地,然后查询本地数据的引擎。 Replicated 实现 Between Two Shard的数据库复制引擎。 以上是云数据库ClickHouse常见的几种数据库引擎。Atomic支持事务,Lazy和MySQL从远程引擎中查询,MaterializeMySQL实现MySQL数据的本地化缓存。不同引擎有不同的作用,可以根据使用场景选择。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        数据库引擎
      • 概述
        云防火墙(原生版)(CTCFW,Cloud Firewall)是一款云原生的云上边界网络安全防护产品,可提供统一的互联网边界管控与安全防护,并提供实时入侵防护、全流量业务可视化、日志审计和分析等功能,帮助用户完成网络边界防护与等保合规业务。
        来自:
        帮助文档
        云防火墙(原生版)
        API参考
        API概览
        概述
      • 扩展系统盘的分区和文件系统(Linux)
        df TH Filesystem Type Size Used Avail Use% Mounted on /dev/vda1 ext4 43G 2.0G 39G 5% / devtmpfs devtmpfs 509M 0 509M 0% /dev tmpfs tmpfs 520M 0 520M 0% /dev/shm tmpfs tmpfs 520M 7.2M 513M 2% /run tmpfs tmpfs 520M 0 520M 0% /sys/fs/cgroup tmpfs tmpfs 104M 0 104M 0% /run/user/0 /dev/vda2 ext4 43G 51M 40G 1% /opt 云主机重启后,挂载会失效。您可以修改“/etc/fstab”文件,将新建磁盘分区设置为开机自动挂载,请参见设置开机自动挂载磁盘分区。 设置开机自动挂载磁盘分区 您可以通过配置fstab文件,设置云主机系统启动时自动挂载磁盘分区。已有数据的云主机也可以进行设置,该操作不会影响现有数据。 本文介绍如何在fstab文件中使用UUID来设置自动挂载磁盘分区。不建议采用在“/etc/fstab”直接指定设备名(比如/dev/vdb1)的方法,因为云中设备的顺序编码在关闭或者开启云主机过程中可能发生改变,例如/dev/vdb1可能会变成/dev/vdb2,可能会导致云主机重启后不能正常运行。 说明 UUID(universally unique identifier)是Linux系统为磁盘分区提供的唯一的标识字符串。 步骤1 执行如下命令,查询磁盘分区的UUID。 blkid 磁盘分区 以查询磁盘分区“/dev/vdb1”的UUID为例: blkid /dev/vdb1 回显类似如下信息: plaintext [root@ecstest0001 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        扩容磁盘
        Linux磁盘扩容后处理
        扩展系统盘的分区和文件系统(Linux)
      • 暂停、启动、删除解析记录
        本小节介绍云解析暂停解析记录、启动解析记录和删除解析记录操作方法。 暂停解析记录 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入记录管理页。 3. 记录列表中记录行是黑色字体时,表示解析记录为启用状态。若想暂停记录,可点击该记录行后的“暂停”即可。 启动解析记录 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入记录管理页。 3. 记录列表中记录行是红色字体时,表示解析记录为暂停状态。若想启用记录,可点击该记录行后的“启用”即可。 删除解析记录 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入记录管理页。 3. 点击记录列表中记录行后的“删除”,系统弹出确认删除提示框后,点击“确认”即可。
        来自:
        帮助文档
        云解析
        用户指南
        解析记录管理
        暂停、启动、删除解析记录
      • 回源概述
        本文介绍天翼云CDN回源相关的功能和配置。 概述 回源配置模块主要介绍CDN回源相关的功能和配置。部分能力支持但暂不支持客户自助的功能,可通过提交工单给天翼云客服人工操作开启。 回源功能简介 回源相关功能及说明如下: 功能 说明 源站配置 支持IP或域名,最多可添加60个。 回源协议 设置CDN在回源时遵循的协议类型,如:HTTP、HTTPS或跟随。 回源加密算法 回源协议为HTTPS协议时,默认使用国际标准加密算法回源,也可以选择使用国密加密算法回源或者跟随客户端加密算法回源;未选择默认使用国际加密算法回源。 回源端口 设置CDN在回源时使用的端口。 默认回源HOST 当您的源站的同一个IP地址上绑定多个域名或站点时配置回源HOST,CDN在回源时根据HOST信息去对应站点获取资源。 回源HOST带端口 当源站绑定了多个域名,且源站服务运行在非80/443端口(比如8080)时,开启回源host带端口功能,回源时可以在回源host中带上具体的端口(如test.ctyun.cn:8080),精准找到源站服务。 指定源站回源HOST 当您的加速域名配置多个回源站点,且回源站点与加速域名不同时,您可以使用指定源站回源HOST功能,为不同的源站配置不同的回源HOST,天翼云CDN在回源时会根据配置的回源HOST信息去访问不同站点的资源。 回源SNI 如果一个源站IP地址绑定多个域名,且CDN加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源URI改写 改写回源请求中的URI。 回源302/301跟随 开启回源302/301跟随功能后,CDN节点会代替用户去处理源站给出的302/301状态码内容,即CDN节点会直接跳转到源站302/301响应中的Location地址请求资源,不会直接把源站响应的302/301跳转地址直接返回给用户。 区分IPv4/IPv6回源 域名既有IPv4源站,又有IPv6源站,可以配置区分IPv4/IPv6协议回源,实现跟随客户端V4/V6协议回源效果,即:IPv4协议的客户端回IPv4的源站,IPv6协议的客户端回IPv6的源站。 分区域分运营商回源 域名有多个源站,且希望通过CDN加速实现多个源站之间负载均衡,可以按照区域或者运营商划分源站,让不同区域或者运营商的客户端IP回不同的源,从而实现同运营商回源,或者就近回源。 回源参数改写 改写回源请求URL的查询参数,既问号后的参数值。 Common Name白名单 开启Common Name白名单功能后,CDN节点以HTTPS协议与源站建连时,将会对请求的SNI和源站返回证书的Common Name进行校验。 私有Bucket回源 若客户使用媒体存储/对象存储作为源站,在新建Bucket权限选择【私有】之后,需要配置私有Bucket回源功能。 高级回源 当客户希望CDN基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。 回源超时时间设置 回源超时时间可配置回源连接超时时间跟回源请求超时时间。 回源超时时间设置(新) “回源超时时间设置(新)”与“回源超时时间设置”的区别:新的回源连接超时时间和回源请求超时时间具备内部链路超时时间从回源层往边缘层逐层递增的能力,默认递增1s。可促进回源重试,降低访问异常的概率。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源概述
      • 通过云监控OpenAPI查询监控数据
        资源类型 serivce dimension 云主机/GPU ecs ecs 物理机 pms pms 云硬盘 evs disk 负载均衡 elb elb 弹性IP ippool fip 共享带宽 ippool trafficp 对象存储桶 zos zosbucket
        来自:
        帮助文档
        云监控服务
        最佳实践
        通过云监控OpenAPI查询监控数据
      • 修改文件读写权限
        本文介绍了修改文件读写权限的最佳实践。 操作场景 在实际业务中,由于以下原因和目的,您可能需要修改对象的读写权限: 数据安全:通过修改对象的读写权限,可以确保数据仅对授权用户或系统可见和可访问。限制对象的访问权限可以减少数据泄露和未经授权的访问风险,提高数据的安全性。 数据分享:在某些场景下,您可能需要与他人或公众共享特定的对象。通过修改权限,您可以将对象的读取权限开放给其他用户或特定的用户群体,以便与他们分享数据,也可以用于共享公共资源、发布媒体内容或进行数据传输等场景。 方案说明 ZOS控制台支持私有和公共读两种权限的相互转换,为确保您的数据安全,建议您选择私有。 桶的读写权限的更改不会改变桶内已有文件的读写权限,新上传文件会默认继承桶的读写权限。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择所需的资源池节点,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表,点击Bucket名称进入“概览”页面。 5. 点击“文件管理”页面,选中要设置的文件,点击文件所在行的“更多”按钮。 6. 点击更多下拉选项中的“设置读写权限”按钮。 7. 如选择“公共读”,需勾选“ 我已阅读并同意相关协议《天翼云对象存储系统服务协议》”点击“确认修改”,完成读写权限设置。 8. 如选择“私有”,直接点击“确定”,完成设置。
        来自:
        帮助文档
        对象存储 ZOS
        最佳实践
        修改文件读写权限
      • 资源包退订
        本文帮助您了解对象存储资源包退订的相关步骤。 退款前须知 申请退款前,请确认已知悉相关退款规则,详见退订规则说明。 按需付费方式不支持退款。如果您不再使用ZOS,可以直接清空ZOS所有使用数据,清空后,ZOS将不再产生费用。 资源包退订不会影响您存储在ZOS的数据。资源包退订后,如果当前账号下无抵扣的资源包,则自动转按需付费。 所有类型的资源包均支持七天无理由退订,需注意七天无理由退订次数不超过3次(每账号享有3次七天无理由全额退订次数)。 公网流出流量包和请求次数包两种资源包,若七天无理由退款次数已用完,则不允许在订购当月执行退订操作。 退订步骤 费用中心退订 1.点击天翼云门户首页的“登录”,输入登录的用户名和密码。 2.点击右上角“我的>费用中心”,点击左侧“订单管理”,点击“退订管理”,选择需要退订的资源包,点击“退订”。 3.选择退订原因,确认退款金额,点击“退订”,退订成功,退款金额原路返回。 控制台内退订 1.点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2.在ZOS控制台点击右上角“资源包管理”。 3.在“资源包管理”界面中,选择需要退订的资源包,在操作列中点击“退订”。 4.选择退订原因,确认退款金额,点击“退订”,退订成功,退款金额原路返回。
        来自:
        帮助文档
        对象存储 ZOS
        计费说明
        计费模式
        包年包月(资源包)计费
        资源包退订
      • 回源HOST
        本文简述回源HOST定义及配置方法。 功能介绍 当源站同时服务多个站点,且回源站点与加速域名不同时,您需要配置回源HOST,天翼云边缘安全加速平台安全与加速服务在回源时会根据配置的回源HOST信息去访问对应站点。 源站和回源HOST的区别: 源站:指您的业务所部署的服务器地址,回源时会访问该服务器地址获取资源。 回源HOST:指安全与加速服务回源请求头携带的回源HOST信息,回源请求会访问回源HOST对应的具体站点。 注意事项 对于普通域名(精准域名),回源HOST默认为加速域名。 对于泛域名,回源HOST默认为实际访问的子域名。例如,泛域名是 .example.ctyun.cn,如果通过example.ctyun.cn访问时,回源HOST即为example.ctyun.cn。 天翼云边缘安全加速平台安全与加速服务支持不同源站设置不同的回源SNI,如果您的域名有多个源站,所有源站可配置相同的回源SNI,也可配置不同的回源SNI。如您需要配置不同源站不同SNI功能,请提交工单申请。 自定义配置时,请确保您的源站有配置相应的HOST。 配置说明 1.登录边缘安全加速平台控制台。 2.在域名基础配置页面,点击目标域名。 3.进入源站设置页面,单击“编辑配置”。 4.在回源HOST模块,填入预期的站点地址,例如:www.ctyun.cn。 配置界面 新增域名,配置回源HOST: 修改回源HOST:
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源HOST
      • 业务请求类
        本节介绍业务请求类常见问题。 QPS超过当前WAF版本支持的峰值时有什么影响? 如果您选择的QPS规格不足以支撑网站/应用业务每天的流量峰值,对超出当前WAF版本支持峰值的QPS,WAF将不再防护网站,可能出现限流、随机丢包等现象,导致您的正常业务在一定时间内不可用、卡顿、延迟等。 独享版WAF支持的QPS规格说明: 单实例规格的正常业务请求峰值: WAF实例规格选择WI500,参考性能: HTTP业务:建议QPS 5,000;极限QPS 10,000 HTTPS业务:建议QPS 4,000;极限QPS 8,000 Websocket业务:支持最大并发连接5,000 最大回源长连接:60,000 WAF实例规格选择WI100,参考性能: HTTP业务:建议QPS 1,000;极限QPS 2,000 HTTPS业务:建议QPS 800;极限QPS 1,600 Websocket业务:支持最大并发连接1,000 最大回源长连接:60,000 CC攻击防护峰值: WAF实例规格选择WI500,参考性能: 防护峰值:20,000QPS WAF实例规格选择WI100,参考性能: 防护峰值:4,000QPS 如何查看防护网站的入带宽和出带宽信息? 在“安全总览”页面,您可以查看防护网站或实例的带宽信息,操作步骤如下。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域。 步骤 3 单击页面左上方的,选择“安全> Web应用防火墙(独享版)”。 步骤 4 在网站或实例下拉列表中,选择要查看的网站或实例,并选择查看的时间段(昨天、今天、3天、7天、30天)。 步骤 5 在“安全统计”区域框中,选择“发送/接收字节数”页签,可以查看防护网站或实例的入带宽和出带宽信息。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        常见问题
        产品咨询
        业务请求类
      • WAF操作指南
        子流程 说明 申请独享引擎 通过申请独享引擎开通WAF。 详细操作请参见: 添加防护网站 添加需要防护的网站。 详细操作请参见: 接入WAF之后,根据请求页面的大小和数量,会有几十毫秒的延迟。 配置防护策略 防护策略是多种防护规则的合集,用于配置和管理Web基础防护、黑白名单、精准访问防护等防护规则,一条防护策略可以适用于多个防护域名,但一个防护域名只能绑定一个防护策略。 详细操作见 管理防护规则 Web应用防火墙将拦截或者仅记录攻击事件记录在“防护事件”页面,通过查看并分析防护日志,对网站的防护策略进行调整,也可以对误报时间进行屏蔽。 详细操作见 处理误报事件 WAF拦截或者记录的攻击事件为误报时,可对误报进行屏蔽处理。详细操作请参见: 安全总览 可查看到昨天、今天、3天、7天或者30天范围内的防护数据。详细操作请参见:
        来自:
        帮助文档
        Web应用防火墙(独享版)
        快速入门
        WAF操作指南
      • 启用/停用/重新启用预案
        操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案管理”,进入预案列表页。 5. 在列表上方下拉菜单中选择需要进行预案的命名空间。 6. 点击预案列表操作列中的“重新启用”按钮,弹出重新启用预案弹窗。 7. 确认重新启用该预案后,点击“确定”按钮,确认后该预案状态变为已启用。 停用预案 使用条件 预案状态为已启用或待重新启用状态,且预案未被容灾演练或应急切换关联时,可进行停用预案操作。 操作场景 在您创建预案后,可以通过多活容灾服务控制台进行预案的停用。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案管理”,进入预案列表页。 5. 在列表上方下拉菜单中选择需要进行预案操作的命名空间。 6. 点击预案列表操作列中的“停用”按钮,弹出停用预案弹窗。 7. 确认停用该预案后,点击“确定”按钮,确认后该预案状态变为已停用。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案管理
        启用/停用/重新启用预案
      • 高级回源
        本文介绍高级回源功能及其配置说明。 功能介绍 当客户希望CDN基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。开启高级回源后,CDN节点在接收到客户端请求后,读取请求中对应信息进行判断并回源到不同源站。目前天翼云CDN支持的高级回源功能包括如下: 1. 支持区分IPV4/IPV6回源,详情请见:区分IPv4/IPv6回源。 2. 支持分区域分运营商回源,详情请见:分区域分运营商回源。 3. 支持分不同目录回源:例如可设置某加速域名下:/abc/a目录回源站A,/def/d目录回源站B。 4. 支持分不同文件后缀名回源:例如可设置某加速域名下:.apk文件回源站A,.mp4文件回源站B。 注意事项 1. 上述高级回源维度可以相互组合,例如可设置如下:/abc/a目录下的.apk文件回源站A,/abc/a目录下的.mp4文件回源站B。 2. 如客户同时在控制台配置回源URI改写功能,且其中涉及目录或文件后缀名的改写,可能会造成分目录回源和分文件后缀名回源效果与预期不符。 3. 高级回源功能支持在具体某个条件下设置多个源站,且支持多个源站之间设置主备、权重。 4. 高级回源功能必须搭配源站配置功能一起使用,在某个请求未匹配至所有高级回源条件时,将按照基础回源配置回源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        高级回源
      • 关系数据库增量迁移
        本章节主要介绍关系数据库增量迁移。 CDM支持对关系型数据库进行增量迁移,全量迁移完成之后,可以增量迁移指定时间段内的数据(例如每天晚上0点导出前一天新增的数据)。 增量迁移指定时间段内的数据 −适用场景:源端为关系型数据库,目的端没有要求。 −关键配置:Where子句+定时执行作业。 −前提条件:数据表中有时间日期字段或时间戳字段。 关系数据库增量迁移方式,只对数据表追加写入,不会更新或删除已存在的记录。 Where子句 参数位置:在创建表/文件迁移作业时,如果源端为关系型数据库,那么在源端作业参数的高级属性下面可以看到“Where子句”参数。 参数原理:通过“Where子句”参数可以配置一个SQL语句(例如:age > 18 and age < 60),CDM只导出该SQL语句指定的数据;不配置时导出整表。 Where子句支持配置为时间宏变量使用解析,当数据表中有时间日期字段或时间戳字段时,配合定时执行作业,能够实现抽取指定日期的数据。 配置样例: 假设数据库表中存在表示时间的列DS,类型为“varchar(30)”,插入的时间格式类似于“2017xxxx”,如下图所示,参数配置如下: 图 表数据 a.Where子句:配置为 DS'${dateformat(yyyyMMdd,1,DAY)}' 。 b.配置定时任务:重复周期为1天,每天的凌晨0点自动执行作业。 这样就可以每天0点导出前一天产生的所有数据。Where子句支持配置多种 时间宏变量使用解析,结合CDM定时任务的重复周期:分钟、小时、天、周、月,可以实现自动导出任意指定日期内的数据。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        增量迁移原理介绍
        关系数据库增量迁移
      • 权限管理
        本节介绍了权限管理的相关内容。 如果您需要对购买的云数据库 GeminiDB资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制资源的访问。 通过IAM,您可以在账号中给员工创建IAM用户,并授权控制对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望拥有云数据库 GeminiDB的使用权限,但是不希望拥有删除云数据库 GeminiDB等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用云数据库 GeminiDB,但是不允许删除云数据库 GeminiDB的权限策略,控制对云数据库 GeminiDB资源的使用范围。 如果账号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用云数据库 GeminiDB服务的其它功能。 IAM是云服务提供权限管理的基础服务,无需付费即可使用,您只需要为您账号中的资源进行付费。 云数据库 GeminiDB权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 云数据库 GeminiDB部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问云数据库 GeminiDB时,需要先切换至授权区域。 根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 如下表所示,包括了云数据库 GeminiDB的所有系统权限。 表 云数据库 GeminiDB系统权限 策略名称/系统角色 描述 类别 依赖关系 GeminiDB FullAccess 服务所有权限。 系统策略 无 GeminiDB ReadOnlyAccess 服务只读权限。 系统策略 无 下表列出了云数据库 GeminiDB常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 操作 GeminiDB FullAccess GeminiDB ReadOnlyAccess 创建实例 √ x 查询实例列表 √ √ 查询实例详情 √ √ 查询任务列表 √ √ 删除实例 √ x 重启实例 √ x 重置密码 √ x 变更实例安全组 √ x 修改数据库端口 √ x 绑定/解绑公网IP √ x 磁盘扩容 √ x 规格变更 √ x 节点扩容 √ x 节点缩容 √ x 修改备份策略 √ x 重命名实例 √ x 创建手动备份 √ x 查询备份列表 √ √ 恢复到新实例 √ x 删除备份 √ x 标签列表 √ √ 标签操作 √ x 下表列出了常用操作以及对应的授权项,您可以参照该表自定义配置权限策略。 表 常用操作与对应的授权项 操作 授权项 授权范围 备注 实例创建页 vpc:vpcs:list vpc:subnets:get vpc:securityGroups:get 支持: IAM项目(Project) 创建页需要查询对应的VPC、子网、安全组。 创建实例 nosql:instance:create vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 界面使用默认VPC、子网、安全组需对应配置vpc::create权限, 查询实例列表 nosql:instance:list 支持: IAM项目(Project) 查询实例详情 nosql:instance:list 支持: IAM项目(Project) 如果实例详情界面需要展示VPC、子网、安全组,请增加vpc::get和vpc::list授权项。 查询任务列表 nosql:task:list 支持: IAM项目(Project) 删除实例 nosql:instance:delete 支持: IAM项目(Project) 删除实例需要同时删除数据侧IP地址。 重启实例 nosql:instance:restart 支持: IAM项目(Project) 重置密码 nosql:instance:modifyPasswd 支持: IAM项目(Project) 绑定公网IP nosql:instance:bindPublicIp 支持: IAM项目(Project) 绑定公网IP时,需要查询已经创建好的公网IP。 不支持细粒度 解绑公网IP nosql:instance:unbindPublicIp 支持: IAM项目(Project) 不支持细粒度 磁盘扩容 nosql:instance:modifyStorageSize 支持: IAM项目(Project) 规格变更 nosql:instance:modifySpecification 支持: IAM项目(Project) 节点扩容 nosql:instance:extendNode vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 节点缩容 nosql:instance:reduceNode 支持: IAM项目(Project) 删除集群节点。 修改备份策略 nosql:instance:modifyBackupPolicy 支持: IAM项目(Project) 重命名实例 nosql:instance:rename 支持: IAM项目(Project) 创建手动备份 nosql:backup:create 支持: IAM项目(Project) 查询备份列表 nosql:backup:list 支持: IAM项目(Project) 恢复到新实例 nosql:backup:restoreToNewInstance vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 删除备份 nosql:backup:delete 支持: IAM项目(Project) 标签操作 nosql:instance:tag 支持: IAM项目(Project) 标签列表 nosql:tag:list 支持: IAM项目(Project)
        来自:
        帮助文档
        云数据库GeminiDB
        产品简介
        权限管理
      • 概览
        本文介绍了概览的相关功能。 概览概述 概览用于查看用户整体的裸金属、NAT网关、虚拟私有云、弹性IP、息壤智算集群情况,提供各子页面的快速入口与常见问题解答。 概览说明 用户登录控制台后,默认进入概览页面,根据该资源池特性展示概览信息。 模块 说明 功能介绍 展示裸金属、NAT网关、虚拟私有云、弹性IP、息壤智算集群的功能介绍,并提供创建快捷入口。 资源概览 展示当前登录用户在当前资源池下的资源情况,包括计算(裸金属)、网络(弹性IP、虚拟私有云、NAT网关)、集群(息壤智算集群)的相应统计情况,点击可进入相应列表页查看细节。 产品推荐 展示当前热门产品推荐,点击后新开窗口跳转至相应导购页。 快捷访问 展示算力市场、裸金属、虚拟私有云、NAT网关、息壤智算集群、门户官网快捷入口,点击可进行快捷访问。 常见问题 展示通用计算使用中的出现的常见问题并解答。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        概览
      • 如何通过弹性公网IP或NAT网关访问公网
        操作步骤 云主机通过绑定弹性IP访问公网 配置方法 在创建子网路由表时已经默认生成了指向IPv4网关的缺省路由规则,所有的子网默认具备访问公网的能力。不需要再配置其他路由规则即可通过弹性IP访问公网。 子网1中的ECS可以通过弹性IP访问公网。 云主机通过SNAT访问公网 前提条件 在VPC内创建NAT网关实例。 配置方法 如果子网2、子网3需要通过SNAT主动访问公网,需要在子网2、子网3关联的路由表中增加一条目的地址为0.0.0.0/0指向NAT网关的路由规则。由于user类型的路由规则优先级高于系统类型的路由规则,这样可以保证可以通过NAT网关访问互联网。 从以上的例子可以看出,同一个子网内的云主机绑定弹性IP和NAT网关后,默认通过NAT网关访问公网,弹性IP无法访问公网。因此,不建议同一个子网内的云主机同时绑定弹性IP和NAT网关。
        来自:
        帮助文档
        弹性IP EIP
        最佳实践
        如何通过弹性公网IP或NAT网关访问公网
      • 基本概念
        本文帮助您了解对等连接的基本概念。 虚拟私有云(VPC) 虚拟私有云为弹性云主机、物理机、云容器、云数据库等云上资源构建隔离、私密的虚拟网络环境。 路由表 路由表是指虚拟私有云上管理路由条目的列表。 系统路由表:创建VPC后,系统会默认创建一张系统路由表来控制VPC的路由,VPC内所有子网默认使用系统路由表。系统路由表不能创建也不能删除,但可以在系统路由表中创建自定义路由条目。 自定义路由表:支持创建VPC内自定义路由表,将自定义路由表和子网绑定,可更灵活地进行VPC网络管理。 对等连接 对等连接是两个VPC之间的网络连接,可以通过VPC对等连接,实现两个VPC之间私网互通。用户可以在自己帐号下同一资源池的VPC之间创建对等连接,也可以在自己账号的VPC与同一资源池内其他帐号的VPC之间创建对等连接。
        来自:
        帮助文档
        对等连接(文档停止维护)
        产品简介
        基本概念
      • 性能测试
        本文介绍如何进行海量文件服务的性能测试方法。 操作场景 文件系统需要挂载至云主机等计算服务后才可进行数据读写,本文为您介绍对文件系统进行性能测试,为您的使用提供参考。 前提条件 已有一个NFS协议的海量文件系统 已有一台Linux系统弹性云主机用于挂载文件系统,与文件系统须归属于同一VPC,具体操作请参考创建弹性云主机。 操作步骤 1. 以root用户登录弹性云主机,并挂载文件系统,具体操作请请参考挂载NFS文件系统到弹性云主机(Linux)。 2. 安装fio,性能测试工具。 yum install fio y 3. 使用fio命令进行性能测试,4k小文件随机写性能测试: fio filename/mnt/oceanfs/test.dat direct1 iodepth 16 thread rwrandread ioenginelibaio bs4k size10G numjobs4 timebased runtime60 groupreporting namefstest
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        其他操作
        性能测试
      • 1
      • ...
      • 233
      • 234
      • 235
      • 236
      • 237
      • ...
      • 514
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      公共算力服务

      一站式智算服务平台

      智算一体机

      人脸比对

      推荐文档

      操作手册

      生产者

      网页防篡改卸载

      查看监控指标

      上传资料常见问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号