活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微服务引擎_相关内容
      • 创建流控
        创建Topic流控 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在页面顶端单击“Topic”,进入“Topic”页签。 步骤 7 在页面左上角单击“创建流控”,弹出“创建流控”对话框。 步骤 8 设置流控参数。 表 流控参数说明 参数名称 说明 Topic名称 输入指定Topic名称,对此Topic进行流控。流控创建完后,无法修改“Topic名称”。 生产上限速率 设置生产上限速率,单位为MB/s。为空时,表示不设置速率。 消费上限速率 设置消费上限速率,单位为MB/s。为空时,表示不设置速率。 说明 “生产上限速率”和“消费上限速率”不可同时为空。 步骤 9 单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控创建成功。 进入“流控管理 > 流控列表”页面,在“Topic”页签中,在页面右上角的搜索框中输入新创建的流控名称,单击,查看新创建的流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        创建流控
      • 重置SASL_SSL密码
        本文主要介绍重置SASLSSL密码。 操作场景 在“用户管理”页签创建的SASLSSL用户,如果忘记了SASLSSL密码,通过重置SASLSSL密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 如果忘记了创建实例时设置的SASLSSL密码,请参考重置Kafka密码,重置密码。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置SASLSSL密码。 只有处于“运行中”状态的Kafka实例支持重置SASLSSL密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击待重置SASLSSL密码的Kafka实例名称,进入实例详情页面。 步骤 5 在“用户管理”页签,在待重置SASLSSL密码的用户所在行,单击“重置密码”。 步骤 6 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        重置SASL_SSL密码
      • 步骤一:准备环境
        本文主要介绍分布式消息服务RabbitMQ的准备环境。 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为RabbitMQ专享版实例提供一个隔离的、用户自主配置和管理的虚拟网络环境。 1. 在创建RabbitMQ专享版实例前,确保已存在可用的虚拟私有云和子网。 创建方法,请参考创建虚拟私有云和子网。如果您已有虚拟私有云和子网,可重复使用,不需要多次创建。 在创建VPC和子网时应注意如下要求: 创建的VPC与使用的RabbitMQ服务应在相同的区域。 创建VPC和子网时,如无特殊需求,配置参数使用默认配置即可。 2. 在创建RabbitMQ专享版实例前,确保已存在可用的安全组。 创建方法,请参考创建安全组。如果您已有安全组,可重复使用,不需要多次创建。 使用RabbitMQ实例前,添加表1所示安全组规则,其他规则请根据实际需要添加。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 5672 0.0.0.0/0 访问RabbitMQ实例(关闭SSL加密) 入方向 TCP 5671 0.0.0.0/0 访问RabbitMQ实例(开启SSL加密) 入方向 TCP 15672 0.0.0.0/0 访问Web界面UI地址(关闭SSL加密) 入方向 TCP 15671 0.0.0.0/0 访问Web界面UI地址(开启SSL加密) 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问RabbitMQ实例,无需添加上表中的规则。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤一:准备环境
      • 重置Kafka密码
        本文主要介绍 重置Kafka密码。 操作场景 如果您忘记了创建实例时设置的SASLSSL密码,通过重置Kafka密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置Kafka密码。 只有处于“运行中”状态的Kafka实例支持重置Kafka密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka密码。 在需要重置Kafka密码的Kafka实例右侧,单击“更多 > 重置Kafka密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > 用户名”后,单击“重置密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“用户管理”页签,在待重置Kafka密码的用户所在行,单击“重置密码”,弹出重置Kafka密码对话框。 步骤 5 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka密码
      • SDK接入指南(1)
        参数名 类型 必需 说明 apiKey string 是 控制台上的AccessKey ID apiSecret string 是 控制台上的AccessKey Secret desktopCode string 是 桌面编码,控制台可查看 serviceURL string 否 服务地址,默认
        来自:
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 集群版初始化
        本节主要介绍HBlock集群版如何初始化。 填写初始化相关信息 1. 设置基本信息。 参数 描述 版本规格 版本规格: 免费版:基础功能永久免费使用,高级功能默认禁用,提供一次30天免费试用机会。免费版的软件升级功能将在2年后自动失效。导入商业版软件许可证可激活全部功能。 商业版:提供30天全功能试用,到期后部分管理功能将被锁定。导入商业版软件许可证可激活全部功能。 说明 免费版与商业版的功能差别详见商业版与免费版。 系统名称 指定HBlock名称。 字符串形式,长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 登录用户名 HBlock管理员用户名。 类型:字符串 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小写。默认值为storuser。 登录密码 设置管理员密码。初始化时必须设置密码。 字符串形式,长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 2. 设置集群拓扑。 拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。 拓扑文件方式 参数 描述 拓扑文件 导入集群拓扑文件。 拓扑文件为符合UTF8编码格式的JSON文件,详见集群拓扑文件。 服务器方式 :点击“添加服务器”,填写服务器信息。 参数 描述 节点名称 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 服务器IP 要初始化服务器的IP,支持IPv4和IPv6地址。 端口号 API端口号。 注意 需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录 服务器中,用于存储用户数据的绝对路径。 可以输入一个或多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 修改:修改数据目录。 移除:移除数据目录。 3. 设置故障域服务器方式: 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。可以选择:数据目录级别的故障域、服务器级别的故障域、机架级别的故障域、机房级别的故障域。 注意 如果故障域级别为机架或者机房,则必须使用拓扑文件导入方式进行初始化。 4. 设置网络 参数 描述 业务网络 该网段用于业务与系统之间的数据传输。IP CIDR格式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 集群网络 用于系统内部数据传输。IP CIDR格式。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 5. 设置端口。 系统使用指定端口及端口范围进行初始化,如都未指定,则使用默认端口。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 设置端口范围时,请避免和Linux系统的本地临时端口(iplocalportrange)范围重合,否则可能会导致HBlock服务所用的端口被占用。使用命令行cat /proc/sys/net/ipv4/iplocalportrange可以查看本地临时端口范围。 参数 描述 端口范围 未指定端口的服务将从此范围中自动取值。 取值:整型,取值为[1, 65535]。默认取值为2000020500。 说明 建议指定的端口范围至少包含500个端口。 iSCSI服务 指定iSCSI端口号。 取值:整型,取值为[1, 65535],默认端口号为3260。 数据服务 指定数据服务端口号。 取值:整型,取值为[1, 65535]。 管理服务 指定管理服务端口号。 取值:整型,取值为[1, 65535]。 元数据服务 指定元数据服务端口号。 取值:整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        集群版初始化
      • 向备份策略中绑定云主机
        创建备份策略后,通过向备份策略中绑定云主机给备份策略关联云主机。 前提条件 已创建至少1个备份策略。 至少存在一个状态为“运行中”或“关机”的云主机。 一个备份策略中最多可以绑定64个云主机。 操作步骤 1. 登录云主机备份管理控制台。 1. 登录管理控制台。 2. 选择“存储 > 云主机备份”。 2. 选择“策略”页签。 3. 在需要绑定云主机的备份策略所在行单击“绑定服务器”,如下图。 图 绑定服务器 4. 在服务器列表中勾选需要绑定的服务器,勾选后将在已选服务器区域展示。 说明 一个备份策略中最多可以绑定64个云主机。 如果选择的服务器已经绑定到其他备份策略,在选择新的备份策略后,云主机会自动从原备份策略解绑,并绑定到新的备份策略。 如果云主机中有云硬盘已经加入云硬盘备份策略中,建议在云硬盘备份服务的备份策略中移除该云主机的云硬盘,否则云硬盘将产生两个备份。 只能选择状态为“运行中”或“关机”的云主机。 5. 单击“确定”。
        来自:
        帮助文档
        云主机备份 CSBS
        用户指南
        备份策略
        向备份策略中绑定云主机
      • 通过DAS连接RDS for MySQL实例
        本章介绍通过DAS连接RDS for MySQL实例。 操作场景 数据管理服务(Data Admin Service,简称DAS)是一款专业的简化数据库管理工具,提供优质的可视化操作界面,大幅提高工作效率,让数据管理变得既安全又简单。您可以通过数据管理服务连接并管理实例。云数据库RDS服务默认为您开通了远程主机登录权限,推荐您使用更安全便捷的数据管理服务连接实例。 操作步骤 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、单击页面左上角的,选择“数据库 > 云数据库 RDS”,进入RDS信息页面。 4、在“实例管理”页面,选择目标实例,单击操作列的“登录”,进入数据管理服务实例登录界面。 图1 登录实例 您也可以在“实例管理”页面,单击目标实例名称,在页面右上角,单击“登录”,进入数据管理服务实例登录界面。 图2 登录实例 5、正确输入数据库用户名和密码,单击“登录”,即可进入您的数据库并进行管理。 图3 登录界面
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过DAS连接RDS for MySQL实例
      • Linux任务配置
        本节为您介绍云迁移服务CMS服务器迁移中Linux迁移任务相关配置。 自定义分区 根据源机分区自动初始化目标机分区配置,用户可自定义修改。 说明 存储容量修改建议:若需调整分区可通过查看源机分区与平台处查看源机分区查看迁移源信息,参照迁移源文件系统类型,挂载点,分区类型等信息进行目标机分区大小调整操作。具体请参见 1. 单点击“添加目标机分区”新增分区,分区类型包含标准分区、扩展分区、逻辑分区和LVM分区。 2. 您也可以按需进行“管理分区类型”、“管理LVM”、“查看源机分区”、“重置”。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移任务配置与开始全量迁移
        Linux任务配置
      • 功能特性
        本小节介绍漏洞扫描功能特性。 产品主要定位主机系统漏洞发现,弱口令检测、配置脆弱性检测,扫描覆盖多种系统环境,如:Windows、UNIX、Linux、Solaris等,帮助客户发现主机中存在的漏洞风险,根据不同漏洞提供解决建议。 漏洞扫描 多种评估类型:评估主机系统、网络和应用程序的弱点,检测系统内的恶意软件,发现Web服务器和服务的弱点。 丰富的评估能力:网络设备,包括下一代防火墙、操作系统、数据库、Web应用、虚拟和云环境等,扫描IPv4、IPv6和混合网络,可根据需求设置扫描任务运行时间和频率。 两种扫描模式:漏洞扫描器在选择扫描方式时可使用非登录扫描和登录扫描方式,登录扫描能够更深入全面的发现主机漏洞。 持续管理:扫描器可以配置为自动更新,扫描器不断更新高级威胁及零日漏洞插件。 多种报告:自定义报告以按漏洞或主机排序,创建执行摘要或比较扫描结果以突出显示更改,可提供XML、PDF、CSV和HTML类型的报告。 开放端口 SYN扫描:端口扫描是计算机入侵者常用的一种漏洞发现方式,攻击者可以通过它了解到主机攻击弱点,一个开放端口就是一个潜在的通信通道,也就是一个入侵通道。如主机开启FTP服务,默认会开放两个端口,一般为20和21端口,入侵者使用端口扫描发现这两个开放状态的端口后将针对展开入侵行为,成功入侵将对企业造成不可估量损失。而网络运营者主动通过端口扫描发现开放端口,分析开放端口潜在风险,做好开放端口访问限制,识别不必要的开放端口并及时关闭,可避免端口被入侵者利用,提高主机防护能力。
        来自:
        帮助文档
        漏洞扫描
        产品介绍
        功能特性
      • 退订
        本文为您介绍分布式消息服务MQTT退订内容。 针对天翼云分布式消息服务MQTT退订操作,具体请参考退订流程。 退订规则说明 客户(天翼云用户)可根据需要,在符合天翼云退订规则的前提下,灵活退订资源。目前退订包含七天无理由全额退订和非七天无理由退订以及其他退订。 七天无理由全额退订。新购资源实例(不包含进行了续订、规格升级、扩容、操作系统变更、按需计费转包周期等操作的资源)在满足以下全部条件的前提下,享受七天无理由全额退订: 在资源开通的7天内发起退订; 发起退订操作的账号(“退订账号”)七天无理由全额退订次数不超过3次(每账号享有3次七天无理由全额退订次数); 同一用户累计使用的七天无理由全额退订次数不超过15次。其中,同一用户是指:根据不同天翼云账号在注册、登录、使用中的关联信息,关联信息相同天翼云判断其实际为同一用户。关联信息举例:同一名称、同一邮箱、同一负责人证件、同一手机号、同一设备、同一IP地址等(包括已注销的账号)。 客户同意天翼云使用上述信息核查同一用户情况 。 成套资源退订属于退订一个资源实例,记为1次退订。 注意 七天无理由退订仅限于新购资源的情形,若新购资源在7天内进行了续订或变更(包含但不限于规格升级、扩容、操作系统变更、按需计费转包周期),退订时按非七天无理由退订处理,需要收取相应的使用费用和退订手续费,且不退还代金券及优惠券。 参与活动购买的云产品,如若本退订规则与活动规则冲突,以活动规则为准;活动中说明“不支持退订”的云服务资源不支持退订。 执行退订操作前,请确保退订的资源数据已完成备份或迁移,退订完成后的资源将被完全删除,且不可恢复,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务MQTT
        计费说明
        退订
      • 主界面
        本节主要介绍智能视图服务电子地图的主界面。 点击左侧菜单栏【电子地图】进入该功能模块,右侧展示电子地图界面,如下图。 若地图上有摄像头,则在地图上显示摄像头数量和摄像头名称,放大电子地图后即可查看单个摄像头地理位置,如下图。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        电子地图
        主界面
      • 告警历史
        本章节主要介绍翼MR Manager的告警历史特性。 进入到翼MR Manager以后,点击菜单“监控与告警 > 告警历史”,进入告警历史页面。如图所示: 页面上方为查询区域,各种查询条件进行组合查询。 支持查询集群服务级、角色实例级、主机级的告警信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        监控与告警
        告警历史
      • 产品规格
        本章节主要介绍数据仓库服务产品规格。 销售品名称 CPU核数(核) 内存容量(GB) : 数据仓库dwsx2.xlarge.m7n 4 32 数据仓库dwsx2.2xlarge.m7n 8 64 数据仓库dwsx2.8xlarge.m7n 32 256 数据仓库dwsx2.16xlarge.m7n 64 512 数据仓库dws2.m6.4xlarge.8 16 128 数据仓库dws2.m6.8xlarge.8 32 256 数据仓库dws2.m6.16xlarge.8 64 512 云数仓dwsx2.2xlarge 8 64 云数仓dwsx2.8xlarge 32 256 云数仓dwsx2.16xlarge 64 512
        来自:
        帮助文档
        数据仓库服务
        计费说明
        产品规格
      • 修改OpenSearch配置文件默认参数
        云搜索服务支持您在控制台修改OpenSearch.yml文件中的部分参数。 云搜索服务支持您在控制台修改OpenSearch.yml文件中的部分参数。 操作步骤 1. 登录云搜索服务管理控制台,在左侧导航栏,选择对应的实例类型,进入管理列表页面。 2. 点击实例名称进入对应实例详情,并选择“配置管理”。 3. 点击“修改配置”进入编辑状态,对所需的参数进行修改,修改时请关注填写规则和样例。 4. 修改完成后,点击“提交”,并在弹出的窗口中核对修改信息,需要知晓并勾选重启过程中可能会导致服务短暂不可用,确认后等待对应参数修改记录变为成功,即为已生效。若为失败,则未成功修改,参数仍为改前值。 5. 可在下方参数修改记录中查看近10次的修改记录和状态。 6. 如果有需要修改的参数不在列表内,请提报工单申请,由工程师为您修改。 指标分类 参数名称 填写说明 跨域访问 http.cors.enabled true表示启用跨域资源访问,false表示不启用 跨域访问 http.cors.alloworigin 支持 host/IP 和 port 组合、域名或号,例如node1:9200,127.0.0.1:9200,限制1100个,逗号隔开;号表示全部放开 跨域访问 http.cors.maxage 浏览器默认缓存时间。如果超过设置的时间后,缓存将自动清除。数值,取值范围[01728000],单位秒 跨域访问 http.cors.allowcredentials 响应中是否允许返回allowcredentials取值true/false 跨域访问 http.cors.allowheaders 跨域访问允许的headers,XRequestedWith,ContentType,ContentLength中的任意一个或多个 跨域访问 http.cors.allowmethods 跨域访问允许的方法OPTIONS,HEAD,GET,POST,PUT,DELETE中的任意一个或多个 审计日志 plugins.security.audit.type 审计日志,默认关闭,开启后,系统会记录OpenSearch实例对应的操作产生的日志 Reindex索引迁移 reindex.remote.whitelist 添加远程集群的访问地址白名单,支持host/IP 和 port 组合,例如 node1:9200,127.0.0.1:9200,port必填。限制1100个,逗号隔开 索引自动创建、通配删除 action.destructiverequiresname 删除索引是否需要声明完整索引名 true:需要声明完整索引名 false:不需要声明完整索引名 自定义查询缓存 action.autocreateindex 是否允许自动根据文档创建索引 线程池 threadpool.forcemerge.size forcemerge场景下队列的大小 流量控制 flowcontrol.search.qps 每秒查询请求数,超过设定值,响应查询API则熔断 读写集群的线程池设置 threadpool.write.queuesize 写阈值线程池大小,整数类型,取值范围1100000 读写集群的线程池设置 threadpool.search.queuesize 读阈值线程池大小,整数类型,取值范围1100000 fielddata的堆内cache indices.fielddata.cache.size fielddata的cache size,百分比,取值范围1%39% 查询相关限制 indices.query.bool.maxclausecount 查询的bool语句允许的子语句大小,整数类型,取值范围11024
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        管理实例
        修改OpenSearch配置文件默认参数
      • 通过镜像创建云主机
        本文介绍如何使用公共镜像或私有镜像创建云主机。 操作场景 您可以通过使用公共镜像或私有镜像来完成云主机创建,无论您选择使用哪种镜像类型,都能为您提供快速、可靠和灵活的云主机部署。 公共镜像为您提供了广泛的操作系统和预配置环境选项,使您能够迅速启动云主机并开始应用部署。 私有镜像则允许您根据自身需求定制和管理云主机的镜像,确保您的应用环境与业务需求完美契合。 使用须知 使用公共镜像和私有镜像创建云主机的区别是: 公共镜像:创建的云主机包含所需操作系统和预装的公共应用,需要您自行安装应用软件。 私有镜像:创建的云主机包含操作系统、预装的公共应用以及用户的私有应用。 操作步骤 1. 登录控制中心。 2. 单击“左侧导航栏>服务列表”,选择"计算>镜像服务"。 3. 单击"公共镜像"或"私有镜像",进入相应的镜像列表。 4. 在公共镜像所在行右侧的"操作"列下,单击"申请云主机",或在私有镜像操作下点击"申请云主机"。 5. 填写云主机配置信息,包括云主机名称、网络、数量等。 6. 单击"立即购买"。 7. 单击"提交申请"。 8. 返回云主机列表页,点击云主机列表右上角的刷新按钮,查看云主机的创建情况。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机镜像
        通过镜像创建云主机
      • 回源HTTP响应头
        本文简述回源HTTP响应头的用途和配置方法。 功能介绍 天翼云边缘安全加速平台安全与加速服务支持自定义配置回源HTTP响应头,您可根据业务需要,选择添加、修改、删除回源HTTP响应头。 回源HTTP响应头 HTTP响应头是HTTP响应消息头的重要组成部分,可使用HTTP响应头携带特定的响应参数返回给客户端。当边缘节点上没有用户请求的资源时,边缘节点会回源获取该资源,源站会响应用户请求的资源。为方便用户识别,可通过配置回源HTTP响应头的功能,改写响应报文中的HTTP头。 配置说明 天翼云边缘安全加速平台安全与加速服务回源HTTP响应头采用key、value的方式进行配置。 添加回源HTTP响应头,key对应需要添加的响应头名称,value对应需要配置的响应头的值。 修改回源HTTP响应头,key对应需要修改的响应头名称,value对应修改后的响应头值。 删除回源HTTP响应头,key对应需要删除的响应头名称,value配置为空。 如您需要配置回源HTTP响应头功能,请提交工单给天翼云客服,由其帮您配置。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        头部修改
        回源HTTP响应头
      • 计费说明
        本节介绍计费说明。 计费项 态势感知(专业版)按选购的资产配额数计费。 计费项 计费说明 资产配额 按购买的资产配额数计费,包括主机资产配额数和网站资产配额数。 按包周期购买计费 提供包月和包年的购买模式。 按需购买计费 即开即停,按小时结算。 计费模式 态势感知(专业版)的计费模式为包周期和按需计费。 包周期:按包年/包月计费。 按需计费:按小时结算,根据实际使用时长(小时)计费。先使用后付费,使用方式灵活,可以即开即停。 资费结构与规格 规格 按需(小时) 包月 包1年 包2年 包3年 价格单位 专业版 0.31 150 1530 2520 2700 元/个/ECS 退订 若购买态势感知(专业版)后,需要停止使用,请执行退订操作。 到期与欠费 到期 若包周期版本到期后,未及时续费,会根据“客户等级”和“订购方式”定义不同的保留期时长,保留期内专业版服务可继续使用。若保留期到期后,仍未及时续费,专业版会变为基础版。 欠费 当您的账户欠费后,可查看欠费详情,此时账户将进入欠费状态,需要在约定时间内支付欠款。为避免相关服务不被停止,请及时为账户充值。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        计费说明
        计费说明
      • 回源HOST带端口
        本文介绍回源HOST带端口功能及其配置说明。 功能介绍 当源站绑定了多个域名,且源站服务运行在非80/443端口(比如8080)时,开启回源HOST带端口功能,回源时可以在回源HOST中带上具体的端口(如test.ctyun.cn:8080),精准找到源站服务。 注意事项 1. 新增域名,默认开启回源HOST带端口功能,如需关闭,请在域名新增完成后编辑域名关闭功能。 2. 回源HOST带端口功能开启后,默认携带所有非80/443的端口。跟随请求端口回源关闭时回源HOST默认带除了80、443外的回源端口;跟随请求端口回源开启时,回源HOST默认带除了80、443外的请求端口。 配置说明 1. 登录++CDN控制台++。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 开启/关闭【回源HOST带端口】功能。 6. 单击【保存】,完成配置。 参数名 说明 回源HOST带端口 关闭时,回源HOST不携带端口。 开启时,回源HOST携带非80/443的回源端口回源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源HOST带端口
      • 查询域名攻击概况
        接口描述:调用本接口查询域名在指定时间段的攻击概况 请求方式:post 请求路径:/waf/statistics/queryattackinfo 使用说明: 修改域名之前,您需要先开通对应产品类型的服务,且服务有效; 支持查询最近30天数据 单个用户一分钟限制调用10000次,并发不超过100 支持查询WAF攻击类型的数据 请求参数说明: 参数名 类型 是否必填 名称 说明 domain string 是 域名 单次调用仅支持一个域名查询 startTime string 是 开始时间 格式为:YYYYMMDDThh: mm:ssZ 支持最近30天的数据 endTime string 是 结束时间 格式为:YYYYMMDDThh: mm:ssZ 支持最近30天的数据 pageSize int 否 查询每页的数量 不传默认30,pageSize以及pageNumber的乘积不得超过2000 pageNumber int 否 查询的页数 不传默认30,pageSize以及pageNumber的乘积不得超过2000 返回参数说明: 参数 类型 是否必传 名称及描述 code string 是 状态码,成功100000 message string 是 描述信息,成功返回success,其他返回异常信息描述 data overviewData 否 查询结果以及域名对应状态 1) overviewData参数 参数 类型 是否必返回 名称及描述 bandwidth string 是 业务带宽 flow string 是 业务流量 requestsNumber string 是 请求数 peakAttack string 是 攻击峰值 domain string 是 安全加速域名
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询域名攻击概况
      • 方案正文
        创建DRS备份迁移任务 1、登录管理控制台。 2、单击管理控制台右上角区域选项,选择区域和项目。 3、在页面左上角单击,选择“数据库 > 数据复制服务”。进入数据库复制页面。 4、在“实例管理”页面左侧点击“备份迁移管理” 5、进入“备份迁移管理”页面后点击右上角“创建迁移任务”按钮 6、填写迁移信息,选择要迁移的备份,点击下一步 7、选择目标RDS实例和要还原的数据库,点击下一步 8、勾选服务协议,确认迁移信息后点击启动任务 9、控制台可以查询迁移进度 验证迁移是否成功 1、通过ECS登录SQL Server客户端,本实验采用的数据库客户端为SQL Server Management Studio 2017。 2、通过目的端数据库的IP和账号密码进行登录。 3、登录后可以验证目的端是否存在源库数据
        来自:
        帮助文档
        关系数据库SQL Server版
        最佳实践
        通过DRS备份迁移SQL Server
        方案正文
      • 产品定义
        了解什么是存储资源盘活系统。 HBlock是中国电信天翼云自主研发的存储资源盘活系统(Storage Resource Reutilization System,简称SRRS),是一款轻量级存储集群控制器,实现了全用户态的软件定义存储,将通用服务器及其管理的闲置存储资源转换成高可用的虚拟磁盘,通过标准 iSCSI 协议提供分布式块存储服务,挂载给本地服务器(或其他远程服务器)使用,实现对资源的集约利用。同时,产品拥有良好的异构设备兼容性及场景化适配能力,支持数据上传到对象存储,提供软件和一体机两种产品形态。 在非联网模式下,HBlock软件可被视为本地盘阵的替代品,用于本地数据存储;在联网模式下,HBlock软件还可以作为本地与云端存储之间的桥梁,将全量数据自动同步到对象存储中,本地仅保留热数据以节省本地存储空间,或者保留全量数据以保障本地I/O性能,实现混合云存储。
        来自:
        帮助文档
        存储资源盘活系统
        产品简介
        产品定义
      • 删除集群(按需计费)
        本文主要介绍 删除集群(按需计费)。 操作场景 本章节以计费模式为“按需计费”的CCE集群为例,介绍如何删除集群。 包周期的集群支持退订操作,详情请参见退订释放集群(包年/包月)。 注意事项 删除集群时,纳管以及包周期节点将会从集群中移除并重装系统,节点原有的登录密码将会失效,请重新设置节点密码。 删除集群不会删除集群下包周期的资源,相关资源在集群删除后将会继续计费,请妥善处理。 删除集群会删除集群下的节点(纳管节点不会被删除)、节点挂载的数据盘、工作负载与服务,相关业务将无法恢复。在执行操作前,请确保相关数据已完成备份或者迁移,删除完成后数据无法找回,请谨慎操作。 部分不是在CCE中创建的资源不会删除: 纳管的节点(仅删除在CCE中创建的节点) Service和Ingress关联的ELB实例(仅删除自动创建的ELB实例) 手动创建PV关联的云存储/导入的云存储(仅删除PVC自动创建的云存储) 处于休眠状态的集群无法直接删除,请将集群唤醒后重试。 集群不可用时删除集群,存储会残留。 集群版本为v1.13.10及之前版本时,请勿在ELB服务手动修改监听器名称和后端服务器名称,否则删除集群会有资源残留。 操作步骤 步骤 1 登录CCE控制台,在左侧导航栏中选择“集群管理”。 步骤 2 单击待删除集群后的。 图 删除集群 步骤 3 在弹出的“删除集群”窗口中,根据系统提示,勾选删除集群时需要释放的资源。 删除集群下工作负载挂载的云存储 说明 删除集群中的存储卷声明和存储卷,存在如下约束: 1. 底层存储依据指定的回收策略进行删除。 2. 对象存储桶下存在大量文件(超过1000)时,请先手动清理桶内文件后再执行集群删除操作。 删除集群下负载均衡ELB等网络资源(仅删除自动创建的ELB资源) 步骤 4 单击“是”,开始执行删除集群操作。 删除集群需要花费1~3分钟,请耐心等候。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        管理集群
        删除集群(按需计费)
      • 级联平台管理
        本节主要介绍如何在智能视图服务控制台维护级联平台和设备。 在级联页面左侧目录树,可以对级联平台进行查看、编辑和删除操作。 在级联页面右侧的设备列表中,可以点击【移除】从级联列表中移除该视频资源;也可勾选复选框,点击列表正上方的【移除选中设备】进行批量移除操作。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        向上级联
        级联平台管理
      • SDK参考
        本页介绍了文档数据库服务产品支持的SDK,您可以根据实际业务需求进行集成。 各语言SDK下载及使用 支持语言 SDK附件 Java DDSSDKJAVA.zip(v1.0.0) GO DDSSDKGO.zip(v1.0.0) 说明 由于运行环境的多样性,部分接口在某些特定配置下可能存在适配差异,我们的技术团队将持续优化兼容性。如有问题,可提单咨询。
        来自:
      • 编辑安全组
        本页介绍了如何编辑实例安全组。 文档数据库服务支持修改实例的安全组,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”菜单,进入实例列表页。 3. 选择需要修改的实例,点击该实例的实例ID,进入实例详情。 4. 在“网络”栏中找到“安全组”信息,点击“编辑”按钮(部分资源池为“修改”按钮)。 5. 在“编辑用户安全组”弹窗中,选择需要修改的安全组,点击“确定”按钮,即可完成安全组修改。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据库管理
        编辑安全组
      • 历史事件
        操作场景 文档数据库服务事件管理功能主要是用来便于用户查看相关实例系统通知的事件,事件管理分为计划内事件和历史事件,用户可以在“事件管理”中查看系统通知的事件。 操作步骤 1. 登录TeleDB数据库控制台首页。 2. 点击“DDS”>“事件管理",即可看到历史事件页面。 3. 历史事件列表显示的都是计划内事件变更过来的数据。 4. 用户可以在历史事件页面的搜索框根据实例ID搜索指定实例的历史事件。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        事件管理
        历史事件
      • DMS for Kafka资源
        本文主要介绍DMS for Kafka资源。 资源是服务中存在的对象。在DMS for Kafka中,资源包括:kafka,您可以在创建自定义策略时,通过指定资源路径来选择特定资源。 表 DMS for Kafka的指定资源与对应路径 指定资源 资源名称 资源路径 kafka 实例 【格式】DMS:::kafka:Instance ID 说明 对于实例资源,IAM自动生成资源路径前缀DMS:::kafka: 通过实例ID指定具体的资源路径,支持通配符。例如: DMS:::kafka:表示任意Kafka实例。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        DMS for Kafka资源
      • 终端节点监控
        本文帮助您了解如何查看终端节点相关的监控图表数据并设置告警规则,约定在一些特殊情况出现时向用户发送告警通知。 操作场景 VPC终端节点监控支持终端节点维度的监控。您可以通过云监控依据细颗粒度的监控指标获得有关终端节点的各种监控数据信息, 也可以通过设置适当的报警阈值和报警策略,及时发现并处理潜在的问题。 使用须知 云监控服务不需要开通,会在您使用VPC终端节点服务后自动启动。 查看监控数据 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“管理与部署>云监控”。 4. 在云监控控制台左侧导航栏,点击“VPC终端节点监控”,即可进入VPC终端节点服务监控页面。 5. 在VPC终端节点监控页面选择终端节点页签,点击要查看的终端节点的名称/ID进入该终端节点监控详情页面。 6. 在终端节点监控数据界面中,可查看该终端节点的各项监控指标,分别为流入带宽、流出带宽、流入数据包速率、流出数据包速率、流入丢弃带宽、流出丢弃带宽、流入丢弃数据包速率、流出丢弃数据包速率、并发连接。 监控指标说明 这些监控指标可以帮助您了解终端节点的网络性能以及数据流量情况。 监控指标 说明 流入带宽 终端节点流入的数据带宽大小。 流出带宽 终端节点流出的数据带宽大小。 流入数据包速率 终端节点每秒钟流入的数据包数量。 流出数据包速率 终端节点每秒钟流出的数据包数量。 流入丢弃带宽 终端节点流入时被丢弃的数据带宽大小。 流出丢弃带宽 终端节点流出时被丢弃的数据带宽大小。 流入丢弃数据包速率 终端节点每秒钟流入时被丢弃的数据包数量。 流出丢弃数据包速率 终端节点每秒钟流出时被丢弃的数据包数量。 并发连接 终端节点的并发连接数。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点管理
        终端节点监控
      • GPU监控
        通过弹性云主机控制台查看GPU监控项 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 > 弹性云主机”。 4. 在弹性云主机列表页点击某一GPU云主机的主机名称进入主机详情页。 5. 点击“监控”tab,选择“GPU使用率”或"显存使用率"即可查看该台GPU云主机下全部显卡的这两个GPU监控项。 通过云监控控制台查看GPU监控项 目前有两种方式可以进入云监控控制台查看GPU监控项,具体如下: 方式一 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 > 弹性云主机”。 4. 在弹性云主机列表页点击某一GPU云主机的主机名称进入主机详情页。 5. 点击“监控”tab,点击"查看更多监控指标详情"跳转至云主机监控控制台。 6. 点击“操作系统监控>GPU”,查看全量的GPU监控项。若该台GPU云主机挂载了多块显卡,则可在下拉框中选择对应的GPU查看该GPU的GPU使用率、GPU显存使用量、GPU显存使用率、GPU温度、GPU功耗。 方式二 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“管理与部署> 云监控”。 4. 单击"主机监控>云主机监控",进入云主机监控列表页。 5. 选中所要查看的GPU云主机,点击“操作>查看监控图标”,进入云主机监控详情页。 6. 点击“监控”tab,点击"查看更多监控指标详情"跳转至云主机监控控制台。 7. 若该台GPU云主机挂载了多块显卡,则可在下拉框中选择对应的GPU查看该GPU的GPU使用率、GPU显存使用量、GPU显存使用率、GPU温度、GPU功耗。 注意 1. 如未安装驱动则GPU监控项将为空,请您安装驱动。 2. 目前图形加速基础型GPU云主机的GPU温度、GPU功率为空,无法提供监控告警。
        来自:
        帮助文档
        GPU云主机
        用户指南
        管理GPU云主机
        GPU监控
      • 配置自动伸缩
        本节介绍了自动伸缩的操作场景、前提条件和操作步骤。 操作场景 在集群固定规模的基础上,通过配置自动伸缩策略,可使集群规模具备自动弹性调整的能力。在配置自动伸缩策略后,根据调度器感知的实时负载,队列可自动扩容或缩容按需计费的计算节点,提高集群的灵活性,节约成本。 前提条件 1. 集群和集群节点状态都为运行中。 2. 仅支持Slurm调度器。 操作步骤 1. 登录弹性高性能计算控制台。 2. 在概览页选择“自动伸缩”。 3. 选择需要自动伸缩的队列,点击“创建”。 4. 在创建自动伸缩页面,完成伸缩参数配置。 配置项 说明 伸缩名称 长度为115个字符,仅支持数字、英文字母或下划线,必须以英文字母为首。 应用队列 默认展示选择的应用队列。 伸缩组最大节点数(台) 配置伸缩组内的最大节点数,当伸缩组内节点数大于最大节点数时,自动伸缩服务会自动移出节点,使得队列的当前实例数等于最大节点数。 伸缩组最小节点数(台) 配置伸缩组内的最小节点数,当伸缩组内节点数小于最小节点数时,自动伸缩服务会自动添加节点,使得队列的当前实例数等于最小节点数。 自动扩容 是否开启自动扩容。 自动缩容 是否开启自动缩容。 缩容时间(分钟) 计算节点的连续空闲时间超过缩容时间时,该节点会被释放。 伸缩策略 全量策略:根据单次最大伸缩节点数和伸缩组满足节点数,全量伸缩所需的节点数,不考虑队列中已有的空闲节点数。 增量策略:根据单次最大伸缩节点数、伸缩组满足节点数以及队列已有空闲节点数。增量伸缩所需的节点数。 计算节点规格 选择自动扩容节点的规格。 镜像 选择自动扩容节点的镜像。 注:该镜像为弹性高性能计算平台定制镜像,请优先保持集群同一镜像。 计算节点硬盘 选择自动扩容节点规格所对应的硬盘。 子网 选择子网,建议同一个队列保持子网一致。 5.在页面下方,阅读并同意相关协议《天翼云弹性高性能计算服务协议》,点击立即创建。
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        用户指南
        管理集群
        配置自动伸缩
      • 1
      • ...
      • 253
      • 254
      • 255
      • 256
      • 257
      • ...
      • 499
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      训推服务

      应用托管

      一站式智算服务平台

      推荐文档

      删除

      云课堂 第六课:如何让云主机不放在同一个篮子里

      【2019】633号关于调整非经营性互联网信息服务备案编号的通知

      Client端Windows版本

      云课堂 第四课:实战天翼云云主机系统盘扩容

      性能瓶颈定界

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号