活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云弹性文件服务_相关内容
      • 创建实例
        说明:本章节会介绍在关系型数据库服务的管理控制台创建实例的过程 操作场景 本节将介绍在关系型数据库服务的管理控制台创建实例的过程。 RDS for MySQL支持“包年/包月”和“按需计费”购买,您可以根据业务需要定制相应计算能力和存储空间的关系型数据库实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击“创建数据库实例”。 步骤 5 在“服务选型”页面,选择计费模式,填写并选择实例相关信息后,单击“立即购买”。 计费模式: 包年/包月:若选择该模式,跳过步骤6,执行步骤7。 按需计费:若选择该模式,继续执行步骤6。 表1 基本信息 参数 描述 区域 租户当前所在区域,也可在页面左上角切换。 说明 不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 实例名称 实例名称长度在4个到64个字符之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 数据库引擎 MySQL。 数据库版本 不同区域所支持的数据库版本不同,请以实际界面为准。 选用MySQL数据库时,请根据实际业务需求选择合适的数据库引擎版本。建议您选择当前可用的最高版本数据库,因其性能更稳定,安全性更高,使用更可靠。 实例类型+可用区 l 主备:备机提高了实例的可靠性,创建主机的过程中,同步创建备机,备机创建成功后,用户不可见。 可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 关系型数据库服务支持在同一个可用区内或者跨可用区部署数据库主备实例,备机的选择和主机可用区对应情况: − 相同,主机和备机会部署在同一个可用区。 − 不同(默认),主机和备机会部署在不同的可用区,以提供不同可用区之间的故障转移能力和高可用性。 l 单机:只创建一个主实例。 时区 由于世界各国家与地区经度不同,地方时也有所不同,因此会划分为不同的时区。时区可在创建实例时选择,后期可修改。 表2 规格与存储 参数 描述 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 创建成功后可进行规格变更。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 l 普通I/O:磁盘类型SATA,最大吞吐量90MB/s l 高I/O:磁盘类型SAS,最大吞吐量150MB/s l 超高I/O:磁盘类型SSD,最大吞吐量350MB/s 存储池 只有选择“专属存储”的用户才有此选项,是购买专属分布式存储服务时确定的独享的存储池,该存储池与其他池物理隔离,安全性高。 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。存储空间支持40GB到4000GB,用户选择容量大小必须为10的整数倍。 表3 网络 参数 描述 虚拟私有云 关系型数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。如何创建虚拟私有云,请参见《虚拟私有云用户指南》中的“创建虚拟私有云基本信息及默认子网”。 如果没有可选的虚拟私有云,关系型数据库服务默认为您分配资源。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效,创建关系型数据库实例的子网默认开启DHCP功能,不可关闭。 创建实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址可修改。 内网安全组 内网安全组限制实例的安全访问规则,加强关系型数据库服务与其他服务间的安全访问。请确保所选取的内网安全组允许客户端访问数据库实例。 如果不创建内网安全组或没有可选的内网安全组,关系型数据库服务默认为您分配内网安全组资源。 IPv6 启用IPv6前,请确保数据库实例所在的VPC和子网已开启IPv6配置,在VPC和子网开启IPv6配置的应用场景和操作步骤,请参见《虚拟私有云操作指导》中的“IPv4/IPv6双栈管理”章节。 启用IPv6后,数据库实例可在双堆栈模式下运行,即可以拥有两个不同版本的IP地址:IPv4地址和IPv6地址。此时实例通过IPv4和IPv6进行通信,且IPv4和IPv6通信彼此独立。 表4 数据库配置 参数 描述 管理员帐户 数据库的登录名默认为root。 管理员密码 所设置的密码长度为8~32个字符,至少包含大写字母、小写字母、数字、特殊字符三种字符的组合,其中允许输入~!@
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        快速入门
        通过公网连接MySQL实例
        创建实例
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 存储基础知识
        本节介绍了用户指南;存储基础知识。 数据卷(Volume) Container 中的文件在磁盘上采用临时存储机制,这给给 Container 中运行的重要应用程序带来以下影响: 容器崩溃时文件丢失: kubelet 虽然会重新启动容器,但容器会以干净的状态重启,原有文件数据不可恢复。 多容器文件共享困难:在同一 Pod 中运行多个容器并需要共享文件时,临时存储无法提供稳定的的共享存储空间。 Kubernetes 卷(Volume)能够有效解决上述问题: 卷提供持久化存储:卷通过将容器文件挂载到持久化存储介质(如网络存储或本地磁盘),确保容器重启后数据仍然保留。 多容器共享相同的卷:同一 Pod 中的多个容器可挂载相同的卷,实现高效的文件共享与通信,避免数据复制和同步的开销。 数据卷(Volume)是 Pod 与外部存储设备之间的数据传输通道,同时也是 Pod 内部容器之间、Pod 之间以及 Pod 与外部环境实现数据共享的机制。 Kubernetes 支持多种类型的 Volume。通常,与 Kubernetes 代码一同发布和迭代的内置存储卷插件属于 InTree 类型;而由存储服务商基于 CSI 或 FlexVolume 接口扩展的、独立于 Kubernetes 代码的存储卷插件则称为 OutOfTree 类型。目前,CSI 是更受推荐的扩展接口。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        存储基础知识
      • 审计日志
        本章节介绍云原生网关的审计日志功能 概述 您可以在云原生网关控制台上查看审计日志。如果当前帐号为主帐号,则可以查询当前帐号及其所有子账号在控制台上的操作日志;如果当前帐号为某个主账号下的子账号,则可以查询该子账号在控制台的操作日志。审计日志用于收集云原生网关实例的相关操作日志,记录资源的变动情况。其中资源主要包括实例、安全认证、路由、服务、服务来源、插件、应用管理、域名、ELB和观测分析。变动情况包括增加、删除和修改。 操作步骤 1. 登录微服务引擎MSE云原生网关管理控制台,选择资源池。 2. 在左侧导航栏,选择云原生网关 > 网关列表。 3. 在左侧导航栏,选择审计日志。 4. 可选择开始结束时间,资源类型,操作类型,操作人,操作详情进行过滤。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        审计日志
      • 升级HBlock
        本节主要介绍如何使用API升级HBlock。 此操作用来升级HBlock。 说明 可以通过查询升级进度接口查询升级服务是否完成。 升级过程中系统会做检查,如果不符合升级条件,可能会导致升级失败,升级失败的原因可以在执行升级操作的服务器上查看日志upgrade.log(日志路径:HBlock安装目录/logs/ops/upgrade.log)。建议升级之前对系统进行检查,确保: 所有状态正常: 所有HBlock服务器连接正常,没有处于删除状态的服务器。 HBlock处于working、upgrading状态。 如果软件许可证是订阅模式,需在有效期内;如果软件许可证是永久许可模式,需在维保期限内;如果处于试用期,需试用期未结束。 如果卷是高可用类型,至少保证卷的主备连接正常。 没有处于失败或者任务进行中状态的卷。 系统整体数据冗余度不降级,正常数据百分比为100%。并且,可用故障域数量和健康数量大于所有卷的写入需求。 升级监听服务(stor:ua)正常。 协议解析服务(stor:ps)正常。 基础服务正常:元数据管理服务(stor:mdm)、日志服务(stor:ls)、协调服务(stor:cs)。 HBlock使用的磁盘不存在Error状态。 注意 执行升级HBlock前,确保每个服务器的HBlock安装路径对应的文件系统,存在至少1 GiB的可用空间。 如果集群由不同架构服务器组成,请添加所有架构的升级文件,并保持版本一致。 请求语法 同架构升级: plaintext PUT /rest/v1/system/upgrade HTTP/1.1 Date: date ContentType: application/zip ContentLength: length xupdateparameter: key1value1;key2value2 Host: ip:port Authorization: authorization 混合部署升级(仅集群版支持): plaintext POST /rest/v1/system/upgrade HTTP/1.1 Date: date ContentType: multipart/formdata; boundaryvalue ContentLength: length ContentMD5: MD5 xupdateparameter: key1value1;key2value2 Host: ip:port Authorization: authorization upgradeFile1name:upgradeFile1 upgradeFile2name:upgradeFile2 ……
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        升级HBlock
        升级HBlock
      • 云硬盘备份的用户场景
        本章节介绍云硬盘备份的应用场景:数据备份恢复和业务快速迁移部署。 云硬盘备份可为多种资源提供备份保护服务,有效保障用户数据的安全性和正确性,确保业务安全。云硬盘备份适用于数据备份和恢复以及业务快速迁移和部署的场景。 数据备份和恢复 云硬盘备份在以下场景中,均可快速恢复数据,保障业务安全可靠。 受黑客攻击或病毒入侵 通过云硬盘备份,可立即恢复到最近一次没有受黑客攻击或病毒入侵的备份时间点。 数据被误删 通过云硬盘备份,可立即恢复到删除前的备份时间点,找回被删除的数据。 应用程序更新出错 通过云硬盘备份,可立即恢复到应用程序更新前的备份时间点,使系统正常运行。 云主机宕机 通过云硬盘备份,可立即恢复到宕机之前的备份时间点,使服务器能再次正常启动。 业务快速迁移&部署 为云服务器的系统盘创建镜像、数据盘创建备份,利用镜像和备份,可快速复制一个或多个与现有云服务器相同配置的云服务器。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        云硬盘备份的用户场景
      • 文件概述
        本节简要介绍文件(Object)信息。 用户存储在OOS上的每个文件都是一个Object,也被称为OOS的文件。文件可以是文本、图片、音频、视频或者网页。OOS支持的单个文件的大小从1字节到5T字节。用户可以上传、下载、删除和共享文件,还可以对文件的组织形式进行管理,将文件(Object)移动或者复制到目标目录下。 文件包含以下信息: Key:文件名称。 Data:存储的文件数据内容。 MetaData:文件元数据,表示文件的一些属性信息,如文件的最后一次修改的时间、文件大小等信息。 说明 在存储桶(Bucket)中可以创建文件夹,这里的文件夹并不是文件系统中文件夹的概念。为了方便用户进行数据管理,OOS提供了一种模拟文件夹。实际上OOS内部是通过在文件(Object)名称中增加“/”,将该文件(Object)在控制台上模拟成一个文件夹的形式展现。例如在OOS的某一存储桶中创建名为A的文件夹,待上传的文件为B.txt,将B.txt上传到A内,则文件名称(Key值)为:A/B.txt。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        文件管理
        文件概述
      • 签名介绍
        短信签名是短信服务提供的一种快捷、方便的个性化签名方式。当发送短信时,短信平台会根据设置,在短信内容里附加个性签名,再发送给指定手机号码。 签名概述 短信服务可以根据用户属性创建符合自身属性的签名,一般建议设置为账号主体所在机构的全称或简称。当发送短信时,短信平台会将已审核通过的个性化短信签名添加到短信内容中,再发送给短信接收方。 签名用途 提交签名审核时,需要指定签名的 签名用途 :分为自用和他用 自用 :使用与登录账号主体一致的资质进行登记。 他用 :使用与登录账号主体不一致的主体进行登记,通常为代他人申请。 签名示例 例如,企业主体为“天翼云科技有限公司”,则可以提交的签名如下: 企业全称或简称:【天翼云】、【天翼云科技】,与企业营业执照名称一致。 企业拥有商标:商标应在国家知识产权局商标局中国商标网( APP名称:在工信部 ICP/IP地址/域名信息备案管理系统( /Integrated/recordQuery)可以查询到的APP名称, 该APP的ICP备案主体与公司名称一致。 政府/机关事业单位全称或简称:全称需与组织/机构证照上的名称完全一致,简称需包含在证照上的全称中,且须与其他组织/机构无混淆、重名。 不能使用没有任何意义或者意义宽泛的名称代替,例如:管理系统、业务告警等。 注意 因签名不合规导致的运营商报备失败或者被自动清理的,我方概不负责。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        用户指南
        签名
        签名介绍
      • 基本概念
        本文主要介绍云日志服务中数据加工的基本概念。 基本概念 ETL ETL是指将对业务系统的数据进行抽取、清洗、转换、加载的过程,从而整合零散、不标准、不统一的数据。云日志服务支持加载源日志单元数据,将数据转换后输出到目标日志单元。 事件、数据、日志 在数据加工功能中,事件、数据都表示日志,例如事件时间就是日志时间,丢弃事件字段函数edropfields就是用于丢弃特定日志字段的函数。 日志时间 日志时间指事件所发生的时间,也称事件时间。在云日志服务中的保留字段为time,一般由日志中的时间信息直接提取生成。数据类型为整数字符串,Unix标准时间格式,单位为秒,表示从197011 00:00:00 UTC计算起的秒数。 日志标签 日志存在标记,区别于其他字段,在数据加工中,标签字段以tag:作为前缀。包括: 用户自定义标签:用户通过API PutLogs写入数据时添加的标签。 系统标签:云日志服务为用户添加的标签,包括clientip和receivetime。 配置相关概念 源日志单元 数据加工中,从中读取数据再进行加工的日志单元是源日志单元。 一个加工任务仅支持一个源日志单元,但可以对一个源日志单元配置多个加工任务。 目标日志单元 数据加工中,数据写入的日志单元是目标日志单元。 一个加工任务可以配置多个目标日志单元,可以是静态配置,也可以是动态配置。具体配置方法,请参见多目标日志单元数据分发。 DSL DSL(Domain Specific Language)是云日志服务数据加工使用的一种Python兼容的脚本语言。DSL基于Python提供内置一百多个函数,简化常见的数据加工模式。也支持用户自定义的扩展Python脚本。
        来自:
        帮助文档
        云日志服务
        用户指南
        数据加工
        基本概念
      • 安装Linux应用服务器
        本小节主要介绍安装Linux应用服务器。 基础环境要求 系统要求:CentOS release 7.9最小安装系统。 网络要求:服务器需要有公网访问权限(绑定弹性EIP)。 防火墙要求:开放2376(docker服务)端口和3500040000端口。 前提条件 已获取Linux服务器root帐号密码。 操作步骤 1 使用root账号登录Linux服务器。 2 在Linux服务器中,下载Linux环境apppublisherx8664xxx.tar.gz(xxx为版本号)压缩包。 3 在Linux服务器中,执行以下命令,将apppublisherx8664xxx.tar.gz(xxx为版本号)压缩包进行解压。 tar xvf apppublisher.tar.gz cd apppublisher 4 环境之前是否已安装过firefox应用发布服务器 是,执行以下命令,把之前安装的firefox docker镜像删除。 docker rmi 127.0.0.1:5000/psmfirefox:0.2 删除后,继续执行步骤5。 否,执行步骤5。 5 执行以下命令,部署脚本。 /bin/bash install.sh 6 执行以下命令,检查服务状态。 active (running)表示应用发布服务器安装成功。 7 创建share目录(仅针对堡垒机V3.3.26.0版本)。 mkdir /opt/autorun/share 8 (可选)重启应用发布服务器。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        安装应用发布服务器
        安装Linux应用服务器
      • 应用场景
        本小节介绍域名无忧应用场景。 长久以来,域名劫持事件频繁发生,受影响的企业遭受到经济和名誉的双重损失,无数网民也深受其害。大多数域名劫持事件的影响持续数个小时或更久,但是真正的故障时间并没有那么长。不过,由于各层服务器缓存受到根服务器影响,在电信运营商没有对递归DNS手动刷新的情况下,影响可持续数个小时。 域名实施监控场景 DNS污染的数据包并不是在网络数据包经过的路由器上,而是在其旁路产生的。所以DNS污染并无法阻止正确的DNS解析结果返回,但由于旁路产生的数据包发回速度较国外DNS服务器发回速度快,操作系统认为第一个收到的数据包就是返回结果,从而忽略其后收到的数据包,从而使得DNS污染得逞。天翼云域名无忧会实时监控域名的解析结果与预设置的解析结果进行比对,如果检测到域名异常,则生成域名告警信息。 域名一键刷新场景 网域的局域域名服务器的缓存受到污染,就会把网域内的域名引往错误的服务器或服务器的网址,导致正确域名无法访问,给企业或个人带来不可估量的损失。天翼云域名无忧可以有效解决此问题,天翼云域名无忧实时监控电信所有省份DNS服务的解析结果,用户发现DNS解析异常,可以手动执行域名刷新操作,使域名快速恢复至可用状态。
        来自:
        帮助文档
        域名无忧
        产品介绍
        应用场景
      • 导出工单列表
        本页介绍天翼云TeleDB数据库导出工单列表相关操作。 1、工单查询 输入查询条件单击查询按钮,执行查询操作。 2、数据导出 单击数据导出 按钮可添加新的数据导出任务,详见提交导出任务章节。 3、执行异常查看 执行异常的工单,可以单击工单状态上的,查看异常原因。 4、工单详情 在工单列表找到目标工单,在操作列单击详情按钮,在打开的工单详情弹窗可查看目标工单的详细信息。 5、重试 针对异常的工单,可以根据异常原因,进行选择是否需要重试,单击重试按钮即可进行重试。 6、下载 工单状态是执行完成的时候,会出现下载按钮,单击即可进行下载,鼠标浮至下载中按钮时,可查看当前实时下载进度。 注意 文件导出完成后,有效期为24小时,须在有效期内进行下载。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        数据导出
        导出工单列表
      • 网络安全
        本页介绍了网络安全。 文档数据库服务采取了哪些措施来确保数据安全 文档数据库服务是虚拟私有云,从而确保实例与其它业务实现网络安全隔离。 为什么在虚拟私有云中使用文档数据库服务 安全性:在虚拟私有云中部署文档数据库服务可以提供更高的安全性。VPC 提供了网络隔离和访问控制,可以限制数据库实例只对特定的私有网络或子网可见,从而降低了公网暴露的风险。 性能:在虚拟私有云中部署文档数据库服务可以获得更好的性能。VPC 提供了低延迟的网络连接,使得应用程序可以快速地与数据库实例进行通信,从而提高了响应速度和吞吐量。 隔离:使用虚拟私有云可以将文档数据库服务实例隔离在私有网络中,这样其他云资源或虚拟机不会直接访问数据库,避免了资源竞争和干扰,提高了数据库的稳定性和可靠性。 在虚拟私有云中运行文档数据库服务时,如何确保其安全性 网络隔离将文档数据库服务部署在私有网络中,限制数据库实例只对特定的私有网络或子网可见,避免公网暴露,减少外部攻击的风险。 文档数据库服务是否支持选择创建IPV6子网 目前不支持选择IPV6网段的子网,建议您在使用时创建并选择IPV4网段的子网。 怎样在Windows和Linux操作系统中导入根证书 导入Windows操作系统 登陆文档数据库服务控制台,点击实例管理,点击需要证书的实例id进入基本信息,点击下载证书即可。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        网络安全
      • 设置自定义告警规则
        项目 告警项 阈值告警(指标告警) 实例CPU使用率 实例内存使用率 实例磁盘使用率 实例TPS 实例QPS 实例连接使用率 实例复制延迟时间 实例连接数 实例活动线程数 MySQL执行语句时在硬盘上自动创建的临时表的数量 打开表数 InnoDB Buffer Pool读缓存命中率 mdl锁阻塞的连接数 当前全部会话 当前活跃会话 MySQL服务进程CPU使用率 备份空间使用量 MySQL读写吞吐量 慢查询次数 InnoDB表平均等待行锁时间 InnoDB表等待行锁次数 备份空间使用率(如果是对象存储实例,则按照免费额度的百分比进行告警) 等待表锁次数dml级 长事务个数 状态告警 实例状态(异常告警) 事件告警 主备切换 密码过期提醒 备份失败 恢复失败 SSL证书到期 磁盘空间即将耗尽 数据库代理异常 数据库代理关联节点剔除 数据库代理关联节点加入 说明 可通过参数设置修改defaultpasswordlifetime参数,此变量用于定义全局自动密码过期策略,单位为天,为0时表示永不过期。 如果将其设置为n天,则从账户密码创建起,在到期前3天(第n3天)会收到密码到期提醒,请及时更换密码。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        设置自定义告警规则
      • 组件评估报表整合搜索
        本节为您介绍云迁移服务CMS异构评估, 组件评估报表整合搜索。 云迁移服务CMS提供异构评估组件评估报表整合搜索功能,您可以在异构评估 [ 组件评估报表整合 ] 界面根据时间或任务名称搜索目标任务,如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        迁移评估
        异构评估
        组件评估报表整合搜索
      • 概述
        本文介绍媒体处理相关功能,包括直播转码、直播录制、直播截图和直播回调的详细操作。 概述 在功能配置模块,您可以配置直播转码、直播录制或直播截图等媒体处理相关功能。直播转码、直播录制和直播截图为增值服务,使用后会按需收取对应的费用。 功能简介 功能 说明 直播转码 支持在直播控制台配置转码模板并绑定到对应域名上,实现对直播流的转码及播放。 直播录制 支持在直播控制台配置录制模板并绑定到对应域名上,实现对推流进行录制并将录制文件存储到媒体存储中。 直播截图 支持在直播控制台配置截图模板并绑定到对应域名上,实现对直播流进行截图并将截图文件存储到媒体存储中。 直播回调 支持配置录制和截图的回调地址。 批量域名IP封禁 支持在直播控制台批量配置封禁IP,并支持配置封禁IP时长。
        来自:
        帮助文档
        视频直播
        用户指南
        功能配置
        概述
      • 上传加速计费
        中国内地价格 基本描述:按流量阶梯价格计费,当月分别超额累进(以自然月为一个累计周期)。 流量阶梯 标准资费 单位 (0TB,10TB] 3 元/GB (10TB,50TB] 2.7 元/GB (50TB,+∞] 2.25 元/GB 注意事项 如果您对上传加速服务有突发带宽使用需求,请至少提前3个工作日(重大节日的突发,包括但不限于春晚,双十一等,需要提前至少1个月)联系天翼云申请突发带宽用量。若申请成功,在双方约定的突发量级内,可确保您的服务不受影响;若申请不成功或未申请的,天翼云有权采取限流等措施来保障全网用户的稳定性,由此导致的可用性问题,天翼云不承担责任 。符合以下情况之一的都属于“突发带宽”: a.带宽计费客户:本自然月(日)带宽增量超过100Gbp,或本自然月(日)的带宽增量超出上月(日)计费带宽的30%(另有约定的,从其约定); b.流量计费客户:本自然月带宽峰值超过10Gbps。 带宽利用率 实际使用流量值(GB) /(带宽峰值Mbps x 10.54);1Mbps带宽每日100%利用率产生的流量约为10.54GB。 上传加速计费的流量比日志中记录的流量多。因为上传加速日志中记录的流量数据是应用层日志统计出的流量,但是实际网络请求中存在TCP/IP包头的消耗和TCP重传消耗,要比应用层统计到的流量高出7%~15%,因此按照业界标准,应用于账单的计费数据会比基于访客日志计算得出的计费值上浮10%。 如果您的上传加速月消费金额大于10万元,天翼云可提供更灵活优惠的按月计费方式。您可以提交工单或拨打4008109889电话联系客服咨询。 上传加速计费按照1000进制换算,例如:1Gbps1000Mbps;1GB1000MB。
        来自:
        帮助文档
        全站加速
        计费说明
        按量计费
        上传加速计费
      • 错误码
        本文介绍日志接入常见错误码。 常见错误码请参考下表: statusCode error message 1 LTS8000 请求失败,请稍候重试,或提交工单反馈 1 LTS8001 内容不合法,无法解析 1 LTS8002 日志内容中有无效的日志时间戳 1 LTS8003 日志内容中有非UTF8字符 1 LTS8004 日志内容包含的日志必须小于[x] MB和[y]条 1 LTS8005 日志中时间范围不在[724小时 + 15分钟]有效范围内 1 LTS8006 日志内容解压失败 1 LTS8007 Token失效,请重新获取 1 LTS8008 云日志服务产品失效,请续费或重新开通 1 LTS8009 无云日志服务产品实例,请先开通云日志服务 1 LTS8010 日志项目不存在 1 LTS8011 日志单元不存在 1 LTS18000 调用ITIAM的接口失败
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        错误码
      • 修改admin密码
        本章主要介绍翼MapReduce的修改admin密码功能。 操作场景 “admin”是FusionInsight Manager的系统管理员帐号,建议用户通过FusionInsight Manager定期修改密码,提高系统安全性。 操作步骤 1.登录FusionInsight Manager。 需使用“admin”登录。 2.移动鼠标到界面右上角的“Hello, admin”。 在弹出菜单中单击“修改密码”。 3.分别输入“旧密码”、“新密码”、“确认新密码”,单击“确定”完成修改。 默认密码复杂度要求: 密码字符长度为8~64位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符5种类型字符中的4种。支持的特殊字符为~!?,.;'(){}[]/<>@$%^&+。 不可和用户名相同或用户名的倒序字符相同。 不可以为常见的易破解密码。 不可与最近N次使用过的密码相同,N为密码策略配置章节中“重复使用规则”的值。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        修改系统用户密码
        修改admin密码
      • 节点CCEAgent版本检查
        本文主要介绍 节点CCEAgent版本检查。 检查项内容 检测当前节点的CCE包管理组件cceagent是否为最新版本。 解决方案 cceagent非最新版本时,自动更新失败,该问题通常由OBS地址失效或组件版本过低引起。 步骤 1 登录检查通过的 正常节点 ,获取cceagent配置文件路径,查看有效OBS地址。 cat ​ps aux grep cceagent grep v grep awk F 'f ''{print $2}'​ 配置文件内的OBS配置地址字段为packageFrom.addr 步骤 2 登陆检查失败的 异常节点 ,参考上一步重新获取OBS地址,检查是否一致。若不一致,请将异常节点的OBS地址修改为正确地址。 步骤 3 通过以下命令下载最新的二进制文件。 x86系统 curl k " > /tmp/cceagent ARM系统 curl k " > /tmp/cceagentarm 步骤 4 替换原有的cceagent二进制文件。 x86系统 mv f /tmp/cceagent /usr/local/bin/cceagent chmod 750 /usr/local/bin/cceagent chown root:root /usr/local/bin/cceagent ARM系统 mv f /tmp/cceagentarm /usr/local/bin/cceagentarm chmod 750 /usr/local/bin/cceagentarm chown root:root /usr/local/bin/cceagentarm 步骤 5 重启cceagent服务。 systemctl restart cceagent 若您对上述执行过程有疑问,请联系技术支持人员。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        升级前检查
        节点CCEAgent版本检查
      • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        2.1 服务配置 2.1.1 核心参数设置 根据具体使用的模型,修改node.sh 中的内容: plaintext export MODELDIR/mnt/nvme1n1/model/DeepSeekR1DistillLlama70B export MINDIEIMGmindie2.0.T6.B023800IA2py3.11openeuler24.03ltsaarch64.sif 其中: MODELDIR 为模型本地盘中的具体路径 MINDIEIMG为使用的mindie容器 设定服务启动主节点,修改config.json的内容: plaintext ... "ServerConfig" : { "ipAddress" : "192.168.0.3", "managementIpAddress" : "192.168.0.3", ... 将这里192.168.0.3 改为本机IP地址。 2.2 DeepSeek服务启动 仅需如下3条命令,即可启动服务(根据模型大小,启动服务需等待530分钟不等) plaintext cd /mnt/nvme0n1/deepseek sh run.sh INFO: instance started successfully 查看logds目录下的out文件,当出现如下信息时,表示服务启动成功: plaintext tail f logds/webui20250320160926.out Daemon start success! 2.3 查看DeepSeek状态 查看容器实例作业运行信息命令 plaintext apptainer instance list 2.4 DeepSeek服务停止 停止DeepSeek服务命令 plaintext apptainer instance stop appmindie 三、运维验证 plaintext 检查项 验证命令 预期结果 NPU设备状态 watch n 1 npusmi info 显示所有NPU状态为OK 容器运行状态 apptainer instance list appmindie状态为running 服务端口监听 netstat tunlpgrep xxx xxx端口处于LISTEN状态
        来自:
        帮助文档
        物理机 DPS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU物理机:物理机搭建DeepSeek指南
        昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(单机版)
      • 云点播支持上传哪些格式的媒体文件
        云点播支持上传哪些格式的媒体文件? 云点播支持上传哪些格式的媒体文件? 云点播支持上传格式如下: 视频:wmv,mpg,mts,wav,webm,m4v,ogg,mp4,flv,mp3,rmvb,avi,mov,mpeg,mkv,3gp,ts等格式文件。 音频:wma,mp3,aac,m4a,flac,ogg,wav。 更多支持文件格式可查看功能介绍。
        来自:
        帮助文档
        云点播
        常见问题
        视频上传类
        云点播支持上传哪些格式的媒体文件
      • 执行角色
        执行角色 概述 使用云工作流构建应用时,您需要创建执行委托角色并授予相应权限,若不配置委托角色,云工作流默认使用 服务内联委托 角色 。云工作流在执行流程时将以该角色身份代表您访问云服务,例如执行函数、发送消息或调用其他流程。 云工作流基于统一身份认证IAM的委托权限管理机制。授权原理如下:策略定义了访问某项服务的能力,将策略绑定到委托后,该委托便具备访问该服务的权限。第三方只需扮演具备所需权限的角色即可访问服务,无需长期密钥,从而提升系统安全性。 操作步骤 创建委托角色 1. 使用 IAM管理员 登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页面,单击 创建委托。 4. 在 创建委托 页面,选择 可信实体类型 为 服务委托, 点击下一步。 5. 在配置委托页面, 输入 委托名称 ,选择委托服务选 一类节点函数计算cf。 6. 输入完成后点击 完成,即可创建完成。 配置委托权限 1. 使用IAM管理员登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页,选择需要授权的委托,点击旁边的 授权 按钮。 4. 在 选择策略 页面, 搜索/选择你需要的云服务策略, 本例子授权 对象存储 的 只读 权限 。 如果需要更精细的权限控制,可以先创建自定义策略,详情请查阅创建自定义策略 5. 授权范围将默认勾选全局范围,您可以直接点击“确定”完成授权。 6. 创建完成委托角色后, 即可在 工作流设置 中下拉选择设置。工作流设置详见工作流执行器关于 工作流配置 说明。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        执行角色
      • 组件评估报表整合查看
        本节为您介绍云迁移服务CMS异构评估,组件评估报表整合查看。 云迁移服务CMS提供组件评估报表整合查看功能,您可以在[组件评估报表整合]界面查看任务信息,如任务编号、任务名称、源端类型、目标端区域、备注、创建时间、操作等信息,如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        迁移评估
        异构评估
        组件评估报表整合查看
      • 维护微服务
        操作 步骤 导出配置 在“所有作用域”下拉列表选择一个作用域,单击“全部导出”,导出当前作用域的json格式配置文件。 作用域的格式如下: 微服务名称@所属应用 微服务名称@所属应用版本号 导入配置 单击“导入”,选择“作用域”。 作用域的格式如下: 微服务名称@所属应用 微服务名称@所属应用版本号单击“···”,选择目标文件。 单击“上传文件”,批量导入配置项。 单击“关闭”。 创建配置 单击“创建配置”,选择配置“作用域”。 输入“配置项”。 输入“值”。 单击“确定”,保存配置。 修改配置 单击目标配置项对应“操作”列的“编辑”。 在“值”编辑框输入新值。 单击“确定”,保存配置修改。 删除配置 单击目标配置项对应“操作”列的“删除”。 单击“确定”,删除配置。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务引擎 CSE
        维护微服务
      • 添加加速域名
        注意事项 添加完域名后,天翼云全站加速产品会给您分配对应的CNAME地址,还需要配置CNAME后,全站加速服务才生效,请继续参考下方:配置CNAME。
        来自:
        帮助文档
        全站加速
        快速入门
        添加加速域名
      • 产品优势
        本文为您介绍了备案管家的优势。 一站式专业服务 专业管家团队提供一对一全程贴身服务、专业政策解读、风险评估、申请意见、基本材料辅助收集、复杂材料撰写、疑难解答等服务。整个备案过程中,客户只需提交办理需求及协助管家收集基本材料,并在管家的指导提醒下进行在线确认等关键步骤,其他复杂操作均由管家处理,提升材料处理效率,快速提交备案,提升成功率。 全流程及时跟踪 管家向客户实时反馈通知备案全流程进度,提醒客户进行关键节点的操作,并快速给予客户必要反馈;助力客户及时掌握最新动态,简单、快速通过备案。 信息安全有保障 天翼云央企团队服务保障 ,确保备案资料保密 ,信息安全有保障。
        来自:
        帮助文档
        备案管家
        产品介绍
        产品优势
      • 修改资源池
        本章节主要介绍翼MapReduce的修改资源池操作。 操作场景 根据业务需要,资源池的主机需要调整时,管理员可以通过FusionInsight Manager修改已有资源池中的成员。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“租户资源 > 资源池”。 3. 在资源池列表指定资源池所在行的“操作”列,单击“编辑”。 4. 在“资源”修改“主机”。 增加主机:在界面左边主机列表,选择指定的主机名称,单击,将选中的主机加入资源池。 删除主机:在界面右边主机列表,选择指定的主机名称,单击,将选中的主机移出资源池。资源池中的主机列表可以为空。 5. 单击“确定”保存。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        管理资源
        修改资源池
      • 到期与欠费
        本文介绍DDoS高防(边缘云版)到期和欠费如何处理。 到期 客户购买的服务到期当天,天翼云会以短信的方式通知客户,并将冻结服务。冻结的服务允许续费、释放或删除,如客户需继续使用,则可联系客户经理执行续订操作或自行在“控制中心费用中心”进行续订; 若到期7天之后,天翼云会以短信的方式通知客户,客户未续订,资源将被释放。 产品/服务冻结时:资源将被限制访问和使用,会导致您的业务中断。 产品/服务解冻时:资源将被解除限制,但是需要您自行检查并恢复业务。 产品/服务释放时:资源将被释放,存储在资源中的数据将被删除,数据无法找回。 欠费 在天翼云账户中没有费用并欠款的情况下,天翼云会以短信的方式通知客户充值;如果客户在48小时内未付清所欠金额,并将关停客户的DDoS高防(边缘云版)服务。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        计费说明
        到期与欠费
      • 删除追踪器
        本章介绍如何删除追踪器。 操作场景 云审计服务管理控制台支持删除已创建的数据类事件追踪器,删除数据类事件追踪器对已有的操作记录没有影响。本章节介绍如何在管理控制台删除数据事件追踪器。 使用限制 删除数据类追踪器后,操作事件无法上报到云审计服务。您可以在事件列表查看已有的7天内的操作记录,但是您无法查看新的操作记录、转储事件至OBS/LTS。 前提条件 已成功创建数据类事件追踪器。 删除数据类事件追踪器 1. 登录管理控制台。 2. 在管理控制台右上角单击图标,选择区域和项目。 3. 单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务详情页面。 4. 单击左侧导航树的“追踪器”,进入追踪器信息页面。 5. 单击目标追踪器对应操作列的“删除”。 6. 在弹框中单击“确定”,完成删除追踪器。
        来自:
        帮助文档
        云审计
        用户指南
        数据类事件追踪器
        删除追踪器
      • 日志存储
        本章节为媒体存储日志存储概述。 使用场景 媒体存储日志存储功能支持自动把桶的各类访问请求记录日志,并存储到某一存储桶中,适合对请求有分析或审计等需求的用户使用。 日志文件存放位置需要在开启桶日志存储功能时指定,仅支持在源存储桶所属区域中选择存储桶,也包括开启日志功能的桶本身。 日志记录设置成功后,大约5~10分钟后可在日志存储桶中查看到桶的操作日志。 为了更有效的管理日志,建议您将日志存放到不同的桶中。 日志文件记录的是通过API或SDK方式进行的S3协议操作。 生成的日志文件会保存在指定的存储桶,占用存储空间,因此会产生存储费用。如需定时清理,可通过生命周期相关配置实现,具体可参考:生命周期。 日志文件生成规则: 日志文件存储路径:日志存储位置 /日志文件前缀(如无设置则省略)/YYYY MM DD HHmmssUniqueStiring 。 生成周期:启用规则后开始生成,并且以5分钟为单位保存至日志存储位置中。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 日志文件参数 以下所示为生成的桶访问日志文件记录: gdoss.xstore.ctyun.cn [$serveraddr] [$remoteaddr] [$timelocal] "$requestmethod" "$host" "$requesturi" $status $bodybytessent $contentlength "$httpreferer" $requesttime "$httpuseragent" "$httpxforwardedfor" "$scheme" "$opname" "$httptransferencoding" "$httpctyunnetworktype" "$varUser" "$upstreamresponsetime" 访问日志主要包含如下信息: 参数 说明 gdoss.xstore.ctyun.cn 资源池域名,用来标记资源池。 $serveraddr 当前服务器地址,一般是内网IP。 $remoteaddr 连接的对端服务器地址。 $timelocal 日志时间。 $requestmethod HTTP Method,如PUT、GET、DELETE、POST、HEAD等。 $host HTTP请求里面的header字段:host。 $requesturi HTTP请求里面的URI。 $status HTTP状态码。如200、204、206、403、404等。 $bodybytessent 服务端发送给客户端的消息body长度。 $contentlength 服务端收到的消息的请求的长度。 $httpreferer HTTP请求里面的referer字段。 $requesttime 请求持续时间。包含从服务端建立连接完成到完成响应这段时间。 $httpuseragent HTTP请求里面的useragent字段。 $httpxforwardedfor HTTP请求里面的xforwardedfor字段。 $scheme 区分HTTP还是HTTPS请求。 $opname API接口名称。如GetObject、ListBuckets等等。 $httptransferencoding HTTP请求里面的transferencoding。 $httpctyunnetworktype 表示请求来源的网络类型:public(公网)、private(内网)。 $varUser 用户标记,表示这个请求对应的用户。 $upstreamresponsetime 请求在资源池内部的处理时间。 日志文件内容根据开通的区域不同,格式会有一定出入,请以实际为准。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        日志存储
      • 导出逻辑库
        本章节介绍DRDS如何导出逻辑库 操作场景 跨region容灾,导出主实例的逻辑库信息。 前提条件 DRDS实例中已创建逻辑库。 操作步骤 1、在分布式数据库服务,实例管理列表页面,选择目标DRDS实例,单击实例名称,进入实例基本信息页面。 2、在实例基本信息页面左侧导航栏,选择“逻辑库列表”选项卡,查看DRDS实例逻辑库。 3、在逻辑库列表页面,单击“导出逻辑库信息”,系统会自动导出当前实例下的逻辑库的json文件。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        逻辑库管理
        导出逻辑库
      • 1
      • ...
      • 253
      • 254
      • 255
      • 256
      • 257
      • ...
      • 683
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      训推服务

      AI Store

      一站式智算服务平台

      智算一体机

      知识库问答

      人脸实名认证

      人脸活体检测

      推荐文档

      产品功能

      迁移准备

      修改数据库端口

      分析指标历史数据并导出监控报告

      如何激活代金券?

      产品规格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号