活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务RabbitMQ_相关内容
      • Linux任务配置
        本节为您介绍云迁移服务CMS服务器迁移中Linux迁移任务相关配置。 自定义分区 根据源机分区自动初始化目标机分区配置,用户可自定义修改。 说明 存储容量修改建议:若需调整分区可通过查看源机分区与平台处查看源机分区查看迁移源信息,参照迁移源文件系统类型,挂载点,分区类型等信息进行目标机分区大小调整操作。具体请参见 1. 单点击“添加目标机分区”新增分区,分区类型包含标准分区、扩展分区、逻辑分区和LVM分区。 2. 您也可以按需进行“管理分区类型”、“管理LVM”、“查看源机分区”、“重置”。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移任务配置与开始全量迁移
        Linux任务配置
      • 功能特性
        本小节介绍漏洞扫描功能特性。 产品主要定位主机系统漏洞发现,弱口令检测、配置脆弱性检测,扫描覆盖多种系统环境,如:Windows、UNIX、Linux、Solaris等,帮助客户发现主机中存在的漏洞风险,根据不同漏洞提供解决建议。 漏洞扫描 多种评估类型:评估主机系统、网络和应用程序的弱点,检测系统内的恶意软件,发现Web服务器和服务的弱点。 丰富的评估能力:网络设备,包括下一代防火墙、操作系统、数据库、Web应用、虚拟和云环境等,扫描IPv4、IPv6和混合网络,可根据需求设置扫描任务运行时间和频率。 两种扫描模式:漏洞扫描器在选择扫描方式时可使用非登录扫描和登录扫描方式,登录扫描能够更深入全面的发现主机漏洞。 持续管理:扫描器可以配置为自动更新,扫描器不断更新高级威胁及零日漏洞插件。 多种报告:自定义报告以按漏洞或主机排序,创建执行摘要或比较扫描结果以突出显示更改,可提供XML、PDF、CSV和HTML类型的报告。 开放端口 SYN扫描:端口扫描是计算机入侵者常用的一种漏洞发现方式,攻击者可以通过它了解到主机攻击弱点,一个开放端口就是一个潜在的通信通道,也就是一个入侵通道。如主机开启FTP服务,默认会开放两个端口,一般为20和21端口,入侵者使用端口扫描发现这两个开放状态的端口后将针对展开入侵行为,成功入侵将对企业造成不可估量损失。而网络运营者主动通过端口扫描发现开放端口,分析开放端口潜在风险,做好开放端口访问限制,识别不必要的开放端口并及时关闭,可避免端口被入侵者利用,提高主机防护能力。
        来自:
        帮助文档
        漏洞扫描
        产品介绍
        功能特性
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • ES集群规划、性能优化
        本章节主要介绍ElasticSearch集群规划、性能优化的最佳实践。 Elasticsearch 是一个强大的分布式搜索和分析引擎,用于存储、检索和分析大规模数据。为了获得最佳性能、稳定性和可伸缩性,以下是Elasticsearch 的一些最佳实践。 集群规划 节点数量 在构建 Elasticsearch 集群时,节点的数量和分布是关键因素。通常建议使用奇数个节点,以便更好地处理主节点选举和故障转移。考虑一个具有 3 个主节点的集群,其中 2 个节点失败,仍然可以保持功能正常。 避免单节点集群,因为这会导致单点故障。 分片和副本 分片是数据在集群中的水平划分。在创建索引时,根据数据量和查询负载选择适当的分片数量,通常不超过节点数量的两倍。然后,为了保障数据的可用性,设置足够的副本数,但不要过多,以避免资源浪费。示例如下: PUT /myindex { "settings": { "numberofshards": 5, "numberofreplicas": 1 } } 索引设计 分片和副本设置 在创建索引时,根据数据量和预期查询负载来选择合适的分片数量。 对于热门索引,可以适度增加副本数量以提高查询性能。 索引字段 合理选择字段类型,避免使用不必要的复杂类型,例如对于精确值,使用 keyword 类型,对于全文本搜索,使用 text 类型。示例如下: PUT /myindex { "mappings": {"properties": { "productname": { "type": "text" }, "category": { "type": "keyword" }, "price": { "type": "float" } } } } 关闭不需要索引的字段,以减小索引大小,提高性能。 写入操作
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        ES集群规划、性能优化
      • 功能特性
        本文为您介绍资源编排ROS的功能特性。 统一管理资源 通过统一的管理平面,可实现对分布在不同地域资源池中的各类云资源进行全局掌控,实现单一控制台完成状态监控与配置调整,打破资源孤岛,实现跨池资源的统一调度与协同管理,大幅简化复杂多云环境下的运维复杂度。 模板管理 提供灵活且强大的模板定义能力,支持通过声明式语法对云资源的类型、规格、配置参数及关联关系进行精确描述,同时允许用户自定义模板以适配个性化需求。 针对模板全生命周期,提供完善的版本控制机制,可追溯每一次模板修改记录,确保不同团队、不同环境使用的模板版本一致,避免因模板差异导致的资源配置偏差。 自动化管理资源生命周期 以资源栈为管理单元,将一组关联资源视为整体进行全生命周期的自动化管理。流程中嵌入预览执行计划、询价与配额校验环节,通过预览执行计划明确资源的变更,通过询价明确资源组合的成本预估,再校验对应资源的配额是否充足,可实现资源栈生命周期全程自动化:创建、更新、删除、回滚等操作。 智能编排资源、处理资源依赖 通过内置的依赖分析引擎,能够自动识别模板中各资源(如 “云主机依赖于虚拟私有云”“数据库依赖于安全组”)的层级关系与关联规则,生成最优部署拓扑与执行顺序。同时,通过分布式锁与状态同步机制,确保多节点并行部署时的数据一致性。
        来自:
        帮助文档
        资源编排ROS
        产品介绍
        功能特性
      • 通过镜像创建云主机
        本文介绍如何使用公共镜像或私有镜像创建云主机。 操作场景 您可以通过使用公共镜像或私有镜像来完成云主机创建,无论您选择使用哪种镜像类型,都能为您提供快速、可靠和灵活的云主机部署。 公共镜像为您提供了广泛的操作系统和预配置环境选项,使您能够迅速启动云主机并开始应用部署。 私有镜像则允许您根据自身需求定制和管理云主机的镜像,确保您的应用环境与业务需求完美契合。 使用须知 使用公共镜像和私有镜像创建云主机的区别是: 公共镜像:创建的云主机包含所需操作系统和预装的公共应用,需要您自行安装应用软件。 私有镜像:创建的云主机包含操作系统、预装的公共应用以及用户的私有应用。 操作步骤 1. 登录控制中心。 2. 单击“左侧导航栏>服务列表”,选择"计算>镜像服务"。 3. 单击"公共镜像"或"私有镜像",进入相应的镜像列表。 4. 在公共镜像所在行右侧的"操作"列下,单击"申请云主机",或在私有镜像操作下点击"申请云主机"。 5. 填写云主机配置信息,包括云主机名称、网络、数量等。 6. 单击"立即购买"。 7. 单击"提交申请"。 8. 返回云主机列表页,点击云主机列表右上角的刷新按钮,查看云主机的创建情况。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机镜像
        通过镜像创建云主机
      • 计费说明
        本节介绍计费说明。 计费项 态势感知(专业版)按选购的资产配额数计费。 计费项 计费说明 资产配额 按购买的资产配额数计费,包括主机资产配额数和网站资产配额数。 按包周期购买计费 提供包月和包年的购买模式。 按需购买计费 即开即停,按小时结算。 计费模式 态势感知(专业版)的计费模式为包周期和按需计费。 包周期:按包年/包月计费。 按需计费:按小时结算,根据实际使用时长(小时)计费。先使用后付费,使用方式灵活,可以即开即停。 资费结构与规格 规格 按需(小时) 包月 包1年 包2年 包3年 价格单位 专业版 0.31 150 1530 2520 2700 元/个/ECS 退订 若购买态势感知(专业版)后,需要停止使用,请执行退订操作。 到期与欠费 到期 若包周期版本到期后,未及时续费,会根据“客户等级”和“订购方式”定义不同的保留期时长,保留期内专业版服务可继续使用。若保留期到期后,仍未及时续费,专业版会变为基础版。 欠费 当您的账户欠费后,可查看欠费详情,此时账户将进入欠费状态,需要在约定时间内支付欠款。为避免相关服务不被停止,请及时为账户充值。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        计费说明
        计费说明
      • 回源HOST带端口
        本文介绍回源HOST带端口功能及其配置说明。 功能介绍 当源站绑定了多个域名,且源站服务运行在非80/443端口(比如8080)时,开启回源HOST带端口功能,回源时可以在回源HOST中带上具体的端口(如test.ctyun.cn:8080),精准找到源站服务。 注意事项 1. 新增域名,默认开启回源HOST带端口功能,如需关闭,请在域名新增完成后编辑域名关闭功能。 2. 回源HOST带端口功能开启后,默认携带所有非80/443的端口。跟随请求端口回源关闭时回源HOST默认带除了80、443外的回源端口;跟随请求端口回源开启时,回源HOST默认带除了80、443外的请求端口。 配置说明 1. 登录++CDN控制台++。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 开启/关闭【回源HOST带端口】功能。 6. 单击【保存】,完成配置。 参数名 说明 回源HOST带端口 关闭时,回源HOST不携带端口。 开启时,回源HOST携带非80/443的回源端口回源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源HOST带端口
      • 查询域名攻击概况
        接口描述:调用本接口查询域名在指定时间段的攻击概况 请求方式:post 请求路径:/waf/statistics/queryattackinfo 使用说明: 修改域名之前,您需要先开通对应产品类型的服务,且服务有效; 支持查询最近30天数据 单个用户一分钟限制调用10000次,并发不超过100 支持查询WAF攻击类型的数据 请求参数说明: 参数名 类型 是否必填 名称 说明 domain string 是 域名 单次调用仅支持一个域名查询 startTime string 是 开始时间 格式为:YYYYMMDDThh: mm:ssZ 支持最近30天的数据 endTime string 是 结束时间 格式为:YYYYMMDDThh: mm:ssZ 支持最近30天的数据 pageSize int 否 查询每页的数量 不传默认30,pageSize以及pageNumber的乘积不得超过2000 pageNumber int 否 查询的页数 不传默认30,pageSize以及pageNumber的乘积不得超过2000 返回参数说明: 参数 类型 是否必传 名称及描述 code string 是 状态码,成功100000 message string 是 描述信息,成功返回success,其他返回异常信息描述 data overviewData 否 查询结果以及域名对应状态 1) overviewData参数 参数 类型 是否必返回 名称及描述 bandwidth string 是 业务带宽 flow string 是 业务流量 requestsNumber string 是 请求数 peakAttack string 是 攻击峰值 domain string 是 安全加速域名
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询域名攻击概况
      • 购买类
        本章节内容主要介绍购买类常见问题 购买迁移任务的数量限制? 为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制,如:一个数据库复制服务帐号,您最多可以创建5个任务。 如果受当前资源配额限制,无法满足业务使用需求,您可以申请扩大配额,通过提工单方式。 购买数据库复制是否支持包周期? 当前还仅具备按配置费、数量传输费两个收费项的按需订购,不迁移时不收费; 后续将根据技术发展,考虑增加包周期的收费方式,敬请期待。 扩大带宽是否会对DRS正在进行的任务产生影响? 扩大云连接带宽时需要重建带宽链路,则会导致网络断开,此时是否会对DRS任务产生影响取决于网络断开的时间以及源库IP有没有发生变化。 例如针对MySQL引擎而言,如果网络断开1天,而在这1天时间内源库binlog被清理了(MySQL都有binlog清理策略,用户侧自己配置的),就无法进行任务续传,需要重置任务。 如果网络中断的时间很短,并且带宽链路更换完成后源库的VPN内的IP地址没有变,则是可以继续续传任务,不会对DRS任务产生影响。
        来自:
        帮助文档
        数据库复制
        常见问题
        购买类
      • 方案正文
        创建DRS备份迁移任务 1、登录管理控制台。 2、单击管理控制台右上角区域选项,选择区域和项目。 3、在页面左上角单击,选择“数据库 > 数据复制服务”。进入数据库复制页面。 4、在“实例管理”页面左侧点击“备份迁移管理” 5、进入“备份迁移管理”页面后点击右上角“创建迁移任务”按钮 6、填写迁移信息,选择要迁移的备份,点击下一步 7、选择目标RDS实例和要还原的数据库,点击下一步 8、勾选服务协议,确认迁移信息后点击启动任务 9、控制台可以查询迁移进度 验证迁移是否成功 1、通过ECS登录SQL Server客户端,本实验采用的数据库客户端为SQL Server Management Studio 2017。 2、通过目的端数据库的IP和账号密码进行登录。 3、登录后可以验证目的端是否存在源库数据
        来自:
        帮助文档
        关系数据库SQL Server版
        最佳实践
        通过DRS备份迁移SQL Server
        方案正文
      • 透明加密简介
        本页介绍透明数据加密的实现原理和使用方法。 透明数据加密(Transparent Data Encryption)通过在磁盘上存储的数据进行加密和解密来实现数据的保护。 透明:当使用者在打开或编辑指定文件时,系统将自动对未加密的文件进行加密,对已加密的文件自动解密。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密:透明加密使用加密算法来加密数据,并将密钥存储在数据库服务器的受信任位置,以确保安全性。 用户可以通过函数创建加密算法,之后可以通过函数将创建的算法绑定到schema,表和列上,实现加密算法和数据库对象建立关联。同时支持将已经绑定的算法从schema,表和列上解绑,从而取消加密算法和数据库对象之间的关联关系。 透明加密通过teledbxmls插件,需要创建插件: plaintext 创建插件 create extension teledbxmls;
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        透明加密
        透明加密简介
      • 产品优势
        本节介绍了人脸识别的产品优势。 识别高效且精准 支持实时识别,具备出色的多人脸检测能力。 能在复杂自然场景中提供高精度的人脸识别。 支持戴口罩识别 可判断是否戴口罩,识别人脸数量、位置及是否佩戴口罩等关键信息。 对戴口罩人脸并可处理一定程度的遮挡,进行精准人脸匹配。 支持活体检测和属性识别 有效对抗活体攻击,并可识别人脸属性。 支持扩展用户使用人脸检测服务的应用场景,完善场景解决方案。 支持跨平台部署 支持服务端和移动端,覆盖多种业务场景。 提供易于集成的API,使开发人员能够轻松地将人脸识别功能整合到其应用程序中。
        来自:
        帮助文档
        人脸识别
        产品介绍
        产品优势
      • 采集容器标准输出日志
        操作场景 CCE支持配置工作负载日志策略,便于日志的统一收集、管理和分析,以及按周期防爆处理。 本章节向您介绍如何采集容器标准输出日志。如果您需要通过配置日志策略的方式采集容器内路径日志,请参见采集容器内路径日志。 操作步骤 步骤 1 在创建工作负载时,添加容器后,展开“容器日志”。 步骤 2 保留默认配置,完成工作负载的创建。 步骤 3 查看日志。 工作负载创建完成后,访问nginx。进入工作负载详情页,单击右上角的“日志”按钮可查看日志详情。日志约需要等待5分钟查看。 说明:云容器引擎服务对接了应用运维管理服务AOM提供日志查看、检索功能。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        采集容器标准输出日志
      • 查看创建状态
        本章节主要介绍如何查看天翼云物理机的创建状态。 操作场景 用户创建物理机服务器后,可以通过“申请状态”栏查看任务的创建状态。创建物理机服务器的任务可以包括创建物理机服务器资源、绑定弹性公网IP、挂载云硬盘等子任务。 申请状态栏的任务状态包括如下两类: 处理中:指系统正在处理的请求。 处理失败:指未能成功处理的请求。对于处理失败的任务,系统会自动回退,同时在界面上直观的展示错误码,例如“(BMS.3033)创建系统卷失败。” 本节介绍如何查看物理机服务器的申请状态以及申请状态栏的提示信息说明。 操作步骤 1. 登录管理控制台。 2. 选择“计算 > 物理机服务”。进入物理机服务器页面。 3. 常用操作“开机、关机、重启、删除”的右侧即为“申请状态”,用户执行创建物理机服务器操作后,申请状态栏将显示该任务的创建状态。 图 申请状态 4. 单击“申请状态”栏对应的数字,即可查看“处理中”的任务和“处理失败”任务的详情,查看物理机服务器的创建状态。 图 申请状态详情 说明 如果用户发现申请状态栏显示创建物理机服务器的任务失败,而物理机服务器列表中显示该服务器已创建成功,关于此问题请参见
        来自:
        帮助文档
        物理机 DPS
        用户指南
        物理机实例管理
        查看物理机信息
        查看创建状态
      • 测试方法
        本章介绍SQL Server如何进行性能测试。 RDSfor SQL Server是基于天翼云平台的,完全兼容微软SQLServer的在线关系型数据库服务。相对于开源社区版数据库,提供更高安全性、稳定性和高性能,默认提供主备架构,并配备完善的备份、恢复、监控和迁移等方案。支持包年/包月和按需两种付费方式。
        来自:
        帮助文档
        关系数据库SQL Server版
        性能白皮书(SQL Server)
        测试方法
      • 相关术语解释
        本文主要介绍弹性伸缩服务相关术语解释。 最大或最小实例数 当伸缩策略条件满足时,根据最大实例数和最小实例数自动调整需要添加或移除的云主机数量。例如,按照伸缩策略要求,需要将云主机数量增加到 10 台,但最大实例数是 8,那么系统会按照 8 台云主机数量进行弹性伸缩活动。 期望实例数 默认的云主机数量,当没有伸缩规则满足时,系统保留的云主机数量。手工修改该值,会触发一次弹性伸缩活动。 伸缩组 伸缩组是具有相同属性和应用场景的云服务器和伸缩策略的集合。伸缩组是启停伸缩策略和进行伸缩活动的基本单位。 伸缩配置 伸缩配置即伸缩活动中添加的云服务器的规格。 伸缩策略 触发伸缩活动的条件和执行的动作,当满足条件或者执行的动作时,会触发一次伸缩活动。 伸缩活动 伸缩活动是指在伸缩组内由于伸缩条件满足而触发的云服务器实例数量变更的活动,可能是增加或减少几台云服务器实例。 冷却时间 冷却时间是指冷却伸缩活动的时间,在每次触发伸缩活动之后,系统开始计算冷却时间。伸缩组在冷却时间内,会拒绝由告警策略触发的伸缩活动。其他类型的伸缩策略(如定时策略和周期策略等)触发的伸缩活动不受限制。
        来自:
        帮助文档
        弹性伸缩服务 AS
        产品简介
        相关术语解释
      • 术语解释
        角色标签 对工作负载的业务或其他条件定义的标签,弱化IP 的依赖,从业务的角度赋予工作负载的名称,方便后期策略的制定和使用。 组标签 组标签用于定义一个工作组,分别是位置,应用,环境。 访问者 指访问的发起方,即访问来源。 提供者/服务者 指提供服务的工作负载,与访问者一同理解。 预阻断日志 在切换成测试状态时,工作负载记录到的不符合策略(未阻断)的流量日志。(工作负载需开启日志收集) 阻断日志 在切换成防护状态时,工作负载记录到的不符合策略(被阻断)的流量日志。(工作负载需开启日志收集)
        来自:
        帮助文档
        微隔离防火墙
        产品介绍
        术语解释
      • 修改专有宿主机
        1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 >弹性云主机 > 专有宿主机”,进入专有宿主机列表页。 4. 找到需要修改的专有宿主机,点击操作栏“更多”按钮,选择“修改”。 5. 在修改页面中编辑相关信息,确认后,点击页面“确定”。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        专有宿主机
        修改专有宿主机
      • 微服务应用部署
        内容灰度参数名称 内容灰度参数含义 协议类型 Spring Cloud:需要设置path。 Dubbo:需要选择服务和方法。 条件模式 选择同时满足下列条件或满足下列任一条件。 条件列表 Spring Cloud:可根据Cookie、Header或Parameter类型设置具体的参数。 Dubbo:根据应用实际的参数、参数值获取表达式设置。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        部署运维
        容器应用实例
        微服务应用部署
      • 使用限制
        本文为您介绍GPU云主机的使用限制。 GPU云主机作为弹性云主机的一类实例规格,保持了与弹性云主机实例相同的使用限制。 GPU云主机在产品功能和服务性能上的不同限制,以及如何申请更高配额,请参考弹性云主机​>产品概述​>产品使用限制。
        来自:
        帮助文档
        GPU云主机
        产品简介
        使用限制
      • 产品定义
        本文介绍云容器引擎的产品定义。 云容器引擎(CTCCE,Cloud Container Engine)提供高性能可扩展的容器服务,基于云主机快速构建高可靠的容器集群,兼容 Kubernetes 及 Docker 容器生态,帮助用户轻松创建和管理多样化的容器应用,并提供容器故障自愈,状态监控,容器日志采集,自动弹性扩容等高效运维能力。
        来自:
        帮助文档
        云容器引擎(旧版)
        产品简介
        产品定义
      • 查看流量使用情况
        查看弹性负载均衡使用流量 1. 登录管理控制台。 2. 选择“服务列表 > 网络 > 弹性负载均衡”。 3. 在“负载均衡器”界面,单击需要查看流量的负载均衡器名称。 4. 切换到“监控”页签,单击需要查看的监控粒度,查看网络流入速率和网络流出速率。 支持查看“近1小时”、“近3小时”、“近12小时”、“近1天”和“近7天”的数据。
        来自:
        帮助文档
        弹性负载均衡 ELB
        最佳实践
        查看流量使用情况
      • 创建任务时为什么总是提示域名格式错误?
        本节介绍创建任务时为什么总是提示域名格式错误。 创建任务时,为了让漏洞扫描服务识别出网站使用的协议(http或https),需要在输入的时候填写此信息。 正确的域名格式为:“http(s)://域名或IP”。 例如:一个使用https协议,IP地址为10.10.10.1的网站,在创建任务时应输入的“目标网址”为“
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        网站扫描类
        创建任务时为什么总是提示域名格式错误?
      • 更新历史
        更新日期 更新内容 :: 20221027 第一次正式发布 本次更新说明如下: 新增账单服务、域名管理、刷新预热、统计分析、日志下载接口 20221130 第二次正式发布 本次更新说明如下: 查询域名攻击的攻击IP/被攻击URL/攻击来源/攻击类型分布、查询域名攻击概况、 批量域名配置增加/编辑/删除/启用/停用、更新bot防护配置、查询bot防护配置
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        更新历史
      • 如何查看新购买的视频直播流量包
        本文介绍查看新购买的视频直播流量包的方法。 用户想要查看已购视频直播流量包的详细信息,详情请参见:查看资源包明细。 其他说明 如何订购视频直播流量包,详情请参见:开通视频直播服务。 流量包价格请参见:资源包介绍。
        来自:
        帮助文档
        视频直播
        常见问题
        订购计费
        如何查看新购买的视频直播流量包
      • 准备工作
        使用VPC终端节点服务之前,您需要注册天翼云帐号,本文带您了解使用VPC终端节点前需要做的准备事项。 步骤一:注册天翼云帐号 如果您已有一个天翼云帐号,请跳到下一个步骤。如果您还没有天翼云帐号,请参考“注册天翼云账号”进行注册。 说明 一个手机号最多可注册5个天翼云账号,超出则不再支持注册新的天翼云账号。 注册邮箱用于登录、天翼云信息接收,请确保邮箱的准确性。 步骤二:实名认证 完成注册后登录并进行实名认证。具体操作请参考实名认证。 步骤三:帐号充值 VPC终端节点为客户提供按量计费模式。如果您采用按量计费使用VPC终端节点服务,需满足账户余额超过100元要求,在登录账号后,您可以点击页面右上角的“管理中心”,然后点击“充值”按钮为您的账号充值,具体充值说明可参考账户充值。 说明 账号余额不足100元或不支持按量付费功能。 天翼云支持在线或转账汇款的方式进行充值。 建议采用在线支付方式充值。 使用专属汇款账号进行汇款,汇款至专属汇款账号,系统会自动匹配您的天翼云账户,预计24小时内充值到您的账户余额。
        来自:
        帮助文档
        VPC终端节点
        快速入门
        准备工作
      • 查看告警发送历史
        在告警发送历史页面中,您可以筛选并查看根据通知策略分派的告警发送历史,并进行告警管理。 功能入口 1. 登录应用性能监控控制台。 2. 在左侧导航栏选择 告警管理 >告警发送历史。 告警发送列表 告警页面显示了告警的等级、名称、处理人等告警基本信息。 在告警页面,您可以执行以下操作: 设置筛选字段,然后单击搜索,查看对应的告警发送历史。 字段 说明图 告警名称 创建的告警规则的名称。 告警状态 告警目前的处理状态,共有以下3种状态: 待认领 处理中 已解决 告警等级 告警的严重级别。可以在创建时指定告警规则产生的告警的级别,告警级别有以下几种: 一般 次要 重要 紧急 处理人 告警的处理人。 通知策略 告警对应的通知策略。 集成类型 告警事件对应的集成类型。 日志服务:日志服务上报的告警事件。 ARMS前端监控:ARMS前端监控上报的告警事件。 ARMS应用监控:ARMS应用监控上报的告警事件。 ARMSPrometheus:ARMS Prometheus上报的告警事件。 创建时间 告警产生的时间段。 单击告警名称,可以查看目标告警的详细信息。更多信息,请参见下方【告警详情】。 对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。具体操作,请参见下方【处理告警】。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        告警管理(新版)
        查看告警发送历史
      • 产品定义
        访问方式 访问和管理天翼云ZOS可以使用以下工具: 管理控制台:您可以通过登录到网页形式的控制台来管理您的对象存储服务。在控制台上,您可以以直观的方式创建存储桶(Bucket)、上传和下载文件、设置访问权限以及管理存储桶中的对象。具体使用可参考通过控制台访问对象存储。 S3Browser:S3Browser是一个支持S3接口服务的免费windows客户端工具。具体使用可参考S3Browser。 SDK:SDK是对ZOS提供的RESTful API进行封装的工具包,旨在简化用户的开发工作。通过使用 SDK 提供的接口函数,用户可以直接调用并实现对ZOS的各项业务能力的使用。具体使用可查看SDK参考。 API:天翼云ZOS提供数据交换格式为JSON 的HTTP API,调用此接口您可以直接通过 HTTPS 发出请求和接受响应,实现与天翼云对象存储后台的交互操作。由于使用了不同的数据传输框架,API提供了独立于SDK 的接口,多了许多管理类操作(如开通接口,数据统计接口等)。而对于直接的上传下载对象,则是SDK独有功能。具体可查看API参考。
        来自:
        帮助文档
        对象存储 ZOS
        产品简介
        产品定义
      • 登录Linux物理机
        本章将介绍如何远程登录到Linux物理机。 登录方式 登录Linux物理机的方式有: SSH方式登录:仅适用于Linux物理机。您可以使用命令提示符工具或远程登录工具(例如PuTTY)登录物理机。此时,需要该物理机绑定弹性IP。 VNC方式登录:未绑定弹性IP的物理机推荐通过控制中心提供的远程登录方式直接登录。 说明 Linux物理机默认登录用户名为root。 前提条件 远程登录功能使用系统配置的自定义端口进行访问。确保所需使用的端口未被防火墙屏蔽。例如,如果远程登录的链接是“xxx:3389”,请确保端口3389没有被防火墙屏蔽。 如果客户端操作系统使用了本地代理,且用户无法配置代理的防火墙端口,请在使用远程登录功能之前关闭代理模式。 操作步骤 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”,此处我们选择内蒙6。 3. 单击“左侧导航栏>服务列表”,选择“计算 > 物理机服务”。 4. 将鼠标移动至目标物理机的“操作”列,选择“远程登录”。 5. 在命令行界面按“Enter”键后,输入用户名“root”和创建物理机时设置的登录密码,再按“Enter”完成登录。登录成功界面如下图:
        来自:
        帮助文档
        物理机 DPS
        用户指南
        实例
        登录物理机
        登录Linux物理机
      • 计费模式
        本节主要介绍了GeminiDB Redis产品的收费模式。 包年包月 1.收费方式 预付费方式:用户需先登录天翼云用户中心进行充值,系统会根据用户选购的实际资源对用户云账户中的金额进行扣除。 计费周期:按月计费,以自然月为计费单位,包年享受官网对应的折扣。 2、升级规则 GeminiDB Redis产品升级时间不满整月的,升级后配置按当月实际发生天数计费。 变更实例规格:您可以根据业务需求变更GeminiDB Redis实例规格,变更后即刻按照变更后的实例规格的价格计费。 扩容及缩小存储空间:您可以根据业务需求增加或减少您的存储空间,变更后即刻按照新的存储空间计费。您每次扩容或缩容的最小容量为10GB。 3、续订规则 续订数据库,续费按原订购模式按月方式进行续费。续订费用按照续订时刻的产品价格进行计费。 4、退订规则 退订云数据库,不满整月的按当月实际发生天数收费费用。 退订云数据库后实例会进入冻结状态,冻结周期为15天,冻结期过后如不续费会删除实例。 5、提醒/通知规则 到期通知:服务到期前7天、3天邮件通知,到期前1天、当天邮件通知和短信提醒。 超期通知:服务超期1天邮件通知,超期3天、7天邮件通知和短信提醒。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        计费说明
        计费模式
      • 应用场景
        视频直播 热门直播间往往占据了视频直播应用的大多数流量,使用GeminiDB Redis,可以更加有效的利用有宝贵的内存资源,通过在内存中保留热门直播间数据,在共享存储中保留冷门直播间数据,为客户降低使用成本。 在线教育 在线教育应用的特点是,系统中存储有大量的课程,试题,解答等信息,但通常只有热门数据(包括热门课程,最新题库,名师讲解等)会被高频访问。使用GeminiDB Redis,可以有效的根据数据的热度,决定存入内存或共享存储,实现性能与成本的平衡。 其他需要支持持久化存储的应用 除上述场景外,随着互联网飞速发展,各种大型应用对持久化存储的需求与日俱增,具体来说,需要存储包括:历史订单、特征工程、日志记录、位置坐标、机器学习、用户画像等信息在内的海量数据。这些数据的共同特点是:数据量大,有效期长,需要一个支持大容量,低成本的keyvalue存储服务完成数据的采集和流转。Redis作为当前应用最为广泛的keyvalue服务,其丰富的数据结构和操作接口对于存储此类数据具有先天优势,但由于原生Redis只能作为缓存,因此无法在持久化存储领域发挥作用。 GeminiDB Redis在兼容Redis接口的同时,又提供了大容量,低成本,高可靠的数据存储能力,可以作为此类持久化存储场景的理想解决方案。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        产品介绍
        应用场景
      • 1
      • ...
      • 267
      • 268
      • 269
      • 270
      • 271
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      训推服务

      模型推理服务

      应用托管

      科研助手

      推荐文档

      云课堂 第十八课:天翼云函数服务之“Hello,World!”

      盘符客户端

      创建阈值规则

      文档下载

      基本概念

      产品功能

      天翼云进阶之路⑧:sql server内存暴涨如何解决

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号