云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼视界魔云_相关内容
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 简介
        本节介绍天翼云电脑大屏客户端支持的系统、浏览器版本,以及下载地址。 前言 欢迎广大用户下载安装天翼云电脑全新视觉客户端,当前文档适用于新版的Windows客户端,Mac客户端,Ubuntu瘦终端,安卓瘦终端,国产化终端(银河麒麟/统信UOS)的使用帮助。旧版客户端则使用旧版本帮助手册。 客户端支持的最低系统版本 天翼云电脑客户端支持Windows,MacOS 10.14,Android7.0,iOS10、Ubuntu18,UOS V20,Kylin V10等以上系统版本。 Web客户端接入的最低浏览器版本 支持Chrome70+、Firefox72+、edge、UOS 5.2.1200+、奇安信1.0.1365+等浏览器接入。Web客户端访问地址:< 下载云电脑 请前往天翼云电脑下载页,下载安装云电脑客户端。 注意 如需体验Linux系统的云电脑客户端,请发送邮件至clouddesktop@chinatelecom.cn进行申请。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南
        简介
      • 相关术语解释
        本文介绍实时云渲染的相关专业术语。 区域 区域( Cluster Zone ):区域是一个或多个物理数据中心的集合,有独立的风火水电,逻辑上将计算、网络、存储等资源划分成多个集群。 目前,云渲染已在全国多个地域开放云渲染服务,您可以根据业务集中访问范围选择开通指定区域。 云渲染 通过实时渲染技术将应用内容的图形数据(顶点,颜色,纹理等)进行实时计算及输出。 资产 通过UE、Unity等渲染引擎打包输出的ZIP/RAR文件,是您3D、XR应用运行的应用包体。 渲染实例 渲染实例代表着一系列虚拟计算资源的集合,包含CPU、带宽、磁盘、GPU,云渲染平台发布的应用将会在云渲染GPU实例上运行,云渲染支持按需、包年包月两种方式开通使用渲染实例。 终端 终端是与计算机系统相连的一种输入输出设备,具备文件传输、远程计算功能,如手机、VR头盔、PC设备等等,用户可通过不同终端设备远程访问云端应用。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        产品简介
        相关术语解释
      • 云服务监控简介
        应用场景 云服务监控可收集云服务内置监控指标的数据,您可以通过监控这些指标来跟踪对应云服务状态。除了查看监控数据,您还可以在云服务监控页面创建告警规则和导出原始监控数据。 功能特性 查看监控指标:在监控指标页面上,您可以查看基于 1h、3h 、12h和 24h 收集的原始数据的图表。您可以自定义选择要查看的监控指标,数据可实现自动刷新。 创建告警规则:用户对云服务的核心监控指标设置告警规则,当监控指标触发用户设置的告警条件时,支持以邮箱、短信、等方式通知用户,让用户在第一时间得知云服务发生异常,迅速处理故障,避免因资源问题造成业务损失。 导出监控数据:云服务监控支持您在所选的区间和周期内最多同时导出10个监控项,导出的监控报告中包含用户名、Region名称、服务名称、实例名称、实例ID、指标名称、指标数据、时间、时间戳,查询和筛选更加方便。
        来自:
        帮助文档
        云监控服务
        用户指南
        云服务监控
        云服务监控简介
      • 产品优势
        本节介绍天翼云电脑(公众版)的产品优势。 自主领先,畅游云端 自研的CLINK安全传输协议,低延时、高画质、带宽占用少,弱网环境下也可畅快使用。 随时随地,便捷访问 用户通过终端云电脑应用即可快速访问调取云端资源,随时随地享受数据共享、移动办公、休闲娱乐等功能。 即开即用,灵活易用 无需配置,开通即可立即使用,弹性使用云电脑资源,满足日常办公、重度使用等使用场景需要。 说明 关于天翼云电脑(公众版)的产品规格说明,请参考 关于天翼云电脑(公众版)的产品功能说明,请参考 关于天翼云电脑(公众版)的客户端下载,请前往
        来自:
        帮助文档
        天翼云电脑(公众版)
        产品介绍
        产品优势
      • 修改ACL规则
        本文帮助您快速熟悉ACL规则的修改操作流程。 使用场景 当您的应用场景发生变化时,可以修改ACL规则帮助您更好地控制网络访问,您需谨慎修改规则,确保修改后的规则能够满足实际需求并提高网络的安全性和可控性。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成网络ACL的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面。 4. 在左侧导航栏,选择“访问控制ACL”选项。 5. 在“ACL”界面,找到目标网络ACL,单击网络ACL的名称。 6. 进入“ACL”详情页面,点击操作列的“修改”按钮。 7. 根据页面相关提示可以对ACL规则的配置信息进行修改。 8. 具体参数配置如下: 参数 说明 优先级 网络ACL规则的优先级,优先级的数值越小,表示优先级越高。为默认的规则,优先级最低。默认规则仅多可用区资源池适用。 策略 选择入方向规则的授权策略:允许:允许访问子网中云服务器。拒绝:拒绝访问子网中云服务器。 协议 选择协议类型,支持以下几种协议:ALL:所有协议。ICMP:网络控制报文协议。TCP:传输控制协议。UDP:用户数据报协议。 源地址 此方向允许的源地址,默认值为0.0.0.0/0,代表支持所有的IP地址。 目的地址 此方向允许的目的地址,默认值为0.0.0.0/0,代表支持所有的IP地址。 源端口范围 源端口范围,取值范围是1~65535的数字。选择TCP或UDP协议时必须填写。 目的端口范围 目的端口范围,取值范围是介于1~65535的数字。选择TCP或UDP协议时必须填写。 描述 网络ACL规则的描述信息,非必填项。 注意 1. 对于地域资源池来说,创建ACL时需要指定子网与ACL的关联关系。修改规则时,入方向规则不支持自定义目的地址,出方向规则不支持自定义源地址。 2. 对于可用区资源池来说,修改规则时,出/入方向均支持自定义源/目的端口。
        来自:
        帮助文档
        虚拟私有云 VPC
        网络ACL
        修改ACL规则
      • 工单申请
        本小节主要介绍如何创建工单。 当运维用户不具备某些资源访问控制权限时,可主动提交工单,申请相应资源访问控制权限。 约束条件 已被纳入审批规则的用户名单内。 创建工单 1. 使用运维用户登录云堡垒机。 2. 在左侧导航栏选择“工单管理 > 工单申请”,进入工单申请页面。 3. 单击左上角的“新增”按钮,弹出“工单申请”对话框。 4. 在弹出的对话框中输入相关信息,具体填写参数可以参考下表,填写完成后单击“提交”。 参数 说明 基本信息 工单名称 输入您待提交工单的名称。 基本信息 工单类型 选择需要授权的工单类型,根据业务需求选择如下四种类型: 资产访问授权 字符命令授权 文件传输授权 数据库命令授权 资产 资产 选择您需要访问的资产或者命令,可多选。 资产 资产组 选择您需要访问的资产组,可多选。 账号 资产账号 选择您需要授权的资产账号。 注意 若选择授权的资产账号为二次登录账号(例如root),需同时授权二次登录的源账号(例如添加root资产账号时配置的二次登录源账号testuser),否则将无法完成二次登录。 协议 服务 (仅工单类型选择“资产访问授权”时需要配置)默认全部服务,也支持选择单个服务。 敏感命令 提示符正则 (仅工单类型选择“字符命令授权”时需要配置)输入待授权命令的提示符正则式。 敏感命令 命令正则式 (仅工单类型选择“字符命令授权”时需要配置)输入待授权命令的正则式。 敏感命令 文件传输 (仅工单类型选择“文件传输授权”时需要配置)选择需要授权的文件传输操作,包括上传、下载、删除等。 敏感命令 文件或目录 (仅工单类型选择“文件传输授权”时需要配置)配置策略生效的文件或目录的正则表达式,可配置多个,多个以回车进行分隔。 敏感命令 sql命令类型 (仅工单类型选择“数据库命令授权”时需要配置)选择需要授权的SQL命令类型。 授权时间 生/失效日期 配置权限生效的起始和截止日期。 支持选择1天、3天、7天、15天、长期有效,或者自定义选择日期。 授权时间 生/失效时间 配置权限生效的具体时间点。 支持选择全天、闲时(0点6点),或者自定义时间。 其他 描述 填写申请工单的相关描述。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        运维使用手册
        工单管理
        工单申请
      • 创建LoadBalance类型Service
        本文介绍如何创建LoadBalance类型Service。 Serverless集群支持将Service通过负载均衡ELB向外暴露, Serverless集群内置CCM(Cloud Controller Manager)插件,当Service的类型为LoadBalancer时,CCM插件会为Service配置负载均衡,并根据Service信息配置好负载均衡的后端服务器组、健康检查和监听规则等,使得用户可以通过负载均衡访问该Service。以下是使用负载均衡的步骤指引。 使用已有负载均衡暴露服务 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 在本地使用命令之前,需要先通过kubectl连接Kubernetes集群。 您已提前在负载均衡控制台创建ELB实例,ELB实例需要与Service所在的Serverless集群在同一个VPC网络下。 注意事项 不同Service可以同时复用同一个负载均衡实例,复用同一个负载均衡实例需要避免不同Service使用相同的服务端口,否则存在监听配置被覆盖的情况。 不能复用由CCM自动创建的或集群ApiServer使用的负载均衡实例。 当Service删除时,使用已有的负载均衡不会被删除。 操作步骤 1. 登录云容器引擎控制台,点击进入想要操作的Serverless集群,在左侧菜单选择“网络”>“服务”。 2. 点击“创建服务”按钮新建服务,按照参数说明配置相关的参数: 1. 类型:选择负载均衡。 2. 负载均衡:可根据业务需要选择私网访问或公网访问,集群内或同一VPC内访问建议选择私网访问即可;选择“使用已有负载均衡”;负载均衡实例列表会根据选择的私网/公网访问方式显示出对应的实例,选择想要使用的负载均衡实例即可。 3. 标签:根据需要可以为服务配置标签。 4. 注解:根据需要可以为服务配置注解。 5. 外部流量策略:Cluster或Local。默认Cluster即可。 6. 健康检查:根据需要可以配置全局或自定义检查,默认不启用。 7. 端口映射:配置好协议、容器端口及服务端口,其中容器端口为应用本身暴露的端口,服务端口则会作为负载均衡实例的监听端口。 8. 工作负载绑定:选择服务要关联的工作负载,也可以配置自定义标签关联。 3. 创建服务后,在服务列表可以看到该服务,通过服务的集群外访问地址即可以访问该服务。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service管理
        创建LoadBalance类型Service
      • 电源与时间策略管理
        删除电源策略 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“策略管理”,点击“电源策略管理”,在电源策略管理列表中,点击【删除】按钮,弹出确认框,点击【确定】按钮。 如果策略已被AI云电脑绑定,系统会提示“当前电源策略被AI云电脑或AI云电脑池使用,不允许删除”。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        策略管理
        电源与时间策略管理
      • 电源与时间策略管理(1)
        删除电源策略 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“策略管理”,点击“电源策略管理”,在电源策略管理列表中,点击【删除】按钮,弹出确认框,点击【确定】按钮。 如果策略已被AI云电脑绑定,系统会提示“当前电源策略被AI云电脑或AI云电脑池使用,不允许删除”。
        来自:
      • 控制台总览
        本节介绍天翼云电脑(政企版)管理台的总览情况。 开通AI云电脑服务后,在“总览”页面,可查看我的资源概览,以及登录状态:在线AI云电脑,AI云电脑总数,在线用户数,用户总数,今日活跃排行,最新公告等信息。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        控制台总览
      • 创建告警规则
        您可以根据需要设置并行文件的告警,本文帮助您了解HPFS的监控告警相关操作。 操作场景 通过使用云监控的告警功能,用户可以对并行文件服务的核心监控指标设置告警规则,当监控指标触发用户设置的告警条件时,支持以邮箱、短信等方式通知用户,让用户在第一时间得知云服务发生异常,迅速处理故障,避免因资源问题造成业务损失。更多信息,请参考使用告警功能云监控服务用户指南。 操作步骤 方式一:通过云监控服务控制台创建告警规则 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 单击“管理与部署>云监控服务”,进入云监控控制台页面。 3. 单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面。 4. 可通过以下三个入口,创建告警规则: 入口一:您可以选择在“云服务监控>并行文件监控”页,在目标文件系统的“操作”栏下点击“创建告警规则”,选择需要告警服务的监控指标创建规则,包括监控阈值、通知频率、通知方式等。 入口二:在“云服务监控>并行文件监控”页面,在目标文件系统的“操作”栏下点击“查看监控图表”,进入文件系统的监控详情页,目标监控项图表右上方,点击“+”创建此监控项的告警规则。 入口三:单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面,页面右上方点击“创建告警规则”,选择“监控服务:并行文件”,然后选择文件系统名称、监控维度、实例、指标等参数,创建相应的告警规则。 5. 根据界面提示,选择了并行文件系统为监控对象后,配置告警规则的相关指标,配置参数参见[创建告警规则](
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        监控告警
        创建告警规则
      • 运行Kafka作业
        本章节主要介绍如何运行Kafka作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在Kafka主题中产生和消费消息。 暂不支持通过界面提交Kafka作业,请通过后台功能来提交作业。 通过后台提交作业 先查询ZooKeeper和Kafka的实例地址,再运行Kafka作业。 查询实例地址(3.x版本) 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.请参考访问FusionInsight Manager(MRS 3.x及之后版本),跳转至FusionInsight Manager页面。然后选择“服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 4.选择“服务 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 查询实例地址(3.x之前版本) a. 登录MRS管理控制台。 b. 选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 c. 在MRS集群详情页面,选择“组件管理 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 d. 选择“组件管理 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 运行Kafka作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.在集群信息页面的“节点管理”页签中单击Master2节点名称,进入弹性云主机管理控制台。 2.单击页面右上角的“远程登录”。 3.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 4.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 5.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 6.执行如下命令,创建kafka topic。 kafkatopics.sh create zookeeper ZooKeeper角色实例IP:2181/kafkapartitions 2 replicationfactor 2 topic 7.在topic test中产生消息。 首先执行命令kafkaconsoleproducer.sh brokerlist Kafka角色实例IP:9092 topic producer.config /opt/Bigdata/client/Kafka/kafka/config/producer.properties 。 然后输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 8.消费topic test中的消息。 kafkaconsoleconsumer.sh topic bootstrapserver Kafka角色实例IP:9092 consumer.config/opt/Bigdata/client/Kafka/kafka/config/consumer.properties 说明 如果集群开启Kerberos认证,则执行如上两个命令时请修改端口号9092为21007,详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • ELB权限
        本文主要介绍ELB的权限。 如果您需要对云上创建的弹性负载均衡资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云上资源的访问。详请请参见统一身份认证。 通过IAM,您可以在云帐号中给员工创建IAM用户,并使用策略来控制他们对云上资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有ELB的使用权限,但是不希望他们拥有删除负载均衡器等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用负载均衡器,但是不允许删除负载均衡器的权限策略,控制他们对ELB资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用ELB服务的其它功能。 ELB权限 默认情况下,帐号管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 ELB部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该策略仅对此项目生效,如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问ELB时,需要先切换至授权区域。 根据授权精度程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云上各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 ELB系统权限表 系统角色/策略名称 描述 类型 ELB FullAccess 操作权限:对弹性负载均衡服务的所有执行权限。作用范围:项目级服务。 系统策略 ELB ReadOnlyAccess 操作权限:对弹性负载均衡服务的只读权限。作用范围:项目级服务。 系统策略 常用操作与系统策略的关系 操作 ELB FullAccess ELB ReadOnlyAccess 创建负载均衡器 √ × 查询负载均衡器 √ √ 查询负载均衡器状态树 √ √ 查询负载均衡器列表 √ √ 更新负载均衡器 √ × 删除负载均衡器 √ × 创建监听器 √ × 查询监听器 √ √ 修改监听器 √ × 删除监听器 √ × 创建后端主机组 √ × 查询后端主机组 √ √ 修改后端主机组 √ × 删除后端主机组 √ × 创建后端主机 √ × 查询后端主机 √ √ 修改后端主机 √ × 删除后端主机 √ × 创建健康检查 √ × 查询健康检查 √ √ 修改健康检查 √ × 关闭健康检查 √ × 创建弹性公网IP × × 绑定弹性公网IP × × 查询弹性公网IP √ √ 解绑弹性公网IP × × 查看监控指标 × × 查看访问日志 × ×
        来自:
        帮助文档
        弹性负载均衡 ELB
        权限管理
        ELB权限
      • 订购资源包
        天翼云电脑(政企版)可以通过资源包订购方式。 操作场景 AI云电脑服务开通之后,管理员可先订购包括AI云电脑计算、存储和网络配额的资源包,然后再通过使用资源包为终端用户分配AI云电脑实例、配置数据盘及上网带宽。 操作步骤 1. 进入“AI云电脑(政企版)”控制台; 2. 点击“资源包管理”,进入“资源包管理”页面; 3. 点击“订购资源包”,进入“订购资源包”页面; 4. 根据实际情况选择需购买的资源包配置信息,包括计算包,存储包,网络包及购买时长; 计算包:每个计算包包括10vCPU+20GB内存+80G高IO系统盘每AI云电脑的资源总和,如用户需要开通100台2vCPU4GB内存的AI云电脑,则此处需配置20个计算包,以此类推; 存储包:订购资源包可使用的AI云电脑数据盘的总量,100GB起订,步长100GB,最大10000TB; 网络包:订购资源包可使用的网络带宽总量,0~4096Mbps; 5. 选择购买时长:订购资源包可使用的有效时长; 6. 确认信息和配置费用,点击“立即购买”。支付成功后,即可完成资源包的订购。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        订购资源包
      • 创建开发机
        本文介绍如何在科研助手中创建开发环境。 概述 开发机,以云原生的资源使用和开发工具链的集成,为不同类型开发、探索、教学用户,提供更好云化开发体验,适用于高校或科研机构等进行科研计算等场合。 操作步骤 1.登录科研助手管理控制台科研版。 2.在控制台左侧导航栏中,选择【开发机】。 3.在【开发机 】页面中,单击左上角的【创建开发机】。 4.在【创建开发机】页面中,填写配置相关参数数据。 5.点击【选择框架版本】,选择具体框架版本,点击【确定】选择框架版本。 【基础信息】 参数 描述 说明 可用区 选择所需的可用区 放开可用区的区域 【资源配置】 参数 描述 说明 GPU型号 GPU型号类型 可筛选不同类型GPU型号所对应的主机规格。 主机规格 主机资源规格 根据选定GPU型号选择不同规格的开发机主机规格。 目前的规格如果不满足您的要求,可通过工单申请或联系客户经理进行调整。 【存储配置】 参数 描述 说明 添加 添加目前已建的数据集 如果还未创建数据集,请先点击”创建数据集“,详见数据集管理。 添加 添加目前已建的科研文件 如果还未创建科研文件,请先点击”创建科研文件“,详见科研文件管理。 【框架版本】 参数 描述 说明 框架版本 选择开发机框架版本 点击选择“选择框架版本”,分为: 公共框架、自定义镜像、社区镜像、共享镜像。 公共框架 由发布的公共框架版本 公共框架版本说明: 1.名称:例如“vncubuntu20.04”; 2.标签:例如:”VNC“、“ubuntu:20.04”、“Vscode”等 自定义镜像 保存的镜像 保存的镜像涉及的组织、镜像名称、版本。 社区镜像 社区热门的镜像 发布的社区镜像,包括:名称、框架、镜像大小、镜像版本、镜像描述 共享镜像 由其他人分享给您的镜像 数据分享人邮箱,显示镜像名称、版本、分享用户。 5.确认无误后,点击【确认 】,完成开发机创建;点击【取消】,放弃开发机创建。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        开发机
        创建开发机
      • Baichuan2-7B
        声明与协议 声明 百川智能的开发团队并未基于 Baichuan 2 模型开发任何应用,无论是在 iOS、Android、网页或任何其他平台。强烈呼吁所有使用者,不要利用 Baichuan 2 模型进行任何危害国家社会安全或违法的活动。另外,百川智能也要求使用者不要将 Baichuan 2 模型用于未经适当安全审查和备案的互联网服务。希望所有的使用者都能遵守这个原则,确保科技的发展能在规范和合法的环境下进行。 百川智能已经尽可能确保模型训练过程中使用的数据的合规性。但由于模型和数据的复杂性,仍有可能存在一些无法预见的问题。因此,如果由于使用 Baichuan 2 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,百川智能不承担任何责任。 协议 使用 Baichuan 2 模型需要遵循 Apache 2.0 和《Baichuan 2 模型社区许可协议》。Baichuan 2 模型支持商业用途,如果您计划将 Baichuan 2 模型或其衍生品用于商业目的,请您确认您的主体符合以下情况: 您或您的关联方的服务或产品的日均用户活跃量(DAU)低于100万。 您或您的关联方不是软件服务提供商、云服务提供商。 您或您的关联方不存在将授予您的商用许可,未经百川许可二次授权给其他第三方的可能。 在符合以上条件的前提下,您需要通过以下联系邮箱 opensource@baichuaninc.com,提交《Baichuan 2 模型社区许可协议》要求的申请材料。审核通过后,百川将特此授予您一个非排他性、全球性、不可转让、不可再许可、可撤销的商用版权许可。 免责声明 Baichuan27B模型来源于第三方,本平台不保证其合规性,请您在使用前慎重考虑,确保合法合规使用并遵守第三方的要求。
        来自:
        帮助文档
        训推服务
        模型简介
        Baichuan2-7B
      • 深信服防火墙配置
        本文为您介绍深信服防火墙如何在本地站点中加载VPN配置。 使用IPsec VPN建立站点到站点的连接时,在配置完天翼云VPN网关后,您还需在本地站点的网关设备中进行VPN配置。 前提条件 已经在天翼云VPC内创建了IPsec连接。 已经下载了IPsec连接的配置。 IPsec协议信息 配置 示例值 IKE 认证算法 SHA1 IKE 加密算法 AES128 IKE DH分组 Group5 IKE IKE版本 IKEv1 IKE 生命周期 86400 IKE 协商模式 main IKE PSK ctSang4 IPsec 认证算法 SHA1 IPsec 加密算法 AES128 IPsec PFS DH group5 IPsec 生命周期 3600 网络配置信息 配置项 示例值 VPC 待和本地IDC互通的私网网段。 VPN网关 天翼云VPN网关的公网IP地址。 本地IDC 待和天翼云VPC互通的私网网段。 本地IDC 本地网关设备的公网IP地址。 操作步骤 1. 登录深信服防火墙的Web管理页面,单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第一阶段 ,单击列表上方的“新增”按钮,根据天翼云IPsec连接的IKE协议信息配置防火墙的第一阶段配置。 2. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第二阶段 ,单击“入站策略”列表上方的“新增”按钮,根据天翼云IPsec连接的网络信息,配置防火墙的第二阶段入站策略。 3. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第二阶段 ,单击“出站策略”列表上方的“新增”按钮,根据天翼云IPsec连接的网络信息,配置防火墙的第二阶段出站策略。 4. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 安全选项 ,查看是否有与天翼云IPsec连接配置相同的认证算法与加密算法组合;如果没有,请单击列表下方的“新增”按钮添加一个算法组合,或单击列表后面的“编辑”进行修改,使算法与天翼云IPsec连接中的配置相同。 5. 测试连通性。 您可以利用您的云主机和数据中心的主机进行连通性测试。
        来自:
        帮助文档
        VPN连接
        用户指南
        配置IPsec VPN
        本地网关配置
        深信服防火墙配置
      • 日志备份下载与清理
        合并下载 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,进入基础备份列表页签。 5. 单击日志合并下载页签。 您可以在合并任务列表中,查看已经合并的任务和文件。 6. 单击创建合并任务 ,配置合并时间段 ,然后单击确定。 在合并任务列表中,您可以看到正在初始化的合并任务。等待任务完成后,单击合并任务名称左侧的下拉框,查看并下载已合并的日志文件。 注意 合并的日志文件会占用空间,因此产生费用,您可在下载后手动进行删除,如未删除系统将会在24小时后将清理合并后的Binlog文件,故请及时下载所需的文件。 如选择内网下载,则将链接复制,使用wget ' 公网下载方式的临时下载地址链接有效时间为1小时。 日志备份清理 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 找到备份空间使用量一栏,点击日志备份清理按钮。 5. 根据可清理时间段,选择待清理的时间节点,单击确定。 系统将会删除您所选择时间节点之前的所有Binlog文件。 注意 删除Binlog文件可释放部分备份空间,但同时会影响您恢复至任意时间点的功能,建议通过备份空间扩容来满足备份空间不足的需求。 删除Binlog操作为异步任务,单击确定进行删除操作后,您在几分钟后刷新界面,即可看到相关文件已被清理,时间和清理的文件大小有关。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        Binlog下载与清理
        日志备份下载与清理
      • 网站接入WAF
        前提条件 网站以“独享模式”成功接入WAF。 回源到ECS 如果您的源站服务器直接部署在ECS上,请参考以下操作步骤设置安全组规则,放行独享模式回源IP。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角,选择区域。 步骤 3 单击页面左上方,选择“安全 >Web应用防火墙 (独享版)”。 步骤 4 在左侧导航树中,选择“独享引擎”,进入“独享引擎”页面。 步骤 5 在独享引擎列表的“IP地址”栏,获取所有创建的独享引擎对应的子网IP地址。 步骤 6 单击页面左上方,选择“计算 > 弹性云主机”。 步骤 7 在目标ECS所在行的“名称/ID”列中,单击目标ECS实例名称,进入ECS实例的详情页面。 步骤 8 选择“安全组”页签,单击“更改安全组”。 步骤 9 在“更改安全组”对话框中,选择目标安全组或新建安全组并单击“确定”。 步骤 10 单击安全组ID,进入安全组基本信息页面。 步骤 11 选择“入方向规则”页签,单击“添加规则”,进入“添加入方向规则”页面,参数配置说明如表所示。 参数 配置说明 协议端口 安全组规则作用的协议和端口。选择“自定义TCP”后,在TCP框下方输入源站的端口。 源地址 逐一添加步骤5中获取的所有独享引擎实例的子网IP地址。 说明 一条规则配置一个IP。单击“增加1条规则”,可配置多条规则,最多支持添加10条规则。 步骤 12 单击“确定”,安全组规则添加完成。 成功添加安全组规则后,安全组规则将允许独享引擎回源IP地址的所有入方向流量。 您可以使用Telnet工具测试已接入WAF防护的源站IP对应的业务端口是否能成功建立连接验证配置是否生效。 例如,执行以下命令,测试已接入WAF防护的源站IP对外开放的443端口是否能成功建立连接。如果显示端口无法直接连通,但网站业务仍可正常访问,则表示安全组规则配置成功。 Telnet 源站IP 443
        来自:
        帮助文档
        Web应用防火墙(独享版)
        网站设置
        网站接入WAF
      • 查看Topic日志
        本章节主要介绍如何查看Kafka实例的Topic日志。 Topic日志记录Topic分区选举Leader的详情,包括选举Leader时间、选举Leader的Topic分区和Leader的选举次数等。本章节介绍如何在控制台查看Topic日志。 Topic日志存储在云日志服务中,由LTS提供查询功能。 约束与限制 老实例不支持Topic日志功能,具体以控制台为准。 Topic日志默认存储时间为七天,如果需要延长保留天数,可以在LTS控制台修改日志组的存储时间。 Topic日志开启后会在LTS控制台创建对应的日志组、日志流和仪表盘。使用期间按照日志量收费,收费标准请参照LTS价格详情。 频繁产生Topic日志,可能会影响实例性能。 不同Kafka实例使用相同的日志组和日志流保存Topic日志时,在每个Kafka实例中都能看到使用同一个日志组和日志流的所有Kafka实例的Topic日志。 前提条件 开启Topic日志需要您的账号拥有LTS服务的创建日志组和日志流的权限。 Kafka实例处于“运行中”时,才能开启/关闭Topic日志。 开启Topic日志 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务Kafka”,进入Kafka总览页面。 4. 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 5. 单击Kafka实例的名称,进入实例详情页面。 6. 在左侧导航栏选择“日志管理 > Topic日志”,进入“Topic日志”页面。 7. 单击“开启日志”,弹出“开启日志”对话框。 8. 单击“确定”,弹出“日志配置”对话框。 9. 根据实际情况决定是否开启日志配置,单击“确定”。自动跳转到“后台任务管理”页面,开启日志的任务状态为“成功”时,表示开启Topic日志成功 不开启:LTS后台会自动创建一个日志组以及对应的日志流。 开启:选择存储日志文件“topic.log”的日志组和日志流。您还可以单击右侧的“查看日志组”,跳转到LTS控制台,查看或创建日志组和日志流。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic日志
      • 路由设置
        本文向您介绍企业版VPN中路由设置的常见问题。 如何理解VPN连接中的对端网关和对端子网? 对端网关和对端子网是两个相对的概念,在建立VPN连接时,从云的角度出发,VPC网络就是本地子网,创建的VPN网关就是本地网关,与之对接的用户侧网络就是对端子网,用户侧的网关就是对端网关。 对端网关IP就是用户侧网关的公网IP,对端子网指需要和VPC子网互联的子网。 Console界面在哪添加VPN远端路由? 云端在VPN连接创建时会自动下发到达远端子网的路由,无需手动配置。 ECS主机多网卡是否需要添加去往线下网络的路由? 如果客户使用主网卡与线下网络建立了VPN,不需要添加路由。 如果客户使用非主网卡与线下网络建立了VPN,需要添加去往线下网段的路由指向非主网卡的网关。 什么是NQA 什么是NQA 网络质量分析(Network Quality Analysis,NQA)是一种实时的网络性能探测和统计技术,可以对响应时间、网络抖动、丢包率等网络指标进行统计。NQA能够实时监视网络服务质量,在网络发生故障时进行有效的故障诊断和定位。 为什么需要NQA 随着运营商增值业务的开展,用户和运营商对QoS(Quality of Service)的相关要求越来越高,特别是在传统的IP网络承载语音和视频业务后,运营商与客户之间签订SLA(Service Level Agreement)成为普遍现象。 为了让用户看到承诺的带宽是否达到需求,运营商需要提供相关的时延、抖动、丢包率等相关的统计参数,以及时了解网络的性能状况。传统的网络性能分析方法(如Ping、Tracert等)已经不能满足用户对业务多样性和监测实时性的要求。NQA可以实现对网络运行状况的准确测试,输出统计信息。NQA可以监测网络上运行的多种协议的性能,使网络运营商能够实时采集到各种网络运行指标,例如:HTTP的总时延、TCP连接时延、DNS解析时延、文件传输速率、FTP连接时延、DNS解析错误率等。通过对这些指标进行控制,网络运营商可以为用户提供不同等级的网络服务。同时,NQA也是网络故障诊断和定位的有效工具。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        路由设置
      • 操作类
        本章节会介绍关系型数据库在使用和操作时遇到的常见问题。 可以通过创建模板的方式创建实例吗 目前不支持实例模板。可通过备份恢复功能将备份文件恢复到新实例上。 云数据库如何进行主备切换 关系型数据库(Relational Database Service,简称RDS)服务提供高可用类型,推荐您选择主备模式。 故障切换 也叫计划外的切换。当主机出现故障时,系统会在1~5分钟内自动切换到备机,主备实例的连接IP不变,整个过程无需人工干预。切换过程中不可访问,需要您设置好程序跟关系型数据库服务的自动重连,避免因为切换导致服务不可用。 手动切换 也叫计划内的切换。当实例运行正常时,用户可以自主手动触发主备切换,以满足业务需求。 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4 在“实例管理”页面,选择指定的主备实例,单击实例名称,进入实例的“基本信息”页面。 步骤5 在“基本信息”页面中“数据库信息”模块的“实例类型”处,单击“主备切换”。 您也可以在“基本信息”页面,单击“实例拓扑图”模块的。进行主备切换。 注意 主备切换可能会造成几秒或几分钟的服务闪断(闪断时间与复制时延有关),并有可能在主备同步时延过大的情况下,导致少量数据丢失。 主备切换后,请注意对业务进行预热,避免业务高峰期出现阻塞。 在“主备切换”弹框,单击“是”进行主备实例的切换。 在“复制状态”为“正常”的情况下,复制时延大于300s,主备切换任务无法下发。 主备切换成功后,单击“返回实例列表”,用户可以在“实例管理”页面对其进行查看和管理。 切换过程中,状态显示为“主备切换中”。 在实例列表的右上角,单击刷新列表,可查看到主备切换完成后,实例状态显示为“正常”。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        操作类
      • 操作类
        本章节介绍操作数据库时的常见问题有哪些及解决办法。 可以通过创建模板的方式创建实例吗 目前不支持实例模板。可通过备份恢复功能将备份文件恢复到新实例上。 云数据库如何进行主备切换 关系型数据库(Relational Database Service,简称RDS)服务提供高可用类型,推荐您选择主备模式。 故障切换 也叫计划外的切换。当主机出现故障时,系统会在1~5分钟内自动切换到备机,主备实例的连接IP不变,整个过程无需人工干预。切换过程中不可访问,需要您设置好程序跟关系型数据库服务的自动重连,避免因为切换导致服务不可用。 手动切换 也叫计划内的切换。当实例运行正常时,用户可以自主手动触发主备切换,以满足业务需求。 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4在“实例管理”页面,选择指定的主备实例,单击实例名称,进入实例的“基本信息”页面。 步骤5 在“基本信息”页面中“数据库信息”模块的“实例类型”处,单击“主备切换”。 您也可以在“基本信息”页面,单击“实例拓扑图”模块的。进行主备切换。 注意 主备切换可能会造成几秒或几分钟的服务闪断(闪断时间与复制时延有关),并有可能在主备同步时延过大的情况下,导致少量数据丢失。 主备切换后,请注意对业务进行预热,避免业务高峰期出现阻塞。 在“主备切换”弹框,单击“是”进行主备实例的切换。 在“复制状态”为“正常”的情况下,复制时延大于300s,主备切换任务无法下发。 主备切换成功后,单击“返回实例列表”,用户可以在“实例管理”页面对其进行查看和管理。 切换过程中,状态显示为“主备切换中”。 在实例列表的右上角,单击刷新列表,可查看到主备切换完成后,实例状态显示为“正常”。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        常见问题
        操作类
      • Redis Proxy集群实例
        本章节主要介绍Redis Proxy集群实例。 DCS Redis的集群实例有两种版本可供选择,一种是基于LVS+Proxy的高可用集群版本(以下简称为Proxy版Redis集群),另一种是原生Cluster的集群版本。Proxy版集群兼容开源Redis 3.0,Cluster版本兼容开源Redis的4.0和5.0。 Redis3.0 Proxy集群实例 DCS Redis3.0 Proxy集群实例基于开源Redis 3.0版本构建,提供64G~1024G多种大容量规格版本,用于满足百万级以上并发 与大容量数据缓存的需要。Redis集群的数据分布式存储和读取,由DCS内部实现,用户无需投入开发与运维成本。 Redis集群实例由“负载均衡器”、“Proxy服务器”、“集群配置管理器”、“集群分片”共4个部分组成。 Redis3.0集群实例规格和Proxy数、分片数的对应关系 集群版规格 Proxy节点数 分片数(Shard) 64G 3 8 128G 6 16 256G 8 32 512G 16 64 1024G 32 128 Redis Proxy集群实例示意图 示意图说明: VPC 虚拟私有云。集群实例的内部所有服务器节点,都运行在相同VPC中。 说明 VPC内访问,客户端需要与Proxy集群实例处于相同VPC,并且配置安全组访问规则。 客户应用程序 客户应用程序,即Redis集群客户端。 Redis可直接使用开源客户端进行连接,关于客户端连接示例,请参考连接实例。 LBM/LBS 负载均衡服务器,采用主备高可用方式。Redis集群实例提供访问的IP地址,即为负载均衡服务器地址。 Proxy Redis集群代理服务器。用于实现Redis集群内部的高可用,以及承接客户端的高并发请求。 支持使用Proxy节点的IP连接集群实例。 Redis shard Redis集群的分片。 每个分片也是一个Redis主备实例,分片上的主实例故障时,系统会自动进行主备切换,集群正常提供服务。 某个分片的主备实例都故障,集群可正常提供服务,但该分片上的数据不能读取。 Cluster manager 集群配置管理器,用于存储集群的配置信息与分区策略。用户不能修改配置管理器的信息。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        实例类型
        Redis Proxy集群实例
      • 管理员账号
        本节介绍云智助手管理员账号的使用说明。 云智助手企业版的企业管理功能,需要绑定管理员子账号的AI云电脑账号才有管理权限,企业管理包括专属智库申请开通、品牌设置、自定义功能菜单、自有大模型服务。 获取管理员的AI云电脑账号方式有两种 1.使用已有AI云电脑用户账号绑定管理员子账号 如果您已有AI云电脑用户账号,可直接将其与管理员子账号进行绑定,实现快速关联。 2.直接创建管理员子账号生成AI云电脑用户账号 在控制台创建管理员子账号时,系统将自动生成对应的AI云电脑用户账号。 使用已有AI云电脑用户账号绑定管理员子账号 【操作步骤】: 1.登录并进入“AI云电脑(政企版)”管理控制台; 2.点击“组织管理”,选择“用户管理”,进入“用户管理”页面; 3.在需要绑定子账号的用户所在行,点击“更多”,在下拉菜单中点击“绑定子账号”; 4.输入子账号邮箱(天翼云用户账号邮箱); 5.点击“确定”,完成子账号绑定邀请; 6.邀请后,子账号邮箱将会接收到邀请邮件,点击通过即可; 7.接受邀请后,该AI云电脑用户账号可用于登录云智助手,进行企业管理操作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        管理员指南
        管理员账号
      • 版本说明
        本节介绍天翼云电脑(政企版)产品版本的功能说明。 天翼AI云电脑(政企版)产品版本具体功能如下: 能力项 天翼AI云电脑(政企版) 目标客群 企业群体 管理台功能 是否有管理台 有 管理台功能 自定义组网 支持企业灵活组网,对接企业内部应用系统,更安全 管理台功能 账户体系 1. 支持企业管理员创建并分配账号,该账号无需二次激活自动开通; 管理台功能 账户体系 2. 支持企业普通用户邮箱激活账号、手机激活账号 管理台功能 账户层级管理 1. 支持主子账号管理能力 管理台功能 账户层级管理 2. 支持按部门管理、角色管理、用户管理 实例订购方式 实例订购方式 资源包、单实例 实例订购方式 实例时长限制 不限时长 实例订购方式 带宽提供方式 需单独开通带宽,管理员统一分配带宽 镜像能力 标准镜像 Windows Server 2019 镜像能力 标准镜像 Windows Server 2016 镜像能力 标准镜像 Windows Server 2008 镜像能力 标准镜像 Centos 7.6 镜像能力 标准镜像 Ubuntu 18.04 镜像能力 标准镜像 UOS V20 镜像能力 自定义镜像 支持 增值功能 应用分发,文件加密,备份等增值服务 AI云电脑使用 终端支持能力 1. 移动端(手机/iPad):默认支持 AI云电脑使用 终端支持能力 2. PC端(Windows/MAC):默认支持 AI云电脑使用 终端支持能力 3. 瘦终端(Android/Windows/Linux):默认支持 AI云电脑使用 App 提供天翼AI云电脑App,用户登录后可看到名下所有AI云电脑实例
        来自:
        帮助文档
        天翼云电脑(政企版)
        产品介绍
        版本说明
      • 查看监控指标
        本文介绍如何查看WAF监控指标。 您可以通过管理控制台,查看WAF的相关指标,及时了解WAF防护状况,并通过指标设置防护策略。 前提条件 WAF已对接云监控,即已在云监控页面设置监控告警规则。有关设置监控告警规则的详细操作,请参见设置监控告警规则。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台顶部的区域选择框,选择区域。 3. 单击页面左上方的“服务列表”,选择“管理与部署> 云监控服务”。 4. 在左侧导航树栏,选择“云服务监控> Web应用防火墙”,进入“云服务监控”页面。 5. 在目标独享引起实例或防护域名所在行的“操作”列中,单击“查看监控指标”,查看对象的指标详情。 说明 在“网站设置”列表中,目标域名所在行的“操作”列,单击“云监控”,可直接查看单个网站的监控信息。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        监控与审计
        监控
        查看监控指标
      • iVPN app VPC管理
        本节介绍iVPN app VPC管理的操作说明。 iVPN app加载VPC 若想通过iVPN app加密接入本资源池不同VPC下的多个AI云电脑,可在iVPN app实例中加载所需VPC。 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“网络管理”,点击“企业云网”,选择“iVPN app”,进入iVPN app管理页面; 3.在操作实例中,点击“管理”,选择“vpc管理”,进入iVPN app VPC管理页面; 4.在iVPN app VPC管理页面,点击“加载VPC”,选择需要加载的VPC; 5.确定后,AI云电脑客户端通过iVPN app重新登录,即可进入新加载VPC所包含的当前用户的AI云电脑。 iVPN app移除VPC 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“网络管理”,点击“企业云网”,选择“iVPN app”,进入iVPN app管理页面; 3.在操作实例中,点击“管理”,选择“vpc管理”,进入iVPN app VPC管理页面; 4.在iVPN app VPC管理页面,操作VPC中点击“移除”即可。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        企业云网管理
        iVPN app
        iVPN app VPC管理
      • 升级/取消高可用桌面
        本节介绍如何升级和取消高可用桌面。 升级高可用桌面 开通“高可用云电脑”功能服务的用户,也可对已创建的普通云电脑升级为高可用云电脑。 1.进入“云电脑(政企版)”管理控制台; 2.在“桌面管理”页面,选择需要升级为高可用的桌面的所在行,选择“管理”“升级到高可用版”; 3.高可用桌面有“通用版”和“个性版“; “通用版”无需任何配置,扣费方式按原普通云电脑订购时的支付方式。 “个性版”则需用配置“高可用策略”和“高可用带宽”,暂只支持资源包订购的普通云电脑升级。 4.其它电脑实例配置信息,根据需要自行配置; 5.确认相关的配置信息,点击“确认开通”,即完成升级。 取消高可用桌面 高可用桌面也可以恢复为普通桌面。 1.进入“云电脑(政企版)”管理控制台; 2.在“桌面管理”页面,选择需要取消高可用的桌面的所在行,选择“管理”“取消高可用版”; 3.确认相关的配置信息,点击“确认”,即完成高可用桌面的取消。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        高可用AI云电脑
        管理员指南
        升级/取消高可用桌面
      • 简介
        本节介绍天翼云电脑客户端支持的系统、浏览器版本,以及下载地址。 1.前言 欢迎广大用户下载安装天翼AI云电脑全新视觉客户端,当前文档适用于新版的Windows客户端,Mac客户端,Ubuntu瘦终端,安卓瘦终端,国产化终端(银河麒麟/统信UOS)的使用帮助。旧版客户端则使用旧版本帮助手册。 2.客户端支持的最低系统版本 天翼AI云电脑客户端支持Windows,MacOS 10.14,Android7.0,iOS10、Ubuntu18,UOS V20,Kylin V10等以上系统版本。 3.Web客户端接入的最低浏览器版本 支持Chrome70+、Firefox72+、edge、UOS 5.2.1200+、奇安信1.0.1365+等浏览器接入。Web客户端访问地址:< 4.下载AI云电脑 请前往天翼AI云电脑下载页,下载安装AI云电脑客户端。 注意 如需体验Linux系统的天翼AI云电脑客户端,请发送邮件至clouddesktop@chinatelecom.cn进行申请。
        来自:
        帮助文档
        天翼云电脑(政企版)
        电脑终端指南
        简介
      • 新建路由规则
        本章节介绍如何新建路由规则 概述 输入路由名称,匹配域名、路径、方法、header、query等参数,目标转发地址为服务列表里面配置的地址;路径匹配支持精确匹配和前缀匹配模式,精确匹配如/foo/bar匹配请求路径为/foo/bar的请求,前缀匹配时,/foo/bar/匹配/foo/bar、/foo/bar/baz、/foo/bar/a/b/c等请求。 操作步骤 1. 进入微服务引擎MSE控制台; 2. 在顶部菜单栏选择资源池; 3. 单击左侧导航栏云原生网关 > 网关列表 ; 4. 您可以在网关列表页单击需要查看的网关实例ID或者 实例名称 ,也可以单击操作列中的管理按钮; 5. 单击左侧导航栏 路由配置 ; 6. 单击路由配置列表页左上角创建路由按钮; 7. 在创建路由面板填写路由相关配置,并单击确认或确认并发布按钮,如您单击的是确认按钮,则需要在路由配置列表页,单击操作列发布按钮发布路由; 路由配置的规则之间是“与”的关系,必须全部满足才算匹配,路由配置项说明如下: 参数 说明 路由名称 路由名称,用于标识一条路由规则。 认证方式 支持无认证和应用授权无认证。 无需认证:建议调试阶段使用。 应用授权:表示完成应用的授权操作后才有权访问。 域名 用于和请求中的域名进行匹配,不填则任何请求都可以匹配;可选项从域名管理中添加的域名选择。 匹配路径 匹配请求的path(不含query参数),当前支持前缀匹配和精确匹配。 方法 匹配请求中的HTTP方法。 优先级 当多个路由同时匹配一个请求时,路径匹配深度较大的路由优先;路径匹配相同的情况下,路由优先级高(数字大)的优先匹配。 请求头(header) 匹配请求中的HTTP header。 请求参数(Query) 匹配请求中的HTTP query参数。 Cookie 通过Cookie进行路由匹配,多个参数之间是“与”的关系。 是否启用参数规整化匹配 启用后支持对参数进行取模,并根据取模结果进行精确或者范围匹配。 参数类型 启用参数规整化匹配选择,支持Header、Query、Cookie。 是否Hash 启用参数规整化匹配选择,是否对参数进行哈希处理后再取模,哈希函数为Java String hashCode。 取模数值 启用参数规整化匹配选择,自定义填写取模数值。 标记类型 支持精确和匹配精确。 精确匹配,可用英文逗号分隔多个精确值。 范围:最大值和最小值均是闭区间,[min,max]。 目标服务 当前支持单服务、多服务、标签路由、mock路由、重定向和dubbo代理。 描述 路由描述。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        路由配置
        新建路由规则
      • 1
      • ...
      • 290
      • 291
      • 292
      • 293
      • 294
      • ...
      • 435
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      模型推理服务

      应用托管

      推荐文档

      概念

      开通备案

      天翼云进阶之路③:top使用方法

      数据管道列表

      云主机购买流程

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号