活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容安全_相关内容
      • 计费概述
        本章节说明数据库安全计费概述 计费项 计费说明 计费项 计费项说明 计费模式 数据库实例 计费因子:不同规格的实例类型提供不同数据库纳管数、吞吐率和入库速率。 包年/包月 计费示例 假设您在2023/06/30 16:50:04购买了一个数据库安全审计(性能规格:基础版)购买时长为一个月,并在到期前手动续费1个月,则: 第一个计费周期为:2023/06/30 16:50:04 ~ 2023/07/30 23:59:59 第二个计费周期为:2023/07/30 23:59:59 ~ 2023/08/30 23:59:59
        来自:
        帮助文档
        数据库安全
        计费说明
        计费概述
      • IaC告警
        查看告警详情 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 点击告警列表“报警名称”,可查看报警详情。 4. 在报警详情页面,可查看该告警的基本信息、告警命中规则、处置建议等信息。 处理告警 处理单个告警 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 单击告警列表操作列的“处理”,或单击报警名称进入告警详情页面后,单击“立即处理”按钮。 4. 进入处理告警页面,对本条告警进行处理。 若您已手动处理该告警,或判断当前报警为误报,可以将其“标记为已处理”。 5. 选择处理方式后单击“确认”,即可完成告警处理。 批量处理告警 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 筛选告警,并勾选需要标记为已处理的告警,单击列表页右上方的“标记已处理”按钮。 4. 在“标记为已处理”窗口,选择标记范围。 5. 选择标记范围后,单击“确认”。 导出告警 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 筛选告警,并勾选需要导出的告警,单击列表页右上方的“生成报告”按钮。 4. 在“导出”窗口,选择导出范围。 5. 选择导出范围后,单击“确认”。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        告警响应
        IaC告警
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 创建IAM用户
        本节主要介绍怎么在控制台创建IAM用户。 登录“访问控制”>“概览”,在“账户概览”区域下,点击“创建用户”;或者登录“访问控制”>“用户管理”>“用户”,点击“创建”。 按照下列步骤创建IAM用户: 1. 设置用户 根据页面提示添加用户名,可以添加一个或多个用户,并为新创建的用户设置访问方式。 2. 设置权限 为IAM用户设置权限。 有三种添加权限的方式(只能选择一种): 1. 将用户添加到组 (前提:已经有用户组):用户将继承该用户组的所有权限,一个用户最多可以加入10个组。 2. 从现有用户复制 (前提:现有用户有通过直接附加的方式被授权的策略),每次只能复制一个用户的权限。只能复制现有用户直接附加的策略,不能复制用户所在组的策略。 3. 附加现有策略 :直接为用户添加现有的策略,每个用户最多可以直接添加10个策略。 用户设置权限时,只能选择以上三种方式中的一种为用户授权,当用户已经选择某一种权限设置方式,并进行了必要的勾选后,再切换其他授权方式会弹出提示框。 说明 可以创建用户时为用户添加策略,也可以用户创建完成后,再为其添加策略。 注意 每个用户最多可以直接附加10条策略,不包含随组附加的策略。 3. 设置标签 管理员可以为IAM用户设置标签,标签为IAM用户的附加属性。一个用户最多可以添加10个标签。 说明 不能为单个标签指定多个值,但多个标签键可以有相同的标签值。 项目 描述 :: 标签键 可以包含字母、数字、空格以及加号(+)、等号()、句点(.)、at符号(@)、下划线()、连字符()、冒号(:)、正斜杠(/)符号的任意组合。 标签键不区分大小写,但保留大小写。例如不能同时存在Department和department标签键,如果使用Departmentfoo标签标记用户后又添加departmentbar标签,则它会替换第一个标签,标签值变为bar。 标签值 可以为空。 4. 信息审核 对新建用户的信息进行审核,如果需要更改,可以在此页面点击对应的编辑标识,然后到对应的页面进行修改。 5. 完成 点击“下载凭证”,保存新建用户的密钥和密码。 注意 安全凭证仅能下载一次,务必妥善保管。如果某一用户的密钥丢失,可以在该用户详情页,先对原密钥进行删除,然后通过“创建密钥”的方式重新获取新的密钥。如果密码丢失,需要有修改密码权限的用户在控制台进行对该用户密码重置。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        访问控制
        IAM用户
        创建IAM用户
      • 创建API分组
        本章主要介绍创建API分组。 创建API前,需要先创建API分组。API分组相当于API的集合,API提供者以API分组为单位,管理分组内的所有API。 目前支持以下创建分组方式: 直接创建 创建一个简单的分组,不包含API,用户可自行创建API。 导入API设计文件 从本地导入已有的API文件,同步创建分组。 说明 对外开放API时,您需要为API分组绑定自己的独立域名。 一个API只能属于某一个API分组。 API分组创建后,系统为分组自动分配一个内部测试用的调试域名,此调试域名每天最多可以访问1000次。 实例创建后,有一个DEFAULT分组,可直接通过虚拟私有云地址调用默认分组中的API。 前提条件 已创建API网关实例。 直接创建 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API分组”。 步骤 4 单击“创建API分组 > 直接创建”,在弹框中填写分组信息。 参数 说明 :: 分组名称 API分组名称,用于将API接口进行分组管理。 描述 对分组的介绍。 步骤 5 单击“确定”,创建完成。 导入API设计文件 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API分组”。 步骤 4 单击“创建API分组 > 导入API设计文件”。 步骤 5 在弹窗中选择本地路径下的API文件,然后单击“打开”导入文件。 步骤 6 填写导入信息。 参数名称 说明 :: 导入方式 导入方式包含以下2种: 生成新的分组:将API定义导入到一个新的分组,导入过程中系统会自动创建一个新的API分组,并将导入的API归属到该分组。 选择已有分组:将API定义导入到一个已有的分组,导入过程中不会删除分组中已有的API,只是将新增的API导入分组。 API分组 仅在选择“选择已有分组”时,需要选择API分组。 是否覆盖 勾选后,当导入的API名称与已有的API名称相同时,导入的API会覆盖已有的API。 仅在选择“选择已有分组”时,需要选择是否覆盖。 扩展覆盖 勾选后,当导入API扩展定义项名称(ACL,流控等)与已有的策略(ACL,流控等)名称相同时,会覆盖已有的策略(ACL,流控等)。 步骤 7 (可选)单击“全局配置(可选)”。 1. 选择安全配置。 2. 选择后端请求配置。 3. 单击“下一步”,支持通过“表单”、“JSON”、“YAML”样式查看配置详情。 4. 确认无误后,单击“提交”,完成配置。 步骤 8 单击“立即导入”,在弹窗中选择是否现在发布API到环境。 步骤 9 单击“确定”,跳转到“API运行”页面,可查看分组下的API。
        来自:
        帮助文档
        API网关
        用户指南
        API管理
        创建API分组
      • 同步资产间隔设置
        接口功能介绍 服务器设置中心,同步资产设置 接口约束 已经签约安全卫士服务协议 URI POST /v1/sync/update/ 路径参数 参数 是否必填 参数类型 说明 示例 下级对象 interval 是 Integer 数据id。取值范围(0,24) 1 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String ContentType application/json 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 状态码 200成功 error String 返回码 CTCSSCN000000:成功 CTCSSCN000001:失败 CTCSSCN000003:用户未签署协议,安全卫士系统无法正常使用 CTCSSCN000004:鉴权错误 CTCSSCN000005:用户没有付费版配额,功能不可用 CTCSSCN000000 message String 返回信息 成功 returnObj Object 返回对象 枚举参数 无 请求示例 请求url 无 请求头header {"regionid": "100054c0416811e9a6690242ac110002","ContentType":"application/json","urlType": "CTAPI"} 请求体body 无 响应示例 {"statusCode": "200","error": "CTCSSCN000000","message": "查询成功!","returnObj": null} 状态码 请参考 状态码
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        安全配置
        同步资产间隔设置
      • 连接集群
        本章节主要介绍数据仓库服务如何连接集群。 操作场景 您在创建好数据仓库集群,开始使用数据库服务前,需要使用数据库客户端连接到DWS 集群中的数据库。本示例将使用Data Studio客户端工具通过公网地址连接DWS集群中的数据库。您也可以使用其他SQL客户端连接集群,更多连接方式请参见 连接集群的方式。 1.获取所要连接的数据库名称、用户名和密码。 首次使用客户端连接集群时,您需使用创建集群时设置的数据库管理员用户和密码连接到默认数据库“gaussdb”。 2.获取集群公网访问地址:通过集群公网访问地址连接数据库。 3.使用Data Studio连接到集群数据库:下载配置Data Studio客户端并连接集群数据库。 获取集群公网访问地址 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“集群管理”。 3.在集群列表中,选中已创建集群(如dwsdemo),单击“集群名称”前面的向下展开按钮,获取并保存公网访问地址。 该公网访问地址将在使用Data Studio连接到集群数据库时使用。 使用Data Studio连接到集群数据库 1.DWS 提供了基于Windows平台的Data Studio图形界面客户端,该工具依赖JDK,请先在客户端主机上安装Java 1.8.0141或以上版本的JDK。 在Windows操作系统中,您可以访问JDK官方网站,下载符合操作系统版本的JDK,并根据指导进行安装。 2.登录DWS 管理控制台。 3.单击“连接管理”。 4.在“下载客户端和驱动”页面,下载“Data Studio图形界面客户端”。 请根据操作系统类型,选择“Windows x86”或“Windows x64”,再单击“下载”,可以下载与现有集群版本匹配的Data Studio工具。 如果同时拥有不同版本的集群,单击“下载”时会下载与集群最低版本相对应的Data Studio工具。如果当前没有集群,单击“下载”时将下载到低版本的Data Studio工具。DWS 集群可向下兼容低版本的Data Studio工具。 单击“历史版本”可根据集群版本下载相应版本的Data Studio工具,建议按集群版本下载配套的工具。 5.解压下载的客户端软件包(32位或64位)到需要安装的路径。 6.打开安装目录,双击Data Studio.exe,启动Data Studio客户端,如下图所示。 7.在主菜单中选择 “文件>新建连接” ,如下图所示。 8.在弹出的“新建/选择数据库连接”页面中,如下图所示,输入连接参数。 字段名称 说明 举例 数据库类型 选择“GaussDB A” GaussDB A 名称 连接名称。 dwsdemo 主机名 所要连接的集群IP地址(IPv4)或域名。 端口号 数据库端口。 8000 数据库 数据库名称。 gaussdb 用户名 所要连接数据库的用户名。 密码 所要连接数据库的登录密码。 保存密码 在下拉列表中选择: “仅当前会话”:仅在当前会话中保存密码。 “不保存”:不保存密码。 启用SSL 启用时,客户端将使用SSL加密连接方式。SSL连接方式安全性高于普通模式,建议开启。 当“启用SSL”设置为开启时,请先下载SSL证书,并解压证书文件。然后中单击“SSL”页签,设置如下参数: 配置SSL参数 字段名称 说明 客户端SSL证书 选择SSL证书解压目录下的“sslcertclient.crt”文件。 客户端SSL密钥 客户端SSL秘钥只支持PK8格式,请选择SSL证书解压目录下的“sslcertclient.key.pk8”文件。 根证书 当“SSL模式”设为“verifyca”时,必须设置根证书,请选择SSL证书解压目录下的“sslcertcacert.pem”文件。 SSL密码 客户端pk8格式SSL秘钥密码,默认密码为“Gauss@MppDB”。 SSL模式 DWS支持的SSL模式有: require verifyca DWS不支持“verifyfull”模式。 详见下图: 配置SSL参数 9.单击“确定”建立数据库连接。 如果启用了SSL,在弹出的“连接安全告警”提示对话框中单击“继续”。 登录成功后,将弹出“最近登录活动”提示框,表示Data Studio已经连接到数据库。用户即可在Data Studio界面的“SQL终端”窗口中执行SQL语句。 详见下图: 登录成功 欲详细了解Data Studio其他功能的使用方法,请按“F1”查看Data Studio用户手册。
        来自:
        帮助文档
        数据仓库服务
        快速入门
        连接集群
      • 使用限制
        限制项 说明 存储桶(Bucket) 同一天翼云账号在同一地域内创建的存储桶(Bucket)总数不能超过10个。 存储桶名称在OOS全局范围内必须全局唯一。 存储桶创建后,其名称、索引位置不支持修改。 单个存储桶的容量和文件数不限制。 删除存储桶之前必须确保存储桶内所有文件已彻底删除。 文件(Object) OOS控制台支持批量上传文件,单次最多支持500个文件同时上传,总大小不超过5GiB。如果只上传1个文件,则这个文件最大为5GiB。 通过普通上传支持单个文件最大5TiB。 通过分片上传支持单个文件暂无限制,但是在合并分片时除了最后一个分片外,其他分片均不小于5MiB。 通过控制台批量删除文件时,文件的个数不能超过100个,通过调用批量删除接口,一次删除文件数不能超过1000个。 生命周期规则 一个存储桶(Bucket)内最多可配置1000条生命周期规则。 静态网站托管 XML请求体不能超过10KiB。 支持绑定自定义域名,自定义域名不要求和存储桶名字相同。 一个存储桶可以绑定20个不同的自定义域名;一个自定义域名只能绑定到一个存储桶。 支持托管自定义域名证书。 避免存储桶名中带有“.”,否则通过HTTPS访问时可能出现客户端校验证书出错。 Bucket Policy 单个存储桶(Bucket)的安全策略条数(statement)没有限制,但一个存储桶中所有安全策略的JSON描述总大小不能超过20KiB。 跨域资源共享 在配置跨域请求时,用户可以通过XML来配置允许跨域的源和HTTP方法。XML请求体不能超过64KiB。 清单配置 每个存储桶(Bucket)最多配置10条清单规则。 访问控制(IAM) 访问控制(IAM)中的IAM用户、用户组等有限定的配额: IAM用户数量:500。 自定义策略数量:150。 用户组数量:30。 附加到IAM用户的策略数量:10。 根用户的访问密钥数量:2。 IAM用户的访问密钥数量:2。 IAM用户可加入的用户组数量:10。 附加到IAM用户的标签数量:10。 附加到用户组的策略数量:10。 图片处理 只能转换图片文件格式的文件,支持的原图片格式为:jpg、 png、 bmp、 webp。 转换后的图片格式支持jpg、png、bmp和webp。其中:jpg、 png、 bmp、 webp的图片可以保存为jpg、png、bmp和webp中的任意一种格式;图片如果不指定保存格式,默认保存为原格式。例如:格式为png的图片,默认保存为png格式的图片。 原图片的大小不能超过20MiB。 缩略后的图片的大小有限制,目标缩略图的宽与高的乘积不能超过4096 4096, 而且单边的长度不能超过4096 4。 一次转换请求最多支持4个管道处理。 不支持处理分段文件。 资源包 资源包的地域属性分为中国大陆通用资源包和中国香港资源包。其中中国大陆通用资源包可以抵扣中国内地所有地域的对应计费项,不能抵扣中国香港的对应计费项。 已购资源包不支持更换地域。 资源包支持叠加购买,不支持升级、降级。 不同存储类型的资源包不能互相抵扣。 资源包的购买时长表示产品购买时长范围内每个月可使用的量(存储容量、流出流量或请求次数)。当月使用量超出已购资源包的额度,计费模式将自动转为按需付费。新购资源包不能抵扣已产生的资源用量;如有计费项未订购资源包则该计费项自动按需计费。 数据取回计费项不支持资源包抵扣,仅支持按需计费。 访问规则 OOS API支持 pathstyle 和 bucket virtual hosting 两种风格的请求方式,推荐使用 bucket virtual hosting 的请求风格,即 Bucket + Endpoint 的形式,如 examplebucket.ooscn.ctyunapi.cn。 若Bucket中带有(.),若想支持https访问,请用pathstyle方式,如ooscn.ctyunapi.cn/example.bucket 带宽 访问对象存储(经典版)I型的带宽同时受用户本地公网带宽限制、单用户带宽上限影响。 单个天翼云账号的上行和下行带宽上限各为10Gbit/s。 每秒请求数QPS(Query Per Second) 单个天翼云账号的非顺序读写QPS上限为10000,顺序读写QPS上限为2000。
        来自:
        帮助文档
        对象存储(经典版)I型
        产品简介
        使用限制
      • 数据安全中心可以管理其他云厂商的数据资产吗?
        本节介绍数据安全中心的使用约束 不支持。数据安全中心DSC仅支持管理天翼云上的数据资产,暂不支持管理其他云厂商的数据资产。具体支持的数据源和数据库类型版本参考管理范围。 DSC支持的数据库类型及版本如下表所示。 数据库类型 版本 MySQL 5.6、5.7、5.8、8.0 SQL Server 2017SE、2017EE、2017WEB 2016SE、2016EE、2016WEB 2014SE、2014EE 2012SE、2012EE、2012WEB 2008R2EE、2008R2WEB PostgreSQL 11、10、9.6、9.5、9.4、9.1 Oracle 10、12
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        数据安全中心可以管理其他云厂商的数据资产吗?
      • 数据库安全审计运行正常但无审计记录
        故障现象 数据库安全审计实例功能正常,当触发数据库流量后,在SQL语句列表页面搜索执行的语句,不能搜索到相关的审计信息。 可能原因 数据库已开启SSL。 数据库开启SSL时,将不能使用数据库安全审计功能。 处理步骤 以MySQL数据库自带的客户端为例说明,操作步骤如下: 1. 使用MySQL数据库自带的客户端,以root用户登录MySQL数据库。 2. 执行以下命令,查看MySQL数据库连接的方式。 如果界面回显类似以下信息,说明MySQL数据库已关闭SSL,请执行步骤4。 如果界面回显类似以下信息,说明MySQL数据库已开启SSL,请执行步骤3。 3. 以SSL模式登录MySQL数据库。 执行以下命令,退出MySQL数据库。 以root用户重新登录MySQL数据库。在登录命令后添加以下参数:sslmodeDISABLED或ssl0 注意 须知:以SSL模式登录MySQL数据库,只能关闭本次SSL。当需要使用数据库安全审计功能时,请以步骤3.2方式登录MySQL数据库。 4. 输入一条SQL语句后,在SQL语句列表页面搜索执行的语句。 如果可以搜索到输入的SQL语句信息,说明问题已解决。 如果不能搜索到输入的SQL语句信息,说明问题仍存在,请联系技术支持。
        来自:
        帮助文档
        数据库安全
        常见问题
        故障排查类
        数据库安全审计运行正常但无审计记录
      • 数据保护技术
        本文介绍镜像服务相关的数据保护技术。 数据保护技术 镜像服务通过多种数据保护手段和特性,保障存储数据的安全可靠。对于私有镜像建议通过导出方案,多地备份提升可用性。 数据冗余存储 镜像文件后端采用了冗余的方式存储,保证了高可用性。
        来自:
        帮助文档
        镜像服务 IMS
        产品简介
        安全
        数据保护技术
      • 概述
        服务器安全卫士(原生版)的病毒查杀功能,支持对挖矿木马、蠕虫、勒索病毒等进行有效的检测,提供灵活的检测方式,支持一键检测和定时检测方式,通过简单操作即可完成对病毒的处理,支持对病毒文件进行隔离、删除和信任。 病毒检测模式 包含快速检测、全盘检测、自定义检测三种模式。 快速检测:扫描耗时短,对系统关键位置文件进行扫描。 全盘检测:对主机所有硬盘文件进行扫描,清理更彻底。 自定义检测:按指定位置有选择性扫描文件。 病毒扫描方式 提供实时检测、一键扫描、定时扫描三种扫描方式,方便用户基于实际使用场景进行操作。 病毒文件处理方式 服务器安全卫士(原生版)检测到病毒文件会立即产生告警,需要您根据告警详细信息对病毒文件作出处置,处置方式包括以下三种: 隔离:将病毒文件或恶意程序移动至隔离区域,进行加密处理,禁止正常运行。对于已隔离的文件,支持取消隔离。 删除:永久从系统中删除病毒文件或恶意程序,以确保不再有可能的威胁。 注意 文件删除后将不可恢复,请谨慎操作。 信任:经分析后确认为误报,可以选择将文件进行信任,信任后将不再对该文件进行检测告警。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        用户指南
        文件安全
        病毒查杀
        概述
      • 文件比较与同步(对象存储到对象存储)
        本文为您介绍文件比较与同步的相关内容。 概要 应用场景: 支持对象存储到对象存储之间的数据比较与同步,并且生成比较报告供一致性检查。此场景支持两种数据捕获方式: 方式1:调用对象存储接口对源、备存储同步路径下的所有对象进行扫描、比对,获得增量对象(新增/差异),并将增量对象同步到目标端对应路径下;在海量对象场景下扫描/比对的对象太多,导致这种方式同步增量数据效率过低; 方式2:通过某些方式获取到增量对象信息(如:对象存储自行监控、通过应用数据库表获取等),并将增量对象的信息以某种类型文件存放;DTO通过读取文件内容来获取增量对象信息,并直接将源端对应的增量对象直接同步到目标端;此方式避免了扫描、比对海量对象的时间,提高海量对象场景的增量数据同步效率。 要求:要有应用/组件(一般是对象存储)负责实现监控增量对象并将增量对象以固定格式导出成文件的一系列动作。 前置条件 文件比较与同步的环境要求如下: 1. DTO主机需要安装dto安装包。详见安装DTO。 2. 在MDR控制台中添加对象存储。详见资源管理·对象存储。 3. 在MDR控制台中添加DTO主机并处于在线状态。详见资源管理·DTO主机。 4. MDR控制台需具备有dto的许可,并且该dto许可剩余允许传输量不为0。 新建文件比较与同步 1. 点击左侧菜单栏“资源同步管理”“对象存储数据灾备”“文件比较和同步”,进入文件比较和同步列表页,点击“新建”按钮,进入新建页面。 2. 通用配置页面各配置项如下: 名称:任意指定,便于管理即可。 同步主机:下拉框中会列出已注册至MDR控制台的DTO同步主机供选用; 规则类型:包含三类规则:仅比较/文件比较与同步 / 文件清单同步,下文会分别介绍各类规则的作用和使用场景; 同步策略类型:“手动同步”“定期同步”和“间隔同步”。 手动同步:需手动启动规则。此选项为默认选项。 定期同步:可指定每个月的某几天或者每个星期的某几天中的某几个时间点开始同步,规则会在设置的时间自动开始运行。 间隔同步:指的是从上一次规则完成到下一次规则启动之间的间隔,最小间隔时间单位为秒。 定期同步策略:用户自行添加定期同步策略。可以设定多个不重叠的定时同步策略,彼此独立。 间隔同步策略:用户自行添加时间间隔同步策略。选择此规则开始时间,并设置间隔时间(单位为秒)。 源存储:用户自行选择要源端的存储数据用来做对比。 目标存储:用户自行选择对象存储数据作为目标存储对比。 同步路径映射:用户自行配置需要同步的数据路径。同步路径支持手动输入路径。 排除路径:用户自行选择将同步数据路径中的某些子路径设置为排除路径,排除路径中的数据不进行传输。 文件后缀名过滤:以后缀名为过滤条件,格式为“文件扩展名”,若多个过滤条件则用逗号隔开,如:“.txt”,“.doc”,“.rtf”。 排除:不同步源路径中该过滤项中定义的文件类型。 包含:只同步源路径中该过滤项中定义的文件类型。 文件日期过滤:通过正则表达式对同步路径下文件的日期进行筛选,文件日期符合正则表达式要求的文件被过滤出来。 排除:不同步源路径中符合筛选条件的文件。 包含:只同步源路径中符合筛选条件的文件。 3. 比较设置页面各配置项如下: 比较类型:重镜像时的校验方式。 文件大小:通过源、目标文件的大小进行比较。 对象智能比对:提交规则时会判断备端存储是否支持自定义META,不支持则不允许规则提交。智能比对即:通过比文件当前的修改时间戳,和上一次同步时文件的修改时间戳(记录在自定义属性META中)来判断文件是否一致(如果修改时间戳一致则认为文件相同,如果修改时间戳不同,则继续对比文件的MD5)。 MD5校验:通过源、目标文件的MD5值进行比较(本地需计算md5,对象存储直接采用Etag,对象存储将收到文件的MD5值放在返回结果的ETag中)。 说明:对象存储返回分片上传文件的MD5有可能为空或是最后一个分片的MD5,因此对象存储的MD5并不完全可靠。“文件大小”比对最快;当文件较大时“对象智能比对”比“MD5校验”快(大文件本地计算md5很慢);当文件较小时“MD5校验”比“对象智能比对”快(对象存储的文件修改时间需从META中获取,一个文件就是一次请求)。 忽略目标端存在文件:DTO不再扫描目标端存储,直接拿源端拆解过后的目录进行传输,传输之前check目标端文件是否存在,如果不存在,就同步,否则跳过该文件;这种类型,可以支持对象存储单一目录上千万的文件。 传输线程数量:可以指定线程个数。一个线程处理一个目录。此选项用于提高数据复制的速度,默认为“10”,数值越高,可用于数据复制的线程越多,但会消耗更多的CPU和内存资源,请根据用户环境适当选择。 对象存储扫描线程数量:可根据需要指定110个线程数。 备端扫描:默认开启,开启后支持孤儿文件处理。 孤儿文件处理方式: 不处理:不删除孤儿文件,存在在目标端。 确认后删除:将孤儿文件计入孤儿文件列表,可通过规则管理界面的“更多·孤儿文件”按钮来查看,以及选择是否要将目标端的孤儿文件删除。 直接删除:将孤儿文件自动从目标端删除。 说明:定期同步或间隔同步策略时不允许配置“确认后删除”;选择“忽略目标端存在的文件”比较类型时,或者开启归档时不允许配置“直接删除”和“确认后删除”。 对象文件路径名: 和源端保持不变:区分大小写,和源端大小写保持一致。 全部为大写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为大写存储在目标路径下。 全部为小写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为小写存储在目标路径下。 备端文件压缩:指的是在本地将文件进行压缩,压缩完后传输到对象存储。仅限于本地到对象存储的规则才支持压缩,压缩传输后,目标端文件名会被修改为:原文件名.i2.zip。 备端文件加密:将同步到目标端数据加密存储。 标准加密:通过设置的加密密钥对源端文件加密后存放到目标端。 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 COS服务端加密:通过对接COS对象存储API接口,上传到该对象存储桶的文件都自动加密,需额外选择加密密钥类型: 加密密钥类型:支持两种加密密钥类型: SSECOS:使用SSECOS加密密钥类型进行加密,无需额外配置; SSEC:使用SSEC加密密钥类型进行加密,需要额外填写加密密钥; 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 保留结果数量:设置“文件比较与同步→报告”中保留的记录条数。 记录流水:默认关闭,开启后会将规则同步的所有文件相关信息(大小、MD5/etag、传输耗时、修改/更新时间)记录在同步主机/usr/drbksoft/dto/data/db/ .db文件中(默认路径),可供审计查看。 4. 带宽设置页面各配置项如下: 全选:开启后,将会选择一周内的所有时间。此选项默认关闭。 时间范围:用户自行勾选具体的生效日。 选择带宽:根据用户需求选择需要执行限速的时间段,可以设定多个不重叠的限速规则,彼此独立,如果带宽设定为0,表示禁止传输。 5. 归档设置页面各配置项如下: 启用归档:不勾选的话不启用归档功能。 文件名转换:归档文件的名称转换,支持两种转换方式: 保持不变:归档文件名与原文件名保持一致。 增加时间后缀:在归档文件名后自动添加归档时间后缀。 归档条件: 时间归档:按照填入文件时间类型的时间点与执行本地到对象存储时的时间点的差值(单位天)。这里的时间选项有两个:文件创建时间、文件修改时间,这两种类型可以只选择某一个,也可以多选,并可以选择几种类型间的关系是与还是或。 命名特征:使用正则表达式进行针对文件名的过滤。 文件类型:通过填入文件类型的后缀名进行对文件类型的过滤(如.txt等),可以匹配多个文件类型,文件后缀名与后缀名之间用“逗号隔开”(如.txt,.exe,.zip)。 归档策略: 同步所有文件,并删除本地符合条件的文件:将源目录下的所有文件全部同步到目标存储的目标目录中,并删除本地符合归档条件的文件。 只同步并删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并删除本地符合归档条件的文件。 只同步但不删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并且不删除源端本地符合归档条件的文件。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        文件比较与同步(对象存储到对象存储)
      • 通过外部镜像文件创建Windows系统盘镜像
        本节介绍了通过外部镜像文件创建Windows系统盘镜像的流程等内容。 流程概览(Windows) 除了可以通过云主机创建私有镜像,系统也支持外部镜像导入功能,可将您本地或者其他云平台的主机系统盘镜像文件导入至镜像服务私有镜像中。导入后,您可以使用该镜像创建新的云主机,或对已有云主机的系统进行重装。 创建过程 私有镜像创建过程如下图所示。 Windows系统盘镜像创建过程 步骤说明如下: 1. 准备符合平台要求的外部镜像文件,请参考下文“准备镜像文件(Windows)”。 2. 上传外部镜像文件到OBS个人桶中,请参考下文“上传镜像文件(Windows)”。 3. 通过管理控制台选择上传的镜像文件,并将镜像文件注册为私有镜像,请参考下文“注册镜像(Windows)”。 4. 私有镜像注册成功后,使用该镜像创建新的云主机,请参考下文“使用镜像创建弹性云主机(Windows)”。 准备镜像文件(Windows) 您需要提前准备好符合条件的镜像文件。 说明: 下表中,网络、工具、驱动相关的配置需要在虚拟机内部完成,强烈建议您在原平台的虚拟机实施修改后,再导出镜像文件。当然,您也可以使用弹性云主机完成这些配置,具体操作请参见Windows外部镜像文件在导出前未完成初始化配置,怎么办? Windows操作系统的镜像文件限制 镜像文件属性 条件 :: 操作系统 Windows Server 2008相关版本、Windows Server 2012相关版本、Windows Server 2016相关版本 支持32位和64位 操作系统不能与特定的硬件绑定 操作系统必须支持全虚拟化 所支持的操作系统版本请参考外部镜像文件支持的格式和操作系统类型,在此范围内的操作系统支持后台自动化配置(详情请参阅通过镜像文件注册私有镜像过程中,系统会对镜像做哪些修改?),在此之外的操作系统请您自行排查及安装Guest OS driver驱动,在注册镜像页面选择Other Windows,导入后系统启动情况取决于驱动完备度。 镜像格式 VMDK、VHD、QCOW2、RAW、VHDX、QED、VDI、QCOW、ZVHD2和ZVHD 镜像大小 镜像大小不超过128GB。 网络能力 必选项,不设置会导致云主机启动异常或网络能力异常,包括: 设置网卡属性为DHCP 可选项,即增值能力,主要包括: 开启网卡多队列 开启网卡多队列功能可以将网卡中断分散给不同的CPU处理,实现负载均衡,从而提升网络PPS和带宽性能。操作方法请参考如何设置镜像的网卡多队列属性? 配置动态获取IPv6地址 IPv6的使用,可以有效弥补IPv4网络地址资源有限的问题。镜像中配置动态获取IPv6地址,发放的云主机能够同时支持IPv4和IPv6地址。配置方法请参考如何开启云主机动态获取IPv6?。 工具 强烈建议安装CloudbaseInit工具。 CloudbaseInit是开源的云初始化工具,使用安装了CloudbaseInit的镜像创建云主机时可以通过“用户数据注入”功能,注入初始化自定义信息(例如为云主机设置登录密码);还可以通过查询、使用元数据,对正在运行的云主机进行配置和管理。不安装CloudbaseInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 安装方法请参考安装并配置CloudbaseInit工具。 插件 为了保证使用私有镜像创建的新云主机可以实现一键式重置密码功能,建议您在创建私有镜像前安装密码重置插件CloudResetPwdAgent。详情请参见安装一键式重置密码插件(Windows)。 驱动 安装PV driver 安装UVP VMTools 其他限制 暂不支持创建带有数据盘的镜像,镜像文件中必须只能包含系统盘,且系统盘大小范围为:[40GB, 1024GB] 镜像文件的初始密码至少包含以下4种字符:大写字母、小写字母、数字、特殊字符(!@$%^+[{}]:,./?) 镜像启动分区和系统分区必须包含在同一个磁盘中。 外部镜像文件必须包含可用的Administrator账号和密码。
        来自:
      • 发票申请
        本文主要介绍了发票申请的操作流程。 前提条件 客户必须先完善账户信息且进行实名认证后,才能开具发票。 发票申请需基于订单或月度结算,充值未消费部分无法开具发票。 注意事项 增值税发票仅面向中国大陆客户,港澳台及海外企业客户无法开具此类发票。 个人认证账号可以申请增值税普通发票; 企业认证账号(类型是政府、军队、事业单位、社团团体、其他)可以申请增值税普通发票; 企业认证账号(类型是企业)可以申请增值税普通发票以及增值税专用发票; 实名认证为企业的客户,创建企业抬头的发票模板时,发票抬头必须和实名认证名称保持一致,否则只能通过重新实名认证进行修改;创建个人抬头的发票模板时,发票抬头可以手动设置,支持修改。 实名认证为个人的客户,创建发票模板时,发票抬头可以手动设置,支持修改。 代金券消费不纳入可开票金额。 月产生的按需产品账单在下个月3日后才可以索取发票。 账号每个月可进行5次发票申请操作(含退票),超过则无法操作。 开票流程 1.登录费用中心,进入“发票管理”页面。 2.设置发票信息。 (1)点击”管理发票信息“,进入发票信息管理页面。 (2)点击”新增发票信息“,根据需要设置发票信息。 说明 增值税发票仅面向中国大陆客户,港澳台及海外企业客户无法开具此类发票。 个人认证账号可以申请增值税普通发票;企业认证账号(类型是政府、军队、事业单位、社团团体、其他)可以申请增值税普通发票;企业认证账号(类型是企业)可以申请增值税普通发票以及增值税专用发票; 实名认证为企业的客户,创建企业抬头的发票模板时,发票抬头必须和实名认证名称保持一致,否则只能通过重新实名认证进行修改。创建个人抬头的发票模板时,发票抬头可以手动设置,支持修改。 实名认证为个人的客户,创建发票模板时,发票抬头可以手动设置,支持修改。保存增值税普通发票模板前请仔细阅读开具发票承诺条款 。 当前默认每个云账号只能设置1个有效的发票信息,不得随意修改。 3.申请开具发票 (1)点击“申请发票”,进入消费数据选择页面。 (2)选择按消费明细开票或按月账单开票,并选择需要开发票的订单或账期,确认开票金额,点击“下一步”。 说明 月产生的按需产品账单在下个月3日后才可以索取发票。 若账号产生过欠票,申请时会优先扣减欠票金额。 按消费明细开票 选择“按消费明细开票”,勾选要开票的订单号或账期。 按订单或按需消费账期的消费时间由近及远展示每一笔消费金额及对应可开票金额。 支持按类型(包周期、按需)、选定消费时间的日期范围、输入单个订单号或按需账期月份搜索查询消费明细及对应可开票金额。 按月账单开票 选择“按月账单开票”,勾选要开票的账期。 支持选定账期范围搜索查询每个月账单汇总消费金额及对应可开票金额。 若您想查询某个账期的账单明细,可通过点击操作列的“查看详情”,即可查看当前账期的消费明细和退款明细。 (3)选择发票条目和发票信息。 用户可根据需要选择发票条目。 若发票信息有变动,可点击发票信息列表右侧“修改”,进行调整。 (4)填写邮箱(开具电子发票或全电发票时,需要填写接收邮箱)。 (5)填写备注信息。 若有特别说明,可填写备注信息,备注信息会生成在发票的备注内容区域。 (6)发票预览。 点击页面下一步,可预览所开具的发票。 (7)点击“提交”。 点击提交并确认发票信息后,发票创建成功。
        来自:
        帮助文档
        费用中心
        发票管理
        发票申请
      • 命令行客户端
        本页面介绍云数据库ClickHouse如何通过命令行客户端进行连接。 本节演示命令行客户端通过TCP端口9000连接云数据库ClickHouse。 1. 根据云数据库ClickHouse版本下载对应客户端。 2. 使用下列命令连接集群。 clickhouseclient host port user password 参数说明: host:集群节点ip地址。 port:host地址参数连接串上显示的端口号。 user:数据库用户名。 password:数据库用户密码。 更多详细的参数可以使用 clickhouseclient help 查看。 3. 示例。 以一个2节点的单副本集群为例,演示命令行客户端操作,示例集群节点信息如下:集群名inst2shards1replicas。 ClickHouse节点IP TCP端口 HTTP端口 分片(shard) 副本数量 A.A.A.207 9000 8123 1 1 A.A.A.208 9000 8123 2 1 连接命令行客户端。 clickhouseclient h IP地址 port TCP端口 u 用户名 password 密码 创建表。 集群模式下创建表分为两个步骤,第一步创建本地表,第二步是创建分布式表。如果只创建本地表而不创建分布式表,那么本地表的数据仅所在节点可见其它节点不可见。 创建本地表。 sql CREATE TABLE IF NOT EXISTS tutorial.eventslocal ON CLUSTER 'inst2shards1replicas' ( tsdate Date, tsdatetime DateTime, userid Int64, eventtype String, siteid Int64, grouponid Int64, categoryid Int64, merchandiseid Int64, searchtext String ) ENGINE ReplicatedMergeTree('/clickhouse/tables/{shard}/tutorial/eventslocal','{replica}') PARTITION BY tsdate ORDER BY(tsdate,toStartOfHour(tsdatetime),siteid,eventtype) SETTINGS indexgranularity 8192; 其中,ON CLUSTER语法表示分布式DDL,即执行一次就可在集群所有实例上创建同样的本地表。Tutorial和 eventslocal分别是数据库和本地表名,inst2shards1replicas是集群名。ReplicatedMergeTree是表引擎,PARTITION BY指定分区键。 集群标识符{cluster}、分片标识符{shard}和副本标识符{replica}来自复制表宏配置,即配置文件中一节的内容,配合 ON CLUSTER语法一同使用,可以避免建表时在每个实例上反复修改这些值。 创建分布式表。 sql CREATE TABLE IF NOT EXISTS tutorial.eventsall ON CLUSTER ‘inst2shards1replicas’ AS tutorial.eventslocal ENGINE Distributed(inst2shards1replicas,tutorial,eventslocal,rand()); 创建分布式表是读时检查的机制,也就是说对创建分布式表和本地表的顺序并没有强制要求。 插入数据。 sql insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200801','20200801 09:30:01',10009,'event1',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200802','20200802 09:30:01',10009,'event1',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200803','20200802 09:30:01',10009,'event2',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200804','20200803 10:30:01',10009,'event3',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200805','20200804 11:30:01',10009,'event4',10,20,30,40,'search text'); 查看分布式表。 查看本地表。 查看A.A.A.207节点。 查看A.A.A.208节点。 可以发现数据分布在不同的节点上。由此说明数据实际上保存在各个节点的本地表中,而分布式表可以看做一个视图,将本地表的数据联合起来。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        客户端连接
        命令行客户端
      • 创建告警规则
        本章节主要为您讲述如何使用默认告警模板为云服务资源创建告警规则。 云监控服务提供使用告警模板创建告警规则的功能,能够让用户在为资源或者云服务添加告警规则时轻松自如,特别是对于大批量资源或者云服务同时创建告警规则,或是在日常运维中对多个资源或者云服务修改告警规则,都能够提供极大的工作便利。 创建告警规则 1.登录管理控制台。 2.单击“管理与部署 > 云监控>告警管理 > 告警规则” 。 3.单击右上角“创建告警规则”。 4.在“创建告警规则”界面,根据界面提示配置参数。 根据界面提示,配置规则信息参数。 配置规则信息 参数 参数说明 取值样例 ::: 名称 系统会随机产生一个名称,用户也可以进行修改。 alarmcgnw 描述 告警规则描述(此参数非必填项)。 5、配置告警内容参数。 存储库告警配置 事件告警配置 如果资源类型选择云备份,则可以监控存储库维度的两个指标。参数说明下表所示。 参数 参数说明 取值样例 资源类型 此处以选择“云备份”为例 云备份 维度 默认以“存储库”为维度进行监控 存储库 监控范围 根据业务需求勾选监控的存储库 backpolicy1 选择类型 根据需要可选择从模板导入或自定义创建 模板 选择需要导入的模板 告警策略 触发告警规则的告警策略。当资源类型选择具体的云服务时,告警策略为一个周期性的动作。 当资源类型选择事件监控时,具体的事件为一个瞬间的操作动作,而不是周期性动作。 目前支持配置的云备份告警策略有:· 存储库使用率· 存储库使用量 告警级别 根据告警的严重程度不同等级,可选择紧急、重要、次要、提示 重要 如果资源类型选择事件监控,则可以针对云服务备份的多个事件进行监控。参数说明下表所示。 参数 参数说明 取值样例 资源类型 此处以选择“事件监控”为例 事件监控 维度 用于指定告警规则对应指标的维度名称 系统事件 监控范围 创建事件监控针对的资源范围。默认取值:全部资源 选择类型 选择自定义创建 自定义创建 告警策略 触发告警规则的告警策略 云备份事件告警规则 事件来源 事件名称 事件级别 事件说明 处理建议 事件影响 :::::: CBR 备份失败 紧急 创建备份失败 尝试手动创建备份或者提单 可能造成数据丢失 CBR 恢复失败 紧急 使用备份恢复资源失败 尝试使用其他备份恢复或者提单 可能造成数据丢失 CBR 备份删除失败 紧急 备份删除失败 稍后重试或者提交工单 可能造成计费异常 CBR 存储库删除失败 紧急 存储库删除失败 稍后重试或者提交工单 可能造成计费异常 CBR 备份复制失败 紧急 备份复制失败 稍后重试或者提交工单 可能造成数据丢失 CBR 备份成功 重要 创建备份成功 无 无 CBR 恢复成功 重要 使用备份恢复资源成功 观察数据是否已成功恢复 无 CBR 备份删除成功 重要 备份删除成功 无 无 CBR 存储库删除成功 重要 存储库删除成功 无 无 CBR 备份复制成功 重要 备份复制成功 无 无 6、 根据界面提示,配置告警通知参数。 配置告警通知 参数 参数说明 取值样例 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。启用(推荐选择), 会发送通知;不启用,不会发送通知。 通知对象 需要发送告警通知的主题名称。当发送通知选择“是”时, 需要选择已有的主题名称,若此处没有需要的主题则需先创建主题。 触发条件 可以选择“出现告警”,作为触发告警通知的条件。 7、配置完成后,单击“立即创建”,完成告警规则的创建。 告警规则添加完成后,当监控指标触发设定的阈值或发生相关的云服务备份事件时,云监控会在第一时间通告知您云备份资源异常,以免因此造成业务损失。其他详情可参考云监控产品帮助中心。
        来自:
        帮助文档
        云服务备份
        监控
        创建告警规则
      • 查询存储池
        项目 描述 Storage Pool Name 存储池名称。 Pool Status 存储池状态: Normal:正常。 Deleting:删除中。 Fault Domain 存储池故障域级别: path:数据目录级别。 server:服务器级别。 rack:机架级别。 room:机房级别。 Base Pool 是否是基础存储池: true:是基础存储池。 false:不是基础存储池。 Total Capacity 存储池总容量。 Used Capacity 存储池已用容量。 Created Time 存储池创建时间。 Description 存储池描述信息。 LUN 卷相关信息,包含LUN for CachePool、LUN for Pool、status。 LUN LUN for CachePool 缓存存储池卷列表。 LUN LUN for Pool 存储池卷列表。 LUN status 卷的状态信息,包括卷的总数、总容量,以及各类型卷的个数及容量。 Data Health 存储池的数据健康度,包括:正常数据的比例(normal)、降级数据的比例(low redundancy)、错误数据的比例(error)。如果存在降级状态的数据,会给出数据重建进度(low redundancy reconstruction progress)。 Topology 存储池拓扑图,包括:Node Name、Node Type、Status、Disk Path(s)、Removing Details。 Topology Node Name 节点名称。 Topology Node Type 节点类型: path:数据目录。 server:服务器。 rack:机架。 room:机房。 Topology Status 节点健康状态: Healthy:节点处于健康状态,可正常读写。 Warning:节点处于警告状态,可读。 Error:节点处于错误状态,无法访问。 Topology Disk Path(s) 数据目录信息: No.:编号。 Path:数据目录。 Used Capacity:HBlock数据目录对应分区的已用容量。 Total Capacity:HBlock数据目录对应分区的总容量。 Used Capacity Quota:已用数据目录容量配额。 Capacity Quota:数据目录容量配额,当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 Health Status:数据目录的健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 Health Detail:数据目录健康状态详情。 如果健康状态为Healthy,此列为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。 Topology Removing Details 被移除节点的详细信息: No.:编号。 Path:节点的具体数据目录。 Stage:移除节点所处的阶段: Reconfiguration:重置中。 CheckingData:检查数据。 Executing:执行移除节点。 Details:详细数据: FaultDomains:故障域详情,包括:healthy(健康个数),warning(告警个数),error(错误个数)。 Data:safe(安全数据百分比),await reconstruction(需要重建的数据百分比),await more faultdomains(需要额外故障域才能够重建的数据百分比),singlecopy(单副本数据百分比),corrupted(已经损坏的数据百分比)。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        存储池操作(集群版)
        查询存储池
      • 添加网关
        本章节主要介绍添加网关 服务网关在微服务实践中可以做到统一接入、流量管控、安全防护、业务隔离等功能。 前提条件 服务网关使用弹性负载均衡服务(ELB)的负载均衡器提供网络访问,因此在添加网关前,请提前创建负载均衡。 创建负载均衡时,需要确保所属VPC与集群的VPC一致。 操作步骤 步骤 1 登录应用服务网格控制台,单击服务网格的名称,进入网格详情页面。 步骤 2 在左侧导航栏选择“网关管理”,单击“添加网关”。 步骤 3 配置网关参数。 网关名称 请输入网关的名称。由小写字母、数字和中划线()组成,且必须以小写字母开头,小写字母或数字结尾,长度范围为4~59个字符。 集群选择 选择网关所属的集群。 负载均衡配置 服务网关使用弹性负载均衡服务(ELB)的负载均衡器提供网络访问,支持共享型和独享型规格,且支持公网和私网。 负载均衡实例需与当前集群处于相同VPC。 监听器配置 服务网关为负载均衡器配置监听器,监听器对负载均衡器上的请求进行监听,并分发流量。 对外协议 请根据业务的协议类型选择。支持HTTP、GRPC、TCP、TLS及HTTPS五种协议类型的选择。 对外端口 开放在负载均衡服务地址的端口,可任意指定。 TLS终止 配置TLS协议时,可选择开启/关闭TLS终止。开启TLS终止时需要绑定证书,以支持TLS数据传输加密认证;关闭TLS终止时,网关将直接转发加密的TLS数据。 密钥证书 配置TLS协议并开启TLS时,需要绑定证书,以支持TLS数据传输加密认证。 配置HTTPS协议时,需要绑定密钥证书。 TLS最低版本/TLS最高版本 配置TLS协议并开启TLS终止时,提供TLS最低版本/TLS最高版本的选择。 步骤 4(可选)配置路由参数。 请求的访问地址与转发规则匹配(转发规则由域名+URL组成,域名置空时,默认为ELB IP地址)时,此请求将被转发到对应的目标服务处理。单击图标,弹出“添加路由”对话框。 域名 请填写组件对外发布域名。不填时访问地址默认为负载均衡实例IP地址。如果您开启了TLS终止,则必须填写证书内认证域名,以完成SNI域名校验。 URL匹配规则 前缀匹配:例如映射URL为/healthz,只要符合此前缀的URL均可访问。例如/healthz/v1、/healthz/v2。 完全匹配:只有完全匹配上才能生效。例如映射URL为/healthz,则必须为此URL才能访问。 URL 服务支持的映射URL,例如/example。 命名空间 服务网关所在的命名空间。 目标服务 添加网关的服务,直接在下拉框中选择。 配置诊断失败的服务无法选择,需要先根据 手动修复项或 自动修复项进行修复。 访问端口 仅显示匹配对外协议的端口。 重写 重写HTTP URI和Host/Authority头,于转发前执行。默认关闭。 步骤 5 配置完成后,单击“确定”。 网关添加完成后,可前往“服务管理”页面,获取服务外网访问地址。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网关管理
        添加网关
      • 云间公网NAT网关高速访问互联网
        背景介绍 用户云下数据中心使用云专线接入虚拟私有云的用户,若有大量的服务器需要实现安全,可靠,高速的访问互联网,或者为互联网提供服务,可通过公网NAT网关的SNAT功能或DNAT功能来实现。云间NAT网关高速访问互联网功能仅部分资源池上线,支持资源池以控制台能力为准。 准备工作 环境准备 已创建VPC,具体操作参见虚拟私有云-创建 VPC 、子网搭建私有网络。 操作步骤 步骤一:开通云专线 步骤二:购买弹性IP 步骤三:购买NAT网关 步骤四:配置VPC路由(仅部分资源池需要) 步骤五:配置SNAT规则 步骤六:配置DNAT规则 步骤一:开通云专线 步骤说明 用户本地数据中心的服务器需要通过公网NAT网关实现访问公网或为公网提供服务,首先需要通过云专线接入虚拟私有云。 操作步骤 1. 登录天翼云控制台,选择“网络>云专线”。 2. 通过以下步骤进行云专线的开通。详细步骤参见云专线开通云专线。 在云专线开通完成后,会有一个默认专线网关,专线网关是客户站点和天翼云VPC之间的虚拟路由转发设备。作为数据从客户站点到云上VPC之间的传输桥梁,专线网关一端绑定物理专线,一端与客户站点需要访问的VPC直连。 3. 专线网关添加客户侧路由,点击专线网关名称,在客户侧路由页签下,点击添加路由,配置如下: IP类型:可选择IPv4、IPv6和双栈 客户侧子网段:客户侧子网网段 路由模式:静态或BGP 绑定入云物理专线,并设置物理专线优先级 配置完成,点击确定,完成专线网关客户侧路由。 4. 专线网关添加VPC,点击专线网关名称,在VPC页签下,点击“添加VPC”,配置如下: VPC实例类型:同账号 VPC:在下拉框中选中已创建的VPC VPC ID:跟据VPC名称自动生成 VPC网段:选则指定的VPC网段 类型:可选择IPv4、IPv6和双栈 子网:选定VPC中的子网 权重:表示当前专线网关到VPC侧路由的权重,多条路由的权重相等时采用负载均衡模式进行流量传输;某条路由的权重值越大,表示该路由优先级越高,可选择0、100 配置完成,点击确定,完成添加VPC。 5. VPC添加完成,客户侧子网将自动发布到VPC默认路由表中。下一跳为云专线网关,下一跳地址为专线网关名称,目的地址为客户侧子网网段。 6. 专线网关在添加云侧路由配置时支持基于“其他”类型的自定义地址段添加,可以配置0.0.0.0/0,用于把访问internet流量引入VPC在VPC页签下,点击VPC后的其他目的网段配置,填写目的网段IPv4:0.0.0.0/0(如不支持,请提交工单申请) 配置完成,点击确定,完成添加。
        来自:
        帮助文档
        NAT网关
        快速入门
        公网NAT网关
        云间公网NAT网关高速访问互联网
      • 编辑或删除资产
        本章节介绍如何编辑或删除资产。 操作场景 在资产管理页面可以对资产的业务系统进行编辑。另外,如果不再需要在态势感知(专业版)资产管理页面展示某个或某些云下导入的资产的信息,可以删除资产。 云上和云外资产都支持编辑。 仅自定义导入的云外资产支持删除,云上资产不支持删除。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“资产管理 > 资产管理”,进入资产管理页面。 5. 编辑或删除资产。 操作 执行步骤 编辑资产 编辑资产 1. 在资产管理页面中,勾选需要编辑的资产,并单击资产列表左上角“批量编辑”。 如果需要编辑某个类型的资产,可以选择对应资产页签,进入对应资产页面。例如,需要编辑主机资产,则选择“主机资产”页签。 2. 在弹出的资产编辑框中,对资产的业务系统进行编辑。 3. 编辑完成后,单击“确认”。 4. 在资产管理页面选择对应资产页签,可在资产列表查看资产信息。 编辑部门 1. 在资产管理页面中,选择“部门及业务系统”页签,单击“部门”后的编辑按钮。 2. 在弹出的“编辑部门”框中,编辑“部门名称”。 3. 编辑完成后,单击“确认”。 4. 在资产管理页面,选择“部门及业务系统”页签,可查看修改后的部门名称。 编辑业务系统 1. 在资产管理页面中,选择“部门及业务系统”页签,单击“业务系统”列表对应业务系统操作列的“编辑”按钮。 2. 在弹出的“编辑”对话框中,编辑“业务系统”,选择业务系统所在的“部门”,编辑“责任人”,设置“业务系统”关联的资产。 3. 编辑完成后,单击“确认”。 4. 在资产管理页面,选择“部门及业务系统”页签,可查看修改后的业务系统信息。 删除资产 删除资产 1. 在资产管理页面中,选择对应资产页签,进入对应资产页面。例如,需要删除主机资产,则选择“主机资产”页签。 2. 在对应资产页面,勾选您自定义导入的需要删除的资产,并单击列表上方的“批量删除”。 3. 系统将删除已勾选资产。 删除部门 1. 在资产管理页面中,选择“部门及业务系统”页签。 2. 单击待删除“部门”后的删除按钮。 3. 在弹出的“删除部门”对话框中,确认信息无误后,单击“一键输入”DELETE,单击“确定”。 删除业务系统 1. 在资产管理页面中,选择“部门及业务系统”页签。 2. 选中待删除的“业务系统”,单击操作列的“删除”按钮或列表上方的“删除”按钮。 3. 在弹出的“删除业务系统”对话框中,确认信息无误后,单击“一键输入”DELETE,单击“确定”。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        资产管理
        编辑或删除资产
      • 使用Impala客户端
        操作步骤 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 运行Impala客户端命令,实现A业务。 直接执行Impala组件的客户端命令: impalashell 说明 默认情况下,impalashell尝试连接到localhost的21000端口上的Impala守护程序。如需连接到其他主机,请使用 i host:port 选项,例如:impalashell i xxx.xxx.xxx.xxx:21000。要自动连接到特定的Impala数据库,请使用 d 选项。例如,如果您的所有Kudu表都位于数据库“impalakudu”中,则d impalakudu可以使用此数据库。要退出ImpalaShell,请使用quit命令。 内部表的操作: 1. 根据表创建用户信息表userinfo并添加相关数据。 createtable userinfo(id string,name string,gender string,age int,addr string); insert into table userinfo(id,name,gender,age,addr)values("12005000201","A","男",19,"A城市"); ......(其他语句相同) 2. 在用户信息表userinfo中新增用户的学历、职称信息。 以增加编号为12005000201的用户的学历、职称信息为例,其他用户类似。 alter table userinfo add columns(education string,technical string); 3. 根据用户编号查询用户姓名和地址。 以查询编号为12005000201的用户姓名和地址为例,其他用户类似。 select name,addr from userinfo where id'12005000201'; 4. 删除用户信息表。 drop table userinfo; 外部分区表的操作: 创建外部分区表并导入数据 1. 创建外部表数据存储路径。 安全模式(集群开启了Kerberos认证): cd /opt/hadoopclient source bigdataenv kinit hive 说明 用户hive需要具有Hive管理员权限。 impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 普通模式(集群关闭了Kerberos认证): su omm cd /opt/hadoopclient source bigdataenv impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 2. 建表。 create external table userinfo(id string,name string,gender string,age int,addr string) partitioned by(year string) row format delimited fields terminated by ' ' lines terminated by 'n' stored as textfile location '/hive/userinfo'; 说明 fields terminated指明分隔的字符,如按空格分隔,' '。 lines terminated 指明分行的字符,如按换行分隔,'n'。 /hive/userinfo为数据文件的路径。 3. 导入数据。 a. 使用insert语句插入数据。 insert into userinfo partition(year"2018") values ("12005000201","A","男",19,"A城市"); b. 使用load data命令导入文件数据。 i.根据下表数据创建文件。如,文件名为txt.log,以空格拆分字段,以换行符作为行分隔符。 ii. 上传文件至hdfs。 hdfs dfs put txt.log /tmp iii. 加载数据到表中。 load data inpath '/tmp/txt.log' into table userinfo partition (year'2018'); 4. 查询导入数据。 select from userinfo; 5. 删除用户信息表。 drop table userinfo;
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Impala客户端
      • 添加DNAT规则
        本文主要介绍私网NAT网关添加DNAT规则 操作场景 私网NAT网关创建后,通过添加DNAT规则,则可以通过映射方式将您VPC内的云主机实例对外部私网(IDC或其他VPC)提供服务。 云主机的每个端口分别对应一条DNAT规则,一个云主机的多个端口或者多个云主机需要为外部私网提供服务,则需要创建多条DNAT规则。 前提条件 已成功创建私网NAT网关。 中转子网与中转IP创建成功。 操作步骤 1. 登录管理控制台。 2. 在系统首页,单击“网络 > NAT网关”。进入NAT网关页面。 3. 在NAT网关页面,单击“NAT网关> 私网NAT网关”。 4. 在私网NAT网关页面,单击需要添加DNAT规则的私网NAT网关名称。 5. 在私网NAT网关详情页面中,单击“DNAT规则”页签。 6. 在DNAT规则页签中,单击“添加DNAT规则”。 说明 配置DNAT规则后,需在目标云主机实例中放通对应的安全组规则,否则DNAT规则不能生效。 7. 根据界面提示,配置添加DNAT规则参数,详情请参见下表。 表 DNAT规则参数说明 参数 说明 端口类型 分为具体端口和所有端口两种类型。 具体端口:属于端口映射方式。私网NAT网关会将以指定协议和端口访问该中转IP的请求转发到目标云主机实例的指定端口上。 所有端口:属于IP映射方式。此方式相当于为云主机配置了一个私网IP(中转IP),任何访问该中转IP的请求都将转发到目标云主机实例上。 支持协议 协议类型分为TCP和UDP两种类型。端口类型为所有端口时,此参数默认设置为All。端口类型为具体端口时,可配置此参数。 中转子网 选择中转VPC中创建的中转子网,非当前VPC的中转子网。 中转IP 通过该中转IP访问用户IDC或其他VPC。这里只能选择没有被绑定的中转IP,或者被绑定在当前私网NAT网关中非“所有端口”类型DNAT规则上的中转IP,或者被绑定到当前私网NAT网关中SNAT规则上的中转IP。 中转IP端口 中转IP对外提供服务的端口号。端口范围是1~65535。端口类型为具体端口时,需要配置此参数。 实例类型 选择对外部私网提供服务的实例类型。 云主机 虚拟IP地址 负载均衡器 自定义 网卡 服务器网卡。实例类型为云主机时,需要配置此参数。 IP地址 对外部私网提供服务的云主机IP地址。实例类型为自定义时,需要配置此参数。 业务端口 实例对外提供服务的协议端口号。端口范围是1~65535。端口类型为具体端口时,需要配置此参数。 描述 DNAT规则信息描述。最大支持255个字符。 8. 配置完成后,单击“确定”,可在DNAT规则列表中查看详情,若“状态”为“运行中”,表示创建成功。
        来自:
        帮助文档
        NAT网关
        用户指南
        私网NAT网关
        添加DNAT规则
      • 查询服务器
        项目 描述 Server Name 服务器名称。 Server ID 服务器ID。 Node Name 节点名称。 Parent Node 父节点名称。 Description 服务器描述信息,如果没有描述信息,不显示。 Status 服务器状态: Connected:已连接。 Disconnected:未连接。 Removing:移除中。 Master Server 该服务器是否为Master节点: true:该服务器为Master节点。 false:该服务器不是Master节点。 Base Server 该服务器是否为基础节点: true:该服务器为基础节点。 false:该服务器不是基础节点。 Base Service 服务器上的基础服务(仅集群版支持),包括基础服务名称、状态及对应的数据目录。 Public Address 业务网的IP和端口号。 Cluster Address 集群网的IP。 Target portal IP and Port 目标门户和目标端口。 Recent Start Time HBlock服务在该节点上最近一次成功启动的时间。 :表示HBlock服务处于停止状态。 Version HBlock版本号。 Parameters 服务器中HBlock可使用的内存信息: maxMemoryRatio:HBlock可使用的内存占用系统总内存的比例上限。 maxMemorySize:HBlock可使用的内存最大值,单位是bytes。 Disk Path(s) 数据目录信息: No.:编号。 Path:数据目录。单机版中,如果数据目录后有(),表示为HBlock服务器的默认数据目录。 Storage Pool:数据目录所属资源池。 Used Capacity:HBlock数据目录对应分区的已用容量。 Total Capacity:HBlock数据目录对应分区的总容量。 Used Capacity Quota:数据目录已用容量配额。 Capacity Quota:数据目录容量配额,当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 Health Status:数据目录的健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 Health Detail:数据目录健康状态详情。 如果健康状态为Healthy,此列为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。 Data Service:数据目录对应的ds进程(仅集群版支持)。 说明 数据目录加入存储池后才会展示ds进程。 Removing Details 移除服务器或者移除数据目录时,被移除数据目录的详细信息: No.:编号。 Path:具体数据目录。 Stage:移除数据目录所处的阶段: Reconfiguration:重置中。 CheckingData:检查数据。 Executing:执行移除数据目录。 Details:详细数据: FaultDomains:故障域详情,包括:healthy(健康个数),warning(告警个数),error(错误个数)。 Data:safe(安全数据百分比),await reconstruction(需要重建的数据百分比),await more faultdomains(需要额外故障域才能够重建的数据百分比),singlecopy(单副本数据百分比),corrupted(已经损坏的数据百分比)。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        服务器操作
        查询服务器
      • 查询指定服务器
        名称 类型 描述 path String HBlock数据目录。 totalCapacity Long 当前HBlock数据目录对应分区的总容量,单位是bytes。 usedCapacity Long 服务器上HBlock数据目录对应分区的已用容量,单位是bytes。 usedCapacityQuota Long HBlock在该数据目录的已写入量,即已用容量配额。单位是bytes。 capacityQuota Long 数据目录的容量配额。单位是bytes。 0表示禁止写入。不输出,表示没有限制。 managementStatus String 数据目录管理状态: Added:数据目录已添加至系统中。 Removing:数据目录正在移除中。 subStatus.stage String 移除数据目录所处的阶段: Reconfiguration:重置中。 CheckingData:检查数据。在该阶段,会同时显示下列字段的信息totalFD、healthyFD、warningFD、errorFD、safeData、reconstructionWaitData、availFDWaitData、singleCopyLUNData、corruptedData、具体告警信息(availFDWaitWarning、singleCopyLUNWarning或者corruptedWarning)。 Executing:执行移除数据目录 subStatus.totalFD Integer 总的故障域个数。 subStatus.healthyFD Integer 状态为Healthy的故障域个数。 subStatus.warningFD Integer 状态为Warning的故障域个数。 subStatus.errorFD Integer 状态为Error的故障域个数。 subStatus.safeData Double 安全数据百分比,单位是%。 subStatus.reconstructionWaitData Double 需要重建的数据百分比,单位是%。 subStatus.availFDWaitData Double 移除磁盘或者服务器时,数据重建需要的故障域个数不足,因此引发的无法重建的数据百分比。 subStatus.singleCopyLUNData Double 单副本数据百分比,单位是%。 subStatus.corruptedData Double 已经损坏的数据百分比,单位是%。 subStatus.availFDWaitWarning String 告警信息。 根据状态不同,显示的告警信息不同: availFDWaitWarning:移除磁盘或者服务器时,数据重建需要的故障域个数不足。 singleCopyLUNWarning:单副本卷数据所在磁盘或者服务器被移除。 corruptedWarning:故障域异常导致数据损坏。 subStatus.singleCopyLUNWarning String 告警信息。 根据状态不同,显示的告警信息不同: availFDWaitWarning:移除磁盘或者服务器时,数据重建需要的故障域个数不足。 singleCopyLUNWarning:单副本卷数据所在磁盘或者服务器被移除。 corruptedWarning:故障域异常导致数据损坏。 subStatus.corruptedWarning String 告警信息。 根据状态不同,显示的告警信息不同: availFDWaitWarning:移除磁盘或者服务器时,数据重建需要的故障域个数不足。 singleCopyLUNWarning:单副本卷数据所在磁盘或者服务器被移除。 corruptedWarning:故障域异常导致数据损坏。 healthStatus String 数据目录健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 healthDetail Array of string 数据目录健康状态详情: 如果健康状态为Healthy,此字段为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。 dsId String 数据目录对应的ds进程(仅集群版支持)。 说明 数据目录加入存储池后才会展示ds进程。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        服务器管理
        查询指定服务器
      • 步骤1:创建虚拟私有云基本信息及默认子网
        本文帮助您快速熟悉创建虚拟私有云的操作流程。 操作场景 虚拟私有云可以为您的弹性云主机构建隔离的、用户自主配置和管理的虚拟网络环境。 要拥有一个完整的虚拟私有云,第一步请参考本章节任务创建虚拟私有云的基本信息及默认子网;然后再根据您的实际网络需求,参考后续章节继续创建子网、申请弹性IP、安全组等网络资源。 操作步骤 1. 登录管理控制台。 2. 在系统首页,选择“网络 > 虚拟私有云”。 3. 单击“创建虚拟私有云”。进入“创建虚拟私有云”页面。 4. 在“创建虚拟私有云”页面,根据界面提示配置虚拟私有云参数。创建虚拟私有云时会同时创建一个默认子网,您还可以单击“添加子网”创建多个子网。 5. 检查当前配置,单击“立即创建”。 表 虚拟私有云参数说明 参数 说明 取值样例 区域 不同区域的资源之间内网不互通。请选择靠近您客户的区域,可以降低网络时延、提高访问速度。 名称 VPC名称。名称只能由中文、英文字母、数字、“”、“”和“.”组成,且不能有空格,长度不能大于64个字符。 VPCtest IPv4网段 VPC的地址范围,VPC内的子网地址必须在VPC的地址范围内。目前支持网段范围: 10.0.0.0/824 172.16.0.0/1224 192.168.0.0/1624未开启IPv4/IPv6双栈的区域显示参数“网段”,开启IPv4/IPv6双栈的区域显示参数“IPv4网段”。 192.168.0.0/16 高级配置 单击下拉箭头,可配置VPC的高级参数,包括标签等。 默认配置 标签 虚拟私有云的标识,包括键和值。可以为虚拟私有云创建10个标签。 键:vpckey1 值:vpc01 表 子网参数说明 参数 说明 取值样例 名称 子网的名称。名称只能由中文、英文字母、数字、“”、“”和“.”组成,且不能有空格,长度不能大于64个字符。 subnet01 子网IPv4网段 子网的地址范围,需要在VPC的地址范围内。 192.168.0.0/24 子网IPv6网段 选择是否勾选开启IPv6。开启IPv6功能后,将自动为子网分配IPv6网段,暂不支持自定义设置IPv6网段。该功能一旦开启,将不能关闭。 关联路由表 子网创建完成后默认关联默认路由表,您也可以通过子网的更换路由表操作,切换至自定义路由表。 默认 高级配置 单击下拉箭头,可配置子网的高级参数,包括网关、DNS服务器地址等。 默认配置 网关 子网的网关。通向其他子网的IP地址,用于实现与其他子网的通信。 192.168.0.1 DNS服务器地址 默认配置了2个DNS服务器地址,您可以根据需要修改。多个IP地址以英文逗号隔开。DNS服务器地址最多支持2个IP,请以英文逗号隔开。 100.125.x.x 标签 子网的标识,包括键和值。可以为子网创建10个标签。 l 键:subnetkey1l 值:subnet01
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        配置无需访问公网的弹性云主机的VPC
        步骤1:创建虚拟私有云基本信息及默认子网
      • 步骤1:创建虚拟私有云基本信息及默认子网
        本文帮助您快速熟悉创建虚拟私有云的操作流程。 操作场景 虚拟私有云可以为您的弹性云主机构建隔离的、用户自主配置和管理的虚拟网络环境。 要拥有一个完整的虚拟私有云,第一步请参考本章节任务创建虚拟私有云的基本信息及默认子网;然后再根据您的实际网络需求,参考后续章节继续创建子网、申请弹性IP、安全组等网络资源。 操作步骤 1. 登录管理控制台。 2. 在系统首页,选择“网络 > 虚拟私有云”。 3. 单击“创建虚拟私有云”。进入“创建虚拟私有云”页面。 4. 在“创建虚拟私有云”页面,根据界面提示配置虚拟私有云参数。创建虚拟私有云时会同时创建一个默认子网,您还可以单击“添加子网”创建多个子网。 5. 检查当前配置,单击“立即创建”。 表 虚拟私有云参数说明 参数 说明 取值样例 区域 不同区域的资源之间内网不互通。请选择靠近您客户的区域,可以降低网络时延、提高访问速度。 名称 VPC名称。名称只能由中文、英文字母、数字、“”、“”和“.”组成,且不能有空格,长度不能大于64个字符。 VPCtest IPv4网段 VPC的地址范围,VPC内的子网地址必须在VPC的地址范围内。目前支持网段范围: 10.0.0.0/824 172.16.0.0/1224 192.168.0.0/1624未开启IPv4/IPv6双栈的区域显示参数“网段”,开启IPv4/IPv6双栈的区域显示参数“IPv4网段”。 192.168.0.0/16 高级配置 单击下拉箭头,可配置VPC的高级参数,包括标签等。 默认配置 标签 虚拟私有云的标识,包括键和值。可以为虚拟私有云创建10个标签。 键:vpckey1 值:vpc01 表 子网参数说明 参数 说明 取值样例 名称 子网的名称。名称只能由中文、英文字母、数字、“”、“”和“.”组成,且不能有空格,长度不能大于64个字符。 subnet01 子网IPv4网段 子网的地址范围,需要在VPC的地址范围内。 192.168.0.0/24 子网IPv6网段 选择是否勾选开启IPv6。开启IPv6功能后,将自动为子网分配IPv6网段,暂不支持自定义设置IPv6网段。 该功能一旦开启,将不能关闭。 关联路由表 子网创建完成后默认关联默认路由表,您也可以通过子网的更换路由表操作,切换至自定义路由表。 默认 高级配置 单击下拉箭头,可配置子网的高级参数,包括网关、DNS服务器地址等。 默认配置 网关 子网的网关。通向其他子网的IP地址,用于实现与其他子网的通信。 192.168.0.1 DNS服务器地址 默认配置了2个DNS服务器地址,您可以根据需要修改。多个IP地址以英文逗号隔开。 DNS服务器地址最多支持2个IP,请以英文逗号隔开。 100.125.x.x 标签 子网的标识,包括键和值。可以为子网创建10个标签。 键:subnetkey1 值:subnet01
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        配置通过弹性IP访问公网的弹性云主机的VPC
        步骤1:创建虚拟私有云基本信息及默认子网
      • Windows外部镜像文件在导出前未完成初始化配置,怎么办?
        本节介绍了Windows外部镜像文件在导出前未完成初始化配置的解决办法。 外部镜像文件在从原平台导出前,没有按照准备镜像文件(Windows)中的Windows操作系统的镜像文件限制表的要求完成初始化操作,推荐您使用弹性云主机完成相关配置。流程如下图所示。 注意: 云主机的正常运行依赖于XEN Guest OS driver(PV driver)和KVM Guest OS driver(UVP VMTools),未安装会对云主机运行时的性能产生影响,云主机的部分功能会有缺失。请确保外部镜像文件在从原平台导出前,已安装这些驱动,否则云主机因启动不成功而无法进行任何配置。 安装UVP VMTools,请参考安装UVPVMTools。 安装PV driver,请参考安装PVdriver。 创建过程 步骤1:上传镜像文件 上传外部镜像文件到OBS个人桶中,请参考上传镜像文件(Windows)。 步骤2:注册镜像 通过管理控制台选择上传的镜像文件,并将镜像文件注册为未初始化的私有镜像。请参考注册镜像(Windows)。 步骤3:创建云主机 1. 登录管理控制台。 2. 选择“计算 > 镜像服务”。 进入镜像服务页面。 3. 单击“私有镜像”页签进入私有镜像列表。 4. 在未初始化的私有镜像所在行,单击“操作”列的“申请主机”。 5. 根据界面提示完成云主机的创建。需要关注以下几点: − 创建云主机过程中需要绑定弹性公网IP,以便您能上传相关安装包或者在云主机内部直接下载安装包。 − 需要在云主机所属安全组中添加对应的入方向规则,确保可以从外部访问该云主机。 − 如果在镜像文件系统中已经安装并配置了CloudbaseInit工具,请按照界面提示设置密码方式登录云主机。如果未安装,请使用镜像文件中包含的密码或证书登录。 详细操作请参见《弹性云主机用户指南》。 6. 执行以下步骤检查云主机,验证私有镜像是否可用。 a. 如果云主机启动成功,证明外部镜像文件已安装Guest OS driver,或者云平台的自动化配置功能已为您自动安装该驱动。否,请您在原平台安装Guest OS driver后,再重新创建私有镜像。 b. 如果能够使用用户设置的密码/密钥登录云主机,证明已安装CloudbaseInit工具。否,请使用原始密码/密钥登录云主机,再请参考安装并配置CloudbaseInit工具安装CloudbaseInit。 c. 请参考步骤4:配置云主机中的第2步检查网卡属性是否为DHCP方式。 d. 使用MSTSC工具远程登录成功,证明云主机的远程桌面配置正常。否,请参考步骤4:配置云主机中的第3步配置远程桌面。 如果满足以上条件,则私有镜像可用,请直接参考清理环境(可选)清理环境。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
        Windows外部镜像文件在导出前未完成初始化配置,怎么办?
      • 运行Hue任务
        本章节主要介绍翼MapReduce运行Hue任务。 前提条件 1. 使用Hue WebUI编辑器前,请前往翼MR Manager集群服务Hue连接器管理页面,选择需要启用的连接器,启用成功后,请在页面右上角的运维操作中重启Hue集群服务。重启后,即可前往Hue WebUI页面进行使用。 2. 当前版本支持使用LDAP账号访问Hue。若使用admin、hdfs或hive等已有权限的用户登录Hue,无需进行Ranger授权,可以跳过此步骤;如果新建LDAP用户,需要通过Ranger授予Hive与HDFS权限,操作步骤如下: 1)前往翼MR Manager集群服务中点击Ranger插件启用启用Hive与HDFS,并重启Hive与HDFS服务; 2)登录Ranger WebUI界面给需要登录的用户授权HADOOP SQL/HDFS等权限。 注意 如果没有给登录用户授权,查询hive可能报错Error, Permission denied: usertest, accessWRITE等问题。 3. 修改coresite.xml文件,为Hue用户配置代理权限。在HDFS配置管理中修改coresite.xml文件配置,新增 hadoop.proxyuser.hue.hosts与hadoop.proxyuser.hue.groups配置项,配置值可按需设置为,保存并同步配置后,请重启HDFS与Hivehiveserver2。 注意 如果没有为Hue用户配置代理权限,可能会报错Failed to validate proxy privilege of hue for test(登录用户)。 4. 若通过公网访问Hue WebUI,需保障网络畅通,您可前往控制台节点管理,为Hue所在的master节点绑定弹性IP,为安全组配置入方向访问规则后,点击访问链接与端口页面中的链接,前往Hue WebUI页面。 5. Hue通过JDBC连接Trino 查询引擎。Trino支持多个Catalog(如 hive、mysql等),但Hue默认连接Trino自带system的系统Catalog ,仅用于监控和元数据查询,无法访问Hive表等业务数据。如何查询Hive或其他业务数据?您有两种方式: 方式一:修改Hue默认连接的Catalog(推荐) 编辑Hue配置文件hue.ini,将Trino URL中的system替换为您实际使用的Catalog名称(例如hive) plaintext [[[trino]]] nameTrino JDBC interfacejdbc options'{"url":"jdbc:trino://yourtrinohost:9808/hive", "driver": "io.trino.jdbc.TrinoDriver", "user": "trino", "passwordscript": "/path/to/passwordscript.sh"}' 保存后重启Hue,即可在查询编辑器中直接使用SQL plaintext SELECT FROM default.users 方式二:在SQL中显式指定Catalog(无需改配置) 即使默认Catalog是system,您仍可通过完整表名查询任意Catalog中的数据。 使用SQL查询Hive 中的表 plaintext SELECT FROM hive.default.users 注意 请确保Trino服务端已正确配置对应的Catalog(如 hive.properties)。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Hue任务
      • 配置策略
        本文介绍如何配置防火墙防护策略,包括配置入侵防御模式和配置访问控制策略。 云防火墙提供基础防御功能,可以针对访问流量进行检测与防护,覆盖多种常见的网络攻击,有效保护您的资产。 访问控制策略默认状态为放行,通过配置合适的策略调整防护能力,实现更有效的精细化管控,防止内部威胁扩散,增加安全战略纵深。 配置入侵防御模式操作步骤 在左侧导航栏中,选择“攻击防御 > 入侵防御” 。 功能名称 功能说明 :: 防护模式 观察模式:仅对攻击事件进行检测并记录到日志中。 拦截模式:在发生明确攻击类型的事件和检测到异常IP访问时,将实施自动拦截操作。 拦截模式宽松:防护粒度较粗。拦截可信度高且威胁程度高的攻击事件。 拦截模式中等:防护粒度中等。满足大多数场景下的防护需求。 拦截模式严格:防护粒度精细,全量拦截攻击请求。建议您等待业务运行一段时间后,根据防护效果配置误报屏蔽规则,再开启“严格”模式。 说明 选择防护模式后,可对基础防御规则库的单条防御规则进行修改。具体操作请参见修改基础防御规则动作。 基础防御 为您的资产提供基础的防护能力,默认为“开启”状态。防御功能包括: 检查威胁及漏洞扫描。 检测流量中是否含有网络钓鱼、特洛伊木马、蠕虫、黑客工具、间谍软件、密码攻击、漏洞攻击、SQL注入攻击、XSS跨站脚本攻击、Web攻击。 是否存在协议异常、缓冲区溢出、访问控制、可疑DNS活动及其他可疑行为。 虚拟补丁 在网络层级为IPS提供热补丁,实时拦截高危漏洞的远程攻击行为,同时避免修复漏洞时造成业务中断。 高级 敏感目录扫描防御 防御对用户主机敏感目录的扫描攻击。 “动作”: 观察模式:发现敏感目录扫描攻击后,CFW仅记录攻击日志,查看攻击日志请参见日志查询。 拦截Session:发现敏感目录扫描攻击后,拦截当次会话。 拦截IP:发现敏感目录扫描攻击后,CFW会阻断该攻击IP一段时间。 “持续时长”:“动作”选择“拦截IP”时,可设置阻断时间,范围为60~3600s。 “阈值”:对于单个敏感目录扫描频率达到设定的阈值后,CFW会采取相应“动作”。 高级 反弹Shell检测防御 防御网络上通过反弹shell方式进行的网络攻击。 “动作” : 观察模式:发现反弹shell攻击后,仅记录攻击日志,查看攻击日志请参见日志查询。 拦截Session:发现反弹shell攻击后,拦截当次会话。 拦截IP:发现反弹shell攻击后,CFW会阻断该攻击IP一段时间。 “持续时长”:“动作”选择“拦截IP”时,可设置阻断时间,范围为60~3600s。 “模式 ”: 低误报:防护粒度较粗。观察或拦截频次较高的攻击,用于确保攻击处理没有误报。 高检测:防护粒度精细,确保攻击能够被发现并处理。
        来自:
        帮助文档
        云防火墙
        快速入门
        配置策略
      • 新增/编辑告警
        编辑告警 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“威胁管理 > 告警管理”,进入告警管理页面。 5. 在告警管理列表中,单击目标告警所在行“操作”列的“编辑”,右侧弹出编辑告警页面。 6. 在弹出的编辑告警页面中,编辑告警参数,参数说明如下表所示。 参数名称 参数说明 基础信息 告警名称 自定义告警名称,命名规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)和特殊字符( ())。 长度不能超过2550个字符。 基础信息 告警类型 选择告警类型。 基础信息 告警等级 选择告警严重等级,可选择以下等级:提示、低危、中危、高危、致命。 基础信息 状态 选择告警状态,告警状态用于标识告警跟踪的状态。可选择以下状态:打开、阻塞、关闭。 打开:未处理且需要继续跟踪关注的告警,建议配置为“打开”状态。 阻塞:跟踪的告警因某些原因暂时无法处置需要挂起的建议配置为“阻塞”状态。 关闭:已经处置完毕且不需要继续跟踪的告警建议配置为“关闭”状态。 基础信息 (可选)责任人 选择告警跟踪或处置的主要责任人。 基础信息 数据源产品名称 选择数据源产品的名称,不支持修改。 基础信息 数据源类型 选择数据源所属类型,不支持修改。 时间线 首次发生时间 该条告警首次发生时间。 时间线 最近发生时间 该条告警最近一次发生的具体时间。 时间线 计划关闭时间 选择告警计划关闭时间。 处置建议 推荐处理方法 告警的推荐处置方法描述。 其他 标签 填写告警的标签。 其他 调试数据 选择是否开启模拟调试功能,不支持修改。 其他 (可选)验证状态 选择告警的确认状态,标识告警攻击的状态,确认是否造成实际的负面影响。可选择以下状态:未知、攻击成功、攻击失败。 未知:无法确认告警是否带来实质的攻击。 攻击成功:确认该告警已经攻击成功。 攻击失败:确认该告警已经攻击失败。 可疑:该告警存在可疑的攻击行为,如攻击尝试。 白名单:确认无攻击行为的主机告警。 非攻击信息:非恶意攻击,如系统脆弱性告警,风险账号、弱口令等。 其他 阶段 选择您的告警阶段。 准备:准备资源处理告警。 检测与分析:检测与分析告警发生原因。 控制、清除、恢复:进行告警问题处理。 告警后活动:告警处理完成后的后续活动。 其他 描述 填写告警描述信息,填写规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)和特殊字符( ())。 长度不能超过10240个字符。 7. 单击“确认”,完成告警编辑。配置完成后,在左侧导航栏选择“威胁管理> 告警管理”,进入告警管理页面查看告警信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        告警管理
        新增/编辑告警
      • 步骤4:添加DNAT规则
        本节主要介绍添加DNAT规则的操作步骤。 操作场景 公网NAT网关创建后,添加DNAT规则,则可以通过映射方式将您本地数据中心的服务器对互联网提供服务。 一个云主机的一个端口对应一条DNAT规则,如果您有多个云主机需要为互联网提供服务,则需要创建多条DNAT规则来实现共享一个或多个弹性IP访问公网。 操作前提 已成功创建公网NAT网关。 操作步骤 1. 登录管理控制台。 2. 在系统首页,单击“网络 > NAT网关”。 进入公网NAT网关页面。 3. 在公网NAT网关页面,单击需要添加DNAT规则的公网NAT网关名称。 4. 在公网NAT网关详情页面中,单击“DNAT规则”页签。 5. 在DNAT规则页签中,单击“添加DNAT规则”。 6. 根据界面提示,配置添加DNAT规则参数,详情请参见下表。 表 DNAT规则参数说明 参数 说明 使用场景 在云间NAT网关高速访问互联网的场景下,此处选择云专线。 表示通过云专线方式接入虚拟私有云的本地数据中心中的服务器,将通过DNAT的方式为公网提供服务。 端口类型 分为所有端口和具体端口两种类型。 所有端口:属于IP映射方式。此方式相当于为服务器配置了一个弹性IP,任何访问该弹性IP的请求都将转发到目标服务器实例上。 具体端口:属于端口映射方式。公网NAT网关会将以指定协议和端口访问该弹性IP的请求转发到目标服务器的指定端口上。 支持协议 协议类型分为TCP和UDP两种类型。 端口类型为具体端口时,可配置此参数,端口类型为所有端口时,此参数默认设置为All。 弹性IP 弹性IP地址。 这里只能选择没有被绑定的弹性IP,或者被绑定在当前公网NAT网关中非“所有端口”类型DNAT规则上的弹性IP, 或者被绑定到当前公网NAT网关中SNAT规则上的弹性IP。 公网端口 弹性IP的端口。当端口类型为具体端口时,需要配置此参数,取值范围为165535。公网端口为具体的数值,例如80。 私网IP 用户本地数据中心中服务器的IP地址或者用户的私有IP地址。 表示通过云专线接入到虚拟私有云的本地数据中心端的此私有IP服务器,可以通过DNAT方式为公网提供服务。 端口类型为具体端口时,需要配置私网IP的端口。表示此IP地址的云主机将通过DNAT方式为公网提供服务。 私网端口 在使用DNAT为云主机面向公网提供服务场景下,指云主机的端口号。 当端口类型为具体端口时,需要配置此参数,取值范围为165535。私网端口为具体的数值,例如80。 7. 配置完成后,单击“确定”,完成“DNAT规则”创建。 说明 配置DNAT规则后,需在对应的云主机中放通对应的安全组规则,否则DNAT规则不能生效。
        来自:
        帮助文档
        NAT网关
        最佳实践
        云间NAT网关高速访问互联网
        步骤4:添加DNAT规则
      • 1
      • ...
      • 254
      • 255
      • 256
      • 257
      • 258
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      公司的营业执照名称发生变更怎么办?

      监控应用运行状态

      客户端使用说明

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号