活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云分布式关系型数据库_相关内容
      • 修改/启用/停用企业项目
        本节主要介绍修改/启用/停用企业项目 当您的业务发生变化时,可以对已存在的企业项目进行修改、启用、停用操作。 为了保证您的资源安全,目前暂不支持删除企业项目。如果您不再使用企业项目,您可以停用企业项目。 说明 已停用企业项目无法使用修改功能。 停用后的企业项目仍会占用企业项目配额,如果您的企业项目配额不足,建议您提交工单让后台运维人员为您提供企业项目删除功能,或提升企业项目数量配额。 企业项目停用后在云服务创建页的“企业项目”中将不可见,无法迁入资源和添加用户组,如需再次使用,请重新启用该企业项目。 默认企业项目(default)无法编辑和停用。 修改企业项目 步骤 1 企业管理员登录天翼云网门户,单击天翼云首页顶部右侧“控制台”。 步骤 2 在控制台首页顶部右侧,单击您的用户名后弹出下拉菜单,单击“企业管理”。 步骤 3 在企业项目管理页面,单击左侧功能菜单“项目管理”,进入企业项目列表页面,单击待修改企业项目右侧的“更多”,单击更多下拉菜单中的“修改”。 步骤 4 在修改企业项目信息弹出框中,输入新的“名称”和“描述”。 步骤 5 单击“确定”完成企业项目修改。 启用/停用企业项目 步骤 1 企业管理员登录天翼云网门户,单击天翼云首页顶部右侧“控制台”。 步骤 2 在控制台首页顶部右侧,单击您的用户名后弹出下拉菜单,单击“企业管理”。 步骤 3 在企业项目管理页面,单击左侧功能菜单“项目管理”,进入企业项目列表页面,单击待启用/停用企业项目右侧的“更多”,单击更多下拉菜单中的“启用”/“停用”。 步骤 4 在企业项目启用/停用确认框中,单击“是”完成企业项目启用/停用。
        来自:
        帮助文档
        企业项目管理
        用户指南
        企业项目管理
        修改/启用/停用企业项目
      • 集群定时备份
        本节介绍集群定时备份用户指南。 前提条件 1. 已完成集群注册,具体操作请参见 本地注册集群 / 三方云注册集群。 2. 集群已安装ccsebackup插件,具体操作请参考 插件。 操作步骤 下发备份任务 1. 登陆分布式容器云平台,在左侧导航栏中选择集群资源 > 集群管理,进入注册集群列表页。 2. 在注册集群列表中点击需要备份的集群,进入单集群管理页面。 3. 在单集群管理页面导航栏中选择运维管理 > 集群定时备份 > 创建备份 ,进入集群定时备份配置页面。 4. 填写配置项后,点击“确定”下发备份任务。 备份配置项说明: 配置项名称 说明 名称 必填,备份任务的名称,名称限制为由小写字母开头,只允许小写字母,数字和‘’组成,且备份任务是当前集群中唯一。 命名空间 非必填,选择备份资源的命名空间,可多选。 资源 非必填,选择所备份资源的类型,可多选,也可以手动输入。 持久卷 选择是否备份pod所使用的持久卷,备份内容中有pod资源,此项才生效。不能备份临时卷及hostPath。 保留天数 必填,定时备份后产生的备份包所保留的天数,超过保留天数的备份包则会被自动清理。 时间点 必填,定时备份时执行的时间点,为整点。 重复周期 必填,定时备份任务重复在一周内哪几天触发执行。 说明 1. 此处建议保留天数要大于两个定时备份任务执行的间隔天数,否则会导致任务执行完毕后,还没等到下个任务开始,就被清理。 2. 备份任务下发后,在备份列表中可查看定时备份任务的各项配置。 备份列表的操作列还包含以下三个操作: 编辑:弹出定时任务编辑框修改定时任务信息。 立即执行:马上触发备份任务执行。 删除:删除当前定时备份任务。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        注册集群
        注册集群控制台
        运维
        备份
        集群定时备份
      • 配置升级-服务配置修改建议
        本章节主要介绍配置升级后的服务配置修改建议。 操作场景 当节点组内ECS实例的规格(vCPU和内存)无法满足您的业务需求时,您可以使用配置升级功能提升ECS实例规格。升级配置后需要手动修改HDFS、YARN和Spark等服务的配置信息。本文为您介绍如何在翼MR Manager的“配置管理”页面修改配置项。 前提条件 已创建集群。 操作步骤 1. 在翼MR Manager中,单击“运维与配置”。 2. 单击“配置管理”。 3. 选择“所选集群服务”,点击查询,即可在当前页面修改配置信息。 配置修改建议说明 1. Doris:Doris所在节点配置升级后,Doris FE建议使用节点一半内存。 2. Elasticsearch:一个Elasticsearch节点,内存建议不超过64G。Elasticsearch所在节点配置升级后,Elasticsearch会自动根据节点情况设置内存值,一般无须用户手动修改,但需要重启集群。如果想手动设置,可以修改jvm.options文件配置Xms30g、Xmx30g参数,并重启集群。 3. HBase:HBase所在节点配置升级后,修改建议如下: hbasesite.xml:hbase.regionserver.handler.count 说明 :一般跟CPU核数相同。 hbaseenv.sh:export HBASEMASTEROPTS :"Xmsg Xmxg" 说明 :master不消耗很多内存,一般默认不添加或者分配2~8G左右。 hbaseenv.sh:export HBASEREGIONSERVEROPTS:"Xmsg Xmxg " 说明 :regionserver需要较多内存,一般配置内存配额的一半或更多。 4. HDFS:HDFS所在节点配置升级后,可以根据hadoopenv.sh 参数配置进行,通过调整服务的内存大小调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。NameNode 建议文件、目录、数据块之和1亿,配置50G。 5. Hive:Hive所在节点配置升级后,可以通过hiveenv.sh统一参数配置来进行,也可以在作业提交时使用额外参数指定来进行。通过调整服务的内存大小调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。内存大小可以根据机器的总内存而定,建议初始值为总内存大小的10%,后续根据性能需求调整。 6. Kafka:Kafka所在节点配置升级后,建议配置如下: kafkaenv.sh设置jvm配置参数:调整jvm堆大小,通过调整参数:export KAFKAHEAPOPTS"Xmx20G Xms20G Xmn4g"设置堆大小。 server.properties文件建议修改的配置项: num.io.threads:修改写磁盘的线程数,建议配置为CPU核数的50%; num.replica.fetchers:修改副本拉取线程数,建议配置为CPU核数50%的1/3; num.network.threads:修改数据传输线程数,建议配置为CPU核数的50%的2/3; replica.fetch.max.bytes:副本拉取数据量的大小。内存增加,可以适当加大该值; socket.send.buffer.bytes:调整socket发送的数据量。内存增加,可以适当加大该值; socket.receive.buffer.bytes:调整socke接受的数据量。内存增加,可以适当加大该值; socket.request.max.bytes:socket请求的数据量。内存增加,可以适当加大该值。 7. Kerberos:建议保持默认值,无需修改配置。 8. Kibana:Kibana是一个基于NodeJS的单页web应用,一般情况下,对内存CPU占用很少,无须修改内存、CPU等配置。 9. Kyuubi:Kyuubi一般情况下,对内存CPU占用很少,无须修改内存、CPU等配置。 10. OpenLDAP:建议保持默认值,无需修改配置。 11. Ranger:Ranger所在节点配置升级后,修改建议如下: rangeradmin通过{installdir}/ews/rangeradminservices.sh中变量 rangeradminmaxheapsize的值修改JMX,JAVAOPTS修改Xmx、Xmn等JVM参数,一般设置18g,1K policy建议设置为1G,1W policy建议设置为8G。 rangerusersync通过/{installdir}/rangerusersyncservices.sh中变量rangerusersyncmaxheapsize 的值修改JMX,JAVAOPTS修改Xmx Xmn等JVM参数,一般设置18g,1K policy建议设置为1G,1W policy建议设置为8G。 12. Spark:Spark所在节点配置升级后,修改建议如下: spark.history.kerberos.principal和spark.history.kerberos.keytab为spark读写eventLog的租户,用户如有特殊需求自行更改。 spark.yarn.historyServer.address:说明了history server的地址,用户如有特殊需求自行更改。 spark.dynamicAllocation.enabled 和 spark.dynamicAllocation.maxExecutors 分别控制动态和动态开启下能使用的最大资源,用户如有特殊需求自行更改。 spark.executor.cores 和 spark.executor.memory 确保spark.executor的每一个core分配到2~4g内存,标准是4g,具体视情况而定,设置core的memory设置过小executor容易oom。 13. Trino:Trino的服务包括coordinator和worker。Trino所在节点配置升级后,可以根据jvm.config参数配置进行,通过调整服务的内存大小调整服务的性能,如Xmx128g Xms128g,然后重启服务。 14. YARN:YARN所在节点配置升级后,可以根据yarnenv.sh 参数配置进行,通过调整服务的内存大小来调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。NM用于集群中作业的内存和CPU,需要修改NM节点的yarnsite.xml中的yarn.nodemanager.resource.memorymb的值,该值用于所有作业的最多可用内存;以及yarn.nodemanager.resource.cpuvcores的值,该值用于所有作业的最多可用虚拟CPU核数。 15. ZooKeeper:ZooKeeper所在节点配置升级后,可通过配置java.env文件,在其中添加:export ZKSERVERHEAP2048(这里设置的单位默认是MB)。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        配置升级-服务配置修改建议
      • ALM-18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值
        本章节主要介绍ALM18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值的告警。 告警解释 系统每60秒周期性检测JobHistoryServer进程的垃圾回收(GC)占用时间,当检测到JobHistoryServer进程的垃圾回收(GC)时间超出阈值(默认12秒)时,产生该告警。 垃圾回收(GC)时间小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 18012 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 JobHistoryServer进程的垃圾回收时间过长,可能影响该JobHistoryServer进程正常提供服务。 可能原因 该节点JobHistoryServer实例堆内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > ALM18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值 > 定位信息”。查看告警上报的实例的IP地址。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > MapReduce > 实例 > JobHistoryServer(对应上报告警实例IP地址)”,单击图表区域右上角的下拉菜单,选择“定制 > 垃圾回收”,勾选“JobHistoryServer垃圾回收(GC)时间”。查看JobHistoryServer每分钟的垃圾回收时间统计情况。 3.查看JobHistoryServer每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Mapreduce > 配置 > 全部配置 > JobHistoryServer > 系统”。将“GCOPTS”参数根据实际情况调大。 说明 历史任务数10000和JobHistoryServer内存的对应关系如下: Xms30G Xmx30G XX:NewSize1G XX:MaxNewSize2G 5.保存配置,并重启JobHistoryServer实例。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值
      • 统一身份认证与权限管理
        1. 统一身份认证IAM介绍 统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。 IAM为您提供的主要功能包括:精细的权限管理、安全访问、通过用户组批量管理用户权限、委托其他帐号管理资源等。 1.1 身份管理 访问控制IAM中的身份包括IAM用户、IAM用户组。 IAM用户有确定的登录密码和访问密钥,IAM用户组则用于分类职责相同的IAM用户,IAM用户和IAM用户组均可以被赋予一组权限策略。在需要协同使用资源的场景中,避免直接共享天翼云账号的密码等信息,缩小不同IAM子用户的信息可见范围,可为IAM子用户和IAM用户组按需授权,即使不慎泄露机密信息,也不会危及天翼云账号下的所有资源。 1.2 权限管理 统一身份认证IAM通过权限策略描述授权的具体内容,权限策略包括固定的基本元素“Action”“Effect”等,更多信息,请参见“2.1.2 创建自定义策略“。为IAM用户、IAM用户组在全局授权或企业项目授权中添加一组权限策略后,即可让其有权限访问指定资源。 权限策略分为系统策略和自定义策略: 系统策略 :预置的系统策略,您只能使用不能修改。弹性IP(EIP)相关的系统策略包含如下: vpc Admin:共享带宽服务的管理者权限,包含共享带宽所有控制权限(不含订单类权限); vpc Viewer:共享带宽服务的观察者权限,包含共享带宽的列表页与详情页面权限; 自定义策略 :您按需自行创建和维护的权限策略,关于自定义策略的操作和示例,请参见“创建自定义策略“。
        来自:
        帮助文档
        共享带宽 SBW
        用户指南
        统一身份认证与权限管理
      • 产品定义
        本节为天翼云内容审核产品简介。 什么是内容审核 内容审核是中国电信自主研发的具有文本、图片多媒体审核的算法能力,对网络流量中用户产生的文本、图片内容中的涉黄、涉政、涉暴恐等敏感内容进行智能审核,帮助用户降低业务违规风险,大幅降低人工审核带来的成本。 随着互联网的飞速发展和信息量猛增,大量色情、暴力等不良信息夹杂其中,若不做好内容审核,不良内容会让用户产生反感,从而降低产品使用频率,最终远离产品。 天翼云用户通过订购文本内容审核产品,无需进行模型代码开发仅需API接口对接,即可轻松、高效、准确的实现对文本的内容审核,将有效减少网络、云存储中违规内容的生产、流通和消费。 当前内容审核提供了两类服务: 内容审核图像 图像内容审核,利用深度神经网络模型对图片内容进行检测,准确识别图像中的暴恐元素、涉黄内容等,帮助业务规避违规风险。 包括以下能力 图片鉴黄 图片涉暴恐识别 内容审核文本 利用智能算法的文本审核技术能够快速准确地识别出涉黄、广告、辱骂、违禁品及灌水文本内容,并针对客户需求,提供专属的文本敏感内容审核方案。 包括以下能力: 文本涉黄审核 文本涉政审核
        来自:
        帮助文档
        内容审核(文档停止维护)
        产品介绍
        产品定义
      • 统一身份认证与权限管理
        1. 统一身份认证IAM介绍 统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。 IAM为您提供的主要功能包括:精细的权限管理、安全访问、通过用户组批量管理用户权限、委托其他帐号管理资源等。 1.1 身份管理 访问控制IAM中的身份包括IAM用户、IAM用户组。 IAM用户有确定的登录密码和访问密钥,IAM用户组则用于分类职责相同的IAM用户,IAM用户和IAM用户组均可以被赋予一组权限策略。在需要协同使用资源的场景中,避免直接共享天翼云账号的密码等信息,缩小不同IAM子用户的信息可见范围,可为IAM子用户和IAM用户组按需授权,即使不慎泄露机密信息,也不会危及天翼云账号下的所有资源。 1.2 权限管理 统一身份认证IAM通过权限策略描述授权的具体内容,权限策略包括固定的基本元素“Action”“Effect”等,更多信息,请参见“2.1.2 创建自定义策略“。为IAM用户、IAM用户组在全局授权或企业项目授权中添加一组权限策略后,即可让其有权限访问指定资源。 权限策略分为系统策略和自定义策略: 系统策略 :预置的系统策略,您只能使用不能修改。NAT网关相关的系统策略包含如下: nat admin:NAT网关服务的管理者权限,包含NAT网关所有控制权限(不含订单类权限); nat viewer: NAT网关服务的观察者权限,包含NAT网关服务的列表页与详情页面权限; 自定义策略 :您按需自行创建和维护的权限策略,关于自定义策略的操作和示例,请参见“2.1.2 创建自定义策略“。
        来自:
        帮助文档
        NAT网关
        操作指南
        统一身份认证与权限管理
      • 查看及导出审计日志
        本章节主要介绍翼MapReduce服务查看及导出审计日志。 操作场景 该任务指导用户在MRS Manager查看、导出审计日志工作,用于安全事件中事后追溯、定位问题原因及划分事故责任。 系统记录的日志信息包含: 用户活动信息,如用户登录与注销,系统用户信息变更,系统用户组信息变更等。 用户操作指令信息,如集群的启动、停止,软件升级等。 操作步骤 查看审计日志 1. 在MRS Manager,单击“审计管理”,可直接查看默认的审计日志。 若审计日志的审计内容长度大于256字符,请单击审计日志展开按钮展开审计详情。 默认以“产生时间”列按降序排列,单击 操作类型 、安全级别、产生时间、用户、主机、服务、实例或操作结果可修改排列方式。 支持在“安全级别”筛选相同级别的全部告警。结果包含已清除和未清除的告警。 导出的审计日志文件,包含以下信息列: “编号”:表示MRS Manager已生成的审计日志数量,每增加一条审计日志则编号自动加1。 “操作类型”:表示用户操作的操作类型,分为“告警”、“审计日志”、“备份恢复”、“集群”、“采集日志”、“主机”、“服务”、“多租户”和“用户管理”九种场景,其中“用户管理”仅在启用了Kerberos认证的集群中支持。每个场景中包含不同操作类型,例如“告警”中包含“导出告警”,“集群”中包含“启动集群”,“多租户”包含“增加租户”等。 “安全级别”:表示每条审计日志的安全级别,包含“高危”、“危险”、“一般”和“提示”四种。 “开始时间”:表示用户操作开始的时间,且时间为CET或CEST时间。 “结束时间”:表示用户操作结束的时间,且时间为CET或CEST时间。 “用户IP”:表示用户操作时所使用的IP地址。 “用户”:表示执行操作的用户名。 “主机”:表示用户操作发生在集群的哪个节点。如果操作不涉及节点则不保存信息。 “服务”:表示用户操作发生在集群的哪个服务。如果操作不涉及服务则不保存信息。 “实例”:表示用户操作发生在集群的哪个角色实例。如果操作不涉及角色实例则不保存信息。 “操作结果”:表示用户操作的结果,包含“成功”、“失败”和“未知”。 “内容”:表示用户操作的具体执行信息。 2. 单击“高级搜索”,在审计日志搜索区域中,设置查询条件,单击“搜索”,查看指定类型的审计日志。单击“重置”清除输入的搜索条件。 说明 “开始时间”和“结束时间”表示时间范围的开始时间和结束时间,可以搜索此时间段内产生的告警。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        日志管理
        查看及导出审计日志
      • 添加用户并绑定租户的角色
        本章节主要介绍翼MapReduce的添加用户并绑定租户的角色操作。 操作场景 创建好的租户不能直接登录集群访问资源,管理员需要通过FusionInsight Manager为已有租户创建新用户,通过绑定租户的角色继承其操作权限,以满足业务使用。 前提条件 管理员已明确业务需求,并已创建了租户。 操作步骤 1. 登录FusionInsight Manager,选择“系统 > 权限 > 用户”。 2. 若在系统中添加新的用户,请单击“添加用户”,打开添加用户的配置页面。 若为系统中已有的用户绑定租户权限,请单击该用户所在行的“修改”,打开修改用户的配置页面。 参见下表为用户配置属性。 用户参数一览 参数名 描述 用户名 指定当前的用户名,长度为3~32个字符,可包含数字、字母、下划线()、中划线()和空格。 “用户名”不能与集群各节点所有操作系统用户名相同,否则此用户无法正常使用。 不支持创建两个名称相同但大小写不同的用户。例如已创建用户“User1”,无法创建用户“user1”。使用“User1”时请输入正确的用户名。 用户类型 可选值包括“人机”和“机机”。 “人机”用户:用于在FusionInsight Manager的操作运维场景,以及在组件客户端操作的场景。选择该值需同时填写“密码”和“确认密码”。 “机机”用户:用于应用开发的场景。选择该值用户密码随机生成,无需填写。 密码 选择“人机”用户需填写“密码”。密码必须包含8~64个字符,至少包含以下类型字符中的四种:大写字母、小写字母、数字、特殊字符和空格。不能与用户名或倒序的用户名相同。 确认密码 再次输入密码。 用户组 单击“添加”,选择对应用户组将用户添加进去。 如果用户组添加了角色,则用户可获得对应角色中的权限。 例如,为新用户分配Hive的权限,请将用户加入Hive组。 主组 选择一个组作为用户创建目录和文件时的主组。下拉列表包含“用户组”中勾选的全部组。 角色 单击“添加”为用户绑定租户的角色。 说明 若一个用户想要获取使用“tenant1”租户包含的资源,且能够为“tenant1”租户添加/删除子租户,则需要同时绑定“Managertenant”和“tenant1 集群ID ”两个角色。 如果租户关联了HBase服务且当前集群启用了Ranger鉴权,用户需要通过Ranger界面配置HBase相关执行权限。 描述 配置当前用户的描述信息。 3. 单击“确定”完成用户创建。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        创建租户
        添加用户并绑定租户的角色
      • FusionInsight Manager入门指导
        本章节主要介绍翼MapReduce的FusionInsight Manager操作。 概述 MRS为用户提供海量数据的管理及分析功能,快速从结构化和非结构化的海量数据中挖掘您所需要的价值数据。开源组件结构复杂,安装、配置、管理过程费时费力,使用FusionInsight Manager将为您提供企业级的集群的统一管理平台: 提供集群状态的监控功能,您能快速掌握服务及主机的运行状态。 提供图形化的指标监控及定制,您能及时的获取系统的关键信息。 提供服务属性的配置功能,满足您实际业务的性能需求。 提供集群、服务、角色实例的操作功能,满足您一键启停等操作需求。 提供权限管理及审计功能,您能设置访问控制及管理操作日志。 浏览器支持能力 Google Chrome 推荐使用Google Chrome 93~95版本。 Microsoft Edge 支持Windows 10系统自带的Microsoft Edge浏览器。 说明 推荐使用Windows平台的浏览器访问FusionInsight Manager。 系统界面简介 FusionInsight Manager提供统一的集群管理平台,帮助您快捷、直观的完成集群的运行维护。 详见下图:FusionInsight Manager系统界面 界面最上方为操作栏,中部为显示区,最下方为任务栏。 操作栏各操作入口的详细功能如下表所示。 界面操作入口功能描述 入口 功能描述 主页 提供柱状图、折线图、表格等多种图表方式展示集群的主要监控指标、主机的状态统计。您可以定制关键监控信息面板,并拖动到任意位置。系统概览支持数据自动刷新,请参见主页。 集群 提供各集群内服务监控、服务操作向导以及服务配置,帮助您对服务进行统一管理。请参见集群管理。 主机 提供主机监控、主机操作向导,帮助您对主机进行统一管理。请参见主机。 运维 提供告警查询、告警处理指导功能。帮助您及时发现产品故障及潜在隐患,并进行定位排除,以保证系统正常运行。请参见运维。 审计 提供审计日志查询及导出功能。帮助您查阅所有用户活动及操作。请参见审计。 租户资源 提供统一租户管理平台。请参见租户资源。 系统 提供对FusionInsight Manager的系统管理设置,例如用户权限设置。请参见系统设置。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        从这里开始
        FusionInsight Manager入门指导
      • 查询指引
        本文介绍如何在查询窗口对数据库进行查询、更新等操作,以及对结果集进行可视化编辑、导出,对常用的SQL进行管理等操作。 前提条件 已将实例添加至组织,添加实例详见添加云数据库、添加公网/直连数据库 已准备好该实例的账号、密码。 操作步骤 平台提供了多个进入查询窗口页面的入口,包括从控制台首页 进入、从菜单栏实例列表 进入、从实例管理页面进入等。 从控制台首页进入 1. 在首页功能简介里点击实例列表 ,打开实例列表。 2. 在实例列表弹窗里,点击展开目标实例,显示库/模式列表。 3. 右键单击目标库或者目标模式后打开悬浮窗,点击查询窗口进入;或双击目标库/模式打开查询窗口。 从实例列表进入 1. 在右侧菜单栏中,选择实例列表 ,打开实例列表。 2. 在实例列表弹窗里,点击展开目标实例,显示库/模式列表。 3. 右键单击目标库或者目标模式后打开悬浮窗,点击查询窗口进入;或双击目标库/模式打开查询窗口。 从实例管理页面进入 1. 在左侧菜单栏中,选择 数据资产 >实例管理 ,进入实例管理页面。 2. 点击实例列表中的查询操作进入查询窗口操作页面。 功能介绍 使用SQL语句操作数据库 查询窗口目前能够很好的支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS的大部分语法,以查询数据为例: 1. 进入查询窗口。 2. 双击表名称可在SQL编辑器中自动生成查询表的SQL语句,也可输入查询语句后,点击执行按钮,即可在执行结果区域显示查询的数据。 3. 支持同时执行多条SQL语句,在执行结果区域会生成多个结果集。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        查询窗口
        查询指引
      • 天翼云企业交换机服务协议
        本文介绍了企业交换机服务协议 天翼云企业交换机服务协议详情请参见这里。
        来自:
        帮助文档
        企业交换机
        相关协议
        天翼云企业交换机服务协议
      • 到期
        本文帮助您了解海量文件服务OceanFS产品的到期提醒和数据保留。 到期提醒 在服务到期(指按周期计费)前7天、3天、1天时系统将向您发送到期提醒短信和邮件,请注意查看并及时处理。 数据保留 服务到期后您的存储资源将暂时被冻结,无法进行读写操作。资源保留期15天,若没有即时续订资源及数据将被销毁。
        来自:
        帮助文档
        海量文件服务 OceanFS
        计费说明
        到期
      • 查询指定时间段被CC攻击的域名
        参数名 类型 是否必填 名称 说明 startTime string 是 开始时间 支持最近30天的时间数据 endTime string 是 结束时间 支持最近30天的时间数据 pageSize string 否 查询每页的数量 不传默认30条;pageSize以及pageNum的乘积不得超过2000 pageNum string 否 查询的页数 不传默认第一页;pageSize以及pageNum的乘积不得超过2000
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        域名管理
        查询指定时间段被CC攻击的域名
      • 查询指定时间段被Web攻击的域名
        参数名 类型 是否必填 名称 说明 startTime string 是 开始时间 支持最近30天的时间数据 endTime string 是 结束时间 支持最近30天的时间数据 pageSize string 否 查询每页的数量 不传默认30条;pageSize以及pageNumber的乘积不得超过2000 pageNumber string 否 查询的页数 不传默认第一页;pageSize以及pageNumber的乘积不得超过2000
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        域名管理
        查询指定时间段被Web攻击的域名
      • 使用ClickHouse客户端
        本章节主要介绍使用ClickHouse客户端。 ClickHouse是面向联机分析处理的列式数据库,支持SQL查询,且查询性能好,特别是基于大宽表的聚合分析查询性能非常优异,比其他分析型数据库速度快一个数量级。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。在使用客户端前,需要先下载并更新客户端配置文件,确认Manager的主管理节点后才能使用客户端。 操作步骤 1.以客户端安装用户,登录安装客户端的节点。 2.执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3.执行以下命令配置环境变量。 source bigdataenv 4.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建ClickHouse表的权限,具体请参见“组件操作指南 > 使用ClickHouse > 用户管理及认证 > ClickHouse用户及权限管理”章节,为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行本步骤。 a.如果是MRS 3.1.0版本集群,则需要先执行:export CLICKHOUSESECURITYENABLEDtrue b.kinit 组件业务用户 例如,kinit clickhouseuser。 5.执行ClickHouse组件的客户端命令。 执行 clickhouse h ,查看ClickHouse组件命令帮助。 回显信息如下: Use one of the following commands: clickhouse local [args] clickhouse client [args] clickhouse benchmark [args] clickhouse server [args] clickhouse performancetest [args] clickhouse extractfromconfig [args] clickhouse compressor [args] clickhouse format [args] clickhouse copier [args] clickhouse obfuscator [args] ... 详细命令使用请参考: MRS 3.1.0及之后版本,使用clickhouse client命令连接ClickHouse服务端: 例如,当前集群未启用Kerberos认证,使用ssl安全方式登录: clickhouse client host ClickHouse 的实例IP user 用户名 password 密码 port 9440 secure 例如,当前集群已启用Kerberos认证,使用ssl安全方式登录。 Kerberos集群场景下没有默认用户,必须在Manager上创建用户,详细参考“组件操作指南 > 使用ClickHouse >用户管理及认证 >ClickHouse用户及权限管理”。 使用kinit认证成功后,客户端登录时可以不携带user和password参数,即使用kinit认证的用户登录。 clickhouse client host ClickHouse的实例IPport 9440 secure 详见下表:clickhouse client命令行参数说明 参数名 参数说明 host 服务端的host名称,默认是localhost。您可以选择使用ClickHouse实例所在节点主机名或者IP地址。 说明 ClickHouse的实例IP地址可登录集群FusionInsight Manager,然后选择“集群> 服务> ClickHouse >实例”,获取ClickHouseServer实例对应的业务IP地址。 port 连接的端口。 如果使用ssl安全连接则默认端口为9440,并且需要携带参数secure。具体的端口值可通过ClickHouseServer实例配置搜索“tcpportsecure”参数获取。 如果使用非ssl安全连接则默认端口为9000,不需要携带参数secure。具体的端口值可通过ClickHouseServer实例配置搜索“tcpport”参数获取。 user 用户名。 可以在Manager上创建该用户名并绑定对应的角色权限,具体可以参考“组件操作指南>使用ClickHouse >用户管理及认证> ClickHouse用户及权限管理”。 如果当前集群已启用Kerberos认证,使用kinit认证成功后,客户端登录时可以不携带user和password参数,即使用kinit认证的用户登录。Kerberos集群场景下没有默认用户,必须在Manager上创建该用户名。 如果当前集群未启用Kerberos认证,客户端登录时可以指定Manager上创建的用户和密码。不携带用户和密码参数时则默认使用default用户登录。 password 密码。 默认值:空字符串。该参数和user参数配套使用,可以在Manager上创建用户名时设置该密码。 query 使用非交互模式查询。 database 默认当前操作的数据库。默认值:服务端默认的配置(默认是default)。 multiline 如果指定,允许多行语句查询(Enter仅代表换行,不代表查询语句完结)。 multiquery 如果指定,允许处理用;号分隔的多个查询,只在非交互模式下生效。 format 使用指定的默认格式输出结果。 vertical 如果指定,默认情况下使用垂直格式输出结果。在这种格式中,每个值都在单独的行上打印,适用显示宽表的场景。 time 如果指定,非交互模式下会打印查询执行的时间到stderr中。 stacktrace 如果指定,如果出现异常,会打印堆栈跟踪信息。 configfile 配置文件的名称。 secure 如果指定,将通过ssl安全模式连接到服务器。 historyfile 存放命令历史的文件的路径。 param 带有参数的查询,并将值从客户端传递给服务器。具体用法详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用ClickHouse客户端
      • 使用Hive客户端
        命令 说明 set< key >< value > 设置特定配置变量(键)的值。 说明 若变量名拼错,Beeline不会显示错误。 set 打印由用户或Hive覆盖的配置变量列表。 set v 打印Hadoop和Hive的所有配置变量。 add FILE[S] < filepath >add JAR[S] < filepath >< filepath > add ARCHIVE[S]< filepath> < filepath> 将一个或多个文件、JAR文件或ARCHIVE文件添加至分布式缓存的资源列表中。 add FILE[S]< ivyurl >< ivyurl> add JAR[S]< ivyurl >< ivyurl>add ARCHIVE[S]< ivyurl >< ivyurl > 使用“ivy://goup:module:version?querystring”格式的lvy URL,将一个或多个文件、JAR文件或ARCHIVE文件添加至分布式缓存的资源列表中。 list FILE[S]list JAR[S]list ARCHIVE[S] 列出已添加至分布式缓存中的资源。 list FILE[S]< filepath > list JAR[S]< filepath > list ARCHIVE[S]< filepath > 检查给定的资源是否已添加至分布式缓存中。 delete FILE[S]< filepath > delete JAR[S]< filepath > delete ARCHIVE[S]< filepath > 从分布式缓存中删除资源。 delete FILE[S] < ivyurl >< ivyurl> delete JAR[S] < ivyurl >< ivyurl>delete ARCHIVE[S]< ivyurl >< ivyurl> 从分布式缓存中删除使用添加的资源。 reload 使HiveServer2发现配置参数指定路径下JAR文件的变更“hive.reloadable.aux.jars.path”(无需重启HiveServer2)。更改操作包括添加、删除或更新JAR文件。 dfs< dfs command> 执行dfs命令。 < query string > 执行Hive查询,并将结果打印到标准输出。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Hive客户端
      • 自定义分布式消息服务RocketMQ事件源
        本文介绍如何在事件总线EventBridge管理控制台中添加分布式消息服务RocketMQ类型的自定义事件源。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 创建自定义总线。 分布式消息服务RocketMQ 开通分布式消息服务RocketMQ。 创建实例,并创建对应主题与消费组。 操作步骤 1. 登录事件总线管理控制台。 2. 在左侧导航栏,单击事件总线。 3. 在事件总线页面,单击目标总线名称。 4. 在左侧导航栏,单击事件源。 5. 在事件源 页面,单击添加事件源。 6. 在添加自定义事件源 面板,输入名称 和描述 ,事件提供方 选择分布式消息服务RocketMQ,选择实例、主题等配置然后单击确认,如图1所示。 图1 创建事件源时事件提供方选择分布式消息服务RocketMQ 参数说明 参数 说明 示例 名称 事件源名。 source1 实例名称 选择前提条件中已创建的分布式消息服务RocketMQ版实例。 xxx Topic 选择当前实例中的Topic。 topic1 Group 快速创建:自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有:选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。仅支持从最早位点进行消费。 最早位点:从最初位点开始消费。 最早位点
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义分布式消息服务RocketMQ事件源
      • 查询弱口令定时扫描配置
        参数 参数类型 说明 示例 下级对象 status Integer 状态 1开启 其他关闭 1 day Integer 检测频率 1 hour Integer 扫描时间小时,1代表每间隔day天的凌晨1点minute分开始 1 minute Integer 扫描时间分钟,0代表每间隔day天的hour点的0分开始 0 checkType String 扫描类型,多个逗号分割 1:系统弱口令:2:应用弱口令 1,2 agentGuidList Array of Strings guid列表 scopeOPTIONAL时有效 ["guid1","guid2"] scope String 生效范围 OPTIONAL自选机器 ALL所有机器 OPTIONAL
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        弱口令
        查询弱口令定时扫描配置
      • 概述
        人脸识别是天翼云自研AI平台提供的产品之一,通过自主研发人脸识别算法模型,提供人脸系列API服务,包括人脸检测、人脸属性识别、人脸比对等能力。通过订购天翼云人脸识别产品,可将此服务快速高效的部署到您的应用中,为开发者和企业提供高性能的在线API服务和解决方案,针对图片进行分析,可应用于人脸识别和认证、安防考勤等各种场景。 本说明提供了人脸识别产品API的描述、语法、参数说明及示例等内容。
        来自:
        帮助文档
        人脸识别
        API参考
        调用前必知
        概述
      • 统计分析
        本文介绍通过查看历史离线分析数据,您可以了解安全加速的运行情况。 简介 可通过筛选项进行组合查询,筛选项包括域名、业务类型、覆盖范围和时间等,其中必选项为域名和时间。 时间选择跨度最长不能超过31天。 安全分析 1.在天翼云SCDN客户控制台的【安全分析】页面,客户可以查看waf、CC攻击日志和waf报表分析、CC报表分析情况。 2.界面中展示的是您所选域名、时间的攻击日志情况。 图 安全分析waf攻击日志 图 安全分析CC攻击日志 业务数据统计分析 1.带宽流量统计 1)在天翼云SCDN客户控制台的【统计分析用量查询】页面,客户可以查看业务的使用情况。 2)界面中展示了所选择域名、时间的流量和带宽统计图表,包括总流量和平均流量信息;带宽峰值和95带宽峰值。 图 统计分析流量带宽 图 回源统计 3.在天翼云SCDN客户控制台的【统计分析用量查询】页面,客户可以查看业务的回源情况。 4.界面中展示了所选择域名、时间的回源流量和回源带宽统计图。 图 统计分析回源流量带宽 图 请求数统计 5.在天翼云SCDN客户控制台的【统计分析请求数】页面,客户可以查看其在使用CDN。 6.界面中展示了所选择域名的总请求数、请求数峰值、请求数谷值等信息。 7.请求数统计包括:防护请求数、静态https请求数、动态请求数等。 图 请求数统计
        来自:
        帮助文档
        安全加速(文档停止维护)
        用户指南
        统计分析
      • Kafka Connect接入Kafka
        本节主要介绍Kafka Connect接入Kafka。 最佳实践概述 场景描述 Kafka Connect可以将完整的数据库注入到Kafka的Topic中,或者将服务器的系统监控指标注入到Kafka,然后像正常的Kafka流处理机制一样进行数据流处理。而导出工作则是将数据从Kafka Topic中导出到其它数据存储系统、查询系统或者离线分析系统等。 如果您想要在流数据平台场景下,使用Kafka Connect快速实现数据从Kafka和其它系统之间进行导入导出,可以参考本实践方案。 技术架构图 暂无。 方案优势 用户可按业务需要,参考Kafka Connect数据导入导出,实现流数据的消息消费。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Flink的安装配置。 分布式消息服务 Figure 1 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Kafka Connect流数据平台 Figure 2 Kafka Connect流数据平台 资源类型 配置项 配置明细 说明 :::: 应用软件 Flink框架 Flink 1.14 使用开源Apache Flink 方案正文 Kafka Connect 目前支持两种执行模式:standalone 和 distributed。 standalone模式 通过以下命令以 standalone 模式启动 connect: 接入Kafka专享版与接入开源 Apache Kafka 没有区别,仅需要修改 bootstrap.servers 为申请实例时分配的 IP。 distributed模式 通过以下命令以 distributed 模式启动 connect: 该模式下,Kafka Connect 会将 offsets、configs 和 task status 信息存储在 Kafka Topic 中,存储的Topic 在 connectdistributed 中的以下字段配置: 这三个 Topic 需要手动创建,才能保证创建的属性符合 connect 的要求。 config.storage.topic 需要保证只有一个 partition,多副本且为 compact 模式。 offset.storage.topic 需要有多个 partition,多副本且为 compact 模式。 status.storage.topic 需要有多个 partition,多副本且为 compact 模式。 配置 bootstrap.servers 为申请实例是分配的 IP。 配置 group.id,用于标识 connect 集群,需要与消费者分组区分开来。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka Connect接入Kafka
      • CDN权限管理
        本文介绍天翼云CDN权限管理配置平台及具体操作方法。 背景说明 一般情况下,客户只需一个天翼云账号即可管理在天翼云上购买的CDN资源。如果存在需要为企业内部的员工设置不同的访问权限,以达到不同员工之间权限隔离的效果,则可以使用天翼云CDN+统一身份认证服务(CDN+ Identity and Access Management,简称CDN+IAM)进行精细的权限管理。本文主要介绍相关操作步骤。 操作步骤 步骤一:登录CDN+IAM平台 1. 平台登录入口:天翼云CDN+IAM。 2. 进入账号登录界面,请单击【其他登录方式】里的第一个图标(如下图1),随即自动跳转到天翼云账号登录界面(如下图2),输入官网账号和密码后,单击【登录】。 步骤二:创建工作区 工作区是一个租户的概念,在工作区里可以共享合作,可实现团队管理,角色管理,子用户管理等操作。 完成登录CDN+IAM平台后,系统已为您创建一个系统内置工作区。 若没有系统内置工作区,您可以自行创建工作区。操作方式为在界面右上角,单击【新增】。 工作区生成后,您可以直接单击【系统内置工作区】进入工作区,该工作区的所有者是您。
        来自:
        帮助文档
        CDN加速
        用户指南
        CDN权限管理
      • 配置识别任务
        本章节指导您如何编辑识别任务。 前提条件 已完成识别任务的创建。 操作步骤 1. 单击左上角的,选择区域或项目。 2. 在左侧导航树中,单击,选择“安全>数据安全中心”,进入数据安全中心总览界面。 3. 在左侧导航树中,选择“敏感数据识别 > 识别任务”,进入“识别任务”页面。 4. 在待编辑敏感数据识别任务所在行的“操作”列,单击“更多 > 编辑”。 5. 在“编辑任务”对话框中,编辑检测任务的具体参数,相关参数说明如下表所示。 参数 参数说明 取值样例 开启任务 是否开启敏感数据识别任务,系统默认开启任务。 任务名称 您可以自定义敏感数据识别任务名称。 任务名称需要满足以下要求: 1~255个字符。 字符可由中文、英文字母、数字、下划线或中划线组成。 任务名称不能与已有的任务名称重复。 数据类型 选择识别的数据类型。可多选。 OBS,添加OBS资产,参考添加OBS资产章节。 数据库,添加云数据库资产,参考添加云数据库章节。 大数据,添加大数据源资产,参考添加大数据源资产章节。 MRS,添加Hive资产,参考添加MRS资产。 数据库 识别规则组 选择识别任务需要使用的规则组,可多选。可参考新增敏感数据规则组章节创建规则组。 识别模式 选择检测任务的扫描模式: 快速识别:根据规则组进行扫描,实现数据分布快速识别。 全量识别:在规则组的基础上加入自然语义处理NLP能力,扫描速度相对较慢,识别率更高。 快速扫描 识别周期 选择任务的识别周期: 单次:根据设置的执行计划,在设定的时间执行一次该识别任务。 每天:选择该选项,需要设置“启动时间”,即在每天的固定时间执行该识别任务。 每周:选择该选项,需要设置“启动时间”,即在设定的时间以及每周这一时间点执行该识别任务。 每月:选择该选项,需要设置“启动时间”,即在设定的时间以及每月这一时间点执行该识别任务。 单次 执行计划 “扫描周期”选择“单次”时,显示该参数。 立即执行:选择该选项,保存后,可以在当前立即执行一次该识别任务。 定时启动:在指定时间执行一次该识别任务。 立即执行 启动时间 “扫描周期”选择“每天”、“每周”、“每月”时,显示该参数。 设置识别任务的具体启动时间。设置后,会在指定时间以及每天或者每周或者每月的该时间点执行一次识别任务。 通知主题 单击下拉列表选择已创建消息通知主题或者单击“查看通知主题”创建新的主题,用于配置接收告警通知的终端。 告警通知的具体操作请参见告警通知。 6. 单击“确定”。
        来自:
        帮助文档
        数据安全中心
        用户指南
        敏感数据识别(旧)
        敏感数据识别任务
        配置识别任务
      • 计算增强型云电脑系统盘扩容询价v3
        接口功能介绍 适用于此操作的计算增强型云电脑需要满足全部条件:1. 计费方式为单独付费 此操作将先进行计算增强型云电脑关机操作。 接口约束 无 URI POST /v3/ecs/describeResizeSystemDiskPrice 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID。 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 desktopOid 是 String 云电脑ID diskSize 是 Integer 扩容后系统盘大小(单位:GB)。需为10的倍数,取值范围:大于当前系统盘大小 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码。可能值: 800:请求成功。 900:请求失败。 800 error String 错误码。 ECPC1000 message String 提示信息。 OK. returnObj Object 返回数据对象 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 finalPrice String 最终价格。 totalPrice String 总价格。 subOrderPrices Array of Objects 价格子项。 subOrderPrices 表 subOrderPrices 参数 参数类型 说明 示例 下级对象 totalPrice String 总价格 finalPrice String 最终价格 cycleCount String 周期数 cycleType String 周期类型 serviceTag String 产品类别 orderItemPrices Array of Objects 价格子项。 orderItemPrices 表 orderItemPrices 参数 参数类型 说明 示例 下级对象 totalPrice String 总价格 finalPrice String 最终价格 itemId String 项id instanceCnt String 实例数量 ctyunName String 产品名称 resourceType String 资源类别
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        计算增强型云电脑
        计算增强型云电脑系统盘扩容询价v3
      • 快速运维
        管理脚本任务 云堡垒机支持快速运维功能,用户可通过脚本方式快速运维多个目标资源。通过将脚本在多个SSH协议主机资源上执行,并根据发起的脚本,返回相应执行结果。 本小节主要介绍如何管理脚本任务,包括创建脚本任务、执行脚本任务、中断脚本任务、查看任务执行结果等。 约束限制 仅专业版云堡垒机支持快速运维功能。 仅支持快速运维Linux主机(SSH协议类型)资源的任务。 暂不支持快速运维Windows主机资源、数据库资源和应用资源的任务。 前提条件 已获取“快速运维”模块管理权限。 已获取资源访问控制权限,即已配置访问控制策略或访问授权工单已审批通过。 资源主机网络连接正常。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 快速运维 > 脚本控制台”,进入快速脚本运维页面。 3 配置快速脚本运维信息。 快速脚本运维参数说明 参数 说明 :: 执行脚本 输入针对主机资源需执行的脚本。 可选择“脚本管理”中脚本内容,也可新上传本地脚本文件。 脚本参数 (可选)自定义脚本参数。 执行帐户 “选择”已创建的SSH协议类型资源账户或帐户组。 “重置”已选择的资源账户或帐户组。 说明 每个资源的执行帐户最多一个。 更多选项 (可选)用户对资源账户执行任务权限不够时,需勾选上“提权执行”,用户需在该主机资源的Sudoers文件下执行任务。 4 立即执行脚本任务。 单击“立即执行”,即可针对目标资源,执行当前脚本任务。 5 中断脚本任务。 任务正在执行时,单击“中断执行”,可中断脚本任务。 “中断执行”会将当前执行帐户完成后才停止任务,再立即终止未执行的帐户。 6 查看执行结果。 脚本任务执行完成后,查看当前脚本任务执行结果。查看更多历史任务执行结果,请参见:管理快速任务执行日志。 在执行结果区域,在搜索框中输入关键字,根据资源名称、执行结果、执行帐户,快速查询任务执行结果。 单击“展开”,即可查看目标任务执行结果。 单击“导出”,即可下载当前脚本任务执行结果的CSV格式文件保存到本地。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        快速运维
      • 应用组件部署
        本节主要介绍应用组件部署 部署方式说明 云容器引擎(Cloud Container Engine,简称CCE)提供高度可扩展的、高性能的企业级Kubernetes集群,支持运行Docker容器。借助云容器引擎,您可以在云平台上轻松部署、管理和扩展容器化应用程序。 如果创建的组件未开启构建,则不支持容器部署。 部署组件 本节介绍如何将静态组件部署到对应的环境上。 新建应用组件时,也可以选择“创建并部署”,部署操作与本节介绍步骤相同。 前提条件 1. 已经创建应用组件或者正在创建应用组件并完成了静态组件配置,请参考新建应用组件。 2. 已经完成环境创建,请参考环境管理。 3. 如果您基于软件包或者镜像包部署组件,需要将软件包或者镜像包上传: 将软件包上传至OBS对象存储中 将镜像包上传至镜像仓库,请参考上传镜像。 操作步骤 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”。 2、选择已经创建的应用,单击应用名称,进入应用“概览”页。 3、在“组件列表”选择已经创建的组件,单击“操作”栏“部署”。 4、设置基本配置,其中带“”标志的参数为必填参数。 参数 参数说明 :: 环境 选择已创建的环境。 部署版本 组件版本号,例如:1.0.0。 描述 组件的描述信息。 部署系统 支持云容器引擎。 详情请参见部署方式说明。 基础资源 会自动加载所选环境包含的基础资源,根据实际业务需要进行选择。 实例数量 组件可以有一个或多个实例,用户可以设置具体实例个数。 设置多个实例主要用于实现高可靠性,当某个实例故障时,应用组件还能正常运行。 资源配额 组件无法调度到剩余资源小于申请值的节点上,配置方法请参考资源限制指南。 可以根据需要自定义“CPU配额”和“内存配额”。 组件状态 根据需要设置组件状态。 5、单击“下一步 组件配置”,配置组件。 “组件类型”为“通用”且运行时为“Docker”的组件,执行以下操作: a.选择镜像。支持多容器,可以单击“添加容器”增加镜像。 b.设置“镜像版本”。 c.输入“容器名称”。 d.(可选)设置“资源配额”。组件无法调度到剩余资源小于申请值的节点上。可以根据需要自定义“CPU配额”和“内存配额”。 e.(可选)设置“高级设置” 展开“高级设置> 组件配置”,可以设置“环境变量”,请参考设置应用环境变量。 展开“高级设置 > 部署配置”: 设置“启动命令”、“生命周期”,请参考设置应用生命周期。 设置“数据存储”,请参考设置数据存储。 展开“高级设置 > 运维监控”: 设置“日志采集”,请参考配置应用日志策略。 设置“健康检查”,请参考设置应用健康检查。 f.(可选)开启“公网访问” i.设置“公网ELB” 选择已经创建的负载均衡。 若不存在,请单击“新增ELB”创建新的负载均衡。 ii.(可选)设置“HTTPS” 若开启HTTPS,单击“使用已有”选择已经创建的证书。 若证书不存在,请单击“新创建”创建新的服务器证书。 iii.设置“域名” 在输入框中输入自定义域名。详情请参考配置域名映射。 iv.设置“监听端口” 设置应用进程的监听端口。 g.(可选)设置“数据库” 选择已经创建的缓存实例。 h.(可选)设置“时区” 修改容器节点的时区,默认和容器节点所在Region的时区一致。 i.(可选)设置“调度策略”,请参考设置应用组件实例调度策略。 j.(可选)设置“升级策略”,请参考设置应用组件实例升级策略。 k.(可选)设置“性能管理”,请参考设置应用性能管理。 其他类型的组件,执行以下操作: a.设置“镜像” 应用来源为软件包,会加载已经配置的组件静态信息。 组件运行时为Docker,需要从SWR镜像仓库选择镜像包。 b.(可选)开启“公网访问” i.设置“公网ELB” 选择已经创建的负载均衡。 若不存在,请单击“新增ELB”创建新的负载均衡,详情请参考“帮助中心 > 弹性负载均衡 > 用户指南 > 负载均衡器 > 创建负载均衡器”创建增强型负载均衡器。 ii.(可选)设置“HTTPS” 若开启HTTPS,单击“使用已有”选择已经创建的证书。 若证书不存在,请单击“新创建”创建新的服务器证书。创建服务器证书请参考“帮助中心 > 弹性负载均衡 > 用户指南 > 证书管理 > 创建证书”创建证书。 iii.设置“域名” 在输入框中输入自定义域名。详情请参考配置域名映射。 iv.(可选)设置“监听端口” 应用进程的监听端口,对于Tomcat8运行时,默认为8080,也支持自定义。 c.(可选)设置“JVM” 组件运行时为“Java8”、“Tomcat8”时需要设置。 输入JVM参数,如Xms256m Xmx1024m,多个参数以空格间隔,不填则使用默认值。 d.(可选)设置“Tomcat配置” 组件运行时为“Tomcat8”时需要配置。 i.勾选“配置参数”,弹出“Tomcat配置”对话框。 ii.单击“使用示例模板”,根据业务要求编辑模板文件。 iii.单击“确定”。 e.(可选)设置“微服务引擎” 微服务类型组件需要设置该参数。 默认选择环境中添加的微服务引擎,创建微服务引擎请参考创建微服务引擎专享版。 f.(可选)设置“数据库” 选择已经创建的缓存实例。 g.(可选)设置“时区” 修改容器的时区,默认和容器节点所在Region的时区一致。 h.(可选)设置“高级设置” 部署系统选择虚机部署时,只能设置“环境变量”。 展开“高级设置> 组件配置”,可以设置“环境变量”,请参考设置应用环境变量。 展开“高级设置 > 部署配置”: 设置“启动命令”、“生命周期”,请参考设置应用生命周期。 设置“数据存储”,请参考设置数据存储。 设置“调度策略”,请参考设置应用组件实例调度策略。 设置“升级策略”,请参考设置应用组件实例升级策略。 展开“高级设置 > 运维监控”: 设置“日志采集”,请参考配置应用日志策略。 设置“健康检查”,请参考设置应用健康检查。 设置“性能管理”,请参考设置应用性能管理。 设置“自定义监控指标”,请参考设置应用组件自定义指标监控。 6、单击“下一步 规格确认”,确认规格无误后,单击“部署”。 组件部署完成后,在应用“概览”页的“环境视图”可查看组件状态。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用管理
        应用组件部署
      • 数据存储
        文件怎样拷贝到天翼AI云电脑? 使用天翼云电脑同步工具,下载地址: 使用文件拖拽功能,将文件从本地复制到天翼AI云电脑或从天翼AI云电脑复制到本地,该操作仅支持Windows客户端和Mac客户端。 说明:当文件大小超过200MB时,请使用Ctrl+C/V快捷方式进行文件传输。 使用文件重定向,把本地电脑的磁盘映射到天翼AI云电脑(政企版)内进行文件复制拷贝(需要管理员在天翼云控制中心开启文件重定向)。 天翼AI云电脑(公众版)仅Windows客户端支持文件重定向操作。 天翼AI云电脑如何进行文件拖拽? 提示:仅windows客户端、Mac客户端支持。 AI云电脑支持通过拖拽的方式,将文件从本地复制到AI云电脑,或从AI云电脑复制到本地。 从本地拖拽到AI云电脑: AI云电脑客户端在最小化情况下,将本地文件拖拽到本地系统任务栏的AI云电脑客户端图标上,即可将文件复制到AI云电脑的AI云电脑中。 AI云电脑客户端在窗口化情况下,将本地文件拖拽到客户端界面中,即可将文件复制AI云电脑中。 从AI云电脑拖拽到本地: AI云电脑客户端在窗口化情况下,将AI云电脑文件拖拽到客户端界面外,即可将文件复制到本地系统的AI云电脑中。(管理控制台基础策略:开启文件拷贝策略) 文件传输过程中会有进度展示: 注:当文件大小超过200MB时,请使用Ctrl+C/V快捷方式进行文件传输。
        来自:
        帮助文档
        天翼云电脑(公众版)
        常见问题
        数据存储
      • 数据存储
        文件怎样拷贝到天翼AI云电脑? 使用天翼云电脑同步工具,下载地址: 使用文件拖拽功能,将文件从本地复制到天翼AI云电脑或从天翼AI云电脑复制到本地,该操作仅支持Windows客户端和Mac客户端。 说明:当文件大小超过200MB时,请使用Ctrl+C/V快捷方式进行文件传输。 使用文件重定向,把本地电脑的磁盘映射到天翼AI云电脑(政企版)内进行文件复制拷贝(需要管理员在天翼云控制中心开启文件重定向)。 天翼AI云电脑(公众版)仅Windows客户端支持文件重定向操作。 天翼AI云电脑如何进行文件拖拽? 提示:仅windows客户端、Mac客户端支持。 AI云电脑支持通过拖拽的方式,将文件从本地复制到AI云电脑,或从AI云电脑复制到本地。 从本地拖拽到AI云电脑: AI云电脑客户端在最小化情况下,将本地文件拖拽到本地系统任务栏的AI云电脑客户端图标上,即可将文件复制到AI云电脑的AI云电脑中。 AI云电脑客户端在窗口化情况下,将本地文件拖拽到客户端界面中,即可将文件复制AI云电脑中。 从AI云电脑拖拽到本地: AI云电脑客户端在窗口化情况下,将AI云电脑文件拖拽到客户端界面外,即可将文件复制到本地系统的AI云电脑中。(管理控制台基础策略:开启文件拷贝策略) 文件传输过程中会有进度展示: 注:当文件大小超过200MB时,请使用Ctrl+C/V快捷方式进行文件传输。
        来自:
        帮助文档
        天翼云电脑(政企版)
        常见问题
        数据存储
      • 登录连接云电脑
        文本介绍以登录连接天翼云电脑客户端为例,帮助您快速上手使用天翼云电脑(公众版)。 目前天翼云电脑客户端支持Windows,MacOS 10.14,Android7.0,iOS10、Ubuntu18,UOS V20,Kylin V10等以上系统版本,用户可前往下载相应的客户端进行登录使用:客户端下载 Web客户端支持Chrome70+、Firefox72+、edge、UOS 5.2.1200+、奇安信1.0.1365+等浏览器接入 ,用户可前往Web客户端进行登录使用:Web客户端 注意 如需体验Linux系统的云电脑客户端,请发送邮件至clouddesktop@chinatelecom.cn进行申请。 天翼云电脑账号获取 1. 当用户在天翼云门户注册账号并订购时,云电脑的登录账号即为订购云电脑时绑定的手机号。在首次购买云电脑后会以短信形式发送登录密码至该登录手机号码,若忘记密码可在天翼云电脑移动客户端找回密码。 2. 当用户在天翼云电脑移动客户端注册账号并订购时,可使用注册时的手机号和密码进行登录,若忘记密码可在天翼云电脑移动客户端找回密码。 以下是客户端的登录流程,帮助您快速上手使用天翼云电脑移动客户端。 天翼云电脑移动端登录连接云电脑 使用的流程如下: 1. 打开“天翼云电脑”移动客户端,可查看到登录页面; 2. 可通过输入账号、密码或通过免密登录方式登录云电脑; 3. 登录后点击底部菜单栏“云电脑”,即可查看到账号下所属的云电脑列表; 4. 选择其中一台云电脑,点击“进入”,即可以开始连接云电脑; 5. 进入后,即可连接使用云电脑。
        来自:
        帮助文档
        天翼云电脑(公众版)
        快速入门
        登录连接云电脑
      • 在哪里做日志
        本页介绍天翼云TeleDB数据库在哪里做日志相关参数。 logdestination (string) TeleDB支持多种方法来记录服务器消息,包括stderr、csvlog和syslog。在 Windows 上还支持eventlog。设置这个参数为一个由想要的日志目的地的列表,之间用逗号分隔。默认值是只记录到stderr。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。如果csvlog被包括在logdestination中,日志项会以“逗号分隔值” (CSV)格式被输出,这样可以很方便地把日志载入到程序中。要产生 CSV 格式的日志输出,必须启用loggingcollector。当包含stderr或csvlog时, 会创建文件currentlogfiles,以记录日志收集器和相关记录目的当前正在使用的日志文件的位置。这提供了一种便捷的方式来查找当前实例正在使用的日志。 这里是这个文件内容的一个例子:stderr log/postgresql.log csvlog log/postgresql.csv当一个新的日志文件被创建为一个循环的效果,并且当logdestination 被重新加载时,currentlogfiles被重新创建。 当stderr和csvlog 都不包含在logdestination中,并且日志记录收集器被禁用时, 它将被删除。注意在大多数 Unix 系统上,你将需要修改系统的syslog守护进程的配置来使用logdestination的syslog选项。TeleDB可以在syslog设备LOCAL0到LOCAL7中记录(见syslogfacility),但是大部分平台上的默认syslog配置会丢弃所有这种消息。你将需要增加这样的内容:local0. /var/log/postgresql到syslog守护进程的配置文件来让它工作。在 Windows 上,当你使用logdestination的eventlog选项时,你应该在操作系统中注册一个事件源及其库,这样 Windows 事件查看器能够清楚地显示事件日志消息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        在哪里做日志
      • 内核资源相关参数
        本页介绍天翼云TeleDB数据库内核资源相关参数。 maxfilesperprocess (integer) 设置每个服务器子进程允许同时打开的最大文件数目。默认是1000 个文件。如果内核强制一个安全的针对每个进程的限制,那么你不用操心这个设置。但是在 一些平台上(特别是大多数 BSD 系统),如果很多进程都尝试打开很多文件,内核将允许独立进程打开比个系统真正可以支持的数目大得多得文件数。如果你发现自己看到了“Too many open files”这样的失败,可尝试减小这个设置。这个参数只能在服务器启动时设置。 enableglobalplancache 是否开启global plancache,设置成on的时候,打开global plancache功能。设置成off的时候,关闭该功能。打开开关,表示打开全局执行计划缓存(global plancache)功能,能够让不同的连接共享同一份Plan Cache。这个参数改了之后需要重启生效。 enableglobalsyscache 是否开启global syscache,设置成on的时候,打开global syscache功能。设置成off的时候,关闭该功能。打开开关,表示打开全局元数据缓存功能,可以让所有进程共享同一个缓存条目,提高内存利用效率,降低因此发生OOM的风险。这个参数改了之后需要重启生效。 globalplancachesize 该参数表示可使用的global plancache的共享内存大小,单位MB,重启集群生效,不配置的话有默认参数。 globalcachesize 该参数表示可使用的元数据缓存的共享内存大小,单位MB,重启集群生效,不配置的话有默认参数。 enableremotedataaccessplan 是否开启RDA,默认off。设置成on的时候,打开RDA功能。设置成off的时候,关闭该功能。打开开关,表示打开远程数据访问(RDA)功能。参数类型:布尔。是否动态生效:是。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        资源消耗相关参数
        内核资源相关参数
      • 1
      • ...
      • 272
      • 273
      • 274
      • 275
      • 276
      • ...
      • 605
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      轻量型云主机

      AI Store

      公共算力服务

      模型推理服务

      智算一体机

      知识库问答

      推荐文档

      特惠专区

      备案概述

      服务器迁移的优势

      成员权限

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号