云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云翼课堂_相关内容
      • 添加和管理后端服务器组
        删除后端服务器组 1. 登录公共算力服务控制台。 2. 点击左侧导航栏【网络>弹性负载均衡>负载均衡】,在负载均衡列表页,选择某实例名字单击进入负载均衡详情页。 3. 进入负载均衡详情页,单击【后端主机组】,选中要删除的后端服务器组,并单击删除图标按钮。 说明: 对后端服务器组进行删除时,需要确保该后端服务器组未关联到对应的监听器。 配置后端服务器 1. 登录公共算力服务控制台。 2. 点击左侧导航栏【网络>弹性负载均衡>负载均衡】,在负载均衡列表页,选择某实例名字单击进入负载均衡详情页。 3. 进入负载均衡详情页,单击【后端主机组】,选中要配置的后端服务器组,在右侧信息栏中单击【添加】。 4. 在添加后端服务器实例的弹框中查看当前负载均衡所属VPC下已有的裸金属or云主机实例,选中要添加为后端服务器的实例,为其配置配置服务端口和权重后,单击【确定】。 5. 若需要修改已有后端服务器的权重信息,则选中所要修改权重的后端服务器,然后单击【修改】,在弹框中修改权重值,单击【确认】执行修改。 配置后端服务器的参数: 参数 说明 端口 后端服务器的服务端口,其取值范围为165535。 权重 每个后端服务器的权重值,其取值范围为0100。 6. 若需要删除已有后端服务器,则选中所要删除的后端服务器,然后单击【移除】,在弹框中单击【确认】执行删除。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        网络
        弹性负载均衡
        添加和管理后端服务器组
      • 批量添加资产
        本节将介绍如何批量添加资产,如果您需要批量添加OBS、数据库、大数据或者MRS资产,可参考本章节。 前提条件 需要完成数据库资产委托授权,参考云资源委托授权/停止授权进行操作。 需要获取自建数据库的引擎、版本、主机等相关信息,且自建数据库子网下含有可用的IP配额。 约束条件 只能添加DSC支持的数据库类型及版本,DSC支持的数据库类型及版本如下表所示。 数据库类型 版本 MySQL 5.6、5.7、5.8、8.0 SQL Server 2017SE、2017EE、2017WEB 2016SE、2016EE、2016WEB 2014SE、2014EE 2012SE、2012EE、2012WEB 2008R2EE、2008R2WEB PostGreSQL 11、10、9.6、9.5、9.4、9.1 Oracle 10、12 操作步骤 1. 登录管理控制台。 2. 点击左上角的,选择区域或项目。 3. 点击左侧导航树中的,选择“安全与合规 >数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中选择“资产列表”,进入OBS资产列表页面。 5. 在OBS资产列表右上角,单击“批量添加”。 6. 在弹出的“批量添加”对话框中,单击“添加文件”,将已整理好的资产文件导入到系统中。 点击“下载模板”,将资产信息按模板整理好。 7. 单击“确定”,批量添加数据库完成。 数据库添加完成后,该数据库的“连通性”为“检查中”,此时,DSC会测试数据库的连通性。 DSC能正常访问已添加的数据库,该数据库的“连通性”状态为“成功”。 若DSC不能正常访问已添加的数据库,该数据库的“连通性”状态为“失败”。单击“原因”查看失败的原因或者参照如何排查添加数据库连通性失败?解决。
        来自:
        帮助文档
        数据安全中心
        用户指南
        资产管理
        资产中心
        批量添加资产
      • 产品咨询
        本页介绍了文档数据库服务产品咨询类相关常见问题。 文档数据库服务和社区版MongoDB有什么关系 文档数据库服务是天翼云基于社区版MongoDB提供的高性能NoSQL数据库服务,完全兼容MongoDB协议。文档数据库服务在容灾、备份、恢复、监控、报警等方面提供全套数据库解决方案。可降低管理维护成本,方便您专注于应用开发和业务发展。 使用文档数据库服务要注意什么 使用文档数据库服务需要综合考虑安全性、性能、可用性和数据一致性等方面,合理配置和管理数据库,确保应用程序能够高效稳定地使用文档数据库服务。 当您评估业务对服务可用性有较高的要求时,建议优先选择副本集与分片集群的架构,副本集与分片集群提供了更高的数据可靠性与服务可用性,当发生主节点宕机时,其他的节点可以接替主节点继续提供服务,不影响业务侧的读写。 实例侧的弹性云主机,对用户是不可见的,您只需参考实例基本信息页的连接串配置数据库连接进行数据库服务的访问即可。 在对数据库进行不熟悉的操作时,建议先对数据进行备份,方便数据回档。 您不需要进行数据库的基础运维,但是可以留意一下性能监控,比如机器的磁盘、内存使用率等情况,规格不足时可以进行扩容更好满足业务需求。 什么是文档数据库服务的可用性 文档数据库服务的可用性通常是指数据库系统在正常运行时可以对外提供服务的能力,以及系统在遇到故障或意外情况时能够保持部分或全部功能的可用性。文档数据库服务提供多节点副本集与分片集群的高可用架构。集群节点之间数据自动同步,提升了数据的高可靠性与服务的高可用性。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        咨询类
        产品咨询
      • 通过配置ECS/ELB访问控制策略保护源站安全
        本章节介绍了源站服务器部署在天翼云弹性云服务器(以下简称ECS)或天翼云弹性负载均衡(以下简称ELB)时,如何判断源站存在泄漏风险,以及如何配置访问控制策略保护源站安全。 网站已接入Web应用防火墙(Web Application Firewall,简称WAF)进行安全防护后,您可以通过设置源站服务器的访问控制策略,只放行WAF回源IP段,防止黑客获取您的源站IP后绕过WAF直接攻击源站。 说明 网站已接入WAF进行安全防护后,无论您是否配置源站保护,都不影响正常业务的转发。没有配置源站保护可能导致攻击者在源站IP暴露的情况下,绕过WAF直接攻击您的源站。 如果在ECS前使用了NAT网关做转发,也需要设置ECS入方向规则在ECS的安全组配置只允许放行WAF的回源IP地址段,保护源站安全。 操作须知 在配置源站保护前,请确保该ECS或ELB实例上的所有网站域名都已经接入WAF,保证网站能正常访问。 配置安全组存在一定风险,避免出现以下问题: 您的网站设置了Bypass回源,但未取消安全组和网络ACL等配置,这种情况下,可能会导致源站无法从公网访问。 当WAF有新增的回源网段时,如果源站已配置安全组防护,可能会导致频繁出现5xx错误。 如何判断源站存在泄露风险 您可以在非天翼云环境直接使用Telnet工具连接源站公网IP地址的业务端口(或者直接在浏览器中输入访问Web应用的IP),查看是否建立连接成功。 如果可以连通:表示源站存在泄露风险,一旦黑客获取到源站公网IP就可以绕过WAF直接访问。 如果无法连通:表示当前不存在源站泄露风险。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        最佳实践
        源站安全配置最佳实践
        通过配置ECS/ELB访问控制策略保护源站安全
      • 通过LTS记录WAF全量日志
        本文介绍如何开启全量日志。 启用WAF全量日志功能后,您可以将攻击日志、访问日志记录到云日志服务(Log Tank Service,简称LTS)中,通过LTS记录的WAF日志数据,快速高效地进行实时决策分析、设备运维管理以及业务趋势分析。 LTS对于采集的日志数据,通过海量日志数据的分析与处理,可以为您提供一个实时、高效、安全的日志处理能力。LTS默认存储日志的时间为7天,存储时间可以在1~30天之间进行设置,超出存储时间的日志数据将会被自动删除,对于需要长期存储的日志数据(日志持久化),LTS提供转储功能,可以将日志转储至对象存储服务(OBS)或者数据接入服务(DIS)中长期保存。 前提条件 已申请WAF。 已添加防护网站。 系统影响 开启全量日志功能是将WAF日志记录到LTS,不影响WAF性能。 将防护日志配置到LTS 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 单击页面左上角的“服务列表”,选择“安全> Web应用防火墙(独享版)”。 4. 在左侧导航栏,选择“防护事件”,进入“防护事件”页面。 5. 选择“全量日志”页签,开启全量日志,并选择日志组和日志流。 配置全量日志: 全量日志配置参数: 参数 参数说明 取值样例 选择日志组 选择已创建的日志组。 ltsgroupwaf 记录攻击日志 选择已创建的日志流。 攻击日志记录每一个攻击告警信息,包括攻击事件类型、防护动作、攻击源IP等信息。 ltstopicwafattack 记录访问日志 选择已创建的日志流。 访问日志记录每一个HTTP访问的关键信息,包括访问时间、访问客户端IP、访问资源URL等信息。 ltstopicwafaccess 6. 单击“确定”,全量日志配置成功。您可以在LTS管理控制台查看WAF的防护日志。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        管理防护事件
        通过LTS记录WAF全量日志
      • 产品概述
        本章节概括介绍了边缘重保服务整体服务框架及其主要应用场景。 边缘重保服务可针对各类推广活动、重要会议、赛事、晚会等业务场景中的突发性流量压力及潜在的安全隐患,为客户核心业务提供全生命周期的保障。通过“事前全面分析和准备事中严格护航值守事后复盘优化”的三级保障体系,从底层资源入手,以业务功能可用性和应用服务的安全性为要义,为企业的核心业务提供多重保险,助力企业在流量洪峰中构建高可靠数字防线。 边缘重保服务以资深重保专家团队和成熟的边缘云系列产品为核心能力基础,辅以自研及第三方权威机构的各类工具,从前期的组织规划到过程中的作战保障及事后的复盘分析,构建核心业务加固、周期监控巡检、故障应急响应三位一体多重护甲的保障体系,为业务保驾护航,让您全程无忧! 整体服务框架 应用场景 营销推广: 618购物节、双十一购物狂欢节、双十二购物狂欢节、年货节等电商促销活动;品牌发布会、产品发布会等受公众瞩目的各类发布会。 晚会与庆典:春节联欢晚会、跨年晚会、中秋晚会、地方春晚等晚会型活动;国庆阅兵、国家级大型庆典类活动。 教育活动:中高考查分、高考志愿填报、中小学生开学第一课、各类职业资格或技能考试认证等大规模教育类活动。 重要赛事:奥运会、冬奥会、世界杯、欧洲杯、亚运会、大运会、热门联赛等重要竞技赛事。 大型会晤:两会、金砖会晤、经济贸易峰会、各类大型论坛等会晤型活动。 票务活动:春运车票、演唱会门票、热门景点门票、消费券发放、纪念币发行等限量抢购类活动。 其他:攻防演练、热门游戏发布、热门应用大版本更新、企业核心业务割接及其他需要保障支持类的场景。
        来自:
        帮助文档
        边缘重保服务
        产品介绍
        产品概述
      • 防攻击处理预案说明
        本文介绍当攻击发生且触发平台稳定性红线时的处理预案。 场景说明 天翼云CDN是公共的加速服务,平台承载着成千上万的域名加速业务,是一个多客户共用的加速平台,默认不提供防攻击服务。当某个客户的域名遭受攻击(例如CC攻击),而出现带宽或QPS异常大幅上涨触发平台稳定性红线时,CDN系统有权(根据域名业务情况、攻击影响程度等因素综合判断)将对应客户的域名切入专用隔离资源池以隔离异常业务,避免影响其他正常用户的加速服务。在攻击较严重的情况下,同账户下的其他域名也会切入隔离资源池。 域名被切入隔离资源池后,天翼云CDN将不再保证服务质量,部分时段可能会出现无法服务的情况。 说明 隔离资源池是天翼云CDN的一组特殊节点,这组节点与常规节点之间相互隔离,用于隔离有风险的业务。 注意事项 因被攻击导致域名被切入隔离资源池后,用户访问带来的流量仍然会产生计费账单。 相关建议 如您的域名存在潜在被攻击风险,不希望在上述场景下被切换至隔离资源池,请在CDN加速基础上,叠加购买Web应用防火墙(边缘云版),或切换至安全类加速产品,例如:边缘安全加速平台。 相关概念: DDoS:分布式拒绝服务攻击(Distributed Denial of Service,简称DDoS)是指攻击的发出点是分布在不同地方,且所请求的服务往往要消耗大量的系统资源,造成目标主机无法为用户提供正常服务。 CC攻击:攻击者借助代理服务器生成指向受害主机的合法请求,以实现DDoS和伪装的,称为CC(Challenge Collapsar),CC主要是攻击页面,属于应用层攻击。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        防攻击处理预案说明
      • 卸载ICAgent
        批量卸载 当您已有服务器安装过ICAgent,且该服务器“/opt/ICAgent/”路径下ICAgent安装包ICProbeAgent.zip存在,通过该方式可对多个远端服务器进行一键式继承批量卸载。 注意 批量卸载的ECS需同属一个VPC下,并在同一个网段中。 前提条件 已收集需要卸载Agent的所有虚拟机IP、密码,按照iplist.cfg格式整理好,并上传到已安装过ICAgent机器的/opt/ICAgent/目录下。iplist.cfg格式示例如下所示,IP与密码之间用空格隔开: 192.168.0.109 密码(请根据实际填写) 192.168.0.39 密码(请根据实际填写) 说明 iplist.cfg中包含您的敏感信息,建议您使用完之后清理一下。 如果所有弹性云服务器的密码一致,iplist.cfg中只需列出IP,无需填写密码,在执行时输入此密码即可;如果某个IP密码与其他不一致,则需在此IP后填写其密码。 iplist.cfg文件中每一行应以回车作为结尾。 操作步骤 步骤 1 在已安装ICAgent的服务器上执行如下命令。 bash /opt/oss/servicemgr/ICAgent/bin/remoteUninstall/remoteuninstall.sh batchModeConfig /opt/ICAgent/iplist.cfg 根据脚本提示输入待卸载机器的root用户默认密码,如果所有IP的密码在iplist.cfg中已有配置,则直接输入回车键跳过即可,否则请输入默认密码。 batch uninstall begin Please input default passwd: send cmd to 192.168.0.109 send cmd to 192.168.0.39 2 tasks running, please wait... End of uninstall agent: 192.168.0.109 End of uninstall agent: 192.168.0.39 All hosts uninstall icagent finish. 请耐心等待,当提示All hosts uninstall icagent finish.时,则表示配置文件中的所有主机卸载操作已完成。 步骤 2 卸载完成后,在应用性能管理左侧导航栏中选择“配置管理 > Agent管理”,查看该服务器ICAgent状态。
        来自:
        帮助文档
        应用运维管理
        用户指南
        配置管理
        Agent管理
        卸载ICAgent
      • 其他
        本章主要介绍API网关其他常见问题。 API、环境、应用之间的关系? API可以被发布到不同的环境中。比如RELEASE和BETA两个环境,分别代表线上和测试环境。 应用指代一个API调用者的身份。创建应用时,系统会自动生成用于认证该身份的应用key&secret。将指定的API授权给指定应用后,该应用的持有者才可以调用已发布到环境中的指定API。 同一个API发布到不同的环境时,可以为之定义不同的流控策略并授权给不同的应用。举例,API v2版本在测试过程中,可以发布到BETA环境,并授权给测试应用,而API v1版本是稳定版本,可以在RELEASE环境中,授权给所有用户或应用使用。 怎样使用API网关? API网关提供了以下方式来管理/调用API: Web化的服务管理平台,即管理控制台。 如果您已注册公有云,可直接登录管理控制台,单击管理控制台,然后单击“API网关 APIG”。 基于Java、Go、Python、Javascript、C 、PHP、C++、C、Android等多种语言的SDK包。 您可以通过下载SDK包来调用API。 API网关支持哪些SDK语言? API网关当前支持Java、Go、Python、C 、javascript、PHP、C++、C和Android的SDK。 API网关是否支持通过POST方法上传文件? API网关支持通过POST方法上传文件。 专享版:在实例配置参数中,配置“requestbodysize”参数。“requestbodysize”表示API请求中允许携带的Body大小上限,支持修改范围1~9536 M。 如何获取API网关错误返回信息? 当API请求到达网关后,网关返回请求结果信息。查看返回结果的Body信息如下。 { "errorcode": "APIG.0101", "errormsg": "API not exist or not published to environment", "requestid": "acbc548ac6f2a0dbdb9e3518a7c0ff84" } “errorcode”表示错误码。 “errormsg”表示报错原因。 相关错误码请参考API网关有哪些错误码。
        来自:
        帮助文档
        API网关
        常见问题
        其他
      • 绑定和解绑弹性公网IP
        本章节介绍关系型数据库如何绑定和解绑公网IP。 操作场景 关系型数据库实例创建成功后,默认未开启公网访问功能(即未绑定弹性公网IP)。关系型数据库服务支持用户绑定弹性公网IP,在公共网络来访问数据库实例,绑定后也可根据需要解绑。 注意 为保证数据库可正常访问,请确保数据库使用的安全组开通了相关端口的访问权限,假设数据库的访问端口是8635,那么需确保安全组开通了8635端口的访问。 注意事项 公网访问会降低实例的安全性,请谨慎选择。为了获得更快的传输速率和更高的安全级别,建议您将应用迁移到与您的关系型数据库在同一区域的弹性云主机上。 前提条件 用户需要在VPC申请一个弹性公网IP。 只有主实例和只读实例才能绑定弹性公网IP。 对于已绑定弹性公网IP的实例,需解绑后,才可重新绑定其他弹性公网IP。 说明 部分已创建实例暂不支持该功能,因为其连接地址的创建方式不支持绑定弹性公网IP。 绑定弹性公网IP 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4、在“实例管理”页面,选择指定的实例,单击实例名称,进入实例基本信息页面。 5、选择“弹性公网IP”页面,单击“绑定弹性公网IP”。 6、在弹出框的EIP地址列表中,显示“未绑定”状态的EIP,选择所需绑定的EIP,单击“确定”,提交绑定任务。如果没有可用的EIP,单击“查看弹性公网IP”,获取EIP。 7、在“弹性公网IP”页面,查看绑定成功的EIP。 您也可以在“任务中心”页面,查看绑定弹性公网IP任务的执行进度及结果。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        连接管理
        绑定和解绑弹性公网IP
      • 关系型数据库相关术语解释
        本章介绍关系型数据库的相关术语解释,对常见的相关名词进行详细解答。 什么是实例? 关系型数据库的最小管理单元是实例,一个实例代表了一个独立运行的关系型数据库。用户可以在关系型数据库系统中自助创建及管理各种数据库引擎的实例。实例的类型、规格、引擎、版本和状态,请参考实例说明。 什么是数据库引擎? 关系型数据库支持以下引擎: MySQL PostgreSQL SQL Server 什么是实例类型? 云数据库RDS的实例分为两个类型,即单机实例和主备实例。不同系列支持的引擎类型和实例规格不同。 各系列产品的详细介绍请参考产品类型简介和产品功能对比。 什么是实例规格? 数据库实例各种规格(vCPU个数、内存(GB)、对应的数据库引擎)请参考数据库实例规格。 什么是自动备份? 创建实例时,关系型数据库服务默认开启自动备份策略,实例创建成功后,您可对其进行修改,关系型数据库会根据您的配置,自动创建数据库实例的全量备份。 什么是手动备份? 手动备份是由用户启动的数据库实例的全量备份,它会一直保存,直到用户手动删除。 什么是区域和可用区? 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region)指物理的数据中心。每个区域完全独立,这样可以实现最大程度的容错能力和稳定性。资源创建成功后不能更换区域。 可用区(AZ,Availability Zone)是同一区域内,电力和网络互相隔离的物理区域,一个可用区不受其他可用区故障的影响。一个区域内可以有多个可用区,不同可用区之间物理隔离,但内网互通,既保障了可用区的独立性,又提供了低价、低时延的网络连接。
        来自:
        帮助文档
        关系数据库SQL Server版
        产品简介
        关系型数据库相关术语解释
      • 关系型数据库相关术语解释
        本章会介绍关系型数据库的相关术语解释,对常见的相关名词进行详细解答。 什么是实例? 关系型数据库的最小管理单元是实例,一个实例代表了一个独立运行的关系型数据库。用户可以在关系型数据库系统中自助创建及管理各种数据库引擎的实例。实例的类型、规格、引擎、版本和状态,请参考实例说明。 什么是数据库引擎? 关系型数据库支持以下引擎: MySQL PostgreSQL SQL Server 什么是实例类型? 云数据库RDS的实例分为两个类型,即单机实例和主备实例。不同系列支持的引擎类型和实例规格不同。 各系列产品的详细介绍请参考产品类型简介和产品功能对比。 什么是实例规格? 数据库实例各种规格(vCPU个数、内存(GB)、对应的数据库引擎)请参考数据库实例规格。 什么是自动备份? 创建实例时,关系型数据库服务默认开启自动备份策略,实例创建成功后,您可对其进行修改,关系型数据库会根据您的配置,自动创建数据库实例的全量备份。 什么是手动备份? 手动备份是由用户启动的数据库实例的全量备份,它会一直保存,直到用户手动删除。 什么是区域和可用区? 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region)指物理的数据中心。每个区域完全独立,这样可以实现最大程度的容错能力和稳定性。资源创建成功后不能更换区域。 可用区(AZ,Availability Zone)是同一区域内,电力和网络互相隔离的物理区域,一个可用区不受其他可用区故障的影响。一个区域内可以有多个可用区,不同可用区之间物理隔离,但内网互通,既保障了可用区的独立性,又提供了低价、低时延的网络连接。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        关系型数据库相关术语解释
      • 管理AI云电脑
        本节介绍天翼云电脑在移动终端的管理功能使用说明。 进入AI云电脑 在卡片/列表视图,点击“进入”的图标或按钮,进入AI云电脑。 卡片/列表视图切换 登录成功后,在AI云电脑页右上角,点击“卡片视图和列表视图”切换图标,可进行卡片视图和列表视图切换。 AI云电脑排序 在云电脑列表模式下,可以通过长按单个列表,进行拖拽排序。 重启/关机 在卡片/列表视图,点击“重启”、“关机”,可对AI云电脑进行“重启”或“关机”操作。 查看AI云电脑信息 在卡片/列表视图,点击“配置”,查看AI云电脑信息ID、名称以及修改名称、AI云电脑的CPU、内存、系统盘、数据盘配置信息。 快捷应用 桌面快捷区壳查看到日常办公高频应用,支持一键启用、按需增删,应用分类如下: web应用:通过云电脑内嵌浏览器秒开。 原生应用:一键启动云电脑已安装的应用。 推荐应用:未安装则直达应用市场,即点即装。
        来自:
        帮助文档
        天翼云电脑(政企版)
        移动终端指南
        管理AI云电脑
      • 管理AI云电脑
        本节介绍天翼云电脑移动客户端的管理功能使用说明。 进入AI云电脑 在卡片/列表视图,点击“进入”的图标或按钮,进入AI云电脑。 卡片/列表视图切换 登录成功后,在AI云电脑页右上角,点击“卡片视图和列表视图”切换图标,可进行卡片视图和列表视图切换。 AI云电脑排序 在云电脑列表模式下,可以通过长按单个列表,进行拖拽排序。 重启/关机 在卡片/列表视图,点击“重启”、“关机”,可对AI云电脑进行“重启”或“关机”操作。 查看AI云电脑信息 在卡片/列表视图,点击“配置”,查看AI云电脑信息ID、名称以及修改名称、AI云电脑的CPU、内存、系统盘、数据盘配置信息。 快捷应用 桌面快捷区壳查看到日常办公高频应用,支持一键启用、按需增删,应用分类如下: web应用:通过云电脑内嵌浏览器秒开。 原生应用:一键启动云电脑已安装的应用。 推荐应用:未安装则直达应用市场,即点即装。
        来自:
        帮助文档
        天翼云电脑(公众版)
        移动终端指南
        管理AI云电脑
      • 常见问题(1)
        本节介绍在云电脑中使用OpenClaw的常见问题。 如何获取云电脑系统密码? 在开通云电脑时,会通过短信发送系统密码,请注意查收短信。如未收到短信,请通过云电脑客户端→设置→立即报障,进行处理。 OpenClaw云电脑开机后一直停留在黑色页面,没有进度。 这个黑框是后台服务,不要关闭,请点击桌面的 “OpenClaw进入应用” 打开聊天页面。 OpenClaw的后台服务打开后闪退 OpenClaw执行指令时误删除了系统文件,如无重要数据建议重装系统恢复。 如果云电脑是内网,不能访问外网可以用吗? 不可以,必须要能访问公网。 云电脑OpenClaw默认打开谷歌浏览器,这个默认浏览器可以修改吗? OpenClaw只是打开系统的默认浏览器,将您需要的浏览器设置为默认浏览器即可。 提问OpenClaw没有回答,后台进程显示“403 Forbidden”字样的报错信息。 风控要求对OpenClaw云电脑出口ip进行白名单管控。您的云电脑出口ip不在后台的白名单中,请联系运维人员进行ip加白。若加白后仍无法正常问答,请按以下指引操作: 1. 按下win+r ,输入 ncpa.cpl; 2. 右键选中网络适配器的属性; 3. 取消勾选 Internet协议版本6 (TCP/IPv6),确认并保存。 OpenClaw提示:已断开与网关的连接,device identity required 建议通过系统重装升级到最新镜像。升级方法同重装操作系统一致,参考下方链接中“已有云电脑用户,切换OpenClaw镜像体验”。 <
        来自:
      • 产品简介
        本节介绍云电脑高可用的产品简介,以便您了解云电脑高可用。 AI云电脑高可用功能可在AI云电脑出现不可预见的故障时,为用户提供持续可用的桌面服务,保障业务连续性。 跨资源池灾备 AI云电脑所在资源池出现异常故障时,可自动切换使用备资源池的灾备AI云电脑。 业务连续性 提供一致的AI云电脑的服务,用户可持续开展业务工作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        高可用AI云电脑
        产品简介
      • 升级配置
        本节介绍了天翼云电脑(公众版)进行升级配置,但不支持配置降级。 云电脑(公众版)支持进行升级配置,但不支持配置降级。 1. 登录“天翼云电脑”安卓移动客户端APP; 2. 选择“云电脑”列表查看需要升级配置的云电脑; 3. 点击“管理”进入管理页面,选择“升级配置“; 4. 确认可升级的配置规格并提交订单; 5. 确认订单并完成支付,支付成功后升级配置即生效。 说明 1、在天翼云电脑(安卓)App、天翼云App、天翼云官网进行订购的云电脑公众版支持在天翼云电脑移动客户端进行产品变更操作管理。 2、在营业厅订购云电脑公众版产品的用户请到营业厅咨询产品变更流程。
        来自:
        帮助文档
        天翼云电脑(公众版)
        产品变更
        升级配置
      • 数据接入相关
        本节介绍云安全中心配置类常见问题。 为什么要进行数据接入? 云安全中心(CTCSC,Cloud Security Center,简称CSC)作为用户侧的安全中心,其核心数据来源是用户的各种安全设备。 云安全中心数据接入要如何配置? 打开云安全中心的“设置 > 集成配置”,在集成配置页面选择需要接入的日志类型即可。 云安全中心告警需要如何配置? 1. 打开云安全中心的“设置 > 集成配置”,在集成配置页面选择需要接入的日志类型。 2. 部分日志支持直接转告警,可以直接打开转告警开关,云安全中心会根据内置转告警规则进行转告警配置。 同时云安全中心还支持自定义转告警配置,即通过云安全中心的“威胁运营 > 威胁检测 > 威胁建模”功能实现自定义告警配置。
        来自:
        帮助文档
        云安全中心
        常见问题
        配置类
        数据接入相关
      • 创建伸缩带宽策略
        指标名称 解释 入网带宽 该指标用于统计测量对象入云平台的网络速度。 入网流量 该指标用于统计测量对象入云平台的网络流量。 出网带宽 该指标用于统计测量对象出云平台的网络速度。 出网流量 该指标用于统计测量对象出云平台的网络流量。 出网带宽使用率 该指标用于统计测量对象出云平台的带宽使用率,以百分比为单位。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩带宽
        创建伸缩带宽策略
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 创建命名空间
        本文为您介绍创建命名空间的具体操作。 使用限制 同一子账号下最多支持创建10个命名空间。 命名空间与容灾管理中心为1:10绑定关系。 若容灾中心涉及三方数据中心,需预先在三方数据中心管理模块中完成创建。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏 “命名空间”,进入命名空间页面。点击右上角“创建命名空间”按钮,进入创建命名空间页面。 5. 选择容灾形态。当前仅支持同城主备、同城多活、异地主备。 6. 输入命名空间名称。注意:名称长度为263字符,由文字、数字、字母、组成,不能以数字和开头、且不能以结尾。 7. 选择企业项目。企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。默认名称default。 8. 填写容灾分区的相关信息,配置项详细说明见下表。 参数 是否必填 配置说明 容灾形态 √ 选择命名空间的容灾形态。 同城多活:多活业务中各多活子信息系统均处于同一地理区域,建议物理距离<100KM。 同城主备:同城主备业务中各生产子信息系统均处于同一地理区域,建议物理距离<100KM,且灾备中心需要手动拉起。 异地主备:异地主备业务中各生产子信息系统均处于不同地理区域,建议物理距离>100KM,且灾备中心需要手动拉起。 名称 √ 填写命名空间名称,用以实现租户粒度的管控配置和资源隔离。 长度为263字符,由文字、数字、字母、组成,不能以数字和开头且不能以结尾。同一主账号下命名空间名称不可重复。 描述 × 填写命名空间的描述信息。 长度为0100个字符。 企业项目 √ 选择命名空间所在的企业项目。 选择对应的企业项目后,可将命名空间和企业项目关联。仅企业账号可见此配置项。默认名称default。 容灾分区 √ 展示容灾分区相关信息,如分区角色、分区名称、地域、可用区等。 分区角色 √ 选择分区角色。 容灾形态为同城多活时,容灾分区为分区1、2,最多可创建3个分区。 容灾形态为同城主备/异地主备时,容灾分区为生产中心、容灾中心,不可增加分区。 分区类型 √ 选择分区角色的分区类型。 容灾形态为同城多活时,分区类型为天翼云。 容灾形态为同城主备/异地主备时,生产中心的分区类型可选择天翼云或三方数据中心。容灾中心的分区类型为天翼云。 注:MDR在同城/异地主备场景下支持三方数据中心为生产中心。 分区名称 √ 填写不同分区名称。 由文字、数字、字母、组成,不能以数字和开头且不能以结尾。同一命名空间下分区名称不可重复。 地域 √ 分区类型为天翼云时展示,可选支持MDR多活容灾服务的资源池信息。 容灾形态为同城多活时,不同分区需选择同一地域,且可新增一个分区。 容灾形态为同城主备时,生产中心和容灾中心需选择同一个地域,不可增加分区。 容灾形态为异地主备时,生产中心和容灾中心可选择不同地域,不可增加分区。 可用区 √ 分区类型为天翼云时展示,可选当前区域下所有可用区信息。不同可用区之间物理隔离,但内网互通。 三方数据中心 √ 分区类型为三方数据中心时展示,可选在三方数据中心模块下创建的所有三方数据中心。 9. 点击“立即创建”按钮,完成命名空间创建。 10. 在命名空间列表页,可以查看已经创建的命名空间相关信息,如命名空间名称、容灾形态、所属企业项目、分区角色、分区名称、分区位置、资源实例数、创建时间及相关操作等。其中,资源实例数指资源模块中加入该命名空间下资源实例数量,当前包含的资源类型有云主机、数据库、对象存储。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        命名空间
        创建命名空间
      • 权限管理
        本章介绍云监控的权限管理。 如果您需要对云服务平台上的云监控服务资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全地控制云服务资源的访问。 通过IAM,您可以在账号中给员工创建IAM用户,并使用策略来控制他们对云服务资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有云监控服务的使用权限,但是不希望他们拥有删除其他云服务资源等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用云监控服务,但是不允许删除其他云服务资源的权限策略,控制他们对其他云服务资源的使用范围。 如果账号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用云监控服务的其它功能。 IAM是云服务平台提供权限管理的基础服务,无需付费即可使用,您只需要为您账号中的资源进行付费。关于IAM的详细介绍,请参见《统一身份认证服务》。 云监控服务权限 默认情况下,新建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 云监控服务部署时通过物理区域划分,为项目级服务,需要在各区域对应的项目中设置策略,并且该策略仅对此项目生效,如果需要所有区域都生效,则需要在所有项目都设置策略。访问云监控服务时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云服务平台各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对云监控服务,管理员能够控制IAM用户仅能对某一类云监控资源进行指定的管理操作。 如下表所示,包括了云监控服务的所有系统权限。 表 云监控服务系统权限 系统角色/策略名称 描述 类别 依赖关系 CES FullAccessPolicy 云监控服务的全部权限,拥有该权限可以操作云监控服务的全部权限。 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用,支持细粒度授权的云服务列表请参考:统一身份认证帮助中心中“使用IAM授权的云服务”章节。 告警通知:依赖SMN服务的SMN FullAccess。 配置数据转储:依赖OBS服务的OBS OperateAccess。 CES ReadOnlyAccessPolicy 云监控服务的只读权限,拥有该权限仅能查看云监控服务的数据。 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用 CES AgentAccess CES Agent正常运行所需的必要权限。 系统策略 无。 CES Administrator 云监控服务的管理员权限。 系统角色 依赖Tenant Guest策略。 Tenant Guest:全局级策略,在全局项目中勾选。 CES FullAccess 云监控服务的全部权限,拥有该权限可以操作云监控服务的全部权限。 说明 CES FullAccess不满足权限最小化原则,后续不推荐使用,建议使用CES FullAccessPolicy 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用统一身份认证帮助中心中“使用IAM授权的云服务”章节。 告警通知:依赖SMN服务的SMN FullAccess。 配置数据转储:依赖OBS服务的OBS OperateAccess。 CES ReadOnlyAccess 云监控服务的只读权限,拥有该权限仅能查看云监控服务的数据。 说明 CES ReadOnlyAccess不满足权限最小化原则,后续不推荐使用,建议使用CES ReadOnlyAccessPolicy 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用统一身份认证帮助中心中“使用IAM授权的云服务”章节。 下表列出了云监控服务常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 功能 操作 CES FullAccessPolicy CES ReadOnlyAccessPolicy CES Administrator (需同时添加Tenant Guest策略) Tenant Guest 监控概览 查看监控概览 √ √ √ √ 监控概览 查看监控大屏 √ √ √ √ 监控大盘 创建监控大盘 √ × √ × 监控大盘 查看监控大盘 √ √ √ √ 监控大盘 查看监控大屏 √ √ √ √ 监控大盘 添加监控视图 √ × √ × 监控大盘 查看监控视图 √ √ √ √ 监控大盘 修改监控视图 √ × √ × 监控大盘 删除监控视图 √ × √ × 监控大盘 调整监控视图位置 √ × √ × 监控大盘 删除监控大盘 √ × √ × 我的看板 创建我的看板 √ × √ × 我的看板 查看监控大屏 √ √ √ √ 我的看板 查看我的看板 √ √ √ √ 我的看板 删除我的看板 √ × √ × 我的看板 添加监控视图 √ × √ × 我的看板 查看监控视图 √ √ √ √ 我的看板 修改监控视图 √ × √ × 我的看板 删除监控视图 √ × √ × 我的看板 调整监控视图位置 √ × √ × 资源分组 创建资源分组 √ × √ × 资源分组 查看资源分组列表 √ √ √ √ 资源分组 查看资源分组(资源概览) √ √ √ √ 资源分组 查看资源分组(告警规则) √ √ √ √ 资源分组 修改资源分组 √ × √ × 资源分组 删除资源分组 √ × √ × 告警规则 创建告警规则 √ × √ × 告警规则 修改告警规则 √ × √ × 告警规则 启用告警规则 √ × √ × 告警规则 停用告警规则 √ × √ × 告警规则 删除告警规则 √ × √ × 告警规则 导出告警规则 √ √ √ × 告警规则 查看告警规则列表 √ √ √ √ 告警规则 查看告警规则详情 √ √ √ √ 告警规则 查看监控图表 √ √ √ √ 告警记录 查看告警记录 √ √ √ √ 告警记录 查看监控详情 √ √ √ √ 告警记录 屏蔽告警 √ × √ × 告警记录 手动恢复告警记录 √ × √ × 告警模板 查看默认告警模板 √ √ √ √ 告警模板 查看自定义告警模板 √ √ √ √ 告警模板 创建自定义告警模板 √ × √ × 告警模板 修改自定义告警模板 √ × √ × 告警模板 删除自定义告警模板 √ × √ × 主机监控 查看主机列表 √ √ √ √ 主机监控 查看主机监控指标 √ √ √ √ 主机监控 安装Agent √(需同时拥有ECS FullAccess权限) × √(需同时拥有ECS FullAccess权限) × 主机监控 修复插件配置 √(需同时拥有Security Administrator、ECS FullAccess权限) × √(需同时拥有Security Administrator、ECS FullAccess权限) × 主机监控 卸载Agent √(需同时拥有ECS FullAccess权限) × √(需同时拥有ECS FullAccess权限) × 主机监控 配置进程监控 √ × √ × 主机监控 配置自定义进程监控 √ × √ × 云服务监控 查看云服务列表 √(涉及云服务需要支持细粒度授权特性,参考:《统一身份认证用户指南》中“使用IAM授权的云服务”章节) √(涉及云服务需要支持细粒度授权特性,参考:《统一身份认证用户指南》中“使用IAM授权的云服务”章节) √ √ 云服务监控 查看云服务监控指标 √ √ √ √ 自定义监控 添加自定义监控数据 √ × √ × 自定义监控 查看自定义监控列表 √ √ √ √ 自定义监控 查看自定义监控数据 √ √ √ √ 事件监控 添加自定义事件 √ × √ × 事件监控 查看事件列表 √ √ √ √ 事件监控 查看事件详情 √ √ √ √ 数据转储到DMS Kafka 创建数据转储任务 √ × √ × 数据转储到DMS Kafka 查询数据转储任务列表 √ √ √ √ 数据转储到DMS Kafka 查询指定数据转储任务 √ √ √ √ 数据转储到DMS Kafka 修改数据转储任务 √ × √ × 数据转储到DMS Kafka 启动数据转储任务 √ × √ × 数据转储到DMS Kafka 停止数据转储任务 √ × √ × 数据转储到DMS Kafka 删除数据转储任务 √ × √ × 其他 配置数据转储 √(需同时拥有OBS Bucket Viewer权限) × √(需同时拥有Tenant Administrator权限) × 其他 导出监控数据 √ √ √ × 其他 发送告警通知 √ × √ ×
        来自:
        帮助文档
        云监控服务
        产品简介
        权限管理
      • 备份策略
        本节介绍云电脑支持对虚拟机创建备份策略,实现定时备份云电脑数据盘、系统盘的数据。 AI云电脑(政企版)支持对虚拟机创建备份策略,实现定时备份AI云电脑数据盘、系统盘的数据。 说明 1、备份策略仅支持资源包创建的桌面,不支持单实例创建的桌面。 2、备份功能按所选系统盘、数据盘容量的50%消耗存储包。 新建备份策略 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“策略管理”,点击“备份策略管理”,进入“备份策略管理”页面; 3.填写策略名称; 4.根据备份需求备份内容“系统盘“、”数据盘”; 5.根据需求选择执行周期、备份时间、保留规则等配置。 6.点击“提交”,即完成备份策略的创建。 分配备份策略 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“策略管理”,点击“备份策略管理”,进入“备份策略管理”页面; 3.选择需分配的备份策略所在行,点击“分配” 4.在“分配备份策略”窗口,选择需要执行备份策略的AI云电脑; 5.根据备份需求备份内容“系统盘“、”数据盘”; 6.根据需求选择执行周期、备份时间、保留规则等配置。 7.点击“确定”,即可以把备份策略分配到对应的AI云电脑。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        策略管理
        备份策略
      • 管理AI云电脑
        本节介绍天翼量子AI云电脑客户端中的AI云电脑与AI云手机管理操作。 1. 卡片/列表视图切换 在桌面列表页左上角,点击“卡片/列表视图”切换图标,可进行卡片视图和列表视图切换,还可以查看AI云电脑账号有多少台AI云电脑。 卡片视图 列表视图 左侧列表支持展示用户账号下的AI云电脑和AI云手机 2. 编辑桌面名称、复制桌面ID 点击桌面名称,可直接自定义桌面名称,按Enter即可确认;复制桌面ID,点击桌面ID后面的图标即可复制桌面ID。 3. 进入AI云电脑/云智手机 在卡片/列表视图,点击“进入AI云电脑”按钮进入AI云电脑。 4.
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南(新)
        管理AI云电脑
      • 版本说明
        本节介绍天翼云电脑(公众版)产品版本的功能说明。 天翼云电脑(公众版)产品版本具体功能如下: 能力项 天翼云电脑(公众版) 目标客群 个人、家庭用户 管理台功能 是否有管理台 无 管理台功能 自定义组网 不支持 管理台功能 账户体系 支持用户手机号注册账号 管理台功能 账户层级管理 无 实例订购方式 实例订购方式 单实例 实例订购方式 实例时长限制 不限时长,客户端断开连接1小时休眠,24小时关机 实例订购方式 带宽提供方式 默认提供 镜像能力 标准镜像 Windows Server 2019 镜像能力 自定义镜像 不支持 云电脑使用 终端支持能力 1. 移动端(手机/ipad):默认支持 云电脑使用 终端支持能力 2. PC端(Windows/Mac):默认支持 云电脑使用 终端支持能力 3. 瘦终端(Android/Windows):默认支持 云电脑使用 App 提供天翼云电脑App,用户登录后可看到名下所有云电脑实例 说明 原云电脑个人版(经济型、商务型)规格仅支持IOS和安卓移动端使用。
        来自:
        帮助文档
        天翼云电脑(公众版)
        产品介绍
        版本说明
      • 云监控概述
        本文介绍弹性文件服务的监控概述。 云监控概述 云监控服务是天翼云针对云网资源的一项监控服务,弹性文件服务通过云监控服务提供监控和告警能力。通过查看文件系统的监控数据,您可以了解到文件系统的使用情况。通过设置告警规则可以监控文件系统实例异常情况,保障业务正常进行。 弹性文件服务自动接入云监控内,无需开通。通过云监控查看文件系统的监控数据,您可以了解到文件系统的使用情况。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        监控告警
        云监控概述
      • 申请部署
        本节主要介绍怎么申请部署云存储网关。 申请开通 申请开通的操作步骤: 1. 登录天翼云官网。 2. 在首页,单击“产品 ”>“存储 ” >“云存储网关” 。 3. 在“云存储网关”产品详情页,单击“申请公测”,进入“订购云存储网关”页面。 4. 在“订购云存储网关”页面,如实填写相应信息。 等待运维人员联系部署 提交申请开通后,会有天翼云运维人员联系您安装部署事宜。
        来自:
        帮助文档
        云存储网关
        用户指南
        申请部署
      • Milvus产品使用手册
        Milvus产品使用手册 一、 产品概述 1.1 产品介绍 Milvus 作为一款开源的高性能向量数据库,具有出色的向量检索性能、高扩展性和易用性,在人工智能、机器学习、计算机视觉、自然语言处理等领域展现出了巨大的应用潜力。目标市场可以根据应用领域细分为自然语言处理、计算机视觉、推荐系统等多个市场。其客户群体主要包括互联网、电商、金融、医疗、安防等行业的企业,以及科研机构和高校等。 1.2 产品核心能力 Milvus 的核心能力是作为一个高性能、高扩展性的云原生向量数据库,专门为处理大规模非结构化数据和支持人工智能应用而设计。 它的能力主要围绕高效的向量相似性搜索展开,具体体现在以下几个方面: 1. 高效的向量搜索与检索 (1) 大规模相似性搜索(ANN): 能够从数十亿甚至千亿级的高维向量数据集中,快速、准确地找到与查询向量最相似的 K 个向量(K近邻搜索)。 (2) 异构计算支持 (Knowhere): Milvus 的核心向量执行引擎Knowhere 能够集成并优化各种流行的向量相似性搜索库(如 Faiss, Hnswlib, Annoy),并能控制在 CPU 或 GPU 上执行索引构建和搜索请求,以充分利用硬件能力。 (3) 多样化的搜索模式: 除了基础的 ANN 搜索,还支持过滤搜索(基于标量字段的条件过滤)、范围搜索和混合搜索(结合向量和标量数据),极大地满足了复杂的业务检索需求。 2. 高性能与底层优化 (1) C++ 搜索引擎: 使用 C++ 语言实现核心搜索引擎组件,以实现高性能、底层优化和高效的资源管理。 (2) 硬件感知优化: 集成了汇编级向量操作、多线程并行化和调度等优化,最大限度地利用硬件性能。 (3) 面向列的存储 (ColumnOriented): 采用面向列的数据库系统,在执行查询时只读取涉及的特定字段,大大减少了数据访问量,并有利于向量化操作。 3. 灵活的功能与应用支撑 (1) 多模态检索: 结合 AI 推理和 Embedding 模型,高效索引和检索图片、视频、文本、声纹等多种非结构化数据。 (2) 数据导入与管理: 支持高通量数据导入,并提供数据分片、分区键、可调一致性模型等管理功能。
        来自:
        帮助文档
        轻量型云主机
        产品简介
        应用使用手册
        Milvus产品使用手册
      • 升级集群
        操作场景 您可以通过云容器引擎管理控制台快速升级到Kubernetes最新版本或者bugfix版本,以支持新特性的使用。 升级前,请先了解CCE各集群版本能够升级到的目标版本,以及升级方式和升级影响,详情请参见集群版本升级说明。 注意事项 集群升级属于不可逆操作,升级后无法回滚到之前版本,请谨慎进行。 请在升级集群前,请查看集群状态是否均为健康状态。若集群不正常,您可以自行修复,若仍有问题请提交工单联系我们协助您进行修复。 为了您的数据安全,强烈建议您先备份数据然后再升级,升级过程中不建议对集群进行任何操作。 升级前,请在CCE控制台中确认您的集群是否可以进行升级操作,确认方法:单击“资源管理 > 集群管理”,查看待升级集群右上角是否存在“可升级”提示,若存在则该集群支持升级,若不存在,则该集群不支持升级。更多详细信息请参见集群版本升级说明。 前提条件 请在集群升级前检查集群和节点的健康状况,确保集群和节点正常可用。 检查方式一:控制台查看 在CCE控制台中,单击左侧栏目树的“资源管理”,分别单击“集群管理”和“节点管理”,查看集群和节点的状态是否正常。 检查方式二:Kubectl命令查看 步骤 1 配置Kubectl命令,具体请参见通过kubectl操作CCE集群。 步骤 2 执行如下命令,确保集群的所有模块都处于健康状态。 kubectl get cs 命令行终端显示如下信息: NAME STATUS MESSAGE ERROR scheduler Healthy ok controllermanager Healthy ok etcd0 Healthy {"health": "true"} etcd1 Healthy {"health": "true"} etcd2 Healthy {"health": "true"} 步骤 3 执行如下命令,确保所有节点都处于Ready状态。 kubectl get nodes 说明:所有节点只能Ready状态,不能包含其他状态。 NAME STATUS ROLES AGE VERSION region01axxx Ready master 38d v1.9.7r1 region01axxx Ready 38d v1.9.7r1 region01axxx Ready 38d v1.9.7r1 region01axxx Ready 38d v1.9.7r1 region01axxx Ready master 38d v1.9.7r1 region01axxx Ready master 38d v1.9.7r1
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        集群管理
        集群升级
        升级集群
      • 运行Kafka作业
        本章节主要介绍如何运行Kafka作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在Kafka主题中产生和消费消息。 暂不支持通过界面提交Kafka作业,请通过后台功能来提交作业。 通过后台提交作业 先查询ZooKeeper和Kafka的实例地址,再运行Kafka作业。 查询实例地址(3.x版本) 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.请参考访问FusionInsight Manager(MRS 3.x及之后版本),跳转至FusionInsight Manager页面。然后选择“服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 4.选择“服务 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 查询实例地址(3.x之前版本) a. 登录MRS管理控制台。 b. 选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 c. 在MRS集群详情页面,选择“组件管理 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 d. 选择“组件管理 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 运行Kafka作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.在集群信息页面的“节点管理”页签中单击Master2节点名称,进入弹性云主机管理控制台。 2.单击页面右上角的“远程登录”。 3.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 4.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 5.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 6.执行如下命令,创建kafka topic。 kafkatopics.sh create zookeeper ZooKeeper角色实例IP:2181/kafkapartitions 2 replicationfactor 2 topic 7.在topic test中产生消息。 首先执行命令kafkaconsoleproducer.sh brokerlist Kafka角色实例IP:9092 topic producer.config /opt/Bigdata/client/Kafka/kafka/config/producer.properties 。 然后输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 8.消费topic test中的消息。 kafkaconsoleconsumer.sh topic bootstrapserver Kafka角色实例IP:9092 consumer.config/opt/Bigdata/client/Kafka/kafka/config/consumer.properties 说明 如果集群开启Kerberos认证,则执行如上两个命令时请修改端口号9092为21007,详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 阿里云OSS数据迁移到OOS
        本节主要介绍如何将数据从阿里云OSS迁移到OOS中。 应用场景 将数据从阿里云OSS的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从阿里云OSS迁移到OOS的文件,仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问阿里云OSS资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:OSS,代表阿里云。 srcEndpoint为阿里云Bucket的Endpoint,您可在阿里云控制台Bucket概览中进行查看。 OSS AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"OSS", 从阿里云迁移文件 "srcEndpoint":"osscnhangzhou.aliyuncs.com", 阿里云的Endpoint,请根据实际填写 "srcAccessKey":"your oss accessKey",阿里云的AccessKey "srcSecretKey":"your oss secretKey", 阿里云的SecretKey "srcBucket":"ossbucket", 阿里云的Bucket "srcPrefix":"logs/", 阿里云上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", 阿里云上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        阿里云OSS数据迁移到OOS
      • 查看云服务监控指标
        云监控服务基于云服务自身的服务属性,已经内置了详细全面的监控指标。当您在云平台上开通云服务后,系统会根据服务类型自动关联该服务的监控指标,帮助您实时掌握云服务的各项性能指标,精确掌握云服务的运行情况。 本章节指导用户如何查看云服务资源的监控数据,若发现有异常时可以及时处理。 操作步骤 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 单击页面左侧的“云服务监控 > 云服务名称 ”。 进入“云服务监控”页面。 4. 选择待查看的云服务资源所在行的“查看监控指标”。 进入“监控指标”页面。 您可以选择页面左上方的时间范围按钮,查看该云服务资源“近1小时”、“近3小时”、“近12小时”、“近24小时”和“近7天”的监控原始数据曲线图,同时监控指标视图右上角会动态显示对应时段内监控指标的最大值与最小值。您也可以打开自动刷新开关来查看每分钟刷新的实时数据。 说明 监控图表中单位为字节和字节每秒的指标支持单位切换。单位切换时,当最大值小于10^(5)时,会出现最大值和最小值同时为0的情况,并且监控图表数据全为0。 打开“自动刷新”开关,可每分钟自动刷新一次数据。 通过搜索框,您可以查找特定指标。 部分服务支持查看资源详情,您可以通过单击页面上方的“查看资源详情”按钮来查看被监控资源的详细信息。 5. 鼠标滑动到对应指标后,单击指标视图右上角的图标。 进入监控详情页面。 监控详情页面提供更长时间范围的指标情况。您可以查看“近1小时”、“近3小时”、“近12小时”、“近24小时”、“近7天”和“近30天”6个固定时长的监控周期,同时也支持以通过“自定义时间段”选择查看近六个月内任意时间段的历史监控数据。 说明 “近1小时”、“近3小时”、“近12小时”、“近24小时”的监控数据:系统默认显示原始数据。您可以选单击页面左上方的“设置”,对监控数据的聚合方法进行更改。 “近7天”、“近30天”的监控数据:系统默认显示聚合后的数据。您可以选单击页面左上方的“设置”,对监控数据的聚合方法进行更改。 6. 在监控视图右上角,单击 ,可创建针对该指标的告警规则。 7. 若需要导出数据,可在云服务监控页面单击“导出监控数据”,跟据界面提示选择参数后单击“导出”完成导出数据。
        来自:
        帮助文档
        云监控服务
        快速入门
        查看云服务监控指标
      • 1
      • ...
      • 290
      • 291
      • 292
      • 293
      • 294
      • ...
      • 435
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      重置密码

      全面了解天翼云⑦:主机安全建议

      慢查询日志

      监控告警

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号