活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云服务平台_相关内容
      • 连接集群
        本章节主要介绍数据仓库服务如何连接集群。 操作场景 您在创建好数据仓库集群,开始使用数据库服务前,需要使用数据库客户端连接到DWS 集群中的数据库。本示例将使用Data Studio客户端工具通过公网地址连接DWS集群中的数据库。您也可以使用其他SQL客户端连接集群,更多连接方式请参见 连接集群的方式。 1.获取所要连接的数据库名称、用户名和密码。 首次使用客户端连接集群时,您需使用创建集群时设置的数据库管理员用户和密码连接到默认数据库“gaussdb”。 2.获取集群公网访问地址:通过集群公网访问地址连接数据库。 3.使用Data Studio连接到集群数据库:下载配置Data Studio客户端并连接集群数据库。 获取集群公网访问地址 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“集群管理”。 3.在集群列表中,选中已创建集群(如dwsdemo),单击“集群名称”前面的向下展开按钮,获取并保存公网访问地址。 该公网访问地址将在使用Data Studio连接到集群数据库时使用。 使用Data Studio连接到集群数据库 1.DWS 提供了基于Windows平台的Data Studio图形界面客户端,该工具依赖JDK,请先在客户端主机上安装Java 1.8.0141或以上版本的JDK。 在Windows操作系统中,您可以访问JDK官方网站,下载符合操作系统版本的JDK,并根据指导进行安装。 2.登录DWS 管理控制台。 3.单击“连接管理”。 4.在“下载客户端和驱动”页面,下载“Data Studio图形界面客户端”。 请根据操作系统类型,选择“Windows x86”或“Windows x64”,再单击“下载”,可以下载与现有集群版本匹配的Data Studio工具。 如果同时拥有不同版本的集群,单击“下载”时会下载与集群最低版本相对应的Data Studio工具。如果当前没有集群,单击“下载”时将下载到低版本的Data Studio工具。DWS 集群可向下兼容低版本的Data Studio工具。 单击“历史版本”可根据集群版本下载相应版本的Data Studio工具,建议按集群版本下载配套的工具。 5.解压下载的客户端软件包(32位或64位)到需要安装的路径。 6.打开安装目录,双击Data Studio.exe,启动Data Studio客户端,如下图所示。 7.在主菜单中选择 “文件>新建连接” ,如下图所示。 8.在弹出的“新建/选择数据库连接”页面中,如下图所示,输入连接参数。 字段名称 说明 举例 数据库类型 选择“GaussDB A” GaussDB A 名称 连接名称。 dwsdemo 主机名 所要连接的集群IP地址(IPv4)或域名。 端口号 数据库端口。 8000 数据库 数据库名称。 gaussdb 用户名 所要连接数据库的用户名。 密码 所要连接数据库的登录密码。 保存密码 在下拉列表中选择: “仅当前会话”:仅在当前会话中保存密码。 “不保存”:不保存密码。 启用SSL 启用时,客户端将使用SSL加密连接方式。SSL连接方式安全性高于普通模式,建议开启。 当“启用SSL”设置为开启时,请先下载SSL证书,并解压证书文件。然后中单击“SSL”页签,设置如下参数: 配置SSL参数 字段名称 说明 客户端SSL证书 选择SSL证书解压目录下的“sslcertclient.crt”文件。 客户端SSL密钥 客户端SSL秘钥只支持PK8格式,请选择SSL证书解压目录下的“sslcertclient.key.pk8”文件。 根证书 当“SSL模式”设为“verifyca”时,必须设置根证书,请选择SSL证书解压目录下的“sslcertcacert.pem”文件。 SSL密码 客户端pk8格式SSL秘钥密码,默认密码为“Gauss@MppDB”。 SSL模式 DWS支持的SSL模式有: require verifyca DWS不支持“verifyfull”模式。 详见下图: 配置SSL参数 9.单击“确定”建立数据库连接。 如果启用了SSL,在弹出的“连接安全告警”提示对话框中单击“继续”。 登录成功后,将弹出“最近登录活动”提示框,表示Data Studio已经连接到数据库。用户即可在Data Studio界面的“SQL终端”窗口中执行SQL语句。 详见下图: 登录成功 欲详细了解Data Studio其他功能的使用方法,请按“F1”查看Data Studio用户手册。
        来自:
        帮助文档
        数据仓库服务
        快速入门
        连接集群
      • 创建备份策略
        本文主要介绍如何创建物理机备份策略。 1. 登录管理控制台。 2. 选择“存储 > 云服务备份”。 进入“云服务备份控制台”。 3. 在左侧导航树选择“策略”,进入“备份策略”页签,单击右上角“创建策略”,创建自定义策略。 4. 设置备份策略信息。各参数说明如下表所示。 参数 说明 备注 策略名称 设置备份策略的名称。 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度小于等于64个字符。 backuppolicy 是否启用 设置备份策略的启用状态。 仅当启用备份策略后,系统才会自动备份所绑定的存储库的服务器和磁盘,并定期删除过期的备份。 备份周期 设置备份任务的执行日期。 按周 指定备份策略在每周的周几进行备份,可以多选。 按天 指定备份策略每隔几天进行一次备份,可设置130天。 每1天 当选择按天备份时,理论上第一次备份的时间为备份策略创建当天。如果当天备份策略创建的时间已经晚于设置的备份时间,那么将会等到第二个备份周期再进行第一次备份。 建议选择无业务或者业务量较少的时间进行备份。 备份时间 设置备份任务在一天之内的执行时间点。 只支持在整点进行备份,同时支持选择多个整点进行备份。 说明 设定的备份时间和控制台实际创建备份的时间可能存在差异。 如需要备份的资源总数据量较大,建议备份执行时间点不宜设置过于紧密。如果单个资源执行备份的时长超过两个备份执行时间间隔,则会跳过第二个备份时间点不进行备份。 例如:某磁盘的备份策略设置的备份时间点为00:00,01:00,02:00。在00:00时,磁盘开始进行备份,由于磁盘此次备份增量数据较大,或者该时间段同时执行的备份任务较多,该次备份任务耗时90分钟,在01:30时完成备份。则01:00的备份时间点会跳过,在02:00时再执行备份,将只会产生两个备份。 备份时间指的是客户端所在的本地时间,并不是指region所在的时区时间。 00:00,02:00 建议选择无业务或者业务量较少的时间进行备份。 备份的业务高峰期在0点到早上6点,建议客户评估业务类型,分散时间备份,如果指定的策略在业务高峰时段,可能会有一定的调度延迟。 全量备份 设置是否定期执行全量备份操作。 开启 开启全量备份可以进一步提高备份数据的安全性,全量备份所占用存储容量也会相应增加。 需要配置全量备份的备份频次,取值范围为0100。0表示每次执行备份均为全量备份。 不开启 备份策略执行增量备份。 说明 全量备份一般耗时较长,全量备份期间由于该资源处于备份中,如有针对该资源的策略或手动执行的备份任务,则会跳过,不会产生其他备份。建议您选择业务闲时再进行备份。 按数量保留备份时,全量备份配置个数需要小于保留的备份数才会进行全量备份,否则不会生成全量备份。 7次 保留规则 设置备份产生后的保留规则。 按数量 单个物理机执行备份策略保留的备份总份数。取值范围为199999个。 按时间 可选择1个月、3个月、6个月、1年的固定保留时长或根据需要自定义保留时长。取值范围为299999天。 高级配置 同时你还可以设置长期保留规则,且长期保留配置与按数量保留之间没有相互影响,共同有效: 保留日备份:取值范围为0100。 保留周备份:取值范围为0100。 保留月备份:取值范围为0100。 保留年备份:取值范围为0100。 例如:日备份,即系统会每天保留最新的一份备份。在本日内,对磁盘进行多次备份后,则只会取本日最后一个备份进行保留。如果选择保留5个日备份,则会选取最新的5个日备份进行保留。超过5个后,系统会自动删除最老的备份。同时设置日备份、周备份、月备份和年备份,则会取并集备份进行保留。即设置保留日备份为5份,周备份1份时,会保留5份备份。长期保留规则与按数量保留可以同时执行,不会产生冲突。 永久保留 说明 当保留的备份数超过设置的数值时,系统会自动删除最早创建的备份,当保留的备份超过设定的时间时,系统会自动删除所有过期的备份;系统默认每隔一天自动清理,删除的备份不会影响其他备份用于恢复。 保留的备份可能将不会在备份策略设置的时间点按时自动删除,将会存在一定的延迟。备份在到期时间后的12点至0点的时间段,进行分批删除。 保留规则仅对备份策略自动调度生成的备份有效。手动执行备份策略生成的备份不会统计在内,且不会自动删除。如需删除,请在备份页签的备份列表中手动删除。 周期性备份产生的失败的备份最多保留10个,保留时长1个月,可手动删除。 在已有某备份的情况下,若下一个备份任务正在进行中,此时删除前一个已有备份的操作将会被拦截,需要等待下一个备份任务结束后,再进行删除操作。 6个月 说明 物理机备份越频繁,保留的备份份数越多或时间越长,对数据的保护越充分,但是占用的存储库空间也越大。请根据数据的重要级别和业务量综合考虑选择,重要的数据采用较短的备份周期,且保留较多的备份份数或较长时间。 5. 设置完成后,单击“立即创建”,完成备份策略的创建。 备份策略列表中增加一条记录。
        来自:
      • 配置生命周期规则
        本节主要介绍如何配置生命周期规则。 您可以为某个桶或某些对象设置生命周期规则。 标准对象可以转换为低频访问、归档对象。 低频访问对象可以转换为归档对象。 指定对象过期删除。 归档对象不能通过设置生命周期规则来转换存储类别。 您可以新建生命周期规则,也可以从其他桶复制已有生命周期规则。 操作步骤 步骤 1 在桶列表单击待操作的桶,进入“对象”页面。 步骤 2 在左侧导航栏,单击“概览”,进入“概览”页面。 步骤 3 在“数据管理”区域下,单击“生命周期规则”卡片,系统跳转至“生命周期规则”界面。 或您可以直接在左侧导航栏单击“数据管理>生命周期规则”,进入“生命周期规则”界面。 步骤 4 单击“创建”,系统弹出如下图所示对话框。 步骤 5 配置生命周期管理规则。 基本信息: “状态”:选中“启用”,启用本条生命周期规则。 “规则名称”:用于识别不同的生命周期配置,其长度需不超过255字符。 “前缀”:可选。 填写前缀:满足该前缀的对象将受生命周期规则管理,输入的对象前缀不能包括 :?"<>特殊字符,不能以/开头,不能两个/相邻。 未填写前缀:桶内所有对象都将受生命周期规则管理。 说明 当按前缀配置时,如果指定的前缀名与某条已配置的生命周期规则指定的前缀名存在包含关系,OBS会将两条规则视为同一条,而禁止您配置本条规则。例如,系统中已存在指定前缀名为“abc”的规则,则不允许再配置指定前缀以“abc”字段开头的规则。 如果已存在按前缀配置的生命周期规则,则不允许再新增配置到整个桶的规则。 当前版本或历史版本: 若桶未启用“多版本控制”,仅可配置“当前版本”。 若桶开启过“多版本控制”,配置界面可见“当前版本”和“历史版本”。 “历史版本”配置项默认不展示,只有当桶开启过“多版本控制”,即多版本控制状态为“已启用”或“暂停”时才会展示。 说明 “当前版本”与“历史版本”是针对“多版本控制”而言的。若开启了“多版本控制”功能,同名的对象上传到同一路径下时,则会产生不同的版本号。最新版本的对象称之为“当前版本”,历史时间上传的对象称之为“历史版本”。 “当前版本”与“历史版本”至少配置一个,也可以两个版本同时配置。 转换为低频访问存储:指定在对象最后一次更新后多少天,受规则影响的对象将转换为低频访问存储。至少设置为30天。 转换为归档存储:指定在对象最后一次更新后多少天,受规则影响的对象将转换为归档存储。若同时设置转换为低频访问存储和转换为归档存储,则转换为归档存储的时间要比转换为低频访问存储的时间至少长30天。若单独设置转换为归档存储,则没有时间限制。 对象过期删除天数:指定在对象最后一次更新后多少天,受规则影响的对象将过期并自动被OBS删除。过期时间必须大于前两个转换时间的最大值。 例如,您于2015年1月7日在OBS中存储了以下几个文件: log/test1.log log/test2.log doc/example.doc doc/good.txt 您于2015年1月10日在OBS中存储了以下几个文件: log/clientlog.log log/serverlog.log doc/work.doc doc/travel.txt 若您在2015年1月10日设置前缀为“log”的对象,过期删除的时间设置为一天,可能出现如下情况: 1月7日上传的两个对象“log/test1.log”和“log/test2.log”,会在最近一次系统自动扫描后被删除,可能在1月10日当天,也可能在1月11日,这取决于系统的下一次扫描在何时进行。 1月10日上传的两个对象“log/clientlog.log”和“log/serverlog.log”,每下一次系统扫描均会判断距上一次对象更新是否已满一天。如果已满一天,则在本次扫描时删除;如果未满一天,则会等到下次扫描再判断,直到满一天时删除,一般可能在1月11日或1月12日删除。 若您在某天设置前缀为“log”的对象,转换为低频访问存储的时间设置为30天,转换为归档存储的时间设置为60天,过期删除的时间设置为100天,OBS将会在“log/clientlog.log”、“log/serverlog.log”、“log/test1.log”和“log/test2.log”这四个对象上传满30天后转换为低频访问存储,满60天后转换为归档存储,满100天后自动删除。 说明 对象上传后,系统会将下一个UTC零点作为对象存储的起始时间开始计算生命周期。生命周期规则执行最长耗时24小时。因此,存储类别的转换以及过期被删除可能会存在延时,且一般不会超过48小时。配置生命周期规则后,如果期间修改了生命周期配置,会重新计算生效时间。 步骤 6 单击“确定”,完成生命周期规则配置。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        生命周期管理
        配置生命周期规则
      • 设置自动备份策略
        定期备份策略 定期备份默认不开启,您可以根据需要选择是否开启。 定期备份周期范围为131号,您可以根据需要选择每月的某一天或某几天(1~31号)进行定期备份,最多选择31天。如果某个月没有定期备份日期,则该次备份跳过。 定期备份时段同周期备份时间段一样。 定期备份保留时长范围为303650天。 定期备份默认是全量实例备份,不支持修改。 如果定期备份和自动周期备份命中同一天,则当天该次备份为定期备份。 跨地域备份策略 跨地域备份默认不开启,您可以根据需要选择是否开启,请注意仅备份空间为对象存储的实例可以开启跨地域备份。 历史备份开关默认不开启,开启历史备份开关意味着已有的历史备份文件将同步至跨地域资源池。如果不开启,则只有新增的备份会同步至跨地域资源池。 目前支持华东1、西南1资源池设置跨地域备份,其中华东1资源池实例支持配置西南1作为跨地域备份资源池, 西南1资源池实例支持配置华东1作为跨地域备份资源池。 表级备份策略 表级备份默认不对用户开放,如您需要设置表级备份策略,请通过工单联系我们开放表级备份的入口。 表级备份是逻辑备份,备份文件包含创建表的DDL文件和表的数据文件。 表级自动备份的备份周期,可选范围包括星期一至星期日。至少选择一周中的2天。 表级自动备份的保留天数默认为7天,可选范围为1~730天,请根据需要设置。保留天数过大,将占用较大备份空间。减少保留天数,会针对已有的备份文件生效,但手动备份不会自动删除。 备份时间段默认为24小时中,间隔一小时中的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段并不是指整个备份任务完成的时间,指的是备份的开始时间,备份时长和实例的数据量有关。由于开启备份会损耗数据库读写性能,建议根据业务情况,选择业务低峰时段作为备份时间段。自动备份只会在备份时间段内执行。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        备份
        设置自动备份策略
      • 用户组添加/移除用户
        本节主要介绍用户组添加/移除用户 企业管理员创建用户组、授权并将用户加入用户组,使IAM用户具备用户组的权限,实现用户的授权。在已授权的用户组中添加或者移除IAM用户,快速实现用户的权限变更。 操作步骤 步骤 1 管理员使用已注册的天翼云帐号登录天翼云官网。 步骤 2 单击右上角账号名,在下拉列表中单击“账号中心”。 步骤 3 账号中心左侧导航栏中,单击“统一身份认证”。 步骤 4 统一身份认证左侧导航栏中,单击“用户组”。 步骤 5 在“用户组”列表页面,单击待调整用户组右侧的“用户组管理”。 步骤 6 在“用户组管理”弹出框,针对待调整的IAM用户单击“添加”或“移除”,确认调整完毕后单击“确认”,完成用户组中用户的添加/移除。
        来自:
        帮助文档
        统一身份认证(二类节点)
        用户指南
        用户组及授权
        用户组添加/移除用户
      • 备份计划类
        修改备份计划的保留规则后,针对历史备份,规则是否也生效? 备份计划的保留规则修改后对历史备份也生效。 保留规则支持永久保留和按时间保留的互相切换,也支持按时间保留的周期修改。 场景举例:保留规则从保留3天改为保留1个月。 某用户在9月1日上午10:00设置备份计划,备份周期为每天凌晨06:00,保留规则为按时间保留3天。9月3日上午10:00,该备份计划下保留了2个历史备份。此时,用户修改了备份计划,将保留规则修改为按时间保留1个月。则直到10月2日凌晨06:00,该备份计划产生的9月2日的历史备份才会被删除。
        来自:
        帮助文档
        云备份 CBR
        常见问题
        备份计划类
      • GetDeleteCapacity
        本节主要介绍GetDeleteCapacity。 此操作用来查询用户删除的容量。 请求参数 名称 描述 是否必须 Action GetDeleteCapacity。 是 BeginDate 指定查询容量的起始时间,统计数据的起始时间为开始日期(时区为:UTC+8)的00:00。 类型:Time 取值:格式为yyyyMMdd。 是 EndDate 指定查询容量的结束时间,返回数据的时间为当天日期(时区为:UTC+8)的最后一个数据。 类型:Time 取值:格式为yyyyMMdd。EndDate不能早于BeginDate。 说明 Freqby5min,EndDate与BeginDate的间隔小于1天。 FreqbyHour,EndDate与BeginDate的间隔小于7天。 FreqbyDay,EndDate与BeginDate的间隔小于30天。 是 StorageClass 指定查询的存储类型。 类型:Enum 取值: ALL:所有存储类型。 STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认值为STANDARD。 否 Bucket 指定查询删除容量的Bucket名称。如果不指定Bucket名称,则表示查询账户下所有Bucket的删除容量之和。 类型:字符串 取值:3~63个字符串,只能由小写字母、数字、短横线()和点(.)组成。 否 Region 指定查询删除容量的数据位置。如果不指定数据位置名称,则表示查询账户下所有数据位置的删除容量之和。 类型:字符串 取值: 对象存储网络:ZhengZhou、ShenYang、ChengDu、WuLuMuQi、LanZhou、QingDao、GuiYang、WuHu、WuHan、ShenZhen、SH2、SuZhou。 对象存储网络2:NeiMeng1、HangZhou1。 香港节点:HongKong。 否 Freq 指定返回统计数据的采样粒度。 类型:Enum 取值: by5min:统计数据的采样粒度为5分钟。 byHour:统计数据的采样粒度为1小时。 byDay:统计数据的采样粒度为1天。 默认值为byHour。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        统计分析
        统计API
        GetDeleteCapacity
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 数据库连接
        本章节主要介绍操作类问题中的数据库连接问题。 DWS是否支持第三方客户端以及JDBC和ODBC驱动程序? 推荐使用DWS客户端和驱动程序。 与开源的PostgreSQL客户端和驱动程序相比,有两个主要的优点: 安全强化:PostgreSQL驱动程序只支持MD5认证,但DWS 驱动程序支持SHA256和MD5。 数据类型增强:DWS驱动程序支持新的数据类型smalldatetime和tinyint。 DWS支持开源PostgreSQL客户端和JDBC和ODBC驱动程序。 兼容的客户端和驱动程序版本如下: PostgreSQL的psql 9.2.4或更高版本 PostgreSQL JDBC驱动程序9.31103或更高版本 PSQL ODBC 09.01.0200或更高版本 使用JDBC/ODBC连接DWS,可参见数据仓库服务用户开发指南文档中的《教程:使用JDBC或ODBC开发》。 可以通过SSH连接DWS集群的节点吗? 不可以。 DWS底层通过虚拟机实现数据分析功能,即DWS的计算节点。但您不能通过SSH方式直接连接DWS 计算节点,您仅能通过DWS服务提供的内网或公网访问地址连接相应的DWS 集群数据库。 无法连接数据仓库集群时怎么处理? 检查原因 基本原因可能有以下几种: 集群状态是否正常。 连接命令是否正确,用户名、密码、IP地址或端口无误。 安装客户端的操作系统类型、版本是否正确。 安装客户端的操作是否正确。 如果是在云平台环境无法连接,还需要检查以下可能导致异常的原因: 弹性云主机是否与集群在相同可用区、虚拟私有云、子网和安全组。 安全组的出入规则是否正确。 如果是在互联网环境无法连接,还需要检查以下可能导致异常的原因: 用户网络是否与互联网可以正常连通。 用户网络防火墙策略是否限制了访问。 用户网络是否需要通过代理才能访问互联网。
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        数据库连接
      • 步骤一(2):创建出云迁移任务
        本节主要介绍步骤一(2):创建出云迁移任务 数据库复制服务提供出云的功能,可以将本云上的数据库迁移至用户端数据库,方便进行数据回流处理。 本章节将以RDS for MySQL到ECS自建MySQL的迁移为示例,介绍在同一VPC网络场景下,通过数据库复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 VPC网络适合本云内数据库之间的迁移。在数据库复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务向导,可以完成任务信息配置、任务创建。迁移任务创建成功后,您也可以通过数据库复制服务管理控制台,对任务进行管理。 目前数据库复制服务支持每个用户最多可创建5个实时迁移任务。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时迁移支持的数据库类型。 满足出云迁移的限制条件。 操作步骤 1、在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 2、在“迁移实例”页面,填任务名称、任务异常通知设置、时延阈值、描述、迁移实例信息。 图 迁移任务信息 表 任务和描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当迁移任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 迁移实例信息 表 迁移实例信息 参数 描述 数据流动方向 选择出云。 出云指源端数据库为本云数据库的场景。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 目前支持公网网络、VPC网络和VPN、专线网络类型,您可以根据具体的业务场景进行设置,此处场景以VPC网络为示例。 VPC网络:适合云上数据库之间的迁移。 VPN、专线网络:适合通过VPN、专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 公网网络:适合将其他云下或其他平台的数据库迁移到目标数据库。 源数据库实例 用户需要迁移的数据库实例。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 3、在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,并单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 源数据库对应的数据库用户名。 数据库密码 源数据库对应的数据库密码。任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 源数据库的用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 VPC 目标数据库所在的虚拟专用网络,可以对不同业务进行网络隔离。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 所有Definer迁移到该用户下 是 迁移后,所有源数据库对象的Definer都会迁移至该用户下,其他用户需要授权后才具有数据库对象权限。 否 迁移后,将保持源数据库对象Definer定义不变,选择此选项,需要配合下一步用户权限迁移功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 说明: 目标数据库的IP地址、端口、用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 4、在“迁移设置”页面,设置迁移用户和迁移对象等信息,单击“下一步”。 图 迁移模式 表 迁移模式 参数 描述 快照模式 如果您选择的是全量迁移模式的任务,数据库复制服务支持设置快照模式。 非快照式 适用于停止业务数据写入的导出,如果全量迁移中仍然有业务数据的修改,则导出数据为时间点非水平一致。稳定性和性能要优于快照式全量迁移。 快照式 可以在业务运行时产生一份时间水平一致的快照数据,具有业务数据分析价值,过程中的数据变化不会体现在导出数据中。 说明 快照读会使用MySQL备份锁进行全局锁表,在开启一致性读后自动解锁(加锁时间在3s以内),备份锁会对此期间的DML或者DDL操作造成阻塞,建议用户选择源库空闲的时间段使用快照备份功能。 目前仅MySQL全量模式的迁移任务支持快照模式设置。 是否过滤DROP DATABASE 增量迁移过程中,源数据库端执行的DDL操作在一定程度上会影响数据的迁移能力,为了降低迁移数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示数据迁移过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示数据迁移过程中将相关操作同步到目标库。 说明 目前仅支持RDS for MySQL实例>MySQL数据库数据库的全量+增量的迁移场景。 迁移用户 数据库的迁移过程中,迁移用户需要进行单独处理。 常见的迁移用户一般分为三类:可完整迁移的用户、需要降权的用户和不可迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,选择“迁移”后,可根据需要选择迁移用户。 迁移 当您选择迁移用户时,请参见《数据库复制服务用户指南》中“迁移用户”章节进行数据库用户、权限及密码的处理。 不迁移 迁移过程中,将不进行用户、权限和密码的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的按钮,以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 5、在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作 6、在“任务确认”页面,选择迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 说明 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,强烈建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 7、迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(2):创建出云迁移任务
      • 操作手册
        本文介绍CDN加速产品操作手册的下载路径。 用户操作手册:天翼云CDN加速产品操作手册.pdf。
        来自:
        帮助文档
        CDN加速
        文档下载
        操作手册
      • 步骤一:购买DRDS实例
        在使用DRDS前,您需要先创建DRDS实例。本文介绍如何创建DRDS实例。 注意事项 仅华东1、西南1和青岛20这三个资源池支持选择多个可用区、性能类型和企业项目。 V5.1.9.6020.2530及以后版本,创建实例时,Giserver与DBProxy合并部署,不再区分DBProxy和Giserver两种实例。 注意 当您需要使用GiServer时,只需开启GiServer服务,具体操作,请参见开启全局索引。 V5.1.9.6020.2533及以后版本,创建实例时,支持关联与DRDS实例相同网络的MySQL实例,或同步创建全局Binlog日志节点。 操作步骤 1. 进入DRDS实例订购页面。 方法一: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表上方,单击创建实例 ,进入DRDS实例订购页面。 方法二: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击立即开通,进入DRDS实例订购页面。 2. 在顶部菜单栏,选择区域和项目。 2. 根据实际情况,配置如下实例相关参数。 模块 参数 描述 基本信息 组件引擎和版本 选择DRDS实例组件引擎和版本: 引擎:DRDS 版本:1.0 基本信息 区域 实例所在区域,支持在顶部菜单栏左上角切换到其他区域。 注意 不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 基本信息 计费模式 支持包年/包月和按需计费(部分资源池显示为按需)两种模式: 包年/包月:选购完服务配置后,需设置购买时长,系统将一次性按照购买价格对账户余额进行扣费。 按需计费:选购完服务配置后,无需设置购买时长,系统会根据消费时长对账户余额进行扣费。 注意 贵州3、北京5暂不支持按需计费。 基础配置 可用区 可选择1个或多个可用区,跨可用区部署可以提升DRDS实例的高可用性,实现跨可用区的容灾能力。 仅部分资源池支持选择多个可用区,详见注意事项。 注意 若选择2个可用区,DRDS实例的节点数量是单可用区的2倍。 实例配置 计算节点数量 DRDS实例的计算节点数量,不同实例类型支持不同的节点数量,其中,每个可用区最多支持6个节点。 请根据业务所需的计算能力,选择合适的节点数量。创建后可通过规格变更进行扩容。 说明 部分资源池不支持配置单节点规格 和节点数量 ,支持配置实例规格 ,即支持选择DRDS实例的总规格(总规格单节点规格节点数量)。不同实例类型支持不同的实例规格,详见规格。 实例配置 CPU类型 DRDS的实例节点类型,默认为X86。 注意 部分资源池支持ARM,具体以控制台显示为准。 实例配置 性能类型 节点规格支持多种类型,例如通用型 、计算增强型 、内存优化型 等类型,具体性能类型信息,请参见规格。 支持选择不同代系主机,代系越高,性能与稳定性等整体表现越好。 为了使所购买的DRDS实例能更好地满足应用需求,您需要根据业务需求,评估所需要的服务能力和规模,选择合适的性能类型。 说明 部分资源池此配置项名称为主机类型,则不支持选择节点规格,仅支持选择主机代系,请以实际页面为准。 实例配置 单节点规格 请选择单节点的CPU和内存。 实例配置 日志节点 全局Binlog的日志节点,支持: 现在创建:创建DRDS时,同时创建日志节点。此时,您需要配置日志节点数量、所在的可用区和性能规格。 注意 仅支持1个日志节点。 使用时创建 :创建DRDS实例后,如您需要使用日志节点,只需在目标实例的日志节点管理页面创建日志节点即可。 实例配置 实例名称 DRDS实例的名称。 名称不能为空,长度为4到50位的字符。 实例配置 标签 您可以为实例绑定标签,对实例进行分类管理。 最多支持添加50个标签。 企业项目 企业项目 企业项目提供了对云资源进行分组管理,不同企业项目下的资源逻辑隔离,但不影响业务关联。仅部分资源池支持选择企业项目,详见注意事项。 网络 虚拟私有云 DRDS实例所在的虚拟专用网络,可对不同业务进行网络隔离,您可以根据需求选择所需的虚拟私有云。 DRDS实例选择的虚拟私有云要与MySQL实例一致,以保证网络连通。另外,建议DRDS实例与应用程序处于同一虚拟私有云下,避免网络原因造成性能损耗。 网络 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效。 网络 安全组 安全组限制实例的安全访问规则,加强DRDS与其他服务间的安全访问。建议DRDS实例与应用程序、MySQL实例选择相同的安全组,确保三者网络访问不受限制。如果选择了不同的安全组,请注意添加安全组访问规则,开通网络访问。 关联数据库实例 数据库实例 关联与DRDS实例相同网络的MySQL实例。 在数据库实例 列表中选中目标MySQL实例后,单击绑定,即可为DRDS实例关联该MySQL实例。 购买量 购买时长 当计费模式 选择包年/包月时,才需要选择购买时长,单次最多支持购买5年。 购买量 购买数量 当计费模式 选择包年/包月时,支持批量创建实例,单次最多可批量购买5个实例。系统会自动计算对应的配置费用,购买时间越长,折扣越多。 当计费模式 选择按需时,单次只能购买1个实例。 购买量 自动续订 包年包月的实例支持自动续订。 按月购买的实例,自动续订周期为1个月。 按年购买的实例,自动续订周期为1年。 3. 在页面右侧的当前配置中,查看当前实例配置。 4. 在页面右下角阅读并勾选协议,然后单击确认订单。 5. 在订单支付详情页面,确认订单信息无误后,选择付费方式,完成支付。 6. 支付完成后,回到控制台的DRDS > 实例管理页面,查看和管理该实例。 您可以看到实例状态 为创建中 ,当实例创建成功后,实例状态 显示为运行中 。
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤一:购买DRDS实例
      • 开发机镜像
        本节介绍如何制作和使用开发机镜像。 平台提供通过控制台基于开发机制作镜像能力,可将当前开发机容器的文件系统(除挂载的数据集目录之外)及配置等打包推送到智算套件创建的私有镜像仓库。 定制开发机镜像 在开发机中安装软件包或者python库文件 保存开发机镜像 在 “AI应用开发” 列表中,在对应的开发机列表 “操作” 栏中点击 “保存镜像”,保存镜像的过程中会暂停当前的开发机容器。 填写保存的镜像名称和镜像版本等信息 查看镜像保存任务列表 等待任务成功后会将该镜像自动推送到容器镜像仓库。 使用开发机镜像 创建开发机私有框架,在 “AI应用管理>AI框架>私有框架>创建框架” 。 填写框架元数据信息,注意业务场景选择 “notebook”,框架类型选择 “JupyterLab”(如果是基于VSCode开发机保存的镜像则选择VSCode),以便在创建开发机时可以正确筛选到该私有框架,镜像选择保存开发机镜像时填写的镜像名。 创建开发机,选择创建好的私有框架
        来自:
        帮助文档
        智算套件
        用户指南
        应用开发
        NoteBook
        开发机镜像
      • 计算加速型P2v
        P2v型弹性云主机功能如下: 处理器与内存配比为1:8。 处理器:英特尔® 至强® 可扩展处理器 6151, 主频3.0GHz,睿频3.4GHz。 支持NVIDIA Tesla V100 GPU卡,每台云主机支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用16GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力 网络自定义,自由划分子网、设置网络访问策略;海量存储,弹性扩容,支持备份与恢复,让数据更加安全;弹性伸缩,快速增加或减少云主机数量。 灵活选择 与普通云主机一样,P2v型云主机可以做到分钟级快速发放。 优秀的超算生态 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。 常规软件支持列表 P2v型云主机主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2v型云主机。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、VRay for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        计算加速型P2v
      • 日志
        本文介绍如何在Go运行环境下使用Go SDK、其它日志库提供的方法打印日志。 打印日志 当需要查看函数运行相关的自定义状态时,可以使用如下几种方式打印日志至标准输出stdout。往标准输出stdout打印的日志内容会被函数收集。 以下分别介绍所使用的几种日志打印方法。 使用context.GetLogger()方法打印日志 函数计算平台提供的Go SDK包含了 GetLogger()方法打印日志,使用该方法打印的每条日志中都包含日志级别、RequestId、时间、文件名和行号等信息。示例代码如下: package main import ( "context" "gitee.com/ctyunfaas/cfruntimegosdk/cf" "gitee.com/ctyunfaas/cfruntimegosdk/fccontext" ) func HandleRequest(ctx context.Context) (string, error) { fctx, : fccontext.FromContext(ctx) fctx.GetLogger().Info("Hello info") fctx.GetLogger().Infof("Hi, %sn", "info") fctx.GetLogger().Warn("Goodbye warn") fctx.GetLogger().Warnf("Byebye, %sn", "warn") return "hello world", nil } func main() { cf.Start(HandleRequest) } 函数被执行后,会输出以下日志: 20240311 18:46:00.102699 d0c5bc99e0a94d82beb02b23185640ea [INFO] main.go:12: Hello info 20240311 18:46:00.102715 d0c5bc99e0a94d82beb02b23185640ea [INFO] main.go:13: Hi, info 20240311 18:46:00.102725 d0c5bc99e0a94d82beb02b23185640ea [WARN] main.go:15: Goodbye warn 20240311 18:46:00.102729 d0c5bc99e0a94d82beb02b23185640ea [WARN] main.go:16: Byebye, warn
        来自:
      • 控制台
        本小节介绍态势感知控制台功能。 控制台用来统计分析用户单位的资产情况、所面临的威胁情况、单位整体的安全态势评分、威胁资产、漏洞资产、威胁方、实时消息提示及威胁情报。 控制台首行数字贴:统计资产总量、高危漏洞资产、受攻击资产、失陷主机、勒索软件主机、恶意软件主机、漏洞利用主机、威胁总量。 安全态势评分:是系统基于当前单位的资产情况、漏洞情况、威胁情况量化出来的一个分值。 分值越高,表示系统安全系数越高。 系统的安全级别分为:优、良、中、差、危五个级别。 资产威胁排行:根据最近24小时的异常行为次数统计了风险资产的top5。 资产漏洞排行:根据最近24小时的漏洞数值统计了风险资产的top5。 威胁方排行:根据最近24小时的攻击情况,统计了威胁方top5。 实时地图、实时威胁:展示系统检测到的实时异常行为情况,攻击线表示威胁方针对资产的异常行为,箭头代表了攻击方向。 消息提示:展示系统产生的操作提示,高危漏洞、威胁等检测结果,动态滚动提示。 威胁情报:对接国家中心的威胁预警,包括漏洞公告、恶意代码通告等。 安全资讯:对接国家中心的安全态势报告,包括网络安全信息与动态周报、国家信息安全漏洞共享平台周报、CNCERT互联网安全威胁报告等。
        来自:
        帮助文档
        态势感知
        用户指南
        控制台
      • 黑名单规则
        本节介绍黑名单规则的创建流程,以及相关配置项的说明。 绑定黑名单规则的桌面,无法运行黑名单列表中的应用,当桌面运行黑名单中应用时会被阻止,且用户无法向管理员发起应用放行申请。 黑名单应用库 管理员可在平台应用库中,快速选择应用添加到黑名单列表。 管理员也可以创建一个企业专属的黑名单应用库用于自定义维护,具体操作如图示: 1.创建一个专用桌面,将希望禁止的应用安装至桌面中,此桌面可作为后续运维桌面; 2.进入黑名单规则,选择租户应用库并点击管理; 3.在页面中点击新增,进入获取应用的弹窗界面; 4.选择“步骤1”中设置好的桌面点击“获取”,即可从该桌面获取已安装的应用列表,选择应用添加至黑名单租户应用库中即可。 注:在专用桌面中,建议使用“应用辅助工具”进行应用安装,便于提取相关应用的完整信息,此类信息可用于黑名单列表的创建。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        应用市场
        管理员指南
        应用管控
        黑名单规则
      • 菜单自定义
        本节介绍云智助手支持企业自定义配置菜单和应用(智能体)的功能。 天翼AI云电脑云智助手,支持按需调整菜单及顺序,配置更适合自己的AI应用,提升便利性。 【操作步骤】 1.使用管理员账号登录AI云电脑,打开云智助手,点击右上角头像,打开“设置”功能;(如无管理员账号,请先创建账号,详见管理账号) 2.进入“管理菜单”界面,在“选择企业”列表中选择您的企业名称,打开"开启自定义菜单"开关,点击蓝色按钮"跳转到自定义菜单"开始配置; 3.进入自定义菜单页面,点击“+添加一级菜单”,“+添加二级菜单”,进行菜单的添加; 4.点击“+新增应用”进行应用添加,新增应用有两种来源可选择; 从已有模板中选择:是指AI应用中心平台已上架的AI应用,通过搜索选择应用进行新增。 自定义:可根据需求填写应用标题、介绍、提示词进行应用新增。 外部链接:通过外部网页链接来创建应用模版。需输入以 https:// 或 http:// 开头的外部网页地址,长度不超过 2000 字符,应用将基于该链接内容创建。 5.管理员完成自定义菜单和应用设置后,普通用户重新登录云智助手即可查看管理员设置的自定义菜单和应用。
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        管理员指南
        菜单自定义
      • 查看组件信息
        本页介绍天翼云TeleDB数据库如何查看组件信息。 1. 以用户名和密码登录分布式数据库TeleDB控制台,单击系统参数 > 组件信息 ,进入组件信息页面。 2. 在选择下拉框选择组件类型 ,单击查询 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        系统消息
        查看组件信息
      • 登录
        本小节介绍服务器安全卫士的控制台登录方法。 登录步骤 登录云平台后, 进入控制中心“服务器安全卫士”,点击订单对应的“控制台”按钮,可登录服务器安全卫士控制台。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        快速入门
        登录
      • 登录
        本小节介绍服务器安全卫士的控制台登录方法。 登录步骤 登录云平台后, 进入控制中心“服务器安全卫士”,点击订单对应的“控制台”按钮,可登录服务器安全卫士控制台。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        快速入门
        登录
      • 将SQL Server迁移到SQL Server
        增量数据迁移支持的SQL操作 DML INSERT、UPDATE、DELETE。 DDL 仅支持 CREATE TABLE、 ALTER TABLE(仅包含ADD COLUMN、DROP COLUMN)、 DROP TABLE、 CREATE INDEX、DROP INDEX、 CREATE SCHEMA、DROP SCHEMA 注意 不支持分区、表定义内部包含函数; 数据库账号及权限 数据库 所需权限 参考赋权语句 源库 全量迁移: 需要具备sysadmin、dbowner、dbdatareader、dbdatawriter的其中一个角色权限。 增量迁移: 需要具备sysadmin角色的权限。 授予用户sysadmin角色权限: ALTER SERVER ROLE sysadmin ADD MEMBER 用户名; 授予用户dbdatareader角色权限: ALTER SERVER ROLE dbdatareader ADD MEMBER 用户名; 授予用户dbdatawriter角色权限: ALTER SERVER ROLE dbdatawriter ADD MEMBER 用户名; 目标库 目标库为天翼云RDS for SQL Server 客户配置迁移实例的目标库连接时只需要填入普通用户即可,DTS会自动创建数据库并将该数据库的dbowner权限授予配置的用户。 目标库为自建库或其他云数据库 需要具备sysadmin角色权限。 目标库为天翼云RDS for SQL Server 无需额外进行赋权,DTS会自动创建数据库并将该数据库的dbowner权限授予配置的连接目标库的普通用户。 目标库为自建库或其他云数据库时,授予用户sysadmin角色权限: ALTER SERVER ROLE sysadmin ADD MEMBER 用户名; 注意 当目标库为天翼云RDS SQL Server时,客户配置迁移实例的目标数据库连接时只需要填入普通用户即可,DTS会自动创建数据库并将该数据库的db owner权限授予配置的用户。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将SQL Server迁移到SQL Server
      • 日志节点监控
        本文为您介绍日志节点的监控信息,包括主机的CPU、内存、磁盘使用率等,以及节点的trx处理数、binlog event个数、binlog文件写入量等信息。 注意 仅V5.1.9.6020.2541及以后版本的实例,支持该功能。 监控说明 支持展示日志节点和所在主机的多个维度监控数据,主要分类如下: 主机:包括主机的CPU使用率、内存使用率、磁盘使用率和磁盘容量监控信息。 节点 :包括trx处理数、binlog event数、sync操作处理数、trx 写入数量、binlog文件写入量、binlog文件生成数量、trx write queue、trxdis queue、缓存使用量、binlog总大小、通道复制延迟和通道buffer pool监控信息。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览 页面。 2. 在左侧导航栏,选择DRDS > 实例管理 ,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息 页面。 4. 单击监控管理,进入实例监控管理页面。 说明 您也可以在实例基本信息 页面,单击实例名称右侧的查看监控,进入实例监控管理页面。 5. 单击日志节点页签。 说明 您可以根据实际情况,查看近1小时、6小时、1天或者3天的监控信息,也可以自定义时间段查看监控信息。 您可以单击右侧的图标,设置您需要展示的监控项。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        监控管理
        日志节点监控
      • 存储库类问题
        本文汇总了云硬盘备份在存储库的使用过程中可能遇到的问题。 如何估算要购买的存储库大小? 手动备份场景 如果仅进行一次性手动备份,建议存储库容量大于等于所需要备份云硬盘的分配空间总和的1.2倍。 自动备份场景 如果需要周期性自动备份,可以使用以下公式估算应创建的存储库大小: 存储库容量(GB) (云硬盘容量(GB) + 备份保留时长(天) / 备份周期(天) 云硬盘每日变化数据量(GB)) 120% 说明:如果备份策略的保留规则是按数量保留,也可以通过换算为保留时长进行计算。例如,某公司每天进行1次备份,保留数量设置为30份,则可以换算为保留时长为30天。 您可以按照上述公式完成估算后,再根据实际业务情况进行调整。 估算案例 如某公司拥有一台500GB的云主机,已经使用100GB。计算存储库容量时需要使用云硬盘容量而非使用量,取500GB。每天的数据变化量大约在5GB左右,该公司计划的备份策略为每天凌晨00:00进行1次备份,备份保留时长为1个月。则该公司购买的云硬盘备份存储库大小可以通过公式进行估算: 存储库容量(500+(30/1) 5)120%780GB 云硬盘备份的存储库可以合并吗? 不可以。在天翼云中,存储库不支持合并。 如果您的存储库容量不足,建议您扩容存储库。
        来自:
        帮助文档
        云硬盘备份 VBS
        常见问题
        存储库类问题
      • 连接使用DRDS实例过程中有哪些常见问题?
        原因分析 客户端IP xxx 违反IP黑白名单,禁止连接。 解决方法 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 分布式关系型数据库】,进入分布式关系型数据库产品页面。然后单击【管理控制台】,进入【概览】页面。 2. 在左侧导航栏,选择【DRDS > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,选择出现异常的DRDS实例,单击【管理】,进入实例【基本信息】页面。 4. 单击“分组管理”,选中默认分组,点击“更多”菜单,点击“IP黑白名单”,将需要连接的机器IP或者网段加入到白名单范围内,并从黑名单中移除这些允许访问的IP。无需重启,在线生效。 5. 另外,在天翼云DRDS控制台界面使用时出现DBProxy连接失败,也可能是IP黑白名单导致。 问题4:创建表时,提示"DDL审计未通过" 原因分析 建表语句违反DDL审计规则。 解决方法 1. 用户评估该条DDL审计规则是否合理,若不合理,可以关闭该条DDL审计规则。 2. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 分布式关系型数据库】,进入分布式关系型数据库产品页面。然后单击【管理控制台】,进入【概览】页面。 3. 在左侧导航栏,选择【DRDS > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 4. 在实例列表中,选择出现异常的DRDS实例,单击【管理】,进入实例【基本信息】页面。 5. 单击“DDL审计”,选中某条规则并关闭。无需重启,在线生效。 问题5:执行SQL时,提示Illegal sql statement
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        操作类
        连接使用DRDS实例过程中有哪些常见问题?
      • 同VPC使用多NAT网关
        步骤二: 购买弹性IP 1. 登录天翼云控制台,选择“网络>弹性IP”。 2. 进入弹性IP控制台,点击右上角“申请弹性IP”。 3. 按需求选择带宽规格,购买数量选择2,单击“下一步”。 4. 确定规格,选择我已阅读并同意相关协议,单击“确认下单”,完成弹性IP创建。 步骤三:购买NAT网关 1. 登录天翼云控制中心。 2. 在系统首页,单击“网络>NAT网关”。 3. 选择付费方式,填写名称,选择可用区,VPC选择环境准备中的创建的VPC,选择规格,点击“下一步”。 4. 确认规格,选择我已阅读并同意相关协议,单击“确认下单”,完成NAT网关的创建。 5. 重复上述操作,创建第二个NAT网关实例 “NAT网关2”。 步骤四: 添加路由规则 1. 登录天翼云控制中心,选择“网络>虚拟私有云”。 2. 在虚拟私有云页面,单击“路由表”,进入路由表列表页。 3. 单击“创建路由表”,进入路由表创建,分别创建路由表1和 路由表2。 4. 进入路由表1,关联子网1,然后添加一条新的路由,根据界面提示,配置路由相关参数: IP类型 : 选择IPV4 目的地址 : 0.0.0.0/0 下一跳类型: 选择NAT网关 NAT网关:NAT网关1 5. 配置好相关参数后,点击“确定”即完成路由添加。 6. 进入路由表2,关联子网2,然后添加一条新的路由,根据界面提示,配置路由相关参数: IP类型 : 选择IPV4 目的地址 : 0.0.0.0/0 下一跳类型: 选择NAT网关 NAT网关:NAT网关2 7. 配置好相关参数后,点击“确定”即完成路由添加。
        来自:
        帮助文档
        NAT网关
        NAT网关实践方案
        同VPC使用多NAT网关
      • GetRestoreCapacity
        名称 描述 是否必须 Action GetRestoreCapacity。 是 BeginDate 指定查询数据取回量的起始时间,统计数据的起始时间为开始日期(时区为:UTC+8)的00:00。 类型:Time 取值:格式为yyyyMMdd。 是 EndDate 指定查询数据取回量的结束时间,返回数据的时间为当天日期(时区为:UTC+8)的最后一个数据。 类型:Time 取值:格式为yyyyMMdd。EndDate不能早于BeginDate。 说明 Freqby5min,EndDate与BeginDate的间隔小于1天。 FreqbyHour,EndDate与BeginDate的间隔小于7天。 FreqbyDay,EndDate与BeginDate的间隔小于30天。 是 StorageClass 指定查询的存储类型。 类型:Enum 取值: ALL:所有存储类型。 STANDARADIA:低频访问类型。 默认值为ALL。 否 Bucket 指定查询数据取回量的Bucket名称。如果不指定Bucket名称,则表示查询账户下所有Bucket的数据取回量之和。 类型:字符串 取值:3~63个字符,只能由小写字母、数字、短横线()和点(.)组成。 否 Region 指定查询数据取回量的数据位置。如果不指定数据位置名称,则表示查询账户下所有数据位置的数据取回量之和。 类型:字符串 取值: 对象存储网络:ZhengZhou、ShenYang、ChengDu、WuLuMuQi、LanZhou、QingDao、GuiYang、WuHu、WuHan、ShenZhen、SH2、SuZhou。 对象存储网络2:NeiMeng1、HangZhou1。 香港节点:HongKong。 否 Freq 指定返回统计数据的采样粒度。 类型:Enum 取值: by5min:统计数据的采样粒度为5分钟。 byHour:统计数据的采样粒度为1小时。 byDay:统计数据的采样粒度为1天。 默认值为byHour。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        统计分析
        统计API
        GetRestoreCapacity
      • 威胁分析
        本节介绍威胁分析能力。 当告警列表中积累了较多威胁告警信息时,您可以使用“威胁分析”功能,从“攻击源”或“被攻击资产”的维度分析网络攻击情况。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版) ”,进入态势感知管理页面。 3. 在左侧导航栏选择“威胁告警”,进入威胁告警页面后,选择“威胁分析”页签,进入威胁分析管理页面。 4. 在下拉框中选择条件“攻击源”或“被攻击资产”、“发生时间”,并输入待查询的IP地址,单击“开始分析”。 说明 发生时间可选择“今天”、“昨天”、“近3天”、“近7天”、“近30天”、“近半年”。 5. 在列表栏查看符合过滤条件的威胁信息,可以直观看到该攻击源对哪些资产发起了何种类型的攻击,或被攻击资产遭到了哪些攻击。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        威胁告警
        威胁分析
      • 事件回调
        本文将为您介绍事件回调。 通过HTTP批量推送方式可以拉取签名,模板审核状态消息(EventReport)。 协议说明 参数 说明 :: 协议 HTTP+JSON 编码 UTF8 请求说明 请求内容为JSON格式,单次请求仅包含一条审核状态报告。 请求样例 { "type":"sign", "status":1, "source":"天翼云", "reason":"通过", "createTime":"20190530 19:58:25" } 字段说明 名称 类型 是否必选 示例 描述 ::::: type String 必选 sign sign:签名。 template:模板。 reason String 必选 文件不能证明信息真实性,请重新上传 审核未通过原因。 status String 必选 审核状态 1:审核通过。 2:审核不通过。 source String 必选 天翼云 签名名称或者模板编号 createTime String 可选 20230913T09:39:02.828Z 创建时间 响应说明 响应样例 { "code" : 0, "msg" : "接收成功" } 字段说明 名称 类型 是否必选 说明 示例值 ::::: code Number 必选 应答编码 0 msg String 可选 描述信息 接收成功 说明: httpStatus必须是200。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        API参考
        回调消息
        事件回调
      • 为企业项目关联用户组并授权
        本节指导您如何为企业项目关联用户组并授权。 操作场景 将用户组与企业项目关联,并为其设置一定的权限策略,该用户组中的用户即可拥有策略定义的对该企业项目中资源的使用权限。 操作步骤 步骤 1 企业管理员使用已注册的天翼云帐号登录天翼云网门户,单击天翼云首页顶部右侧“控制台”。 步骤 2 在控制台首页顶部右侧,单击您的用户名后弹出下拉菜单,单击“企业管理”。 步骤 3 在企业项目管理页面,单击待查看的企业项目的名称。 步骤 4 系统进入企业项目详情页面,在“权限管理”页签中单击“用户组授权”。 系统将跳转至IAM的用户组页面,在“用户组”页签中为企业项目关联用户组并授权。 具体操作方法可参考IAM帮助文档:创建用户组并授权。
        来自:
        帮助文档
        企业项目管理
        用户指南
        企业项目人员管理
        为企业项目关联用户组并授权
      • IPv6配置
        本文介绍IPv6功能和配置规则。 功能介绍 天翼云CDN节点已经支持接收IPv6协议的请求,开启IPv6后,当您的用户处于IPv6环境,客户端可以通过IPv6协议访问天翼云CDN节点。 配置说明 新增域名: 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】,单击【添加域名】。 3. 添加域名时,IPv6开关默认开启,如您不需要IPv6可选择关闭。 修改IPv6解析: 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名【IPv6解析】列。 4. 单击【】,弹出提示框。 5. 单击【确定】,完成配置。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        基础配置
        IPv6配置
      • 跨VPC后端IP
        操作场景 天翼云后端主机组不仅可以添加同一VPC内的云主机作为后端主机,还支持通过跨VPC后端功能将其他VPC的IP地址添加为后端主机。 使用须知 添加跨VPC后端IP功能目前仅在集群模式资源池上线。主备、集群模式资源池列表见产品简介​>产品类型和规格​>按资源池区分, 实际情况以控制台展现为准。 跨VPC后端IP添加仅支持同账号对等连接的对端VPC后端主机以IP形式添加,不支持添加跨账号的VPC内资源。该功能需要加白名单开通。 您最多可添加100个跨VPC后端IP,如需要申请更多,则需申请增加配额。 操作步骤 1. 登录天翼云控制中心。 2. 选择网络>弹性负载均衡>负载均衡器”。 3. 单击已创建的负载均衡器实例名称。 4. 在该负载均衡详情界面,选择“后端主机组”标签。选定特定的后端主机组,选择跨VPC后端IP类型,点击“添加”按钮。 5. 在弹出添加跨VPC后端IP窗口,依据跨VPC后端IP参数配置完成添加跨VPC后端IP参数配置。 6. 点击“增加一条跨VPC后端IP”新增一行,可连续添加多行。点击“确定”按钮,完成添加跨VPC后端IP设置。 跨VPC后端IP参数配置 跨VPC后端IP配置 说明 选择网络 选择ELB实例所在VPC之外的其它VPC,从下拉列表框选择。 批量添加端口 跨VPC后端IP的服务端口一致时,可在此输入框输入端口,点击确定自动填充所有跨VPC后端IP的端口设置。 后端IP添加 填写跨VPC后端IP、端口、权重,权重不填写缺省为1,支持移除操作;端口范围为165535;权重取值范围为 1 256。 添加完成后,如有需要您可以移除跨VPC后端IP 或者修改端口、权重。
        来自:
      • 1
      • ...
      • 211
      • 212
      • 213
      • 214
      • 215
      • ...
      • 576
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      训推服务

      AI Store

      一站式智算服务平台

      智算一体机

      人脸实名认证

      推荐文档

      上传资料常见问题

      报账单据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号