活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云备份_相关内容
      • 通过kubectl访问集群
        本节介绍了通过kubectl访问集群的用户指南。 前提条件 您已经创建了一个天翼云的账号,并且有一个云容器引擎集群。 您已经安装并配置好了kubectl工具。如果尚未安装,请参考安装和设置kubectl。 获取集群的访问凭证 登录云容器引擎控制台,单击集群名称进入集群。 在集群信息页中,点击连接信息。 点击内网访问,复制kubeconfig文件内容,将该内容复制到$HOME/.kube/config文件下。 配置kubectl 打开终端,设置KUBECONFIG环境变量,使kubectl使用正确的配置文件: plaintext export KUBECONFIG$HOME/.kube/config 验证配置文件是否正确: plaintext kubectl config view 这将显示当前kubeconfig文件的内容,确保包含您下载的集群配置信息。 验证连接 使用以下命令验证与Kubernetes集群的连接: plaintext kubectl clusterinfo 您应该看到集群控制平面和服务的相关信息。 列出所有命名空间以确认kubectl与集群连接正常: plaintext kubectl get namespaces 成为第一个赞同者
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        访问集群
        通过kubectl访问集群
      • Flink作业详情
        参数 说明 名称 算子名称。 持续时间 算子运行的持续时间。 最大并行数 算子中并行的Task的个数。 任务 算子的任务有以下几种: 红色数字表示已失败的Task个数。 浅灰色数字表示已取消的Task个数。 黄色数字表示取消中的Task个数。 绿色数字表示已完成的Task个数。 蓝色数字表示运行中的Task个数。 天蓝色数字表示部署中的Task个数。 深灰色数字表示排队中的Task个数。 状态 算子任务对应的状态。 反压状态 算子的工作负荷状态。包含如下几种状态: OK:表示工作负荷正常。 LOW:表示工作负荷略高。DLI处理数据的速度比较快。 HIGH:表示工作负荷高。源端输入数据的速度比较慢。 时延 指事件从源端算子到达本算子的过程中消耗的时间,单位为毫秒(ms)。 发送的记录数 算子发送数据的记录。 发送的字节数 算子发送的字节数。 接受的字节数 算子接收的字节数。 接受的记录数 算子收到数据的记录。 开始时间 算子运行开始时间。 结束时间 算子运行结束时间。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        Flink作业详情
      • 预算管理
        在预算管理页面,可以创建或编辑预算。 创建预算 1.选择预算类型 2.设置预算 a、预算名称:预算的名称,必须唯一。 b、预算范围 服务标识:必选。 账单类型:包周期、按需。 付费类型:预付费、后付费。 重置周期:可选月、季、年。预算从开始月份的第一天起统计,并在每个月1号0点重置。 标签:可按标签选择。 起止日期:选择预算管理的开始结束时间。 c、预算计划 预算计划方式:每月固定,每月不同。 预算金额:设定预算的金额,超过金额则会生成异常。 3.设置提醒 预警对象:本期实际值。 阈值类型:固定值、百分比。 最大阈值:当对应值超过预算值阈值时进行预警。 接受方式:邮件、短信。 接收人:可设置选择多个接收人。 4.确认 确认并提交。 查看编辑预算 当您想要编辑预算信息时,您可单击预算管理操作列的“编辑”,可以对预算模板中的预算信息进行修改。
        来自:
        帮助文档
        费用中心
        成本管理
        预算管理
      • 教育资源导航
        在线教育&公开课 小类 网站信息 在线教育 Udacity Udemy instructure教育平台 Springboard Desmos课 公开课 edX 哈佛公开课 约翰霍普金斯公开课 Coursera ClassCentral 留学考试 雅思 Prep4SAT CollegeBoard TopUniversities Niche 热门学校及专业 小类 网站信息 北美洲 佐治亚理工学院 约克大学北美 约翰斯霍普金斯大学 犹他大学 印第安纳大学伯明顿分校 伊利诺伊理工大学 伊利诺伊大学芝加哥分校 亚利桑那州立大学 亚利桑那大学 夏威夷大学马诺阿分校 西蒙菲莎大学 渥太华大学 维克森林大学 韦仕敦大学 塔夫茨大学 斯坦陵布什大学 圣路易斯华盛顿大学 萨斯喀彻温大学 乔治敦大学 乔治华盛顿大学 普林斯顿大学 普渡大学 匹兹堡大学 纽约州立大学石溪分校 纽约州立大学布法罗分校 墨西哥国立自治大学大学城的核心校区 明尼苏达大学双城分校 麦考瑞大学 迈阿密大学 马萨诸塞大学阿默斯特分校 马里兰大学帕克分校 罗格斯大学新布朗斯维克分校 拉瓦尔大学 科罗拉多州立大学 科罗拉多大学丹佛分校 科罗拉多大学博尔德分校 坎皮纳斯州立大学 加利福尼亚大学洛杉矶分校 加利福尼亚大学河滨分校 加利福尼亚大学伯克利分校 怀卡托大学 范德比尔特大学 俄亥俄州立大学 东北大学 得克萨斯农工大学 戴尔豪斯大学 达特茅斯学院 查理大学 布朗大学 布兰迪斯大学 不列颠哥伦比亚大学 波士顿大学 宾夕法尼亚州立大学 宾夕法尼亚大学 北卡罗莱纳州立大学 爱荷华州立大学 阿拉斯加大学费尔班克斯分校 阿尔伯塔大学 南美洲 智利天主教大学 乌拉圭大学 圣保罗大学 安第斯大学 阿根廷天主教大学 欧洲 真纳大学 于默奥大学 因斯布鲁克大学 伊拉斯姆斯大学 耶拿大学 亚琛工业大学 雅典国家技术大学 谢菲尔德大学 于韦斯屈莱大学 乌尔姆大学 乌得勒支大学 维也纳工业大学 维尔纽斯大学 瓦格宁根大学 天主教鲁汶大学 特文特大学 特罗姆瑟大学 泰莱大学 塔尔图大学 苏黎世联邦理工学院 叶史瓦大学 斯特拉斯堡大学 斯德哥尔摩大学 思特雅大学 圣彼得堡国立大学 圣彼得堡国家信息技术大学 圣安德鲁斯大学 萨里大学 萨尔大学 日内瓦大学 诺丁汉大学 挪威科技大学 纽卡斯尔大学 牛津大学 牛津布鲁克斯大学 南安普顿大学 纳瓦拉大学 慕尼黑工业大学 慕尼黑大学 莫斯科国际关系学院 明斯特大学 米兰大学 美茵茨大学 梅西大学 洛桑联邦理工学院 罗马第二大学 伦敦国王学院 伦敦大学学院 伦敦大学皇家霍洛威学院 隆德大学 林茨大学 利兹大学 里斯本大学 里昂国立应用科学学院 里昂高等师范学院 雷丁大学 兰卡斯特大学 莱斯大学 莱顿大学 莱比锡大学 拉彭兰塔拉赫蒂工业大学 乐卓博大学 肯特大学 科英布拉大学 科廷大学 卡尔斯鲁厄理工学院 卡迪夫大学 捷克技术大学 剑桥大学 加泰罗尼亚理工大学 吉森大学 华沙大学 赫瑞瓦特大学 赫尔辛基大学 荷语布鲁塞尔自由大学 汉堡大学 格勒诺布尔阿尔卑斯大学 格拉纳达大学 哥廷根大学 哥德堡大学 佛罗伦萨大学 俄罗斯国家研究型高等经济大学 都灵大学 都柏林城市大学 蒂尔堡大学 皇家理工学院 丹麦技术大学 代尔夫特理工大学 查尔姆斯理工大学 布鲁内尔大学 布里斯托大学 伯明翰大学 波鸿鲁尔大学 波尔图大学 比萨大学 柏林自由大学 柏林洪堡大学 巴塞尔大学 巴黎政治学院 巴黎文理研究大学 巴黎第一大学 奥斯陆大学 爱丁堡大学 艾克斯马赛大学 埃塞克斯大学 埃克塞特大学 埃尔朗根纽伦堡大学 阿姆斯特丹自由大学 阿姆斯特丹大学 阿尔托大学 阿伯丁大学 亚洲 筑波大学 朱拉隆功大学 中央大学 早稻田大学 远东联邦大学 印度理工学院印多尔分校 印度理工学院马德拉斯分校 印度理工学院鲁基分校 印度理工学院坎普尔分校 印度理工学院古瓦哈提分校 印度理工学院德里分校 印度科学学院 延世大学 亚洲大学 新西伯利亚国立大学 新加坡国立大学 香港中文大学 香港理工大学 香港科技大学 香港浸会大学 香港大学 香港城市大学 西江大学 文莱理工大学 文莱大学 万隆工学院 托木斯克国立大学 特拉维夫大学 台湾师范大学 台湾清华大学 台湾科技大学 台湾成功大学 台湾大学 台北科技大学 沙迦美国大学 庆熙大学 千叶大学 浦项科技大学 南洋理工大学 茂物农业大学 马来西亚博特拉大学 梨花女子大学 京都大学 汉阳大学 韩国外国语大学 韩国科学技术院 韩国加图立大学 国立欧亚大学 广岛大学 光州科学技术院 菲律宾大学 东京大学 北海道大学 大洋洲 詹姆斯库克大学 新南威尔士大学 塔斯马尼亚大学 蒙纳士大学 坎特伯雷大学 惠灵顿维多利亚大学 皇家墨尔本理工大学 格里菲斯大学 奥克兰大学 阿德莱德大学 非洲 约翰内斯堡大学 开罗美国大学 哈里发大学
        来自:
        帮助文档
        边缘安全加速平台
        学术加速
        教育资源导航
      • 创建指南
        创建方式导航 本文介绍创建物理机的几种方式。 在控制中心按照流程指引创建物理机是常见的方式,您可以灵活选择配置项,确保满足业务的需求。详细操作请参见下文“创建物理机”。 如果您有常用的操作系统、应用程序等配置,可以先创建私有镜像,然后在创建物理机时选择该私有镜像,提高配置效率。详细操作请参见通过私有镜像创建物理机。 创建物理机 操作场景 本章节介绍如何使用控制中心向导创建物理机。创建物理机时,您需要配置规格、镜像、存储、网络、安全组等必备信息。同时,向导也提供了丰富的扩展配置功能,方便您进行个性化部署和管理。 前提条件 完成账号注册、实名认证且账户金额充足,请参见注册账号。 操作步骤 1. 登录天翼云,进入控制中心。 2. 在“计算 > 物理机服务”选框单击“购买”,进入物理机购买页面。 3. 在基础配置页进行选配。“地域”建议按实际需求或就近选择靠近您业务的区域,可减少网络时延,提高访问速度。“可用区”建议根据实际部署高可用需求进行选择。 4. 您可以对“实例名称”及“主机名”进行修改,并且支持批量设置有序的实例名称或主机名称。具体规则请参照下表。 场景1:不使用模式串创建单台实例 参数 命名规则 计费模式 支持“包年/包月”和“按量付费”方式。 实例名称 • 长度为231字符 • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 主机名称 • Windows 系统长度为 215个字符,其他操作系统(如Linux)长度为 263个字符 • 允许使用大小写字母、数字、连字符 “” • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 • 不能连续使用 “” • 必须以字母开头,“”不能用于开头或结尾 • 不能仅使用数字 场景2:使用模式串创建单台实例,或者批量创建多台实例 参数 命名规则 计费模式 支持“包年/包月”和“按量付费”方式。 实例名称 • 长度为227字符({R:数字}模式串不计入字符长度) • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 主机名称 •Windows 系统长度为 211个字符,其他操作系统(如Linux)长度为 259个字符({R:数字}模式串不计入字符长度) • 允许使用大小写字母、数字、连字符 “” • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 • 不能连续使用 “” • 必须以字母开头,“”不能用于开头或结尾 • 不能仅使用数字 说明 1. 创建多台物理机时,默认将批量购买的实例设置为前缀相同,仅序号递增的名称,例如:我的物理机0001、我的物理机0002...... 2. 当您需要创建 n 个实例,并指定实例名称/主机名称带有序号且序号从 x 开始递增时,您可通过指定模式串命名实现。 5. 完成“规格”、“镜像”及“本地磁盘”等配置项的选配之后,单击“下一步:网络配置”。 6. 进行网络配置,包括“虚拟私有云”、 “网卡”、“安全组”、“弹性IP”等信息。 参数 说明 虚拟私有云 物理机网络使用虚拟私有云(VPC)提供的网络,包括子网、安全组等。 您可以选择使用已有的虚拟私有云网络,或者单击“控制中心创建”创建新的虚拟私有云。 安全组 安全组用来实现安全组内和安全组间物理机的访问控制,加强物理机的安全保护。用户可以在安全组中定义各种访问规则,当弹性裸金属加入该安全组后,即受到这些访问规则的保护。当您需要修改安全组时,请前往管理安全组进行操作。标准裸金属不支持安全组,需要系统内配置iptable。 网卡 默认设置主网卡,用户可根据需求设置扩展网卡。 弹性IP 弹性IP将公网IP地址和物理机绑定,通过此绑定,虚拟私有云内的物理机可以使用固定的公网IP地址对外提供访问。 可以根据实际情况选择以下三种方式:不使用:物理机不能与互联网互通,仅可作为私有网络中部署业务或者集群所需物理机进行使用。 自动分配:自动为每台物理机分配独享带宽的弹性IP,可选带宽规格为1~300Mbps。使用已有:为物理机分配已有弹性IP,使用已有弹性IP时,不能批量创建物理机。 7. 完成后,单击“下一步:高级配置”。 8. 在此完成密码配置后,单击“下一步:确认配置”。 说明 密码长度限制8到30个字符 必须包含大小写字母,同时必须包含一个数字或者特殊字符(()~!@
        来自:
        帮助文档
        物理机 DPS
        用户指南
        实例
        创建物理机
        创建指南
      • 数据安全概览
        总览页面分为云服务全景图(资产地图)、数据采集安全、数据传输/存储安全、数据使用安全和数据交换/删除安全共五大板块,实时呈现了用户资产的具体情况。 前提要求 已完成资产访问的授权,参考云资产委托授权/停止授权进行操作。 已完成添加数据库资产,参考数据库资产清单进行操作。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全> 数据安全中心”,进入数据安全中心总览界面。 4. 查看数据安全中心服务的总览—云服务全景图。 提供数据资产地图,帮助客户建立数据资产的全景视图,可视化呈现数据资产分布、数据敏感程度、当前的风险级别。 梳理云上数据资产:自动扫描并梳理云上数据资产,地图化展示资产分布,帮助用户解决数据在哪里的问题。 敏感数据展示:基于DSC的三层数据识别引擎、预置合规规则、自然语义识别技术、文件相似度检测技术,对数据资产进行分类分级。 对数据资产按照“风险VPC数”、“风险安全组数”、“风险主机数”、“风险RDS数”、“风险OBS数”进行分类展示。 每类资产按照“高危”、“中危”、“低危”、“未识别风险”对敏感数据进行分级定位。 风险监控和预警:基于风险识别引擎,对数据资产进行风险监控,展示每类资产的风险分布,并预警。 说明 将鼠标移动到数据资产图标处,可查看资产相关信息。 单击数据资产图标,在界面的右侧弹框中可详细查看该资产的“基本信息”、“风险信息”或者“风险安全组规则”等信息。 5. 查看数据安全中心服务的总览—数据采集安全。 DSC根据敏感数据规则对敏感数据进行识别和敏感等级分类,您可以在总览页面查看您资产中不同风险等级的数据的分布情况。 基于敏感字段在文件中出现的累计次数和敏感字段关联组来判断文件的敏感性,并根据文件的敏感程度将其划分为四个等级:“未识别风险”、“低风险”、“中风险”和“高风险”。风险等级依次递增。具体风险等级情况说明: 未识别风险:0级 低风险:1~3级 中风险:4~7级 高风险:8~10级 在柱状图中,不同高度代表该风险等级的资产数量。将鼠标箭头放置在柱状图上,可查看该风险等级的资产数量。 6. 查看数据安全中心服务的总览—数据传输/存储安全。 数据传输安全:DSC统计了以下可能存在传输安全的项,您可以直接单击具体项的名称,查看详细情况。 VPN连接数:您的资产中存在已创建的虚拟专用网络,具体的请参考《VPN服务用户指南》。 云专线连接数:您的资产中存在已创建的云专线物理连接,具体的请参考《云专线用户指南》。 ELB未采用加密通信的监听器:添加监听器时,未使用加密通信HTTPS协议的监听器数量的统计,建议您采用HTTS协议进行加密通信,具体的操作请参见修改监听器。 SSL证书订阅:您的资产中存在已购买或者已上传的证书数量,了解SSL证书请参考《SSL证书管理用户指南》。 WAF未采用加密通信的域名:WAF中添加域名时,未使用加密传输HTTPS协议的域名数量的统计,建议您采用HTTPS协议进行加密通信,具体的操作请参见修改服务器信息。 数据存储安全:该模块为您罗列了存在未加密的对象桶,为了防止您的资产存在不必要的存储安全,建议您单击对象桶名称,前往OBS界面,对未加密的对象桶进行加密。 7. 查看数据安全中心服务的总览—数据使用安全。 该模块统计了“近30分钟”、“近3小时”、“近24小时”、“近7天”、“近30天”内的数据使用安全信息。 未处理异常事件:按“数据访问异常”、“数据操作异常”、“数据管理异常”所占比例进行展示。同时,展示了异常事件总数、违例确认总数和违例排除总数。 单击“未处理异常事件”中的其中一个颜色区域,可查看指定数据异常占比。 当不需要展示某种类型的异常事件时,单击事件分布图右侧攻击类型对应的颜色方块,取消在事件分布圆环中的展示。 Top5访问源IP:前5的访问源IP的统计。 Top5被访问高风险对象:被访问的对象中,排在前5的高风险对象。 Top5访问帐号:前5的访问帐号的统计。 8. 查看数据安全中心服务的总览—数据交换/删除安全。 数据交换安全:展示了已创建的“静态脱敏任务数”以及“水印API调用次数”,如何创建数据脱敏任务请参考创建数据脱敏任务。 数据删除安全:DSC为您统计了数据库、ECS、OBS资产的当日删除数和总删除数。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据安全概览
      • 新建自定义策略
        条件键 运算符 条件值 ctyun:CurrentTime DateEquals:匹配指定日期。 DateNotEquals:不等于指定日期。 DateLessThan:早于指定日期。 DateLessThanEquals:早于或等于指定日期。 DateGreaterThan:晚于指定日期。 DateGreaterThanEquals:晚于或等于指定日期。 格式为:yyyyMMdd’T’HH:mm:ss’Z’。例如:20191218T09:00:00Z。 DateEquals和DateNotEquals精确到天,其他精确到秒。 注意 将需要设置的时间转换为UTC+0时间。 ctyun:SourceIp IpAddress:与指定IP地址或范围匹配。 NotIpAddress:除指定IP地址或范围外的所有IP地址匹配。 IPv4:点分十进制格式。 IPv6:32位16进制数,格式为X:X:X:X:X:X:X:X。 如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/3。 ctyun:userid StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不能进行模糊匹配,区分大小写。 包含数字和小写字母的32位字符。 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:username StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 区分大小写1~64位字符组成,字符只能包含字母、数字或特殊字符,特殊字符只能是:下划线()、中划线()、逗号(,)、句点(.)、加号(+)、等号()和at符号(@)。 说明 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:UserAgent StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:Referer StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:SecureTransport Bool:布尔匹配。 true。 false。 ctyun:MultiFactorAuthPresent Bool:布尔匹配。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 true。 false。 ctyun:MultiFactorAuthAge NumericEquals:与指定的值相同。 NumericNotEquals:与指定的值不同,否定匹配。 NumericLessThan:小于指定的值。 NumericLessThanEquals:小于等于指定的值。 NumericGreaterThan:大于指定的值。 NumericGreaterThanEquals:大于等于指定的值。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 整数形式,以秒为单位。 oos:prefix StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 说明 本条件键仅对ListBucket生效。 字符串形式。 oos:xamzacl StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 说明 创建Bucket时,通过使用此条件键可以控制存储桶ACL的类型,本条件键仅对PutBucket生效。 字符串形式。 取值为: private:私有。 publicread:公共读。 publicreadwrite:公共读写。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        访问控制
        IAM策略
        自定义策略
        新建自定义策略
      • Statement
        条件键 运算符 条件值 ctyun:CurrentTime DateEquals:匹配指定日期。 DateNotEquals:不等于指定日期。 DateLessThan:早于指定日期。 DateLessThanEquals:早于或等于指定日期。 DateGreaterThan:晚于指定日期。 DateGreaterThanEquals:晚于或等于指定日期。 格式为:yyyyMMdd’T’HH:mm:ss’Z’。例如:20191218T09:00:00Z。 DateEquals和DateNotEquals精确到天,其他精确到秒。 注意 将需要设置的时间转换为UTC+0时间。 ctyun:SourceIp IpAddress:与指定IP地址或范围匹配。 NotIpAddress:除指定IP地址或范围外的所有IP地址匹配。 IPv4:点分十进制格式。 IPv6:32位16进制数,格式为X:X:X:X:X:X:X:X。 如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/3。 ctyun:userid StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 包含数字和小写字母的32位字符串。 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:username StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 ()或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 1~64个字符组成,字符只能包含字母、数字或特殊字符,特殊字符只能是:下划线()、中划线()、逗号(,)、句点(.)、加号(+)、等号()和at符号(@)。 说明 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:UserAgent StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:Referer StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 ()或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:SecureTransport Bool:布尔匹配。 true false ctyun:MultiFactorAuthPresent Bool:布尔匹配。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 true false ctyun:MultiFactorAuthAge NumericEquals:与指定的值相同。 NumericNotEquals:与指定的值不同,否定匹配。 NumericLessThan:小于指定的值。 NumericLessThanEquals:小于等于指定的值。 NumericGreaterThan:大于指定的值。 NumericGreaterThanEquals:大于等于指定的值。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 整数形式,以秒为单位。 oos:prefix StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 字符串形式。 说明 本条件键仅对ListBucket生效。 oos:xamzacl StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 字符串形式。 取值为: private:私有。 publicread:公共读。 publicreadwrite:公共读写。 说明 创建Bucket时,通过使用此条件键可以控制存储桶ACL的类型,本条件键仅对PutBucket生效。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        访问控制
        IAM策略
        IAM策略编写规则
        Statement
      • 部署HBlock
        本节主要介绍部署HBlock集群版。 部署HBlock的步骤主要步骤为: 1. 安装前准备:在每台服务器上准备一个或多个目录作为HBlock数据目录,用来存储HBlock数据。 说明 为了避免相互影响,建议数据目录不要与操作系统共用磁盘或文件系统。 2. 解压缩安装包,并进入解压缩后的文件夹路径。 3. 安装并初始化HBlock。 4. 获取软件证书并加载。 5. 创建iSCSI Target并查询。 6. 创建卷并查询。 说明 下面以x86服务器的HBlock安装部署举例,ARM服务器、龙芯服务器的安装部署与x86服务器的安装部署相同。 详细步骤 1. 请先完成以下准备工作:在每台服务器上准备一个或多个目录作为HBlock数据目录(每台服务器上的目录可以不同),用来存储HBlock数据,如:/mnt/storage01,/mnt/storage02。 2. 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹(以HBlock 4.0.0为例)。 说明 建议安装目录不要与数据目录共用磁盘或文件系统。 plaintext unzip CTYUNHBlockPlus4.0.0x64.zip cd CTYUNHBlockPlus4.0.0x64 3. 安装并初始化HBlock: 1. 安装HBlock。 注意 安装HBlock和执行HBlock管理操作的应该属于同一用户。 在每台服务器上安装HBlock。 ./stor install [ { a apiport } APIPORT ] [ { w webport } WEBPORT ] APIPORT :指定API端口号,默认端口号为1443。 WEBPORT :指定WEB端口号,默认端口号为2443。 2. 初始化HBlock。 初始化HBlock具体命令行详见初始化HBlock。 ./stor setup { n storname } STORNAME [ { u username } USERNAME ] { p password } PASSWORD { { s serve r } { SERVERIP [:PORT ][:PATH] & } & topologyfile TOPOLOGYFILE } [ {C clusternetwork } CIDR ] [ { P publicnetwork } CIDR ] [ faultdomain FAULTDOMAIN ] [ iscsiport ISCSIPORT ] [portrange PORT1PORT2 ] [ dataport 1 DATAPORT1 ] [ managementport1 MANAGEMENTPORT1 ] [ managementport2 MANAGEMENTPORT2 ] [ managementport3 MANAGEMENTPORT3 ] [ managementport4 MANAGEMENTPORT4 ] [ managementport5 MANAGEMENTPORT5 ] [ managementport6 MANAGEMENTPORT6 ] [ metadataport1 METADATAPORT1 ] [ metadataport2 METADATAPORT2 ] [ metadataport3 METADATAPORT3 ] [ metadataport4 METADATAPORT4 ] [ metadataport5 METADATAPORT5 ] [ metadataport6 METADATAPORT6 ] [ metadataport7 METADATAPORT7 ] [ metadataport8 METADATAPORT8 ] [ cs SERVERIP,SERVERIP,SERVERIP ] [ mdm SERVERIP,SERVERIP ] [ ls SERVERIP,SERVERIP,SERVERIP ] 说明 可以通过web、命令行和API进行初始化HBlock。可以在已经安装的HBlock的任一台服务器上执行初始化。 3. 查询服务器。 ./stor server ls [ { n server } SERVERID ] [ port ] 4. 获取软件许可证并加载。 HBlock软件提供30天试用期,过期后仅部分功能可用,详见软件许可证到期(试用期或订阅模式)后仍可用的功能。您可以通过下列步骤获取软件许可证。 1. 获取HBlock序列号: ./stor info { S serialid } 2. 联系HBlock软件供应商获取软件许可证,获取的时候需要提供HBlock序列号。 3. 获取软件许可证后,执行加载。 ./stor license add { k key } KEY 5. 创建iSCSI Target并查询。 1. 创建iSCSI Target。 创建iSCSI Target命令行详见创建iSCSI Target。 ./stor target add { n name } TARGETNAME [ maxsessions MAXSESSIONS ] [ { c chapname } CHAPNAME { p password } CHAPPASSWORD { s status } STATUS ] [ num SERVERNUMBER ] [ server SERVERID & ] 说明 如果允许iSCSI Target下的IQN建立多个会话,可以通过配置参数maxsessions MAXSESSIONS 来实现。 2. 查询iSCSI Target。 ./stor target ls [ c connection ] [ { n name } TARGETNAME ] 6. 创建卷并查询 1. 创建卷 创建卷命令行详见创建卷。 本地卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ pool POOL ] [ cachepool CACHEPOOL ] [ { a ha } HIGHAVAILABILITY ] [ { c localstorageclass } LOCALSTORAGECLASS ] [ minreplica MINREPLICA ] [ ecfragmentsize ECFRAGEMENTSIZE ] [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { m mode } STORAGEMODE ] 上云卷 ./stor lun add { n name } LUNNAME { p capac ity } CAPACITY { t target } TARGETNAME [ pool POOL ] [ cachepool CACHEPOOL ] [ { a ha } HIGHAVAILABILITY ] [ { c localstorageclass } LOCALSTORAGECLASS ] [ minreplica MINREPLICA ] [ ecfragmentsize ECFRAGEMENTSIZE ] [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] { m mode } STORAGEMODE { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] 2. 查询卷 ./stor lun ls [ { n name } LUNNAME ]
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-集群版
        部署HBlock
      • Windows云主机如何配置多用户登录?(Windows 2012)
        本文向您介绍Windows云主机如何配置多用户登录(Windows 2012)。 操作场景 本文档指导您配置Windows云主机实现多用户登录,以Windows Server 2012标准版R2中文版操作系统的云主机为例。 说明 远程桌面授权仅支持120天,过期后将因缺失远程桌面授权服务器许可证而导致多用户登录无法使用,需激活远程桌面授权。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,请参考 操作须知 请确保云主机带宽资源充足,避免由于多用户同时操作负载过高导致云主机卡顿或登录异常。 所在安全组入方向已开放云主机登录使用的端口,默认使用3389端口。 云主机已经绑定弹性公网IP。 配置多用户登录后,不同的用户登录云服务器操作互相之间无影响。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,请参考多用户登录Windows主机时无法打开浏览器。 操作步骤 步骤一:安装桌面会话主机和远程桌面授权。 1. 登录弹性云主机。 2. 在操作系统界面, 打开“服务器管理器”,单击“添加角色和功能”。 3. 保持默认参数,单击“下一步”。 4. 左侧导航栏选择“安装类型”,选择“基于角色或基于功能的安装”,单击“下一步”。 5. 左侧导航栏选择“服务器选择”,选择“从服务器池中选择服务器”,单击“下一步”。 6. 左侧导航栏选择“服务器角色”,选择“远程桌面服务”,单击“下一步”。 7. 左侧导航栏选择“功能”,在此页面保持默认参数,单击两次“下一步”。 8. 左侧导航栏选择“角色服务”,在此界面依次选择“远程桌面会话主机”和“远程桌面授权”,在弹出的窗口单击“添加功能”,单击“下一步”。 9. 确认在云主机上安装的角色,单击“安装(I)”。 10. 安装完成后,重启云主机。 第二步:允许多用户远程连接云主机。 1. 在运行里输入 gpedit.msc,打开计算机本地组策略 2. 选择“计算机配置>管理模板>windows组件>远程桌面服务>远程桌面会话主机>连接”,并依次设置“允许用户通过使用远程桌面服务进行远程连接”、“限制连接数量”和“将远程桌面服务用户限制到单独的远程桌面” 3. 右键单击“编辑”,设置“允许用户通过使用远程桌面服务进行远程连接”设置为“已启用”。 4. 右键单击“编辑”,设置“限制连接数量”选择为已启用,可根据具体数量设置,这里示例将允许的RD最大连接数设置为999。 5. 右键单击“编辑”,“将远程桌面服务用户限制到单独的远程桌面”选择已启用,或者已禁用,请注意此处已启用和已禁用的区别。本示例勾选“已启用”。 说明 l 已启用:多个用户同时登录的多用户登录,不能单个用户多登录 例如:配置为已启用,用户A、用户B、用户C可以分别使用账号A、账号B、账号C同时登录云主机,但是不支持用户A、用户B、用户C使用同一个账号同时登录云主机 l 已禁用:单个用户同时多个登录的多用户登录 例如:配置为已禁用,用户A、用户B、用户C可以使用同一个账号同时登录云主机 6. 运行cmd,输入 gpupdate /force,强制执行本地组策略,重启服务器,整个配置过程完成。 第三步:配置新用户并加入远程桌面用户组。 1. 在运行中输入 lusrmgr.msc,打开本地用户和组,进行新用户创建。 2. 单击“用户”,在空白处右键选择新用户。 3. 填写新用户信息,单击“创建”。 4. 单击“组”,双击打开Remote Desktop Users组,单击“添加”。 5. 进入选择用户界面,单击“高级”。 6. 在新的选择用户界面,单击“立即查找”,在下方搜索结果中选中需要远程登录的用户,并单击“确定”,完成添加,即可远程登录。 7. 单击“确定”,添加用户到Remote Dsektop Users组。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        多用户登录
        Windows云主机如何配置多用户登录?(Windows 2012)
      • ALM-12040 系统熵值不足
        本章节主要介绍 ALM12040 系统熵值不足。 告警解释 每天零点系统检查熵值,每次检查都连续检查五次,首先检查是否启用并正确配置了rngtools工具或者haveged工具,如果没有配置,则继续检查当前熵值,如果五次均小于100,则上报故障告警。 当检查到真随机数方式已经配置或者伪随机数方式中配置了随机数参数或者没有配置但是五次检查中,至少有一次熵值大于等于100,则告警恢复。 告警属性 告警ID 告警级别 是否自动清除 12040 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 影响系统正常运行。 可能原因 haveged服务或者rngd服务异常。 处理步骤 检查并手动配置系统熵值 1.在FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 2.查看该“定位信息”中对应的“主机名”字段值,获取该告警产生的主机名。 3.以root用户登录告警所在节点。 4.执行 /bin/rpm qa grep w "haveged" 命令查看haveged安装情况,观察命令返回结果是否为空。 是,执行步骤7。 否,执行步骤5。 5.执行 /sbin/service haveged status grep "running" ,查看返回结果。 如果执行成功,表示haveged服务安装并正常配置运行,执行步骤10。 如果执行不成功,表示haveged服务没有正常运行。执行步骤7。 6.执行 /bin/rpm qa grep w "rngtools" 命令,查看rngtools安装情况,观察命令返回结果是否为空。 是,执行步骤8。 否,执行步骤7。 7.执行 ps ef grep v "grep" grep rngd tr d " " grep"o/dev/random" grep "r/dev/urandom" ,查看返回结果。 如果执行成功,表示rngd服务安装并正常配置运行,执行步骤10。 如果执行不成功,表示rngd服务并没有正常运行,执行步骤8 8.手动配置系统熵值设置,设置方法参见参考信息。 9.等待第二天零点,系统下一次熵值检查,查看告警是否自动清除。 是,操作结束。 否,执行步骤10。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12040 系统熵值不足
      • 通过JDBC连接MySQL实例
        本页介绍如何通过JDBC连接关系数据库MySQL版。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解JAVA编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。 1. 下载CA证书。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在网络 区域,单击SSL状态 参数右侧的下载证书。 2. 使用keytool工具通过CA证书生成truststore文件。 说明 Keytool是Java开发工具包中的一个命令行工具,可用于管理密钥和证书。 如果您的系统中安装了Java并配置了正确的环境变量,则可以直接使用keytool命令。 如果您的系统中没有安装Java,请先安装Java,然后配置环境变量再使用keytool命令。 java keytool.exe importcert alias file keystore storepass 变量 说明 : 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为下载的CA证书的名称,ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): java Owner: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Issuer: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Serial number: b0db70460527a4df Valid from: Tue Mar 21 15:40:12 CST 2023 until: Fri Mar 18 15:40:12 CST 2033 Certificate fingerprints: MD5: A6:9G:E5:5C:10:E4:F4:18:84:66:76:23:54:92:4C:8A SHA1: 23:66:FE:D4:83:24:58:69:B5:F6:28:04:8D:AA:FB:0E:B0:B9:F9:CB SHA256: 3F:C9:C7:EA:3F:8E:9F:6E:71:7E:5C:7A:81:44:0B:EA:51:CB:EA:7F:9C:00:3A:CF:6E:B8:64:9D:16:62:73:91 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 3 Extensions: Trust this certificate? [no]: y Certificate was added to keystore 3. 通过JDBC连接MySQL数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 参数 说明 请替换为实例的IP地址。 说明:如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例“基本信息”页面的“实例信息”区域查看连接地址。如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。 请替换为实例的数据库端口,默认为13049。 说明:您可以在该实例“连接管理”页面的“连接信息”区域查看。 替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。取值如下:true:支持。false:不支持。 useSSL的值,用于设置客户端是否使用SSL连接服务端。取值如下:true:使用。false:不使用。 verifyServerCertificate的值,客户端是否校验服务端的证书。取值如下:true:校验。false:不校验。 替换为truststore文件设置的存储路径。 替换为truststore文件设置的密码。 requireSSL参数应用说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCConnTest { public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql://instanceip:13049/dbname? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); String USER "xxx"; String PASSOWRD "xxx"; conn DriverManager.getConnection(url, USER, PASSOWRD ); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.println(rs.getMetaData().getColumnName(i)); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.println(rs.getObject(i)); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // 释放资源 } } }
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接MySQL实例
      • 操作系统故障类
        弹性云主机的操作系统无法正常启动是什么原因? 1. 查看用户的镜像类型,如果是公共镜像则排除私有镜像的源镜像问题。 2. 单击“申请服务器”,查看能否创建出此镜像的弹性云主机,申请完成后未出现此镜像对应的弹性云主机,则此类镜像可能已经下线,属于老镜像。 3. 控制台不支持使用老镜像继续购买弹性云主机,您需要将弹性云主机的操作系统切换为当前在线的操作系统。 针对Intel处理器芯片存在的Meltdown和Spectre安全漏洞,应该如何规避? 问题描述 北京时间1月3日,Intel处理器芯片被曝出存在严重的Meltdown和Spectre安全漏洞,漏洞详情如下: 漏洞名称:Intel处理器存在严重芯片级漏洞 漏洞编号:CVE20175753、CVE20175715、CVE20175754 严重程度:高危 漏洞描述:CPU内核高危漏洞Meltdown(CVE20175754)和Spectre(CVE20175715/CVE20175753)爆发,攻击者可利用这两组漏洞,绕过内存安全隔离机制,越权访问操作系统和其他程序的核心数据,造成敏感信息泄露。 问题影响 该漏洞不会引起不同弹性云主机之间的攻击,但可能会引起如下问题: 弹性云主机内多个应用之间,可能存在攻击。 对于同一弹性云主机,多个帐号之间可能存在攻击。 使用公共镜像的弹性云主机,云平台会对公共镜像依次修复,不会对您的业务带来影响。 使用私有镜像的弹性云主机,请根据漏洞影响评估是否更新补丁,以规避风险,更新补丁的具体操作请参见本节内容。 背景信息 受影响的操作系统官方补丁发布状态,请参见云平台安全公告。 前提条件 为避免发生意外,修复漏洞前,建议进行充分测试,并完成弹性云主机的数据备份操作,避免发生意外。 Windows弹性云主机处理方法 步骤 1 登录弹性云主机。 步骤 2 更新补丁。 方式一:使用Windows自动更新功能安装补丁 a. 打开Windows Update,并单击“检查更新”。 b. 根据需要下载安装相关安全补丁。 方式二:手动下载补丁并安装 根据背景信息,下载官方发布的补丁并进行安装。 步骤 3 重启弹性云主机,使补丁生效。 步骤 4 验证是否升级成功。 1. 检查系统运行情况是否正常。 2. 检查已安装的补丁清单是否满足背景信息中“验证方法”的要求。 Linux弹性云主机处理方法 步骤 1 登录弹性云主机。 步骤 2 判断Linux弹性云主机是否安装了Tools(以操作系统SUSE 11 SP1为例)。 1. 在任意目录下执行以下命令,查询弹性云主机的驱动信息,如下图所示。 lsmod grep xen 图 查询驱动信息 2. 执行以下命令,查询驱动路径(以磁盘驱动为例),如下图所示。 modinfo xenvbd 图 查询驱动路径 3. 查看回显,根据驱动路径中是否带有“pvdriver”字段信息,判断弹性云主机是否安装了Tools。 − 是,如图所示,执行步骤3。 − 否,执行步骤4。 步骤 3 卸载Tools。 1. 执行以下命令,切换至root用户。 su root 2. 执行以下命令,在根目录下卸载Tools。 /etc/.uvpmonitor/uninstall 3. 执行以下命令,重启弹性云主机。 reboot 步骤 4 更新补丁,升级kernel内核,具体升级方式请参见背景信息。 说明 升级kernel内核后,请务必执行reboot命令重启弹性云主机。 步骤 5 验证是否升级成功。 1. 检查系统运行情况是否正常。 2. 检查已安装的补丁清单是否满足背景信息中“验证方法”的要求。 说明 补丁更新后,弹性云主机使用的驱动是由操作系统自带。此时,Linux弹性云主机不再支持监控指标:内存使用率、磁盘使用率,对其他特性和功能无影响。如需继续支持监控指标内存使用率、磁盘使用率,请联系客服。
        来自:
      • 团队管理
        本页介绍天翼云TeleDB数据库团队管理相关操作。 注意 团队管理模块只有超级管理员和团队管理员才能进入。 团队作为数据管理模块中一组用户和数据库资源的集合,团队内成员均可访问团队内的实例,在查询窗口、数据导入和导出等功能中,可搜索并选中团队内的所有数据库进行操作。 团队成员有包括团队管理员和普通成员两种团队角色,其中: 团队管理员:每个团队至少有一个团队管理员。团队管理员可以添加和删除团队内的成员和实例。 普通成员:团队内的普通成员可访问团队内所有实例,查看团队内其他成员信息。 团队管理功能包含全部团队列表、团队成员管理和团队实例管理三部分。 全部团队列表:只有超级管理员可访问。通过此界面,超级管理员可查看所有团队信息、添加团队和删除团队,同时也可以进入特定团队去管理该团队的成员和实例。 团队成员管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有成员信息,添加和删除团队成员,变更成员的团队角色。 团队实例管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有实例信息,添加实例至团队,且可通过快速跳转到元数据管理界面编辑和移除实例。实例添加至团队后,团队内所有成员均可访问团队内的实例。 1. 查看所有团队 1. 以超级管理员身份登录数据管理模块。 2. 在左侧菜单栏依次选择安全中心 > 团队管理。 3. 界面展示当前组织下,所有团队列表。 2. 添加团队 1. 在全部团队列表页中单击新建团队 ,系统显示新建团队弹窗。 2. 输入团队名称 ,选择一个或多个用户作为团队的团队管理员。 3. 单击确定完成团队的添加。 3. 修改团队 1. 在全部团队列表页中单击要修改团队 右侧的管理按钮,系统显示团队修改弹窗。 2. 输入新的团队名称,调整团队管理员。 3. 单击确定完成团队的修改操作。 4. 删除团队 1. 在全部团队列表页中单击要删除团队右侧的删除 按钮,系统显示团队删除确认 弹窗。 2. 单击确定完成团队的删除操作。 5. 添加团队成员 1. 在团队成员管理页中,团队下拉列表选中要添加成员的团队,系统显示该团队下所有成员。 2. 单击添加用户 至团队,系统显示添加弹窗。 3. 在团队角色下拉列表中选择要添加的团队角色。 4. 在用户下拉列表中,搜索要添加的用户后进行选中。可以多次搜索和选中多个用户。 5. 单击确定完成团队成员的添加操作。 6. 修改成员角色 1. 在团队成员管理页中,团队下拉列表选中要修改成员角色的团队,系统显示该团队下所有成员。 2. 单击要修改角色的成员的团队内角色下拉列表,选择新的团队角色。 3. 系统自动保存成员的新角色。 7. 删除团队成员 1. 在团队成员管理页中,团队下拉列表选中要删除成员的团队,系统显示该团队下所有成员。 2. 单击某个成员右侧的从团队移除按钮,系统显示团队移除确认弹窗。 3. 单击确定完成团队成员的删除操作。 8. 录入实例到团队 1. 在团队实例管理页中,团队下拉列表选中要录入实例的团队,系统显示该团队下所有实例。 2. 单击添加实例至团队,系统显示添加实例弹窗。 3. 在实例弹窗中,实例已默认绑定到当前团队,填写其他信息进行实例的录入。具体如何填写,参见数据资产 > 元数据管理 中关于各种类型实例录入的说明。 4. 单击确定完成团队实例的录入操作。 9. 删除团队中的实例 1. 在团队实例管理页中,团队下拉列表选中要删除实例的团队,系统显示该团队下所有实例。 2. 单击要删除实例右侧实例元数据 按钮,跳转到实例元数据页。 3. 在实例元数据中,列表默认显示要移除的实例,单击右侧更多 > 删除实例 ,系统显示实例删除确认弹窗。 4. 单击确定完成团队实例的删除操作。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        团队管理
      • 包年/包月计费
        二、SFS Turbo 提供包周期类型的包年包月计费,不允许超包。SFS Turbo提供线性包周期和阶梯包周期两种资费。 1、阶梯包周期和线性包周期的区别 包周期方式 阶梯包周期(调整前) 线性包周期(调整后) ::: 包规格 500GB/1TB/2TB/5TB/10TB/30TB 可以在以下规则内自定义包的大小; 标准型和性能型均500GB起步,步长为1GB,上限为32TB; 标准型增强版/性能型增强版均10TB起步,步长1GB,上限为320TB; 产品类型支持 标准型/性能型 标准型/性能型/标准型增强版/性能型增强版 包年优惠 标准资费包1年享受8.5折 标准资费包1年享受8.5折、包2年享受7折、包3年享受7折优惠 影响范围 用户已购包周期文件系统沿用调整前的规格及业务规则,不支持阶梯包周期与线性包周期之间的转换; 所有新购包周期文件系统执行调整后的规格。 备注:天翼云各节点的调整进度请以官网公告为准 2、线性包周期的资费标准 产品名称 计费项 资费标准(元/GB/月) 包的规则 SFS Turbo标准型 存储空间 0.4 500GB起步,步长1GB,上限32TB,1024进制 SFS Turbo性能型 存储空间 1.6 500GB起步,步长1GB,上限32TB,1024进制 SFS Turbo标准型增强版 存储空间 0.4 10TB起步,步长1GB,上限320TB,1024进制 SFS Turbo性能型增强版 存储空间 1.6 10TB起步,步长1GB,上限320TB,1024进制 备注:标准资费包1年享受8.5折、包2年享受7折、包3年享受7折优惠 新规格: 产品规格 计费模式 计费单位 标准资费 备注 20MB/s/TiB 包月 元/GB/月 0.24 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包月 元/GB/月 0.4 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包月 元/GB/月 0.9 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包月 元/GB/月 1.31 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包月 元/GB/月 2.16 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包月 元/GB/月 3.83 1.2TB起售,步长1.2TB,上限1024TB 20MB/s/TiB 包1年 元/GB/年 2.64 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包1年 元/GB/年 4.4 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包1年 元/GB/年 9.9 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包1年 元/GB/年 14.4 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包1年 元/GB/年 23.76 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包1年 元/GB/年 42.13 1.2TB起售,步长1.2TB,上限1024TB 20MB/s/TiB 包2年 元/GB/年 4.032 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包2年 元/GB/年 6.72 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包2年 元/GB/年 15.12 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包2年 元/GB/年 22.008 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包2年 元/GB/年 36.288 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包2年 元/GB/年 64.344 1.2TB起售,步长1.2TB,上限1024TB 20MB/s/TiB 包3年 元/GB/年 4.752 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包3年 元/GB/年 7.92 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包3年 元/GB/年 17.82 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包3年 元/GB/年 25.938 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包3年 元/GB/年 42.768 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包3年 元/GB/年 75.834 1.2TB起售,步长1.2TB,上限1024TB 3、阶梯包周期的资费标准 文件系统类型 包周期规格 标准资费(元/月) ::: SFS Turbo标准型 500G 200 SFS Turbo标准型 1T 400 SFS Turbo标准型 2T 800 SFS Turbo标准型 5T 2000 SFS Turbo标准型 10T 4000 SFS Turbo标准型 30T 12000 SFS Turbo性能型 500G 800 SFS Turbo性能型 1T 1600 SFS Turbo性能型 2T 3200 SFS Turbo性能型 5T 8000 SFS Turbo性能型 10T 16000 SFS Turbo性能型 30T 48000 备注: 标准资费包1年享受8.5折优惠 上表中TB与GB按“1TB1000GB”计算 4、SFS Turbo标准型专属、SFS Turbo性能型专属尚不支持包年包月计费方式
        来自:
        帮助文档
        弹性文件服务 SFS
        计费说明
        包年/包月计费
      • 以OpenTelemetry方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry Go SDK上报Go应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry Go SDK提供了Go语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1. 添加OpenTelemetry Go依赖。 plaintext package main import ( "context" "flag" "go.opentelemetry.io/contrib/instrumentation/net/http/httptrace/otelhttptrace" "go.opentelemetry.io/contrib/instrumentation/net/http/otelhttp" "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/baggage" "go.opentelemetry.io/otel/exporters/otlp/otlptrace" "go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp" "go.opentelemetry.io/otel/sdk/resource" sdktrace "go.opentelemetry.io/otel/sdk/trace" semconv "go.opentelemetry.io/otel/semconv/v1.17.0" "go.opentelemetry.io/otel/trace" "io" "log" "net/http" "net/http/httptrace" "time" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化OpenTelemetry Go SDK。 (注意需将token和endpoint替换成相应地域的接入点信息。) 注意 需将token和endpoint替换成相应地域的接入点信息。 方式1:使用HTTP协议上报数据。 plaintext func initProvider() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", // 替换成token信息 } path : flag.String("path", "/v1/traces", "path") traceClient : otlptracehttp.NewClient( otlptracehttp.WithEndpoint(" "), // 替换成otel http的上报地址。 otlptracehttp.WithURLPath(path), otlptracehttp.WithHeaders(auth), otlptracehttp.WithInsecure()) otlptracehttp.WithCompression(1) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemo"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 方式2:使用gRPC协议上报数据。 plaintext func initProviderGrpc() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", //接入流程里面获取token信息 } traceClient : otlptracegrpc.NewClient( otlptracegrpc.WithInsecure(), otlptracegrpc.WithEndpoint(" "), //替换成grpc接入信息 otlptracegrpc.WithHeaders(auth), otlptracegrpc.WithDialOption(grpc.WithBlock())) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemoprovider"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 4. client端上报例子。 plaintext func sendReq(url string, ctx context.Context) { // 构造一个trace client client : http.Client{ Transport: otelhttp.NewTransport( http.DefaultTransport, otelhttp.WithClientTrace(func(ctx context.Context) httptrace.ClientTrace { return otelhttptrace.NewClientTrace(ctx) }), ), } tr : otel.Tracer("example/client") err : func(ctx context.Context) error { ctx, span : tr.Start(ctx, "say hello", trace.WithAttributes(semconv.PeerService("ExampleService"))) defer span.End() ctx httptrace.WithClientTrace(ctx, otelhttptrace.NewClientTrace(ctx)) req, : http.NewRequestWithContext(ctx, "GET", url, nil) res, err : client.Do(req) if err ! nil { panic(err) } , err io.ReadAll(res.Body) res.Body.Close() return err }(ctx) if err ! nil { log.Fatal(err) } } func doClient(url string, ctx context.Context) { // 不断请求数据 for { sendReq(url, ctx) time.Sleep(3 time.Second) } } func main() { shutdown : initProvider() defer shutdown() url : flag.String("server", " "server url") flag.Parse() bag, : baggage.Parse("usernamexxx") ctx : baggage.ContextWithBaggage(context.Background(), bag) doClient(url, ctx) } 5. 服务端上报例子。 plaintext func handler() { uk : attribute.Key("username") //加点属性 helloHandler : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() //继续调用下一个服务最终效果是client》hello》hello1 sendReq(" ctx) } helloHandler1 : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() span : trace.SpanFromContext(ctx) bag : baggage.FromContext(ctx) span.AddEvent("handling this...", trace.WithAttributes(uk.String(bag.Member("username").Value()))) , io.WriteString(w, "Hello, world!n") } otelHandler : otelhttp.NewHandler(http.HandlerFunc(helloHandler), "Hello") otelHandler1 : otelhttp.NewHandler(http.HandlerFunc(helloHandler1), "Hello1") http.Handle("/hello", otelHandler) http.Handle("/hello1", otelHandler1) } func main() { flag.Parse() shutdown : initProvider() defer shutdown() handler() err : http.ListenAndServe(":" + serverPort, nil) //nolint:gosec // Ignoring G114: Use of net/http serve function that has no support for setting timeouts. if err ! nil { log.Fatal(err) } } 6. 通过以上步骤,最后就在APM控制台的应用列表页面选择目标应用,查看监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以OpenTelemetry方式接入
      • 修改数据库参数
        参数名称 参数描述 默认值 sessiontimeout Session闲置超时时间,单位为秒,0表示关闭超时限制。取值范围:0 ~ 86400。 600 datestyle 设置日期和时间值的显示格式。 ISO,MDY failedloginattempts 输入密码错误的次数达到该参数所设置的值时,帐户将会被自动锁定。配置为0时表示不限制密码输入错误的次数。取值范围:0 ~ 1000。 10 timezone 设置显示和解释时间类型数值时使用的时区。 UTC logtimezone 设置服务器写日志文件时使用的时区。 UTC enableresourcerecord 设置是否开启资源记录功能。 当SQL语句实际执行时间大于resourcetrackduration参数值(默认为60s,可自行设置)时,监控信息将会归档。 此功能开启后会引起存储空间膨胀及轻微性能影响,不用时请关闭。 说明 归档:监控信息保存在history视图,归档在info表。归档时间为三分钟,归档后history视图中的记录会被清除。 history视图GSWLMSESSIONHISTORY,对应存入info表GSWLMSESSIONINFO。 history视图GSWLMOPERATORHISTORY,对应存入info表GSWLMOPERATORINFO。 off querydop 用户自定义的查询并行度。 配置为0表示查询并行度自适应。 配置为1表示查询不并行。 配置为2表示查询并行度为2。 0 resourcetrackcost 设置对语句进行资源监控的最小执行代价。 值为1或者执行语句代价小于10时,不进行资源监控。值大于等于0时,执行语句的代价大于等于10并且超过这个参数的设定值就会进行资源监控。 SQL语句的预估执行代价可通过执行SQL命令Explain进行查询。 100000 resourcetrackduration 设置当前会话资源监控实时视图中记录的语句执行结束后进行归档的最小执行时间,单位为秒。 值为0时,资源监控实时视图中记录的所有语句都会进行历史信息归档。 值大于0时,资源监控实时视图中记录的语句的执行时间超过设定值就会进行历史信息归档。 60 passwordeffecttime 设置帐户密码的有效时间,临近或超过有效期系统会提示用户修改密码。 取值范围为0 ~999,单位为天。设置为0表示不开启有效期限制功能。 90 updatelockwaittimeout 该参数控制并发更新同一行时单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错。0表示不等待,有锁时直接报错,单位为毫秒。 120000 enableresourcetrack 设置是否开启资源监控功能。开启后可以对SQL语句进行监控。 on passwordpolicy 使用CREATE ROLE/USER命令创建或ALTER ROLE/USER命令修改DWS帐户时,该参数决定是否进行密码复杂度检查。 0表示不采用任何密码复杂度策略。 1表示采用默认密码复杂度校验策略。 1 passwordreusetime 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用天数检查。 取值范围:0~3650,单位为天。0表示不检查密码可重用天数。正数表示新密码不能为该值指定的天数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusetime为0时,表示不限制密码重用天数,仅限制密码重用次数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 60 passwordreusemax 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用次数检查。 0表示不检查密码可重用次数。正整数表示新密码不能为该值指定的次数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusemax为0时,表示不限制密码重用次数,仅限制密码重用天数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 0 passwordlocktime 该参数指定帐户被锁定后自动解锁的时间。 0表示密码验证失败时,自动锁定功能不生效。 正数表示帐户被锁定后,当锁定时间超过该参数设定的值时,帐户将会被自行解锁。 1 passwordencryptiontype 该字段决定采用何种加密方式对用户密码进行加密存储。 0表示采用md5方式对密码加密。 1表示采用sha256方式对密码加密,兼容postgres客户端的md5用户认证方式。 2表示采用sha256方式对密码加密。md5为不安全的加密算法,不建议用户使用。 2 passwordnotifytime 该字段决定帐户密码到期前提醒的天数。 0表示不开启提醒功能。 1~999表示帐户密码到期前提醒的天数。 7 enablestatelesspoolerreuse pooler复用切换开关,重启集群生效。 on表示使用pooler复用模式。 off表示关闭pooler复用模式。 说明 CN和DN需要同步设置。如果CN设置为off,DN设置为on时会导致集群不能正常通信,因此必须对该参数做CN和DN全局相同的配置,重启集群才会生效。 off workmem 设置内部排序操作和Hash表在开始写入临时磁盘文件之前使用的内存大小,单位为KB。 ORDER BY,DISTINCT和merge joins都要用到排序操作。 Hash表在散列连接、散列为基础的聚集、散列为基础的IN子查询处理中都要用到。 对于复杂的查询,可能会同时并发运行好几个排序或者散列操作,每个都可以使用此参数所声明的内存量,不足时会使用临时文件。同样,好几个正在运行的会话可能会同时进行排序操作。因此使用的总内存可能是workmem的好几倍。 64MB maintenanceworkmem 设置在维护性操作(比如VACUUM、CREATE INDEX、ALTER TABLE ADD FOREIGN KEY等中可使用的最大的内存,单位为KB。 说明 该参数的设置会影响VACUUM、VACUUMFULL、CLUSTER、CREATE INDEX的执行效率。 128MB enableorccache 设置是否允许在初始化cstorebuffers时,将1/4的cstorebuffers空间预留,用于缓存orc元数据。 on表示开启缓存orc元数据,可提升hdfs表的查询性能,但是会占用列存buffer资源,导致列存性能下降。 off表示关闭缓存orc元数据。 on sqlusespacelimit 限制单个SQL在单个DN上,触发落盘操作时,落盘文件的空间大小,管控的空间包括普通表、临时表及中间结果集落盘占用的空间,单位为KB。其中1表示没有限制。 1 enablebitmapscan 控制优化器对位图扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablehashagg 控制优化器对Hash聚集规划类型的使用。 on表示使用。 off表示不使用。 on enablehashjoin 控制优化器对Hash连接规划类型的使用。 on表示使用。 off表示不使用。 on enableindexscan 控制优化器对索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enableindexonlyscan 控制优化器对仅索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablemergejoin 控制优化器对融合连接规划类型的使用。 on表示使用。 off表示不使用。 off enablenestloop 控制优化器对内表全表扫描嵌套循环连接规划类型的使用。虽然不能完全消除嵌套循环连接,但关闭该参数会使优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 off enableseqscan 控制优化器对顺序扫描规划类型的使用。虽然不能完全消除顺序扫描,但关闭该参数会让优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 on enabletidscan 控制优化器对TID扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablekillquery CASCADE模式删除用户时,会删除此用户拥有的所有对象。此参数标识是否允许在删除用户的时候,取消锁定此用户所属对象的query。 on表示允许取消锁定。 off表示不允许取消锁定。 off enablevectorengine 控制优化器对向量化执行引擎的使用。 on表示使用。 off表示不使用。 on enablebroadcast 控制优化器对stream代价估算时对broadcast分布方式的使用。 on表示使用。 off表示不使用。 on skewoption 控制是否使用优化策略。 off:关闭策略。 normal:采用激进策略。对于不确定是否出现倾斜的场景,认为存在倾斜,并进行相应优化。 lazy:采用保守策略。对于不确定是否出现倾斜场景,认为不存在倾斜,不进行优化。 normal defaultstatisticstarget 为没有用ALTER TABLE SET STATISTICS设置字段目标的表设置缺省统计目标。此参数设置为正数是代表统计信息的样本数量,为负数时,代表使用百分比的形式设置统计目标,负数转换为对应的百分比,即5代表5%。 100 enablecodegen 标识是否允许开启代码生成优化,目前代码生成使用的是LLVM优化。 on表示允许开启代码生成优化。 off表示不允许开启代码生成优化。 on autoanalyze 标识是否允许在生成计划的时候,对于没有统计信息的表进行统计信息自动收集。 on表示允许自动进行统计信息收集。 off表示不允许自动进行统计信息收集。 说明 当前不支持对外表触发autoanalyze,如需收集,需用户手动执行analyze操作。 不支持对带有ON COMMIT [DELETE ROWS l DROP]选项的临时表触发autoanalyze,如需收集,需用户手动执行analyze操作。 如果在autoanalyze某个表的过程中数据库发生异常,当数据库正常运行之后再执行语句有可能仍提示需要收集此表的统计信息。此时需要用户对该表手动执行一次analyze操作,以同步统计信息数据。 off enablesonichashagg 标识是否依据规则约束使用基于面向列的hash表设计的Hash Agg算子。 on表示在满足约束条件时使用基于面向列的hash表设计的Hash Agg算子。 off表示不使用面向列的hash表设计的Hash Agg算子。 on loghostname 默认状态下,连接消息日志只显示正在连接主机的IP地址。打开此选项同时可以记录主机名。由于解析主机名可能需要一定的时间,可能影响数据库的性能。on表示可以同时记录主机名。off表示不可以同时记录主机名。 off maxactivestatements 设置全局的最大并发数量。此参数只应用到CN,且针对一个CN上的执行作业。设置为1和0表示对最大并发数不做限制。 60 enableresourcetrack 是否开启资源监控功能。 on resourcetracklevel 设置当前会话的资源监控的等级。该参数只有当参数enableresourcetrack为on时才有效。 none,不开启资源监控功能。 query,开启query级别资源监控功能,开启此功能会把SQL语句的计划信息(类似explain输出信息)记录到top SQL中。 perf,开启perf级别资源监控功能,开启此功能会把包含实际执行时间和执行行数的计划信息(类似explain analyze输出信息)记录到top SQL中。 operator,开启operator级别资源监控功能,开启此功能不仅会把包含实际执行时间和执行行数的信息记录到top SQL中,还会把算子级别执行信息刷新到top SQL中。 query enabledynamicworkload 是否开启动态负载管理功能。 on表示打开动态负载管理功能。 off表示关闭动态负载管理功能。 on topsqlretentiontime 设置历史TopSQL中gswlmsessioninfo和gswlmoperatorinfo表中数据的保存时间。单位为天。 值为0时,表示数据永久保存。 值大于0时,表示数据能够保存的对应天数。 0 trackcounts 控制收集数据库活动的统计数据。 on表示开启收集功能。 off表示关闭收集功能。 off autovacuum 控制数据库自动清理进程(autovacuum)的启动。自动清理进程运行的前提是将trackcounts设置为on。 on表示开启数据库自动清理进程。 off表示关闭数据库自动清理进程。 off autovacuummode 该参数仅在autovacuum设置为on的场景下生效,它控制autoanalyze或autovacuum的打开情况。 analyze表示只做autoanalyze。 vacuum表示只做autovacuum。 mix表示autoanalyze和autovacuum都做。 none表示二者都不做。 mix autoanalyzetimeout 设置autoanalyze的超时时间。在对某张表做autoanalyze时,如果该表的analyze时长超过了autoanalyzetimeout,则自动取消该表此次analyze,单位为秒。 5min autovacuumiolimits 控制autovacuum进程每秒触发IO的上限。其中1表示不控制,而是使用系统默认控制组。 1 autovacuummaxworkers 设置能同时运行的自动清理线程的最大数量。其中0表示不会自动进行autovacuum。 3 autovacuumnaptime 设置两次自动清理操作的时间间隔,单位为秒。 10min autovacuumvacuumthreshold 设置触发VACUUM的阈值。当表上被删除或更新的记录数超过设定的阈值时才会对这个表执行VACUUM操作。 50 autovacuumanalyzethreshold 设置触发ANALYZE操作的阈值。当表上被删除、插入或更新的记录数超过设定的阈值时才会对这个表执行ANALYZE操作。 50 autovacuumanalyzescalefactor 设置触发一个ANALYZE时增加到autovacuumanalyzethreshold的表大小的缩放系数。 0.1 statementtimeout 当语句执行时间超过该参数设置的时间(从服务器收到命令时开始计时)时,该语句将会报错并退出执行,单位为毫秒。 0 deadlocktimeout 设置死锁超时检测时间。当申请的锁超过设定值时,系统会检查是否产生了死锁,单位为毫秒。 1s lockwaittimeout 控制单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错,单位为毫秒。 20min maxqueryretrytimes 指定SQL语句出错自动重试功能的最大重跑次数(目前支持重跑的错误类型为“Connection reset by peer”、“Lock wait timeout”和“Connection timed out”等,设定为0时关闭重跑功能。 6 maxpoolsize CN的连接池与其它某个CN/DN的最大连接数。 800 enablegtmfree 大并发场景下同一时刻存在活跃事务较多,GTM下发的快照变大且快照请求变多的情况下,瓶颈卡在GTM与CN通讯的网络上。为消除该瓶颈,引入GTMFREE模式。取消CN和GTM的交互,取消CN下发GTM获取的事务信息给DN。CN只向各个DN发送query,各个DN由本地产生快照及xid等信息,开启该参数支持分布式事务读最终一致性,即分布式事务只有写外部一致性,不具有读外部一致性。 off enablefastqueryshipping 控制查询优化器是否使用分布式框架。 on enablecrccheck 设置是否允许开启数据校验功能。写入表数据时生成校验信息,读取表数据时检查校验信息。不建议用户修改设置。 on explainperfmode 此参数用来指定explain的显示格式。 normal:代表使用默认的打印格式。 pretty:代表使用DWS改进后的新显示格式。新的格式层次清晰,计划包含了plan node id,性能分析简单直接。 summary:是在pretty的基础上增加了对打印信息的分析。 run:在summary的基础上,将统计的信息输出到csv格式的文件中,以便于进一步分析。 pretty udfmemorylimit 控制每个CN、DN执行UDF时可用的最大物理内存量,单位为KB。 200MB defaulttransactionreadonly 设置每个新创建事务是否是只读状态。on表示只读状态。off表示非只读状态。 off
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改数据库参数
      • 计费模式变更
        前提条件 预付费用户须保证账户余额大于100元才能进行转按需操作,后付费用户无此余额限制。 注意 该操作按钮名称为“到期转按需”,即需要等文件系统到期时才会转为按量付费,不会立刻转为按量付费。 “到期转按需”在到期当天不可操作,例如某资源到期时间为2023年11月15日 10:23 ,则在11月15日00:00之后不可进行转按需操作。 “到期转按需”的时刻为到期第二天凌晨,非到期时刻。资源在到期当天为全天可用状态,可放心使用。如资源到期时间为2023年11月15日 10:23,若已设置到期转按需,则11月15日当天(到期当天),资源全天为“可用”状态,业务正常进行。在11月16日凌晨,系统将自动进行转按需操作。 操作步骤 1. 在弹性文件服务控制台列表页面,点击包周期文件系统的“更多”>“到期转按需”。 2. 进入资源信息确认页面,确认无误后点击“转按需”,弹出转换成功的提示框中点击“确定”即完成转换。 3. 在“费用中心续订管理到期转按需”页签下可以查看已设置到期转按需的资源。 取消到期转按需 资源到期前可取消“转按需”设置,操作入口在“费用中心>订单管理>续订管理”下的“到期转按需”标签页面进行操作。
        来自:
        帮助文档
        弹性文件服务 SFS
        计费说明
        计费方式
        计费模式变更
      • 拨测
        场景描述 在进行消息发送与接收验证的过程中,我们需要确保RocketMQ的生产者能够将消息成功发送到指定的Topic,同时消费者能够接收到这些消息。通过验证,可以确认生产者发送的消息能够准确无误地到达消费者,这是消息队列最基本也是最重要的功能要求。在开发和测试阶段,通过消息发送与接收验证可以及时发现并修复可能存在的问题,避免在实际应用中出现故障。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和Topic。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息Topic,若无选项,请新增Topic,详见上文创建Topic和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且并不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        拨测
      • 实例概述
        本章节主要介绍物理机实例概述。 实例概述 物理机实例即您创建的一台物理机服务器。不同实例类型提供不同的计算能力、存储空间、网络性能,您可以基于业务需求选择不同类型的实例。当天翼云向您交付一个实例时,您将获得这台服务器完整的控制权限,包括开机、关机、带内管理等。 实例类型 目前天翼云提供的物理机CPU,均为x86架构,根据业务需求选购不同配置的物理机服务器。 x86 V4实例(CPU采用Intel Broadwell架构) x86 V5实例(CPU采用Intel Skylake架构) x86 V6实例(CPU采用Intel Cascade Lake架构) 其他说明 基于本地盘的物理机服务器,系统盘默认RAID 1,数据盘默认直通盘。如果需要更改数据盘RAID配置,可以联系管理员变更。系统盘RAID不支持变配。 常用的RAID级别 RAID 0 RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O要求高,但数据安全性要求低的场合。 图1 RAID 0数据存储原理 RAID 1 RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半以下,因此常用于对容错要求较高的应用场合,如财政、金融等领域。 图2 RAID 1数据存储原理 RAID 5 RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。 图3 RAID 5数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 6 在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块磁盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的磁盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。 图4 RAID 6数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。 RAID 10 RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 0+RAID 1的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。 图5 RAID 10数据存储原理 RAID 50 RAID 50被称为镜像阵列条带,即RAID 5 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图6 RAID 50数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 60 RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图7 RAID 60数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        实例规格说明
        实例概述
      • 审计
        本页介绍天翼云TeleDB数据库中审计。 数据库安全审计是企业级数据库必须提供的一个基础能力,有助于事后对访问合规性进行追溯。结合业界通用的做法,TeleDB从多个维度来提供全方位的审计能力,同时TeleDB审计通过旁路检测方式,对数据库运行效率的影响极小。 TeleDB审计主要包括粗粒度审计(audit)和细粒度审计(fga)。 粗粒度审计日志主要存储在cn的audit.log:主要针对语句级别、用户级别、对象级别,对象操作级别,主要在sql语法解析层面进行捕捉。 细粒度粒度审计日志存储在dn的audit.fga:主要是针对某个表的列属性、列的值进行审计,在sql执行器进行捕捉。 说明 两套审计规则都依赖auditadmin的审计管理员用户。 审计管理员auditadmin、安全管理员mlsadmin、数据库管理员三权分立,审计用户命名必须以audit开头。 audit和fga使用兼容:相互独立,可只用audit;可只用fga;可用audit和fga。 粗粒度audit操作步骤: 以auditadmin用户进行连接,执行审计规则audit all,会将后续的语句审计记录在$DATADIR/pglog/audit/audit.log $ ./psql h 127.0.0.1 p11111 d postgres W U auditadmin Password for user auditadmin: psql (PostgreSQL 10.0 TeleDBX V6) Type "help" for help. postgres> audit all; WARNING: AuditDefine Rcv: audit all; WARNING: AuditDefine Snd: AUDIT ALL ;AUDIT 细粒度fga操作步骤: 在每1个cn和dn都会开启1个audit logger process和1个后台进程bgworker:audit fga worker tangyujie是初始化的超级用户 $ ./psql h 127.0.0.1 p11111 d postgres W U tangyujie 步骤1: 创建插件&查看参数 create extension pgfga;show enablefga; 1.创建用户和数据库CREATE USER auditfgauser WITH SUPERUSER CREATEDB LOGIN ENCRYPTED PASSWORD 'auditfgauser';CREATE DATABASE auditfgadatabase; 2切换到auditfgadatabase数据库 c auditfgadatabase auditfgauser;create extension pgfga; 3.切换到auditfgauser用户,建表插入数据 c auditfgadatabase auditfgausercreate table foo(idx bigint, str text);insert into foo values(1, 'a'); 3.3 验证insert into foo values(2, 'b');insert into foo values(3, 'c');insert into foo values(4, 'd');select from foo; 步骤2: 制定审计规则 4.切换到 auditadmin审计管理员用户 c auditfgadatabase auditadmin 4.1 增加审计规则addpolicy(指定模式、表名、规则名, 列名、审计条件,模式,存储过程、是否开启审计,语句类型)addpolicy(objectschema,objectname,policyname,auditcolumns,auditcondition,handlerschema,handlermodule,auditenable,statementtypes,auditcolumnopts),其中auditenable必须为true才能生效,默认为true。select addpolicy(objectschema:'public', objectname:'foo',auditcolumns:'idx',policyname:'poli', auditcondition:'idx > 1');select addpolicy('public', 'foo', 'poli1','idx','idx >1','public','helloworld','true','select'); 4.2 查询pgfga插件的视图 select from pgauditfgaconf;select from pgauditfgaconfdetail ;select from pgauditfgapolicycolumnsdetail; 步骤3: 生效审计规则 4.3开启审计规则 enablepolicy(指定模式、表名、规则名),使得auditenable为trueselect enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli');select enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 其他函数 4.4 删除审计规则droppolicy(指定模式、表名、规则名)。 select droppolicy(objectschema:'public', objectname:'bar',policyname:'poli'); 4.5 禁用审计规则 disablepolicy(指定模式、表名、规则名),使得auditenable为false select disablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 审计日志管理 1. 设置设计规则 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计设置 ,出现审计设置弹框。 ② 在审计设置 弹框中,选择 是否开启审计 、 审计粒度 ,单击确定完成审计设置。 当审计粒度为 全局级 ,您可对需要进行审计和告警的动作进行选择。 当审计粒度为 对象级 ,您需设置对象审计规则同时使用。 2. 审计规则管理 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计规则管理 ,进入审计规则管理页面。 ② 新增审计规则 1. 在审计规则管理 页面,单击 新增审计规则 ,出现新增审计规则弹框。 2. 在新增审计规则 弹框中,输入 规则名称 、选择 审计对象名称 、勾选 审计操作类型 、输入审计对象和选择 是否开启 , 是否触发告警 ,单击确定完成新增审计规则。 ③ 编辑审计规则 单击已创建审计规则所在行的 编辑 ,可修改审计规则。 ④ 删除审计规则 单击已创建审计规则所在行的 删除 ,可删除审计规则。 3. 查看审计日志 选择审计日志 页签,在当前实例下拉框选择您需要查询的实例,设置查询开始时间和结束时间,在下拉框 选择查询条件 ,单击 查询 。 查询条件可选择 节点名称 、 审计类型 、 SQL语句 、数据库名称 和 用户名 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        审计
      • 集群版初始化
        本节主要介绍HBlock集群版如何初始化。 填写初始化相关信息 1. 设置基本信息。 参数 描述 版本规格 版本规格: 免费版:基础功能永久免费使用,高级功能默认禁用,提供一次30天免费试用机会。免费版的软件升级功能将在2年后自动失效。导入商业版软件许可证可激活全部功能。 商业版:提供30天全功能试用,到期后部分管理功能将被锁定。导入商业版软件许可证可激活全部功能。 说明 免费版与商业版的功能差别详见商业版与免费版。 系统名称 指定HBlock名称。 字符串形式,长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 登录用户名 HBlock管理员用户名。 类型:字符串 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小写。默认值为storuser。 登录密码 设置管理员密码。初始化时必须设置密码。 字符串形式,长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 2. 设置集群拓扑。 拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。 拓扑文件方式 参数 描述 拓扑文件 导入集群拓扑文件。 拓扑文件为符合UTF8编码格式的JSON文件,详见集群拓扑文件。 服务器方式 :点击“添加服务器”,填写服务器信息。 参数 描述 节点名称 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 服务器IP 要初始化服务器的IP,支持IPv4和IPv6地址。 端口号 API端口号。 注意 需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录 服务器中,用于存储用户数据的绝对路径。 可以输入一个或多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 修改:修改数据目录。 移除:移除数据目录。 3. 设置故障域服务器方式: 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。可以选择:数据目录级别的故障域、服务器级别的故障域、机架级别的故障域、机房级别的故障域。 注意 如果故障域级别为机架或者机房,则必须使用拓扑文件导入方式进行初始化。 4. 设置网络 参数 描述 业务网络 该网段用于业务与系统之间的数据传输。IP CIDR格式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 集群网络 用于系统内部数据传输。IP CIDR格式。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 5. 设置端口。 系统使用指定端口及端口范围进行初始化,如都未指定,则使用默认端口。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 设置端口范围时,请避免和Linux系统的本地临时端口(iplocalportrange)范围重合,否则可能会导致HBlock服务所用的端口被占用。使用命令行cat /proc/sys/net/ipv4/iplocalportrange可以查看本地临时端口范围。 参数 描述 端口范围 未指定端口的服务将从此范围中自动取值。 取值:整型,取值为[1, 65535]。默认取值为2000020500。 说明 建议指定的端口范围至少包含500个端口。 iSCSI服务 指定iSCSI端口号。 取值:整型,取值为[1, 65535],默认端口号为3260。 数据服务 指定数据服务端口号。 取值:整型,取值为[1, 65535]。 管理服务 指定管理服务端口号。 取值:整型,取值为[1, 65535]。 元数据服务 指定元数据服务端口号。 取值:整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        集群版初始化
      • 链路追踪
        概述 服务网格支持使用opentelmetry方式接入应用性能监控链路追踪能力,本章节介绍如何开启和使用链路追踪。 开启条件 需要开通APM应用性能监控,可参考开通应用性能监控应用性能监控快速入门 天翼云 (ctyun.cn) 需要在网格实例所属VPC下开通APM相关的终端节点(VPCE) 开启方式 登录服务网格控制台,网格实例 > 网格配置 > 自定义配置 > 启用链路追踪 开启即可。 开启时,您需要设置采样里,取值1100。 如果您还未开通应用性能监控服务及链路追踪数据上报需要的VPCE等资源,您可以授权服务网格组件一键开通相关资源。 链路追踪接入示例 概述 本节展示服务网格接入链路追踪的操作流程及效果,首先确认已经开启了链路追踪功能开关并将采样率配置为100%。演示架构如下图所示 其中ELB和Ingress Gateway作为接入层,业务层包括app1、app2、app3三个服务(分别都注入了网格sidecar),业务代码中也通过opentelemetry方式接入了链路追踪,触发数据面访问后,预期会上报链路数据到APM,完整覆盖网格数据面和应用。 部署测试程序 创建demo命名空间并配置好相关注入标签,保证sidecar注入;部署应用及服务,如下 注意 1. 本示例使用的镜像地址是华南2资源池,如果您在其他资源池体验,请替换镜像地址 2. 本示例采用go语言+opentelemetry方式接入链路追踪,您可以参考应用性能监控go语言接入链路追踪的文档将Deployment中的token和endpoint环境变量替换成您看到的值 html apiVersion: apps/v1 kind: Deployment metadata: name: app1base namespace: demo labels: app: app1 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2base namespace: demo labels: app: app2 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3base namespace: demo labels: app: app3 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app3 ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app1test namespace: demo labels: app: app1 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2test namespace: demo labels: app: app2 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3test namespace: demo labels: app: app3 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app3 ports: containerPort: 8000 apiVersion: v1 kind: Service metadata: name: app1 labels: app: app1 service: app1 spec: ports: port: 8000 name: http selector: app: app1 apiVersion: v1 kind: Service metadata: name: app2 labels: app: app2 service: app2 spec: ports: port: 8000 name: http selector: app: app2 apiVersion: v1 kind: Service metadata: name: app3 labels: app: app3 service: app3 spec: ports: port: 8000 name: http selector: app: app3
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        链路追踪
      • 通过自定义域名访问集群
        本节介绍了通过自定义域名访问集群的用户指南。 前提条件 已经创建了一个天翼云账号,并且有一个已经创建好的云容器引擎集群。 集群中已经部署了应用服务,并且可以通过Cluster IP或NodePort进行访问。 已经拥有一个域名,并可以对其进行DNS配置。 创建Ingress Controller 登录云容器引擎控制台,单击集群名称进入集群。 在左侧导航栏中找到网络,下拉找到路由,点击路由,点击左上角创建路由。 创建Ingress Controller。 安装完成后,可以使用kubectl命令查看Ingress Controller的服务: plaintext kubectl get services n ingressnginx 确保ingressnginxcontroller服务已经创建并在运行。 创建Ingress资源 编写Ingress资源配置文件 创建一个新的YAML文件,例如myingress.yaml,内容如下: plaintext apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: myingress namespace: default spec: rules: host: http: paths: path: / pathType: Prefix backend: service: name: port: number: 替换 为您的自定义域名, 为您的Kubernetes服务名称, 为服务的端口号。 应用Ingress资源 使用kubectl应用刚才创建的Ingress资源文件: plaintext kubectl apply f myingress.yaml 验证Ingress资源是否已创建: plaintext kubectl get ingress 配置自定义域名的DNS记录 获取Ingress Controller的外部IP 使用以下命令获取Ingress Controller的外部IP: plaintext kubectl get services n ingressnginx 记录ingressnginxcontroller服务的EXTERNALIP。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        访问集群
        通过自定义域名访问集群
      • 查看安全报告
        此小节介绍企业主机安全查看安全报告。 主机安全支持订阅日报、周报、月报和自定义,展现不同周期主机安全趋势以及关键安全事件与风险,订阅报告将为您保存6个月,以满足等保测评以及审计的需要。 注意 勾选订阅报告后,第二天即可查看、下载。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 安全报告概览 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、单击目标报告的“获取报告”,跳转至报告预览页,可查看报告信息、下载、发送报告。 查看报告发送记录 发送记录存储了邮件发送报告的发送详情。 1、单击安全报告概览页右上角的“报告发送记录”查看报告发送记录。 2、在弹窗中查看报告发送记录,参数说明如表所示。 报告发送详情 报告发送记录参数 参数名称 参数说明 报告名称 已发送报告的名称。 统计周期 目标发送报告内容的统计周期。 报告类型 目标发送报告的统计周期类型。 安全周报 安全月报 安全日报 自定义报告 邮件发送时间 目标报告发送的时间。 3、单击“操作”列的“获取报告”可查看历史发送的报告信息,同时可预览和下载报告。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        查看安全报告
      • 基本概念
        本文介绍视频直播相关的基本概念。 边缘节点 边缘节点是离终端用户最近的一个节点,经过视频直播加速的客户,其用户访问无论推流还是拉流均经过边缘节点接入。 源站 源站指客户的直播源,通常由客户运营维护,为视频直播加速提供原始内容。 DNS DNS,即Domain Name System,指域名解析服务。它的作用是把域名转换成网络可以识别的IP地址。人们习惯记忆域名,但机器间互相只认IP地址,它们之间的转换工作称为域名解析,域名解析需要由专门的域名解析服务器来完成,整个过程是自动进行的。比如:上网时输入的www.baidu.com会自动转换成220.181.112.143。常见的DNS解析服务商有:阿里云解析,万网解析,DNSPod,新网解析,Route53(AWS),Dyn,Cloudflare等。 CNAME域名 客户接入直播时,在天翼云直播控制台完成加速域名添加后,系统会为您分配一个天翼云的CNAME域名,例如 .ctadns.cn,您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctadns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云直播的节点,实现加速的目的。 CNAME记录 CNAME记录是指域名解析中的别名记录(Canonical Name),用来把一个域名解析到另一个域名(CNAME域名),再由CNAME域名来解析到需要访问的服务器IP地址。 DNS解析时间 DNS解析时间是指通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。
        来自:
        帮助文档
        视频直播
        产品介绍
        基本概念
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 数据架构示例
        关系建模:新建SDI层和DWI层两个模型 在关系建模中,分别新建SDI层和DWI层两个关系模型,并通过逆向数据库导入原始数据表到SDI层的关系模型中,在DWI层模型中新建一个“标准出行数据”的标准化的业务表。 1. 在数据架构控制台,单击左侧导航树中的“关系建模”。 如果当前未创建过关系模型,系统会弹出“新建分层治理模型”提示框。您可以新建一个SDI层关系模型,命名为“sdi”,再新建一个DWI层关系模型,命名为“dwi”。单击“确定”即可。 如果不是首次创建,单击新建物理模型,如下图所示。 a. 先新建一个SDI层关系模型,命名为“sdi”。在物理模型页签中,单击,新建模型,配置如下参数,单击“确定”。 b. 再新建一个DWI层关系模型,命名为“dwi”。在物理模型页签中,单击,新建模型,配置如下参数,单击“确定”。 2. 在“数仓分层”页签中,单击新建的SDI关系模型,展开,选中业务对象“城市交通 > 行程记录 > 原始记录”,单击“逆向数据库”,通过逆向数据库,导入原始表。 在“逆向数据库”窗口中,配置如下所示参数,然后单击“确定”。在本示例中选择贴源层数据库demosdidb中的原始数据表。 逆向数据库成功后,单击“关闭”。您可以在列表中查看导入的表: 3. 请参照以下步骤,新建一个“标准出行数据”的标准化的业务表。 a.在“数仓分层”页签中,单击新建的DWI关系模型,展开,选中DWI模型中的业务对象“城市交通 > 行程记录 > 原始记录”,然后在右侧列表上方单击“新建”按钮,进入新建表页面。 b.在新建表的“基本配置”标签页中,配置如下: c.进入“表字段”标签页,单击“新建”,在标准出行数据表中,依次添加如下表所示的字段,并单击字段供应商编号、费率代码、付款方式的“数据标准”列中的按钮,分别关联数据标准“供应商”、“费率代码”和“付款方式”。 下表为标准出行数据表字段 序号 名称 编码 数据类型 数据标准 主键 分区 不为空 标签 1 供应商编号 vendorid 长整型(BIGINT) 供应商 不勾选 不勾选 勾选 2 上车时间 tpeppickupdatetime 时间戳类型(TIMESTAMP) 不勾选 不勾选 勾选 3 下车时间 tpepdropoffdatetime 时间戳类型(TIMESTAMP) 不勾选 不勾选 勾选 4 乘客人数 passengercount 字符类型(STRING) 不勾选 不勾选 勾选 5 行驶距离 tripdistance 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 6 费率代码 ratecodeid 长整型(BIGINT) 费率代码 不勾选 不勾选 勾选 7 存储转发标识 storefwdflag 字符类型(STRING) 不勾选 不勾选 勾选 8 上车地点 pulocationid 字符类型(STRING) 不勾选 不勾选 勾选 9 下车地点 dolocationid 字符类型(STRING) 不勾选 不勾选 勾选 10 付款方式代码 paymenttype 长整型(BIGINT) 付款方式 不勾选 不勾选 勾选 11 车费 fareamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 12 加收 extra 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 13 MTA税 mtatax 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 14 手续费 tipamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 15 通行费 tollsamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 16 改善附加费 improvementsurcharge 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 17 总车费 totalamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 对于标准出行数据表中的字段,您可以执行以下操作。 关联数据标准 在新建表或编辑表时,进入“表字段”标签页,在字段所在行的“数据标准”列,单击按钮可以选择一个数据标准与字段相关联。将字段关联数据标准后,表发布上线后,就会自动生成一个质量作业,每个关联了数据标准的字段会生成一个质量规则,基于数据标准对字段进行质量监控,您可以前往DataArts Studio数据质量模块的“质量作业”页面进行查看。有关关联数据标准的更多信息,请参见用户指南中的“数据架构> 关系建模 > 物理模型设计”中的“新建表并发布”。 添加标签 标签是用户自定义的标识。添加标签后,您就可以在DataArts Studio数据目录模块中通过标签搜索相关的数据资产。 在新建表或编辑表时,进入“表字段”标签页,在字段所在行的“标签”列,单击按钮可以添加标签,在弹出框中,您可以输入新的标签名称后按回车,也可以在下拉列表中选择已有标签。 关联质量规则 完成表的新建后,您可以在表中为字段关联质量规则,完成关联后,当表发布成功后,就会在DataArts Studio数据质量中自动创建质量作业,如果当前表已经发布,则系统会自动更新质量作业。有关关联质量规则的更多信息,请参见用户指南中的“数据架构> 关系建模 > 关联质量规则”。 d.接下来,进入“映射”标签页,通过新建映射设计表的数据来源。 如果表中的字段数据来源于不同的关系模型,您需要创建多个映射。在每个映射中,您只需要为来源于当前映射的字段设置源字段,其他字段可以不设置。 如果表中的字段数据来源于同一个关系模型中的多个表,您可以新建一个映射。在该映射的“源表”中,您可以将多个表设置Join,然后再为表中的字段设置源字段。 本示例只需要新建一个映射。单击“新建”,新建一个映射,如下图。 映射名称 :新建映射时会自动生成,您也可以修改。 来源模型 :本示例选择“sdi”。 源表 :本示例选择原始数据表“sditaxitripdata”,标准出行数据表的数据均来源于该原始数据表。 字段映射 : 在“字段映射”区域,依次为表中的字段设置源字段,所选择的源字段应与表中的字段代表相同含义,一一对应。如下图所示,在字段映射的底部,会显示生成的SQL语句,可供参考。 说明 如果在“数据架构 > 配置中心 > 功能配置”页面中开启了“模型设计业务流程步骤 > 创建数据开发作业”(默认为关闭),发布表时,系统支持根据表的映射信息,在数据开发中自动创建一个ETL作业,每一个映射会生成一个ETL节点,作业名称以“ 数据库名称表编码 ”开头。当前该功能处于内测阶段,仅支持DLI>DLI和DLI>DWS两种映射的作业创建。 已创建的ETL作业可以进入“数据开发 > 作业开发”页面查看。ETL作业默认每天0点启动调度。 在本示例中,不支持自动创建ETL作业,映射信息仅为数据开发提供数据的ETL流向。在做数据开发的过程中,可以参考此处的映射关系编写SQL脚本。 e.完成映射的配置后,出租车行程数据表配置完成,单击“保存”。 4. 模型创建好之后,勾选已创建的模型,选择“更多 > 导出”,然后在弹出框中选中“表”并单击“确定”,可以将整个模型导出。参考同样的方法导出模型“sdi”。导出后的模型,可以作为备份,今后可用于模型导入。 5. 发布表模型。 a.发布步骤2中通过逆向数据库导入SDI模型的原始表,发布后,就可以通过DataArts Studio对原始表进行管理和监控。 返回关系建模页面,在模型目录选择“sdi”模型,然后在右侧的列表中,勾选表sditaxitripdata,再单击“发布”,然后在弹出框中选择审核人,单击“确认提交”,等待审核人员审核通过后,“sdi”模型发布成功。如果当前帐号具备审核人权限,也可以勾选“自助审批”,直接提交即可以审核通过。 b.发布DWI模型中的表。 返回关系建模页面,在模型目录中选择“dwi”模型,然后在右侧的列表中,勾选表“标准出行数据”,再单击“发布”,然后在弹出框中选择审核人,单击“确认提交”,等待审核人员审核通过后,“dwi”模型发布成功。如果当前帐号具备审核人权限,也可以勾选“自助审批”,直接提交即可以审核通过。 6. 当表模型发布成功后,进入数据架构的“关系建模”页面可以查看表的“状态”和“同步状态”。 发布是一个异步操作,您可以单击按钮刷新状态。表发布并通过审核后,系统会依据“配置中心 > 功能配置”页面中的“模型设计业务流程步骤”进行创建表、同步技术资产、同步业务资产等操作,在表的“同步状态”一列中将显示同步状态。 “同步状态”若均显示成功,则说明表发布成功。鼠标移至“同步状态”中的图标之上,若显示“创建表: 创建成功”说明该表在对应的数据源下已经创建成功。 “同步状态”若显示某一项或某几项失败,可以先刷新状态。如果仍失败,可以选择操作列的“更多 > 发布历史”,然后进入“发布日志”标签页查看日志。 请根据错误日志定位失败原因,问题解决后,再返回“关系建模”页面,在列表中勾选需同步的表,然后选择“更多 > 同步”尝试重新同步。如果仍同步失败,请联系技术支持人员协助解决。 在列表中单击表名,可以查看表的详情,其中“数据源”显示了表的位置。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 以Jeager方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍采用Jaeger SDK方式上报c应用的链路数据,具体如下。 前提条件 完成vpce接入。 背景信息 Jaeger是Uber推出的一款开源分布式追踪系统,兼容OpenTracing API,已在Uber大规模使用,且已加入CNCF开源组织。其主要功能是聚合来自各个异构系统的实时监控数据。 接入步骤 1、安装依赖包 plaintext dotnet add  package Jaeger dotnet add  package OpenTracing dotnet add  package OpenTracing.Contrib.NetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 新建文件JaegerServiceCollectionExtensions.cs,代码如下 plaintext using System; using System.Reflection; using Jaeger; using Jaeger.Reporters; using Jaeger.Samplers; using Jaeger.Senders.Thrift; using Microsoft.Extensions.Logging; using OpenTracing; using OpenTracing.Contrib.NetCore.Configuration; using OpenTracing.Util; namespace Microsoft.Extensions.DependencyInjection {     public static class JaegerServiceCollectionExtensions     {         private static readonly Uri jaegerUri  new Uri("endpoint"); //替换为上报数据的Endpoint         public static IServiceCollection AddJaeger(this IServiceCollection services)         {             if (services  null)                 throw new ArgumentNullException(nameof(services));             services.AddSingleton (serviceProvider >             {                 var serviceName  "";    //修改为自定义的服务名                 //ILoggerFactory loggerFactory  serviceProvider.GetRequiredService ();                 var loggerFactory  LoggerFactory.Create(builder >                   {                       // 添加控制台日志提供程序                       builder.AddConsole();                       // (可选)其他配置,例如设置日志级别                       // builder.SetMinimumLevel(LogLevel.Debug);                   });                 ISampler sampler  new ConstSampler(sample: true);                                  //将token替换为自己的鉴权token                 IReporter reporter  new RemoteReporter.Builder()                     .WithSender(new HttpSender.Builder(jaegerUri.ToString()).WithAuth("token").Build())                     .Build();                                 //IReporter reporter  new LoggingReporter(loggerFactory);                                 ITracer tracer  new Tracer.Builder(serviceName)                     .WithLoggerFactory(loggerFactory)                     .WithSampler(sampler)                     .WithReporter(reporter)                     .Build();                 GlobalTracer.Register(tracer);                 return tracer;             });             // Prevent endless loops when OpenTracing is tracking HTTP requests to Jaeger.             services.Configure (options >             {                 options.IgnorePatterns.Add(request > jaegerUri.IsBaseOf(request.RequestUri));             });                         return services;         }     } } 4、开启链路跟踪 plaintext using Jaeger; using Jaeger.Reporters; using Jaeger.Samplers; using Microsoft.Extensions.Logging; var builder  WebApplication.CreateBuilder(args); builder.Services.AddJaeger();        //ITracer对象的初始化和注册 builder.Services.AddOpenTracing();   //开启Http链路 builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以Jeager方式接入
      • 购买
        本章节主要介绍数据治理中心DataArts Studio的购买流程。 只有拥有天翼云帐号,以及DAYU Administrator或Tenant Administrator权限的用户才可以购买DataArts Studio实例或DataArts Studio增量包。如需购买,您需要给用户授予所需的权限。 说明 Tenant Administrator策略具有所有云服务的管理员权限(除IAM管理权限之外),为安全起见,一般不建议给IAM用户授予该权限,请谨慎操作 。 前提条件 已申请VPC、子网和安全组,您也可以在购买DataArts Studio实例过程中申请VPC、子网和安全组。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 购买“数据治理中心 DataArts Studio(基础包)” 1.在数据治理中心控制台页面,进行“云资源访问授权”后,单击“购买实例”,进入购买DataArts Studio实例界面。 数据治理中心与这些云服务之间存在业务交互关系,需要与这些云服务协同工作,因此需要您创建云服务委托,将操作权限委托给数据治理中心,让数据治理中心以您的身份使用这些云服务,代替您进行一些任务调度、资源运维等工作。 云服务委托包含DWS、MRS、RDS、OBS、SMN、KMS等服务的相关权限,作用范围可以访问IAM的委托界面查看。 另外子账号以主账号的委托为准,不需要额外申请委托。 勾选所有服务并单击“同意授权”,系统会自动创建委托。 完成了委托授权后,下次再进入数据治理中心控制台首页时,系统不会再弹出访问授权的对话框。 如果您只勾选了其中的某几个服务进行委托授权,下次进入数据治理中心控制台首页时,系统仍会弹出访问授权的对话框,提示您对未授权的云服务进行访问授权。 2.选择版本,点击“立即购买”,在订购页面设置DataArts Studio实例参数,各参数说明如下表所示。 DataArts Studio实例参数 参数名称 样例 说明 ::: 区域 选择实例的区域,不同区域的资源之间内网不互通。 选择区域时,您需要考虑以下几个因素: 地理位置一般情况下,建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。不过,在基础设施、BGP网络品质、资源的操作与配置等方面,中国大陆各个区域间区别不大,如果您或者您的目标用户在中国大陆,可以不用考虑不同区域造成的网络时延问题。曼谷等其他地区和国家提供国际带宽,主要面向非中国大陆地区的用户。如果您或者您的目标用户在中国大陆,使用这些区域会有较长的访问时延,不建议使用。 云服务之间的关系如果多个云服务一起搭配使用,需要注意不同区域的云服务内网不互通。例如数据治理中心(包括管理中心、CDM等组件)需要与MRS、OBS等服务互通时,如果数据治理中心与其他云服务处于不同区域的情况下,需要通过公网或者专线打通网络;而在同区域情况下,同子网、同安全组的不同实例默认网络互通。 资源的价格不同区域的资源价格可能有差异,请参见天翼云服务价格详情。 企业项目 default DataArts Studio实例关联的企业项目。企业项目管理是一种按企业项目管理云资源的方式,具体请参见《企业项目管理用户指南》。 如果已经创建了企业项目,这里才可以选择。 当DataArts Studio实例需连接云上服务(如DWS、MRS、RDS等),还必须确保DataArts Studio实例企业项目与该云服务实例的企业项目相同。 一个企业项目下只能购买一个DataArts Studio实例。 需要与其他云服务互通时,需要确保与其他云服务的企业项目一致。 版本 初级版 选择需要购买的数据治理中心版本,版本差异请参见产品规格。 实例名称 数据治理中心test 自定义DataArts Studio实例名称。 可用区 可用区1 第一次购买DataArts Studio实例或批增量包时,可用区无要求。 再次购买DataArts Studio实例或增量包时,是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 虚拟私有云 vpc1 DataArts Studio实例中的批量数据迁移CDM集群所属的VPC、子网、安全组。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS、DIS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 子网 subnet1 安全组 sg1 续费 勾选自动续费前的复选框,可实现自动按月或者按年续费。 3.查看当前配置,并确认购买时长,确认无误后单击“立即购买”。 4.单击“去支付”,按提示付款成功即可在首页看到已开通的实例。 5.返回数据治理中心控制台首页时,如您此前未进行“云资源访问授权”,系统会再次自动弹出“云资源访问授权”的对话框,提示您对所列出的服务进行委托授权。 6.在已购买的实例中单击“进入控制台”,进入数据治理中心控制台。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        购买
      • 查看告警发送历史
        告警详情 告警详情页面显示了告警等级、发送信息、状态,以及告警基本信息、关联事件和活动记录。 在告警详情页面,您可以执行以下操作: 对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。具体操作,请参见下方【处理告警】。 在详情、事件和活动页签可以分别查看以下信息: 详情页签显示了告警创建时间、告警内容、通知策略。 事件页签显示了告警关联事件、事件创建时间和事件状态。单击事件名称,可以查看目标事件的详细信息。更多信息,请参见下方【事件详情】。 行动页签显示了告警触发行动集成的记录。 活动页签显示了告警的活动记录。 事件详情 事件详情面板显示了事件的基本信息和扩展字段。 处理告警 在控制台中,对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。 1. 在告警页面单击右上角的关联操作人。 说明 操作人的名称为通知对象中的联系人名称。 由于一个天翼云账号可能存在多人同时使用的情况,所以需要通过关联操作人来区分实际每次操作告警的人员。 2. 在目标告警右侧的操作列,或者单击目标告警,在告警详情页面: 单击认领,可以将自己设置为当前告警的处理人。 单击解决,可以关闭目标告警。 单机屏蔽,可以屏蔽目标告警的通知。 单击更多图标,然后单击指定告警处理人,可以指定钉钉群里的联系人为告警处理人。 单击更多图标,然后单击修改告警等级,可以修改告警等级。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        告警管理(新版)
        查看告警发送历史
      • 1
      • ...
      • 286
      • 287
      • 288
      • 289
      • 290
      • ...
      • 307
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      模型推理服务

      智算一体机

      人脸实名认证

      推荐文档

      EIP解绑和批量解绑

      快速登录

      EIP释放和批量释放

      购买类

      产品定义

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号