活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云管家_相关内容
      • 产品优势
        说明:本章介绍关系数据库的优势,关系型数据库具有低成本、高安全性、高可靠性等优势,相对传统数据库运维繁琐等缺陷,关系型数据库使用更加方便简单。 即开即用 您可以通过官网实时生成目标实例,关系型数据库服务配合弹性云服务器一起使用,通过内网连接关系型数据库可以有效的降低应用响应时间、节省公网流量费用。 弹性扩容 可以根据您的业务情况弹性伸缩所需的资源,按需开支,量身订做。配合云监控(Cloud Eye)监测数据库压力和数据存储量的变化,您可以灵活调整实例规格。 完全兼容 您无需再次学习,关系型数据库各引擎的操作方法与原生数据库引擎的完全相同。关系型数据库还兼容现有的程序和工具。 运维便捷 RDS的日常维护和管理,包括但不限于软硬件故障处理、数据库补丁更新等工作,保障关系型数据库运转正常。提供专业数据库管理平台,重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等一键式功能。提供CPU利用率、IOPS、连接数、磁盘空间等实例信息实时监控及报警,让您随时随地了解实例动态。 网络隔离 通过虚拟私有云(Virtual Private Cloud,简称VPC)和网络安全组实现网络隔离。虚拟私有云允许租户通过配置虚拟私有云入站IP范围,来控制连接数据库的IP地址段。关系型数据库实例运行在租户独立的虚拟私有云内,可提升关系型数据库实例的安全性。您可以综合运用子网和安全组的配置,来完成关系型数据库实例的隔离。 访问控制 通过主/子帐号和安全组实现访问控制。创建关系型数据库实例时,关系型数据库服务会为租户同步创建一个数据库主帐户,根据需要创建数据库实例和数据库子帐户,将数据库对象赋予数据库子帐户,从而达到权限分离的目的。可以通过虚拟私有云对关系型数据库实例所在的安全组入站、出站规则进行限制,从而控制可以连接数据库的网络范围。 传输加密 通过TLS加密、SSL加密实现传输加密。使用从服务控制台上下载的CA根证书,并在连接数据库时提供该证书,对数据库服务端进行认证并达到加密传输的目的。 存储加密 通过静态加密、表空间加密、同态加密对数据进行加密。关系型数据库服务支持对存储到数据库中的数据加密后存储,加密密钥由KMS进行管理。 数据删除 删除关系型数据库实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。安全删除不仅包括数据库实例所挂载的磁盘,也包括备份数据的存储空间(通常为廉价的对象存储系统)。 防DDoS攻击 当用户使用外网连接和访问关系型数据库实例时,可能会遭受DDoS攻击。当关系型数据库安全体系认为用户实例正在遭受DDoS攻击时,会首先启动流量清洗的功能,如果流量清洗无法抵御攻击或者攻击达到黑洞阈值时,将会进行黑洞处理,保证关系型数据库整体服务的可用性。 安全防护 关系型数据库处于多层防火墙的保护之下,可以有力地抗击各种恶意攻击,保证数据安全,防御DDoS攻击、防SQL注入等。建议用户通过内网访问关系型数据库实例,可使关系型数据库实例免受DDoS攻击风险。 双机热备 关系型数据库服务采用热备架构,故障秒级自动切换。 数据备份 每天自动备份数据,上传到对象存储服务(Object Storage Service,简称OBS)。备份文件保留732天,支持一键式恢复。用户可以设置自动备份的周期,还可以根据自身业务特点随时发起备份,选择备份周期、修改备份策略。 数据恢复 支持按备份集和指定时间点的恢复。在大多数场景下,用户可以将732天内任意一个时间点的数据恢复到关系型数据库新实例或已有实例上,数据验证无误后即可将数据迁回关系型数据库主实例,完成数据回溯。 RDS与自建数据库优势对比 性能对比 性能项目 云数据库RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需要购买额外设备,自建主从,自建RAID。 数据可靠性 请参见《云硬盘用户指南》。 需要购买额外设备,自建主从,自建RAID。 系统安全性 防DDoS攻击,流量清洗;及时修复各种数据库安全漏洞。 需要购买昂贵的硬件设备和软件服务,需要自行检测和修复安全漏洞等。 数据库备份 支持自动备份,手动备份,自定义备份存储周期。 需要购买设备,并自行搭建设置和后期维护。 软硬件投入 无需投入软硬件成本,按需购买,弹性伸缩。 数据库服务器成本相对较高,对于Microsoft SQL Server需支付许可证费用。 系统托管 无需托管。 需要自购2U服务器设备,如需实现主从,购买两台服务器,并进行自建。 维护成本 无需运维。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 弹性扩容,快速升级,按需开通。 需采购和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 资源利用率 按实际结算,100%利用率。 考虑峰值,资源利用率低。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品优势
      • 团队管理
        本页介绍天翼云TeleDB数据库团队管理相关操作。 注意 团队管理模块只有超级管理员和团队管理员才能进入。 团队作为数据管理模块中一组用户和数据库资源的集合,团队内成员均可访问团队内的实例,在查询窗口、数据导入和导出等功能中,可搜索并选中团队内的所有数据库进行操作。 团队成员有包括团队管理员和普通成员两种团队角色,其中: 团队管理员:每个团队至少有一个团队管理员。团队管理员可以添加和删除团队内的成员和实例。 普通成员:团队内的普通成员可访问团队内所有实例,查看团队内其他成员信息。 团队管理功能包含全部团队列表、团队成员管理和团队实例管理三部分。 全部团队列表:只有超级管理员可访问。通过此界面,超级管理员可查看所有团队信息、添加团队和删除团队,同时也可以进入特定团队去管理该团队的成员和实例。 团队成员管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有成员信息,添加和删除团队成员,变更成员的团队角色。 团队实例管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有实例信息,添加实例至团队,且可通过快速跳转到元数据管理界面编辑和移除实例。实例添加至团队后,团队内所有成员均可访问团队内的实例。 1. 查看所有团队 1. 以超级管理员身份登录数据管理模块。 2. 在左侧菜单栏依次选择安全中心 > 团队管理。 3. 界面展示当前组织下,所有团队列表。 2. 添加团队 1. 在全部团队列表页中单击新建团队 ,系统显示新建团队弹窗。 2. 输入团队名称 ,选择一个或多个用户作为团队的团队管理员。 3. 单击确定完成团队的添加。 3. 修改团队 1. 在全部团队列表页中单击要修改团队 右侧的管理按钮,系统显示团队修改弹窗。 2. 输入新的团队名称,调整团队管理员。 3. 单击确定完成团队的修改操作。 4. 删除团队 1. 在全部团队列表页中单击要删除团队右侧的删除 按钮,系统显示团队删除确认 弹窗。 2. 单击确定完成团队的删除操作。 5. 添加团队成员 1. 在团队成员管理页中,团队下拉列表选中要添加成员的团队,系统显示该团队下所有成员。 2. 单击添加用户 至团队,系统显示添加弹窗。 3. 在团队角色下拉列表中选择要添加的团队角色。 4. 在用户下拉列表中,搜索要添加的用户后进行选中。可以多次搜索和选中多个用户。 5. 单击确定完成团队成员的添加操作。 6. 修改成员角色 1. 在团队成员管理页中,团队下拉列表选中要修改成员角色的团队,系统显示该团队下所有成员。 2. 单击要修改角色的成员的团队内角色下拉列表,选择新的团队角色。 3. 系统自动保存成员的新角色。 7. 删除团队成员 1. 在团队成员管理页中,团队下拉列表选中要删除成员的团队,系统显示该团队下所有成员。 2. 单击某个成员右侧的从团队移除按钮,系统显示团队移除确认弹窗。 3. 单击确定完成团队成员的删除操作。 8. 录入实例到团队 1. 在团队实例管理页中,团队下拉列表选中要录入实例的团队,系统显示该团队下所有实例。 2. 单击添加实例至团队,系统显示添加实例弹窗。 3. 在实例弹窗中,实例已默认绑定到当前团队,填写其他信息进行实例的录入。具体如何填写,参见数据资产 > 元数据管理 中关于各种类型实例录入的说明。 4. 单击确定完成团队实例的录入操作。 9. 删除团队中的实例 1. 在团队实例管理页中,团队下拉列表选中要删除实例的团队,系统显示该团队下所有实例。 2. 单击要删除实例右侧实例元数据 按钮,跳转到实例元数据页。 3. 在实例元数据中,列表默认显示要移除的实例,单击右侧更多 > 删除实例 ,系统显示实例删除确认弹窗。 4. 单击确定完成团队实例的删除操作。
        来自:
      • 链路追踪
        概述 服务网格支持使用opentelmetry方式接入应用性能监控链路追踪能力,本章节介绍如何开启和使用链路追踪。 开启条件 需要开通APM应用性能监控,可参考开通应用性能监控应用性能监控快速入门 天翼云 (ctyun.cn) 需要在网格实例所属VPC下开通APM相关的终端节点(VPCE) 开启方式 登录服务网格控制台,网格实例 > 网格配置 > 自定义配置 > 启用链路追踪 开启即可。 开启时,您需要设置采样里,取值1100。 如果您还未开通应用性能监控服务及链路追踪数据上报需要的VPCE等资源,您可以授权服务网格组件一键开通相关资源。 链路追踪接入示例 概述 本节展示服务网格接入链路追踪的操作流程及效果,首先确认已经开启了链路追踪功能开关并将采样率配置为100%。演示架构如下图所示 其中ELB和Ingress Gateway作为接入层,业务层包括app1、app2、app3三个服务(分别都注入了网格sidecar),业务代码中也通过opentelemetry方式接入了链路追踪,触发数据面访问后,预期会上报链路数据到APM,完整覆盖网格数据面和应用。 部署测试程序 创建demo命名空间并配置好相关注入标签,保证sidecar注入;部署应用及服务,如下 注意 1. 本示例使用的镜像地址是华南2资源池,如果您在其他资源池体验,请替换镜像地址 2. 本示例采用go语言+opentelemetry方式接入链路追踪,您可以参考应用性能监控go语言接入链路追踪的文档将Deployment中的token和endpoint环境变量替换成您看到的值 html apiVersion: apps/v1 kind: Deployment metadata: name: app1base namespace: demo labels: app: app1 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2base namespace: demo labels: app: app2 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3base namespace: demo labels: app: app3 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app3 ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app1test namespace: demo labels: app: app1 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2test namespace: demo labels: app: app2 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3test namespace: demo labels: app: app3 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app3 ports: containerPort: 8000 apiVersion: v1 kind: Service metadata: name: app1 labels: app: app1 service: app1 spec: ports: port: 8000 name: http selector: app: app1 apiVersion: v1 kind: Service metadata: name: app2 labels: app: app2 service: app2 spec: ports: port: 8000 name: http selector: app: app2 apiVersion: v1 kind: Service metadata: name: app3 labels: app: app3 service: app3 spec: ports: port: 8000 name: http selector: app: app3
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        链路追踪
      • 云容器引擎部署 HPKV 指南
        创建并挂载 HPFS 极速缓存 HPKV 需使用 HPFS 并行文件系统作为三级存储层,具体操作如下: 1. 创建文件系统 登录并行文件服务 HPFS 控制台,创建文件系统。文件系统需选择与 GPU 物理机规格相匹配的集群,否则将无法正常挂载。集群匹配关系的详细说明,请参见产品能力地图。 具体创建操作请参见创建文件系统。 2. 挂载文件系统至 GPU 物理机 将创建好的 HPFS 文件系统挂载至 GPU 物理机的 /mnt/hpfs 目录,以便推理服务读写缓存数据。 具体挂载操作请参见HPFSPOSIX 客户端挂载。 部署 HPKV 模板 完成基础资源准备后,需将 HPKV 的容器镜像与模板文件上传至容器镜像服务与模板市场,具体操作如下: 1. 获取 HPKV 模板文件 HPKV 模板文件为 .tgz 格式的压缩包。您可通过工单申请,在问题描述中填写:并行文件服务 HPFS,申请试用 HPKV 服务。 通过客户经理获取模板文件的下载链接,将 HPKV 模板文件下载至 GPU 物理机上挂载的 HPFS 文件系统目录中。 2. 开通并配置容器镜像服务 HPKV 部署需使用容器镜像服务存放相关镜像与模板文件。 1. 开通企业版 :登录容器镜像服务控制台,开通企业版实例。具体操作请参见开通企业版实例。 2. 创建命名空间 :在实例中创建用于存放 HPKV 镜像的命名空间。具体操作请参见容器镜像命名空间。 3. 创建镜像仓库 :在命名空间下创建镜像仓库,用于存放 HPKV 容器镜像。具体操作请参见容器镜像仓库。 4. 创建 Chart 仓库 :在实例中创建 Chart 仓库,用于存放 HPKV 模板文件(.tgz 包),注意仓库名称必须和模版文件的名称一致,具体操作请参见HelmChart命名空间、HelmChart镜像仓库。 3. 推送容器镜像至镜像仓库 1. 导入镜像 :将获取的容器镜像 tar 包下载至本地。通过客户经理获取容器镜像的下载链接,将容器镜像同样下载至 GPU 物理机上挂载的 HPFS 文件系统目录中。 2. 使用 Docker 命令导入: shell yum install y docker vim /etc/docker/daemon.json { "runtimes": { "nvidia": { "args": [], "path": "nvidiacontainerruntime" } }, "dataroot": "/data/dockerdata" } shell systemctl restart docker docker ps docker load i 3. 上传镜像 :登录镜像仓库,将导入的镜像推送至已创建的镜像仓库。具体操作请根据控制台指引操作或参见推送和拉取容器镜像。 4. 推送模板文件至 Chart 仓库 1. 登录 GPU 物理机节点:通过 SSH 登录已纳管的 GPU 物理机。 2. 推送模板 :将获取的 .tgz 模板文件推送至 Chart 仓库。具体操作请根据控制台指引操作或参见推送和拉取Helm Chart。 5. 下载模型文件 通过客户经理获取模型文件的下载链接,将模型文件同样下载至 GPU 物理机上挂载的 HPFS 文件系统目录中。 6. 使用模板发布应用 1. 查看模板:在容器平台的“模板市场”中,进入“我的模板”,即可看到已上传的 HPKV 模板。 2. 获取凭证 :在容器平台的“配置管理”中,进去“镜像拉取凭证”,创建镜像拉取凭证,具体操作请参见镜像拉取凭证。 3. 发布模板 :在模板包版本中点击“发布”按钮后,在右侧的弹窗中填写“实例名称”,选择待发布的“集群名称”和“命名空间”,按下面示例编辑“values”,点击“确认”完成发布。具体操作请参见模板市场。 shell image: repository: ds0001registryshanghai15.crsinternal.ctyun.cn/XXXXXX/XXXXXX pullPolicy: IfNotPresent imagePullSecrets: name: XXXXXX commandArgs: /opt/start.sh 64g true && exec env VLLMENABLECTKVCTrue VLLMCTKVCSDKPATH/usr/local/kvstore/lib/ VLLMCTKVCGRPCPORT50051 vllm serve /mnt/hpfs/modelscope/models/Qwen/Qwen2.532BInstruct dtypeauto blocksize64 servedmodelname Qwen2.532BInstruct enableautotoolchoice toolcallparser hermes pipelineparallelsize 1 tensorparallelsize 4 port 8000 cpuoffloadgb0 enforceeager gpumemoryutilization0.95 maxmodellen32768 maxnumbatchedtokens32768 disablelogrequests kvtransferconfig '{"kvconnector":"KVStoreConnectorV1", "kvrole":"kvboth"}' resources: limits: hugepages2Mi: 200Gi memory: 300Gi requests: hugepages2Mi: 200Gi memory: 300Gi service: type: NodePort port: 8000 nodePort: 31800 关键参数说明 参数 说明 kvtransferconfig 启用极速缓存 HPKV 功能,kvconnector 指定连接器类型,kvrole 设置为 kvboth 表示同时支持读写缓存,无需修改 repository 需要设置为容器镜像的下载地址,参见第3步 imagePullSecrets 需要设置为镜像拉取的凭证,参见第6步 “ /mnt/hpfs/modelscope/models/Qwen/Qwen2.532BInstruct” 需要设置为模型文件下载地址,参见第5步 7. 验证服务启动 通过 curl 命令发送推理请求,验证缓存是否生效: shell curl shell curl X POST H "ContentType: application/json" d '{ "model": "/home/user/models/Qwen/Qwen2.50.5BInstruct/", "prompt": "请介绍一下天翼云", "maxtokens": 100 }'
        来自:
        帮助文档
        并行文件服务 HPFS
        最佳实践
        HPFS 助力极速缓存最佳实践
        云容器引擎部署 HPKV 指南
      • 云容器引擎部署HPKV指南(1)
        创建并挂载 HPFS 极速缓存 HPKV 需使用 HPFS 并行文件系统作为三级存储层,具体操作如下: 1. 创建文件系统 登录并行文件服务 HPFS 控制台,创建文件系统。文件系统需选择与 GPU 物理机规格相匹配的集群,否则将无法正常挂载。集群匹配关系的详细说明,请参见产品能力地图。 具体创建操作请参见创建文件系统。 2. 挂载文件系统至 GPU 物理机 将创建好的 HPFS 文件系统挂载至 GPU 物理机的 /mnt/hpfs 目录,以便推理服务读写缓存数据。 具体挂载操作请参见HPFSPOSIX 客户端挂载。 部署 HPKV 模板 完成基础资源准备后,需将 HPKV 的容器镜像与模板文件上传至容器镜像服务与模板市场,具体操作如下: 1. 获取 HPKV 模板文件 HPKV 模板文件为 .tgz 格式的压缩包。您可通过工单申请,在问题描述中填写:并行文件服务 HPFS,申请试用 HPKV 服务。 通过客户经理获取模板文件的下载链接,将 HPKV 模板文件下载至 GPU 物理机上挂载的 HPFS 文件系统目录中。 2. 开通并配置容器镜像服务 HPKV 部署需使用容器镜像服务存放相关镜像与模板文件。 1. 开通企业版 :登录容器镜像服务控制台,开通企业版实例。具体操作请参见开通企业版实例。 2. 创建命名空间 :在实例中创建用于存放 HPKV 镜像的命名空间。具体操作请参见容器镜像命名空间。 3. 创建镜像仓库 :在命名空间下创建镜像仓库,用于存放 HPKV 容器镜像。具体操作请参见容器镜像仓库。 4. 创建 Chart 仓库 :在实例中创建 Chart 仓库,用于存放 HPKV 模板文件(.tgz 包),注意仓库名称必须和模版文件的名称一致,具体操作请参见HelmChart命名空间、HelmChart镜像仓库。 3. 推送容器镜像至镜像仓库 1. 导入镜像 :将获取的容器镜像 tar 包下载至本地。通过客户经理获取容器镜像的下载链接,将容器镜像同样下载至 GPU 物理机上挂载的 HPFS 文件系统目录中。 2. 使用 Docker 命令导入: shell yum install y docker vim /etc/docker/daemon.json { "runtimes": { "nvidia": { "args": [], "path": "nvidiacontainerruntime" } }, "dataroot": "/data/dockerdata" } systemctl restart docker docker ps docker load i 3. 上传镜像 :登录镜像仓库,将导入的镜像推送至已创建的镜像仓库。具体操作请根据控制台指引操作或参见推送和拉取容器镜像。 4. 推送模板文件至 Chart 仓库 1. 登录 GPU 物理机节点:通过 SSH 登录已纳管的 GPU 物理机。 2. 推送模板 :将获取的 .tgz 模板文件推送至 Chart 仓库。具体操作请根据控制台指引操作或参见推送和拉取Helm Chart。 5. 下载模型文件 通过客户经理获取模型文件的下载链接,将模型文件同样下载至 GPU 物理机上挂载的 HPFS 文件系统目录中。 6. 使用模板发布应用 1. 查看模板:在容器平台的“模板市场”中,进入“我的模板”,即可看到已上传的 HPKV 模板。 2. 获取凭证 :在容器平台的“配置管理”中,进去“镜像拉取凭证”,创建镜像拉取凭证,具体操作请参见镜像拉取凭证。 3. 发布模板 :在模板包版本中点击“发布”按钮后,在右侧的弹窗中填写“实例名称”,选择待发布的“集群名称”和“命名空间”,按下面示例编辑“values”,点击“确认”完成发布。具体操作请参见模板市场。 shell image: repository: ds0001registryshanghai15.crsinternal.ctyun.cn/XXXXXX/XXXXXX pullPolicy: IfNotPresent imagePullSecrets: name: XXXXXX commandArgs: /opt/start.sh 64g true && exec env VLLMENABLECTKVCTrue VLLMCTKVCSDKPATH/usr/local/kvstore/lib/ VLLMCTKVCGRPCPORT50051 vllm serve /mnt/hpfs/modelscope/models/Qwen/Qwen2.532BInstruct dtypeauto blocksize64 servedmodelname Qwen2.532BInstruct enableautotoolchoice toolcallparser hermes pipelineparallelsize 1 tensorparallelsize 4 port 8000 cpuoffloadgb0 enforceeager gpumemoryutilization0.95 maxmodellen32768 maxnumbatchedtokens32768 disablelogrequests kvtransferconfig '{"kvconnector":"KVStoreConnectorV1", "kvrole":"kvboth"}' resources: limits: hugepages2Mi: 200Gi memory: 300Gi requests: hugepages2Mi: 200Gi memory: 300Gi service: type: NodePort port: 8000 nodePort: 31800 关键参数说明 参数 说明 kvtransferconfig 启用极速缓存 HPKV 功能,kvconnector 指定连接器类型,kvrole 设置为 kvboth 表示同时支持读写缓存,无需修改 repository 需要设置为容器镜像的下载地址,参见第3步 imagePullSecrets 需要设置为镜像拉取的凭证,参见第6步 “ /mnt/hpfs/modelscope/models/Qwen/Qwen2.532BInstruct” 需要设置为模型文件下载地址,参见第5步 7. 验证服务启动 通过 curl 命令发送推理请求,验证缓存是否生效: shell curl shell curl X POST H "ContentType: application/json" d '{ "model": "/home/user/models/Qwen/Qwen2.50.5BInstruct/", "prompt": "请介绍一下天翼云", "maxtokens": 100 }'
        来自:
      • 购买
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 购买操作步骤: 步骤一:登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二:进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三:点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 • 当实例的“状态”变为“运行中”时,说明实例创建成功。 • 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        购买
      • 公有云数据库产品价格
        本章会按照数据库实例规格大小介绍公有云收费模式。 按照版本不同分为MySQL、PostgreSQL、SQL Server。基于云计算平台,稳定可靠、可弹性伸缩、即开即用的在线数据库服务,实现数据库数据备份、智能监控、便捷迁移。资费包括主备实例、主实例、只读实例、存储和备份租用费。 收费标准(根据天翼云价格调整策略,2021年6月1日零点采用新的资费标准) 包年预付费优惠政策:一年85折,2年7折,3年享受5折优惠。 1、MySQL主备实例 CPU(核) 内存(GB) 标准资费(元/小时) 标准资费(元/月) 2 4 0.96 462 2 8 1.4 672 2 16 1.8 860 4 8 1.9 910 4 16 2.58 1239 4 32 3.6 1720 8 16 3.79 1820 8 32 5.12 2457 8 64 7.2 3440 16 32 7.58 3640 16 64 10.15 4872 16 128 14.4 6880 32 64 15.16 7278 32 128 20.26 9723 60 128 30.24 14556 60 256 40.52 19446 60 512 56 27000 64 128 30.24 14556 64 256 40.52 19446 64 512 56 27000 2、MySQL单机实例 CPU(核) 内存(GB) 标准资费(元/小时) 标准资费(元/月) 2 4 0.48 231 2 8 0.88 422 2 16 1.24 598 4 8 0.95 455 4 16 1.29 620 4 32 2.49 1,195 8 16 1.89 910 8 32 2.56 1,229 8 64 4.97 2,390 16 32 3.78 1,820 16 64 5.08 2,436 16 128 9.95 4,780 32 64 7.56 3,639 32 128 10.13 4,862 60 128 15.12 7,278 60 256 20.26 9,724 60 512 39.8 19,120 64 128 15.12 7278 64 256 20.26 9724 64 512 39.8 19120 3、MySQL只读实例 产品名称 核数/核 内存/GB 标准资费 :::: 包月(元/月) 按需(元/小时) MySQL只读节点 2 4GB 231 0.48 MySQL只读节点 2 8GB 422 0.88 MySQL只读节点 2 16GB 598 1.24 MySQL只读节点 4 8GB 455 0.95 MySQL只读节点 4 16GB 620 1.29 MySQL只读节点 4 32GB 1,195 2.49 MySQL只读节点 8 16GB 910 1.89 MySQL只读节点 8 32GB 1,229 2.56 MySQL只读节点 8 64GB 2,390 4.97 MySQL只读节点 16 32GB 1,820 3.78 MySQL只读节点 16 64GB 2,436 5.08 MySQL只读节点 16 128GB 4,780 9.95 MySQL只读节点 32 64GB 3,639 7.56 MySQL只读节点 32 128GB 4,862 10.13 MySQL只读节点 64 128GB 7,278 15.12 MySQL只读节点 64 256GB 9,724 20.26 MySQL只读节点 64 512GB 19,120 39.80 4、Mysql proxy CPU(核) 内存(GB) 标准资费(元/小时) 2 4 1.13 4 8 2.26 8 16 4.52 目前支持mysql proxy能力的资源池包括西安2、苏州、广州4、杭州、福州、石家庄。 5、MySQL鲲鹏规格 (1)主备实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.76 364 2 8GB 1.38 664 4 8GB 1.48 712 4 16GB 2.09 1,004 8 16GB 2.97 1,424 8 32GB 4.18 2,008 12 24GB 4.96 2,381 12 48GB 7.92 3,802 16 32GB 6.95 3,336 16 64GB 9.18 4,404 24 48GB 8.52 4,090 24 96GB 15.84 7,603 32 64GB 13.88 6,664 32 128GB 18.34 8,804 48 96GB 16.96 8,141 48 192GB 33 15,840 60 120GB 27.75 13,320 (2)单机实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.38 182 2 8GB 0.69 332 4 8GB 0.74 356 4 16GB 1.05 502 8 16GB 1.48 712 8 32GB 2.09 1,004 12 24GB 2.48 1,190 12 48GB 3.96 1,901 16 32GB 3.48 1,668 16 64GB 4.59 2,202 24 48GB 4.26 2,045 24 96GB 7.92 3,802 32 64GB 6.94 3,332 32 128GB 9.17 4,402 48 96GB 8.48 4,070 48 192GB 16.52 7,930 60 120GB 13.88 6,660 (3)只读实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.38 182 2 8GB 0.69 332 4 8GB 0.74 356 4 16GB 1.05 502 8 16GB 1.48 712 8 32GB 2.09 1,004 12 24GB 2.48 1,190 12 48GB 3.96 1,901 16 32GB 3.48 1,668 16 64GB 4.59 2,202 24 48GB 4.26 2,045 24 96GB 7.92 3,802 32 64GB 6.94 3,332 32 128GB 9.17 4,402 48 96GB 8.48 4,070 48 192GB 16.52 7,930 60 120GB 13.88 6,660 6、其他收费项目 6.1 存储 产品规格 包月标准价格(元/月) 按需标准价格(元/小时) 主备实例 SATA 0.5 0.0009 主备实例 SAS 0.7 0.0015 主备实例 SSD 2 0.0028 主备实例 ESSD 3.2 0.0068 主实例 SATA 0.3 0.0005 主实例 SAS 0.4 0.0009 主实例 SSD 1.2 0.0017 主实例 ESSD 2 0.0042 只读实例 SATA 0.3 0.0005 只读实例 SAS 0.4 0.0009 只读实例 SSD 1.2 0.0017 只读实例 ESSD 2 0.0042 6.2 备份 同区域备份——若合营MySQL 数据库备份存储用量超过主数据库存储空间的100%,按需收取对象存储空间费用,标准资费为 0.000139 元/GB/小时。 跨区域备份——标准资费为 0.001 元/GB/小时。 6.3 秒级监控 计费方式为按需付费,0.048元/小时。
        来自:
        帮助文档
        关系数据库MySQL版
        计费说明
        公有云数据库产品价格
      • 计费模式变更
        前提条件 预付费用户须保证账户余额大于100元才能进行转按需操作,后付费用户无此余额限制。 注意 该操作按钮名称为“到期转按需”,即需要等文件系统到期时才会转为按量付费,不会立刻转为按量付费。 “到期转按需”在到期当天不可操作,例如某资源到期时间为2023年11月15日 10:23 ,则在11月15日00:00之后不可进行转按需操作。 “到期转按需”的时刻为到期第二天凌晨,非到期时刻。资源在到期当天为全天可用状态,可放心使用。如资源到期时间为2023年11月15日 10:23,若已设置到期转按需,则11月15日当天(到期当天),资源全天为“可用”状态,业务正常进行。在11月16日凌晨,系统将自动进行转按需操作。 操作步骤 1. 在弹性文件服务控制台列表页面,点击包周期文件系统的“更多”>“到期转按需”。 2. 进入资源信息确认页面,确认无误后点击“转按需”,弹出转换成功的提示框中点击“确定”即完成转换。 3. 在“费用中心续订管理到期转按需”页签下可以查看已设置到期转按需的资源。 取消到期转按需 资源到期前可取消“转按需”设置,操作入口在“费用中心>订单管理>续订管理”下的“到期转按需”标签页面进行操作。
        来自:
        帮助文档
        弹性文件服务 SFS
        计费说明
        计费方式
        计费模式变更
      • 集群版初始化
        本节主要介绍HBlock集群版如何初始化。 填写初始化相关信息 1. 设置基本信息。 参数 描述 版本规格 版本规格: 免费版:基础功能永久免费使用,高级功能默认禁用,提供一次30天免费试用机会。免费版的软件升级功能将在2年后自动失效。导入商业版软件许可证可激活全部功能。 商业版:提供30天全功能试用,到期后部分管理功能将被锁定。导入商业版软件许可证可激活全部功能。 说明 免费版与商业版的功能差别详见商业版与免费版。 系统名称 指定HBlock名称。 字符串形式,长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 登录用户名 HBlock管理员用户名。 类型:字符串 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小写。默认值为storuser。 登录密码 设置管理员密码。初始化时必须设置密码。 字符串形式,长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 2. 设置集群拓扑。 拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。 拓扑文件方式 参数 描述 拓扑文件 导入集群拓扑文件。 拓扑文件为符合UTF8编码格式的JSON文件,详见集群拓扑文件。 服务器方式 :点击“添加服务器”,填写服务器信息。 参数 描述 节点名称 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 服务器IP 要初始化服务器的IP,支持IPv4和IPv6地址。 端口号 API端口号。 注意 需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录 服务器中,用于存储用户数据的绝对路径。 可以输入一个或多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 修改:修改数据目录。 移除:移除数据目录。 3. 设置故障域服务器方式: 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。可以选择:数据目录级别的故障域、服务器级别的故障域、机架级别的故障域、机房级别的故障域。 注意 如果故障域级别为机架或者机房,则必须使用拓扑文件导入方式进行初始化。 4. 设置网络 参数 描述 业务网络 该网段用于业务与系统之间的数据传输。IP CIDR格式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 集群网络 用于系统内部数据传输。IP CIDR格式。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 5. 设置端口。 系统使用指定端口及端口范围进行初始化,如都未指定,则使用默认端口。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 设置端口范围时,请避免和Linux系统的本地临时端口(iplocalportrange)范围重合,否则可能会导致HBlock服务所用的端口被占用。使用命令行cat /proc/sys/net/ipv4/iplocalportrange可以查看本地临时端口范围。 参数 描述 端口范围 未指定端口的服务将从此范围中自动取值。 取值:整型,取值为[1, 65535]。默认取值为2000020500。 说明 建议指定的端口范围至少包含500个端口。 iSCSI服务 指定iSCSI端口号。 取值:整型,取值为[1, 65535],默认端口号为3260。 数据服务 指定数据服务端口号。 取值:整型,取值为[1, 65535]。 管理服务 指定管理服务端口号。 取值:整型,取值为[1, 65535]。 元数据服务 指定元数据服务端口号。 取值:整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        集群版初始化
      • 查询指定卷
        名称 类型 描述 lunName String 卷名称。 targetName String target名称。 status String 卷的状态: Normal:正常。 Deleting:卷正在删除中。 DeleteFailed:卷删除失败。 Recovering:卷正在还原中。 RecoverFailed:卷还原失败。 Rollbacking:卷正在回滚。 Flattening:与快照的关系链断开过程中,表示克隆卷正在复制源卷的数据,复制完成之后将变成独立卷,不再依赖快照和源卷。 Importing:正在导入备份数据。 Wiping:卷正在清空数据。 WipeFailed:清空数据失败。 Suspended:卷挂起。 Suspending:卷正在挂起。 SuspendFailed:卷挂起失败。 progress Double 卷还原进度百分比。 仅卷状态为Recovering时显示。 recoverFailedReason String 卷还原失败的原因。 仅卷状态为RecoverFailed时显示。 deleteFailedReason String 卷云上数据删除失败的原因。 仅卷状态为DeleteFailed时显示。 wipeFailedReason String 卷清空失败的原因。 仅卷状态为WipeFailed时显示。 waitUploadBytes String 待上传数据量,单位是bytes。 仅卷状态为Suspending时显示。 SuspendFailedReason String 卷挂起失败的原因。 仅卷状态为SuspendFailed时显示。 capacity Integer 卷容量,单位是GiB。 storageMode String 卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到对象存储中。 Storage:存储模式,本地保留全部数据,并异步存储到对象存储中。 createTime Long 卷创建时间。unix时间戳(UTC),精确到毫秒。 iSCSITargets Array of iSCSITarget iSCSI target属性集合,详见“ 表1 响应参数iSCSITarget说明 ”。 cloud.bucketName String 存储桶的名称(仅上云卷支持)。 cloud.prefix String 对象存储中的前缀名称(仅上云卷支持)。 如果未设置,则不返回此项。 cloud.accessKey String 对象存储服务的Access Key(仅上云卷支持)。 cloud.endpoint String 对象存储Endpoint(仅上云卷支持)。 cloud.objectSize Integer 数据存储在对象存储的大小(仅上云卷支持)。 cloud.storageClass String 数据在对象存储的存储类型(仅上云卷支持): STANDARD:标准存储。 STANDARDIA:低频访问存储。 cloud.compression String 是否压缩数据上传至对象存储(仅上云卷支持): Enabled:压缩数据上传至对象存储。 Disabled:不压缩数据上传至对象存储。 cloud.signVersion String 上云签名认证的类型(仅上云卷支持): v2:V2签名认证。 v4:V4签名认证。 cloud.region String Endpoint资源池所在区域(仅上云卷支持)。 cloud.provider String 对象存储服务名称: OOS : 天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 config.localStorageClass String 卷冗余模式(仅集群版支持): singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M 。 config.minReplica Integer 卷的最小副本数(仅集群版支持)。 config.ECfragmentSize Integer 分片大小(仅集群版支持)。如果冗余模式为EC N+M ,则会返回此项。 config.sectorSize Long 扇区大小,单位是bytes。 config.highAvailability String 高可用模式类型(仅集群版支持): ActiveStandby:主备,该卷关联对应target下的所有IQN。 Disabled:禁用,该卷关联对应target下的1个IQN。 config.writePolicy String 卷的写策略: WriteBack:回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。 WriteThrough:透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。 WriteAround:绕写,指数据直接写到磁盘,不写入内存。 config.cachePool String 缓存存储池(仅集群版支持)。 config.pool String 存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。 config.redundancyOverlap Integer 卷的折叠副本数(仅集群版支持)。 config.serverAffinity Object 卷主备分布优先级设置,详见“ 表5 响应参数config.serverAffinity说明 ”。 config.qosPolicy Object 卷关联的QoS策略信息,详见 表“6 响应参数config.qosPolicy说明 ”。 config.qosPolicyforLUN Object 卷所在存储池中卷的默认QoS策略信息(仅集群版支持),详见“ 表7 响应参数config.qosPolicyforLUN ”。 说明 如果卷的缓存存储池和存储池同时存在时,展示缓存存储池的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 如果卷只有存储池:展示存储池的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 config.path String 数据目录(仅单机版支持)。 dataHealth.normal Double 卷正常数据的百分比。 dataHealth.lowRedundancy Double 卷降级数据的百分比。 dataHealth.error Double 卷错误数据的百分比。 dataHealth.reconstructionProgress Double 如果卷存在降级状态的数据,数据重建进度的百分比。 dataHealth.ETR Long 卷如果存在降级数据,预计剩余的数据重建时间。单位为秒。如果返回值为负数,说明数据无法重建,需用户尽快修复。 number Long 卷编号。LUN在target下的编号,由存储系统分配,对应客户端挂载存储设备时设备地址中的LUN ID。如果target下只有一个LUN,LUN的编号一般为0。 uuid String 卷的唯一识别码。 isClone Boolean 是否是克隆卷: true:是克隆卷。 false:不是克隆卷。 sourceSnapshotName String 对应的快照名称(仅克隆卷支持)。 snapshots.snapshotNumbers Integer 卷的快照个数(仅本地卷支持)。 snapshots.basisofCurData Boolean 当前的读写是否是基于卷的初始状态: true:是。 false:否。 snapshots.lunSnapshots Array of lunSnapshot 卷的快照信息集合(仅本地卷支持),详见“ 表8 响应参数lunSnapshot/Children说明 ”。 snapshots.snapshotSize Long 卷关联的快照大小的总和(仅本地卷支持),即快照记录的数据量。单位是bytes。 注意 卷异常或上游快照删除等因素可能导致快照大小波动。 WWID String 卷的唯一标识符。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        查询指定卷
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • 创建专属云Kafka
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 操作步骤: 步骤一: 登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二: 进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三: 点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        快速入门
        创建专属云Kafka
      • 通过自定义域名访问集群
        本节介绍了通过自定义域名访问集群的用户指南。 前提条件 已经创建了一个天翼云账号,并且有一个已经创建好的云容器引擎集群。 集群中已经部署了应用服务,并且可以通过Cluster IP或NodePort进行访问。 已经拥有一个域名,并可以对其进行DNS配置。 创建Ingress Controller 登录云容器引擎控制台,单击集群名称进入集群。 在左侧导航栏中找到网络,下拉找到路由,点击路由,点击左上角创建路由。 创建Ingress Controller。 安装完成后,可以使用kubectl命令查看Ingress Controller的服务: plaintext kubectl get services n ingressnginx 确保ingressnginxcontroller服务已经创建并在运行。 创建Ingress资源 编写Ingress资源配置文件 创建一个新的YAML文件,例如myingress.yaml,内容如下: plaintext apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: myingress namespace: default spec: rules: host: http: paths: path: / pathType: Prefix backend: service: name: port: number: 替换 为您的自定义域名, 为您的Kubernetes服务名称, 为服务的端口号。 应用Ingress资源 使用kubectl应用刚才创建的Ingress资源文件: plaintext kubectl apply f myingress.yaml 验证Ingress资源是否已创建: plaintext kubectl get ingress 配置自定义域名的DNS记录 获取Ingress Controller的外部IP 使用以下命令获取Ingress Controller的外部IP: plaintext kubectl get services n ingressnginx 记录ingressnginxcontroller服务的EXTERNALIP。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        访问集群
        通过自定义域名访问集群
      • 查看安全报告
        此小节介绍企业主机安全查看安全报告。 主机安全支持订阅日报、周报、月报和自定义,展现不同周期主机安全趋势以及关键安全事件与风险,订阅报告将为您保存6个月,以满足等保测评以及审计的需要。 注意 勾选订阅报告后,第二天即可查看、下载。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 安全报告概览 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、单击目标报告的“获取报告”,跳转至报告预览页,可查看报告信息、下载、发送报告。 查看报告发送记录 发送记录存储了邮件发送报告的发送详情。 1、单击安全报告概览页右上角的“报告发送记录”查看报告发送记录。 2、在弹窗中查看报告发送记录,参数说明如表所示。 报告发送详情 报告发送记录参数 参数名称 参数说明 报告名称 已发送报告的名称。 统计周期 目标发送报告内容的统计周期。 报告类型 目标发送报告的统计周期类型。 安全周报 安全月报 安全日报 自定义报告 邮件发送时间 目标报告发送的时间。 3、单击“操作”列的“获取报告”可查看历史发送的报告信息,同时可预览和下载报告。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        查看安全报告
      • 基本概念
        本文介绍视频直播相关的基本概念。 边缘节点 边缘节点是离终端用户最近的一个节点,经过视频直播加速的客户,其用户访问无论推流还是拉流均经过边缘节点接入。 源站 源站指客户的直播源,通常由客户运营维护,为视频直播加速提供原始内容。 DNS DNS,即Domain Name System,指域名解析服务。它的作用是把域名转换成网络可以识别的IP地址。人们习惯记忆域名,但机器间互相只认IP地址,它们之间的转换工作称为域名解析,域名解析需要由专门的域名解析服务器来完成,整个过程是自动进行的。比如:上网时输入的www.baidu.com会自动转换成220.181.112.143。常见的DNS解析服务商有:阿里云解析,万网解析,DNSPod,新网解析,Route53(AWS),Dyn,Cloudflare等。 CNAME域名 客户接入直播时,在天翼云直播控制台完成加速域名添加后,系统会为您分配一个天翼云的CNAME域名,例如 .ctadns.cn,您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctadns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云直播的节点,实现加速的目的。 CNAME记录 CNAME记录是指域名解析中的别名记录(Canonical Name),用来把一个域名解析到另一个域名(CNAME域名),再由CNAME域名来解析到需要访问的服务器IP地址。 DNS解析时间 DNS解析时间是指通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。
        来自:
        帮助文档
        视频直播
        产品介绍
        基本概念
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 以Jaeger方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍采用Jaeger SDK方式上报c应用的链路数据,具体如下。 前提条件 完成vpce接入。 背景信息 Jaeger是Uber推出的一款开源分布式追踪系统,兼容OpenTracing API,已在Uber大规模使用,且已加入CNCF开源组织。其主要功能是聚合来自各个异构系统的实时监控数据。 接入步骤 1、安装依赖包 plaintext dotnet add  package Jaeger dotnet add  package OpenTracing dotnet add  package OpenTracing.Contrib.NetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 新建文件JaegerServiceCollectionExtensions.cs,代码如下 plaintext using System; using System.Reflection; using Jaeger; using Jaeger.Reporters; using Jaeger.Samplers; using Jaeger.Senders.Thrift; using Microsoft.Extensions.Logging; using OpenTracing; using OpenTracing.Contrib.NetCore.Configuration; using OpenTracing.Util; namespace Microsoft.Extensions.DependencyInjection {     public static class JaegerServiceCollectionExtensions     {         private static readonly Uri jaegerUri  new Uri("endpoint"); //替换为上报数据的Endpoint         public static IServiceCollection AddJaeger(this IServiceCollection services)         {             if (services  null)                 throw new ArgumentNullException(nameof(services));             services.AddSingleton (serviceProvider >             {                 var serviceName  "";    //修改为自定义的服务名                 //ILoggerFactory loggerFactory  serviceProvider.GetRequiredService ();                 var loggerFactory  LoggerFactory.Create(builder >                   {                       // 添加控制台日志提供程序                       builder.AddConsole();                       // (可选)其他配置,例如设置日志级别                       // builder.SetMinimumLevel(LogLevel.Debug);                   });                 ISampler sampler  new ConstSampler(sample: true);                                  //将token替换为自己的鉴权token                 IReporter reporter  new RemoteReporter.Builder()                     .WithSender(new HttpSender.Builder(jaegerUri.ToString()).WithAuth("token").Build())                     .Build();                                 //IReporter reporter  new LoggingReporter(loggerFactory);                                 ITracer tracer  new Tracer.Builder(serviceName)                     .WithLoggerFactory(loggerFactory)                     .WithSampler(sampler)                     .WithReporter(reporter)                     .Build();                 GlobalTracer.Register(tracer);                 return tracer;             });             // Prevent endless loops when OpenTracing is tracking HTTP requests to Jaeger.             services.Configure (options >             {                 options.IgnorePatterns.Add(request > jaegerUri.IsBaseOf(request.RequestUri));             });                         return services;         }     } } 4、开启链路跟踪 plaintext using Jaeger; using Jaeger.Reporters; using Jaeger.Samplers; using Microsoft.Extensions.Logging; var builder  WebApplication.CreateBuilder(args); builder.Services.AddJaeger();        //ITracer对象的初始化和注册 builder.Services.AddOpenTracing();   //开启Http链路 builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以Jaeger方式接入
      • 购买GeminiDB Influx实例
        本章节主要介绍了如何在云数据库GeminiDB管理控制台购买InfluxDB数据库实例。 前提条件 注册天翼云账号并开通云服务。 账户余额大于或等于0元。 操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,单击“购买数据库实例”,进入“服务选型”页面。 4. 在“服务选型”页面,选择计费模式,填写并选择实例相关信息后,单击“立即购买”。 图1 计费模式和基本信息 表1 计费模式 参数 描述 :: 计费模式 选择“包年包月”或“按需计费”。 包年包月 用户选购完服务配置后,可以根据需要设置购买时长,系统会一次性按照购买价格对账户余额进行扣费。 创建成功后,如果包周期实例到期后不再长期使用资源,可将“包年/包月”实例转为“按需计费”,到期后将转为按需计费实例。具体请参见包周期实例转按需。 说明 “包年/包月”方式购买的实例不能直接删除,仅支持资源退订操作,如何退订资源请参见退订包周期实例 按需计费 用户选购完服务配置后,无需设置购买时长,系统会根据消费时长对账户余额进行扣费。 创建成功后,如果需要长期使用资源,可将“按需计费”实例转为“包年/包月”,继续使用这些资源的同时,享受包周期的低资费。具体请参见按需计费实例转包周期。 表2 基本信息 参数 描述 :: 区域 租户所在的区域,也可在页面左上角切换。 注意 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 实例名称 设置实例名称时,需要满足如下规则。 实例名称允许和已有名称重复。 实例名称长度在4个到64个字节之间,必须以字母或中文字开头,区分大小写,可以包含字母、数字、中划线、下划线或中文(一个中文字符占用3个字节),不能包含其他特殊字符。 创建成功后,可修改实例名称,请参见修改实例名称。 兼容接口 InfluxDB 实例类型 集群 版本 1.7 可用区 指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 目前支持将实例部署在单可用区或3可用区。 若实例只需要部署在单可用区,请选择1个可用区。 若实例需要实现跨可用区容灾部署时,请选择3可用区,此时实例下的节点Hash均衡部署在3个可用区内。 图2 规格与存储 表3 规格与存储 参数 描述 :: 数据节点性能规格 数据节点提供对时序数据库的读写能力。根据DFV共享资源池和内存的配置不同分为多种实例规格,您可以根据业务场景选择符合业务类型的性能规格。 GeminiDB Influx支持的实例规格详情,请参见数数据库实例规格。 数据节点数量 数据节点数量请根据实际需要进行选取。创建成功后可以添加节点,请参见添加节点。 存储空间 存储空间最小100GB,用户选择存储大小必须为整数,且每次至少可选择1GB的存储容量。 是否选购冷存储 冷存储主要用于存储一些查询频率较低的历史数据。您可以在购买GeminiDB Influx实例时,选购冷存储,并通过配置冷热数据分离,来指定热数据的保存时长,这样热数据超过保存时长后将被自动归档到冷存储中,从而降低存储成本。 是 请根据业务需要设置冷存储空间容量大小。 否 不选购冷存储。 如果您在创建实例时未开启冷存储,后期根据业务需要,也可以为已有实例创建冷存储,具体操作请参考开启冷存储 说明 冷存储开启后暂不支持关闭。 冷存储空间 冷存储空间最小500GB,最大100,000GB,用户选择存储大小必须为整数,且每次至少可选择1GB的存储容量。 实例创建成功后可以扩容冷存储,详情请参见 扩容冷存储。 负载均衡地址 系统默认勾选负载均衡地址,不支持修改。 待实例创建成功后,您可以通过该负载均衡地址连接实例,具体操作请参见通过通过负载均衡地址连接实例。 图3 网络和数据库配置 表4 网络 参数 描述 :: 虚拟私有云 实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您可根据需要创建或选择所需的虚拟私有云。 如何创建虚拟私有云,请参见《虚拟私有云用户指南》中的“创建虚拟私有云基本信息及默认子网”。 如果没有可用的VPC,系统自动为您分配资源。 说明 目前GeminiDB Influx实例创建完成后不支持切换虚拟私有云VPC,请谨慎选择所属虚拟私有云。 如需与ECS进行内网通信,GeminiDB Influx实例与需要通信的ECS需要处于同一个虚拟私有云下,或者不同虚拟私有云之间配置对等连接。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 内网安全组 安全组限制安全访问规则,加强GeminiDB Influx实例与其他服务间的安全访问。请确保所选取的安全组允许客户端访问数据库实例。 如果没有可用的安全组,系统自动为您分配资源。 表5 数据库配置 参数 描述 :: 管理员账户名 管理员账户名默认为rwuser。 管理员密码 用户设置的密码。 长度为8~32个字符。 必须是大写字母、小写字母、数字、特殊字符的组合,其中可输入~!@
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        快速入门
        购买实例
        购买GeminiDB Influx实例
      • 购买
        本章节主要介绍数据治理中心DataArts Studio的购买流程。 只有拥有天翼云帐号,以及DAYU Administrator或Tenant Administrator权限的用户才可以购买DataArts Studio实例或DataArts Studio增量包。如需购买,您需要给用户授予所需的权限。 说明 Tenant Administrator策略具有所有云服务的管理员权限(除IAM管理权限之外),为安全起见,一般不建议给IAM用户授予该权限,请谨慎操作 。 前提条件 已申请VPC、子网和安全组,您也可以在购买DataArts Studio实例过程中申请VPC、子网和安全组。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 购买“数据治理中心 DataArts Studio(基础包)” 1.在数据治理中心控制台页面,进行“云资源访问授权”后,单击“购买实例”,进入购买DataArts Studio实例界面。 数据治理中心与这些云服务之间存在业务交互关系,需要与这些云服务协同工作,因此需要您创建云服务委托,将操作权限委托给数据治理中心,让数据治理中心以您的身份使用这些云服务,代替您进行一些任务调度、资源运维等工作。 云服务委托包含DWS、MRS、RDS、OBS、SMN、KMS等服务的相关权限,作用范围可以访问IAM的委托界面查看。 另外子账号以主账号的委托为准,不需要额外申请委托。 勾选所有服务并单击“同意授权”,系统会自动创建委托。 完成了委托授权后,下次再进入数据治理中心控制台首页时,系统不会再弹出访问授权的对话框。 如果您只勾选了其中的某几个服务进行委托授权,下次进入数据治理中心控制台首页时,系统仍会弹出访问授权的对话框,提示您对未授权的云服务进行访问授权。 2.选择版本,点击“立即购买”,在订购页面设置DataArts Studio实例参数,各参数说明如下表所示。 DataArts Studio实例参数 参数名称 样例 说明 ::: 区域 选择实例的区域,不同区域的资源之间内网不互通。 选择区域时,您需要考虑以下几个因素: 地理位置一般情况下,建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。不过,在基础设施、BGP网络品质、资源的操作与配置等方面,中国大陆各个区域间区别不大,如果您或者您的目标用户在中国大陆,可以不用考虑不同区域造成的网络时延问题。曼谷等其他地区和国家提供国际带宽,主要面向非中国大陆地区的用户。如果您或者您的目标用户在中国大陆,使用这些区域会有较长的访问时延,不建议使用。 云服务之间的关系如果多个云服务一起搭配使用,需要注意不同区域的云服务内网不互通。例如数据治理中心(包括管理中心、CDM等组件)需要与MRS、OBS等服务互通时,如果数据治理中心与其他云服务处于不同区域的情况下,需要通过公网或者专线打通网络;而在同区域情况下,同子网、同安全组的不同实例默认网络互通。 资源的价格不同区域的资源价格可能有差异,请参见天翼云服务价格详情。 企业项目 default DataArts Studio实例关联的企业项目。企业项目管理是一种按企业项目管理云资源的方式,具体请参见《企业项目管理用户指南》。 如果已经创建了企业项目,这里才可以选择。 当DataArts Studio实例需连接云上服务(如DWS、MRS、RDS等),还必须确保DataArts Studio实例企业项目与该云服务实例的企业项目相同。 一个企业项目下只能购买一个DataArts Studio实例。 需要与其他云服务互通时,需要确保与其他云服务的企业项目一致。 版本 初级版 选择需要购买的数据治理中心版本,版本差异请参见产品规格。 实例名称 数据治理中心test 自定义DataArts Studio实例名称。 可用区 可用区1 第一次购买DataArts Studio实例或批增量包时,可用区无要求。 再次购买DataArts Studio实例或增量包时,是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 虚拟私有云 vpc1 DataArts Studio实例中的批量数据迁移CDM集群所属的VPC、子网、安全组。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS、DIS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 子网 subnet1 安全组 sg1 续费 勾选自动续费前的复选框,可实现自动按月或者按年续费。 3.查看当前配置,并确认购买时长,确认无误后单击“立即购买”。 4.单击“去支付”,按提示付款成功即可在首页看到已开通的实例。 5.返回数据治理中心控制台首页时,如您此前未进行“云资源访问授权”,系统会再次自动弹出“云资源访问授权”的对话框,提示您对所列出的服务进行委托授权。 6.在已购买的实例中单击“进入控制台”,进入数据治理中心控制台。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        购买
      • 比较和同步
        本文为您介绍比较和同步的相关功能。 概述 用户可能会对工作机上的数据和灾备机上的数据的一致性存在疑问,一致性比较功能可以比较工作机的数据和灾备机上的数据并给出具体报告。用户通过该比较报告可以判断工作机端和灾备机端的数据是否一致。需要说明的是,对于不断变化的文件,报告可能显示工作机端和灾备机端不一致,但是这并不意味着实时同步出现问题。因此,在进行数据比较时,推荐工作机上没有数据变化时进行,该场景下可获得较为准确的数据报告。 在比较任务列表中,可以查看各任务的进度和比较结果以及对任务进行“删除”、“下载比较结果”等操作。为了减少工作机资源消耗,任何时刻一个复制规则只能启动一个比较任务。 新建只比较任务 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源同步”“资源同步管理”,进入资源同步管理页面。 5. 点击左侧菜单栏“ 比较和同步”,进入比较和同步页面。 6. 点击“新建”按钮,进入创建比较和同步页面。 7. 基本设置页面各项配置如下: 参数 配置说明 名称 用户自定义的比较和同步规则名称,支持中文和英文字符。 任务类型 用户可以选择“只比较”和“自动从工作机同步文件到灾备机”两种方式。 只比较:是指只比较工作机和灾备机的数据,如果发现数据不一致,则记录在报告中。 自动从工作机同步文件到灾备机:是指当比较任务发现工作机上文件和灾备机上对应的文件不一致时,记录该文件,并将该文件从工作机同步到灾备机。 工作机 选择发送复制数据的容灾节点。在线节点优先显示在列表的前面,并且采用名称排序。如果已经创建节点组,可选择节点组再进行节点选择。若没有创建节点组,可直接选择节点,系统将自动列出拥有功能许可的所有主机节点,供用户自行选择。 代理 选择跨网络传输的代理地址。 灾备机 如果已经创建节点组,可选择节点组再后选择节点。若没有创建节点组,可直接选择节点。 数据地址 主机之间用于彼此完成在被数据传输的IP地址。 业务组 选择此比较和同步规则所对应的业务组。 比较方式 数据一致性校验的方式; 时间校验:根据文件或文件夹的修改时间来判断工作机和灾备机上的数据是否一致。这种比较方式,效率比较高,但是准确性不及严格校验。 严格校验:通过计算文件的校验值来判断数据是否一致,这种方式效率比较差,但是可靠性高。 校验算法 支持MD5和SHA256两种数据校验算法,默认为MD5。 任务运行时间 目前支持三种方式,立即开始,只运行一次,重复运行。 开始时间 任务运行时间为“只运行一次,预约时间”时显示,用户自定义设置任务开始执行时间。 运行策略 任务运行时间为“重复运行”时显示。可选择“每天”、“每周”、“每月”、“每隔”。 遍历时镜像 启动遍历时镜像,复制规则在遍历过程中进行数据校验;不启用遍历时镜像,复制规则会在遍历结束后进行数据校验。 类型过滤 用户可以指定只保护某些后缀名的文件,或者排除某些后缀名的文件。 比较的目录和文件 选择要比较工作机中文件的路径。 灾备机目标路径 选择灾备机中备份要同步文件路径。 不比较的文件和目录 选择不要同步到备端的文件和目录路径。一般默认即可。 8. 压缩加密页面各项配置如下: 参数 配置说明 传输压缩 选择是否启用传输压缩。启用传输压缩后,源端对准备传输的数据进行压缩处理,目标端接收数据进行解压写入本地存储。提供四个压缩类型选择:极速压缩,普通压缩,快速压缩,均衡压缩。 压缩类型 极速压缩:极速压缩采用lz4。压缩速度最快,压缩率比较低。 普通压缩:普通压缩采用zip,压缩速度最慢,压缩率一般情况下最高。 快速压缩:快速压缩采用snappy,压缩速度比极速压缩稍慢,但是压缩率一般比极速压缩要高。 均衡压缩:均衡压缩采用minilzo,压缩速度比极速压缩稍慢,但是压缩率一般比极速压缩要高。 说明:压缩速度:极速压缩>普通压缩。压缩效果:普通压缩>极速压缩。综合考虑时间和效果,推荐使用极速压缩。 传输加密 选择是否启用传输加密。启用传输加密后,工作机在准备发送数据过程时使用加密算法和密钥加密数据,当灾备机收到数据后将执行解密操作再写入灾备机的本地存储。此选项默认不加密。 加密类型 提供AES、SM4加密算法。 9. 带宽控制页面各项配置如下:任务类型为“只比较”时,不涉及数据传输,所以不支持配置带宽控制。 10. 高级设置页面各项配置如下: 参数 配置说明 并行任务数 设置并行任务数,设置软件并发连接数,对于海量小文件、单连接达到最大带宽时,可以大大提升备份速度。 文件名转换 可以通过文件名转换的方式,在备份到备端后,修改文件名,在其文件头、后缀尾,自动添加前缀或者后缀,或者修改文件名称中的大小写。 增加前/后缀 在需要同步的文件名前/后缀添加字符串。 镜像前源端检测脚本 规则开始镜像之前,允许用户在工作机配置脚本。规则在执行镜像之前,工作机会执行脚本,根据脚本返回的结果决定是否执行镜像。 镜像前备端检测脚本 选择脚本,满足自定义行为的需求,设置为空代表不执行脚本。 镜像后源端检测脚本 选择脚本,满足自定义行为的需求,设置为空代表不执行脚本。 镜像后备端检测脚本 选择脚本,满足自定义行为的需求,设置为空代表不执行脚本。 11. 填写配置后,点击“确定”,完成创建。
        来自:
      • 功能特性
        服务名 功能特性 需求管理 提供多项目管理、敏捷迭代管理、里程碑管理、需求管理、缺陷跟踪、多维度统计报表等功能。 迭代计划和时间线,有效管理项目计划。 树表、任务墙等多种视图,方便查看项目工作。 多种项目统计图表,随时掌握项目开展情况。 在线文件库,批量文档托管,信息传递不失真。 代码托管 提供安全、可靠、高效的分布式代码托管服务。包括代码克隆/下载/提交/推送/比较/合并/分支等功能。 基于Git的分布式版本控制,提升跨地域跨团队协同开发效率。 关联项目任务,保障项目高效交付。 增强的安全防护能力,IP白名单与代码仓库访问日志审计。 代码仓库提交信息统计,基于时间轴的贡献者代码提交统计。 代码检查 提供可协作的一站式代码检查服务。 一站式:覆盖主流编程语言、主流编码标准、SDLC集成等。 灵活易用的检查方式:支持代码提交检查、定时执行检查,支持多分支检查。 可协作:提供问题责任人自动归属、提供问题修改建议、可聚焦处理新问题等。 编译构建 快速、安全的云上编译构建服务。 内置C/C++/Java/…等主流语言的构建模板,并支持自定义构建模板。 可配置执行计划,支持开启提交代码触发执行、定时执行等多种构建执行计划。 界面傻瓜式配置,无需用户编写构建配置文件。 同时支持容器镜像和通用软件包的归档。 构建完成时支持消息通知。 内置支持主流语言的构建环境镜像,也可使用自定义构建环境镜像。 支持多个构建步骤,可实现构建过程的灵活编排。 部署 提供可视化、一键式部署服务,支持并行部署和流水线无缝集成。 提供丰富的部署步骤,满足用户不同的部署场景。 支持对虚拟主机部署、物理主机部署、容器部署以及微服务应用部署等多种部署形态。 支持文件的复制、删除、修改、解压;支持Ansible、Shell命令、Shell脚本等通用部署能力。 部署界面简洁化配置,无须编写部署脚本。支持部署步骤的拖拉拽灵活编排。 预置Tomcat、SpringBoot、Django等系统模板,同时支持用户创建自定义模板。基于部署模板库,可以制 标准的部署流程,实现的快速创建,方便团队内部推广。 提供错误日志分析能力,对于失败的情况,支持错误日志关键字匹配FAQ,并提供详细的排查解决方案。 支持自定义参数,在时由用户指定参数值,用指定值替换相应参数部署。 提供对主机和主机组管理能力。支持主机(组)的增删改查;支持主机批量删除,批量连通性验证;主机连通 支持EIP直连、代理机连接以及模式下的VPC直连。 和主机组均支持项目下角色和权限的二维矩阵。 测试计划 提供业内首推一站式自动化测试工厂解决方案,覆盖测试设计、测试用例、测试管理、接口自动化测试。 DevOps敏捷测试理念,打通测试计划、测试设计、测试用例、测试执行和测试报告的全流程测试活动,提供缺陷上报、质量看板等方式多维度评估产品质量,帮助用户高效管理测试活动,保障产品高质量交付。 测试设计:使用启发式思维导图的形式进行测试用例设计和评审,更加直观,效率更高。支持Xmind直接导入生成在线思维导图测试设计;支持在线编辑思维导图; 支持4层测试设计方法(特性场景功能点用例);一键批量生成测试用例;覆盖功能、接口、安全等全领域测试设计,输出测试方案;可以通过测试策略模板快速创建用例,也可以自定义模板形成自己的测试资产。 测试管理:成熟的测试用例管理系统,可以开展用例设计、测试执行、缺陷提交、质量报告,提高测试效率;记录修改历史,避免漏测、误测,易追溯审计,规范测试流程。融入全生命周期追溯、测试计划、团队多角色协作、敏捷测试、需求驱动测试等理念,覆盖测试需求管理、测试任务分配、测试任务执行、测试进度管理、测试覆盖率管理、测试结果管理、缺陷管理、质量报告、测试仪表盘,一站式管理功能,提供适合不同团队规模、流程的自定义能力。 接口自动化测试:基于接口URL或者Swagger文档生成的接口脚本模板快速编排接口测试用例,集成流水线,支持微服务测试。测试用例免代码编写,技术门槛低,适合接口开发者、接口消费者、测试人员、业务人员等不同角色使用。一键导入Swagger接口定义自动生成脚本模板,基于脚本模板组装编排、管理接口自动化测试用例。支持HTTP和HTTPS协议,可视化用例编辑界面,丰富的预置检查点、内置变量,支持自定义变量、参数传递、持续自动化测试。 制品仓库 面向软件开发者提供制品管理的云服务,提供软件仓库、发布包下载、发布包元数据管理等功能,通过安全可靠的软件仓库,实现软件包版本管理,提升发布质量和效率,实现产品的持续发布。 支持文件重命名、批量删除、批量恢复、页面上传和下载、文件名搜索等文件操作。 编译构建属性自动关联软件包,编译构建的产物自动归档到软件发布库。 支持构建服务一键归档、部署服务从发布库一键获取软件包。 支持Maven、npm、Go、PyPI、RPM、Debian等多种制品类型仓库,支持新建仓库、上传下载制品、搜索制品等能力。 流水线 提供可视化、可编排的CI/CD持续交付软件生产线,帮助企业快速转型实现DevOps持续交付高效自动化,缩短应用TTM(Time to Market)交付周期,提升研发效率。 流水线自定义编排:可根据用户使用场景的需要,对构建、代码检查、子流水线、部署、流水线控制(延时执行、人工审核)、接口测试等多种类型的任务进行纳管和执行编排。 流水线可视化增删改查:提供图形化界面基础的流水线创建、编辑、删除和执行状态查看功能。其中,查看功能支持跳转到对应的自动化任务界面查看其日志等详情信息。 流水线权限管理:支持用户针对流水线任务设置指定帐号的权限控制,权限基于帐号所属角色操作权限进行控制,包含基础的查看、编辑、执行、删除权限控制。 流水线历史执行记录:支持查看流水线最近31天的历史执行记录。 流水线消息通知:用户可根据需要设置事件类型的通知状态,包括是否发送服务动态和邮件通知。 流水线部分任务执行:根据用户需求,可选择流水线中的某一个或多个任务单独执行。 流水线执行参数配置:流水线支持自定义参数,在执行时由用户指定参数值,任务用指定值替换相应参数执行。 流水线串/并行执行配置:根据用户需求,可配置同一阶段内的任务串行执行或并行执行。
        来自:
        帮助文档
        软件开发生产线CodeArts
        产品介绍
        功能特性
      • 将MySQL同步到MySQL
        类型名称 使用和操作限制 数据库权限设置 源数据库账号需要具备如下权限: SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 提供的目标数据库账号必须拥有如下权限: SELECT、CREATE、INDEX、DROP、DELETE、INSERT、UPDATE、ALTER、CREATE VIEW、CREATE ROUTINE、REFERENCES。当目标库为8.0.148.0.18版本时,还需要有SESSIONVARIABLESADMIN权限。 同步对象约束 支持表、主键索引、唯一索引、普通索引、存储过程、视图、函数的同步,不支持事件、触发器的同步。 库映射时源库中不允许存在存储过程、视图、函数对象。 映射的库中不允许存在除表外的对象且在同步过程中不允许创建这些对象,否则会导致同步任务失败。 不支持非MyISAM和非InnoDB表的同步。 已选择的表与未选择的表之间互相rename的DDL操作,在任务同步中会被过滤掉,可能会导致任务失败或数据不一致。 − 对于一个DDL中存在一个rename的情况(例如:rename A TO B),只支持rename前后库表都在已选择库表中的rename操作(A和B都在已选择库表中),其他情况的rename DDL会被过滤; − 对于一个DDL中存在多个rename的情况(例如:rename A TO B, B TO C),只支持rename前后库表都在已选择库表中的部分rename操作 ,其他情况的rename DDL会被过滤(A和B在已选择库表中,C不在,仅执行rename A TO B)。 − 不建议在多对一同步场景下的进行rename操作,可能会导致任务失败或数据不一致。 源数据库要求 源数据库中的库名不能包含:'<>/"以及非ASCII字符。 源数据库中的表名、视图名不能包含:'<>/"以及非ASCII字符。 源数据库中的库名和库映射的名称不允许为iblogfile。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 目标数据库要求 不支持从高版本同步到低版本。 目标数据库必须有足够的磁盘空间。 目标数据库的字符集必须与源数据库一致。 目标数据库的时区设置必须与源数据库一致。 除了MySQL系统数据库之外,当目标库和源库同名时,目标数据库中若存在与源库同名的表,则表结构必须与源库保持一致。 DRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 同步的对象中包含引擎为MyISAM的表,则目标数据库sqlmode不能包含noenginesubstitution参数,否则可能会导致同步失败。 映射到目标库中的库名不能包含:“.”、 “<”、“>”、“”、和“'”。 操作须知 相互关联的数据对象要确保同时同步,避免因关联对象缺失,导致同步失败。常见的关联关系:视图引用表、视图引用视图、存储过程/函数/触发器引用视图/表、主外键关联表等。 当前仅MySQL>MySQL的同步支持多对一任务同步,进行表级多对一同步时,源库不允许存在无主键表。 源库和目标库是相同的RDS实例时,不支持没有库映射的实时同步。 源库不允许存在与目标库同名的无主键表。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 如果目标库MySQL不支持TLS1.2协议,或者为版本较低的自建库(低于5.6.46或在5.75.7.28之间),需提交运维申请才能使用SSL测试连接。 支持断点续传功能,但是对于无主键的表可能会出现重复插入数据的情况。 支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 不支持源数据库恢复到之前时间点的操作(PITR)。 不支持目标数据库恢复到全量同步时间段范围内的PITR操作。 不支持外键级联操作。 不支持强制清理binlog,否则会导致同步任务失败。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 创建同步任务时,不允许将目标库设为只读。 实时同步过程中,如果修改了源库或者目标库的用户名、密码,会导致同步任务失败,需要在数据复制服务控制台将上述信息重新修改正确,然后重试任务可继续进行实时同步。一般情况下不建议在同步过程中修改上述信息。 实时同步过程中,如果修改了源库或者目标库端口,会导致同步任务失败。针对该情况,数据复制服务提供不同的处理机制。 − 对于源库端口,需要在数据复制服务控制台修改为正确的端口,然后重试任务可继续进行实时同步。 − 对于目标库端口,系统自动更新为正确的端口,需要重试任务即可进行同步。 一般情况下不建议在同步过程中修改端口。 为了保持数据一致性,不允许对正在同步中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 当在全量同步过程中,对MyISAM表执行修改操作时,可能造成数据不一致。 增量同步支持表的重命名,源表和目标表必须都在对象选择里。 增量同步支持任务再编辑追加同步对象。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        出云
        将MySQL同步到MySQL
      • 查看告警发送历史
        告警详情 告警详情页面显示了告警等级、发送信息、状态,以及告警基本信息、关联事件和活动记录。 在告警详情页面,您可以执行以下操作: 对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。具体操作,请参见下方【处理告警】。 在详情、事件和活动页签可以分别查看以下信息: 详情页签显示了告警创建时间、告警内容、通知策略。 事件页签显示了告警关联事件、事件创建时间和事件状态。单击事件名称,可以查看目标事件的详细信息。更多信息,请参见下方【事件详情】。 行动页签显示了告警触发行动集成的记录。 活动页签显示了告警的活动记录。 事件详情 事件详情面板显示了事件的基本信息和扩展字段。 处理告警 在控制台中,对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。 1. 在告警页面单击右上角的关联操作人。 说明 操作人的名称为通知对象中的联系人名称。 由于一个天翼云账号可能存在多人同时使用的情况,所以需要通过关联操作人来区分实际每次操作告警的人员。 2. 在目标告警右侧的操作列,或者单击目标告警,在告警详情页面: 单击认领,可以将自己设置为当前告警的处理人。 单击解决,可以关闭目标告警。 单机屏蔽,可以屏蔽目标告警的通知。 单击更多图标,然后单击指定告警处理人,可以指定钉钉群里的联系人为告警处理人。 单击更多图标,然后单击修改告警等级,可以修改告警等级。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        告警管理(新版)
        查看告警发送历史
      • 查看告警发送历史(1)
        告警详情 告警详情页面显示了告警等级、发送信息、状态,以及告警基本信息、关联事件和活动记录。 在告警详情页面,您可以执行以下操作: 对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。具体操作,请参见下方【处理告警】。 在详情、事件和活动页签可以分别查看以下信息: 详情页签显示了告警创建时间、告警内容、通知策略。 事件页签显示了告警关联事件、事件创建时间和事件状态。单击事件名称,可以查看目标事件的详细信息。更多信息,请参见下方【事件详情】。 行动页签显示了告警触发行动集成的记录。 活动页签显示了告警的活动记录。 事件详情 事件详情面板显示了事件的基本信息和扩展字段。 处理告警 在控制台中,对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。 1. 在告警页面单击右上角的关联操作人。 说明 操作人的名称为通知对象中的联系人名称。 由于一个天翼云账号可能存在多人同时使用的情况,所以需要通过关联操作人来区分实际每次操作告警的人员。 2. 在目标告警右侧的操作列,或者单击目标告警,在告警详情页面: 单击认领,可以将自己设置为当前告警的处理人。 单击解决,可以关闭目标告警。 单机屏蔽,可以屏蔽目标告警的通知。 单击更多图标,然后单击指定告警处理人,可以指定钉钉群里的联系人为告警处理人。 单击更多图标,然后单击修改告警等级,可以修改告警等级。
        来自:
      • 通过Annotation配置负载均衡类型的服务
        本节介绍网络的用户指南:通过Annotation配置负载均衡类型的服务。 通过在Service的Yaml文件中配置注解Annotation,您可以对天翼云负载均衡、监听转发等进行配置,本文介绍负载均衡类型Service支持配置的Annotation。 注解说明 注解名称 描述 示例 支持的CCM版本 service.beta.kubernetes.io/ctyunloadbalancerid 指定已有负载均衡,取值为负载均衡实例的ID。删除service时该 ELB不会被删除 lb v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalancerspec 指定新建负载均衡的规格,如elb.s2.small elb.s2.small v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalanceraddresstype 指定新建负载均衡的公网私网类型,取值: intranet:负载均衡地址类型为私网,intranet为默认值 internet:负载均衡地址类型为公网 internet v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalancerprotocolport 指定负载均衡监听HTTP协议或HTTPS协议,可指定多个监听,多个监听之间以逗号“,”分割 https:443,http:80 v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancersslcert 指定SSL证书,取值为SSL证书ID,可在负载均衡控制台的证书管理页面查看证书ID。 仅监听协议为HTTPS协议时需要指定 cert v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancerxforwardedfor 指定负载均衡监听器附加XForwardedFor头字段,通过开启该参数,后端服务可获取客户端源IP。取值为“true”或“false” 仅支持监听协议为HTTP和HTTPS协议 "true" v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancerchargetype 指定创建公网负载均衡时,公网的计费类型,取值: bandwidth:按带宽计费 traffic:按流量计费,traffic为默认值 traffic v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerbandwidth 计费类型为“bandwidth”时,可指定带宽的大小,值为数字类型,默认为1 Mbps 5 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancercyclecount 指定负载均衡的计费周期,值为数字类型,表示购买月数,默认为1个月 1 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancereipid 指定新建公网负载均衡时,可指定绑定已有的弹性IP,取值为弹性IP的ID,可在网络控制台的弹性IP详情页面查看ID eip v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerprojectid 指定新建负载均衡所属的企业项目,取值为企业项目ID,可在IAM控制台中企业项目详情查看ID 0 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerenableipv6 指定新建负载均衡时,可指定开启负载均衡的ipv6 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6bandwidthid 指定新建支持ipv6的公网负载均衡时,需指定IPv6带宽ID,可在网络控制台的IPv6带宽详情页面查看ID。如果没有IPv6带宽,请先创建一个 v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalancerenablelistenernat64 指定支持ipv6的负载均衡时,可指定开启监听器的nat64,支持负载均衡将ipv6流量转发到ipv4的后端 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6address 指定新建支持ipv6的负载均衡时,可指定负载均衡的ipv6地址(该地址为负载均衡所在子网的ipv6地址段中未被分配的ip),未指定则由系统随机分配 v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceroverridelisteners 指定已有负载均衡时,可指定是否强制覆盖已有监听 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckflag 健康检查开关,取值off或on。off:不启用;on:启用 on v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoption 配置全局健康检查的选项,对service下所有端口配置起作用。内容为json类型数据,数据结构见下表“健康检查字段数据结构说明” 注意 使用该字段,需确保service下端口配置的protocol协议一致 v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoptions 配置健康检查的选项,支持为service下单个端口或部分端口配置健康检查。内容为数组形式的json数据,数据结构参考表“健康检查字段数据结构说明” 注意 该字段不能与“service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoption”同时使用 v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclflag 指定访问控制的类型,取值: inherit:继承已有ELB配置; all:允许所有IP访问; white:白名单; black:黑名单 white v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclstatus 访问控制开关,值为on或off,只有为on时,黑/白名单才会生效 on v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclid 指定访问策略组的ID,可在负载均衡控制台的访问策略组页面查看策略ID ac v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerestablishtimeout 指定建立连接超时时间,只用于TCP监听 "30" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceridletimeout 指定空闲超时时间,只作用于HTTP/HTTPS监听 "30" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerresponsetimeout 指定响应超时时间,只作用于HTTP/HTTPS监听 "5" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerproxyprotocolflag 指定是否开启后端主机组的Proxy Protocol,ProxyProtocol协议会携带客户端源地址到后端服务器。取值: on:开启 off:关闭 注意 该功能不支持在线平滑开启,切换到ProxyProtocol需要业务停服升级,请谨慎配置。 on v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceripmode 指定Service的External IP模式,值为 vip 或 proxy vip:集群内访问Service不会经过ELB,直接经由ipvs/iptables转发到Service对应的后端Pod proxy:集群内访问Service会先经过ELB,最终再转发到对应后端Pod 注意 该特性要求Kubernetes集群版本大于v1.29 proxy v1.2.0及以上 service.beta.kubernetes.io/ctyunloadbalanceriptype 指定Service的External IP地址类型,值为 private 或 public private:设置ELB的私网IP为Service的External IP public:设置ELB的公网IP为Service的External IP public v1.2.0及以上 service.beta.kubernetes.io/ctyunloadbalancerpreservesourceip 指定是否开启客户端源地址保持,值为 true 或 false true:开启 false:关闭 注意 客户端源地址保持要求Service的ExternalTrafficPolicy必须为Local。开启该特性,需确保集群节点的弹性网卡对应的安全组已放通客户端源IP,避免影响网络连通 true v1.5.0及以上
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        Service管理
        通过Annotation配置负载均衡类型的服务
      • 功能特性
        本章主要介绍功能特性 表 软件开发生产线各服务功能特性 服务名 功能特性 需求管理 提供多项目管理、敏捷迭代管理、里程碑管理、需求管理、缺陷跟踪、多维度统计报表等功能。 迭代计划和时间线,有效管理项目计划。 树表、任务墙等多种视图,方便查看项目工作。 多种项目统计图表,随时掌握项目开展情况。 在线文件库,批量文档托管,信息传递不失真。 代码托管 提供安全、可靠、高效的分布式代码托管服务。包括代码克隆/下载/提交/推送/比较/合并/分支等功能。 基于Git的分布式版本控制,提升跨地域跨团队协同开发效率。 关联项目任务,保障项目高效交付。 增强的安全防护能力,IP白名单与代码仓库访问日志审计。 代码仓库提交信息统计,基于时间轴的贡献者代码提交统计。 代码检查 提供可协作的一站式代码检查服务。 一站式:覆盖主流编程语言、主流编码标准、SDLC集成等。 灵活易用的检查方式:支持代码提交检查、定时执行检查,支持多分支检查。 可协作:提供问题责任人自动归属、提供问题修改建议、可聚焦处理新问题等。 编译构建 快速、安全的云上编译构建服务。 内置C/C++/Java/…等主流语言的构建模板,并支持自定义构建模板。 可配置执行计划,支持开启提交代码触发执行、定时执行等多种构建执行计划。 界面傻瓜式配置,无需用户编写构建配置文件。 同时支持容器镜像和通用软件包的归档。 构建完成时支持消息通知。 内置支持主流语言的构建环境镜像,也可使用自定义构建环境镜像。 支持多个构建步骤,可实现构建过程的灵活编排。 部署 提供可视化、一键式部署服务,支持并行部署和流水线无缝集成。 提供丰富的部署步骤,满足用户不同的部署场景。 支持对虚拟主机部署、物理主机部署、容器部署以及微服务应用部署等多种部署形态。 支持文件的复制、删除、修改、解压;支持Ansible、Shell命令、Shell脚本等通用部署能力。 部署界面简洁化配置,无须编写部署脚本。支持部署步骤的拖拉拽灵活编排。 预置Tomcat、SpringBoot、Django等系统模板,同时支持用户创建自定义模板。基于部署模板库,可以制 标准的部署流程,实现的快速创建,方便团队内部推广。 提供错误日志分析能力,对于失败的情况,支持错误日志关键字匹配FAQ,并提供详细的排查解决方案。 支持自定义参数,在时由用户指定参数值,用指定值替换相应参数部署。 提供对主机和主机组管理能力。支持主机(组)的增删改查;支持主机批量删除,批量连通性验证;主机连通 支持EIP直连、代理机连接以及模式下的VPC直连。 和主机组均支持项目下角色和权限的二维矩阵。 测试计划 提供业内首推一站式自动化测试工厂解决方案,覆盖测试设计、测试用例、测试管理、接口自动化测试。 DevOps敏捷测试理念,打通测试计划、测试设计、测试用例、测试执行和测试报告的全流程测试活动,提供缺陷上报、质量看板等方式多维度评估产品质量,帮助用户高效管理测试活动,保障产品高质量交付。 测试设计:使用启发式思维导图的形式进行测试用例设计和评审,更加直观,效率更高。支持Xmind直接导入生成在线思维导图测试设计;支持在线编辑思维导图; 支持4层测试设计方法(特性场景功能点用例);一键批量生成测试用例;覆盖功能、接口、安全等全领域测试设计,输出测试方案;可以通过测试策略模板快速创建用例,也可以自定义模板形成自己的测试资产。 测试管理:成熟的测试用例管理系统,可以开展用例设计、测试执行、缺陷提交、质量报告,提高测试效率;记录修改历史,避免漏测、误测,易追溯审计,规范测试流程。融入全生命周期追溯、测试计划、团队多角色协作、敏捷测试、需求驱动测试等理念,覆盖测试需求管理、测试任务分配、测试任务执行、测试进度管理、测试覆盖率管理、测试结果管理、缺陷管理、质量报告、测试仪表盘,一站式管理功能,提供适合不同团队规模、流程的自定义能力。 接口自动化测试:基于接口URL或者Swagger文档生成的接口脚本模板快速编排接口测试用例,集成流水线,支持微服务测试。测试用例免代码编写,技术门槛低,适合接口开发者、接口消费者、测试人员、业务人员等不同角色使用。一键导入Swagger接口定义自动生成脚本模板,基于脚本模板组装编排、管理接口自动化测试用例。支持HTTP和HTTPS协议,可视化用例编辑界面,丰富的预置检查点、内置变量,支持自定义变量、参数传递、持续自动化测试。 制品仓库 面向软件开发者提供制品管理的云服务,提供软件仓库、发布包下载、发布包元数据管理等功能,通过安全可靠的软件仓库,实现软件包版本管理,提升发布质量和效率,实现产品的持续发布。 支持文件重命名、批量删除、批量恢复、页面上传和下载、文件名搜索等文件操作。 编译构建属性自动关联软件包,编译构建的产物自动归档到软件发布库。 支持构建服务一键归档、部署服务从发布库一键获取软件包。 支持Maven、npm、Go、PyPI、RPM、Debian等多种制品类型仓库,支持新建仓库、上传下载制品、搜索制品等能力。 流水线 提供可视化、可编排的CI/CD持续交付软件生产线,帮助企业快速转型实现DevOps持续交付高效自动化,缩短应用TTM(Time to Market)交付周期,提升研发效率。 流水线自定义编排:可根据用户使用场景的需要,对构建、代码检查、子流水线、部署、流水线控制(延时执行、人工审核)、接口测试等多种类型的任务进行纳管和执行编排。 流水线可视化增删改查:提供图形化界面基础的流水线创建、编辑、删除和执行状态查看功能。其中,查看功能支持跳转到对应的自动化任务界面查看其日志等详情信息。 流水线权限管理:支持用户针对流水线任务设置指定帐号的权限控制,权限基于帐号所属角色操作权限进行控制,包含基础的查看、编辑、执行、删除权限控制。 流水线历史执行记录:支持查看流水线最近31天的历史执行记录。 流水线消息通知:用户可根据需要设置事件类型的通知状态,包括是否发送服务动态和邮件通知。 流水线部分任务执行:根据用户需求,可选择流水线中的某一个或多个任务单独执行。 流水线执行参数配置:流水线支持自定义参数,在执行时由用户指定参数值,任务用指定值替换相应参数执行。 流水线串/并行执行配置:根据用户需求,可配置同一阶段内的任务串行执行或并行执行。 说明 若您在使用软件开发生产线过程中所填写或上传的数据,可能有不确定的用户数据涉及敏感信息,为确保数据安全,请优先加密。
        来自:
      • 步骤二:创建RabbitMQ实例
        本章节主要介绍如何创建分布式消息服务RabbitMQ实例。 RabbitMQ是一款基于AMQP协议的开源服务,用于在分布式系统中存储转发消息,服务器端用Erlang语言(支持高并发、分布式以及健壮的容错能力等特点)编写,支持多种语言的客户端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP、AJAX等。 AMQP,即Advanced Message Queuing Protocol,高级消息队列协议,是应用层的一个开放标准协议。 前提条件 在创建RabbitMQ专享版实例前,需要保证存在可使用的虚拟私有云。创建虚拟私有云的方法,请参考《虚拟私有云用户指南》。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 为RabbitMQ授权 如果RabbitMQ实例需要开启IPv6功能,在创建实例前,需要授予RabbitMQ操作VPC终端节点的权限,否则会导致创建失败。 在IAM控制台创建委托,委托参数如下,其他参数保持默认,创建委托的具体步骤请参见《统一身份认证服务 用户指南》的“委托 > 委托其他云服务管理资源”章节。 委托名称:dmsadmintrust 委托类型:云服务 云服务:分布式消息服务 持续时间:永久 委托将拥有所选策略:DMS VPCEndpointAccess 操作步骤 步骤1 登录管理控制台。 步骤2 在管理控制台右上角单击,选择区域资源池。 说明 此处请选择与您的应用服务相同的区域。 步骤3 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务>RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤4 单击页面右上方的“购买RabbitMQ实例”。 每个项目默认最多可以创建100个RabbitMQ专享版实例,如果您想创建更多实例,请联系客服申请增加配额。 步骤5 选择“计费模式”、“区域”、“项目”和“可用区”。 步骤6 设置“实例名称”和“企业项目”。 步骤7 设置实例信息。 1. 版本:RabbitMQ的版本号,当前仅支持3.8.35。 2. 实例类型:支持“单机”和“集群”。 单机:表示部署一个RabbitMQ代理。 集群:表示部署多个RabbitMQ代理,实现高可靠的消息存储。 3. 鲲鹏实例:“创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 4. 规格:根据实际情况选择规格。 说明 为了保证服务的稳定可靠,RabbitMQ采用了默认的40%高水位配置。当内存占用率到达40%高水位后,会触发流控,生产者发送消息会被阻塞。为了避免高水位的产生,请及时消费积压在队列中的消息。 5. 代理个数:根据实例情况选择代理个数。 6. 存储空间:选择RabbitMQ实例的磁盘类型和存储空间总量。 单机实例的取值范围:100GB ~ 30000GB 集群实例的取值范围为:100GB 代理数 ~ 30000GB 代理数 7. 虚拟私有云:选择已经创建好的虚拟私有云和子网。 虚拟私有云可以为您的RabbitMQ专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 说明 虚拟私有云和子网在RabbitMQ实例创建完成后,不支持修改。 子网开启IPv6后,RabbitMQ实例支持IPv6功能。 实例创建成功后,不支持修改IPv6开关。 使用内网IPv6方式连接实例需要通过VPC终端节点实现,使用期间会产生VPC终端节点的费用。 8. 安全组:在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对弹性云主机的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云主机提供访问策略。 您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 图1 设置实例信息 步骤8 设置连接RabbitMQ实例的用户名和密码。 步骤9 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤10 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 您可以选择是否打开公网访问开关。 如果选择了开启,表示访问RabbitMQ实例可以通过弹性IP访问。这时页面会显示“弹性IP地址”,在“弹性IP地址”区域,您可下拉选择已有的弹性IP。另外,您可单击右侧的“创建弹性IP”,跳转到网络控制台的弹性IP页面,购买弹性IP。 图2 购买RabbitMQ实例时公网访问设置 说明 公网访问与VPC内访问相比,可能存在网络丢包和抖动等情况,且访问时延有所增加,因此建议仅在业务开发测试阶段开启公网访问进行调试。 如果用户在虚拟私有云的服务页面手动解绑定或删除EIP,相应RabbitMQ实例的公网访问功能会自动关闭。 2. 设置“SSL”。 客户端连接实例时SSL认证的开关。开启SSL,则数据加密传输,安全性更高。 SSL开关在实例创建完成后不支持修改,请明确是否需要开启 。 3. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击右侧的“查看预定义标签”,系统会跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个RabbitMQ实例最多支持设置20个不同标签。 4. 设置实例的描述信息。 步骤11 填写完上述信息后,单击“立即购买”,进入“规格确认”页面。 步骤12 确认实例信息无误且阅读并同意《分布式消息服务RabbitMQ服务等级协议》、《天翼云分布式消息服务协议》后,提交请求。 步骤13 在实例列表页面查看实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的RabbitMQ实例,然后重新创建。如果重新创建仍然失败,请联系客服。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤二:创建RabbitMQ实例
      • Linux主机挂载
        介绍Linux主机挂载块存储的最佳实践。 实践背景 块空间使用的是iSCSI协议,因此在新建块空间后需要使用iSCSI客户端来连接块空间。 本实践是在centos 7上,具有免密sudo权限的普通用户使用iSCSI客户端连接天翼云媒体存储块空间,并且对其进行格式化的过程。 操作步骤 1.执行以下命令,安装iSCSI客户端。 sudo yum install y iscsiinitiatorutils sudo yum install y devicemappermultipath 当系统出现如下所示的更新完毕作为依赖被升级完毕的提示时,说明软件安装完成。 若已安装过所需软件,系统会提示对应的软件包已安装并且是最新版本无须任何处理。 2.配置iSCSI多路径,具体步骤如下: (1) 执行以下命令,生成配置文件/etc/multipath.conf。 mpathconf enable withmultipathd y (2)执行以下命令,修改多路径配置。 sudo vi /etc/multipath.conf (3)添加如下内容。 defaults { userfriendlynames yes pathgroupingpolicy failover failback immediate nopathretry fail } devices { device { vendor "LIOORG" hardwarehandler "1 alua" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prio alua prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } device { vendor "CTyun" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } } (4)执行以下命令,进行服务重启。 sudo systemctl restart multipathd 3.修改iSCSI Client的InitiatorName,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/initiatorname.iscsi (2)将InitiatorName(下图红框内内容)修改为创建块空间时填写的CHAP iqn;具体可参考操作步骤【块空间管理】查看所需挂载块空间的CHAP iqn信息(图中的例子为iqn.209901.com.client.cicdtestcy:230323)。 4.修改CHAP权限,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/iscsid.conf (2)找到以下内容: 修改为下图中内容,其中红框内的username的等号后面填写创建块空间时设定的CHAP用户(图中的例子为testblockzd),password的等号后面填写创建块空间时设定的CHAP密钥(图中的例子为111111111111)。 5.连接块空间,具体步骤如下: (1)为确保连接顺利,先执行 setenforce 0 命令临时禁用防火墙。 (2)执行以下命令,重启相关组件。 sudo systemctl restart iscsid (3)执行以下命令增加iSCSI连接target,具体的targetname参数与portal参见块空间信息中的targetIqn、网关地址与数据端口,具体查看步骤可见操作步骤【块空间管理】。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opnew sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opnew (4)执行以下命令,进行登入操作。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw l 说明 对于步骤5(3)、5(4),可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考: (5)若系统出现以下提示表示登录成功。 (6)可通过以下命令查看新增磁盘。 sudo lsscsi sudo fdisk l sudo lsblk sudo multipath l 注意: 执行后会发现除了机器的原有磁盘外,还挂载了三个新的磁盘,一个是以/dev/mapper/开头的磁盘,另外两个是以/dev/sd开头的磁盘,我们挂载的是前者,即是以/dev/mapper/的磁盘。 每次挂载,该磁盘后面的名字都可能不一样。 如果你有多个块空间使用了同一个iqn,每个块在查看磁盘时均会看到一个以/dev/mapper/开头的磁盘以及两个以/dev/sd开头的磁盘,请总是使用以/dev/mapper/开头的磁盘来进行挂载。 (7)根据系统协议执行以下命令,进行磁盘格式化: xfs文件系统: sudo mkfs.xfs /dev/mapper/mpatha ext4文件系统: sudo mkfs.ext4 /dev/mapper/mpatha 注意 :可以根据实际需求选择命令,将命令中“/dev/mapper/mpatha”部分改为步骤(6)中查找到的新增磁盘地址。 (8)执行以下命令,挂载到本地目录。 sudo mount /dev/mapper/mpatha /mnt/iscsiMnt 注意: mount后第一部分为新增磁盘的实际地址。 mount后第二部分为进行挂载的本地目录地址。 可以通过mount l命令查看是否挂载成功,若显示信息中包含挂载信息则挂载成功,以上样例对应的挂载信息如下,该样例已成功挂载。 (9)执行以下命令,查看已连接的目标。 sudo iscsiadm m session 6.如需断开连接,则执行以下命令。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw u 7.执行以下命令,删除所有记录。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opdelete sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opdelete 说明 对于步骤6、7,可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考:
        来自:
        帮助文档
        媒体存储
        最佳实践
        块存储
        Linux主机挂载
      • 支持的SSL/TLS加密套件
        本文介绍边缘安全加速平台支持的SSL/TLS加密套件及对应套件支持的最低版本的SSL/TLS协议及配置方法。 功能介绍 加密套件是用于在SSL/TLS握手期间协商安全设置的算法的组合。在Client Hello和Server Hello消息交换之后,客户端发送密码支持套件列表,服务器从列表中选择密码套件进行响应。 天翼云AOne安全与加速在域名配置完HTTPS证书后,可选择加密套件类型:全部加密套件、强加密套件、自定义加密套件。 选择全部加密套件后,默认支持如下加密套件: 加密算法 最低版本的SSL/TLS协议 TLSAES256GCMSHA384 TLSv1.3 TLSCHACHA20POLY1305SHA256 TLSv1.3 TLSAES128GCMSHA256 TLSv1.3 ECDHEECDSAAES256GCMSHA384 TLSv1.2 ECDHERSAAES256GCMSHA384 TLSv1.2 DHEDSSAES256GCMSHA384 TLSv1.2 DHERSAAES256GCMSHA384 TLSv1.2 ECDHEECDSACHACHA20POLY1305 TLSv1.2 ECDHERSACHACHA20POLY1305 TLSv1.2 DHERSACHACHA20POLY1305 TLSv1.2 ECDHEECDSAAES256CCM8 TLSv1.2 ECDHEECDSAAES256CCM TLSv1.2 DHERSAAES256CCM8 TLSv1.2 DHERSAAES256CCM TLSv1.2 ECDHEECDSAARIA256GCMSHA384 TLSv1.2 ECDHEARIA256GCMSHA384 TLSv1.2 DHEDSSARIA256GCMSHA384 TLSv1.2 DHERSAARIA256GCMSHA384 TLSv1.2 ECDHEECDSAAES128GCMSHA256 TLSv1.2 ECDHERSAAES128GCMSHA256 TLSv1.2 DHEDSSAES128GCMSHA256 TLSv1.2 DHERSAAES128GCMSHA256 TLSv1.2 ECDHEECDSAAES128CCM8 TLSv1.2 ECDHEECDSAAES128CCM TLSv1.2 DHERSAAES128CCM8 TLSv1.2 DHERSAAES128CCM TLSv1.2 ECDHEECDSAARIA128GCMSHA256 TLSv1.2 ECDHEARIA128GCMSHA256 TLSv1.2 DHEDSSARIA128GCMSHA256 TLSv1.2 DHERSAARIA128GCMSHA256 TLSv1.2 ECDHEECDSAAES256SHA384 TLSv1.2 ECDHERSAAES256SHA384 TLSv1.2 DHERSAAES256SHA256 TLSv1.2 DHEDSSAES256SHA256 TLSv1.2 ECDHEECDSACAMELLIA256SHA384 TLSv1.2 ECDHERSACAMELLIA256SHA384 TLSv1.2 DHERSACAMELLIA256SHA256 TLSv1.2 DHEDSSCAMELLIA256SHA256 TLSv1.2 ECDHEECDSAAES128SHA256 TLSv1.2 ECDHERSAAES128SHA256 TLSv1.2 DHERSAAES128SHA256 TLSv1.2 DHEDSSAES128SHA256 TLSv1.2 ECDHEECDSACAMELLIA128SHA256 TLSv1.2 ECDHERSACAMELLIA128SHA256 TLSv1.2 DHERSACAMELLIA128SHA256 TLSv1.2 DHEDSSCAMELLIA128SHA256 TLSv1.2 RSAPSKAES256GCMSHA384 TLSv1.2 DHEPSKAES256GCMSHA384 TLSv1.2 RSAPSKCHACHA20POLY1305 TLSv1.2 DHEPSKCHACHA20POLY1305 TLSv1.2 ECDHEPSKCHACHA20POLY1305 TLSv1.2 DHEPSKAES256CCM8 TLSv1.2 DHEPSKAES256CCM TLSv1.2 RSAPSKARIA256GCMSHA384 TLSv1.2 DHEPSKARIA256GCMSHA384 TLSv1.2 AES256GCMSHA384 TLSv1.2 AES256CCM8 TLSv1.2 AES256CCM TLSv1.2 ARIA256GCMSHA384 TLSv1.2 PSKAES256GCMSHA384 TLSv1.2 PSKCHACHA20POLY1305 TLSv1.2 PSKAES256CCM8 TLSv1.2 PSKAES256CCM TLSv1.2 PSKARIA256GCMSHA384 TLSv1.2 RSAPSKAES128GCMSHA256 TLSv1.2 DHEPSKAES128GCMSHA256 TLSv1.2 DHEPSKAES128CCM8 TLSv1.2 DHEPSKAES128CCM TLSv1.2 RSAPSKARIA128GCMSHA256 TLSv1.2 DHEPSKARIA128GCMSHA256 TLSv1.2 AES128GCMSHA256 TLSv1.2 AES128CCM8 TLSv1.2 AES128CCM TLSv1.2 ARIA128GCMSHA256 TLSv1.2 PSKAES128GCMSHA256 TLSv1.2 PSKAES128CCM8 TLSv1.2 PSKAES128CCM TLSv1.2 PSKARIA128GCMSHA256 TLSv1.2 AES256SHA256 TLSv1.2 CAMELLIA256SHA256 TLSv1.2 AES128SHA256 TLSv1.2 CAMELLIA128SHA256 TLSv1.2 ECDHEECDSAAES256SHA TLSv1 ECDHERSAAES256SHA TLSv1 ECDHEECDSAAES128SHA TLSv1 ECDHERSAAES128SHA TLSv1 ECDHEPSKAES256CBCSHA384 TLSv1 ECDHEPSKAES256CBCSHA TLSv1 RSAPSKAES256CBCSHA384 TLSv1 DHEPSKAES256CBCSHA384 TLSv1 ECDHEPSKCAMELLIA256SHA384 TLSv1 RSAPSKCAMELLIA256SHA384 TLSv1 DHEPSKCAMELLIA256SHA384 TLSv1 PSKAES256CBCSHA384 TLSv1 PSKCAMELLIA256SHA384 TLSv1 ECDHEPSKAES128CBCSHA256 TLSv1 ECDHEPSKAES128CBCSHA TLSv1 RSAPSKAES128CBCSHA256 TLSv1 DHEPSKAES128CBCSHA256 TLSv1 ECDHEPSKCAMELLIA128SHA256 TLSv1 RSAPSKCAMELLIA128SHA256 TLSv1 DHEPSKCAMELLIA128SHA256 TLSv1 PSKAES128CBCSHA256 TLSv1 PSKCAMELLIA128SHA256 TLSv1 DHERSAAES256SHA SSLv3 DHEDSSAES256SHA SSLv3 DHERSACAMELLIA256SHA SSLv3 DHEDSSCAMELLIA256SHA SSLv3 DHERSAAES128SHA SSLv3 DHEDSSAES128SHA SSLv3 DHERSACAMELLIA128SHA SSLv3 DHEDSSCAMELLIA128SHA SSLv3 SRPDSSAES256CBCSHA SSLv3 SRPRSAAES256CBCSHA SSLv3 SRPAES256CBCSHA SSLv3 RSAPSKAES256CBCSHA SSLv3 DHEPSKAES256CBCSHA SSLv3 AES256SHA SSLv3 CAMELLIA256SHA SSLv3 PSKAES256CBCSHA SSLv3 SRPDSSAES128CBCSHA SSLv3 SRPRSAAES128CBCSHA SSLv3 SRPAES128CBCSHA SSLv3 RSAPSKAES128CBCSHA SSLv3 DHEPSKAES128CBCSHA SSLv3 AES128SHA SSLv3 CAMELLIA128SHA SSLv3 PSKAES128CBCSHA SSLv3 选择强加密套件后,默认支持如下加密套件: 加密算法 最低版本的SSL/TLS协议 TLSAES256GCMSHA384 TLSv1.3 TLSCHACHA20POLY1305SHA256 TLSv1.3 TLSAES128GCMSHA256 TLSv1.3 ECDHEECDSACHACHA20POLY1305 TLSv1.2 ECDHERSACHACHA20POLY1305 TLSv1.2 ECDHEECDSAAES256GCMSHA384 TLSv1.2 ECDHERSAAES256GCMSHA384 TLSv1.2 ECDHEECDSAAES256CCM8 TLSv1.2 ECDHEECDSAAES256CCM TLSv1.2 ECDHEECDSAARIA256GCMSHA384 TLSv1.2 ECDHEARIA256GCMSHA384 TLSv1.2 ECDHEECDSAAES128GCMSHA256 TLSv1.2 ECDHERSAAES128GCMSHA256 TLSv1.2 ECDHEECDSAAES128CCM8 TLSv1.2 ECDHEECDSAAES128CCM TLSv1.2 ECDHEECDSAARIA128GCMSHA256 TLSv1.2 ECDHEARIA128GCMSHA256 TLSv1.2 选择自定义加密套件后,可从如下列表中自定义选择1个或多个加密套件: 加密算法 最低版本的SSL/TLS协议 TLSAES256GCMSHA384 TLSv1.3 TLSCHACHA20POLY1305SHA256 TLSv1.3 TLSAES128GCMSHA256 TLSv1.3 ECDHEECDSAAES256GCMSHA384 TLSv1.2 ECDHERSAAES256GCMSHA384 TLSv1.2 ECDHEECDSACHACHA20POLY1305 TLSv1.2 ECDHERSACHACHA20POLY1305 TLSv1.2 ECDHEECDSAAES256CCM8 TLSv1.2 ECDHEECDSAAES256CCM TLSv1.2 ECDHEECDSAARIA256GCMSHA384 TLSv1.2 ECDHEARIA256GCMSHA384 TLSv1.2 ECDHEECDSAAES128GCMSHA256 TLSv1.2 ECDHERSAAES128GCMSHA256 TLSv1.2 ECDHEECDSAAES128CCM8 TLSv1.2 ECDHEECDSAAES128CCM TLSv1.2 ECDHEECDSAARIA128GCMSHA256 TLSv1.2 ECDHEARIA128GCMSHA256 TLSv1.2 ECDHEECDSAAES256SHA384 TLSv1.2 ECDHERSAAES256SHA384 TLSv1.2 ECDHEECDSACAMELLIA256SHA384 TLSv1.2 ECDHERSACAMELLIA256SHA384 TLSv1.2 ECDHEECDSAAES128SHA256 TLSv1.2 ECDHERSAAES128SHA256 TLSv1.2 ECDHEECDSACAMELLIA128SHA256 TLSv1.2 ECDHERSACAMELLIA128SHA256 TLSv1.2 AES256GCMSHA384 TLSv1.2 AES256CCM8 TLSv1.2 AES256CCM TLSv1.2 ARIA256GCMSHA384 TLSv1.2 AES128GCMSHA256 TLSv1.2 AES128CCM8 TLSv1.2 AES128CCM TLSv1.2 ARIA128GCMSHA256 TLSv1.2 AES256SHA256 TLSv1.2 CAMELLIA256SHA256 TLSv1.2 AES128SHA256 TLSv1.2 CAMELLIA128SHA256 TLSv1.2
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        HTTPS相关配置
        支持的SSL/TLS加密套件
      • 备份/变更规格/升级
        FTP/SFTP远程备份失败怎么办? 问题现象 云堡垒机配置了FTP/SFTP远程备份,报“请检查服务器密码或网络连接情况”错误,不能启动远程备份。 选择备份具体某一天日志,提示“备份正在执行”,但远程服务器未接收到该备份文件。 可能原因 原因一:云堡垒机配置的FTP/SFTP服务器账户或密码错误,导致远程备份失败。 原因二:云堡垒机与FTP/SFTP服务器的网络连接不通,导致远程备份失败。 原因三:FTP/SFTP服务器用户目录限制文件上传,导致远程备份失败。 原因四:被选择日期当天的运维日志量大,备份传输速率慢,长时间未备份完成,导致在远程服务器不能及时查看备份文件。 解决办法 原因一: 登录ECS管理控制台,VNC方式登录一台Linux主机,通过Linux主机登录FTP/SFTP服务器,验证服务器账户和密码。验证成功后,重新配置FTP/SFTP服务器远程备份账户和密码,尝试备份。 原因二: 登录云堡垒机系统,通过网络诊断,检查与FTP/SFTP服务器之间网络连接情况。 网络连接正常,请排查其他可能原因。 网络连接异常,请参考CBH安全组规则,检查云堡垒机和FTP/SFTP服务器主机安全组是否放开22端口;检查FTP/SFTP服务器主机的ACL是否放开22端口,并添加云堡垒机公网IP(即弹性IP)为允许。 原因三: 开启用户目录上传权限。 登录云堡垒机系统,选择“系统 > 数据维护 > 日志备份”,重新正确配置FTP/SFTP服务器的“存储路径”。 说明 “存储路径”置空表示备份内容存放到FTP/SFTP服务器用户的主目录下,例如绝对路径/home/用户名;配置的路径需以英文句号开头,例如配置路径为 ./test/abc,则其绝对路径为/home/用户名/test/abc。 原因四: 请您耐心等待,建议备份启动后的第二天再查看服务器上备份文件。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        备份/变更规格/升级
      • ECS自建MongoDB迁移DDS
        迁移建议(重要) 数据库迁移与环境多样性和人为操作均有密切关系,为了确保迁移的平顺,建议您在进行正式的数据库迁移之前进行一次演练,可以帮助您提前发现问题并解决问题,如何最小化对数据库的影响请参考如下建议。 强烈建议您在启动任务时选择“稍后启动”功能,将启动时间设置在业务低峰期,相对静止的数据可以有效提升一次性迁移成功率,避免迁移对业务造成性能影响。 迁移须知(重要) 注意 在创建迁移任务之前,请您务必仔细阅读迁移须知。 参考《数据复制服务实时迁移》中具体链路的“使用须知”。 迁移准备 1.权限准备: 当使用 DRS 将ECS自建MongoDB数据库的数据迁移到本云DDS实例时,在不同迁移类型情况下,对源数据库和目标数据库的帐号权限要求如表1: 表 迁移帐号权限 迁移类型 全量迁移 全量+增量迁移 源数据库 副本集:连接源数据库的用户权限需要对admin数据库有readAnyDatabase权限。 集群:连接源数据库的用户权限需要对admin数据库有readAnyDatabase权限,对config数据库有read权限。 单节点:连接源数据库的用户权限需要对admin数据库有readAnyDatabase权限。 如果需要迁移源数据库用户和角色信息,连接源数据库的用户权限需要对admin数据库的系统表system.users,system.roles有读权限。 副本集:连接源数据库的用户权限需要对admin数据库有readAnyDatabase权限,对local数据库有read权限。 单节点:连接源数据库的用户权限需要对admin数据库有readAnyDatabase权限,对local数据库有read权限。 集群:连接源数据库mongos节点的用户权限需要对admin数据库有readAnyDatabase权限,对config数据库有read权限, 连接源数据库分片节点的用户权限需要对admin数据库有readAnyDatabase权限,对local数据库有read权限。 l 如果需要迁移源数据库用户和角色信息,连接源数据库的用户权限需要对admin数据库的系统表system.users,system.roles有读权限。 目标数据库 连接目标数据库的用户权限需要对admin数据库有readAnyDatabase权限,对目标数据库有readWrite权限。 源数据库权限设置: 需要确保源数据库MongoDB的帐号权限具备表1的要求。若权限不足,需要在源数据库端开通高权限的帐号。 目标数据库权限设置: 本云DDS实例使用初始帐号即可。 2.网络准备: 源数据库所在的region需要和目标DDS所在的region保持一致。 源数据库可以与目标DDS实例在同一个VPC,也可以不在同一个VPC。 当不在同一个VPC的时候,要求源数据库实例和目标端DDS实例所处的子网处于不同网段,此时需要通过建立对等连接实现网络互通,具体操作请参见《虚拟私有云用户指南》中“VPC对等连接”章节。 当在同一VPC的时候,网络默认是互通的。 3.安全规则准备: 同一VPC场景下,默认网络是连通的,不需要单独设置安全组。 不同VPC场景下,通过建立对等连接就可以实现网络互通,不需要单独设置安全组。 4.其他事项准备: 由于迁移过程不会迁移MongoDB数据库的用户信息以及相关参数,需要自行将上述信息导出后,手动添加到目标DDS中。 迁移步骤 1.创建迁移任务。 A.登录管理控制台,在服务列表中选择“数据库 > 数据复制服务”,进入数据复制服务信息页面。 B.在“实时迁移管理”页面,单击右上角“创建迁移任务”,进入迁移任务信息页面。 C.在“迁移实例”页面,填选任务名称、通知收件人、描述和迁移实例信息。 图 迁移实例信息 表 任务和描述 参数 描述 区域 当前所在区域,可进行切换。 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 表 迁移实例信息 参数 描述 数据流动方向 选择入云。 源数据库引擎 选择MongoDB数据库引擎。 目标数据库引擎 选择DDS数据库引擎。 网络类型 选择VPC网络。 目标数据库实例 您所创建的本云DDS实例。 迁移模式 此处以全量+增量模式为示例。 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将远端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 D.在“源库及目标库”信息页面,迁移实例创建成功后,填选源库信息和目标库信息,建议您单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 图 源库及目标库信息 表 源库信息 参数 描述 源库类型 选择“自建库”。 VPC 源数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。如何创建虚拟私有云,请参见《虚拟私有云用户指南》。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。如何创建子网,请参见《虚拟私有云用户指南》。 IP地址或域名 配置源MongoDB数据库实例的访问地址或域名。 端口 配置源MongoDB数据库实例的服务端口,可输入范围为1~65535间的整数。 数据库用户名 访问源MongoDB数据库的用户名。 数据库密码 访问源MongoDB数据库的用户名所对应的密码。 SSL安全连接 您可以选择开启SSL安全连接,对迁移链路进行加密,开启之后,需要您上传加密证书。 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的已创建的本云DDS实例,不可进行修改。 数据库用户名 访问目标数据库本云DDS的用户名。 数据库密码 访问目标数据库本云DDS的用户名所对应的密码。 E.在“迁移设置”页面,设置迁移对象,单击“下一步”。 图 设置迁移对象 表 迁移对象 参数 描述 迁移用户 常见的迁移用户一般分为两类:支持迁移的用户和不支持迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,其中,不支持迁移的账号或者未选择迁移的账号将在目标数据库中缺失,需要先确保业务不受影响。 迁移 当您选择迁移用户时,请参见《数据复制服务用户指南》中“迁移用户”章节进行数据库用户及角色的处理。 不迁移 迁移过程中,将不进行数据库用户及角色的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 F.在“预检查”页面,进行迁移任务预校验,校验是否可进行任务迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。预检查不通过项处理建议请参见《数据复制服务用户指南》中的“预检查不通过项修复方法”。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 图 预检查 说明:所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作。 G.在“任务确认”页面,设置迁移任务的启动时间、任务异常通知设置、时延阈值、任务异常自动结束时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 表 任务启动设置 参数 描述 启动时间 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 说明 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 任务异常通知设置 该项为可选参数,开启之后,选择对应的SMN主题。当迁移任务状态异常时,系统将发送通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。设置时延阈值之前,需要设置任务异常通知。 任务异常自动结束时间(天) 设置任务异常自动结束天数,输入值必须在14100之间,默认值14。 说明 异常状态下的任务仍然会计费,而长时间异常的任务无法续传和恢复。设置任务异常自动结束天数后,异常且超时的任务将会自动结束,以免产生不必要的费用。 2.任务管理。 迁移任务启动后,会经历全量迁移和增量迁移两个阶段,对于不同阶段的迁移任务,您可以进行任务管理。 全量迁移 查看迁移进度:全量迁移中的任务,您可单击任务名称,在“迁移进度”页签下,查看全量迁移进度,您可以查看结构、数据、索引迁移的进度,也查看具体迁移对象的迁移进度。当全量迁移进度显示为100%,表示全量迁移已经完成。 查看迁移明细:迁移明细中,您可以查看具体迁移对象的迁移进度,当“对象数目”和“已迁移对象”相等时,表示该对象已经迁移完成,可通过“查看详情”查看每个对象的迁移进度。仅白名单用户该支持功能,您可以通过提交工单的方式进行申请使用。 增量迁移 查看时延监控:全量迁移完成后,开始进行增量迁移。对于增量迁移中的任务,您可单击任务名称,在“迁移进度”页签下,查看增量迁移同步时延,当时延为0s时,说明源数据库和目标数据库的数据是实时同步的。您也可以使用“迁移对比”页签查看一致性。 图 查看时延监控 查看迁移对比:为了尽可能减少业务的影响和业务中断时间,增量迁移中的任务,您可单击任务名称,在“迁移对比”页签下,建议按照如下流程进行迁移对比,以便确定合适的业务割接时机。 图9 迁移对比流程 3.割接建议。 建议您选择一个业务低峰期,开始正式系统割接流程。割接前,请您确认至少在业务低峰期有过一次完整的数据对比。可以结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 A.先中断业务(如果业务负载非常轻,也可以尝试不中断业务)。 B.在源数据库端执行如下语句,并观察在15分钟内若无任何新会话执行SQL ,则可认为业务已经完全停止。 db.currentOp() 说明 上述语句查询到的进程列表中,包括DRS迁移实例的连接,您需要确认除DRS迁移实例的连接外无任何新会话执行SQL,即可认为业务已经完全停止。 C.通过DRS迁移任务监控页面进行观察同步时延,保持实时同步时延为0,并稳定保持一段时间;同时,您可以使用数据级对比功能,进行割接前的最后一次数据级对比,耗时可参考之前的对比记录。 如果时间允许,则选择全部对比。 如果时间不允许,则推荐对比活跃表,关键业务表,第二步对比多次存在差异的表等。 D.确定系统割接时机,业务系统指向本云数据库,业务对外恢复使用,迁移完成。 4.迁移结束。 A.结束迁移任务:业务系统和数据库切换至本云后,为了防止源数据库的操作继续同步到目标数据库,造成数据覆盖问题,此时您可选择结束迁移任务,该操作仅删除了迁移实例,迁移任务仍显示在任务列表中,您可以进行查看或删除。结束迁移任务后,DRS将不再计费。 B.删除迁移任务:对于已结束的迁移任务,您可选择删除任务。该操作将一并删除迁移任务,删除迁移任务后,该任务将不会出现在任务列表中。
        来自:
      • 迁移前构造数据
        本节介绍了如何在迁移前构造数据。 迁移前需要在源库构造一些数据类型,供迁移完成后验证数据。 DRS支持的数据类型如下所示: 源库数据类型 目标库数据类型 源库数据类型做主键,同步能力 源库数据类型做非主键, 同步能力 源库数据类型做主键, 对比能力 源库数据类型做非主键, 对比能力 备注 CHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 VARCHAR character varying 支持 支持 支持 支持 源目标库数据表示范围不同,存在精度损失。 VARCHAR2 character varying 支持 支持 支持 支持 NCHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 NVARCHAR2 nvarchar2 支持 支持 支持 支持 NUMBER numeric 支持 支持 支持 支持 NUMBER (6,3) numeric(6,3) 支持 支持 支持 支持 NUMBER (6,0) Integer 支持 支持 支持 支持 NUMBER (3) smallint 支持 支持 支持 支持 NUMBER (6,2) integer 支持 支持 支持 支持 BINARYFLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 BINARYDOUBLE double precision 不支持(目标库不支持做主键建表) 支持 不支持 支持 FLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 INT numeric 支持 支持 支持 支持 INTEGER numeric 支持 支持 支持 支持 DATE date 支持 支持 不支持 支持 DRS在目标库建表时类型为date,此时源目标库数据表示范围不同, 存在精度损失,不支持对比。 TIMESTAMP timestamp(6) without time zone 支持 支持 不支持 校验到小数点后6位 源库使用限制:支持的最大精度是6。 TIMESTAMPTZ timestamp(6) with time zone 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 TIMESTAMPLTZ timestamp(6) with time zone 不支持(目标库不支持做主键建表) 支持 不支持 过滤该列 INTERVALYM interval year to month 支持 支持 不支持 不支持 增量同步不支持该类型。 INTERVALDS interval day to second 支持 支持 不支持 不支持 增量同步不支持该类型。源库使用限制:支持的最大精度是6。 BLOB bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 CLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 NCLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONG text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONGRAW bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 RAW bytea 不支持(目标库不支持做主键建表) 支持 不支持 支持 RowID character varying(18) 支持 支持 支持 支持 BFILE 不支持 不支持 不支持 不支持 源库使用限制:不支持bfile类型。 XMLTYPE 不支持 不支持 不支持 不支持 源库使用限制:不支持xmltype类型。 UROWID 不支持 不支持 不支持 不支持 全量增量都不支持同步。 sdogeometry 不支持 不支持 不支持 不支持 源库使用限制:不支持sdogeometry类型。 NUMBER(,0) numeric 支持 支持 支持 支持 执行如下步骤在源库构造数据: 1. 根据本地的Oracle数据库的IP地址,通过数据库连接工具连接数据库。 2. 根据支持的数据类型,在源库执行语句构造数据。 a) 创建一个测试用的用户。 create user testinfo identified by xxx ; testinfo为本次实践创建的用户,xxx为用户的密码,请根据实际情况替换。 b) 给用户赋权。 grant dba to testinfo ; c) 在当前用户下创建一个数据表。 CREATE TABLE testinfo . DATATYPELIST (ID INT,COL01CHARE CHAR(100),COL02NCHARE NCHAR(100),COL03VARCHARE VARCHAR(1000),COL04VARCHAR2E VARCHAR2(1000),COL05NVARCHAR2E NVARCHAR2(1000),COL06NUMBERE NUMBER(38,0),COL07FLOATE FLOAT(126),COL08BFLOATE BINARYFLOAT,COL09BDOUBLEE BINARYDOUBLE,COL10DATEE DATE DEFAULT SYSTIMESTAMP,COL11TSE TIMESTAMP(6),COL12TSTZE TIMESTAMP(6) WITH TIME ZONE,COL13TSLTZE TIMESTAMP(6) WITH LOCAL TIME ZONE,COL14CLOBE CLOB DEFAULT EMPTYCLOB(),COL15BLOBE BLOB DEFAULT EMPTYBLOB(),COL16NCLOBE NCLOB DEFAULT EMPTYCLOB(),COL17RAWE RAW(1000),COL19LONGRAWE LONG RAW,COL24ROWIDE ROWID,PRIMARY KEY(ID)); d) 插入两行数据。 insert into testinfo.DATATYPELIST values(4,'huawei','xian','shanxi','zhongguo','shijie', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); insert into testinfo.DATATYPELIST values(2,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); e) 使语句生效。 commit; 3. 在目标端创建库。 a) 登录天翼云控制台。 b) 单击管理控制台左上角的,选择区域。 c) 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据管理服务”。 d) 在数据管理服务DAS左侧导航栏,单击“开发工具”,进入开发工具数据库登录列表页面。 e) 单击“新增数据库登录”,打开新增数据库登录窗口。 f) 选择“数据库引擎”、“数据库来源”、目标实例,填写登录用户名、密码以及描述(非必填项)信息,开启定时采集、SQL执行记录功能。 g) 您可根据需要选择“测试连接”(必选操作步骤)。 如测试连接成功,将提示“连接成功”,您可继续新增操作。如测试连接失败,将提示连接失败原因,您需根据提示信息进行修改,以便新增数据库登录成功。 h) 设置完登录信息,单击“立即新增”。 i) 新增完成后,单击新增登录的“登录”,登录当前数据库。 j) 进入SQL查询页面。 k) 执行如下语句创建兼容Oracle的数据库。 此例中为:testdatabaseinfo,请根据实际情况选择。 CREATE DATABASE testdatabaseinfo DBCOMPATIBILITY 'ORA';
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移前构造数据
      • 1
      • ...
      • 252
      • 253
      • 254
      • 255
      • 256
      • ...
      • 273
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      AI Store

      应用托管

      科研助手

      智算一体机

      知识库问答

      人脸检测

      推荐文档

      上传资料常见问题

      文档下载

      公司的营业执照名称发生变更怎么办?

      产品变更

      安全防护

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号