活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云监控ces_相关内容
      • 通过自定义域名访问集群
        本节介绍了通过自定义域名访问集群的用户指南。 前提条件 已经创建了一个天翼云账号,并且有一个已经创建好的云容器引擎集群。 集群中已经部署了应用服务,并且可以通过Cluster IP或NodePort进行访问。 已经拥有一个域名,并可以对其进行DNS配置。 创建Ingress Controller 登录云容器引擎控制台,单击集群名称进入集群。 在左侧导航栏中找到网络,下拉找到路由,点击路由,点击左上角创建路由。 创建Ingress Controller。 安装完成后,可以使用kubectl命令查看Ingress Controller的服务: plaintext kubectl get services n ingressnginx 确保ingressnginxcontroller服务已经创建并在运行。 创建Ingress资源 编写Ingress资源配置文件 创建一个新的YAML文件,例如myingress.yaml,内容如下: plaintext apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: myingress namespace: default spec: rules: host: http: paths: path: / pathType: Prefix backend: service: name: port: number: 替换 为您的自定义域名, 为您的Kubernetes服务名称, 为服务的端口号。 应用Ingress资源 使用kubectl应用刚才创建的Ingress资源文件: plaintext kubectl apply f myingress.yaml 验证Ingress资源是否已创建: plaintext kubectl get ingress 配置自定义域名的DNS记录 获取Ingress Controller的外部IP 使用以下命令获取Ingress Controller的外部IP: plaintext kubectl get services n ingressnginx 记录ingressnginxcontroller服务的EXTERNALIP。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        访问集群
        通过自定义域名访问集群
      • 查看安全报告
        此小节介绍企业主机安全查看安全报告。 主机安全支持订阅日报、周报、月报和自定义,展现不同周期主机安全趋势以及关键安全事件与风险,订阅报告将为您保存6个月,以满足等保测评以及审计的需要。 注意 勾选订阅报告后,第二天即可查看、下载。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 安全报告概览 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、单击目标报告的“获取报告”,跳转至报告预览页,可查看报告信息、下载、发送报告。 查看报告发送记录 发送记录存储了邮件发送报告的发送详情。 1、单击安全报告概览页右上角的“报告发送记录”查看报告发送记录。 2、在弹窗中查看报告发送记录,参数说明如表所示。 报告发送详情 报告发送记录参数 参数名称 参数说明 报告名称 已发送报告的名称。 统计周期 目标发送报告内容的统计周期。 报告类型 目标发送报告的统计周期类型。 安全周报 安全月报 安全日报 自定义报告 邮件发送时间 目标报告发送的时间。 3、单击“操作”列的“获取报告”可查看历史发送的报告信息,同时可预览和下载报告。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        查看安全报告
      • 基本概念
        本文介绍视频直播相关的基本概念。 边缘节点 边缘节点是离终端用户最近的一个节点,经过视频直播加速的客户,其用户访问无论推流还是拉流均经过边缘节点接入。 源站 源站指客户的直播源,通常由客户运营维护,为视频直播加速提供原始内容。 DNS DNS,即Domain Name System,指域名解析服务。它的作用是把域名转换成网络可以识别的IP地址。人们习惯记忆域名,但机器间互相只认IP地址,它们之间的转换工作称为域名解析,域名解析需要由专门的域名解析服务器来完成,整个过程是自动进行的。比如:上网时输入的www.baidu.com会自动转换成220.181.112.143。常见的DNS解析服务商有:阿里云解析,万网解析,DNSPod,新网解析,Route53(AWS),Dyn,Cloudflare等。 CNAME域名 客户接入直播时,在天翼云直播控制台完成加速域名添加后,系统会为您分配一个天翼云的CNAME域名,例如 .ctadns.cn,您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctadns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云直播的节点,实现加速的目的。 CNAME记录 CNAME记录是指域名解析中的别名记录(Canonical Name),用来把一个域名解析到另一个域名(CNAME域名),再由CNAME域名来解析到需要访问的服务器IP地址。 DNS解析时间 DNS解析时间是指通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。
        来自:
        帮助文档
        视频直播
        产品介绍
        基本概念
      • OpenSora推理生成视频
        本节介绍智算集群部署OpenSora推理生成视频任务。 前提条件 已开通包含GPU/NPU的Kubernetes集群。 已安装智算套件。 集群节点需要访问公网(需通过公网下载模型)。 背景信息 本文演示如何使用OpenSora【GPU】和OpenSoraPlan【NPU】推理任务生成视频。 操作步骤 进入云容器引擎控制台。 点击左侧【集群】进入集群列表。 点击使用的集群名称,进入集群。 创建configmap 文本中填入视频prompt描述(描述内容来自OpenSora官网)。 xml apiVersion: v1 kind: ConfigMap metadata: name: t2vsamplesconfigmap namespace: default data: t2vsamples.txt: A soaring drone footage captures the majestic beauty of a coastal cliff, its red and yellow stratified rock faces rich in color and against the vibrant turquoise of the sea. Seabirds can be seen taking flight around the cliff's precipices. As the drone slowly moves from different angles, the changing sunlight casts shifting shadows that highlight the rugged textures of the cliff and the surrounding calm sea. The water gently laps at the rock base and the greenery that clings to the top of the cliff, and the scene gives a sense of peaceful isolation at the fringes of the ocean. The video captures the essence of pristine natural beauty untouched by human structures. The video captures the majestic beauty of a waterfall cascading down a cliff into a serene lake. The waterfall, with its powerful flow, is the central focus of the video. The surrounding landscape is lush and green, with trees and foliage adding to the natural beauty of the scene. The camera angle provides a bird's eye view of the waterfall, allowing viewers to appreciate the full height and grandeur of the waterfall. The video is a stunning representation of nature's power and beauty. A vibrant scene of a snowy mountain landscape. The sky is filled with a multitude of colorful hot air balloons, each floating at different heights, creating a dynamic and lively atmosphere. The balloons are scattered across the sky, some closer to the viewer, others further away, adding depth to the scene. Below, the mountainous terrain is blanketed in a thick layer of snow, with a few patches of bare earth visible here and there. The snowcovered mountains provide a stark contrast to the colorful balloons, enhancing the visual appeal of the scene. In the foreground, a few cars can be seen driving along a winding road that cuts through the mountains. The cars are small compared to the vastness of the landscape, emphasizing the grandeur of the surroundings. The overall style of the video is a mix of adventure and tranquility, with the hot air balloons adding a touch of whimsy to the otherwise serene mountain landscape. The video is likely shot during the day, as the lighting is bright and even, casting soft shadows on the snowcovered mountains. The vibrant beauty of a sunflower field. The sunflowers, with their bright yellow petals and dark brown centers, are in full bloom, creating a stunning contrast against the green leaves and stems. The sunflowers are arranged in neat rows, creating a sense of order and symmetry. The sun is shining brightly, casting a warm glow on the flowers and highlighting their intricate details. The video is shot from a low angle, looking up at the sunflowers, which adds a sense of grandeur and awe to the scene. The sunflowers are the main focus of the video, with no other objects or people present. The video is a celebration of nature's beauty and the simple joy of a sunny day in the countryside. A serene underwater scene featuring a sea turtle swimming through a coral reef. The turtle, with its greenishbrown shell, is the main focus of the video, swimming gracefully towards the right side of the frame. The coral reef, teeming with life, is visible in the background, providing a vibrant and colorful backdrop to the turtle's journey. Several small fish, darting around the turtle, add a sense of movement and dynamism to the scene. The video is shot from a slightly elevated angle, providing a comprehensive view of the turtle's surroundings. The overall style of the video is calm and peaceful, capturing the beauty and tranquility of the underwater world. A vibrant underwater scene. A group of blue fish, with yellow fins, are swimming around a coral reef. The coral reef is a mix of brown and green, providing a natural habitat for the fish. The water is a deep blue, indicating a depth of around 30 feet. The fish are swimming in a circular pattern around the coral reef, indicating a sense of motion and activity. The overall scene is a beautiful representation of marine life. A bustling city street at night, filled with the glow of car headlights and the ambient light of streetlights. The scene is a blur of motion, with cars speeding by and pedestrians navigating the crosswalks. The cityscape is a mix of towering buildings and illuminated signs, creating a vibrant and dynamic atmosphere. The perspective of the video is from a high angle, providing a bird's eye view of the street and its surroundings. The overall style of the video is dynamic and energetic, capturing the essence of urban life at night. A snowy forest landscape with a dirt road running through it. The road is flanked by trees covered in snow, and the ground is also covered in snow. The sun is shining, creating a bright and serene atmosphere. The road appears to be empty, and there are no people or animals visible in the video. The style of the video is a natural landscape shot, with a focus on the beauty of the snowy forest and the peacefulness of the road. The dynamic movement of tall, wispy grasses swaying in the wind. The sky above is filled with clouds, creating a dramatic backdrop. The sunlight pierces through the clouds, casting a warm glow on the scene. The grasses are a mix of green and brown, indicating a change in seasons. The overall style of the video is naturalistic, capturing the beauty of the landscape in a realistic manner. The focus is on the grasses and their movement, with the sky serving as a secondary element. The video does not contain any human or animal elements. A serene night scene in a forested area. The first frame shows a tranquil lake reflecting the starfilled sky above. The second frame reveals a beautiful sunset, casting a warm glow over the landscape. The third frame showcases the night sky, filled with stars and a vibrant Milky Way galaxy. The video is a timelapse, capturing the transition from day to night, with the lake and forest serving as a constant backdrop. The style of the video is naturalistic, emphasizing the beauty of the night sky and the peacefulness of the forest. 创建pvc(用来存储模型生成的视频) xml apiVersion: v1 kind: PersistentVolumeClaim metadata: name: videovolume namespace: default labels: app: videovolume spec: storageClassName: "cstorcsihpfsperfsc" accessModes: ReadWriteMany resources: requests: storage: 512Gi 点击左侧【工作负载】>【自定义资源】,选择资源浏览器,找到kubeflow.org/v1/PyTorchJob ,选择命名空间,点击新增。 在创建yaml中,填入以下信息后点击【创建】。 注意 1.GPU和昇腾NPU申请资源类型不一样,请使用对应的模板; 2.修改对应的镜像仓库地址前缀为对应资源池,可在容器镜像控制台查看,如武汉41,则修改{imagerepo}为registryvpccrswuhan41.ctyun.cn; 3. namespace: 要和界面选择的一致。 GPU模板 xml apiVersion: "kubeflow.org/v1" kind: PyTorchJob metadata: name: pytorchopensora01 namespace: default spec: pytorchReplicaSpecs: Master: replicas: 1 restartPolicy: OnFailure template: spec: containers: name: pytorch image: {imagerepo}/icce/opensora:multi imagePullPolicy: IfNotPresent command: ["/bin/bash", "c"] args: ["torchrun standalone nprocpernode 1 scripts/inference.py configs/opensora/inference/16x512x512.py ckptpath OpenSorav1HQ16x512x512.pth promptpath /workspace/assets/texts/t2vsamples.txt savedir /outputs/samples"] resources: limits: nvidia.com/gpu: 1 volumeMounts: name: t2vsample mountPath: "/workspace/assets/texts" readOnly: true name: videooutput mountPath: /outputs/samples volumes: name: t2vsample configMap: name: t2vsamplesconfigmap name: videooutput persistentVolumeClaim: claimName: videovolume NPU模板 xml apiVersion: "kubeflow.org/v1" kind: PyTorchJob metadata: name: pytorchopensoranpu01 namespace: default spec: pytorchReplicaSpecs: Master: replicas: 1 restartPolicy: OnFailure template: spec: containers: name: pytorch image: {imagerepo}/icce/opensora:multi imagePullPolicy: IfNotPresent command: ["/bin/bash", "c"] args: ["source /usr/local/Ascend/ascendtoolkit/setenv.sh && bash scripts/textcondition/npu/samplet2vv13.sh "] resources: limits: huawei.com/Ascend910: 1 volumeMounts: name: ascenddriver mountPath: /usr/local/Ascend/driver name: t2vsample mountPath: "/workspace/assets/texts" readOnly: true name: videooutput mountPath: /outputs/samples volumes: name: ascenddriver hostPath: path: /usr/local/Ascend/driver name: t2vsample configMap: name: t2vsamplesconfigmap name: videooutput persistentVolumeClaim: claimName: videovolume 查看运行状态:点击左侧【工作负载】>【容器组】,找到任务名为前缀的容器,点击名称,查看日志/监控等信息是否符合预期。 查看生成视频:可自行创建pod,挂载上述的pvc,导出/查看生成视频。 查看根据prompt生成的视频效果。
        来自:
        帮助文档
        云容器引擎 智算版
        最佳实践
        OpenSora推理生成视频
      • 查询指定卷
        名称 类型 描述 lunName String 卷名称。 targetName String target名称。 status String 卷的状态: Normal:正常。 Deleting:卷正在删除中。 DeleteFailed:卷删除失败。 Recovering:卷正在还原中。 RecoverFailed:卷还原失败。 Rollbacking:卷正在回滚。 Flattening:与快照的关系链断开过程中,表示克隆卷正在复制源卷的数据,复制完成之后将变成独立卷,不再依赖快照和源卷。 Importing:正在导入备份数据。 Wiping:卷正在清空数据。 WipeFailed:清空数据失败。 Suspended:卷挂起。 Suspending:卷正在挂起。 SuspendFailed:卷挂起失败。 progress Double 卷还原进度百分比。 仅卷状态为Recovering时显示。 recoverFailedReason String 卷还原失败的原因。 仅卷状态为RecoverFailed时显示。 deleteFailedReason String 卷云上数据删除失败的原因。 仅卷状态为DeleteFailed时显示。 wipeFailedReason String 卷清空失败的原因。 仅卷状态为WipeFailed时显示。 waitUploadBytes String 待上传数据量,单位是bytes。 仅卷状态为Suspending时显示。 SuspendFailedReason String 卷挂起失败的原因。 仅卷状态为SuspendFailed时显示。 capacity Integer 卷容量,单位是GiB。 storageMode String 卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到对象存储中。 Storage:存储模式,本地保留全部数据,并异步存储到对象存储中。 createTime Long 卷创建时间。unix时间戳(UTC),精确到毫秒。 iSCSITargets Array of iSCSITarget iSCSI target属性集合,详见“ 表1 响应参数iSCSITarget说明 ”。 cloud.bucketName String 存储桶的名称(仅上云卷支持)。 cloud.prefix String 对象存储中的前缀名称(仅上云卷支持)。 如果未设置,则不返回此项。 cloud.accessKey String 对象存储服务的Access Key(仅上云卷支持)。 cloud.endpoint String 对象存储Endpoint(仅上云卷支持)。 cloud.objectSize Integer 数据存储在对象存储的大小(仅上云卷支持)。 cloud.storageClass String 数据在对象存储的存储类型(仅上云卷支持): STANDARD:标准存储。 STANDARDIA:低频访问存储。 cloud.compression String 是否压缩数据上传至对象存储(仅上云卷支持): Enabled:压缩数据上传至对象存储。 Disabled:不压缩数据上传至对象存储。 cloud.signVersion String 上云签名认证的类型(仅上云卷支持): v2:V2签名认证。 v4:V4签名认证。 cloud.region String Endpoint资源池所在区域(仅上云卷支持)。 cloud.provider String 对象存储服务名称: OOS : 天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 config.localStorageClass String 卷冗余模式(仅集群版支持): singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M 。 config.minReplica Integer 卷的最小副本数(仅集群版支持)。 config.ECfragmentSize Integer 分片大小(仅集群版支持)。如果冗余模式为EC N+M ,则会返回此项。 config.sectorSize Long 扇区大小,单位是bytes。 config.highAvailability String 高可用模式类型(仅集群版支持): ActiveStandby:主备,该卷关联对应target下的所有IQN。 Disabled:禁用,该卷关联对应target下的1个IQN。 config.writePolicy String 卷的写策略: WriteBack:回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。 WriteThrough:透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。 WriteAround:绕写,指数据直接写到磁盘,不写入内存。 config.cachePool String 缓存存储池(仅集群版支持)。 config.pool String 存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。 config.redundancyOverlap Integer 卷的折叠副本数(仅集群版支持)。 config.serverAffinity Object 卷主备分布优先级设置,详见“ 表5 响应参数config.serverAffinity说明 ”。 config.qosPolicy Object 卷关联的QoS策略信息,详见 表“6 响应参数config.qosPolicy说明 ”。 config.qosPolicyforLUN Object 卷所在存储池中卷的默认QoS策略信息(仅集群版支持),详见“ 表7 响应参数config.qosPolicyforLUN ”。 说明 如果卷的缓存存储池和存储池同时存在时,展示缓存存储池的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 如果卷只有存储池:展示存储池的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 config.path String 数据目录(仅单机版支持)。 dataHealth.normal Double 卷正常数据的百分比。 dataHealth.lowRedundancy Double 卷降级数据的百分比。 dataHealth.error Double 卷错误数据的百分比。 dataHealth.reconstructionProgress Double 如果卷存在降级状态的数据,数据重建进度的百分比。 dataHealth.ETR Long 卷如果存在降级数据,预计剩余的数据重建时间。单位为秒。如果返回值为负数,说明数据无法重建,需用户尽快修复。 number Long 卷编号。LUN在target下的编号,由存储系统分配,对应客户端挂载存储设备时设备地址中的LUN ID。如果target下只有一个LUN,LUN的编号一般为0。 uuid String 卷的唯一识别码。 isClone Boolean 是否是克隆卷: true:是克隆卷。 false:不是克隆卷。 sourceSnapshotName String 对应的快照名称(仅克隆卷支持)。 snapshots.snapshotNumbers Integer 卷的快照个数(仅本地卷支持)。 snapshots.basisofCurData Boolean 当前的读写是否是基于卷的初始状态: true:是。 false:否。 snapshots.lunSnapshots Array of lunSnapshot 卷的快照信息集合(仅本地卷支持),详见“ 表8 响应参数lunSnapshot/Children说明 ”。 snapshots.snapshotSize Long 卷关联的快照大小的总和(仅本地卷支持),即快照记录的数据量。单位是bytes。 注意 卷异常或上游快照删除等因素可能导致快照大小波动。 WWID String 卷的唯一标识符。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        查询指定卷
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 购买GeminiDB Influx实例
        本章节主要介绍了如何在云数据库GeminiDB管理控制台购买InfluxDB数据库实例。 前提条件 注册天翼云账号并开通云服务。 账户余额大于或等于0元。 操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,单击“购买数据库实例”,进入“服务选型”页面。 4. 在“服务选型”页面,选择计费模式,填写并选择实例相关信息后,单击“立即购买”。 图1 计费模式和基本信息 表1 计费模式 参数 描述 :: 计费模式 选择“包年包月”或“按需计费”。 包年包月 用户选购完服务配置后,可以根据需要设置购买时长,系统会一次性按照购买价格对账户余额进行扣费。 创建成功后,如果包周期实例到期后不再长期使用资源,可将“包年/包月”实例转为“按需计费”,到期后将转为按需计费实例。具体请参见包周期实例转按需。 说明 “包年/包月”方式购买的实例不能直接删除,仅支持资源退订操作,如何退订资源请参见退订包周期实例 按需计费 用户选购完服务配置后,无需设置购买时长,系统会根据消费时长对账户余额进行扣费。 创建成功后,如果需要长期使用资源,可将“按需计费”实例转为“包年/包月”,继续使用这些资源的同时,享受包周期的低资费。具体请参见按需计费实例转包周期。 表2 基本信息 参数 描述 :: 区域 租户所在的区域,也可在页面左上角切换。 注意 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 实例名称 设置实例名称时,需要满足如下规则。 实例名称允许和已有名称重复。 实例名称长度在4个到64个字节之间,必须以字母或中文字开头,区分大小写,可以包含字母、数字、中划线、下划线或中文(一个中文字符占用3个字节),不能包含其他特殊字符。 创建成功后,可修改实例名称,请参见修改实例名称。 兼容接口 InfluxDB 实例类型 集群 版本 1.7 可用区 指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 目前支持将实例部署在单可用区或3可用区。 若实例只需要部署在单可用区,请选择1个可用区。 若实例需要实现跨可用区容灾部署时,请选择3可用区,此时实例下的节点Hash均衡部署在3个可用区内。 图2 规格与存储 表3 规格与存储 参数 描述 :: 数据节点性能规格 数据节点提供对时序数据库的读写能力。根据DFV共享资源池和内存的配置不同分为多种实例规格,您可以根据业务场景选择符合业务类型的性能规格。 GeminiDB Influx支持的实例规格详情,请参见数数据库实例规格。 数据节点数量 数据节点数量请根据实际需要进行选取。创建成功后可以添加节点,请参见添加节点。 存储空间 存储空间最小100GB,用户选择存储大小必须为整数,且每次至少可选择1GB的存储容量。 是否选购冷存储 冷存储主要用于存储一些查询频率较低的历史数据。您可以在购买GeminiDB Influx实例时,选购冷存储,并通过配置冷热数据分离,来指定热数据的保存时长,这样热数据超过保存时长后将被自动归档到冷存储中,从而降低存储成本。 是 请根据业务需要设置冷存储空间容量大小。 否 不选购冷存储。 如果您在创建实例时未开启冷存储,后期根据业务需要,也可以为已有实例创建冷存储,具体操作请参考开启冷存储 说明 冷存储开启后暂不支持关闭。 冷存储空间 冷存储空间最小500GB,最大100,000GB,用户选择存储大小必须为整数,且每次至少可选择1GB的存储容量。 实例创建成功后可以扩容冷存储,详情请参见 扩容冷存储。 负载均衡地址 系统默认勾选负载均衡地址,不支持修改。 待实例创建成功后,您可以通过该负载均衡地址连接实例,具体操作请参见通过通过负载均衡地址连接实例。 图3 网络和数据库配置 表4 网络 参数 描述 :: 虚拟私有云 实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您可根据需要创建或选择所需的虚拟私有云。 如何创建虚拟私有云,请参见《虚拟私有云用户指南》中的“创建虚拟私有云基本信息及默认子网”。 如果没有可用的VPC,系统自动为您分配资源。 说明 目前GeminiDB Influx实例创建完成后不支持切换虚拟私有云VPC,请谨慎选择所属虚拟私有云。 如需与ECS进行内网通信,GeminiDB Influx实例与需要通信的ECS需要处于同一个虚拟私有云下,或者不同虚拟私有云之间配置对等连接。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 内网安全组 安全组限制安全访问规则,加强GeminiDB Influx实例与其他服务间的安全访问。请确保所选取的安全组允许客户端访问数据库实例。 如果没有可用的安全组,系统自动为您分配资源。 表5 数据库配置 参数 描述 :: 管理员账户名 管理员账户名默认为rwuser。 管理员密码 用户设置的密码。 长度为8~32个字符。 必须是大写字母、小写字母、数字、特殊字符的组合,其中可输入~!@
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        快速入门
        购买实例
        购买GeminiDB Influx实例
      • 购买
        本章节主要介绍数据治理中心DataArts Studio的购买流程。 只有拥有天翼云帐号,以及DAYU Administrator或Tenant Administrator权限的用户才可以购买DataArts Studio实例或DataArts Studio增量包。如需购买,您需要给用户授予所需的权限。 说明 Tenant Administrator策略具有所有云服务的管理员权限(除IAM管理权限之外),为安全起见,一般不建议给IAM用户授予该权限,请谨慎操作 。 前提条件 已申请VPC、子网和安全组,您也可以在购买DataArts Studio实例过程中申请VPC、子网和安全组。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 购买“数据治理中心 DataArts Studio(基础包)” 1.在数据治理中心控制台页面,进行“云资源访问授权”后,单击“购买实例”,进入购买DataArts Studio实例界面。 数据治理中心与这些云服务之间存在业务交互关系,需要与这些云服务协同工作,因此需要您创建云服务委托,将操作权限委托给数据治理中心,让数据治理中心以您的身份使用这些云服务,代替您进行一些任务调度、资源运维等工作。 云服务委托包含DWS、MRS、RDS、OBS、SMN、KMS等服务的相关权限,作用范围可以访问IAM的委托界面查看。 另外子账号以主账号的委托为准,不需要额外申请委托。 勾选所有服务并单击“同意授权”,系统会自动创建委托。 完成了委托授权后,下次再进入数据治理中心控制台首页时,系统不会再弹出访问授权的对话框。 如果您只勾选了其中的某几个服务进行委托授权,下次进入数据治理中心控制台首页时,系统仍会弹出访问授权的对话框,提示您对未授权的云服务进行访问授权。 2.选择版本,点击“立即购买”,在订购页面设置DataArts Studio实例参数,各参数说明如下表所示。 DataArts Studio实例参数 参数名称 样例 说明 ::: 区域 选择实例的区域,不同区域的资源之间内网不互通。 选择区域时,您需要考虑以下几个因素: 地理位置一般情况下,建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。不过,在基础设施、BGP网络品质、资源的操作与配置等方面,中国大陆各个区域间区别不大,如果您或者您的目标用户在中国大陆,可以不用考虑不同区域造成的网络时延问题。曼谷等其他地区和国家提供国际带宽,主要面向非中国大陆地区的用户。如果您或者您的目标用户在中国大陆,使用这些区域会有较长的访问时延,不建议使用。 云服务之间的关系如果多个云服务一起搭配使用,需要注意不同区域的云服务内网不互通。例如数据治理中心(包括管理中心、CDM等组件)需要与MRS、OBS等服务互通时,如果数据治理中心与其他云服务处于不同区域的情况下,需要通过公网或者专线打通网络;而在同区域情况下,同子网、同安全组的不同实例默认网络互通。 资源的价格不同区域的资源价格可能有差异,请参见天翼云服务价格详情。 企业项目 default DataArts Studio实例关联的企业项目。企业项目管理是一种按企业项目管理云资源的方式,具体请参见《企业项目管理用户指南》。 如果已经创建了企业项目,这里才可以选择。 当DataArts Studio实例需连接云上服务(如DWS、MRS、RDS等),还必须确保DataArts Studio实例企业项目与该云服务实例的企业项目相同。 一个企业项目下只能购买一个DataArts Studio实例。 需要与其他云服务互通时,需要确保与其他云服务的企业项目一致。 版本 初级版 选择需要购买的数据治理中心版本,版本差异请参见产品规格。 实例名称 数据治理中心test 自定义DataArts Studio实例名称。 可用区 可用区1 第一次购买DataArts Studio实例或批增量包时,可用区无要求。 再次购买DataArts Studio实例或增量包时,是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 虚拟私有云 vpc1 DataArts Studio实例中的批量数据迁移CDM集群所属的VPC、子网、安全组。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS、DIS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 子网 subnet1 安全组 sg1 续费 勾选自动续费前的复选框,可实现自动按月或者按年续费。 3.查看当前配置,并确认购买时长,确认无误后单击“立即购买”。 4.单击“去支付”,按提示付款成功即可在首页看到已开通的实例。 5.返回数据治理中心控制台首页时,如您此前未进行“云资源访问授权”,系统会再次自动弹出“云资源访问授权”的对话框,提示您对所列出的服务进行委托授权。 6.在已购买的实例中单击“进入控制台”,进入数据治理中心控制台。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        购买
      • 通过Annotation配置负载均衡类型的服务
        本节介绍网络的用户指南:通过Annotation配置负载均衡类型的服务。 通过在Service的Yaml文件中配置注解Annotation,您可以对天翼云负载均衡、监听转发等进行配置,本文介绍负载均衡类型Service支持配置的Annotation。 注解说明 注解名称 描述 示例 支持的CCM版本 service.beta.kubernetes.io/ctyunloadbalancerid 指定已有负载均衡,取值为负载均衡实例的ID。删除service时该 ELB不会被删除 lb v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalancerspec 指定新建负载均衡的规格,如elb.s2.small elb.s2.small v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalanceraddresstype 指定新建负载均衡的公网私网类型,取值: intranet:负载均衡地址类型为私网,intranet为默认值 internet:负载均衡地址类型为公网 internet v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalancerprotocolport 指定负载均衡监听HTTP协议或HTTPS协议,可指定多个监听,多个监听之间以逗号“,”分割 https:443,http:80 v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancersslcert 指定SSL证书,取值为SSL证书ID,可在负载均衡控制台的证书管理页面查看证书ID。 仅监听协议为HTTPS协议时需要指定 cert v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancerxforwardedfor 指定负载均衡监听器附加XForwardedFor头字段,通过开启该参数,后端服务可获取客户端源IP。取值为“true”或“false” 仅支持监听协议为HTTP和HTTPS协议 "true" v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancerchargetype 指定创建公网负载均衡时,公网的计费类型,取值: bandwidth:按带宽计费 traffic:按流量计费,traffic为默认值 traffic v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerbandwidth 计费类型为“bandwidth”时,可指定带宽的大小,值为数字类型,默认为1 Mbps 5 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancercyclecount 指定负载均衡的计费周期,值为数字类型,表示购买月数,默认为1个月 1 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancereipid 指定新建公网负载均衡时,可指定绑定已有的弹性IP,取值为弹性IP的ID,可在网络控制台的弹性IP详情页面查看ID eip v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerprojectid 指定新建负载均衡所属的企业项目,取值为企业项目ID,可在IAM控制台中企业项目详情查看ID 0 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerenableipv6 指定新建负载均衡时,可指定开启负载均衡的ipv6 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6bandwidthid 指定新建支持ipv6的公网负载均衡时,需指定IPv6带宽ID,可在网络控制台的IPv6带宽详情页面查看ID。如果没有IPv6带宽,请先创建一个 v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalancerenablelistenernat64 指定支持ipv6的负载均衡时,可指定开启监听器的nat64,支持负载均衡将ipv6流量转发到ipv4的后端 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6address 指定新建支持ipv6的负载均衡时,可指定负载均衡的ipv6地址(该地址为负载均衡所在子网的ipv6地址段中未被分配的ip),未指定则由系统随机分配 v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceroverridelisteners 指定已有负载均衡时,可指定是否强制覆盖已有监听 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckflag 健康检查开关,取值off或on。off:不启用;on:启用 on v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoption 配置全局健康检查的选项,对service下所有端口配置起作用。内容为json类型数据,数据结构见下表“健康检查字段数据结构说明” 注意 使用该字段,需确保service下端口配置的protocol协议一致 v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoptions 配置健康检查的选项,支持为service下单个端口或部分端口配置健康检查。内容为数组形式的json数据,数据结构参考表“健康检查字段数据结构说明” 注意 该字段不能与“service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoption”同时使用 v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclflag 指定访问控制的类型,取值: inherit:继承已有ELB配置; all:允许所有IP访问; white:白名单; black:黑名单 white v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclstatus 访问控制开关,值为on或off,只有为on时,黑/白名单才会生效 on v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclid 指定访问策略组的ID,可在负载均衡控制台的访问策略组页面查看策略ID ac v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerestablishtimeout 指定建立连接超时时间,只用于TCP监听 "30" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceridletimeout 指定空闲超时时间,只作用于HTTP/HTTPS监听 "30" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerresponsetimeout 指定响应超时时间,只作用于HTTP/HTTPS监听 "5" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerproxyprotocolflag 指定是否开启后端主机组的Proxy Protocol,ProxyProtocol协议会携带客户端源地址到后端服务器。取值: on:开启 off:关闭 注意 该功能不支持在线平滑开启,切换到ProxyProtocol需要业务停服升级,请谨慎配置。 on v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceripmode 指定Service的External IP模式,值为 vip 或 proxy vip:集群内访问Service不会经过ELB,直接经由ipvs/iptables转发到Service对应的后端Pod proxy:集群内访问Service会先经过ELB,最终再转发到对应后端Pod 注意 该特性要求Kubernetes集群版本大于v1.29 proxy v1.2.0及以上 service.beta.kubernetes.io/ctyunloadbalanceriptype 指定Service的External IP地址类型,值为 private 或 public private:设置ELB的私网IP为Service的External IP public:设置ELB的公网IP为Service的External IP public v1.2.0及以上 service.beta.kubernetes.io/ctyunloadbalancerpreservesourceip 指定是否开启客户端源地址保持,值为 true 或 false true:开启 false:关闭 注意 客户端源地址保持要求Service的ExternalTrafficPolicy必须为Local。开启该特性,需确保集群节点的弹性网卡对应的安全组已放通客户端源IP,避免影响网络连通 true v1.5.0及以上
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        Service管理
        通过Annotation配置负载均衡类型的服务
      • 功能特性
        服务名 功能特性 需求管理 提供多项目管理、敏捷迭代管理、里程碑管理、需求管理、缺陷跟踪、多维度统计报表等功能。 迭代计划和时间线,有效管理项目计划。 树表、任务墙等多种视图,方便查看项目工作。 多种项目统计图表,随时掌握项目开展情况。 在线文件库,批量文档托管,信息传递不失真。 代码托管 提供安全、可靠、高效的分布式代码托管服务。包括代码克隆/下载/提交/推送/比较/合并/分支等功能。 基于Git的分布式版本控制,提升跨地域跨团队协同开发效率。 关联项目任务,保障项目高效交付。 增强的安全防护能力,IP白名单与代码仓库访问日志审计。 代码仓库提交信息统计,基于时间轴的贡献者代码提交统计。 代码检查 提供可协作的一站式代码检查服务。 一站式:覆盖主流编程语言、主流编码标准、SDLC集成等。 灵活易用的检查方式:支持代码提交检查、定时执行检查,支持多分支检查。 可协作:提供问题责任人自动归属、提供问题修改建议、可聚焦处理新问题等。 编译构建 快速、安全的云上编译构建服务。 内置C/C++/Java/…等主流语言的构建模板,并支持自定义构建模板。 可配置执行计划,支持开启提交代码触发执行、定时执行等多种构建执行计划。 界面傻瓜式配置,无需用户编写构建配置文件。 同时支持容器镜像和通用软件包的归档。 构建完成时支持消息通知。 内置支持主流语言的构建环境镜像,也可使用自定义构建环境镜像。 支持多个构建步骤,可实现构建过程的灵活编排。 部署 提供可视化、一键式部署服务,支持并行部署和流水线无缝集成。 提供丰富的部署步骤,满足用户不同的部署场景。 支持对虚拟主机部署、物理主机部署、容器部署以及微服务应用部署等多种部署形态。 支持文件的复制、删除、修改、解压;支持Ansible、Shell命令、Shell脚本等通用部署能力。 部署界面简洁化配置,无须编写部署脚本。支持部署步骤的拖拉拽灵活编排。 预置Tomcat、SpringBoot、Django等系统模板,同时支持用户创建自定义模板。基于部署模板库,可以制 标准的部署流程,实现的快速创建,方便团队内部推广。 提供错误日志分析能力,对于失败的情况,支持错误日志关键字匹配FAQ,并提供详细的排查解决方案。 支持自定义参数,在时由用户指定参数值,用指定值替换相应参数部署。 提供对主机和主机组管理能力。支持主机(组)的增删改查;支持主机批量删除,批量连通性验证;主机连通 支持EIP直连、代理机连接以及模式下的VPC直连。 和主机组均支持项目下角色和权限的二维矩阵。 测试计划 提供业内首推一站式自动化测试工厂解决方案,覆盖测试设计、测试用例、测试管理、接口自动化测试。 DevOps敏捷测试理念,打通测试计划、测试设计、测试用例、测试执行和测试报告的全流程测试活动,提供缺陷上报、质量看板等方式多维度评估产品质量,帮助用户高效管理测试活动,保障产品高质量交付。 测试设计:使用启发式思维导图的形式进行测试用例设计和评审,更加直观,效率更高。支持Xmind直接导入生成在线思维导图测试设计;支持在线编辑思维导图; 支持4层测试设计方法(特性场景功能点用例);一键批量生成测试用例;覆盖功能、接口、安全等全领域测试设计,输出测试方案;可以通过测试策略模板快速创建用例,也可以自定义模板形成自己的测试资产。 测试管理:成熟的测试用例管理系统,可以开展用例设计、测试执行、缺陷提交、质量报告,提高测试效率;记录修改历史,避免漏测、误测,易追溯审计,规范测试流程。融入全生命周期追溯、测试计划、团队多角色协作、敏捷测试、需求驱动测试等理念,覆盖测试需求管理、测试任务分配、测试任务执行、测试进度管理、测试覆盖率管理、测试结果管理、缺陷管理、质量报告、测试仪表盘,一站式管理功能,提供适合不同团队规模、流程的自定义能力。 接口自动化测试:基于接口URL或者Swagger文档生成的接口脚本模板快速编排接口测试用例,集成流水线,支持微服务测试。测试用例免代码编写,技术门槛低,适合接口开发者、接口消费者、测试人员、业务人员等不同角色使用。一键导入Swagger接口定义自动生成脚本模板,基于脚本模板组装编排、管理接口自动化测试用例。支持HTTP和HTTPS协议,可视化用例编辑界面,丰富的预置检查点、内置变量,支持自定义变量、参数传递、持续自动化测试。 制品仓库 面向软件开发者提供制品管理的云服务,提供软件仓库、发布包下载、发布包元数据管理等功能,通过安全可靠的软件仓库,实现软件包版本管理,提升发布质量和效率,实现产品的持续发布。 支持文件重命名、批量删除、批量恢复、页面上传和下载、文件名搜索等文件操作。 编译构建属性自动关联软件包,编译构建的产物自动归档到软件发布库。 支持构建服务一键归档、部署服务从发布库一键获取软件包。 支持Maven、npm、Go、PyPI、RPM、Debian等多种制品类型仓库,支持新建仓库、上传下载制品、搜索制品等能力。 流水线 提供可视化、可编排的CI/CD持续交付软件生产线,帮助企业快速转型实现DevOps持续交付高效自动化,缩短应用TTM(Time to Market)交付周期,提升研发效率。 流水线自定义编排:可根据用户使用场景的需要,对构建、代码检查、子流水线、部署、流水线控制(延时执行、人工审核)、接口测试等多种类型的任务进行纳管和执行编排。 流水线可视化增删改查:提供图形化界面基础的流水线创建、编辑、删除和执行状态查看功能。其中,查看功能支持跳转到对应的自动化任务界面查看其日志等详情信息。 流水线权限管理:支持用户针对流水线任务设置指定帐号的权限控制,权限基于帐号所属角色操作权限进行控制,包含基础的查看、编辑、执行、删除权限控制。 流水线历史执行记录:支持查看流水线最近31天的历史执行记录。 流水线消息通知:用户可根据需要设置事件类型的通知状态,包括是否发送服务动态和邮件通知。 流水线部分任务执行:根据用户需求,可选择流水线中的某一个或多个任务单独执行。 流水线执行参数配置:流水线支持自定义参数,在执行时由用户指定参数值,任务用指定值替换相应参数执行。 流水线串/并行执行配置:根据用户需求,可配置同一阶段内的任务串行执行或并行执行。
        来自:
        帮助文档
        软件开发生产线CodeArts
        产品介绍
        功能特性
      • 将MySQL同步到MySQL
        类型名称 使用和操作限制 数据库权限设置 源数据库账号需要具备如下权限: SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 提供的目标数据库账号必须拥有如下权限: SELECT、CREATE、INDEX、DROP、DELETE、INSERT、UPDATE、ALTER、CREATE VIEW、CREATE ROUTINE、REFERENCES。当目标库为8.0.148.0.18版本时,还需要有SESSIONVARIABLESADMIN权限。 同步对象约束 支持表、主键索引、唯一索引、普通索引、存储过程、视图、函数的同步,不支持事件、触发器的同步。 库映射时源库中不允许存在存储过程、视图、函数对象。 映射的库中不允许存在除表外的对象且在同步过程中不允许创建这些对象,否则会导致同步任务失败。 不支持非MyISAM和非InnoDB表的同步。 已选择的表与未选择的表之间互相rename的DDL操作,在任务同步中会被过滤掉,可能会导致任务失败或数据不一致。 − 对于一个DDL中存在一个rename的情况(例如:rename A TO B),只支持rename前后库表都在已选择库表中的rename操作(A和B都在已选择库表中),其他情况的rename DDL会被过滤; − 对于一个DDL中存在多个rename的情况(例如:rename A TO B, B TO C),只支持rename前后库表都在已选择库表中的部分rename操作 ,其他情况的rename DDL会被过滤(A和B在已选择库表中,C不在,仅执行rename A TO B)。 − 不建议在多对一同步场景下的进行rename操作,可能会导致任务失败或数据不一致。 源数据库要求 源数据库中的库名不能包含:'<>/"以及非ASCII字符。 源数据库中的表名、视图名不能包含:'<>/"以及非ASCII字符。 源数据库中的库名和库映射的名称不允许为iblogfile。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 目标数据库要求 不支持从高版本同步到低版本。 目标数据库必须有足够的磁盘空间。 目标数据库的字符集必须与源数据库一致。 目标数据库的时区设置必须与源数据库一致。 除了MySQL系统数据库之外,当目标库和源库同名时,目标数据库中若存在与源库同名的表,则表结构必须与源库保持一致。 DRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 同步的对象中包含引擎为MyISAM的表,则目标数据库sqlmode不能包含noenginesubstitution参数,否则可能会导致同步失败。 映射到目标库中的库名不能包含:“.”、 “<”、“>”、“”、和“'”。 操作须知 相互关联的数据对象要确保同时同步,避免因关联对象缺失,导致同步失败。常见的关联关系:视图引用表、视图引用视图、存储过程/函数/触发器引用视图/表、主外键关联表等。 当前仅MySQL>MySQL的同步支持多对一任务同步,进行表级多对一同步时,源库不允许存在无主键表。 源库和目标库是相同的RDS实例时,不支持没有库映射的实时同步。 源库不允许存在与目标库同名的无主键表。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 如果目标库MySQL不支持TLS1.2协议,或者为版本较低的自建库(低于5.6.46或在5.75.7.28之间),需提交运维申请才能使用SSL测试连接。 支持断点续传功能,但是对于无主键的表可能会出现重复插入数据的情况。 支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 不支持源数据库恢复到之前时间点的操作(PITR)。 不支持目标数据库恢复到全量同步时间段范围内的PITR操作。 不支持外键级联操作。 不支持强制清理binlog,否则会导致同步任务失败。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 创建同步任务时,不允许将目标库设为只读。 实时同步过程中,如果修改了源库或者目标库的用户名、密码,会导致同步任务失败,需要在数据复制服务控制台将上述信息重新修改正确,然后重试任务可继续进行实时同步。一般情况下不建议在同步过程中修改上述信息。 实时同步过程中,如果修改了源库或者目标库端口,会导致同步任务失败。针对该情况,数据复制服务提供不同的处理机制。 − 对于源库端口,需要在数据复制服务控制台修改为正确的端口,然后重试任务可继续进行实时同步。 − 对于目标库端口,系统自动更新为正确的端口,需要重试任务即可进行同步。 一般情况下不建议在同步过程中修改端口。 为了保持数据一致性,不允许对正在同步中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 当在全量同步过程中,对MyISAM表执行修改操作时,可能造成数据不一致。 增量同步支持表的重命名,源表和目标表必须都在对象选择里。 增量同步支持任务再编辑追加同步对象。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        出云
        将MySQL同步到MySQL
      • 步骤二:创建RabbitMQ实例
        本章节主要介绍如何创建分布式消息服务RabbitMQ实例。 RabbitMQ是一款基于AMQP协议的开源服务,用于在分布式系统中存储转发消息,服务器端用Erlang语言(支持高并发、分布式以及健壮的容错能力等特点)编写,支持多种语言的客户端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP、AJAX等。 AMQP,即Advanced Message Queuing Protocol,高级消息队列协议,是应用层的一个开放标准协议。 前提条件 在创建RabbitMQ专享版实例前,需要保证存在可使用的虚拟私有云。创建虚拟私有云的方法,请参考《虚拟私有云用户指南》。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 为RabbitMQ授权 如果RabbitMQ实例需要开启IPv6功能,在创建实例前,需要授予RabbitMQ操作VPC终端节点的权限,否则会导致创建失败。 在IAM控制台创建委托,委托参数如下,其他参数保持默认,创建委托的具体步骤请参见《统一身份认证服务 用户指南》的“委托 > 委托其他云服务管理资源”章节。 委托名称:dmsadmintrust 委托类型:云服务 云服务:分布式消息服务 持续时间:永久 委托将拥有所选策略:DMS VPCEndpointAccess 操作步骤 步骤1 登录管理控制台。 步骤2 在管理控制台右上角单击,选择区域资源池。 说明 此处请选择与您的应用服务相同的区域。 步骤3 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务>RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤4 单击页面右上方的“购买RabbitMQ实例”。 每个项目默认最多可以创建100个RabbitMQ专享版实例,如果您想创建更多实例,请联系客服申请增加配额。 步骤5 选择“计费模式”、“区域”、“项目”和“可用区”。 步骤6 设置“实例名称”和“企业项目”。 步骤7 设置实例信息。 1. 版本:RabbitMQ的版本号,当前仅支持3.8.35。 2. 实例类型:支持“单机”和“集群”。 单机:表示部署一个RabbitMQ代理。 集群:表示部署多个RabbitMQ代理,实现高可靠的消息存储。 3. 鲲鹏实例:“创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 4. 规格:根据实际情况选择规格。 说明 为了保证服务的稳定可靠,RabbitMQ采用了默认的40%高水位配置。当内存占用率到达40%高水位后,会触发流控,生产者发送消息会被阻塞。为了避免高水位的产生,请及时消费积压在队列中的消息。 5. 代理个数:根据实例情况选择代理个数。 6. 存储空间:选择RabbitMQ实例的磁盘类型和存储空间总量。 单机实例的取值范围:100GB ~ 30000GB 集群实例的取值范围为:100GB 代理数 ~ 30000GB 代理数 7. 虚拟私有云:选择已经创建好的虚拟私有云和子网。 虚拟私有云可以为您的RabbitMQ专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 说明 虚拟私有云和子网在RabbitMQ实例创建完成后,不支持修改。 子网开启IPv6后,RabbitMQ实例支持IPv6功能。 实例创建成功后,不支持修改IPv6开关。 使用内网IPv6方式连接实例需要通过VPC终端节点实现,使用期间会产生VPC终端节点的费用。 8. 安全组:在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对弹性云主机的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云主机提供访问策略。 您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 图1 设置实例信息 步骤8 设置连接RabbitMQ实例的用户名和密码。 步骤9 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤10 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 您可以选择是否打开公网访问开关。 如果选择了开启,表示访问RabbitMQ实例可以通过弹性IP访问。这时页面会显示“弹性IP地址”,在“弹性IP地址”区域,您可下拉选择已有的弹性IP。另外,您可单击右侧的“创建弹性IP”,跳转到网络控制台的弹性IP页面,购买弹性IP。 图2 购买RabbitMQ实例时公网访问设置 说明 公网访问与VPC内访问相比,可能存在网络丢包和抖动等情况,且访问时延有所增加,因此建议仅在业务开发测试阶段开启公网访问进行调试。 如果用户在虚拟私有云的服务页面手动解绑定或删除EIP,相应RabbitMQ实例的公网访问功能会自动关闭。 2. 设置“SSL”。 客户端连接实例时SSL认证的开关。开启SSL,则数据加密传输,安全性更高。 SSL开关在实例创建完成后不支持修改,请明确是否需要开启 。 3. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击右侧的“查看预定义标签”,系统会跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个RabbitMQ实例最多支持设置20个不同标签。 4. 设置实例的描述信息。 步骤11 填写完上述信息后,单击“立即购买”,进入“规格确认”页面。 步骤12 确认实例信息无误且阅读并同意《分布式消息服务RabbitMQ服务等级协议》、《天翼云分布式消息服务协议》后,提交请求。 步骤13 在实例列表页面查看实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的RabbitMQ实例,然后重新创建。如果重新创建仍然失败,请联系客服。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤二:创建RabbitMQ实例
      • Linux主机挂载
        介绍Linux主机挂载块存储的最佳实践。 实践背景 块空间使用的是iSCSI协议,因此在新建块空间后需要使用iSCSI客户端来连接块空间。 本实践是在centos 7上,具有免密sudo权限的普通用户使用iSCSI客户端连接天翼云媒体存储块空间,并且对其进行格式化的过程。 操作步骤 1.执行以下命令,安装iSCSI客户端。 sudo yum install y iscsiinitiatorutils sudo yum install y devicemappermultipath 当系统出现如下所示的更新完毕作为依赖被升级完毕的提示时,说明软件安装完成。 若已安装过所需软件,系统会提示对应的软件包已安装并且是最新版本无须任何处理。 2.配置iSCSI多路径,具体步骤如下: (1) 执行以下命令,生成配置文件/etc/multipath.conf。 mpathconf enable withmultipathd y (2)执行以下命令,修改多路径配置。 sudo vi /etc/multipath.conf (3)添加如下内容。 defaults { userfriendlynames yes pathgroupingpolicy failover failback immediate nopathretry fail } devices { device { vendor "LIOORG" hardwarehandler "1 alua" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prio alua prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } device { vendor "CTyun" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } } (4)执行以下命令,进行服务重启。 sudo systemctl restart multipathd 3.修改iSCSI Client的InitiatorName,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/initiatorname.iscsi (2)将InitiatorName(下图红框内内容)修改为创建块空间时填写的CHAP iqn;具体可参考操作步骤【块空间管理】查看所需挂载块空间的CHAP iqn信息(图中的例子为iqn.209901.com.client.cicdtestcy:230323)。 4.修改CHAP权限,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/iscsid.conf (2)找到以下内容: 修改为下图中内容,其中红框内的username的等号后面填写创建块空间时设定的CHAP用户(图中的例子为testblockzd),password的等号后面填写创建块空间时设定的CHAP密钥(图中的例子为111111111111)。 5.连接块空间,具体步骤如下: (1)为确保连接顺利,先执行 setenforce 0 命令临时禁用防火墙。 (2)执行以下命令,重启相关组件。 sudo systemctl restart iscsid (3)执行以下命令增加iSCSI连接target,具体的targetname参数与portal参见块空间信息中的targetIqn、网关地址与数据端口,具体查看步骤可见操作步骤【块空间管理】。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opnew sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opnew (4)执行以下命令,进行登入操作。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw l 说明 对于步骤5(3)、5(4),可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考: (5)若系统出现以下提示表示登录成功。 (6)可通过以下命令查看新增磁盘。 sudo lsscsi sudo fdisk l sudo lsblk sudo multipath l 注意: 执行后会发现除了机器的原有磁盘外,还挂载了三个新的磁盘,一个是以/dev/mapper/开头的磁盘,另外两个是以/dev/sd开头的磁盘,我们挂载的是前者,即是以/dev/mapper/的磁盘。 每次挂载,该磁盘后面的名字都可能不一样。 如果你有多个块空间使用了同一个iqn,每个块在查看磁盘时均会看到一个以/dev/mapper/开头的磁盘以及两个以/dev/sd开头的磁盘,请总是使用以/dev/mapper/开头的磁盘来进行挂载。 (7)根据系统协议执行以下命令,进行磁盘格式化: xfs文件系统: sudo mkfs.xfs /dev/mapper/mpatha ext4文件系统: sudo mkfs.ext4 /dev/mapper/mpatha 注意 :可以根据实际需求选择命令,将命令中“/dev/mapper/mpatha”部分改为步骤(6)中查找到的新增磁盘地址。 (8)执行以下命令,挂载到本地目录。 sudo mount /dev/mapper/mpatha /mnt/iscsiMnt 注意: mount后第一部分为新增磁盘的实际地址。 mount后第二部分为进行挂载的本地目录地址。 可以通过mount l命令查看是否挂载成功,若显示信息中包含挂载信息则挂载成功,以上样例对应的挂载信息如下,该样例已成功挂载。 (9)执行以下命令,查看已连接的目标。 sudo iscsiadm m session 6.如需断开连接,则执行以下命令。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw u 7.执行以下命令,删除所有记录。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opdelete sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opdelete 说明 对于步骤6、7,可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考:
        来自:
        帮助文档
        媒体存储
        最佳实践
        块存储
        Linux主机挂载
      • 备份/变更规格/升级
        FTP/SFTP远程备份失败怎么办? 问题现象 云堡垒机配置了FTP/SFTP远程备份,报“请检查服务器密码或网络连接情况”错误,不能启动远程备份。 选择备份具体某一天日志,提示“备份正在执行”,但远程服务器未接收到该备份文件。 可能原因 原因一:云堡垒机配置的FTP/SFTP服务器账户或密码错误,导致远程备份失败。 原因二:云堡垒机与FTP/SFTP服务器的网络连接不通,导致远程备份失败。 原因三:FTP/SFTP服务器用户目录限制文件上传,导致远程备份失败。 原因四:被选择日期当天的运维日志量大,备份传输速率慢,长时间未备份完成,导致在远程服务器不能及时查看备份文件。 解决办法 原因一: 登录ECS管理控制台,VNC方式登录一台Linux主机,通过Linux主机登录FTP/SFTP服务器,验证服务器账户和密码。验证成功后,重新配置FTP/SFTP服务器远程备份账户和密码,尝试备份。 原因二: 登录云堡垒机系统,通过网络诊断,检查与FTP/SFTP服务器之间网络连接情况。 网络连接正常,请排查其他可能原因。 网络连接异常,请参考CBH安全组规则,检查云堡垒机和FTP/SFTP服务器主机安全组是否放开22端口;检查FTP/SFTP服务器主机的ACL是否放开22端口,并添加云堡垒机公网IP(即弹性IP)为允许。 原因三: 开启用户目录上传权限。 登录云堡垒机系统,选择“系统 > 数据维护 > 日志备份”,重新正确配置FTP/SFTP服务器的“存储路径”。 说明 “存储路径”置空表示备份内容存放到FTP/SFTP服务器用户的主目录下,例如绝对路径/home/用户名;配置的路径需以英文句号开头,例如配置路径为 ./test/abc,则其绝对路径为/home/用户名/test/abc。 原因四: 请您耐心等待,建议备份启动后的第二天再查看服务器上备份文件。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        备份/变更规格/升级
      • 产品定义
        分布式缓存服务(Distributed Cache Service,简称DCS)是一款内存数据库服务,兼容Redis内存数据库引擎,为您提供即开即用、安全可靠、弹性扩容、便捷管理的在线分布式缓存能力,满足用户高并发及数据快速访问的业务诉求。 即开即用 DCS提供单机、主备和集群三种类型的缓存实例,拥有从128MB到1024GB的丰富内存规格。您可以通过控制台直接创建,无需单独准备服务器资源。 其中Redis4.0/5.0/6.0版本采用容器化部署,秒级完成创建。 安全可靠 借助统一身份认证、虚拟私有云、云监控与云审计等安全管理服务,全方位保护实例数据的存储与访问。 灵活的容灾策略,主备/集群实例从单AZ(可用区)内部署,到支持跨AZ部署。 弹性伸缩 DCS提供对实例内存规格的在线扩容与缩容服务,帮助您实现基于实际业务量的成本控制,达到按需使用的目标。 便捷管理 可视化Web管理界面,在线完成实例重启、参数修改、数据备份恢复等操作。DCS还提供基于RESTful的管理API,方便您进一步实现实例自动化管理。 在线迁移 提供可视化Web界面迁移功能,支持备份文件导入和在线迁移两种方式,您可以通过控制台直接创建迁移任务,提高迁移效率。 DCS Redis Redis是一种支持KeyValue等多种数据结构的存储系统。可用于缓存、事件发布或订阅、高速队列等典型应用场景。Redis使用ANSI C语言编写,提供字符串(String)、哈希(Hash)、列表(List)、集合结构(Set、Sorted Set)、流(Stream)等数据类型的直接存取。数据读写基于内存,同时可持久化到磁盘。 DCS Redis拥有灵活的实例配置供您选择: DCS Redis灵活的实例配置 实例类型 提供单机、主备、Proxy集群、Cluster集群、读写分离类型,分别适配不同的业务场景。 单机:适用于应用对可靠性要求不高、仅需要缓存临时数据的业务场景。单机实例支持读写高并发,但不做持久化,实例重启后原有缓存数据不会加载。 主备:包含一个主节点,一个备节点,主备节点的数据通过实时复制保持一致,当主节点故障后,备节点自动升级为主节点。 Proxy集群:在Cluster集群的基础上,增加挂载Proxy节点和ELB节点,通过ELB节点实现负载均衡,将不同请求分发到Proxy节点,实现客户端高并发请求。每个Cluster集群分片是一个双副本的主备实例,当主节点故障后,同一分片中的备节点会升级为主节点来继续提供服务。 Cluster集群:通过分片化分区来增加缓存的容量和并发连接数,每个分片是一个主节点和0到多个备节点,分片本身对外不可见。分片中主节点故障后,同一分片中备节点会升级为主节点来继续提供服务。用户可通过读写分离技术,在主节点上写,从备节点读,从而提升缓存的整体读写能力。 读写分离:在主备实例的基础上,增加挂载Proxy节点和ELB节点,通过ELB节点实现负载均衡,将不同请求分发到Proxy节点,Proxy节点识别用户读写请求,将请求发送到主节点或备节点,从而实现读写分离。 :: 规格 Redis提供128MB~1024GB的多种规格。 兼容开源Redis版本 DCS提供不同的实例版本,分别兼容开源Redis的3.0、4.0、5.0、6.0。 底层架构 基于虚拟机的标准版 ,单节点QPS达10万/秒。 高可用与容灾 主备与集群实例提供Region内的跨可用区部署,实现实例内部节点间的电力、网络层面物理隔离。 有关开源Redis技术细节,您可以访问Redis官方网站
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        产品定义
      • 云数据库GaussDB(for MySQL)支持的事件列表
        云数据库GaussDB(for MySQL)支持的事件列表 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 实例增量备份业务失败 TaurusIncrementalBackupInstanceFailed 重要 实例增量备份失败产生的事件,一般是管理节点到实例网络或者实例到OBS存储的网络异常,或者实例备份环境异常。 提交工单。 无法完成实例备份业务操作。 添加只读节点失败 addReadonlyNodesFailed 重要 创建实例只读节点失败产生的事件,一般是底层资源耗尽导致。 检查并释放资源后重新创建。 无法创建数据库实例只读节点。 创建实例业务失败 createInstanceFailed 重要 创建实例失败产生的事件,一般是配额大小不足,底层资源耗尽导致。 检查配额大小,释放资源后重新创建。 无法创建数据库实例。 主备切换异常 activeStandBySwitchFailed 重要 主备切换异常主要是由于网络、物理机有某种故障导致只读节点没有接管主节点的业务,短时间内会恢复到原主节点继续提供服务。 提交工单。 无法完成主备切换(只读升主)。 规格变更业务失败 flavorAlterationFailed 重要 规格变更失败产生的事件,一般是配额大小不足,底层资源耗尽导致。 提交工单。 无法完成规格变更。 实例运行状态异常 TaurusInstanceRunningStatusAbnormal 重要 实例运行状态异常产生的事件,可能原因是实例进程故障,或者实例到DFV存储间通信问题。 提交工单。 实例异常,业务可能受损。 实例运行状态异常已恢复 TaurusInstanceRunningStatusRecovered 重要 实例运行状态异常后恢复产生的事件。 观察业务运行情况。 无。 节点运行状态异常 TaurusNodeRunningStatusAbnormal 重要 运行节点状态异常产生的事件,可能原因是节点进程故障,或者节点到DFV存储间通信问题。 观察实例状态和业务运行情况。 节点异常,可能触发只读升主。 节点运行状态异常已恢复 TaurusNodeRunningStatusRecovered 重要 节点运行状态异常后恢复产生的事件。 观察业务情况。 无。 删除只读节点失败 TaurusDeleteReadOnlyNodeFailed 重要 删除只读节点失败产生的事件,可能原因是管理面到实例节点通信异常或者请求IaaS删除虚机失败。 提交工单。 无法完成删除只读节点操作。 实例重置密码失败 TaurusResetInstancePasswordFailed 重要 实例重置密码失败产生的事件,可能原因是管理面到实例通信异常或者实例状态异常件。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例重置密码操作。 实例重启失败 TaurusRestartInstanceFailed 重要 实例重启失败产生的事件,可能原因是管理面到实例通信异常或者实例状态异常件。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例重启操作。 恢复到新实例失败 TaurusRestoreToNewInstanceFailed 重要 恢复到新实例失败产生的事件,一般是新创建实例配额大小不足,底层资源耗尽导致或者数据恢复逻辑出错。 如果是新创建实例失败,检查配额大小,释放资源后重新恢复到新实例,其他情况提交工单。 无法完成恢复到新实例。 实例绑定EIP失败 TaurusBindEIPToInstanceFailed 重要 实例绑定EIP失败产生的事件,绑定任务执行错误。 提交工单。 无法完成绑定EIP操作。 实例解绑EIP失败 TaurusUnbindEIPFromInstanceFailed 重要 实例解绑EIP失败产生的事件,绑定任务执行错误。 提交工单。 无法完成解绑EIP操作。 实例修改参数失败 TaurusUpdateInstanceParameterFailed 重要 实例修改参数失败产生的事件,一般是管理节点到实例网络异常,或者实例状态异常。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例修改参数操作。 实例参数组应用失败 TaurusApplyParameterGroupToInstanceFailed 重要 实例参数组应用失败产生的事件,一般是管理节点到实例网络异常,或者实例状态异常。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例参数组应用操作。 实例全量备份业务失败 TaurusBackupInstanceFailed 重要 实例全量备份失败产生的事件,一般是管理节点到实例网络或者实例到OBS存储的网络异常,或者实例备份环境异常。 提交工单。 无法完成实例备份业务操作。 实例发生主备倒换 TaurusActiveStandbySwitched 重要 实例发生主备倒换,主要是由于主节点的网络,物理机以及数据库运行出现故障时,GaussDB HA系统会按照倒换优先级将1个只读节点升为主机,以持续提供服务。 收到事件后,查看业务运行是否正常。看是否继续收到“实例只读升主业务失败”告警。 倒换时业务连接会短时间中断,升主完成后可重新连接数据库。 数据库设置为只读模式 NodeReadonlyMode 重要 数据库设置为只读状态,只支持查询类操作。 提交工单。 数据库设置只读状态后,所有写业务返回失败。 数据库设置为读写模式 NodeReadWriteMode 重要 数据库设置为读写状态 提交工单。 无 实例容灾切换 DisasterSwitchOver 重要 实例故障不可用,通过主备切换保证数据库继续对外提供服务。 联系技术支持团队处理。 访问数据库的业务出现闪断,高可用服务通过切换机制保证新机器升主继续对外提供服务。 数据库进程重新启动 TaurusDatabaseProcessRestarted 重要 一般是内存不足、负载过高导致数据库进程停止。 通过云监控的数据,查看是否有内存飙升、CPU长期过高等的情况,可以选择提升CPU内存规格或者优化业务逻辑。 数据库进程挂掉的时候,该节点业务中断。高可用服务会自动拉起进程,尝试恢复业务。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        云数据库GaussDB(for MySQL)支持的事件列表
      • 迁移前构造数据
        本节介绍了如何在迁移前构造数据。 迁移前需要在源库构造一些数据类型,供迁移完成后验证数据。 DRS支持的数据类型如下所示: 源库数据类型 目标库数据类型 源库数据类型做主键,同步能力 源库数据类型做非主键, 同步能力 源库数据类型做主键, 对比能力 源库数据类型做非主键, 对比能力 备注 CHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 VARCHAR character varying 支持 支持 支持 支持 源目标库数据表示范围不同,存在精度损失。 VARCHAR2 character varying 支持 支持 支持 支持 NCHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 NVARCHAR2 nvarchar2 支持 支持 支持 支持 NUMBER numeric 支持 支持 支持 支持 NUMBER (6,3) numeric(6,3) 支持 支持 支持 支持 NUMBER (6,0) Integer 支持 支持 支持 支持 NUMBER (3) smallint 支持 支持 支持 支持 NUMBER (6,2) integer 支持 支持 支持 支持 BINARYFLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 BINARYDOUBLE double precision 不支持(目标库不支持做主键建表) 支持 不支持 支持 FLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 INT numeric 支持 支持 支持 支持 INTEGER numeric 支持 支持 支持 支持 DATE date 支持 支持 不支持 支持 DRS在目标库建表时类型为date,此时源目标库数据表示范围不同, 存在精度损失,不支持对比。 TIMESTAMP timestamp(6) without time zone 支持 支持 不支持 校验到小数点后6位 源库使用限制:支持的最大精度是6。 TIMESTAMPTZ timestamp(6) with time zone 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 TIMESTAMPLTZ timestamp(6) with time zone 不支持(目标库不支持做主键建表) 支持 不支持 过滤该列 INTERVALYM interval year to month 支持 支持 不支持 不支持 增量同步不支持该类型。 INTERVALDS interval day to second 支持 支持 不支持 不支持 增量同步不支持该类型。源库使用限制:支持的最大精度是6。 BLOB bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 CLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 NCLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONG text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONGRAW bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 RAW bytea 不支持(目标库不支持做主键建表) 支持 不支持 支持 RowID character varying(18) 支持 支持 支持 支持 BFILE 不支持 不支持 不支持 不支持 源库使用限制:不支持bfile类型。 XMLTYPE 不支持 不支持 不支持 不支持 源库使用限制:不支持xmltype类型。 UROWID 不支持 不支持 不支持 不支持 全量增量都不支持同步。 sdogeometry 不支持 不支持 不支持 不支持 源库使用限制:不支持sdogeometry类型。 NUMBER(,0) numeric 支持 支持 支持 支持 执行如下步骤在源库构造数据: 1. 根据本地的Oracle数据库的IP地址,通过数据库连接工具连接数据库。 2. 根据支持的数据类型,在源库执行语句构造数据。 a) 创建一个测试用的用户。 create user testinfo identified by xxx ; testinfo为本次实践创建的用户,xxx为用户的密码,请根据实际情况替换。 b) 给用户赋权。 grant dba to testinfo ; c) 在当前用户下创建一个数据表。 CREATE TABLE testinfo . DATATYPELIST (ID INT,COL01CHARE CHAR(100),COL02NCHARE NCHAR(100),COL03VARCHARE VARCHAR(1000),COL04VARCHAR2E VARCHAR2(1000),COL05NVARCHAR2E NVARCHAR2(1000),COL06NUMBERE NUMBER(38,0),COL07FLOATE FLOAT(126),COL08BFLOATE BINARYFLOAT,COL09BDOUBLEE BINARYDOUBLE,COL10DATEE DATE DEFAULT SYSTIMESTAMP,COL11TSE TIMESTAMP(6),COL12TSTZE TIMESTAMP(6) WITH TIME ZONE,COL13TSLTZE TIMESTAMP(6) WITH LOCAL TIME ZONE,COL14CLOBE CLOB DEFAULT EMPTYCLOB(),COL15BLOBE BLOB DEFAULT EMPTYBLOB(),COL16NCLOBE NCLOB DEFAULT EMPTYCLOB(),COL17RAWE RAW(1000),COL19LONGRAWE LONG RAW,COL24ROWIDE ROWID,PRIMARY KEY(ID)); d) 插入两行数据。 insert into testinfo.DATATYPELIST values(4,'huawei','xian','shanxi','zhongguo','shijie', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); insert into testinfo.DATATYPELIST values(2,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); e) 使语句生效。 commit; 3. 在目标端创建库。 a) 登录天翼云控制台。 b) 单击管理控制台左上角的,选择区域。 c) 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据管理服务”。 d) 在数据管理服务DAS左侧导航栏,单击“开发工具”,进入开发工具数据库登录列表页面。 e) 单击“新增数据库登录”,打开新增数据库登录窗口。 f) 选择“数据库引擎”、“数据库来源”、目标实例,填写登录用户名、密码以及描述(非必填项)信息,开启定时采集、SQL执行记录功能。 g) 您可根据需要选择“测试连接”(必选操作步骤)。 如测试连接成功,将提示“连接成功”,您可继续新增操作。如测试连接失败,将提示连接失败原因,您需根据提示信息进行修改,以便新增数据库登录成功。 h) 设置完登录信息,单击“立即新增”。 i) 新增完成后,单击新增登录的“登录”,登录当前数据库。 j) 进入SQL查询页面。 k) 执行如下语句创建兼容Oracle的数据库。 此例中为:testdatabaseinfo,请根据实际情况选择。 CREATE DATABASE testdatabaseinfo DBCOMPATIBILITY 'ORA';
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移前构造数据
      • 快速构建FTP站点(Windows)
        本文介绍了如何使用天翼云弹性云主机的Windows实例搭建FTP站点。该指导具体操作以Windows 2012 Standard R2 64位中文版为例。 Windows实例搭建FTP站点具体操作步骤 1. 添加IIS的角色和功能。 2. 创建FTP服务用户名及密码。 3. 设置共享文件权限。 4. 配置FTP站点。 5. 配置FTP防火墙。 6. 配置安全组规则及防火墙策略。 7. 客户端进行连接测试。 示例环境 实例类型:s3.large.2 2核 4G 通用型云主机 所在区域:山西 系统盘:40GB 操作系统:Windows 2012 Standard R2 64位中文版 公网弹性IP带宽:1Mbps 操作步骤 1. 添加IIS的角色和功能。 1. 登录弹性云主机。 2. 选择“开始 > 服务器管理器”。 3. 单击“添加角色和功能”。 4. 在弹出的“开始之前”对话框中,单击“下一步”。 5. 选择“基于角色或基于功能的安装”,单击“下一步”。 6. 选择需要部署FTP的服务器,单击“下一步”。 7. 选择“Web服务器(IIS)”,并在弹出的对话框中单击“添加功能”,然后单击“下一步”。 8. 连续单击“下一步”,到“角色服务”页面。 9. 选择“FTP服务器”以及“IIS管理控制台”,单击“下一步”。 10. 单击“安装”,开始部署服务角色。 11. 安装完成后,单击“关闭”。 1. 添加IIS的角色和功能 2. 添加IIS的角色和功能 3. 添加IIS的角色和功能 4. 添加IIS的角色和功能 2. 创建FTP服务用户名及密码。 1. 在“服务器管理器”中,选择“仪表板 > 工具 > 计算机管理”。 2. 选择“系统工具 > 本地用户和组 >用户”,在右侧空白处右击,并选择“新用户”。 3. 设置“用户名”和“密码”,此处用户名以“ftp”为例。 3. 设置共享文件权限。 需要在FTP站点为共享给用户的文件夹设置访问及修改等权限。 1. 在服务器上创建一个供FTP使用的文件夹,选择文件夹,并单击右键选择“属性”。此处以“share”文件夹为例。 2. 在“安全”页签,选择 “Everyone”,单击“编辑”。如果没有“Everyone”用户可以直接选择,需要先进行添加。 3. 选择“Everyone”,然后根据需要,选择“Everyone”的权限,并单击“确定”。此处以允许所有权限为例。 4. 配置FTP站点。 1. 在“服务器管理器”中,选择“仪表板 > 工具 >Internet Information Services (IIS)管理器 ”。 2. 选择“网站”并单击右键,然后选择“添加FTP站点”。 3. 在弹出的窗口中,填写FTP站点名称及共享文件夹的物理路径,然后单击“下一步”。此处站点名称以“ftp”为例。 4. 输入该弹性云主机的公网IP地址以及端口号,并设置SSL,单击“下一步”。 端口号默认为21,也可自行设置。 SSL根据需要进行设置。 无: 不需要SSL加密。 允许:允许FTP服务器与客户端的非SSL和SSL连接。 需要:需要对FTP服务器和客户端之间的通信进行SSL加密。 5. 设置身份认证和授权信息,并单击“完成”。 身份认证 匿名:允许任何仅提供用户名 “anonymous” 或 “ftp” 的用户访问内容。 基本:需要用户提供有效用户名和密码才能访问内容。但是基本身份验证通过网络传输密码时不加密,因此建议在确认客户端和FTP服务器之间的网络连接安全时使用此身份验证方法。 授权 允许访问 所有用户:所有用户均可访问相应内容。 匿名用户:匿名用户可访问相应内容。 指定角色或用户组:仅指定的角色或用户组的成员才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的角色或用户组。 指定用户:仅指定的用户才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的用户。 权限:选择经过授权的用户的“读取”和“写入”权限。 6. 绑定弹性云主机的公网IP。 选择“网站”,选中创建的FTP站点,单击“绑定”;在弹出的“网站绑定”窗口单击“添加”,然后在弹出的窗口中添加弹性云主机的私网IP地址,并单击“确定。 5. 配置FTP防火墙支持。 如果需要使用FTP服务器的被动模式,则需要配置FTP防火墙支持。 如果天翼云上的服务器需要通过公网IP地址访问天翼云上的实例搭建的FTP服务器时,需要配置FTP服务器的被动模式。 双击“FTP防火墙支持”,打开FTP防火墙支持的配置界面。 配置相关参数,数据通道端口范围:指定用于被动连接的端口范围。可指定的有效端口范围为102565535,请根据实际需求进行设置,此处配置50006000,防火墙的外部IP地址:输入该弹性云主机的公网IP地址,并单击“应用”。 重启云主机使防火墙配置生效。 6. 配置安全组规则及防火墙策略。 搭建好FTP站点后,需要在弹性云主机安全组的入方向添加一条放行FTP端口的规则,如果配置了“FTP防火墙支持”,需要在安全组中同时放行FTP站点使用的端口和FTP防火墙使用的数据通道端口。 服务器防火墙默认放行TCP的21端口用于FTP服务。如果选用其他端口,需要在防火墙中添加一条放行此端口的入站规则。 FTP模式 方向 协议 端口 源地址 主动模式 入方向 TCP 20端口和21端口 0.0.0.0/0 被动模式 入方向 TCP 21端口和1024~65535间的端口(根据上文配置,此处50006000) 0.0.0.0/0 7. 客户端进行连接测试。 打开客户端的计算机,在路径栏输入“ftp://FTP服务器IP 地址 :FTP 端口 ”(如果不填端口则默认访问21端口)。弹出输入用户名和密码的对话框表示配置成功,正确的输入用户名和密码后,即可对FTP文件进行相应权限的操作,share文件夹下创建工作事项.txt文件,在本地访问共享文件夹可以查看并下载。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        快速构建FTP站点(Windows)
      • 还原卷(上云卷)
        参数 类型 描述 是否必须 lunName String 源卷的卷名称。 是 uuid String 源卷的唯一标识码。 是 targetName String 指定还原卷的target名称。 说明 还原卷时,如果指定的target名称不存在,那么同时创建iSCSI target。 取值:长度范围是1~16,可以由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 是 storageMode String 指定还原卷的存储类型。 取值: Cache:缓存模式,本地保留部分热数据,全部数据异步存储到对象存储中。 Storage:存储模式,本地保留全部数据,并异步存储到对象存储中。 存储类型默认为源卷的存储类型。 否 config.localStorageClass String 指定还原卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M :纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的冗余模式。 说明 以下场景均为集群可用的前提下: 还原EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 还原副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 否 config.minReplica Integer 指定还原卷的最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M 模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 注意 如果指定了还原卷的最小副本数,必须指定还原卷的冗余模式。 取值:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[N, N+M]。如果未设置还原卷的最小副本数,默认值为源卷的最小副本数。 否 config.redundancyOverlap Integer 指定还原卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定了还原卷的折叠副本数,必须指定还原卷的冗余模式。 取值:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC模式,取值范围是[1, N+M]。如果未设置还原卷的折叠副本数,默认值为源卷的折叠副本数。 否 config.ECfragmentSize Integer 设置还原卷的纠删码模式分片大小(仅集群版支持)。 config.localStorageClass为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 否 config.cachePool String 指定还原卷的缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。 否 config.pool String 指定还原卷的存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。 说明 不指定,默认使用基础存储池。 否 config.highAvailability String 指定还原卷的高可用类型(仅集群版支持)。 取值: ActiveStandby:启用主备,该卷关联对应target下的所有IQN。 Disabled:不启用主备,该卷关联对应target下的1个IQN。 默认值为源卷的高可用类型。 否 config.writePolicy String 设置还原卷的写策略。 取值: WriteBack:回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 否 config.serverAffinity Object 卷主备分布优先级设置(仅集群版支持),详见“ 表1 请求参数serverAffinity说明 (仅集群版支持)”。 否 config.qosPolicy Object 卷关联的QoS策略信息,详见“ 表2 请求参数config.qosPolicy说明 ”。 否 config.path String 指定还原卷存储数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。如果还原卷时不指定数据目录,使用服务器设置的默认数据目录。 否 cloud.provider String 指定还原卷的对象存储服务名称: OOS : 天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 说明 源卷和还原卷必须使用相同的对象存储服务。 否 cloud.bucketName String 源卷所在存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 是 cloud.prefix String 源卷的前缀名称。如果源卷未指定前缀,则此处不设置。 取值:长度范围是1~256。 否 cloud.accessKey String 源卷的Access Key。 是 cloud.secretKey String 源卷的Secret Access Key。 是 cloud.endpoint String 源卷的Endpoint。 注意 如果仅输入域名将会使用HTTPS协议进行访问。 是 cloud.signVersion String 指定还原卷上云签名认证的类型。 取值: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 否 cloud.region String 还原卷的region,即Endpoint资源池所在区域。 OOS region详见 。 V4签名时,此项必填。 否 cloud.storageClass String 设置还原卷上传数据至对象存储的存储类型。 取值: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为源卷上传数据至对象存储的存储类型。 否 cloud.compression String 设置还原卷是否压缩数据上传至对象存储。 取值: Enabled:压缩数据上传至对象存储。 Disabled:不压缩数据上传至对象存储。 默认值为源卷的设置。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        还原卷(上云卷)
      • 网站防护配置概述
        本文将为您简要介绍边缘安全加速平台安全与加速服务目前支持的安全防护能力。 接入防护前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 在控制台新增域名,请参见添加服务域名。 防护能力概览 下表将为您描述目前边缘安全加速平台安全与加速服务具备的防护能力以及应用场景 模块 防护能力 说明 应用场景 DDoS防护 DDoS防护 DDoS防护可有效防御畸形报文攻击、SYN Flood、ACK Flood、UDP Flood、ICMP Flood等网络层攻击以及SSL、DNS等应用层攻击 自动防御大流量网络层攻击 Web防护 []( 目前已维护6套防护规则集,基于正则的规则防护引擎进行 Web 漏洞和未知威胁防护,能够抵御SQL 注入、XSS 攻击、恶意扫描、命令注入攻击、Web 应用漏洞、WebShell 上传、不合规协议、木马后门等17类通用的 Web 攻击 建议基于自身业务防护需求选择对应的防护规则集 Web防护 []( 位于高级防护模块下,能够保护网站核心静态页面,避免因为源站页面被恶意篡改带来的负面影响 希望网站防止被恶意篡改页面内容时配置 Web防护 []( 位于高级防护模块下,支持对网站返回的内容进行脱敏展示,过滤内容包括敏感信息(如身份证、手机号、银行卡、邮箱等) 希望网站避免泄露身份证、手机号等敏感信息时配置 Web防护 []( 支持检查HTTP协议头部,对HTTP请求信息中的方法以及参数长度等信息进行检测,对不符合的请求项进行拦截或告警 针对不在HTTP请求合规、上传内容合规、配置符合网站处理规范内的请求进行相应处理 Web防护 []( 采用Cookie加密、Cookie签名等方式对Cookie字段的字进行加密或签名,防护一些使用Cookie中的弱key进行权限绕过的漏洞利用,也能在一定程度上限制基于Cookie修改的爬虫 可以防护Cookie盗用、Cookie篡改、Cookie信息泄露等攻击事件。需要客户端支持携带Cookie,通常小程序、APP、API可能不支持 Web防护 []( 支持自动阻断短时间内发起多次Web攻击的IP,快速应对恶意扫描及代理、Web 攻击威胁等行为,可提升攻防对抗效率 攻防演练、恶意扫描及代理、Web攻击行为等 Web防护 []( 支持防护跨站请求伪造(英语:Crosssite request forgery,简称CSRF)攻击 针对发起CSRF攻击进行防护 Web防护 []( 支持解析源站响应页面代码,在body中插入广告检测js代码,实现广告防护和监测功能 针对网站出现的恶意广告(网站中出现未被网站所有者允许的广告内容)进行防护 Web防护 设置账户安全防护 从撞库、暴力破解两个攻击角度进行防护,保障用户的账户安全 针对账户安全的场景进行防护 Bot防护 设置高频爬虫限制 防止攻击者盗用合法Cookie进行大量请求,限制不同粒度的访问速率 当出现搜索引擎爬取粒度过大导致服务宕机时,可以通过此功能限制爬虫频率 Bot防护 设置爬虫陷阱 在页面里面嵌入不可见链接,当爬虫触碰链接时进行防护 防护网页爬虫 Bot防护 设置人机识别策略 通过cookie挑战、跳转挑战、人机挑战等防爬策略,精准命中爬虫流量,拦截各类恶意爬虫 针对支持携带cookie的客户端请求,小程序、APP、API可能不支持; 对于无法正常执行跳转的请求,可以设置跳转挑战 Bot防护 []( 支持针对搜索引擎IP放行、针对恶意Bot请求IP封禁,目前爬虫情报库已维护接近10万条数据 对已知搜索引擎IP放行处理,不经过Bot防护策略,提升网站SEO权重; 对已知恶意Bot请求IP拦截处理 Bot防护 []( 支持针对已维护的IP信誉库,从威胁类型维度(IDC服务器、傀儡机、漏洞利用等十几类)进行IP封禁,目前IP信誉库已维护接近120万条数据 对已知IDC IP进行封禁处理;拦截傀儡机、漏洞利用等已知恶意IP 访问控制/限流 []( 支持根据请求的URL,频率、行为等访问特征,迅速识别CC攻击并进行拦截 防护大规模CC攻击,避免源站资源耗尽,保证企业网站的正常访问 访问控制/限流 []( 支持针对指定IP以及指定地域IP进行封禁处理 封禁来自国外访问的IP 访问控制/限流 []( 支持识别常见的扫描器类型,也支持自定义扫描器识别规则,做到精准拦截 拦截常见的扫描器类型,避免网站受到外部扫描 访问控制/限流 设置频率控制 支持控制请求的访问频率 设置客户端IP访问域名首页的次数限制 防护白名单 []( 支持在访问控制中,针对特定请求设置为白名单,则不经过全局防护策略的检测 对于可信任流量可以设置为白名单,将不经过任务防护策略 防护白名单 []( 支持针对防护规则集中的具体规则设置白名单,则指定请求不经过该规则的检测 某条域名规则出现误拦截时,可以将误拦截的请求设置为白名单 防护白名单 设置Bot策略白名单 支持针对Bot防护策略设置白名单,则指定请求将不经过Bot防护策略的检测 明确不需要经过Bot防护策略的请求,可以在Bot功能模块中设置为白名单 API安全 API自发现 API自发现功能能够帮助用户从访问日志中自动发现API接口的请求,并生成API资产,无需用户手动新增 梳理站点API资产 API安全 业务监测 API业务监测功能帮助用户实时查看API的业务运行数据包括QPS趋势图、源站状态码响应趋势图、天翼云节点状态码响应趋势图、响应时长趋势图、QPS峰值排行、响应时长排行,同时帮助用户发现和分析业务异常。 协助用户识别API业务是否运行正常 网站风险监测 漏洞扫描 支持远程扫描Web漏洞和按照国际权威安全机构WASC分类的25种Web应用漏洞,全面覆盖OWASP Top 10 Web应用风险 协助用户识别站点漏洞情况
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        网站防护配置概述
      • 缓存接入云审计
        缓存已接入云审计服务。通过云审计服务,您可以查询缓存实例相关的操作事件,便于日后的查询、审计和回溯。 前提条件 1. 开通天翼云对应资源池的云审计服务。 操作步骤 1. 您可通过云审计控制台查看云搜索服务近7天的相关操作。具体查看方法参见查看审计事件。 当前已纳入云审计的关键操作列表 操作事件 字段 资源类型 SSL加密设置 modifyInstanceSSL 分布式缓存服务Redis 下载Redis历史慢日志 downloadHistorySlowLog 分布式缓存服务Redis 下载Redis慢日志 downloadSlowLog 分布式缓存服务Redis 下载Redis运行日志 downloadRedisRunLog 分布式缓存服务Redis 下载SSL证书 downloadSslCert 分布式缓存服务Redis 下载access节点信息 downloadAccessNodeDetails 分布式缓存服务Redis 下载redis节点信息 downloadRedisNodeDetails 分布式缓存服务Redis 下载redis运行日志 downloadRunLog 分布式缓存服务Redis 下载命中率分析信息 downloadKeyMisslog 分布式缓存服务Redis 下载大key、热key信息 downloadTopkeysInfo 分布式缓存服务Redis 下载大key、热key历史报告 downloadTopkeysHistoryInfo 分布式缓存服务Redis 下载实例列表 exportInstances 分布式缓存服务Redis 下载实例配置 downloadRedisConfigs 分布式缓存服务Redis 下载客户端会话列表信息 downloadClientIPinfo 分布式缓存服务Redis 下载证书 downloadCert 分布式缓存服务Redis 为Redis实例创建数据备份 createBackup 分布式缓存服务Redis 为Redis实例删除数据备份 deleteBackup 分布式缓存服务Redis 主从切换 switchInstanceHA 分布式缓存服务Redis 交换IP exchangeIp 分布式缓存服务Redis 从对象存储导入数据 importZosData 分布式缓存服务Redis 修复Aof文件格式 repaireAof 分布式缓存服务Redis 修改Redis实例的自动备份策略 modifyBackupPolicy 分布式缓存服务Redis 修改proxy集群的连接信息 editProxyConnectConfig 分布式缓存服务Redis 修改redis集群中checkBeforeSwitch配置 updateCheckBeforeSwitch 分布式缓存服务Redis 修改top key自动扫描开关 topKeySwitch 分布式缓存服务Redis 修改内网域名 changeRecordName 分布式缓存服务Redis 修改可维护时间段 modifyInstanceMaintainTime 分布式缓存服务Redis 修改实例IP白名单分组 modifySecurityIps 分布式缓存服务Redis 修改实例名 changeInstanceName 分布式缓存服务Redis 修改实例密码 modifyInstancePassword 分布式缓存服务Redis 修改实例的淘汰策略 modifyInstanceStrategy 分布式缓存服务Redis 修改实例账号 changeAccount 分布式缓存服务Redis 修改实例账号密码 modifyAccountPassword 分布式缓存服务Redis 修改实例账号描述 modifyAccountDescription 分布式缓存服务Redis 修改实例账号权限 grantAccountPrivilege 分布式缓存服务Redis 修改实例退订保护开关 changeInstanceProtectionStatus 分布式缓存服务Redis 修改实例部分信息 modifyInstanceAttribute 分布式缓存服务Redis 修改接入机配置 batchEditAccessConfig 分布式缓存服务Redis 修改数据备份磁盘类型 changeBackupDisktype 分布式缓存服务Redis 修改数据闪回开关 dataflashBackSwitch 分布式缓存服务Redis 修改自定义参数模板 editRedisTemplate 分布式缓存服务Redis 修改配置参数 modifyInstanceConf 分布式缓存服务Redis 修改配置参数 modifyInstanceConfig 分布式缓存服务Redis 修改配置参数 ModifyInstanceConfig 分布式缓存服务Redis 停止Redis节点 stopRedisNode 分布式缓存服务Redis 停止redis实例 stopRedis 分布式缓存服务Redis 停止对象存储导入任务 stopImportZosDataTask 分布式缓存服务Redis 停止数据迁移任务 stopTransferTask 分布式缓存服务Redis 关闭危险命令重命名 disableRenameCommand 分布式缓存服务Redis 关闭定时扫描过期key任务 closeScanJob 分布式缓存服务Redis 关闭定时扫描过期key任务 closeScanExpiredKeysJob 分布式缓存服务Redis 关闭弹性伸缩 closeAutoScale 分布式缓存服务Redis 创建实例 createInstance 分布式缓存服务Redis 创建实例账号 createAccount 分布式缓存服务Redis 创建数据传输任务 createOpenApiTransferTask 分布式缓存服务Redis 创建数据迁移任务 createTransferTask 分布式缓存服务Redis 创建自定义参数模板 createRedisTemplate 分布式缓存服务Redis 删除任务中心记录 delTasks 分布式缓存服务Redis 删除公共对象存储配置 delCommonS3Info 分布式缓存服务Redis 删除内网域名 deleteDnsRecord 分布式缓存服务Redis 删除分组 removeGroup 分布式缓存服务Redis 删除分组 deleteDbGroup 分布式缓存服务Redis 删除分组数据 removeGroupData 分布式缓存服务Redis 删除实例账号 deleteAccount 分布式缓存服务Redis 删除对象存储导入任务 delImportZosDataTask 分布式缓存服务Redis 删除指定会话 killSelectedClient 分布式缓存服务Redis 删除数据迁移任务 deleteTransferTask 分布式缓存服务Redis 删除白名单 deleteWhiteListItem 分布式缓存服务Redis 删除自定义参数模板 deleteRedisTemplate 分布式缓存服务Redis 包周期转按需付费 transToPrePaid 分布式缓存服务Redis 升级实例代理版本 upgradeInstanceProxyMinorVersion 分布式缓存服务Redis 升级引擎大版本 modifyInstanceMajorVersion 分布式缓存服务Redis 升级引擎小版本 upgradeInstanceMinorVersion 分布式缓存服务Redis 变更公共对象存储配置 updateCommonS3Info 分布式缓存服务Redis 变更实例AZ modifyInstanceAz 分布式缓存服务Redis 变更实例的规格 modifyInstanceSpec 分布式缓存服务Redis 同步redis主从实例数据 syncInstanceData 分布式缓存服务Redis 启动redis实例 startRedis 分布式缓存服务Redis 命令窗口批量执行命令 executeCommands 分布式缓存服务Redis 实例克隆 cloneInstance 分布式缓存服务Redis 实例开启IPV6 enableInstanceIpv6 分布式缓存服务Redis 实例续费 renewInstance 分布式缓存服务Redis 实例过期key扫描配置 autoScanExpiredKeys 分布式缓存服务Redis 实例重启 restartInstance 分布式缓存服务Redis 对实例的扩容/缩容/类型变更操作进行限制或者解限 modifyInstanceFeature 分布式缓存服务Redis 导入实例元数据 metaDataImport 分布式缓存服务Redis 导出实例节点信息 downloadInstanceNodesInfo 分布式缓存服务Redis 导出操作审计事件 exportAuditEvent 分布式缓存服务Redis 将备份文件中的数据恢复到当前Redis实例中 restoreInstance 分布式缓存服务Redis 应用参数模板到对应实例 applyTemplateToInstance 分布式缓存服务Redis 应用数据管理删除key deleteKey 分布式缓存服务Redis 应用数据管理删除value接口,针对List,Hash,Set,Sorted Set等集合类型。 deleteValue 分布式缓存服务Redis 应用数据管理更新key接口,针对Hash集合类型。 updateKey 分布式缓存服务Redis 应用数据管理更新value接口,针对List,Hash,Set,Sorted Set等集合类型。 updateValue 分布式缓存服务Redis 应用数据管理添加value接口,针对List,Hash,Set,Sorted Set等集合类型。 addValue 分布式缓存服务Redis 开启redis模块 redisModulesSwitch 分布式缓存服务Redis 开启内网域名 enableDnsRecord 分布式缓存服务Redis 开启危险命令重命名 enableRenameCommand 分布式缓存服务Redis 开启弹性伸缩 openAutoScale 分布式缓存服务Redis 开启或关闭rdb加密 rdbEncryptSwitch 分布式缓存服务Redis 异步导出实例列表 asyncExportInstances 分布式缓存服务Redis 手动主从切换 manualInstanceSwitch 分布式缓存服务Redis 手动更新Dns manualUpdateDnsForExpansion 分布式缓存服务Redis 执行redis命令 executeCommand 分布式缓存服务Redis 批量主从切换 batchMasterSlaveSwitch 分布式缓存服务Redis 批量执行命令不保存历史 executeCommandsWithoutHistory 分布式缓存服务Redis 批量退订实例 deleteInstances 分布式缓存服务Redis 按需转包周期付费 transChargeType 分布式缓存服务Redis 操作数据迁移任务 operateTransferTask 分布式缓存服务Redis 数据闪回 doDataflashBack 分布式缓存服务Redis 新增分组 addGroup 分布式缓存服务Redis 新增分组 createDbGroup 分布式缓存服务Redis 更改实例端口 modifyCachePort 分布式缓存服务Redis 更新证书 updateCertValidity 分布式缓存服务Redis 更新防火墙 updateFirewalld 分布式缓存服务Redis 添加白名单 appendWhiteList 分布式缓存服务Redis 清空实例数据 flushData 分布式缓存服务Redis 清空节点数据 delInstanceData 分布式缓存服务Redis 清空过期key flushExpireKeys 分布式缓存服务Redis 清除分组(db)数据 flushDbGroupData 分布式缓存服务Redis 清除慢日志 slowLogReset 分布式缓存服务Redis 满意度评价 satisfaction 分布式缓存服务Redis 立即扫描过期key scanExpiredKeysImmediately 分布式缓存服务Redis 绑定弹性IP bindElasticIP 分布式缓存服务Redis 节点恢复 batchRestartNode 分布式缓存服务Redis 获取备份文件的下载url getRdbDownloadUrl 分布式缓存服务Redis 覆盖原白名单分组 coverWhiteList 分布式缓存服务Redis 解绑弹性IP unBindElasticIP 分布式缓存服务Redis 设置副本优先级 updateSlavePriority 分布式缓存服务Redis 设置实例自动续费 changeAutoRenewStatus 分布式缓存服务Redis 设置读写分离开关 enableRWSep 分布式缓存服务Redis 设置读写分离的读策略 setReadPolicy 分布式缓存服务Redis 退订实例 deleteInstance 分布式缓存服务Redis 配置自动重试类型 configAutoRetryType 分布式缓存服务Redis 重启Redis节点 restartRedisNode 分布式缓存服务Redis 重启access节点 restartAccessNode 分布式缓存服务Redis 重启数据迁移任务 restartTransferTask 分布式缓存服务Redis 重新执行数据迁移任务 retryTransferTask 分布式缓存服务Redis 重置redis密码 resetRedisPwd 分布式缓存服务Redis 重置实例密码 resetInstancePassword 分布式缓存服务Redis 重置实例账号密码 resetAccountPassword 分布式缓存服务Redis
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例日常操作
        缓存接入云审计
      • 加密套件
        本文介绍全站加速支持的加密套件及对应套件支持的最低版本的SSL/TLS协议及配置方法。 功能介绍 加密套件是用于在SSL/TLS握手期间协商安全设置的算法的组合。在Client Hello和Server Hello消息交换之后,客户端发送密码支持套件列表,服务器从列表中选择密码套件进行响应。 天翼云全站加速在域名配置完HTTPS证书后,可选择加密套件类型:全部加密套件、强加密套件、自定义加密套件。 选择全部加密套件后,默认支持如下加密套件: 加密算法 最低版本的SSL/TLS协议 TLSAES256GCMSHA384 TLSv1.3 TLSCHACHA20POLY1305SHA256 TLSv1.3 TLSAES128GCMSHA256 TLSv1.3 ECDHEECDSAAES256GCMSHA384 TLSv1.2 ECDHERSAAES256GCMSHA384 TLSv1.2 DHEDSSAES256GCMSHA384 TLSv1.2 DHERSAAES256GCMSHA384 TLSv1.2 ECDHEECDSACHACHA20POLY1305 TLSv1.2 ECDHERSACHACHA20POLY1305 TLSv1.2 DHERSACHACHA20POLY1305 TLSv1.2 ECDHEECDSAAES256CCM8 TLSv1.2 ECDHEECDSAAES256CCM TLSv1.2 DHERSAAES256CCM8 TLSv1.2 DHERSAAES256CCM TLSv1.2 ECDHEECDSAARIA256GCMSHA384 TLSv1.2 ECDHEARIA256GCMSHA384 TLSv1.2 DHEDSSARIA256GCMSHA384 TLSv1.2 DHERSAARIA256GCMSHA384 TLSv1.2 ECDHEECDSAAES128GCMSHA256 TLSv1.2 ECDHERSAAES128GCMSHA256 TLSv1.2 DHEDSSAES128GCMSHA256 TLSv1.2 DHERSAAES128GCMSHA256 TLSv1.2 ECDHEECDSAAES128CCM8 TLSv1.2 ECDHEECDSAAES128CCM TLSv1.2 DHERSAAES128CCM8 TLSv1.2 DHERSAAES128CCM TLSv1.2 ECDHEECDSAARIA128GCMSHA256 TLSv1.2 ECDHEARIA128GCMSHA256 TLSv1.2 DHEDSSARIA128GCMSHA256 TLSv1.2 DHERSAARIA128GCMSHA256 TLSv1.2 ECDHEECDSAAES256SHA384 TLSv1.2 ECDHERSAAES256SHA384 TLSv1.2 DHERSAAES256SHA256 TLSv1.2 DHEDSSAES256SHA256 TLSv1.2 ECDHEECDSACAMELLIA256SHA384 TLSv1.2 ECDHERSACAMELLIA256SHA384 TLSv1.2 DHERSACAMELLIA256SHA256 TLSv1.2 DHEDSSCAMELLIA256SHA256 TLSv1.2 ECDHEECDSAAES128SHA256 TLSv1.2 ECDHERSAAES128SHA256 TLSv1.2 DHERSAAES128SHA256 TLSv1.2 DHEDSSAES128SHA256 TLSv1.2 ECDHEECDSACAMELLIA128SHA256 TLSv1.2 ECDHERSACAMELLIA128SHA256 TLSv1.2 DHERSACAMELLIA128SHA256 TLSv1.2 DHEDSSCAMELLIA128SHA256 TLSv1.2 RSAPSKAES256GCMSHA384 TLSv1.2 DHEPSKAES256GCMSHA384 TLSv1.2 RSAPSKCHACHA20POLY1305 TLSv1.2 DHEPSKCHACHA20POLY1305 TLSv1.2 ECDHEPSKCHACHA20POLY1305 TLSv1.2 DHEPSKAES256CCM8 TLSv1.2 DHEPSKAES256CCM TLSv1.2 RSAPSKARIA256GCMSHA384 TLSv1.2 DHEPSKARIA256GCMSHA384 TLSv1.2 AES256GCMSHA384 TLSv1.2 AES256CCM8 TLSv1.2 AES256CCM TLSv1.2 ARIA256GCMSHA384 TLSv1.2 PSKAES256GCMSHA384 TLSv1.2 PSKCHACHA20POLY1305 TLSv1.2 PSKAES256CCM8 TLSv1.2 PSKAES256CCM TLSv1.2 PSKARIA256GCMSHA384 TLSv1.2 RSAPSKAES128GCMSHA256 TLSv1.2 DHEPSKAES128GCMSHA256 TLSv1.2 DHEPSKAES128CCM8 TLSv1.2 DHEPSKAES128CCM TLSv1.2 RSAPSKARIA128GCMSHA256 TLSv1.2 DHEPSKARIA128GCMSHA256 TLSv1.2 AES128GCMSHA256 TLSv1.2 AES128CCM8 TLSv1.2 AES128CCM TLSv1.2 ARIA128GCMSHA256 TLSv1.2 PSKAES128GCMSHA256 TLSv1.2 PSKAES128CCM8 TLSv1.2 PSKAES128CCM TLSv1.2 PSKARIA128GCMSHA256 TLSv1.2 AES256SHA256 TLSv1.2 CAMELLIA256SHA256 TLSv1.2 AES128SHA256 TLSv1.2 CAMELLIA128SHA256 TLSv1.2 ECDHEECDSAAES256SHA TLSv1 ECDHERSAAES256SHA TLSv1 ECDHEECDSAAES128SHA TLSv1 ECDHERSAAES128SHA TLSv1 ECDHEPSKAES256CBCSHA384 TLSv1 ECDHEPSKAES256CBCSHA TLSv1 RSAPSKAES256CBCSHA384 TLSv1 DHEPSKAES256CBCSHA384 TLSv1 ECDHEPSKCAMELLIA256SHA384 TLSv1 RSAPSKCAMELLIA256SHA384 TLSv1 DHEPSKCAMELLIA256SHA384 TLSv1 PSKAES256CBCSHA384 TLSv1 PSKCAMELLIA256SHA384 TLSv1 ECDHEPSKAES128CBCSHA256 TLSv1 ECDHEPSKAES128CBCSHA TLSv1 RSAPSKAES128CBCSHA256 TLSv1 DHEPSKAES128CBCSHA256 TLSv1 ECDHEPSKCAMELLIA128SHA256 TLSv1 RSAPSKCAMELLIA128SHA256 TLSv1 DHEPSKCAMELLIA128SHA256 TLSv1 PSKAES128CBCSHA256 TLSv1 PSKCAMELLIA128SHA256 TLSv1 DHERSAAES256SHA SSLv3 DHEDSSAES256SHA SSLv3 DHERSACAMELLIA256SHA SSLv3 DHEDSSCAMELLIA256SHA SSLv3 DHERSAAES128SHA SSLv3 DHEDSSAES128SHA SSLv3 DHERSACAMELLIA128SHA SSLv3 DHEDSSCAMELLIA128SHA SSLv3 SRPDSSAES256CBCSHA SSLv3 SRPRSAAES256CBCSHA SSLv3 SRPAES256CBCSHA SSLv3 RSAPSKAES256CBCSHA SSLv3 DHEPSKAES256CBCSHA SSLv3 AES256SHA SSLv3 CAMELLIA256SHA SSLv3 PSKAES256CBCSHA SSLv3 SRPDSSAES128CBCSHA SSLv3 SRPRSAAES128CBCSHA SSLv3 SRPAES128CBCSHA SSLv3 RSAPSKAES128CBCSHA SSLv3 DHEPSKAES128CBCSHA SSLv3 AES128SHA SSLv3 CAMELLIA128SHA SSLv3 PSKAES128CBCSHA SSLv3 DHERSAAES256GCMSHA384 TLSv1.2 DHERSACHACHA20POLY1305 TLSv1.2 DHERSAAES256CCM8 TLSv1.2 DHERSAAES256CCM TLSv1.2 DHERSAARIA256GCMSHA384 TLSv1.2 DHERSAAES128GCMSHA256 TLSv1.2 DHERSAAES128CCM8 TLSv1.2 DHERSAAES128CCM TLSv1.2 DHERSAARIA128GCMSHA256 TLSv1.2 DHERSAAES256SHA256 TLSv1.2 DHERSACAMELLIA256SHA256 TLSv1.2 DHERSAAES128SHA256 TLSv1.2 DHERSACAMELLIA128SHA256 TLSv1.2 DHERSAAES256SHA SSLv3 DHERSACAMELLIA256SHA SSLv3 DHERSAAES128SHA SSLv3 DHERSAAES128SHA SSLv3 ECCSM2SM4GCMSM3 GMTLS1.1 ECDHESM2SM4GCMSM3 GMTLS1.1 ECCSM2SM4CBCSM3 GMTLS1.1 ECDHESM2SM4CBCSM3 GMTLS1.1 选择强加密套件后,默认支持如下加密套件: 加密算法 最低版本的SSL/TLS协议 TLSAES256GCMSHA384 TLSv1.3 TLSCHACHA20POLY1305SHA256 TLSv1.3 TLSAES128GCMSHA256 TLSv1.3 ECDHEECDSACHACHA20POLY1305 TLSv1.2 ECDHERSACHACHA20POLY1305 TLSv1.2 ECDHEECDSAAES256GCMSHA384 TLSv1.2 ECDHERSAAES256GCMSHA384 TLSv1.2 ECDHEECDSAAES256CCM8 TLSv1.2 ECDHEECDSAAES256CCM TLSv1.2 ECDHEECDSAARIA256GCMSHA384 TLSv1.2 ECDHEARIA256GCMSHA384 TLSv1.2 ECDHEECDSAAES128GCMSHA256 TLSv1.2 ECDHERSAAES128GCMSHA256 TLSv1.2 ECDHEECDSAAES128CCM8 TLSv1.2 ECDHEECDSAAES128CCM TLSv1.2 ECDHEECDSAARIA128GCMSHA256 TLSv1.2 ECDHEARIA128GCMSHA256 TLSv1.2 选择自定义加密套件后,可从如下列表中自定义选择1个或多个加密套件: 加密算法 最低版本的SSL/TLS协议 TLSAES256GCMSHA384 TLSv1.3 TLSCHACHA20POLY1305SHA256 TLSv1.3 TLSAES128GCMSHA256 TLSv1.3 ECDHEECDSAAES256GCMSHA384 TLSv1.2 ECDHERSAAES256GCMSHA384 TLSv1.2 ECDHEECDSACHACHA20POLY1305 TLSv1.2 ECDHERSACHACHA20POLY1305 TLSv1.2 ECDHEECDSAAES256CCM8 TLSv1.2 ECDHEECDSAAES256CCM TLSv1.2 ECDHEECDSAARIA256GCMSHA384 TLSv1.2 ECDHEARIA256GCMSHA384 TLSv1.2 ECDHEECDSAAES128GCMSHA256 TLSv1.2 ECDHERSAAES128GCMSHA256 TLSv1.2 ECDHEECDSAAES128CCM8 TLSv1.2 ECDHEECDSAAES128CCM TLSv1.2 ECDHEECDSAARIA128GCMSHA256 TLSv1.2 ECDHEARIA128GCMSHA256 TLSv1.2 ECDHEECDSAAES256SHA384 TLSv1.2 ECDHERSAAES256SHA384 TLSv1.2 ECDHEECDSACAMELLIA256SHA384 TLSv1.2 ECDHERSACAMELLIA256SHA384 TLSv1.2 ECDHEECDSAAES128SHA256 TLSv1.2 ECDHERSAAES128SHA256 TLSv1.2 ECDHEECDSACAMELLIA128SHA256 TLSv1.2 ECDHERSACAMELLIA128SHA256 TLSv1.2 AES256GCMSHA384 TLSv1.2 AES256CCM8 TLSv1.2 AES256CCM TLSv1.2 ARIA256GCMSHA384 TLSv1.2 AES128GCMSHA256 TLSv1.2 AES128CCM8 TLSv1.2 AES128CCM TLSv1.2 ARIA128GCMSHA256 TLSv1.2 AES256SHA256 TLSv1.2 CAMELLIA256SHA256 TLSv1.2 AES128SHA256 TLSv1.2 CAMELLIA128SHA256 TLSv1.2 DHERSAAES256GCMSHA384 TLSv1.2 DHERSACHACHA20POLY1305 TLSv1.2 DHERSAAES256CCM8 TLSv1.2 DHERSAAES256CCM TLSv1.2 DHERSAARIA256GCMSHA384 TLSv1.2 DHERSAAES128GCMSHA256 TLSv1.2 DHERSAAES128CCM8 TLSv1.2 DHERSAAES128CCM TLSv1.2 DHERSAARIA128GCMSHA256 TLSv1.2 DHERSAAES256SHA256 TLSv1.2 DHERSACAMELLIA256SHA256 TLSv1.2 DHERSAAES128SHA256 TLSv1.2 DHERSACAMELLIA128SHA256 TLSv1.2 DHERSAAES256SHA SSLv3 DHERSACAMELLIA256SHA SSLv3 DHERSAAES128SHA SSLv3 DHERSACAMELLIA128SHA SSLv3 ECCSM2SM4GCMSM3 GMTLS1.1 ECDHESM2SM4GCMSM3 GMTLS1.1 ECCSM2SM4CBCSM3 GMTLS1.1 ECDHESM2SM4CBCSM3 GMTLS1.1
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        HTTPS相关配置
        加密套件
      • 步骤一:创建同步任务
        本节主要介绍步骤一:创建同步任务 本小节以MySQL>RDS for MySQL的实时同步为示例,介绍如何使用数据库复制服务创建两个数据库实例之间的实时同步任务,其他存储引擎的配置流程类似。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时同步支持的数据库类型,详情请参见实时同步。 满足实时同步的使用限制,详情请参见概述。 操作步骤 1、 在“实时同步管理”页面,单击“创建同步任务”。 2、 在“同步实例”页面,填选区域、任务名称、任务异常通知设置、时延阈值、任务异常自动结束时间、描述、同步实例信息,单击“下一步”。 图 同步任务信息 表 任务与描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当同步任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量同步阶段,源数据库和目标数据库之间的同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量同步阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 同步实例信息 表 同步实例信息 参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 此处以公网网络为示例。 可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步类型 此处以“全量+增量”为示例。 “全量+增量”: 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”: 增量同步通过解析日志等技术,将源端产生的增量实时同步至目标端。 3、同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 入云和出云场景中源库和目标库需要填选的信息不同,具体以界面为准。 入云场景: 图 源库信息 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 源数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的用户名。 数据库密码 目标数据库用户名对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 出云场景: 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建任务时选择的云数据库实例,不可进行修改。 数据库用户名 源数据库对应的用户名。 数据库密码 源数据库用户名对应的密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码 说明 源数据库的用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 说明 目标数据库的IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 4、在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步” 图 同步模式 表 同步模式和对象 参数 描述 冲突策略 数据库复制服务提供的实时同步功能使用了主键或唯一键冲突策略,这些策略可以由您自主选择,尽可能保证源数据库中有主键约束或唯一键约束的表同步到目标数据库是符合预期的。 冲突策略目前支持如下三种形式: 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 说明 目前仅MySQL>RDS for MySQL的同步场景支持设置“覆盖”冲突策略。 当数据发生冲突时,针对如下情况,建议选“忽略”或者“覆盖”,否则建议选“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示实时同步过程中不会同步用户在源数据库端执行的删除数据库操作。 否,则表示实时同步过程中将相关操作同步到目标库。 说明 目前仅以下链路的数据同步场景支持过滤DDL操作。 MySQL数据库>RDS for MySQL实例 RDS for MySQL实例>MySQL数据库 对象同步范围 对象同步范围支持普通索引和增量DDL同步。可根据业务需求选择是否进行同步。 同步对象 同步对象支持库级和表级同步,您可以根据业务场景选择对应的数据进行同步。部分链路还支持文件导入对象。 图 导入对象文件 如果有切换源数据库的操作或源库同步对象变化的情况,请务必在选择同步对象前单击右上角,以确保待选择的对象为最新源数据库对象。 说明 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 MySQL>RDS for MySQL实时同步支持表级和库级同步。 实时同步功能可以支持源数据库和目标数据库中的同步对象(包括数据库、schema、表)的名称不同。如果同步的数据库对象在源数据库和目标数据库中的命名不同,那么可以使用数据库复制服务提供的对象名映射功能进行映射。其中包括:库映射、schema映射、表映射。 对象名映射的具体操作请参考《数据库复制服务用户指南》中“对象名映射”章节。 导入对象文件的具体操作如下: 1. 单击“下载模板”。 2. 在下载的Excel模板中,填写需要导入的对象信息。 3. 单击“添加文件”,在对话框中选择编辑完成的模板。 4. 单击“上传文件”。 说明 文件导入仅支持导入Windows Microsoft Excel 972003版本(.xls),2007及以上版本(.xlsx)的文件,下载的压缩包提供上述两个版本模板 文件名支持的有效字符:大小写字母,数字,“”,“”,“(”,“)” 模板中的对象信息需按照SchemaName.TableName的格式进行填写,不支持“ ”,"."和“"”,且不支持以空格开头或结尾的对象。 文件导入成功后,必须保留本次上传的文件,以便需要再编辑该任务的数据库对象范围时,可直接基于此文件修改,然后再次上传。 用文件导入功能所创建的任务,任务启动之后再编辑时,不支持切换到“表级同步”和“库级同步”功能。 配置中的任务,可使用“表级同步”,“库级同步”或“文件导入”三种方式,每次切换新的方式后,当前选择或者导入的数据库对象被清空,需重新选择或导入。 5、在“数据加工”页面,根据需要设置数据加工的过滤规则。 如果不需要设置数据加工规则,选择“不加工”,单击“下一步”。 如果需要设置数据加工规则,选择“数据过滤”,参考数据加工,设置相关过滤规则 数据加工 6、在“预检查”页面,进行同步任务预校验,校验是否可进行实时同步。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 图 预检查 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 7、在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,勾选协议,单击“启动任务”,提交同步任务。 说明 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 8、同步任务提交后,您可在“实时同步管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时同步
        步骤一:创建同步任务
      • 资源管理
        本节介绍态势感知提供资源管理功能。 态势感知提供资源管理功能。在“资源管理”页面,您可以查看当前帐号中所有资源的安全状态统计信息,包括资源的名称、所属服务、安全状况等,帮助您快速定位安全风险问题并提供解决方案。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“资源管理”,进入资源管理页面。 4. 查看全部资源安全状态,相关说明如下表所示。 参数名称 参数说明 名称 呈现资源的名称。 服务 呈现资源所属的服务。 资源类型 呈现资源所属的类型。例如:云服务器、磁盘、实例等。 安全状况 呈现资源的安全风险等级。 风险等级包括“致命”、“高危”、“中危”、“低危”、“提示”和“无风险”。 呈现当前资源风险的最高等级。例如,ECS中有高危、低危和提示级别的风险,则此处取最高值,显示为高危。 单击排序图标,可按风险等级排序资源列表。 IP地址 呈现资源的IP地址。 防护状态 呈现资源是否开启安全防护。如果未开启防护,可单击“去开启”进行设置。 威胁 呈现资源近7天内存在的威胁告警总数。 单击告警数量可跳转“检测结果”页面,查看更多的威胁告警信息,并可自定义过滤条件查询告警信息。 漏洞 呈现资源近24小时内未修复的漏洞总数。 单击漏洞数量可跳转“检测结果”页面,查看更多的漏洞信息,并可自定义过滤条件查询漏洞信息。 “资源管理”页面中显示的数据为最近/最新检测后的数据结果,“检测结果”页面显示的是所有检测时间的各类数据详情,因此,资源管理页面的数据总数≤检测结果页面的数据总数。 基线 呈现资源近30天内存在的基线风险总数。 单击基线检查异常数量可跳转“检测结果”页面,查看更多的基线异常信息,并可自定义过滤条件查询基线检查信息。 “资源管理”页面中显示的数据为最近/最新检测后的数据结果,“检测结果”页面显示的是所有检测时间的各类数据详情,因此,资源管理页面的数据总数≤检测结果页面的数据总数。 企业项目 呈现资源所属的企业项目。 标签 呈现资源已有的标签。 如果资源当天添加了标签,则在SA资源管理中第二天才会同步显示。 5. 根据资源信息,筛选查看相关资源安全状态。 单击“服务”、“区域”或“安全状况”后的选项,将呈现符合过滤条件的资源列表。 服务 :筛选资源所属的服务。选择服务后,还可以根据“资源类型”来查看选择指定资源类型的安全状态。 区域 :筛选资源所在的区域。 安全状况 :筛选资源的安全风险等级。 可选择风险等级包括“致命”、“高危”、“中危”、“低危”、“提示”或“无风险”。 6. 当资源列表较多时,可以通过搜索功能,快速精准查询指定资源。 在搜索框中输入资源的“弹性公网IP”、“名称”或“私有IP”,单击,即可查看目标资源的安全状态。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        资源管理
      • 还原卷(上云卷适用)
        参数 参数 描述 n LUNNAME 或 name LUNNAME 源卷名称。 t TARGETNAME 或 target TARGETNAME 指定还原卷的iSCSI target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 还原卷时,如果指定的iSCSI target名称不存在,那么同时创建iSCSI target。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI target名称已经存在,且指定的服务器必须是iSCSI target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 uuid UUID 源卷的唯一标识码。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 指定还原卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端 – 单机版、Linux 客户端 – 单机版。 默认值为源卷的高可用类型。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 设置还原卷的冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的冗余模式。 说明 以下场景均为集群可用的前提下: 还原EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 还原副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 设置还原卷的最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[N, N+M]。如果未设置还原卷的最小副本数,默认值为源卷的最小副本数。 ecfragmentsize ECFRAGEMENTSIZE 设置还原卷的纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 redundancyoverlap REDUNDANCYOVERLAP 指定还原卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定了还原卷的折叠副本数,必须指定还原卷的冗余模式。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[1, N+M]。如果未设置还原卷的折叠副本数,默认值为源卷的折叠副本数。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 设置还原卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 P PATH 或 path PATH 指定还原卷存储数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果还原卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置还原卷的存储类型: Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为源卷的存储类型。 cloudprovider CLOUDPROVIDER 指定还原卷的对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 说明 源卷和还原卷必须使用相同的对象存储服务。 B BUCKETNAME 或 bucket BUCKETNAME 源卷所在存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 X PREFIX 或 prefix PREFIX 源卷的前缀名称。如果源卷未指定前缀,则此处不设置。 取值:字符串形式,长度范围是1~256。 A ACCESSKEY 或 ak ACCESSKEY 源卷的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 源卷的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置还原卷上传数据至对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为源卷上传数据至对象存储的存储类型。 E ENDPOINT 或 endpoint ENDPOINT 源卷的Endpoint。 注意 如果仅输入域名将会使用HTTPS协议进行访问。 signversion VERSION 指定还原卷上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 还原卷的region,即Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 设置还原卷是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为源卷的设置。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        还原卷(上云卷适用)
      • 设置目的端
        本章介绍如何进行目的端的配置。 操作场景 迁移前,您需要设置目的端服务器。该目的端用来接收源端的数据,同时您也可以使用该目的端进行迁移测试和启动目的端。 前提条件 只有“迁移阶段”为“已就绪”时才可设置目的端。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面找到待迁移的服务器,在“目的端”列,单击“设置目的端”,进入迁移配置页面。或单击“操作”列的“更多 > 设置目的端”,进入迁移配置页面。如果在迁移服务器列表中没有看到源端服务器记录,请检查是否登录的是目的端天翼云帐号。 4. 在“迁移配置”页面的基本配置页签,根据下表参数说明,设置相关参数。 参数 子参数 说明 迁移参数模版 选择某个迁移参数模版后,页面根据模版的值自动设置网络类型、网络限流值、迁移方式、是否持续同步、是否调整分区、区域、项目;系统会为每个用户自动创建一个默认迁移参数模版,您也可以提前手动创建迁移参数模版,参见创建迁移参数模板。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 私网 私网包括专线、VPN、对等连接、同VPC子网,如选择私网则需要提前创建,迁移时会使用目的端私有IP。 IP版本 IPv4 使用IPv4进行数据迁移。 IPv6 双栈网络下,可以选择使用IPv6进行主机迁移。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。 设置为0时,代表不限流。 Linux限流功能是基于TC(Traffic Control)模块控制,如果源端服务器没有TC模块,则无法支持限流。 部分Linux系统,暂不支持限流。(例如:CentOS 8.x以及基于其构建的其它发行版本均没有TC模块。) CPU限制 仅支持Linux迁移。 内存限制 磁盘吞吐限制 迁移方式 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。 若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 是否调整分区 否 选择否,目的端磁盘分区与源端保持一致。 是 选择是,用来调整目的端磁盘分区。 迁移后主机状态 关机 选择关机,迁移完成后目的端服务器自动关机。 开机 选择开机,迁移完成后目的端服务器保持开机状态。 是否检测网络质量 否 不进行网络质量评估。 是 首次全量迁移时,会生成一个“迁移网络质量评估”的子任务,该子任务通过检测丢包率、抖动、网络时延、带宽以及内存占用率和CPU占用率,给出网络质量评估结果。 是否启用多进程 否 默认使用1个进程进行迁移、同步。 是 设置迁移和同步最大进程个数,SMSAgent根据设置的进程个数,启用多个进程执行迁移任务。仅适用Linux文件迁移。 迁移特殊配置项 Linux文件级配置不同步、不迁移等特殊配置信息。 Windows块级迁移,专线场景下,可配置目的端中转IP。 调整磁盘分区 单击右侧出现的“调整磁盘分区”,弹出“磁盘分区调整”窗口,如下图所示,用户根据实际业务场景,完成磁盘分区的设置。 图 Windows磁盘分区调整 图 Linux磁盘分区调整 说明 磁盘分区调整可以修改是否迁移以及调整分区大小。 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 注意 Windows系统分区和启动分区是否迁移不可选,默认必须进行迁移。 Windows调整分区大小时只能增大当前分区大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“否”,则卷组不迁移,对应的物理卷是否迁移也会全部自动切换成“否”。 Linux块级迁移,磁盘分区只可以调大。 Linux文件级迁移,磁盘分区可以调大,也可以调小,调小时需保证调小后的分区大小大于已使用空间+1GB。如果调整前分区大小小于已使用空间+1GB,则无法将磁盘分区大小调小。 如果调整分区大小超过当前磁盘大小时,请先单击“磁盘调整”,调大磁盘大小后再进行分区调整。 如果调整分区大小后,小于当前磁盘大小,如有必要,可单击“磁盘调整”,调小磁盘大小。 单击“下一步 磁盘调整”,确认磁盘调整无误后,单击“确定”,完成磁盘分区的调整。 注意 确定后,是否调整磁盘分区无法重新设置为“否”。如果想要恢复原始磁盘分区设置,请在操作栏下,下拉“更多”,单击“删除”,然后在源端重启Agent,之后重新设置目的端配置,是否调整磁盘分区选择“否”。 5. 单击右下角的“下一步:目的端配置”,进入目的端配置页签。 6. 在目的端配置页签,设置相关参数。 参数 子参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目 服务器选择 已有服务器 在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 根据需求,您可以配置虚拟私有云、子网、安全组等参数,详细说明参见创建新服务器。 已有服务器 目的端服务器需要满足如下条件,否则请单击“前往ECS购买”,根据“推荐目的端,操作系统”购买满足如下条件的弹性云主机。当前已支持将源端服务器迁移到“包年/包月”和“按需计费”这两种计费模式的弹性云主机,您可根据需求选择对应计费模式的弹性云主机。 Windows系统的目的端服务器(即弹性云主机)“规格”中的“内存”大小要不小于2GB。 目的端服务器的磁盘个数不小于源端服务器磁盘个数,且目的端服务器每块磁盘的大小要不小于对应的源端服务器“推荐规格”大小。 目的端服务器的操作系统类型需要和源端的OS类型保持一致。否则,迁移完成后服务器OS系统类型与镜像类型不一致,造成名字冲突及其他问题。 确保源端服务器可以访问目的端服务器,即要有可用的EIP,或者配置VPN、专线。 确保目的端服务器所在VPC安全组配置准确。需配置目的端服务器所在VPC安全组。如果是Windows系统,开放TCP的8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 创建新服务器 选择“自动推荐”时,虚拟私有云、子网与安全组默认为自动创建,也可以根据需求手动选择。 高级配置中服务器名称、可用区、规格、系统盘、数据盘、弹性公网IP默认自动推荐和选择,也可以根据需求手动选择。 说明 数据盘支持的磁盘模式包括:VBD类型(默认)、SCSI类型。关于磁盘模式的详细介绍请参见 数据盘支持创建“共享盘”,关于共享磁盘的详细介绍请参见 选择已有模板时,虚拟私有云、子网、安全组、可用区、磁盘类型根据模板确定,也可以手动调整。 注意 虚拟私有云选择自动创建时,SMS会帮助用户创建一个VPC: 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 安全组选择自动创建时,则SMS服务会自动创建一个安全组,并根据SMS的需要开放端口,Windows开放8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 7.目的端参数配置完成后,单击右下角“下一步:确认配置”,进入确认配置页签。 8.(可选)单击“保存为虚拟机配置模板”,弹出“创建虚拟机配置模板”窗口,输入模板名称,单击“确定”,可将配置信息保存为模板。 说明 在目的端配置时,只有服务器选择“创建新服务器”时,才能单击“保存为虚拟机配置模板”。 图 创建虚拟机配置模板窗口 9. 确认信息无误后,单击“保存配置”按钮,弹出“是否保存配置”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。如果您想立即开始迁移,可单击“保存配置并开始迁移”按钮,弹出“是否保存配置并开始迁移”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 说明 当迁移服务器列表的迁移阶段列显示为,迁移实时状态为已就绪,说明目的端已配置完成。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        迁移服务器管理
        设置目的端
      • 设置迁移目的端
        本章介绍如何设置迁移目的端。 操作场景 迁移前,您需要设置目的端服务器。该目的端用来接收源端的数据,同时您也可以使用该目的端进行迁移测试和启动目的端。 前提条件 只有“迁移阶段”为“已就绪”时才可设置目的端。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面找到待迁移的服务器,在“目的端”列,单击“设置目的端”,进入迁移配置页面。或单击“操作”列的“更多 > 设置目的端”,进入迁移配置页面。如果在迁移服务器列表中没有看到源端服务器记录,请检查是否登录的是目的端天翼云帐号。 4. 在“迁移配置”页面的基本配置页签,根据下表参数说明,设置相关参数。 参数 子参数 说明 迁移参数模版 选择某个迁移参数模版后,页面根据模版的值自动设置网络类型、网络限流值、迁移方式、是否持续同步、是否调整分区、区域、项目;系统会为每个用户自动创建一个默认迁移参数模版,您也可以提前手动创建迁移参数模版,参见创建迁移参数模板。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 私网 私网包括专线、VPN、对等连接、同VPC子网,如选择私网则需要提前创建,迁移时会使用目的端私有IP。 IP版本 IPv4 使用IPv4进行数据迁移。 IPv6 双栈网络下,可以选择使用IPv6进行主机迁移。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。 设置为0时,代表不限流。 Linux限流功能是基于TC(Traffic Control)模块控制,如果源端服务器没有TC模块,则无法支持限流。 部分Linux系统,暂不支持限流。(例如:CentOS 8.x以及基于其构建的其它发行版本均没有TC模块。) CPU限制 仅支持Linux迁移。 内存限制 磁盘吞吐限制 迁移方式 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。 若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 是否调整分区 否 选择否,目的端磁盘分区与源端保持一致。 是 选择是,用来调整目的端磁盘分区。具体操作参见调整磁盘分区。 迁移后主机状态 关机 选择关机,迁移完成后目的端服务器自动关机。 开机 选择开机,迁移完成后目的端服务器保持开机状态。 是否检测网络质量 否 不进行网络质量评估。 是 首次全量迁移时,会生成一个“迁移网络质量评估”的子任务,该子任务通过检测丢包率、抖动、网络时延、带宽以及内存占用率和CPU占用率,给出网络质量评估结果。 是否启用多进程 否 默认使用1个进程进行迁移、同步。 是 设置迁移和同步最大进程个数,SMSAgent根据设置的进程个数,启用多个进程执行迁移任务,仅适用Linux文件迁移。 迁移特殊配置项 Linux文件级配置不同步、不迁移等特殊配置信息。 Windows块级迁移,专线场景下,可配置目的端中转IP。 调整磁盘分区 单击右侧出现的“调整磁盘分区”,弹出“磁盘分区调整”窗口,如下图所示,用户根据实际业务场景,完成磁盘分区的设置。 图 Windows磁盘分区调整 图 Linux磁盘分区调整 说明 磁盘分区调整可以修改是否迁移以及调整分区大小。 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 注意 Windows系统分区和启动分区是否迁移不可选,默认必须进行迁移。 Windows调整分区大小时只能增大当前分区大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“否”,则卷组不迁移,对应的物理卷是否迁移也会全部自动切换成“否”。 Linux块级迁移,磁盘分区只可以调大。 Linux文件级迁移,磁盘分区可以调大,也可以调小,调小时需保证调小后的分区大小大于已使用空间+1GB。如果调整前分区大小小于已使用空间+1GB,则无法将磁盘分区大小调小。具体规则请参见卷组和磁盘分区大小调整规则。 如果调整分区大小超过当前磁盘大小时,请先单击“磁盘调整”,调大磁盘大小后再进行分区调整。 如果调整分区大小后,小于当前磁盘大小,如有必要,可单击“磁盘调整”,调小磁盘大小。 单击“下一步 磁盘调整”,确认磁盘调整无误后,单击“确定”,完成磁盘分区的调整。 注意 确定后,是否调整磁盘分区无法重新设置为“否”。如果想要恢复原始磁盘分区设置,请在操作栏下,下拉“更多”,单击“删除”,然后在源端重启Agent,之后重新设置目的端配置,是否调整磁盘分区选择“否”。 5. 单击右下角的“下一步:目的端配置”,进入目的端配置页签。 6. 在目的端配置页签,设置相关参数。 参数 子参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目 服务器选择 已有服务器 在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 根据需求,您可以配置虚拟私有云、子网、安全组等参数,详细说明参见创建新服务器。 已有服务器 目的端服务器需要满足如下条件,否则请单击“前往ECS购买”,根据“推荐目的端,操作系统”并参见购买弹性云主机创建满足如下条件的弹性云主机。当前已支持将源端服务器迁移到“包年/包月”和“按需计费”这两种计费模式的弹性云主机,您可根据需求选择对应计费模式的弹性云主机。 Windows系统的目的端服务器(即弹性云主机)“规格”中的“内存”大小要不小于2GB。 目的端服务器的磁盘个数不小于源端服务器磁盘个数,且目的端服务器每块磁盘的大小要不小于对应的源端服务器“推荐规格”大小。 目的端服务器的操作系统类型需要和源端的OS类型保持一致。否则,迁移完成后服务器OS系统类型与镜像类型不一致,造成名字冲突及其他问题。 确保源端服务器可以访问目的端服务器,即要有可用的EIP,或者配置VPN、专线。 确保目的端服务器所在VPC安全组配置准确。需配置目的端服务器所在VPC安全组。如果是Windows系统,开放TCP的8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 创建新服务器 选择“自动推荐”时,虚拟私有云、子网与安全组默认为自动创建,也可以根据需求手动选择。 高级配置中服务器名称、可用区、规格、系统盘、数据盘、弹性公网IP默认自动推荐和选择,也可以根据需求手动选择。 说明 数据盘支持的磁盘模式包括:VBD类型(默认)、SCSI类型。关于磁盘模式的详细介绍请参见 数据盘支持创建“共享盘”,关于共享磁盘的详细介绍请参见 选择已有模板时,虚拟私有云、子网、安全组、可用区、磁盘类型根据模板确定,也可以手动调整。 注意 虚拟私有云选择自动创建时,SMS会帮助用户创建一个VPC: 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 安全组选择自动创建时,则SMS服务会自动创建一个安全组,并根据SMS的需要开放端口,Windows开放8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 7.目的端参数配置完成后,单击右下角“下一步:确认配置”,进入确认配置页签。 8.(可选)单击“保存为虚拟机配置模板”,弹出“创建虚拟机配置模板”窗口,输入模板名称,单击“确定”,可将配置信息保存为模板。 说明 在目的端配置时,只有服务器选择“创建新服务器”时,才能单击“保存为虚拟机配置模板”。 图 创建虚拟机配置模板窗口 9. 确认信息无误后,单击“保存配置”按钮,弹出“是否保存配置”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 如果您想立即开始迁移,可单击“保存配置并开始迁移”按钮,弹出“是否保存配置并开始迁移”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 说明 当迁移服务器列表的迁移阶段列显示为,迁移实时状态为已就绪,说明目的端已配置完成。
        来自:
        帮助文档
        主机迁移服务SMS
        快速入门
        设置迁移目的端
      • 生产消费验证
        本文介绍分布式消息服务RocketMQ入门指引的生产消费验证内容。 背景信息 RocketMQ的生产消费验证是指在使用RocketMQ进行消息生产和消费时的验证过程。具体而言,验证包括以下几个方面: 生产者验证:RocketMQ提供了丰富的生产者API,开发人员可以使用这些API将消息发送到RocketMQ的消息队列中。在验证阶段,可以通过发送消息并检查返回结果来确保消息成功发送到Broker节点。此外,生产者还应该验证消息的顺序性、事务性以及可靠性等方面。 消费者验证:RocketMQ的消费者可以订阅特定的消息主题,从而消费这些主题下的消息。在验证阶段,消费者应该能够正确地从Broker节点拉取消息并进行消费处理。消费者还可以验证消息的顺序性、重试机制以及消息过滤等功能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息主题,若无选项,请新增主题,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。 1)生产者示例API 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5节点。 ctgmq引擎版本,SDK下载方式详见环境准备其他工具章节。 package com.ctg.guide; import com.ctg.mq.api.CTGMQFactory; import com.ctg.mq.api.IMQProducer; import com.ctg.mq.api.PropertyKeyConst; import com.ctg.mq.api.bean.MQMessage; import com.ctg.mq.api.bean.MQSendResult; import com.ctg.mq.api.exception.MQException; import com.ctg.mq.api.exception.MQProducerException; import java.util.Properties; / Producer,发送消息 / public class Producer { public static void main(String[] args) throws InterruptedException, MQException { Properties properties new Properties(); properties.setProperty(PropertyKeyConst.ProducerGroupName, "producergroup"); properties.setProperty(PropertyKeyConst.NamesrvAddr, "10.50.208.1:9876;10.50.208.2:9876;10.50.208.3:9876"); properties.setProperty(PropertyKeyConst.NamesrvAuthID, "app4test"); properties.setProperty(PropertyKeyConst.NamesrvAuthPwd, ""); properties.setProperty(PropertyKeyConst.ClusterName, "defaultMQBrokerCluster"); properties.setProperty(PropertyKeyConst.TenantID, "defaultMQTenantID"); IMQProducer producer CTGMQFactory.createProducer(properties);//建议应用启动时创建 int connectResult producer.connect(); if(connectResult ! 0){ return; } for (int i 0; i mqResultList) { //mqResultList 默认为1,可通过批量消费数量设置 for(MQResult result : mqResultList) { //TODO System.out.println(result); } return ConsumerTopicStatus.CONSUMESUCCESS;//对消息批量确认(成功) //return ConsumerTopicStatus.RECONSUMELATER;//对消息批量确认(失败) } }); } } 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 rocketmq引擎版本,SDK下载方式详见环境准备其他工具章节。 importorg.apache.rocketmq.client.consumer.DefaultMQPushConsumer; importorg.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus; importorg.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently; importorg.apache.rocketmq.client.exception.MQClientException; publicclassPushConsumer{ public static void main(String[] args) throws Exception{ AclClientRPCHook rpcHook newAclClientRPCHook(newSessionCredentials(ACCESSKEY, SECRETKEY)); DefaultMQPushConsumer consumer new DefaultMQPushConsumer(rpcHook); consumer.setConsumerGroup("ConsumerGroupName"); // 填入元数据地址 consumer.setNamesrvAddr("XXX:xxx"); ; //如果需要开启SSL,请增加此行代码 consumer.subscribe("YOUR TOPIC",""); consumer.registerMessageListener((MessageListenerConcurrently)(msgs, context)>{ System.out.printf("%s Receive New Messages: %s %n",Thread.currentThread().getName(), msgs); returnConsumeConcurrentlyStatus.CONSUMESUCCESS; }); consumer.start(); System.out.printf("Consumer Started.%n"); } } 示例参数说明: Namesrv地址 Namesrv地址可从控制台查看,多个地址按分号分隔。 应用用户和密码 这个应用用户和密码就是控制台创建的应用用户和密码。 租户id和集群名 集群名和租户id可以从应用用户管理查询。 订阅组 消费组名需要在控制台提前创建好。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        生产消费验证
      • 数据传输服务模块安装部署
        本页介绍天翼云TeleDB数据库数据传输服务模块的安装部署操作。 前提条件 本服务部署需要的全部组件按安装顺序排列如下: MySQL Zookeeper Docker 部署规划 本产品采用一键安装包的部署方式,安装包包含了后端运行所需的java应用。安装前需要检查、配置好安装所需的环境。安装后配置前端即可访问。 操作步骤 1. 查看操作系统版本 cat /etc/osrelease; 2. 查看系统架构 uname a; 3. 创建目录并挂载磁盘 sudo mkdir p /dts; 创建目录 sudo fdisk l 查看磁盘,选一块未挂载的/dev/xxx sudo mkdir /dts 创建挂载目录 sudo mkfs.xfs f /dev/sde 创建文件系统,例如选了sde这块盘 /dev/sde /dts xfs defaults 0 0 打开 /etc/fstab 文件末尾添加这一行 sudo mount a 挂载 df h 查看挂载结果 4. 创建用户 1. 执行以下命令,创建用户 sudo useradd dts; 2. 执行以下命令,为用户设置密码 sudo passwd dts; 3. 执行以下命令,修改目录权限 sudo chown R dts:dts /dts; 4. 执行以下命令,为用户添加sudoers权限,并设置免密登录 sudo vi /etc/sudoers; 打开该文件,添加以下行: dts ALL(ALL) NOPASSWD: ALL 保存退出。 5. 为用户开放更多系统资源,打开/etc/security/limits.conf sudo vi /etc/security/limits.conf 在文件末尾添加如下行: dts soft nofile 65535 dts hard nofile 65535 dts soft nproc 65535 dts hard nproc 65535 dts soft stack unlimited dts hard stack unlimited dts soft as unlimited dts hard as unlimited 保存并退出。 6. 执行以下命令,将dts用户加入root用户组 sudo usermod a G root dts; 5. 解压安装包 1. 将部署包拷贝到/dts目录下 sudo cp ctgpaasdts2.8.5P9.tar.gz /dts; 2. 修改压缩包权限 sudo chown dts:dts /dts/ctgpaasdts2.8.5P9.tar.gz; 3. 切换用户 sudo su dts; 4. 进入主目录 cd /dts; 5. 解压并进入解压后的目录内 tar zxvf ctgpaasdts2.8.5P9.tar.gz && cd ctgpaasdts2.8.5P9; 6. 查看主目录结构 ls l; 7. 查看依赖包目录 ls l ./pkg 6. 安装jdk 说明 dts基于java 11运行,因此要先安装jdk。 1. 进入pkg目录 cd ./pkg; 2. 如果是arm架构(鲲鹏机器),则执行如下命令解压 tar zxvf microsoftjdk11.0.12.7.1linuxaarch64.tar.gz 3. 如果x86架构(海光机器),则执行如下命令解压 tar zxvf openjdk11.0.18+10.tar.gz 4. 重命名解压后的目录 mv jdk11.0.12+7 jdk11 5. 配置java环境变量 vi ~/.bashrc 在文件末尾添加以下几行,保存并退出 export JAVAHOME/dts/jdk11 export CLASSPATH.:$JAVAHOME/lib/dt.jar:$JAVAHOME/lib/tools.jar export PATH$JAVAHOME/bin:$PATH 让环境变量生效: source ~/.bashrc; 查看java版本: java version; 7. 安装telnet dts的一键部署包,会用telnet命令检查程序是否安装成功,因此需要这个包。 先查看telnet是否有安装: rpm qa grep telnet; 如果有输出,则不用再安装,否则执行以下安装命令,(以x86架构为例) sudo rpm ivh xinetd2.3.1514.el7.x8664.rpm; sudo rpm ivh telnet0.1765.el78.x8664.rpm; sudo rpm ivh telnetserver0.1765.el78.x8664.rpm; 8. 安装openssl10 sudo rpm ivh compatopenssl101.0.2o3.el8.x8664.rpm; 9. 后端部署 10. 部署包目录架构 下面为执行tree命令输出: ctgpaasdts2.8.5P9arrch64 ├── api │ └── V280001BASEINIT.sql ├── arm64 │ └── install ├── config │ ├── application.yml │ ├── mysqlport.cnf │ ├── otter.properties │ └── start.sh ├── install ├── install.cfg ├── pkg │ ├── compatopenssl101.0.2o3.el8.aarch64.rpm │ ├── docker24.0.5.arrch64.tgz │ ├── manager.web.deploy2.8.5P9.tar.gz │ ├── microsoftjdk11.0.12.7.1linuxaarch64.tar.gz │ ├── mysql5.7.492023.q3.2.aarch64.tar.gz │ ├── ora2pgty4.tar.gz │ ├── telnet0.1776.el8.aarch64.rpm │ ├── telnetserver0.1776.el8.aarch64.rpm │ ├── xinetd2.3.1524.el8.aarch64.rpm │ └── zookeeper3.4.13.tar.gz ├── start ├── stop ├── tools │ ├── aarch64 │ │ ├── go │ │ ├── jdk │ │ │ ├── copyjdkconfigs3.73.ky10.noarch.rpm │ │ │ ├── giflib5.2.11.ky10.aarch64.rpm │ │ │ ├── java11openjdk11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkdevel11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkheadless11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── javapackagesfilesystem5.3.02.ky10.noarch.rpm │ │ │ ├── lksctptools1.0.1611.ky10.aarch64.rpm │ │ │ ├── luaposix33.3.112.ky10.aarch64.rpm │ │ │ ├── tzdatajava2020a1.p01.ky10.noarch.rpm │ │ │ ├── xorgx11fontsothers7.524.ky10.noarch.rpm │ │ │ └── xorgx11fontutils7.542.ky10.aarch64.rpm │ │ ├── mysql │ │ └── net │ │ └── telnet0.1776.ky10.aarch64.rpm │ ├── ELF │ │ └── mysql │ └── secureHandler └── uninstall 11. 填写配置文件 配置文件install.cfg模板如下 { "version": "DTS版本号", "deployPath": "DTS统一部署路径, 需确保目录已经存在且具备正常的读写权限", "db": { "mode": "common", "machine": [ { "username": "DTS管理库所在机器对应登录账号", "password": "DTS管理库所在机器对应登录账号, 明文", "ip": "DTS管理库所在机器对应IP", "port": "DTS管理库所在机器ssh端口" } ], "deploy": "是否部署新的管理库,int类型.如果复用已有库填0, 否则填1. 当取值0时, 上述username, password, port可不填", "auth": { "dbPort": "DTS管理库服务端口, int类型", "superPassword": "DTS管理库root账号对应初始密码, 明文. 如上述deploy取值0, 则可不填", "dbUser": "DTS管理库初始账号, 如上述deploy取值0, 则必须确保该账号已经存在", "dbPassword": "DTS管理库初始账号对应密码, 明文", "dbName": "DTS管理库初始schema" } }, "manager": { "mode": "common", "machine": [ { "username": "DTS控制台所在机器对应登录账号", "password": "DTS控制台所在机器对应登录账号, 明文", "ip": "DTS控制台所在机器对应IP", "port": "DTS控制台所在机器ssh端口" } ], "deploy": 1, "httpPort": "DTS控制台http服务端口, int类型", "httpsPort": "DTS控制台https服务端口, int类型", "conPort": "DTS控制台rpc服务端口, int类型", "specification": "DTS控制台规格信息, 可取值范围micro,min,standard,medium,large.注意:不同的规格在部署时需分配不同的内存,可提供不同的性能参数,具体规格说明见下面附录.一般情况下建议取值min", "prodInstId": "", "allowWebDomain": "" }, "zookeeper": { "mode": "common", "machine": [ { "username": "DTS调度节点(zookeeper)1所在机器对应登录账号", "password": "DTS调度节点(zookeeper)1所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)1所在机器对应IP", "port": "DTS调度节点(zookeeper)1所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)2所在机器对应登录账号", "password": "DTS调度节点(zookeeper)2所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)2所在机器对应IP", "port": "DTS调度节点(zookeeper)2所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)3所在机器对应登录账号", "password": "DTS调度节点(zookeeper)3所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)3所在机器对应IP", "port": "DTS调度节点(zookeeper)3所在机器ssh端口" } ], "deploy": "是否部署新的zookeeper,int类型. 如复用已有zookeeper则填0, 否则填1. 当取值0时, 上述username, password, port可不填", "zkPort": "zookeeper对应服务端口,int类型", "zkElection": "zookeeper对应选举端口,int类型", "zkCommunication": "zookeeper对应通信端口,int类型" }, "scene": "standalone" } 先备份一下: cp install.cfg install.cfg.sample; 填写配置文件。 arm架构额外操作:如果是arm架构,则将arm64目录下的install文件拷贝到当前目录(x86不做此步骤) cp ./arm64/install ./ 12. 执行一键部署脚本 ./install 如果部署失败,则执行 chmod +x uninstall; ./uninstall; 解决问题后,重新执行一键部署。 13. 对接dcp 修改application.yml配置,注意需要修改的配置项如下,其他不用管 配置项 描述 填写示例 server.servlet.contextpath 后端服务路径,和dcp约定,必须填写为/dts /dts spring.applicaton.name 在dcp中的组件标识,必须填写为dts dts spring.cloud.inetutils.preferrednetworks 让dcp进行服务发现后的ip地址,如果dts所属服务器是多ip,要注意哪个ip是和dcp通的,这里就填写那个ip地址 182.42.233.200 spring.cloud.zookeeper.enabled 表示会去连zk,必须填写true true spring.cloud.zookeeper.connectstring dcp给出的zk的连接地址 182.42.233.200:2181 spring.cloud.zookeeper.discovery.root dcp给出的组件的注册路径 /services/gctest spring.cloud.zookeeper.maxretries 连接zk的重试次数,不配置默认为10 建议填写300 spring.cloud.zookeeper.maxsleepms 每次重试的等待时间,默认为500 建议填写1000 iam.server.responseApiUrl dcp给出的回单地址 示例如下: server: servlet: contextpath: /dts https: ssl: enabled: false port: 17971 keystoretype: PKCS12 keystore: keystore/dtsserver.p12 keystorepassword: keyalias: dtsserver enabledprotocols: TLSv1,TLSv1.1,TLSv1.2 ciphers: TLSECDHERSAWITHAES128CBCSHA256,TLSECDHERSAWITHAES128CBCSHA,TLSECDHERSAWITHAES256CBCSHA384,TLSECDHERSAWITHAES256CBCSHA,TLSECDHERSAWITHRC4128SHA,TLSRSAWITHAES128CBCSHA256,TLSRSAWITHAES128CBCSHA,TLSRSAWITHAES256CBCSHA256,TLSRSAWITHAES256CBCSHA,SSLRSAWITHRC4128SHA mybatis: typealiasespackage: com.chinatelecom.dts.shared.common.model mapperlocations: classpath:dao/.xml configuration: mapunderscoretocamelcase: true spring: application: name: dts cloud: inetutils: preferrednetworks: 182.42.233.200 loadbalancer: ribbon: enabled: false compatibilityverifier: enabled: false zookeeper: enabled: true connectstring: 182.42.233.200:2181 maxretries: 300 maxsleepms: 1000 discovery: preferipaddress: true root: /services/gctest iam.server.url: iam.server.syncApi: /openapi/v1/users/ctyun/sync iam.server.tenants: /openapi/v1/tenants iam.server.versionAgentUrl: /openapi/v1/versions/projectVersion iam.server.logUrl: iam.server.responseApiUrl: api: server: disable: true cluster: xxx:8901 key: TestApiServer digest: 45783632523044543459453955776E704767676F47773D3D 修改otter.properties配置中,otter.run.modeprivatedcp,表示私有云dcp运行环境,示例如下 otter.manager.monitor.email.host smtp.chinatelecom.cn otter.manager.monitor.email.password otter.manager.monitor.email.receiver rc@wq.com otter.manager.monitor.email.security tls otter.manager.monitor.email.stmp.port 465 otter.manager.monitor.email.switch off otter.manager.monitor.email.username otter.run.mode privatedcp otter.zookeeper.aclEnable true otter.zookeeper.authConfig dts:6f562b63312b6b5a6c4f38304c75436d4576693679413d3d otter.zookeeper.cluster.default 182.42.233.200:17973 otter.zookeeper.sessionTimeout 90000 停止manager服务 ./stop.sh 启动manager服务 ./start.sh 14. 前端部署 dcp会给一个前端部署目录,只要把前端文件拷贝到该目录下即可。例如dcp给出的目录为/dcp/teledbdcpfordms/teledbdts,那么 cd /dcp/teledbdcpfordms/teledbdts; 拷贝前端压缩包到console目录 cp teledbdts.zip /dcp/teledbdcpfordms/teledbdts; 解压teledbdts.zip,解压后的文件目录名为teledbdts unzip teledbdtszip; 重命名teledbdts mv teledbdts console; 15. 导入ADAM镜像 前提是部署好docker服务,然后导入ADAM镜像,注意要在DTS工作节点运行的那台机器上导入 docker load input ora2pgty4.tar latest 16. 添加开机启动 1. 给与可执行权限 sudo chmod +x autorestart.sh; 2. 打开/etc/cron.allow文件,在末尾添加上dts,允许dts用户执行crontab命令,保存退出 sudo vi /etc/cron.allow; 3. 编辑crontab crontab e; 4. 在末尾添加上自启命令,保存退出 @reboot /dts/dtsinstall/2.8.5/autorestart.sh /dts/dtsinstall/2.8.5/manager > /dts/dtsinstall/2.8.5/restart.log 2>&1
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        数据传输服务模块安装部署
      • 强制访问权限控制
        本页介绍天翼云TeleDB数据库中强制访问控制。 强制访问是基于自定义的安全策略最终通过标签实现对用户和表的行级安全加密。安全策略(Policy)是等级(Level)和隔离区(Compartment),组(Group)和标签(Label)的集合,最终通过绑定标签实现行级安全。其实现原理是将表和用户绑定到标签上,再由标签关联等级(必选),隔离区(可选)和安全组(可选),形成了一个多级的行级安全加密体系。 安全策略(Policy):是指创建等级(Level),隔离区(Compartment),组(Group)和标签(Label)必须指定所属的安全策略。 等级(Level):提供第二等级的安全控制,标签必须指定等级。 隔离区(Compartment):提供第二等级的安全控制,可选。 组(Group):提供第三等级的安全控制,一种树状的结构,可选。 标签(Label):最终通过标签绑定体现行级安全。仅当用户被赋予的标签比此行标签有相同或更高等时,该行才可以被用户存取。 注意 分号(:)和逗号(,)保留用于多级安全体系的表达,安全策略中组件的名字不要使用。 在Teledb中,创建安全策略需要通过teledbxmls插件,需要创建插件 SQL CREATE EXTENSION teledbxmls; 安全策略 通过MLSCLSCREATEPOLICY()函数创建安全策略 SQL SELECT MLSCLSCREATEPOLICY(policyname, policyid) 参数描述: policyname(策略名称): 要创建的策略的名称,大小写敏感,不可以空。 policyid(策略ID): 用于标识策略的唯一ID,取值范围[1, 100]。 安全等级(Level) 通过函数MLSCLSCREATELEVEL()函数创建安全等级。 SQL SELECT MLSCLSCREATELEVEL(policyname, levelid, shortname, longname) 参数描述: policyname(策略名称): 指定要添加安全级别的策略名称,不可以为空。 levelid(级别ID): 用于标识安全级别的唯一ID,取值范围[0, 32767]。 shortname(名称): 安全级别的名称,大小写敏感,不可为空,不可以含空格和tabj键。 shortname(名称): 安全级别的名称,大小写敏感,不可为空,不可以含空格和tabj键。 longname(完整名称): 安全级别的描述。 通过MLSCLSALTERLEVELDESCRIPTION()函数修改等级的标签描述。 SQL SELECT MLSCLSALTERLEVELDESCRIPTION(policyname, levelid, longname) 安全隔离区(Compartment) 通过MLSCLSCREATECOMPARTMENT()函数创建安全隔离区(Compartment)。 SQL SELECT MLSCLSCREATECOMPARTMENT(policyname, compartmentid, shortname, longname) 参数 描述 : policyname(策略名称): 指定要添加安全隔离区的策略名称。 compartmentid(隔离区ID): 用于标识安全隔离区的唯一ID,取值范围[0, 32767]。 shortname(简称): 安全隔离区的简称。 longname(完整名称): 安全隔离区的完整名称。 安全组(Group) 通过MLSCLSCREATEGROUPROOT()函数创建新的安全组根节点(Group Root) SQL SELECT MLSCLSCREATEGROUPROOT(policyname, rootid, shortname, longname) 参数描述: policyname(策略名称): 指定要创建安全组根节点的策略名称。 rootid(根节点ID): 用于标识安全组根节点的唯一ID。 shortname(简称): 安全组根节点的简称。 longname(完整名称): 安全组根节点的完整名称。 通过MLSCLSCREATEGROUPNODE()函数在数据库中创建新的安全组子节点(Group Node)并将其设置为指定父节点的子节点。 SQL SELECT MLSCLSCREATEGROUPNODE(policyname, childid, shortname, longname, parentshortz) 参数描述: policyname(策略名称): 指定要创建安全组子节点的策略名称。 childid(子节点ID): 用于标识安全组子节点的唯一ID。 shortname(简称): 安全组子节点的简称。 longname(完整名称): 安全组子节点的完整名称。 parentshortname(父节点简称): 安全组子节点所属的父节点的简称。 标签(LABEL) 通过MLSCLSCREATELABEL()函数创建或替换MLS 策略的标签(label),并将其存储到数据库中。 SQL SELECT MLSCLSCREATELABEL(policyname, labelid, labelstr) 参数描述: policyname(策略名称): 指定要添加标签的策略名称。 labelid(标签ID): 用于标识标签的唯一ID,取值范围[0, 32767]。 labelstr(标签名): 标签,不可为空,长度不超过256。由 ,其compartmentids和groupids由1到N个ID构成,ID间用,分割。有效的表达形式如下: levelid:compartmentid1,compartmentid2,...compartmentidN:groupid1,groupid2,...groupidN levelid:compartmentid:groupid levelid:compartmentid: levelid::groupid levelid:: 表标签绑定 通过MLSCLSCREATETABLELABEL()函数将指定标签绑定到指定的表(Table),并将相关数据存储到pgclstable系统表。 SQL SELECT MLSCLSCREATETABLELABEL(policyname labelid, schemaname, tablename) 参数描述: policyname(策略名称): 指定要应用的策略名称。 labelid(标签ID): 要应用于表的标签ID,取值范围[0, 32767]。 schemaname(模式名称): 表所在的模式名。 tablename(表格名称): 要应用标签的表名。 通过MLSCLSDROPTABLELABEL()函数删除绑定到表上的标签并更新pgclstable系统表数据。 SQL MLSCLSDROPTABLELABEL(policyname, schemaname, tablename) 用户标签绑定/删除 通过MLSCLSCREATEUSERLABEL()函数为指定的用户创建一个带有默认标签的用户账户,并将其存储到 pgclsuser 表中。 SQL SELECT MLSCLSCREATEUSERLABEL(policyname, username name, defreadlabel, defwritelabel, defrowlabel) 参数描述: policyname(策略名称): 指定要应用的策略名称。 username(用户名): 要创建标签的用户账户名称。 defreadlabel(默认读标签): 为用户定义的默认读标签ID。 defwritelabel(默认写标签): 为用户定义的默认写标签ID。 defrowlabel(默认行标签): 为用户定义的默认行标签ID。 通过MLSCLSDROPUSERLABEL()函数为指定用户删除标签,并将pgclsuser 表中指定用户的标签删除,且断开指定用户当前所有的数据库连接。 SQL SELECT MLSCLSDROPUSERLABEL(username) 参数描述: username(用户名): 要删除指定用户标签的用户账户名称。 示例: 初始化环境 SQL c mlsadmin 创建安全策略 select MLSCLSCREATEPOLICY('rlspolicy', 66); 创建安全等级 select MLSCLSCREATELEVEL('rlspolicy', 10, 'defaultlevel', 'default Level'); select MLSCLSCREATELEVEL('rlspolicy', 10, 'userlevel', 'user Level'); select MLSCLSCREATELEVEL('rlspolicy', 9, 'badlevel', 'bad Level'); select MLSCLSCREATELEVEL('rlspolicy', 100, 'goodlevel', 'good Level'); 创建隔离区 select MLSCLSCREATECOMPARTMENT('rlspolicy', 30, 'rlscom0', 'RLS compartment 0'); select MLSCLSCREATECOMPARTMENT('rlspolicy', 31, 'rlscom1', 'RLS compartment 1'); select MLSCLSCREATECOMPARTMENT('rlspolicy', 32, 'rlscom2', 'RLS compartment 2'); 创建安全组 select MLSCLSCREATEGROUPROOT('rlspolicy', 50, 'root', 'group root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 51, 'child1', 'child of root node 1', 'root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 52, 'child2', 'child of root node 2', 'root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 511, 'child11', 'child of child1 node 1', 'child1'); select MLSCLSCREATEGROUPNODE('rlspolicy', 512, 'child12', 'child of child1 node 2', 'child1'); 创建安全标签,此时和安全等级,隔离区以及安全组进行绑定 select MLSCLSCREATELABEL('rlspolicy', 1024, 'defaultlevel:rlscom0:child12'); 将标签绑定到表 alter table public.tbl1 add column cls clsitem default '99:1024'; select MLSCLSCREATETABLELABEL('rlspolicy', 1024, 'public', 'tbl1'); 安全等级 SQL select MLSCLSCREATELABEL('rlspolicy', 1025, 'userlevel::'); select MLSCLSCREATELABEL('rlspolicy', 1026, 'badlevel::'); select MLSCLSCREATELABEL('rlspolicy', 1027, 'goodlevel::'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 1024, 1024, 1024); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 1025, 1025, 1025); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 1026, 1026, 1026); select MLSCLSCREATEUSERLABEL('rlspolicy', 'goodgodlike1', 1027, 1027, 1027); SQL c godlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:1024 2 2 66:1024 3 3 66:1024 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 当前用户不在隔离区,无法看到godlike1用户创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 (3 rows) SQL c badgodlike1 低优先级的用户无法看到高优先级的用户插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ (0 rows) SQL insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 低优先级用户可以看到自己创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 7 7 66:1026 8 8 66:1026 9 9 66:1026 (3 rows) SQL c goodgodlike1 高优先级用户可以看到低优先级用户创建的数据 同时无法看到隔离区的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 (6 rows) SQL insert into public.tbl1 select generateseries(10,12), generateseries(10,12); select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 10 10 66:1027 11 11 66:1027 12 12 66:1027 (9 rows) SQL c godlike1 高优先级用户可以看到比自己低优先级用户创建的数据 无法看到比自己优先级高的用户创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:1024 2 2 66:1024 3 3 66:1024 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 (9 rows) SQL c commonuser0 select from public.tbl1 order by col1; col1 col2 cls ++ (0 rows) 安全隔离区 SQL c mlsadmin select MLSCLSDROPUSERLABEL('godlike1'); select MLSCLSDROPUSERLABEL('godlike2'); select MLSCLSDROPUSERLABEL('badgodlike1'); select MLSCLSDROPUSERLABEL('goodgodlike1'); 创建安全标签,并绑定隔隔离区 select MLSCLSCREATELABEL('rlspolicy', 2048, 'defaultlevel:rlscom0:'); select MLSCLSCREATELABEL('rlspolicy', 2049, 'defaultlevel:rlscom0,rlscom1,rlscom2:'); select MLSCLSCREATELABEL('rlspolicy', 2050, 'defaultlevel:rlscom1,rlscom2:'); select MLSCLSCREATELABEL('rlspolicy', 2051, 'defaultlevel:rlscom0,rlscom2:'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 2048, 2048, 2048); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 2049, 2049, 2049); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 2050, 2050, 2050); select MLSCLSCREATEUSERLABEL('rlspolicy', 'goodgodlike1', 2051, 2051, 2051); SQL c godlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 当前用户所在隔离区含godlike1用户隔离区,可以看到godlike1的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 4 4 66:2049 5 5 66:2049 6 6 66:2049 (6 rows) SQL c badgodlike1 insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 当前用户所在隔离区无法包含前面用户的隔离区,无法看到他们插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 7 7 66:2050 8 8 66:2050 9 9 66:2050 (3 rows) SQL c goodgodlike1 insert into public.tbl1 select generateseries(10,12), generateseries(10,12); 相同等级,godlike1的隔离区是当前的子集,当前用户可以看到godlike1插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 10 10 66:2051 11 11 66:2051 12 12 66:2051 (6 rows) SQL c godlike2 当前用户含rlscom0,rlscom1,rlscom2三个隔离区可以看到之前插入的所有数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 4 4 66:2049 5 5 66:2049 6 6 66:2049 7 7 66:2050 8 8 66:2050 9 9 66:2050 10 10 66:2051 11 11 66:2051 12 12 66:2051 (12 rows) 安全组 SQL c mlsadmin select MLSCLSDROPUSERLABEL('godlike1'); select MLSCLSDROPUSERLABEL('godlike2'); select MLSCLSDROPUSERLABEL('badgodlike1'); select MLSCLSDROPUSERLABEL('goodgodlike1'); 创建安全标签,并绑定用户组 select MLSCLSCREATELABEL('rlspolicy', 4096, 'defaultlevel:rlscom0:root'); select MLSCLSCREATELABEL('rlspolicy', 4097, 'defaultlevel:rlscom0:child1'); select MLSCLSCREATELABEL('rlspolicy', 4098, 'defaultlevel:rlscom0:child11,child12'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 4096, 4096, 4096); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 4097, 4097, 4097); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 4098, 4098, 4098); SQL c badgodlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 安全组根节点可以看到子节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 4 4 66:4097 5 5 66:4097 6 6 66:4097 (6 rows) SQL c godlike1 insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 安全组根节点可以看到所有子节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 4 4 66:4097 5 5 66:4097 6 6 66:4097 7 7 66:4096 8 8 66:4096 9 9 66:4096 (9 rows) SQL c badgodlike1 子节点 无法看到根节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 (3 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        访问控制
        强制访问权限控制
      • 创建卷
        参数 参数 描述 n LUNNAME 或 name LUNNAME 设置卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 p CAPACITY 或 capacity CAPACITY 设置卷容量。 取值:整数形式,数字后面可以输入单位简写G/g、T/t或P/p,分别代表GiB、TiB、PiB,如果不输入,默认为GiB。 如果单位是GiB,取值为[1, 1048576]。 如果单位是TiB,取值为[1, 1024]。 如果单位是PiB,取值为1。 t TARGETNAME 或 target TARGETNAME 指定iSCSI Target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时,如果指定的iSCSI Target名称不存在,那么同时创建iSCSI Target,新创建iSCSI Target的回收策略默认为Delete。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI Target名称已经存在,且指定的服务器必须是iSCSI Target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 选择卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应Target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应Target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端–单机版、Linux 客户端 – 单机版。 默认值为ActiveStandby(as)。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 redundancyoverlap REDUNDANCYOVERLAP 指定卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC模式,取值范围是[1, N+M],默认值为1。 ecfragmentsize ECFRAGEMENTSIZE 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 o SECTORSIZE 或 sectorsize SECTORSIZE 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4096;单次I/O操作的数据大小接近512 bytes,则推荐选择512。如果对接VMware等虚拟化平台,则推荐选择512 bytes。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 P PATH 或 path PATH 指定存储卷数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为Local。 cloudprovider CLOUDPROVIDER 对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 B BUCKETNAME 或 bucket BUCKETNAME 已存在的存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 A ACCESSKEY 或 ak ACCESSKEY 对象存储服务的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 对象存储服务的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置数据在对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 E ENDPOINT 或 endpoint ENDPOINT 设置对象存储的Endpoint。 注意 Endpoint必须与所使用的对象存储服务一一对应:若使用OOS对象存储服务,需填写OOS的Endpoint;若使用兼容S3的其他对象存储服务,则需填写它的Endpoint。 如果仅输入域名将会使用HTTPS协议进行访问。 具体OOS Endpoint详见OOS Endpoint和区域。 signversion VERSION 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 表示Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为Enabled(on)。 O OBJECTSIZE 或 objectsize OBJECTSIZE 数据存储在对象存储中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 X PREFIX 或 prefix PREFIX 设置对象存储中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 qosname QOSNAME 指定QoS策略名称。 说明 创建卷时,如果指定QoS策略名称不存在,那么同时创建QoS策略,新创建的QoS策略的回收策略默认为Delete。 对于集群版,不指定QoS策略时: 如果卷的缓存存储池和存储池同时存在,卷的QoS策略为缓存存储池设置的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 如果卷只有存储池,卷的QoS策略为存储池设置的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 取值:字符串形式,长度范围1~64,只能由字母、数字和短横线()组成,区分大小写,且仅支持以字母或数字开头。 注意 如果没有指定QOSNAME ,但是设置了IOPS/Bps中的任何一个参数,则根据IOPS/Bps自动创建一个QoS策略,系统为策略名赋值:lunlunnameqostimestamp。 如果指定了QOSNAME 以及IOPS/Bps中的任何一个参数,则QOSNAME不能与已存在的QoS策略重名。 如果指定了QOSNAME ,没有设置IOPS/Bps中的任何一个参数,则QOSNAME需要为已存在的QoS策略名称。 iops IOPS 每秒能够进行读写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 readiops READIOPS 每秒能够进行读操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 writeiops WRITEIOPS 每秒能够进行写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 bps BPS 每秒可传输数据量的最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 readbps READBPS 读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 writebps WRITEBPS 写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 iopsburst IOPSBURST 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:整数形式。只有当iops IOPS 大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 readiopsburst READIOPSBURST 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:整数形式。只有当readiops READIOPS 大于等于1时,此项设置为1或(READIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 writeiopsburst WRITEIOPSBURST 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:整数形式。只有当writeiops WRITEIOPS 大于等于1时,此项设置为1或(WRITEIOPS 999999999]内的正整数方可生效。默认值为1,表示不限制。 bpsburst BPSBURST 使用Burst功能时,每秒可传输的数据量最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当bps BPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(BPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(BPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(BPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(BPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(BPS, 3]内的正整数。 readbpsburst READBPSBURST 使用Burst功能时,读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当readbps READBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(READBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(READBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(READBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(READBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(READBPS, 3]内的正整数。 writebpsburst WRITEBPSBURST 使用Burst功能时,写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当writebps WRITEBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(WRITEBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(WRITEBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(WRITEBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(WRITEBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(WRITEBPS, 3]内的正整数。 iopsburstsecs IOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readiopsburstsecs READIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在Read IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writeiopsburstsecs WRITEIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在Write IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 bpsburstsecs BPSBURSTSECS 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readbpsburstsecs READBPSBURSTSECS 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在Read BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writebpsburstsecs WRITEBPSBURSTSECS 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在Write BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建卷
      • 1
      • ...
      • 300
      • 301
      • 302
      • 303
      • 304
      • ...
      • 319
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      公共算力服务

      科研助手

      知识库问答

      人脸活体检测

      人脸比对

      推荐文档

      创建

      策略管理

      监控应用运行状态

      分析指标历史数据并导出监控报告

      Microsoft SQL Server

      导出数据

      产品功能

      玩转天翼云③:centos6和7通过snat实现上网

      产品续订

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号