云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      可视化大屏开发工具_相关内容
      • 使用存储子目录为工作负载提供存储
        本节介绍了云容器引擎的最佳实践:使用存储子目录为工作负载提供存储。 当需要将存储的特定子目录直接挂载至工作负载以实现高效数据存储时,云容器引擎提供了多种实现方式以支持该能力。 需求场景 当用户创建大容量文件存储时,为充分利用现有资源,可将不同子目录分配给多个工作负载使用。 若需实现数据层面的权限控制,可限制容器仅访问指定子目录。 对于习惯开源NFS使用方式的用户,可在已有文件存储基础上,通过为不同子目录创建独立的PVC并分配给对应工作负载,实现资源隔离。 每个工作负载拥有不同的子目录的方式便于管理,且可通过Pod名称区分子目录,提升运维效率。 方案选择 有以下两种方案: (1)复用现有存储:用户已有的存储对应一个PVC,无需额外创建PVC,可将同一PVC下的不同子目录分配给多个工作负载使用。 (2)动态分配子目录:用户使用海量文件存储时,每次可为不同工作负载动态分配一个子目录作为独立PVC。(注:此功能仅海量文件存储支持,其他存储产品不适用于子目录挂载场景。) 方案一:子目录挂载(多个子目录共享同一PVC) 在工作负载的数据存储配置界面,设置挂载路径为 /test,即存储卷将挂载至容器内的 /test 目录。子路径可选择 subPath 或 subPathExpr 模式。 subPath:简单直接,工作负载的所有副本均使用存储卷的同一子目录。 subPathExpr:支持通过环境变量动态调整子目录路径,实现同一工作负载中不同副本使用独立子目录。 若选择 subPath,直接填写子目录名称即可;若目录不存在,K8S会自动创建。若选择 subPathExpr,需按以下方式配置: 在第二个绿色箭头所指的框中,根据实际需求填写路径表达式。例如可使用 $(PODNAMESPACE)/$(PODNAME) 或 $(PODNAME),也支持自定义格式。此处以 $(PODNAMESPACE)/$(PODNAME) 为例,需确保相关变量已在环境变量中预先定义。 根据以上示例,红框处需正确填写变量名,绿框处需选择变量值的来源。即从Pod的metadata.name字段获取PODNAME变量值,从metadata.namespace字段获取PODNAMESPACE变量值,并组合为存储的子目录路径。 例如:一个两副本的无状态工作负载位于命名空间cstor下,Pod名称分别为podA和podB。按此配置后,一个副本会将PVC对应存储下的cstor/podA子目录挂载至容器内的/test路径,另一副本则挂载cstor/podB子目录至相同路径。 若通过工作负载的YAML文件实现,相关字段配置如下: plaintext volumeMounts: name: workdir1 mountPath: /logs subPathExpr: $(PODNAMESPACE)/$(PODNAME) yaml的env的设置如下: plaintext spec: containers: name: container1 env: name: PODNAME valueFrom: fieldRef: apiVersion: v1 fieldPath: metadata.name name: PODNAMESPACE valueFrom: fieldRef: apiVersion: v1 fieldPath: metadata.namespace
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        存储
        使用存储子目录为工作负载提供存储
      • 使用OpenSearch实例向量检索功能增强搜索能力
        本文为您介绍如何使用OpenSearch实例中的向量检索能力,增强实例的搜索能力。 概述 向量检索(Vector Search)是OpenSearch 的高级功能,它允许用户在高维向量空间中进行相似性搜索。这一功能不仅基于传统的关键词匹配,还支持通过向量表示的方式来处理更复杂的查询场景,例如自然语言处理、推荐系统和计算机视觉等。 天翼云云搜索服务开通的OpenSearch集群通过集成近似最近邻(ANN)搜索算法,确保在大规模数据集上实现高效、精准的向量检索,使用户可以快速找到与查询向量最相似的结果。 前提条件 已开通天翼云云搜索服务OpenSearch 集群。 OpenSearch 版本支持KNN向量检索功能(当前版本默认支持)。 本地环境已配置好API访问权限,且能够通过 API 与集群通信。 操作步骤 1. 创建支持向量检索的索引。在OpenSearch中,可以通过以下命令创建一个启用了KNN功能的索引,用于向量检索: PUT myknnindex1 { "settings": { "index": { "knn": true, "knn.algoparam.efsearch": 100 } }, "mappings": { "properties": { "category": { "type": "keyword" }, "brand": { "type": "keyword" }, "style": { "type": "keyword" }, "myvector": { "type": "knnvector", "dimension": 3 } } } } knn: 设置为 true 以启用向量检索功能。 dimension: 指定向量的维度,这里设置为 3。 2. 插入向量数据。创建好索引后,可以通过以下命令插入具有向量字段的数据: PUT myknnindex1/doc/1 { "category": "electronics", "brand": "brandA", "style": "modern", "myvector": [0.5, 0.8, 0.3] } PUT myknnindex1/doc/2 { "category": "furniture", "brand": "brandB", "style": "vintage", "myvector": [0.2, 0.4, 0.7] } PUT myknnindex1/doc/3 { "category": "clothing", "brand": "brandC", "style": "casual", "myvector": [0.9, 0.1, 0.6] } 3. 执行向量检索查询。数据插入完成后,可以通过向量进行检索。以下是一个查询示例,它将基于向量 [0.5, 0.8, 0.3] 进行KNN搜索,并返回最相似的2条记录: POST myknnindex1/search { "size": 10, "query": { "knn": { "myvector": { "vector": [0.5, 0.8, 0.3], "k": 2 } } } } vector: 要进行相似性检索的向量值。 k: 返回与查询向量最相似的k个结果,此例中为2。 4. 查询返回结果示例。以下为检索后的返回结果,其中包含与查询向量最相似的数据文档及其相似度得分(score): { "took" : 200, "timedout" : false, "shards" : { "total" : 1, "successful" : 1, "skipped" : 0, "failed" : 0 }, "hits" : { "total" : { "value" : 3, "relation" : "eq" }, "maxscore" : 1.0, "hits" : [ { "index" : "myknnindex1", "id" : "1", "score" : 1.0, "source" : { "category" : "electronics", "brand" : "brandA", "style" : "modern", "myvector" : [0.5, 0.8, 0.3] } }, { "index" : "myknnindex1", "id" : "2", "score" : 0.7092199, "source" : { "category": "furniture", "brand": "brandB", "style": "vintage", "myvector": [0.2, 0.4, 0.7] } } ] } } 通过这些步骤,用户可以在OpenSearch集群中轻松实现基于向量的相似性搜索功能,支持高效处理海量数据并提升搜索体验。
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        使用OpenSearch实例搜索数据
        使用OpenSearch实例向量检索功能增强搜索能力
      • 安全基础配置
        在设置Web安全防护功能之前,您需要先进行安全基础配置。 前提条件 已开通Web应用防火墙(边缘云版)。 已新增域名并成功接入WAF,具体操作请见WAF接入 操作步骤 1. 登录Web应用防火墙(边缘云版)控制台 2. 在左侧导航栏中选择【域名管理】—【域名列表】,选择您要防护的域名,单击操作列【安全防护】 3. 进入【安全基础配置】页面 配置说明 配置项 说明 防护模式 防护模式:域名防护开关,为防护功能的全局按钮,用于控制功能是否生效 开启:开启web防护 关闭:关闭web防护,策略不生效 处理动作 处理动作:全局处理动作 拦截:当处理动作为拦截时,各防护功能的处理动作依照其配置生效; 告警:当处理动作为告警时,各防护功能的处理动作如果配置为拦截,则也生效为告警。 漏洞防护配置 设置漏洞防护配置,根据下拉提示选择适配网页业务的模板 全量防护规则集:适用于重保等级高,且允许一定程度误报的业务场景。该漏洞规则集防护包含全量规则,绝大部分规则处理动作为拦截(网站防护模式为拦截时则直接进行拦截),容易出现误报,请谨慎选择; 敏感防护规则集:适用于常规网站,且允许少量误报的业务场景。该漏洞规则集防护等级较为严格,容易误报的规则处理动作为告警,其他规则处理动作为拦截(网站防护模式为拦截时则直接进行拦截),存在一定误报可能性; 宽松防护规则集:适用于常规网站,允许存在一定漏报的业务场景。该漏洞规则集防护等级较为宽松,关闭容易产生误报的规则,则可能存在一定漏报,接入后请及时关注; PHP防护规则集:适用于后台开发语言为PHP的网站业务。该漏洞规则集主要针对后台语言为PHP进行制定,关闭其他容易产生误报的规则,接入后请及时关注; JAVA防护规则集:适用于后台开发语言为JAVA的网站业务。该漏洞规则集主要针对后台语言为JAVA进行制定,关闭其他容易产生误报的规则,接入后请及时关注; 非PHP和JAVA防护集:适用于后台开发语言明确非PHP和JAVA网站业务。该漏洞规则集主要针对后台语言为非PHP和JAVA进行制定,关闭其他容易产生误报的规则,接入后请及时关注; 下载类业务规则集:适用于下载类业务,即包含zip、rar、tar、gz等下载类后缀的业务网站。该漏洞规则集主要针对下载类业务进行设定规则,关闭其他容易产生误报的规则,接入后请及时关注; 注意:域名刚接入时建议使用【敏感防护规则集】,能够适用于大部分常规网站 静态文件后缀 在【静态文件后缀】输入框中输入无需检测的文件后缀,多个用英文;分隔,输入并提交保存后,边缘云WAF将不对这些文件类型进行检测 默认值:css;js;pjpeg;flv;mp4;mp3;wmv;wma;avi;apk;rpm;deb;bin;ogg;mpg;mpeg;f4v;rm;3gp;img;cur;jpe;ico;msi;cab;pdf;aac;swc;doc;docx;xls;xlsx;ppt;pptx;rmvb;ipa;sis;xap;m3u8;ts;gif;jpg;jpeg;swf;png;bmp
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        操作指导
        概述
        安全基础配置
      • 创建参数模板
        说明:本章节会介绍如何创建参数模板 您可以使用数据库参数模板中的参数来管理数据库引擎配置。数据库参数模板就像是引擎配置值的容器,这些值可应用于一个或多个数据库实例。 创建关系型数据库实例时,暂不支持您主动选择参数模板,系统会自动为您的实例适配默认的数据库参数模板。该默认组包含数据库引擎默认值和系统默认值,具体根据引擎、计算等级及实例的分配存储空间而定。您无法修改默认数据库参数模板的参数设置,您必须创建自己的数据库参数模板才能更改参数设置的默认值。 并非所有数据库引擎参数都可在客户创建的数据库参数模板中进行更改。 如果您想使用您自己的数据库参数模板,只需创建一个新的数据库参数模板,创建实例的时候选择该参数模板,如果是在创建实例后有这个需求,可以重新应用该参数模板,请参见应用参数模板。 若您已成功创建数据库参数模板,并且想在新的数据库参数模板中包含该组中的大部分自定义参数和值时,复制参数模板是一个方便的解决方案,请参见复制参数模板。 以下是您在使用数据库参数模板中的参数时应了解的几个要点: 当您更改动态参数并保存数据库参数模板时,将立即应用更改。当您更改静态参数并保存数据库参数模板时,参数更改将在您手动重启数据库实例后生效。 在数据库参数模板内设置参数不恰当可能会产生意外的不利影响,包括性能降低和系统不稳定。修改数据库参数时应始终保持谨慎,且修改数据库参数模板前要备份数据。将参数模板更改应用于生产数据库实例前,您应当在测试数据库实例上试用这些参数模板设置更改。 关系型数据库和文档数据库服务不共享参数模板配额。 每个用户最多可以创建100个关系型数据库参数模板,各关系型数据库引擎共享该配额。 操作步骤 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 在“参数模板管理”页面,单击“创建参数模板”。 选择数据库引擎版本,命名并添加对该参数模板的描述,单击“确定”,创建参数模板。 选择该数据库引擎参数模板所需应用的参数模板类型。 参数模板名称长度在1~64个字符之间,区分大小写,可包含字母、数字、中划线、下划线或句点,不能包含其他特殊字符。 参数模板的描述长度不能超过256个字符,且不能包含回车和>!
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        参数模板管理
        创建参数模板
      • CREATE TABLE
        本页面介绍云数据库ClickHouse提供的本地表与分布式表两种建表方式。 云数据库ClickHouse建表语句基本语法如下: CREATE TABLE [IF NOT EXISTS] [db.]tablename ON CLUSTER cluster ( name1 [type1] [DEFAULTMATERIALIZEDALIAS expr1], name2 [type2] [DEFAULTMATERIALIZEDALIAS expr2], ... INDEX indexname1 expr1 TYPE type1(...) GRANULARITY value1, INDEX indexname2 expr2 TYPE type2(...) GRANULARITY value2 ) ENGINE enginename() [PARTITION BY expr] [ORDER BY expr] [PRIMARY KEY expr] [SAMPLE BY expr] [SETTINGS namevalue, ...]; 选项描述: db:指定数据库名称,如果当前语句没有包含‘db’,则默认使用当前选择的数据库为‘db’。 cluster:指定集群名称,目前固定为default。ON CLUSTER 将在每一个节点上都创建一个本地表。 type:该列数据类型,例如 UInt32。 DEFAULT:该列缺省值。如果INSERT中不包含指定的列,那么将通过表达式计算它的默认值并填充它。 MATERIALIZED:物化列表达式,表示该列不能被INSERT,是被计算出来的; 在INSERT语句中,不需要写入该列;在SELECT 查询语句结果集不包含该列。 ALIAS :别名列。这样的列不会存储在表中。 它的值不能够通过INSERT写入,同时使用SELECT查询星号时,这些列也不会被用来替换星号。 但是它们可以用于SELECT中,在这种情况下,在查询分析中别名将被替换。 物化列与别名列的区别: 物化列是会保存数据,查询的时候不需要计算,而别名列不会保存数据,查询的时候需要计算,查询时候返回表达式的计算结果。 以下选项与表引擎相关,只有MergeTree系列表引擎支持: PARTITION BY:指定分区键。通常按照日期分区,也可以用其他字段或字段表达式。 ORDER BY:指定排序键。可以是一组列的元组或任意的表达式。 PRIMARY KEY: 指定主键,默认情况下主键跟排序键相同。因此,大部分情况下不需要再专门指定一个 PRIMARY KEY 子句。 SAMPLE BY :抽样表达式,如果要用抽样表达式,主键中必须包含这个表达式。 SETTINGS:影响性能的额外参数。 GRANULARITY :索引粒度参数。 示例,创建一个本地表: CREATE TABLE ontimelocal ON CLUSTER default ( Year UInt16, Quarter UInt8, Month UInt8, DayofMonth UInt8, DayOfWeek UInt8, FlightDate Date, FlightNum String, Div5WheelsOff String, Div5TailNum String )ENGINE ReplicatedMergeTree( '/clickhouse/tables/{database}/{table}/{shard}', '{replica}') PARTITION BY toYYYYMM(FlightDate) PRIMARY KEY (intHash32(FlightDate)) ORDER BY (intHash32(FlightDate),FlightNum) SAMPLE BY intHash32(FlightDate) SETTINGS indexgranularity 8192 ; 说明 高可用集群(双副本),要用ReplicatedMergeTree等Replicated系列引擎,否则副本之间不进行数据复制,导致数据查询结果不一致。ReplicatedMergeTree创建的时只支持以下两种方式填写参数: ReplicatedMergeTree('/clickhouse/tables/{database}/{table}/{shard}', '{replica}') ,参数中的字符不允许修改。 ReplicatedMergeTree(),参数会自动默认填成和方式1一样。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        基本SQL语法
        CREATE TABLE
      • 备份迁移
        % ' AND SP.name NOT LIKE 'NT AUTHORITY%' AND SP.name NOT LIKE 'NT SERVICE%' AND SP.name NOT IN ('rdsadmin','rdsbackup','rdsuser','rdsmirror','public') 步骤 2 执行步骤 1 脚本可获取如下执行脚本。 图 获取执行脚本 步骤 3 复制步骤 2 中的执行脚本在目标端直接执行,创建出来的Login账号跟原实例密码一致。 步骤 4 将新建的Login账号跟用户当前RDS SQL Server实例上的迁移过来的数据库用户权限进行映射(mapping),以保证该账号在当前实例上的权限一致性,执行脚本如下。 declare @DBName nvarchar(200) declare @Loginname nvarchar(200) declare @SQL nvarchar(MAX) set @Loginname 'TestLogin7' //输入Login名称逐个执行 declare DBNameCursor cursor for select quotename(name)from sys.databases where databaseid > 4 and state 0 and name not like '%$%' and name <> 'rdsadmin' open DBNameCursor fetch next from DBNameCursor into @DBName WHILE @@FETCHSTATUS 0 begin SET @SQL' USE '+ (@DBName)+ ' if exists(select top 1 1 from sys.sysusers where name '''+ @LoginName +''') begin ALTER USER '+@Loginname+' with login '+@Loginname+'; end ' print @SQL EXEC (@SQL) fetch next from DBNameCursor into @DBName end close DBNameCursor deallocate DBNameCursor 以上脚本执行完成后,用户即可在自己的新实例上看到同名的登录账号,并且密码跟权限是完全跟本地一致的。 DBLink连接 DBLink连接指SQL Server支持用户通过创建DBLink连接的方式,跟外部实例上的数据库进行交互,这种方式可以极大的方便用户不同实例间,不同数据库类型之间的数据库查询,同步,比较,所以大部分用户都会在本地实例上用到该服务,但是迁移上云后,本地DBLink是不会自动同步到云上实例的,还需要简单的手动进行同步。 步骤 1 通过微软提供的官方Microsoft SQL Server Management Studio客户端工具连接本地实例与云上实例,同时在“服务器对象> 链接服务器”下找到当前实例的DBLink链接。 图 查看DBLink链接 步骤 2 选中链接服务器,然后按F7,会自动弹出对象资源管理信息页,在该页面中可以方便你快速的自动创建脚本。 图 自动创建脚本 步骤 3 在新窗口中,可以看到当前实例上所有DBLink的创建脚本,仅需复制该脚本到目标实例上,并修改@rmtpassword上的密码即可执行创建操作。 USE [master] GO / Object: LinkedServer [DRSTESTREMOTE] Script Date: 2019/5/25 17:51:50 / EXEC master.dbo.spaddlinkedserver @server N'DRSTESTREMOTE', @srvproductN'', @providerN'SQLNCLI', @datasrcN'DESKTOPB18JH5TSQLSERVER2016EE' / For security reasons the linked server remote logins password is changed with
        来自:
        帮助文档
        数据库复制
        常见问题
        备份迁移
      • 资源包计费
        本节主要介绍OBS的资源包计费。 资费标准 目前对象存储(Object Storage Service,OBS)尚不支持固定规格的资源包,目前仅支持自定义资源包,资源包费用的计算公式为:资源包费用订购资源包大小按需资源单价。 资源包说明 您也可以通过包年包月(资源包)的方式,提前购买使用额度和时长。超出资源包的部分自动转按需计费。 OBS暂不支持退订资源包,建议您在购买资源包前提前规划资源的使用额度和时长。 OBS提供的资源包如下表所示: 资源包 作用 使用限制 适用范围 标准存储包(单AZ存储) 用于抵扣单AZ桶产生的标准存储数据容量费用。 只适用于单AZ桶产生的标准存储数据容量计费,且只能用于资源包所属区域。 对象存储 并行文件系统 公网流出流量包 用于抵扣通过互联网从OBS下载标准存储类型的数据到本地所产生的公网流出流量费用。 只能用于资源包所属区域。单AZ和多AZ桶通用。 对象存储 并行文件系统 请求次数包 用于抵扣所有类型的请求次数。 无 对象存储 (不适用于并行文件系统) 资源包抵扣顺序 抵扣顺序原则 当购买了多个相同属性的资源包,会按照资源包过期时间顺序进行抵扣,优先抵扣过期时间近的资源包。 示例 场景 : 某客户分别购买了两个北京2区域的标准存储包(多AZ存储) 资源包A:规格100GB,2021年10月1日生效,购买时长2个月,即12月1日过期。 抵扣顺序 10月1日~10月9日 只有资源包A生效。 10月10日~11月30日 资源包A、B同时生效,叠加使用。 12月1日~12月9日 资源包A过期,只有资源包B生效。 12月10日~ 资源包A、B均已过期,此时为按需计费。 OBS包年包月(资源包)的注意事项: 1. OBS资源包各资源池需要单独订购,不可通用,资源包订购完即生效; 2. OBS资源包为自定义资源包,不享受包年优惠; 3. 其它不支持资源包的计费项依然按量计费; 4. 当月使用量超出已购买资源包的额度,计费模式将自动转为按需计费,新购资源包不能抵扣已产生的资源用量; 5. 资源包到期后,自动转为按需计费。按需计费没有到期的概念,只要保证帐号余额充足,则可一直使用OBS; 6. 资源包可叠加购买,不支持升级和退订。 当资源包即将到期、容量不足或有更大容量的资源包需求时,可以通过叠加购买实现资源包的容量扩大。OBS暂不支持直接扩容资源包。 叠加购买资源包后,会优先使用原购买资源包的容量。如在购买资源包前,已产生按需扣费,已按需使用的部分不可以使用新购买的资源包进行抵扣。建议您在资源包未到期或容量不足前,及时叠加购买资源包。 7. 资源包续订:资源包到期后,您可以进行续费以延长资源包的有效期。 8. 资源包退订:暂不支持退订资源包,请提前规划资源的使用额度和时长。
        来自:
        帮助文档
        对象存储 OBS
        计费说明
        资源包计费
      • 集群联邦网络
        注册集群接入联邦控制面网络 第一步:规划集群联邦实例部署网络环境 首先,需要清楚需要联邦调度的成员集群(注册集群)在天翼云上的资源池及VPC分布信息; 其次,规划集群联邦实例部署资源池、VPC及子网,其中联邦实例资源池应尽量与成员注册集群资源池相同,或和大部分成员集群资源池相同,这样可以避免大量跨资源池网络互通带来的带宽成本。同样,若资源池和VPC均相同,可进一步降低网络互通成本。 具体可按实际情况规划,不同的规划只影响联邦和成员集群间的互通网络成本,不影响相关功能的使用。 第二步:订购集群联邦,或加入已有集群联邦,基于默认策略打通联邦到注册集群网络 控制台顶部切换到规划的集群联邦资源池,然后进入【容器舰队】>【联邦管理】页面,点击【创建联邦】进入联邦实例订购页面。 订购页中,VPC和子网选择规划好的数据,舰队选择包含相关注册集群的舰队实例,其他按需配置即可。 然后根据指引提交订单,最终确保相关联邦实例状态处于【运行中】即可。 在联邦实例关联舰队的同时,CCEOne后台将主动尝试将成员集群和联邦控制面之间网络打通并进行注册。其不同场景下网络打通默认策略如下: 成员集群与联邦实例网络模式 默认互联策略 是否允许用户修改 可选互联策略 同资源池同VPC VPC内网直接互联 否 同资源池跨VPC VPCE:后台将尝试创建将成员集群APIServer地址,以内网VPCE IP方式暴露给联邦实例所在网络 否 跨资源池 默认公网互联 要求联邦实例所在VPC具备主动访问公网能力,同时成员集群APIServer有绑定EIP暴露公网,并放通了来自联邦实例VPC的公网请求 是 云间高速内网 第三步:联邦与成员集群间网络连通性校验与调整修复 进入联邦单实例控制台总览页面,最底部可切换列表或视图方式展示成员集群信息,包括成员集群与联邦实例网络互联方式及网络互联情况。 其中: 成员集群与联邦同资源池场景:不可修改 会基于是否同VPC区分展示VPCE或VPC内网互联,同时展示成员集群到联邦的注册情况。若注册状态异常,请检查成员集群本身服务是否正常,以及安全组是否有放通相关来源流量。 成员集群与联邦跨资源池场景:可修改 默认展示【公网】互联方式,同时会展示成员集群到联邦的注册状态;公网方式要求联邦VPC有配置NAT启用公网主动访问能力,同时成员集群APIServer有绑定公网EIP,并配置放通来自联邦的公网请求流量;若联邦注册状态异常,请检查集群状态是否正常以及网络配置是否符合要求。 若基于安全性或稳定性考虑,或联邦与成员集群本身已内网打通,此时用户可点击修改联通方式,可选【内网】。跨资源池内网互联,需要用户启用云间高速产品能力,将跨资源池的两个VPC内网打通。具体云间高速配置方式,请参考具体产品对应用户指引文档。 在用户调整跨资源池网络互联方式后,后台将周期性校验环境配置是否正确,并尝试再次将成员集群注册到联邦控制面中。稍等一会儿时间后,用户可以在控制台看到最新网络互联及注册状态信息。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        集群联邦
        集群联邦网络
      • 查询Elasticsearch SQL
        在6.5.4及之后版本中我们提供Open Distro for Elasticsearch SQL插件允许您使用SQL而不是Elasticsearch查询域特定语言(DSL)编写查询。 如果您已经熟悉SQL并且不想学习DSL查询,那么此功能是一个很好的选择。 基本操作 要使用该功能,需要将请求发送到opendistro/sqlURI。您可以使用请求参数或请求正文(推荐)。 GET from myindex limit 50 POST { "query": "SELECT FROM myindex LIMIT 50" } 您还可以使用curl命令: curl XPOST u username:password k d '{"query": "SELECT FROM kibanasampledataflights LIMIT 10"}' H 'ContentType: application/json' 默认情况下,查询返回JSON,但您也可以选择CSV格式返回数据,需要对format参数进行设置: POST opendistro/sql?formatcsv { "query": "SELECT FROM myindex LIMIT 50" } CSV格式返回数据时,每行对应一个文档,每列对应一个字段。 支持操作 我们支持的SQL操作包括声明、条件、聚合函数、Include和Exclude、常用函数、连接join和展示等操作。 声明statements 声明statements Statement Example Select SELECT FROM myindex Delete DELETE FROM myindex WHERE id1 Where SELECT FROM myindex WHERE ['field']'value' Order by SELECT FROM myindex ORDER BY id asc Group by SELECT FROM myindex GROUP BY range(age, 20,30,39) Limit SELECT FROM myindex LIMIT 50 (default is 200) Union SELECT FROM myindex1 UNION SELECT FROM myindex2 Minus SELECT FROM myindex1 MINUS SELECT FROM myindex2 说明 与任何复杂查询一样,大型UNION和MINUS语句可能会使集群资源紧张甚至崩溃。 条件Conditions 条件Conditions Condition Example Like SELECT FROM myindex WHERE name LIKE 'j%' And SELECT FROM myindex WHERE name LIKE 'j%' AND age > 21 Or SELECT FROM myindex WHERE name LIKE 'j%' OR age > 21 Count distinct SELECT count(distinct age) FROM myindex In SELECT FROM myindex WHERE name IN ('alejandro', 'carolina') Not SELECT FROM myindex WHERE name NOT IN ('jane') Between SELECT FROM myindex WHERE age BETWEEN 20 AND 30 Aliases SELECT avg(age) AS AverageAge FROM myindex Date SELECT FROM myindex WHERE birthday'19901115' Null SELECT FROM myindex WHERE name IS NULL 聚合函数Aggregation 聚合函数Aggregation Aggregation Example avg() SELECT avg(age) FROM myindex count() SELECT count(age) FROM myindex max() SELECT max(age) AS HighestAge FROM myindex min() SELECT min(age) AS LowestAge FROM myindex sum() SELECT sum(age) AS AgeSum FROM myindex Include和Exclude字段 Include和Exclude Pattern Example include() SELECT include('a'), exclude('age') FROM myindex exclude() SELECT exclude('name') FROM myindex 函数Functions 函数Functions Function Example floor SELECT floor(number) AS RoundedDown FROM myindex trim SELECT trim(name) FROM myindex log SELECT log(number) FROM myindex log10 SELECT log10(number) FROM myindex substring SELECT substring(name, 2,5) FROM myindex round SELECT round(number) FROM myindex sqrt SELECT sqrt(number) FROM myindex concatws SELECT concatws(' ', age, height) AS combined FROM myindex / SELECT number / 100 FROM myindex % SELECT number % 100 FROM myindex dateformat SELECT dateformat(date, 'Y') FROM myindex 说明 必须在文档映射中启用fielddata才能使大多数字符串函数正常工作。 连接操作Joins
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        查询Elasticsearch SQL
      • 开发SQL脚本
        本章节主要介绍开发脚本的开发SQL脚本功能。 对SQL脚本进行在线开发、调试和执行,开发完成的脚本也可以在作业中执行(请参见开发作业)。 前提条件 已开通相应的云服务并在云服务中创建数据库。Flink SQL脚本不涉及该操作。 已创建与脚本的数据连接类型匹配的数据连接,请参见新建数据连接。Flink SQL脚本不涉及该操作。 当前用户已锁定该脚本,否则需要通过“抢锁”锁定脚本后才能继续开发脚本。新建或导入脚本后默认被当前用户锁定,详情参见提交版本并解锁章节中的“编辑锁定功能”。 操作步骤 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3.在脚本目录中,双击脚本名称,进入脚本开发页面。 4.在编辑器上方,选择如下表所示的属性。创建Flink SQL脚本时请跳过此步骤。 SQL脚本属性 属性 说明 数据连接 选择数据连接。 数据库 选择数据库。 资源队列 选择执行DLI作业的资源队列。当脚本为DLI SQL时,配置该参数。如需新建资源队列,请参考以下方法: 单击,进入DLI的“队列管理”页面新建资源队列。 前往DLI管理控制台进行新建。 说明 DLI提供默认资源队列“default”,该资源队列不支持insert、load、cat命令。 如需以“key/value”的形式设置提交SQL作业的属性,请单击。最多可设置10个属性,属性说明如下: dli.sql.autoBroadcastJoinThreshold(自动使用BroadcastJoin的数据量阈值) dli.sql.shuffle.partitions(指定Shuffle过程中Partition的个数) dli.sql.cbo.enabled(是否打开CBO优化策略) dli.sql.cbo.joinReorder.enabled(开启CBO优化时,是否允许重新调整join的顺序) dli.sql.multiLevelDir.enabled(OBS表的指定目录或OBS表分区表的分区目录下有子目录时,是否查询子目录的内容;默认不查询) dli.sql.dynamicPartitionOverwrite.enabled(在动态分区模式时,只会重写查询中的数据涉及的分区,未涉及的分区不删除) 5.在编辑器中输入SQL语句(支持输入多条SQL语句)。 说明 需要注意,使用SQL语句获取的系统日期和通过数据库工具获取的系统日期是不一样,查询结果存到数据库是以YYYYMMDD格式,而页面显示查询结果是经过转换后的格式。 SQL语句之间以“;”分隔。如果其它地方使用“;”,请通过“”进行转义。例如: select 1; select from a where b"dsfa;"; example 1;example 2. 为了方便脚本开发,数据开发模块提供了如下能力: − 脚本编辑器支持使用如下快捷键,以提升脚本开发效率。 Ctrl + /:注释或解除注释光标所在行或代码块 Ctrl + S:保存 Ctrl + Z:撤销 Ctrl + Y:重做 Ctrl + F:查找 Ctrl + Shift + R:替换 Ctrl + X:剪切,光标未选中时剪切一行 Alt + 鼠标拖动:列模式编辑,修改一整块内容 Ctrl + 鼠标点选:多列模式编辑,多行缩进 Shift + Ctrl + K:删除当前行 Ctrl + →或Ctrl + ←:向右或向左按单词移动光标 Ctrl + Home或Ctrl + End:移至当前文件的最前或最后 Home或End:移至当前行最前或最后 Ctrl + Shift + L:鼠标双击相同的字符串后,为所有相同的字符串添加光标,实现批量修改 − 支持系统函数功能(当前Flink SQL、Spark SQL、ClickHouse SQL、Presto SQL不支持该功能)。 单击编辑器右侧的“系统函数”,显示该数据连接类型支持的函数,您可以双击函数到编辑器中使用。 − 支持可视化读取数据表生成SQL语句功能(当前Flink SQL、Spark SQL、ClickHouse SQL、Presto SQL不支持该功能)。 单击编辑器右侧的“数据表”,显示当前数据库或schema下的所有表,可以根据您的需要勾选数据表和对应的列名,在右下角点击“生成SQL语句”,生成的SQL语句需要您手动格式化。 − 支持脚本参数(当前仅Flink SQL不支持该功能)。 在SQL语句中直接写入脚本参数,调试脚本时可以在脚本编辑器下方输入参数值。如果脚本被作业引用,在作业开发页面可以配置参数值,参数值支持使用EL表达式(参见表达式概述)。 脚本示例如下,其中str1是参数名称,只支持英文字母、数字、“”、“”、“ ”,最大长度为16字符,且参数名称不允许重名。 > select ${str1} from data; 另外,对于MRS Spark SQL和MRS Hive SQL脚本的运行程序参数,除了在SQL脚本中参考语句“set hive.exec.paralleltrue;”配置参数,也可以在对应作业节点属性的“运行程序参数”中配置该参数。 详见下图:运行程序参数 − 支持设置脚本责任人 单击编辑器右侧的“脚本基本信息”,可设置脚本的责任人和描述信息。 6.(可选)在编辑器上方,单击“格式化”,格式化SQL语句。创建Flink SQL脚本请跳过此步骤。 7.在编辑器上方,单击“运行”。如需单独执行某部分SQL语句,请选中SQL语句再运行。SQL语句运行完成后,在编辑器下方可以查看脚本的执行历史、执行结果。Flink SQL脚本不涉及,请跳过该步骤。 说明 对于执行结果支持如下操作: 重命名:可通过双击执行结果页签的名称进行重命名,也可通过右键单击执行结果页签的名称,单击重命名。重命名不能超过16个字符。 可通过右键单击执行结果页签的名称关闭当前页签、关闭左侧页签、关闭右侧页签、关闭其它页签、关闭所有页签。 MRS集群为非安全集群、且未限制命令白名单时,在Hive SQL执行过程中,添加application name信息后,则可以方便的根据脚本名称与执行时间在MRS的Yarn管理界面中根据job name找到对应任务。需要注意若默认引擎为tez,则要显式配置引擎为mr,使tez引擎下不生效。 8.在编辑器上方,单击,保存脚本。 如果脚本是新建且未保存过的,请配置如下表所示的参数。 保存脚本 参数 是否必选 说明 脚本名称 是 脚本的名称,只能包含字符:英文字母、数字、中文、中划线、下划线和点号,且长度小于等于128个字符。 责任人 否 为该脚本指定责任人。默认为创建脚本的人为责任人。 描述 否 脚本的描述信息。 选择目录 是 选择脚本所属的目录,默认为根目录。 说明 如果脚本未保存,重新打开脚本时,可以从本地缓存中恢复脚本内容。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发SQL脚本
      • 容器镜像按需加速
        本文介绍了容器镜像按需加速的用户指南。 传统容器运行需要将全量镜像数据下载后再解包,然而容器启动可能仅使用其中部分的内容,导致容器启动耗时长。通过容器镜像服务企业版的按需加载功能,您可以在业务部署中使用加速镜像版本,实现镜像数据免全量下载和在线解压,大幅提升应用分发效率,享受极致的弹性体验。本文介绍如何按需加载容器镜像。 前置条件 已开通企业版镜像服务 已开通云容器引擎集群 背景信息 通过按需加速功能,您可以在部署业务工作负载时使用加速镜像,实现镜像数据免全量下载和在线解压,大幅度提升应用分发效率,缩短容器启动时间,减少容器镜像所消耗的存储空间。加速效果与镜像大小以及网络等因素有关。 注意 在创建容器实例时,选用Containerd作为容器运行时的集群支持使用镜像加速,而对于选用Docker作为运行时的实例则不支持使用。 转换加速镜像 通过在镜像仓库或者在命名空间级别启用自动转换加速镜像,在上传镜像后会自动转换成加速镜像。镜像转换时间取决于镜像大小,对原始镜像不做任何变更改动。 转换后的加速镜像与原始镜像所在的命名空间及镜像仓库保持一致,仅镜像版本(即镜像的Tag)比原始镜像多增加了“accelerated”后缀。 注意 1.在已有命名空间或镜像仓库中开启镜像加速自动转换,所覆盖的命名空间或镜像仓库下的存量镜像则不会自动转换; 2.加速镜像会增加对象存储Bucket的使用量; 3.因加速镜像转换需要一定耗时,建议提前提前上传镜像,预留足够的转化时长,以免影响业务的发布时间,例如,转换 40GiB 的镜像大约耗时 30 分钟; 4.随着镜像容量增加,除了增加转换时长,同样也会增加转换失败的风险,建议转的镜像容量控制在60GiB以内。 1. 登录容器镜像控制台。 2. 在顶部菜单栏,选择所需资源池。 3. 在实例页面中选择指定的企业版实例。 4. 在命名空间中开启镜像加速:在企业版实例管理页面的左侧菜单上选择 "容器镜像" "命名空间"。在命名空间创建时,打开开启镜像加速开关,其余信息点填写完成后点击创建按钮。对于现存的命名空间,在命名空间列表中的开启镜像加速开关列中,打开开关。 5. 在镜像仓库中开启镜像加速:在企业版实例管理页面的左侧菜单上选择 "容器镜像" "镜像仓库"。在未开启镜像加速的命名空间下创建镜像仓库时,打开开启镜像加速开关,其余信息点填写完成后点击创建。对于现存的镜像仓库,在镜像仓库列表中,选择未开启镜像加速的命名空间下的镜像仓库,点击编辑,在编辑页面中打开开启镜像加速开关,然后点击更新按钮。 6. 在启用镜像加速的命名空间或者镜像仓库中上传镜像,稍等片刻后,在镜像仓库的版本列表页中查看到已经转换完成的带“accelerated”后缀的加速镜像,转换时间受镜像自身大小影响。
        来自:
        帮助文档
        容器镜像服务
        用户指南
        分发交付
        容器镜像按需加速
      • 操作指导
        功能 描述 首页 资产总量分布 统计资产总数及不同类型资产数目及占比。 统计主机风险资产、网站风险资产占比(风险等级非信息类资产)。 首页 弱点总量分布 统计当前发现的所有弱点数及根据不同弱点类型统计弱点数目。 首页 资产风险分布 从不同风险等级维度统计风险资产数量。 首页 风险主机TOP5 根据风险主机弱点数,列出风险数最多的5个主机资产。 首页 风险网站TOP5 根据风险网站的弱点数,列出风险数最多的5个网站资产。 首页 主机资风险/服务分布 统计主机资产出现次数最多的10个弱点、漏洞风险、服务类型、端口。 首页 网站资产风险/服务分布 统计网站资产出现次数最多的10个弱点、漏洞风险、服务类型。 首页 弱点发现趋势 按时间展示弱点的趋势状态,弱点的数据包括所有扫描类型的数据(不包含信息类漏洞)。 资产管理 资产列表 支持主机资产、网站资产两种类型。 支持新增、导入、导出、删除、编辑资产。 支持按照组织视角展示资产。 资产管理 授权管理 支持主机授权信息管理。 支数据库授信息管理。 任务管理 创建任务 支持创建通用任务、专项任务。 通用任务支持主机扫描、网站扫描、数据库扫描、基线配置核查、事件内容。 专项任务支持弱口令扫描、存活主机探测、大数据漏洞扫描、物联网漏洞扫描、信创漏洞扫描。 任务管理 任务列表 支持查看已下发的所有扫描任务,可对任务进行集中管理,包括查询任务、新增任务、执行任务等。 模板中心 漏洞模板 支持主机策略、网站策略、数据库策略管理。 支持新增、编辑、另存为、删除、查看策略。 支持使用自定义策略下发扫描任务。 模板中心 基线模板 支持工信部、公安部行业基线核查模板。 支持对应用程序、操作系统、网络设备、虚拟化设备、数据库五类资产的安全配置进行核查。 支持查看基线模板详情。 模板中心 扫描参数 支持设置主机扫描、网站扫描高级参数模板。 可根据需要设置与恢复默认扫描参数配置。 模板中心 字典模板 主机扫描和弱口令发现任务中引用的各协议弱口令字典。可自定义弱口令字典。 模板中心 报告模板 根据不同任务类型,设置离线报告导出的内容。 支持设置主机扫描报告、网站扫描报告、数据库扫描报告、基线核查报告、事件内容报告。 支持系统默认模板及自定义报告内容模板。 模板中心 端口列表 系统默认提供的端口列表模板。 报告管理 报告管理 支持对已扫描完成的任务导出离线报告。 支持对已导出报告进行下载。 系统管理 用户管理 支持角色管理及用户管理。 支持新增角色、编辑角色、删除角色。 支持新增用户,并指定用户角色。 系统管理 系统设置 提供系统服务、升级、数据备份等管理功能。 支持在线升级和离线升级。 支持系统SSH服务开启、系统重启、系统关闭、网卡重启操作。 支持设置系统时间。 支持根据需要备份系统数据。 系统管理 配置管理 提供网络配置、安全配置、告警配置、版权配置功能。 支持网卡设置、路由配置、DNS配置、网关配置。 支持密码安全复杂度、登录安全设置、超时设置、磁盘告警设置、多因子认证设置。 支持验证码登录、认证证书登录、用户名密码登录。 系统管理 引擎管理 支持对系统各个引擎状态进行查看与监控。 系统管理 常用工具 支持Ping、Traceroute、Dig、Telnet、SSH、CURL、Nmap命令工具。 系统管理 许可管理 支持查看许可授权内容及更新许可。
        来自:
        帮助文档
        云等保专区
        用户指南
        漏洞扫描
        操作指导
      • Kubernetes Dashboard
        issuecomment348912376 令牌方式登录 步骤 4 登录后效果,如下图。 Dashboard概览页 权限修改 安装Dashboard插件后初始角色仅拥有对大部分资源的只读权限,若想让Dashboard界面支持更多操作,需自行在后台对RBAC相关资源进行修改。 具体修改方式: 可对名为“kubernetesdashboardminimal”这个ClusterRole中的规则进行调整。 关于使用RBAC的具体细节可参看文档: 附:访问报错解决方法 使用Chrome浏览器访问时,会出现如下“ERRCERTINVALID”的报错导致无法正常进入登录界面,原因是dashboard默认生成的证书未通过Chrome校验,当前有以下两种解决方式: Chrome浏览器报错信息 方式一:使用火狐浏览器访问链接,为当前地址添加“例外”后即可进入登录页面。 方式二:通过启动Chrome时添加“ignorecertificateerrors”开关忽略证书报错。 Windows:保存链接地址,关闭所有已经打开的Chrome浏览器窗口,Windows键 +“R”弹出“运行”对话框,输入“chrome ignorecertificateerrors”启动新的chrome窗口,输入地址进入登录界面。 版本记录 CCE插件版本记录 插件版本 支持的集群版本 社区版本(仅1.17及以上版本集群支持) ::: 2.1.1 /v1.(192123)./ []( 2.0.10 /v1.(15171921)./ []( 2.0.4 /v1.(151719)./ []( 2.0.3 /v1.(151719)./ []( 2.0.2 /v1.(1719)./ []( 2.0.1 /v1.(1517)./ []( 2.0.0 /v1.(17)./ [](
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Kubernetes Dashboard
      • 购买
        参数名称 样例 说明 区域 选择实例的区域,不同区域的资源之间内网不互通。 选择区域时,您需要考虑以下几个因素: 地理位置一般情况下,建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。不过,在基础设施、BGP网络品质、资源的操作与配置等方面,中国大陆各个区域间区别不大,如果您或者您的目标用户在中国大陆,可以不用考虑不同区域造成的网络时延问题。曼谷等其他地区和国家提供国际带宽,主要面向非中国大陆地区的用户。如果您或者您的目标用户在中国大陆,使用这些区域会有较长的访问时延,不建议使用。 云服务之间的关系如果多个云服务一起搭配使用,需要注意不同区域的云服务内网不互通。例如数据治理中心(包括管理中心、CDM等组件)需要与MRS、OBS等服务互通时,如果数据治理中心与其他云服务处于不同区域的情况下,需要通过公网或者专线打通网络;而在同区域情况下,同子网、同安全组的不同实例默认网络互通。 资源的价格不同区域的资源价格可能有差异,请参见天翼云服务价格详情。 企业项目 default DataArts Studio实例关联的企业项目。企业项目管理是一种按企业项目管理云资源的方式,具体请参见《 版本 初级版 选择需要购买的数据治理中心版本,版本差异请参见 实例名称 数据治理中心test 自定义DataArts Studio实例名称。 可用区 可用区1 第一次购买DataArts Studio实例或批增量包时,可用区无要求。 再次购买DataArts Studio实例或增量包时,是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 虚拟私有云 vpc1 DataArts Studio实例中的批量数据迁移CDM集群所属的VPC、子网、安全组。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS、DIS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《 子网 subnet1 安全组 sg1 续费 勾选自动续费前的复选框,可实现自动按月或者按年续费。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        购买
      • 购买实例
        本节介绍了分布式消息服务RabbitMQ产品实例如何购买。 实例介绍 RabbitMQ实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占RabbitMQ实例,可根据业务需要可定制相应规格的RabbitMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1. 登录管理控制台。 2. 进入RabbitMQ管理控制台。 3. 在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 4. 点击“购买实例”跳转到购买页面,根据页面订购说明进行产品开通。 5. 下载安装工具Eclipse3.6.0以上上版本或者IntelliJ,JDK 1.8.111以上版本。 实例规格选择说明 以下规格选型适用于6个节点: 芜湖2、南京3、上海7、福州25、重庆2、北京5。 此6个节点可以选择普通版和高级版。 存储空间说明:目前基础版和高级版规格如下: 产品类型 产品规格 高级版本 三节点 8核16GB lvs节点 4核8GB总磁盘范围 300GB – 6000GB 基础版本 三节点 4核8G lvs节点 4核8GB总磁盘范围 300GB – 6000GB 在集群模式中,RabbitMQ需要对消息持久化写入到磁盘中,因为,您在创建RabbitMQ实例选择存储空间时,建议根据业务消息体积预估以及镜像队列副本数量选择合适的存储空间。镜像队列副本数最大为集群的节点数,目前都是3。 例如:业务消息体积预估100GB,则磁盘容量最少应为100GB3 + 预留磁盘大小100GB。 (1)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (2)区域默认为当前资源池,页面左上角切换区域。 (3)选择类型,用户可选高级版和基础版两个版本。其中高级版规格为8核16GB,适用于大型应用系统。基础版规格为4核8GB,适用于中、小型企业应用。 (4)服务节点数出于高可用考虑,默认3个。 (5)选择主机类型,包括2系列、3系列和6系列。主机类型详细内容请参见弹性云主机规格。 (6)选择存储空间,包括磁盘类型和空间。 磁盘类型默认提供普通IO。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以300G起步,可以以100倍数增加磁盘空间。 (7)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 (8)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (9)选择已有子网,若无子网,点击创建跳转到子网页面新增。 (10)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。 (11)选择购买时长,拖动选择112个月。 (12)勾选自动续订。按月购买:自动续订周期为1个月;按年购买:自动续订周期为1年。 (13)填写购买数量,单次最多可批量申请5个分布式消息服务。 以下规格选型适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点。 这些节点可选择通用型和计算增强型,具体情况如下: 主机类型 节点数(个) 实例规格 存储IO 存储空间GB 通用型 可选节点数:3/5/7/9 可选规格: 4核 8GB 8核 16GB 16核 32GB 可选IO规格: 普通IO(SATA) 高IO(SAS) 超高IO(SSD) 单节点10010000 计算增强型 可选节点数:3/5/7/9 可选规格: 4核 8GB 8核 16GB 16核 32GB 可选IO规格: 普通IO(SATA) 高IO(SAS) 超高IO(SSD) 单节点10010000 节点可选择3节点、5节点、7节点、9节点,实例规格可选择4C8G、8C16G、16C32G。 存储类型可选择普通IO(SATA)、高IO(SAS)、超高IO(SSD)。 (1)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 (2)选择引擎类型,默认选择云原生引擎,海量消息堆积能力,支持更多连接和队列数,稳定性高。也可选择rabbitmq引擎,完全支持开源RabbitMQ生态,功能完备。 (3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 (5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 (6)设置节点数,可选择3/5/7/9。RabbitMQ 的节点数是指 RabbitMQ 集群中的节点数量。在 RabbitMQ 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的 RabbitMQ 服务器实例。 (7)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 (8)选择实例规格,分布式消息服务RabbitMQ提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 (9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/普通IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 (10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (11)选择已有子网,若无子网,点击创建跳转到子网页面新增。 (12)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        购买实例
      • 创建Flink SQL作业
        本章节主要介绍创建Flink SQL作业 。 Flink SQL是一种由用户根据自己的逻辑需求编写作业的方式。用SQL表达业务逻辑,可以简便快捷的实现业务。目前Flink SQL作业支持两种Flink SQL语句编辑方式:SQL编辑器和可视化编辑器。本章节主要介绍使用SQL编辑器编写Flink SQL作业的方式。 前提条件 创建Flink SQL作业时,需要事先准备数据源以及数据输出通道,具体内容请参见准备Flink作业数据。 创建Flink SQL作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 1. 当前Flink作业支持访问的外部数据源详情请参考增强型跨源连接概述。 2. 创建跨源连接操作请参见增强型跨源连接。创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考测试地址连通性。 创建FLink SQL作业 1. 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入“Flink作业”页面。 2. 在“Flink作业”页面右上角单击“创建作业”,弹出“创建作业”对话框。 3. 配置作业信息。 详见下表:作业配置信息 参数 参数说明 类型 选择“Flink SQL”:用户通过编辑SQL语句来启动作业。 名称 作业名称,只能由字母、中文、数字、中划线和下划线组成,并且长度为1~57字节。 说明 作业名称必须是唯一的。 描述 作业的相关描述,长度为0~512字节。 模板名称 用户可以选择样例模板或自定义的作业模板。关于模板的详细信息,请参见Flink模板管理。 4. 单击“确定”,进入作业“编辑”页面。 5. 编辑SQL作业。 在SQL语句编辑区域,输入详细的SQL语句。相关SQL语句请参考《数据湖探索SQL语法参考》。 6. 单击“语义校验”,确保语义校验成功。 只有语义校验成功后,才可以执行“调试”或“启动”作业的操作。 如果校验成功,提示“SQL语义校验成功”。 如果校验失败,会在错误的SQL语句前面显示红色的“X”记号,鼠标移动到“X”号上可查看详细错误,请根据错误提示修改SQL语句。 7. 设置作业运行参数 参见下表:作业运行参数说明 参数 参数说明 所属队列 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 当所选择队列的剩余容量不能满足作业需求时,系统会自动扩容。当队列空闲时,系统也会自动缩容。 UDF Jar 选择“独享队列”时可配置该参数。 用户自定义UDF文件,在选择UDF Jar之前需要将对应的jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,具体操作请参考创建程序包。 用户可以在SQL中调用插入Jar包中的自定义函数。 CU数量 CU数量为DLI的计算单元数量和管理单元数量总和,1CU1核4G。 当前配置的CU数量为运行作业时所需的CU数,不能超过其绑定队列的CU数量。 管理单元 管理单元CU数量。 并行数 并行数是指同时运行Flink SQL作业的最大任务数。适度增加并行数会提高作业整体算力,但也须考虑线程增多带来的切换开销。 说明 最大并行数不能大于计算单元(CU数量管理单元)的4倍。 该界面并行数优先级低于代码中并行数设置。 TaskManager配置 用于设置TaskManager资源参数。 勾选后需配置下列参数: “单TM所占CU数”:每个TaskManager占用的资源数量。 “单TM Slot”:每个TaskManager包含的Slot数量。 OBS桶 选择OBS桶用于保存用户作业日志信息、checkpoint等信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 保存作业日志 设置是否将作业运行时的日志信息保存到OBS。日志信息的保存路径为:“桶名/jobs/logs/作业id开头的目录”。在作业列表中,单击对应的作业名称,在“运行日志”页签,可以单击页面提供的OBS链接跳转至对应的路径下。 注意 该参数建议勾选,否则作业运行完成后不会生成运行日志,后续如果作业运行异常则无法获取运行日志进行定位。 勾选后需配置下列参数: “OBS桶”:选择OBS桶用于保存用户作业日志信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 作业异常告警 设置是否将作业异常告警信息,如作业出现运行异常或者欠费情况,以SMN的方式通知用户。 勾选后需配置下列参数: “SMN主题”: 选择一个自定义的SMN主题。如何自定义SMN主题,请参见《消息通知服务用户指南》中“创建主题”章节。 开启Checkpoint 设置是否开启作业快照,开启后可基于Checkpoint(一致性检查点)恢复作业。 勾选后需配置下列参数: “Checkpoint间隔”:Checkpoint的时间间隔,单位为秒,输入范围1~999999,默认值为30s。 “Checkpoint模式”:支持如下两种模式: − At least once:事件至少被处理一次。 − Exactly once:事件仅被处理一次。 “OBS桶”:选择OBS桶用于保存用户Checkpoint。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 Checkpoint保存路径为:“桶名/jobs/checkpoint/作业id开头的目录”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 异常自动重启 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 勾选后需配置下列参数: “异常重试最大次数”:配置异常重试最大次数。单位为“次/小时”。 − 无限:无限次重试。 − 有限:自定义重试次数。 “从Checkpoint恢复”:需要同时勾选“开启Checkpoint”才可配置该参数。 空闲状态保留时长 用于清除GroupBy或Window经过最大保留时间后仍未更新的中间状态,默认设置为1小时。 脏数据策略 选择处理脏数据的策略。支持如下三种策略:“忽略”,“抛出异常”和“保存”。 说明 “保存”是指将脏数据保存到OBS桶中。 脏数据转储地址 “脏数据策略”选择“保存”时,配置该参数。单击地址框选择保存脏数据的OBS路径。 8. (可选)根据需要调试参数。作业调试功能只用于验证SQL逻辑,不会有数据写入操作。 具体操作请参见 调试Flink作业。 9. (可选)根据需要设置自定义配置。自定义配置为用户自定义。 10. 单击“保存”,保存作业和相关参数。 11. 单击“启动”,进入“启动Flink作业”页面,确认作业规格后,单击“立即启动”,启动作业。 启动作业后,系统将自动跳转到Flink作业管理页面,新创建的作业将显示在作业列表中,在“状态”列中可以查看作业状态。作业提交成功后,状态将由“提交中”变为“运行中”。运行完成后显示“已完成”。 如果作业状态为“提交失败”或“运行异常”,表示作业提交或运行失败。用户可以在作业列表中的“状态”列中,将鼠标移动到状态图标上查看错误信息,单击可以复制错误信息。根据错误信息解决故障后,重新提交。 说明 其他功能按钮说明如下: 另存为:将新建作业另存为一个新作业。 调试:对作业进行调试。具体操作请参见 格式化:对SQL语句进行格式化。 设为模板:将新创建的作业设置为作业模板。 主题设置:设置页面主题,可以设置字体大小,自动换行和页面风格。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink SQL作业
      • 创建实例
        安全组 安全组可重复使用,您也可以根据实际情况使用不同的安全组,请根据实际需要进行配置。 创建安全组的操作指导,请参考虚拟私有云创建安全组 若需要为安全组添加规则,请参考虚拟私有云安全组添加安全组规则 弹性公网IP(可选) 若需要通过公网访问RabbitMQ实例,则需要申请弹性公网IP,否则不需要申请弹性公网IP。申请弹性公网IP的操作指导请参考购买弹性IP 其他工具 下载安装工具Eclipse3.6.0以上版本或者IntelliJ,JDK 1.8.111以上版本。 购买实例 实例介绍 RabbitMQ实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占RabbitMQ实例,可根据业务需要可定制相应规格的RabbitMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 (1)登录管理控制台。 (2)进入RabbitMQ管理控制台。 (3)在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 (4)点击“购买实例”跳转到购买页面。 (5)实例规格选择 以下规格选型适用于6个节点: 芜湖2、南京3、上海7、福州25、重庆2、北京5。 此6个节点可以选择普通版和高级版。 存储空间说明:目前基础版和高级版规格如下: 产品类型 产品规格 高级版本 三节点 8核16GBlvs节点 4核8GB总磁盘范围 300GB – 6000GB 基础版本 三节点 4核8Glvs节点 4核8GB总磁盘范围 300GB – 6000GB 在集群模式中,RabbitMQ需要对消息持久化写入到磁盘中,因为,您在创建RabbitMQ实例选择存储空间时,建议根据业务消息体积预估以及镜像队列副本数量选择合适的存储空间。镜像队列副本数最大为集群的节点数,目前都是3。 例如:业务消息体积预估100GB,则磁盘容量最少应为100GB3 + 预留磁盘大小100GB。 1)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 2)区域默认为当前资源池,页面左上角切换区域。 3)选择类型,用户可选高级版和基础版两个版本。其中高级版规格为8核16GB,适用于大型应用系统。基础版规格为4核8GB,适用于中、小型企业应用。 4)服务节点数出于高可用考虑,默认3个。 5)选择主机类型,包括2系列、3系列和6系列。主机类型详细内容请参见弹性云主机规格。 6)选择存储空间,包括磁盘类型和空间。 磁盘类型默认提供普通IO。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以300G起步,可以以100倍数增加磁盘空间。 7)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 8)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 9)选择已有子网,若无子网,点击创建跳转到子网页面新增。 10)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。 11)选择购买时长,拖动选择112个月。 12)勾选自动续订。按月购买:自动续订周期为1个月;按年购买:自动续订周期为1年。 13)填写购买数量,单次最多可批量申请5个分布式消息服务。 以下规格选型适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点。 这些节点可选择通用型和计算增强型,具体情况如下: 主机类型 节点数(个) 实例规格 存储IO 存储空间GB 通用型 可选节点数:3/5/7/9 可选规格: 4核 8GB 8核 16GB 16核 32GB 可选IO规格: 普通IO(SATA) 高IO(SAS) 超高IO(SSD) 单节点10010000 计算增强型 可选节点数:3/5/7/9 可选规格: 4核 8GB 8核 16GB 16核 32GB 可选IO规格: 普通IO(SATA) 高IO(SAS) 超高IO(SSD) 单节点10010000 节点可选择3节点、5节点、7节点、9节点,实例规格可选择4C8G、8C16G、16C32G。 存储类型可选择普通IO(SATA)、高IO(SAS)、超高IO(SSD)。 1)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 2)选择引擎类型,默认选择云原生引擎,海量消息堆积能力,支持更多连接和队列数,稳定性高。也可选择rabbitmq引擎,完全支持开源RabbitMQ生态,功能完备。 3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 6)设置节点数,可选择3/5/7/9。RabbitMQ 的节点数是指 RabbitMQ 集群中的节点数量。在 RabbitMQ 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的 RabbitMQ 服务器实例。 7)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 8)选择实例规格,分布式消息服务RabbitMQ提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/普通IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (6)下单购买。 选择理解并接受《产品服务协议》,然后下一步订购支付完成购买。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        创建实例
      • Lua脚本规范
        本节主要介绍Lua脚本规范。 Lua是一种脚本语言,目的是为了嵌入应用程序中,为应用程序提供灵活的扩展和定制功能。GeminiDB Redis使用的是Lua5.1.5版本,与开源Redis5.0使用的Lua版本是一致的。 与开源Redis Lua的区别 1. EVAL/EVALSHA命令 命令格式: EVAL script numkeys key [key …] arg [arg …] EVALSHA sha1 numkeys key [key …] arg [arg …] 上述命令的语法与操作与开源Redis一致。用户需自己保证将脚本中使用到的Redis key显式的通过key参数传入,而不是直接在脚本中编码,并且如果带有多个key参数,则要求所有的key参数必须拥有相同的hash tag。 如果不遵循上述约束,则在Lua中执行涉及这些key的Redis操作时,可能会返回类似“partition not found”的错误信息。 2. SCRIPT命令 SCRIPT命令包含了一组管理Lua脚本的子命令,具体可以通过SCRIPT HELP命令查询具体的操作。 SCRIPT大部分命令都与开源Redis兼容,其中需要特别说明的命令如下: SCRIPT KILL GeminiDB Redis是多线程执行的环境,允许同时执行多个Lua脚本,执行SCRIPT KILL,会终止所有正在运行的Lua脚本。 为了方便使用,GeminiDB Redis扩展了SCRIPT KILL命令,用户可以通过‘SCRIPT KILL SHA1’来终止指定哈希值的脚本。若同一时间存在多个节点在执行哈希值相同的脚本,那么这些脚本都会被终止。 另外,由于用户无法设置Lua超时时间(config set luatimelimit),因此在任意时刻执行SCRIPT KILL都能直接终止脚本,而不是等待脚本超时后才终止。 SCRIPT DEBUG 目前GeminiDB Redis不支持DEBUG功能,所以该命令执行无效。 3. Lua脚本中执行Redis命令 与开源Redis一致,GeminiDB Redis的Lua环境中也提供了一个全局的“redis”表,用于提供各类和Redis Server交互的函数。 如下表为GeminiDB Redis目前支持和不支持的操作列表。 支持的操作 不支持的操作 redis.call() redis.pcall() redis.sha1hex() redis.errorreply() redis.statusreply() redis.log() redis.LOGDEBUG redis.LOGVERBOSE redis.LOGNOTICE redis.LOGWARNING redis.replicatecommands() redis.setrepl() redis.REPLNONE redis.REPLAOF redis.REPLSLAVE redis.REPLREPLICA redis.REPLALL redis.breakpoint() redis.debug() 4. Lua执行环境限制 开源Redis对Lua脚本的执行有一定的限制,比如限制脚本操作全局变量,限制随机函数的结果,限定能够使用的系统库和第三方库等。 GeminiDB Redis也继承了绝大多数的限制,但是针对如下情况,GeminiDB Redis与开源Redis存在差异: Write Dirty 开源Redis规定,如果某个脚本已经执行了写操作,那么就不能被SCRIPT KILL停止执行,必须使用SHUTDOWN NOSAVE来直接关闭Redis Server。 GeminiDB Redis不支持执行SHUTDOWN命令,因此这条限制不会被执行,用户仍然可以通过SCRIPT KILL来停止脚本的执行。 Random Dirty 由于主从复制的原因,开源Redis规定,若脚本执行了带有随机性质的命令(Time, randomkey),则不允许再执行写语义的命令。 例如,如下Lua脚本: local t redis.call("time") return redis.call("set", "time", t[1]); 当该脚本的执行传递到从节点时,Time命令获取到的时间一定晚于主节点,因此从节点执行的Set命令的值就会和主节点产生冲突。开源Redis引入了replicatecommands来允许用户决定这种场景下的行为模式。 对于GeminiDB Redis来说,由于没有主从的概念,数据在逻辑上只有一份,因此也就不存在该限制。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        实例开发规范与命令兼容
        Lua脚本规范
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • 安全运营中心
        本节介绍态势感知基本概念。 安全运营中心(Security Operations Center,SOC)一个集中式功能或团队,负责全天候检测端点、服务器、数据库、网络应用程序、网站和其他系统的所有活动,以实时发现潜在的威胁;对网络安全事件进行预防、分析和响应,以改进企业的网络安全态势。SOC还使用最新的威胁情报来掌握威胁组和基础结构的最新信息,并在攻击者利用系统或流程漏洞之前识别和处理这些漏洞,从而主动开展安全工作。大多数SOC每周7天全天候运行,跨多个国家/地区的大型企业/组织可能还依赖于全球安全运营中心(GSOC)来掌控全球安全威胁,并协调多个本地SOC之间的检测和响应。 SOC的功能 SOC团队承担以下职能来帮助防止、响应攻击并在遭到攻击后恢复。 资产和工具清单 为了消除覆盖范围中的盲点和缺口,SOC需要了解它保护的资产,并深入了解它用于保护企业/组织的工具。这意味着考虑到本地和多个云中的所有数据库、云服务、标识、应用程序和客户端。该团队还跟踪企业/组织中使用的所有安全解决方案,例如防火墙、反恶意软件、反勒索软件和监视软件。 减少攻击面 SOC的主要责任是减少企业/组织的攻击面。为此,SOC会维护包含所有工作负载和资产的清单、将安全修补程序应用于软件和防火墙、识别错误配置,并新资产联机时添加这些资产。团队成员还负责研究新出现的威胁并分析风险。 持续监视 SOC团队使用安全分析解决方案全天候监视整个环境 本地、云、应用程序、网络和设备,来发现异常或可疑行为;其中这些解决方案包括安全信息企业管理(SIEM)解决方案、安全编排、自动化和响应(SOAR)解决方案和扩展检测和响应(XDR)解决方案。这些工具会收集遥测数据、聚合数据,并在某些情况下自动进行事件响应。 威胁情报 SOC还使用数据分析、外部源和产品威胁报告来深入了解攻击者行为、基础结构和动机。这种情报提供了有关Internet上正在发生的情况的全局视图,并帮助团队了解威胁组是如何运作的。借助此信息,SOC可快速发现威胁,并加强企业/组织对新出现的风险的应对。 威胁检测 SOC团队使用SIEM和XDR解决方案生成的数据来识别威胁。这首先会从实际问题中筛选掉误报。然后,按严重性和对业务的潜在影响确定威胁的优先级。 日志管理 SOC还负责收集、维护和分析每个客户端、操作系统、虚拟机、本地应用和网络事件生成的日志数据。分析有助于建立正常活动的基线,并揭示可能指示恶意软件、勒索软件或病毒的异常。 事件响应 识别到网络攻击后,SOC会快速采取措施,在尽可能减少业务中断的情况下限制对企业/组织的损害。措施可能包括关闭或隔离受影响的客户端和应用程序、暂停被入侵的账户、移除遭到感染的文件,以及运行防病毒和反恶意软件。 发现和修正 在攻击之后,SOC负责将公司恢复到其原始状态。团队将擦除并重新连接磁盘、标识、电子邮件和客户端,重启应用程序,直接转换到备份系统,并恢复数据。 根本原因调查 为了防止类似的攻击再次发生,SOC进行了彻底的调查,来确定漏洞、效果不佳的安全流程和其他导致事件的教训。 安全性优化 SOC使用事件期间收集的任何情报来解决漏洞、改进流程和策略,并更新安全路线图。 合规性管理 SOC职责的一个关键部分是确保应用程序、安全工具和流程符合隐私法规,例如,《PCI DSS安全遵从包》、《ISO 27701安全遵从包》和《ISO 27001安全遵从包》等。团队定期审核系统来确保合规性,并确保在数据泄露后通知监管机构、执法人员和客户。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        安全运营中心
      • 配置模式生成API
        配置 说明 API名称 支持中文、英文、数字、下划线,且只能以英文或中文开头,364个字符。 API目录 一个特定功能或场景的API集合,类似文件夹,是数据服务中API的最小组织单元,也是API网关中的最小管理单元。 您可单击“新建”进行新建,也可选择新建API目录已创建的API分组。 请求Path API访问路径,例如:/v2/{projectid}/streams。 请求Path即完整的url中,域名之后、查询参数之前的部分,如下图中的“/blogs/188138”。 统一资源定位符url说明 在请求路径中,可以使用大括号{}标识路径中的参数作为通配符。如“/blogs/{blogid}”表示/blogs后可以携带任何参数,例如“/blogs/188138”和“/blogs/0”均会匹配至/blogs/{blogid},由此API统一处理。 此外,相同域名下,不允许重复的请求路径出现。路径参数作为通配符时,名称不具备唯一性,例如“/blogs/{blogid}”和“/blogs/{xxxx}”,会被视作相同路径。 参数协议 用于传输请求的协议,支持HTTP和HTTPS协议。 HTTP属于基础的网络传输协议,无状态、无连接、简单、快速、灵活、使用明文传输,在使用上较为便捷,但是安全性欠佳。 HTTPS是在HTTP协议上进行了SSL或TLS加密校验的协议,能够有效验证身份以及保护数据完整性。相对的,访问HTTPS的API,需要配置相关的SSL证书或跳过SSL校验,否则将无法访问。 请求方式 HTTP请求方式,表示请求什么类型的操作,包含GET、POST等,遵循resultful风格。 GET:请求服务器返回指定资源,推荐使用GET请求。 POST:请求服务器新增资源或执行特殊操作,仅在注册API时使用。POST请求当前不支持body体,而是直接透传。 描述 对API进行简要描述。 标签 对API设置标签。用于标记当前API的属性,创建后可以通过标签快速检索定位API。单个API最多可设置20个标签。 审核人 拥有API的审核权限。 单击“新建”,进入“审核中心>审核人管理”页面,新建审核人。 安全认证 API认证方式: APP认证:表示由API网关服务负责接口请求的安全认证,安全级别最高。 IAM认证:表示借助IAM服务进行安全认证,安全级别中等。 无认证:属于无防护的模式,无需认证即可访问,安全级别低,不推荐使用。 服务目录可见性 发布后,所选范围内的用户均可以在服务目录中看到此API。 当前工作空间可见 当前项目可见 当前租户可见 访问日志 勾选,则此API的查询结果将会产生记录并被保留7天,可以在“运营管理>访问日志”处通过选择“请求日期”的方式查看对应日期的日志。 最低保留期限 API解绑前预留的最低期限。0表示不设限制。 API进行停用/下线/取消授权时,会通知已授权用户,并为用户预留至少X小时,直到所有授权用户均完成解除或处理,或者到达截止时间,API才会停用/下线/取消授权。 入参定义 配置API请求中的参数,包含资源路径中的动态参数,请求URI中的查询参数和Header参数。 添加入参定义时,如果参数设定为必填,则API在访问时,必须传入指定参数;如果非必填,则在API访问时,未传入的参数,会使用默认值进行代替。 参数大小限制如下: query+path,url最大32KB header,最大128KB body, 最大128KB 以配置资源路径中的动态参数为例进行说明,例如资源路径(请求Path)设置为: /v2/{projectid}/streams,资源路径中的{projectid}为动态参数,需要在此进行配置。 1. 单击“添加”,参数名配置为projectid。 2. 参数位置选择PATH。 3. 类型设置为STRING。 4. 选择性配置示例值和描述。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        创建API
        配置模式生成API
      • 安全组概述
        本文帮助您了解什么是安全组,安全组规则和一些安全组实践建议。 什么是安全组 安全组是一种网络安全防护机制,用于防止未经授权的访问和保护计算机网络免受恶意攻击。它是一种虚拟防火墙,用于限制入向和出向网络流量通行。安全组工作在网络层和传输层,它通过检查数据包的源地址、目标地址、协议类型和端口号等信息来决定是否允许通过。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 不同资源池的安全组存在部分差异,如表1所示: 表1 可用区资源池和地域资源池的差异 对比项 多可用区资源池 地域资源池 作用机制 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 创建安全组 需指定和VPC的关联关系 无需指定和VPC的关联关系 默认安全组 一个VPC一个默认安全组 一个资源池一个默认安全组 自定义模板安全组的默认规则 自定义模板类型的安全组不存在默认规则 每个自定义模板类型的安全组存在两条默认规则 默认安全组规则 存在默认安全组规则,具体规则以表3为准 存在默认安全组规则,具体规则以表2为准 安全组是否有状态 出/入方向均有状态 仅出向有状态 安全组模板 自定义、通用Web服务器、开放全部端口 自定义、通用Web服务器、开放全部端口 默认安全组: 对于地域资源池,系统会为每个用户默认创建一个安全组,多个VPC可以共用同一个安全组。默认安全组的默认规则可参考表2“地域资源池默认安全组规则”。 对于可用区资源池,系统会为每个VPC默认创建一个安全组。一般来讲不同VPC之间是不同的业务,VPC之间是相互隔离的,相同业务一般部署在一个VPC。大多数情况下,不同的VPC由于业务的差异,所使用的安全组规则应该是不一样的。每个VPC自动建立一个默认安全组,可以满足用户不同业务需要不同安全组的场景。默认安全组的默认规则可参考表3“可用区资源池默认安全组规则”。 安全组状态: 对于地域资源池来说,安全组出向是有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。 对于可用区资源池来说,安全组出/入方向均有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。同理,如果该安全组的入站规则是放通的,那无论出站规则如何,都将允许入站请求的响应流量可以出站。 自定义安全组: 对于地域资源池来说,用户创建安全组时,模板类型为自定义的安全组会存在两条默认规则,即出向默认放通所有IP地址(0.0.0.0/0、::/0)流量的数据报文通过。 对于可用区资源池来说,用户创建安全组时,模板类型为自定义的安全组不存在默认规则,如未添加规则,则默认安全组出、入方向将均拒绝所有访问。 不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        安全
        安全组
        安全组概述
      • CCE集群的网络地址段规划实践
        服务网段 Service也是Kubernetes内的概念,每个Service都有自己的地址,在CCE中创建集群时,可以指定service的地址段(即服务网段)。同样,服务网段也不能和子网网段重合,而且服务网段也不能和容器网段重叠。服务网段只在集群内使用,不能在集群外使用。 容器网段、服务网段、子网网段和VPC网段关系请参见下图: 单VPC+单集群场景 这是最简单的情形。VPC网段在创建VPC的时候就已经确定,创建CCE集群时,选择目标VPC网段即可。 单VPC+多集群场景 一个VPC下创建多个CCE集群。 在“VPC网络”模式下,Pod的报文需要通过VPC路由转发,CCE会自动在VPC路由上配置到每个容器网段的路由表。 注意 • VPC地址还是创建VPC时确定的,当创建集群时,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段不能重叠,但服务网段可以重叠。在此情况下CCE集群部分互通,一个集群的Pod可以直接访问另外一个集群的Pod,但不能访问另外一个集群的Service。 • VPC网络模式下每个节点占用一条VPC路由规则,组网规模受限于VPC路由表配额。 在“容器隧道网络”模式下,容器网络是承载于VPC网络之上的Overlay网络平面,具有付出少量隧道封装性能损耗,获得了通用性强、互通性强、高级特性支持全面(例如Network Policy网络隔离)的优势,可以满足大多数应用需求。 注意 • VPC地址还是创建VPC时确定的,创建集群时,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段可以重叠,服务网段也可以重叠。 • 跨集群的容器之间访问,建议通过ELB实现。 VPC互联场景 两个VPC网络互联的情况下,可以通过路由表配置哪些报文要发送到对端VPC里。 在“VPC网络”模式下,创建对等连接后,需要在两端VPC内添加对等连接路由信息,才能使两个VPC互通。 注意 • VPC地址是在创建VPC的时候确定的,创建集群的时候,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段不能重叠,但服务网段可以重叠。 • 对等连接的路由表中需要添加对端容器网段的地址。示例操作如下: 同样,在“容器隧道网络”模式下,创建对等连接后,您需要在两端VPC内添加对等连接路由信息,才能使两个VPC互通。 注意 • VPC地址是在创建VPC的时候确定的,创建集群的时候,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段可以重叠,服务网段也可以重叠。 • 对等连接的路由表中需要添加对端集群节点子网网段的地址。 VPC网络到IDC的场景 和VPC互联场景类似,同样存在VPC里部分地址段路由到IDC,则CCE集群的Pod地址就不能和这部分地址重叠。IDC里如果需要访问集群里的Pod地址,同样需要在IDC端配置到专线VBR的路由表。
        来自:
        帮助文档
        云容器引擎
        最佳实践
        网络
        CCE集群的网络地址段规划实践
      • 脚本模式生成API
        配置 说明 API名称 支持中文、英文、数字、下划线,且只能以英文或中文开头,364个字符。 API目录 一个特定功能或场景的API集合,类似文件夹,是数据服务中API的最小组织单元,也是API网关中的最小管理单元。 您可单击“新建”进行新建,也可选择已创建的API分组。 请求Path API访问路径,例如:/v2/{projectid}/streams。 请求Path即完整的url中,域名之后、查询参数之前的部分,如下图中的“/blogs/188138”。详见下图: 统一资源定位符url说明 在请求路径中,可以使用大括号{}标识路径中的参数作为通配符。如“/blogs/{blogid}”表示/blogs后可以携带任何参数,例如“/blogs/188138”和“/blogs/0”均会匹配至/blogs/{blogid},由此API统一处理。 此外,相同域名下,不允许重复的请求路径出现。路径参数作为通配符时,名称不具备唯一性,例如“/blogs/{blogid}”和“/blogs/{xxxx}”,会被视作相同路径。 参数协议 用于传输请求的协议,支持HTTP和HTTPS协议。 HTTP属于基础的网络传输协议,无状态、无连接、简单、快速、灵活、使用明文传输,在使用上较为便捷,但是安全性欠佳。 HTTPS是在HTTP协议上进行了SSL或TLS加密校验的协议,能够有效验证身份以及保护数据完整性。相对的,访问HTTPS的API,需要配置相关的SSL证书或跳过SSL校验,否则将无法访问。 请求方式 HTTP请求方式,表示请求什么类型的操作,包含GET、POST等,遵循resultful风格。 GET:请求服务器返回指定资源,推荐使用GET请求。 POST:请求服务器新增资源或执行特殊操作,仅在注册API时使用。POST请求当前不支持body体,而是直接透传。 描述 对API进行简要描述。 标签 对API设置标签。用于标记当前API的属性,创建后可以通过标签快速检索定位API。单个API最多可设置20个标签。 审核人 拥有API的审核权限。 单击“新建”,进入“审核中心>审核人管理”页面,新建审核人。 安全认证 API认证方式: APP认证:表示由API网关服务负责接口请求的安全认证,安全级别最高。 IAM认证:表示借助IAM服务进行安全认证,安全级别中等。 无认证:属于无防护的模式,无需认证即可访问,安全级别低,不推荐使用。 服务目录可见性 发布后,所选范围内的用户均可以在服务目录中看到此API。 当前工作空间可见 当前项目可见 当前租户可见 访问日志 勾选,则此API的查询结果将会产生记录并被保留7天,可以在“运营管理>访问日志”处通过选择“请求日期”的方式查看对应日期的日志。 最低保留期限 API解绑前预留的最低期限。0表示不设限制。 API进行停用/下线/取消授权时,会通知已授权用户,并为用户预留至少X小时,直到所有授权用户均完成解除或处理,或者到达截止时间,API才会停用/下线/取消授权。 入参定义 配置API请求中的参数,包含资源路径中的动态参数,请求URI中的查询参数和Header参数。 添加入参定义时,如果参数设定为必填,则API在访问时,必须传入指定参数;如果非必填,则在API访问时,未传入的参数,会使用默认值进行代替。 参数大小限制如下: query+path,url最大32KB header,最大128KB body, 最大128KB 以配置资源路径中的动态参数为例进行说明,例如资源路径(请求Path)设置为: /v2/{projectid}/streams,资源路径中的{projectid}为动态参数,需要在此进行配置。 1. 单击“添加”,参数名配置为projectid。 2. 参数位置选择PATH。 3. 类型设置为STRING。 4. 选择性配置示例值和描述。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        创建API
        脚本模式生成API
      • 磁盘类型及功能特性
        本节介绍了云硬盘性能、云硬盘IOPS上限计算方法、云硬盘突发能力及原理。 根据IO性能划分云硬盘的磁盘类型,各种类型的云硬盘具体介绍如下。不同类型云硬盘的性能和价格有所不同,您可根据应用程序要求选择您所需的云硬盘。 云硬盘性能 云硬盘性能的主要指标包括: IOPS:云硬盘每秒进行读写的操作次数。 吞吐量:云硬盘每秒成功传送的数据量,即读取和写入的数据量。 IO读写时延:云硬盘连续两次进行读写操作所需要的最小时间间隔。 不同类型云硬盘的单队列访问时延如下: 普通IO:5 ms ~ 10 ms 高IO:1 ms ~ 3 ms 通用型SSD:1 ms 超高IO:1 ms 极速型SSD:亚毫秒级 说明 云硬盘的性能指标除了受到其本身的规格限制,还会受到挂载实例的存储QoS限制。 云硬盘性能相关的最大IOPS、最大吞吐量、IOPS突发上限三个指标受所挂载的实例规格、负载情况、网络环境及数据块大小等因素影响,无服务等级协议(SLA)承诺,建议用户结合业务场景进行实测验证。 云硬盘性能数据表 参数 普通IO 高IO 通用型SSD 超高IO 极速型SSD :::::: 每GB云硬盘的IOPS 2 6 8 50 50 单个云硬盘的最大IOPS 2200 5000 20000 33000 128000 单个云硬盘的基线IOPS 500 1200 1500 1500 1800 单个云硬盘IOPS上限 min (2200, 500 +2 × 容量) min (5000, 1800 + 8 × 容量) min (20000, 1800 + 12 × 容量) min (33000, 1800 + 50 × 容量) min (128000, 1800 + 50 × 容量) 单个云硬盘的IOPS突发上限 2200 5000 8000 16000 64000 云硬盘吞吐量性能计算公式 50 MB/s min (150, 100 + 0.15 × 容量) MB/s min (250, 100 + 0.5 × 容量) MB/s min (350, 120 + 0.5 × 容量) MB/s min (1000, 120 + 0.5 × 容量) MB/s 最大吞吐量 50 MB/s 150 MB/s 250 MB/s 350 MB/s 1000 MB/s API名称 说明 此处API名称为云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 SATA SAS GPSSD SSD ESSD API名称 说明 此处API名称为云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 SATA SAS GPSSD SSD ESSD API名称 说明 此处API名称为云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 SATA SAS GPSSD SSD ESSD 典型应用场景 适用于大容量、读写速率中等、事务性处理较少的应用场景,例如企业的日常办公应用或者小型测试等。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 单队列访问时延 5 ms ~ 10 ms 1 ms ~ 3 ms 1 ms 1 ms 亚毫秒级 说明 a:最大IOPS、最大吞吐量、IOPS突发上限三个参数的值均为读写总和。比如最大IOPSIOPS读+IOPS写。 b:以单块超高IO云硬盘吞吐量性能计算公式为例说明:起步120 MiB/s,每GiB增加0.5 MiB/s,上限为350 MiB/s。 c:以单块超高IO云硬盘IOPS性能计算公式为例说明:起步1800,每GiB增加50,上限为50000。 d:单队列指队列深度为1,即并发度为1。单队列访问时延是所有IO请求串行处理时IO的时延,表格中数据是4KiB数据块能达到的时延。 e:API名称代表云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 f:高IO(专属分布式存储高IO除外)云硬盘由普通硬盘(HDD)提供支持,适合一般工作负载的应用场景,提供的性能中,基准吞吐量为每TiB 40MiB/s,最大吞吐量为每块云硬盘150MiB/s;对于负载较高的应用,建议使用更高规格的云硬盘,它们由固态硬盘(SSD)提供支持。 云硬盘的性能与数据块大小密切相关: 同一数据块大小,当最大IOPS或最大吞吐量中有一项指标达到最大值时,此时云硬盘性能达到最大,另一项指标无法再继续上升。 不同数据块大小,云硬盘性能达到最大的指标可能不同。 对于小数据块,例如4KiB和8KiB,性能可达到最大IOPS。 对于≥ 16 KiB的大数据块,性能可达到最大吞吐量。
        来自:
        帮助文档
        云硬盘 EVS
        产品简介
        磁盘类型及功能特性
      • 弹性伸缩概述
        弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。 背景介绍 随着Kubernetes已经成为云原生应用编排、管理的事实标准,越来越多的应用选择向Kubernetes迁移,用户也越来越关心在Kubernetes上应用如何快速扩容面对业务高峰,以及如何在业务低谷时快速缩容节约资源与成本。 在Kubernetes的集群中,“弹性伸缩”一般涉及到扩缩容Pod个数以及Node个数。Pod代表应用的实例数(每个Pod包含一个或多个容器),当业务高峰的时候需要扩容应用的实例个数。所有的Pod都是运行在某一个节点(虚拟机)上,当集群中没有足够多的节点来调度新扩容的Pod,那么就需要为集群增加节点,从而保证业务能够正常提供服务。 弹性伸缩在CCE上的使用场景非常广泛,典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU的训练与推理、定时周期性负载变化等。 弹性伸缩分为如下两个维度: 工作负载弹性伸缩:即调度层弹性,主要是负责修改负载的调度容量变化。例如,HPA是典型的调度层弹性组件,通过HPA可以调整应用的副本数,调整的副本数会改变当前负载占用的调度容量,从而实现调度层的伸缩。 集群/节点弹性伸缩:即资源层弹性,主要是集群的容量规划不能满足集群调度容量时,会通过弹出ECS等资源的方式进行调度容量的补充。 两个维度的弹性组件与能力可以分开使用,也可以结合在一起使用,并且两者之间可以通过调度层面的容量状态进行解耦。 CCE弹性伸缩组件介绍 CCE支持的两种弹性伸缩对比 表CCE支持的两种弹性伸缩对比 弹性伸缩 基于Kubernetes插件实现(推荐) 基于AOM服务实现 实现方式 基于CCE提供的插件ccehpacontroller实现工作负载弹性伸缩 基于CCE提供的插件autoscaler实现节点弹性伸缩 基于AOM服务实现弹性伸缩,伸缩指标和触发伸缩均由AOM服务提供 使用入口 工作负载伸缩 1. 在CCE左侧导航栏中选择“弹性伸缩”,进入“工作负载伸缩”。 2. 在左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,进入工作负载详情页,在“伸缩”页签下“弹性伸缩 HPA”。 节点伸缩 在CCE左侧导航栏中选择“弹性伸缩”,进入“节点伸缩”。 工作负载伸缩 在CCE左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,单击工作负载名称进入工作负载详情页,在“伸缩”页签下选择“弹性伸缩 AOM”。详情请参见弹性伸缩AOM。 节点扩容 在CCE左侧导航栏中选择“资源管理 > 集群管理”,进入集群详情页,选择“弹性扩容”页签。详情请参见集群弹性扩容。 约束与限制 请在使用的集群中安装对应的插件,详情请参见“创建工作负载弹性伸缩(HPA)”、“创建节点伸缩策略”。 节点伸缩仅针对节点池下的节点,使用弹性伸缩的节点池需开启弹性扩缩容功能(在创建/编辑节点池时指定)。 当前区域的AOM服务支持伸缩功能,并且CCE集群版本低于v1.17。 使用须知 支持监控指标伸缩和定时伸缩两种策略的负载伸缩。 支持调度扩容(在负载实例无法调度时自动从节点池中扩容节点)、监控指标扩容、定时扩容三种节点扩容策略。 节点缩容仅支持资源分配率缩容机制,当集群下CPU和内存分配率低于用户设置的门限(在安装/编辑autoscaler时设置)时将对节点池下节点启动缩容(该功能可以关闭)。 defaultpool仅用于兼容非节点池创建的节点。 支持监控指标伸缩和定时伸缩两种策略的负载伸缩。 支持监控指标和定时两种策略的节点扩容,不支持节点缩容。 节点仅支持设置一个节点配置(在集群详情页的“弹性扩容”页签下进行设置),且节点模板支持的节点可配参数较少。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        弹性伸缩概述
      • 安全组概述
        本文帮助您了解什么是安全组,安全组规则和一些安全组实践建议。 什么是安全组 安全组是一种网络安全防护机制,用于防止未经授权的访问和保护计算机网络免受恶意攻击。它是一种虚拟防火墙,用于限制入向和出向网络流量。安全组工作在网络层和传输层,它通过检查数据包的源地址、目标地址、协议类型和端口号等信息来决定是否允许通过。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 不同资源池的安全组存在部分差异,如表1所示: 表1 可用区资源池和地域资源池的差异 对比项 多可用区资源池 地域资源池 作用机制 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 创建安全组 需指定和VPC的关联关系 无需指定和VPC的关联关系 默认安全组 一个VPC一个默认安全组 一个资源池一个默认安全组 自定义模板安全组的默认规则 自定义模板类型的安全组不存在默认规则 每个自定义模板类型的安全组存在两条默认规则 默认安全组规则 存在默认安全组规则,具体规则以表3为准 存在默认安全组规则,具体规则以表2为准 安全组是否有状态 出/入方向均有状态 仅出向有状态 安全组模板 自定义、通用Web服务器、开放全部端口 自定义、通用Web服务器、开放全部端口 默认安全组: 对于地域资源池,系统会为每个用户默认创建一个安全组,多个VPC可以共用同一个安全组。默认安全组的默认规则可参考表2“地域资源池默认安全组规则”。 对于可用区资源池,系统会为每个VPC默认创建一个安全组。一般来讲不同VPC之间是不同的业务,VPC之间是相互隔离的,相同业务一般部署在一个VPC。大多数情况下,不同的VPC由于业务的差异,所使用的安全组规则应该是不一样的。每个VPC自动建立一个默认安全组,可以满足用户不同业务需要不同安全组的场景。默认安全组的默认规则可参考表3“可用区资源池默认安全组规则”。 安全组状态: 对于地域资源池来说,安全组出向是有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。安全组入向是无状态的,如果您的入站规则是放通的,但是出站规则没有放通,那么相应的请求流量是不可以出站的。 对于可用区资源池来说,安全组出/入方向均有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。同理,如果该安全组的入站规则是放通的,那无论出站规则如何,都将允许入站请求的响应流量可以出站。 自定义安全组: 对于地域资源池来说,用户创建安全组时,模板类型为自定义的安全组会存在两条默认规则,即出向默认放通所有IP地址(0.0.0.0/0、::/0)流量的数据报文通过。 对于可用区资源池来说,用户创建安全组时,模板类型为自定义的安全组不存在默认规则,如未添加规则,则默认安全组出、入方向将均拒绝所有访问。 不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。
        来自:
        帮助文档
        虚拟私有云 VPC
        安全组
        安全组概述
      • 安装客户端
        本章节主要介绍客户端的安装。 前提条件 当安装客户端节点为集群外节点时,该节点必须能够与集群内节点网络互通,否则安装会失败。 待安装客户端节点必须启用NTP服务,并保持与服务端的时间一致,否则安装会失败。 在节点上安装客户端,可以使用root 用户或任意操作系统用户进行操作,要求该用户对客户端文件存放目录和安装目录具有操作权限,两个目录的权限为 775 。 需要允许用户使用密码方式登录Linux弹性云服务器(SSH方式)。 安装客户端 1. 请先在服务器上配置时间同步服务(ntpd或chronyd),并确认同步状态正常。 ps aux grep 'ntpdchronyd' 2. 服务器上需要安装好Kerberos客户端相关rpm包(krb5workstation或krb5client),如有sudo权限但未安装会自动进行安装。 说明 如果使用root用户执行安装脚本,则不需要再安装了,会自行安装。 3. 服务器上需要安装好jdk,并新建/usr/jdk64/目录,然后将/usr/jdk64/current软链到${JAVAHOME}。 执行java version确认是否已经安装jdk。如果使用的是天翼云的jdk,已经做好软链,不需要额外操作。 如何判断是否是天翼云的jdk?可以执行下面语句,如果能匹配出带有ccdp的内容则代表是天翼云的jdk;否则需要自己软链(下图表示不是天翼云的jdk)。 配置环境变量:sudo vim /etc/profile 软链:ln sf {JAVAHOME} /usr/jdk64/current 4. /etc/hosts内需要写入server端服务器的IP和主机名。 5. 将下载的clientconfig.tar.gz和CCDPclient.tar.gz两个安装包以及keytab文件放在同一目录。 6. tar zxvf CCDPclient.tar.gz解压,进入CCDPclient目录,目录下有md5文件和安装包,可用md5文件进行校验, 例子:md5sum c CCDP3.3.3x8664client.tar.gz.md5。 7. 再次tar zxvf CCDPclient.tar.gz解压,进入CCDPclient目录,可看到安装脚本install.sh与各组件目录。 8. 进入二次解压后的CCDPclient目录,执行sh install.sh安装客户端。可以直接用root用户安装。 9. krb5.conf配置文件拷贝需要root或有sudo权限的用户。若安装用户没有权限,则需提前使用root权限将krb5.conf拷贝到/etc/目录,随后使用安装用户执行sh install.sh s跳过krb5.conf配置,直接安装大数据客户端。 10. 安装运行的日志保存在/tmp/emrbigdataclientinstall.log中。 11. 使用客户端前需要执行source bigdataenv获取环境变量(要在同一个窗口,不能多个窗口)。source每次重新登录都要执行。 12. 集群默认启用Kerberos认证,执行以下命令认证当前用户。请用实际的keytab文件的路径替换/path/to/username.keytab。 kinit kt /path/to/username.keytab klist kt /path/to/username.keytab sed n 4p awk '{print $NF}' 13. 直接执行组件的客户端命令。 例如:使用HDFS客户端命令查看HDFS根目录文件,执行 hdfs dfs ls / 14. 客户端安装完成后,可参考“各组件客户端使用实践”使用客户端。 说明 操作步骤可参考软件包目录下的README.txt。 如需卸载客户端,可直接删除安装目录。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        安装客户端
      • 自定义IPS特征
        本节介绍如何添加自定义IPS特征。 CFW支持自定义网络入侵特征规则,添加后,CFW将基于签名特征检测数据流量是否存在威胁。 自定义IPS特征支持添加HTTP、TCP、UDP、POP3、SMTP、FTP的协议类型。 注意 自定义的特征建议具体化,避免太宽泛,否则可能会导致大部分流量匹配到该特征规则,影响流量转发性能。 约束条件 仅“专业版”支持自定义IPS特征。 最多支持添加500条特征。 自定义的IPS特征不受修改基础防御防护模式的影响。 特征设置“方向”为“客户端到服务器”且“协议类型”为“HTTP”时,“内容选项”才能设置为“URI”。 自定义IPS特征 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“攻击防御> 入侵防御”。单击“自定义IPS特征”中的“查看规则”,进入“自定义IPS特征”页面。 5. 在“自定义IPS特征”页签中,单击列表右上角“添加自定义IPS特征”,填写规则如下表所示。 参数名称 参数说明 名称 需要添加的特征名称。 命名规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)和特殊字符()。 长度不能超过255个字符。 风险等级 设置特征的风险等级。 攻击类型 选择特征的攻击类型。 影响软件 选择受影响的软件。 操作系统 选择操作系统。 方向 选择该特征匹配流量的方向。 Any:任意方向,符合其他条件的任意方向的流量都会匹配到当前规则。 服务器到客户端 客户端到服务器 协议类型 选择特征的协议类型。 源类型 选择源端口类型。 Any:任意端口类型,等同于包含所有类型。 包含 排除 说明 建议您优先选择“Any”。 源端口 “源类型”选择“包含”或“排除”时,设置源端口。 支持设置单个或多个端口,多个端口之间用半角逗号(,)隔开,如:80,100。 支持连续端口组,中间使用“”隔开,如:80443。 目的类型 选择目的端口类型。 Any:任意端口类型,等同于包含所有类型。 包含 排除 说明 建议您优先选择“Any”。 目的端口 “目的类型”选择“包含”或“排除”时,设置目的端口。 支持设置单个或多个端口,多个端口之间用半角逗号(,)隔开,如:80,100。 支持连续端口组,中间使用“”隔开,如:80443。 动作 防火墙检测到该特征流量时,采取的动作。 观察:仅对攻击事件进行检测并记录到日志中,日志记录查询请参见“日志查询”。 拦截:实施自动拦截操作。 说明 建议您优先选择“观察”,确认“攻击事件日志”记录正确后,再切换至“拦截”。 内容 特征规则中匹配的内容。 内容:跟特征匹配的内容字段,例如:cfw。 内容选项:选择“内容”匹配的限制规则。 十六进制:匹配十六进制时,“内容”需填写十六进制格式,例如:0x1F。 忽略大小写:匹配时不区分大小写。 URL:匹配URL中跟“内容”一致的字段。 相对位置:匹配特征时,指定开始的位置。 头部:从报文“偏移”值的位置开始匹配特征,例如偏移:10,则该条内容从第11位开始。 说明 当“内容选项”选择“URL”时,头部的匹配位置从域名结束(包含端口)开始计算。 例如:www.example.com/test,偏移为0,则该条内容从com后的/开始。 或www.example.com:80/test,偏移为0,则该条内容从80后的/开始。 上一个内容之后:报文中截取的位置从指定位置开始。 公式:上一条“内容”字段长度+上一条“偏移”值+“偏移”值+1 例如:上一条设置内容:test,偏移:10,本条偏移:5,则该条内容的匹配位置从第20(4+10+5+1)位开始。 偏移:匹配特征时开始的位置,例如偏移:10,则代表该条内容的匹配位置从第11位开始。 深度:匹配特征时,截止匹配的位置,例如深度:65535 ,则代表该条内容的匹配位置到第65535位截止。 说明 “深度”值需大于“内容”字段长度。 一条IPS特征中最多添加4条内容。 6. 单击“确认”,完成添加IPS特征。
        来自:
        帮助文档
        云防火墙
        用户指南
        拦截恶意攻击
        IPS规则管理
        自定义IPS特征
      • 创建告警规则
        本章节主要为您讲述如何使用默认告警模板为云服务资源创建告警规则。 云监控服务提供使用告警模板创建告警规则的功能,能够让用户在为资源或者云服务添加告警规则时轻松自如,特别是对于大批量资源或者云服务同时创建告警规则,或是在日常运维中对多个资源或者云服务修改告警规则,都能够提供极大的工作便利。 创建告警规则 1.登录管理控制台。 2.单击“管理与部署 > 云监控>告警管理 > 告警规则” 。 3.单击右上角“创建告警规则”。 4.在“创建告警规则”界面,根据界面提示配置参数。 根据界面提示,配置规则信息参数。 配置规则信息 参数 参数说明 取值样例 ::: 名称 系统会随机产生一个名称,用户也可以进行修改。 alarmcgnw 描述 告警规则描述(此参数非必填项)。 5、配置告警内容参数。 存储库告警配置 事件告警配置 如果资源类型选择云备份,则可以监控存储库维度的两个指标。参数说明下表所示。 参数 参数说明 取值样例 资源类型 此处以选择“云备份”为例 云备份 维度 默认以“存储库”为维度进行监控 存储库 监控范围 根据业务需求勾选监控的存储库 backpolicy1 选择类型 根据需要可选择从模板导入或自定义创建 模板 选择需要导入的模板 告警策略 触发告警规则的告警策略。当资源类型选择具体的云服务时,告警策略为一个周期性的动作。 当资源类型选择事件监控时,具体的事件为一个瞬间的操作动作,而不是周期性动作。 目前支持配置的云备份告警策略有:· 存储库使用率· 存储库使用量 告警级别 根据告警的严重程度不同等级,可选择紧急、重要、次要、提示 重要 如果资源类型选择事件监控,则可以针对云服务备份的多个事件进行监控。参数说明下表所示。 参数 参数说明 取值样例 资源类型 此处以选择“事件监控”为例 事件监控 维度 用于指定告警规则对应指标的维度名称 系统事件 监控范围 创建事件监控针对的资源范围。默认取值:全部资源 选择类型 选择自定义创建 自定义创建 告警策略 触发告警规则的告警策略 云备份事件告警规则 事件来源 事件名称 事件级别 事件说明 处理建议 事件影响 :::::: CBR 备份失败 紧急 创建备份失败 尝试手动创建备份或者提单 可能造成数据丢失 CBR 恢复失败 紧急 使用备份恢复资源失败 尝试使用其他备份恢复或者提单 可能造成数据丢失 CBR 备份删除失败 紧急 备份删除失败 稍后重试或者提交工单 可能造成计费异常 CBR 存储库删除失败 紧急 存储库删除失败 稍后重试或者提交工单 可能造成计费异常 CBR 备份复制失败 紧急 备份复制失败 稍后重试或者提交工单 可能造成数据丢失 CBR 备份成功 重要 创建备份成功 无 无 CBR 恢复成功 重要 使用备份恢复资源成功 观察数据是否已成功恢复 无 CBR 备份删除成功 重要 备份删除成功 无 无 CBR 存储库删除成功 重要 存储库删除成功 无 无 CBR 备份复制成功 重要 备份复制成功 无 无 6、 根据界面提示,配置告警通知参数。 配置告警通知 参数 参数说明 取值样例 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。启用(推荐选择), 会发送通知;不启用,不会发送通知。 通知对象 需要发送告警通知的主题名称。当发送通知选择“是”时, 需要选择已有的主题名称,若此处没有需要的主题则需先创建主题。 触发条件 可以选择“出现告警”,作为触发告警通知的条件。 7、配置完成后,单击“立即创建”,完成告警规则的创建。 告警规则添加完成后,当监控指标触发设定的阈值或发生相关的云服务备份事件时,云监控会在第一时间通告知您云备份资源异常,以免因此造成业务损失。其他详情可参考云监控产品帮助中心。
        来自:
        帮助文档
        云服务备份
        监控
        创建告警规则
      • 提交导入任务
        输入内容 说明 数据库类型 选择导入的数据库类型,支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle。 目标数据库 选择数据导入的数据库/模式,数据来源于在DMS控制台中添加的数据库实例,其中MySQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle可选择到库级别,PostgreSQL可选择到模式级别。当前仅支持单选一个目标库/模式。 注意 如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 导入文件类型 选择导入数据的上传文件类型: SQL:目前支持DDL和DML语句, 请每条SQL语句以英文分号 (;)收尾,并做好换行。 选择该文件类型则无法指定“ 目标表 ”和“ 写入方式 ”。 CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。 TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 JSON:仅支持MongoDB和DDS数据源。 EXCEL:支持.xls和.xlsx格式,当前仅支持第一个sheet的内容导入。 以上文件类型支持打包上传.zip格式。 导入模式 当导入文件类型选择“SQL”时,可选择“导入模式”。 极速模式:不进行文件的扫描,只对数据源进行权限校验。 安全模式:整个SQL文件的扫描,安全性高但性能较差。 选择“安全模式”的工单,会在预检查阶段进行SQL风险和SQL规范检查(SQL风险和规范支持的数据库类型,详见 目标表 针对非MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标表。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单表。 仅支持CSV/TXT/EXCEL格式导入。 文件编码 选择导入文件的编码类型: UTF8:默认选中。适用于大部分英文文本。 GBK:适用于文件中带有中文的情况。 自动识别:如果不能确定文件编码类型,可选该选项。 导入行为 针对MySQL和PostgreSQL数据源,在选择文件类型为CSV/TXT/EXCEL后,支持选择“新建表”,其余数据源类型默认为“现有表”。 选择“新建表”,系统会根据导入文件中的相关字段猜测您所需的建表结构,可点击新建表的表名称打开表结构编辑页面。 注意 当前“新建表”的表结构编辑,暂不支持数据库的自定义类型作为表字段类型。新建表字段类型与导入文件是否成功密切相关,如选择“新建表”请认真检查表结构是否符合需求。 写入方式 针对非MongoDB和DDS数据源,选择导入文件的写入方式: INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。 INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。 REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。 注意 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL数据库类型支持INSERT INTO的导入方式,SQLServer数据库类型支持INSERT INTO的导入方式。 数据位置 当选择文件类型为CSV/TXT/EXCEL时,可选择文件首行属性是列名或者数据。 目标集合 针对MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标集合。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单集合。仅支持JSON和CSV导入。 附件上传 单击 上传文件 ,上传选中文件类型对应的文件。 注意 目前支持SQL,CSV,TXT,JSON,EXCEL五种文件格式,上传前请检查文件名后缀是否符合要求。 目前仅支持上传单个文件,EXCEL文件仅支持第一个sheet的内容导入。 上传文件大小最大限制为5GB,请控制好文件数据大小。 工单说明 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导入
        提交导入任务
      • 创建同步任务
        参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 限速自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为全天限流,您也可以根据业务需求自定义时段限流。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 不限速对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 限速模式只对全量阶段生效,增量阶段不生效。 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下三种形式: 忽略当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 当数据发生冲突时,针对如下情况,建议选择“忽略”或者“覆盖”,否则建议选择“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据复制服务提供了过滤DDL操作的功能,目前支持默认过滤删除数据库的操作。 是,表示过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示过程中将相关操作同步到目标库。 对象同步范围 对象同步范围支持普通索引和增量DDL同步。您可以根据业务需求选择是否进行同步。 启动位点 步骤2的同步类型选择“增量”时可见,增量同步的启动位点,任务的源库日志从位点后开始获取(不含当前启动位点)。 通过show master status命令获取源库位点,根据提示分别填写File、Position、ExecutedGtidSet(如果未开gtidmode,无需填写ExecutedGtidSet)。 数据同步拓扑 数据同步功能支持多种同步拓扑,您可以根据业务需求规划您的同步实例。数据同步拓扑说明可参考 数据同步拓扑介绍。 增量支持DDL 用户根据需求选择增量同步的DDL类型,不同链路支持的DDL类型以显示为准。 一对一、一对多场景:如果业务上认为源和目标应该使用保持严格一致,那么高危类DDL也应该勾选并同步。如果业务上确定某个高危DDL不应该发生,则可以不勾选同步高危类DDL,这样DRS将拦截过滤这个DDL,从而起到保护目标数据的作用。但需要知晓,过滤DDL的附带问题是可能导致同步失败,例如过滤删列动作。 多对一数据聚合场景:最佳方式是推荐只选择同步加列DDL,其他大部分DDL同步都可能因目标表修改而导致数据不一致或多对一中其他任务失败的情况发生。 同步对象 可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 如果有切换源数据库的操作,请在选择同步对象前单击右上角 ,以确保待选择的对象为最新源数据库对象。 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        创建同步任务
      • 1
      • ...
      • 90
      • 91
      • 92
      • 93
      • 94
      • ...
      • 96
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      应用托管

      智算一体机

      推荐文档

      产品定义

      如何修改账号的密码?

      Windows方程式漏洞ACL策略配置说明

      NAT网关的SNAT规则删除(DNAT规则删除操作相同)

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号