活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云转码cmt_相关内容
      • 概述
        本文主要介绍云日志服务的日志接入概述。 云日志服务支持实时日志采集,通过采集器的方式方便您在各种数据源场景下采集日志,采集日志后,您可在云日志服务控制台实时查询、分析日志数据。 日志源接入 目前支持接入天翼云弹性云主机以及云容器引擎日志接入。 弹性云主机:支持采集云主机文本日志,将弹性云主机待采集日志的路径配置到日志单元中,采集器将按照配置的采集规则采集日志至云日志服务。接入详情请参考接入云主机文本日志。 云容器引擎:支持采集云容器引擎的标准输出日志与文件日志。接入详情请参考接入云容器引擎应用日志。 日志结构化解析 日志的结构化解析指日志数据将以 keyvalue 对的形式存储在云日志服务平台上。日志数据结构化后,您可以在云日志服务控制台根据指定的键值进行日志检索、分析与加工。目前采集器提供多种解析方式,详情如下: 解析方式 说明 单行全文 单行全文是指一条日志仅包含一行的内容,在采集的时候,将使用换行符来作为一条日志的结束符,即在日志文件中,以换行符分隔两条日志。日志数据本身不再进行日志结构化处理,也不会提取日志字段。每条日志都会存在一个默认的字段message,采集器会将日志内容存放在message中。详情请参考单行全文模式。 多行全文 多行全文日志是指一条完整的日志数据可能跨占多行,您需要指定首行正则以进行匹配,当某行日志匹配上预先设置的正则表达式,就认为是一条日志的开头,而下一个行首出现则作为该条日志的结束标识符。日志内容同样也会存放在message字段中。详情请参考多行全文模式。 单行正则 单行正则模式用于处理结构化的日志,针对包含一行内容的日志,您需要指定一个正则表达式,采集器按照正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考单行正则模式。 多行正则 多行正则模式用于处理结构化的日志,针对包含多行内容的日志,您需要指定一个行首正则表达式用于匹配日志的开头,并指定一个正则表达式用于提取多个值,采集器按照该正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考多行正则模式。 单行分隔符 单行分隔符模式支持通过配置的分隔符将一条日志分割成多个 keyvalue 键值,从而实现结构化处理,该模式仅适用于单行日志,每条完整的日志以换行符为结束标识符。详情请参考单行分隔符模式。 JSON 支持解析Object类型的JSON日志,提取JSON日志内容作为KeyValue对,即Object首层的键作为Key,Object首层的值作为Value。详情请参考JSON模式。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        概述
      • 总览
        参数名称 参数说明 威胁告警 呈现最近7天内未处理威胁告警,可快速了解资产遭受的威胁告警类型和数量,呈现威胁告警的统计结果。 此处严重等级含义如下: 致命:即致命风险,表示您的资产中检测到了入侵事件,建议您立即查看告警事件的详情并及时进行处理。 高危:即高危风险,表示资产中检测到了可疑的异常事件,建议您立即查看告警事件的详情并及时进行处理。 其他:即其他类型(中危、低危、提示)风险,表示服务器中检测到了有风险的异常事件,建议您及时查看该告警事件的详情。 单击威胁告警模块,系统将列表实时呈现近7天内TOP5的威胁告警事件,可快速查看威胁告警详情,监控威胁告警状况。 列表呈现近7天TOP5的威胁告警事件的信息,包括威胁告警名称、告警等级、资产名称、告警发现时间。 若列表显示内容为空,表示近7天无威胁告警事件。 单击“查看更多”,可跳转到“检测结果”页面,查看更多的威胁告警信息,并可自定义过滤条件查询告警信息。 漏洞 展示您资产中TOP5漏洞类型,以及近24小时内还未修复的漏洞总数和不同漏洞风险等级对应的数量。 此处严重等级含义如下: 致命:即致命风险,表示您的资产中检测到了漏洞事件,建议您立即查看漏洞事件的详情并及时进行处理。 高危:即高危风险,表示资产中检测到了可疑的异常事件,建议您立即查看漏洞事件的详情并及时进行处理。 其他:即其他类型(中危、低危、提示)风险,表示服务器中检测到了有风险的异常事件,建议您及时查看该漏洞的详情。 单击漏洞模块中的“实时监控最新漏洞风险事件Top5”栏,系统将列表实时呈现近24小时内TOP5的漏洞事件,可快速查看漏洞详情。 列表呈现当日最新TOP5漏洞事件详情,包括漏洞名称、漏洞等级、资产名称、漏洞发现时间。 若列表显示内容为空,表示当日无漏洞事件。 单击“查看更多”,可跳转到“检查结果”页面,查看更多的漏洞信息,并可自定义过滤条件查询漏洞信息。 合规检查 展示您资产中近30天内存在的合规风险总数量和不同危险等级的合规检查风险对应的数量。 此处严重等级含义如下: 致命:即致命风险,表示您的资产中检测到了不合规的配置,建议您立即查看合规异常事件的详情并及时进行处理。 高危:即高危风险,表示资产中检测到了可疑的异常配置,建议您立即查看合规异常事件的详情并及时进行处理。 其他:即其他类型(中危、低危、提示)风险,表示服务器中检测到了有风险的异常配置,建议您及时查看该合规检查项目的详情。 单击合规检查异常模块,系统将列表实时呈现近30天内TOP5的合规检查异常事件,可快速查看合规检查详情。 列表呈现最近一次合规检查中TOP的合规异常事件详情,包括合规检查项目名称、等级、资产名称、发现时间。 若列表显示内容为空,表示近30天无合规异常事件。 单击“查看更多”,可跳转到“检查结果”页面,查看更多的合规异常信息,并可自定义过滤条件查询合规检查信息。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        安全概览
        总览
      • Windows主机挂载
        介绍Windows主机挂载的最佳实践。 实践背景 使用iSCSI协议的块设备也可以在windows操作系统下使用,下面将以win10为例连接天翼云媒体存储块设备,其他版本的操作系统类似。 操作步骤 1.打开控制面板>管理工具> iSCSI 发起程序。 2.修改iSCSI 发起程序中"配置"页下的发起程序名称为媒体存储控制台块设备创建时填写的CHAP iqn(本例以iqn.209901.com.client.cicdtestcy:230323为例); 3.右键开始菜单,管理员模式下运行命令行程序,如下图。 并在命令行中输入如下命令(所有都需要): iscsicli AddTarget iqn.201810.com.redhat.iscsigw:iscsiigw iqn.201810.com.redhat.iscsigw:iscsiigw 14.215.109.226 13260 说明 1. 以上示例中:iqn.201810.com.redhat.iscsigw:iscsiigw 是TargetName、TargetAlias,对应TargetIqn,14.215.109.226是网关地址,13260是数据端口。挂载时,您需要对应替换成需要挂载的块空间信息。 2. 你也可以可直接通过块空间详情复制对应的操作命令,具体界面如下图所示。如您通过控制台复制挂载命令进行操作,此步操作完成后,可直接跳转第5步查看新增的磁盘信息。 3. 更多块空间管理操作可参考: 结果如下: 并且在"属性"中的"门户组"页下可以看到关联的网络门户为14.215.109.226:13260。 4.连接到目标网关:点击【连接】按钮,然后点击【高级】,再勾选【启用CHAP登录】,并输入名称和目标机密,最后点击【确定】,就会进行连接,如下图所示。 这里具体的参数可参考:块空间管理,获取所需挂载块空间的CHAP用户与CHAP密钥。 5.实现连接后,可以在计算机管理>磁盘管理中找到新加入的网络盘,如下图,然后进行磁盘的初始化工作。初始化完成后,即可在资源管理器中看到新增的设备,可进行正常的文件系统操作。 6.断开连接:点击iSCSI发起程序目标下面的刷新,在已连接磁盘上右键点击"断开连接",或者在命令行中输入命令:iscsicli SessionList ,找到连接ID;再输入:iscsicli LogoutTarget,完成断开操作。 7.删除连接,在命令行中输入:iscsicli RemoveTarget iqn.201810.com.redhat.iscsigw:iscsiigw ,完成删除操作。
        来自:
        帮助文档
        媒体存储
        最佳实践
        块存储
        Windows主机挂载
      • 数据脱敏
        本页介绍天翼云TeleDB数据库中数据脱敏。 脱敏是指在用户无感知的情况下,对非授权用户返回被脱敏的数据。其主要原理是通过某种运算法则,在真实数据返回给访问终端前,按照既定规则,将原始数据映射到另一种形式(可以支持多种变化),该映射规则对查询用户不可见,且转换后的形式不能做逆向操作(即转换为原始数据)。 说明 无感知是指用户使用的查询操作变化,也无需增加额外的运算操作。 非授权用户是指没有访问权限的用户,以访问表为例,用户具备该表的查询权限,但被限制对某些字段真实值的获得。 例如: 安全员通过脱敏配置接口,对表的某些敏感字段设置数据脱敏规则。这样原系统中的所有用户(包括管理员)再去查看表数据时,都得到的脱敏规则使能后的结果,且规则下发后立即生效,无需停机或者重启。 相应的,对于原本正常访问的数据库用户,定义为授权用户,安全员可以将这些数据库用户定义为某些对象的白名单用户,即给这些数据库用户添加白名单属性。这些白名单用户在登录系统完成鉴权后,就被系统识别为授权用户,访问表的方式也是没有变化的,而且获得的都是原始数据。 所以,从以上两个维度实现了更细粒度的数据访问控制,是对现有访问控制的增强,而且做到对现有业务系统无感知。 创建数据脱敏策略 1. 切换到godlike用户,创建 tbldatamaskxx表、tbldatamaskyy表、tbldatamaskzz表,并插入数据。 c regression godlike create table tbldatamaskxx( i int, im int, ii int2, iim int2, j bigint, jmbigint, x varchar, xm varchar, y text, ym text) distribute by shard(i); NOTICE: Replica identity is needed for shard table, please add to this table through "alter table" command. insert into tbldatamaskxx values(1024, 1024, 7788, 7788,42949672960,42949672960, '112233201804035566', '112233201804035566','abcdefghijk', 'abcdefghijk'); insert into tbldatamaskxx(i, x) values(1025, 'all is null'); insert into tbldatamaskxx(i, x, xm, ym) values(1026, 'all is null', 'this is a very very very looooooooong string, i guess here is over 32 bytes length, emmmmm', 'tbase!!~~~'); create table tbldatamaskyy( i int, im int, ii int2, iim int2, j bigint, jmbigint, x varchar, xm varchar, y text, ym text) distribute by shard(i);; 使用mlsadmin用户创建数据脱敏策略 案例1:api健壮性测试 NOTICE: Replica identity is needed for shard table, please add to this table through "alter table" command. insert into tbldatamaskyy values(1024, 1024, 7788, 7788, 42949672960,42949672960, '112233201804035566', '112233201804035566','abcdefghijk', 'abcdefghijk'); create table tbldatamaskzz ( i int , j text , z text ) distribute by shard(i);; NOTICE: Replica identity is needed for shard table, please add to this table through "alter table" command. insert into tbldatamaskzz values(1024,'x','y'); 2. 使用mlsadmin用户创建数据脱敏策略。 c regression mlsadmin select currentdatabase(); currentdatabase regression (1 row) select currentuser; currentuser mlsadmin (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        数据脱敏
      • 变量规范
        本文将为您介绍天翼云短信服务的变量规范。 变量命名 短信模版需明确表述短信发送的实际内容,禁止发送一切有关黄赌毒、党政军、诈骗等违法内容。 短信模版可以包含变量,变量前后需加文字说明,以体现模版使用者的商业意图,不支持仅为变量或多个变量的组合,如: 你好:${content} 你好:${name},${content} 变量表示实际发送短信时,用户希望自定义变化的内容,固定格式如:${name}、${content}等,中间字母应代表变量名字。 {}内变量命名规则:首字母必须为英文字母、只支持字母、数字和下划线组成,不能为纯数字等。 变量规范 短信模板可以包含变量,变量表示实际发送短信时,用户希望自定义变化的内容。变量前后需加文字说明,以体现模板使用者的商业意图,公众号、小程序、App、链接等产品内容需置于变量外。 类别 说明 :: 变量格式 ${name}、${content}等,中间字母应代表变量属性。 变量名称 变量限制为1~25个字符,首字母必须为英文字母,只支持字母、数字和下划线组成,不能为纯数字,同时不能为email、mobile、id、nick、site等。 说明:如果变量超过25字符,您需要升级为企业用户,然后提交工单申请解除变量限制,由专员对新提交的短信模板进行评估。变量个数不做限制,但是模板长度有限,您需要将模板总长度(含变量信息)控制在500字符内。 其他规范 通知模板可以添加链接但需固定内容:不支持设置变量链接,如www.${site}.cn 个人和企业用户如果选择模板类型 为短信通知 ,且模板内容 中设置了变量时,必须指定变量属性。变量属性的设置规范如下: 变量属性 变量名称 规范 ::: 电话号码 自定义,建议设置为phone等。 长度为5~11位。 支持国内标准手机号、固定电话号码。 其他号码 自定义,建议根据编号类型设置,例如code、order、ordersn、password等。 订单号等数字或编码,主要用于订单号、密码、随机密钥等数字组成的编号。 不支持手机号、QQ号、微信号、URL等联系方式。 变量限制为1~25个字符。 仅包含大小写字母、数字和字符组合。 时间 自定义,建议根据时间类型设置,例如time、date、day、year、month等。 变量限制为1~25个字符。 需要符合时间的表达方式,例如20210315、20210315、2021/03/15等。 说明:不支持下划线等特殊符号。 金额 自定义,建议设置为money等有意义的变量名称。 变量限制为1~25个字符。 仅支持传入能够正常表达金额的数字或中文,例如壹、贰、叁、肆等。 注意:变量中仅支持传入数字或中文,¥$等货币符号需要放在模板中。 其他(名称、账号、地址等) 自定义,建议根据变量类型设置一个有意义的变量名称。 变量限制为1~40个字符。(个人认证客户限制为125个字符) 可以设置为公司、产品、地址、姓名、内容、账号、会员名等。 不允许设置为QQ号、微信号(公众号)、手机号、网址、座机号等联系方式。如果有特殊需要,请把联系方式放入模板中。 注意:人民币、元、¥、$等货币符号需要放在模板中表达。 其他(如名称、账号、地址等) 长度限制:140位(个人认证客户限制为125位)。 安全规则:公司/产品/地址/姓名/内容/账号/会员名等;不允许出现QQ号/微信号(公众号)/手机号/网址/座机号等联系方式,如确有需要,请放入模板中表达。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        用户指南
        模板
        变量规范
      • 文件格式介绍
        二进制格式 如果想要在文件系统间按原样复制文件,则可以选择二进制格式。二进制格式传输文件到文件的速率、性能都最优,且不需要在作业第二步进行字段匹配。 文件传输的目录结构 CDM的文件传输,支持单文件,也支持一次传输目录下所有的文件。传输到目的端后,目录结构会保持原样。 增量迁移文件 使用CDM进行二进制传输文件时,目的端有一个参数“重复文件处理方式”,可以用作文件的增量迁移,具体请参见 文件增量迁移。 增量迁移文件的时候,选择“重复文件处理方式”为“跳过重复文件”,这样如果源端有新增的文件,或者是迁移过程中出现了失败,只需要再次运行任务,已经迁移过的文件就不会再次迁移。 写入到临时文件 二进制迁移文件时候,可以在目的端指定是否写入到临时文件。如果指定了该参数,在文件复制过程中,会将文件先写入到一个临时文件中,迁移成功后,再进行rename或move操作,在目的端恢复文件。 生成文件MD5值 对每个传输的文件都生成一个MD5值,并将该值记录在一个新文件中,新文件以“.md5”作为后缀,并且可以指定MD5值生成的目录。 文件格式的公共参数 源文件处理方式 CDM在文件复制成功后,可以对源端文件进行操作,包括:不处理、重命名源文件或者删除源文件。 启动作业标识文件 这个主要用于自动化场景中,CDM配置了定时任务,周期去读取源端文件,但此时源端的文件正在生成中,CDM此时读取会造成重复写入或者是读取失败。所以,可以在源端作业参数中指定启动作业标识文件为“ok.txt”,在源端生成文件成功后,再在文件目录下生成“ok.txt”,这样CDM就能读取到完整的文件。 另外,可以设置超时时间,在超时时间内,CDM会周期去查询标识文件是否存在,超时后标识文件还不存在的话,则作业任务失败。 启动作业标识文件本身不会被迁移。 作业成功标识文件 文件系统为目的端的时候,当任务成功时,在目的端的目录下,生成一个空的文件,标识文件名由用户来指定。一般和“启动作业标识文件”搭配使用。 这里需要注意的是,不要和传输的文件混淆,例如传输文件为finish.txt,但如果作业成功标识文件也设置为finish.txt,这样会造成这两个文件相互覆盖。 过滤器 使用CDM迁移文件的时候,可以使用过滤器来过滤文件。支持通过通配符或时间过滤器来过滤文件。 −选择通配符时,CDM只迁移满足过滤条件的目录或文件。 −选择时间过滤器时,只有文件的修改时间晚于输入的时间才会被传输。 例如:用户的“/table/”目录下存储了很多数据表的目录,并且按天进行了划分:DRIVINGBEHAVIOR20180101~DRIVINGBEHAVIOR20180630,保存了DRIVINGBEHAVIOR从1月到6月的所有数据。如果只想迁移DRIVINGBEHAVIOR的3月份的表数据。那么需要在作业第一步指定源目录为“/table”,过滤类型选择“通配符”,然后指定“路径过滤器”为“DRIVINGBEHAVIOR201803”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        文件格式介绍
      • 通过添加防护规则拦截/放行流量
        NAT流量防护规则 1. 开启NAT流量防护,请参见“开启NAT网关流量防护”。 2. 在左侧导航栏中,选择“访问控制> 访问策略管理”,进入“访问策略管理”页面。 3. 添加新的防护规则。 单击“添加”,在弹出的“添加防护规则”中,填写新的防护信息。 DNAT场景填写规则请参见下表 参数名称 参数说明 规则类型 选择NAT规则: 防护NAT网关的流量,支持配置私网IP。 说明 NAT规则需满足: “专业版”防火墙。 已配置VPC边界防火墙。 名称 自定义安全策略规则的名称。 方向 选择“DNAT”。 源 设置会话发起方。 IP地址:填写私网IP地址,支持设置单个IP地址、多个连续IP地址、地址段。 单个IP地址,如:192.168.10.5 多个连续IP地址,中间使用“”隔开,如:192.168.0.2192.168.0.10 地址段,使用"/"隔开掩码,如:192.168.2.0/24 IP地址组:支持多个私网IP地址的集合,添加IP地址组请参见“添加自定义IP地址组和IP地址”。 地域:支持地理位置防护,通过指定大洲、国家、地区配置防护规则。 Any:任意源地址。 目的 设置会话接收方。 IP地址:填写私网IP地址,支持设置单个IP地址、多个连续IP地址、地址段。 单个IP地址,如:192.168.10.5 多个连续IP地址,中间使用“”隔开,如:192.168.0.2192.168.0.10 地址段,使用"/"隔开掩码,如:192.168.2.0/24 IP地址组:支持多个私网IP地址的集合,添加IP地址组请参见《云防火墙用户指南》中《添加IP地址组》。 Any:任意目的地址。 服务 服务:设置协议类型、源端口和目的端口。 协议类型:支持选择TCP、UDP、ICMP。 源/目的端口:“协议类型”选择“TCP”或“UDP”时,需要设置端口号。 说明 如您需设置该IP地址的全部端口,可配置“端口”为“165535”。 如您需设置某个端口,可填写为单个端口。例如设置22端口的访问,则配置“端口”为“22”。 如您需设置某个范围的端口,可填写为连续端口组,中间使用“”隔开。例如设置80443端口的访问,则配置“端口”为“80443”。 服务组:支持多个服务(协议、源端口、目的端口)的集合,添加自定义服务组请参见“添加自定义服务组和服务”,预定义服务组请参见“查看预定义服务组”。 Any:任意协议类型和端口号。 防护动作 设置流量经过防火墙时的处理动作。 放行:防火墙允许此流量转发。 阻断:防火墙禁止此流量转发。 启用状态 设置该策略是否立即启用。 :表示立即启用,规则生效。 :表示立即关闭,规则不生效。 策略优先级 设置该策略的优先级: 置顶:表示将该策略的优先级设置为最高。 移动至选中规则后:表示将该策略优先级设置到某一规则后。 说明 设置后,优先级数字越小,策略的优先级越高。 添加的第一条防护规则默认优先级是1,无需选择“策略优先级”。 时间计划管理 (可选)单击“时间计划管理”设置规则的生效时间段,选择已设置的时间计划或“新增时间计划”。 配置长连接 当前防护规则仅配置一个“服务”且“协议类型”选择“TCP”或“UDP”时,可配置业务会话老化时间。 是:设置长连接时长。 否:保留默认时长,各协议规则默认支持的连接时长如下: TCP协议:1800s。 UDP协议:60s。 说明 最大支持50条规则设置长连接。 长连接时长 “配置长连接”选择“是”时,需要配置此参数。 设置长连接时长。输入“时”、“分”、“秒”。 说明 支持时长设置为1秒~1000天。 标签 (可选)用于标识规则,可通过标签实现对安全策略的分类和搜索。 描述 (可选)标识该规则的使用场景和用途,以便后续运维时快速区分不同规则的作用。 SNAT场景填写规则请参见下表 参数名称 参数说明 规则类型 选择NAT规则: 防护NAT网关的流量,支持配置私网IP。 说明 NAT规则需满足: “专业版”防火墙。 已配置VPC边界防火墙。 名称 自定义安全策略规则的名称。 方向 选择“SNAT”。 源 设置会话发起方。 IP地址:填写私网IP地址,支持设置单个IP地址、多个连续IP地址、地址段。 单个IP地址,如:192.168.10.5 多个连续IP地址,中间使用“”隔开,如:192.168.0.2192.168.0.10 地址段,使用"/"隔开掩码,如:192.168.2.0/24 IP地址组:支持多个私网IP地址的集合,添加IP地址组请参见“添加自定义IP地址组和IP地址”。 地域:支持地理位置防护,通过指定大洲、国家、地区配置防护规则。 Any:任意源地址。 目的 设置会话接收方。 IP地址:填写私网IP地址,支持设置单个IP地址、多个连续IP地址、地址段。 单个IP地址,如:192.168.10.5 多个连续IP地址,中间使用“”隔开,如:192.168.0.2192.168.0.10 地址段,使用"/"隔开掩码,如:192.168.2.0/24 IP地址组:支持多个私网IP地址的集合,添加IP地址组请参见“添加自定义IP地址组和IP地址”。 地域:支持地理位置防护,通过指定大洲、国家、地区配置防护规则。 Any:任意目的地址。 服务 服务:设置协议类型、源端口和目的端口。 协议类型:支持选择TCP、UDP、ICMP。 源/目的端口:“协议类型”选择“TCP”或“UDP”时,需要设置端口号。 说明 如您需设置该IP地址的全部端口,可配置“端口”为“165535”。 如您需设置某个端口,可填写为单个端口。例如设置22端口的访问,则配置“端口”为“22”。 如您需设置某个范围的端口,可填写为连续端口组,中间使用“”隔开。例如设置80443端口的访问,则配置“端口”为“80443”。 服务组:支持多个服务(协议、源端口、目的端口)的集合,添加自定义服务组请参见“添加自定义服务组和服务”,预定义服务组请参见“查看预定义服务组”。 Any:任意协议类型和端口号。 防护动作 设置流量经过防火墙时的处理动作。 放行:防火墙允许此流量转发。 阻断:防火墙禁止此流量转发。 启用状态 设置该策略是否立即启用。 :表示立即启用,规则生效。 :表示立即关闭,规则不生效。 策略优先级 设置该策略的优先级: 置顶:表示将该策略的优先级设置为最高。 移动至选中规则后:表示将该策略优先级设置到某一规则后。 说明 设置后,优先级数字越小,策略的优先级越高。 添加的第一条防护规则默认优先级是1,无需选择“策略优先级”。 配置长连接 当前防护规则仅配置一个“服务”且“协议类型”选择“TCP”或“UDP”时,可配置业务会话老化时间。 是:设置长连接时长。 否:保留默认时长,各协议规则默认支持的连接时长如下: TCP协议:1800s。 UDP协议:60s。 说明 最大支持50条规则设置长连接。 长连接时长 “配置长连接”选择“是”时,需要配置此参数。 设置长连接时长。输入“时”、“分”、“秒”。 说明 支持时长设置为1秒~1000天。 标签 (可选)用于标识规则,可通过标签实现对安全策略的分类和搜索。 描述 (可选)标识该规则的使用场景和用途,以便后续运维时快速区分不同规则的作用。 4. 单击“确认”,完成配置防护规则。 说明 访问控制策略默认状态为放行。
        来自:
        帮助文档
        云防火墙
        用户指南
        配置访问控制策略
        通过配置防护规则拦截/放行流量
        通过添加防护规则拦截/放行流量
      • TCP请求获取客户端真实源IP地址
        工作原理 天翼云资源池,针对四层的TCP请求(TCP监听器),可以通过下述两种方式获取客户端源IP: 1. 在后端主机内配置TOA插件获取客户端的真实源IP地址。TOA是操作系统的内核模块,需要在ELB后端主机中安装TOA插件,以实现后端主机可获取客户端真实源IP地址的目的。具体操作参考——操作步骤(TOA模式)。 2. 在后端主机组上打开“获取客户端真实源IP”(该功能不支持平滑开启,切换到ProxyProtocol需要业务停服升级,请谨慎配置)开关,并在后端主机里开启Proxy Protocol后获取到客户端真实源IP。具体操作参考——操作步骤(Proxy Protocol模式)。该功能具体支持情况请以控制台显示为准。 说明 “获取客户端真实源IP”需要代理服务器和后端主机都支持该协议才能正常使用。如果后端主机不具备解析Proxy Protocol协议能力,打开特性开关可能会导致后端服务解析异常,从而影响服务可用性。 对于操作步骤(Proxy Protocol模式)实际支持情况以控制台展现为准。 操作步骤 TOA模式 1. 准备编译环境 a. 针对Linux内核版本为3.0以上的操作系统。以Centos环境为例。 b. 安装gcc编译器,执行以下命令: sudo yum install gcc c. 安装make工具,执行以下命令: sudo yum install make d. 安装内核模块开发包,执行以下命令: sudo yum install kerneldeveluname r e. 注意开发包的版本需要与内核版本一致,假如自带源里没有对应的内核开发包,可以到以下链接地址进行下载,地址如下: 以3.10.01160.80.1.0.1.el7.x8664为例,下载后执行以下命令安装: rpm ivh kerneldevel3.10.01160.80.1.0.1.el7.x8664.rpm f. 以下步骤是以Ubuntu、Debian环境为例,进行编译环境准备。 g. 安装gcc编译器,执行以下命令: sudo aptget install gcc h. 安装make工具,执行以下命令: sudo aptget install make i. 安装内核模块开发包,执行以下命令: sudo aptget install linuxheadersuname r 2. 编译内核模块 a. 下载TOA内核模块源代码,点击进入常见TOA下载页面 (获取验证码:t7nv)进行下载。 b. 编译模块。执行以下命令: cd src make c. 编译过程若未提示warning或者error,说明编译成功,检查当前目录下是否已经生成toa.ko文件。 3. 加载内核模块 a. 加载内核模块,执行以下命令: sudo insmod toa.ko b. 验证模块加载情况及内核输出信息,执行以下命令: dmesg grep TOA 假如提示信息中包含“TOA: toa loaded”,则证明内核模块已经加载成功。 说明 当CoreOS在容器中编译完内核模块后,需要将内核模块复制到宿主系统,最后在宿主系统中加载内核模块。另外由于编译内核模块的容器和宿主系统共享/lib/modules目录,可以在容器中将内核模块复制到该目录下,以供宿主系统使用 4. 自动加载内核模块 a. 把加载TOA内核模块的命令加到您的启动脚本中,能够保证TOA内核模块在系统启动时生效。 b. 在自定义的启动脚本中添加加载TOA内核模块的命令。具体步骤可参考以下操作: c. 在“/etc/sysconfig/modules/”目录下新建toa.modules文件。该文件包含了TOA内核模块的加载脚本。toa.modules文件内容,请参考如下示例:
        来自:
        帮助文档
        弹性负载均衡 ELB
        最佳实践
        TCP请求获取客户端真实源IP地址
      • Kafka触发器
        Kafka触发器可以订阅天翼云提供的分布式消息队列Kafka实例,并根据消息触发关联的函数,借此能力,使得函数可以消费指定Topic的消息,执行自定义处理逻辑。 注意事项 Kafka触发器订阅的Kafka实例必须和函数计算的函数实例在相同地域。 前提条件 已创建函数。 已开通分布式消息Kafka实例(KAFKA引擎版),详情请参考创建分布式消息服务Kafka实例。 已创建Topic,创建GroupID(可选)。 操作步骤 1. 登录函数计算控制台,点击目标函数,进入函数详情。 2. 选择详情下顶部的配置选项卡。 3. 在配置选项卡 中,选择左边的触发器选项卡。 4. 点击创建触发器 ,在弹出的右抽屉中选择Kafka触发器,配置参数解释如下。 配置项 操作 示例 触发器类型 选择Kafka触发器。 Kafka触发器 名称 填写自定义的触发器名称。 kafkatrigger 版本或别名 默认值为LATEST,支持选择任意函数版本或函数别名。 LATEST Kafka 实例 选择已创建的Kafka实例。 Topic 选择已创建的Kafka实例的Topic。 Group ID 快速创建:推荐方案。自动创建以 GROUPFCTrigger{triggername}{uuid} 命名的 Group ID。 使用已有:选择Kafka实例已有的GroupID,请您注意不要与已有的业务混用GroupID,否则会影响已有的消息收发。 消费任务并发数 消费者的并发数量,有效取值范围为[1,20],建议不超过Topic的分区数。该值同时影响投递到函数的并发数。 消费位点 选择消息的消费位点,即触发器从kafka消息队列开始拉取消息的位置。 最早位点 :从最早位点开始消费。 最新位点:从最新位点开始消费。 最新位点 调用方式 选择函数调用方式。 同步调用 :指触发器消费topic消息后投递到函数是同步调用,会等待函数响应后继续下一个消息投递。但消费任务并发数大于1时,多个消费者有可能会并发消费消息并投递,并发的情况视Topic队列本身积存的消息而定。 异步调用:指触发器消费topic消息后投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 同步调用 触发器启用状态 创建触发器后是否立即启用。默认选择开启,即创建触发器后立即启用触发器。 启用 推送配置 批量推送条数:批量推送的最大值,积压值达到后立刻推送,取值范围为 [1, 10000]。 批量推送间隔:批量推送的最大时间间隔,达到后立刻推送,单位秒,取值[0,15]。默认0无需等待,数据直接推送。 推送格式:函数收到的事件格式,详情请查阅触发器事件消息格式。 重试策略 消息推送函数失败后重试的策略,共两种: 指数退避:指数退避重试,重试5次,重试周期为2,4,8,16,32(秒)。 线性退避:线性退避重试,重试5次,重试周期为1,2,3,4,5(秒)。 容错策略 当重试次数耗尽后仍然失败时的处理方式: 允许容错:当异常发生并超过重试策略配置时直接丢弃。 禁止容错:当异常发生并超过重试策略配置时继续阻塞执行。 死信队列 当容错策略为:允许容错时,可以额外开启死信队列。当开启死信队列时且异常发生并超过重试策略配置时,消息会被投递到指定的消息队列里,当前只支持投递到kafka和rocketmq
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        Kafka触发器
      • 购买云防火墙
        本文介绍如何购买云防火墙。 云防火墙支持一个账号下购买多个防火墙,便于管理不同场景下的资源和策略。 前提条件 当前账号拥有BSS Administrator权限。 版本信息说明 云防火墙支持包年/包月(预付费)计费方式,提供以下服务版本:标准版、专业版。 各版本的功能差异请参见产品功能。 各服务版本推荐使用的说明如下: 标准版 有等保需求,或对网络入侵、主机失陷等网络安全比较关注的中小型客户。 专业版 有等保或重保需求,或对网络入侵、主机失陷、内部网络互访等网络安全比较关注的中大型客户。 标准版防火墙 1. 登录天翼云控制中心。 2. 在左侧导航树中,单击左上方的“服务列表”,选择“安全 > 云防火墙”,进入云防火墙的概览页面。 3. 单击“购买云防火墙”,进入“购买云防火墙”页面,相关参数如下表所示。 参数名称 参数说明 计费模式 包年/包月,按配置周期计费。 区域 购买云防火墙的区域。 版本规格 选择版本:标准版。 版本规格 扩展防护公网IP数 (可选)选择需扩展的防护公网IP数,可选择范围:0~2000个 说明 此处为套餐外购买数量,例如标准版防护公网IP数默认20个(套餐内费用包含),如果您的公网IP是65个,那么只需要填写45个。 版本规格 扩展互联网边界防护带宽 (可选)选择需扩展的防护流量峰值(出流量或入流量的最大峰值),可选择范围:0~5000Mbps/月(需为5的整数倍) 说明 此处为套餐外购买流量值,例如标准版防护互联网边界流量峰值默认10Mbps(套餐内费用包含),如果您的防护流量是200Mbps,那么只需要填写190Mbps。 防护流量按照出流量或入流量的最大峰值取值。 高级设置 防火墙名称 设置当前防火墙的名称。 命名规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)、空格和特殊字符()。 长度支持148个字符。 高级设置 企业项目 在下拉列表中选择防火墙归属的企业项目,选择后,防火墙将归属到该企业项目下,用于费用及账单管理;但是,云防火墙的防护层级不会发生改变,仍支持防护所有企业项目下的资源。 企业项目针对企业用户使用,只有开通了企业项目的客户,或者权限为企业主账号的客户才可见。企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 说明 “default”为默认企业项目,账号下原有资源和未选择企业项目的资源均在默认企业项目内。 高级设置 标签 (可选)如果您需要使用同一标签标识多种云资源,即所有服务均可在标签输入框下选择同一标签,建议在TMS中创建预定义标签。 购买时长 自主选择购买时长。 选择时长后,可勾选“自动续费”若您勾选并同意自动续费,则在服务到期前,系统会自动按照购买周期生成续费订单并进行续费,无需手动续费。 4. 确认购买信息无误后,单击“立即购买”。
        来自:
        帮助文档
        云防火墙
        用户指南
        购买及变更云防火墙
        购买云防火墙
      • 什么时候记录日志
        本页介绍天翼云TeleDB数据库什么时候记录日志相关参数。 clientminmessages (enum) 控制被发送给客户端的消息级别。有效值是DEBUG5、 DEBUG4、DEBUG3、DEBUG2、 DEBUG1、LOG、NOTICE、 WARNING、ERROR、FATAL和PANIC。每个级别都包括其后的所有级别。级别越靠后,被发送的消息越少。默认值是NOTICE。注意LOG在这里有与logminmessages中不同的排名。 logminmessages (enum) 控制哪些消息级别被写入到服务器日志。有效值是DEBUG5、DEBUG4、 DEBUG3、DEBUG2、DEBUG1、 INFO、NOTICE、WARNING、 ERROR、LOG、FATAL和 PANIC。每个级别都包括以后的所有级别。级别越靠后,被发送的消息越少。默认值是WARNING。注意LOG在这里有与logminmessages中不同的排名。只有超级用户可以改变这个设置。 logminerrorstatement (enum) 控制哪些导致一个错误情况的SQL 语句被记录在服务器日志中。任何指定严重级别或更高级别的消息的当前 SQL 语句将被包括在日志项中。有效值是DEBUG5、 DEBUG4、DEBUG3、 DEBUG2、DEBUG1、 INFO、NOTICE、 WARNING、ERROR、 LOG、 FATAL和PANIC。默认值是ERROR,它表示导致错误、日志消息、致命错误或恐慌错误的语句将被记录在日志中。要有效地关闭记录失败语句,将这个参数设置为PANIC。只有超级用户可以改变这个设置。 logmindurationstatement (integer) 如果语句运行至少指定的毫秒数,将导致记录每一个这种完成的语句的持续时间。将这个参数设置为零将打印所有语句的执行时间。设置为1 (默认值)将停止记录语句持续时间。例如,如果你设置它为250ms,那么所有运行 250ms 或更久的 SQL 语句将被记录。启用这个参数可以有助于追踪应用中未优化的查询。只有超级用户可以改变这个设置。对于使用扩展查询协议的客户端,解析、绑定和执行步骤的持续时间将被独立记录。注意当把这个选项和logstatement一起使用时,已经被logstatement记录的语句文本不会在持续时间日志消息中重复。如果你没有使用syslog,我们推荐你使用loglineprefix记录 PID 或会话 ID,这样你可以使用进程 ID 或会话 ID 把语句消息链接到后来的持续时间消息。 表1解释了TeleDB所使用的消息严重级别。如果日志输出被发送到syslog或 Windows 的eventlog,严重级别会按照表中所示进行转换。 表61 表1 消息严重级别 严重性 用法 syslog eventlog DEBUG1..DEBUG5 为开发者提供连续的更详细的信息。 DEBUG INFORMATION INFO 提供用户隐式要求的信息,例如来自VACUUM VERBOSE的输出。 INFO INFORMATION NOTICE 提供可能对用户有用的信息,例如长标识符截断提示。 NOTICE INFORMATION WARNING 提供可能出现的问题的警告,例如在一个事务块外COMMIT。 NOTICE WARNING ERROR 报告一个导致当前命令中断的错误。 WARNING ERROR LOG 报告管理员可能感兴趣的信息,例如检查点活动。 INFO INFORMATION FATAL 报告一个导致当前会话中断的错误。 ERR ERROR PANIC 报告一个导致所有数据库会话中断的错误。 CRIT ERROR
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        什么时候记录日志
      • 有效的数据治理策略
        shardmap 大商户使用定制的数据分布逻辑,即:Shardid Hash(merchantid) % shardmap + fcreatetime dayoffset from 19700101 通过在大商户group分布逻辑中加入日期偏移,来实现同一个用户的数据在group内部多个节点间均匀分布。从而有效的解决数据分布不均匀问题。 示例: 如大小商户数据的不同处理逻辑: 从以上示例可以看出,大商户的数据每天都有不同的shardid,不同的shardid也就意味着不同的数据库节点,从而可以达到数据在group内部的完美平衡。 冷热数据分级存储方案 冷热数据分级存储是指TeleDB支持根据数据的访问频率和业务重要性,将数据分为冷数据和热数据,并分别存储在不同的存储介质中。冷数据是指访问频率低,对当前项目价值较低,但需要长期保存的数据。这些数据一般存储在低成本、低性能的介质中。热数据是指经常被访问和修改,且需要快速访问的数据。由于这些数据为高性能和低延迟设计,需存储在高性能的存储介质中。针对冷热数据的存储介质的差异,TeleDB开发了冷热数据分离的功能,从而有效的降低业务的资源成本。 TeleDB冷热数据分离功能的整体逻辑框图如下: 对象存储OSS或是HDFS文件系统作为冷数据存储对象,通过XBlock搬迁数据至远端文件系统,通过XLake从数据库访问远端文件系统。 说明 Oss是指对象存储,在冷热分离方案中用于存放冷数据。 XBlock一种远端访问文件系统,可以屏蔽掉不同类型的底层文件系统,并将数据库数据搬迁至远端文件系统。 XLake一种数据库外部访问方案,可以让数据库直接访问外部的数据文件,并参与内部查询。 XBlock主要包括文件系统接口、访问连接管理、文件缓存、元数据管理和文件系统实现等。 文件系统接口:天翼云TeleDB数据库的冷热分离特性,需要能够将冷数据,转存到相应的冷数据存储中,并且能过对冷数据存储中的文件进行相应的打开、读取、写入等操作。 访问连接管理:冷热分离组件也需要考虑数据库的并发场景,需要能够支持多session同时对冷热分离模块进行访问读取。 文件缓存:多次对冷数据进行访问,则也需要在内存中缓存部分数据,提升后续的访问速率,且需要有缓存管理,能够根据一定规则进行缓存淘汰。 元数据管理:冷热分离特性对于冷数据的转储,请求读取等操作,都会记录一条元数据到相应的元数据库中,并且需要能够对元数据进行管理。 文件系统实现:冷热分离特性需要实例能够对冷数据存储中的文件有相应的操作能力,包括不限于ls、state等命令。 XLake主要包括文件访问的配置、不同数据格式的支持和不同文件系统的访问支持。 文件访问的配置:需要Xlake能够以外部文件为基准,创建外表,并且对外表进行查询,以及查询计划的展示和优化。 不同数据格式的支持:需要Xlake能够支持不同的文件格式,包括text、csv以及Parquet文件格式。 不同文件系统的访问支持:需要Xlake能够支持不同的文件系统,包括oss、hdfs、hive等,从而能够通过对接不同的文件系统,实现冷热分离的功能。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        有效的数据治理策略
      • 访问防护域名响应404状态码
        本文介绍访问DDoS高防(边缘云版)域名资源出现404状态码的排查过程。 问题现象 在使用天翼云DDoS高防(边缘云版)时,出现404报错页面。 问题原因 404状态码是HTTP协议中的一种状态码,表示客户端所请求的资源未找到。当服务器无法找到与请求的URL对应的资源时,会返回404状态码给客户端,Web浏览器中显示为“页面未找到”、“页面不存在”或类似的提示,具体如下图示: 导致该错误的原因可能有如下几种: 场景一:网站配置未正确配置:如果网站配置未正确配置,指向了错误的资源路径,源站会无法找到正确的内容,从而导致404页面的出现。 场景二:服务器资源不存在:如果网站管理员删除或重命名源服务器上的某个文件或目录,服务器对应旧URI路径的资源不存在,那么边缘节点将无法得到对应的文件,从而返回404状态码。 场景三:拼写错误或客户端URL生成规则错误:如果在URL中存在拼写错误、文件路径错误或客户端URL生成规则有误等问题,将无法在服务器找到对应的资源,从而返回404状态码。 解决方案 如果您遇到访问出现404页面的情况,根据不同场景,可以尝试以下解决方法: 场景一:检查网站配置是否正确:控制台网站配置的回源域名/回源IP、回源HOST、回源端口、回源协议等配置是否正确。 1、回源域名/回源IP错误:检查回源域名/回源IP配置是否为目标源服务器的域名或IP、拼写是否正确。 2、回源HOST配置错误:回源HOST用于指定边缘节点回源时,请求URI具体的资源站点位置。如果回源HOST配置错误,源站无法根据HOST定位到URI资源的站点位置,源站也会响应404。回源域名/回源IP、回源HOST的区分如下: 回源域名/回源IP:指您的源站服务器,即存储和提供网站内容的主要服务器,该地址决定了回源时建连的具体IP地址。 回源HOST:指边缘节点回源请求头中携带的HOST字段值,决定了回源请求访问到源IP地址上的具体站点位置。若未指定回源HOST,默认取值当前加速域名。 3、回源端口/回源协议配置错误:该问题通常存在于源站端口非默认80/443端口,或http、https仅单一协议中存在资源。例如: 源站HTTP服务端口为81,则需要修改回源配置,自定义【源站端口】为HTTP 81,同时需要修改回源协议为HTTP。 源站HTTPS服务端口为82,目前HTTPS服务端口不支持自助自定义,请提交工单联系天翼云客服进行配置。 源站仅单一协议存在资源(HTTP默认80端口,HTTPS默认443端口),则根据实际源站情况,修改回源协议为HTTP或HTTPS。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        故障排查
        访问防护域名响应404状态码
      • 全站加速资源包计费
        通过本文您可以详细了解全站加速的预付费资源包的种类、价格、计费规则及使用须知。 资源包计费(预付费) 天翼云全站加速资源包计费项分为三个部分:流量包+动态请求包+静态https请求包。 资源包有效期:一年。 中国内地价格 基本描述:包含全站加速流量包、静态https请求包、动态请求包。 计费项 阶梯/规格 标准资费(元/个) 流量包 100GB 17 流量包 500GB 85 流量包 1TB 170 流量包 5TB 850 流量包 10TB 1700 流量包 50TB 7650 流量包 200TB 25500 流量包 1PB 127500 静态https请求包 1000万次 40 静态https请求包 1亿次 360 静态https请求包 10亿次 3200 静态https请求包 100亿次 28000 静态https请求包 1000亿次 200000 动态请求包 100万次 13 动态请求包 1000万次 128 动态请求包 1亿次 1275 动态请求包 10亿次 12500 动态请求包 100亿次 120000 全球(不含中国内地)价格 基本描述:包含全站加速流量包、静态https请求包、动态请求包。 计费项 计费区域 阶梯/规格 标准资费(元/个) 流量包 北美区域 100GB 36 流量包 北美区域 500GB 150 流量包 北美区域 1TB 280 流量包 北美区域 5TB 1320 流量包 北美区域 10TB 2630 流量包 北美区域 50TB 12780 流量包 欧洲区域 100GB 36 流量包 欧洲区域 500GB 150 流量包 欧洲区域 1TB 280 流量包 欧洲区域 5TB 1320 流量包 欧洲区域 10TB 2630 流量包 欧洲区域 50TB 12780 流量包 亚太1区 100GB 45 流量包 亚太1区 500GB 190 流量包 亚太1区 1TB 365 流量包 亚太1区 5TB 1680 流量包 亚太1区 10TB 3350 流量包 亚太1区 50TB 16380 流量包 亚太2区 100GB 48 流量包 亚太2区 500GB 215 流量包 亚太2区 1TB 400 流量包 亚太2区 5TB 1850 流量包 亚太2区 10TB 3680 流量包 亚太2区 50TB 17980 流量包 亚太3区 100GB 50 流量包 亚太3区 500GB 225 流量包 亚太3区 1TB 430 流量包 亚太3区 5TB 1990 流量包 亚太3区 10TB 3960 流量包 亚太3区 50TB 19400 流量包 中东/非洲 100GB 99 流量包 中东/非洲 500GB 415 流量包 中东/非洲 1TB 800 流量包 中东/非洲 5TB 3760 流量包 中东/非洲 10TB 7500 流量包 中东/非洲 50TB 36400 流量包 南美 100GB 90 流量包 南美 500GB 390 流量包 南美 1TB 750 流量包 南美 5TB 3540 流量包 南美 10TB 7050 流量包 南美 50TB 34270 静态https请求包 全球(不含中国内地) 1000万次 40 静态https请求包 全球(不含中国内地) 1亿次 360 静态https请求包 全球(不含中国内地) 10亿次 3200 静态https请求包 全球(不含中国内地) 100亿次 28000 静态https请求包 全球(不含中国内地) 1000亿次 200000 动态请求包 全球(不含中国内地) 100万次 14 动态请求包 全球(不含中国内地) 1000万次 130 动态请求包 全球(不含中国内地) 1亿次 1200 动态请求包 全球(不含中国内地) 10亿次 11000 动态请求包 全球(不含中国内地) 100亿次 100000
        来自:
        帮助文档
        全站加速
        计费说明
        资源包计费(预付费)
        全站加速资源包计费
      • 自定义监控
        自定义监控展示用户所有自主定义上报的监控指标。用户可以针对自己关心的业务指标进行监控,将采集的监控数据通过使用简单的API请求上报至云监控服务进行处理和展示。 查看自定义监控 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 单击页面左侧的“自定义监控”。 4. 在“自定义监控”页面,可以查看当前用户通过API请求上报至云监控服务的相关数据,包括自定义上报的服务,指标等。 说明 当用户通过API添加监控数据后,云监控服务界面才会显示自定义监控数据。 5. 选择待查看的云服务资源所在行的“查看监控指标”,进入“监控指标”页面。 在这个页面,用户可以选择页面左上方的时间范围按钮,查看该云服务资源“近1小时”、“近3小时”、“近12小时”、“近1天”和“近7天”的监控原始数据曲线图,同时监控指标视图右上角会动态显示对应时段内监控指标的最大值与最小值。 添加自定义告警规则 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 在“告警 > 告警规则”界面,单击“创建告警规则”。 4. 在“创建告警规则”界面,根据界面提示配置参数。 1. 选择监控对象,根据界面提示配置参数,如表11所示。 表11 配置参数 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 取值样例:alarmb6al 描述 告警规则描述(此参数非必填项)。 归属企业项目 告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 资源类型 配置告警规则监控的云服务资源名称。 取值样例:弹性云主机 维度 用于指定告警规则对应指标的维度名称 取值样例:云主机 监控范围 告警规则适用的资源范围,可选择资源分组或指定资源。 说明 : 当选择资源分组时,该分组下任何资源满足告警策略时,都会触发告警通知。 资源分组不支持通过模板创建告警规则。 分组 当监控范围为资源分组时需配置此参数。  b. 选择监控指标,选择“自定义创建”,参照表12完成参数配置。 表12 配置参数 参数 参数说明 取值样例 选择类型 选择自定义创建。 自定义创建 指标名称 例如: CPU使用率 该指标用于统计测量对象的CPU使用率,以百分比为单位。 内存使用率 该指标用于统计测量对象的内存使用率,以百分比为单位。 CPU使用率 告警策略 触发告警的告警策略。 例如:监控周期为5分钟,连续三个周期平均值≥80% 告警级别 根据告警的严重程度不同等级,可选择紧急、重要、次要、提示。 重要 发送通知 配置是否发送邮件、短信通知用户,可以选择“是” (推荐选择)或者“否”。选择“否”,就不会发送邮件、短信通知用户,选择“是”,就需要选择已有的主题或者新建主题。 是 选择主题 消息发布或客户端订阅通知的特定事件类型,若此处没有需要的主题,需先创建主题并订阅该主题。 生效时间 该告警规则仅在生效时间内发送通知消息。 如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。
        来自:
        帮助文档
        云监控服务
        用户指南
        自定义监控
      • 函数定时触发器Cron表达式规则
        字段 说明 取值范围 允许的特殊字符 秒 必选 059 , / 分钟 必选 059 , / 时 必选 023 , / 日(Day of month) 必选 131 , ? / 月 必选 112或者JanDec(英文不区分大小写)如表329所示。 , / 星期几(Day of week) 可选 06或者SunSat(0表示星期天,英文不区分大小写),如表330所示。 , ? /
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        函数定时触发器Cron表达式规则
      • 配置静态服务池
        添加自定义资源配置组 1. 是否需要根据时间自动调整资源配置? 是,执行步骤2。 否,执行步骤4。 2. 单击增加新的资源配置组。在“调度时间”,单击显示时间策略配置页面。 根据业务需要修改以下参数,并单击“确定”保存: “重复”:当勾选“重复”时表示此资源配置组按调度周期重复运行。不勾选时请设置一个资源配置组应用的日期与时间。 “重复策略”:支持“每天”、“每周”和“每月”。仅在“重复”模式中生效。 “介于”:表示资源配置组应用的开始与结束时间。请设置一个唯一的时间区间,如果与已有配置组的时间区间有重叠,则无法保存。仅在“重复”模式中生效。 说明 “default”配置组会在所有未定义的时间段内生效。 新增加的配置组属于动态生效的配置项集合,在配置组应用的时间区间内可直接生效。 新增加的配置组可以被删除。最多增加4个动态生效的配置组。 选择任一种“重复策略”,如果结束时间小于开始时间,默认标识为第二天的时间。例如“22:00”到“6:00”表示调度时间为当天22点到第二天6点。 若多个配置组的“重复策略”类型不相同,则时间区间可以重叠,且生效的策略优先级从低到高的顺序为“每天”、“每周”、“每月”。例如,有“每月”与“每天”的调度配置组,时间区间分别为4:00到7:00,6:00到8:00,此时以每月的配置组为准。 若多个配置组的“重复策略”类型相同,当日期不相同时,则时间区间可以重叠。例如,有两个“每周”的调度配置组,可以分别指定时间区间为周一和周三的4:00到7:00。 3. 在“服务池配置”修改各服务资源配置,并单击页面空白处完成编辑,然后执行步骤4。 用户可单击“服务池配置”右侧的重新修改参数。如果根据业务需要,在“详细配置”单击,手动更新由系统生成的参数值。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        静态服务池管理
        配置静态服务池
      • 创建桶
        本文帮助您了解对象存储创建桶的操作步骤。 操作场景 创建桶是对象存储中的一项重要操作,它提供了一个容器来组织和管理对象。您需要先创建一个桶,然后才能在桶中存储数据。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表页面点击“创建Bucket”。 5. 填写基础配置(包括地域、Bucket名称、企业项目、读写权限),然后点击“下一步”,继续填写高级配置(包括数据冗余策略、存储类型、服务端加密、合规保留等)。创建桶的全部配置参数说明可见下表: 参数 说明 地域 桶所在的地域。存储桶一旦创建成功,地域不能修改。 Bucket名称 桶的名称,注意以下命名规则: 不能与已有的任何桶名称重复。 创建成功后不支持修改。 长度范围为3到63个字符,支持小写字母、数字、中划线()。 禁止以中划线()开头或结尾。 存储类型 桶的存储类型,可选标准存储/低频存储/归档存储。部分资源池暂不支持低频或归档存储。 读写权限 桶的读写权限控制。 私有:仅桶的拥有者和授权用户可进行读写操作。 公共读:公共读权限下所有用户均拥有该桶的读权限,这有可能造成数据的外泄 以及费用激增,不推荐此配置。 数据冗余策略 单AZ存储:选择单AZ,数据会存储在一个可用区。单AZ存储支持标准存储、低频存储、归档存储三种存储类型。 多AZ存储:选择多AZ存储,数据会存储在同一地域的多个可用区中,可用性更高。多AZ采用相对较高的计费标准。多AZ存储仅支持标准或低频存储类型。 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略后续无法更改。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务将统一的云资源按项目管理。 为桶选择所属的企业项目,从而将桶与企业项目进行关联。在选择“企业项目”的下拉列表中,将显示用户在企业项目服务中已创建的项目。 系统还内置了一个缺省的企业项目“default”,如果用户没有为桶创建企业项目,将使用缺省项目“default”。您也可参考创建企业项目完成企业项目创建。 服务端加密 开启服务端加密功能,上传的对象将以加密的方式存储在ZOS中。 下载对象时,ZOS会自动将加密文件解密后再提供给用户。 选择加密方式。取值范围如下: 关闭 : 不启用服务器端加密。 ZOS完全托管 : 使用ZOS托管的密钥进行加密。 KMS : 使用KMS默认托管的CMK或指定CMK ID进行加解密操作 。 2种加密方式的对比见服务端加密。 合规保留 开启合规保留后,允许用户以“不可删除、不可篡改”方式保存和使用数据。 是否编辑桶标签 为指定存储桶设置标签,用来标记不同用途的存储桶并进行分类管理。 说明 桶名称全局唯一,在任何集群,都不能与已有的任何桶名称重复,包括其他用户创建的桶。 7. 点击下一步,确认配置后点击“确认”,完成Bucket创建。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        桶管理
        创建桶
      • 在CTS事件列表查看云审计事件
        在CTS旧版事件列表查看审计事件 1. 登录控制台,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 2. 单击左侧导航栏的“事件列表”,进入事件列表信息页面。 3. 用户每次登录云审计控制台时,控制台默认显示新版事件列表,单击页面右上方的“返回旧版”按钮,切换至旧版事件列表页面。 4. 在页面右上方,可以通过筛选时间范围,查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 5. 事件列表支持通过筛选来查询对应的操作事件,如图所示。 6. 参数名称 说明 事件类型 事件类型分为“管理事件”和“数据事件”。 管理类事件,即用户对云服务资源新建、修改、删除等操作事件。 数据类事件,即OBS服务上报的OBS桶中的数据的操作事件,例如上传数据、下载数据等。 云服务 在下拉选项中,选择触发操作事件的云服务名称。 资源类型 在下拉选项中,选择操作事件涉及的资源类型。 各个云服务的资源类型请参见《云审计服务用户指南》的“支持审计的服务及操作列表”章节。 筛选类型 筛选类型分为“资源ID”、“事件名称”和“资源名称”。 资源ID:操作事件涉及的云资源ID。 当该资源类型无资源ID,或资源创建失败时,该字段为空。 事件名称:操作事件的名称。 各个云服务支持审计的操作事件的名称请参见《云审计服务用户指南》的“支持审计的服务及操作列表”章节。 资源名称:操作事件涉及的云资源名称。 当事件所涉及的云资源无资源名称,或对应的API接口操作不涉及资源名称参数时,该字段为空。 操作用户 触发事件的操作用户。 下拉选项中选择一个或多个操作用户。 查看事件中的tracetype的值为“SystemAction”时,表示本次操作由服务内部触发,该条事件对应的操作用户可能为空。 事件级别 可选项包含“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 Normal代表操作成功。 Warning代表操作失败。 Incident代表比操作失败更严重的情况,如引起其他故障等。 7. 选择完查询条件后,单击“查询”。 8. 在事件列表页面,您还可以导出操作记录文件和刷新列表。 1. 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 2. 单击按钮,可以获取到事件操作记录的最新信息。 9. 在事件的“是否篡改”列中,您可以查看该事件是否被篡改: 1. 上报的审计日志没有被篡改,显示“否”; 2. 上报的审计日志被篡改,显示“是”。 10. 在需要查看的事件左侧,单击展开该记录的详细信息。 11. 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。 12. (可选)在旧版事件列表页面,单击右上方的“体验新版”按钮,可切换至新版事件列表页面。
        来自:
        帮助文档
        函数工作流
        用户指南
        审计
        在CTS事件列表查看云审计事件
      • 存储卷
        数据卷(Volume)使用方式 常见的容器存储数据卷使用方式如下: 静态存储卷:静态存储卷一般是指由管理员创建的PV。所有的数据卷(Volume)都支持创建静态存储卷。静态存储卷先由集群管理员分析集群中存储需求,并预先分配一些存储介质(例如云盘、NAS盘等),同时创建对应的PV对象。创建好的PV对象等待PVC来消费。如果负载中定义了PVC需求,Kubernetes会通过相关规则实现PVC和匹配的PV进行绑定,这样就实现了应用对存储服务的访问能力。 动态存储卷:动态存储卷一般是指通过存储插件自动创建的PV。动态卷一般由集群管理员配置好后端的存储池,并创建相应的模板(StorageClass),当有PVC需要消费PV的时候,根据PVC定义的需求,并参考StorageClass的存储细节,由存储插件动态创建一个PV。StorageClass的定义如下: StorageClass:当您声明一个PVC时,如果在PVC中添加了StorageClassName字段,意味着当PVC在集群中找不到匹配的PV时,会根据StorageClassName的定义触发相应的Provisioner插件创建合适的PV供绑定,即创建动态数据卷。动态数据卷由Provisioner插件创建,并通过StorageClassName与PVC进行关联。StorageClass可译为存储类,表示为一个创建PV存储卷的模板。在PVC触发自动创建PV的过程中,即使用StorageClass对象中的内容进行创建。其内容如下: apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name:aliclouddisktopology parameters: type:cloudssd provisioner:diskplugin.csi.ctyun.com reclaimPolicy:Delete allowVolumeExpansion:true volumeBindingMode:WaitForFirstConsumer 参数 描述 reclaimPolicy 用来指定创建PV的persistentVolumeReclaimPolicy字段值,支持Delete和Retain。 l Delete表示动态创建的PV,在销毁的时候也会自动销毁。 l Retain表示动态创建的PV,不会自动销毁,而是由管理员处理。 allowVolumeExpansion 定义由此存储类创建的PV是否运行动态扩容,默认为false。是否能动态扩容是由底层存储插件来实现的,这里只是一个开关。 volumeBindingMode 表示动态创建PV的时间,支持Immediate和WaitForFirstConsumer,分别表示立即创建和延迟创建。 延迟绑定:针对某类存储(例如天翼云云盘)在挂载属性上有所限制,只能挂载相同可用区的数据卷和节点,不在同一个可用区不可以挂载。这种类型的存储卷通常遇到如下问题: 1、创建了A可用区的数据卷,但是A可用区的节点资源已经耗光,导致Pod启动无法完成挂载。 2、集群管理员在规划PVC、PV的时候不能确定在哪些可用区创建多个PV来备用。 3、StorageClass中的volumeBindingMode字段正是用来解决此问题,如果将volumeBindingMode配置为WaitForFirstConsumer值,则表示存储插件在收到PVC Pending的时候不会立即进行数据卷创建,而是等待这个PVC被Pod消费的时候才执行创建流程。 动态存储卷的优势: 1、动态存储卷让Kubernetes实现了PV的自动化生命周期管理,PV的创建、删除都通过Provisioner完成。 2、自动化创建PV对象,减少了配置复杂度和系统管理员的工作量。 3、动态卷可以实现PVC对存储的需求容量和Provisioner出来的PV容量一致,实现存储容量规划最优。 4、挂在SubPath卷:Kubernetes提供了volumeMounts.subPath属性配置,可用于指定所引用的卷内的子路径,而不是其根路径。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        存储
        存储卷
      • 数据空间管理
        本页介绍天翼云TeleDB数据库空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 1. 选择数据迁移 页签,单击创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入任务名称 、源节点 、目标节点 和迁移类型。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移 和百分比迁移 。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 3. 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务,出现创建清理任务 对话框。 2. 选择源节点 、清理开始时间 和清理结束时间 ,单击确定。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务 对话框。 2. 选择回收节点、设置回收开始时间和回收结束时间,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务页签,单击创建任务,出现创建数据重平衡任务对话框。 2. 输入任务名称,选择节点组,单击确定,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 ,并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1.不能以pg开头。 2.只支持大小写字母、数字和下划线。 3.只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        数据空间管理
      • 数据空间管理
        本页介绍天翼云TeleDB数据库的数据空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 1. 选择数据迁移 页签,单击创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入任务名称 、源节点 、目标节点 和迁移类型。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移和百分比迁移。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 3. 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务,出现创建清理任务 对话框。 2. 选择源节点 、清理开始时间 和清理结束时间 ,单击确定。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务 对话框。 2. 选择回收节点、设置回收开始时间和回收结束时间,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务页签,单击创建任务,出现创建数据重平衡任务对话框。 输入任务名称,选择节点组,单击确定,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 ,并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1.不能以pg开头。 2.只支持大小写字母、数字和下划线。 3.只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 产品功能
        漏洞扫描及验证 通过网站安全监测系统平台,在无需用户采购任何Web应用扫描产品前提下,即可获得网站的漏洞态势,以及每个漏洞的详情介绍和修补建议;统计分析看板直观获取不同等级漏洞类型、易受攻击目标等数据,漏洞趋势分析摸底网站漏洞发展情况,同时兼具实时大屏态势感知功能方便跟踪漏洞发生大盘状态,方便及时作出处置。 服务支持远程扫描Web漏洞和按照国际权威安全机构WASC分类的25种Web应用漏洞,全面覆盖OWASP Top 10 Web应用风险。 如采购漏洞专家验证服务,还会提供针对中高危漏洞提供专家验证,确保漏洞真实存在,并协助客户完成漏洞复验,更好的完成漏洞生命周期管理。 安全事件监测 使用静态分析和动态解析相结合的主动挂马监测技术,通过解析引擎模拟环境监控记录URL页面运行行为,生成日志;通过后端引擎根据预定义规则高效、准确识别网站页面中的恶意代码,以及黄赌毒私服等词汇的恶意链接,使网站管理员能够及时清除网页木马及黑链,避免给访问者带来安全威胁,影响网站信誉。 使用前后页面对比的方式,辅以恶意文本核查分析,实时监测目标网站页面的篡改情况,支持监测静态文本内容的变化以及DOM树结构的变化;发现页面被篡改情况,第一时间通知用户,避免篡改事件影响扩散,给自身带来声誉和法律风险。 实时监测目标站点的页面内容,如出现个人敏感信息(包含手机号、银行卡号、身份证号码)泄露问题,第一时间告警通知客户。 内容安全监测 网站文本、图片内容的合规性监测,监测类别包含涉黄、涉毒、涉政、赌博、暴恐、邪教;支持监测的图像格式包括但不限于JPEG、GIF、PNG、BMP、TIFF、JPEG2000;支持监测的文本格式包括但不限于Big5、UTF8、GBK、GB2312,内容类型至少支持txt、html、wmlc、wml、xhtml、mht。 基于大量数据训练的深度学习模型,对待监测页面进行文本、图片元素的敏感内容监测,输出相关敏感信息和类别。 发现页面出现敏感信息后,第一时间通知用户。用户可参考天翼云提供的安全建议及时删除敏感内容,避免事件影响扩散,给自身带来声誉和法律风险。用户也可以自定义所关心的敏感关键词。 可用性监测 多线路远程实时监测目标站点在多种网络协议下的响应速度、可访问性等反映网站性能状况的内容,一旦发现网站无法访问,或访问出现延迟。根据事先定义好的网站通断级别,第一时间通知用户。风险日志详细展示存在的访问性问题,问题时长以及各监测点的诊断信息。用户也可以视情况选择合适的网站响应时间告警阈值。 DNS监测 从各省运营商网络线路远程实时监测各地主流ISP的DNS缓存服务器和用户DNS授权服务器的解析过程及结果。一旦发现用户域名无法解析或解析不正确,第一时间通知用户。避免出现由于DNS解析失败产生的网站无法访问,以及域名劫持等安全风险。 业务管理能力 提供态势感知大屏服务,满足客户大屏监控场景需求,以一站式全局视角,实时跟踪目标系统的风险情况,及时定位问题。 提供在线统计分析看板服务,态势感知帮助用户进行业务指标跟踪,能够多维度展示监测数据情况,数据统计分析能力赋能用户分析聚焦漏洞问题。 提供网站安全评估报告和漏洞扫描报告生成和下载服务,聚合任务监测的风险结果,让您整体掌握网站的风险状况及安全趋势。
        来自:
        帮助文档
        网站安全监测
        产品介绍
        产品功能
      • 操作指引
        本小节介绍漏洞扫描服务流程。 网络要求 非电信客户的应用系统网络与扫描器网络可达,即可提供扫描服务(内网需提供用于部署扫描器的内网主机,内外网需保证路由可达)。 服务流程 业务受理单 客户应如实填写以下信息(必须填满): 1. 被检测的IP主机信息。 2. 被检测主机的操作系统类型及版本。 3. 业务接口人联系方式,客户需指定一个具有对漏洞扫描方案及漏洞扫描过程中出现的问题有决定权的业务接口联系人。 4. 客户提供扫描资产时需对所提交资产所有权负责,保证资产归提交人合法所有。 5. 客户需签订漏洞扫描授权书。 审核阶段 对委托单位提交的受理单信息进行核查,核查内容: 1. 判断资产所在环境是公网还是内网。 若是公网需要保证被扫描资产路由可达。 若是内网环境,需确认委托单位提供可访问到内网主机的跳板机。 2. 受理单审核通过后进入漏洞扫描实施阶段。 业务受理单无问题进入下一阶段;如有问题返回客服,由客服继续与客户沟通,直到业务受理单填满无问题。 说明 确认过程需1个工作日。 实施阶段 1.漏洞扫描实施方案 业务受理单确认无误后进入实施阶段,漏洞扫描操作人员接到客服的业务受理单后确认受理单信息:IP、版本、授权等并就扫描计划和受理单内容与客户确认。扫描任务实施前,分析客户主机情况,制定扫描方案,明确漏洞扫描任务具体实施时间、目标范围、合理的扫描方式以及最佳扫描策略,并就扫描方案与客户进行沟通确认,由于在漏洞扫描期间客户方未关闭安全防护设备所造成的漏扫结果不准确,乙方不承担责任。 注意 确认过程0.5个工作日。 2.实施漏洞扫描 扫描实施前若客户网络环境公网不能直达,需部署扫描器,也可配合客户自己部署,策略模板由我们提供,部署时间预计1个工作日。 关于扫描进度,目前扫描器扫描一个C段地址大约需要6个小时左右时间,扫描期间实时就扫描过程中发生的问题与客户沟通,最后扫描的结果将存放到扫描结果专用堡垒机上。 漏洞扫描的风险规避,由于漏洞扫描属于黑盒测试,因此可能对被测试目标造成不可预知的风险;此外对于性能比较敏感的测试目标,如一些实时性要求比较高的系统,由于扫描可能引起网络流量的增加,因此可能会引起被扫描目标的服务质量降低。因此需进行如下的风险规避措施: 扫描时段选择:一般会选择在夜间或安排在业务量不大的时段进行漏洞扫描。 扫描策略选择:根据系统的具体情况配置合理的扫描策略。 3.编写扫描报告 漏洞扫描完成后输出漏洞扫描服务报告,报告编写时间2个工作日。 4.报告审核修订 由专人对输出的漏洞扫描服务报告进行审核修订,审核修订时间1个工作日。 5.报告提交 报告提交方式采取邮件回复的方式提交:客户通过邮件向天翼云漏洞扫描平台发起报告接收申请,漏洞扫描服务报告以回复邮件方式给客户。 6.质保服务 在客户收到漏洞扫描服务报告后,乙方参与漏扫项目的专家为客户持续提供3天时间用于咨询报告中的不明事项。 7.结束服务 在完成以上各阶段工作后,漏洞扫描项目经理告知客服此次漏扫服务结束。
        来自:
        帮助文档
        漏洞扫描
        用户指南
        操作指引
      • 创建VPC、子网搭建私有网络
        虚拟私有云支持创建VPC、子网搭建私有网络,本文帮助您了解创建VPC、子网搭建私有网络操作流程。 前提条件 注册天翼云账号。 操作步骤 创建VPC步骤 1. 登录控制中心; 2. 在控制中心找到【网络控制台】,单击【虚拟私有云】; 3. 在【虚拟私有云列表】界面,单击【创建虚拟私有云】,打开创建建虚拟私有云详情页; 4. 在【申请虚拟私有云】页面,根据界面提示配置参数。 参数名称 是否必填 含义 例子 VPC基本信息 地域 是 当前资源创建的region名称 上海上海36 名称 是 VPC的名称 VPC1 VPC网段(IPv4) 是 虚拟私有云VPC的IPv4网段范围 192.168.0.0/16 VPC网段(IPv6) 否 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 开启 IPv6地址类型 是 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线 中国电信单线 VPC IPv6地址段 是 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 是 当前VPC所属的企业项目 default VPC描述 否 自定义的VPC描述文案 用于政务网的VPC 子网配置 子网类型 是 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 普通子网 子网名称 是 子网的名称 政务子网 子网网段(IPv4) 是 子网的私有IPv4网段 192.168.0.0/24 网关(IPv4) 是 子网的网关地址 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准) 对于地域资源池,网关地址默认为.1,可以指定其他地址 192.168.0.1 DHCP(IPv4) 是 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 192.168.0.2 子网IPv6网段 否 是否分配子网的IPv6地址 开启 子网IPv6地址段 是 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 自动分配 DNS服务器地址 否 子网内的云主机访问公网时的DNS 服务器地址,DNS服务器地址最多支持两个IP,请以英文逗号隔开。若您想要通过内网DNS访问云上服务,可以设置的DNS服务器地址为100.95.0.1。 100.95.0.1 子网描述 否 自定义的子网描述文案 政务网VPC1的xx业务子网
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        创建VPC、子网搭建私有网络
      • 查看告警信息
        本节主要介绍如何查看告警信息。 操作场景 通过查看告警列表,您可以了解近360天的告警威胁的统计信息列表,列表内容包括告警事件的名称、类型、等级和发生时间等。并可通过自定义过滤条件,如告警名称、告警等级和发生时间等,快速查询到相应告警事件的统计信息。 告警管理页面分别呈现“告警”和“攻击”,二者的区别如下: 名称 数据来源 告警 态势感知(专业版)威胁检测模型生成的告警。 用户自定义新增的告警。 用户导入的告警。 攻击 原始的告警。 前提条件 如果需要查看已接入云服务的告警信息,需要在云服务接入时开启“自动转告警”设置。如果未开启,在对应日志满足告警条件时,将不会转为告警,也不会在“告警管理”页面中进行展示。详细操作请参见接入日志数据。 查看告警信息 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“威胁管理 > 告警管理”,进入告警管理页面。 5. 在告警管理页面查看告警信息。 参数名称 参数说明 设置告警的显示时间范围 左上角可设置展示告警的周期,默认展示最近一周内的告警信息。用户可下拉选择或自定义展示告警的周期: 最近24小时 最近一周 最近一个月 自定义:用户自定义设置起止时间。 信息统计 从3个维度统计状态为“打开”或“阻塞”的告警信息: 来源分布:以柱状图形式统计各数据源的告警数。 类型Top5:以告警数维度降序排序统计前Top5类型的告警。 资产风险Top5:展示告警数多的Top5风险资产。 急需处理告警 当前工作空间中状态为“打开”或“阻塞”且风险等级为“高危”或“致命”的告警数量。 待处理告警 当前工作空间中状态为“打开”或“阻塞”,在筛选的时间范围内未处理告警的数量。 告警总数 当前工作空间在筛选的时间范围内告警总数量。 自动处理告警 当前工作空间在筛选的时间范围内通过剧本自动关闭的告警数量。 手动处理告警 当前工作空间在筛选的时间范围内手动关闭的告警数量。 告警列表 在告警列表中下方可以查看告警总条数。其中,使用翻页查看时最多可查看10000条告警信息,如果需要查看超过10000条以外数据,请优化过滤条件筛选数据。 告警列表中,可以查看告警的类型、等级、来源、处理状态等信息。如需查看某个告警概览信息详情,可单击目标告警分类,页面将展示该条告警的详情信息。 也可单击某条告警,进入告警详情页面,在告警详情页面中,可以对该条告警进行编辑、评论、一键解封、一键阻断、处置、转事件、打开、阻塞、关闭、刷新操作。告警详情页的“基础信息”、“告警说明”、“处置建议”、“攻击技战术”最终呈现的告警参数信息取决于告警模型的字段配置。 告警详情页面分别呈现如下告警信息: 概览 基础信息:呈现告警的基本信息,如告警ID、发生时间、数据来源等。 告警说明:呈现告警模型中配置的除基础信息外的其他告警信息,比如告警描述、置信度、关键性、攻击信息等。 处置建议:告警的处置建议。 分析链接:告警分析名称即产生告警的模型名称。 攻击技战术:攻击技术,攻击战术。 评论:展示该条告警以及运行的剧本的历史评论信息,还可以新增评论。 攻击 关联已有事件:该告警关联的事件。 关联情报:该告警关联的情报。 关联资产:该告警关联的资产信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        告警管理
        查看告警信息
      • 设计预案阶段
        本文为您介绍设计预案阶段的具体操作。 使用条件 若预案阶段设计需要脚本任务,需要预先在脚本库中新建脚本并发布。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段中任务的编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表中的“预案阶段设计”按钮。 1. 若当前预案阶段状态为草稿,直接进入预案阶段设计页面。 2. 若当前预案阶段状态为已启用,且未被预案关联,直接进入预案阶段设计页面。 3. 若当前预案阶段状态为已启用,且存在被草稿/已启用/已停用状态关联的预案,弹出预案阶段设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案阶段设计页面。不同状态的预案与预案阶段的关联情况如下: 1. 若当前预案阶段已被草稿状态的预案关联,对预案阶段重新设计后,对应预案将自动关联最新的预案阶段。 2. 若当前预案阶段已被启用状态的预案关联,对预案阶段重新设计后,对应预案状态将更新为“待重新启用”,需重新启用预案。 3. 若当前预案阶段已被停用状态的预案关联,对预案阶段重新设计后,对应预案状态不改变,启用预案时自动关联最新预案。 7. 在预案阶段设计页面,用户可拖拽普通任务、条件任务、开始节点和结束节点至画布中,同时可点击任务节点进行任务配置。 流程绘制说明如下: 1. 普通任务:通过关联自定义脚本或平台内置能力对单个资源执行预期操作。 2. 条件任务:在普通任务基础上支持根据条件任务的执行结果(正常/异常)分别配置后续工作,配置条件任务在配置自身任务信息外,需对后面的箭线配置执行条件,条件任务后只能有2条箭线。 3. 任务并行编排通过任务间的箭线决定,一条箭线两端的任务为串行执行顺序,一个任务后有多条普通箭线(非条件判断箭线)代表此任务执行完成后需并行执行其后的任务。 8. 用户拖拽普通任务至画布后,点击“普通任务”,弹出编辑任务弹窗,可对普通任务进行任务编辑。任务类型分为脚本任务、人工任务、内置任务。 1. 当任务类型为脚本任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为脚本任务。任务类型可选脚本任务、人工任务、内置任务。 脚本名称 √ 选择脚本名称,下拉数据源为脚本库中“已发布”状态脚本的脚本名称。 目标资源 √ 选择容灾管理中心,下拉数据源为当前命名空间下所有运行的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源。其中: 若所选脚本的资源类型为“主机”:下拉数据源为对应操作系统类型的开启了远程连接的非天翼云主机。 若所选脚本的资源类型为“数据库”:下拉数据源为对应数据库类型的配置连接信息的数据库实例。 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为自定义时,由用户自定义设置参数值。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 失败重试次数 √ 填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 2. 当任务类型为人工任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 目标资源 × 选择容灾管理中心,下拉数据源为当前命名空间下容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下资源类型的资源实例。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 描述 × 填写预案阶段描述。 长度为0100个字符。 3. 当任务类型为内置任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 任务目的 √ 选择任务目的,可选资源操作、流程控制。 操作名称 √ 选择操作名称。 任务目的为资源操作时:可选云主机关机、云主机重启、云主机开机、MySQL/Redis/PostgreSQL/MongoDB主备切换、ELB流量切换、ELB流量调节、ELB流量回切。 任务目的为流程控制时:可选等待。 等待时长 √ 仅任务目的为流程控制时可见,填写等待时长时间(单位:s)。 取值范围为17200s。 目标资源 √ 选择容灾管理中心: 1. 任务为非流量配置相关的任务时:可选当前命名空间下所有运行中的容灾管理中心。 2. 任务为流量配置相关的任务时:可选当前命名空间下配置了ELB的运行中的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源: 1. 主机相关任务:资源所选容灾管理中心下的云上云主机 2. 数据库相关任务:资源为所选容灾管理中心下的云上数据库 3. 流量相关任务:资源为所选容灾管理中心下接入成功的且流量配比进行过初始配置的应用 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 任务目的为资源操作时:填写预计耗时时间(单位:s)。 任务目的为流程控制时:与等待时长一致,不可编辑。 失败重试次数 √ 仅任务目的为资源操作时可见,填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 9. 编辑任务完毕后,点击弹窗底部“确定”按钮。若存在参数引用的相关配置,用户确认知晓提示内容后,点击“已确认”。 10. 条件任务按上方基础任务配置后,需对后面的箭线配置执行条件。点击箭线后,弹出条件配置弹窗。条件判定可选择正常或异常,选择完毕后,点击“确认”按钮,完成条件配置,配置结果显示在箭线上。 11. 整体预案阶段设计完毕后,检查是否符合预案阶段设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个普通任务或条件任务节点,且所有任务节点均不能为空; 4. 所有节点必须通过箭线连接; 5. 条件任务节点后必须跟2条箭线,且箭线上需配置判定条件,同时两条箭线的判定条件不能相同; 6. 两个节点间只能有1条箭线(不区分箭头方向); 7. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 12. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案阶段设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        设计预案阶段
      • 将MySQL同步到MySQL
        操作须知 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 在结构同步时,DTS会将视图、存储过程和函数中的DEFINER转换为INVOKER。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 增量同步场景下,支持无主键表的数据同步。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x同步到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在同步数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在同步时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到MySQL
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 创建虚拟私有云VPC
        参数 说明 取值样例 资源类型 创建VPC支持两种资源类型: (1)VPC:包含VPC、子网、网关等基本网络要素配置 (2)VPC和扩展选项:除了VPC基本网络要素配置之外还可以创建ZOS终端节点、关联DHCP选项集。通过ZOS终端节点可以实现内网对ZOS的便捷访问。 VPC 名称 VPC名称 VPC001 VPC网段(IPv4) VPC的地址范围,VPC内的子网地址必须在VPC的地址范围内。建议使用网段:10.0.0.0/828、172.16.0.0/1228、192.168.0.0/1628。如果要使用其他网段,请参考 192.168.0.0/16 VPC网段(IPv6) 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见 开启 IPv6地址类型 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线。 中国电信单线 VPC IPv6地址段 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 可以为VPC实例关联企业项目 project1 VPC描述 备注信息 测试VPC 子网配置 子网类型 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见 普通子网 子网名称 子网的名称 Subnet001 子网网段(IPv4) 子网的地址范围,需要在VPC的地址范围内 192.168.0.0/24 网关(IPv4) 子网的网关,默认为子网内第一个可用IP。 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见 192.168.0.1 DHCP(IPv4) 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见 192.168.0.2 子网IPv6网段 开启IPv6功能后,将自动为子网分配IPv6网段,但您不能选择IPv6地址范围 开启 子网IPv6地址段 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见 自动分配 DNS服务器地址 部分可用区资源池默认值为100.95.0.1,该地址为天翼云DNS服务的地址,支持解析内网域名和公网域名;其他资源池默认值为114.114.114.114、8.8.8.8 100.95.0.1 子网描述 备注信息 测试子网
        来自:
        帮助文档
        虚拟私有云 VPC
        虚拟私有云VPC管理
        创建虚拟私有云VPC
      • 同账号不同资源池文件系统之间的迁移
        本文主要介绍基于天翼云弹性文件服务,如何在同账号不同资源池之间实现弹性文件系统之间的数据迁移。 应用场景 本文适用于同账号不同资源池文件系统之间的数据迁移。例如当您需要将业务从A省迁移至B省的资源池,以提高访问效率。本文以北京5资源池和上海7资源池钟Linux云主机为背景,提供操作指导。 前提条件 已拥有两个NFS协议的弹性文件系统; 准备一台与源文件系统在同一VPC网络下的弹性云主机和一台与目标文件系统在同一VPC网络下的弹性云主机,并为这两台弹性云主机配置弹性IP,以实现基于公网的数据迁移。 两个资源池的文件系统分别作为源文件系统和目标文件系统,源文件系统指含业务数据的源文件系统,目标文件系统指即将投入使用的新文件系统。 准备工作 北京5资源池和上海7资源池分别创建一个文件系统和一台弹性云主机,具体操作请参考创建文件系统、创建弹性云主机。 将不同资源池中的文件系统分别挂载至对应资源池的弹性云主机上,具体操作请参考挂载NFS文件系统到弹性云主机 (Linux)。 操作步骤 不同资源池的两个弹性文件系统之间的数据迁移可以分为几个关键步骤: 挂载文件系统 > 安装迁移工具 >迁移存量数据> 迁移增量数据源> 迁移结果检查 。具体操作步骤如下: 1. 将两个资源池的弹性文件系统分别挂载到对应云主机 将弹性文件系统挂载至云主机中,这里设定上海7为源文件系统,将其挂载到同一资源池弹性云主机的“/mnt/localpath/”目录上,北京5为目标文件系统,同样将其挂载到同一资源池的弹性云主机的 “/mnt/localpath/”目录上。 2. 安装迁移工具 执行以下命令安装rsync命令工具: plaintext yum install y rsync 3. 迁移存量数据 执行以下命令,将上海7弹性文件系统中的数据迁移到北京5中: plaintext rsync avP /mnt/localpath/ root@IP:/mnt/localpath/ 我们还可以利用rsync并发拷贝迁移数据,由于并发操作,每个ssh连接操作均要求输入密码,因此在并发迁移数据过程中会要求多次输入密码,这里我们配置无需密码通过ssh执行rsync来迁移文件。在上海7中的弹性云主机中执行 sshkeygen命令生成密钥,之后使用sshcopyid将公钥拷贝至北京5的弹性云主机,执行以下命令: plaintext sshkeygensshcopyid i ~/.ssh/idrsa.pub IP 执行以下命令,实现并发数据迁移: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 4. 迁移增量数据 执行以下命令,实现增量数据的迁移: plaintext rsync avP delete /mnt/localpath/ root@IP:/mnt/localpath/ 5. 检查迁移结果 在完成数据迁移后,执行以下命令: plaintext rsync rvn /mnt/localpath/ root@IP:/mnt/localpath/ 如果源文件系统与目标文件系统数据一致,则应显示上面信息,中间不包含任何文件路径。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        NAS文件系统之间的迁移
        同账号不同资源池文件系统之间的迁移
      • 1
      • ...
      • 239
      • 240
      • 241
      • 242
      • 243
      • ...
      • 262
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      应用托管

      科研助手

      推荐文档

      产品定义

      概念

      全面了解天翼云③:Linux云主机配置snat

      mstsc 远程登录报错-要求的函数不受支持

      报账单据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号