云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      共享流量包_相关内容
      • 通过mongoexport和mongoimport工具迁移数据
        导出源库数据 步骤 1 登录到已准备的弹性云服务器或可访问源数据库的设备。 步骤 2 使用mongoexport,将源数据库转储至JSON文件。 此处以SSL连接方式为例进行说明,如果选择普通连接方式,去掉命令中对应的“ssl sslAllowInvalidCertificates”即可。 ./mongoexport host port ssl sslAllowInvalidCertificates type json authenticationDatabase u db collection out DBADDRESS为数据库地址。 DBPORT为数据库端口。 AUTHDB为存储DBUSER信息的数据库,一般为admin。 DBUSER为数据库用户。 DBNAME为要迁移的数据库名称。 DBCOLLECTION为要迁移的数据库集合。 DBPATH为存储数据JSON文件所在的路径。 出现如下提示时,输入数据库管理员对应的密码: Enter password: 示例如下,命令执行完会生成“exportfile.json”文件: ./mongoexport host 192.168.1.21 port 8635 ssl sslAllowInvalidCertificates type json authenticationDatabase admin u rwuser db test02 collection Test out /tmp/mongodb/export/exportfile.json 步骤 3 查看导出结果。 输出内容显示如下,说明迁移成功。其中,“x”表示转储数据的记录条数。 exported x records 步骤 4 压缩导出的JSON文件。 gzip exportfile.json 压缩是为了方便网络传输,压缩后生成“exportfile.json.gz”文件。 将数据导入至目标DDS 步骤 1 登录到已准备的弹性云服务器或可访问文档数据库的设备。 步骤 2 将要导入的数据上传到弹性云服务器或可访问文档数据库的设备。 根据不同的平台选择相应的上传方法。 Linux下可参考命令: scp @ : − IDENTITYFILE为存储“exportfile.json.gz”的文件目录,该文件目录权限为600。 − REMOTEUSER为弹性云服务器的操作系统用户。 − REMOTEADDRESS为弹性云服务器的主机地址。 − REMOTEDIR为将“exportfile.json.gz”上传到弹性云服务器的文件目录。 Windows平台下,请使用传输工具上传“exportfile.json.gz”至弹性云服务器。 步骤 3 解压数据包。 gzip d exportfile.json.gz 步骤 4 将转储文件导入到文档数据库。 此处以SSL连接方式为例进行说明,如果选择普通连接方式,去掉命令中对应的“ssl sslAllowInvalidCertificates”即可。 ./mongoimport host port ssl sslAllowInvalidCertificates type json authenticationDatabase u db collection file DBADDRESS为数据库实例的IP地址。 DBPORT为数据库端口。 AUTHDB为DBUSER进行权限验证的数据库,一般为admin。 DBUSER为数据库管理员帐号名。 DBNAME为要导入的数据库。 DBCOLLECTION为要导入的数据库中的集合。 DBPATH为转储数据JSON文件所在的路径。 出现如下提示时,输入数据库管理员对应的密码: Enter password: 示例如下: ./mongoimport host 192.168.1.21 port 8635 ssl sslAllowInvalidCertificates type json authenticationDatabase admin u rwuser db test02 collection Test file /tmp/mongodb/export/exportfile.json 步骤 5 查看迁移结果。 输出内容显示如下,说明迁移成功。其中,“x”表示转储数据的记录条数。 imported x records
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongoexport和mongoimport工具迁移数据
      • 文档数据库服务支持的监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) mongo001commandps command执行频率 该指标用于统计平均每秒command语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库副本集实例下的只读节点 文档数据库实例下的主节点 文档数据库实例下的备节点 文档数据库实例下的隐藏节点 1分钟5秒 mongo002deleteps delete语句执行频率 该指标用于统计平均每秒delete语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo003insertps insert语句执行频率 该指标用于统计平均每秒insert语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo004queryps query语句执行频率 该指标用于统计平均每秒query语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo005updateps update语句执行频率 该指标用于统计平均每秒update语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo006getmoreps getmore语句执行频率 该指标用于统计平均每秒getmore语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo007chunknum1 分片一的chunk数 该指标用于统计分片一的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum2 分片二的chunk数 该指标用于统计分片二的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum3 分片三的chunk数 该指标用于统计分片三的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum4 分片四的chunk数 该指标用于统计分片四的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum5 分片五的chunk数 该指标用于统计分片五的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum6 分片六的chunk数 该指标用于统计分片六的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum7 分片七的chunk数 该指标用于统计分片七的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum8 分片八的chunk数 该指标用于统计分片八的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum9 分片九的chunk数 该指标用于统计分片九的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum10 分片十的chunk数 该指标用于统计分片十的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum11 分片十一的chunk数 该指标用于统计分片十一的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum12 分片十二的chunk数 该指标用于统计分片十二的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo008connections 实例当前活动连接数 该指标用于统计试图连接到DDS实例的总连接数,以个数为单位。 0~200 Counts 文档数据库实例 1分钟 mongo009migFailnum 过去一天块迁移的失败次数 该指标用于统计过去一天中块迁移失败的次数,以次数为单位。 ≥ 0 Counts 文档数据库实例 1分钟 mongo007connections 当前活动连接数 该指标用于统计试图连接到DDS实例节点的总连接数,以个数为单位。 0~200 Counts 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo007connectionsusage 当前活动连接数百分比 该指标用于统计试图连接到实例节点的连接数占可用连接数百分比,以百分比为单位。 0~100% 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo008memresident 驻留内存 该指标用于统计当前驻留内存的大小,以兆字节为单位。 ≥ 0 MB 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo009memvirtual 虚拟内存 该指标用于统计当前虚拟内存的大小,以兆字节为单位。 ≥ 0 MB 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo010regularassertsps 常规断言频率 该指标用于统计常规断言频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo011warningassertsps 警告频率 该指标用于统计警告频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo012msgassertsps 消息断言频率 该指标用于统计消息断言频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo013userassertsps 用户断言频率 该指标用于统计用户断言频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo014queuestotal 等待锁的操作数 该指标用于统计当前等待锁的操作数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo015queuesreaders 等待读锁的操作数 该指标用于统计当前等待读锁的操作数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo016queueswriters 等待写锁的操作数 该指标用于统计当前等待写锁的操作数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo017pagefaults 缺页错误数 该指标用于统计当前节点上的缺页错误数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo018porflingnum 慢查询数 该指标用于统计当前节点上的慢查询数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 5分钟 mongo019cursorsopen 当前维护游标数 该指标用于统计当前节点上的维护游标数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo020cursorstimeOut 服务超时游标数 该指标用于统计当前节点上的服务超时游标数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo021wtcaheusage 内存中数据量(WiredTiger引擎) 该指标用于统计当前内存中数据量(WiredTiger引擎),以兆字节为单位。 ≥ 0 MB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo022wtcahedirty 内存中脏数据量(WiredTiger引擎) 该指标用于统计当前内存中脏数据量(WiredTiger引擎),以兆字节为单位。 ≥ 0 MB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo023wIntowtCache 写入WiredTiger内存的频率 该指标用于统计当前内存中写入频率(WiredTiger引擎),字节/秒为单位。 ≥ 0 Bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo024wFromwtCache 从WiredTiger内存写入磁盘频率 该指标用于统计当前内存写入磁盘频率(WiredTiger引擎),字节/秒为单位。 ≥ 0 Bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo025reploplogwin 主节点的Oplog中可用时间 该指标用于统计当前实例下的主节点的Oplog中可用时间,以小时为单位。 ≥ 0 Hours 文档数据库实例下的主节点 1分钟 mongo026oplogsizeph 主节点生成Oplog的速率 该指标用于统计当前实例下的主节点生成Oplog的速率,以兆字节/小时为单位。 ≥ 0 MB/Hour 文档数据库实例下的主节点 1分钟 mongo025replheadroom 主备Oplog重叠时长 该指标用于统计实例下的主节点和Secondary节点之间Oplog重叠时长,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的备节点 1分钟 mongo026repllag 主备延时 该指标用于统计实例下的主节点和Secondary节点之间的复制延时,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的备节点 1分钟 mongo027replcommandps 备节点复制的command执行频率 该指标用于统计平均每秒Secondary节点复制的command语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo028replupdateps 备节点复制的update语句执行频率 该指标用于统计平均每秒Secondary节点复制的update语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo029repldeleteps 备节点复制的delete语句执行频率 该指标用于统计平均每秒Secondary节点复制的delete语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo030replinsertps 备节点复制的insert语句执行频率 该指标用于统计平均每秒Secondary节点复制的insert语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo031cpuusage CPU使用率 该指标用于统计测量对象的CPU利用率,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo032memusage 内存使用率 该指标用于统计测量对象的内存利用率,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo033bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以字节/秒为单位。 ≥ 0 Bytes/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo034bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以字节/秒为单位。 ≥ 0 Bytes/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo035diskusage 磁盘利用率 该指标用于统计测量对象的磁盘利用率,以百分比为单位。 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo036iops IOPS 该指标用于统计当前实例节点,单位时间内系统处理的I/O请求数量(平均值),以请求/秒为单位。 ≥ 0 Counts/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo037readthroughput 硬盘读吞吐量 硬盘平均每秒读字节数,以字节/秒为单位。 ≥ 0 Bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo038writethroughput 硬盘写吞吐量 硬盘平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo039avgdisksecperread 硬盘读耗时 该指标用于统计某段时间平均每次读取硬盘所耗时间,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo040avgdisksecperwrite 硬盘写耗时 该指标用于统计某段时间平均每次写入硬盘所耗时间,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo042disktotalsize 磁盘总大小 该指标用于统计测量对象的磁盘总大小,以吉字节为单位。 0~1000 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo043diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘已使用总大小,以吉字节为单位。 0~1000 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo044swapusage SWAP利用率 交换内存SWAP使用率百分数,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点 文档数据库实例下的备节点 1分钟 mongo050toptotaltime 集合花费的总时间 Mongotoptotal time指标,集合操作花费的时间总和,以毫秒为单位。 ≥ 0 Milliseconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo051topreadtime 集合读花费的总时间 Mongotopread time指标,集合读操作花费的时间总和,以毫秒为单位。 ≥ 0 Milliseconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo052topwritetime 集合写花费的总时间 Mongotopwrite time指标,集合写操作花费的时间总和,以毫秒为单位。 ≥ 0 Milliseconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo053wtflushesstatus 周期Checkpoint的触发次数 WiredTiger一个轮询间隔期间checkpoint的触发次数,记录周期内发生的次数单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo054wtcacheusedpercent Wiredtiger使用中的缓存百分比 Wiredtiger使用中的缓存大小百分数,以百分比为单位。 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo055wtcachedirtypercent Wiredtiger脏数据的缓存百分比 Wiredtiger脏数据的缓存大小百分数,以百分比为单位。 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo070rocksactivememtable memtable中的数据大小 采集当前活动memtable中的数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo071rocksoplogcfactivememtable oplogcf上memtable中的数据大小 采集当前用于oplogcf上活动memtable中的数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo072rocksallmemtable memtable和immutablemem中的总数据大小 采集当前memtable和immutablemem中的总数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo073rocksoplogcfallmemtable oplogcf上memtable和immutablemem中的总数据大小 采集当前用于oplogcf上memtable和immutablemem中的总数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo074rockssnapshots 未释放的snapshot的数量 采集当前未释放的snapshot的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo075rocksoplogcfsnapshots oplogcf上未释放的snapshot的数量 采集当前oplogcf上未释放的snapshot的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo076rocksliveversions 活动的版本数量 采集当前活动的版本数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo077rocksoplogcfliveversions oplogcf上活动的版本数量 采集当前oplogcf上活动的版本数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo078rocksblockcache 驻留在blockcache中的数据大小 采集当前驻留在blockcache中的数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo079rocksbackgrounderrors 后台累积错误数量 采集记录后台累积错误数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo080rocksoplogcfbackgrounderrors oplogcf上后台累积错误数量 采集记录oplogcf上后台累积错误数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo081rocksconflictbytesusage 事务写写冲突处理缓冲区使用率 采集事务写中写冲突处理缓冲区使用率 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo082rocksuncommittedkeys 未提交的key的数量 采集当前未提交的key的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo083rockscommittedkeys 提交的key的数量 采集当前已提交的key的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo084rocksalivetxn 活跃事务链表的长度 采集记录活跃事务链表的长度 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo085rocksreadqueue 读队列的长度 采集当前读队列的长度 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo086rockscommitqueue 提交队列的长度 采集当前提交队列的长度 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo087rocksctwriteout 已使用并发写事务数 采集当前已使用并发写事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo088rocksctwriteavailable 剩余可用并发写事务数 采集当前剩余可用并发写事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo089rocksctreadout 已使用并发读事务数 采集当前已使用并发读事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo090rocksctreadavailable 剩余可用并发读事务数 采集当前剩余可用并发读事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo091activesessioncount 周期活跃会话数 该指标用于统计自上次刷新周期以来Mongo实例在内存中缓存的所有活跃本地会话的数目 ≥ 0 Counts 文档数据库实例l 文档数据库副本集实例下的只读节点 文档数据库实例下的主节点 文档数据库实例下的备节点 文档数据库实例下的隐藏节点 1分钟
        来自:
        帮助文档
        文档数据库服务
        用户指南
        监控与告警
        文档数据库服务支持的监控指标
      • POST Object
        过期 过期元素采用ISO 8601UTC日期格式来指定策略的过期日期。例如,“20071201T12:00:00.000Z”指定策略在2007年12月1日午夜UTC之后失效。在策略文档中过期字段是必需的。 条件 策略文档中的条件验证上传的文件的内容。表单中指定的每个表单字段(AWSAccessKeyId、signature、XAmzsignature、file、policy和带xignore前缀的字段名称除外)必须包含在policy条件列表中,两者需要保持一致。如果您有多个具有相同名称的字段,使用逗号进行分隔。例如,如果您有两个名为x amzmetatag的字段,第一个字段的值为Ninja,第二个字段的值为Stallman,您可以将策略文档设置为Ninja,Stallman。 针对扩展的字段执行前缀匹配。例如,如果您将文件名称字段设置为user/betty/${filename},您的策略可能是["startswith", "$key", "user/betty/" ]。请勿输入["startswith", "$key", "user/betty/${filename}"]。 元素名称 说明 XAmzAlgorithm V4签名算法。如果请求包含policy,对于V4签名,则此字段为必填字段。 取值:AWS4HMACSHA256。 XAmzCredential 用户的accessKeyId和范围信息,范围信息包括请求日期、区域、服务、终止字符串aws4request,格式如下: / / / /aws4request 其中: date格式为YYYYMMDD。 region: 对于oos api:访问域名为oosxx .ctyunapi.cn,region为xx。 对于统计api:访问域名为oosxx mg.ctyunapi.cn,region为xxmg。 对于操作跟踪api:访问域名为oosxx cloudtrail.ctyunapi.cn,region为xx。 对于iam api:访问域名为oosxx iam.ctyunapi.cn,region为xx。 说明 各资源池的详细访问域名详见域名(Endpoint)列表。 service: 若使用OOS API服务,service为s3。 若使用统计分析服务,service为s3。 若使用操作跟踪服务,service为cloudtrail。 若使用IAM服务,service为sts。 如果请求包含policy,对于V4签名,则此字段为必填字段。 XAmzDate 日期和时间格式必须遵循ISO 8601标准,并且必须使用“yyyyMMddT HHmmssZ”格式进行格式化。例如,如果日期和时间是“08/01/2018 15:32:41.982700”,则必须首先将其转换为UTC(协调世界时),然后提交为“20180801T083241Z”。 如果请求包含policy,对于V4签名,则此字段为必填字段。 XAmzSecurityToken 临时会话使用的安全令牌。使用临时密钥构造V2或者V4签名请求时,此字段为必填字段。 xamz 以xamz开头的系统定义的元数据。(如xamzwebsiteredirectlocation、xamzstorageclass,不含xamzsignature)。 支持精确匹配。 bucket 指定上传内容允许的Bucket。 支持精确匹配和startswith。 contentlengthrange 指定已上传内容允许长度的最小值和最大值。 支持范围匹配。 CacheControl, ContentType, ContentDisposition, Content Encoding, Expires 特定于 REST 的标头。 支持精确匹配和startswith。 Key 已上传文件的名称或文件名称前缀。 支持精确匹配和 startswith。 successactionredirect, redirect 上传成功后客户端重定向到的URL。 支持精确匹配和startswith。 successactionstatus 如果没有指定 successactionredirect,上传成功后状态代码将返回到客户端。 支持精确匹配。 xamzmeta 特定于用户的元数据。 支持精确匹配和 startswith。 注意 如果您的工具包添加了其他字段(例如,Flash添加了文件名),您必须将它们添加到策略文档。如果您可以控制此功能,将 xignore 添加为字段的前缀以使OOS忽略此功能并使其不影响此功能的未来版本。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Object的操作
        POST Object
      • 设置同区域备份策略
        本节介绍了设置同区域备份策略的操作场景、约束限制、操作步骤等相关内容。 操作场景 创建关系型数据库实例时,系统默认开启自动备份策略,安全考虑,实例创建成功后不可关闭。您可根据业务需要设置自动备份策略,关系型数据库服务按照您设置的自动备份策略对数据库进行备份。 关系型数据库服务的备份操作是实例级的,而不是数据库级的。当数据库故障或数据损坏时,可以通过备份恢复数据库,从而保证数据可靠性。备份以压缩包的形式存储在对象存储服务上,以保证用户数据的机密性和持久性。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段设置自动备份。 设置自动备份策略后,会按照策略中的备份时间段和备份周期进行全量备份。实例在执行备份时,按照策略中的保留天数进行存放,备份时长和实例的数据量有关。 在进行全量备份的同时系统每5分钟或一定数据量时会自动生成增量备份,用户不需要设置。生成的增量备份可以用来将数据恢复到指定时间点。 约束限制 仅主实例支持设置自动备份策略,只读实例不支持设置自动备份策略。 查看或修改自动备份策略 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏,单击“备份恢复”,单击“同区域备份策略”。您可以查看到已设置的备份策略,如需修改备份策略,请调整以下参数的值。 自动备份保留天数:保留天数为全量自动备份和Binlog备份的保留时长,默认为7天,范围为1~732天。 − 增加保留天数,可提升数据可靠性,请根据需要设置。 − 减少保留天数,会针对已有的备份文件生效,但手动备份不会自动删除,请您谨慎选择。 全量备份文件自动删除策略: 考虑到数据完整性,自动删除时仍然会保留最近的一次超过保留天数的全量备份,保证在保留天数内的数据可正常恢复。 假如备份周期选择“周一”、“周二”,保留天数设置为“2”,备份文件的删除策略如下: − 本周一产生的全量备份,会在本周四当天自动删除。原因如下: 本周二的全量备份在本周四当天超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即本周二的备份会被保留),因此周四当天删除本周一产生的全量备份文件。 − 本周二产生的全量备份,会在下周三当天自动删除。原因如下: 下周一产生的全量备份在下周三超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即下周一的备份会被保留),因此下周三当天删除本周二产生的全量备份。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段并不是指整个备份任务完成的时间,指的是备份的开始时间,备份时长和实例的数据量有关。 说明 建议根据业务情况,选择业务低峰时段。备份时间段以UTC时区保存。如果碰到夏令时/冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认全选,可修改,且至少选择一周中的1天。 步骤 6 单击“确定”,确认修改。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据备份
        创建实例级备份
        设置同区域备份策略
      • Python Redis客户端
        本章介绍使用同一VPC内弹性云主机ECS上的Python Redis客户端redispy连接Redis实例的方法。 介绍使用同一VPC内弹性云主机ECS上的Python Redis客户端redispy连接Redis实例的方法。更多的客户端的使用方法请参考Redis客户端。 说明 连接单机、主备、Proxy集群实例建议使用redispy,Cluster集群实例建议使用redispycluster。 前提条件 已成功申请Redis实例,且状态为“运行中”。 已创建弹性云主机,创建弹性云主机的方法,请参见《弹性云主机用户指南》。 如果弹性云主机为Linux系统,该弹性云主机必须已经安装python编译环境。 操作步骤 步骤 1 查看并获取待连接Redis实例的IP地址和端口。 具体步骤请参见查看实例信息。 步骤 2 登录弹性云主机。 本章节以弹性云主机操作系统为centos为例介绍通过python redis客户端连接实例。 步骤 3 连接Redis实例。 如果系统没有自带Python,可以使用yum方式安装。 yum install python 说明 要求系统python版本为3.6+,当默认python版本小于3.6时,可通过以下操作修改python默认版本。 1. 删除python软链接文件: rm rf python 2. 重新创建新指向python:ln s pythonX.X.X python,其中X为python具体版本号。 若是单机、主备、proxy集群实例。 a. 安装Python和Python Redis客户端redispy。 i. 如果系统没有自带Python,可以使用yum方式安装。 ii. 下载并解压redispy。 wget unzip master.zip iii. 进入到解压目录后安装Python Redis客户端redispy。 python setup.py install 安装后执行python命令,返回如下信息说明成功安装redispy: 执行python b. 使用redispy客户端连接实例。以下步骤以命令行模式进行示例(也可以将命令写入python脚本中再执行): i. 执行python命令,进入命令行模式。返回如下信息说明已进入命令行模式: 进入命令行模式 ii. 在命令行中执行以下命令,连接Redis实例。 r redis.StrictRedis(host'XXX.XXX.XXX.XXX', port6379, password''); 其中,XXX.XXX.XXX.XXX为Redis实例的IP地址,“6379”为Redis实例的端口。IP地址和端口获取见步骤1,请按实际情况修改后执行。 为创建Redis实例时自定义的密码,请按实际情况修改后执行。 界面显示一行新的命令行,说明连接Redis实例成功。可以输入命令对数据库进行读写操作。 连接redis成功 若是Cluster集群实例。 b. 安装redispycluster客户端。 i. 执行以下命令下载released版本。 wget ii. 解压压缩包。 tar xvf redispycluster2.1.3.tar.gz iii. 进入到解压目录后安装Python Redis客户端redispycluster。 python setup.py install c. 使用redispycluster客户端连接Redis实例。 以下步骤以命令行模式进行示例(也可以将命令写入python脚本中再执行): i. 执行python命令,进入命令行模式。 ii. 在命令行中执行以下命令,连接Redis实例。如果实例为免密访问,则省略命令中的, password'' >>> from rediscluster import RedisCluster >>> startupnodes [{"host": "192.168.0.143", "port": "6379"},{"host": "192.168.0.144", "port": "6379"},{"host": "192.168.0.145", "port": "6379"},{"host": "192.168.0.146", "port": "6379"}] >>> rc RedisCluster(startupnodesstartupnodes, decoderesponsesTrue, password'') >>> rc.set("foo", "bar") True >>> print(rc.get("foo")) 'bar'
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        Python Redis客户端
      • 连接已开启SSL的RocketMQ实例
        本章节介绍了如何连接已开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接已开启SSL的RocketMQ实例
      • 连接未开启SSL的RocketMQ实例
        本章节介绍了如何连接未开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial.zip”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接未开启SSL的RocketMQ实例
      • 使用备份和恢复实现云搜索实例的跨区域迁移
        源端西南1资源池云搜索服务实例操作 1. Elasticsearch实例绑定公网访问:购买弹性IP,在“安全设置”中绑定Elasticsearch集群,安全组开放9200端口访问,具体操作参见“实例公网访问” 2. 创建索引和数据:通过公网ip+端口,在Elasticsearch中插入数据。 创建索引 cpp curl u admin: X PUT " H 'ContentType: application/json' d' { "mappings": { "properties": { "name": { "type": "text" }, "price": { "type": "float" } } } } ' 插入第一个产品 cpp curl u admin: X POST " H 'ContentType: application/json' d' { "name": "Laptop", "price": 899.99 } ' 插入第二个产品 cpp curl u admin: X POST " H 'ContentType: application/json' d' { "name": "Smartphone", "price": 499.99 } ' 3. 打开备份管理功能 开通ZOS服务,创建存储桶,在云搜索控制台开启备份能力,填写AK/SK。具体开通操作可参考“创建快照备份”。 4. 手动备份索引 点击手动备份,填写备份名称“backuptest”,选择存储桶,备份对象我们选择“索引”,填写索引名称“products”,确认。等待备份完成。 目的端华东1资源池云搜索实例操作 1. 开通云主机:在华东1资源池与云搜索实例同一个VPC下,开通一台云主机。 2. 下载安装ZOS数据迁移工具,根据系统下载如下工具包: unzip ZOSMigrationToollinuxamd64.zip chmod +x zsync 3. 打开备份管理功能 开通ZOS服务,创建存储桶,在云搜索控制台开启备份能力,填写AK/SK。具体操作可参考“创建快照备份”。 4. 配置ZOS数据迁移工具 根据实际情况配置migaration.conf文件。 注意 因为云主机在华东1,西南1需要配置外网地址,而华东1只需要配置内网地址。 如果是跨云迁移,例如友商云迁移到天翼云,需要填写不同的srcType。具体可参考ZOS数据迁移工具页面上的《ZOS数据迁移工具使用手册》.pdf文件。 迁移工具里的AKSK需要填ZOS对象存储的。其值可以从对应的对象存储页面获取。 srcUrl/destUrl的值可以从桶页面的概览页获取。 不同版本的迁移工具,配置项可能略有区别,根据实际情况调整即可。 示例配置如下: cpp { "srcType":"S3", "srcUrl":" "srcAccessKey":"", "srcSecretKey":"", "srcBucket":"bucket3cab", "srcMigrationType": "Bucket", "srcMigrateFolder": [], "srcMigrateFiles": [], "srcMigratePrefix": [], "destUrl":" "destAccessKey":"", "destSecretKey":"", "destBucket":"bucket5daa", "destPrefix":"", "multipartSize(megabytes)": 5, "enableConsistencyCheck":"False", "objectStorageClass":"", "objectAcl":"", "recordFailedObject": "True", "migrationAfterModified": "", "migrationBeforeModified": "", "conflictMode": "IGNORE", "logLevel":"DEBUG", "processNums":12, "threadNums":16, "failRetryMode": "False", "retryFailFiles": [] } 5. 启动迁移 迁移完成后,在华东1的对应的桶中,应该可以看到所有的快照信息。备份数据路径参考esearch/snapshots/manual/Elasticsearch。 6. 恢复索引 创建快照仓库: cpp curl u admin: X PUT "ip:9200/snapshot/remoterestoreonly?pretty" H 'ContentType: application/json' d' { "type": "s3", "settings": { "bucket": "bucket5daa", "basepath": "esearch/snapshots/manual/Elasticsearch", "protocol": "http", "endpoint": " } }' 恢复索引: cpp curl u admin: X POST "ip:9200/snapshot/remoterestoreonly/backuptest/restore?pretty" H 'ContentType: application/json' d' { "indices": "products" }' 注意,这里填写的快照名称要和创建时一致。 返回成功: cpp { "accepted" : true } restore完成后查看恢复情况: cpp curl u admin: X GET "192.168.0.24:9200/products/recovery?pretty" 等待索引恢复成功。 7. 迁移完成后清理 删除迁移用的快照: cpp curl u admin: X DELETE "ip:9200/snapshot/remoterestoreonly/backuptest" 删除迁移用的快照仓库: cpp curl u admin: X DELETE "ip:9200/snapshot/remoterestoreonly" 删除ZOS桶中的数据:路径参考:esearch/snapshots/manual/Elasticsearch。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        迁移集群
        使用备份和恢复实现云搜索实例的跨区域迁移
      • 经典场景示例
        本页面介绍云数据库ClickHouse单副本实例分布式数据操作的经典场景示例。 本节介绍云数据库ClickHouse的经典场景示例,示例数据集由一个表组成,这个表包含有关Yandex.Metrica的匹配(hitsv1)的匿名数据。数据集可以作为压缩的tsv.xz文件下载或作为准备好的分区下载。 下载TSV文件,并且将数据导入数据库。 如果直接下载tsv数据较慢,可以先使用其他工具或源下载数据文件,再使用xz d hitsv1.tsv.xz 命令解压 ,然后再导入。 单节点示例 下载数据包并解压 curl unxz threads nproc > hitsv1.tsv 创建数据库 clickhouseclient query "CREATE DATABASE IF NOT EXISTS datasets" 创建表 clickhouseclient query "CREATE TABLE datasets.hitsv1 ( WatchID UInt64, JavaEnable UInt8, Title String, GoodEvent Int16, EventTime DateTime, EventDate Date, CounterID UInt32, ClientIP UInt32, ClientIP6 FixedString(16), RegionID UInt32, UserID UInt64, CounterClass Int8, OS UInt8, UserAgent UInt8, URL String, Referer String, URLDomain String, RefererDomain String, Refresh UInt8, IsRobot UInt8, RefererCategories Array(UInt16), URLCategories Array(UInt16), URLRegions Array(UInt32), RefererRegions Array(UInt32), ResolutionWidth UInt16, ResolutionHeight UInt16, ResolutionDepth UInt8, FlashMajor UInt8, FlashMinor UInt8, FlashMinor2 String, NetMajor UInt8, NetMinor UInt8, UserAgentMajor UInt16, UserAgentMinor FixedString(2), CookieEnable UInt8, JavascriptEnable UInt8, IsMobile UInt8, MobilePhone UInt8, MobilePhoneModel String, Params String, IPNetworkID UInt32, TraficSourceID Int8, SearchEngineID UInt16, SearchPhrase String, AdvEngineID UInt8, IsArtifical UInt8, WindowClientWidth UInt16, WindowClientHeight UInt16, ClientTimeZone Int16, ClientEventTime DateTime, SilverlightVersion1 UInt8, SilverlightVersion2 UInt8, SilverlightVersion3 UInt32, SilverlightVersion4 UInt16, PageCharset String, CodeVersion UInt32, IsLink UInt8, IsDownload UInt8, IsNotBounce UInt8, FUniqID UInt64, HID UInt32, IsOldCounter UInt8, IsEvent UInt8, IsParameter UInt8, DontCountHits UInt8, WithHash UInt8, HitColor FixedString(1), UTCEventTime DateTime, Age UInt8, Sex UInt8, Income UInt8, Interests UInt16, Robotness UInt8, GeneralInterests Array(UInt16), RemoteIP UInt32, RemoteIP6 FixedString(16), WindowName Int32, OpenerName Int32, HistoryLength Int16, BrowserLanguage FixedString(2), BrowserCountry FixedString(2), SocialNetwork String, SocialAction String, HTTPError UInt16, SendTiming Int32, DNSTiming Int32, ConnectTiming Int32, ResponseStartTiming Int32, ResponseEndTiming Int32, FetchTiming Int32, RedirectTiming Int32, DOMInteractiveTiming Int32, DOMContentLoadedTiming Int32, DOMCompleteTiming Int32, LoadEventStartTiming Int32, LoadEventEndTiming Int32, NSToDOMContentLoadedTiming Int32, FirstPaintTiming Int32, RedirectCount Int8, SocialSourceNetworkID UInt8, SocialSourcePage String, ParamPrice Int64, ParamOrderID String, ParamCurrency FixedString(3), ParamCurrencyID UInt16, GoalsReached Array(UInt32), OpenstatServiceName String, OpenstatCampaignID String, OpenstatAdID String, OpenstatSourceID String, UTMSource String, UTMMedium String, UTMCampaign String, UTMContent String, UTMTerm String, FromTag String, HasGCLID UInt8, RefererHash UInt64, URLHash UInt64, CLID UInt32, YCLID UInt64, ShareService String, ShareURL String, ShareTitle String, ParsedParams Nested(Key1 String, Key2 String, Key3 String, Key4 String, Key5 String, ValueDouble Float64), IslandID FixedString(16), RequestNum UInt32, RequestTry UInt8) ENGINE MergeTree() PARTITION BY toYYYYMM(EventDate) ORDER BY (CounterID, EventDate, intHash32(UserID)) SAMPLE BY intHash32(UserID) SETTINGS indexgranularity 8192";
        来自:
        帮助文档
        云数据库ClickHouse
        快速入门
        经典场景示例
      • 增量修改域名配置
        参数 类型 是否必填 名称 说明 domain string 是 域名 productcode string 否 产品类型 “001”(静态加速),“003”:(下载加速), “004”(视频点播加速),“008”(CDN加速),“014”(下载加速闲时) ipv6enable int 否 ipv6启用 未传代表不修改,1(启用); 2(关闭) origin list<originsingle> 否 回源信息 未传代表不修改,有传代表整个数组全量修改,字段originsingle详细说明见下方 xosoriginis int 否 是否开启云存储XOS源站配置功能 枚举值:0(关闭), 1(开启);默认0 xosorigin object 否 云存储XOS源站信息 未传代表不修改,有传代表整个数组全量修改,字段xosorigin详细说明见下方 reqhost string 否 回源host设置 传空字符串""代表删除,未传代表不修改 originhosttype int 否 主备源携带不同的回源host是否开启 未传代表不修改,0(关闭) ;1(开启) originhosthttp dict 否 http类型origin带不同的回源host 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{origin:回源host};主备源携带不同的回源host开启(即originhosttype等于1),同时配置origin带不同的回源host和回源host,且都有传具体值,则以origin带不同的回源host生效(清空回源host) backuporigintimeout string 否 回源连接超时时间,单位秒 backuporiginresptimeout string 否 回源响应超时时间,单位秒 blackreferer dict 否 referer黑名单 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,字段blackreferer详细说明见下方,黑白名单只允许存在一个,若同时存在只处理黑名单 blackreferercondition dict 否 referer黑名单condition 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,删除blackreferer数据的话condition也要删除,格式:{“blackreferer”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]},mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。本参数仅适用于类型为新框架的域名,旧框架域名修改不生效,当前只支持配置单条全量修改,字段blackreferer详细说明见下方,黑白名单只允许存在一个,若同时存在只处理黑名单 whitereferer dict 否 referer白名单 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,字段whitereferer详细说明见下方 whitereferercondition dict 否 referer白名单condition 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,删除whitereferer数据的话condition也要删除,格式:{“whitereferer”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]},mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。本参数仅适用于类型为新框架的域名,旧框架域名修改不生效,当前只支持配置单条 useragent dict 否 useragent黑白名单配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,字段useragent详细说明见下方 filetypettl list<filetypettlsingle> 否 缓存类型设置 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段filetypettlsingle详细说明见下方 ipblacklist string 否 ip黑名单 传空字符串""代表删除,未传代表不修改,黑白名单只允许存在一个,若同时存在只处理黑名单,支持ip段与ip,多个ip/ip段以逗号分割,示例:1.1.1.1,2.2.2.2,::1,3.3.3.34.4.4.4 ipwhitelist string 否 ip白名单 传空字符串""代表删除,未传代表不修改,黑白名单只允许存在一个,若同时存在只处理黑名单,支持ip段与ip,多个ip/ip段以逗号分割,示例:1.1.1.1,2.2.2.2,::1,3.3.3.34.4.4.4 reqheaders list<reqheaderssingle> 否 自定义回源请求头 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段reqheaderssingle详细说明见下方 respheaders list<respheaderssingle> 否 自定义响应头 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段respheaderssingle详细说明见下方 errorcode list<errorcodesingle> 否 错误状态码缓存 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段errorcodesingle详细说明见下方 sharedhost string 否 共享缓存域名 传空字符串""代表删除,未传代表不修改 httpsstatus string 否 https是否开启 未传代表不修改,取值:on、off certname string 否 国际证书备注名 未传代表不修改,传空字符串代表删除 certnamegm string 否 国密证书备注名 未传代表不修改,传空字符串代表删除 httpsbasic dict 否 https基础信息 未传代表不修改,有传代表整个dict全量修改,字段httpsbasic详细说明见下方 basicconf dict 否 http配置基础信息 传空对象{}或未传均代表不修改,有传代表增量修改,字段basicconf详细说明见下方 limitspeeduri list<limitspeedurisingle> 否 基于url参数限速 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段limitspeedurisingle详细说明见下方 limitspeeduricondition dict 否 limitspeeduri的condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“{key}”:[{“mode”:类型,“content”:“配置内容,多个以逗号间隔”}]},mode类型为int,取值默认0,可以为:0(文件后缀),1(目录),2(首页),3(全部文件),4(全路径),key为limitspeeduri中的id.使用限制:一个key对应的数组大小只能是1,因为配置平台实际只支持配置一条;content必填,长度大于0,不能为空字符串或者空白字符串 limitspeedconst list<limitspeedconstsingle> 否 基于固定值限速 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段limitspeedconstsingle详细说明见下方 limitspeedconstcondition dict 否 limitspeedconst的condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“{key}”:[{“mode”:类型,“content”:“配置内容,多个以逗号间隔”}]},mode类型为int,取值默认0,可以为:0(文件后缀),1(目录),2(首页),3(全部文件),4(全路径),key为limitspeedconst中的id。使用限制:一个key对应的数组大小只能是1,因为配置平台实际只支持配置一条;content必填,长度大于0,不能为空字符串或者空白字符串 remotesyncauth list<remotesyncauthsingle> 否 远程同步鉴权客户自助 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段remotesyncauthsingle详细说明见下方 remotesyncauthcondition dict 否 远程同步鉴权condition 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode类型为int,取值默认0,可以为:0(文件后缀),1(目录),2(首页),3(全部文件),4(全路径),key为remotesyncauth中的id ssl string 否 ssl协议类型 传空字符串"“代表删除,未传代表不修改,支持TLSv1 、TLSv1.1 、TLSv1.2 、TLSv1.3,默认值为”",支持多选,多个用英文逗号分隔 sslstapling string 否 ocsp stapling开关 未传代表不修改,on(开启),off(关闭) cusgzip list<cusgzipsingle> 否 文件压缩 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段cusgzipsingle详细说明见下方,原来文件压缩的字段为gzip字段,现改成cusgzip,两参数不能同时传,若之前用的是gzip字段建议迁移至cusgzip cusgzipcondition dict 否 文件压缩condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为cusgzip中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效,且修改本参数时,cusgzip必传 entrylimits list<entrylimitssingle> 否 限频自助参数 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段entrylimitssingle详细说明见下方,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效。特别注意,若传空数组[]删除entrylimits参数时,若entrylimitscondition有值,也需要entrylimitscondition传空对象{}删除。 entrylimitscondition dict 否 限频自助参condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为entrylimits中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 cachekeyargs list<cachekeyargssingle> 否 缓存参数 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段cachekeyargssingle详细说明见下方 cachekeyargscondition dict 否 缓存参数condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为cachekeyargs中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 backoriginurirewrite list<backoriginurirewrite> 否 回源uri改写 传空对象[]代表删除,未传代表不修改,有传代表全量修改;字段backoriginurirewrite详细说明见下方 backoriginurirewritecondition dict 否 回源uri改写condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改;格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为backoriginurirewrite中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 backoriginargrewrite list<backoriginargrewrite> 否 回源参数改写 传空对象[]代表删除,未传代表不修改,有传代表全量修改;字段backoriginargrewrite详细说明见下方 backoriginargrewritecondition dict 否 回源参数改写condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改;格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为backoriginargrewrite中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 ignorebackoriginargs int 否 是否忽略回源参数 枚举值:0(不忽略),1(忽略);默认0 dnsquery dict 否 回源域名解析 字段dnsquery详细说明见下方 errorpage list<errorpagesingle> 否 错误页面重定向 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段errorpagesingle详细说明见下方 defineredirect list<defineredirect> 否 自定义重定向配置 传空对象[]代表删除,未传代表不修改,有传代表全量修改;字段defineredirect详细说明见下方 defineredirectcondition dict 否 自定义重定向condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改;格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径;其中key为defineredirect:id
        来自:
        帮助文档
        CDN加速
        API参考
        API
        域名管理
        增量修改域名配置
      • 头域说明
        本文主要介绍头域说明 头域说明 协议头字段名 说明 Accept 能够接受的回应内容类型(ContentTypes)。 AcceptCharset 能够接受的字符集。 AcceptDatetime 能够接受的按照时间来表示的版本。 AcceptEncoding 能够接受的编码方式列表。 AcceptLanguage 能够接受的回应内容的自然语言列表。 Authorization 用于超文本传输协议认证的认证信息。 CacheControl 用来指定在这次的请求/响应链中的所有缓存机制都必须遵守的指令。 Connection 该浏览器想要优先使用的连接类型。 ContentLength 以八位字节数组(8位的字节)表示的请求体的长度。 ContentMD5 请求体的内容的二进制MD5散列值,以 Base64 编码的结果。 ContentType 请求体的多媒体类型(用于POST和PUT请求中)。 Cookie 之前由服务器通过Set Cookie 发送的一个超文本传输协议Cookie。 Date 发送该消息的日期和时间。 Expect 表明客户端要求服务器做出特定的行为。 From 发起此请求的用户的邮件地址。 Host 服务器的域名(用于虚拟主机 ),以及服务器所监听的传输控制协议端口号。如果所请求的端口是对应的服务的标准端口,则端口号可被省略。自超文件传输协议版本1.1(HTTP/1.1)开始便是必需字段,在本服务中如果URL中填写的域名为IP地址会自动添加该字段,否则请将被测应用的IP与端口信息填写在该字段。 IfMatch 仅当客户端提供的实体与服务器上对应的实体相匹配时,才进行对应的操作。主要作用是,用作像PUT 这样的方法中,仅当从用户上次更新某个资源以来,该资源未被修改的情况下,才更新该资源。 IfModifiedSince 允许在对应的内容未被修改的情况下返回304未修改( 304 Not Modified )。 IfNoneMatch 允许在对应的内容未被修改的情况下返回304未修改( 304 Not Modified ),参考超文本传输协议的实体标记。在典型用法中,当一个URL被请求,Web服务器会返回资源和其相应的ETag值,它会被放置在HTTP的“ETag”字段中,然后,客户端可以决定是否缓存这个资源和它的ETag。以后,如果客户端想再次请求相同的URL,将会发送一个包含已保存的ETag和“IfNoneMatch”字段的请求。 IfRange 如果该实体未被修改过,则向发送方发送其所缺少的那一个或多个部分;否则,发送整个新的实体。 IfUnmodifiedSince 仅当该实体自某个特定时间以来未被修改的情况下,才发送回应。 MaxForwards 限制该消息可被代理及网关转发的次数。 Origin 发起一个针对跨来源资源共享的请求(要求服务器在回应中加入一个‘访问控制允许来源’('AccessControlAllowOrigin')字段)。 Pragma 与具体的实现相关,这些字段可能在请求/回应链中的任何时候产生多种效果。 ProxyAuthorization 用来向代理进行认证的认证信息。 Range 仅请求某个实体的一部分。字节偏移以0开始。 Referer 表示浏览器所访问的前一个页面,正是那个页面上的某个链接将浏览器带到了当前所请求的这个页面。 TE 浏览器预期接受的传输编码方式:可使用回应协议头TransferEncoding 字段中的值;另外还可用“trailers”(与“分块”传输方式相关)这个值来表明浏览器希望在最后一个尺寸为0的块之后还接收到一些额外的字段。 Upgrade 要求服务器升级到另一个协议。 UserAgent 浏览器的浏览器身份标识字符串。 Via 向服务器告知,这个请求是由哪些代理发出的。 Warning 一个一般性的警告,告知,在实体内容体中可能存在错误。 XWapProfile 链接到互联网上的一个XML文件,其完整、仔细地描述了正在连接的设备。 XRequestedWith 主要用于标识Ajax及可扩展标记语言请求。大部分的JavaScript框架会发送这个字段,且将其值设置为XMLHttpRequest。 XHttpMethodOverride 请求某个网页应用程序使用该协议头字段中指定的方法(一般是PUT或DELETE)来覆盖掉在请求中所指定的方法(一般是POST)。当某个浏览器或防火墙阻止直接发送PUT 或DELETE 方法时(注意,这可能是因为软件中的某个漏洞,因而需要修复,也可能是因为某个配置选项就是如此要求的,因而不应当设法绕过),可使用这种方式。 XForwardedProto 一个事实标准,用于标识某个超文本传输协议请求最初所使用的协议。 XForwardedHost 一个事实标准,用于识别客户端最初发出的Host请求头部。 XForwardedFor 一个事实标准,用于标识某个通过超文本传输协议代理或负载均衡连接到某个网页服务器的客户端的原始互联网地址。 XCsrfToken 用于防止跨站请求伪造辅助用的头部有XCSRFToken或XXSRFTOKEN XATTDeviceId 使服务器更容易解读AT&T设备UserAgent字段中常见的设备型号、固件信息。 ProxyConnection 该字段源于早期超文本传输协议版本实现中的错误。与标准的连接(Connection)字段的功能完全相同。 FrontEndHttps 被微软的服务器和负载均衡器所使用的非标准头部字段。 DNT 请求某个网页应用程序停止跟踪某个用户。在火狐浏览器中,相当于XDoNotTrack协议头字段(自 Firefox/4.0 Beta 11 版开始支持)。Safari和Internet Explorer 9 也支持这个字段。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        参考知识
        头域说明
      • 升级
        如何升级HBlock CSI插件。 前置条件 请在升级之前,进行如下场景检查: 检查是否进行调整PV的服务端连接位置操作,如果执行过,需要确保满足以下条件: 如果PV只会被一个Pod挂载,不受影响。 如果PV被多个Pod挂载,请确保全部的Pod都没有进行过重启,或者全部完成了重启。 检查是否在HBlock侧执行过卷的target迁移操作(此处的卷为CSI侧的PV对应的HBlock侧的实例): 如果Kubernetes版本低于1.21,请确保挂载了该PV的Pod全部完成了重启。 Kubernetes版本为1.21及以上,不受影响。 说明 如果对升级方案有任何问题,请联系我们协助处理。如果升级前没有进行检查就执行了升级操作,可能会导致iSCSI连接无法断开,如果遇到此问题,请联系我们进行处理。 iscsid守护进程位置不变的升级 下列情况使用该方案升级: 升级前版本安装时中没设置参数iscsionhost(1.5.1之前版本不能设置该参数),升级后版本也没有设置该参数。 升级前升级后版本都设置了参数iscsionhost。 升级步骤 1. 更新驱动镜像:请根据逐台导入镜像的方式或docker私仓导入镜像的方式章节的步骤,导入最新安装包的驱动。 2. 在升级版本的对应文件下修改HBlock相关配置: 修改deploy/csipluginconf/csiconfigMap.yaml,确保与升级前版本的配置一致。 修改deploy/csipluginconf/csisecret.yaml,确保与升级前版本的配置一致。 修改deploy/csipluginconf/csisecretdecrypt.yaml ,确保与升级前版本的配置一致。 3. 在升级版本的/deploy下执行下列命令升级: 升级前版本安装时中没设置参数iscsionhost(1.5.1之前版本不能设置该参数),升级后版本也没有设置该参数,执行下列命令: plaintext ./deploy.sh 升级前升级后版本都设置了参数iscsionhost,执行下列命令: plaintext ./deploy.sh [ iscsionhost ] [ drivernamedrivername ] [ drivernamespacedrivernamespace ] 说明 如果升级前iscsionhost打开状态,则 iscsionhost:是必选参数。 drivername:升级前版本的驱动名称,如果升级前版本的驱动名称为默认值stor.csi.k8s.io,可以不填此参数。 drivernamespace:升级前版本绑定的Kubernetes命名空间,如果升级前版本绑定的Kubernetes命名空间为默认值default,此参数可以不填写。 4. 升级后检查: 可以在宿主机启动样例POD,进行基础流程测试,确认功能正常。 重启Kubernetes所有的slave宿主机节点,确认各存量POD能正确启动。(如果不验证重启恢复的场景,可跳过这步。) 从低版本(小于等于1.6.0)升级到高版本(大于等于1.6.1)后,如存在业务POD,确保在没有正在新建或者删除POD的前提下,执行命令kubectl get pod A grep csistorpluginnode awk '{print $2}' xargs I {} kubectl exec {} c storpluginnode sh c'/storadmupgrade addmissingtrackfile',补齐缺失的trackfile。 注意 kubectl get pod A grep csistorpluginnode的作用是过滤出所有CSI节点的驱动POD。执行此命令前需管理员检查此处需要与驱动实际部署方案一致,如果不一样,请修改为对应CSI节点的驱动POD。 命令执行完成后,将显示添加成功与失败的 tracefile 数量。若存在添加失败的情况(如提示“Failed to add x file(s)”),管理员需及时排查原因并处理。 如果用户使用了自定义的驱动部署方案,请注意:storadm工具的执行依赖于环境变量DRIVERNAME和KUBENODENAME,因此必须在 CSI Node Server 的Pod中配置这两个环境变量,否则可能导致功能异常。 plaintext env: name: DRIVERNAME value: 驱动名 name: KUBENODENAME valueFrom: fieldRef: apiVersion: v1 fieldPath: spec.nodeName
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        脚本方式使用指南
        升级
      • 管理自动备份
        本节主要介绍管理自动备份。 GeminiDB Influx支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 说明 GeminiDB Influx自动备份时,不会对 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 图1 开启备份策略 1.保留天数: 自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。对于系统中最近一个全量备份文件,如果在新的全量备份未超过保留天数前系统会一直保留,直至新的全量备份超过保留天数后才会删除。 增加保留天数,可提升数据可靠性,请根据需要设置。 减少保留天数,会针对已有的备份文件生效,即超出备份保留天数的已有备份文件(包括全量备份和增量备份)会被自动删除,但手动备份不会自动删除,请您谨慎选择。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如12:00~13:00 。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 假如保留天数设置为“2”,表示超过两天的全量备份和增量备份会被自动删除。即周一产生的备份会在周三删除,同理,周二产生的备份会在周四删除。 全量备份文件自动删除策略: 已有备份文件超出备份天数后会自动删除,考虑到数据完整性,自动删除时仍然会保留最近的一次超过保留天数的全量备份,保证在保留天数内的数据可正常恢复。 假如备份周期选择“周一”、“周二”,保留天数设置为“2”,备份文件的删除策略如下: 本周一产生的全量备份,会在本周四当天自动删除。原因如下: 本周二的全量备份在本周四当天超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即本周二的备份会被保留),因此周四当天删除本周一产生的全量备份文件。 本周二产生的全量备份,会在下周三当天自动删除。原因如下: 下周一产生的全量备份在下周三超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即下周一的备份会被保留),因此下周三当天删除本周二产生的全量备份。 2.备份周期: 默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 增备周期:系统默认自动将每隔15分钟的离散时间点上的增量数据进行备份。您也可以根据需要设置增量备份周期,目前支持设置为5分钟,10分钟,15分钟。增备周期目前为公测阶段,如需使用,请联系客服申请开通相应的操作权限。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        数据备份
        管理自动备份
      • 域名管理概述
        本文介绍域名管理模块所涉及的功能。 概述 通过对域名管理相关的功能模块进行概括性介绍,方便您全面了解当前天翼云全站加速已支持的相关功能以及指引您快速找到对应功能的介绍入口,更快上手。 相关功能 相关管理模块功能简介如下: 功能 说明 []( 客户往往会存在多个域名需要配置,而配置又是相同的情况,这时我们提供批量配置域名的方式可以使客户快速、便捷的接入域名。 []( 介绍全站加速域名管理中的工单,它是用于跟踪和记录由客户操作发起的域名新增及域名配置变更任务的状态和执行结果,方便跟进变更的进度以及追溯变更历史,辅助管理客户业务。 []( 简述什么是标签和标签组,如何创建/删除标签和标签组,如何绑定/解绑标签,如何使用标签管理域名、筛选数据。 []( 简述基础配置所涉及的配置,包含:域名名称、加速类型选定、域名类型选定、加速区域选定、IPv6开关。 []( 简述天翼云全站加速产品回源相关的功能和配置,包括:源站地址、动态回源策略、回源协议、源站端口、回源HOST、回源SNI、回源HTTP请求头、回源HTTP响应头、回源URI改写、回源参数改写、Common name白名单、回源302/301跟随、Range回源、回源请求超时时间、分区域分运营商回源、区分ipv4/ipv6协议回源、指定源站回源HOST、高级回源等功能。 缓存配置 简述缓存配置相关功能,包括:缓存过期时间、状态码过期时间、配置HTTP响应头、错误页面自定义、自定义重定向、缓存key设置、跨域资源共享等。 []( 简述天翼云全站加速产品的HTTPS相关功能及配置方法。包括:HTTPS配置、国密HTTPS、HTTP2.0、强制跳转、OCSP Stapling、HSTS、TLS协议版本、HTTPS无私钥驻留加速方案、批量配置HTTPS证书、支持的SSL/TLS加密套件等。 []( 简述如何配置HTTP响应头,回源HTTP响应头,回源HTTP请求头。 []( 简述如何配置文件压缩、图片处理功能。 []( 简述访问控制策略及配置方法,包括:IP黑/白名单、Referer防盗链、UA黑/白名单、URI黑/白名单、URL鉴权、全网带宽控制、有序回源、单请求限速等策略。 []( 简述html页面优化、html禁止操作等功能。 []( 简述视频拖拉、视频试看、HLS标准加密改写功能。 websocket加速 简述websocket加速方案及配置方法。 []( 简述上传加速方案及配置方法。 []( 简述什么是QUIC协议,天翼云全站加速对QUIC协议的支持情况,以及配置说明。 []( 介绍天翼云全站加速平台高级配置,包括访问URL重定向,错误页面自定义。 []( 云备源服务可帮助客户实现定期将网站内容从主源自动同步至备源,如主源发生宕机,则全站加速可无缝切换至云备源,实现网站业务高可用。 防攻击处理预案说明 天翼云全站加速默认不提供防攻击服务。当某个客户的域名遭受攻击(例如CC攻击),而出现带宽或QPS异常大幅上涨触发平台稳定性红线时,全站系统有权(根据域名业务情况、攻击影响程度等因素综合判断)将对应客户的域名切入专用隔离资源池以隔离异常业务,避免影响其他正常用户的加速服务。在攻击较严重的情况下,同账户下的其他域名也会切入隔离资源池。 []( 介绍高性能网络的适用场景和配置方法。 []( 天翼云全站加速平台支持自动化业务指标监控和告警功能,客户可以依据实际业务监控/告警需要,设置相关的监控与告警规则。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        域名管理概述
      • 通用错误码
        本节主要介绍接口的通用错误码。 HTTP status 错误码 错误信息 说明 400 BadDigest The ContentMD5 you specified does not match what HBlock received. ContentMD5的值和请求体的MD5不一致。 400 ClusterModeNotAllowed 'operation' is not supported by cluster mode of HBlock. 集群版本HBlock不支持该操作。 400 IncompleteBody You did not provide the number of bytes specified by the ContentLength HTTP header. 请求体长度不足ContentLength请求头指定的长度。 400 InsufficientServerSpace This method is not allowed because the free space of directory must be greater than or equal to value for server serverId[, serverId...]. 服务器存储空间不足,无法执行操作。 400 InvalidArgument Value empty at 'argument' failed to satisfy constraint: Argument must not be empty. Json 数组长度不能为0。 400 InvalidBoolean Value value at 'argument' failed to satisfy constraint: Argument must be boolean. 布尔类型不合法。 400 InvalidFilter Value value at 'filter' failed to satisfy constraint: Argument must use a single colon (':' means fuzzy match) or two colons ('::' means exact match) to separate the attribute key and value. If you query multiple attributes, you can use 'and' or 'or' keywords to separate them, and there must be spaces before and after 'and' or 'or'. filter参数不合法。 400 InvalidHeader Invalid HTTP header, headerName. 请求头格式不合法。 400 InvalidInteger Valuevalue at 'argument' failed to satisfy constraint: Argument must be integer. 值必须为整数。 400 InvalidArgumentLength Value value at 'argument' failed to satisfy constraint: Argument must not exceed value characters. 参数长度错误。 400 InvalidPackage Invalid package. Please get the correct package. 安装包无效。 400 InvalidRequest Unable to parse request url. URL解析失败。 400 InvalidRequestBody Invalid request body. 请求无效。 400 InvalidStatus Value value at 'argument' failed to satisfy constraint: Argument must satisfy enum value set: [Enabled, Disabled]. 输入的参数值不对。 400 InvalidString Value '' at 'argument' failed to satisfy constraint: Argument must not be an empty string. 参数不能是空字符串。 400 LoadConfigFailed Failed to load configuration files. 加载配置文件失败。 加载配置文件需要满足以下条件: 需要基础服务器至少有2台满足cs和ls服务成功启动。 需要基础服务器至少有1台满足fc、mdm和ds服务成功启动。 需要保证待启动的服务器和主服务器(Master)网络通信正常。 400 MissingArgument Value null at 'argument' failed to satisfy constraint: Argument must not be null. Json参数不能为空。 400 MissingHeader Missing HTTP header headerName. 请求头Host不能为空。 400 NotInitialized HBlock is not initialized. HBlock未初始化。 400 NotInstalled HBlock is not installed. HBlock未安装。 400 RequestTimeout No response received. Please check if there are any network issues and if the operation was successfully executed. 未收到响应,请检查是否存在网络问题,以及操作是否执行成功。 400 StandaloneModeNotAllowed 'operation' is not supported by standalone mode of HBlock. 单机版不支持该操作。 403 LicenseExpired The software license has expired. 软件许可证过期。 403 PermissionDenied Failed to action because user has no permission. 用户的权限不足导致操作失败。 403 SignatureDoesNotMatch Signature does not match. Please check your user name, password and signing method for server(s) [, serverIP ...]. 签名不正确。请检查用户名、密码和签名方法。 400 SystemDataDegraded There is low redundancy or error data in the system, operation is not allowed. Please repair fault domains and disk paths. 系统中存在降级或错误数据,不允许操作。请修复故障域和磁盘路径。 403 TrialExpired The software trial version has expired. 软件试用期已过期。 405 InvalidMethod The specified method does not exist. 指定的方法不存在。 409 InvalidLUNStatus The status of LUN 'lunname ' is 'status', the request is invalid. LUN当前的状态不正确,请求无效。 409 InvalidServerStatus The server serverId status is 'status', the request is invalid. 服务器当前的状态不正确,请求无效。 409 InvalidStorStatus The HBlock status is 'status', the request is invalid. HBlock当前的状态不正确,请求无效。 409 InvalidTargetStatus The Target status is 'status', the request is invalid. Target当前的状态不正确,请求无效。 500 InsufficientResource Operation failed due to insufficient resources. 内存或其他资源不足,操作失败。 500 InternalError HBlock encountered an internal error. Please try again or contact the software vendor. 请重试或者联系软件供应商。 503 SlowDown Please reduce your request rate. 服务端繁忙,请降低请求频率。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        接口
        通用错误码
      • 连接集群
        本章节主要介绍数据仓库服务如何连接集群。 操作场景 您在创建好数据仓库集群,开始使用数据库服务前,需要使用数据库客户端连接到DWS 集群中的数据库。本示例将使用Data Studio客户端工具通过公网地址连接DWS集群中的数据库。您也可以使用其他SQL客户端连接集群,更多连接方式请参见 连接集群的方式。 1.获取所要连接的数据库名称、用户名和密码。 首次使用客户端连接集群时,您需使用创建集群时设置的数据库管理员用户和密码连接到默认数据库“gaussdb”。 2.获取集群公网访问地址:通过集群公网访问地址连接数据库。 3.使用Data Studio连接到集群数据库:下载配置Data Studio客户端并连接集群数据库。 获取集群公网访问地址 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“集群管理”。 3.在集群列表中,选中已创建集群(如dwsdemo),单击“集群名称”前面的向下展开按钮,获取并保存公网访问地址。 该公网访问地址将在使用Data Studio连接到集群数据库时使用。 使用Data Studio连接到集群数据库 1.DWS 提供了基于Windows平台的Data Studio图形界面客户端,该工具依赖JDK,请先在客户端主机上安装Java 1.8.0141或以上版本的JDK。 在Windows操作系统中,您可以访问JDK官方网站,下载符合操作系统版本的JDK,并根据指导进行安装。 2.登录DWS 管理控制台。 3.单击“连接管理”。 4.在“下载客户端和驱动”页面,下载“Data Studio图形界面客户端”。 请根据操作系统类型,选择“Windows x86”或“Windows x64”,再单击“下载”,可以下载与现有集群版本匹配的Data Studio工具。 如果同时拥有不同版本的集群,单击“下载”时会下载与集群最低版本相对应的Data Studio工具。如果当前没有集群,单击“下载”时将下载到低版本的Data Studio工具。DWS 集群可向下兼容低版本的Data Studio工具。 单击“历史版本”可根据集群版本下载相应版本的Data Studio工具,建议按集群版本下载配套的工具。 5.解压下载的客户端软件包(32位或64位)到需要安装的路径。 6.打开安装目录,双击Data Studio.exe,启动Data Studio客户端,如下图所示。 7.在主菜单中选择 “文件>新建连接” ,如下图所示。 8.在弹出的“新建/选择数据库连接”页面中,如下图所示,输入连接参数。 字段名称 说明 举例 数据库类型 选择“GaussDB A” GaussDB A 名称 连接名称。 dwsdemo 主机名 所要连接的集群IP地址(IPv4)或域名。 端口号 数据库端口。 8000 数据库 数据库名称。 gaussdb 用户名 所要连接数据库的用户名。 密码 所要连接数据库的登录密码。 保存密码 在下拉列表中选择: “仅当前会话”:仅在当前会话中保存密码。 “不保存”:不保存密码。 启用SSL 启用时,客户端将使用SSL加密连接方式。SSL连接方式安全性高于普通模式,建议开启。 当“启用SSL”设置为开启时,请先下载SSL证书,并解压证书文件。然后中单击“SSL”页签,设置如下参数: 配置SSL参数 字段名称 说明 客户端SSL证书 选择SSL证书解压目录下的“sslcertclient.crt”文件。 客户端SSL密钥 客户端SSL秘钥只支持PK8格式,请选择SSL证书解压目录下的“sslcertclient.key.pk8”文件。 根证书 当“SSL模式”设为“verifyca”时,必须设置根证书,请选择SSL证书解压目录下的“sslcertcacert.pem”文件。 SSL密码 客户端pk8格式SSL秘钥密码,默认密码为“Gauss@MppDB”。 SSL模式 DWS支持的SSL模式有: require verifyca DWS不支持“verifyfull”模式。 详见下图: 配置SSL参数 9.单击“确定”建立数据库连接。 如果启用了SSL,在弹出的“连接安全告警”提示对话框中单击“继续”。 登录成功后,将弹出“最近登录活动”提示框,表示Data Studio已经连接到数据库。用户即可在Data Studio界面的“SQL终端”窗口中执行SQL语句。 详见下图: 登录成功 欲详细了解Data Studio其他功能的使用方法,请按“F1”查看Data Studio用户手册。
        来自:
        帮助文档
        数据仓库服务
        快速入门
        连接集群
      • 运行HiveSql作业
        本章节主要介绍运行HiveSql作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在MRS集群页面如何提交一个新的HiveSql作业。HiveSql作业用于提交SQL语句和SQL脚本文件查询和分析数据,包括SQL语句和Script脚本两种形式,如果SQL语句涉及敏感信息,请使用Script提交。 前提条件 用户已经将运行作业所需的程序包和数据文件上传至OBS系统或HDFS中。 通过界面提交作业 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.若集群开启Kerberos认证时执行该步骤,若集群未开启Kerberos认证,请无需执行该步骤。 在“概览”页签的基本信息区域,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 说明 当IAM用户的用户组的所属策略从MRS ReadOnlyAccess向MRS CommonOperations、MRS FullAccess、MRS Administrator变化时,由于集群节点的SSSD(System Security Services Daemon)缓存刷新需要时间,因此同步完成后,请等待5分钟,等待新修改策略生效之后,再进行提交作业。否则,会出现提交作业失败的情况。 当IAM用户的用户组的所属策略从MRS CommonOperations、MRS FullAccess、MRS Administrator向MRS ReadOnlyAccess变化时,由于集群节点的SSSD缓存刷新需要时间,因此同步完成后,请等待5分钟,新修改策略才能生效。 4.单击“作业管理”,进入“作业管理”页签。 5.单击“添加”,进入“添加作业”页面。 6.配置作业信息。“作业类型”选择“HiveSql”并参考下表配置HiveSql作业信息。 作业配置信息 参数 参数说明 作业名称 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 说明 建议不同的作业设置不同的名称。 SQL类型 SQL查询语句提交类型。 SQL Script SQL语句 “SQL类型”参数为“SQL”时参数有效,请输入待运行的SQL语句,然后单击“检查”来检查SQL语句的正确性,确保输入语句正确。如果同时需要提交多条语句并执行,使用“;”分隔不同语句。 SQL文件 “SQL类型”参数为“Script”时参数有效,待执行SQL文件的路径,需要满足以下要求。 最多为1023字符,不能包含;l&>,<'$特殊字符,且不可为空或全空格。 执行程序路径可存储于HDFS或者OBS中,不同的文件系统对应的路径存在差异。 OBS:以“obs://”开头。示例: obs://wordcount/program/xxx.jar。 HDFS:以“/user”开头。数据导入HDFS请参考导入导出数据章节中的“导入数据”。 SparkScript和HiveScript需要以“.sql”结尾,MapReduce需要以“.jar”结尾,Flink和SparkSubmit需要以“.jar”或“.py”结尾。sql、jar、py不区分大小写。 说明 存储在OBS上的文件路径支持以“obs://”开头格式。如需使用该格式提交作业,访问OBS需要配置对应权限。 创建集群时开启“OBS权限控制”功能时,可直接使用“obs://”路径,无需单独配置。 创建集群时未开启或不支持“OBS权限控制”功能时,请参考配置存算分离集群(委托方式)章节访问OBS页面进行配置。 运行程序参数 可选参数,为本次执行的作业配置相关优化参数(例如线程、内存、CPU核数等),用于优化资源使用效率,提升作业的执行性能。 常用运行程序参数如下表“运行程序参数”。 服务配置参数 可选参数,用于为本次执行的作业修改服务配置参数。该参数的修改仅适用于本次执行的作业,如需对集群永久生效,请参考配置服务参数页面进行修改。 如需添加多个参数,请单击右侧增加,如需删除参数,请单击右侧“删除”。 常用服务配置参数如下表“服务配置参数”。 命令参考 用于展示提交作业时提交到后台执行的命令。 运行程序参数 参数 参数说明 取值样例 hiveconf 设置Hive服务相关配置,例如设置执行引擎为MR。 设置执行引擎为MR:hiveconf "hive.execution.enginemr" hivevar 设置用户自定义变量,例如设置变量id。 设置变量id:hivevar id"123" select from test where id ${hivevar:id}; 服务配置参数 参数 参数说明 取值样例 fs.obs.access.key 访问OBS的密钥ID。 fs.obs.secret.key 访问OBS与密钥ID对应的密钥。 hive.execution.engine 选择执行作业的引擎。 mr tez 7.确认作业配置信息,单击“确定”,完成作业的新增。 作业新增完成后,可对作业进行管理。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行HiveSql作业
      • 配置卷类型
        本节主要介绍HBlock Cinder配置卷类型。 可以按照下列步骤进行卷类型配置。 1. 修改Cinder的配置文件/etc/cinder/cinder.conf,使用enabledbackends启用HBlock的卷,并且在配置文件中增加HBlock卷相关参数。 说明 一次可以在cinder.conf添加多个卷的类型。 单机版示例如下: plaintext [DEFAULT] enabledbackends lvmdriver1,stor1 [stor1] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor1 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint writepolicy WriteBack sectorsize 4096 maxsessions 2 storpath /mnt/stor flattenvolumefromsnapshotfalse maxclonedepth5 集群版示例如下: plaintext [DEFAULT] enabledbackends lvmdriver1,stor,stor1,stor2 [stor] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storchapuser chapuser storchappassword storagemode Local localstorageclass EC 2+1 highavailability ActiveStandby writepolicy WriteBack sectorsize 512 ecfragmentsize 16 maxsessions 2 minreplica 2 flattenvolumefromsnapshotfalse maxclonedepth5 [stor1] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor1 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storagemode Local localstorageclass singlecopy highavailability Disabled writepolicy WriteAround sectorsize 512 flattenvolumefromsnapshottrue maxclonedepth5 [stor2] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor2 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storagemode Local localstorageclass 3copy highavailability ActiveStandby writepolicy WriteThrough sectorsize 4096 文件中的参数解释如下: 参数名称 参数说明 是否必须 enabledbackends 需要在系统生效的后端存储名称。 如果有多个需要生效的存储,名称之间用英文逗号隔开。 是 volumegroup 卷的组。 是 volumedriver HBlock驱动所在路径。 取值: 如果驱动作为独立Python包进行安装,取值为stordriver.driver.driverstor.StorDriver。 如果复制stordriver到Cinder驱动目录的方式安装驱动,取值为:cinder.volume.drivers.stordriver.driver.driverstor.StorDriver。 是 volumebackendname 卷对应的后端存储名称,存储节点的Volume Provider 命名。与enabledbackends定义的后端存储名字保持一致。 是 storprovider 产品名称。 取值:HBlock。 是 storapiuser HBlock的管理员用户名。 说明 HBlock初始化时,默认用户名为storuser。 是 storapipassword HBlock的管理员密码。 是 storagemode HBlock卷的模式。 取值: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 默认值为Local。 否 storchapuser CHAP验证用名称。 取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 storchappassword CHAP认证密码。 取值:字符串形式,长度范围是12~16,只能由字母、数字或下划线( )组成,字母区分大小写。 否 storapiendpoint 配置HBlock RESTful API地址和端口。 对于集群版HBlock,可以填写多对HBlock RESTful API地址和端口,以英文逗号隔开。 说明 安装HBlock时,默认API端口为1443。 是 storpath 指定HBlock存储卷数据的数据目录(仅单机版支持)。 说明 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 否 servernumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 faultdomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 pool 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 注意 已用该卷类型创建卷,禁止修改pool,否则将影响已创建的卷。如果需要修改pool,需要创建新的卷类型。 否 cachepool 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 否 highavailability 选择卷的高可用类型(仅集群版支持): ActiveStandby:启用主备,该卷关联对应Target下的所有IQN。 Disabled:不启用主备,该卷关联对应Target下的1个IQN。 默认值为ActiveStandby。 否 localstorageclass 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 否 minreplica 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 否 redundancyoverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:对副本模式,取值范围是[1,副本数],默认值为1;对于EC模式,取值范围是[1,M+N],默认值为1。 否 ecfragmentsize 纠删码模式分片大小(仅集群版支持)。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 否 sectorsize 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 否 writepolicy 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 否 maxsessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 否 flattenvolumefromsnapshot 是否断开卷与快照的关系链: true:断开。 false:不断开。 默认值为false。 否 maxclonedepth 最大克隆卷深度,当超过设置的最大深度时,新创建的卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。0表示不支持克隆卷。 否 cloudbucketname 已存在的OOS存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 上云卷必填 cloudprefix 设置OOS中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 否 cloudaccesskey OOS AccessKeyID。 上云卷必填 cloudsecretkey OOS SecretAccessKey。 上云卷必填 cloudendpoint 设置OOS Endpoint。 上云卷必填 cloudobjectsize 数据存储在OOS中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 否 cloudstorageclass 设置OOS的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 否 cloudcompression 是否压缩数据上传至OOS: Enabled(on):压缩数据上传至OOS。 Disabled(off):不压缩数据上传至OOS。 默认值为Enabled(on)。 否 cloudsignversion 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 否 cloudregion 表示Endpoint资源池所在区域。 V4签名时,此项必填。 条件 deleteclouddata 删除卷时,是否删除云上的数据: true:删除云上数据。 false:不删除云上数据。 默认值为true。 否 2. 使用下列命令,使用配置生效: plaintext cinder typecreate volumebackendname cinder typekey volumebackendname set volumebackendnamevolumebackendname 示例1:使步骤1中单机版配置生效 plaintext cinder typecreate stor1 cinder typekey stor1 set volumebackendnamestor1 示例2:使步骤1中配置的集群版配置生效 plaintext cinder typecreate stor cinder typekey stor set volumebackendnamestor cinder typecreate stor1 cinder typekey stor1 set volumebackendnamestor1 cinder typecreate stor2 cinder typekey stor2 set volumebackendnamestor2 3. 重启Cinder服务 如果使用DevStack方式安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart devstack@c 如果使用Packstack安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart openstackcinder 4. 配置Multipath(集群版) 1)参考客户端配置章节中的“配置 MPIO”,确保MPIO正确配置。 2)启用Nova的multipath功能(如果是多节点部署,需要到对应的计算节点修改配置):如果使用DevStack方式安装OpenStack,修改/etc/novacpu.conf;如果使用Packstack安装OpenStack,修改/etc/nova/nova.conf。 plaintext [libvirt] iscsiusemultipath true 5. 重启Nova服务(集群版) 如果使用DevStack方式安装OpenStack,重启Nova服务命令如下: plaintext systemctl restart devstack@n 如果使用Packstack安装OpenStack,重启Nova服务命令如下: plaintext systemctl restart openstacknova 说明 如果是多节点部署,需要到对应的计算节点重启Nova服务。 6. 验证卷是否配置正确 plaintext cinder typelist cinder typeshow ID
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        OpenStack Cinder驱动插件
        配置卷类型
      • 字段转换
        本章节主要介绍字段转换。 在创建表/文件迁移作业的字段映射界面,可新建字段转换器,如下图示。 图 新建字段转换器 说明 当使用二进制格式进行文件到文件的迁移时,没有字段映射这一步。 CDM可以在迁移过程中对字段进行转换,目前支持以下字段转换器: 脱敏 去前后空格 字符串反转 字符串替换 去换行 表达式转换 脱敏 隐藏字符串中的关键信息,例如要将“12345678910”转换为“1238910”,则配置如下: “起始保留长度”为“3”。 “结尾保留长度”为“4”。 “替换字符”为“”。 详见下图:字段脱敏 去前后空格 自动去字符串前后的空值,不需要配置参数。 字符串反转 自动反转字符串,例如将“ABC”转换为“CBA”,不需要配置参数。 字符串替换 替换字符串,需要用户配置被替换的对象,以及替换后的值。 去换行 将字段中的换行符(n、r、rn)删除。 表达式转换 使用JSP表达式语言(Expression Language)对当前字段或整行数据进行转换。JSP表达式语言可以用来创建算术和逻辑表达式。在表达式内可以使用整型数,浮点数,字符串,常量true、false和null。 表达式支持以下两个环境变量: value:当前字段值。 row:当前行,数组类型。 表达式支持以下工具类: StringUtils:字符串处理类,参考Java SDK代码的包结构“org.apache.commons.lang.StringUtils”。 DateUtils:日期工具类。 CommonUtils:公共工具类。 NumberUtils:字符串转数值类。 HttpsUtils:读取网络文件类。 应用举例: 1. 如果当前字段为字符串类型,将字符串全部转换为小写,例如将“aBC”转换为“abc”。 表达式:StringUtils.lowerCase(value) 2. 将当前字段的字符串全部转为大写。 表达式:StringUtils.upperCase(value) 3. 如果当前字段值为“yyyyMMdd”格式的日期字符串,需要截取年,例如字段值为“20171201”,转换后为“2017”。 表达式:StringUtils.substringBefore(value,"") 4. 如果当前字段值为数值类型,转换后值为当前值的两倍。 表达式:value2 5. 如果当前字段值为“true”,转换后为“Y”,其它值则转换后为“N”。 表达式:value"true"?"Y":"N" 6. 如果当前字段值为字符串类型,当为空时,转换为“Default”,否则不转换。 表达式:empty value? "Default":value 7. 如果想将日期字段格式从“2018/01/05 15:15:05”转换为“20180105 15:15:05”。 表达式:DateUtils.format(DateUtils.parseDate(value,"yyyy/MM/dd HH:mm:ss"),"yyyyMMdd HH:mm:ss") 8. 获取一个36位的UUID(Universally Unique Identifier,通用唯一识别码)。 表达式:CommonUtils.randomUUID() 9. 如果当前字段值为字符串类型,将首字母转换为大写,例如将“cat”转换为“Cat”。 表达式:StringUtils.capitalize(value) 10. 如果当前字段值为字符串类型,将首字母转换为小写,例如将“Cat”转换为“cat”。 表达式:StringUtils.uncapitalize(value) 11. 如果当前字段值为字符串类型,使用空格填充为指定长度,并且将字符串居中,当字符串长度不小于指定长度时不转换,例如将“ab”转换为长度为4的“ab”。 表达式:StringUtils.center(value,4) 12. 删除字符串末尾的一个换行符(包括“n”、“r”或者“rn”),例如将“abcrnrn”转换为“abcrn”。 表达式:StringUtils.chomp(value) 13. 如果字符串中包含指定的字符串,则返回布尔值true,否则返回false。例如“abc”中包含“a”,则返回true。 表达式:StringUtils.contains(value,"a") 14. 如果字符串中包含指定字符串的任一字符,则返回布尔值true,否则返回false。例如“zzabyycdxx”中包含“z”或“a”任意一个,则返回true。 表达式:StringUtils.containsAny("value","za") 15. 如果字符串中不包含指定的所有字符,则返回布尔值true,包含任意一个字符则返回false。例如“abz”中包含“xyz”里的任意一个字符,则返回false。 表达式:StringUtils.containsNone(value,"xyz") 16. 如果当前字符串只包含指定字符串中的字符,则返回布尔值true,包含任意一个其它字符则返回false。例如“abab”只包含“abc”中的字符,则返回true。 表达式:StringUtils.containsOnly(value,"abc") 17. 如果字符串为空或null,则转换为指定的字符串,否则不转换。例如将空字符转换为null。 表达式:StringUtils.defaultIfEmpty(value,null) 18. 如果字符串以指定的后缀结尾(包括大小写),则返回布尔值true,否则返回false。例如“abcdef”后缀不为null,则返回false。 表达式:StringUtils.endsWith(value,null) 19. 如果字符串和指定的字符串完全一样(包括大小写),则返回布尔值true,否则返回false。例如比较字符串“abc”和“ABC”,则返回false。 表达式:StringUtils.equals(value,"ABC") 20. 从字符串中获取指定字符串的第一个索引,没有则返回整数1。例如从“aabaabaa”中获取“ab”的第一个索引1。 表达式:StringUtils.indexOf(value,"ab") 21. 从字符串中获取指定字符串的最后一个索引,没有则返回整数1。例如从“aFkyk”中获取“k”的最后一个索引4。 表达式:StringUtils.lastIndexOf(value,"k") 22. 从字符串中指定的位置往后查找,获取指定字符串的第一个索引,没有则转换为“1”。例如“aabaabaa”中索引3的后面,第一个“b”的索引是5。 表达式:StringUtils.indexOf(value,"b",3) 23. 从字符串获取指定字符串中任一字符的第一个索引,没有则返回整数1。例如从“zzabyycdxx”中获取“z”或“a”的第一个索引0。 表达式:StringUtils.indexOfAny(value,"za") 24. 如果字符串仅包含Unicode字符,返回布尔值true,否则返回false。例如“ab2c”中包含非Unicode字符,返回false。 表达式:StringUtils.isAlpha(value) 25. 如果字符串仅包含Unicode字符或数字,返回布尔值true,否则返回false。例如“ab2c”中仅包含Unicode字符和数字,返回true。 表达式:StringUtils.isAlphanumeric(value) 26. 如果字符串仅包含Unicode字符、数字或空格,返回布尔值true,否则返回false。例如“ab2c”中仅包含Unicode字符和数字,返回true。 表达式:StringUtils.isAlphanumericSpace(value) 27. 如果字符串仅包含Unicode字符或空格,返回布尔值true,否则返回false。例如“ab2c”中包含Unicode字符和数字,返回false。 表达式:StringUtils.isAlphaSpace(value) 28. 如果字符串仅包含ASCII可打印字符,返回布尔值true,否则返回false。例如“!abc~”返回true。 表达式:StringUtils.isAsciiPrintable(value) 29. 如果字符串为空或null,返回布尔值true,否则返回false。 表达式:StringUtils.isEmpty(value) 30. 如果字符串中仅包含Unicode数字,返回布尔值true,否则返回false。 表达式:StringUtils.isNumeric(value) 31. 获取字符串最左端的指定长度的字符,例如获取“abc”最左端的2位字符“ab”。 表达式:StringUtils.left(value,2) 32. 获取字符串最右端的指定长度的字符,例如获取“abc”最右端的2位字符“bc”。 表达式:StringUtils.right(value,2) 33. 将指定字符串拼接至当前字符串的左侧,需同时指定拼接后的字符串长度,如果当前字符串长度不小于指定长度,则不转换。例如将“yz”拼接到“bat”左侧,拼接后长度为8,则转换后为“yzyzybat”。 表达式:StringUtils.leftPad(value,8,"yz") 34. 将指定字符串拼接至当前字符串的右侧,需同时指定拼接后的字符串长度,如果当前字符串长度不小于指定长度,则不转换。例如将“yz”拼接到“bat”右侧,拼接后长度为8,则转换后为“batyzyzy”。 表达式:StringUtils.rightPad(value,8,"yz") 35. 如果当前字段为字符串类型,获取当前字符串的长度,如果该字符串为null,则返回0。 表达式:StringUtils.length(value) 36. 如果当前字段为字符串类型,删除其中所有的指定字符串,例如从“queued”中删除“ue”,转换后为“qd”。 表达式:StringUtils.remove(value,"ue") 37. 如果当前字段为字符串类型,移除当前字段末尾指定的子字符串。指定的子字符串若不在当前字段的末尾,则不转换,例如移除当前字段“www.ctyun.cn”后的“.cn”。 表达式:StringUtils.removeEnd(value,".cn") 38. 如果当前字段为字符串类型,移除当前字段开头指定的子字符串。指定的子字符串若不在当前字段的开头,则不转换,例如移除当前字段“www.ctyun.cn”前的“www.”。 表达式:StringUtils.removeStart(value,"www.") 39. 如果当前字段为字符串类型,替换当前字段中所有的指定字符串,例如将“aba”中的“a”用“z”替换,转换后为“zbz”。 表达式:StringUtils.replace(value,"a","z") 40. 如果当前字段为字符串类型,一次替换字符串中的多个字符,例如将字符串“hello”中的“h”用“j”替换,“o”用“y”替换,转换后为“jelly”。 表达式:StringUtils.replaceChars(value,"ho","jy") 41. 如果字符串以指定的前缀开头(区分大小写),则返回布尔值true,否则返回false,例如当前字符串“abcdef”以“abc”开头,则返回true。 表达式:StringUtils.startsWith(value,"abc") 42. 如果当前字段为字符串类型,去除字段中所有指定的字符,例如去除“abcyx”中所有的“x”、“y”和“z”,转换后为“abc”。 表达式:StringUtils.strip(value,"xyz") 43. 如果当前字段为字符串类型,去除字段末尾所有指定的字符,例如去除当前字段末尾的所有空格。 表达式:StringUtils.stripEnd(value,null) 44. 如果当前字段为字符串类型,去除字段开头所有指定的字符,例如去除当前字段开头的所有空格。 表达式:StringUtils.stripStart(value,null) 45. 如果当前字段为字符串类型,获取字符串指定位置后(不包括指定位置的字符)的子字符串,指定位置如果为负数,则从末尾往前计算位置。例如获取“abcde”第2个字符后的字符串,则转换后为“cde”。 表达式:StringUtils.substring(value,2) 46. 如果当前字段为字符串类型,获取字符串指定区间的子字符串,区间位置如果为负数,则从末尾往前计算位置。例如获取“abcde”第2个字符后、第5个字符前的字符串,则转换后为“cd”。 表达式:StringUtils.substring(value,2,5) 47. 如果当前字段为字符串类型,获取当前字段里第一个指定字符后的子字符串。例如获取“abcba”中第一个“b”之后的子字符串,转换后为“cba”。 表达式:StringUtils.substringAfter(value,"b") 48. 如果当前字段为字符串类型,获取当前字段里最后一个指定字符后的子字符串。例如获取“abcba”中最后一个“b”之后的子字符串,转换后为“a”。 表达式:StringUtils.substringAfterLast(value,"b") 49. 如果当前字段为字符串类型,获取当前字段里第一个指定字符前的子字符串。例如获取“abcba”中第一个“b”之前的子字符串,转换后为“a”。 表达式:StringUtils.substringBefore(value,"b") 50. 如果当前字段为字符串类型,获取当前字段里最后一个指定字符前的子字符串。例如获取“abcba”中最后一个“b”之前的子字符串,转换后为“abc”。 表达式:StringUtils.substringBeforeLast(value,"b") 51. 如果当前字段为字符串类型,获取嵌套在指定字符串之间的子字符串,没有匹配的则返回null。例如获取“tagabctag”中“tag”之间的子字符串,转换后为“abc”。 表达式:StringUtils.substringBetween(value,"tag") 52. 如果当前字段为字符串类型,删除当前字符串两端的控制字符(char≤32),例如删除字符串前后的空格。 表达式:StringUtils.trim(value) 53. 将当前字符串转换为字节,如果转换失败,则返回0。 表达式:NumberUtils.toByte(value) 54. 将当前字符串转换为字节,如果转换失败,则返回指定值,例如指定值配置为1。 表达式:NumberUtils.toByte(value,1) 55. 将当前字符串转换为Double数值,如果转换失败,则返回0.0d。 表达式:NumberUtils.toDouble(value) 56. 将当前字符串转换为Double数值,如果转换失败,则返回指定值,例如指定值配置为1.1d。 表达式:NumberUtils.toDouble(value,1.1d) 57. 将当前字符串转换为Float数值,如果转换失败,则返回0.0f。 表达式:NumberUtils.toFloat(value) 58. 将当前字符串转换为Float数值,如果转换失败,则返回指定值,例如配置指定值为1.1f。 表达式:NumberUtils.toFloat(value,1.1f) 59. 将当前字符串转换为Int数值,如果转换失败,则返回0。 表达式:NumberUtils.toInt(value) 60. 将当前字符串转换为Int数值,如果转换失败,则返回指定值,例如配置指定值为1。 表达式:NumberUtils.toInt(value,1) 61. 将字符串转换为Long数值,如果转换失败,则返回0。 表达式:NumberUtils.toLong(value) 62. 将当前字符串转换为Long数值,如果转换失败,则返回指定值,例如配置指定值为1L。 表达式:NumberUtils.toLong(value,1L) 63. 将字符串转换为Short数值,如果转换失败,则返回0。 表达式:NumberUtils.toShort(value) 64. 将当前字符串转换为Short数值,如果转换失败,则返回指定值,例如配置指定值为1。 表达式:NumberUtils.toShort(value,1) 65. 将当前IP字符串转换为Long数值,例如将“10.78.124.0”转换为LONG数值是“172915712”。 表达式:CommonUtils.ipToLong(value) 66. 从网络读取一个IP与物理地址映射文件,并存放到Map集合,这里的URL是IP与地址映射文件存放地址,例如“ 表达式:HttpsUtils.downloadMap("url") 67. 将IP与地址映射对象缓存起来并指定一个key值用于检索,例如“ipList”。 表达式:CommonUtils.setCache("ipList",HttpsUtils.downloadMap("url")) 68. 取出缓存的IP与地址映射对象。 表达式:CommonUtils.getCache("ipList") 69. 判断是否有IP与地址映射缓存。 表达式:CommonUtils.cacheExists("ipList") 70. 根据指定的偏移类型(month/day/hour/minute/second)及偏移量(正数表示增加,负数表示减少),将指定格式的时间转换为一个新时间,例如将“20190521 12:00:00”增加8个小时。 表达式:DateUtils.getCurrentTimeByZone("yyyyMMdd HH:mm:ss",value, "hour", 8)
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        字段转换
      • 通过脚本批量更新一键式重置密码插件(Linux)
        本节介绍了更新一键式重置密码插件(批量操作Linux系统root用户)的操作场景、前提条件、约束与限制、操作步骤等内容。 操作场景 当您需要对多台Linux系统的云主机批量更新一键式重置密码插件时,可参考本文档操作。 前提条件 登录已准备好的执行机,执行机需满足的条件请参见下文约束与限制。 需要提前准备待批量安装插件的云主机的IP地址、root用户的密码信息或者私钥文件。 执行机应该与待更新机器在同一VPC下。 在执行完步骤7之后可以解绑eip。 约束与限制 需要选取一台操作系统为CentOS 7(公共镜像)且已绑定弹性公网IP的云主机作为执行机,且与待批量安装插件的弹性云主机之间网络需要互通。 仅支持对使用同一密钥对的云主机执行批量安装插件的操作。 操作步骤 1.根据以下地址获取ansible.tar.gz压缩包,并上传到执行机。 以root用户登录执行机。 依次执行以下命令安装ansible。(实际安装路径用户可自定义,此处以/root/ansible为示例。) mkdir /root/ansible tar zxvf ansible.tar.gz C /root/ansible cd /root/ansible yum localinstall .rpm 执行以下命令检测是否安装成功。 ansible version 2.请参考获取并校验一键式重置密码插件完整性(Linux),下载对应的一键式重置密码插件CloudResetPwdAgent.zip并完成完整性校验。 安装一键式重置密码插件对插件的具体放置目录无特殊要求,请您自定义。 3.执行以下命令,将批量操作脚本下载到root目录下。 curl URL >~/batchupdatelog4jversion.py 其中,URL为批量操作的执行脚本。 脚本下载地址: 4.执行以下命令,将更新插件脚本下载到root目录下。 curl URL >~/updatelog4jversionforresetpwdagent.sh 其中,URL为更新插件脚本的下载地址。 脚本下载地址: 5.检查如下脚本是否在root目录下: batchupdatelog4jversion.py updatelog4jversionforresetpwdagent.sh CloudResetPwdAgent.zip 6.执行以下命令,新建并编辑hostlist.txt,按i进入编辑模式。 vi hostlist.txt 将需要自动安装驱动的云主机的相关信息填写到hostlist.txt文件中。 示例: [x8664] 182.168.64.21 182.168.64.22 文件填写格式与登录待切换弹性云主机的方式需要匹配。 使用密钥对方式鉴权的云主机,填写方式如下: 说明 使用密钥对方式鉴权的云主机,请将创建弹性云主机时保存的私钥文件,上传至与hostlist.txt同一个文件夹下。 使用密钥对方式鉴权的云主机,请确保私钥文件的权限为400。 chmod 400私钥文件 每行仅需填写云主机IP地址。 示例: 192.168.1.10 192.168.1.11 使用密码方式登录的云主机,填写方式如下: 请严格按照每行ip,root用户密码,中间以英文逗号隔开的格式填写。 示例: 192.168.1.10,'' 192.168.1.11,'' 7.运行批量执行操作脚本“batchupdatelog4jversion.py”。 密钥对鉴权方式的服务器 如果私钥文件与批量操作执行脚本在一个目录下,则直接指定私钥文件名称即可。 python batchupdatelog4jversion.py {私钥文件路径/私钥文件名称} 图 运行脚本 密码方式鉴权的服务器。 python batchupdatelog4jversion.py 图 运行脚本 8.执行如下命令,在“/root/logs/execorigin.log”的最后一行查看运行结果日志。 vim /root/logs/execorigin.log 若如下图所示,则表示运行成功。 图 运行成功
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        密码和密钥对
        管理一键式重置密码插件
        通过脚本批量更新一键式重置密码插件(Linux)
      • 管理VPC
        本节主要介绍如何管理VPC。 网络ACL是对一个或多个子网的访问控制策略系统,根据与子网关联的入站/出站规则,判断数据包是否被允许流入/流出关联子网。一个文件系统最多可以添加20个可用的VPC,对于添加的VPC所创建的ACL规则总和不能超过400个。添加VPC时会自动添加默认IP地址0.0.0.0/0。 如果已经在VPC控制台删除文件系统绑定的VPC,该VPC在文件系统绑定的VPC列表下可见且授权的IP地址/地址段为“激活”状态,但此时该VPC已无法进行使用,建议将该VPC从列表中删除。 更多关于VPC的信息请参见《虚拟私有云用户指南》。 操作步骤 1. 登录管理控制台,选择“弹性文件服务”。 2. 在文件系统列表中单击目标文件系统名称,进入授权VPC界面。 3. 如果没有可用的VPC,需要先申请VPC。可以为文件系统添加多个VPC,单击“添加VPC”,弹出“添加VPC”对话框。如图所示。 可以在下拉列表中选中多个VPC。 4. 单击“确定”,完成添加。添加成功的VPC会出现在列表中,添加VPC时会自动添加默认IP地址0.0.0.0/0,默认读写权限为“读/写”,默认用户权限为“noallsquash”,默认用户root权限为“norootsquash”。 5. 在VPC列表下可以看到所有添加的VPC的信息,参数说明如表所示。 参数 说明 :: 名称 已添加的VPC的名称,例如:vpc4040。 授权IP数量 已经添加的IP地址或IP地址段的个数。 操作 包含“添加”和“删除”操作。“添加”即添加授权的IP地址,包括对授权的IP地址、读/写权限、用户权限、用户root权限及优先级的设置,“删除”即删除该VPC。 6. 单击VPC名称左边的,可以查看目标VPC添加的IP地址/地址段的详细信息。可以对其进行添加、编辑和删除IP地址/地址段的操作。在目标VPC的“操作”列,单击“添加”,弹出“添加授权地址”的弹窗,如图所示。可以根据参数说明如表所示完成添加 参数 说明 :: 授权地址 只能输入一个IPv4地址/地址段。 输入的IPv4地址/地址段必须合法,且不能为除0.0.0.0/0以外之前0开头的IP地址或地址段,其中当设置为0.0.0.0/0时表示VPC内的任意IP。同时,不能为127以及224~255开头的IP地址或地址段,例如127.0.0.1,224.0.0.1,255.255.255.255,因为以224239开头的IP地址或地址段是属于D类地址,用于组播;以240255开头的IP地址或地址段属于E类地址,用于研究。使用非合法的IP或IP地址段可能会导致添加访问规则失败或者添加的访问规则无法生效。 无法输入多个地址,如:10.0.1.32,10.5.5.10用逗号分隔等形式的多个地址。 如果要表示一个地址段,如192.168.1.0192.168.1.255的地址段应使用掩码形式:192.168.1.0/24,不支持192.168.1.0255等其他地址段表示形式。掩码位数的取值为0到31的整数,且只有为0.0.0.0/0时掩码位数可取0,其他情况均不合法。 读或写权限 分为读/写权限和只读权限。默认为“读/写”。 用户权限 分为allsquash和noallsquash。默认为“noallsquash”。 CIFS类型的文件系统添加授权地址时,不涉及该参数。 用户root权限 分为rootsquash和norootsquash。默认为“norootsquash”。 CIFS类型的文件系统添加授权地址时,不涉及该参数。 优先级 优先级只能是0100的整数。0表示优先级最高,100表示优先级最低。同一VPC内挂载时会优先使用该优先级高的IP地址/地址段所拥有的权限,存在相同优先级时会优先匹配最新添加或修改的IP地址/地址段。例如:用户在执行挂载操作时的IP地址为10.1.1.32,而在已经授权的IP地址/地址段中10.1.1.32(读写)优先级为100和10.1.1.0/24(只读)优先级为50均符合要求,则用户权限会使用优先级为50的10.1.1.0/24(只读)的只读权限。10.1.1.0/24内的所有地址包括10.1.1.32,在无其他授权优先级的情况下,则将会使用优先级为50的10.1.1.0/24(只读)的只读权限。 说明 属于VPC A中的弹性云主机IP地址可以被成功添加至VPC B的授权IP地址内,但该云主机无法挂载属于VPC B下的文件系统。弹性云主机和文件系统所使用的VPC需为同一个。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        管理VPC
      • 信任规则
        本章节为您介绍信任规则的相关内容 数据库安全网关对捕获到的数据包进行深度协议解析,精确提取其中的各项字段信息,并与预先设定的信任规则在多个维度上进行细致比对,从而判断语句是否值得信任。 若符合规则条件则放行请求,确保其顺畅无阻地通过,同时避免触发任何不必要的阻断或告警。 新增信任规则 1.在左侧菜单栏选择“规则配置 > 信任规则”进入信任规则页面。 2.单击信任规则列表上方的“新增规则”按钮,即可开始新增信任规则。 3.在弹出的新增规则窗口内,根据您业务的实际需求填写配置项后,单击“保存”。 基本信息配置表 配置项 说明 名称 设置规则名称,必须为中文字符、字母、数字、“”、“.”或“”,长度不超过64 字符。 描述 规则描述,长度不超过1000 字符。 等级 可选高风险、中风险、低风险,默认选择高风险。 适用场景 默认选择缺省场景,可根据场景进行选择。 动作 可选允许访问、命令阻断、会话阻断。 若为旁路部署模式,可选允许访问、会话阻断、IP阻断。 规则类型 可选普通规则和统计规则: 普通规则:单条审计记录匹配到普通规则,会触发生成一条普通告警(例如一条Select语句,可能会触发一条告警)。 统计规则:指定时间内多次匹配到统计规则,触发至阈值后,会触发生成一条统计规则告警(例如5 分钟内10 次Select 失败,可能会触发一条统计告警),并会为客户端生成一条普通阻断规则。 统计方式 可选频次统计和累加统计。(统计规则配置项) 频次统计:指定时间内匹配统计规则达到累计次数。 累加统计:指定时间内匹配统计规则达到累计行数。 客户端信息配置表 配置项 说明 客户端来源 访问业务类型的客户端IP或IP组。可填写多个,以逗号“,”分隔。 客户端端口 可配置多个值或区间,多个值间以逗号“,”分隔,例如:1015,20,25,3040。 客户端工具名 支持字符串匹配、正则表达式匹配、分组选择方式匹配。选择字符串,可配多个客户端工具名,使用逗号“,”分隔。 例:db2bp.exe,javaw.exe,plsqldev.exe。 操作系统用户 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。 客户端主机名 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。 服务端信息配置表 配置项 说明 数据库账号 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。 数据库名(SID) 支持字符串匹配、正则表达式匹配。Oracle数据库输入SID,其他数据库输入数据库名。 选择字符串,可填多值,多个值间以逗号“,”分隔。 行为信息配置表 配置项 说明 对象组 指定规则所匹配的对象组。支持“包含任一对象则满足”或“包含所有对象才满足”。 说明 对象组、数据级别、敏感数据类型间是“或”的关系,与其他规则配置是“与”的关系。 数据级别 多选项,可选一级、二级、三级、四级、五级。 敏感数据类型 多选项,可选内置类型或后续新增的类型。 支持“包含任一类型则满足”或“包含所有类型才满足”。 操作类型 指定SQL语句的操作类型,如Select、Update、Delete等。可根据DDLDMLDCL来选择。 SQL模板ID 可填多值,多个值间以逗号“,”分隔。在审计日志详情中可查看。 SQL关键字 SQL关键字:支持以正则表达式方式匹配报文。单击 输入表达式和校验内容,单击 ,验证输入内容与SQL关键字中的正则表达式是否匹配。可单击“添加条件”可添加多个关键字。 条件运算逻辑表达式:SQL关键字填写后,此项为必填项。条件间的关系,支持与、或、非、括号运算(&:与;:或;~:非)。条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2 个SQL关键字条件,且两个关键字都要满足才能告警。 SQL长度 取值范围1B~64KB。 WHERE子句 是否包含WHERE,支持三个选项:不判断、有WHERE子句、没有WHERE子句。WHERE子句用于提取满足指定条件的SQL记录,语法如下: SELECT columnname,columnname; FROM tablename; WHERE columnname operator value; 结果信息配置表 配置项 说明 执行时长 允许配置从0 到半个小时之间的任意范围。 SQL执行时长属于此范围,则触发规则。 影响行数 允许配置从0 到999999999之间的任意范围,单位为行。 SQL操作返回的影响的行数属于此范围,则触发规则。 当且仅当该规则关联的资产配置了默认数据源时影响行数生效。 返回结果集 返回结果集:支持以正则表达式方式匹配结果集。单击“正则验证”输入结果集内容,单击“提交”,验证输入内容与返回结果关键字的正则表达式是否匹配。可通过“添加条件”添加多个条件。 条件运算逻辑表达式:条件间的关系,支持“与、或、非、括号”运算(&:与;:或;~:非),条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2 个结果集条件,且结果集中需要 同时满足这以上两个条件才能告警。 执行状态 可选全部、成功、失败,默认为全部。 执行结果描述 支持以正则表达式方式匹配。 其他信息配置表 配置项 说明 生效周期 可自定义或者选择时间组。自定义时间可选择任意时间、每天、每周或每月。 生效时间 设定具体的日期和时间范围,以确定其生效时间。规则的最终生效时间是生效周期和设定时间范围的交集。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        规则配置
        信任规则
      • 管理分组参数
        属性编码 属性名称 允许值 默认值 支持在线加载 zkUrl 向LVS注册的ZooKeeper地址,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 无 否 clientFoundRows 控制当执行UPDATE语句时,MySQL服务器与DBProxy接收和处理受影响的行数的行为。 true为匹配行数,而不是被修改的行数。 true/false true 否 clientIgnoreSigpipe 阻止MySQL客户端安装SIGPIPE信号处理器,主要用于当应用程序已经安装该处理器的时候,由DBProxy屏蔽相关信号,避免相关信号与整体系统的冲突。 true/false true 否 clientInteractive MySQL服务器与DBProxy关闭不活动连接时,采用交互超时参数或等待超时参数行为。 true为采用交互超时参数。 true/false true 否 clientNoSchema 不允许 数据库名.表名.列名 这样的语法。 true/false false 否 clientIgnoreSpace MySQL服务器与DBProxy之间交互是否忽略函数名后的空格,true为忽略函数名后的空格。 true/false false 否 frontWriteQueueSize 数据汇集时的应用系统到DBProxy写队列大小。 12147483647 32 是 enableDataMergeLimit 开启数据归并排序限制。 true/false true 是 dataMergeLimit 数据归并排序限制行数。 12147483647 10000 是 frontConnectionIdleCheckThreshold 应用侧与DBProxy连接空闲检测阈值(个),默认值为0,此时,只要有应用系统到DBProxy连接超时,就将其杀死。 02147483647 0 是 writeQueueLimit DBProxy返回数据给应用侧写队列的限制。 true/false true 是 writeQueueStop DBProxy返回数据给应用侧写队列的最大长度。 12147483647 4096 是 writeQueueRecover 恢复写队列阈值。 12147483647 256 是 enableClusterStatusCollector 是否开启DBProxy集群状态信息采集。 true/false false 是 clusterStatusCollectPeriod 集群状态信息采集间隔,单位:毫秒。 10002147483647 5000 否 clusterStatusHistoryKeptDays 集群历史状态信息保留天数。 1365 1 是 sslEnable SSL功能开关: true:启用。 false:禁用。 true/false false 否 zkPath 负载均衡SLB的ZooKeeper的路径,用于组件之间通讯。 说明 该参数暂未开放使用。 字符串 否 vip 负载均衡SLB的虚拟IP,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 否 sqlProtectorHandle SQL黑名单处理方式,需要为2.4.1以上版本生效: Ignore:不记录不处理。 Reject:记录且拒绝。 Audit:记录且不处理。 ignore/reject/audit ignore 是 autoAddSqlProtectorBlacklist 发现过载语句(由参数topWindowExecuteTimeThreshold、runningSlowSqlThreshold两个参数定义的语句)时,是否自动加入黑名单。 true/false false 是 enableRunningSlowSqlDetect 开启超慢SQL探测,开启后runningSlowSqlThreshold、runningSlowSqlDetectInterval才生效。 true/false true 是 runningSlowSqlThreshold 正在执行的语句执行超过此时间算超慢SQL,单位:秒。 12147483647 15 是 runningSlowSqlDetectInterval 正在执行的超慢语句探测间隔,单位:秒。 12147483647 5 是 maxSqlProtectorBlacklist 过载保护SQL黑名单最大数量。 12147483647 10 是 topWindowCycle TOP高危(耗时较高)语句探测周期,单位:毫秒。 12147483647 60000 否 topWindowExecuteTimeThreshold SQL执行超过此时间,进入高危语句计数,单位:毫秒。 12147483647 500 是 insertHint DBProxy到存储节点发送SQL语句时,附加指纹Hint。 true/false false 是 killSelect 当应用侧异常关闭时,如果最后一次执行的是select语句,该变量控制是否发送kill语句杀掉MySQL连接。 true/false true 是 enableEncrypt 是否开启字段加解密。 true/false false 是 enableProxyRWSplit 是否开启DBProxy组件侧读写分离。 true/false false 是 enableDdlEngine 是否开启DDL统一执行框架: true:启用统一执行框架执行DDL。 false:采用旧执行模式执行DDL。 true/false true 是 useIndex 是否使用全局索引功能,需先开启Giserver服务,否则开启后无效。 true/false false 是 autoIndex 是否使用全局索引透明化功能。 true/false false 是 optimizeTransactionSelect 事务中select语句数据库连接释放优化。 true/false true 是 one2manyIndexThreshold 一对多索引阈值。 建议不超过分片数量,超过分片数量时,有概率会退化到广播。 5 是 processors 多路I/O复用反应器个数。DBProxy可以通过轮询检测哪些频道有就绪的I/0事件,然后集中处理这些事件,以减少线程数量、处理大并发连接,减少阻塞等。 建议设置为CPU核心数 4 是 processorExecutor 应用系统到DBProxy逻辑处理线程池大小,单位:个。 建议设置为CPU核心数的四倍 32 是 idleTimeout 应用系统到DBProxy连接空闲超时时间,单位:毫秒。 17200000 1800000 是 bindIp DBProxy服务监听运行时端口暴露监控的主机对应网卡IP地址。 0.0.0.0 默认代表监听所有网卡,建议采用默认值。 默认0.0.0.0 0.0.0.0 是 zkDigest 负载均衡SLB的zookeeper的digest模式设置,用于组件之间通讯。 说明 该参数暂未开放使用。 SLB的zk digest dataNodeIdleCheckPeriod DBProxy到存储节点MySQL连接池清理时间间隔,单位:毫秒。 17200000 300000 是 processorBufferChunk DBProxy的BufferPool中chunk大小,单位:Byte。 processorBufferChunk乘processorBufferPool应小于服务启动内存 4096 是 processorBufferPool DBProxy的BufferPool中chunk个数。 processorBufferChunk乘processorBufferPool应小于服务启动内存 16384000 是 maxPacketSize DBProxy与MySQL通讯数据包最大长度,单位:M。 不超过16 16 是 charset DBProxy与应用系统、后端MySQL的连接初始化字符集。 utf8,utf8mb4 utf8 是 sqlExecuteTimeout DBProxy的SQL执行超时的时间,与MySQL的maxexecutiontime参数功能相同,单位:毫秒。 17200000 300000 是 processorCheckPeriod DBProxy到存储节点MySQL连接状态检查间隔时间,单位:毫秒。 17200000 1000 是 dataNodeHeartbeatPeriod DBProxy到存储节点MySQL心跳间隔时间,单位:毫秒。 17200000 10000 是 enableLargeDataMerge 开启大数据流式汇聚功能。 true/false false 是 enableOperationRecord 是否开启运维日志。 true/false false 是 frontendConnPrintInterval 应用系统到DBProxy连接数打印间隔,单位:毫秒。 17200000 60000 否 backendConnPrintInterval DBProxy到存储节点连接数打印间隔,单位:毫秒。 17200000 60000 否 useStatementConditionExtract DBProxy使用statement方案解释去做条件抽取,用于快速进行SQL解析。 true/false true 是 maxExecutionTime SELECT最大执行时间,单位:毫秒。 07200000 设置为0,表示不限制 0 是 enablePrepareStatement DBProxy支持PrepareStatement预编译SQL语句接口。 true/false true 是
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数管理
        管理分组参数
      • 将Oracle迁移到TeleDB
        本页介绍天翼云TeleDB数据库如何将Oracle迁移至TeleDB。 支持的数据库版本 源数据库 目标数据库 12c, 19c, 21c TeleDB 支持的迁移对象及SQL 迁移对象 结构迁移支持表结构迁移(包含索引、外键、约束)、视图、同义词、序列、触发器、函数、存储过程、类型、物化视图、程序包。 增量数据迁移支持同步的SQL操作 DML: INSERT、UPDATE、DELETE DDL: 增量同步暂不支持DDL同步。 支持的迁移类型 Oracle TeleDBX 数值类型 数值类型 NUMBER(p,s) s!0 numeric/decimal NUMBER(p,s) s0,1 ”、 “<”、 “”、 “”、 “”、 “,”、 “? ”、 “! ”、 “"”和 “'”。 如果待迁移对象中含有分区表,结构迁移阶段分区表信息将会被丢弃。 不支持bfile,xml、sdogeometry、urowid、interval(精度大于6位)和自定义类型。 不支持使用Oracle 物理备库进行迁移/同步。 RAC模式的Oracle不支持使用scanIP,只能连接其中一个节点进行同步。 对于TIMESTAMP WITH TIME ZONE类型,根据目标库时区做转换后不得大于“99991231 23:59:59.999999”。 如果表中只有LOB字段,可能出现数据不一致性情况。 如果Oracle中使用LOB类型各自的empty函数写入数据时,通过JDBC查询出来的值是空字符串,写入到目标库后是空字符串还是NULL取决于目标库对空字符串值的处理。 不支持默认值含有表达式的函数的表的同步。 源库支持todate和sysguid函数做默认值。将其他函数作为default值时,需要目标库也有相同功能的函数。对于目标库不存在对应函数的情况,可能会出现以下结果: 默认值函数可能会被置空。 创建表失败,导致对象对比不一致或者任务失败。 暂不支持DDL同步。 同步过程中,不允许删除连接源和目标数据库的用户的用户名、密码、权限,或修改目标数据库的端口号。 大事务有可能同步失败。 包含大字段的行有可能同步失败。 确保Oracle的归档日志空间大小足够。 源库为Oracle 12c及以上时,增量阶段要保证所有存在的容器数据库均处于打开状态。 源库为Oracle 12c及以上时,不支持同步application root和application PDB. 如果有增量迁移,增量阶段不能使用sys/system等oracle内部的系统用户作为DTS用户,也不能使用PDB用户,必须使用公共容器中创建的用户。 如果有增量迁移,则只支持库名和表名映射,不支持列名映射。 若要做增量同步,且同步对象包含外键、触发器或事件触发器,则目标数据库的sessionreplicationrole参数必须设置为replica,同步结束后,此参数需改为origin。 结构迁移无主键表时,默认迁移到目标端的分片键为当前表结构的第一个字段。 无主键表在全量迁移和增量迁移阶段,如果当前源表的第一个字段(也就是作为分片键的字段)存在null值时,将会迁移失败,原因是TeleDBX分片键的键值不能为NULL。 准备工作 1. 创建源库DTS用户 oracle 12c及以上且开启了CDB模式 如果仅作测试用可直接赋予最高权限,用SYS用户登录Oracle,如下创建DTS迁移用户: 要求该用户必须是CDB下的用户,且授权的权限必须在所有容器内都具备 CREATE USER C
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将Oracle迁移到TeleDB
      • 使用Flink客户端
        本章节主要介绍使用Flink运行wordcount作业的操作指导。 前提条件 MRS集群中已安装Flink组件。 集群正常运行,已安装集群客户端,例如安装目录为“/opt/hadoopclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Flink客户端(MRS 3.x之前版本) 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行如下命令初始化环境变量。 source /opt/hadoopclient/bigdataenv 4.若集群开启Kerberos认证,需要执行以下步骤,若集群未开启Kerberos认证请跳过该步骤。 a.准备一个提交Flink作业的用户。 b.登录Manager,下载认证凭据。 登录集群的Manager界面,具体请参见访问MRSManager(MRS2.x及之前版本),选择“系统设置 > 用户管理”,在已增加用户所在行的“操作”列,选择“更多 > 下载认证凭据”。 c.将下载的认证凭据压缩包解压缩,并将得到的user.keytab文件拷贝到客户端节点中,例如客户端节点的“/opt/hadoopclient/Flink/flink/conf”目录下。如果是在集群外节点安装的客户端,需要将得到的krb5.conf文件拷贝到该节点的“/etc/”目录下。 d.配置安全认证,在“/opt/hadoopclient/Flink/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 security.kerberos.login.keytab: security.kerberos.login.principal: 例如: security.kerberos.login.keytab:/opt/hadoopclient/Flink/flink/conf/user.keytab security.kerberos.login.principal: test e.参考“组件操作指南 > 使用Flink > 参考 > 签发证书样例”章节生成“generatekeystore.sh”脚本并放置在Flink的客户端bin目录下,执行如下命令进行安全加固,请参考“组件操作指南 > 使用Flink > 安全加固 > 认证和加密”,password请重新设置为一个用于提交作业的密码。 sh generatekeystore.sh 该脚本会自动替换“/opt/hadoopclient/Flink/flink/conf/flinkconf.yaml”中关于SSL的值,针对MRS2.x及之前版本,安全集群默认没有开启外部SSL,用户如果需要启用外部SSL,请参考“组件操作指南 >使用Flink > 安全加固”进行配置后再次运行该脚本即可。 说明 generatekeystore.sh脚本无需手动生成。 执行认证和加密后会将生成的flink.keystore、flink.truststore、security.cookie自动填充到“flinkconf.yaml”对应配置项中。 f.客户端访问flink.keystore和flink.truststore文件的路径配置。 −绝对路径:执行该脚本后,在flinkconf.yaml文件中将flink.keystore和flink.truststore文件路径自动配置为绝对路径“/opt/hadoopclient/Flink/flink/conf/”,此时需要将conf目录中的flink.keystore和flink.truststore文件分别放置在Flink Client以及Yarn各个节点的该绝对路径上。 −相对路径:请执行如下步骤配置flink.keystore和flink.truststore文件路径为相对路径,并确保Flink Client执行命令的目录可以直接访问该相对路径。 i.在“/opt/hadoopclient/Flink/flink/conf/”目录下新建目录,例如ssl。 cd /opt/hadoopclient/Flink/flink/conf/ mkdir ssl ii. 移动flink.keystore和flink.truststore文件到“/opt/hadoopclient/Flink/flink/conf/ssl/”中。 mv flink.keystore ssl/ mv flink.truststore ssl/ iii. 修改flinkconf.yaml文件中如下两个参数为相对路径。 security.ssl.internal.keystore: ssl/flink.keystore security.ssl.internal.truststore: ssl/flink.truststore 5.运行wordcount作业。 须知 用户在Flink提交作业或者运行作业时,应具有如下权限: 如果启用Ranger鉴权,当前用户必须属于hadoop组或者已在Ranger中为该用户添加“/flink”的读写权限。 如果停用Ranger鉴权,当前用户必须属于hadoop组。 普通集群(未开启Kerberos认证) −执行如下命令启动session,并在session中提交作业。 yarnsession.sh nm " sessionname " flink run/opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar −执行如下命令在Yarn上提交单个作业。 flink run m yarncluster /opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 安全集群(开启Kerberos认证) −flink.keystore和flink.truststore文件路径为绝对路径时: 执行如下命令启动session,并在session中提交作业。 yarnsession.sh nm " sessionname " flink run /opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 执行如下命令在Yarn上提交单个作业。 flink run m yarncluster /opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar −flink.keystore和flink.truststore文件路径为相对路径时: 在“ssl”的同级目录下执行如下命令启动session,并在session中提交作业,其中“ssl”是相对路径,如“ssl”所在目录是“opt/hadoopclient/Flink/flink/conf/”,则在“opt/hadoopclient/Flink/flink/conf/”目录下执行命令。 yarnsession.sh t ssl/ nm " sessionname " flink run/opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 执行如下命令在Yarn上提交单个作业。 flink run m yarncluster yt ssl/ /opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 6.作业提交成功后,客户端界面显示如下。 详见下图: 在Yarn上提交作业成功 详见下图:启动session成功 详见下图: 在session中提交作业成功 7. 使用运行用户进入Yarn服务的原生页面,具体操作参考“组件操作指南 > 使用Flink > 查看Flink作业”,找到对应作业的application,单击application名称,进入到作业详情页面。 若作业尚未结束,可单击“Tracking URL”链接进入到Flink的原生页面,查看作业的运行信息。 若作业已运行结束,对于在session中提交的作业,可以单击“Tracking URL”链接登录Flink原生页面查看作业信息。 详见下图:application
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Flink客户端
      • 安全规则
        本章节为您介绍安全规则的相关内容。 数据库安全网关对捕获到的数据包进行深度协议解析,精确提取其中的各项字段信息,并与预先设定的安全规则在多个维度上进行细致比对,从而判断SQL语句中是否包含异常行为。一旦识别到任何异常行为,系统能够迅速做出响应,并根据预设的访问控制策略对相关操作进行限制或拦截。 同时,系统会详细记录这一操作,并生成告警日志,以供后续分析和审计使用。 系统内置了 40 多条安全规则 ,安全规则与产品版本同步升级。此外 ,您可以自定义安全规则。 新增安全规则 1.在左侧菜单栏选择“规则配置>安全规则>规则管理”进入安全规则页面。 2.左侧选择规则组 ,单击安全规则列表上方的“新增规则”按钮。 3.在弹出的新增规则窗口内,根据您业务的实际需求填写配置项后,单击“保存”。 基本信息配置表 配置项 说明 名称 设置规则名称,必须为中文字符、字母、数字、“”、“.”或“”,长度不超过64 字符。 描述 规则描述,长度不超过1000 字符。 等级 可选高风险、中风险、低风险,默认选择高风险。 适用场景 默认选择缺省场景,可根据场景进行选择。 动作 可选允许访问、命令阻断、会话阻断。 若为旁路部署模式,可选允许访问、会话阻断、IP阻断。 规则类型 可选普通规则和统计规则: 普通规则:单条审计记录匹配到普通规则,会触发生成一条普通告警(例如一条Select语句,可能会触发一条告警)。 统计规则:指定时间内多次匹配到统计规则,触发至阈值后,会触发生成一条统计规则告警(例如5 分钟内10 次Select 失败,可能会触发一条统计告警),并会为客户端生成一条普通阻断规则。 统计方式 可选频次统计和累加统计。(统计规则配置项) 频次统计:指定时间内匹配统计规则达到累计次数。 累加统计:指定时间内匹配统计规则达到累计行数。 客户端信息配置表 配置项 说明 客户端来源 访问业务类型的客户端IP或IP组。可填写多个,以逗号“,”分隔。 客户端端口 可配置多个值或区间,多个值间以逗号“,”分隔,例如:1015,20,25,3040。 客户端工具名 支持字符串匹配、正则表达式匹配、分组选择方式匹配。选择字符串,可配多个客户端工具名,使用逗号“,”分隔。 例:db2bp.exe,javaw.exe,plsqldev.exe。 操作系统用户 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。 客户端主机名 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。 服务端信息配置表 配置项 说明 数据库账号 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。 数据库名(SID) 支持字符串匹配、正则表达式匹配。Oracle数据库输入SID,其他数据库输入数据库名。 选择字符串,可填多值,多个值间以逗号“,”分隔。 行为信息配置表 配置项 说明 对象组 指定规则所匹配的对象组。支持“包含任一对象则满足”或“包含所有对象才满足”。 说明 对象组、数据级别、敏感数据类型间是“或”的关系,与其他规则配置是“与”的关系。 数据级别 多选项,可选一级、二级、三级、四级、五级。 敏感数据类型 多选项,可选内置类型或后续新增的类型。 支持“包含任一类型则满足”或“包含所有类型才满足”。 操作类型 指定SQL语句的操作类型,如Select、Update、Delete等。可根据DDLDMLDCL来选择。 SQL模板ID 可填多值,多个值间以逗号“,”分隔。在审计日志详情中可查看。 SQL关键字 SQL关键字:支持以正则表达式方式匹配报文。单击 输入表达式和校验内容,单击 ,验证输入内容与SQL关键字中的正则表达式是否匹配。可单击“添加条件”可添加多个关键字。 条件运算逻辑表达式:SQL关键字填写后,此项为必填项。条件间的关系,支持与、或、非、括号运算(&:与;:或;~:非)。条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2 个SQL关键字条件,且两个关键字都要满足才能告警。 SQL长度 取值范围1B~64KB。 WHERE子句 是否包含WHERE,支持三个选项:不判断、有WHERE子句、没有WHERE子句。WHERE子句用于提取满足指定条件的SQL记录,语法如下: SELECT columnname,columnname; FROM tablename; WHERE columnname operator value; 结果信息配置表 配置项 说明 执行时长 允许配置从0 到半个小时之间的任意范围。 SQL执行时长属于此范围,则触发规则。 影响行数 允许配置从0 到999999999之间的任意范围,单位为行。 SQL操作返回的影响的行数属于此范围,则触发规则。 当且仅当该规则关联的资产配置了默认数据源时影响行数生效。 返回结果集 返回结果集:支持以正则表达式方式匹配结果集。单击“正则验证”输入结果集内容,单击“提交”,验证输入内容与返回结果关键字的正则表达式是否匹配。可通过“添加条件”添加多个条件。 条件运算逻辑表达式:条件间的关系,支持“与、或、非、括号”运算(&:与;:或;~:非),条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2 个结果集条件,且结果集中需要 同时满足这以上两个条件才能告警。 执行状态 可选全部、成功、失败,默认为全部。 执行结果描述 支持以正则表达式方式匹配。 其他信息配置表 配置项 说明 生效周期 可自定义或者选择时间组。自定义时间可选择任意时间、每天、每周或每月。 生效时间 设定具体的日期和时间范围,以确定其生效时间。规则的最终生效时间是生效周期和设定时间范围的交集。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        规则配置
        安全规则
      • 《互联网信息服务管理办法》(国务院292号令)
        《互联网信息服务管理办法》(国务院292号令) (2000 年 9 月 20 日国务院第 31 次常务会议通过,中华人民共和国国务院令第 292 号公布,自公布之日起施行) 第一条 为了规范互联网信息服务活动,促进互联网信息服务健康有序发展,制定本办法。 第二条 在中华人民共和国境内从事互联网信息服务活动,必须遵守本办法。本办法所称互联网信息服务,是指通过互联网向上网用户提供信息的服务活动。 第三条 互联网信息服务分为经营性和非经营性两类。 经营性互联网信息服务,是指通过互联网向上网用户有偿提供信息或者网页制作等服务活动。 非经营性互联网信息服务,是指通过互联网向上网用户无偿提供具有公开性、共享性信息的服务活动。 第四条 国家对经营性互联网信息服务实行许可制度;对非经营性互联网信息服务实行备案制度。 未取得许可或者未履行备案手续的,不得从事互联网信息服务。 第五条 从事新闻、出版、教育、医疗保健、药品和医疗器械等互联网信息服务,依照法律、行政法规以及国家有关规定须经有关主管部门审核同意的,在申请经营许可或者履行备案手续前,应当依法经有关主管部门审核同意。 第六条 从事经营性互联网信息服务,除应当符合《中华人民共和国电信条例》规定的要求外,还应当具备下列条件: (一)有业务发展计划及相关技术方案; (二)有健全的网络与信息安全保障措施,包括网站安全保障措施、信息安全保密管理制度、用户信息安全管理制度; (三)服务项目属于本办法第五条规定范围的,已取得有关主管部门同意的文件。 第七条 从事经营性互联网信息服务,应当向省、自治区、直辖市电信管理机构或者国务院信息产业主管部门申请办理互联网信息服务增值电信业务经营许可证(以下简称经营许可证)。 省、自治区、直辖市电信管理机构或者国务院信息产业主管部门应当自收到申请之日起60日内审查完毕,作出批准或者不予批准的决定。予以批准的,颁发经营许可证;不予批准的,应当书面通知申请人并说明理由。 申请人取得经营许可证后,应当持经营许可证向企业登记机关办理登记手续。 第八条 从事非经营性互联网信息服务,应当向省、自治区、直辖市电信管理机构或者国务院信息产业主管部门办理备案手续。办理备案时,应当提交下列材料: (一)主办单位和网站负责人的基本情况; (二)网站网址和服务项目; (三)服务项目属于本办法第五条规定范围的,已取得有关主管部门的同意文件。 省、自治区、直辖市电信管理机构对备案材料齐全的,应当予以备案并编号。 第九条 从事互联网信息服务,拟开办电子公告服务的,应当在申请经营性互联网信息服务许可或者办理非经营性互联网信息服务备案时,按照国家有关规定提出专项申请或者专项备案。 第十条 省、自治区、直辖市电信管理机构和国务院信息产业主管部门应当公布取得经营许可证或者已履行备案手续的互联网信息服务提供者名单。 第十一条 互联网信息服务提供者应当按照经许可或者备案的项目提供服务,不得超出经许可或者备案的项目提供服务。 非经营性互联网信息服务提供者不得从事有偿服务。 互联网信息服务提供者变更服务项目、网站网址等事项的,应当提前30日向原审核、发证或者备案机关办理变更手续。 第十二条 互联网信息服务提供者应当在其网站主页的显著位置标明其经营许可证编号或者备案编号。 第十三条 互联网信息服务提供者应当向上网用户提供良好的服务,并保证所提供的信息内容合法。 第十四条 从事新闻、出版以及电子公告等服务项目的互联网信息服务提供者,应当记录提供的信息内容及其发布时间、互联网地址或者域名;互联网接入服务提供者应当记录上网用户的上网时间、用户帐号、互联网地址或者域名、主叫电话号码等信息。 互联网信息服务提供者和互联网接入服务提供者的记录备份应当保存60日,并在国家有关机关依法查询时,予以提供。 第十五条 互联网信息服务提供者不得制作、复制、发布、传播含有下列内容的信息: (一)反对宪法所确定的基本原则的; (二)危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一的; (三)损害国家荣誉和利益的; (四)煽动民族仇恨、民族歧视,破坏民族团结的; (五)破坏国家宗教政策,宣扬邪教和封建迷信的; (六)散布谣言,扰乱社会秩序,破坏社会稳定的; (七)散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的; (八)侮辱或者诽谤他人,侵害他人合法权益的; (九)含有法律、行政法规禁止的其他内容的。 第十六条 互联网信息服务提供者发现其网站传输的信息明显属于本办法第十五条所列内容之一的,应当立即停止传输,保存有关记录,并向国家有关机关报告。 第十七条 经营性互联网信息服务提供者申请在境内境外上市或者同外商合资、合作,应当事先经国务院信息产业主管部门审查同意;其中,外商投资的比例应当符合有关法律、行政法规的规定。 第十八条 国务院信息产业主管部门和省、自治区、直辖市电信管理机构,依法对互联网信息服务实施监督管理。 新闻、出版、教育、卫生、药品监督管理、工商行政管理和公安、国家安全等有关主管部门,在各自职责范围内依法对互联网信息内容实施监督管理。 第十九条 违反本办法的规定,未取得经营许可证,擅自从事经营性互联网信息服务,或者超出许可的项目提供服务的,由省、自治区、直辖市电信管理机构责令限期改正,有违法所得的,没收违法所得,处违法所得3倍以上5倍以下的罚款;没有违法所得或者违法所得不足5万元的,处10万元以上100万元以下的罚款;情节严重的,责令关闭网站。 违反本办法的规定,未履行备案手续,擅自从事非经营性互联网信息服务,或者超出备案的项目提供服务的,由省、自治区、直辖市电信管理机构责令限期改正;拒不改正的,责令关闭网站。 第二十条 制作、复制、发布、传播本办法第十五条所列内容之一的信息,构成犯罪的,依法追究刑事责任;尚不构成犯罪的,由公安机关、国家安全机关依照《中华人民共和国治安管理处罚条例》、《计算机信息网络国际联网安全保护管理办法》等有关法律、行政法规的规定予以处罚;对经营性互联网信息服务提供者,并由发证机关责令停业整顿直至吊销经营许可证,通知企业登记机关;对非经营性互联网信息服务提供者,并由备案机关责令暂时关闭网站直至关闭网站。 第二十一条 未履行本办法第十四条规定的义务的,由省、自治区、直辖市电信管理机构责令改正;情节严重的,责令停业整顿或者暂时关闭网站。 第二十二条 违反本办法的规定,未在其网站主页上标明其经营许可证编号或者备案编号的,由省、自治区、直辖市电信管理机构责令改正,处5000元以上5万元以下的罚款。 第二十三条 违反本办法第十六条规定的义务的,由省、自治区、直辖市电信管理机构责令改正;情节严重的,对经营性互联网信息服务提供者,并由发证机关吊销经营许可证,对非经营性互联网信息服务提供者,并由备案机关责令关闭网站。 第二十四条 互联网信息服务提供者在其业务活动中,违反其他法律、法规的,由新闻、出版、教育、卫生、药品监督管理和工商行政管理等有关主管部门依照有关法律、法规的规定处罚。 第二十五条 电信管理机构和其他有关主管部门及其工作人员,玩忽职守、滥用职权、徇私舞弊,疏于对互联网信息服务的监督管理,造成严重后果,构成犯罪的,依法追究刑事责任;尚不构成犯罪的,对直接负责的主管人员和其他直接责任人员依法给予降级、撤职直至开除的行政处分。 第二十六条 在本办法公布前从事互联网信息服务的,应当自本办法公布之日起60日内依照本办法的有关规定补办有关手续。 第二十七条 本办法自公布之日起施行。
        来自:
        帮助文档
        ICP备案
        法律法规及公告
        法律法规
        《互联网信息服务管理办法》(国务院292号令)
      • Linux主机挂载
        介绍Linux主机挂载块存储的最佳实践。 实践背景 块空间使用的是iSCSI协议,因此在新建块空间后需要使用iSCSI客户端来连接块空间。 本实践是在centos 7上,具有免密sudo权限的普通用户使用iSCSI客户端连接天翼云媒体存储块空间,并且对其进行格式化的过程。 操作步骤 1.执行以下命令,安装iSCSI客户端。 sudo yum install y iscsiinitiatorutils sudo yum install y devicemappermultipath 当系统出现如下所示的更新完毕作为依赖被升级完毕的提示时,说明软件安装完成。 若已安装过所需软件,系统会提示对应的软件包已安装并且是最新版本无须任何处理。 2.配置iSCSI多路径,具体步骤如下: (1) 执行以下命令,生成配置文件/etc/multipath.conf。 mpathconf enable withmultipathd y (2)执行以下命令,修改多路径配置。 sudo vi /etc/multipath.conf (3)添加如下内容。 defaults { userfriendlynames yes pathgroupingpolicy failover failback immediate nopathretry fail } devices { device { vendor "LIOORG" hardwarehandler "1 alua" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prio alua prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } device { vendor "CTyun" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } } (4)执行以下命令,进行服务重启。 sudo systemctl restart multipathd 3.修改iSCSI Client的InitiatorName,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/initiatorname.iscsi (2)将InitiatorName(下图红框内内容)修改为创建块空间时填写的CHAP iqn;具体可参考操作步骤【块空间管理】查看所需挂载块空间的CHAP iqn信息(图中的例子为iqn.209901.com.client.cicdtestcy:230323)。 4.修改CHAP权限,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/iscsid.conf (2)找到以下内容: 修改为下图中内容,其中红框内的username的等号后面填写创建块空间时设定的CHAP用户(图中的例子为testblockzd),password的等号后面填写创建块空间时设定的CHAP密钥(图中的例子为111111111111)。 5.连接块空间,具体步骤如下: (1)为确保连接顺利,先执行 setenforce 0 命令临时禁用防火墙。 (2)执行以下命令,重启相关组件。 sudo systemctl restart iscsid (3)执行以下命令增加iSCSI连接target,具体的targetname参数与portal参见块空间信息中的targetIqn、网关地址与数据端口,具体查看步骤可见操作步骤【块空间管理】。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opnew sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opnew (4)执行以下命令,进行登入操作。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw l 说明 对于步骤5(3)、5(4),可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考: (5)若系统出现以下提示表示登录成功。 (6)可通过以下命令查看新增磁盘。 sudo lsscsi sudo fdisk l sudo lsblk sudo multipath l 注意: 执行后会发现除了机器的原有磁盘外,还挂载了三个新的磁盘,一个是以/dev/mapper/开头的磁盘,另外两个是以/dev/sd开头的磁盘,我们挂载的是前者,即是以/dev/mapper/的磁盘。 每次挂载,该磁盘后面的名字都可能不一样。 如果你有多个块空间使用了同一个iqn,每个块在查看磁盘时均会看到一个以/dev/mapper/开头的磁盘以及两个以/dev/sd开头的磁盘,请总是使用以/dev/mapper/开头的磁盘来进行挂载。 (7)根据系统协议执行以下命令,进行磁盘格式化: xfs文件系统: sudo mkfs.xfs /dev/mapper/mpatha ext4文件系统: sudo mkfs.ext4 /dev/mapper/mpatha 注意 :可以根据实际需求选择命令,将命令中“/dev/mapper/mpatha”部分改为步骤(6)中查找到的新增磁盘地址。 (8)执行以下命令,挂载到本地目录。 sudo mount /dev/mapper/mpatha /mnt/iscsiMnt 注意: mount后第一部分为新增磁盘的实际地址。 mount后第二部分为进行挂载的本地目录地址。 可以通过mount l命令查看是否挂载成功,若显示信息中包含挂载信息则挂载成功,以上样例对应的挂载信息如下,该样例已成功挂载。 (9)执行以下命令,查看已连接的目标。 sudo iscsiadm m session 6.如需断开连接,则执行以下命令。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw u 7.执行以下命令,删除所有记录。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opdelete sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opdelete 说明 对于步骤6、7,可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考:
        来自:
        帮助文档
        媒体存储
        最佳实践
        块存储
        Linux主机挂载
      • 配置存算分离集群(委托方式)
        为已有集群配置存算分离功能 : 1. 登录MRS控制台,在导航栏选择“集群列表 > 现有集群”。 2. 单击集群名称,进入集群详情页面。 3. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 4. 在集群详情页的“概览”页签,单击委托右侧的“管理委托”选择需要绑定的委托并单击“确定”进行绑定,或单击“新建委托”进入IAM控制台进行创建后再在此处进行绑定。 3.创建OBS文件系统用于存放数据 说明 大数据存算分离场景,请务必使用OBS并行文件系统,使用普通对象桶会对集群性能产生较大影响。 1. 登录OBS控制台。 2. 单击“并行文件系统 > 创建并行文件系统”。 3. 填写文件系统名称,例如“mrsword001”。 其他参数请根据需要填写。 4. 单击“立即创建”。 5. 在OBS控制台并行文件系统列表中,单击文件系统名称进入详情页面。 6. 在左侧导航栏选择“文件”,新建program、input文件夹。 program:请上传程序包到该文件夹。 input:请上传输入数据到该文件夹。 4.访问OBS文件系统 1. 用root用户登录集群Master节点,具体请参见登录集群节点。 2. 配置环境变量。 MRS 3.x之前版本请执行:source /opt/client/bigdataenv MRS 3.x及之后版本请执行:source /opt/Bigdata/client/bigdataenv 3. 验证Hadoop访问OBS。 a. 查看文件系统mrsword001下面的文件列表。 hadoop fs ls obs://mrsword001/ b. 返回文件列表即表示访问OBS成功。 详见下图: Hadoop验证返回文件列表 4. 验证Hive访问OBS。 a. 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建Hive表的权限,具体请参见创建角色配置拥有对应权限的角色,参考创建用户创建用户并为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MR集群用户 例如,kinit hiveuser b. 执行Hive组件的客户端命令。 beeline c. 在beeline中直接使用obs的目录进行访问。例如,执行如下命令创建Hive表并指定数据存储在mrsword001文件系统的testobs目录中。 create table testobs(a int, b string) row format delimited fieldsterminated by "," stored as textfile location "obs://mrsword001/testobs"; d. 执行如下命令查询所有表,返回结果中存在表testobs,即表示访问OBS成功。 show tables; 详见下图: Hive验证返回已创建的表名 e. 使用“Ctrl + C”退出hive beeline。 5. 验证Spark访问OBS。 a. 执行Spark组件的客户端命令。 sparkbeeline b. 在sparkbeeline中访问OBS,例如在obs://mrsword001/table/目录中创建表test。 create table test(id int) location 'obs://mrsword001/table/'; c. 执行如下命令查询所有表,返回结果中存在表test,即表示访问OBS成功。 show tables; 详见下图: Spark验证返回已创建的表名 d. 使用“Ctrl + C”退出退出spark beeline。 6. 验证Presto访问OBS。 −未开启Kerberos认证的普通集群 i.执行如下命令连接客户端。 prestocli.sh ii. 在Presto客户端中执行语句创建schema,指定location为OBS路径,例如: CREATE SCHEMA hive.demo01 WITH (location 'obs://mrsword001/prestodemo002/'); iii. 在该schema中建表,该表的数据即存储在OBS文件系统内,例如: CREATE TABLE hive.demo.demotable WITH (format 'ORC') AS SELECT FROM tpch.sf1.customer; 详见下图:普通集群Presto验证返回结果 iv. 执行exit退出客户端。 −开启Kerberos认证的安全集群 i.登录MRS Manager创建一个拥有“Hive Admin Privilege”权限的角色,例如prestorole,创建角色请参考创建角色。 ii.创建一个属于“Presto”和“Hive”组的用户,同时为该用户绑定中创建的角色,例如presto001,创建用户请参考创建用户。 iii. 认证当前用户。 kinit presto001 iv. 下载用户凭证。 1)针对MRS 3.x之前版本集群,在MRS Manager页面,选择“系统设置 > 用户管理 ”,单击新增用户所在行的“更多 > 下载认证凭据”。 详见下图: 下载Presto用户认证凭据 2)针对MRS 3.x及之后版本,在FusionInsight Manager页面,选择“系统 > 权限 > 用户”,单击新增用户所在行的“更多 > 下载认证凭据”。 详见下图:下载Presto用户认证凭据 v. 解压下载的用户凭证文件,得到“krb5.conf”和“user.keytab”两个文件并放入客户端目录,例如“/opt/Bigdata/client/Presto/”。 vi.执行如下命令获取用户principal。 klist kt /opt/Bigdata/client/Presto/user.keytab vii. 启用Kerberos认证的集群,执行以下命令连接本集群的Presto Server。 prestocli.sh krb5configpath {krb5.conf 文件路径} krb5principal { 用户principal} krb5keytabpath {user.keytab文件路径} user {presto用户名} krb5.conf文件路径:请替换为6.v中设置的文件存放路径,例如“/opt/Bigdata/client/Presto/krb5.conf” user.keytab文件路径:请替换为6.v中设置的文件存放路径,例如“/opt/Bigdata/client/Presto/user.keytab” 用户principal:请替换为6.vi中返回的结果 presto用户名:请替换为6.ii中创建的用户名,例如“presto001” 例如:prestocli.sh krb5configpath /opt/Bigdata/client/Presto/krb5.conf krb5principal prest001@xxxxxxxxxxxx.1COM krb5keytabpath /opt/Bigdata/client/Presto/user.keytab user presto001 viii. 在Presto客户端中执行语句创建schema,指定location为OBS路径,例如: CREATE SCHEMA hive.demo01 WITH (location 'obs://mrsword001/prestodemo002/'); ix. 在该schema中建表,该表的数据即存储在OBS文件系统内,例如: CREATE TABLE hive.demo01.demotable WITH (format 'ORC') AS SELECT FROM tpch.sf1.customer; 详见下图:安全集群Presto验证返回结果 x. 执行exit退出客户端。 7. 验证Flink访问OBS。 a. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 b. 用户同步完成后,在集群详情页选择“作业管理 > 添加”提交Flink作业,在“执行程序参数”中按照“input output ”格式填写,其中作业输入路径选择OBS,输出路径请手动输入一个不存在的目录,例如obs://mrsword001/output/,如下图所示。 详见下图: 添加Flink作业 c. 在OBS控制台,进入提交作业时选择的输出路径,即可查看到输出目录已经自动创建并存放着作业执行结果,表示访问OBS成功。 详见下图:Flink作业执行结果
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置存算分离
        配置存算分离集群(委托方式)
      • 文件比较与同步(对象存储到对象存储)
        本文为您介绍文件比较与同步的相关内容。 概要 应用场景: 支持对象存储到对象存储之间的数据比较与同步,并且生成比较报告供一致性检查。此场景支持两种数据捕获方式: 方式1:调用对象存储接口对源、备存储同步路径下的所有对象进行扫描、比对,获得增量对象(新增/差异),并将增量对象同步到目标端对应路径下;在海量对象场景下扫描/比对的对象太多,导致这种方式同步增量数据效率过低; 方式2:通过某些方式获取到增量对象信息(如:对象存储自行监控、通过应用数据库表获取等),并将增量对象的信息以某种类型文件存放;DTO通过读取文件内容来获取增量对象信息,并直接将源端对应的增量对象直接同步到目标端;此方式避免了扫描、比对海量对象的时间,提高海量对象场景的增量数据同步效率。 要求:要有应用/组件(一般是对象存储)负责实现监控增量对象并将增量对象以固定格式导出成文件的一系列动作。 前置条件 文件比较与同步的环境要求如下: 1. DTO主机需要安装dto安装包。详见安装DTO。 2. 在MDR控制台中添加对象存储。详见资源管理·对象存储。 3. 在MDR控制台中添加DTO主机并处于在线状态。详见资源管理·DTO主机。 4. MDR控制台需具备有dto的许可,并且该dto许可剩余允许传输量不为0。 新建文件比较与同步 1. 点击左侧菜单栏“资源同步管理”“对象存储数据灾备”“文件比较和同步”,进入文件比较和同步列表页,点击“新建”按钮,进入新建页面。 2. 通用配置页面各配置项如下: 名称:任意指定,便于管理即可。 同步主机:下拉框中会列出已注册至MDR控制台的DTO同步主机供选用; 规则类型:包含三类规则:仅比较/文件比较与同步 / 文件清单同步,下文会分别介绍各类规则的作用和使用场景; 同步策略类型:“手动同步”“定期同步”和“间隔同步”。 手动同步:需手动启动规则。此选项为默认选项。 定期同步:可指定每个月的某几天或者每个星期的某几天中的某几个时间点开始同步,规则会在设置的时间自动开始运行。 间隔同步:指的是从上一次规则完成到下一次规则启动之间的间隔,最小间隔时间单位为秒。 定期同步策略:用户自行添加定期同步策略。可以设定多个不重叠的定时同步策略,彼此独立。 间隔同步策略:用户自行添加时间间隔同步策略。选择此规则开始时间,并设置间隔时间(单位为秒)。 源存储:用户自行选择要源端的存储数据用来做对比。 目标存储:用户自行选择对象存储数据作为目标存储对比。 同步路径映射:用户自行配置需要同步的数据路径。同步路径支持手动输入路径。 排除路径:用户自行选择将同步数据路径中的某些子路径设置为排除路径,排除路径中的数据不进行传输。 文件后缀名过滤:以后缀名为过滤条件,格式为“文件扩展名”,若多个过滤条件则用逗号隔开,如:“.txt”,“.doc”,“.rtf”。 排除:不同步源路径中该过滤项中定义的文件类型。 包含:只同步源路径中该过滤项中定义的文件类型。 文件日期过滤:通过正则表达式对同步路径下文件的日期进行筛选,文件日期符合正则表达式要求的文件被过滤出来。 排除:不同步源路径中符合筛选条件的文件。 包含:只同步源路径中符合筛选条件的文件。 3. 比较设置页面各配置项如下: 比较类型:重镜像时的校验方式。 文件大小:通过源、目标文件的大小进行比较。 对象智能比对:提交规则时会判断备端存储是否支持自定义META,不支持则不允许规则提交。智能比对即:通过比文件当前的修改时间戳,和上一次同步时文件的修改时间戳(记录在自定义属性META中)来判断文件是否一致(如果修改时间戳一致则认为文件相同,如果修改时间戳不同,则继续对比文件的MD5)。 MD5校验:通过源、目标文件的MD5值进行比较(本地需计算md5,对象存储直接采用Etag,对象存储将收到文件的MD5值放在返回结果的ETag中)。 说明:对象存储返回分片上传文件的MD5有可能为空或是最后一个分片的MD5,因此对象存储的MD5并不完全可靠。“文件大小”比对最快;当文件较大时“对象智能比对”比“MD5校验”快(大文件本地计算md5很慢);当文件较小时“MD5校验”比“对象智能比对”快(对象存储的文件修改时间需从META中获取,一个文件就是一次请求)。 忽略目标端存在文件:DTO不再扫描目标端存储,直接拿源端拆解过后的目录进行传输,传输之前check目标端文件是否存在,如果不存在,就同步,否则跳过该文件;这种类型,可以支持对象存储单一目录上千万的文件。 传输线程数量:可以指定线程个数。一个线程处理一个目录。此选项用于提高数据复制的速度,默认为“10”,数值越高,可用于数据复制的线程越多,但会消耗更多的CPU和内存资源,请根据用户环境适当选择。 对象存储扫描线程数量:可根据需要指定110个线程数。 备端扫描:默认开启,开启后支持孤儿文件处理。 孤儿文件处理方式: 不处理:不删除孤儿文件,存在在目标端。 确认后删除:将孤儿文件计入孤儿文件列表,可通过规则管理界面的“更多·孤儿文件”按钮来查看,以及选择是否要将目标端的孤儿文件删除。 直接删除:将孤儿文件自动从目标端删除。 说明:定期同步或间隔同步策略时不允许配置“确认后删除”;选择“忽略目标端存在的文件”比较类型时,或者开启归档时不允许配置“直接删除”和“确认后删除”。 对象文件路径名: 和源端保持不变:区分大小写,和源端大小写保持一致。 全部为大写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为大写存储在目标路径下。 全部为小写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为小写存储在目标路径下。 备端文件压缩:指的是在本地将文件进行压缩,压缩完后传输到对象存储。仅限于本地到对象存储的规则才支持压缩,压缩传输后,目标端文件名会被修改为:原文件名.i2.zip。 备端文件加密:将同步到目标端数据加密存储。 标准加密:通过设置的加密密钥对源端文件加密后存放到目标端。 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 COS服务端加密:通过对接COS对象存储API接口,上传到该对象存储桶的文件都自动加密,需额外选择加密密钥类型: 加密密钥类型:支持两种加密密钥类型: SSECOS:使用SSECOS加密密钥类型进行加密,无需额外配置; SSEC:使用SSEC加密密钥类型进行加密,需要额外填写加密密钥; 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 保留结果数量:设置“文件比较与同步→报告”中保留的记录条数。 记录流水:默认关闭,开启后会将规则同步的所有文件相关信息(大小、MD5/etag、传输耗时、修改/更新时间)记录在同步主机/usr/drbksoft/dto/data/db/ .db文件中(默认路径),可供审计查看。 4. 带宽设置页面各配置项如下: 全选:开启后,将会选择一周内的所有时间。此选项默认关闭。 时间范围:用户自行勾选具体的生效日。 选择带宽:根据用户需求选择需要执行限速的时间段,可以设定多个不重叠的限速规则,彼此独立,如果带宽设定为0,表示禁止传输。 5. 归档设置页面各配置项如下: 启用归档:不勾选的话不启用归档功能。 文件名转换:归档文件的名称转换,支持两种转换方式: 保持不变:归档文件名与原文件名保持一致。 增加时间后缀:在归档文件名后自动添加归档时间后缀。 归档条件: 时间归档:按照填入文件时间类型的时间点与执行本地到对象存储时的时间点的差值(单位天)。这里的时间选项有两个:文件创建时间、文件修改时间,这两种类型可以只选择某一个,也可以多选,并可以选择几种类型间的关系是与还是或。 命名特征:使用正则表达式进行针对文件名的过滤。 文件类型:通过填入文件类型的后缀名进行对文件类型的过滤(如.txt等),可以匹配多个文件类型,文件后缀名与后缀名之间用“逗号隔开”(如.txt,.exe,.zip)。 归档策略: 同步所有文件,并删除本地符合条件的文件:将源目录下的所有文件全部同步到目标存储的目标目录中,并删除本地符合归档条件的文件。 只同步并删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并删除本地符合归档条件的文件。 只同步但不删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并且不删除源端本地符合归档条件的文件。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        文件比较与同步(对象存储到对象存储)
      • 采集常见错误类型
        本文主要介绍采集常见错误类型。 以下为常见的错误类型以及对应的解决方法说明,可供参考。 LTS 错误码 错误说明 英文说明 解决方法 LTS1400 数据包从产生到发送的过程中等待的时间较长 The waiting time for data packets from generation to transmission is relatively long 检查发送是否正常,或是否存在数据量超过默认配置、配额不足或网络存在问题。 LTS1401 无权限读取指定文件 No permission to read the specified file 检查lmtagent的启动账号,建议以root方式启动。 切要采集的日志目录具备读权限 LTS1402 行首正则与日志行首匹配失败,无法对日志做分行 Failed to match the beginning of the line with the log entry's starting pattern, unable to split the log into lines 检查行首正则正确性。 若是单行日志可以配置为.。 LTS1403 完整正则模式下,日志内容和正则表达式不匹配 No match found between log content and regular expression in full regex mode 查看错误详情,重新调整正则规则适配日志原文。 LTS1404 JSON、分隔符等模式下,由于日志格式不符合定义而解析失败 Parsing failed in JSON, delimiter, and other modes due to mismatched log format definitions 查看错误详情,重新调整规则适配日志原文。 LTS1405 采集配置不合法 The collection configuration is invalid 采集配置JSON格式有误,可以通过控制台重新编辑下发规则。 LTS1406 因超过服务器资源使用上限而崩溃 Crashed due to exceeding server resource limits 调整CPU/内存上限, 主机需要调整 /etc/systemd/system/lmtagent.service 里几个限额项 MemoryMax/MemoryLimit/CPUQuota ; 容器需要在ccse控制台调整日志插件的YAML文件中定义的限额项 resources.limit.cpu/resources.limit.memory。 LTS1407 在Linux系统中注册日志监听失败,可能由于没有文件夹权限或文件夹被删除 Failed to register the log listener in the Linux system, possibly due to lack of folder permissions or the folder being deleted 检查采集器是否有权限访问该文件夹,或者该文件夹是否被删除。 LTS1408 日志采集进度落后于日志产生进度 Log collection is lagging behind log generation 采集有部分延迟,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1409 日志采集进度落后于日志产生进度,且未处理的日志轮转超过20个,开始丢弃日志 Log collection is lagging behind log generation, and with over 20 unprocessed log rotations, logs are now being discarded 采集延迟较多,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1410 没有日志监控目录读取权限 No read permission for the log monitoring directory 检查日志监控目录是否存在。如果存在,请检查目录权限设置。 LTS1411 日志采集配置目录中的文件数超限 The number of files in the log collection configuration directory has exceeded the limit 检查采集的目录下是否有较多文件和子目录并合理设置监控目录最大深度。 LTS1412 进程退出时日志落盘到本地超时,此时会丢弃未落盘完成的日志 When the process exits, flushing logs to disk times out, and any unfinished logs will be discarded 该报错通常为采集严重阻塞导致,如果持续出现错误可以提工单反馈。 LTS1413 输入源采集异常 Input source collection exception 查看详细报错,根据具体错误信息进一步排查。 LTS1414 过滤器初始化异常 Filter initialization exception 一般由于过滤器的正则表达式非法导致,请根据提示修复。 LTS1415 向聚合队列中添加数据失败 Failed to add data to the aggregation queue 数据发送过快。若真实数据量很大,可忽略。 LTS1416 Checkpoint解析失败 Checkpoint parsing failed 查看详细报错,根据其中检查点内容(前1024个字节)以及具体错误信息进一步排查。 LTS1417 同时监听的目录数超出限制 The number of simultaneously monitored directories exceeds the limit 检查当前采集配置是否包含较多的目录数,合理设置监控目录最大深度。 LTS1418 执行命令添加Docker文件映射失败 Failed to add Docker file mapping when executing the command 查看详细报错,根据具体错误信息进一步排查。 LTS1419 无法在Docker容器中查找到指定文件 The specified file could not be located within the Docker container 查看详细报错,根据其中的容器信息以及查找的文件路径进一步排查。 LTS1420 servicedockerstdout插件错误,根据配置中的BeginLineRegex编译失败 Error in servicedockerstdout plugin: failed to compile BeginLineRegex from configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1421 同时打开的文件对象数量超过限制 The number of simultaneously open file objects has exceeded the limit 一般因为当前处于采集状态的文件数过多,请检查采集配置是否合理。 LTS1422 processorsplitlogregex以及 processorsplitlogstring插件错误,无法从日志中获取到配置中指定的SplitKey。 Error in processorsplitlogregex and processorsplitlogstring plugins: unable to extract the configured SplitKey from log data 查看详细报错,检查是否存在配置错误的情况。 LTS1423 执行LZ4压缩发生错误 Error occurred during LZ4 compression execution 查看详细报错,根据具体错误信息进一步排查。 LTS1424 已打开文件数量超过限制,无法打开新的文件 The number of open files has exceeded the limit, preventing new files from being opened 日志采集配置目录中的文件数超限 ,默认上限为100000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1425 打开文件出错 Error opening file 文件无法打开,需要查看文件是否损坏。 LTS1426 processorregex插件错误,编译配置中指定的Regex正则表达式失败 Error in processorregex plugin: failed to compile the Regex expression specified in the configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1427 日志解析速度过慢 Log parsing speed is too slow 查看详细报错,根据其中的日志数量、缓冲区大小、解析时间来确定是否正常。 如果不正常,检查是否有其他进程占用了过多的CPU资源或是存在效率较低的复杂正则表达式等不合理的解析配置。 LTS1428 processorregex插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in processorregex plugin: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1429 processorregex插件错误,匹配失败 Error in processorregex plugin: match failed 查看详细报错,报错根据内容分为如下类型,请根据具体的错误信息进行排查。 unmatch this log content...:日志无法匹配配置中的正则表达式 match result count less...:匹配的结果数量少于配置中指定的 Keys 数量。 LTS1430 splitchar以及splitstring插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in splitchar and splitstring plugins: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1431 processorsplitchar以及processorsplitstring插件错误,解析得到的字段数量与SplitKeys中指定的不相同 Error in processorsplitchar and processorsplitstring plugins: the number of parsed fields does not match the count specified in SplitKeys 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1432 解析日志时间失败 Failed to parse log timestamp 正则表达式提取的时间字段是否正确。 指定的时间字段内容是否匹配配置中的时间表达式。 LTS1433 checkpoint相关错误 Checkpointrelated error 读取checkpoint文件格式异常,需要确认文件是否被修改,可能导致重采,如果持续出现错误可以提工单反馈。 LTS1434 inotify监听超限 inotify watch limit exceeded 监听目录数超限 ,默认上限为3000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1435 采集器启动配置不存在或解析失败 Collector startup configuration does not exist or failed to parse 主机采集器启动配置格式有误,需要确认文件是否被修改,如果持续出现错误可以提工单反馈。 LTS1436 采集队列已满 The collection queue is full 网络中断等原因导致数据无法上报,反压队列满,会持续重试1h等待恢复,如果持续出现错误可以提工单反馈。 LTS1437 本地目录下配置过多 Too many configurations in the local directory 查看详细报错,根据具体错误信息进一步排查。 LTS1438 采集器上报插件初始化失败 Collector reporting plugin initialization failed 先确认VPCE私网域名是正常开通。如果持续出现错误可以提工单反馈。 LTS1439 采集器上报插件endpoint无法连接 Unable to connect to the endpoint of the collector reporting plugin 先确认VPCE私网域名是正常开通,以及本地DNS到VPCE域名是否能ping通。如果持续出现错误可以提工单反馈。 LTS1440 上报日志网关中出现错误 Error occurred in the log gateway during reporting token失效或者到日志网关的网络不通。如果是token失效需确认AK/SK是否有getToken权限。 LTS1441 上报日志网关后返回错误 The log gateway returned an error after reporting 查看详细报错,根据具体错误信息进一步排查。 LTS1442 获取token失败 Failed to retrieve token 用户指定的AK/SK 获取token失败,可能是未正确授权。查看详细报错,根据具体错误信息进一步排查。 LTS1443 采集内部错误 Internal collection error 未定义在上面详细错误码的都归在此类,需要查看详细报错,根据具体错误信息进一步排查。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        主机管理
        采集常见错误类型
      • 步骤一:创建同步任务
        本节主要介绍步骤一:创建同步任务 本小节以MySQL>RDS for MySQL的实时同步为示例,介绍如何使用数据库复制服务创建两个数据库实例之间的实时同步任务,其他存储引擎的配置流程类似。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时同步支持的数据库类型,详情请参见实时同步。 满足实时同步的使用限制,详情请参见概述。 操作步骤 1、 在“实时同步管理”页面,单击“创建同步任务”。 2、 在“同步实例”页面,填选区域、任务名称、任务异常通知设置、时延阈值、任务异常自动结束时间、描述、同步实例信息,单击“下一步”。 图 同步任务信息 表 任务与描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当同步任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量同步阶段,源数据库和目标数据库之间的同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量同步阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 同步实例信息 表 同步实例信息 参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 此处以公网网络为示例。 可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步类型 此处以“全量+增量”为示例。 “全量+增量”: 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”: 增量同步通过解析日志等技术,将源端产生的增量实时同步至目标端。 3、同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 入云和出云场景中源库和目标库需要填选的信息不同,具体以界面为准。 入云场景: 图 源库信息 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 源数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的用户名。 数据库密码 目标数据库用户名对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 出云场景: 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建任务时选择的云数据库实例,不可进行修改。 数据库用户名 源数据库对应的用户名。 数据库密码 源数据库用户名对应的密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码 说明 源数据库的用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 说明 目标数据库的IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 4、在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步” 图 同步模式 表 同步模式和对象 参数 描述 冲突策略 数据库复制服务提供的实时同步功能使用了主键或唯一键冲突策略,这些策略可以由您自主选择,尽可能保证源数据库中有主键约束或唯一键约束的表同步到目标数据库是符合预期的。 冲突策略目前支持如下三种形式: 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 说明 目前仅MySQL>RDS for MySQL的同步场景支持设置“覆盖”冲突策略。 当数据发生冲突时,针对如下情况,建议选“忽略”或者“覆盖”,否则建议选“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示实时同步过程中不会同步用户在源数据库端执行的删除数据库操作。 否,则表示实时同步过程中将相关操作同步到目标库。 说明 目前仅以下链路的数据同步场景支持过滤DDL操作。 MySQL数据库>RDS for MySQL实例 RDS for MySQL实例>MySQL数据库 对象同步范围 对象同步范围支持普通索引和增量DDL同步。可根据业务需求选择是否进行同步。 同步对象 同步对象支持库级和表级同步,您可以根据业务场景选择对应的数据进行同步。部分链路还支持文件导入对象。 图 导入对象文件 如果有切换源数据库的操作或源库同步对象变化的情况,请务必在选择同步对象前单击右上角,以确保待选择的对象为最新源数据库对象。 说明 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 MySQL>RDS for MySQL实时同步支持表级和库级同步。 实时同步功能可以支持源数据库和目标数据库中的同步对象(包括数据库、schema、表)的名称不同。如果同步的数据库对象在源数据库和目标数据库中的命名不同,那么可以使用数据库复制服务提供的对象名映射功能进行映射。其中包括:库映射、schema映射、表映射。 对象名映射的具体操作请参考《数据库复制服务用户指南》中“对象名映射”章节。 导入对象文件的具体操作如下: 1. 单击“下载模板”。 2. 在下载的Excel模板中,填写需要导入的对象信息。 3. 单击“添加文件”,在对话框中选择编辑完成的模板。 4. 单击“上传文件”。 说明 文件导入仅支持导入Windows Microsoft Excel 972003版本(.xls),2007及以上版本(.xlsx)的文件,下载的压缩包提供上述两个版本模板 文件名支持的有效字符:大小写字母,数字,“”,“”,“(”,“)” 模板中的对象信息需按照SchemaName.TableName的格式进行填写,不支持“ ”,"."和“"”,且不支持以空格开头或结尾的对象。 文件导入成功后,必须保留本次上传的文件,以便需要再编辑该任务的数据库对象范围时,可直接基于此文件修改,然后再次上传。 用文件导入功能所创建的任务,任务启动之后再编辑时,不支持切换到“表级同步”和“库级同步”功能。 配置中的任务,可使用“表级同步”,“库级同步”或“文件导入”三种方式,每次切换新的方式后,当前选择或者导入的数据库对象被清空,需重新选择或导入。 5、在“数据加工”页面,根据需要设置数据加工的过滤规则。 如果不需要设置数据加工规则,选择“不加工”,单击“下一步”。 如果需要设置数据加工规则,选择“数据过滤”,参考数据加工,设置相关过滤规则 数据加工 6、在“预检查”页面,进行同步任务预校验,校验是否可进行实时同步。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 图 预检查 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 7、在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,勾选协议,单击“启动任务”,提交同步任务。 说明 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 8、同步任务提交后,您可在“实时同步管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时同步
        步骤一:创建同步任务
      • 1
      • 2
      • ...
      • 179
      • 180
      • 181
      • 182
      • 183
      • 184
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      AI Store

      应用托管

      科研助手

      一站式智算服务平台

      人脸检测

      人脸实名认证

      推荐文档

      产品功能

      复制

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号