云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼来单_相关内容
      • 短视频场景下的QUIC实践
        本文介绍QUIC协议在短视频加速的应用实践。 背景信息 QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。Google推出的QUIC被称为GQUIC,IETF制定的QUIC称为IQUIC。 QUIC的主要优势如下: 1. 握手建连更快。 2. 避免队首阻塞的多路复用。 3. 支持连接迁移。 4. 可插拔的拥塞控制。 5. 前向纠错(FEC)。 协议详细介绍,详情请见:HTTP3.0(QUIC)协议。 适用场景 1. 图片业务:可降低图片加载时间。 2. 短视频业务:可提升视频秒开率,并且降低弱网环境卡顿率。 3. 直播业务:可提升播放稳定性,降低因网络波动带来的卡顿率。 如何验证CDN已开启QUIC功能 QUIC协议暂不支持客户自助开启,如需使用,请通过提交工单给天翼云客服,由其人工操作开启。 QUIC属于双边协议,需要客户端同步支持。如您已开通QUIC功能,可以使用Chrome浏览器或者基于Chrome内核的浏览器来访问对应网站域名,并在浏览器开启开发者工具进行抓包验证。目前较新版本的Chrome浏览器已默认开启QUIC。 一般情况下,Chrome浏览器和服务器端协商使用QUIC协议要经过如下步骤: 1. 首次访问,客户端会先发起正常的TCP请求。 2. 服务端如果支持QUIC,会通过响应头部返回altsvc信息告知客户端自己支持QUIC及对应版本(如下图),其含义是服务器在443端口开启QUIC,最大缓存时间是2592000秒(30天),支持的QUIC版本IQUIC。 3. 下次访问,客户端会同时发起TCP连接和QUIC连接进行竞速。 4. 一旦QUIC竞速连接获胜,则后续会采用QUIC协议发送请求,如果在浏览器进行抓包(快捷键F12打开开发者工具),可在Protocol列查看其具体的协议,如下图所示,这里显示的h3即表示采用的是IQUIC。 注意 如果没有Protocol列,右键点击Header Options,勾选Protocol列即可。 5. 如遇网络或服务器不支持QUIC,客户端标记QUIC为broken。 6. 传输中的QUIC请求立即用TCP进行重发。 7. 5min后尝试重试QUIC,下一次尝试增大到10min。 8. 一旦再次成功采用QUIC,会把broken标记取消。
        来自:
        帮助文档
        CDN加速
        最佳实践
        短视频场景下的QUIC实践
      • 用户管理
        本节介绍了在RabbitMQ实例中如何创建、修改和删除用户。 背景信息 客户端访问分布式消息服务RabbitMQ 版服务端时,需要传入用户名和密码进行权限认证,认证通过才允许访问服务端。 操作步骤 创建用户 1.登录管理控制台。 2.进入RabbitMQ管理控制台。 3.在实例列表页在操作列,目标实例行点击“管理”。 4.点击“集群管理”后点击“用户”到达用户管理页面,点击“新建”按钮。 5.点击“新建”后出现以下画面,输入用户密码后点击“确定”即可创建。 修改用户 1.在用户管理页面,在目标用户行点击“修改”,即可重置用户密码。 删除用户 1.在用户管理页面,在目标用户行点击“删除”,即可删除用户。 获取用户token 仅云原生引擎支持 (1)登录管理控制台。 (2)进入RabbitMQ管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“集群管理”后点击“用户”到达用户管理页面,点击“Token”按钮。 在RabbitMQ中,获取用户令牌(token)的作用如下: 认证和授权:用户令牌用于认证和授权用户对RabbitMQ的访问权限。通过获取有效的用户令牌,可以验证用户的身份,并根据其权限配置来限制或授予其对虚拟主机、队列、交换机等资源的访问权限。 安全性:通过使用用户令牌进行认证,可以增加RabbitMQ系统的安全性。只有具有有效令牌的用户才能访问和执行相应的操作,从而减少了未经授权的访问和潜在的安全风险。 资源管理:用户令牌可以用于管理和限制用户对RabbitMQ资源的使用。通过为每个用户分配独立的令牌,可以控制其对虚拟主机、队列、交换机等资源的使用情况,避免资源滥用或过度消耗。 追踪和审计:通过用户令牌,可以追踪和记录用户对RabbitMQ的操作和访问历史。这对于安全审计、故障排查和性能优化等方面非常有用,可以帮助管理员了解系统的使用情况和问题定位。 总之,获取用户令牌是为了实现认证、授权和安全性,以及对RabbitMQ资源的管理和追踪。通过令牌,可以确保只有经过授权的用户才能访问和操作RabbitMQ,提高系统的安全性和可管理性。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        用户管理
      • 在CTS事件列表查看云审计事件
        介绍在CTS事件列表查看云审计事件。 操作场景 用户进入云审计服务创建管理类追踪器后,系统开始记录云服务资源的操作。在创建数据类追踪器后,系统开始记录用户对OBS桶中数据的操作。云审计服务管理控制台会保存最近7天的操作记录。 本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 使用限制 用户通过云审计控制台只能查询最近7天的操作记录。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 云上操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 云审计控制台对用户的操作事件日志保留7天,过期自动删除,不支持人工删除。 查看审计事件 步骤1、登录管理控制台。 步骤2、单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 步骤3、单击左侧导航树的“事件列表”,进入事件列表信息页面。 步骤4、事件列表支持通过筛选来查询对应的操作事件。当前事件列表支持四个维度的组合查询,详细信息如下: 事件类型、事件来源、资源类型和筛选类型,在下拉框中选择查询条件。 筛选类型按资源ID筛选时,还需手动输入某个具体的资源ID。 筛选类型按事件名称筛选时,还需选择某个具体的事件名称。 筛选类型按资源名称筛选时,还需选择或手动输入某个具体的资源名称。 操作用户:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 事件级别:可选项为“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 时间范围:可选择查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 步骤5、选择完查询条件后,单击“查询”。 步骤6、在事件列表页面,您还可以导出操作记录文件和刷新列表。 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 步骤7、在需要查看的事件左侧,单击展开该记录的详细信息。 步骤8、在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        审计
        在CTS事件列表查看云审计事件
      • 常见问题
        本节主要介绍常见问题。 如何解决新增节点时提示弹性IP不足的问题? 问题描述 在CCE集群中新增节点时,在“弹性IP”处选择“自动创建”,但创建节点失败,提示弹性IP不足。 解决方法 您可以有两种方法解决弹性IP不足的问题。 方法一:解绑已绑定弹性IP的虚拟机,再重新添加节点。 a. 登录弹性云主机控制台。 b. 在弹性云主机列表中,找到待解绑云服务器,单击云服务器名称。 c. 在打开的弹性云主机详情页中,单击“弹性公网IP”页签,在公网IP列表中单击待解绑IP后的“解绑”,为该云服务器解绑弹性IP,单击“确定”。 d. 返回CCE控制台创建节点页面中,选择“使用已有”重新新增节点的操作。 方法二:提高弹性IP的配额。 天翼云对用户的资源数量和容量做了配额限制。如果资源配额限制满足不了用户的使用需求,可以通过工单系统来提交工单申请,并告知您申请提高配额的理由。 在通过审理之后,我们会更新您的配额并进行通知。 如何快速清理已删除节点上的CCE组件? 使用场景 若集群中包含纳管节点,删除对应集群和节点不会删除对应的ECS,此时请按照界面提示清理节点上CCE组件。若未按照提示清理节点组件,后续需要清理ECS时,可按照如下操作进行清理。 操作步骤 1登录CCE控制台。 2在左侧导航栏中选择“集群管理 > 节点管理”,在右侧的节点列表中找到要执行操作的纳管节点,在节点的“操作”区域下单击“更多 > 移除”。 3在弹出的“移除纳管节点”对话框中输入"REMOVE"确认移除节点,单击“确认”。 4、认真阅读弹出的“提示”页面内容,按照步骤清理CCE相关资源。 如何加固CCE集群的节点VPC安全组规则? CCE作为通用的容器平台,安全组规则的设置适用于通用场景。用户可根据安全需求,通过网络控制台的安全组找到CCE集群对应的安全组规则进行安全加固。 安全组查找路径:登录控制台,单击服务列表中的“网络 > 虚拟私有云 VPC”,在网络控制台单击“访问控制 > 安全组”。 其中,控制节点的安全组名称是:{集群名}ccecontrol{随机ID};用户节点的安全组名称是:{集群名}ccenode{随机ID}。 安全组中必须开启的端口如下: {集群名}ccecontrol{随机ID}: •源地址属于本安全组规则的需全部放通。 •5444、8445、9443、4789端口的规则不能修改。 •5443端口需对VPC网段、容器网段放通。 {集群名}ccenode{随机ID}: •源地址属于本安全组规则的需全部放通。 •4789、10250端口的规则不能修改。 •3000032767端口需对VPC网段、容器网段和ELB的网段放通。
        来自:
        帮助文档
        云容器引擎
        常见问题
        常见问题
      • 创建云盘快照
        本文为您介绍如何在轻量型云主机详情页创建云硬盘快照。 操作场景 云硬盘快照是一种数据备份方式,云硬盘快照可以备份或者恢复整个云硬盘的数据,常用于数据备份、制作镜像、应用容灾等场景。在回滚云硬盘、更换操作系统、数据迁移等重要操作之前,您可以提前创建快照,从而保存指定时刻的云硬盘数据,提高操作的容错率。 约束限制 未过期的云硬盘可以在任何状态下创建快照。 每台轻量型云主机最大支持创建3个免费快照。 单用户(UID)免费快照数量上限为已创建实例数乘以3,单用户的全部轻量型云主机最多不超过15个快照。 如果服务器到期释放,该服务器对应的快照会被清除。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击控制中心顶部的,选择资源所在地,此例我们选择华北2。 3. 单击左侧导航栏“产品服务列表”,选择“计算>轻量型云主机”。 4. 进入轻量型云主机列表界面,单击目标主机“实例名称”进入目标主机详情页。 5. 单击“云硬盘”页签,可以看到当前轻量型云主机的云硬盘信息。 6. 在云硬盘列表找到需要创建快照的云硬盘,单击“操作”栏中的“创建快照”。 7. 在弹出的“创建云硬盘快照”弹窗中输入快照名称。 说明 快照名称不能使用中文,且长度为263字符。 8. 确认快照信息无误后单击“确定”完成云盘快照创建。 9. 创建完成后您可以在“快照”页签看到创建成功的快照。
        来自:
        帮助文档
        轻量型云主机
        用户指南
        云盘快照
        创建云盘快照
      • 加密HFile和WAL内容
        本章主要介绍翼MapReduce的加密HFile和WAL内容功能。 加密HFile和WAL内容 须知 设置HFile和WAL为SMS4加密或AES加密方式对系统的影响较大,一旦操作失误会导致数据丢失。不推荐使用此功能。 使用Bulkload批量导入的数据不支持加密。 缺省情况下,HBase中的HFile和WAL(Write ahead log)内容是不加密的。如果用户需要对其进行加密,可通过如下操作进行配置。 1.在任一安装HBase服务节点,使用omm用户执行如下命令创建密钥。 sh ${BIGDATAHOME}/FusionInsightHD8.1.0.1/install/FusionInsightHBase2.2.3/hbase/bin/hbaseencrypt.sh /hbase.jks / /hbase.jks 表示生成的jks文件存储路径。 表示加密的类型,支持SMS4或AES。 表示密钥的长度,SMS4支持16位长度,AES支持128位长度。 为密钥文件的别名,第一次生成时请使用缺省值“omm”。 例如,生成SMS4加密的密钥执行: sh ${BIGDATAHOME}/FusionInsightHD8.1.0.1/install/FusionInsightHBase2.2.3/hbase/bin/hbaseencrypt.sh /home/hbase/conf/hbase.jks SMS4 16 omm 生成AES加密的密钥执行: sh ${BIGDATAHOME}/FusionInsightHD8.1.0.1/install/FusionInsightHBase2.2.3/hbase/bin/hbaseencrypt.sh /home/hbase/conf/hbase.jks AES 128 omm 说明 集群的操作用户需要有/hbase.jks目录的“rw”权限,且要求目录已存在。 运行命令后需要再输入4遍相同的 。其中3中进行加密的密码与此步骤的密码相同。 2.将生成的密钥文件分发到集群中所有节点的相同目录下,并为omm用户配置该文件的读写权限。 说明 请管理员根据企业安全要求,选择安全的操作步骤分发密钥。 如果在使用过程中,有节点出现密钥文件丢失的情况,请按照此步骤从其他节点拷贝到该节点。 3.在FusionInsight Manager界面中,设置“hbase.crypto.keyprovider.parameters.encryptedtext”参数的值为密文密码,设置“hbase.crypto.keyprovider.parameters.uri”参数的值为密钥路径和名称。 “hbase.crypto.keyprovider.parameters.uri”格式为: jceks:// 。 填写密钥的存储路径,例如“/home/hbase/conf/hbase.jks”则对应参数值为“jceks:///home/hbase/conf/hbase.jks”。 “hbase.crypto.keyprovider.parameters.encryptedtext”格式为: 。 填写创建密钥时的密文密码,参数值显示为密文。使用omm用户在安装HBase服务的节点,执行如下命令获取对应加密后的密码: sh ${BIGDATAHOME}/FusionInsightHD8.1.0.1/install/FusionInsightHBase2.2.3/hbase/bin/hbaseencrypt.sh 说明 运行命令后需要输入。该密码与1中手动输入的密码相同。 4.在FusionInsight Manager界面中,设置“hbase.crypto.key.algorithm”参数值为“SMS4”或“AES”,使HFile的内容采用SMS4或AES的方式加密。 5.在FusionInsight Manager界面中,设置“hbase.crypto.wal.algorithm”参数值为“SMS4”或“AES”,使WAL的内容采用SMS4或AES的方式加密。 6.在FusionInsight Manager界面中,将“hbase.regionserver.wal.encryption”参数值修改为“true”。 7.保存设置,并重启HBase服务使其生效。 8.在创建HBase表时,需要通过设置加密方式,表示加密的类型。 通过命令行创建表时,直接设置加密方式为SMS4或AES。 create ' ', { NAME > 'd' , ENCRYPTION > ' ' } 使用代码创建表时,在代码中添加如下信息设置加密方式为SMS4或AES。 public void testCreateTable() { String tableName "user"; Configuration conf getConfiguration(); HTableDescriptor htd new HTableDescriptor(TableName.valueOf(tableName)); HColumnDescriptor hcd new HColumnDescriptor("info"); //设置加密方式为SMS4或AES。 hcd.setEncryptionType(" "); htd.addFamily(hcd); HBaseAdmin admin null; try { admin new HBaseAdmin(conf); if(!admin.tableExists(tableName)) { admin.createTable(htd); } } catch (IOException e) { e.printStackTrace(); } finally { if(admin ! null) { try { admin.close(); } catch (IOException e) { e.printStackTrace(); } } } } 9.如果用户已按照1到7配置了SMS4或AES加密,但是在执行8创建表时,未设置对应的加密参数,使得插入的数据未经加密。 此时,您可以执行如下步骤对之前插入的数据进行加密。 a.针对表执行flush动作,将内存中的数据导入到HFile中。 flush ' ' b.执行以下步骤修改表属性。 disable ' ' alter ' ', NAME> ' ', ENCRYPTION > ' ' enable ' ' c.插入一条新的数据,然后flush表。 说明 必须要插入一条新的数据,HFile才会生成新的HFile,使得之前插入的未加密数据进行重写加密。 put'','id2','f1:c1','value222222222222222222222222222222222' flush'' 须知 执行此步骤时,HBase表是被禁用的,不能提供表服务。请谨慎使用。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全加固
        加密HFile和WAL内容
      • 采集常见错误类型
        本文主要介绍采集常见错误类型。 以下为常见的错误类型以及对应的解决方法说明,可供参考。 LTS 错误码 错误说明 英文说明 解决方法 LTS1400 数据包从产生到发送的过程中等待的时间较长 The waiting time for data packets from generation to transmission is relatively long 检查发送是否正常,或是否存在数据量超过默认配置、配额不足或网络存在问题。 LTS1401 无权限读取指定文件 No permission to read the specified file 检查lmtagent的启动账号,建议以root方式启动。 切要采集的日志目录具备读权限 LTS1402 行首正则与日志行首匹配失败,无法对日志做分行 Failed to match the beginning of the line with the log entry's starting pattern, unable to split the log into lines 检查行首正则正确性。 若是单行日志可以配置为.。 LTS1403 完整正则模式下,日志内容和正则表达式不匹配 No match found between log content and regular expression in full regex mode 查看错误详情,重新调整正则规则适配日志原文。 LTS1404 JSON、分隔符等模式下,由于日志格式不符合定义而解析失败 Parsing failed in JSON, delimiter, and other modes due to mismatched log format definitions 查看错误详情,重新调整规则适配日志原文。 LTS1405 采集配置不合法 The collection configuration is invalid 采集配置JSON格式有误,可以通过控制台重新编辑下发规则。 LTS1406 因超过服务器资源使用上限而崩溃 Crashed due to exceeding server resource limits 调整CPU/内存上限, 主机需要调整 /etc/systemd/system/lmtagent.service 里几个限额项 MemoryMax/MemoryLimit/CPUQuota ; 容器需要在ccse控制台调整日志插件的YAML文件中定义的限额项 resources.limit.cpu/resources.limit.memory。 LTS1407 在Linux系统中注册日志监听失败,可能由于没有文件夹权限或文件夹被删除 Failed to register the log listener in the Linux system, possibly due to lack of folder permissions or the folder being deleted 检查采集器是否有权限访问该文件夹,或者该文件夹是否被删除。 LTS1408 日志采集进度落后于日志产生进度 Log collection is lagging behind log generation 采集有部分延迟,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1409 日志采集进度落后于日志产生进度,且未处理的日志轮转超过20个,开始丢弃日志 Log collection is lagging behind log generation, and with over 20 unprocessed log rotations, logs are now being discarded 采集延迟较多,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1410 没有日志监控目录读取权限 No read permission for the log monitoring directory 检查日志监控目录是否存在。如果存在,请检查目录权限设置。 LTS1411 日志采集配置目录中的文件数超限 The number of files in the log collection configuration directory has exceeded the limit 检查采集的目录下是否有较多文件和子目录并合理设置监控目录最大深度。 LTS1412 进程退出时日志落盘到本地超时,此时会丢弃未落盘完成的日志 When the process exits, flushing logs to disk times out, and any unfinished logs will be discarded 该报错通常为采集严重阻塞导致,如果持续出现错误可以提工单反馈。 LTS1413 输入源采集异常 Input source collection exception 查看详细报错,根据具体错误信息进一步排查。 LTS1414 过滤器初始化异常 Filter initialization exception 一般由于过滤器的正则表达式非法导致,请根据提示修复。 LTS1415 向聚合队列中添加数据失败 Failed to add data to the aggregation queue 数据发送过快。若真实数据量很大,可忽略。 LTS1416 Checkpoint解析失败 Checkpoint parsing failed 查看详细报错,根据其中检查点内容(前1024个字节)以及具体错误信息进一步排查。 LTS1417 同时监听的目录数超出限制 The number of simultaneously monitored directories exceeds the limit 检查当前采集配置是否包含较多的目录数,合理设置监控目录最大深度。 LTS1418 执行命令添加Docker文件映射失败 Failed to add Docker file mapping when executing the command 查看详细报错,根据具体错误信息进一步排查。 LTS1419 无法在Docker容器中查找到指定文件 The specified file could not be located within the Docker container 查看详细报错,根据其中的容器信息以及查找的文件路径进一步排查。 LTS1420 servicedockerstdout插件错误,根据配置中的BeginLineRegex编译失败 Error in servicedockerstdout plugin: failed to compile BeginLineRegex from configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1421 同时打开的文件对象数量超过限制 The number of simultaneously open file objects has exceeded the limit 一般因为当前处于采集状态的文件数过多,请检查采集配置是否合理。 LTS1422 processorsplitlogregex以及 processorsplitlogstring插件错误,无法从日志中获取到配置中指定的SplitKey。 Error in processorsplitlogregex and processorsplitlogstring plugins: unable to extract the configured SplitKey from log data 查看详细报错,检查是否存在配置错误的情况。 LTS1423 执行LZ4压缩发生错误 Error occurred during LZ4 compression execution 查看详细报错,根据具体错误信息进一步排查。 LTS1424 已打开文件数量超过限制,无法打开新的文件 The number of open files has exceeded the limit, preventing new files from being opened 日志采集配置目录中的文件数超限 ,默认上限为100000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1425 打开文件出错 Error opening file 文件无法打开,需要查看文件是否损坏。 LTS1426 processorregex插件错误,编译配置中指定的Regex正则表达式失败 Error in processorregex plugin: failed to compile the Regex expression specified in the configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1427 日志解析速度过慢 Log parsing speed is too slow 查看详细报错,根据其中的日志数量、缓冲区大小、解析时间来确定是否正常。 如果不正常,检查是否有其他进程占用了过多的CPU资源或是存在效率较低的复杂正则表达式等不合理的解析配置。 LTS1428 processorregex插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in processorregex plugin: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1429 processorregex插件错误,匹配失败 Error in processorregex plugin: match failed 查看详细报错,报错根据内容分为如下类型,请根据具体的错误信息进行排查。 unmatch this log content...:日志无法匹配配置中的正则表达式 match result count less...:匹配的结果数量少于配置中指定的 Keys 数量。 LTS1430 splitchar以及splitstring插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in splitchar and splitstring plugins: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1431 processorsplitchar以及processorsplitstring插件错误,解析得到的字段数量与SplitKeys中指定的不相同 Error in processorsplitchar and processorsplitstring plugins: the number of parsed fields does not match the count specified in SplitKeys 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1432 解析日志时间失败 Failed to parse log timestamp 正则表达式提取的时间字段是否正确。 指定的时间字段内容是否匹配配置中的时间表达式。 LTS1433 checkpoint相关错误 Checkpointrelated error 读取checkpoint文件格式异常,需要确认文件是否被修改,可能导致重采,如果持续出现错误可以提工单反馈。 LTS1434 inotify监听超限 inotify watch limit exceeded 监听目录数超限 ,默认上限为3000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1435 采集器启动配置不存在或解析失败 Collector startup configuration does not exist or failed to parse 主机采集器启动配置格式有误,需要确认文件是否被修改,如果持续出现错误可以提工单反馈。 LTS1436 采集队列已满 The collection queue is full 网络中断等原因导致数据无法上报,反压队列满,会持续重试1h等待恢复,如果持续出现错误可以提工单反馈。 LTS1437 本地目录下配置过多 Too many configurations in the local directory 查看详细报错,根据具体错误信息进一步排查。 LTS1438 采集器上报插件初始化失败 Collector reporting plugin initialization failed 先确认VPCE私网域名是正常开通。如果持续出现错误可以提工单反馈。 LTS1439 采集器上报插件endpoint无法连接 Unable to connect to the endpoint of the collector reporting plugin 先确认VPCE私网域名是正常开通,以及本地DNS到VPCE域名是否能ping通。如果持续出现错误可以提工单反馈。 LTS1440 上报日志网关中出现错误 Error occurred in the log gateway during reporting token失效或者到日志网关的网络不通。如果是token失效需确认AK/SK是否有getToken权限。 LTS1441 上报日志网关后返回错误 The log gateway returned an error after reporting 查看详细报错,根据具体错误信息进一步排查。 LTS1442 获取token失败 Failed to retrieve token 用户指定的AK/SK 获取token失败,可能是未正确授权。查看详细报错,根据具体错误信息进一步排查。 LTS1443 采集内部错误 Internal collection error 未定义在上面详细错误码的都归在此类,需要查看详细报错,根据具体错误信息进一步排查。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        主机管理
        采集常见错误类型
      • 如何创建迁移任务
        本文为您介绍如何创建迁移任务。 操作场景 在“对象存储>对象存储迁移服务>迁移任务”控制台界面,您可以创建迁移任务,将其它云厂商存储的数据迁移到天翼云对象存储(ZOS)。 注意 本章节默认为全托管模式的教程,若您需要创建半托管迁移任务,请阅读 前提条件 您已经在天翼云对象存储ZOS开通Bucket。 您的源端存在待迁移的数据。 请确保您的业务处于空闲阶段或非高峰期,避免迁移执行时影响您的业务。 请确保您的源端数据已经解冻,并在迁移完成前保持解冻状态,避免因源端数据未解冻迁移失败。 操作指导 1.登录控制中心,点击控制中心左上角的,选择地域(服务入口目前仅开放“华东1”地域,推荐选择“华东1”即可)。 说明 迁移服务的控制台入口仅部分地域开放(目前仅有“华东1”开放),但服务支持迁移到全国不同资源池的ZOS桶。 例如:您在“华东1”的迁移服务控制台使用服务,依旧能为您迁移源端为“其他云服务商”或“华北2”的数据到“成都4”的对象存储桶。 2.单击“对象存储>对象存储迁移服务>迁移任务 ”进入迁移服务的迁移任务控制台,点击“ 创建迁移任务 ”。 注意 使用对象存储迁移服务会获取您的AK/SK等认证信息,为确保您一定知情,创建任务时会有使用提示弹窗,需要您阅读并手动勾选服务协议,进行确认。您有权不勾选服务协议,并不使用该服务,请您知悉。 3.在创建迁移任务的页面,需填写如下参数。填写完成后,点击“ 下一步:确认任务 ”即可。 参数 说明 :: 任务信息 任务名称 输入自定义的任务名称。 说明 命名规则:必须为大小写字母、数字、横线或下划线,长度在432个字符之间;自定义的任务名称不能与您已存在的任务名称重复。 迁移模式 迁移任务运行模式 选择创建迁移任务的模式,支持全托管模式和半托管模式。 说明: 全托管模式:迁移任务将在服务端执行,适合数据量在10TB以内,或对迁移耗时没有紧急诉求的客户。 半托管模式:迁移任务将运行在客户自己的设备上,客户可通过提供更高的网络带宽和更多的迁移设备,实现更高速的迁移,适合数据量在10TB以上,或对迁移耗时有明确诉求的客户。 注意 半托管迁移模式依赖您已经部署完成代理,代理设备与迁移服务服务端连通,否则无法创建半托管模式的迁移任务。 若您想使用半托管模式进行迁移,可阅读如何使用半托管模式进行迁移章节。 迁移模式 选择执行本任务的代理设备 选择执行本任务的代理设备,迁移任务将会下发给指定的代理设备用于执行迁移。 说明 仅能选择“已连接”状态,且有“可用”状态worker节点的代理。 选择源端 源端 选择源端数据的服务提供方。 说明 目前支持的源端: 支持阿里云(OSS)、华为云(OBS)、腾讯云(COS)迁移至ZOS。 支持天翼云对象存储(ZOS)、天翼云(OOS)迁移至ZOS。 支持AWS(S3)和其他遵循标准S3协议的对象存储服务迁移至ZOS。 选择源端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 注意 腾讯云COS的Endpoint较为特殊,仅需填写region即可,例如:apbeijing、apshanghai。 选择源端 Access Key 输入您源端的Access Key。 选择源端 Secret Key 输入您源端的Secret Key。 选择源端 存储桶 输入您源端的对象存储桶名称。 选择源端 迁移方式 选择源端数据的迁移方式,支持:指定存储桶、指定文件夹、指定对象、指定前缀。 说明 指定存储桶 :选择“指定存储桶”时,将会迁移存储桶内的全部对象。 指定文件夹 :选择“指定文件夹”时,将会迁移选中文件夹下的所有对象。仅支持单个文件夹。 指定对象 :选择“指定对象”时,将会迁移选中的对象。最大支持指定100个对象。 指定前缀 :选择“指定前缀”时,将会迁移桶中所有以该前缀开头的对象。仅支持单个前缀。 选择源端 迁移晚于起始时间的对象 选择该选项时,用户可配置“起始时间 ”,任务将仅迁移最后修改时间晚于该“起始时间 ”的对象。 选择源端 迁移早于终止时间的对象 选择该选项时,用户可配置“终止时间 ”,任务将仅迁移最后修改时间早于该“终止时间 ”的对象。 注意 若您同时设定“起始时间 ”和“终止时间 ”,限制“终止时间 ”需晚于(不包含等于)“起始时间 ”。 选择目的端 目的端 指定为天翼云对象存储ZOS。 选择目的端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 说明 目的端为ZOS,您可在对象存储ZOS的bucket“概览域名信息”中找到终端节点(Endpoint)信息。 选择目的端 Access Key 输入您目的端的Access Key。 选择目的端 Secret Key 输入您目的端的Secret Key。 选择目的端 存储桶 输入您目的端的对象存储桶名称。 选择目的端 目的端指定前缀 是否在目的端指定前缀: 关闭 目的端指定前缀,则会将源端数据按原有目录结构迁移至目的端存储桶。 开启 目的端指定前缀,可为迁移至目的端的对象(或文件夹)增加指定的前缀,可分为“增加前缀”和“增加前缀目录”。 说明 说明: 增加前缀 :若您输入的前缀不为目录,则为迁移的对象(或文件夹)增加该部分前缀。例如:指定源端桶 bucketA 的文件夹 bucketA/a/folder1 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test,则迁移至目的端后为 bucketB/Testa/folder1 。 增加前缀目录 :若您输入的前缀为目录,则为迁移的对象(或文件夹)增加该部分前缀目录,实现将对象迁移至指定的目录下的效果。例如:指定源端桶bucketA的对象 bucketA/a/fileA.png 和 bucketA/b/fileB.png 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test/,则迁移至目的端后为 bucketB/Test/a/fileA.png 和 bucketB/Test/b/fileB.png 。 选择目的端 存储类型 选择迁移数据在目的端的存储类型,支持:匹配源端、标准存储、低频存储、归档存储。 说明 匹配源端 :会自动匹配源端存储类型,与源端存储类型保持一致。但仅能自动匹配源端的“标准”和“低频”类型,匹配源端的“归档”或“深度归档”类型,请您务必提前对源端归档数据进行手动解冻,并确保迁移任务完成前数据保持解冻状态,否则该部分数据会迁移失败。 标准存储 :将会存储为标准类型。 低频存储 :将会存储为低频类型。 归档存储 :将会存储为归档类型。 不同地域的对象存储ZOS bucket所支持的存储类型不一致,若您此处选择的存储类型,在您的目的端bucket所在地域并不支持,则迁移会失败。您可参考对象存储ZOS产品能力地图,以便确定您的目的端对不同存储类型的支持情况。 选择目的端 ACL配置 选择迁移数据在目的端的ACL配置,支持:匹配源端、私有、公共读。 说明 匹配源端 :会自动匹配源端的ACL配置,与源端保持一致。 私有 :会将目的端ACL配置为私有。 公共读 :会将目的端ACL配置为公共读。 高级选项 同名文件是否覆盖 选择迁移的同名文件处理策略,支持:同名文件不覆盖、同名文件全覆盖、按最后修改时间判断。 说明 不覆盖 :对同名文件,不进行任何判断,一律执行跳过。 全覆盖 :对于同名文件,不进行任何判断,一律执行覆盖。 按最后修改时间 :对于同名文件,优先判断二者的Lastmodified(即最后修改时间),仅当源端文件相较目的端修改时间更新时,进行覆盖。若源端与目的端文件最后修改时间一致,则判断两者的文件大小,大小一致则执行跳过,大小不一致则执行覆盖。 注意 选择“全覆盖 ”将会覆盖您目的端的同名文件,被覆盖的文件无法被恢复,请您配置时慎重评估是否全覆盖,避免不必要的损失。 注意 创建迁移任务的参数涉及您源端存储数据的相关信息,需要您自行在源端获取,部分信息涉及您的隐私,请注意保密。 4.在确认任务页面,您可以再次检查填写的任务参数,确定无误后,点击“ 创建任务 ”,这里需要您进行二次确认,确认后即可创建任务。 说明 创建任务时,迁移服务会对您的源端进行连通性检查,存在一定的等待时间,若创建任务失败,则会弹出“创建迁移任务失败”弹窗,弹窗中会展示失败的具体信息,以帮助您检查配置是否有误。 5.创建任务成功后,回到迁移任务列表页面,新创建的任务会在列表中展示,且新创建的任务会自动进入“ 排队中 ”状态,排队等待执行,无需您再手动执行任务。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        迁移任务教程
        如何创建迁移任务
      • 库表恢复
        库表恢复是指将备份的历史数据恢复至已有实例,且恢复内容为某些库表,适用于业务中仅少量库表较为重要,只需要关注少量库表的场景。本文介绍如何通过备份文件对实例进行库表恢复。 注意 仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 操作场景 关系数据库MySQL版支持使用已有的自动备份和手动备份,将实例数据中库表内容恢复到备份被创建时的状态。该操作恢复范围仅涉及少量库表。通过备份文件恢复到实例上,恢复时长和实例的数据量及备份介质有关。 约束限制 在进行库表恢复前,需要保证被恢复的实例状态正常。 数据库版本升级过的实例,会限制恢复操作。 库表恢复,需要源实例与被恢复的目标实例有相同的版本、相同的VPC,以及表名是否区分大小写也要相同,且目标实例需要有足够的空间。 不能恢复备份集中不存在的表,否则恢复过程会报错,恢复结果不成功。 库表恢复建议选择少量库表进行恢复,最大支持2000个表的恢复(所有库中表的总和),如有大量库表需要恢复,建议选择实例恢复做全量恢复,且恢复的库表,不能在目标实例中已存在,否则会恢复失败,可修改库表名来规避此问题。 注意 库表恢复暂不支持非INNODB表。 针对库表恢复,将检查是否存在全文索引,若存在全文索引将被drop掉,且只恢复数据。如需全文索引,需用户等数据恢复后自行创建。 库表恢复中,后台会产生一个torecovery前缀的库,为恢复过程的中间库,请勿对其操作,以免影响恢复的后续流程。 库表恢复,默认为库名添加了时间戳后缀,以防恢复到原库原表。可修改库名或者表名,但不可同时与原库表名称相同。 库表级时间点恢复带外键的表,会将外键表的外键删除,同时更改表结构。 库表恢复不支持恢复定时任务和存储过程。 库表恢复,会优先使用临时节点进行恢复,如由于临时节点开通时间过长,则会使用实例节点进行恢复。 若指定恢复的表数据使用系统表空间存储,恢复后的新表数据将转化为使用独立表空间存储。
        来自:
      • 防盗链
        本文介绍防盗链功能的使用场景和方式。 使用场景 一些不良网站为了扩充内容,不惜盗用其他网站的链接,以降低成本。这种行为不仅损害了原网站的合法利益,还加重了服务器的负担。为了解决这一问题,防盗链的技术应运而生。 在HTTP协议中,网站可以通过表头字段"Referer"来检测目标网页访问的来源网页。通过跟踪来源,网站可以采取技术手段进行处理,一旦检测到来源不是本站会进行阻止。防盗链是利用"Referer"设置,去检测请求来源的"Referer"字段信息是否与白名单或黑名单匹配。若与白名单匹配成功,则允许请求访问。否则阻止请求访问。 为了防止其他人在未授权的情况下盗用ZOS的数据,ZOS提供了一种基于HTTP请求头中referer字段的防盗链方法,支持访问白名单和访问黑名单的设置。 Referer规则 Referer可以设置多个,多个Referer换行隔开。 HTTP请求头中的Referer参数用于指定发出请求的资源的URL。该参数可以包含通配符()和问号(?),通配符可以代替0个或多个字符,而问号可以代替单个字符。 下载文件时,如果Referer头域包含http或https,则必须将Referer设置包含http或https。 空Referer表示HTTP或HTTPS请求中,不带Referer字段或Referer字段为空。如果不允许空Referer,则只有HTTP或HTTPS header中包含Referer字段的请求才能访问ZOS资源。 白名单Referer为空,黑名单Referer不空时,允许所有黑名单中指定网站以外的其他网站的请求访问目标桶中的数据。若对象是私有,黑名单中指定网站以外的其他网站的请求访问时需校验AKSK,有权限的账号才能访问;若对象是公共读,则不校验AKSK权限。 白名单Referer不为空,黑名单Referer为空或不空时,允许在白名单且不在黑名单中的网站的请求访问目标桶中的数据。当请求来源是白名单referer,不管对象是私有还是公共读,无需校验AKSK就能访问。 同时配置白名单和黑名单,当白名单Referer与黑名单Referer内容有交集时,交集部分Referer被禁止。当请求是白名单中非交集的部分,不管对象是私有还是公共读,无需校验AKSK权限就能访问。 黑名单Referer与白名单Referer都为空时,默认允许所有网站的请求访问目标桶中的数据。若对象是私有,需校验AKSK,有权限的账号才能访问;若对象是公共读,则不校验AKSK权限。
        来自:
        帮助文档
        对象存储 ZOS
        用户指南
        数据安全
        防盗链
      • 搭建LNMP环境
        本文主要介绍了在天翼云上如何使用Linux轻量型云主机手工搭建LNMP平台的web环境。 实践场景 LNMP是指一组通常一起使用来运行web网站的软件,是目前按网站的主流架构之一,LNMP包含了Linxu系统下Nginx+MySQL+PHP的服务架构架构,为了帮助用户能够快速搭建起web端服务,本文将介绍如何搭建LNMP平台。 准备工作 需要您在天翼云官网创建一台轻量型云主机,创建时的操作系统选择Linux操作系统。 操作步骤 安装nginx 1. 登录天翼云轻量型云主机控制台,点击“远程登录”, 登录到VNC界面。 2. 下载nginx软件包,执行命令。 wget 说明 用户请根据实际情况补充nginx版本。 3. 安装nginx 软件,依次执行命令。 rpm ivh nginxreleasexxxxx.xx.ngx.noarch.rpm yum y install nginx 4. 设置ngnix开机自行启动,依次执行以下命令。 systemctl start nginx systemctl enable nginx 用户可通过以下命令查看nginx运行状态是否正常。 systemctl status nginx.service 5. 验证ngixn是否安装成功。 通过本地浏览器访问ngixn服务地址(主机弹性IP地址),若显示如下图界面则说明安装成功。 安装MySQL 1. 下载MySQL软件包,于主机命令行依次执行以下命令。 wget i c 说明 用户请根据实际情况补充mysql版本。 2. 安装软件,依次执行以下命令。 yum y install mysql57communityreleasexxxx.noarch.rpm yum y install mysqlcommunityserver nogpgcheck 3. 设置mysql开机自行启动,依次执行以下命令。 systemctl start mysqld systemctl enable mysqld 用户可通过以下命令查看mysql运行状态是否正常。 systemctl status mysqld.service 4. 启动服务后,输入以下命令查询mysql的root初始随机密码。 grep 'temporary password' /var/log/mysqld.log 根据命令行回显信息,可获取到随机密码。如下示例。 [Note] A temporary password is generated for root@localhost: 2YY?3uHUA?Ys 5. 设置新密码,执行以下命令。 mysqlsecureinstallation 根据命令行返回信息,设置新的密码。 Securing the MySQL server deployment. Enter password for user root: 输入初始随机密码 The existing password for the user account root has expired. Please set a new password. New password: 设置新的root用户密码 Reenter new password: 再次输入密码 6. 登录mysql,输入以下命令。 mysql uroot p 7. 根据提示输入密码,完成登录。
        来自:
        帮助文档
        轻量型云主机
        最佳实践
        搭建LNMP环境
      • 负载均衡算法选择配置
        算法 轮询算法 最少连接算法 源算法 原理 轮询算法就是以轮询的方式依次将请求调度不同的服务器。轮询算法可以解决服务器间性能不一的情况,它用相应的权值表示服务器的处理性能,按权值的高低和轮询方式分配请求到各服务器。权值高的服务器先收到连接,权值高的服务器比权值低的服务器处理更多的连接,相同权值的服务器处理相同数目的连接数。 在实际情况中,客户端的每一次请求服务在服务器停留的时间可能会有较大的差异,随着工作时间的延伸,如果采用简单的轮询或随机均衡算法,每一台服务器上的连接进程数目可能会产生极大的不同,这样实际上并没有达到真正的负载均衡。最小连接调度是一种动态调度算法,它通过服务器当前所活跃的连接数来评估服务器的负载情况。与轮询算法相反,调度器需要记录各个服务器已建立连接的数目,当一个请求被调度到某台服务器,其连接数加1;当连接中止或超时,其连接数减1。 根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,如果该服务器不可用,ELB会选择下一个可用服务器做兜底转发。 优势 轮询算法的优点是其简洁性和实用性。它无需记录当前所有连接的状态,所以它是一种无状态调度。 此种均衡算法适合长时处理的请求服务,如FTP等应用。 iphash可以实现部分会话保持的效果,能够记住源 IP,使某一客户端请求通过 hash 表一直映射在同一台后端主机上。 劣势 轮询算法相对简单,但不适用于请求服务时间变化比较大,或者每个请求所消耗的时间不一致的情况,此时轮询算法容易导致服务器间的负载不平衡。 对短连接的服务,服务器连接数变化过于频繁,没有明显优势。 在访问量差异大的场景,容易导致负载不均 适用场景 每个请求所占用的后端时间基本相同,负载情况最好。常用于短连接服务,例如HTTP 等服务。 每个请求所占用的后端时间相差较大的场景。常用于长连接服务。 适用于TCP/UDP协议类型的负载均衡,在不支持会话保持的场景可以使用 iphash 进行调度。
        来自:
        帮助文档
        弹性负载均衡 ELB
        最佳实践
        负载均衡算法选择配置
      • 请求处理程序(Handler)
        本文介绍如何使用Java请求处理程序响应接收到的事件并执行相应的业务逻辑。 请求处理程序 请求处理程序是您提供的一个方法。当您的函数被调用时,函数计算会运行该方法处理请求。 您可以通过函数计算控制台页面配置请求处理程序 ,对于Java语言的函数,请求处理程序需配置为 [包名].[类名]::[方法名]。例如,您的包名为example,类型为App,方法名为handleRequest,则请求处理程序可配置为 example.App::handleRequest。 处理程序接口 您在使用Java编程时,必须要实现函数计算提供的接口类,cruntimecore库为请求处理程序定义了以下接口。 StreamRequestHandler 以流的方式接收输入的事件请求对象并返回执行结果。您需要从输入流中读取调用函数时的输入,处理完成后把函数执行结果写到输出流中来返回。 PojoRequestHandler 以泛型的方式接收输入的事件请求对象并返回执行结果。您可以自定义输入和输出的类型,但是输入和输出的类型必须是POJO类型。 HttpRequestHandler 以标准的Servlet协议方式接收HTTP触发器 的请求并响应执行结果。请求会封装成 HttpServletRequest对象,并通过 HttpServletResponse对象来返回响应头和响应体。 示例:StreamRequestHandler 一个最简单的StreamRequestHandler示例如下所示: package example; import com.ctg.faas.runtime.; import example.util.ServletUtil; import java.io.IOException; import java.io.InputStream; import java.io.OutputStream; public class StreamHandler implements StreamRequestHandler { @Override public void handleRequest(InputStream input, OutputStream output, Context context) throws IOException { FunctionComputeLogger logger context.getLogger(); logger.info("StreamRequestHandler hello"); String inStr ServletUtil.getInputString(input); logger.info("input :"+inStr); String req String.format("input: %sn", inStr); output.write(req.getBytes()); output.flush(); output.close(); } } 包名和类名 包名和类名可以自定义。 实现的接口 您的代码中必须要实现函数计算预定义的接口。上述的代码示例中实现了 StreamRequestHandler,其中的input 参数为调用函数时传入的数据,output参数用于返回函数的执行结果。 Context参数 Context参数中包含一些函数的运行时信息(例如RequestId、临时AccessKey等),其类型是 com.ctg.faas.runtime.Context。 返回值 实现 StreamRequestHandler接口的函数通过output参数返回执行结果。 引入的依赖 其中用到的 com.ctg.faas.runtime包的maven依赖坐标如下: com.ctg.faas.runtime fcruntimecore 1.0.0SNAPSHOT
        来自:
        帮助文档
        函数计算
        用户指南
        代码开发
        Java
        请求处理程序(Handler)
      • 入门必读
        本文主要介绍入门必读 性能测试是一项为基于HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTPFLV等协议构建的云应用提供性能测试的服务。服务支持快速模拟大规模并发用户的业务高峰场景,可以很好的支持报文内容和时序自定义、多事务组合的复杂场景测试,测试完成后会为您提供专业的测试报告呈现您的服务质量。 通过简单的四步操作,您就可以完成一次性能测试。 性能测试步骤 性能测试提供体验馆功能,通过体验向导,帮助您快速熟悉性能测试的使用流程。 基本概念 测试工程: 性能测试为用户的测试工程提供管理能力,事务、压测任务、测试报告的内容在同一个测试工程内共享复用,您可以为不同的测试项目创建不同的测试工程。 事务: 事务是指用户自定义的操作模型,包括HTTP/HTTPS/TCP/UDP/WEBSOCKET报文、思考时间、响应提取和检查点和HLS/RTMP/HTTPFLV报文部分。 报文: 报文是HTTP应用程序之间发送的数据块。这些数据块以一些文本形式的元信息开头,这些信息描述了报文的内容及含义,后面跟着可选的数据部分。这些报文都是在客户端、服务器和代理之间流动。 思考时间: 为了更好的模拟用户的行为,需要模拟用户在不同操作之间等待的时间,例如,当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟,就称为思考时间。 响应提取: 如果同一事务中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 检查点: 检查点主要是通过自定义校验信息来验证服务端的返回内容是否正确。 并发用户数: 在性能测试工具中,并发用户数一般被称为虚拟用户数。注意“并发用户数”和“在线用户数”的区别:“并发用户数”会对服务器产生压力,“在线用户数”只是挂在系统上,对服务器不产生压力。 响应时间: 用户从客户端发起一个请求开始,到客户端接收到从服务器端返回的响应结束,整个过程所耗费的时间。在性能检测中一般以测试环境中压力发起端至服务器返回处理结果的时间为计量,单位一般为秒或毫秒,该时间不同于模拟真实环境的用户体验时间。 不同行业不同业务可接受的响应时间是不同的。一般情况下,互联网企业在500毫秒以下;金融企业1秒以下为佳;保险企业3秒以下为佳。
        来自:
        帮助文档
        性能测试PTS
        快速入门
        入门必读
      • 回源参数改写
        本文简述回源参数改写使用场景和配置说明。 功能介绍 回源参数改写功能可改写回源请求URL中的查询参数,即问号后的参数值。可支持参数的新增、删除、修改,以及保留或忽略所有参数。 适用场景 如果您需要原始请求URL中的参数与发送给源站的参数不同,可通过回源参数改写功能来修改回源请求URL中的参数。 注意事项 如果同时配置了回源参数增删改和忽略全部参数,忽略回源参数的优先级更高,回源参数增删改全部失效,即最终生效的是忽略所有参数的效果。 如果同个参数配置了增加、修改、删除,则最终生效结果为按照配置下发先后顺序依次执行后的效果;例如先配置添加参数a1,再删除参数a,则最终参数a添加无效;如先配置删除参数a,再添加参数a1,则最终参数a1添加生效。 回源参数改写功能不影响缓存key,缓存key可单独设置。 配置说明 忽略回源参数 参数名 配置值 说明 忽略回源参数 停用/启用 默认为停用,即回源不忽略参数,启用则忽略所有参数回源。 回源参数规则 点击“回源参数规则添加规则”则弹出对应字段参数填写: 参数名 配置值 说明 改写参数模式 追加/覆盖 追加:可通过追加实现在原有参数基础上进行新增,删除,修改。 覆盖:覆盖原有参数,参数以覆盖后的配置为准,如仅保留部分参数或者替换全部参数。 优先级 默认10 配置下发优先级;存在多条回源参数规则时,按照优先级从低到高依次执行,数字越大,优先级越高。 参数名:参数值 需配置的参数名和参数值: 1、追加参数a,值为123,则如果原来无参数a,则新增参数a,且值为123;如果原来有参数a,则修改参数a的值为123。 2、追加参数a,值为空,则代表删除参数a。 3、覆盖参数a,则参数值可为固定值,也可为某个参数变量,或其他变量: 1)覆盖参数a,参数值为123,则无论原来是否有参数a以及是否有值,均去掉原有的所有参数,替换为参数a,且值为123。 2)覆盖参数a,参数值为$arga,则仅保留参数a回源,且其值取原始请求参数a的值。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源参数改写
      • 业务过载最佳实践
        本节介绍Kafka业务过载最佳实践 方案概述 Kafka业务过载,一般表现为CPU使用率高、磁盘写满的现象。 当CPU使用率过高时,系统的运行速度会降低,并有加速硬件损坏的风险。 当磁盘写满时,相应磁盘上的Kafka日志目录会出现offline问题。此时,该磁盘上的分区副本不可读写,降低了分区的可用性和容错能力。同时由于Leader分区迁移到其他节点,会增加其他节点的负载。 CPU使用率高的原因 数据操作相关线程数(num.io.threads、num.network.threads、num.replica.fetchers)过多,导致CPU繁忙。 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。 磁盘写满的原因 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。 Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。 实施步骤 CPU使用率高的处理措施: 优化线程参数num.io.threads、num.network.threads和num.replica.fetchers的配置。 num.io.threads和num.network.threads建议配置为磁盘个数的倍数,但不能超过CPU核数。 num.replica.fetchers建议配置不超过5。 合理设置Topic的分区,分区一般设置为节点个数的倍数。 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。 磁盘写满的处理措施: 扩容磁盘,使磁盘具备更大的存储空间。 迁移分区,将已写满的磁盘中的分区迁移到本节点的其他磁盘中。 合理设置Topic的数据老化时间,减少历史数据的容量大小。 在CPU资源情况可控的情况下,使用压缩算法对数据进行压缩。 常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。 可以在生产者端配置“compression.type”参数来启用指定类型的压缩算法。 Properties props new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("acks", "all"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 开启GZIP压缩 props.put("compression.type", "gzip"); Producer producer new KafkaProducer<>(props);
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务过载最佳实践
      • HTTP3.0(QUIC)协议
        本文介绍HTTP3.0的工作原理和使用说明。 功能介绍 QUIC全称:Quick UDP Internet Connections,是一种实验性传输层网络协议,提供与TLS/SSL相当的安全性,同时具有更低的连接和传输延迟。QUIC目前主要应用于HTTP协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 1. 传输层使用UDP,减少1个RTT三次握手的延迟。 2. 加密协议采用TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流的数据传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移 当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现瞬间卡顿。这是因为,TCP采用四元组(包括源站IP、源站端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态地增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        HTTP3.0(QUIC)协议
      • 备份迁移
        本节主要介绍备份迁移 备份迁移场景最后一个备份文件选择错误该如何处理 备份迁移过程中,根据选择“最后一个备份文件”来判断是否为最后一次备份,对于人工操作中不可控的误选择,有以下两种情况及处理方法: 选择“是”,但原本期望为否,即仍然希望继续做增量备份迁移。但由于SQL Server本身的设计,数据库一旦收到还原已完成的信号,便会做一系列的内部工作并把数据库置为可用,已无法继续增量备份迁移。此时,只能删除备份数据库重新进行全量+增量的备份还原。 选择“否”,但原本期望为是,即不希望继续恢复增量备份迁移。其实SQL Server没有严格意义上的的最后一个备份文件,此时可以再做一个增量备份(即使没有数据改变也可以备份),在该次增量备份时选择“是”即可完成迁移,相关数据库将会变为可用。 手动配置信息 操作场景 目前从本地或虚拟机通过DRS备份迁移功能直接迁移到本云RDS for SQL Server实例上,在迁移完成后还需要针对Login账号,DBLink,AgentJOB,关键配置进行识别,并手动完成相关同步工作。 Login账号 Login账号即SQL Server的实例级账号,主要用于用户管理用户服务器权限与数据库权限。一个用户通常会有多个该类型账号,用户迁移到RDS for SQL Server实例后,需要手动将自己本地的Login账号同步在实例上进行创建,以下方法将介绍如何在本云RDS for SQL Server实例上创建同名,同密码的Login账号,并进行授权操作。 步骤 1 通过以下脚本获取本地实例Login账号创建脚本,获取到的脚本可以直接在目标端上执行,以创建同名,同密码的Login账号。 SELECT 'IF (SUSERID('+QUOTENAME(SP.name,'''')+') IS NULL) BEGIN CREATE LOGIN ' +QUOTENAME(SP.name)+ CASE WHEN SP.typedesc 'SQLLOGIN' THEN ' WITH PASSWORD ' +CONVERT(NVARCHAR(MAX),SL.passwordhash,1)+ ' HASHED,SID' +CONVERT(NVARCHAR(MAX),SP.SID,1)+',CHECKEXPIRATION ' CASE WHEN SL.isexpirationchecked 1 THEN 'ON' ELSE 'OFF' END +', CHECKPOLICY ' +CASE WHEN SL.ispolicychecked 1 THEN 'ON,' ELSE 'OFF,' END ELSE ' FROM WINDOWS WITH' END ' DEFAULTDATABASE[' +SP.defaultdatabasename+ '], DEFAULTLANGUAGE[' +SP.defaultlanguagename+ '] END;' as CreateLogin FROM sys.serverprincipals AS SP LEFT JOIN sys.sqllogins AS SL ON SP.principalid SL.principalid WHERE SP.type 'S' AND SP.name NOT LIKE '
        来自:
        帮助文档
        数据库复制
        常见问题
        备份迁移
      • 线下OpenStack环境导入公有云环境
        cat CentOSOpenStackrocky.repo [centotackrocky] nameopenstackrocky baseurl enabled1 gpgcheck0 [qumekvm] nameqemukvm baseurl enabled1 gpgcheck0 7. 执行以下命令,安装packstack。 plaintext 安装leatherman yum y install leatherman 安装packstack yum y install openstackutils openstackpackstack 8. 执行以下命令,生成应答文件并编辑配置文件。 plaintext packstack genanswerfile/root/openstack.ini vim openstack.ini 除修改以下所列项外,其他项不保持变(密码字段,可根据需要自行修改,这里全部配置为了 123456) CONFIGDEFAULTPASSWORD123456 CONFIGAODHINSTALLn CONFIGMARIADBUSERroot CONFIGMARIADBPW123456 CONFIGKEYSTONEDBPW123456 CONFIGKEYSTONEADMINEMAILroot@localhost CONFIGKEYSTONEADMINUSERNAMEadmin CONFIGKEYSTONEADMINPW123456 CONFIGNEUTRONML2TYPEDRIVERSvxlan,flat CONFIGNEUTRONML2TENANTNETWORKTYPESvxlan CONFIGNEUTRONML2MECHANISMDRIVERSopenvswitch CONFIGNEUTRONL2AGENTopenvswitch CONFIGNEUTRONOVSBRIDGEMAPPINGSextnet:brex CONFIGNEUTRONOVSBRIDGEIFACESbrex:eth0 CONFIGNEUTRONOVSEXTERNALPHYSNETextnet CONFIGPROVISIONDEMOn 9. 执行以下命令,通过应答文件进行安装。 plaintext packstack answerfile/root/openstack.ini 10. 打开浏览器,输入 11. 执行以下命令,导入镜像。 plaintext openstack image create "centos" file centos.img diskformat qcow2 containerformat bare public 12. 执行以下命令,创建网络。 plaintext openstack create net vnet openstack network create providernetworktypeflat providerphysicalnetworkextnet external share extnet 13. 执行以下命令,创建子网。 plaintext openstack subnet create subnet1 network int subnetrange 172.16.1.0/24 gateway 172.16.1.1 openstack subnet create ex network extnet gateway 192.168.101.254 allocationpool start192.168.101.200,end192.168.101.205 subnetrange 192.168.101.0/24 14. 执行以下命令,创建路由。 plaintext openstack router create route openstack router add subnet route ex openstack router add subnet route subnet1 15. 执行以下命令,创建规格。 plaintext openstack flavor create vcpus 1 ram 512 disk 10 test1 16. 执行以下命令,创建密钥。 plaintext openstack keypair create cy 17. 执行以下命令,创建虚拟机。 plaintext openstack server create flavor test1 image centos nic netidcc9d7710d82e4109941256ae02a18d7d securitygroup default keyname cy test 18. 执行以下命令,连接虚拟机并上传qemuga、cloudinit以及virtio组件。 下载路径在“镜像服务”>“私有镜像”>“创建私有镜像”页面中连接下载。 根据说明文档安装后关闭虚拟机。 19. 执行以下命令,将云主机转为image。 plaintext openstack server image create 1b1d3411b75549809da6db01d8331600 name cytestimg 20. 执行以下命令,将image保存到本地(此时的镜像为raw格式)。 plaintext openstack server image create 1b1d3411b75549809da6db01d8331600 name cytestimg 21. 执行以下命令,将镜像转换为qcow2格式(防止镜像过大,上传到桶失败)。 plaintext qemuimg convert f raw o qcow2 cytestimg centos.qcow2 22. 将镜像上传到天翼云。 进入对象存储原生版,创建桶后,上传镜像到桶中(镜像较大建议通过oss api上传)。 23. 创建私有镜像。 通过“镜像服务”>“私有镜像”>“创建私有镜像”,选择镜像文件并填写对象的地址,然后转为私有镜像。 其中,地址可以在对象存储控制台中的“更多”>“复制URL”选项中复制获得。 24. 创建成功后,“弹性云主机”>“创建云主机”,镜像处选择私有镜像。创建完成后可进入云主机查看数据完整性。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建环境相关最佳实践
        线下OpenStack环境导入公有云环境
      • 创建API
        变量名 ”的形式将环境变量添加到后端服务地址中,如 ipaddress 。支持添加多个环境变量,如 ipaddress test。 l 路径 后端服务的路径,即服务的uri,可以包含路径参数,以{路径参数}形式表示,比如/getUserInfo/{userId}。 如果请求路径中含有环境变量,则使用变量名的方式将环境变量定义到请求路径中,如/path。支持创建多个环境变量,如/path request 。 自定义host头域 仅在使用负载通道时,可设置 。 在请求被发送到负载通道中主机前,允许您自定义请求的host头域,默认将使用请求中原始的host头域。 后端超时(ms) 后端服务请求的超时时间,可填写范围1ms~60000ms。 如果在API调试过程中,遇到后端响应超时之类的错误,请适当调大后端超时时间,以便排查原因。 说明 如果当前的超时时间范围不能满足实际业务需求,请在实例配置参数中修改超时时间上限,可修改范围为1ms~600000ms。如果您修改了超时时间上限,需要同步修改此处的超时时间。 重试次数 后端服务请求失败后的重试次数,默认值为0,取值范围1~10。 l 值为1时,表示不开启重试功能,但除POST和PATCH外的其他请求类型会默认重试1次。 l 值为010时,表示开启重试功能,并根据设置的值执行重试。当值为0时,不重试。 使用负载通道时 ,重试次数应小于负载通道中已启用的后端服务器个数。 TLS双向认证 仅在协议为“HTTPS ”时,可设置。 选择是否在API网关和后端服务间启用双向认证,如果选择“使用backendclientcertificate配置的证书做客户端认证”,您需在实例的“配置参数”中提前配backendclientcertificate证书。 后端认证 当您的后端服务需要对API调用增加自己的认证,则开启后端认证。 后端认证需要先添加一个自定义认证,自定义认证通过函数服务实现,在函数服务中编写一个函数,实现您的认证鉴权流程,或者使用函数调用您的统一鉴权服务。 说明 后端认证依赖函数服务,此功能仅在部分区域开放。 表 Mock类型定义后端服务 信息项 描述 Mock自定义返回码 选择API响应的HTTP状态码。 Mock返回结果 Mock一般用于开发调试验证。在项目初始阶段,后端服务没有搭建好API联调环境,可以使用Mock模式,将预期结果固定返回给API调用方,方便调用方进行项目开发。 后端认证 选择相关的后端认证。 添加header参数 自定义API响应的header参数。 单击“添加header参数”,并填写参数名、参数值和参数描述。 说明 在URL中配置了变量标识后,在API调试页面将无法调试。 如果在URL中设置变量,那么必须在待发布环境上配置变量名和变量值,否则变量无法赋值,API将无法正常调用。 变量名严格区分大小写。 步骤 2 (可选)配置默认后端的后端服务参数,将调用API时传入的请求参数映射到后端服务请求的对应位置。如未定义请求参数,可直接跳过此步骤。 1. 在“后端服务参数”下,可通过以下任意一种方法添加后端服务参数。 单击“导入入参定义”,把所有已定义的API请求参数添加到后端服务参数。 单击“添加后端参数映射”,按需逐个添加后端服务参数。 2. 根据后端服务实际的参数名称和参数位置修改映射关系,如下图 所示。 图 配置后端服务参数 a. 后端参数在“PATH”位置,那么参数名称需要和“路径”中的名称相同。 b. 调用API的请求参数名称、位置可以与后端参数名称、位置不同。 说明 参数名不能是xapig 、xsdk开头,不区分大小写。 参数名不能是xstage,不区分大小写。 参数位置为HEADER时,参数名不区分大小写,也不支持下划线开头。 c. 如上图,test01和test03在调用API时分别配置于PATH和QUERY位置,后端服务通过映射,将在HEADER位置接收test01和test03的值。test02在调用API时配置于HEADER位置,后端服务通过映射,将在PATH位置以参数名test05来接收test02的值。 假设test01为aaa,test02为bbb,test03为ccc。 API调用请求: curl ik H 'test02:bbb' X GET 后端服务请求: curl ik H 'test01:aaa' H 'test03:ccc' X GET 步骤 3 (可选)配置默认后端的常量参数。如果后端服务需要接收固定的常量信息,可以通过设置常量参数来实现。API网关向后端服务发送请求时,将常量参数添加到请求的指定位置,然后将请求发送给后端服务。 在“常量参数”下,单击“添加常量参数”,添加后端服务请求的常量参数。 注意 常量参数会明文展示,为防止信息泄露,请谨慎配置。 表 常量参数配置 信息项 描述 常量参数名 填写常量参数的名称。“参数位置”为“PATH”时,参数名需要与“路径”中的参数名称一致。 说明 参数名不能以xapig 、xsdk开头,不能是xstage,不区分大小写。 参数位置为HEADER时,参数名不支持下划线开头,不区分大小写。 参数位置 选择常量参数在后端服务请求中的位置,可选择“PATH”、“HEADER”和“QUERY”。 参数值 填写常量参数的值。 描述 填写常量参数的描述信息。 说明 API网关将包含常量参数的请求发送给后端服务前,会对特殊参数值进行百分号编码,请确保后端服务支持百分号编码。例如,参数值[api],在百分号编码后变为%5Bapi%5D。 对于PATH位置的参数值,API网关会对如下字符进行百分号编码:ASCII码为0到31的字符、?、>、<、/、%、
        来自:
        帮助文档
        API网关
        开放API网关
        API管理
        创建API
      • 年龄回收类问题
        本页介绍天翼云TeleDB数据库年龄回收类问题。 事务回卷问题 问题描述 当事务未能正常回收持续一段时间,库年龄达到上限后。 报错如下,此时数据库还可以访问,但不允许写入: ERROR: database is not accepting commands to avoid wraparound data loss in database "xxx" HINT: Stop the postmaster and vacuum that database in singleuser mode 可能影响 如果CN主节点年龄回卷,那么这个CN主节点会变成只读状态; 如果某个DN主节点年龄回卷,那么写入到这个DN主节点数据SQL会报错。 解决步骤 1. 执行SQL,检查引起年龄回收问题的库: > SELECT datname, age(datfrozenxid) FROM pgdatabase where age(datfrozenxid)>200000000; 2. 连接年龄回卷的库,执行SQL,检查引起年龄回收问题的表; SELECT pgnamespace.nspname as schemaname,relname, age(relfrozenxid) as xidage, pgsizepretty(pgtablesize(pgclass.oid)) as tablesize FROM pgclass,pgnamespace WHERE pgnamespace.oidpgclass.relnamespace and age(relfrozenxid)>200000000 and relfrozenxid ! 0 order by age(relfrozenxid) desc; 3. 控制台停止该节点; 4. 手动启动节点(指定报错提示中的数据库)进入单用户模式 > postgres single D ./ xxx(database) 5. 手动执行vacuum或vacuum full回收问题表,如遇到报错,需要先解决相应报错; 6. ctrl+d退出单用户模式,控制台启动该节点。 年龄回收冲突问题 问题描述 年龄回收时,报冲突错误,如: ERROR: tuple cannot be frozen now, please try later xid 802439820 cutoff xid 958123080 committs 25144982436271 RecentDataTs 25144852436271 RecentGlobalXmin 1058123080 RecentGlobalDataXmin 1058123080k
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        年龄回收类问题
      • 云硬盘的使用状态
        本文带您了解云硬盘的使用状态。 云硬盘的使用状态具体如下表: 状态分类 云硬盘状态 状态说明 操作说明 中间状态资源类 创建中 该云硬盘正在创建中。 操作限制以控制台为准。 中间状态资源类 挂载中 已创建的云硬盘正在挂载至弹性云主机或物理机中。 操作限制以控制台为准。 中间状态资源类 卸载中 正在将云硬盘从弹性云主机或物理机上卸载下来。 操作限制以控制台为准。 中间状态资源类 删除中/退订中 按需/包年包月购买的云硬盘正在删除/退订。 操作限制以控制台为准。 中间状态资源类 销毁中 已到期/已冻结的云硬盘正在被销毁中。 操作限制以控制台为准。 中间状态资源类 扩容中 为云硬盘增加容量中。 操作限制以控制台为准。 中间状态资源类 修改磁盘类型中 正在修改云硬盘的磁盘类型。 操作限制以控制台为准。 中间状态资源类 备份创建中 该云硬盘正在创建备份。 操作限制以控制台为准。 中间状态资源类 备份恢复中 该云硬盘正在从备份恢复数据中。 操作限制以控制台为准。 中间状态资源类 快照创建中 该云硬盘正在创建快照。 操作限制以控制台为准。 中间状态资源类 回滚中 正在使用云硬盘快照回滚数据中。 操作限制以控制台为准。 中间状态资源类 镜像制作中 该云硬盘正在创建镜像。 操作限制以控制台为准。 中间状态资源类 加组中 该云硬盘正在被加入一致性组中。 操作限制以控制台为准。 非中间状态资源类 已挂载 该云硬盘已挂载至弹性云主机或物理机。 操作限制以控制台为准。 非中间状态资源类 未挂载 该云硬盘未挂载至弹性云主机或物理机。 操作限制以控制台为准。 中间状态计费类 主订单未完成 随主机购买的云硬盘未完成,正在订单支付中。 操作限制以控制台为准。 中间状态计费类 主订单退订中 随主机购买的云硬盘订单正在退订中。 操作限制以控制台为准。 中间状态计费类 主订单已退订 随主机购买的云硬盘订单已退订。 操作限制以控制台为准。 非中间状态计费类 未实名认证 账户未实名认证,导致部分功能受限。 操作限制以控制台为准。 非中间状态计费类 已冻结 按需订购的云硬盘,在用户账户欠费后,云硬盘将进入冻结期,此时云硬盘状态为“已冻结”。 操作限制以控制台为准。 非中间状态计费类 已到期 包周期订购的云硬盘到期后,云硬盘将进入保留期,此时云硬盘状态为“已到期”。 操作限制以控制台为准。 异常状态 错误 云硬盘出现错误状态,可通过提交工单来解决。 操作限制以控制台为准。 异常状态 恢复失败 该云硬盘从备份恢复数据失败。 操作限制以控制台为准。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        附录
        云硬盘的使用状态
      • 规格选型指导
        本文介绍如何根据业务场景选择合适的天翼云弹性云主机实例。 规格选型背景介绍 进行弹性云主机选型之前,您需要根据资源需求、可用性和可靠性、成本等因素,做出性价比最优的决策。通常需要考虑以下几个方面: 预估资源需求:针对不同的业务需求,结合业务的使用场景、负载大小、流量等因素,预估需要的CPU、内存、存储等资源,以此来选择合适的弹性云主机实例类型。 可用性要求:根据业务可用性要求,选择不同可用区或者不同地域的弹性云主机部署业务,提高业务系统的容灾能力。 可靠性要求:选择弹性云主机实例时,综合考虑业务架构整体的可靠性要求,选择与数据库、中间件等产品相匹配的弹性云主机,确保实例能够持续稳定地运行。 考虑成本:不同的实例类型价格不同,一般来说更大的内存、vCPU、带宽价格更高,需要权衡性价比,根据实际需求选择合适的实例类型。 场景选型 常见业务选型推荐 业务场景 选型原则 推荐实例类型 Web服务器、开发测试环境以及小型数据库应用等场景。 计算、存储、内存等资源需求平衡,无特定配置要求。 通用型,推荐最小规格为2核4G通用型云主机 计算性能高且稳定的企业级应用,如大规模数据处理、在线游戏等。 对CPU 或内存等计算资源要求较高,具有性能稳定且资源独享的特点。 计算型,推荐最小规格为2核4G计算型云主机 大型数据库、高性能计算、NoSQL等场景。 内存要求较高、需要大量数据计算。 内存型,推荐最小规格为2核16G内存型云主机 在深度学习、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域场景,适用于科学计算等。 采用GPU直通技术,能够提供超高的通用计算能力。选型详见:NVIDIA驱动安装指引GPU云主机用户指南安装NVIDIA驱动 天翼云 (ctyun.cn)。 GPU计算加速型,推荐最小规格为16核64G GPU计算加速型云主机 高清视频、图形渲染、远程桌面等场景。 提供图形处理器(GPU)及较高的计算性能配置,镜像默认安装GRID驱动可以适用于图形渲染要求较高的应用。选型详见:NVIDIA驱动安装指引GPU云主机用户指南安装NVIDIA驱动 天翼云 (ctyun.cn)。 GPU图形加速基础型,搭配GRID驱动,推荐最小规格为8核24G GPU图形加速基础型云主机 注意 选择区域:不同区域的云服务之间内网互不相通;请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。具体操作请参见如何选择区域。 选择可用区:同一可用区内网互通,不同可用区之间物理隔离。如果您需要提高应用的高可用性,建议您将弹性云主机创建在不同的可用区内。具体操作请参见如何选择可用区。
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        规格选型指导
      • 关联MySQL设置
        属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即 balance 0 ,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即 balance 1 ,表示开启读写分离,所有事务外( autocommit1 )的SELECT语句发往读节点;所有事务内( autocommit0 )的语句发往写节点。 读语句随机发往读库和写库 :即 balance 2 ,表示开启读写分离,所有事务外( autocommit1 )的SELECT语句随机发往读节点或写节点;所有事务内( autocommit0 )的语句发往写节点。 自定义权重 :即 banlance 3 ,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅 读写分离配置 设置为 自定义权重 时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • storage-driver(系统资源插件,必装)
        插件简介 storagedriver插件是用于对接块存储、极速文件存储等Iaas存储服务的FlexVolume驱动。 storagedriver是一款云存储驱动插件,北向遵循标准容器平台存储驱动接口。实现Kubernetes Flex Volume标准接口,提供容器使用云硬盘、极速文件存储等IAAS存储的能力。通过安装升级云存储插件可以实现云存储功能的快速安装和更新升级。 该插件为系统资源插件,kubernetes 1.13 及以下版本的集群在创建时默认安装。 说明: v1.15.11r1是Flexvolume fuxi(即storagedriver)和CSI(即Everest(系统资源插件,必装)插件)兼容接管的过渡版本,在v1.17集群中已经去除了对Flexvolume fuxi的支持,请您将Flexvolume fuxi的使用切换CSI Everest上。 CSI Everest兼容接管Flexvolume fuxi后,原有功能保持不变,但请注意不要新建fuxi Flexvolume的存储,否则将导致部分存储功能异常。 当存储功能有升级或者BUG修复时,用户无需升级集群或新建集群来升级存储功能,仅需安装或升级storagedriver插件。 约束与限制 本插件仅支持在v1.13 及以下版本的集群中安装,v1.15及以上版本集群创建时默认必装Everest(系统资源插件,必装)插件。 安装插件 本插件为系统默认安装,若因特殊情况卸载后,可参照如下步骤重新安装。 在云容器引擎CCE中,kubernetes 1.11及以上版本的新建集群,将会默认安装storagedriver插件。 未安装storagedriver插件的集群,可参考如下步骤进行安装: 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件市场”页签下,单击storagedriver插件下的“安装插件”。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 云存储插件暂未开放可配置参数,直接单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 升级插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击storagedriver下的“升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作。 升级storagedriver插件时,会替换原先节点上的旧版本的storagedriver插件,安装最新版本的storagedriver插件以实现功能的快速升级。 步骤 2 在基本信息页面选择插件版本,单击“下一步”。 步骤 3 云存储插件暂未开放可配置参数,直接单击“升级”即可升级storagedriver插件。 卸载插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击storagedriver下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        storage-driver(系统资源插件,必装)
      • 使用Elasticsearch实例向量检索功能增强搜索能力
        本文为您介绍如何使用Elasticsearch实例中的向量检索能力,增强实例的搜索能力。 概述 向量检索(Vector Search)是Elasticsearch的高级功能,允许用户在高维向量空间中进行相似性搜索,超越了传统的关键词匹配方式。通过将文本、图像等数据转换为向量表示,基于向量之间的距离进行搜索,适合自然语言处理、推荐系统和计算机视觉等复杂场景。 天翼云云搜索服务开通的Elasticsearch 支持通过近似最近邻(ANN)搜索算法实现高效的向量索引结构,使得在处理大规模数据集时依然能保持高效的查询速度和准确性。 前提条件 已开通天翼云云搜索服务 Elasticsearch 集群。 Elasticsearch 版本支持KNN向量检索功能(当前版本默认支持)。 本地环境已配置好API访问权限,且能够通过API与集群通信。 操作步骤 1. 创建支持向量检索的索引,需要创建一个支持向量检索的索引。可以使用以下命令为一个包含向量字段的索引启用 KNN 功能。 PUT myknnindex1 { "settings": { "index": { "knn": true, "knn.algoparam.efsearch": 100 } }, "mappings": { "properties": { "category": { "type": "keyword" }, "brand": { "type": "keyword" }, "style": { "type": "keyword" }, "myvector": { "type": "knnvector", "dimension": 3 } } } } knn: 设置为 true 启用向量检索。 dimension: 定义向量的维度,在这个例子中为 3。 2. 插入向量数据,创建索引后,可以插入带有向量字段的数据文档。以下是插入不同类型商品的向量示例: PUT myknnindex1/doc/1 { "category": "electronics", "brand": "brandA", "style": "modern", "myvector": [0.5, 0.8, 0.3] } PUT myknnindex1/doc/2 { "category": "furniture", "brand": "brandB", "style": "vintage", "myvector": [0.2, 0.4, 0.7] } PUT myknnindex1/doc/3 { "category": "clothing", "brand": "brandC", "style": "casual", "myvector": [0.9, 0.1, 0.6] } 3. 执行向量检索查询,插入数据后,用户可以通过查询指定的向量来查找与之相似的数据。以下示例将基于向量 [0.5, 0.8, 0.3] 进行KNN检索,返回与之最相似的2条记录。 POST myknnindex1/search { "size": 10, "query": { "knn": { "myvector": { "vector": [0.5, 0.8, 0.3], "k": 2 } } } } vector: 查询的向量值。 k: 返回与查询向量最相似的k个结果,此处为2。 4. 查询返回示例,返回结果中将包含与查询向量最相似的文档及其相似度得分(score): { "took" : 654, "timedout" : false, "shards" : { "total" : 1, "successful" : 1, "skipped" : 0, "failed" : 0 }, "hits" : { "total" : { "value" : 3, "relation" : "eq" }, "maxscore" : 1.0, "hits" : [ { "index" : "myknnindex1", "id" : "1", "score" : 1.0, "source" : { "category" : "electronics", "brand" : "brandA", "style" : "modern", "myvector" : [0.5, 0.8, 0.3] } }, { "index" : "myknnindex1", "id" : "2", "score" : 0.7092199, "source" : { "category" : "furniture", "brand" : "brandB", "style" : "vintage", "myvector" : [0.2, 0.4, 0.7] } } ] } } 通过这些步骤,用户可以在Elasticsearch集群上实现基于向量的高效相似性搜索,支持从多维数据中快速找到最相似的结果,从而提升搜索体验和智能化水平。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        使用Elasticsearch实例搜索数据
        使用Elasticsearch实例向量检索功能增强搜索能力
      • (可选)自定义工作空间角色
        本章节主要介绍数据治理中心DataArts Studio如何添加工作空间成员和角色。 对于DAYU User账号权限的IAM用户而言,DataArts Studio工作空间角色决定了其在工作空间内的权限,当前有管理员、开发者、部署者、运维者和访客这几种预置角色可被分配,角色的权限说明请参见产品介绍中的“DataArts Studio权限列表”章节。 如果预置角色可以满足您的使用需求,则您可以跳过本章节;否则,请您按照本章节描述创建自定义角色。 背景信息 DAYU Administrator 或Tenant Administrator账号可以在工作空间中创建自定义角色。 约束与限制 由于鉴权缓存机制的限制,自定义角色的权限发生变更后,绑定该角色的工作空间成员权限不会直接生效。需要绑定该角色的工作空间成员暂停访问DataArts Studio控制台并等待6分钟后,才能使该工作空间成员的权限变更生效。 对于工作空间管理员角色,即使自定义角色与其权限点相同,也无法进行某些需要校验管理员角色的操作。例如全量导出数据服务API等。 操作步骤 步骤 1 参考 访问DataArts Studio实例控制台,以DAYU Administrator 或Tenant Administrator账号登录DataArts Studio管理控制台。 步骤 2 在“角色管理”页签,单击“新建”,弹出“创建自定义角色”对话框。 角色名称:标识自定义角色的唯一标识。建议您按照该角色的使用场景等进行命名,避免无意义的描述。 角色描述:补充对该角色的相关说明,如与预置角色的关键权限差异等。 角色类型:由于简单模式与企业模式下角色权限有所差异,因此需要根据该角色的使用场景来选择角色类型。企业模式的相关介绍请参见4.2.2.1 DataArts Studio企业模式概述。 − 当该角色在简单模式空间下使用时,选择为“开发&生产模式,自定义角色”。 − 当该角色在企业模式空间下的开发环境下使用时,选择为“开发模式,自定义角色”。 − 当该角色在企业模式空间下的生产环境下使用时,选择为“生产模式,自定义角色”。 复用预置角色:如果您只需对预置角色权限进行微调即可满足需求,则可以使用“复用预置角色”功能,直接在预置角色权限的基础上进行调整;否则,您可以在空白权限的基础上勾选该角色所需权限。 说明 创建/编辑角色时,如果您当前账号已具备DAYU Administrator或Tenant Administrator权限,但系统仍然返回报错“您无权限进行该操作”,这可能是由于网络限制导致的,建议您切换到其他网络后重试。 图1 创建自定义角色 步骤 3 自定义角色的角色名称、类型、权限等配置完成后,单击“确定”即可新增自定义角色。 步骤 4 自定义角色完成后,请您参考 添加工作空间成员和角色,将IAM用户设置为自定义角色。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        准备工作
        授权用户使用DataArts Studio
        (可选)自定义工作空间角色
      • 配置HTTP源端参数
        本章节主要介绍配置HTTP源端参数。 作业中源连接为HTTP连接时,源端作业参数如下表所示。当前只支持从HTTP URL导出数据,不支持导入。 表 HTTP/HTTPS作为源端时的作业参数 参数名 说明 取值样例 文件URL 通过使用GET方法,从HTTP/HTTPS协议的URL中获取数据。 用于读取一个公网HTTP/HTTPS URL的文件,包括第三方对象存储的公共读取场景和网盘场景。 列表文件 选择“是”,将待上传的文本文件中所有URL对应的文件拉取到OBS,文本文件记录的是HDFS上的文件路径。 是 列表文件源连接 文本文件存储在OBS桶中,这里需要选择已建立的OBS连接。 obslink 列表文件OBS桶 存储文本文件的OBS桶名称。 obscdm 列表文件或目录 在OBS中存储文本文件文件的自定义目录,多级目录可用“/”进行分隔。 test1 文件格式 当前CDM只支持选择“二进制格式”,不解析文件内容直接传输,不要求原文件格式必须为二进制。 二进制格式 压缩格式 选择对应压缩格式的源文件进行迁移: 无:表示传输所有格式的文件。 GZIP:表示只传输GZIP格式的文件。 ZIP:表示只传输ZIP格式的文件。 TAR.GZ:表示只传输TAR.GZ格式的文件。 无 压缩文件后缀 压缩格式非无时,显示该参数。 该参数需要解压缩的文件后缀名。当一批文件中以该值为后缀时,才会执行解压缩操作,否则则保持原样传输。当输入或为空时,所有文件都会被解压。 文件分隔符 传输多个文件时,CDM使用这里配置的文件分隔符来区分各个文件,默认为l。列表文件显示为“是”时,显示该参数。 l QUERY参数 该参数设置为“是”时,上传到OBS的对象使用的对象名,为去掉query参数后的字符。 该参数设置为“否”时,上传到OBS的对象使用的对象名,包含query参数。 否 加密方式 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法: 无:不解密,直接导出。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 AES256GCM 忽略不存在原路径/文件 如果将其设为是,那么作业在源路径不存在的情况下也能成功执行。 否 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成,且必须与加密时配置的“数据加密密钥”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成,且必须与加密时配置的“初始化向量”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F MD5文件名后缀 校验CDM抽取的文件,是否与源文件一致。 .md5
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置HTTP源端参数
      • 步骤4:添加DNAT规则
        本节主要介绍添加DNAT规则的操作步骤。 操作场景 公网NAT网关创建后,添加DNAT规则,则可以通过映射方式将您本地数据中心的服务器对互联网提供服务。 一个云主机的一个端口对应一条DNAT规则,如果您有多个云主机需要为互联网提供服务,则需要创建多条DNAT规则来实现共享一个或多个弹性IP访问公网。 操作前提 已成功创建公网NAT网关。 操作步骤 1. 登录管理控制台。 2. 在系统首页,单击“网络 > NAT网关”。 进入公网NAT网关页面。 3. 在公网NAT网关页面,单击需要添加DNAT规则的公网NAT网关名称。 4. 在公网NAT网关详情页面中,单击“DNAT规则”页签。 5. 在DNAT规则页签中,单击“添加DNAT规则”。 6. 根据界面提示,配置添加DNAT规则参数,详情请参见下表。 表 DNAT规则参数说明 参数 说明 使用场景 在云间NAT网关高速访问互联网的场景下,此处选择云专线。 表示通过云专线方式接入虚拟私有云的本地数据中心中的服务器,将通过DNAT的方式为公网提供服务。 端口类型 分为所有端口和具体端口两种类型。 所有端口:属于IP映射方式。此方式相当于为服务器配置了一个弹性IP,任何访问该弹性IP的请求都将转发到目标服务器实例上。 具体端口:属于端口映射方式。公网NAT网关会将以指定协议和端口访问该弹性IP的请求转发到目标服务器的指定端口上。 支持协议 协议类型分为TCP和UDP两种类型。 端口类型为具体端口时,可配置此参数,端口类型为所有端口时,此参数默认设置为All。 弹性IP 弹性IP地址。 这里只能选择没有被绑定的弹性IP,或者被绑定在当前公网NAT网关中非“所有端口”类型DNAT规则上的弹性IP, 或者被绑定到当前公网NAT网关中SNAT规则上的弹性IP。 公网端口 弹性IP的端口。当端口类型为具体端口时,需要配置此参数,取值范围为165535。公网端口为具体的数值,例如80。 私网IP 用户本地数据中心中服务器的IP地址或者用户的私有IP地址。 表示通过云专线接入到虚拟私有云的本地数据中心端的此私有IP服务器,可以通过DNAT方式为公网提供服务。 端口类型为具体端口时,需要配置私网IP的端口。表示此IP地址的云主机将通过DNAT方式为公网提供服务。 私网端口 在使用DNAT为云主机面向公网提供服务场景下,指云主机的端口号。 当端口类型为具体端口时,需要配置此参数,取值范围为165535。私网端口为具体的数值,例如80。 7. 配置完成后,单击“确定”,完成“DNAT规则”创建。 说明 配置DNAT规则后,需在对应的云主机中放通对应的安全组规则,否则DNAT规则不能生效。
        来自:
        帮助文档
        NAT网关
        最佳实践
        云间NAT网关高速访问互联网
        步骤4:添加DNAT规则
      • 创建卷
        参数 参数 描述 n LUNNAME 或 name LUNNAME 设置卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 p CAPACITY 或 capacity CAPACITY 设置卷容量。 取值:整数形式,数字后面可以输入单位简写G/g、T/t或P/p,分别代表GiB、TiB、PiB,如果不输入,默认为GiB。 如果单位是GiB,取值为[1, 1048576]。 如果单位是TiB,取值为[1, 1024]。 如果单位是PiB,取值为1。 t TARGETNAME 或 target TARGETNAME 指定iSCSI Target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时,如果指定的iSCSI Target名称不存在,那么同时创建iSCSI Target,新创建iSCSI Target的回收策略默认为Delete。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI Target名称已经存在,且指定的服务器必须是iSCSI Target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 选择卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应Target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应Target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端–单机版、Linux 客户端 – 单机版。 默认值为ActiveStandby(as)。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 redundancyoverlap REDUNDANCYOVERLAP 指定卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC模式,取值范围是[1, N+M],默认值为1。 ecfragmentsize ECFRAGEMENTSIZE 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 o SECTORSIZE 或 sectorsize SECTORSIZE 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4096;单次I/O操作的数据大小接近512 bytes,则推荐选择512。如果对接VMware等虚拟化平台,则推荐选择512 bytes。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 P PATH 或 path PATH 指定存储卷数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为Local。 cloudprovider CLOUDPROVIDER 对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 B BUCKETNAME 或 bucket BUCKETNAME 已存在的存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 A ACCESSKEY 或 ak ACCESSKEY 对象存储服务的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 对象存储服务的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置数据在对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 E ENDPOINT 或 endpoint ENDPOINT 设置对象存储的Endpoint。 注意 Endpoint必须与所使用的对象存储服务一一对应:若使用OOS对象存储服务,需填写OOS的Endpoint;若使用兼容S3的其他对象存储服务,则需填写它的Endpoint。 如果仅输入域名将会使用HTTPS协议进行访问。 具体OOS Endpoint详见OOS Endpoint和区域。 signversion VERSION 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 表示Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为Enabled(on)。 O OBJECTSIZE 或 objectsize OBJECTSIZE 数据存储在对象存储中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 X PREFIX 或 prefix PREFIX 设置对象存储中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 qosname QOSNAME 指定QoS策略名称。 说明 创建卷时,如果指定QoS策略名称不存在,那么同时创建QoS策略,新创建的QoS策略的回收策略默认为Delete。 对于集群版,不指定QoS策略时: 如果卷的缓存存储池和存储池同时存在,卷的QoS策略为缓存存储池设置的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 如果卷只有存储池,卷的QoS策略为存储池设置的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 取值:字符串形式,长度范围1~64,只能由字母、数字和短横线()组成,区分大小写,且仅支持以字母或数字开头。 注意 如果没有指定QOSNAME ,但是设置了IOPS/Bps中的任何一个参数,则根据IOPS/Bps自动创建一个QoS策略,系统为策略名赋值:lunlunnameqostimestamp。 如果指定了QOSNAME 以及IOPS/Bps中的任何一个参数,则QOSNAME不能与已存在的QoS策略重名。 如果指定了QOSNAME ,没有设置IOPS/Bps中的任何一个参数,则QOSNAME需要为已存在的QoS策略名称。 iops IOPS 每秒能够进行读写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 readiops READIOPS 每秒能够进行读操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 writeiops WRITEIOPS 每秒能够进行写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 bps BPS 每秒可传输数据量的最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 readbps READBPS 读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 writebps WRITEBPS 写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 iopsburst IOPSBURST 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:整数形式。只有当iops IOPS 大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 readiopsburst READIOPSBURST 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:整数形式。只有当readiops READIOPS 大于等于1时,此项设置为1或(READIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 writeiopsburst WRITEIOPSBURST 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:整数形式。只有当writeiops WRITEIOPS 大于等于1时,此项设置为1或(WRITEIOPS 999999999]内的正整数方可生效。默认值为1,表示不限制。 bpsburst BPSBURST 使用Burst功能时,每秒可传输的数据量最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当bps BPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(BPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(BPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(BPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(BPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(BPS, 3]内的正整数。 readbpsburst READBPSBURST 使用Burst功能时,读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当readbps READBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(READBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(READBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(READBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(READBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(READBPS, 3]内的正整数。 writebpsburst WRITEBPSBURST 使用Burst功能时,写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当writebps WRITEBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(WRITEBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(WRITEBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(WRITEBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(WRITEBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(WRITEBPS, 3]内的正整数。 iopsburstsecs IOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readiopsburstsecs READIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在Read IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writeiopsburstsecs WRITEIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在Write IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 bpsburstsecs BPSBURSTSECS 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readbpsburstsecs READBPSBURSTSECS 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在Read BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writebpsburstsecs WRITEBPSBURSTSECS 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在Write BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建卷
      • 将MySQL迁移到MySQL
        操作须知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保同步各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 如迁移对象为表级别,则单次迁移任务仅支持迁移最多10000张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,支持无主键表的数据增量迁移。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x迁移到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在迁移数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在迁移时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到MySQL
      • 下载Binlog备份文件
        本节介绍了下载Binlog备份文件的操作场景、操作步骤等相关内容。 操作场景 RDS for MySQL支持用户下载Binlog备份,用于本地存储备份。您可以下载Binlog备份文件,也可以合并下载Binlog备份文件。 说明 Binlog备份文件列表显示的完成时间为最后一个事务提交时间。 管理控制台Binlog备份文件的命名格式为:Binlog名称+时间戳;备份文件格式为row。 处于冻结状态的实例不允许下载Binlog备份文件。 下载Binlog备份文件 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击目标实例名称,进入“基本信息”页面。 步骤 5 在左侧导航栏,单击“备份恢复”,在“Binlog备份”页签下,单击操作列中的“下载”。 您也可以勾选需要下载的Binlog备份,单击左上角“下载”。 步骤 6 下载任务执行完成后,您可在本地查看到Binlog备份文件。 结束 合并下载Binlog备份文件 注意 所选时间段内Binlog总量大于500MB不支持合并。 单机实例进行合并binlog操作时,合并期间主机CPU占用会上升,使用时请考虑对实例性能影响。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击目标实例名称,进入基本信息”页面。 步骤 5 在左侧导航栏,单击“备份恢复”,在“Binlog合并下载”页签下,选择要合并的Binlog的时间段,单击“合并”,合并任务下发成功。 说明 单次合并下载的时间段最长为24小时。 可选的时间范围和自动备份策略的“保留天数”一致,有关自动备份策略保留天数,请参见设置同区域备份策略。 步骤 6 在“Binlog合并下载”页面,可查看该合并文件状态为“合并中”,当状态显示为“合并成功”,单击操作列中的“下载”。 步骤 7 在弹出框中选择下载方式。 说明 为避免产生额外存储空间费用,下载完成后,请手动删除合并文件。您可以在“合并下载”页面,单击操作列中的“删除”,删除合并文件。 如果没有手动删除合并文件,系统会保留30天后自动删除合并文件。 在弹出框中,单击“OBS Browser+下载”,单击“确定”,通过OBS Browser+客户端下载RDS合并文件。 a. 单击下载指导页面步骤1的“OBS Browser+”,下载客户端工具OBS Browser+。 b. 解压并安装OBS Browser+。 c. 使用下载指导页面步骤2的用户名,登录客户端工具OBS Browser+。 d. 使用下载指导页面步骤2的桶名,挂载外部桶。 在OBS Browser+“外部桶”页面,输入下载指导页面步骤2的桶名称,单击“挂载”,挂载该桶。 e. 下载合并文件。 在OBS Browser+界面,单击添加成功的外部桶桶名,进入对象列表页面,在右侧搜索栏,输入“备份文件名称”并检索,单击“下载”。 在弹出框中,选择“直接下载”,单击“确定”,通过浏览器直接下载数据库实例的合并文件。 在弹出框中,选择“按地址下载”,单击 复制地址,通过下载地址下载合并文件。 对于RDS for MySQL,显示当前合并文件在链接有效期内的下载地址。 − 您可以使用其他下载工具下载合并文件。 − 您还可以使用wget命令下载合并文件: wget O FILENAME nocheckcertificate "DOWNLOADURL" 命令中的参数解释如下: FILENAME:下载成功后的合并文件名称,由于原始文件名称较长,可能会超出客户端文件系统的限制,建议下载合并文件时使用“O”进行重命名。 DOWNLOADURL:需下载的合并文件所在路径,如果包含特殊字符则需要转义。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据备份
        管理备份
        下载Binlog备份文件
      • 1
      • ...
      • 170
      • 171
      • 172
      • 173
      • 174
      • ...
      • 197
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      推荐文档

      加入会议

      创建文件和文件夹备份

      应用用户管理

      iOS客户端需求

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号