云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 步骤4:添加安全组规则
        本文帮助您快速熟悉添加安全组规则的操作流程。 操作场景 安全组实际是网络流量访问策略,通过访问策略可以控制流量入方向规则和出方向规则,通过这些规则可以为加入安全组内的云服务器、云容器、云数据库等实例提供安全保护。安全组的访问策略由入方向规则和出方向规则共同组成。 安全组规则遵循白名单规则,具体说明如下: 入方向规则:入方向指外部访问安全组内的实例的指定端口。当外部请求匹配上安全组中入方向规则的源地址,并且策略为“允许”时,允许该请求进入,其他请求一律拦截。 因此,如果没有特殊需求,您一般不用在入方向配置策略为“拒绝”的规则,因为不匹配“允许”规则的请求均会被拦截。 出方向规则:出方向指安全组内的实例访问外部的指定端口。在出方向中配置目的地址匹配所有IP地址的规则,并且策略为“允许”时,允许所有的内部请求出去。 0.0.0.0/0表示匹配所有IPv4地址。 ::/0表示匹配所有IPv6地址。 如果实例关联的安全组策略无法满足使用需求,比如需要开放某个TCP端口,您可以参考以下操作,通过在入方向规则添加端口,从而打开指定的TCP端口。 操作步骤 1. 登录管理控制台。 2. 在系统首页,选择“网络 > 虚拟私有云”。 3. 在左侧导航栏,选择“访问控制 > 安全组”。进入安全组列表页面。 4. 在安全组列表中,单击目标安全组所在行的操作列下的“配置规则”。进入安全组规则配置页面。 5. 在“入方向规则”页签,单击“添加规则”。弹出“添加入方向规则”对话框。 6. 根据界面提示,设置入方向规则参数。单击“+”按钮,可以依次增加多条入方向规则。 7. 入方向规则设置完成后,单击“确定”。返回入方向规则列表,可以查看添加的入方向规则。 8. 在“出方向规则”页签,单击“添加规则”。弹出“添加出方向规则”页签。 9. 根据界面提示,设置出方向规则参数。单击“+”按钮,可以依次增加多条出方向规则。 10. 出方向规则设置完成后,单击“确定”。返回出方向规则列表,可以查看添加的出方向规则。 表 入方向参数说明 参数 说明 取值样例 ::: 协议/应用 网络协议。目前支持“All”、“TCP”、“UDP”和“ICMP”等协议。 TCP 端口和源地址 端口:允许远端地址访问弹性云主机指定端口,取值范围为:1~65535。 22或2230 端口和源地址 源地址:可以是IP地址、安全组。用于放通来自IP地址或另一安全组内的实例的访问。例如: xxx.xxx.xxx.xxx/32(IPv4地址) xxx.xxx.xxx.0/24(子网) 0.0.0.0/0(任意地址) sgabc(安全组) 0.0.0.0/0 描述 安全组规则的描述信息,非必填项。 描述信息内容不能超过255个字符,且不能包含“ ”。 表 出方向参数说明 参数 说明 取值样例 ::: 协议/应用 网络协议。目前支持“All”、“TCP”、“UDP”和“ICMP”等协议。 TCP 端口和目的地址 端口:允许弹性云主机访问远端地址的指定端口,取值范围为:1~65535。 22或2230 端口和目的地址 目的地址:可以是IP地址、安全组。允许访问目的IP地址或另一安全组内的实例。例如: xxx.xxx.xxx.xxx/32(IPv4地址) xxx.xxx.xxx.0/24(子网) 0.0.0.0/0(任意地址) sgabc(安全组) 0.0.0.0/0 描述 安全组规则的描述信息,非必填项。 描述信息内容不能超过255个字符,且不能包含“ ”。
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        配置无需访问公网的弹性云主机的VPC
        步骤4:添加安全组规则
      • 步骤5:添加安全组规则
        本文帮助您快速熟悉添加安全组规则的操作流程。 操作场景 安全组实际是网络流量访问策略,通过访问策略可以控制流量入方向规则和出方向规则,通过这些规则可以为加入安全组内的云服务器、云容器、云数据库等实例提供安全保护。安全组的访问策略由入方向规则和出方向规则共同组成。 安全组规则遵循白名单规则,具体说明如下: 入方向规则:入方向指外部访问安全组内的实例的指定端口。当外部请求匹配上安全组中入方向规则的源地址,并且策略为“允许”时,允许该请求进入,其他请求一律拦截。 因此,如果没有特殊需求,您一般不用在入方向配置策略为“拒绝”的规则,因为不匹配“允许”规则的请求均会被拦截。 出方向规则:出方向指安全组内的实例访问外部的指定端口。在出方向中配置目的地址匹配所有IP地址的规则,并且策略为“允许”时,允许所有的内部请求出去。 0.0.0.0/0表示匹配所有IPv4地址。 ::/0表示匹配所有IPv6地址。 如果实例关联的安全组策略无法满足使用需求,比如需要开放某个TCP端口,您可以参考以下操作,通过在入方向规则添加端口,从而打开指定的TCP端口。 操作步骤 1. 登录管理控制台。 2. 在系统首页,选择“网络 > 虚拟私有云”。 3. 在左侧导航栏,选择“访问控制 > 安全组”。进入安全组列表页面。 4. 在安全组列表中,单击目标安全组所在行的操作列下的“配置规则”。进入安全组规则配置页面。 5. 在“入方向规则”页签,单击“添加规则”。弹出“添加入方向规则”对话框。 6. 根据界面提示,设置入方向规则参数。单击“+”按钮,可以依次增加多条入方向规则。 7. 入方向规则设置完成后,单击“确定”。返回入方向规则列表,可以查看添加的入方向规则。 8. 在“出方向规则”页签,单击“添加规则”。弹出“添加出方向规则”页签。 9. 根据界面提示,设置出方向规则参数。单击“+”按钮,可以依次增加多条出方向规则。 10. 出方向规则设置完成后,单击“确定”。返回出方向规则列表,可以查看添加的出方向规则。 表 入方向参数说明 参数 说明 取值样例 ::: 协议/应用 网络协议。目前支持“All”、“TCP”、“UDP”和“ICMP”等协议。 TCP 端口和源地址 端口:允许远端地址访问弹性云主机指定端口,取值范围为:1~65535。 22或2230 端口和源地址 源地址:可以是IP地址、安全组。用于放通来自IP地址或另一安全组内的实例的访问。例如: xxx.xxx.xxx.xxx/32(IPv4地址) xxx.xxx.xxx.0/24(子网) 0.0.0.0/0(任意地址) sgabc(安全组) 0.0.0.0/0 描述 安全组规则的描述信息,非必填项。 描述信息内容不能超过255个字符,且不能包含“ ”。 表 出方向参数说明 参数 说明 取值样例 ::: 协议/应用 网络协议。目前支持“All”、“TCP”、“UDP”和“ICMP”等协议。 TCP 端口和目的地址 端口:允许弹性云主机访问远端地址的指定端口,取值范围为:1~65535。 22或2230 端口和目的地址 目的地址:可以是IP地址、安全组。允许访问目的IP地址或另一安全组内的实例。例如: xxx.xxx.xxx.xxx/32(IPv4地址) xxx.xxx.xxx.0/24(子网) 0.0.0.0/0(任意地址) sgabc(安全组) 0.0.0.0/0 描述 安全组规则的描述信息,非必填项。 描述信息内容不能超过255个字符,且不能包含“ ”。
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        配置通过弹性IP访问公网的弹性云主机的VPC
        步骤5:添加安全组规则
      • 使用APM管理电商应用
        本文主要介绍使用APM管理电商应用 本实践基于某手机销售电商应用为例,帮助您理解如何将该电商应用接入APM并进行管理。 该电商应用情况介绍: 该应用包含四个微服务,每个微服务包含一个实例: API网关服务:名称为vmallapigwservice,主要负责应用整体的服务鉴权、限流、过滤等。 商品管理服务:名称为vmallproductservice,主要负责商品查询、购买等。 用户管理服务:名称为vmalluserservice,主要负责用户登录,以及购买商品时的用户身份核实等。 数据持久服务:名称为vmalldaoservice,主要负责请求数据库操作。 下面介绍如何将APM接入该电商应用并管理起来。 操作流程 1. 将应用部署到服务器。 2. 安装Agent。Agent是APM的采集代理,用于实时采集拓扑和调用链数据,您需要将其安装在应用所在服务器上。 3. 修改应用启动参数,以确保APM可以监控应用。 4. 在APM上管理应用,例如通过拓扑查看应用情况。 操作步骤 步骤 1 将应用部署到服务器。 1. 登录服务器,创建应用目录并进入目录,本实践以目录/root/testdemo为例。 2. 下载并安装应用需要的JRE 1.8版本。 3. 执行如下命令将应用下载至创建的/root/testdemo目录并安装。 curl l > demoinstall.sh && bash demoinstall.sh 说明 执行该命令需要具有公网访问权限。 步骤 2 安装Agent。 步骤 3 修改应用启动脚本start.sh的参数,确保应用被APM监控。 在服务启动脚本的java命令之后,配置apmjavaagent.jar包所在路径,并指定java进程的应用名。 添加javaagent参数示例: java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappName{appName} 修改前后应用启动脚本对比如下: 修改前: export PATH/root/testdemo/jdk1.8.0111/bin:$PATH java Xmx512m jar /root/testdemo/ecommercepersistenceservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationdao.yml > dao.log 2>&1 & java Xmx512m jar /root/testdemo/ecommerceapigateway0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationapi.yml > api.log 2>&1 & java Xmx512m jar /root/testdemo/ecommerceuserservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationuserservice.yml > user.log 2>&1 & java Xmx512m jar /root/testdemo/ecommerceproductservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationprod.yml > prod.log 2>&1 & java Xmx512m jar /root/testdemo/cloudsimpleui1.0.0.jar spring.config.locationfile:/root/testdemo/ui.properties > ui.log 2>&1 & 修改后: export PATH/root/testdemo/jdk1.8.0111/bin:$PATH java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmalldaoserviceXmx512m jar /root/testdemo/ecommercepersistenceservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationdao.yml > dao.log 2>&1 & java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmallapigwservice Xmx512m jar /root/testdemo/ecommerceapigateway0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationapi.yml > api.log 2>&1 & java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmalluserservice Xmx512m jar /root/testdemo/ecommerceuserservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationuserservice.yml > user.log 2>&1 & java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmallproductservice Xmx512m jar /root/testdemo/ecommerceproductservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationprod.yml > prod.log 2>&1 & java Xmx512m jar /root/testdemo/cloudsimpleui1.0.0.jar spring.config.locationfile:/root/testdemo/ui.properties > ui.log 2>&1 & 步骤 4 修改完成后,便可启动应用。 等待三分钟左右,在APM界面上即可看到应用相关数据,并根据数据监控应用、定位应用的异常。
        来自:
        帮助文档
        应用性能管理
        最佳实践
        使用APM管理电商应用
      • 资源监控
        本章节主要介绍翼MapReduce的资源监控操作。 集群中部分服务提供服务级别的资源监控项,默认显示12小时的监控数据。用户可单击自定义时间区间,缺省时间区间包括:12小时、1天、1周、1月。单击可导出相应报表信息,无数据的监控项无法导出报表。支持资源监控的服务及监控项如下表所示。 登录FusionInsight Manager以后,选择“集群 > 待操作集群的名称 > 服务”后,选择待操作的服务,单击“资源”,进入资源监控页面。 服务资源监控 服务 监控指标 说明 HDFS 资源使用(按租户) l 按租户统计HDFS的资源使用情况。 l 可选择按“容量”或“文件对象数”观察。 HDFS 资源使用(按用户) l 按用户统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件对象数”观察。 HDFS 资源使用(按目录) l 按目录统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件对象数”观察。 l 单击配置空间监控,可以指定HDFS文件系统目录进行监控。 HDFS 资源使用(按副本) l 按副本数统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件数”观察。 HDFS 资源使用(按文件大小) l 按文件大小统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件数”观察。 HDFS 回收站(按用户) l 按用户统计HDFS回收站的使用情况。 l 可选择按“回收站容量”或“文件对象数”观察。 HDFS 操作数 l 统计HDFS中操作数。 HDFS 自动balance l 统计HDFS自动balancer的执行速度以及本次balancer当前迁移的总容量大小。 HDFS NameNode RPC连接数(按用户) l 按用户统计连接到NameNode的Client RPC请求中,各个用户的连接数。 HDFS 慢DataNode节点 集群中数据传输或处理慢的DataNode节点。 HDFS 慢磁盘 集群中DataNode节点上数据处理慢的磁盘。 HBase 表级别操作请求次数 所有RegionServer上的所有表中put、delete、get、scan、increment、append操作请求次数。 HBase RegionServer级别操作请求次数 RegionServer中put、delete、get、scan、increment、append操作请求次数以及所有操作请求次数。 HBase 服务级别操作请求次数 RegionServer上所有Region中put、delete、get、scan、increment、append操作请求次数。 HBase RegionServer级别HFile数 所有RegionServer中HFile数。 Hive HiveServer2BackgroundPool线程数(按IP) 周期内统计并显示Top用户的HiveServer2BackgroundPool线程数。 Hive HiveServer2HandlerPool线程数(按IP) 周期内统计并显示Top用户的HiveServer2HandlerPool数监控。 Hive MetaStore使用数(按IP) Hive周期内统计并显示Top用户的MetaStore使用数。 Hive Hive的Job数 Hive周期内统计并显示用户相关的Job数目。 Hive Split阶段访问的文件数 统计Hive周期内Split阶段访问底层文件存储系统(默认:HDFS)的文件数。 Hive Hive基本操作时间 Hive周期内统计底层创建目录(mkdirTime)、创建文件(touchTime)、写文件(writeFileTime)、重命名文件(renameTime)、移动文件(moveTime)、删除文件(deleteFileTime)、删除目录(deleteCatalogTime)所用的时间。 Hive 表分区个数 Hive所有表分区个数监控,返回值的格式为:数据库
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        其他服务管理操作
        资源监控
      • 云主机网络包乱序
        本章节介绍云主机网络包乱序故障演练。 背景介绍 在复杂的网络环境中,由于多路径传输、路由策略动态调整或网络设备处理延迟的差异,数据包可能不会按照其发送顺序到达目的地。虽然 TCP 协议设计了重排序机制来处理这种情况,但严重的乱序仍然会增加接收端的CPU开销,导致有效吞吐量下降和应用层延时增加。本演练模拟网络包乱序的场景,帮助您评估应用协议的健壮性和系统在非理想网络条件下的性能表现。 基本原理 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令。 原理是通过增加TC和Netem规则模拟主机内网络包乱序。 注意 只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云主机 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云主机 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云主机。 添加实例 :单击添加实例 ,勾选上一步中添加的云主机实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包乱序动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 立即发送百分比:数据包被立即发送的百分比。 和上一包的相关性:控制数据包重排序的随机性和规律性之间的平衡,取值范围 0~100,例如,设置为 50 表示有 50% 的可能性下一个数据包的重排序决策会受到前一个数据包的影响。值越高,乱序模式越规律;值越低,越随机。 包序列大小:定义了重排序数据包之间的距离,即有多少个数据包会按照正常顺序发送后才会出现一个重排序的数据包,例如,当 gap 设置为 2 时,意味着每 2 个正常顺序的数据包之后会有一个数据包被重排序。 网络包延迟时间(毫秒):对被选中的乱序数据包施加的延迟时长。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        计算
        弹性云主机
        云主机网络包乱序
      • 云主机网络包乱序(1)
        本章节介绍云主机网络包乱序故障演练。 背景介绍 在复杂的网络环境中,由于多路径传输、路由策略动态调整或网络设备处理延迟的差异,数据包可能不会按照其发送顺序到达目的地。虽然 TCP 协议设计了重排序机制来处理这种情况,但严重的乱序仍然会增加接收端的CPU开销,导致有效吞吐量下降和应用层延时增加。本演练模拟网络包乱序的场景,帮助您评估应用协议的健壮性和系统在非理想网络条件下的性能表现。 基本原理 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令。 原理是通过增加TC和Netem规则模拟主机内网络包乱序。 注意 只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云主机 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云主机 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云主机。 添加实例 :单击添加实例 ,勾选上一步中添加的云主机实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包乱序动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 立即发送百分比:数据包被立即发送的百分比。 和上一包的相关性:控制数据包重排序的随机性和规律性之间的平衡,取值范围 0~100,例如,设置为 50 表示有 50% 的可能性下一个数据包的重排序决策会受到前一个数据包的影响。值越高,乱序模式越规律;值越低,越随机。 包序列大小:定义了重排序数据包之间的距离,即有多少个数据包会按照正常顺序发送后才会出现一个重排序的数据包,例如,当 gap 设置为 2 时,意味着每 2 个正常顺序的数据包之后会有一个数据包被重排序。 网络包延迟时间(毫秒):对被选中的乱序数据包施加的延迟时长。
        来自:
      • 创建数据分析集群
        本章节主要介绍如何快速创建一个数据分析集群。 数据分析集群使用Apache Doris,Apache Doris是开源的MPP架构的OLAP分析引擎,支持亚秒级的数据查询和多表join。在创建数据分析集群前,需要先创建虚拟私有云。 操作步骤 1、进入集群创建页面 方法一:登录翼MapReduce产品详情页,直接点击“立即开通”。 方法二:进入翼MapReduce产品一类节点资源池的产品控制台,点击“+创建集群”。 2、软件配置 进入“创建集群”页面进行配置与订购,软件配置页面如下图所示,参数说明如下: 区域集群与可用区:集群节点所在的物理位置,根据需要选择区域及可用区,也可以使用默认值。 业务场景:选择“数据分析”场景。 产品版本:选择使用的产品版本,默认值即可。 服务高可用:翼MapReduce默认启用服务高可用且不可关闭高可用模式。 可选服务:由可选组件和必选组件组成,根据业务场景而定。您可根据自身业务场景对可选组件进行选择。数据分析集群场景下默认只有Doris一个必选组件。 3、硬件配置 软件配置选择完成后,点击“下一步”进入硬件配置页面。硬件配置页面如下图所示,参数说明如下: 计费模式:可选择计费模式,默认为包年/包月。 购买时长:可按需选择订购时长。 自动续费:可按需开启自动续费功能。 操作系统:可按需选择CTyunOS或麒麟系统。 注意 当前麒麟镜像为不提供license的免费公共镜像,license需要用户自行购买。天翼云将为客户辅助提供技术支持。 主机类型:可按需选择云主机或物理机。 CPU类型:可按需选择X86或ARM。 规格类型:可按需选择通用主机或国产化主机。 节点组:根据您自身需要选择集群节点规格及数量,包括对节点组类型、选项配置、云盘参数和性能的选择,可根据需要对core节点进行增加/删除。 企业项目:企业项目提供统一的云资源管理能力,支持对项目及项目内的资源、成员进行管理。此处请根据用户的资源管理需求,选择翼MR集群的企业项目归属。仅支持选择用户有权限的企业项目。 虚拟私有云:不同虚拟私有云(VPC)网络之间的逻辑彻底隔离。请按需选择需要使用的虚拟私有云。如果目前没有VPC可以点击“创建虚拟私有云”跳转到虚拟私有云页面创建。 注意 1)集群和虚拟私有云需在同一企业项目下。 2)为保障网络互通,请选择与软件配置中所填数据库相同的虚拟私有云(VPC)。 子网:选择虚拟私有云后,子网可以根据需要进行选择。若所选子网已开通IPv6,可按需选择是否开启IPv6访问实例资源的功能。 安全组:设置集群内实例的网络访问控制。当前天翼云虚拟私有云安全组策略强安全要求,默认服务器内网互相不通,需要客户勾选安全组规则自动配置授权,翼MR会默认添加下述安全组中相关的规则。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        快速创建集群
        创建数据分析集群
      • 服务
        本章节为您介绍服务相关的内容。 服务通常指的是 API 网关要连接和转发请求的目标服务。在微服务架构中 ,这些目标服务可以是各种不同的后端服务 , 比如数据库服务、用户服务、支付服务等。服务可以是内部的私有服务 ,也可以是外部的第三方服务。 本系统还提供服务发现、负载均衡、健康检查等功能。 创建服务 1.登录API安全网关。 2.在左侧导航栏选择“资源 > 服务”,进入服务列表页面。 3.单击页面左上方的“新增”按钮,在左侧弹出的“新增服务”对话框中填写相关内容。 字段 说明 服务名称 自定义服务名称,只能取唯一值。 大模型 选择是否使用大模型,选择开启后需要选择“模型提供方”。 应用代理 选择是否开启代理,开启后需要填写“代理端口”及“代理协议”。 描述 对新增的服务添加简要描述。 负载均衡算法 选择负责均衡算法,目前支持以下四种: 一致哈希:相同特征的请求将分配至同一个上游节点。 带权轮询:按照配置的权重比例分配请求数量至上游节点。 指数加权移动平均法:请求将更多地分配给效率高的上游节点。 最小连接数:选取当前连接数量最少的上游节点分发请求。 上游类型 节点:需要填写节点主机名、端口、权重。 服务发现:选择服务发现的类型,支持选择DNS、Consul KV、Nacos、Euereka、Kubernetes。 Host请求头 保持与客户端一致的主机名。 使用目标节点列表中的主机名或IP。 重试次数 重试机制将请求发到下一个上游节点。 值为0表示禁用重试机制,留空表示使用可用后端节点的数量。 重试超时时间 限制是否继续重试的时间,若之前的请求和重试请求花费太多时间就不再继续重试。 0代表不启用重试超时机制。 协议 服务端使用的协议类型,默认为:HTTP协议。 支持选择:HTTP、HTTPs、gRPC、gRPCs、TCP、TLS、UDP、Kafka。 连接超时 建立从请求到后端服务器的连接的超时时间,默认值6s。 发送超时 发送数据到后端服务器的超时时间,默认值6s。 接收超时 从后端服务器接收数据的超时时间,默认值6s。 连接池容量 为后端设置独立的连接池,默认值320。 连接池空闲超时时间 默认值60。 连接池请求数量 默认值1000。 健康监测 选择是否开启健康监测功能。 身份认证 选择身份认证方式,支持以下四种选择: 无认证:不开启身份认证方式。 Key认证:Key认证用于向API添加身份验证密钥。它需要与API调用者一起配合才能工作,通过API调用者将其密钥添加到查询参数或请求头中以验证其请求。 摘要签名认证:摘要签名认证可以将HMAC认证添加到服务。它需要与API调用者一起配合才能工作,通过API调用者将其密钥添加到查询参数或请求头中以验证其请求。 JWT认证:将JWT身份验证添加到服务中,通过API调用者将其密钥添加到查询字符串参数、请求头或Cookie中用来验证其请求。 4.添加完成后,单击“下一步”,进入插件配置环节,具体的插件功能请参照控制台说明,若需要启用插件单击对应插件下方的“启用”按钮即可启用。 5.完成插件配置后,单击“下一步”确认服务信息,若信息无误单击“保存”即可完成添加服务。
        来自:
        帮助文档
        数据安全专区
        用户指南
        API安全网关操作指导
        资源
        服务
      • 步骤1:创建初始表并加装样例数据
        本章节主要介绍创建初始表并加装样例数据的最佳实践。 创建一组不设置存储方式,无分布键、分布方式和压缩方式的表。然后,为这些表加载样例数据。 1.(可选)创建集群。 如果已经有可供使用的集群,则可跳过这一步。创建集群的操作,请按中的步骤操作。同时请使用SQL客户端连接到集群并测试连接。 本实践所使用的是8节点集群。也可以使用4节点集群进行测试。 2.使用最少的属性创建SS(StoreSales)测试表。 说明 如果SS表在当前数据库中已存在,需要先删除这些表。删除表使用DROP TABLE命令。如下示例表示删除表storesales。 DROP TABLE storesales; 考虑到本实践的目的,首次创建表时,没有设置存储方式、分布键、分布方式和压缩方式。 执行CREATE TABLE命令创建上图"TPCDS Store Sales ERDiagram"中的11张表。限于篇幅,这里仅附storesales的创建语法。请从附录初始表创建中拷贝所有建表语法进行创建。 CREATE TABLE storesales ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) ; 3.为这些表加载样例数据。 OBS存储桶中提供了本次实践的样例数据。该存储桶向所有经过身份验证的云用户提供了读取权限。请按照下面的步骤加载这些样例数据: a.为每个表创建对应的外表。 DWS应用Postgres提供的外部数据封装器FDW(Foreign Data Wrapper)进行数据并行导入。因此需要先创建FDW表,又称外表。限于篇幅,此处仅给出“storesales”表对应的外表“obsfromstoresales001”的创建语法。请从附录外表创建拷贝其他外表的语法进行创建。 说明 l 注意,以下语句中的代表OBS桶名,仅支持部分区域。DWS集群不支持跨区域访问OBS桶数据。 l 外表字段需与即将注入数据的普通表字段保持一致。例如此处storesales表及其对应的外表obsfromstoresales001,他们的字段是一致的。 l 这些外表语法能够帮助您获取OBS存储桶中为本次实践所提供的样例数据。如果您需要加载其他样例数据,需进行SERVER gsmppserver OPTIONS的调整。 CREATE FOREIGN TABLE obsfromstoresales001 ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) Configure OBS server information and data format details. SERVER gsmppserver OPTIONS ( LOCATION '/tpcds/storesales', FORMAT 'text', DELIMITER '', ENCODING 'utf8', NOESCAPING 'true', ACCESSKEY 'accesskeyvaluetobereplaced', SECRETACCESSKEY 'secretaccesskeyvaluetobereplaced', REJECTLIMIT 'unlimited', CHUNKSIZE '64' ) If create foreign table failed,record error message WITH errobsfromstoresales001; b.将创建外表语句中的参数ACCESSKEY和SECRETACCESSKEY替换为实际值,然后在客户端工具中执行替换后的语句创建外表。 ACCESSKEY和SECRETACCESSKEY的值,请参见“常见问题通用问题”中的“如何获取Access Key ID(AK)和 Secret Access Key(SK)”。 c.执行数据导入。 创建包含如下语句的insert.sql脚本文件,并执行.sql脚本文件。 timing on parallel on 4 INSERT INTO storesales SELECT FROM obsfromstoresales001; INSERT INTO datedim SELECT FROM obsfromdatedim001; INSERT INTO store SELECT FROM obsfromstore001; INSERT INTO item SELECT FROM obsfromitem001; INSERT INTO timedim SELECT FROM obsfromtimedim001; INSERT INTO promotion SELECT FROM obsfrompromotion001; INSERT INTO customerdemographics SELECT from obsfromcustomerdemographics001 ; INSERT INTO customeraddress SELECT FROM obsfromcustomeraddress001 ; INSERT INTO householddemographics SELECT FROM obsfromhouseholddemographics001; INSERT INTO customer SELECT FROM obsfromcustomer001; INSERT INTO incomeband SELECT FROM obsfromincomeband001; parallel off 结果应该类似如下: SET Timing is on. SET Time: 2.831 ms Parallel is on with scale 4. Parallel is off. INSERT 0 402 Time: 1820.909 ms INSERT 0 73049 Time: 2715.275 ms INSERT 0 86400 Time: 2377.056 ms INSERT 0 1000 Time: 4037.155 ms INSERT 0 204000 Time: 7124.190 ms INSERT 0 7200 Time: 2227.776 ms INSERT 0 1920800 Time: 8672.647 ms INSERT 0 20 Time: 2273.501 ms INSERT 0 1000000 Time: 11430.991 ms INSERT 0 1981703 Time: 20270.750 ms INSERT 0 287997024 Time: 341395.680 ms total time: 341584 ms d.计算所有11张表的总执行时间。该数字将作为加载时间记录在下一小节步骤步骤1中的基准表内。 e.执行以下命令,验证每个表是否都已正确加载并将行数记录到表中。 SELECT COUNT() FROM storesales; SELECT COUNT() FROM datedim; SELECT COUNT() FROM store; SELECT COUNT() FROM item; SELECT COUNT() FROM timedim; SELECT COUNT() FROM promotion; SELECT COUNT() FROM customerdemographics; SELECT COUNT() FROM customeraddress; SELECT COUNT() FROM householddemographics; SELECT COUNT() FROM customer; SELECT COUNT() FROM incomeband; 以下显示每个SS表的行数: 表名称 行数 StoreSales 287997024 DateDim 73049 Store 402 Item 204000 TimeDim 86400 Promotion 1000 CustomerDemographics 1920800 CustomerAddress 1000000 HouseholdDemographics 7200 Customer 1981703 IncomeBand 20 4.执行ANALYZE更新统计信息。 ANALYZE; 返回ANALYZE后,表示执行成功。 ANALYZE ANALYZE语句可收集数据库中与表内容相关的统计信息,统计结果存储在系统表PGSTATISTIC中。查询优化器会使用这些统计数据,以生成最有效的执行计划。 建议在执行了大批量插入/删除操作后,例行对表或全库执行ANALYZE语句更新统计信息。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        步骤1:创建初始表并加装样例数据
      • 实例服务器初始化及实例开通
        本页介绍天翼云TeleDB数据库实例服务器初始化及实例开通。 前提条件 每台实际主机均已进行环境初始化。 操作步骤 1. 登录管理控制台 (1) 以admin用户名和密码登录控制台。登录地址: 。 (2) 进入TeleDBDCP控制台管理页面,单击立即使用 。 2. 创建实例 ① 在左侧导航树选择 系统管理 > 授权管理 ,进入授权管理页面。 ② 单击导入授权 ,出现 新增/更新授权对话框 。 ③ 在新增/更新授权 对话框,单击 立即上传 ,在弹出的窗口选择license文件,单击下一步 ,进入导入分类模式 。 ④ 在产品名称 下拉框选择对应的产品,单击下一步 ,进入license详情页面。 ⑤ 在license详情 页面,确认信息无误后,单击确定 ,完成导入license。 3. 创建开通实例租户用户 ① 在左侧导航树中选择安全中心 > 用户管理 ,进入用户管理页面。 ② 单击创建用户 ,出现创建用户弹框。 填写用户账号 、 用户名称 、选择用户角色 为 租户管理员 、填写 用户密码 、 确认密码 和邮箱 ,单击确定新创建的用户将出现在用户列表中。 ③ 单击新建用户所在行的编辑,可修改用户信息。 4. 添加主机管理 说明 每台待添加的主机需安装JDK环境。 每台待添加的主机需创建好用户,如teledb。 每台待添加的主机需对环境进行初始化。可参考准备工作章节对环境进行初始化。 ① 在左侧导航树中选择资源管理 > 主机管理 ,进入主机管理页面。 ② 单击添加主机 ,出现添加主机弹框。 ③ 填写 IP地址 、 SSH端口 、 SSH用户名 、 SSH用户密码 、 监控插件端口 、 监控插件部署目录 ,CPU类型 和操作系统等必填信息。 IP地址:部署规划的实例主机ip。 SSH端口:填写SSH端口。 SSH用户名:根据您创建的用户名填写。填写机器的用户名 不要用root账号,需使用有sudo权限的账号。 SSH密码:根据您设置的密码填写。 监控插件端口:端口不能被占用,如占用需更换端口。 监控插件部署目录:系统默认自动填写,无需修改。 CPU类型:请选择您的实际使用的类型。 操作系统类型:请选择您实际使用的类型。 ④ 单击 测试联通及硬件检测 ,出现绿色标识,单击 确定 ,完成主机的添加。 5. 添加VIP ① 在左侧导航树选择 资源管理> VIP管理 ,进入VIP管理页面。 ② 单击 添加VIP ,弹出添加VIP弹框。 ③ 填写 IP类型 、 IP地址 ,单击 确定 ,完成VIP的添加。 6. 导入sql语句至dcp库中prodtemplate配置表。 ① 查找sql语句。 打开dcp安装包中Readme.md文件,查找teleDBX标题的sql语句。具体内容如下: INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces,prodhostconfig, prodshow, iscontainerization, prodspecenname,prodspecendesc) VALUES (1, 10012001, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主一备,主备自动切换,企业业务生产首选 ', '企业版 ', '6.15', '["2C4G","4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts":[{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":2,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001},{"hostTypeName":"cn","hostType":"cn","hostDefaultNum":2,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003},{"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL);INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces,prodhostconfig, prodshow, iscontainerization, prodspecenname,prodspecendesc) VALUES (1, 10012002, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主两备,支持两地三中心部署模式,达到金融级高可用 ', '灾备版 ', '6.15', '["2C4G","4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts":[{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":3,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001},{"hostTypeName":"cn","hostType":"cn","hostDefaultNum":3,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003},{"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL); ② 在配置库导入表数据。 执行如下命令查找prodtemplate 配置表所在目录。 ps ef grep mysqld 执行如下命令,进入sql语句所在目录。 cd /app/monitor/teledb/mysqlinstall/bin/ 执行如下命令,导入sql语句中内容。 ./mysql u root S /tmp/mysql6301.sock p 导入后,输入exit退出。 说明 这里dcp的sql导入的teledbx版本是6.14,如果你后面上传的teledbx的内核版本是6.15的 话,请把6.14改为6.15,请按照您实际版本修改。 7. 导入软件包 ① 以admin用户名和密码登录控制台。单击立即使用进入实例管理页面。 ② 单击图标,切换至TeleDB控制台。 ③ 选择 资源管理 > 软件包管理 ,进入软件包管理页面。 ④ 在软件包管理页面,单击 添加软件包 ,弹出添加软件包弹框。 ⑤ 填写基本信息。 包类型:根据实际情况选择。 软件类型:根据系统默认选择。 软件包:单击 点击上传 ,上传软件包。 软件包MD5:根据实际情况填写。 您可执行md5sum 软件包名命令查找MD5。 ⑥ 单击 确定 ,完成软件包的添加。 8. 实例开通 ① 单击图标,切换至DCP控制台。 ② 在左侧导航树中选择 实例管理> 创建实例 ,进入实例开通页面。 ③ 选择 TeleDB 、 企业版 ,填写基本信息。 输入密码 和 默认密码 ,其它信息根据系统默认填写。 ④ 单击 下一步 ,进入实例开通下一个页面。 ⑤ 根据实际情况,填写基本信息。 ⑥ 单击 提交工单 ,完成实例开通。 ⑦ 您可通过 实例管理> 工单管理 ,查看工单详情。 ⑧ 您可通过 实例管理> 实例列表 ,查看实例详情信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        实例服务器初始化及实例开通
      • 处理误报事件
        使用场景 业务正常请求被WAF拦截。例如,您在ECS服务器上部署了一个Web应用,将该Web应用对应的公网域名接入WAF并开启Web基础防护后,该域名的请求流量命中了Web基础防护规则被WAF误拦截,导致通过域名访问网站显示异常,但直接通过IP访问网站正常。 操作步骤 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 单击页面左上角的“服务列表”,选择“安全 > Web应用防火墙(独享版)”。 4. 在左侧导航树中,选择“防护事件”,进入“防护事件”页面。 5. 选择“查询”页签,在网站下拉列表中选择待查看的防护网站,可查看“昨天”、“今天”、“3天”“7天”、“30天”或者自定义时间范围内的防护日志。 6. 在“防护事件列表”中,根据实际情况对防护事件进行处理。 确认事件为误报,在目标防护事件所在行的“操作”列,单击“事件处理 > 误报处理”,添加误报处理策略。 添加误报屏蔽策略,参数说明如表所示: 参数 参数说明 取值样例 防护方式 “全部域名”:默认防护当前策略下绑定的所有域名。 “指定域名”:选择策略绑定的防护域名或手动输入泛域名对应的单域名。 指定域名 防护域名 “防护方式”选择“指定域名”时,需要配置此参数。 需要手动输入当前策略下绑定的需要防护的泛域名对应的单域名,且需要输入完整的域名。 www.example.com 条件列表 单击“添加”增加新的条件,一个防护规则至少包含一项条件,最多可添加30项条件,多个条件同时满足时,本条规则才生效。 条件设置参数说明如下: 字段 子字段:当字段选择“Params”、“Cookie”或者“Header”时,请根据实际使用需求配置子字段。子字段的长度不能超过2048字节,且只能由数字、字母、下划线和中划线组成。 逻辑:在“逻辑”下拉列表中选择需要的逻辑关系。 内容:输入或者选择条件匹配的内容。 “路径”包含“/product” 不检测模块 “所有检测模块”:通过WAF配置的其他所有的规则都不会生效,WAF将放行该域名下的所有请求流量。 “Web基础防护模块”:选择此参数时,可根据选择的“不检测规则类型”,对某些规则ID或者事件类别进行忽略设置(例如,某URL不进行XSS的检查,可设置屏蔽规则,屏蔽XSS检查)。 Web基础防护模块 不检测规则类型 “不检测模块”选择“Web基础防护模块”时,您可以选择以下三种方式进行配置: 按ID:按攻击事件的ID进行配置。 按类别:按攻击事件类别进行配置,如:XSS、SQL注入等。一个类别会包含一个或者多个规则ID。 所有内置规则:配置Web基础防护规则里开启的所有防护规则。 按类别 不检测规则ID 当“不检测规则类型”选择“按ID”时,需要配置此参数。 “防护事件”列表中事件类型为非自定义规则的攻击事件所对应的规则编号。建议您直接在防护事件页面进行误报处理。 041046 不检测规则类别 当“不检测规则类型”选择“按类别”时,需要配置此参数。 在下拉框中选择事件类别。 WAF支持的防护事件类别有:XSS攻击、网站木马、其他类型攻击、SQL注入攻击、恶意爬虫、远程文件包含、本地文件包含、命令注入攻击。 SQL注入攻击 规则描述 可选参数,设置该规则的备注信息。 不拦截SQL注入攻击 高级设置 如果您只想忽略来源于某攻击事件下指定字段的攻击,可在“高级设置”里选择指定字段进行配置,配置完成后,WAF将不再拦截指定字段的攻击事件。 在左边第一个下拉列表中选择目标字段。支持的字段有:Params、Cookie、Header、Body、Multipart。 当选择“Params”、“Cookie”或者“Header”字段时,可以配置“全部”或根据需求配置子字段。 当选择“Body”或“Multipart”字段时,可以配置“全部”。 当选择“Cookie”字段时,“防护域名”可以为空。 说明 当字段配置为“全部”时,配置完成后,WAF将不再拦截该字段的所有攻击事件。 Params 全部 将源IP添加到地址组。在目标防护事件所在行的“操作”列,单击“事件处理 > 添加到地址组”,添加成功后将根据该地址组所应用的防护策略进行拦截或放行。“添加方式”可选择已有地址组或者新建地址组。 将源IP添加至对应防护域名下的黑白名单策略。在目标防护事件所在行的“操作”列,单击“事件处理 > 添加至黑白名单”,添加成功后该策略将始终对添加的攻击源IP进行拦截或放行。 参数说明见下表: 参数 参数说明 添加方式 选择已有规则 新建规则 规则名称 添加方式选择“选择已有规则”时,在下拉框中选择规则名称。 添加方式选择“新建规则”时,自定义黑白名单规则的名字。 IP/IP段或地址组 添加方式选择“新建规则”时,需要配置此参数。 支持添加黑白名单规则的方式,“IP/IP段”或“地址组”。 地址组名称 “IP/IP段或地址组”选择“地址组”时,需要配置此参数。 在下拉列表框中选择已添加的地址组。 防护动作 拦截:IP地址或IP地址段设置的是黑名单且需要拦截,则选择“拦截”。 放行:IP地址或IP地址段设置的是白名单,则选择“放行”。 仅记录:需要观察的IP地址或IP地址段,可选择“仅记录”。 攻击惩罚 当“防护动作”设置为“拦截”时,您可以设置攻击惩罚标准。设置攻击惩罚后,当访问者的IP、Cookie或Params恶意请求被拦截时,WAF将根据惩罚标准设置的拦截时长来封禁访问者。 规则描述 可选参数,设置该规则的备注信息。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        管理防护事件
        处理误报事件
      • 功能特性
        云工作流支持的功能如下(公测版): 功能集 功能 功能说明 参考文档 基本功能 流程(Flow) 云工作流基于CNCF ServerlessWorkflow Specification 0.8版本进行适配优化作为天翼云云工作流执行流程定义。执行流程时,云工作流执行引擎会根据流程定义解析并驱动执行相关状态流转。 一个流程通常包含若干状态(State),这些状态可以是简单的执行类状态,例如操作(Operation)、暂停(Sleep)、传递(Noop)和失败(Fail)等;也可以是复杂的流程控制类状态,例如条件分支(Switch)、并行(Parallel)和迭代(Foreach)。 流程定义介绍 创建流程 执行流程 基本功能 调度(Schedule) 云工作流调度(即触发器)是触发工作流执行的方式。在事件驱动的计算模型中,事件源是事件的生产者,工作流是事件的处理者。云工作流目前支持比较常见的触发器场景: 定时触发器、HTTP触发器、消息队列类型(Kafka、 RokectMQ)触发器, 云原生网关触发器 工作流调度简介 特性功能 标准(Standard)模式 云工作流支持创建标准(Standard)和快速(Express)两种模式的工作流。 标准(Standard)模式适用于传统意义上的离线业务流程编排执行场景,具备执行步骤状态的持久化存储,支持运行长时间的工作流执行状态流转。 快速工作流和标准工作流 特性功能 快速(Express)模式 云工作流支持创建标准(Standard)和快速(Express)两种模式的工作流。 快速(Express)模式适用于常见的在线业务流程编排和准实时业务流程编排场景,例如微服务API编排、流式数据处理等低延迟和大负载业务场景。 快速工作流和标准工作流 运维及可观测建设 工作流执行监控 工作流执行监控可对工作流的执行启动、执行成功、执行失败、执行超时以及执行过程中的状态转换和执行耗时等指标进行监控和展示。 监控指标 运维及可观测建设 审计事件 云工作流已接入审计服务,可以在云审计中查询用户操作云工作流产生的管控事件, 例如创建工作流、删除工作流以及执行工作流等。 审计事件 流程开发 工作流设计器 云工作流提供一个低代码、可视化的工作流设计器,包含cloudflow studio、 yaml以及工作流设置等功能区。可以基于cloudflow studio进行工作流可视化编排以及相关属性设置, 降低用户对流程定义语言的学习成本。 工作流设计器 集成建设 云服务优化集成 云工作流支持与天翼云多个云服务集成,允许在流程中调用这些云服务的API进行相关资源的操作,完成业务流程构建。 云工作流与云服务的集成类型包括普通集成和优化集成。普通集成是指允许云工作流直接调用云产品的OpenAPI服务接口,不对这些服务接口做任何包装处理和实现优化,基本包括了在天翼云OpenAPI门户注册的云服务OpenAPI服务接口。 优化集成是指对部分高频使用的云产品服务接口进行包装和优化处理,简化接口使用难度,方便用户集成。 集成模式 服务集成模式 函数计算集成 云工作流计集成 集成建设 云服务普通集成 普通集成是指云工作流直接通过在天翼云产品在天翼云OpenAPI门户注册的OpenAPI对外提供的服务接口进行集成调用,不对服务接口做任何特殊处理和优化。 允许云工作流通过调用弹性计算、存储服务、数据库、容器、大数据处理、中间件服务在内的多个天翼云服务的接口实现业务流程编排。 普通集成
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        功能简介
        功能特性
      • 使用限制
        分类 对象 使用限制 仪表盘 仪表盘 1个区域中最多可创建50个仪表盘。 仪表盘 仪表盘中的图表 1个仪表盘中最多可添加20个图表。 仪表盘 仪表盘中图表可选资源、阈值规则、组件或主机的个数 1个曲线图中最多可添加100个资源,且资源可跨集群选择。 1个数字图只能添加1个资源。 1个阈值状态图表最多可添加10个阈值规则。 1个主机状态图表最多可添加10个主机。 1个组件状态图表最多可添加10个组件。 指标 指标数据 基础规格:指标数据最多保存7天。 指标 指标项 资源(例如,集群、组件、主机等)被删除后,其关联的指标项在数据库中最多保存30天。 指标 维度 每个指标的维度最多为20个。 指标 指标查询接口 单次最大可同时查询20个指标。 指标 统计周期 最大统计周期为1小时。 指标 单次查询返回指标数据 单个指标单次查询最大返回1440个数据点。 指标 上报自定义指标 单次请求数据最大不能超过40KB。 指标 应用指标 JOB指标 每个主机的容器个数超过1000个时,ICAgent将停止采集该主机应用指标,并发送“ICAgent停止采集应用指标”告警(告警ID:34105)。 每个主机的容器个数缩减到1000个以内时,ICAgent将恢复该主机应用指标采集,并清除“ICAgent停止采集应用指标”告警 。 由于JOB在完成任务之后,会自动退出。如果您需要监控JOB指标,要保证存活时间大于90秒才能采集到指标数据。 指标 采集器资源消耗 采集器在采集基础指标时的资源消耗情况和容器、进程数等因素有关,在未运行任何业务的VM上,采集器将消耗30M内存、1% CPU。为保证采集可靠性,单节点上运行的容器个数应小于1000。 阈值规则 阈值规则 一个项目下最多可创建1000个阈值规则。 阈值规则 发送通知可选择主题数 每个阈值规则最多可选择5个主题。 日志 单条日志大小 每条日志最大10KB,超出后ICAgent将不会采集该条日志,即该条日志会被丢弃 日志 日志流量 每个租户在每个Region的日志流量不能超过10MB/s。如果超过10MB/s,则可能导致日志丢失。 日志 历史日志 历史日志存储空间免费额度为500MB 日志 日志文件 只支持采集文本类型日志文件,不支持采集其他类型日志文件(例如二进制文件)。 日志 每个通过卷挂载日志的路径下,ICAgent最多采集20个日志文件。 日志 每个ICAgent最多采集1000个容器标准输出日志文件,容器标准输出日志只支持jsonfile类型。 日志 采集日志文件的资源消耗 日志文件采集采集时消耗的资源和日志量、文件个数及网络带宽、backend服务处理能力等多种因素强相关。 日志 日志丢失 采集器使用多种机制保证日志采集的可靠性,尽可能保证数据不丢失,但在如下场景可能导致日志丢失。 日志文件未使用CCE提供的logPolicy轮转策略。 日志文件轮转速度过快,如1秒轮转一次。 系统安全设置或syslog自身原因导致无法转发日志。 容器运行时间过短,例如小于30s。 单节点总日志产生速度过快,超过了单节点网络发送带宽或日志采集速度,建议单节点总日志产生速度<5M/s。 日志 日志丢弃 当单行日志长度超过10240字节时,此行会被丢弃。 日志 日志重复 当采集器被重启后,重启时间点附近可能会产生一定的数据重复。 日志 统计规则 一个日志桶下最多可创建5条统计规则。 告警中心 告警 您最多可查询最近30天的告警。 告警中心 事件 您最多可查询最近30天的事件。
        来自:
        帮助文档
        应用运维管理
        产品简介
        使用限制
      • 产品功能
        功能名称 功能描述 虚拟私有云 虚拟私有云VPC是您在云上的私有网络,为云主机、云容器、云数据库等云上资源构建隔离、私密的虚拟网络环境。VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表等。此外,您可以通过弹性公网IP连通云内VPC和公网网络,通过云专线、虚拟专用网络等连通云内VPC和线下数据中心,构建混合云网络,灵活整合资源。 子网 子网是虚拟私有云内的IP地址集,可以将虚拟私有云的网段分成若干块,子网划分可以帮助您合理规划IP地址资源。虚拟私有云中的所有云资源都必须部署在子网内。同一个虚拟私有云下,子网网段不可重复。 路由表和路由 路由表由一系列路由规则组成,用于控制VPC内出入子网的流量走向。VPC中的每个子网都必须关联一个路由表,一个子网只能关联一个路由表,但一个路由表可以同时关联至多个子网。 虚拟IP 虚拟IP(Virtual IP Address)是从VPC子网网段中划分的一个内网IP地址,是一种可以独立申请和删除的内网IP地址,适用于以下场景: 将一个或者多个虚拟IP同时绑定至一个云主机,可以通过任意一个IP地址(私有IP/虚拟IP)访问云主机。通常当单个云主机内同时部署了多种业务,此时可以通过不同的虚拟IP访问各个业务。 将一个虚拟IP同时绑定至多个云主机,虚拟IP需要搭配高可用软件(比如Keepalived),用来搭建高可用的主备集群。 弹性网卡 弹性网卡即虚拟网卡,您可以通过创建并配置弹性网卡,并将其附加到您的ECS实例上,实现灵活、高可用的网络方案配置。 辅助弹性网卡 辅助弹性网卡是一种基于弹性网卡的衍生资源,用于解决单个云主机实例挂载的弹性网卡超出上限,不满足用户使用需要的问题。辅助弹性网卡通过VLAN子接口挂载在弹性网卡上,您可以通过创建辅助弹性网卡,使单个云主机实例挂载更多网卡,实现灵活、高可用的网络方案配置。 安全组 安全组是一个逻辑上的分组,为同一个VPC内具有相同安全保护需求并相互信任的弹性云主机提供访问策略。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 网络ACL 网络ACL是一个子网级别的可选安全防护层,您可以在网络ACL中设置入方向和出方向规则,并将网络ACL绑定至子网,可以精准控制出入子网的流量。 IP地址组 IP地址组是一个或者多个IP地址的集合,可关联至安全组、网络ACL,用于简化网络架构中IP地址的配置和管理。 VPC对等连接 对等连接是建立在两个VPC之间的网络连接,不同VPC之间网络不通,通过对等连接可以实现不同VPC之间的云上内网通信。对等连接用于连通同一个区域内的VPC,您可以在相同账户下或者不同账户下的VPC之间创建对等连接。 IPv4/IPv6双栈网络 IPv4/IPv6双栈可为您的实例提供两个不同版本的IP地址:IPv6地址在被加入共享带宽后,可以进行公网访问。 VPC流日志 VPC流日志功能可以记录虚拟私有云中的流量信息,帮助您检查和优化安全组和网络ACL控制规则、监控网络流量、进行网络攻击分析等。 流量镜像 VPC流量镜像功能可以镜像弹性网卡符合筛选条件的报文。您需要设置入方向和出方向的筛选条件,经过弹性网卡的流量符合筛选条件时,将被镜像到指定的云主机网卡,适用于网络流量检查、审计分析以及问题定位等场景。
        来自:
        帮助文档
        虚拟私有云 VPC
        产品简介
        产品功能
      • 创建并运行Elasticsearch脱敏任务
        本章节将介绍如何创建Elasticsearch脱敏任务。 创建ES脱敏任务后,可以对指定Elasticsearch数据源中的表/列进行敏感信息脱敏。 前提 已在“资产列表”中完成了云资源委托授权。 已添加了ES资产,具体请参见大数据资产列表章节。 已在“敏感数据识别”中完成了敏感数据识别,具体操作请参见创建敏感数据识别任务章节。 操作步骤 1. 单击左上角的,选择区域或项目。 2. 在左侧导航树中,单击,选择“安全>数据安全中心”,进入数据安全中心总览界面。 3. 在左侧导航树中选择“数据脱敏”,并选择“ES脱敏”页签,进入ES脱敏页面。 4. 将“ES脱敏”开关打开,开启ES脱敏。 5. 单击“新建任务”,进入“数据源配置”页面,如下图所示,具体参数说明如下表所示。 参数名称 参数说明 任务名称 您可以自定义脱敏任务的名称。 任务名称需要满足以下要求: 1~255个字符。 字符可由中文、英文字母、数字、下划线或中划线组成。 数据源选择 选择数据来源。目前仅支持“Elasticsearch”。 数据源 说明 如果没有可使用的ES资产,可单击“添加ES源”,添加ES资产,具体的操作可参见添加大数据源资产。 Elasticsearch实例:选择脱敏数据所在的Elasticsearch实例。 数据源 说明 如果没有可使用的ES资产,可单击“添加ES源”,添加ES资产,具体的操作可参见添加大数据源资产。 索引(Index):选择脱敏数据所在的索引。 数据源 说明 如果没有可使用的ES资产,可单击“添加ES源”,添加ES资产,具体的操作可参见添加大数据源资产。 Type:选择脱敏数据所在的Type。 数据源 说明 如果没有可使用的ES资产,可单击“添加ES源”,添加ES资产,具体的操作可参见添加大数据源资产。 Field:勾选后将该列数据拷贝到目标数据库。 此处还显示数据列的“目标数据类型”,“风险等级”。 6. 单击“下一步”,进入“脱敏算法配置”页面。 1. 勾选需要脱敏的Field。 2. 选择脱敏算法。脱敏算法更多详细信息请参见配置脱敏规则章节。 7. 可以点击“下一步”,进入“脱敏周期”页面,配置脱敏周期。 选择并设置脱敏任务的执行周期: 手动:由用户自行启动的,且基于脱敏规则执行脱敏任务。 每小时:每几个小时执行一次脱敏任务。 示例:如果需要每2小时执行一次脱敏任务,则此处设置为:02:00 每天:每天几点几分执行一次脱敏任务。 示例:如果需要每天12:00执行一次脱敏任务,则此处设置为:12:00:00 每周:每周几的几点几分执行一次脱敏任务。 示例:如果需要每周一的12:00执行一次脱敏任务,则此处设置为:每周一12:00:00 每月:每月几日几时执行一次脱敏任务。 示例:如果需要每月12日的12:00执行一次脱敏任务,则此处设置为:每月12日12:00:00 说明 如果设置每月31日执行一次脱敏任务,在当月日期少于31日的情况下,系统自动在当月最后一日执行任务。 8. 单击“下一步”,进入“数据目标配置”页面。 1. 选择“Elasticsearch实例”、“索引(Index)”,并输入“Type”。 如果输入的Type已存在,系统将刷新目标数据源中该Type中的数据。 如果输入的Type不存在,系统将自动在目标数据源中新建该名称的Type。 注意 如果需要填写已有的Type,请勿选择业务Type,以免影响业务。 2. 设置数据目标列名。 系统默认将生成与数据源列相同的名称,您可以保持默认名称,也可以根据需要进行修改。 9. 单击“完成”,完成脱敏规则的创建。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据隐私保护
        数据脱敏
        静态脱敏
        创建数据脱敏任务
        创建并运行Elasticsearch脱敏任务
      • 修改自定义参数模板
        本节主要介绍修改自定义参数模板 您可以根据业务需要修改自定义参数模板的名称、描述和配置参数。 操作步骤 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击,选择区域和项目。 步骤 3 单击左侧菜单栏的“参数模板”,进入“参数模板”页面。 步骤 4 选择“自定义”。 步骤 5 可以通过两种方式修改自定义参数模板。 单击需要修改的自定义模板右侧“操作”栏下的“编辑”。 a. 修改模板名称和描述。 b. 在“配置参数”区域,在选项框选择“可修改参数”,在需要修改的配置参数对应的“参数运行值”列输入修改值。各参数的详细介绍见下表,一般情况下,按照系统默认值设置参数即可。 c. 单击“确定”,完成修改配置参数。 单击自定义模板名称,进入模板的参数页面,可修改配置参数。 d. 配置参数选择“可修改参数”。支持通过参数名称搜索对应的参数,直接在搜索栏输入关键字即可。 e. 单击“修改”。 f. 在需要修改的配置参数对应的“参数运行值”列输入修改值。各参数的详细介绍见下表,一般情况下,按照系统默认值设置参数即可。 g. 单击“保存”,完成修改配置参数。 Redis缓存实例配置参数说明 参数名 参数解释 取值范围 默认值 timeout 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。Proxy集群实例不支持该参数。 0~7200,单位:秒。 0 appendfsync 操作系统的fsync函数刷新缓冲区数据到磁盘,有些操作系统会真正刷新磁盘上的数据,其他一些操作系统只会尝试尽快完成。Redis支持三种不同的调用 fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。单机实例不支持该参数。 l nol alwaysl everysec no appendonly 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。有2个取值供选择:yes:开启。no:关闭。单机实例不支持该参数。 l yesl no yes clientoutputbufferlimitslavesoftseconds slave客户端outputbuffer超过clientoutputbufferslavesoftlimit设置的大小,并且持续时间超过此值(单位为秒),服务端会主动断开连接。单机实例不支持该参数。 0~60 60 clientoutputbufferslavehardlimit 对slave客户端outputbuffer的硬限制(单位为字节),如果slave客户端outputbuffer大于此值,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 clientoutputbufferslavesoftlimit 对slave客户端outputbuffer的软限制(单位为字节),如果outputbuffer大于此值并且持续时间超过clientoutputbufferlimitslavesoftseconds设置的时长,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 maxmemorypolicy 在达到内存上限(maxmemory)时DCS将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu:根据LFU算法删除设置了过期时间的键值。 allkeyslfu:根据LFU算法删除任一键值。 取值范围与实例的版本有关 默认值与实例的版本及类型有关 luatimelimit Lua脚本的最长执行时间,单位为毫秒。读写分离实例不支持设置该参数。 100~5,000 5,000 masterreadonly 设置实例为只读状态。设置只读后,所有写入命令将返回失败。Proxy集群、读写分离实例不支持该参数。 l yesl no no maxclients 最大同时连接的客户端个数。Proxy集群、读写分离实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 protomaxbulklen Redis协议中的最大的请求大小,单位为字节。读写分离实例不支持设置该参数。 1,048,576~536,870,912 536,870,912 replbacklogsize 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。单机实例不支持该参数。 16,384~1,073,741,824 1,048,576 replbacklogttl 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。单机实例不支持该参数。 0~604,800 3,600 repltimeout 主从同步超时时间,单位为秒。单机实例不支持该参数。 30~3,600 60 hashmaxziplistentries 当hash表中只有少量记录时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 512 hashmaxziplistvalue 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 64 setmaxintsetentries 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的数据结构对集合进行编码。 1~10000 512 zsetmaxziplistentries 当有序集合中只有少量记录时,使用有利于节约内存的数据结构对有序序列进行编码。 1~10000 128 zsetmaxziplistvalue 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的数据结构对有序集合进行编码。 1~10000 64 latencymonitorthreshold 延时监控的采样时间阈值(最小值),单位为毫秒。阈值设置为0:不做监控,也不采样;阈值设置为大于0:将记录执行耗时大于阈值的操作。可以通过LATENCY等命令获取统计数据和配置、执行采样监控。Proxy集群实例不支持该参数。 0~86400000,单位:毫秒。 0 notifykeyspaceevents notifykeyspaceevents选项的参数为空字符串时,功能关闭。另一方面,当参数不是空字符串时,功能开启。notifykeyspaceevents的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知: K:键空间通知,所有通知以keyspace@为前缀。 E:键事件通知,所有通知以keyevent@为前缀。 g:DEL、EXPIRE、RENAME等类型无关的通用命令的通知。 $:字符串命令的通知。 l:列表命令的通知。 s:集合命令的通知。 h:哈希命令的通知。 z:有序集合命令的通知。 x:过期事件:每当有过期键被删除时发送。 e:驱逐(evict)事件:每当有键因为maxmemory政策而被删除时发送。 A:参数glshzxe的别名。输入的参数中至少有一个K或者E,A不能与g$lshzxe同时出现,不能出现相同字母。举个例子,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。将参数设为字符串"AKE"表示发送所有类型的通知。Proxy集群实例不支持该参数。 请参考该参数的描述。 Ex slowloglogslowerthan Redis慢查询会记录超过指定执行时间的命令。slowloglogslowerthan用于配置记录到慢查询的命令执行时间阈值,单位为微秒。 0~1,000,000 10,000 slowlogmaxlen 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 0~1,000 128 multidb 开启或关闭多DB特性。要求先清除已有数据。清除数据之前请先手动备份生成备份文件。若要恢复已清除的数据请通过数据迁移页面的备份导入功能进行数据恢复。有2个取值供选择:yes:开启。no:关闭。仅Redis 4.0及以上版本的Proxy集群实例支持该参数。 l yesl no no 说明 1. maxclients、reservedmemorypercent、clientoutputbufferslavesoftlimit、clientoutputbufferslavehardlimit参数的默认值和取值范围与实例规格有关,因此不支持修改该四个参数。 2. 表中的内存优化相关参数可以参考Redis官网说明,链接: 3. latencymonitorthreshold参数一般在定位问题时使用。采集完latency信息,定位问题后,建议重新将latencymonitorthreshold设置为0,以免引起不必要的延迟。 4. notifykeyspaceevents参数的其他描述: 有效值为[KEKE][Aglshzxe$],即输入的参数中至少要有一个K或者E。 A为“g$lshzxe”所有参数的集合别名。A与“g$lshzxe”中任意一个不能同时出现。 例如,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。若将参数设为字符串"AKE"表示发送所有类型的通知
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        参数模板
        修改自定义参数模板
      • 创建自定义参数模板
        本节主要介绍创建自定义参数模板 您可以根据业务需要创建不同缓存版本和缓存类型的自定义参数模板,可以创建多个自定义参数模板。 操作步骤 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击,选择区域和项目。 步骤 3 单击左侧菜单栏的“参数模板”,进入“参数模板”页面。 步骤 4 选择“系统默认”或者“自定义”页签,可针对系统默认模板或已经创建好的自定义模板进行新的自定义模板创建。 如果选择“系统默认”,则单击需要创建实例类型的系统默认模板右侧“操作”栏下的“创建为自定义模板”。 如果选择“自定义”,则单击需要复制的自定义模板右侧“操作”栏下的“复制”。 步骤 5 设置“模板名称”和“描述”。 说明 模板名称长度为4到64位的字符串,以字母或者数字开头,模板名称只能包含字母、数字、中划线、下划线和点号。描述内容可以为空。 步骤 6 配置参数选择“可修改参数”。 当前支持通过参数名称搜索对应的参数,直接在搜索栏输入关键字即可。 步骤 7 在需要修改的配置参数对应的“参数运行值”列输入修改值。 各参数的详细介绍见下表,一般情况下,按照系统默认值设置参数即可。 Redis缓存实例配置参数说明 参数名 参数解释 取值范围 默认值 timeout 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。Proxy集群实例不支持该参数。 0~7200,单位:秒。 0 appendfsync 操作系统的fsync函数刷新缓冲区数据到磁盘,有些操作系统会真正刷新磁盘上的数据,其他一些操作系统只会尝试尽快完成。Redis支持三种不同的调用 fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。单机实例不支持该参数。 l nol alwaysl everysec no appendonly 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。有2个取值供选择:yes:开启。no:关闭。单机实例不支持该参数。 l yesl no yes clientoutputbufferlimitslavesoftseconds slave客户端outputbuffer超过clientoutputbufferslavesoftlimit设置的大小,并且持续时间超过此值(单位为秒),服务端会主动断开连接。单机实例不支持该参数。 0~60 60 clientoutputbufferslavehardlimit 对slave客户端outputbuffer的硬限制(单位为字节),如果slave客户端outputbuffer大于此值,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 clientoutputbufferslavesoftlimit 对slave客户端outputbuffer的软限制(单位为字节),如果outputbuffer大于此值并且持续时间超过clientoutputbufferlimitslavesoftseconds设置的时长,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 maxmemorypolicy 在达到内存上限(maxmemory)时DCS将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu:根据LFU算法删除设置了过期时间的键值。 allkeyslfu:根据LFU算法删除任一键值。 取值范围与实例的版本有关 默认值与实例的版本及类型有关 luatimelimit Lua脚本的最长执行时间,单位为毫秒。读写分离实例不支持设置该参数。 100~5,000 5,000 masterreadonly 设置实例为只读状态。设置只读后,所有写入命令将返回失败。Proxy集群、读写分离实例不支持该参数。 l yesl no no maxclients 最大同时连接的客户端个数。Proxy集群、读写分离实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 protomaxbulklen Redis协议中的最大的请求大小,单位为字节。读写分离实例不支持设置该参数。 1,048,576~536,870,912 536,870,912 replbacklogsize 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。单机实例不支持该参数。 16,384~1,073,741,824 1,048,576 replbacklogttl 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。单机实例不支持该参数。 0~604,800 3,600 repltimeout 主从同步超时时间,单位为秒。单机实例不支持该参数。 30~3,600 60 hashmaxziplistentries 当hash表中只有少量记录时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 512 hashmaxziplistvalue 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 64 setmaxintsetentries 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的数据结构对集合进行编码。 1~10000 512 zsetmaxziplistentries 当有序集合中只有少量记录时,使用有利于节约内存的数据结构对有序序列进行编码。 1~10000 128 zsetmaxziplistvalue 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的数据结构对有序集合进行编码。 1~10000 64 latencymonitorthreshold 延时监控的采样时间阈值(最小值),单位为毫秒。阈值设置为0:不做监控,也不采样;阈值设置为大于0:将记录执行耗时大于阈值的操作。可以通过LATENCY等命令获取统计数据和配置、执行采样监控。Proxy集群实例不支持该参数。 0~86400000,单位:毫秒。 0 notifykeyspaceevents notifykeyspaceevents选项的参数为空字符串时,功能关闭。另一方面,当参数不是空字符串时,功能开启。notifykeyspaceevents的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知: K:键空间通知,所有通知以keyspace@为前缀。 E:键事件通知,所有通知以keyevent@为前缀。 g:DEL、EXPIRE、RENAME等类型无关的通用命令的通知。 $:字符串命令的通知。 l:列表命令的通知。 s:集合命令的通知。 h:哈希命令的通知。 z:有序集合命令的通知。 x:过期事件:每当有过期键被删除时发送。 e:驱逐(evict)事件:每当有键因为maxmemory政策而被删除时发送。 A:参数glshzxe的别名。输入的参数中至少有一个K或者E,A不能与g$lshzxe同时出现,不能出现相同字母。举个例子,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。将参数设为字符串"AKE"表示发送所有类型的通知。Proxy集群实例不支持该参数。 请参考该参数的描述。 Ex slowloglogslowerthan Redis慢查询会记录超过指定执行时间的命令。slowloglogslowerthan用于配置记录到慢查询的命令执行时间阈值,单位为微秒。 0~1,000,000 10,000 slowlogmaxlen 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 0~1,000 128 multidb 开启或关闭多DB特性。要求先清除已有数据。清除数据之前请先手动备份生成备份文件。若要恢复已清除的数据请通过数据迁移页面的备份导入功能进行数据恢复。有2个取值供选择:yes:开启。no:关闭。仅Redis 4.0及以上版本的Proxy集群实例支持该参数。 l yesl no no 说明 1. maxclients、reservedmemorypercent、clientoutputbufferslavesoftlimit、clientoutputbufferslavehardlimit参数的默认值和取值范围与实例规格有关,因此不支持修改该四个参数。 2. 表中的内存优化相关参数可以参考Redis官网说明,链接: 3. latencymonitorthreshold参数一般在定位问题时使用。采集完latency信息,定位问题后,建议重新将latencymonitorthreshold设置为0,以免引起不必要的延迟。 4. notifykeyspaceevents参数的其他描述: 有效值为[KEKE][Aglshzxe$],即输入的参数中至少要有一个K或者E。 A为“g$lshzxe”所有参数的集合别名。A与“g$lshzxe”中任意一个不能同时出现。 例如,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。若将参数设为字符串"AKE"表示发送所有类型的通知。 步骤 8 单击“确定”,完成创建自定义参数模板。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        参数模板
        创建自定义参数模板
      • 配置HTTPS监听器安全策略
        本文帮助您快速熟悉如何配置HTTPS监听 TLS安全策略 操作场景: 安全传输层协议(TLS)用于在两个通信应用程序之间提供保密性和数据完整性,您可以在创建和修改HTTPS监听时,配置选择TLS安全策略,提高应用的安全性。仅部分集群模式资源池的性能保障型负载均衡实例支持设置安全策略,主备模式资源池以及经典型负载均衡不支持设置,主备、集群模式资源池列表见 产品简介>产品类型和规格, 实际情况以控制台展现为准。 操作步骤: 添加HTTPS监听器时配置安全策略 具体操作如下: 1.登录弹性负载均衡控制台。 2.在顶部左侧选择弹性负载均衡所属区域。 3.选择以下一种方法打开监听器配置向导。 在负载均衡器列表页面,找到目标实例,在操作列单击“监听器配置向导”。 在ip类型/监听器端口/健康检查/服务器组列下方单击“开始配置”。 在负载均衡器列表页面,找到目标实例,单击实例名称进入实例详情页,单击“添加监听器”。 4.在高级配置中可见安全策略选择,默认选中策略为“TLSpolicy12”,可以根据实际应用需要选择不同策略。可选策略如下: 安全策略名称 支持TLS版本 支持加密算法套件 说明 TLSpolicy10with13 TLS v1.0/TLS v1.1/TLS v1.2//TLSv1.3 TLSAES128GCMSHA256、TLSAES256GCMSHA384、TLSCHACHA20POLY1305SHA256、TLSAES128CCMSHA256、TLSAES128CCM8SHA256、ECDHEECDSACHACHA20POLY1305、ECDHERSACHACHA20POLY1305、ECDHEECDSAAES128GCMSHA256、ECDHERSAAES128GCMSHA256、ECDHEECDSAAES256GCMSHA384、ECDHERSAAES256GCMSHA384、ECDHEECDSAAES128SHA256、ECDHERSAAES128SHA256、ECDHEECDSAAES128SHA、ECDHERSAAES256SHA384、ECDHERSAAES128SHA、ECDHEECDSAAES256SHA384、ECDHEECDSAAES256SHA、ECDHERSAAES256SHA、AES128GCMSHA256、AES256GCMSHA384、AES128SHA256、AES256SHA256、AES128SHA、AES256SHA 支持TLS1.0、TLS1.1、TLS1.2、TLS1.3版本与相关加密套件,兼容性好,安全性低。当前安全策略包含低于TLS 1.2版本的协议,存在安全风险,建议选择高版本安全策略。 TLSpolicy10 TLS v1.0/TLS v1.1/TLS v1.2 ECDHEECDSAAES128GCMSHA256、ECDHEECDSAAES256GCMSHA384、ECDHEECDSAAES128SHA256、ECDHEECDSAAES256SHA384、ECDHERSAAES128GCMSHA256、ECDHERSAAES256GCMSHA384、ECDHERSAAES128SHA256、ECDHERSAAES256SHA384、AES128GCMSHA256、AES256GCMSHA384、AES128SHA256、AES256SHA256、ECDHEECDSAAES128SHA、ECDHEECDSAAES256SHA、ECDHERSAAES128SHA、ECDHERSAAES256SHA、AES128SHA、AES256SHA 支持TLS1.0、TLS1.1、TLS1.2版本与相关加密套件,兼容性好,安全性低。当前安全策略包含低于TLS 1.2版本的协议,存在安全风险,建议选择高版本安全策略。 TLSpolicy11 TLS v1.1/TLS v1.2 ECDHEECDSAAES128GCMSHA256、ECDHEECDSAAES256GCMSHA384、ECDHEECDSAAES128SHA256、ECDHEECDSAAES256SHA384、ECDHERSAAES128GCMSHA256、ECDHERSAAES256GCMSHA384、ECDHERSAAES128SHA256、ECDHERSAAES256SHA384、AES128GCMSHA256、AES256GCMSHA384、AES128SHA256、AES256SHA256、ECDHEECDSAAES128SHA、ECDHEECDSAAES256SHA、ECDHERSAAES128SHA、ECDHERSAAES256SHA、AES128SHA、AES256SHA 支持TLS1.1、TLS1.2版本与相关加密套件,兼容性较好,安全性中。当前安全策略包含低于TLS 1.2版本的协议,存在安全风险,建议选择高版本安全策略。 TLSpolicy12 TLS v1.2 ECDHEECDSAAES128GCMSHA256、ECDHEECDSAAES256GCMSHA384、ECDHEECDSAAES128SHA256、ECDHEECDSAAES256SHA384、ECDHERSAAES128GCMSHA256、ECDHERSAAES256GCMSHA384、ECDHERSAAES128SHA256、ECDHERSAAES256SHA384、AES128GCMSHA256、AES256GCMSHA384、AES128SHA256,AES256SHA256、ECDHEECDSAAES128SHA、ECDHEECDSAAES256SHA、ECDHERSAAES128SHA、ECDHERSAAES256SHA、AES128SHA、AES256SHA 支持TLS1.2版本与相关加密套件,兼容性较好,安全性高。 TLSpolicy12Strict TLS v1.2 ECDHEECDSAAES128GCMSHA256、ECDHEECDSAAES256GCMSHA384、ECDHEECDSAAES128SHA256、ECDHEECDSAAES256SHA384、ECDHERSAAES128GCMSHA256、ECDHERSAAES256GCMSHA384、ECDHERSAAES128SHA256、ECDHERSAAES256SHA384、ECDHEECDSAAES128SHA、ECDHEECDSAAES256SHA、ECDHERSAAES128SHA、ECDHERSAAES256SHA 支持TLS1.2版本与相关加密套件,兼容性一般,安全性高。 TLSpolicy12strict1.3 TLSv1.2/TLSv1.3 TLSAES128GCMSHA256、TLSAES256GCMSHA384、TLSCHACHA20POLY1305SHA256、TLSAES128CCMSHA256、TLSAES128CCM8SHA256、ECDHEECDSAAES128GCMSHA256、ECDHEECDSAAES256GCMSHA384、ECDHEECDSAAES128SHA256、ECDHEECDSAAES256SHA384、ECDHERSAAES128GCMSHA256、ECDHERSAAES256GCMSHA384、ECDHERSAAES128SHA256、ECDHERSAAES256SHA384、ECDHEECDSAAES128SHA、ECDHEECDSAAES256SHA、ECDHERSAAES128SHA、ECDHERSAAES256SHA 支持TLS1.2和TLS1.3版本与相关加密套件,兼容性较好,安全性很高 5.配置其他参数, 添加后端主机组,并配置HTTPS监听器负载方式和健康检查,完成监听创建。详见 添加HTTPS监听器。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        配置HTTPS监听器安全策略
      • 错误码列表
        本节主要介绍OOS API错误码。 状态码 错误码 错误信息 描述 400 AuthorizationHeaderMalformed The authorization header is malformed. 签名头格式不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Credential. 签名头格式不正确,需补充Credential。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing SignedHeaders. 签名头格式不正确,需补充SignedHeaders。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Signature. 签名头格式不正确,需补充Signature。 400 AuthorizationHeaderMalformed The authorization header is malformed, the Credential is malformed, expecting 'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'. 签名头中Credential格式不正确,格式应该为'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the date format 'date' is wrong, expecting 'YYYYMMDD'. 签名头中date格式不正确,应该为'YYYYMMDD'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the region'region' is wrong, expecting 'region'. 签名头中区域名不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect service 'service '. This endpoint belongs to 'endpoint'. 签名头不正确,服务域名不对。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect terminal 'terminal'. This endpoint uses 'aws4request'. 签名头不正确,endpoint应使用服务aws4request。 400 AuthorizationPostFormFieldsError Form Post authentication version 4 requires the policy, xamzalgorithm, xamzcredential, xamzsignature, xamzdate form fields. V4签名中policy、xamzalgorithm、xamzcredential、xamzsignature、xamzdate不能为空。 400 AuthorizationPostFormFieldsError Xamzalgorithm only supports 'AWS4HMACSHA256'. v4签名算法仅支持AWS4HMACSHA256。 400 AuthorizationPostFormFieldsError Xamzdate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". xamzdate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError XAmzAlgorithm only supports 'AWS4HMACSHA256'. V4预签名签名算法仅支持AWS4HMACSHA256。 400 AuthorizationQueryParametersError Querystring authentication version 4 requires the XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires parameters. V4预签名需要下列参数:XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires。 400 AuthorizationQueryParametersError XAmzExpires must be less than a week (in seconds); that is, the given XAmzExpires must be less than 604800 seconds. V4预签名生成时间不能超过7天。 400 AuthorizationQueryParametersError XAmzExpires must be nonnegative. V4预签名过期时间不能为负数。 400 AuthorizationQueryParametersError XAmzDate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". V4预签名XAmzDate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError Invalid credential date"date". This date is not the same as XAmzDate:"date". V4预签名credential date与XAmzDate的日期需要保持一致。 400 BadDigest The ContentMD5 you specified did not match what we received. ContentMD5不正确。 400 BadRequest Advance cut's position is out of image. 剪切图片时起始坐标超过原图片尺寸。 400 CanNotModifyMetadataLocation Can not modifiy bucket metadata location. 不能修改元数据位置。 400 IdMismatch Document ID does not match the specified configuration ID. 请求头和请求体中清单ID输入不一致。 400 IncompleteBody You did not provide the number of bytes specified by the ContentLength HTTP header. ContentLength配置的长度与实际收到的数据长度不符,请检查后重发。 400 InvalidArgument User key must have a length greater than 0. 表单上传文件时Key项的值不能为空。 400 InvalidArgument The authorization header is invalid. Expected AccessKeyId:signature. v2签名格式不正确,应该为“AccessKeyId :signature”。 400 InvalidArgument xamzcontentsha256 must be UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD, or a valid sha256 value. v4签名xamzcontentsha256必须是UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD或者有效的sha256值。 400 InvalidArgument Unsupported authorization type. v4签名Authentication标头只支持AWS4HMACSHA256算法。 400 InvalidArgument Bucket POST must contain a field named 'AWSAccessKeyId'. If it is specified, please check the order of the fields. 必须包含字段AWSAccessKeyId。 400 InvalidArgument Bucket POST must contain a field named 'policy'. If it is specified, please check the order of the fields. 必须包含字段policy。 400 InvalidArgument Bucket POST must contain a field named 'signature'. If it is specified, please check the order of the fields. 必须包含字段signature。 400 InvalidArgument POST requires exactly one file upload per request. POST请求每次只能上传一个文件。 400 InvalidArgument Bucket POST must contain a field named 'key'. If it is specified, please check the order of the fields. 表单上传中必须指定key。如果已指定,请检查字段顺序。 400 InvalidArgument If the TargetBucket element does not exist, the TargetPrefix element cannot exist either. 在配置日志规则时,如果TargetBucket元素不存在,则TargetPrefix也不能存在。 400 InvalidArgument The target prefix exceeds 900 bytes. 配置日志记录规则时,TargetPrefix的长度不能超过900字节。 400 InvalidArgument ID length should not exceed allowed limit of 255. 配置生命周期规则时,Rule ID长度不能超过255。 400 InvalidArgument At least one action needs to be specified in a rule. 配置生命周期规则时,必须配置过期时间,Days或Date。 400 InvalidArgument 'Days' for [TransitionExpiration] action must be a positive integer. 配置生命周期规则时,Days必须为正整数。 400 InvalidArgument Only one action can be specified in the rule. 配置生命周期规则时,Days或Date只能存在一个。 400 InvalidArgument 'Date' must be at midnight GMT. 配置生命周期规则时,Date必须为ISO8601格式,并且为UTC的零点。 400 InvalidArgument Invalid target Storage class for Transition action. 指定的存储类型无效。 400 InvalidArgument Default retention period must be a positive integer value. 合规保留日期取值必须是正整数。 400 InvalidArgument Object lock configuration has been enabled and can not be disabled. 合规保留已经开启,不能关闭。 400 InvalidArgument Default retention period cannot be less than previously value. 设置的合规保留时长不能短于上次设置的时长。 400 InvalidArgument MaxUploads should be between 1~1000. maxuploads的取值范围为[1,1000]。 400 InvalidArgument The length of delimiter must be 1. delimiter长度不能超过1。并且只能是‘/’或空。 400 InvalidArgument MaxKeys should be between 1~1000. 参数maxKeys取值范围为[1,1000]。 400 InvalidArgument Maxparts should be between 1~1000. maxparts取值范围为[1,1000]。 400 InvalidArgument Partnumbermarker must be an integer between 0 and 2147483647. partnumbermarker必须是整数,取值范围是(0, 2147483647)。 400 InvalidArgument xamzlimitrate invalid. The input should be positive integer. xamzlimitrate取值必须为正整数。 400 InvalidArgument Invalid request parameter: value. 参数无效。 400 InvalidArgument The object size should be less than 5TiB. 文件大小不能超过5TiB。 400 InvalidArgument The 'Expires' field format invalid. The 'Expires' header format invalid. Expires格式不正确。 400 InvalidArgument The metadata size should be less than 2KiB. 用户自定义元数据不能超过2KiB。 400 InvalidArgument Insufficient information. Origin request header needed. 跨域预检时,请求头不正确。 400 InvalidArgument Please enter an integer not less than 1. CORS配置中MaxAgeSeconds取值为不小于1的整数。 400 InvalidArgument Invalid AccessControlRequestMethod:value . AccessControlRequestMethod无效。 400 InvalidArgument The xamzcopysourcerange value must be of the form bytesfirstlast where first and last are the zerobased offsets of the first and last bytes to copy. xamzcopysourcerange形式必须为bytesfirst last,其中第一个和最后一个都是以零为基础开始的偏移量。 400 InvalidArgument Invalid protocol, protocol can be http or https. If not defined the protocol will be selected automatically. 指定的http协议值不正确。 400 InvalidArgument The provided host name contains N characters. The maximum allowed redirect page size is 1024 characters. HostName包含的字符个数大于1024。 400 InvalidArgument The provided home page contains N characters. The maximum allowed home page size is 1024 characters. 首页包含的字符个数大于1024。 400 InvalidArgument The provided error page contains N characters. The maximum allowed error page size is 1024 characters. 错误页包含的字符个数大于1024。 400 InvalidArgument The provided replacement contains N characters. The maximum allowed replacement size is 1024 characters. 重定向规则中ReplaceKeyPrefixWith或者ReplaceKeyWith包含的字符个数大于1024。 400 InvalidArgument The provided prefix contains N characters.The maximum allowed prefix size is 1024 characters. 重定向规则中KeyPrefixEquals包含的字符个数大于1024。 400 InvalidArgument RedirectAllRequestsTo cannot be provided in conjunction with other Routing Rules. 重定向所有请求不能与其他规则同时存在。 400 InvalidArgument The IndexDocument Suffix cannot contain the "/" character. 索引页配置不能包含斜杠“/”。 400 InvalidArgument The IndexDocument Suffix cannot be blank. 索引页配置不能为空。 400 InvalidArgument Missing required key 'Redirect'. 缺少必需的参数Redirect。 400 InvalidArgument The ErrorDocument Key cannot be blank. 错误页配置不能为空。 400 InvalidArgument The HostName cannot be blank. HostName配置不能为空。 400 InvalidArgument The HostName cannot contain the "/" character. HostName不能包含斜杠“/”。 400 InvalidArgument The provided HTTP error code (value) is not valid. Valid codes are 4XX or 5XX. 重定向条件中的HttpErrorCodeReturnedEquals不是有效值。 400 InvalidArgument Missing required key 'HostName'. 缺少必需的参数HostName。 400 InvalidArgument The HostName cannot contain spaces. HostName配置不能包含空格。 400 InvalidArgument A value for IndexDocument Suffix must be provided if RedirectAllRequestsTo is empty. 重定向所有请求未配置时,索引文件必须配置。 400 InvalidArgument The destination bucket does not belong to you. 目的Bucket为他人的Bucket。 400 InvalidArgument Invalid Format value. 清单的格式不正确,取值只能为CSV。 400 InvalidArgument Invalid Field value. Field值填写错误。 400 InvalidArgument The maximum size of a Destination/Prefix is 512. Prefix最大长度为512。 400 InvalidArgument The maximum size of a Filter/Prefix is 1024. Prefix最大长度为1024。 400 InvalidArgument IsEnabled value expects true or false. IsEnabled的取值只能为true或false。 400 InvalidArgument Frequency value expects Daily or Weekly. Frequency的取值只能为Daily或Weekly。 400 InvalidArgument Schedule/Frequency missing. Frequency未填写。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Bucket missing. 清单的目的Bucket未填写。 400 InvalidArgument IsEnabled missing. IsEnabled缺失。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Format missing. 清单的输出格式缺失。 400 InvalidArgument Invalid id. Id无效。 400 InvalidArgument Id missing. 请求体中的id缺失。 400 InvalidArgument The type of 'IsAccessTime' must be Boolean. IsAccessTime取值应为布尔型,true或者false。 400 InvalidArgument 'Days' in the Expiration action for prefix 'prefix ' must be greater than 'Days' in the Transition action. 两生命周期规则重叠时,过期删除天数必须大于过期转储天数。 400 InvalidBucketCorsConfigure The XML you provided is not valid. XML无效。 400 InvalidBucketName The bucket name is:name . Bucket名字无效。 400 InvalidConfigurationId The specified configuration id is invalid. 请求头的清单ID未填写。 400 InvalidLocationConstraint The specified location constraint is not valid. 指定的数据位置无效。 400 InvalidObjectName The object name is:name . 文件名字无效。 400 InvalidOOSDestinationBucket Invalid Bucket ARN. Bucket ARN的格式不正确。 400 InvalidOOSDestinationBucket Invalid Bucket Name:bucketname . 清单输出的目的Bucket不存在。 400 InvalidPart One or more of the specified parts could not be found. The part may not have been uploaded, or the specified entity tag may not match the part's entity tag. 一个或者多个指定片段无法找到,片段可能没有被上传,或者指定的ETag值跟片段的ETag值不匹配。 400 InvalidPartNumber Part number must be an integer between 1 and 10000. 参数PartNumber的取值是[1, 10000]。 400 InvalidPartOrder The list of parts was not in ascending order. The parts list must be specified in order by part number. 分片片段列表没有按升序排列。片段列表必须根据分片号按顺序排列。 400 InvalidPartSize Your proposed upload is smaller than the minimum allowed object size. Each part must be at least 5 MiB in size, except the last part. 合并分片文件时,只允许最后一片小于5MiB,其他分片至少5MiB。 400 InvalidPolicyDocument Invalid Policy: JSON invalid:value . 策略无效,不是标准的json格式。 400 InvalidPolicyDocument Invalid according to Policy: Extra input fields:value . 策略无效,输入了额外的字段。 400 InvalidPolicyDocument Policy could not be parsed as a valid JSON string. 策略必须是json格式。 400 InvalidPolicyDocument Policy is missing required element Statement. 策略必须配置Statement。 400 InvalidPolicyDocument Policy is missing required element Principal. 策略必须配置Principal。 400 InvalidPolicyDocument Policy element has invalid value Principal. 策略配置的Principal值无效。 400 InvalidPolicyDocument Policy is missing required element Resource. 策略必须配置Resource元素。 400 InvalidPolicyDocument Policy is missing required element Resource content. 策略的Resource元素必须赋值。 400 InvalidPolicyDocument Policy has invalid resource resource . 策略配置的Resource无效。 400 InvalidPolicyDocument Policy has an invalid condition key key . 策略配置的condition key无效。 400 InvalidPolicyDocument No such condition type type. 策略配置的condition type无效。 400 InvalidPolicyDocument Action does not apply to any resource(s) in statement. 策略配置的Action无效。 400 InvalidPolicyDocument Policy is missing required element Effect. 策略必须配置Effect。 400 InvalidPolicyDocument Policy element has invalid value Effect :Effect . 策略配置的Effect无效。 400 InvalidPolicyDocument Policy element has invalid value Version :Version . 策略配置的Version无效。 400 InvalidRedirectLocation The website redirect location must be nonempty. xamzwebsiteredirectlocation头不能为空。 400 InvalidRedirectLocation The website redirect location must have a prefix of ' or ' or '/'. xamzwebsiteredirectlocation必须有前缀' 400 InvalidRedirectLocation The length of website redirect location cannot exceed 2,048 characters. xamzwebsiteredirectlocation长度不能超过2048。 400 InvalidRequest Missing required header for this request: xamzcontentsha256. v4签名必须携带xamzcontentsha256。 400 InvalidRequest Missing required header for this request: ContentMD5. 请求头必须包含ContentMD5。 400 InvalidRequest Please reduce your request rate. 请降低您的请求频率。 400 InvalidRequest The operation failed, please change a resource pool and try again. 请换其他资源池或者重试。 400 InvalidRequest This copy request is illegal because it is trying to copy an object to itself without changing the object's metadata or storage class. 复制文件时必须修改元数据或者存储类型。 400 InvalidRequest xamzlimitrate invalid.The input should be positive integer. xamzlimitrate只能是正整数。 400 InvalidRequest The source object size cannot be smaller than 5 GiB. 如果源文件取range进行拷贝,源文件大小不能小于5G。 400 InvalidRequest You can only define ReplaceKeyPrefix or ReplaceKey but not both. ReplaceKeyPrefix或者ReplaceKey不能同时存在。 400 InvalidRequest Condition cannot be empty. To redirect all requests without a condition, the condition element shouldn't be present. Condition配置不能为空。不带条件的情况下,重定向所有请求不应该出现condition元素。 400 InvalidRequest The maximum size of a prefix is 1024. 配置生命周期规则时,前缀的最大长度为1024。 400 InvalidRequest Number of lifecycle rules should not exceed allowed limit of 1000 rules. 同一Bucket配置的生命周期规则不能超过1000条。 400 InvalidRequest Rule ID must be unique. Found same ID for more than one rule. 配置生命周期规则时,Rule ID必须唯一。 400 InvalidRequest Found two rules with same prefix 'prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有相同的prefix。 400 InvalidRequest Found overlapping prefixes 'prefix ' and ' prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有前缀重叠的情况。 400 InvalidRequest Found overlapping prefixes 'prefix ' and '' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能同时存在有前缀和无前缀规则。 400 InvalidStorageClass The storage class you specified is not valid. xamzstorageclass无效。 400 InvalidStorageClass Can not specify the storage class. 未合并的分段文件不能指定xamzstorageclass进行拷贝。 400 InvalidTargetBucketForLogging The target bucket name is:name. 日志记录规则时,目标Bucket不存在或者无目标Bucket的权限。 400 MalformedPOSTRequest The body of your POST request is not wellformed multipart/formdata. POST表单请求中contenttype配置的boundary格式不规范。 400 MalformedXML CORS Rule is empty. CORS Rule不能为空。 400 MalformedXML The number of CORS Rules you provided cannot exceed 100. CORS Rules个数不能超过100。 400 MalformedXML The length of CORS Rule ID you provided cannot exceed 255 characters. CORS Rule ID长度不能超255个字符。 400 MalformedXML AllowedOrigin does not exist. CORS配置中AllowedOrigin不存在。 400 MalformedXML AllowedMethod does not exist. CORS配置中AllowedMethod不存在。 400 MalformedXML AllowedOrigin "value" can not have more than one wildcard. CORS配置中AllowedOrigin最多只能携带一个通配符。 400 MalformedXML AllowedHeader "value" can not have more than one wildcard. CORS配置中AllowedHeader最多只能携带一个通配符。 400 MalformedXML ExposeHeader "value" contains wildcard. We currently do not support wildcard for ExposeHeader. CORS配置中ExposeHeader不能携带通配符。 400 MalformedXML CORS Rule ID is not unique. CORS Rule ID必须是唯一的。 400 MalformedXML The XML you provided was not wellformed or did not validate against our published schema. XML格式不正确。 400 MaxRequestBodyLengthExceeded Your request was too big, the maximum size is %s . 请求体长度太长。 400 MissingRequestBodyError Request Body is empty. 请求body体为空。 400 NoSuchUpload The specified upload does not exist. The uploadId may be invalid, or the upload may have been aborted or completed. 指定的分片上传过程不存在,上传ID可能非法,分片上传过程可能被终止或者已经完成。 400 PutObjectTooFast Upload:value is updated too fast. 同一文件并发上传过快。 400 TooManyBuckets You have attempted to create more buckets than allowed. Bucket数量已经到达上限。 400 TooManyConfigurations You are attempting to create a new configuration but have already reached the 10configuration limit. 超出清单配置规则的数量限制,每个Bucket最多配置10条清单。 403 InvalidAccessKeyId InvalidAccessKeyId. AccessKeyId无效。 403 InvalidAccessKeyId The AccessKeyId is invalid. AccessKeyId被禁用。 403 InvalidAccessKeyId The specified accessKey:accessKey does not exist. 临时密钥不存在,需重新申请。 403 AccessDenied Please use primary access key. 需要使用主密钥。 403 AccessDenied Nonprimary key can not list without prefix or prefix is not start with access key. 非主密钥只能list以自己access key为前缀的文件。 403 AccessDenied Nonprimary key can not operate bucket. 非主密钥,不能操作该Bucket。 403 AccessDenied Nonprimary key can not operate object that not start with access key. 非主密钥只能操作以自己access key为前缀的文件。 403 AccessDenied The secret token is expired, expiration:value . secret token过期。 403 AccessDenied The OOS service has been closed due to overdue payment. If the overdue payment exceed 15 days, the data will be deleted. Please recharge it in time. 由于逾期付款,OOS服务已关闭。如果逾期付款超过15天,数据将被删除。请及时充值。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header. OOS 签名头中需要携带Date或xamzdate。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header, expecting" YYYYMMDD'T'HHMMSS'Z'". OOS 签名头需要携带正确格式的Date或xamzdate,格式为YYYYMMDD'T'HHMMSS'Z'。 403 AccessDenied Invalid according to Policy: Policy expired. v4签名的xamzdate时间不能超过7天。 403 AccessDenied Invalid according to Policy: Policy Condition failed:xxx 签名策略不对。 403 AccessDenied Querystring authentication requires the Signature, Expires and AWSAccessKeyId parameters. V2预签名需要携带以下参数:Signature、Expires、AWSAccessKeyId。 403 AccessDenied Invalid date (should be seconds since epoch):date . 过期时间需要精确到秒。 403 AccessDenied Request has expired. 请求过期。 403 AccessDenied Anonymous access is forbidden for this operation. 匿名用户禁止此操作。 403 AccessDenied The user's permission is not enough. 用户权限不足。 403 AccessDenied You do not have permission to this resource pool, please try another resource pool. 没有该资源池的权限,请使用其他资源池。 403 AccessDenied CORSResponse: This CORS request is not allowed. This is usually because the evalution of Origin, request method / AccessControlRequestMethod or AccessControlRequestHeaders are not whitelisted by the resource's CORS spec. 跨域预检请求没有通过CORS规则校验。请检查Origin、AccessControlRequestMethod、AccessControlRequestHeaders是否在CORS列表的白名单中。 403 AccessDenied CORSResponse: CORS is not enabled for this bucket. 此Bucket未配置CORS。 403 AccessDenied Access denied by bucket policy. 受Bucket Policy的规则影响,被显示拒绝。 403 AccessDenied Access denied by bucket policy or anonymous access is forbidden. 匿名访问被拒绝,或者被Bucket Policy规则隐式拒绝。 403 AccessDenied User:user is not authorized to perform:action on resource: resource . 没有权限访问此资源。 403 AccessDenied The user does not belong to the region. 没有此资源池的上传权限,请更换其他资源池重试。 403 AccessDenied You do not have permission to request the value data region. Please change the data region for the bucket and try again. Bucket下配置的数据位置都已失效,请重新配置,或者修改为可以自动调度。 403 AccessDenied You are not allowed to set the publicreadwrite permission for the bucket. 您不具备将容器设置为公有的权限,请联系天翼云客服协助开通此功能。 403 AccessDenied You are not allowed to grant publicwrite permission to anonymous users. 您不可以向匿名用户授予写权限,请联系天翼云客服协助开通此功能。 403 AccessDenied Make sure that bucket's permissions are not private before using the static website hosting feature. 在使用静态网站托管功能之前,请确保Bucket权限不是私有。 403 Forbidden CORSResponse: Bucket not found. 如果是preflight CORS请求,Bucket必须存在。 403 IllegalObject The object "bucket/object " is illegal, forbid copy. 源文件是非法文件,不允许拷贝。 403 RequestTimeTooSkewed The difference between the request time and the server's time is too large. 客户端时间和服务器端时间相差超过15分钟。 403 SignatureDoesNotMatch The request signature we calculated does not match the signature you provided. Check your key and signing method. 签名计算错误,需按OOS的签名规则,请检查客户端签名计算方法。 403 SignatureDoesNotMatch The authorization type is malformed. V2签名头不是AWS开头,或者V4签名头不是AWS4HMACSHA256。 403 SignatureDoesNotMatch Invalid order of SignedHeaders. V4签名SignedHeasers需按字典序排序 404 MalformedContinuationToken The continuationtoken you provided invalid. continuationtoken的值不正确。 404 NoSuchBucket The resource you requested does not exist. 请求的Bucket不存在。 404 NoSuchBucket The request bucketname is name. 复制文件时源Bucket不存在。 404 NotSuchBucketPolicy The bucket policy configuration does not exist. 此Bucket Policy配置不存在。 404 NoSuchCORSConfiguration The CORS configuration does not exist. Bucket下没有配置CORS。 404 NoSuchLifecycleConfiguration The lifecycle configuration does not exist. 生命周期规则配置不存在。 404 NoSuchKey The resource you requested does not exist. 请求文件不存在。 404 NoSuchKey An Error Occurred While Attempting to Retrieve a Custom Error Document. 尝试检索自定义错误文档时发生错误。 404 NoSuchWebsiteConfiguration The specified bucket does not have a website configuration. Bucekt未开启website功能。 404 ObjectLockConfigurationNotFoundError Object lock configuration does not exist for this bucket. 此Bucket不存在合规保留配置。 405 MethodNotAllowed The specified location constraint is not valid. 指定的数据位置无效。 405 MethodNotAllowed The specified method is not allowed against this resource. 此资源不允许使用该方法。 409 BucketAlreadyExists BucketAlreadyExists. Bucket名字已存在,请更换名字。 409 BucketNotEmpty The bucket you tried to delete is not empty. Bucket非空,不能删除。 411 MissingContentLength You must provide the ContentLength HTTP header. 需要提供ContentLength消息头。 412 PreconditionFailed Bucket post must be of the enclosuretype multipart/formdata. POST表单的contenttype请求头不正确。 412 PreconditionFailed The preconditions xamzcopysourceifmodifiedsince you specified did not hold. 预处理条件下,指定的xamzcopysourceifmodifiedsince不匹配。 503 ServiceUnavailable Service is busy.Please try again. 服务器繁忙,请重试。 503 SlowDown Please reduce your request rate. 请降低请求频率。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        错误响应
        错误码列表
      • 快速构建FTP站点(Windows)
        本文介绍了如何使用天翼云弹性云主机的Windows实例搭建FTP站点。该指导具体操作以Windows 2012 Standard R2 64位中文版为例。 Windows实例搭建FTP站点具体操作步骤 1. 添加IIS的角色和功能。 2. 创建FTP服务用户名及密码。 3. 设置共享文件权限。 4. 配置FTP站点。 5. 配置FTP防火墙。 6. 配置安全组规则及防火墙策略。 7. 客户端进行连接测试。 示例环境 实例类型:s3.large.2 2核 4G 通用型云主机 所在区域:山西 系统盘:40GB 操作系统:Windows 2012 Standard R2 64位中文版 公网弹性IP带宽:1Mbps 操作步骤 1. 添加IIS的角色和功能。 1. 登录弹性云主机。 2. 选择“开始 > 服务器管理器”。 3. 单击“添加角色和功能”。 4. 在弹出的“开始之前”对话框中,单击“下一步”。 5. 选择“基于角色或基于功能的安装”,单击“下一步”。 6. 选择需要部署FTP的服务器,单击“下一步”。 7. 选择“Web服务器(IIS)”,并在弹出的对话框中单击“添加功能”,然后单击“下一步”。 8. 连续单击“下一步”,到“角色服务”页面。 9. 选择“FTP服务器”以及“IIS管理控制台”,单击“下一步”。 10. 单击“安装”,开始部署服务角色。 11. 安装完成后,单击“关闭”。 1. 添加IIS的角色和功能 2. 添加IIS的角色和功能 3. 添加IIS的角色和功能 4. 添加IIS的角色和功能 2. 创建FTP服务用户名及密码。 1. 在“服务器管理器”中,选择“仪表板 > 工具 > 计算机管理”。 2. 选择“系统工具 > 本地用户和组 >用户”,在右侧空白处右击,并选择“新用户”。 3. 设置“用户名”和“密码”,此处用户名以“ftp”为例。 3. 设置共享文件权限。 需要在FTP站点为共享给用户的文件夹设置访问及修改等权限。 1. 在服务器上创建一个供FTP使用的文件夹,选择文件夹,并单击右键选择“属性”。此处以“share”文件夹为例。 2. 在“安全”页签,选择 “Everyone”,单击“编辑”。如果没有“Everyone”用户可以直接选择,需要先进行添加。 3. 选择“Everyone”,然后根据需要,选择“Everyone”的权限,并单击“确定”。此处以允许所有权限为例。 4. 配置FTP站点。 1. 在“服务器管理器”中,选择“仪表板 > 工具 >Internet Information Services (IIS)管理器 ”。 2. 选择“网站”并单击右键,然后选择“添加FTP站点”。 3. 在弹出的窗口中,填写FTP站点名称及共享文件夹的物理路径,然后单击“下一步”。此处站点名称以“ftp”为例。 4. 输入该弹性云主机的公网IP地址以及端口号,并设置SSL,单击“下一步”。 端口号默认为21,也可自行设置。 SSL根据需要进行设置。 无: 不需要SSL加密。 允许:允许FTP服务器与客户端的非SSL和SSL连接。 需要:需要对FTP服务器和客户端之间的通信进行SSL加密。 5. 设置身份认证和授权信息,并单击“完成”。 身份认证 匿名:允许任何仅提供用户名 “anonymous” 或 “ftp” 的用户访问内容。 基本:需要用户提供有效用户名和密码才能访问内容。但是基本身份验证通过网络传输密码时不加密,因此建议在确认客户端和FTP服务器之间的网络连接安全时使用此身份验证方法。 授权 允许访问 所有用户:所有用户均可访问相应内容。 匿名用户:匿名用户可访问相应内容。 指定角色或用户组:仅指定的角色或用户组的成员才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的角色或用户组。 指定用户:仅指定的用户才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的用户。 权限:选择经过授权的用户的“读取”和“写入”权限。 6. 绑定弹性云主机的公网IP。 选择“网站”,选中创建的FTP站点,单击“绑定”;在弹出的“网站绑定”窗口单击“添加”,然后在弹出的窗口中添加弹性云主机的私网IP地址,并单击“确定。 5. 配置FTP防火墙支持。 如果需要使用FTP服务器的被动模式,则需要配置FTP防火墙支持。 如果天翼云上的服务器需要通过公网IP地址访问天翼云上的实例搭建的FTP服务器时,需要配置FTP服务器的被动模式。 双击“FTP防火墙支持”,打开FTP防火墙支持的配置界面。 配置相关参数,数据通道端口范围:指定用于被动连接的端口范围。可指定的有效端口范围为102565535,请根据实际需求进行设置,此处配置50006000,防火墙的外部IP地址:输入该弹性云主机的公网IP地址,并单击“应用”。 重启云主机使防火墙配置生效。 6. 配置安全组规则及防火墙策略。 搭建好FTP站点后,需要在弹性云主机安全组的入方向添加一条放行FTP端口的规则,如果配置了“FTP防火墙支持”,需要在安全组中同时放行FTP站点使用的端口和FTP防火墙使用的数据通道端口。 服务器防火墙默认放行TCP的21端口用于FTP服务。如果选用其他端口,需要在防火墙中添加一条放行此端口的入站规则。 FTP模式 方向 协议 端口 源地址 主动模式 入方向 TCP 20端口和21端口 0.0.0.0/0 被动模式 入方向 TCP 21端口和1024~65535间的端口(根据上文配置,此处50006000) 0.0.0.0/0 7. 客户端进行连接测试。 打开客户端的计算机,在路径栏输入“ftp://FTP服务器IP 地址 :FTP 端口 ”(如果不填端口则默认访问21端口)。弹出输入用户名和密码的对话框表示配置成功,正确的输入用户名和密码后,即可对FTP文件进行相应权限的操作,share文件夹下创建工作事项.txt文件,在本地访问共享文件夹可以查看并下载。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        快速构建FTP站点(Windows)
      • 创建云硬盘
        本文帮助您了解创建云硬盘相关的场景、约束及操作步骤。 操作场景 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 约束与限制 系统盘只能在购买云主机或物理机时自动创建并挂载,云硬盘创建页面只能创建数据盘。 随云主机或物理机创建的云硬盘,计费模式与云主机或物理机保持一致。 共享盘或磁盘模式为SCSI或磁盘类型为极速型SSD的云硬盘不支持加密模式。 随云主机或物理机一起创建的云硬盘会自动挂载至云主机或物理机上,不可卸载,无法再挂载至其他云主机或物理机中使用。 随云主机一起创建的云硬盘,磁盘类型可以在VBD或SCSI中进行选择,随着物理机一起创建的云硬盘磁盘类型默认为VBD类型。 云硬盘只能被挂载在同一个可用区的云主机或物理机上,可用区在创建完成后不支持修改。 创建云硬盘时若选择“立即挂载”,则无法批量创建,一次只能创建一个云硬盘。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 单击“创建云硬盘”,进入云硬盘创建页面。 5. 根据界面提示,配置云硬盘的基本信息。各配置项说明如下: 参数 是否必选 说明 地域 是 请选择云硬盘的地域,尽量选择距离您更近的区域以提高访问速度。 可用区 是 在拥有多个可用区的资源池中,选择其中一个可用区创建云硬盘。 云硬盘只能挂载至同一个可用区的云主机上。云硬盘创建完成后不支持修改可用区。 付费方式 是 云硬盘支持的计费类型有包年/包月和按需计费两种。 包年包月是一种先付费后使用的计费方式,按订单的购买周期结算。 按需计费是一种先使用后付费的计费方式,按照云硬盘的实际使用时长计费,每小时结算一次。 是否挂载 是 选择是否在云硬盘创建完成后自动挂载到弹性云主机。 暂不挂载(默认):云硬盘创建完成后不自动挂载至云主机。 立即挂载:云硬盘创建完成后自动挂载至用户选择的云主机。 注意 挂载到云主机的云硬盘,您还需要登录云主机进行数据盘初始化才可以正常使用。 数据源 否 云硬盘支持从快照、备份或镜像创建云硬盘。 从快照创建: 从快照创建云硬盘可选择目标地域目标可用区下的快照。 从快照创建云硬盘所创建的云硬盘磁盘模式、磁盘类型、加密属性、所在地域可用区与源快照保持一致,不支持修改。 从快照创建云硬盘创建磁盘容量不小于快照容量。 从备份创建: 从备份创建云硬盘可选择目标地域下的备份副本。 从备份创建云硬盘所创建的云硬盘磁盘模式、加密属性和备份源云硬盘保持一致。 从备份创建云硬盘所创建的云硬盘支持切换磁盘类型、支持跨可用区创建。 从备份创建云硬盘创建磁盘容量不小于备份容量。 从镜像创建: 从镜像创建云硬盘可选择目标地域下的镜像。 从镜像创建云硬盘仅支持VBD模式、且不支持磁盘加密。 从镜像创建云硬盘所创建的云硬盘支持切换磁盘类型、支持跨可用区创建。 从镜像创建云硬盘创建磁盘容量不小于镜像容量。 仅支持“正常”状态的私有镜像或“已接受”状态的共享镜像。 注意 无论是从快照、备份或镜像创建,都不支持一次性创建多个云硬盘。 磁盘规格 是 云硬盘的类型:普通IO,高IO,通用型SSD,超高IO,极速型SSD,XSSD0,XSSD1,XSSD2。具体规格可参见产品规格。 云硬盘的容量范围可参考云硬盘使用限制。 说明 从备份创建云硬盘时,容量大小不小于备份源盘大小,默认容量为备份源盘大小。 从快照创建云硬盘时,容量大小不小于快照源盘大小,默认容量为快照源盘大小。 未选择数据源时,XSSD2默认容量大小为512GB,其他类型云硬盘的默认容量大小为40GB。 当前配置 用于显示当前所选磁盘类型和容量计算出来的基础IOPS上限及IOPS突发上限。具体计算方式可参见磁盘类型及性能介绍。 云硬盘备份 否 创建云硬盘时支持同时订购云硬盘备份服务。可以选择暂不配置、使用已有、现在购买。 使用已有:若您想要配置备份且已有可用的存储库,可以选择“使用已有”。 现在购买:若您想要配置备份但没有可用的存储库,可以选择“现在购买”。 配置存储库和备份策略并成功购买云硬盘后,系统会按此备份策略定期对云硬盘进行备份。云硬盘备份服务的计费说明请参考云硬盘备份服务计费说明。 共享盘 否 勾选“共享盘”,则创建的是共享云硬盘,共享云硬盘最多可同时挂载至16台云主机或物理机。 不勾选“共享盘”,则默认为非共享云硬盘,只能挂载至1台云主机或物理机。 是否编辑标签 否 标签用于标识资源,可通过标签管理功能对云硬盘进行分类和筛选。 勾选后需要输入标签键和标签值,具体操作可参考标签功能概述。 磁盘模式 否 VBD(默认):VBD类型的云硬盘仅支持简单的读写命令。 SCSI:支持SCSI指令透传,允许云主机操作系统直接访问存储介质。 FCSAN:FCSAN云硬盘仅适用于物理机。 磁盘加密 否 支持创建加密云硬盘,磁盘加密能够最大限度的为您的数据提供安全防护。 加密磁盘生成的快照/备份及通过这些快照/备份创建的磁盘将自动继承加密属性。 释放设置 否 支持设置释放策略。 可设置云硬盘释放时是否同步释放该盘的全部快照。 磁盘名称 是 自定义所创建的磁盘名称。 不能使用中文,且长度为263字符。 企业项目 是 支持为云硬盘选择企业项目。 数量 是 创建云硬盘的数量,默认为“1”,表示只创建一个云硬盘。 注意 目前一次最多可批量创建100个云硬盘。 创建时长 是 如果计费类型选择“包年/包月”,则需要选择购买时长,可选取的时间范围为1个月到5年。 自动续订 否 启用自动续订,包年/包月订购的云硬盘到期后会自动续订。 6. 确定云硬盘的配置信息后,点击“下一步”。 7. 在“资源详情”页面,您可以再次核对云硬盘信息。确认无误后,阅读并勾选服务协议,单击“确认下单”,开始创建云硬盘。如果还需要修改,点击“上一页”,修改参数。 8. 在云硬盘主页面,查看云硬盘状态。待云硬盘状态变为“未挂载”时,表示创建成功。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云硬盘
        创建云硬盘
      • 数据类型
        名字 存储尺寸 描述 范围 smallint 2字节 小范围整数 小范围整数32768 到+32767 integer 4字节 整数的典型选择 2147483648 到 +2147483647 bigint 8字节 大范围整数 大范围整数9223372036854775808 到+9223372036854775807 decimal 可变 用户指定精度,精确 最高小数点前131072位,以及小数点后16383位 numeric 可变 用户指定精度,精确 最高小数点前131072位,以及小数点后16383位 real 4字节 可变精度,不精确 6位十进制精度 double precision 8字节 可变精度,不精确 15位十进制精度 serial 4字节 自动增加的整数 1到2147483647
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        数据类型
      • DRDS是否支持直接执行DDL语句?
        本文介绍 DRDS是否支持直接执行DDL语句。 DRDS不支持直接连接DRDS节点执行DDL语句,即通过客户端或程序连接DRDS节点,直接执行DDL语句会报错。 注意 创建逻辑库表、设置分片算法、修改表、执行DDL、创建修改全局序列、创建修改用户、创建修改角色等操作,必须通过天翼云DRDS控制台执行。 通过客户端或程序连接DRDS节点,支持直接执行DML语句(增删改查)。
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        操作类
        DRDS是否支持直接执行DDL语句?
      • DRDS提供了哪些高可靠保障?
        本文介绍DRDS提供了哪些高可靠保障。 计算节点高可靠 DRDS实例中包含多个计算节点且计算节点都是无状态的,通过弹性负载均衡及vip提供高可靠服务。 DRDS实例本身不存储业务数据,每个节点可以独立处理请求。当某个节点自身宕机故障,流量可以自动切换到其他节点,实现秒级容灾切换(通常情况下可在5秒内将故障节点剔除),实例整体服务不受影响,保证服务的连续性和稳定性。 存储节点高可靠 业务数据存储在关联的MySQL中,MySQL主备版或一主两备版具备双机热备、数据备份和数据恢复的高可用特性。 MySQL主备版或一主两备版,具备故障自动切换机制,提供高可用能力。 MySQL主备版或一主两备版采用热备架构,可实现秒级故障自动切换(存储节点故障,通常情况下可以在下挂存储节点恢复后30秒内完全恢复正常服务能力),支持用户自定义备份策略自动备份数据,并支持按备份集和指定时间点进行数据恢复,保证数据备份和恢复的高效性和可靠性。 高可用容灾架构 DRDS支持多可用区部署,以提供更高的容灾能力。用户可自定义选择将实例节点分布于多个可用区内。相较于单可用区部署,DRDS多可用区部署具备更强的灾备能力,能够有效应对实例故障或可用区中断,并提供机房级别的容灾保护。
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        操作类
        DRDS提供了哪些高可靠保障?
      • 分片数目的选择
        本节介绍分片数目的选择。 分片数目即将逻辑库切割为物理库的数量,在逻辑库时确定后无法更改。通常选择分片数目需要遵循如下原则。 原则1:分片数量尽量少,因为一个查询SQL 跨分片越多,则总体性能越差,虽然要好于所有数据在一个分片的结果。只在必要的时候进行扩容,增加分片数量。分片尽量均匀分布在多个存储节点上。 原则2:能不分片就不分片,800万以内的表,不建议分片,通过合适的索引,读写分离等方式,可以很好的解决性能问题。 原则3:不到800 万但跟大表(超800 万的表)有关联查询的表也要拆分,在此称为大表关联表。大表关联表如何拆:小于100 万的使用全局表;大于100 万小于800 万跟大表使用同样的拆分策略;无法跟大表使用相同规则的,可以考虑分步骤查询,不用关联查询,或者使用全局表。
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        分片数目的选择
      • 购买类
        DRDS实例支持哪些资源池? DRDS实例支持在以下资源池购买: 华东地区: 华东1 西南地区: 西南1 北方地区: 青岛20 华南地区: 郴州2 西北地区: 西安5 西南地区: 重庆2/贵州3 北方地区: 北京5/石家庄20
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        购买类
      • MySQL哪些高危操作会影响DRDS?
        本文介绍MySQL哪些高危操作会影响DRDS。 高危操作详见下表: 操作类别 操作 操作影响 控制台 删除MySQL实例 关联了该MySQL的DRDS的库表无法使用。 控制台 重置DRDS 使用的密码DRDS 无法连接MySQL,DRDS无法使用,需要重新修改关联MySQL密码。 控制台 修改安全组 可能导致DRDS 无法连接MySQL。 控制台 修改VPC 可能导致网络分割,无法互通。 控制台 重启 重启期间DRDS 服务会异常,重启完成后恢复。 客户端 删除DRDS使用的库 DRDS 分片不可用,无法提供正常服务。 客户端 删除DRDS使用的表 数据丢失,服务异常。 客户端 删除DRDS创建的账号 DRDS 无法连接MySQL,服务异常。 客户端 修改DRDS创建的物理表名 数据丢失,服务异常。 客户端 修改数据 如果修改了分片键,影响数据正确分片,导致异常。 客户端 修改白名单 如果DRDS不在白名单内,DRDS服务会异常。
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        MySQL相关类
        MySQL哪些高危操作会影响DRDS?
      • 索引规范
        本文为您介绍索引规范。 1. 禁止修改聚集索引或主键 为了维持B+tree带来大量的数据移动,一般要求使用跟业务不相关的id来作为整形自增主键 2. 尽量合并索引 索引加快了查询度,但是却会影响写入性能。 一个表的索引应该结合这个表相关的所有SQL综合创建,尽量合并。 组合索引的原则是:过滤性越好的字段越靠前,例如key (a)和key(a,b)存在,则可以直接删除key(a),对于select ……from tb where a123;,则可以使用索引(a,b)。 3. 禁止给选择性低的字段建单列索引 MySQL对索引的过滤性存在要求,如果过滤性太低,则MySQL会被放弃使用。 4. 禁止使用外键约束 对性能损耗特别大。 让应用程序去维护约束。 5. 字符类型字段应尽量使用前缀索引 太长的索引不仅影响写入性能,而且使用效果较差,因此字符串类型字段一般只建前缀索引,例如alter table testlongstr add index idxstr(str(16));。 6. 合理使用复合索引 一般情况下,复合索引比普通索引更加适用,因此,有些索引可以修改成复合索引。 7. 针对LIKE查询的索引问题,应注意使用前缀索引 LIKE只能使用前缀索引,示例说明如下: col like “abc%” 可以用索引 col like “%abc%” 不可以用索引 col like“%abc”不可以用索引
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        SQL调优指南
        SQL基础规范
        索引规范
      • Online DDL
        DRDS支持常见的在线DDL操作,主要包括:删除字段、修改字段、增加字段、创建表等。 使用示例 sql 增加字段: alter table torder add column ordersum int(10) NOT NULL DEFAULT 100; 修改字段: alter table torder modify column ordersum int(10) NOT NULL DEFAULT 200; 删除字段: alter table torder drop ordersum; 创建表: create table employee( id int not null,primary key (id))engineinnodb default charsetutf8;
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        Online DDL
      • 重命名表(RENAME TABLE)
        DRDS支持直接连接DBProxy执行DDL语句,本文为您介绍重命名表的RENAME TABLE语句。 注意 仅V5.1.20.0.13及以后版本的实例,支持使用本文介绍的DDL语句。 语法 目前单条语句仅支持对单个表进行重命名,支持的语法如下: plaintext RENAME TABLE oldtable TO newtable; 参数说明 oldtable:需要重命名的表名,必填 newtable: 重命名后的表名,必填
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        管理数据表的DDL语句
        重命名表(RENAME TABLE)
      • RECYCLE_BIN
        本文为您介绍DRDS管理命令中的管理回收站(RECYCLEBIN)的命令。 UDAL RECYCLEBIN SHOW CONFIG 语法说明 查询recyclebin配置信息 示例 plaintext mysql> UDAL RECYCLEBIN SHOW CONFIG; Empty set (0.02 sec) UDAL RECYCLEBIN SET CONFIG [RETAINNUMBER?][,RETAINTYPE?][,DELETETABLE?][,DELETETIME?] 语法说明 设置recyclebin配置 示例 plaintext mysql> UDAL RECYCLEBIN SET CONFIG RETAINNUMBER10; Query OK, 1 row affected (0.03 sec) UDAL RECYCLEBIN RESTORE TABLE WHERE ID ? 语法说明 通过recyclebin恢复表 UDAL RECYCLEBIN PURGE TABLE WHERE ID ? [WITH PHYSICAL DELETE] 语法说明 清除recyclebin中的表,其中,ID ? [物理删除] 示例 plaintext mysql> UDAL RECYCLEBIN PURGE TABLE WHERE ID 4; Query OK, 1 row affected (0.02 sec) UDAL RECYCLEBIN SHOW TABLE 语法说明 查看recyclebin中的表信息 支持的完整语法如下: plaintext UDAL RECYCLEBIN SHOW TABLE [WHERE [ID ?] [[AND] SCHEMAID ?] [[AND] {DELETESTATUS ? DELETESTATUS ! ?} ] [[AND] SCHEMANAME LIKE ?] [[AND] {OBJNAME LIKE ? OBJNAME ?}] [[AND] GMTCREATE > ?] [[AND] GMTCREATE UDAL RECYCLEBIN SHOW TABLE; ++++++++++++++++ Id Clusterid Tenantid Prodinstid Objtype Schemaname Objname Tablescripts Expiretime Deletestatus Gmtcreate Gmtmodify Recycleid Schemaid Deletetime Deletetable ++++++++++++++++ 2 /dbproxycluster/dbproxycluster0000014 6749 5e14029f7 0 ggzdb t1 CREATE TABLE IF NOT EXISTS t1 ( id int(10) NOT NULL, k int(10) NOT NULL DEFAULT '0', c char(120) COLLATE utf8mb4bin NOT NULL DEFAULT '', pad char(60) COLLATE utf8mb4bin DEFAULT NULL, KEY xid (id) ) ENGINEInnoDB DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin; 20250522 10:06:48 0 20250507 10:06:48 20250507 10:06:48 /dbproxycluster/dbproxycluster0000013714/schemas/schema0000017/recyclebin/table0000014161 /dbproxycluster/dbproxycluster0000014/schemas/schema0000017 0 1 3 /dbproxycluster/dbproxycluster0000014 6749 5e140229f7 0 ggzdb t2 CREATE TABLE IF NOT EXISTS t2 ( id int(10) NOT NULL, k int(10) NOT NULL DEFAULT '0', c char(120) COLLATE utf8mb4bin NOT NULL DEFAULT '', pad char(60) COLLATE utf8mb4bin NOT NULL DEFAULT '', KEY xid (id) ) ENGINEInnoDB DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin; 20250517 10:16:39 0 20250507 10:16:38 20250507 10:16:38 /dbproxycluster/dbproxycluster0000014/schemas/schema0000017/recyclebin/table0000013 /dbproxycluster/dbproxycluster0000014/schemas/schema0000017 0 1 ++++++++++++++++ 2 rows in set (0.02 sec)
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        管理命令
        RECYCLE_BIN
      • CREATE
        本文为您介绍DRDS管理命令中管理用户和角色的命令。 UDAL CREATE USER 'user' IDENTIFIED BY 'identified by' SET MANAGECOMMAND managecommand 语法说明 创建、修改或删除DBProxy用户 示例 plaintext mysql> UDAL CREATE USER 'udaladmin02' IDENTIFIED BY xxxxxxx'; Query OK, 0 rows affected (0.33 sec) UDAL CREATE ROLE 'role' COMMENTS 'comments'; 语法说明 创建、修改或删除DBProxy角色 示例 plaintext mysql> UDAL CREATE ROLE 'role'; Query OK, 0 rows affected (0.23 sec)
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        管理命令
        CREATE
      • 1
      • ...
      • 250
      • 251
      • 252
      • 253
      • 254
      • ...
      • 291
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      模型推理服务

      科研助手

      推荐文档

      玩转天翼云②:linux系统攻击基本排查方法

      发票

      命令窗口

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号