云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 入门必读
        本文主要介绍入门必读 性能测试是一项为基于HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTPFLV等协议构建的云应用提供性能测试的服务。服务支持快速模拟大规模并发用户的业务高峰场景,可以很好的支持报文内容和时序自定义、多事务组合的复杂场景测试,测试完成后会为您提供专业的测试报告呈现您的服务质量。 通过简单的四步操作,您就可以完成一次性能测试。 性能测试步骤 性能测试提供体验馆功能,通过体验向导,帮助您快速熟悉性能测试的使用流程。 基本概念 测试工程: 性能测试为用户的测试工程提供管理能力,事务、压测任务、测试报告的内容在同一个测试工程内共享复用,您可以为不同的测试项目创建不同的测试工程。 事务: 事务是指用户自定义的操作模型,包括HTTP/HTTPS/TCP/UDP/WEBSOCKET报文、思考时间、响应提取和检查点和HLS/RTMP/HTTPFLV报文部分。 报文: 报文是HTTP应用程序之间发送的数据块。这些数据块以一些文本形式的元信息开头,这些信息描述了报文的内容及含义,后面跟着可选的数据部分。这些报文都是在客户端、服务器和代理之间流动。 思考时间: 为了更好的模拟用户的行为,需要模拟用户在不同操作之间等待的时间,例如,当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟,就称为思考时间。 响应提取: 如果同一事务中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 检查点: 检查点主要是通过自定义校验信息来验证服务端的返回内容是否正确。 并发用户数: 在性能测试工具中,并发用户数一般被称为虚拟用户数。注意“并发用户数”和“在线用户数”的区别:“并发用户数”会对服务器产生压力,“在线用户数”只是挂在系统上,对服务器不产生压力。 响应时间: 用户从客户端发起一个请求开始,到客户端接收到从服务器端返回的响应结束,整个过程所耗费的时间。在性能检测中一般以测试环境中压力发起端至服务器返回处理结果的时间为计量,单位一般为秒或毫秒,该时间不同于模拟真实环境的用户体验时间。 不同行业不同业务可接受的响应时间是不同的。一般情况下,互联网企业在500毫秒以下;金融企业1秒以下为佳;保险企业3秒以下为佳。
        来自:
        帮助文档
        性能测试PTS
        快速入门
        入门必读
      • 搭建IPv4/IPv6双栈集群
        本文将指引您搭建一个IPv6网段的VPC,并在VPC中创建一个带有IPv6地址的集群和节点,使节点可以访问Internet上的IPv6服务。 简介 IPv6的使用,可以有效弥补IPv4网络地址资源有限的问题。如果当前集群中的工作节点(如ECS)使用IPv4,那么启用IPv6后,工作节点可在双栈模式下运行,即工作节点可以拥有两个不同版本的IP地址:IPv4地址和IPv6地址,这两个IP地址都可以进行内网/公网访问。 使用场景 如果您的应用需要为使用IPv6终端的用户提供访问服务,则您可使用:IPv6弹性公网IP或IPv6双栈。 如果您的应用既需要为使用IPv6终端的用户提供访问服务,又需要对这些访问来源进行数据分析处理,则您必须使用IPv6双栈。 如果您的应用系统与其他系统(例如:数据库系统)、应用系统之间需要使用IPv6进行内网访问,则您必须使用IPv6双栈。 使用IPv6双栈请参考IPv4/IPv6双栈网络、IPv6弹性公网IP。 搭建IPv4/IPv6双栈集群步骤 步骤 1 创建虚拟私有云,且创建已开启了IPv6的子网。若没有,则参考创建虚拟私有云和子网。 1. 创建VPC时需开启IPV6 2. 创建子网并开启IPV6 步骤 2 创建集群 1. 登录CCE控制台,在右上角中选择“创建集群”。 2. 网络配置请按如下设置,其余配置可参考订购集群: 虚拟私有云:选择已开启IPV6的VPC。 所在子网:仅支持选择已开启了IPv6的子网。 启用IPV6:选择开启,开启后将支持通过IPv6地址段访问集群资源,包括节点,工作负载等。 Pod子网:仅支持选择已开启了IPv6的子网。 Service CIDR:容器网段要设置合理的掩码,掩码决定集群内可用节点数量。集群中容器网段掩码设置不合适,会导致集群实际可用的节点较少。 Service CIDRV6:该网段决定了支持 IPv6 地址的 Service 资源的上限,创建后不可修改,默认为fc00::/112。如需自定义该网段,需要满足以下要求,详情请参考如何设置Service CIDRV6网段: Service CIDRV6网段需属于fc00::/8网段内。 IPv6地址前缀长度范围为112120,您可以通过调整前缀数值,调整地址个数,地址数最多可支持65536个
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        新建集群
        搭建IPv4/IPv6双栈集群
      • 创建程序包
        上传程序包 如果编写的代码需要用到其他资源(如使用图形库进行图像处理),则需要先创建FunctionGraph函数部署程序包,然后再使用控制台上传部署程序包。Python编程语言支持以下两种方式上传程序包。 注意 制作zip包的时候,单函数入口文件必须在根目录,保证解压后,直接出现函数执行入口文件,才能正常运行。 解压后的源代码不能超过1.5G。 用python语言写代码时,自己创建的包名不能与python标准库同名,否则会提示module加载失败。例如“json”、“lib”,“os”等。 1. 直接上传程序包 在创建部署程序包后,可直接从本地上传ZIP程序包,ZIP程序包大小限制为50MB,如果超过该限制,请使用OBS存储桶。 更多函数资源的限制,请参见约束与限制。 2. 上传至OBS存储桶 在创建部署程序包后,可先将.zip文件上传到要在其中创建FunctionGraph函数的区域中的OBS存储桶中,然后指定FunctionGraph函数中设置程序包的OBS存储地址,OBS中ZIP包大小限制为300MB。 更多函数资源的限制,请参见约束与限制。 Java程序包 由于Java是编译型语言,所以不能在线编辑代码,只能上传程序包,部署程序包可以是.zip文件或独立的jar文件。 上传Jar包 如果函数没有引入其他依赖包,可以直接上传函数jar包。 如果函数引入了其他依赖包,可以先将依赖包上传至OBS桶,创建函数时设置依赖包,并上传函数jar包。 上传zip 如果函数中引入其他三方件,也可以制作包含所有依赖三方件和函数jar的zip包,选择上传zip文件。 Java编程语言支持以下两种方式上传程序包。 注意 制作zip包的时候,单函数入口文件必须在根目录,保证解压后,直接出现函数执行入口文件,才能正常运行。 解压后的源代码不能超过1.5G。 1. 直接上传程序包 在创建部署程序包后,可直接从本地上传ZIP程序包,ZIP程序包大小限制为50MB,如果超过该限制,请使用OBS存储桶。 更多函数资源的限制,请参见约束与限制。 2. 上传至OBS存储桶 在创建部署程序包后,可先将.zip文件上传到要在其中创建FunctionGraph函数的区域中的OBS存储桶中,然后指定FunctionGraph函数中设置程序包的OBS存储地址,OBS中ZIP包大小限制为300MB。 更多函数资源的限制,请参见约束与限制 GO语言程序包
        来自:
        帮助文档
        函数工作流
        用户指南
        构建函数
        创建程序包
      • 如何创建和管理索引
        本页介绍了如何创建和管理文档数据库服务索引。 在文档数据库服务中,可以使用索引来加速查询操作。索引是一个数据结构,它可以在集合中对指定的字段进行排序,并为这些字段创建一个快速查找的数据结构。文档数据库服务支持多种类型的索引,例如单字段索引、多字段联合索引、全文索引等。 索引分类 单字段索引:单字段索引是最常见的索引类型,它基于集合中的单个字段进行排序和查找。 复合索引:复合索引是基于多个字段进行排序和查找的索引类型。复合索引可以包含多个字段,可以根据这些字段的顺序指定索引键的排序方式。 多键索引:在文档数据库服务中,一个文档可以包含多个值相同的数组或嵌套文档,这些值可以被视为多个键。多键索引可以基于这些多个键对文档进行排序和查找。下面是一个示例: 假设有一个集合 books,其中包含每本书的信息,其中一个字段 tags 是一个包含多个标签的数组。例如: { "id" : ObjectId("6146c03f6c9d8f5fb9da0e3c"), "title" : "The Great Gatsby", "author" : "F. Scott Fitzgerald", "tags" : [ "Fiction", "Classic", "Romance" ] } 为了加速对 tags 字段的查询操作,可以在 tags 字段上创建一个多键索引。例如: db.books.createIndex({ tags: 1 }) 这将在 tags 字段上创建一个升序的多键索引。 现在,可以使用以下查询来查找包含特定标签的书籍: db.books.find({ tags: "Fiction" }) 这个查询将使用 tags 字段上的多键索引来加速查询,返回所有包含 "Fiction" 标签的书籍。 需要注意的是,多键索引的效率可能受到数组字段中值的数量和类型的影响。如果数组字段中包含大量的值或嵌套文档,则多键索引可能不是最佳选择。在使用多键索引时,需要根据实际情况评估其效果和性能。 地理空间索引:地理空间索引是一种针对地理空间数据进行优化的索引类型,它可以加速针对地理空间数据的查询和聚合操作。可以使用 createIndex() 命令创建地理空间索引。 文本索引:文本索引是一种针对文本数据进行优化的索引类型,它可以加速全文检索操作。文本索引只能用于字符串字段。可以使用 createIndex() 命令创建文本索引。 散列索引:散列索引是一种基于哈希函数的索引类型,它可以加速散列键(如密码)的查找操作。可以使用 createIndex() 命令创建散列索引。 TTL 索引:TTL 索引是一种基于时间戳的索引类型,它可以自动删除满足一定时间条件的文档。可以使用 createIndex() 命令创建 TTL 索引。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        数据库使用
        如何创建和管理索引
      • 业务过载最佳实践
        本节介绍Kafka业务过载最佳实践 方案概述 Kafka业务过载,一般表现为CPU使用率高、磁盘写满的现象。 当CPU使用率过高时,系统的运行速度会降低,并有加速硬件损坏的风险。 当磁盘写满时,相应磁盘上的Kafka日志目录会出现offline问题。此时,该磁盘上的分区副本不可读写,降低了分区的可用性和容错能力。同时由于Leader分区迁移到其他节点,会增加其他节点的负载。 CPU使用率高的原因 数据操作相关线程数(num.io.threads、num.network.threads、num.replica.fetchers)过多,导致CPU繁忙。 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。 磁盘写满的原因 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。 Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。 实施步骤 CPU使用率高的处理措施: 优化线程参数num.io.threads、num.network.threads和num.replica.fetchers的配置。 num.io.threads和num.network.threads建议配置为磁盘个数的倍数,但不能超过CPU核数。 num.replica.fetchers建议配置不超过5。 合理设置Topic的分区,分区一般设置为节点个数的倍数。 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。 磁盘写满的处理措施: 扩容磁盘,使磁盘具备更大的存储空间。 迁移分区,将已写满的磁盘中的分区迁移到本节点的其他磁盘中。 合理设置Topic的数据老化时间,减少历史数据的容量大小。 在CPU资源情况可控的情况下,使用压缩算法对数据进行压缩。 常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。 可以在生产者端配置“compression.type”参数来启用指定类型的压缩算法。 Properties props new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("acks", "all"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 开启GZIP压缩 props.put("compression.type", "gzip"); Producer producer new KafkaProducer<>(props);
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务过载最佳实践
      • Redis 6.0 Cluster主备实例测试数据
        测试环境说明 项目 说明 测试实例规格 基础Cluster版双副本24G(3分片)。 测试实例引擎版本 6.0。 测试实例地域和可用区 上海36 可用区1。 压测机器的规格 c7.4xlarge.2。 压测机器的操作系统 CTyunOS 2.0.121.06.4 64位。 压测机器地域和可用区 上海36 可用区1。 压测机器网络 与Redis实例为相同VPC区,与Redis实例可通过VPC连接。 压测工具 redisbenchmark。 测试命令 redisbenchmark h ${host} p ${port} cluster a ${password} c ${connectionnum} n 20000000 d 32 r 2000000 t set,get threads 8 说明 参数说明,根据具体情况替换: ${host}: Redis连接地址 , ${port}:Redis服务端口, ${password} : 密码 , ${connectionnum}: 连接数。 测试结果 以下测试结果仅供参考,不同的机器环境和网络波动等客观条件可能产生性能差异。 性能指标说明: 性能指标 说明 QPS Query Per Second,表示每秒处理的请求数,单位是次/秒。 延迟 操作的平均延迟时间,单位为毫秒(ms)。 %延迟 比如99%操作延迟,指99%操作的最大延迟时间,单位为毫秒(ms)。例如该指标的值为15毫秒,表示99%的请求可以在15毫秒内被处理。 表1 SET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 420300.53 2.299 3.159 3.687 基础Cluster版双副本24G(3分片) X86 3000 426721.28 6.760 9.415 12.143 基础Cluster版双副本24G(3分片) X86 10000 358937.53 25.451 39.487 211.583 增强Cluster版双副本24G(3分片) X86 1000 638814.38 1.347 1.855 2.279 增强Cluster版双副本24G(3分片) X86 3000 637999.25 4.053 6.167 7.535 增强Cluster版双副本24G(3分片) X86 10000 571037.06 14.612 23.407 26.831 表2 GET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 456173.19 2.107 2.47 2.879 基础Cluster版双副本24G(3分片) X86 3000 445950.78 6.493 7.343 209.535 基础Cluster版双副本24G(3分片) X86 10000 402909.00 24.075 35.007 238.719 增强Cluster版双副本24G(3分片) X86 1000 746212.94 1.162 1.671 2.399 增强Cluster版双副本24G(3分片) X86 3000 738525.19 3.367 4.855 6.439 增强Cluster版双副本24G(3分片) X86 10000 652209.31 11.310 16.975 209.279
        来自:
        帮助文档
        分布式缓存服务Redis版
        性能白皮书
        Redis 6.0 Cluster主备实例测试数据
      • 修改Topic
        介绍分布式消息服务Kafka修改主题功能的操作内容。 场景描述 Kafka修改主题的场景描述如下: 数据分区调整:当数据负载不均衡或者需要重新分配数据分区时,可以通过修改主题来调整数据分区的数量和分布。管理员可以根据实际情况修改主题的配置,重新分配分区,以实现更好的负载均衡和性能优化。 副本分配策略调整:Kafka的主题可以配置多个副本以实现数据冗余和高可用性。当需要调整副本的分配策略时,可以修改主题的配置,更改副本的分布方式,以满足不同的需求,如提高数据的可靠性或者减少网络传输的开销。 数据保留策略变更:Kafka支持根据时间或者大小等条件来设置数据的保留策略。当需要修改主题的数据保留策略时,可以修改主题的配置,调整数据的保留时间或者保留的数据大小,以便根据实际需求来管理数据的存储和清理。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后,选择指定的Topic点击其右侧“编辑”按钮。 (5)点击“编辑”后,在弹窗中修改具体参数,详见下表:Topic参数说明。 表:Topic参数说明 参数 参数说明 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic
      • PUT Bucket Lifecycle
        本节主要介绍PUT Bucket Lifecycle。 此操作用来设置Bucket生命周期规则。只有根用户和具有PUT Bucket Lifecycle权限的子用户才能执行此操作。 通过设置存储桶的生命周期规则,可以: 删除与生命周期规则匹配的文件:当文件的生命周期到期时,OOS会异步删除它们。生命周期中配置的到期时间和实际删除时间之间可能会有一段延迟。但文件到期被删除后,用户将不需要为到期的文件付费。OOS删除到期文件后,会在Bucket log中记录一条日志,操作项是"OOS.EXPIRE.OBJECT"。 将与生命周期规则匹配的文件由标准存储转换为低频访问存储:可以根据需要设置生命周期规则从文件最后一次修改时间生效,还是从文件最后一次访问时间生效。OOS转换存储类型为低频访问存储后,会在Bucket log中记录一条日志,操作项是"OOS.TRANSITIONSIA.OBJECT"。 注意 如果文件的生命周期规则设置的是到期后删除,文件到期后将被永久删除,无法恢复。 如果Bucket内的生命周期规则正在执行时被修改配置,则修改后的配置并不立即生效,需等原生命周期规则执行完成后才能生效。 如果Bucket没有配置过生命周期规则,执行该操作将创建新的生命周期规则。如果Bucket已存在生命周期规则,则执行此操作将覆盖原有规则。 每个Bucket最多创建1000条生命周期规则。 同一Bucket,同一类型(到期删除或者到期转成低频访问存储)的生命周期规则不能存在叠加前缀,例如已创建到期删除文件的生命周期规则的前缀是ABC,则无法再创建前缀为ABCD或AB或A的到期删除文件的生命周期规则。 当用户为Bucket设置了生命周期规则,这些规则将同时应用于已有文件和后续新创建的文件。例如,用户今天增加了一个生命周期,指定某些前缀的文件30天后过期,那么OOS将会将满足条件的30天前创建的文件都加入到待删除队列中。 OOS通过将文件的最后一次修改时间或最后一次访问时间,加上生命周期时间来计算到期时间,并且将时间近似到下一天的GMT零点时间。例如基于创建时间设置生命周期:一个文件于GMT 2016年1月15日10:30创建,生命周期为3天,那么文件的到期时间是GMT 2016年1月19日00:00。当重写一个文件时,OOS将以最后更新时间为准,来重新计算该文件的到期时间。 可以通过GET Object、HEAD Object查询文件的到期时间。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        PUT Bucket Lifecycle
      • CCE发布Kubernetes 1.28版本说明
        变更与弃用 在Kubernetes 1.28版本,移除特性NetworkPolicyStatus,因此Network Policy不再有status属性。 在Kubernetes 1.28版本,Job对象中增加了新的annotationbatch.kubernetes.io/cronJobscheduledtimestamp,表示Job的创建时间。 在Kubernetes 1.28版本,Job API中添加podReplacementPolicy和terminating字段,当前一旦先前创建的pod终止,Job就会立即启动替换pod。添加字段允许用户指定是在先前的Pod终止后立即更换Pod(原行为),还是在现有的Pod完全终止后才替换Pod(新行为)。这是一项 Alpha 级别特性,您可以通过在集群中启用JobPodReplacementPolicy 来启用该特性。 在Kubernetes 1.28版本,Job支持BackoffLimitPerIndex字段。当前使用的运行Job的策略是Job中的整个Pod共享一个Backoff机制,当Job达到次Backoff的限制时,整个Job都会被标记为失败,并清理资源,包括尚未运行的index。此字段允许对单个的index设置Backoff。 在Kubernetes 1.28版本,添加ServedVersions字段到 StorageVersion API中。该变化由混合代理版本特性引入。该增加字段ServedVersions用于表明API服务器可以提供的版本。 在Kubernetes 1.28版本,SelfSubjectReview 添加到到authentication.k8s.io/v1中,并且kubectl auth whoami走向GA。 在Kubernetes 1.28版本,PersistentVolume有了一个新的字段LastPhaseTransitionTime,用来保存最近一次volume转变Phase的时间。 在Kubernetes 1.28版本,PVC.Status中移除resizeStatus,使用AllocatedResourceStatus替代。resizeStatus表示调整存储大小操作的状态,默认为空字符串。 在Kubernetes 1.28版本,设置了hostNetwork: true并且定义了ports的Pods,自动设置hostport字段。 在Kubernetes 1.28版本,StatefulSet的Pod索引设置为Pod的标签statefulset.kubernetes.io/podindex。 在Kubernetes 1.28版本,Pod的Condition字段中的PodHasNetwork重命名为PodReadyToStartContainers,用来表明网络、卷等已成功创建,sandbox pod已经创建完成,可以启动容器。 在Kubernetes 1.28版本,在KubeSchedulerConfiguration中添加了新的配置选项 delayCacheUntilActive, 该参数为true时,非master节点的kubescheduler不会缓存调度信息。这为非主节点的内存减缓了压力,但会导致主节点发生故障时,减慢故障转移的速度。 在Kubernetes 1.28版本,在admissionregistration.k8s.io/v1alpha1.ValidatingAdmissionPolicy中添加namespaceParamRef字段。 在Kubernetes 1.28版本,在CRD validation rules中添加reason和fieldPath,允许用户指定验证失败的原因和字段路径。 在Kubernetes 1.28版本,ValidatingAdmissionPolicy的CEL表达式通过namespaceObject支持namespace访问。 在Kubernetes 1.28版本,将API groups ValidatingAdmissionPolicy 和ValidatingAdmissionPolicyBinding 提升到betav1。 在Kubernetes 1.28版本,ValidatingAdmissionPolicy 扩展了messageExpression字段,用来检查已解析类型。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        CCE发布Kubernetes 1.28版本说明
      • 快速接入应用容灾多活
        本章节介绍接入应用容灾多活的基本流程,帮助您快速上手产品使用。 概述 应用容灾多活是包含架构加管控的解决方案,提供引导式的应用架构改造接入和一站式的云产品协同管理,在使用上遵循架构适配、资源纳管、规则配置和容灾切流的基本流程。 准备工作 应用容灾多活是构建在已有应用之上的管控,协同其他云产品,但不负责其他云产品的生命周期,需要您提前规划与创建。 同时,数据分区与流量封闭也需要您对业务应用进行必要的改造,一般来说,有如下设计和研发工作需要您考虑和实施: 设计 明确容灾需求,选定是应用双活还是数据双活架构。 适配应用架构,确定数据、服务和组件依赖。 分析业务现状,明确流量、数据和代码改造点。 规划物理架构,开通目标区域、可用区、网络和中间件等资源。 研发 如要求服务调用分区闭环,需进行业务垂直拆分和微服务改造。 如要求数据访问分区闭环,需进行数据水平拆分,确定分片键。 如要求流量调度分区闭环,需进行入口流量带标以及路由标传递改造。 使用流程 应用容灾多活基本使用流程如下所示。 序号 步骤 说明 1 创建应用系统 根据容灾需求,选定应用架构,跳转“应用双活”或“数据双活”页面创建应用系统,开通功能模块。 2 系统架构配置 根据规划的物理架构,在应用系统内按指引创建站点与单元,绑定管控通道。 3 路由规则配置 根据服务分组与分流预期,在应用系统内按指引创建单元组,配置路由规则。 4 应用分层配置 根据组件依赖,分层添加应用资源与应用系统绑定。 接入层配置:为每个站点绑定应用网关,创建URI配置,关联单元组与单元流量入口。 数据层配置:为每个单元组服务绑定数据源,创建数据同步任务。 服务层配置:为每个单元服务生成授权,应用节点通过探针接入。 5 基础配置推送 应用分层配置完成后,创建基础配置推送任务,自动有序地将规则下发到组件和应用节点。 6 多活容灾运维 不同故障场景都通过一键切流实现故障逃逸,日常巡检也有助于帮助业务发现问题。 多活切流:创建流量切换任务,自动有序地调拨流量和数据。 系统监控:架构地图提升可观测性,暴露问题节点,日常巡检自主发现异常,及时通知。
        来自:
        帮助文档
        应用高可用
        快速入门
        快速接入应用容灾多活
      • 创建快照备份Elasticsearch实例数据
        本文为您介绍如何对已经开启的云搜索服务Elasticsearch实例进行备份。 天翼云云搜索服务支持使用对象存储保留实例在指定时间的快照信息 约束限制 备份管理功能上线前创建的实例无此功能。 实例快照会导致CPU、磁盘IO上升等影响,建议在业务低峰期进行操作。 实例异常时,不可创建快照,仅能查看已创建的快照,恢复时请确保目标实例状态正常。 手动快照和自动快照不可同时进行。 前提条件 1. 快照功能依赖天翼云对象存储服务(ZOS),请确保您已开通与云搜索服务实例同资源池的对象存储服务,并创建存储桶。存储快照会产生费用,具体收费请参见对象存储计费说明。 2. 已获取自身天翼云账号的AK/SK。通过“账号中心>安全设置>用户AccessKey”中查看您的AccessKey、SecurityKey信息。如果忘记SecurityKey请工单联系客服重置。 创建及关闭自动备份 1. 登录云搜索服务控制台,进入实例管理列表页,选择需要创建备份的实例,进入实例详情页。 2. 在备份管理页面,点击开关开启备份能力,根据页面提示输入您天翼云的AK/SK,如果验证通过,即可点击下一步进行备份功能开通。 3. 开通成功进入快照列表页面,点击“自动备份设置”,在弹出的弹层上选择快照目标存储的存储桶,设置备份周期和备份对象,并选择备份期望的保留时间,最长可以保留30天。 4. 选择备份对象是索引时,需要填写备份的索引名称,支持使用“”匹配多个索引,例如“index”表示备份名称前缀时index的所有索引数据。您可通过“索引管理”功能先行查看实例内的索引名称。 5. 如您需要修改自动快照的创建规则,再次点击“自动创建备份”按钮进行修改,修改后立即生效,按照新设定的规则生成、删除相应快照,已生成部分的存量快照清理时长按原规则执行。 6. 如您不再需要自动备份,则可在快照列表页点击关闭自动备份,并在弹出的确认弹窗中选择是否保留快照信息,如不保留,则系统会自动删除从本次开启至本次结束期间自动备份产生的所有快照信息,如果选择保留,则本次开启至本次结束期间的快照信息得以保留,再次开启时将不再由系统进行删除,您可根据需要,手动在控制台进行删除。 7. 关闭自动备份期间快照自动清理不会执行。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        备份与恢复Elasticsearch实例
        创建快照备份Elasticsearch实例数据
      • 使用Kibana导入数据至Elasticsearch实例
        本文为您介绍如何通过Kibana向天翼云云搜索服务Elasticsearch实例导入数据。 Kibana 提供的Dev Tools控制台允许直接在浏览器中通过REST API向Elasticsearch发出查询和数据操作请求。 Kibana可视化界面提供了简单的数据导入功能,适用于小规模数据的手动导入场景,特别是在测试和快速验证场景中非常实用。 适用场景 快速测试与调试:适用于开发阶段测试查询语句、创建索引、插入和更新数据等操作。 简单数据管理:如果只是少量数据操作,如插入、更新、删除数据或查看结果,Kibana提供了方便的Web界面操作。 无需编程环境:不需要安装额外的客户端工具,只要能访问Kibana即可操作Elasticsearch。 前提条件 已经开通天翼云云搜索Elasticsearch实例。 查看Kibana的终端可以访问到云搜索实例,设置好5601端口的网络安全策略。 实际操作 点击Kibana输入用户名登录后,进入首页。 右上角可以点击开发工具进入开发工具界面。 如果没有索引,可以创建一个测试索引名为testindex: plaintext PUT /testindex { "mappings": { "properties": { "mytest": { "type": "text" } } } } 执行创建索引操作会返回如下信息: plaintext { "acknowledged" : true, "shardsacknowledged" : true, "index" : "testindex" } 如果有索引可以使用已有的索引。 往索引中写入数据,以上面创建的索引为例。 1. 写入单条数据,可以使用下面命令写入一条id为1的数据: plaintext POST /testindex/doc/1 { "mytest": "xiaoming" } 执行上面的命令,返回下面的结果即导入数据成功。 plaintext { "index" : "testindex", "type" : "doc", "id" : "1", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 0, "primaryterm" : 1 } 2. 批量写数据,可以使用下面命令写入一批数据: plaintext POST /testindex/bulk {"index":{"id": 1}} {"mytest": "xiaoming"} {"index":{"id": 2}} {"mytest": "xiaohong"} {"index":{"id": 3}} {"mytest": "xiaoli"} {"index":{"id": 4}} {"mytest": "xiaozhang"} {"index":{"id": 5}} {"mytest": "xiaowang"} 执行上面的命令,返回下面的结果即导入数据成功。 plaintext { "took" : 10, "errors" : false, "items" : [ { "index" : { "index" : "testindex", "type" : "doc", "id" : "1", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 0, "primaryterm" : 1, "status" : 201 } }, .... { "index" : { "index" : "testindex", "type" : "doc", "id" : "5", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 4, "primaryterm" : 1, "status" : 201 } } ] }
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        导入数据至Elasticsearch实例
        使用Kibana导入数据至Elasticsearch实例
      • 入门简介
        本文带您快速入门多活容灾服务。 使用条件 1. 已经注册并开通天翼云账号。 2. 当前账号已开通多活容灾服务,拥有使用多活容灾服务的权限。 3. 已经完成实名认证。 使用流程 多活容灾服务使用流程如图所示。 1. 开通多活容灾服务。 2. 若生产中心为三方数据中心时,需新增三方数据中心。 3. 创建命名空间。在控制台命名空间页面创建命名空间,用户可以创建多个命名空间,用于逻辑隔离不同的资源。 4. 同步/纳管资源。在多活容灾服务平台使用相关资源之前,用户需通过资源管理模块对资源进行同步或新增操作,以便MDR侧能够实现资源的统一管理。 5. 创建容灾管理中心。用户可以根据业务需要使用一个或若干个容灾管理中心,容灾管理中心与命名空间为一对十绑定关系。 6. 接入应用(可选)。应用接入可帮助用户对容灾管理中心的云主机资源进行流量配比与健康检查监控,云主机资源健康情况可在监控大盘中查看。同时,可以帮助用户进一步将容灾管理中心的资源(如云主机、存储、数据库)按应用维度进行细粒度划分,提升资源管理便捷性。 7. 预案编排。预案编排涵盖预案阶段和预案管理两方面。预案阶段模块中,帮助用户以任务为单位进行串行或并行编排成预案阶段。预案管理模块中,用户可根据多个预案阶段互相衔接组成整体预案流程,预案流程为后续灾备演练和应急切换提供整体流程方案。 8. 容灾演练。容灾演练旨在确保灾难发生后能够快速恢复业务而进行的一系列的演练任务,涉及的演练任务来源于相应的预案流程,演练时演练任务为实战演练。 9. 应急切换。应急切换用于灾难发生后为了快速恢复业务而进行的一系列切换或恢复任务,涉及的演练任务来源于相应的预案流程。故障切换场景下可根据预设的切换预案流程拉起依次数据库、存储、灾备云主机等相关服务;故障回切场景下可根据预设的回切预案流程执行数据库、存储、容灾云主机的回切操作,以确保业务正常运行。
        来自:
        帮助文档
        多活容灾服务
        快速入门
        入门简介
      • 处理容器告警事件
        本小节介绍处理容器告警事件。 企业主机安全可对您已开启的告警防御能力提供总览数据,帮助您快速了解安全告警概况包括存在告警的容器、待处理告警事件、已处理告警事件。 事件列表仅保留近30天内发生的告警事件,您可以根据自己的业务需求,自行判断并处理告警,快速清除资产中的安全威胁。 告警事件处理完成后,告警事件将从“未处理”状态转化为“已处理”。 约束限制 未开启防护的服务器不支持告警事件相关操作。 操作步骤 当发生安全告警事件后,为了保障您的云服务器安全,可以根据以下方式处理安全告警事件。 说明 由于网络攻击手段、病毒样本在不断演变,实际的业务环境也有不同差异,因此,无法保证能实时检测防御所有的未知威胁,建议您基于安全告警处理、漏洞、基线检查等安全能力,提升整体安全防线,预防黑客入侵、盗取或破坏业务数据。 1、登录管理控制台。 2、在弹窗界面单击“体验新版”,切换至企业主机安全页面。 切换至新版后,在总览页左上角单击“返回旧版”,可切换至企业主机安全(旧版) 3、在左侧导航栏中,单击“入侵检测 > 安全告警事件 > 容器安全告警”,进入“容器安全告警”页面。 告警事件状态说明 告警事件状态 告警事件状态说明 存在告警的服务器 展示存在告警容器的数量。 待处理告警事件 展示您资产中所有待处理告警的数量。 安全告警处理页面默认展示所有待处理告警信息。 已处理告警事件 展示您资产中所有已处理的告警事件数量。 4、 处理告警事件。 告警事件展示在“容器安全告警”页面中,事件列表仅展示最近30天的告警事件。 您需要根据自己的业务需求,自行判断并处理告警。告警事件处理完成后,告警事件将从“未处理”状态变更为“已处理”。HSS将不再对已处理的事件进行统计。 批量处理勾选的告警 a.任意选中“事件类型”,在事件列表勾选多个目标告警,单击“事件列表”下方的“处理”。 b.在弹窗中选择处理方式,确认无误,单击“确认”,完成勾选告警处理,处理方式详情如表76所示。 处理单个告警 a.选中目标“事件类型”,单击目标告警事件“操作”类的“处理”。 b.在弹窗中选择处理方式,确认无误,单击“确认”,完成单个告警处理,处理方式详情如表所示。 处理方式 处理方式说明 忽略 仅忽略本次告警。若再次出现相同的告警信息,HSS会再次告警。 手动处理 选择手动处理。您可以根据自己的需要为该事件添加“备注”信息,方便您记录手动处理该告警事件的详细信息。
        来自:
        帮助文档
        企业主机安全
        用户指南
        入侵检测
        容器安全告警
        处理容器告警事件
      • 升级内核小版本
        说明:本章节会介绍如何升级内核小版本 操作场景 云数据库MySQL支持自动或手动升级内核小版本,内核小版本的升级涉及性能提升、新功能或问题修复等。 有新的内核小版本发布时,您可以在“实例管理”页面“数据库引擎版本”列看到内核小版本升级提示,单击“补丁升级”跳转到小版本升级页面。 内核小版本功能详情请参见MySQL内核版本说明。根据升级时间不同,升级内核小版本可以分为以下两种方式。 立即升级:您可以根据实际业务情况,在目标实例的“基本信息”页面手动升级内核小版本。 可维护时间段内升级:您可以在您设置的可维护时间段内进行升级,详情参见设置可维护时间段。 注意事项 升级数据库内核小版本会重启MySQL实例,服务可能会出现闪断,请您尽量在业务低峰期执行该操作,或确保您的应用有自动重连机制。 升级主实例小版本时,如有只读实例,也会同步升级只读实例的小版本,升级完成会重启实例,请您选择合适的时间升级(不支持单独升级只读实例的小版本)。 升级内核小版本后,实例会升级到新的内核小版本,无法降级。 小版本升级过程中禁止event的ddl操作,如create event、drop event和alter event。 约束条件 对于主备实例,复制延迟大于300秒无法升级小版本。 实例中存在异常节点,无法升级小版本。 目前MySQL实例最大可支持10万张表,大于10万张表时,可能会导致小版本升级失败。 云数据库MySQL暂不支持已开启事件定时器功能的实例升级内核小版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 操作步骤 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4 在“实例管理”页面,选择指定的主备实例,单击主实例名称。 步骤5 在“基本信息”页面,“数据库信息”模块的“数据库引擎”处,单击“升级”。 步骤6 在弹出框中,选择升级方式,单击“确定”。 立即升级:系统会立即升级您的数据库内核版本到当前最新版本。 可维护时间段内升级:系统会在您设置的可维护时间段内,升级您的数据库内核版本到当前最新版本。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        实例管理
        升级内核小版本
      • 查看质量报告
        查看数据质量评分 质量评分的满分可设置为5分,10分,100分。默认为5分制,是以表关联的规则为基础进行评分的。而表、数据库等不同维度的评分均基于规则评分,本质上是基于规则评分在不同维度下的加权平均值进行计算的。 您可以查询所创建数据连接下数据库、数据库下的数据表以及数据表所关联规则的评分,具体评分对象的计算公式,请参见下表。 对象评分计算公式 对象 评分计算公式 规则 创建质量作业时,作业关联的规则中结果说明列包含“比率”、“值率”的系统内置规则及用户自定义规则可以生成质量评分报告。 包含“比率”、“值率”的规则可以分为正向规则及反向规则,正向规则即比值越高,代表数据质量越好;反向规则即比值越高,则数据质量越差。 正向规则包含唯一值率、重复值率、合法比率规则,反向规则包含空值率规则。 正向规则评分满足规则的数据行数/数据总行数满分(5,10,100)。 反向规则评分(1满足规则的数据行数/数据总行数)满分(5,10,100)。 数据表 表评分计算公式:∑(表关联的所有规则评分规则权重)/∑规则权重 数据库 数据库下所有数据表评分的加权求平均值,即:∑数据库下所有数据表评分/表的数量。 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据质量”模块,进入数据质量页面。 选择数据质量 2.选择“数据质量监控 > 质量报告”。 3.在“技术报告”页签,选择数据连接及截至日期,查询截至日期前7天的数据质量评分,如下图所示。 选择数据连接 说明 以评分满分为5分为例。其中45分评价为优秀,34分为良好,23分为不及格,12分为较差,01分为极差。 当天质量评分数据在次日凌晨生成。 质量评分历史趋势中的实线为截至日期前7天质量评分组成的连线,虚线为这7天质量评分的平均分。 若一天多次运行该作业,当天的质量评分为最后一次的得分。 4.单击“表评分”列的评分值链接,展开该表关联的规则评分。 5.单击“规则评分”列的评分值链接,展开该规则关联的字段评分,如下图所示。 表关联规则评分界面
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        数据质量监控
        查看质量报告
      • 监控
        监控指标 描述 CPU使用率 监测每个ClickHouse节点的CPU利用率,反映节点的计算能力和负载情况。您可以通过监控CPU使用率来评估系统的处理能力,并及时进行资源调整。 内存使用量 跟踪每个ClickHouse节点的内存消耗情况,了解内存使用情况可以帮助您优化查询性能和调整内存配置。 磁盘使用空间 监控每个ClickHouse节点的磁盘空间占用情况,确保有足够的存储空间来容纳数据和执行操作。及时了解磁盘使用情况可以避免因存储空间不足而导致的数据丢失或运行故障。 每秒IO次数 记录每秒的输入输出操作次数,包括读取和写入数据的次数。通过监控每秒IO次数,您可以评估ClickHouse节点的IO性能和磁盘负载情况,以便进行性能优化和容量规划。 每秒读写字节数 监测每秒读取和写入的数据量,帮助您了解数据处理速度和吞吐量。通过监控每秒读写字节数,您可以评估系统的数据处理能力,并根据需要进行调整和优化。 当前运行查询数 实时跟踪正在运行的查询数量,反映系统的查询负载和性能状况。通过监控当前运行查询数,您可以了解系统的负载情况,并做出相应的优化和调整。 合并数量 监控数据合并操作的数量,用于评估数据压缩和合并操作的效率。通过监控合并数量,您可以了解数据压缩和合并的效果,并根据需要进行优化。 分区变更数量 记录分区变更的次数,用于跟踪分区操作和数据变更情况。了解分区变更数量可以帮助您追踪数据变更的频率和趋势,以及相应的系统影响。 后台任务数 跟踪后台任务的数量,包括数据清理、数据复制等后台处理任务。通过监控后台任务数,您可以了解后台处理的工作负载和执行情况,以及相应的资源占用。 TCP连接数 监控每个ClickHouse节点的TCP连接数量,用于评估网络连接的负载和性能状况。了解TCP连接数可以帮助您优化网络配置和资源分配。 HTTP连接数 记录每个ClickHouse节点的HTTP连接数量,帮助您追踪HTTP请求的并发情况。通过监控HTTP连接数,您可以评估系统的网络负载和处理能力。 Zookeeper监听数 监测Zookeeper集群中的监听数,用于了解集群状态和数据同步情况。通过监控Zookeeper监听数,您可以评估集群的稳定性和可用性。 Zookeeper会话数 跟踪Zookeeper集群中的会话数,用于评估集群的稳定性和连接状态。了解Zookeeper会话数可以帮助您监控集群的健康状况和系统连接情况。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        监控
      • 配置环境变量
        本章节主要介绍配置的配置环境变量。 使用场景 配置作业参数,当某参数隶属于多个作业,可将此参数提取出来作为环境变量,环境变量支持导入和导出。 导入环境变量 导入环境变量功能依赖于OBS服务,如无OBS服务,可从本地导入。 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 3.单击“环境变量”,在“环境变量配置”页面,选择“导入”。 4.在导入环境变量对话框中,选择已上传至OBS或者本地的环境变量文件,以及重命名策略。 详见下图:导入环境变量 配置方法 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 3.单击“环境变量”,在“环境变量配置”页面,配置如下表所示的变量或常量,单击“保存”。 说明 变量和常量的区别是其他工作空间或者项目导入的时候,是否需要重新配置值。 变量是指不同的空间下取值不同,需要重新配置值,比如“工作空间名称”变量,这个值在不同的空间下配置不一样,导出导入后需要重新进行配置。 常量是指在不同的空间下都是一样的,导入的时候,不需要重新配置值。 环境变量参数配置 参数 是否必选 说明 参数名称 是 只支持英文字母、数字、“”、“”,最大长度为64字符,且参数名称不允许重名。 参数值 是 参数值当前支持常量和EL表达式,不支持系统函数。例如支持123,abc。 关于EL表达式的使用,请参见表达式概述。 配置完一个环境变量后,您还可以进行新增、修改或删除等操作。 新增:单击“新增”配置新的环境变量。 修改:参数值为常量时,直接在文本框中修改参数值;参数值为EL表达式时,可以单击文本框后方的编辑EL表达式,修改参数值。修改完成后,请“保存”。 删除:在参数值文本框后方,单击删除环境变量。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        配置管理
        配置
        配置环境变量
      • 跨源认证概述
        本章节主要介绍跨源认证概述。 什么是跨源认证? 跨源分析场景中,如果在作业中直接配置认证信息会触发密码泄露的风险,因此推荐您使用“数据加密服务DEW”或“DLI提供的跨源认证方式”来存储数据源的认证信息。 数据加密服务(Data Encryption Workshop, DEW)是一个综合的云上数据加密服务,为您解决数据安全、密钥安全、密钥管理复杂等问题。推荐使用数据加密服务DEW来存储数据源的认证信息。 跨源认证用于管理访问指定数据源的认证信息。配置跨源认证后,无需在作业中重复配置数据源认证信息,提高数据源认证的安全性,便于DLI安全访问数据源。 本节操作为您介绍DLI提供的跨源认证的使用方法。 约束与限制 仅Spark SQL、和Flink OpenSource SQL 1.12版本的作业支持使用跨源认证。 DLI支持四种类型的跨源认证,不同的数据源按需选择相应的认证类型。 −CSS类型跨源认证:适用于“6.5.4”及以上版本的CSS集群且集群已开启安全模式。 −Kerberos类型的跨源认证:适用于开启Kerberos认证的MRS安全集群。 −KafkaSSL类型的跨源认证:适用于开启SSL的Kafka。 −Password类型的跨源认证:适用于DWS、RDS、DDS、DCS数据源。。 跨源认证类型 DLI支持四种类型的跨源认证,不同的数据源按需选择相应的认证类型。 CSS类型跨源认证:适用于“6.5.4”及以上版本的CSS集群且集群已开启安全模式。配置时需指定集群的用户名、密码、认证证书,通过跨源认证将以上信息存储到DLI服务中,便于DLI安全访问CSS数据源。详细操作请参创建CSS类型跨源认证。 Kerberos类型的跨源认证:适用于开启Kerberos认证的MRS安全集群。配置时需指定MRS集群认证凭证,包括“krb5.conf”和“user.keytab”文件。详细操作请参考创建Kerberos跨源认证。 KafkaSSL类型的跨源认证:适用于开启SSL的Kafka,配置时需指定KafkaTruststore路径和密码。详细操作请参考创建KafkaSSL类型跨源认证。 Password类型的跨源认证:适用于DWS、RDS、DDS、DCS数据源,配置时将数据源的密码信息存储到DLI。详细操作请参考创建Password类型跨源认证。
        来自:
        帮助文档
        数据湖探索
        用户指南
        跨源认证
        跨源认证概述
      • QUIC在短视频场景下的最佳实践
        本文简述QUIC协议在短视频场景下的最佳实践。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC协议的优势 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用:QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移:什么是连接迁移?举个例子,当您用手机使用蜂窝网络参加远程会议,当您把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源地址、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制:QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC):QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        最佳实践
        QUIC在短视频场景下的最佳实践
      • 通过VPN连接云下数据中心与云上VPC
        本文向您介绍如何通过VPN连接云下数据中心与云上VPC。 操作场景 默认情况下,在Virtual Private Cloud (VPC) 中的弹性云主机无法与您自己的数据中心或私有网络进行通信。如果您需要将VPC中的弹性云主机和您的数据中心或私有网络连通,可以启用VPN功能。申请VPN后,用户需要配置安全组并检查子网的连通性,以确保VPN功能可用。主要场景分为两类: 点对点VPN:本端为处于云服务平台上的一个VPC,对端为一个数据中心,通过VPN建立用户数据中心与VPC之间的通信隧道。 点对多点VPN:本端为处于云服务平台上的一个VPC,对端为多个数据中心,通过VPN建立不同用户数据中心与VPC之间的通信隧道。 配置VPN时需要注意以下几点: 本端子网与对端子网不能重复。 本端和对端的IKE策略、IPsec策略、PSK相同。 本端和对端子网,网关等参数对称。 VPC内弹性云服务器安全组允许访问对端和被对端访问。 VPN对接成功后两端的云主机或者物理设备之间需要进行通信,VPN的状态才会刷新为正常。 前提条件 已创建VPN所需的虚拟私有云和子网。 操作步骤 1. 在管理控制台上,创建VPN网关、用户网关,选择合适的IKE策略和IPsec策略创建VPN连接。 2. 检查本端和对端子网的IP地址池。 3. 为弹性云主机配置安全组规则,允许通过VPN进出本地数据中心的报文。 4. 检查VPC安全组。 5. 检查远端LAN配置(即对端数据中心网络配置)。 假设您在云中已经申请了VPC,并申请了2个子网(192.168.1.0/24,192.168.2.0/24),您在自己的数据中心Router下也有2个子网(192.168.3.0/24,192.168.4.0/24)。您可以通过VPN使VPC内的子网与数据中心的子网互相通信。 本端和对端子网IP池不能重合。例如,本端VPC有两个子网,分别为:192.168.1.0/24和192.168.2.0/24,那么对端子网的IP地址池不能包含本端VPC的这两个子网。 从本地数据中心ping云主机,验证安全组是否允许通过VPN进出本地数据中心的报文。 在远程LAN(对端数据中心网络)配置中有可以将VPN流量转发到LAN中网络设备的路由。如果VPN流量无法正常通信,请检查远程LAN是否存在拒绝策略。
        来自:
        帮助文档
        VPN连接
        最佳实践
        通过VPN连接云下数据中心与云上VPC
      • 设置告警规则
        本章节会介绍如何设置数据库监控告警规则。 操作场景 通过在云监控中设置告警规则,用户可自定义关系型数据库的监控目标与通知策略,及时了解关系型数据库运行状况,从而起到预警作用。 设置关系型数据库的告警规则包括设置告警规则名称、服务、维度、监控对象、监控指标、告警阈值、监控周期和是否发送通知等参数。 设置告警规则 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 在“服务列表”中选择“管理与部署 > 云监控服务”,进入云监控服务信息页面。 步骤 4 选择“告警 > 告警规则”。 步骤 5 单击“创建告警规则”。 步骤 6 在“创建告警规则”界面,根据界面提示配置参数。 表 告警规则信息 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 描述 告警规则描述。 告警类型 选择指标。 资源类型 选择关系型数据库。 维度 选择MySQL实例。 监控范围 资源分组:该分组下任何资源满足告警策略时,都会触发告警通知。 指定资源:在“监控对象”单击“选择指定资源”进行指定资源的选择。 触发规则 关联模板:所关联模板内容修改后,该告警规则中所包含策略也会跟随修改。 建议选择导入已有模板,模板中已经包含CPU使用率、内存使用率、磁盘利用率三个常用告警指标。 自定义创建:自行配置告警策略。 模板 触发规则选择关联模板时,需要选择模板。 您可以选择系统预置的默认告警模板,或者选择自定义模板。 表 告警通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知方式 根据需要可选择通知组或主题订阅两种方式。 通知组 需要发送告警通知的通知组。 通知对象 选择主题订阅时设置需要发送告警通知的对象,可选择云账号联系人或主题名称。 云账号联系人为注册时的手机和邮箱。 主题是消息发布或客户端订阅通知的特定事件类型。 生效时间 该告警仅在生效时间段发送通知消息,非生效时段则在隔日生效时段发送通知消息。 如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。 归属企业项目 告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 步骤 7 单击“立即创建”,告警规则创建完成。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        设置告警规则
      • redis常见使用规范
        本节主要介绍Redis常见使用规范,主要从Key名称、Value值、Redis命令以及其他方面描述。 Key名称 Key名称的使用规范如下: 使用统一的命名规范。 一般使用业务名(或数据库名)为前缀,用冒号分隔,例如,业务名:表名:id。 控制key名称的长度。 在保证语义清晰的情况下,尽量减少Key的长度。有些常用单词可使用缩写,例如,user缩写为u,messages缩写为msg。 名称中不要包含特殊字符。 Value值 Value值的使用规范如下: 要避免大Key。 大Key会带来网卡流量风暴和慢查询,一般string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。 选择合适的数据类型。 比如存储用户的信息,可用使用多个key,使用set u:1:name "X"、set u:1:age 20这样存储,也可以使用hash数据结构,存储成1个key,设置用户属性时使用hmset一次设置多个,同时这样存储也能节省内存。 设置合理的过期时间。 最好是过期时间打散,不要集中在某个时间点过期。 Redis命令 Redis命令的常用规范如下: 时间复杂度为O(N)的命令,需要特别注意N的值。 例如:hgetall、lrange、smembers、zrange、sinter这些命令都是做全集操作,如果元素很多,是很耗性能的。可使用hscan、sscan、zscan这些分批扫描的命令替代。 命令禁用,使用前,请参考Redis命令兼容性和WebCli命令兼容性。 慎重使用select。 Redis多数据库支持较弱,多业务用多数据库实际还是单线程处理,会有干扰。最好是拆分使用多个Redis。天翼云集群实例不支持多DB。 如果有批量操作,可使用mget、mset或pipeline,提高效率,但要注意控制一次批量操作的元素个数。 mget、mset和pipeline的区别如下: mget和mset是原子操作,pipeline是非原子操作。 pipeline可以打包不同的命令,mget和mset做不到。 使用pipeline,需要客户端和服务端同时支持。 lua脚本的执行超时时间为5秒钟,建议不要在lua脚本中使用比较耗时的代码,比如长时间的sleep、大的循环等语句。 调用lua脚本时,建议不要使用随机函数去指定key,否则在主备节点上执行结果不一致,从而导致主备节点数据不一致。 集群实例使用lua有如下限制: 使用EVAL和EVALSHA命令时,命令参数中必须带有至少1个key,否则客户端会提示“ERR eval/evalsha numkeys must be bigger than zero in redis cluster mode”的错误。 使用EVAL和EVALSHA命令时,DCS Redis集群实例使用第一个key来计算slot,用户代码需要保证操作的key是在同一个slot。
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        redis常见使用规范
      • 使用Redis实现排行榜功能
        本节基于天翼云分布式缓存服务实践所编写,用于指导您在以下场景使用DCS实现排行榜功能。 场景介绍 在网页和APP中常常需要用到榜单的功能,对某个keyvalue的列表进行降序显示。当操作和查询并发大的时候,使用传统数据库就会遇到性能瓶颈,造成较大的时延。 使用分布式缓存服务(DCS)的Redis版本,可以实现一个商品热销排行榜的功能。它的优势在于: 数据保存在缓存中,读写速度非常快。 提供字符串(String)、链表(List)、集合(Set)、哈希(Hash)等多种数据结构类型的存储。 实践指导 1. 准备一台弹性云主机(ECS),选择Windows系统类型。 2. 在ECS上安装JDK1.8以上版本和Eclipse,下载jedis客户端(点此处直接下载jar包)。 3. 在天翼云控制台购买DCS缓存实例。注意和ECS选择相同虚拟私有云、子网以及安全组。 4. 在ECS上运行Eclipse,创建一个java工程,为示例代码创建一个productSalesRankDemo.java文件,并将jedis客户端作为library引用到工程中。 5. 将DCS缓存实例的连接地址、端口以及连接密码配置到示例代码文件中。 6. 编译并运行得到结果。 代码示例 package dcsDemo02; import java.util.ArrayList; import java.util.List; import java.util.Set; import java.util.UUID; import redis.clients.jedis.Jedis; import redis.clients.jedis.Tuple; public class productSalesRankDemo { static final int PRODUCTKINDS 30; public static void main(String[] args) { //实例连接地址,从控制台获取 String host "192.168.0.246"; //Redis端口 int port 6379; Jedis jedisClient new Jedis(host, port); try { //实例密码 String authMsg jedisClient.auth(""); if (!authMsg.equals("OK")) { System.out.println("AUTH FAILED: " + authMsg); } //键 String key "商品热销排行榜"; jedisClient.del(key); //随机生成产品数据 List productList new ArrayList<>(); for(int i 0; i sortedProductList jedisClient.zrevrangeWithScores(key, 0, 1); for(Tuple product : sortedProductList) { System.out.println("产品ID: " + product.getElement() + ", 销量: " Double.valueOf(product.getScore()).intValue()); } System.out.println(); System.out.println(" "+key); System.out.println(" 前五大热销产品"); //获取销量前五列表并输出 Set sortedTopList jedisClient.zrevrangeWithScores(key, 0, 4); for(Tuple product : sortedTopList) { System.out.println("产品ID: " + product.getElement() + ", 销量: " Double.valueOf(product.getScore()).intValue()); } } catch (Exception e) { e.printStackTrace(); } finally { jedisClient.quit(); jedisClient.close(); } } }
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        使用Redis实现排行榜功能
      • 快速创建弹性伸缩
        本文主要介绍如何快速创建弹性伸缩。 前提条件 1. 已经创建所需的 VPC、子网、安全组、弹性负载均衡器等。 2. 如果使用密钥方式鉴权,还需要准备好密钥对。鉴权方式是指弹性伸缩活动中添加的云主机的鉴权方式。 操作步骤 1. 登录管理控制台。 2. 选择“计算 > 弹性伸缩服务”。 3. 单击“创建弹性伸缩组”。 4. 填写弹性伸缩组的基本信息,例如,名称、最大实例数、最小实例数、期望实例数。参数配置说明如下表所示。 5. 在“伸缩配置”页面,您可以选择使用已有的伸缩配置或者即时创建新的伸缩配置,更多信息请参见使用已有云主机创建伸缩配置和使用新模板创建伸缩配置。 6. (可选)为伸缩组添加伸缩策略。在“伸缩策略”页面,单击“添加伸缩策略”。配置伸缩活动触发的策略类型、执行动作、冷却时间等,根据界面提示进行参数配置,更多信息请参见动态扩展资源和按计划扩展资源。 7. 单击“立即创建”。 8. 创建伸缩组成功后,伸缩组状态变为“已启用”。 说明 如果伸缩活动是伸缩策略触发的,以伸缩策略的冷却时间为准。 如果是手工修改期望实例数量或者其他方式引起的伸缩活动,则以伸缩组的冷却时间为准。 表 伸缩组参数说明 参数 解释 取值样例 区域 区域也称为Region。创建的伸缩组所在的区域。 不同区域的资源之间内网不互通。请选择靠近您客户的区域,可以降低网络时延、提高访问速度。 可用区 可用区也称为AZ(Availability Zone)。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高应用的高可用性,建议您将云服务器创建在不同的可用区内。 如果您需要较低的网络时延,建议您将云服务器创建在相同的可用区内。 如果您选择多个可用区,为提高应用的高可用性,您的云主机会被均匀的创建在不同的可用区内。 名称 创建的伸缩组的名称。 伸缩组名称(1~64个字符)只能由中文、英文字母、数字、下划线、和中划线组成。 最大实例数 最大实例数是指伸缩组中云主机个数的最大值。 1台 期望实例数 期望实例数是指伸缩组中期望的云主机数量。 创建后可以手工修改该值,修改该值就会触发一次弹性伸缩活动。 0台 最小实例数 最小实例数是指伸缩组中云主机个数的最小值。 0台 虚拟私有云 弹性云主机使用的网络是虚拟私有云(VPC)提供的。 同一伸缩组内的弹性云主机均属于该VPC。 子网 您最多可以选择五个子网,伸缩组会自动为创建的实例绑定所有网卡。您选择的第一个子网默认作为云主机的主网卡,其它子网作为云主机的扩展网卡。 自动分配IPv6地址:当且仅当选择支持IPv6的AZ、且VPC子网开启了IPv6功能时,该参数可见。子网如何开启IPv6功能,请参见《虚拟私有云用户指南》。系统默认分配IPv4地址,勾选后,网卡的IP地址为IPv6类型。在同一VPC内,云主机通过IPv6地址在双栈ECS之间进行内网访问。如需访问外网,您需要开启“IPv6带宽”并选择共享带宽,此时云主机可以使用IPv6地址访问互联网。 实例移除策略 实例优先被移除的策略。当满足条件时,会触发实例移除活动,包括如下四种方式: 根据较早创建的配置较早创建的实例:根据“较早创建的配置”较早创建的“实例”优先被移除伸缩组。 根据较早创建的配置较晚创建的实例:根据“较早创建的配置”较晚创建的“实例”优先被移除伸缩组。 较早创建的实例:创建时间较早的实例优先被移除伸缩组。 较晚创建的实例:创建时间较晚的实例优先被移除伸缩组。 说明: 当可用区不均衡时,移出实例时会优先保证可用区均衡。 手动移入伸缩组的云主机不会遵循“实例移除策略”的要求,实例移除优先级最低,且移除时,系统不会删除该云主机。当有多个手工加入伸缩组的云主机时,移除规则是:先进先出。 弹性IP 若伸缩组的伸缩配置使用了弹性IP,在进行扩容活动时,会给创建出来的云主机绑定一个弹性IP。若选择“释放”,当进行缩容活动时,会将云主机上的弹性IP释放,否则仅做解绑定操作,保留弹性IP资源。 健康检查方式 健康检查会将异常的云主机从伸缩组中移除,并重新创建新的云主机,伸缩组的健康检查方式包括以下几种: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、删除都是云主机异常状态。默认为此选项,伸缩组会定期使用云主机健康检查结果来确定每个云主机的运行状况。如果未通过云主机健康检查,则伸缩组会将该云主机移出伸缩组。 负载均衡健康检查:是指根据ELB对云主机的健康检查结果进行的检查。只有当伸缩组使用弹性负载均衡器时,您才可以选择“负载均衡健康检查”,所有监听器下检测到的云主机状态必须均为正常,否则伸缩组会将该云主机移出伸缩组。 健康检查间隔 伸缩组执行健康检查的周期。您可以根据实际情况设置合理的健康检查间隔。 5分钟 通知方式 可选参数。如果勾选此项,伸缩组进行伸缩活动后,系统将以邮件形式通知用户本次弹性伸缩伸缩活动的结果。通知邮箱为用户注册时填写的邮箱信息。
        来自:
        帮助文档
        弹性伸缩服务 AS
        快速入门
        快速创建弹性伸缩
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • 新增网站
        新增网站流程 系统会自动区分非天翼云主体与天翼云主体。非天翼云主体是指此次备案的主办单位之前没有在天翼云做过任何备案,我们统称之为非天翼云主体。反之,天翼云主体就是指此次备案的主办单位之前已经在天翼云处做过备案并获得了备案号。 非天翼云主体的新增网站是指本次要备案的域名未获得工信部下发的网站备案号,但是报备该域名的主体(主办单位)已经获得工信部下发的主体备案号(主体备案号是经由其他接入服务商获得的)。用户可以通过工信部网站提供的公共查询功能(https:// beian.miit.gov.cn),根据单位名称、域名进行分别查询是否已经备案,并核实您的主体备案号。 针对三证合一或五证合一的企业单位,在进行新增网站或新增接入操作时,如果之前是使用三证合一前的证件即旧证件备案并获得备案号的(但在证件三证合一后未及时进行备案变更的),那么在进行备案订单创建时,需要使用旧证件号码进行录入。因为备案订单的创建是调用管局的已备案信息库。 部分企业三证合一前的证号可通过全国企业信用信息查询网站www.gsxt.gov.cn查询获得(即工商注册号),或全国组织机构代码管理中心网站www.cods.org.cn查询。 在同一个接入商内,同一个主办单位的新增网站订单只能且仅能创建一条,在一条订单内可以同时增加多条网站信息。严禁对统一主办单位创建多条新增网站订单。 流程如下 新增网站备案的完整流程及流程简图如下图所示: 流程简图 1 创建新增网站订单 通过备案类型的自动匹配(主办单位证件号码已经获得备案号,域名未获得备案号),在系统无其他冲突数据的前提下创建订单任务,点击“查看”进入新增网站流程。 2 填写主办单位信息 填写主办单位信息,请按照页面提示,完善您本次备案的主办单位信息和单位负责人信息。主体信息除所在“省份”无法修改外,其他信息均可修改,新增网站通过后,备案主体信息将以本次备案提交的主体信息为准。 3 填写网站信息 填写网站信息按照页面提示内容进行内容填写。如您本次备案的网站涉及新闻、医药、论坛、广播电视等请准备好相关部门的审批文件并上传至“前置审批文件”处。网站负责人可以与单位主体负责人相同,您也可以使用新的负责人信息。域名录入请录入一级域名或单个专线IP地址,不支持二级域名的录入(.gov.cn后缀的域名允许二级域名备案)。每条网站仅支持填报一个域名,如果有多个域名,请通过“继续新增网站”按钮逐个添加。 如果本次备案欲备案多个网站,请通过点击“继续新增网站”来继续新增网站信息。新增网站数量暂无限制。 4 资料上传 系统支持通过小程序采集上传和本地图片上传两种方式。 材料上传只支持jpg、png格式的图片,请勿上传其他格式的图片。系统限定每个图片类型最多上传3张图片,如位置不够可以传至其他空白位置。 5 本地上传图片 用户需要按照页面指引,上传各类证件彩色图片。 6 APP电子化方式上传图片 通过微信小程序扫描二维码后,在小程序端按照系统所提示采集需要图片,完成图片采集完成后会自动生成18位验证码,需将验证码填报至上图指定位置后,点击“确定”按钮,系统会自动将图片对应到合适位置。 预览填写的信息,并准确核对所填写的信息,并对有需更正的地方返回上一步修改。 信息预览无误后,点击“提交审核”,备案信息将提交至管理员进行审核。 7 天翼云/管局审核 提交预审核,天翼云备案专员将会尽快审核您的信息是否符合备案要求。审核符合要求的,天翼云会尽快代您将备案信息提交至管局进行备案终审,提交管局后,请主体和网站负责人收到验证短信后,在24小时内按照短信指引完成,否则会被管局退单。 管理员将根据真实性验信息和图片信息情况填写审核意见,如所备案信息和证件等信息无误,审核通过并提交管局;反之,审核拒绝,退回备案信息给备案发起人进行修改,或退回至待核验环节或待预审核环节由相关人员处理。 信息提交管局后,请耐心等待管局的审核,管局审核拒绝或接口自动退回后,会在订单中获得退回的意见,管理员或用户需根据退回意见进行修改后重新进行备案流程。 备案通过后,管局会给主办单位负责人发送备案通过通知,同时,经过管局审核的备案信息会同步给天翼云侧备案系统,您所已经备案通过的信息可以通过“已备案信息管理”进行查看管理。 去备案
        来自:
        帮助文档
        ICP备案
        备案类型
        新增网站
      • 节点滚动升级
        操作场景 用户在不删除现有节点的情况下,将工作负载迁移到新的节点上。迁移流程如下图所示。 约束与限制 现有节点和工作负载待迁移的节点必须在同一集群。 当前仅支持在Kubernetes v1.13.10及以后集群版本执行此操作。 默认节点池DefaultPool不支持修改配置。 原有节点在默认节点池 步骤 1 创建新的节点。 1. 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 2. 在集群选择框中,选择现有节点所属的集群。 3. 单击“创建节点池”,设置节点池如下参数,其他参数根据需要进行修改,参数说明请参见节点池管理>创建节点池。 a. 节点池名称:新建节点池的名称,例如nodepooldemo。 b. 节点购买数量:本例添加一个节点。 c. 节点规格:请根据业务需求选择相应的节点规格。 d. 操作系统:选择节点对应的操作系统。 e. 登录方式:支持密码和密钥对。 选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 4. 单击“下一步:配置确认”。确认节点池配置后,单击“提交”。 单击“返回节点池管理”返回节点池列表。在节点列表中可查看到新建节点池已创建,且状态为“正常”。 步骤 2 单击节点池名称,在节点列表中可查看到新建节点的IP地址。 步骤 3 安装配置kubectl。 1. 在左侧导航栏中选择“资源管理 > 集群管理”,单击现有节点所在集群下的“命令行工具 > kubectl”。 2. 在集群详情页中的“kubectl”页签下,请参照界面中的提示信息完成集群连接。 步骤 4 迁移工作负载。 1. 给需要迁移工作负载的节点打上Taint(污点)。 kubectl taint node [node] keyvalue:[effect] 其中,[node]为待迁移工作负载所在节点的IP;[effect]取值为NoSchedule、PreferNoSchedule或NoExecute,此处必须设置为NoSchedule。 − NoSchedule:一定不能被调度。 − PreferNoSchedule:尽量不要调度。 − NoExecute:不仅不会调度,还会驱逐Node上已有的Pod。 说明: 若需要重新设置污点时,可执行kubectl taint node [node] key:[effect]命令去除污点。 2. 安全驱逐节点上的工作负载。 kubectl drain [node] 其中,[node]为待转移工作负载所在节点的IP。 3. 在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。在工作负载列表中,待迁移工作负载的状态由“运行中”变为“未就绪”。工作负载状态再次变为“运行中”,表示迁移成功。 说明: 迁移工作负载时,若工作负载配置了节点亲和性,则工作负载会一直提示“未就绪”等异常情况。请单击工作负载名称进入到负载详情页,在选择“调度策略”页签,删除原节点的亲和性配置,并单击“简易调度策略”配置新的节点亲和性和反亲和性策略,详情请参见“亲和反亲和调度>简易调度策略”。 工作负载迁移成功后,在工作负载详情页的“实例列表”页签,可查看到工作负载状已迁移到步骤1中所创建的节点上。 步骤 5 删除原有节点。 工作负载迁移成功且运行正常后,即可在“资源管理 > 节点管理”中删除原有节点。 原有节点不在默认节点池 步骤 1 拷贝节点池并添加节点。 1. 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 2. 在集群选择框中,选择现有节点所属的集群。 在节点池列表中,查找到原有节点所在的节点池。 3. 单击该节点池名称后的“更多 > 拷贝”,在“创建节点池”页面下设置如下参数,其他参数根据需要进行修改,参数说明请参见“节点管理>创建节点池”。 − 节点池名称:新建节点池的名称,例如nodepooldemo。 − 节点购买数量:本例添加一个节点。 − 节点规格:请根据业务需求选择相应的节点规格。 − 操作系统:选择节点对应的操作系统。 − 登录方式:支持密码和密钥对。 选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 4. 单击“下一步:配置确认”。确认节点池配置后,单击“提交”。 单击“返回节点池管理”返回节点池列表。在节点列表中可查看到新建节点池已创建,且状态为“正常”。 步骤 2 单击节点池名称,在节点列表中可查看到新建节点的IP地址。 步骤 3 迁移工作负载。 1. 单击节点池nodepooldemo后的“编辑”配置Taints参数。 2. 单击“Add Taint”,输入Key和Value值,Effect选项有NoSchedule、PreferNoSchedule或NoExecute,此处必须选择“NoExecute”。 − NoSchedule:一定不能被调度。 − PreferNoSchedule:尽量不要调度。 − NoExecute:不仅不会调度,还会驱逐Node上已有的Pod。 说明: 若需要重新设置污点时,可执行kubectl taint node [node] key:[effect]命令去除污点。 3. 单击“保存”。 4. 在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。在工作负载列表中,待迁移工作负载的状态由“运行中”变为“未就绪”。工作负载状态再次变为“运行中”,表示迁移成功。 说明: 迁移工作负载时,若工作负载配置了节点亲和性,则工作负载会一直提示“未就绪”等异常情况。请单击工作负载名称进入到负载详情页,在选择“调度策略”页签,删除原节点的亲和性配置,并单击“简易调度策略”配置新的节点亲和性和反亲和性策略,详情请参见“亲和反亲和调度>简易调度策略”。 工作负载迁移成功后,在工作负载详情页的“Pods”页签,可查看到工作负载状已迁移到步骤1中所创建的节点上。 步骤 4 删除原有节点。 工作负载迁移成功且运行正常后,即可在“资源管理 > 节点池管理”中删除原有节点。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        节点滚动升级
      • 查询服务器
        项目 描述 Default Properties 后续加入集群节点的HBlock默认参数。 Server Properties for hblockx 具体服务器信息。 Server Name 服务器名称。 Server ID 服务器ID。 Node Name 节点名称。 Parent Node 父节点名称。 Description 服务器描述信息,如果没有描述信息,不显示。 Status 服务器状态: Connected:已连接。 Disconnected:未连接。 Removing:移除中。 Master Server 该服务器是否为Master节点(仅集群版支持): true:该服务器为Master节点。 false:该服务器不是Master节点。 Base Server 该服务器是否为基础节点(仅集群版支持): true:该服务器为基础节点。 false:该服务器不是基础节点。 Base Service 服务器上的基础服务(仅集群版支持),包括基础服务名称、状态及对应的数据目录。 Public Address 业务网的IP和端口号。 Cluster Address 集群网的IP。 Target portal IP and Port 目标门户和目标端口。 Recent Start Time HBlock服务在该节点上最近一次成功启动的时间。 :表示HBlock服务处于停止状态。 Version HBlock版本号。 Parameters 服务器中HBlock可使用的内存信息: maxMemoryRatio:HBlock可使用的内存占用系统总内存的比例上限。 maxMemorySize:HBlock可使用的内存最大值,单位是bytes。 Disk Path(s) 数据目录信息: No.:编号。 Path:数据目录。单机版中,如果数据目录后有(),表示为HBlock服务器的默认数据目录。 Storage Pool:数据目录所属资源池。 Used Capacity:HBlock数据目录对应分区的已用容量。 Total Capacity:HBlock数据目录对应分区的总容量。 Used Capacity Quota:数据目录已用容量配额。 Capacity Quota:数据目录容量配额,当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 Health Status:数据目录的健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 Health Detail:数据目录健康状态详情。 如果健康状态为Healthy,此列为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。 Data Service:数据目录对应的ds进程(仅集群版支持)。 说明 数据目录加入存储池后才会展示ds进程。 Ports 服务器中HBlock使用的接口: Port Classification:接口类型。 Port:具体接口号。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        服务器操作
        查询服务器
      • 自定义域名管理
        本文介绍如何为桶配置自定义域名。 使用场景 文件预览:如果您不想强制下载文件,可以通过将自定义域名绑定至桶实现在线预览文件。 访问.apk或.ipa文件:出于安全考虑,ZOS禁止通过桶的外网域名访问后缀为.apk或者.ipa的文件。您可使用自定义域名访问此类文件。 提升品牌形象和专业度:提供固定的个性化的企业域名,可以增强品牌形象和专业度,增加用户信任。 约束与限制 不支持绑定中文域名。 每个桶最多可以绑定100个域名。 一个自定义域名只能配置到一个桶上。 操作步骤 步骤一:配置自定义域名 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表,单击Bucket名称进入“概览”页面。 5. 选择“基础设置”页面,找到“自定义域名”,点击“设置”按钮。 6. 点击“添加域名”按钮,输入您的域名。 7. 添加域名成功后,您添加的域名信息将会展示在自定义域名列表中。 8. (可选)您可以在自定义域名列表中点击“绑定证书”, 以绑定您的HTTPS证书。 注意 1. 请确保您添加的域名已经完成工信部备案。添加域名时会验证您的备案情况。如域名尚未备案,请完成备案后再执行添加域名操作。 2. 如您的域名是新备案的域名,域名的备案情况由于同步时间较长,可能会出现较长时间无法通过验证,请您耐心等待。 步骤二:添加CNAME记录 1. 您可以在“配置CNAME”页面复制您添加的自定义域名对应的CNAME值。请注意,“配置CNAME”页面是为了提示您需要为自定义域名添加CNAME记录。无论您是否在此时配置CNAME,自定义域名都已经添加成功了。 2. 您也可以在自定义域名列表页面,复制您添加的自定义域名对应的CNAME值。 3. 前往您的域名解析(DNS)服务商(如万网、阿里云解析、DNSPod、新网、腾讯云解析、route 53、godaddy等),添加该CNAME记录。 4. 验证自定义域名是否生效。配置CNAME后,不同的服务商CNAME生效的时间不同,一般新增的CNAME记录会立即生效,修改的CNAME记录需要较长时间生效。您可以ping或dig您所添加的自定义域名,如果被指向ZOS系统域名,即表示CNAME配置已经生效,自定义域名也已生效。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        数据访问
        自定义域名管理
      • 为多网卡的ECS配置策略路由
        操作步骤(Linux IPv6) 1. 收集配置策略路由需要的云服务器网卡地址等信息(主网卡IP、辅助网卡IP) 2. 确保云服务器已开启IPv6协议栈,并且正常获取到IPv6地址。 执行以下命令,查看云服务器网卡名称。 回显类似如下信息,通过网卡地址查找对应的网卡名称,本示例中:192.168.0.7/240e:982:7544:b600:d048:8b81:dbd0:da34为主网卡地址,对应的名称为eth0。 192.168.1.4/240e:982:7544:b601:ea49:9511:8124:e5f7为扩展网卡地址,对应的名称为eth1。 3. 操作前检查和网关通信情况(其中一个网卡可以和网关通信另外一个网卡默认不通) ping6 I 240e:982:7544:b600:d048:8b81:dbd0:da34 240e:982:7544:b602:f6b0:50a9:fb3a:d97d ping6 I 240e:982:7544:b601:ea49:9511:8124:e5f7 240e:982:7544:b602:f6b0:50a9:fb3a:d97d 4. 查看路由默认状态只有一个网卡的默认路由,策略路由为默认 ip 6 route ip 6 rule 5. 执行命令添加主备网卡的路由 主网卡 ip 6 route add default via 子网网关 dev 网卡名称 table 路由表名称 ip 6 route add 子网网段 dev 网卡名称 table 路由表名称 ip 6 rule add from 网卡地址 table 路由表名称 扩展网卡 ip 6 route add default via 子网网关 dev 网卡名称 table 路由表名称 ip 6 route add 子网网段 dev 网卡名称 table 路由表名称 ip 6 rule add from 网卡地址 table 路由表名称 参数说明如下:网卡名称:填写ifconfig中所查名称。 路由表名称:自定义路由表名称,此处请使用数字命名路由表。 命令示例 主网卡 ip 6 route add default via fe80::f816:3eff:fe64:2923 dev eth0 table 10 ip 6 route add 240e:982:7544:b600::/64 dev eth0 table 10 ip 6 rule add from 240e:982:7544:b600:d048:8b81:dbd0:da34 table 10 扩展网卡 ip 6 route add default via fe80::f816:3eff:fe12:3d1b dev eth1 table 20 ip 6 route add 240e:982:7544:b601::/64 dev eth1 table 20 ip 6 rule add from 240e:982:7544:b601:ea49:9511:8124:e5f7 table 20 6. ping验证,eth0 eth1与目的地址都可以互通 ping6 I 240e:982:7544:b600:d048:8b81:dbd0:da34 240e:982:7544:b602:f6b0:50a9:fb3a:d97d ping6 I 240e:982:7544:b601:ea49:9511:8124:e5f7 240e:982:7544:b602:f6b0:50a9:fb3a:d97d
        来自:
        帮助文档
        虚拟私有云 VPC
        弹性网卡
        为多网卡的ECS配置策略路由
      • 添加TCP监听器
        本文帮助您快速熟悉负载均衡服务TCP监听器的添加。 添加TCP监听器 操作场景 TCP协议适用于注重可靠性、对数据准确性要求高的场景,如邮件服务、文件传输服务和远程登录等。 前提条件 您已经创建了弹性负载均衡器。具体操作详见创建弹性负载均衡器。 操作步骤 步骤一:创建监听器 1. 登录弹性负载均衡控制台。 2. 在顶部右侧选择弹性负载均衡所属区域,本文选择华东华东1。 3. 选择以下一种方法打开监听器配置向导。 在负载均衡器列表页面,找到目标实例,在操作列单击“监听器配置向导”。 在ip类型/监听器端口/健康检查/服务器组列下方单击“开始配置”。 在负载均衡器列表页面,找到目标实例,单击实例名称进入实例详情页,单击“添加监听器”。 4. 在协议&监听配置向导完成相关参数配置,具体可参考TCP监听器配置说明,然后点击“下一步”。 TCP监听器配置说明 监听配置 说明 名称 设置监听器的名称,名称应为232位,英文开头,支持大小写英文和数字。 负载均衡器协议/端口 下拉列表选择TCP协议,输入监听端口 描述 可选,填写监听器描述 高级配置 监听器的特定参数配置:连接超时时间 连接超时时间 仅集群资源池支持设置TCP连接的超时时间,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 新建连接限速(CPS限速) 开启新建连接限速,可设置此监听服务的新建连接速度,减轻高访问量服务切换过程中后端服务器压力。输入范围10~500000,单位连接数/秒,缺省 1000。仅集群模式资源池支持设置新建连接限速,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 访问控制 选择是否开启访问控制。开启访问控制后,选择一种访问控制方式:黑名单、白名单。并设置访问策略组作为该监听器的白名单或黑名单。 白名单:允许特定IP访问负载均衡,仅转发来自所选访问策略组中设置的IP地址或地址段的请求,白名单适用于只允许特定IP访问的场景。 黑名单:禁止特定IP访问负载均衡,不转发来自所选访问策略组中的IP或地址段,黑名单适用于只限制禁止特定IP访问的场景
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        添加监听器
        添加TCP监听器
      • 1
      • ...
      • 275
      • 276
      • 277
      • 278
      • 279
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      应用托管

      一站式智算服务平台

      智算一体机

      知识库问答

      推荐文档

      文档下载

      网页防篡改集中管理中心安装

      首次备案

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号