活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微服务引擎_相关内容
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 查看容器信息
        本节介绍如何查看容器信息。 您可以在容器管理页面查看容器信息,了解容器状态、所属集群以及安全风险情况等。本章节介绍如何查看容器信息。 约束限制 仅支持对Linux镜像执行安全扫描。 仅HSS容器版支持该功能。 仅支持Docker引擎的本地镜像上报到企业主机安全控制台。 操作步骤 1、登录管理控制台。 2、在页面左上角选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在左侧导航树选择“资产管理 > 容器管理” ,进入“容器管理”页面。 说明 如果您的服务器已通过企业项目的模式进行管理,您可选择目标“企业项目”后查看或操作目标企业项目内的资产和检测信息。 4、选择“容器”,进入容器页签。 5、查看容器信息和安全状态。 您可以在容器列表查看容器名称、状态、是否有安全风险,重启次数、所属POD、所属集群等相关信息。 查看容器详细信息。 单击目标容器名称,进入容器详情页面查看容器镜像、进程、端口、数据挂载等相关信息。 查看容器安全风险分布。 鼠标滑动至有风险的目标容器所在行的安全风险列,查看容器存在低危、中危、高危、致命风险的数量。
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        容器管理
        查看容器信息
      • 管理时间计划
        本节介绍如何添加、复制、删除时间计划。 您可以通过设置防护规则的生效时间段,确保规则仅在指定的时间段内生效。 应用场景 配置测试策略:为测试策略设置生效时间段,在测试期间,策略自动生效,确保测试的顺利进行;在测试结束时,策略会自动失效,无需手动操作。 控制公网暴露:当业务需要对外部开放端口时(例如仅办公时间开放),设置生效时间段可以有效减少公网暴露,降低潜在的安全风险。 特殊时间段的临时需求:临时的公网放行需求,无需担心忘记删除的安全风险。 添加时间计划 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“访问控制> 对象组管理”,进入“对象组管理”页面。 5. 切换至“时间计划”页签,单击“添加时间计划”,弹出“添加时间计划”界面,填写参数信息。 参数名称 参数说明 时间计划名称 自定义时间计划的名称。 描述 (可选)标识该计划的使用场景和用途,以便后续运维时快速区分不同计划的作用。 周期计划 添加周期计划 (可选)设置后,规则将在每周的固定时间段生效。 说明 当资源所在时区和本地时区不一致时,需要配置“资源所在时区”,即当前region所属地区的时区。 绝对计划 时间设置方式 当资源所在时区和本地时区不一致时,需要选择“时间设置方式”。防火墙引擎执行时按照“资源所在时区”的时间执行。 本地时区:当前客户端浏览器所属时区。 资源所在时区:云防火墙引擎所在地,即当前region所属地区的时区。 绝对计划 开始时间 设置规则生效的时间。 绝对计划 结束时间 (可选)设置规则失效的时间。 6. 单击“确认”,完成添加。
        来自:
        帮助文档
        云防火墙
        用户指南
        配置访问控制策略
        访问控制策略管理
        管理时间计划
      • 路由表与路由概述
        路由 您可以在默认路由表和自定义路由表中添加路由,路由包括目的地址、下一跳类型、下一跳地址等信息,可以决定网络流量的走向。路由分为系统路由和自定义路由。 系统路由:系统路由一般为VPC服务或者其他服务(比如VPN、DC等)自动在路由表添加的路由,无法删除或修改。 创建路由表时,VPC服务会自动在路由表中添加下一跳为Local的路由,通常情况下,路由表中有以下Local的路由。 目的地址是100.64.0.0/10,该路由用于子网内实例访问云上公共服务,比如访问DNS服务器等。 目的地址是198.19.128.0/20,表示系统内部服务使用的网段地址,比如VPCEP等服务。 目的地址是127.0.0.0/8,表示本地回环地址。 目的地址是子网网段,该路由用于当前VPC内,不同子网的内网网络互通。 您在创建子网时,开启IPv6功能,系统将自动为当前子网分配IPv6网段,就可以在路由表中看到IPv6路由。子网网段目的地址示例如下: IPv4地址:192.168.2.0/24。 IPv6地址:240E:c080:802:be7::/64。 自定义路由:路由表创建完成后,您可以添加自定义路由来控制网络流量的走向,需要指定路由的目的地址和下一跳等信息。除了手动添加自定义路由,当您使用其他云服务时(比如云容器引擎CCE或者NAT网关),其他服务会自动在VPC路由表中添加自定义路由。 路由表和路由的使用限制 当您创建VPC时,系统会同步为VPC创建一个默认路由表。除此之外,您还可以创建自定义路由表。 在一个VPC内,最多可关联5个路由表,包括1个默认路由表和4个自定义路由表。 在一个VPC内的所有路由表中,最多可容纳1000条路由。系统自动创建的路由,即类型为“系统”的路由不占用该配额。 在VPC路由表中,存在系统添加的Local路由以及自定义路由。 通常情况下,自定义路由的目的地址不能与系统添加的Local路由的目的地址重叠。Local路由的目的地址一般有子网网段地址,以及系统内部通信的网段地址。 您无法在VPC路由表中添加目的地址相同的两条自定义路由,即使路由的下一跳类型不同也不行。 在VPC路由表中,路由的优先级说明请参看下表。 路由优先级 说明 Local路由最优先匹配 Local路由用于VPC内通信的系统默认路由,优先级最高。 最精确路由优先匹配 除去Local路由,当路由表中同时有多条路由规则可以匹配目的 IP 地址时,此时遵循最长匹配原则,即优先采用掩码最长,最精确匹配的一条路由并确定下一跳。 示例: 流量的目的地址为192.168.1.12/32。 路由A的目的地址为192.168.0.0/16,下一跳为ECSA。 路由B的目的地址为192.168.1.0/24,下一跳为对等连接。 则根据最长匹配原则,该流量和路由B的目的地址匹配度更高,将去往对等连接。 弹性公网IP(EIP)优先级高于默认路由 当路由表中存在默认路由(默认路由目的地址为0.0.0.0/0,表示匹配任何流量),并且子网内的ECS关联了EIP,则EIP的优先级高于默认路由,流量将会通过EIP访问公网。 示例: 路由A的目的地址为0.0.0.0/0,下一跳为NAT网关。 VPC子网内的ECS关联了EIP。 则ECS出方向的流量将去往公网,不会去往NAT网关。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        路由表
        路由表与路由概述
      • CNI插件
        本章节介绍CNI插件的使用 背景 sidecar模式下,服务网格默认通过给业务pod注入一个istioinit容器配置iptabels规则,实现业务无感的流量拦截,但是这种配置方式需要较高的权限(NETADMIN 和 NETRAW),在对安全较为敏感的场景,这种配置方式可能带来安全风险。通过CNI插件方式,不需要用户提权的情况完成和istioinit相同的能力,实现容器流量拦截配置功能。CNI插件以DaemonSet方式部署在集群中,创建pod时完成容器网络配置。 操作 进入服务网格控制台 > sidecar管理 > 网格CNI插件 菜单,您可以选择对应的istio版本和相关配置,开启或关闭CNI插件,配置说明如下 配置 说明 版本 升级过程中可能同时存在多个版本,您可以选择一个版本开启CNI插件 排除的命名空间 排除的命名空间下的pod不会被CNI插件处理,一般配置为一些不希望注入网格sidecar的命名空间。请勿将需要注入sidecar的命名空间添加到CNI排除的命名空间列表中,可能导致pod启动失败。 使用CNI插件实现sidecar流量拦截配置 1. 进入服务网格控制台 > sidecar管理 > 网格CNI插件 菜单,开启网格CNI插件,完成后可以看到云容器引擎中已经部署了网格CNI 2. 部署应用服务,确保pod所在的命名空间及pod的标签满足sidecar注入规则,且pod所在的命名空间不在网格CNI插件的排除命名空间里;部署完成后可以看到pod注入了sidecar plaintext
        来自:
        帮助文档
        应用服务网格
        用户指南
        sidecar管理
        CNI插件
      • 配置全局JWT认证策略
        概述 JWT全称为 JSON Web Token,是一种开放标准(RFC 7519),它定义了一种在通信各方之间以JSON对象形式安全传输信息的方式。JWT可以使用HMAC、RSA、ECDSA等算法签名;在应用中,JWT可以用于用户身份认证和访问鉴权。云原生网关作为微服务的访问入口,是实现认证鉴权的理想节点,当前云原生网关支持JWT认证方式,交互流程如下: 1. JWT签发阶段,云原生网关对这类接口访问不做认证,将请求透传到业务授权服务。 2. 业务授权服务认证成功后签发JWT并返回给客户端,在后续的请求中客户端会带上JWT。 3. 云原生网关收到正常的业务请求时提取JWT并校验签名信息,校验通过则放过请求,否则返回401状态码。 JWT策略配置 云原生网关支持全局的JWT策略配置,在 安全认证 > 认证鉴权 菜单下,选择创建鉴权,鉴权类型选择JWT,填写相关参数即可创建JWT认证策略,JWT配置参数说明如下: 配置 说明 鉴权名称 唯一标识一个JWT鉴权配置,只能包含大小写字母、数字和‘’,且不能以‘’开头或者结尾。 加密算法 支持HS256、HS512、RS256。 密钥 选择HS256/ HS512算法时填写,需要指定是否base64编码,并提供密钥。 RSA密钥 选择RS256算法时填写,需要提供RSA算法公钥和私钥。 JWT Token配置 网关从请求获取JWT Token的位置,支持指定header、query和Cookie的key。 过期时间 JWT Token过期时间,默认86400秒。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        安全管理配置
        配置全局JWT认证策略
      • 管理只读实例
        本页介绍了如何管理天翼云RDSPostgreSQL产品的只读实例。 RDSPostgreSQL产品支持管理只读实例的功能,主要包括以下操作: 基础操作:重启、停止、升级等,支持绑定EIP和设置标签。 生命周期:退订、扩容(包括规格扩容和磁盘扩容)等。 参数设置:修改实例参数,并支持设置参数模板应用到只读实例。 实例操作:包括空闲连接查杀、清理在线表等。 实例监控:资源监控(主机资源包括CPU、IO等核心监控数据)、引擎监控(QPS、TPS、连接数、缓存等内核指标监控)、日志监控(慢日志、错误日志等)以及操作日志(包括控制台操作在内的监控等)。 数据库安全:白名单管理、数据库审计等安全操作。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        只读实例
        管理只读实例
      • 跨区域数据恢复
        跨区域增量备份文件恢复 步骤 1 在页面上方选择备份所在的目标区域。 步骤 2 在左侧导航栏单击“备份管理”,选择“数据库跨区域备份”页签。 步骤 3 单击目标实例操作列“查看跨区域备份”。 步骤 4 在“Binlog备份”页签,单击“恢复到指定时间点”。 步骤 5 选择恢复日期和该日期下可恢复的时间区间,并输入要恢复到的时间点,选择恢复方式,单击“确定”。 恢复到新实例:设置新实例参数,单击“立即购买”。 数据库引擎和数据库版本,与原实例相同,不可重置。 其他参数默认,用户如需设置,请参见购买。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据恢复
        恢复到云上MySQL数据库
        跨区域数据恢复
      • (停止维护)CCE发布Kubernetes 1.25版本说明
        本文主要介绍CCE发布Kubernetes 1.25版本说明。 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍CCE发布Kubernetes 1.25版本所做的变更说明。 版本升级说明 CCE针对Kubernetes 1.25版本提供了全链路的组件优化和升级。 表 核心组件及说明 集群类型 核心组件 版本号 升级注意事项 :::: CCE集群 Kubernetes 1.25 无 CCE集群 Docker CentOS:18.9.0 Ubuntu:18.09.9 无 CCE集群 Containerd 1.4.1 无 CCE集群 操作系统 CentOS Linux release 7.6 无 CCE集群 操作系统 Ubuntu 18.04 server 64bit 无 资源变更与弃用 CCE 1.25变更说明 CCE v1.25集群的节点均默认采用Containerd容器引擎。 社区1.25 ReleaseNotes 清理iptables链的所有权 Kubernetes通常创建iptables链来确保这些网络数据包到达,这些iptables链及其名称属于Kubernetes内部实现的细节,仅供内部使用场景,目前有些组件依赖于这些内部实现细节,Kubernetes总体上不希望支持某些工具依赖这些内部实现细节。 在Kubernetes 1.25版本后,Kubelet通过IPTablesCleanup特性门控分阶段完成迁移,是为了不在NAT表中创建iptables链,例如KUBEMARKDROP、KUBEMARKMASQ、KUBEPOSTROUTING。 存储驱动的弃用和移除,移除云服务厂商的intree卷驱动。 社区1.24 ReleaseNotes 在Kubernetes 1.24版本后,Service.Spec.LoadBalancerIP被弃用,因为它无法用于双栈协议。请使用自定义annotation。 在Kubernetes 1.24版本后,kubeapiserver移除参数address、insecurebindaddress、port、insecureport0。 在Kubernetes 1.24版本后,kubecontrollermanager和kubescheduler移除启动参数port0和address。 在Kubernetes 1.24版本后,kubeapiserver auditlogversion和auditwebhookversion仅支持audit.k8s.io/v1,Kubernetes 1.24移除audit.k8s.io/v1[alphabeta]1,只能使用audit.k8s.io/v1。 在Kubernetes 1.24版本后,kubelet移除启动参数networkplugin,仅当容器运行环境设置为Docker时,此特定于Docker的参数才有效,并会随着Dockershim一起删除。 在Kubernetes 1.24版本后,动态日志清理功能已经被废弃,并在Kubernetes 1.24版本移除。该功能引入了一个日志过滤器,可以应用于所有Kubernetes系统组件的日志,以防止各种类型的敏感信息通过日志泄漏。此功能可能导致日志阻塞,所以废弃。 VolumeSnapshot v1beta1 CRD在Kubernetes 1.20版本中被废弃,在Kubernetes 1.24版本中移除,需改用v1版本。 在Kubernetes 1.24版本后,移除自1.11版本就废弃的service annotation tolerateunreadyendpoints,使用Service.spec.publishNotReadyAddresses代替。 在Kubernetes 1.24版本后,废弃metadata.clusterName字段,并将在下一个版本中删除。 Kubernetes 1.24及以后的版本,去除了kubeproxy监听NodePort的逻辑,在NodePort与内核net.ipv4.iplocalportrange范围有冲突的情况下,可能会导致偶发的TCP无法连接的情况,导致健康检查失败、业务异常等问题。升级前,请确保集群没有NodePort端口与任意节点net.ipv4.iplocalportrange范围存在冲突。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.25版本说明
      • 生产消费验证
        本文介绍分布式消息服务RocketMQ入门指引的生产消费验证内容。 背景信息 RocketMQ的生产消费验证是指在使用RocketMQ进行消息生产和消费时的验证过程。具体而言,验证包括以下几个方面: 生产者验证:RocketMQ提供了丰富的生产者API,开发人员可以使用这些API将消息发送到RocketMQ的消息队列中。在验证阶段,可以通过发送消息并检查返回结果来确保消息成功发送到Broker节点。此外,生产者还应该验证消息的顺序性、事务性以及可靠性等方面。 消费者验证:RocketMQ的消费者可以订阅特定的消息主题,从而消费这些主题下的消息。在验证阶段,消费者应该能够正确地从Broker节点拉取消息并进行消费处理。消费者还可以验证消息的顺序性、重试机制以及消息过滤等功能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息主题,若无选项,请新增主题,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。 1)生产者示例API 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5节点。 ctgmq引擎版本,SDK下载方式详见环境准备其他工具章节。 package com.ctg.guide; import com.ctg.mq.api.CTGMQFactory; import com.ctg.mq.api.IMQProducer; import com.ctg.mq.api.PropertyKeyConst; import com.ctg.mq.api.bean.MQMessage; import com.ctg.mq.api.bean.MQSendResult; import com.ctg.mq.api.exception.MQException; import com.ctg.mq.api.exception.MQProducerException; import java.util.Properties; / Producer,发送消息 / public class Producer { public static void main(String[] args) throws InterruptedException, MQException { Properties properties new Properties(); properties.setProperty(PropertyKeyConst.ProducerGroupName, "producergroup"); properties.setProperty(PropertyKeyConst.NamesrvAddr, "10.50.208.1:9876;10.50.208.2:9876;10.50.208.3:9876"); properties.setProperty(PropertyKeyConst.NamesrvAuthID, "app4test"); properties.setProperty(PropertyKeyConst.NamesrvAuthPwd, ""); properties.setProperty(PropertyKeyConst.ClusterName, "defaultMQBrokerCluster"); properties.setProperty(PropertyKeyConst.TenantID, "defaultMQTenantID"); IMQProducer producer CTGMQFactory.createProducer(properties);//建议应用启动时创建 int connectResult producer.connect(); if(connectResult ! 0){ return; } for (int i 0; i mqResultList) { //mqResultList 默认为1,可通过批量消费数量设置 for(MQResult result : mqResultList) { //TODO System.out.println(result); } return ConsumerTopicStatus.CONSUMESUCCESS;//对消息批量确认(成功) //return ConsumerTopicStatus.RECONSUMELATER;//对消息批量确认(失败) } }); } } 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 rocketmq引擎版本,SDK下载方式详见环境准备其他工具章节。 importorg.apache.rocketmq.client.consumer.DefaultMQPushConsumer; importorg.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus; importorg.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently; importorg.apache.rocketmq.client.exception.MQClientException; publicclassPushConsumer{ public static void main(String[] args) throws Exception{ AclClientRPCHook rpcHook newAclClientRPCHook(newSessionCredentials(ACCESSKEY, SECRETKEY)); DefaultMQPushConsumer consumer new DefaultMQPushConsumer(rpcHook); consumer.setConsumerGroup("ConsumerGroupName"); // 填入元数据地址 consumer.setNamesrvAddr("XXX:xxx"); ; //如果需要开启SSL,请增加此行代码 consumer.subscribe("YOUR TOPIC",""); consumer.registerMessageListener((MessageListenerConcurrently)(msgs, context)>{ System.out.printf("%s Receive New Messages: %s %n",Thread.currentThread().getName(), msgs); returnConsumeConcurrentlyStatus.CONSUMESUCCESS; }); consumer.start(); System.out.printf("Consumer Started.%n"); } } 示例参数说明: Namesrv地址 Namesrv地址可从控制台查看,多个地址按分号分隔。 应用用户和密码 这个应用用户和密码就是控制台创建的应用用户和密码。 租户id和集群名 集群名和租户id可以从应用用户管理查询。 订阅组 消费组名需要在控制台提前创建好。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        生产消费验证
      • ECI实例概述
        本文介绍ECI实例概述。 本文主要介绍弹性容器实例ECI Pod的主要功能以及使用限制。 前提条件 已开通并授权云容器引擎。 已登录弹性容器实例控制台开通ECI服务。 Kubernetes应用限制 借助Kubernetes社区的Virtual Kubelet技术,天翼云ECI可以完美连接到Kubernetes,实现真正意义上的无缝连接。ECI实例并不会在一个集中式的真实节点上运行,而是分布在整个天翼云的资源池中。由于公共云的安全性和虚拟节点本身的限制,ECI目前还不支持Kubernetes中的一些功能,如DaemonSet。具体功能限制请参见下表: 不支持的功能 说明 HostPath 允许将宿主机(Node)上的文件或目录挂载到Pod中 HostNetWork 允许Pod使用宿主机的网络命名空间,而不是使用Kubernetes的网络隔离 DaemonSet 用于确保每个集群节点上自动运行一个指定的Pod副本 Privileged权限 允许容器几乎拥有宿主机级别的权限 typeNodePort的Service 通过在集群的节点上暴露一个静态端口,使得外部可以通过指定IP地址和该端口访问服务 核心功能 功能项 说明 安全隔离 提供虚拟机级别的安全和资源隔离能力,每个容器实例都运行在独占内核中,不与其它负载和Pod共享基础设施资源。同时针对容器运行环境进行了深度优化,具备比虚拟机更快的启动速度和运行效率 CPU/Memory资源或规格配置 ECI Pod默认使用按需计费模式进行费用收取。支持指定CPU和Memory资源或者指定ECS规格创建实例 镜像拉取与缓存 镜像拉取:ECI Pod在每次启动时,会自动从远程仓库获取容器镜像。对于公共镜像的获取,建议配置VPC的NAT网关或为ECI Pod配置弹性公网IP (EIP)。为优化镜像拉取效率,我们推荐您使用天翼云容器镜像服务,加速镜像的下载 镜像缓存:ECI提供镜像缓存功能,镜像缓存是为了加速拉取镜像以减少ECI启动时间而设计的。镜像拉取是容器实例启动的主要耗时,而制作镜像缓存可以通过预先获取、存储和管理已经拉取的镜像,实现对容器实例启动时间的显著减少。考虑到网络和镜像大小等因素的影响,构建镜像缓存可以通过连续使用相同的镜像实现快速部署,从而加速容器实例的启动并提高系统的可用性 存储 支持使用多种存储方式: CSI:CSI插件是目前Kubernetes社区推荐的插件实现方案,Serverless集群所提供的 CSI 存储插件与社区 CSI 特性兼容。该插件由以下两个组件组成:CSIPlugin:提供挂载和卸载数据卷的能力,Serverless集群默认支持云硬盘和弹性文件服务两种存储服务;CSIProvisioner:提供自动挂载数据卷的能力 PV/PVC:PV提供长期存储资源,而PVC允许用户以抽象的方式请求这些存储资源,实现存储的分配和管理 EmptyDir:该数据卷是一种用于容器实例中临时存放数据的目录,以便于容器之间共享数据。但是需要注意的是,当容器实例被删除时,EmptyDir数据卷中的数据也会被清空 网络 ECI Pod默认采用Host网络模式,并会占用交换机vSwitch的一个弹性网卡ENI资源。在Kubernetes集群环境中,ECI Pod与云主机节点上的Pod可以相互访问。具体方法如下: 创建类型为LoadBalancer的Service对象,并与ECI Pod进行关联;也支持Service同时关联ECI Pod和云主机上的Pod 创建类型为ClusterIP的Service对象,ECI Pod可以直接访问集群中的clusterIP地址 配置相应的 NAT 网关或弹性公网 EIP,并为 ECI Pod绑定指定EIP,或者将 NAT 网关绑定到 ECI 实例所属的 VPC 网络中 日志采集 通过安装日志采集服务插件,一般情况无需再额外部署sidecar容器
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        ECI Pod
        ECI实例概述
      • 应用场景
        本小节介绍证书管理服务应用场景。 公众服务类网站、小程序、APP等满足安全技术要求 适用客户:通过互联网向公众提供服务的政府、金融、中小企业等客户。 解决问题:面向公众提供服务的各类网站、小程序、APP,解决用户在浏览器打开网页时提示“不安全”,导致用户无法访问网站信息或APP/小程序无法上架的问题,可验证企业身份,满足行业安全要求,确保站点安全,屏蔽钓鱼网站,提升搜索引擎收录排名 等保、密评等合规监管场景 适用场景:政府、医疗、央国企等领域需要通过等保、密评的客户。 解决问题:满足合规监管机构要求,适用等保、密评场景,可通过国密证书实现传输机密性和完整性保护。
        来自:
        帮助文档
        证书管理服务
        产品介绍
        应用场景
      • 应用场景(1)
        3. 检验监控告警的有效性 故障的及时发现依赖实时的监控告警,模拟故障发生是检验监控系统能否在第一时间准确告警、应急响应流程是否清晰高效的最佳手段。 场景示例: 模拟调用延迟 :通过模拟云主机网络延迟场景,验证监控系统能否精准检测“接口P99响应时间”等指标劣化,确保告警策略及时触发。 模拟启动失败 :通过模拟云主机端口占用场景,验证监控系统对应用部署流程的异常感知能力,确保持续发布(CD)符合运维预期。 模拟连接中断 :通过模拟缓存实例不可用场景,验证监控系统对中间件连接异常的检测灵敏度,确保告警能精准通知相关人员。 4. 验证应用服务的强弱依赖 随着系统复杂度的提升,服务间的依赖日益庞杂,但也有强弱之分。举例来说,从业务的角度,交易操作对账户余额是强依赖,对附加积分则是弱依赖;从系统的角度,应用对数据库是强依赖,对缓存则是弱依赖。通过故障演练,可以稳定地得到应用间的依赖关系及其强弱程度,提前发现可能因为依赖导致的问题,控制故障的级联效应。 场景示例: 梳理强弱依赖:对于复杂的微服务系统,通过模拟服务不可用的情况,可以帮助应用自动梳理强弱依赖。 限流降级参考:根据经验值来设置限流阈值可能带来偏差,通过依赖验证可以直观地评估限流降级的影响。 系统改造验收:在系统重构升级之后,可以通过依赖验证来确保应用的依赖关系没有发生变化,或重估依赖的影响。
        来自:
      • 数据库灰度
        本章节介绍数据库治理中的数据库灰度 概述 数据库灰度在应用层提供灰度环境数据隔离能力。其原理是将数据层的流量路由到数据库影子表中,从而与原有数据进行隔离。结合全链路灰度,可以实现网关到后端服务再到数据库的全链路环境隔离,方便进行灰度环境的服务验证。 使用限制 JDBC驱动支持的版本如下: 框架 限制 详情 Druid Spring Cloud Dalston及以上版本 HikariCP 2.3.13或以上版本 jdk版本 1.8+ 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择应用治理。 3. 在应用治理页面的应用卡片页签单击目标应用卡片。 4. 在左侧导航栏选择数据库治理,在数据库灰度页签下可以进行数据库灰度的配置。 步骤一 开启前检查灰度影子表,需要您先开启全链路灰度,针对需要灰度的数据库表进行对应灰度表的创建(灰度表创建规则为默认环境的表名后面加上“标签名”,例如gray环境,默认环境表名为msetable,那么灰度表名为msetablegray)。 如果您只需要针对某些表进行灰度操作,那么您需要配置“需要灰度的数据库表”列表,填入您需要进行灰度访问的数据库表名集合,同时确保您需要灰度的表都有提前创建灰度表。 步骤二 开启数据库灰度。 步骤三 开始验证灰度版本,灰度环境的SQL流量会自动操作对应环境的灰度表。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        数据库治理
        数据库灰度
      • 企业知识库
        知识库问答:三层架构实现知识穿透 知识库问答基于 RAG+LLM 的对话引擎,能够实现企业内部知识的精准触达: (1)意图理解层:业务场景语义解析 支持多细分业务场景分类(如“采购审批”“服务器扩容”)。 语义理解模型能识别员工的模糊表达: 用户问:“给供应商打钱要谁批?” → 识别为【供应商付款审批流程】。 意图识别的准确率显著高于传统的关键词匹配。 (2)知识穿透层:跨文档精准定位 支持 PDF、Word、Excel、PPT 等多源异构数据的融合。 (3)生成式应答层:可信知识输出 大模型基于定位文档生成结构化答案: 问题: 新员工电脑采购流程 回复: 需三步完成: 填写IT采购申请表(OA 系统物资申请模块) 部门总监审批(须在申请单注明预算代码) 资产部收货后联系领取(联系电话:分机 8008) 依据: 《IT资产管理规范 V3.2》第 5 章 关键突破:场景实现端到端准确输出 落地路径:从冷启动到达标运营 ✅ 阶段 1:知识基建(13 天) 说明 具体操作详见公共文档库管理 1. 创建文档库并上传制度文件(支持批量导入)。 2. 配置部门知识域:财务、人力、IT 等独立分类。
        来自:
        帮助文档
        知识库问答
        最佳实践
        企业知识库
      • 就地升级
        步骤二:升级操作 【方式一:单个实例版本升级】 1. 在页面左上角单击 ,选择“数据库 > 云数据库 GaussDB”,进入云数据库 GaussDB信息页面。 2. 在“实例管理”页面,选择指定的实例,单击“操作”列的“更多 > 版本升级 ”。 您也可以单击实例名称,进入基本信息页面,在“数据库信息”模块的“数据库引擎版本”处单击“版本升级”。 3. 在“版本升级”界面,单击“就地升级”,选择需要升级的“目标版本”,输入“confirm”,单击“确定”,确认升级。 4. 在“实例管理”页面,查看版本升级情况。 − 升级过程中,实例运行状态为“实例版本升级中”。 − 升级完成后,实例运行状态变为“正常”。 【方式二:批量实例版本升级】 1. 在页面左上角单击 ,选择“数据库 > 云数据库 GaussDB”,进入云数据库 GaussDB信息页面。 2. 在“实例管理”页面,选择指定的实例,单击“批量版本升级”。 3. 在“批量版本升级”界面,单击“就地升级”,选择需要升级的“目标版本”,输入“confirm”,单击“确定”,确认升级。 4. 在“实例管理”页面,查看版本升级情况。 − 升级过程中,实例运行状态为“实例版本升级中”。 − 升级完成后,实例运行状态变为“正常”。 步骤三:升级后验证 升级完成后需要检查升级后的实例状态、备份创建、连接实例是否正常,能否进行正常的增加、删除、修改、查询操作。 1. 在“实例管理”页面,查看实例的运行状态是否为“正常”。 2. 在“实例管理”页面单击实例名称,进入基本信息页面,查看“数据库信息”模块的“数据库引擎版本”是否已升级到目标版本。 3. 检查备份创建是否正常。升级完成后系统会进行一次自动备份,检查备份创建是否正常。 a. 在“实例管理”页面,选择指定的实例,单击实例名称。 b. 在左侧导航栏中选择“备份恢复”,查看备份是否创建,且备份状态是否为“备份完成”。 4. 检查实例连接是否正常,是否能进行正常的增加、删除、修改、查询操作。 a. 通过数据管理服务DAS连接实例,登录到数据库。 b. 进入SQL查询页面。 c. 创建数据库。 CREATE DATABASE 数据库名; 以创建一个库名为dbtpcds的数据库为例: CREATE DATABASE dbtpcds; 创建完dbtpcds数据库后,可以在左上方切换到新创建的库中。 d. 创建表,并进行增加、删除、修改、查询操作。 i. 创建一个SCHEMA。 CREATE SCHEMA myschema; ii. 创建一个名称为mytable,只有一列的表。字段名为firstcol,字段类型为Integer。 CREATE TABLE myschema.mytable (firstcol int); iii. 向表中插入数据: INSERT INTO myschema.mytable VALUES (100); iv. 查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 100 v. 修改表中数据: UPDATE myschema.mytable SET firstcol 200; vi. 再次查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 200 vii. 删除表: DROP TABLE myschema.mytable;
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        版本升级
        就地升级
      • 应用参数模板
        本页介绍了天翼云关系数据库MySQL版参数模板应用到实例的方法。 前提条件 实例处于运行中状态。 注意事项 参数模板编辑修改后,您可以根据业务需要应用到实例中,您需要注意如下事项: 参数innodbbufferpoolinstances 、innodbbufferpoolsize 、innodbiocapacity 、innodbiocapacitymax 、maxconnections 、tabledefinitioncache 、tableopencache 、threadpoolsize与当前实例规格相关,不同规格的实例有不同的取值范围。 参数模板只能应用于相同引擎版本的实例中。 应用参数模板时,实例可能会出现短暂不可用时间,请耐心等待实例恢复正常。 应用参数模板会导致数据库重启,这是正常现象。 部分参数在参数模板里面不开放修改,用户需要在修改参数中单独设置。具体操作,请参见参数设置。 方式一:参数模板页面应用参数模板 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 参数模板,进入参数模板列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在参数模板列表中,找到目标参数模板,单击操作 列的应用。 注意 对于参数数量为0的参数模板,不允许对实例进行应用。 4. 在应用参数模板面板中,配置如下参数。 应用到实例:需要应用该参数模板的实例。 注意 参数模板只能应用于相同引擎版本的实例中。 应用方式 :默认为增量更新,即仅更新参数模板中更新对应参数,其余实例参数保持不变。 参数模板对比 :参数对比分为仅显示不同项 和显示全部对比项。用于比较当前待应用的参数模板中的参数与实例实际使用参数的值,以快速获取参数差异信息。 5. 单击确定。 在参数模板列表上方,单击应用记录,即可查看参数模板的应用记录。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        参数管理
        应用参数模板
      • 产品组件
        本章节主要介绍云搜索服务(ES)的产品组件。 CSS服务支持Kibana和Cerebro组件。 Kibana Kibana是一个开源的数据分析与可视化平台,与Elasticsearch搜索引擎一起使用。通过Kibana可以搜索、查看存放在Elasticsearch索引中的数据,也可以实现以图表、地图等方式展示数据。 云搜索服务的Elasticsearch集群默认提供Kibana,无需安装部署,即可一键访问Kibana。云搜索服务兼容了开源Kibana可视化展现和Elasticsearch统计分析能力。 支持10余种数据呈现方式。 支持近20种数据统计方式。 支持时间、标签等各种维度分类。 Cerebro Cerebro是使用Scala、Play Framework、AngularJS和Bootstrap构建的基于Elasticsearch Web的开源可视化管理工具。通过Cerebro可以对集群进行Web可视化管理,如执行Rest请求、修改Elasticsearch配置、监控实时的磁盘、集群负载、内存使用率等。 云搜索服务的Elasticsearch集群默认提供Cerebro,无需安装部署,即可一键访问Cerebro。云搜索服务完全兼容开源Cerebro,适配最新0.8.4版本。 支持Elasticsearch可视化实时负载监控。 支持Elasticsearch可视化数据管理。
        来自:
        帮助文档
        云搜索服务
        产品简介
        产品组件
      • 通过模板部署应用
        本文主要介绍通过模板部署应用。 在CCE控制台上,您可以上传Helm模板包,然后在控制台安装部署,并对部署的实例进行管理。 注意 云容器引擎各region将逐步切换至Helm v3。模板管理未来将不再支持Helm v2版本的模板,若您在短期内不能切换至Helm v3,可通过Helm v2 客户端在后台管理v2版本的模板。 约束与限制 单个用户可以上传模板的个数有限制,请以各个Region控制台界面中提示的实际值为准。 CCE使用的Helm版本为v3.8.2,支持上传Helm v3版本语法的模板包。 模板若存在多个版本,则消耗对应数量的模板配额。 由于模板的操作权限同时具有较高的集群操作权限,因此租户应当谨慎授予用户对于模板生命周期管理的权限,包括上传模板的权限,以及创建、删除和更新模板实例的权限。 模板包规范 以下以redis为例,在准备redis模板包时根据模板包规范制作模板包。 命名要求 模板包命名格式为: {name}{version} .tgz,其中 {version} 为版本号,格式为“主版本号.次版本号.修订号”,如redis0.4.2.tgz。 说明 模板名称{name}的长度不能超过64个字符。 版本号需遵循语义化版本规则。 主版本号、次版本号为必选,修订号为可选。 主版本号、次版本号、修订号的数值为整数,均需要≥0,且≤99。 目录结构 模板包的目录结构如下所示: redis/ templates/ values.yaml README.md Chart.yaml .helmignore 目录说明如下表所示,带的为必选项: 表 模板包目录说明 参数 参数说明 templates 用于存放所有的template(模板)文件。 values.yaml 用于描述template文件所需的配置参数。 须知 定义template文件配置参数时,请注意此处定义的“镜像地址”务必和容器镜像仓库中对应的镜像地址保持一致。否则创建工作负载会异常,提示镜像拉取失败。 镜像地址获取方法如下:在CCE控制台,单击左侧导航栏的“镜像仓库”,进入容器镜像服务控制台。在“我的镜像 > 自有镜像”中,单击已上传镜像的名称,在“镜像版本 ”页签的“下载指令”栏中即可获取镜像地址,单击 按钮即可复制该指令。 README.md 一个markdown文件,包括: 描述Chart提供的工作负载或服务。 运行Chart的前提。 解释values.yaml文件中的配置 安装和配置Chart的相关信息。 Chart.yaml 模板的基本信息说明。注:Helm v3版本apiVersion从v1切换到了v2。 .helmignore 设定在工作负载安装时不需要读取templates的某些文件或数据。
        来自:
        帮助文档
        云容器引擎
        用户指南
        模板管理(helm)
        通过模板部署应用
      • 关联服务
        与文档数据库服务的关系 文档数据库服务完全兼容MongoDB协议,提供安全、高可用、高可靠、弹性伸缩和易用的数据库服务,同时提供一键部署、弹性扩容、容灾、备份、恢复、监控和告警等功能。经用户授权后,数据安全中心可以为文档数据库服务提供敏感数据自动识别分类和数据保护服务。 与云搜索服务的关系 云搜索服务为您提供托管的分布式搜索引擎服务,完全兼容开源Elasticsearch搜索引擎,支持结构化、非结构化文本的多条件检索、统计、报表。云搜索服务的使用流程和数据库类似。经用户授权后,数据安全中心可以为云搜索服务上的大数据资产提供敏感数据自动识别分类和数据保护服务。 与云审计服务的关系 云审计服务记录了数据安全中心相关的操作事件,方便用户日后的查询、审计和回溯。 云审计服务支持的DSC操作列表 操作名称 资源类型 事件名称 授权或者取消对DSC的授权 dscGrant grantOrRevokeTodsc 添加OBS桶资产 dscObsAsset addBuckets 删除OBS桶资产 dscObsAsset deleteBucket 添加数据库资产 dscDatabaseAsset addDatabase 修改数据库资产 dscDatabaseAsset updateDatabase 删除数据库资产 dscDatabaseAsset deleteDatabase 添加大数据资产 dscBigdataAsset addBigdata 修改大数据资产 dscBigdataAsset updateBigdata 删除大数据资产 dscBigdataAsset deleteBigdata 更新对象名称 dscAsset updateAssetName 下载批量添加模板 dscBatchImportTemplate downloadBatchImportTemplate 批量添加数据库 dscAsset batchAddDatabase 批量添加资产 dscAsset batchAddAssets 展示异常事件 dscExceptionEvent listExceptionEventInfo 获取异常事件详细信息 dscExceptionEvent getExceptionEventDetail 添加告警配置 dscAlarmConfig addAlarmConfig 修改告警配置 dscAlarmConfig updateAlarmConfig 下载报表 dscReport downloadReport 删除报表 dscReport deleteReport 添加扫描规则 dscRule addRule 修改扫描规则 dscRule editRule 删除扫描规则 dscRule deleteRule 添加扫描规则组 dscRuleGroup addRuleGroup 修改扫描规则组 dscRuleGroup editRuleGroup 删除扫描规则组 dscRuleGroup deleteRuleGroup 添加扫描任务 dscScanTask addScanJob 修改扫描任务 dscScanTask updateScanJob 删除扫描子任务 dscScanTask deleteScanTask 删除扫描任务 dscScanTask deleteScanJob 启动扫描任务 dscScanTask startJob 停止扫描任务 dscScanTask stopJob 启动扫描子任务 dscScanTask startTask 停止扫描子任务 dscScanTask stopTask 启用/停用ES脱敏 dscBigDataMaskSwitch switchBigDataMaskStatus 获取ElasticSearch field信息 dscBigDataMetaData getESField 添加ES脱敏模板 dscBigDataMaskTemplate addBigDataTemplate 编辑ES脱敏模板 dscBigDataMaskTemplate editBigDataTemplate 删除ES脱敏模板 dscBigDataMaskTemplate deleteBigDataTemplate 查询ES脱敏模板列表 dscBigDataMaskTemplate showBigDataTemplates 启动/停止ES脱敏模板 dscBigDataMaskTemplate operateBigDataTemplate 切换ES脱敏模板状态 dscBigDataMaskTemplate switchBigDataTemplate 启用/停用数据库脱敏 dscDBMaskSwitch switchDBMaskStatus 获取数据库字段信息 dscDBMetaData getColumn 添加数据库脱敏模板 dscDBMaskTemplate addDBTemplate 修改数据库脱敏模板 dscDBMaskTemplate editDBTemplate 删除数据库脱敏模板 dscDBMaskTemplate deleteDBTemplate 查询数据库脱敏模板列表 dscDBMaskTemplate showDBTemplates 启动/停止数据库脱敏模板 dscDBMaskTemplate operateDBTemplate 切换数据库脱敏模板状态 dscDBMaskTemplate switchDBTemplate 添加脱敏算法 dscMaskAlgorithm addMaskAlgorithm 编辑脱敏算法 dscMaskAlgorithm editMaskAlgorithm 删除脱敏算法 dscMaskAlgorithm deleteMaskAlgorithm 测试脱敏算法 dscMaskAlgorithm testMaskAlgorithm 获取字段与脱敏算法的映射关系 dscMaskAlgorithm getFieldAlgorithms 添加加密算法配置 dscEncryptMaskConfig addEncryptConfig 修改加密算法配置 dscEncryptMaskConfig editEncryptConfig 删除加密算法配置 dscEncryptMaskConfig deleteEncryptConfig
        来自:
        帮助文档
        数据安全中心
        产品介绍
        关联服务
      • 应用场景
        本节介绍漏洞扫描服务主要的应用场景。 Web漏洞扫描应用场景 网站的漏洞与弱点易于被黑客利用,形成攻击,带来不良影响,造成经济损失。 常规漏洞扫描 丰富的漏洞规则库,可针对各种类型的网站进行全面深入的漏洞扫描,提供专业全面的扫描报告。 最新紧急漏洞扫描 针对最新紧急爆发的CVE漏洞,安全专家第一时间分析漏洞、更新规则,提供快速专业的CVE漏洞扫描。 主机漏洞扫描应用场景 运行重要业务的主机可能存在漏洞、配置不合规等安全风险。 支持深入扫描 通过配置验证信息,可连接到服务器进行OS检测,进行多维度的漏洞、配置检测。 支持内网扫描 可以通过跳板机方式访问业务所在的服务器,适配不同企业网络管理场景。 弱密码扫描应用场景 主机或中间件等资产一般使用密码进行远程登录,攻击者通常使用扫描技术来探测其用户名和弱口令。 多场景可用 支持操作系统(RDP协议、SSH协议)、数据库(如Mysql、Redis)等常见中间件服务的弱口令检测。 丰富的弱密码库 丰富的弱密码匹配库,模拟黑客对各场景进行弱口令探测。 中间件扫描应用场景 中间件可帮助用户灵活、高效地开发和集成复杂的应用软件,一旦被黑客发现漏洞并利用,将影响上下层安全。 丰富的扫描场景 支持主流Web容器、前台开发框架、后台微服务技术栈的版本漏洞和配置合规扫描。 多扫描方式可选 支持通过标准包或者自定义安装等多种方式识别服务器的中间件及其版本,全方位发现服务器的漏洞风险。
        来自:
        帮助文档
        漏洞扫描(专业版)
        产品简介
        应用场景
      • Redis 6.0 Proxy集群实例测试数据
        项目 说明 测试实例规格 基础Proxy集群双副本24G(3分片) 增强Proxy集群双副本24G(3分片) 测试实例引擎版本 6.0 测试实例地域和可用区 华东1 可用区3 压测机器的规格 c7.4xlarge.2 16核 32G(基础Proxy集群双副本24G(3分片) ) 2 c8.4xlarge.2 16核 32G(增强Proxy集群双副本24G(3分片) ) 压测机器的操作系统 CTyunOS 2.0.1 64 位(基础Proxy集群双副本24G(3分片) ) CTyunOS 23.01 64 位(增强Proxy集群双副本24G(3分片) ) 压测机器地域和可用区 华东1 可用区3 压测机器网络 与Redis实例为相同VPC区,与Redis实例可通过VPC连接 压测工具 redisbenchmark
        来自:
        帮助文档
        分布式缓存服务Redis版
        性能白皮书
        Redis 6.0 Proxy集群实例测试数据
      • 创建高可用集群
        本文介绍了创建高可用集群的用户指南。 天翼云云容器引擎具备多可用区(AZ)的能力。容器集群的控制节点与工作节点可以分别设置是否使用多可用区。 设置方法 1.创建高可用集群的方式与普通集群基本一致,仅在master配置与节点池配置处有区别。创建集群的其它操作可参考 快速入门 >​ 创建一个应用集群 ​>​ 订购集群 2.在master配置>已选规格>自定义各可用区的master数量,建议master分布到多可用区达到高可用目的。见下图 3.在节点池配置>已选规格>自定义各可用区的工作节点数量,建议将节点池内的节点部署在多个可用区。见下图
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        新建集群
        创建高可用集群
      • 压测工程管理类
        云性能测试服务测试的时候申请的带宽大小对测试的影响是什么? 用户压测的请求和响应的模型不一样,所需带宽也不一样。比如说5000TPS,每个请求包大小是1KB,那么总的上行带宽是5000KB,下行带宽也是一样的估算方式。对于带宽的限制是限制上行带宽,因此POST/PUT等带Body的请求会比较消耗带宽资源。 压测时如果带宽不足的情况下会出现网络丢包,在测试报告中的体现就是时延增大,甚至出现超时。 如何进行并发测试? 通过创建测试工程,根据需求构建事务模型之后,添加对应的测试任务便可进行并发测试。并发用户数即为并发数,不仅对单任务可以进行并发操作,也可以勾选多个测试任务同时进行并发操作。 JMeter测试工程和性能测试测试工程的区别? JMeter测试工程支持直接导入JMeter脚本,使用JMeter原生引擎发起性能测试。 性能测试测试工程支持导入CPTS脚本和JMeter脚本,导入的JMeter脚本会自动转换为CPTS脚本进行性能测试,同时也支持直接手动按照实际压测场景,进行测试任务编辑,开展相应的性能测试。 怎样确定压测任务顺序读取全局变量的值? 如果您想确认压测任务是否会顺序读取全局变量的值,可以通过以下步骤测试: 1. 设置全局变量,取值数量建议在10个以内(例如设置取值为6、5、4、3、2、1),方便快速测试。 2. 设置一个用例,在此用例报文的body体中引用1中设置的全局变量,执行阶段设为按次数方式,并发为1、并发次数为10,启动此用例。 3. 在性能报告中的“各项测试指标”中,单击操作图标“”,单击“下载请求日志”,查看请求体中全局变量的取值是否和设置的顺序一致。 通过日志可确认后续的取值是否顺序读取,当读取到最后一个值时,返回读取第一个值。
        来自:
        帮助文档
        性能测试PTS
        常见问题
        压测工程管理类
      • 使用APM管理电商应用
        本文主要介绍使用APM管理电商应用 本实践基于某手机销售电商应用为例,帮助您理解如何将该电商应用接入APM并进行管理。 该电商应用情况介绍: 该应用包含四个微服务,每个微服务包含一个实例: API网关服务:名称为vmallapigwservice,主要负责应用整体的服务鉴权、限流、过滤等。 商品管理服务:名称为vmallproductservice,主要负责商品查询、购买等。 用户管理服务:名称为vmalluserservice,主要负责用户登录,以及购买商品时的用户身份核实等。 数据持久服务:名称为vmalldaoservice,主要负责请求数据库操作。 下面介绍如何将APM接入该电商应用并管理起来。 操作流程 1. 将应用部署到服务器。 2. 安装Agent。Agent是APM的采集代理,用于实时采集拓扑和调用链数据,您需要将其安装在应用所在服务器上。 3. 修改应用启动参数,以确保APM可以监控应用。 4. 在APM上管理应用,例如通过拓扑查看应用情况。 操作步骤 步骤 1 将应用部署到服务器。 1. 登录服务器,创建应用目录并进入目录,本实践以目录/root/testdemo为例。 2. 下载并安装应用需要的JRE 1.8版本。 3. 执行如下命令将应用下载至创建的/root/testdemo目录并安装。 curl l > demoinstall.sh && bash demoinstall.sh 说明 执行该命令需要具有公网访问权限。 步骤 2 安装Agent。 步骤 3 修改应用启动脚本start.sh的参数,确保应用被APM监控。 在服务启动脚本的java命令之后,配置apmjavaagent.jar包所在路径,并指定java进程的应用名。 添加javaagent参数示例: java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappName{appName} 修改前后应用启动脚本对比如下: 修改前: export PATH/root/testdemo/jdk1.8.0111/bin:$PATH java Xmx512m jar /root/testdemo/ecommercepersistenceservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationdao.yml > dao.log 2>&1 & java Xmx512m jar /root/testdemo/ecommerceapigateway0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationapi.yml > api.log 2>&1 & java Xmx512m jar /root/testdemo/ecommerceuserservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationuserservice.yml > user.log 2>&1 & java Xmx512m jar /root/testdemo/ecommerceproductservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationprod.yml > prod.log 2>&1 & java Xmx512m jar /root/testdemo/cloudsimpleui1.0.0.jar spring.config.locationfile:/root/testdemo/ui.properties > ui.log 2>&1 & 修改后: export PATH/root/testdemo/jdk1.8.0111/bin:$PATH java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmalldaoserviceXmx512m jar /root/testdemo/ecommercepersistenceservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationdao.yml > dao.log 2>&1 & java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmallapigwservice Xmx512m jar /root/testdemo/ecommerceapigateway0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationapi.yml > api.log 2>&1 & java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmalluserservice Xmx512m jar /root/testdemo/ecommerceuserservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationuserservice.yml > user.log 2>&1 & java javaagent:/xxx/apmjavaagent/apmjavaagent.jarappNamevmallproductservice Xmx512m jar /root/testdemo/ecommerceproductservice0.0.1SNAPSHOT.jar spring.config.locationfile:/root/testdemo/applicationprod.yml > prod.log 2>&1 & java Xmx512m jar /root/testdemo/cloudsimpleui1.0.0.jar spring.config.locationfile:/root/testdemo/ui.properties > ui.log 2>&1 & 步骤 4 修改完成后,便可启动应用。 等待三分钟左右,在APM界面上即可看到应用相关数据,并根据数据监控应用、定位应用的异常。
        来自:
        帮助文档
        应用性能管理
        最佳实践
        使用APM管理电商应用
      • Redis使用
        指标ID 指标名称 含义 取值范围 测量对象&维度 监控周期(原始指标) memoryusage 内存利用率 该指标用于统计测量对象的内存利用率。单位:%。 0100% 测量对象:Redis实例(单机/主备/集群)测量维度:dcsinstanceid 1分钟 usedmemory 已用内存 该指标用于统计Redis已使用的内存字节数。单位:byte。 > 0byte 测量对象:Redis实例(单机/主备/集群)测量维度:dcsinstanceid 1分钟 usedmemorydataset 数据集使用内存 该指标用于统计Redis中数据集使用的内存单位:byte。 > 0byte 测量对象:Redis实例(单机/主备/集群)测量维度:dcsinstanceid 1分钟 memoryfragratio 内存碎片率 该指标用于统计当前的内存碎片率 > 0 测量对象:Redis实例(单机/主备/集群)测量维度:dcsinstanceid 1分钟 usedmemorylua Lua已用内存 该指标用于统计Lua引擎已使用的内存字节单位:byte > 0byte 测量对象:Redis实例(单机/主备/集群)测量维度:dcsinstanceid 1分钟 usedmemorypeak 已用内存峰值 该指标用于统计Redis服务器启动以来使用内存的峰值单位:byte > 0byte 测量对象:Redis实例(单机/主备/集群)测量维度:dcsinstanceid 1分钟
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        Redis使用
      • 将数据库实例恢复到指定时间点
        本节介绍了云数据库TaurusDB实例的PITR功能。 操作场景 TaurusDB支持恢复实例数据到指定时间点。 注意 请勿在TaurusDB实例的生命周期内执行“reset master”命令,以免造成恢复到指定时间点功能异常。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏中选择“备份恢复”页签,单击“恢复到指定时间点”。 步骤 6 选择需要恢复的日期和时间区间,选择或输入该恢复时间区间内的一个要恢复到的时间点,选择恢复方式为“新实例”或“当前实例”。 1. 选择恢复到“新实例”,单击“确定”,跳转到“恢复到新实例”的服务页面,设置相关参数,单击“立即创建”。 1. 区域、数据库引擎、兼容的数据库版本,与原实例相同,不可修改。 2. 数据库端口为默认值3306。 3. 其他参数默认,用户可设置,请参见创建实例。 2. 选择恢复到“当前实例”,单击“下一步”,核对任务信息,无误后单击“确定”。 恢复到当前实例会将当前实例上的数据全部覆盖,并且恢复过程中数据库不可用,请在业务低峰期进行恢复。 步骤 7 查看恢复结果。 恢复到新实例,TaurusDB会为用户重新创建一个和备份创建时的时间点数据相同的实例。可看到实例由“创建中”变为“正常”,说明恢复成功。恢复成功的新实例是一个独立的实例,与原有实例没有关联。如需使用只读节点,请重新在该实例上进行创建。 新实例恢复成功后,系统会自动执行一次全量备份。 恢复到当前实例,恢复到的目标实例运行状态由“恢复中”变为“正常”,说明恢复成功。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        数据恢复
        将数据库实例恢复到指定时间点
      • 产品定义
        分布式缓存服务(Distributed Cache Service,简称DCS)是一款内存数据库服务,兼容Redis内存数据库引擎,为您提供即开即用、安全可靠、弹性扩容、便捷管理的在线分布式缓存能力,满足用户高并发及数据快速访问的业务诉求。 即开即用 DCS提供单机、主备和集群三种类型的缓存实例,拥有从128MB到1024GB的丰富内存规格。您可以通过控制台直接创建,无需单独准备服务器资源。 其中Redis4.0/5.0/6.0版本采用容器化部署,秒级完成创建。 安全可靠 借助统一身份认证、虚拟私有云、云监控与云审计等安全管理服务,全方位保护实例数据的存储与访问。 灵活的容灾策略,主备/集群实例从单AZ(可用区)内部署,到支持跨AZ部署。 弹性伸缩 DCS提供对实例内存规格的在线扩容与缩容服务,帮助您实现基于实际业务量的成本控制,达到按需使用的目标。 便捷管理 可视化Web管理界面,在线完成实例重启、参数修改、数据备份恢复等操作。DCS还提供基于RESTful的管理API,方便您进一步实现实例自动化管理。 在线迁移 提供可视化Web界面迁移功能,支持备份文件导入和在线迁移两种方式,您可以通过控制台直接创建迁移任务,提高迁移效率。 DCS Redis Redis是一种支持KeyValue等多种数据结构的存储系统。可用于缓存、事件发布或订阅、高速队列等典型应用场景。Redis使用ANSI C语言编写,提供字符串(String)、哈希(Hash)、列表(List)、集合结构(Set、Sorted Set)、流(Stream)等数据类型的直接存取。数据读写基于内存,同时可持久化到磁盘。 DCS Redis拥有灵活的实例配置供您选择: DCS Redis灵活的实例配置 实例类型 提供单机、主备、Proxy集群、Cluster集群、读写分离类型,分别适配不同的业务场景。 单机:适用于应用对可靠性要求不高、仅需要缓存临时数据的业务场景。单机实例支持读写高并发,但不做持久化,实例重启后原有缓存数据不会加载。 主备:包含一个主节点,一个备节点,主备节点的数据通过实时复制保持一致,当主节点故障后,备节点自动升级为主节点。 Proxy集群:在Cluster集群的基础上,增加挂载Proxy节点和ELB节点,通过ELB节点实现负载均衡,将不同请求分发到Proxy节点,实现客户端高并发请求。每个Cluster集群分片是一个双副本的主备实例,当主节点故障后,同一分片中的备节点会升级为主节点来继续提供服务。 Cluster集群:通过分片化分区来增加缓存的容量和并发连接数,每个分片是一个主节点和0到多个备节点,分片本身对外不可见。分片中主节点故障后,同一分片中备节点会升级为主节点来继续提供服务。用户可通过读写分离技术,在主节点上写,从备节点读,从而提升缓存的整体读写能力。 读写分离:在主备实例的基础上,增加挂载Proxy节点和ELB节点,通过ELB节点实现负载均衡,将不同请求分发到Proxy节点,Proxy节点识别用户读写请求,将请求发送到主节点或备节点,从而实现读写分离。 :: 规格 Redis提供128MB~1024GB的多种规格。 兼容开源Redis版本 DCS提供不同的实例版本,分别兼容开源Redis的3.0、4.0、5.0、6.0。 底层架构 基于虚拟机的标准版 ,单节点QPS达10万/秒。 高可用与容灾 主备与集群实例提供Region内的跨可用区部署,实现实例内部节点间的电力、网络层面物理隔离。 有关开源Redis技术细节,您可以访问Redis官方网站
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        产品定义
      • 使用限制
        本文介绍使用云应用引擎时,应用的实例配额限制、CPU和内存限制,以及网络、容器、镜像等限制条件。 配额限制 限制项 限制值 说明 可创建应用的用户 实名认证,且账户内金额大于0元。 无 单应用实例数 20 单个应用的实例数量上限 总应用实例数 100 单Region下用户能够创建的全部应用实例数量 内存用量 10G 单Region下用户所有应用使用的内存大小上限 CPU核数 2核 单Region下用户所有应用使用的CPU核数上限 网络 专有网络VPC 不支持经典网络。专有网络VPC内部署的实例默认不可访问公网,如需访问公网,则需进行相关配置。 容器 Linux容器 不支持Windows容器。 系统盘磁盘空间 默认20GiB 不支持更改系统盘磁盘空间大小。为了保证您的业务连续性,在SAE控制台使用镜像部署应用时,请确保镜像大小不超过20GiB。
        来自:
        帮助文档
        云应用引擎
        产品介绍
        使用限制
      • 计费说明
        开通方式 登录应用性能监控控制台,点击左侧菜单栏【用量统计】,点击【订购资源包】,按照页面提示完成开通即可。 Prometheus监控计费说明 Prometheus监控按照用户实际使用的自定义指标上报量、指标存储时长进行按需计费。 说明 Prometheus监控仅对自定义指标收取指标上报费用,对云容器引擎的基础指标不收取上报费用,且提供免费15天存储。 目前容器基础指标存储时间默认为15天,因此默认情况下,在云容器引擎中开启Prometheus基础指标监控不会产生额外费用,请放心使用。若额外开启自定义指标监控,请参考下文计费说明。 计费项说明 应用性能监控Prometheus监控各计费项说明如下。 计费项 计费说明 自定义指标上报量 自定义指标上报量(即采样点数量)的计算遵循开源 Prometheus 数据模型。每条采样点数据包含指标名称、Label 集合、时间戳及取值,并以时间线形式逻辑组织。例如一个指标监控 Kubernetes 集群各节点的可分配 CPU 核心数:若集群有 3 个节点,采样周期为 15 秒,则每分钟上报的采样点总量为 3×(60/15)12 条(每个节点对应一条时间线)。 指标存储时长 默认支持的指标存储时长为15天。15天内不收取存储时长费用,超过15天则按量累计计费。 价格说明 自定义指标上报量:按日均上报数据量进行阶梯计费,如0 150百万条范围内的指标量,按0.6元/百万条进行计费,超过150万条不足600万条的部分,按照0.5元/百万条进行计费,如此类推。Prometheus监控仅对上报的自定义指标收取该计费项费用,对于任意数量的基础指标都不收取上报量费用。 日均上报数据量范围 标准价格(元/百万条) 0 150百万条 0.6 150 600百万条 0.5 600 1200百万条 0.35 1200百万条以上 0.25 指标存储时长:默认支持的指标存储时长为15天。15天内可免费使用,不收取存储时长费用,超过15天则按量累计计费。 计费项 标准价格(元/百万条/天) 指标存储时长 0.005
        来自:
        帮助文档
        应用性能监控 APM
        计费说明
        计费说明
      • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        在人工智能飞速发展的大背景下,算力是关键支撑。为了实时提供灵活且强大的计算资源调配能力,昇腾 910B 物理机以强劲的硬件性能为基础,搭配 DeepSeek 先进的算法框架,二者结合,将为 AI 研究与应用开拓更广阔的创新空间。本部署指南适配华为昇腾 910B NPU硬件平台,集成MindIE的2.0.T6版本推理引擎,能显著优化端到端推理性能。 一、环境准备 1.1 软硬件要求 组件类型 规格要求 数量 计算节点 华为Atlas 800T A2训练服务器 1台 NPU加速卡 昇腾910B32 (单卡算力320TFLOPS) ≥4卡 本地存储 NVMe SSD ≥5.8TB (22.9T) 2块 内存 DDR4 ≥512GB 管理节点 CTyunOS23.01.2@GalaxyMasterNPU24.1.rc2.1镜像 1.2 存储配置 1.2.1 磁盘分区方案 将节点的nvme1n1和nvme0n1两块NVME盘分别挂载在/mnt/nvme1n1和/mnt/nvme0n1上。 !/bin/bash 设备列表 devices("/dev/nvme0n1" "/dev/nvme1n1") mountpoints("/mnt/nvme0n1" "/mnt/nvme1n1") fstype"xfs" 确保 root 权限 if [[ $EUID ne 0 ]]; then echo "请使用 root 运行此脚本!" exit 1 fi for i in "${!devices[@]}"; do device"${devices[$i]}" mountpoint"${mountpoints[$i]}"
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        物理机搭建DeepSeek指南
        昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(单机版)
      • 1
      • ...
      • 47
      • 48
      • 49
      • 50
      • 51
      • ...
      • 499
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      推荐文档

      续订

      如何使用代金券?

      常见问题

      管理员

      EIP释放和批量释放

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号