云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 产品优势
        本文主要介绍弹性伸缩服务产品优势。 弹性伸缩服务可根据用户的业务需求,通过策略自动调整其业务的资源。具有自动调整资源、节约成本开支、提高可用性和容错能力的优势。适用以下场景: 访问流量较大的论坛网站,业务负载变化难以预测,需要根据实时监控到的云主机CPU使用率、内存使用率等指标对云主机数量进行动态调整。 电商网站,在进行大型促销活动时,需要定时增加云主机数量,以保证促销活动顺利进行。 视频直播网站,每天14:00~16:00播出热门节目,每天都需要在该时段增加云主机数量,保证业务的平稳运行。 自动调整资源 弹性伸缩能够实现应用系统自动按需调整资源,即在业务增长时能够实现自动增加实例数量,以满足业务需求,业务下降时能够实现应用系统自动缩容,保障业务平稳运行。 按需调整云主机资源 向应用系统中添加弹性伸缩,能够实现按需调整资源,即能够实现在业务增长时增加实例,业务下降时减少实例,这样加强了应用系统的成本管理。调整资源主要包括以下几种方式: 动态调整资源 动态调整资源是通过告警策略的触发来调整资源。详细内容请参阅动态资源扩展。 计划调整资源 计划调整资源是通过定时策略或周期策略的触发来调整资源。详细内容请参阅按计划扩展资源。 手工调整资源 通过修改期望实例数或手动移入、移出实例来调整资源。详细内容请参阅手动扩展资源。 例如,运行在公有云上的基本Web应用程序。此应用程序允许乘客购买火车票。在每年中期时段,人员流动性较低,此应用程序的使用率较低。每年年底和年初,人员流动性较高,因此对此应用程序的需求会显著提高。一般系统会采用添加足够多的云主机,如图1所示,或添加处理应用程序平均需求所需的容量,如图2所示,来满足业务需求。但这两种方案会造成资源浪费或无法满足高峰期的需求。当您给应用程序中添加弹性伸缩后,弹性伸缩会自动根据需求调整云主机的数量,如图3所示,为您节约成本并且满足高峰期的需求。 图1 服务器资源冗余 图2 服务器资源不足 图3 向应用程序中添加弹性伸缩
        来自:
        帮助文档
        弹性伸缩服务 AS
        产品简介
        产品优势
      • 查询基线一级列表
        接口功能介绍 用户执行基线检测后,展示检测的统计结果。主要展示元素:检测服务器数、检测项、风险项、通过率等 接口约束 此功能为收费功能。确认已经购买系统配额,并且开启基线扫描配置。如果没有购买配额,可按照页面提示进行购买。如果没有开启防护,请在服务器列表页开启机器防护 URI POST /v1/sca/event/baseLevel// 路径参数 参数 是否必填 参数类型 说明 示例 下级对象 pageSize 是 Integer currentNum 是 Integer Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String ContentType application/json 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 scaRuleId 是 Integer 基线策略id 1 scaName 否 String 基线名称 Unix系统基线检测 响应参数 参数 参数类型 说明 示例 下级对象 error String 返回码 CTCSSCN000000:成功 CTCSSCN000001:失败 CTCSSCN000003:用户未签署协议,安全卫士系统无法正常使用 CTCSSCN000004:鉴权错误 CTCSSCN000005:用户没有付费版配额,功能不可用 CTCSSCN000000 message String 返回信息 success returnObj Object 返回对象 returnObj traceId String traceId asaadasd11111 statusCode String 状态码 200成功 200 表 returnObj 参数 参数类型 说明 示例 下级对象 agents Integer 检测服务器数 1 totalPassingRate String 检测项通过率 totalPassed/(totalPassed + totalFailed) 1 totalTitle Integer 检测项总数(totalTitle totalPassed + totalFailed) 1 totalPassed Integer 检测项通过数 1 totalFailed Integer 风险项数[未通过数量] 1 baseScaMongoDtoPageInfo Object 分页查询结果 baseScaMongoDtoPageInfo 表 baseScaMongoDtoPageInfo 参数 参数类型 说明 示例 下级对象 total Integer 总数 100 list Array of Objects 结果集 list pageNum Integer 当前页 1 pageSize Integer 每页的数量 10 表 list 参数 参数类型 说明 示例 下级对象 id String 业务id 一级列表[基线模板文件名] 二级列表[agentGuid] 三级列表[检测id] CtyunLinuxBenchmarkTemplate.json passingRate String 检测项通过率 0.92 failed Integer 检测项未通过数 1 relationAgent Integer 未通过的服务器数量 1 itemTotal Integer 检测项总数 1 file String 基线检测文件名 CtyunLinuxBenchmarkTemplate.json passed Integer 检测项通过数 1 strategyId Integer 策略id 1 timestamp String 扫描时间 20200101 00:00:00 scaId Integer 基线模板id 1 name String 基线模板名称 天翼云Linux操作系统安全配置基线 riskInfo Array of Objects 风险信息,按等级分类统计 [{"riskLevel":1,"riskCount":1}] riskInfo 表 riskInfo 参数 参数类型 说明 示例 下级对象 riskLevel Integer 风险等级 1低危 2中危 3高危 1 riskCount Integer 风险数量 1
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        基线检测
        查询基线一级列表
      • 启动反向复制
        本文为您介绍启动反向复制的操作流程。 操作场景 完成反向注册,受保护的的云服务状态变为“已反向初始化”后,可启动反向复制,从容灾中心将数据反向复制回生产中心。 注意 在此过程中,关闭云主机将导致出错,造成数据丢失,请勿执行关机操作。 本示例中ecmtest为生产中心的云主机,ecmrecovery为容灾中心的云主机。 前提条件 受保护的服务器状态为“已反向初始化”。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 在存储产品中选择“云容灾”,进入云容灾页面。 4. 在云容灾页面,单击“云上容灾”,进入保护组板块展示页面。 5. 在保护组板块展示页面,找到目标保护组,单击目标保护组板块,进入保护组页面。 6. 在保护组页面,在“受保护的服务器”页签,找到目标主机名,在操作列选择“更多>故障恢复>启动反向复制”。 7. 在启动反向复制页面,根据提示配置参数,单击“启动”,开始反向复制。 参数 说明 :: 容灾云主机名称 自动获取并展示当前容灾中心服务器名称,不可修改。 原机恢复 勾选后,会将生产中心的云主机作为复影云主机。 不勾选,系统将自动在生产中心新建一台云主机作为复影云主机。 注意:若使用原机恢复,所使用的生产中心ECS主机的数据将被清除。本示例中,ecmtest中的数据将被清除。 生产磁盘类型 云主机下磁盘类型。 生产中心VPC 自动获取并展示生产中心vpc信息,不可修改。 反向复制会先后进入启动反向复制中、反向全量复制中、反向实时复制中三个阶段。 启动反向复制中:正在扫描系统数据,评估总体数据量,这一阶段通常会持续几分钟。 反向全量复制中:正在把容灾中心服务器的有效数据传输到生产中心复影云主机,这一阶段所用时间取决于服务器数据量、网络带宽等因素,并通过进度条显示进度和完成百分比。 反向实时复制中:全量复制完成后,系统已经复制了全量数据,然后将会在服务器上监视所有对磁盘的写操作,并持续地实时复制到复影云主机。 注意 如遇反向复制出错,可以单击
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        故障恢复
        启动反向复制
      • 请求处理程序(Handler)
        本文介绍如何使用Java请求处理程序响应接收到的事件并执行相应的业务逻辑。 请求处理程序 请求处理程序是您提供的一个方法。当您的函数被调用时,函数计算会运行该方法处理请求。 您可以通过函数计算控制台页面配置请求处理程序 ,对于Java语言的函数,请求处理程序需配置为 [包名].[类名]::[方法名]。例如,您的包名为example,类型为App,方法名为handleRequest,则请求处理程序可配置为 example.App::handleRequest。 处理程序接口 您在使用Java编程时,必须要实现函数计算提供的接口类,cruntimecore库为请求处理程序定义了以下接口。 StreamRequestHandler 以流的方式接收输入的事件请求对象并返回执行结果。您需要从输入流中读取调用函数时的输入,处理完成后把函数执行结果写到输出流中来返回。 PojoRequestHandler 以泛型的方式接收输入的事件请求对象并返回执行结果。您可以自定义输入和输出的类型,但是输入和输出的类型必须是POJO类型。 HttpRequestHandler 以标准的Servlet协议方式接收HTTP触发器 的请求并响应执行结果。请求会封装成 HttpServletRequest对象,并通过 HttpServletResponse对象来返回响应头和响应体。 示例:StreamRequestHandler 一个最简单的StreamRequestHandler示例如下所示: package example; import com.ctg.faas.runtime.; import example.util.ServletUtil; import java.io.IOException; import java.io.InputStream; import java.io.OutputStream; public class StreamHandler implements StreamRequestHandler { @Override public void handleRequest(InputStream input, OutputStream output, Context context) throws IOException { FunctionComputeLogger logger context.getLogger(); logger.info("StreamRequestHandler hello"); String inStr ServletUtil.getInputString(input); logger.info("input :"+inStr); String req String.format("input: %sn", inStr); output.write(req.getBytes()); output.flush(); output.close(); } } 包名和类名 包名和类名可以自定义。 实现的接口 您的代码中必须要实现函数计算预定义的接口。上述的代码示例中实现了 StreamRequestHandler,其中的input 参数为调用函数时传入的数据,output参数用于返回函数的执行结果。 Context参数 Context参数中包含一些函数的运行时信息(例如RequestId、临时AccessKey等),其类型是 com.ctg.faas.runtime.Context。 返回值 实现 StreamRequestHandler接口的函数通过output参数返回执行结果。 引入的依赖 其中用到的 com.ctg.faas.runtime包的maven依赖坐标如下: com.ctg.faas.runtime fcruntimecore 1.0.0SNAPSHOT
        来自:
        帮助文档
        函数计算
        用户指南
        代码开发
        Java
        请求处理程序(Handler)
      • 创建集群
        3、硬件配置 软件配置选择完成后,点击“下一步”进入硬件配置页面。硬件配置页面如下图所示,参数说明如下: 计费模式:可选择计费模式,默认为包年/包月。 购买时长:可按需选择订购时长。 自动续费:可按需开启自动续费功能。 操作系统:可按需选择CTyunOS或麒麟系统。 注意 当前麒麟镜像为不提供license的免费公共镜像,license需要用户自行购买。天翼云将为客户辅助提供技术支持。 主机类型:可按需选择云主机或物理机。 CPU类型:可按需选择X86或ARM。 规格类型:可按需选择通用主机或国产化主机。 节点组:根据您自身需要选择集群节点规格及数量,包括对节点组类型、规格、参数等配置的选择,可根据需要对core和task节点进行增加/删除。 企业项目:企业项目提供统一的云资源管理能力,支持对项目及项目内的资源、成员进行管理。此处请根据用户的资源管理需求,选择翼MR集群的企业项目归属。仅支持选择用户有权限的企业项目。 虚拟私有云:不同虚拟私有云(VPC)网络之间的逻辑彻底隔离。请按需选择需要使用的虚拟私有云。如果目前没有VPC可以点击“创建虚拟私有云”跳转到虚拟私有云页面创建。 注意 1)集群和虚拟私有云需在同一企业项目下。 2)为保障网络互通,请选择与软件配置中所填数据库相同的虚拟私有云(VPC)。 子网:选择虚拟私有云后,子网可以根据需要进行选择 。若所选子网已开通IPv6,可按需选择是否开启IPv6访问实例资源的功能。 安全组:设置集群内实例的网络访问控制。当前天翼云虚拟私有云安全组策略强安全要求,默认服务器内网互相不通,需要客户勾选安全组规则自动配置授权,翼MR会默认添加下述安全组中相关的规则。 拓扑调整:从V2.16.0版本起,数据湖、数据服务、实时数据流与自定义场景支持拓扑调整功能,用户可以手动调整已选组件的各角色在节点的部署位置,平均分配各个节点上的资源。系统默认已按照各组件角色的部署原则自动分配实例,您可按需开启该功能进行配置调整。
        来自:
        帮助文档
        翼MapReduce
        快速入门
        创建集群
      • JAVA方法
        本节主要介绍JAVA方法 介绍APM采集的JAVA方法指标的类别、名称、含义等信息。 表 JAVA方法采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 ::::::: 拦截方法配置 objarray JAVA 2.0.0 配置拦截方法名,该方法会添加监控;拦截方法名多个用逗号分隔,拦截方法名为空,默认拦截所有public方法。 表 JAVA方法指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: JAVA方法(method,根据配置的java方法名,统计方法调用详情。) class 类名 类名 ENUM LAST JAVA方法(method,根据配置的java方法名,统计方法调用详情。) method 方法 方法名 ENUM LAST JAVA方法(method,根据配置的java方法名,统计方法调用详情。) concurrentMax 最大并发 该方法的最大并发 INT MAX JAVA方法(method,根据配置的java方法名,统计方法调用详情。) errorCount 错误数 该方法的错误数 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) invokeCount 调用次数 该方法的调用次数 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) lastError 错误信息 该方法的错误信息 STRING LAST JAVA方法(method,根据配置的java方法名,统计方法调用详情。) maxTime 最大响应时间 该方法的最大响应时间 ms INT MAX JAVA方法(method,根据配置的java方法名,统计方法调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) range2 10100ms 响应时间在10100ms范围请求 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) runningCount 正在执行数量 该方法采集时间点正在执行数量 INT SUM JAVA方法(method,根据配置的java方法名,统计方法调用详情。) totalTime 总响应时间 该方法的总响应时间 ms INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        基础监控
        JAVA方法
      • 入门必读
        本文主要介绍入门必读 性能测试是一项为基于HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTPFLV等协议构建的云应用提供性能测试的服务。服务支持快速模拟大规模并发用户的业务高峰场景,可以很好的支持报文内容和时序自定义、多事务组合的复杂场景测试,测试完成后会为您提供专业的测试报告呈现您的服务质量。 通过简单的四步操作,您就可以完成一次性能测试。 性能测试步骤 性能测试提供体验馆功能,通过体验向导,帮助您快速熟悉性能测试的使用流程。 基本概念 测试工程: 性能测试为用户的测试工程提供管理能力,事务、压测任务、测试报告的内容在同一个测试工程内共享复用,您可以为不同的测试项目创建不同的测试工程。 事务: 事务是指用户自定义的操作模型,包括HTTP/HTTPS/TCP/UDP/WEBSOCKET报文、思考时间、响应提取和检查点和HLS/RTMP/HTTPFLV报文部分。 报文: 报文是HTTP应用程序之间发送的数据块。这些数据块以一些文本形式的元信息开头,这些信息描述了报文的内容及含义,后面跟着可选的数据部分。这些报文都是在客户端、服务器和代理之间流动。 思考时间: 为了更好的模拟用户的行为,需要模拟用户在不同操作之间等待的时间,例如,当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟,就称为思考时间。 响应提取: 如果同一事务中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 检查点: 检查点主要是通过自定义校验信息来验证服务端的返回内容是否正确。 并发用户数: 在性能测试工具中,并发用户数一般被称为虚拟用户数。注意“并发用户数”和“在线用户数”的区别:“并发用户数”会对服务器产生压力,“在线用户数”只是挂在系统上,对服务器不产生压力。 响应时间: 用户从客户端发起一个请求开始,到客户端接收到从服务器端返回的响应结束,整个过程所耗费的时间。在性能检测中一般以测试环境中压力发起端至服务器返回处理结果的时间为计量,单位一般为秒或毫秒,该时间不同于模拟真实环境的用户体验时间。 不同行业不同业务可接受的响应时间是不同的。一般情况下,互联网企业在500毫秒以下;金融企业1秒以下为佳;保险企业3秒以下为佳。
        来自:
        帮助文档
        性能测试PTS
        快速入门
        入门必读
      • 搭建IPv4/IPv6双栈集群
        本文将指引您搭建一个IPv6网段的VPC,并在VPC中创建一个带有IPv6地址的集群和节点,使节点可以访问Internet上的IPv6服务。 简介 IPv6的使用,可以有效弥补IPv4网络地址资源有限的问题。如果当前集群中的工作节点(如ECS)使用IPv4,那么启用IPv6后,工作节点可在双栈模式下运行,即工作节点可以拥有两个不同版本的IP地址:IPv4地址和IPv6地址,这两个IP地址都可以进行内网/公网访问。 使用场景 如果您的应用需要为使用IPv6终端的用户提供访问服务,则您可使用:IPv6弹性公网IP或IPv6双栈。 如果您的应用既需要为使用IPv6终端的用户提供访问服务,又需要对这些访问来源进行数据分析处理,则您必须使用IPv6双栈。 如果您的应用系统与其他系统(例如:数据库系统)、应用系统之间需要使用IPv6进行内网访问,则您必须使用IPv6双栈。 使用IPv6双栈请参考IPv4/IPv6双栈网络、IPv6弹性公网IP。 搭建IPv4/IPv6双栈集群步骤 步骤 1 创建虚拟私有云,且创建已开启了IPv6的子网。若没有,则参考创建虚拟私有云和子网。 1. 创建VPC时需开启IPV6 2. 创建子网并开启IPV6 步骤 2 创建集群 1. 登录CCE控制台,在右上角中选择“创建集群”。 2. 网络配置请按如下设置,其余配置可参考订购集群: 虚拟私有云:选择已开启IPV6的VPC。 所在子网:仅支持选择已开启了IPv6的子网。 启用IPV6:选择开启,开启后将支持通过IPv6地址段访问集群资源,包括节点,工作负载等。 Pod子网:仅支持选择已开启了IPv6的子网。 Service CIDR:容器网段要设置合理的掩码,掩码决定集群内可用节点数量。集群中容器网段掩码设置不合适,会导致集群实际可用的节点较少。 Service CIDRV6:该网段决定了支持 IPv6 地址的 Service 资源的上限,创建后不可修改,默认为fc00::/112。如需自定义该网段,需要满足以下要求,详情请参考如何设置Service CIDRV6网段: Service CIDRV6网段需属于fc00::/8网段内。 IPv6地址前缀长度范围为112120,您可以通过调整前缀数值,调整地址个数,地址数最多可支持65536个
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        新建集群
        搭建IPv4/IPv6双栈集群
      • 创建程序包
        上传程序包 如果编写的代码需要用到其他资源(如使用图形库进行图像处理),则需要先创建FunctionGraph函数部署程序包,然后再使用控制台上传部署程序包。Python编程语言支持以下两种方式上传程序包。 注意 制作zip包的时候,单函数入口文件必须在根目录,保证解压后,直接出现函数执行入口文件,才能正常运行。 解压后的源代码不能超过1.5G。 用python语言写代码时,自己创建的包名不能与python标准库同名,否则会提示module加载失败。例如“json”、“lib”,“os”等。 1. 直接上传程序包 在创建部署程序包后,可直接从本地上传ZIP程序包,ZIP程序包大小限制为50MB,如果超过该限制,请使用OBS存储桶。 更多函数资源的限制,请参见约束与限制。 2. 上传至OBS存储桶 在创建部署程序包后,可先将.zip文件上传到要在其中创建FunctionGraph函数的区域中的OBS存储桶中,然后指定FunctionGraph函数中设置程序包的OBS存储地址,OBS中ZIP包大小限制为300MB。 更多函数资源的限制,请参见约束与限制。 Java程序包 由于Java是编译型语言,所以不能在线编辑代码,只能上传程序包,部署程序包可以是.zip文件或独立的jar文件。 上传Jar包 如果函数没有引入其他依赖包,可以直接上传函数jar包。 如果函数引入了其他依赖包,可以先将依赖包上传至OBS桶,创建函数时设置依赖包,并上传函数jar包。 上传zip 如果函数中引入其他三方件,也可以制作包含所有依赖三方件和函数jar的zip包,选择上传zip文件。 Java编程语言支持以下两种方式上传程序包。 注意 制作zip包的时候,单函数入口文件必须在根目录,保证解压后,直接出现函数执行入口文件,才能正常运行。 解压后的源代码不能超过1.5G。 1. 直接上传程序包 在创建部署程序包后,可直接从本地上传ZIP程序包,ZIP程序包大小限制为50MB,如果超过该限制,请使用OBS存储桶。 更多函数资源的限制,请参见约束与限制。 2. 上传至OBS存储桶 在创建部署程序包后,可先将.zip文件上传到要在其中创建FunctionGraph函数的区域中的OBS存储桶中,然后指定FunctionGraph函数中设置程序包的OBS存储地址,OBS中ZIP包大小限制为300MB。 更多函数资源的限制,请参见约束与限制 GO语言程序包
        来自:
        帮助文档
        函数工作流
        用户指南
        构建函数
        创建程序包
      • 如何创建和管理索引
        本页介绍了如何创建和管理文档数据库服务索引。 在文档数据库服务中,可以使用索引来加速查询操作。索引是一个数据结构,它可以在集合中对指定的字段进行排序,并为这些字段创建一个快速查找的数据结构。文档数据库服务支持多种类型的索引,例如单字段索引、多字段联合索引、全文索引等。 索引分类 单字段索引:单字段索引是最常见的索引类型,它基于集合中的单个字段进行排序和查找。 复合索引:复合索引是基于多个字段进行排序和查找的索引类型。复合索引可以包含多个字段,可以根据这些字段的顺序指定索引键的排序方式。 多键索引:在文档数据库服务中,一个文档可以包含多个值相同的数组或嵌套文档,这些值可以被视为多个键。多键索引可以基于这些多个键对文档进行排序和查找。下面是一个示例: 假设有一个集合 books,其中包含每本书的信息,其中一个字段 tags 是一个包含多个标签的数组。例如: { "id" : ObjectId("6146c03f6c9d8f5fb9da0e3c"), "title" : "The Great Gatsby", "author" : "F. Scott Fitzgerald", "tags" : [ "Fiction", "Classic", "Romance" ] } 为了加速对 tags 字段的查询操作,可以在 tags 字段上创建一个多键索引。例如: db.books.createIndex({ tags: 1 }) 这将在 tags 字段上创建一个升序的多键索引。 现在,可以使用以下查询来查找包含特定标签的书籍: db.books.find({ tags: "Fiction" }) 这个查询将使用 tags 字段上的多键索引来加速查询,返回所有包含 "Fiction" 标签的书籍。 需要注意的是,多键索引的效率可能受到数组字段中值的数量和类型的影响。如果数组字段中包含大量的值或嵌套文档,则多键索引可能不是最佳选择。在使用多键索引时,需要根据实际情况评估其效果和性能。 地理空间索引:地理空间索引是一种针对地理空间数据进行优化的索引类型,它可以加速针对地理空间数据的查询和聚合操作。可以使用 createIndex() 命令创建地理空间索引。 文本索引:文本索引是一种针对文本数据进行优化的索引类型,它可以加速全文检索操作。文本索引只能用于字符串字段。可以使用 createIndex() 命令创建文本索引。 散列索引:散列索引是一种基于哈希函数的索引类型,它可以加速散列键(如密码)的查找操作。可以使用 createIndex() 命令创建散列索引。 TTL 索引:TTL 索引是一种基于时间戳的索引类型,它可以自动删除满足一定时间条件的文档。可以使用 createIndex() 命令创建 TTL 索引。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        数据库使用
        如何创建和管理索引
      • 业务过载最佳实践
        本节介绍Kafka业务过载最佳实践 方案概述 Kafka业务过载,一般表现为CPU使用率高、磁盘写满的现象。 当CPU使用率过高时,系统的运行速度会降低,并有加速硬件损坏的风险。 当磁盘写满时,相应磁盘上的Kafka日志目录会出现offline问题。此时,该磁盘上的分区副本不可读写,降低了分区的可用性和容错能力。同时由于Leader分区迁移到其他节点,会增加其他节点的负载。 CPU使用率高的原因 数据操作相关线程数(num.io.threads、num.network.threads、num.replica.fetchers)过多,导致CPU繁忙。 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。 磁盘写满的原因 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。 Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。 实施步骤 CPU使用率高的处理措施: 优化线程参数num.io.threads、num.network.threads和num.replica.fetchers的配置。 num.io.threads和num.network.threads建议配置为磁盘个数的倍数,但不能超过CPU核数。 num.replica.fetchers建议配置不超过5。 合理设置Topic的分区,分区一般设置为节点个数的倍数。 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。 磁盘写满的处理措施: 扩容磁盘,使磁盘具备更大的存储空间。 迁移分区,将已写满的磁盘中的分区迁移到本节点的其他磁盘中。 合理设置Topic的数据老化时间,减少历史数据的容量大小。 在CPU资源情况可控的情况下,使用压缩算法对数据进行压缩。 常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。 可以在生产者端配置“compression.type”参数来启用指定类型的压缩算法。 Properties props new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("acks", "all"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 开启GZIP压缩 props.put("compression.type", "gzip"); Producer producer new KafkaProducer<>(props);
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务过载最佳实践
      • Redis 6.0 Cluster主备实例测试数据
        测试环境说明 项目 说明 测试实例规格 基础Cluster版双副本24G(3分片)。 测试实例引擎版本 6.0。 测试实例地域和可用区 上海36 可用区1。 压测机器的规格 c7.4xlarge.2。 压测机器的操作系统 CTyunOS 2.0.121.06.4 64位。 压测机器地域和可用区 上海36 可用区1。 压测机器网络 与Redis实例为相同VPC区,与Redis实例可通过VPC连接。 压测工具 redisbenchmark。 测试命令 redisbenchmark h ${host} p ${port} cluster a ${password} c ${connectionnum} n 20000000 d 32 r 2000000 t set,get threads 8 说明 参数说明,根据具体情况替换: ${host}: Redis连接地址 , ${port}:Redis服务端口, ${password} : 密码 , ${connectionnum}: 连接数。 测试结果 以下测试结果仅供参考,不同的机器环境和网络波动等客观条件可能产生性能差异。 性能指标说明: 性能指标 说明 QPS Query Per Second,表示每秒处理的请求数,单位是次/秒。 延迟 操作的平均延迟时间,单位为毫秒(ms)。 %延迟 比如99%操作延迟,指99%操作的最大延迟时间,单位为毫秒(ms)。例如该指标的值为15毫秒,表示99%的请求可以在15毫秒内被处理。 表1 SET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 420300.53 2.299 3.159 3.687 基础Cluster版双副本24G(3分片) X86 3000 426721.28 6.760 9.415 12.143 基础Cluster版双副本24G(3分片) X86 10000 358937.53 25.451 39.487 211.583 增强Cluster版双副本24G(3分片) X86 1000 638814.38 1.347 1.855 2.279 增强Cluster版双副本24G(3分片) X86 3000 637999.25 4.053 6.167 7.535 增强Cluster版双副本24G(3分片) X86 10000 571037.06 14.612 23.407 26.831 表2 GET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 456173.19 2.107 2.47 2.879 基础Cluster版双副本24G(3分片) X86 3000 445950.78 6.493 7.343 209.535 基础Cluster版双副本24G(3分片) X86 10000 402909.00 24.075 35.007 238.719 增强Cluster版双副本24G(3分片) X86 1000 746212.94 1.162 1.671 2.399 增强Cluster版双副本24G(3分片) X86 3000 738525.19 3.367 4.855 6.439 增强Cluster版双副本24G(3分片) X86 10000 652209.31 11.310 16.975 209.279
        来自:
        帮助文档
        分布式缓存服务Redis版
        性能白皮书
        Redis 6.0 Cluster主备实例测试数据
      • 修改Topic
        介绍分布式消息服务Kafka修改主题功能的操作内容。 场景描述 Kafka修改主题的场景描述如下: 数据分区调整:当数据负载不均衡或者需要重新分配数据分区时,可以通过修改主题来调整数据分区的数量和分布。管理员可以根据实际情况修改主题的配置,重新分配分区,以实现更好的负载均衡和性能优化。 副本分配策略调整:Kafka的主题可以配置多个副本以实现数据冗余和高可用性。当需要调整副本的分配策略时,可以修改主题的配置,更改副本的分布方式,以满足不同的需求,如提高数据的可靠性或者减少网络传输的开销。 数据保留策略变更:Kafka支持根据时间或者大小等条件来设置数据的保留策略。当需要修改主题的数据保留策略时,可以修改主题的配置,调整数据的保留时间或者保留的数据大小,以便根据实际需求来管理数据的存储和清理。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后,选择指定的Topic点击其右侧“编辑”按钮。 (5)点击“编辑”后,在弹窗中修改具体参数,详见下表:Topic参数说明。 表:Topic参数说明 参数 参数说明 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic
      • PUT Bucket Lifecycle
        本节主要介绍PUT Bucket Lifecycle。 此操作用来设置Bucket生命周期规则。只有根用户和具有PUT Bucket Lifecycle权限的子用户才能执行此操作。 通过设置存储桶的生命周期规则,可以: 删除与生命周期规则匹配的文件:当文件的生命周期到期时,OOS会异步删除它们。生命周期中配置的到期时间和实际删除时间之间可能会有一段延迟。但文件到期被删除后,用户将不需要为到期的文件付费。OOS删除到期文件后,会在Bucket log中记录一条日志,操作项是"OOS.EXPIRE.OBJECT"。 将与生命周期规则匹配的文件由标准存储转换为低频访问存储:可以根据需要设置生命周期规则从文件最后一次修改时间生效,还是从文件最后一次访问时间生效。OOS转换存储类型为低频访问存储后,会在Bucket log中记录一条日志,操作项是"OOS.TRANSITIONSIA.OBJECT"。 注意 如果文件的生命周期规则设置的是到期后删除,文件到期后将被永久删除,无法恢复。 如果Bucket内的生命周期规则正在执行时被修改配置,则修改后的配置并不立即生效,需等原生命周期规则执行完成后才能生效。 如果Bucket没有配置过生命周期规则,执行该操作将创建新的生命周期规则。如果Bucket已存在生命周期规则,则执行此操作将覆盖原有规则。 每个Bucket最多创建1000条生命周期规则。 同一Bucket,同一类型(到期删除或者到期转成低频访问存储)的生命周期规则不能存在叠加前缀,例如已创建到期删除文件的生命周期规则的前缀是ABC,则无法再创建前缀为ABCD或AB或A的到期删除文件的生命周期规则。 当用户为Bucket设置了生命周期规则,这些规则将同时应用于已有文件和后续新创建的文件。例如,用户今天增加了一个生命周期,指定某些前缀的文件30天后过期,那么OOS将会将满足条件的30天前创建的文件都加入到待删除队列中。 OOS通过将文件的最后一次修改时间或最后一次访问时间,加上生命周期时间来计算到期时间,并且将时间近似到下一天的GMT零点时间。例如基于创建时间设置生命周期:一个文件于GMT 2016年1月15日10:30创建,生命周期为3天,那么文件的到期时间是GMT 2016年1月19日00:00。当重写一个文件时,OOS将以最后更新时间为准,来重新计算该文件的到期时间。 可以通过GET Object、HEAD Object查询文件的到期时间。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        PUT Bucket Lifecycle
      • CCE发布Kubernetes 1.28版本说明
        变更与弃用 在Kubernetes 1.28版本,移除特性NetworkPolicyStatus,因此Network Policy不再有status属性。 在Kubernetes 1.28版本,Job对象中增加了新的annotationbatch.kubernetes.io/cronJobscheduledtimestamp,表示Job的创建时间。 在Kubernetes 1.28版本,Job API中添加podReplacementPolicy和terminating字段,当前一旦先前创建的pod终止,Job就会立即启动替换pod。添加字段允许用户指定是在先前的Pod终止后立即更换Pod(原行为),还是在现有的Pod完全终止后才替换Pod(新行为)。这是一项 Alpha 级别特性,您可以通过在集群中启用JobPodReplacementPolicy 来启用该特性。 在Kubernetes 1.28版本,Job支持BackoffLimitPerIndex字段。当前使用的运行Job的策略是Job中的整个Pod共享一个Backoff机制,当Job达到次Backoff的限制时,整个Job都会被标记为失败,并清理资源,包括尚未运行的index。此字段允许对单个的index设置Backoff。 在Kubernetes 1.28版本,添加ServedVersions字段到 StorageVersion API中。该变化由混合代理版本特性引入。该增加字段ServedVersions用于表明API服务器可以提供的版本。 在Kubernetes 1.28版本,SelfSubjectReview 添加到到authentication.k8s.io/v1中,并且kubectl auth whoami走向GA。 在Kubernetes 1.28版本,PersistentVolume有了一个新的字段LastPhaseTransitionTime,用来保存最近一次volume转变Phase的时间。 在Kubernetes 1.28版本,PVC.Status中移除resizeStatus,使用AllocatedResourceStatus替代。resizeStatus表示调整存储大小操作的状态,默认为空字符串。 在Kubernetes 1.28版本,设置了hostNetwork: true并且定义了ports的Pods,自动设置hostport字段。 在Kubernetes 1.28版本,StatefulSet的Pod索引设置为Pod的标签statefulset.kubernetes.io/podindex。 在Kubernetes 1.28版本,Pod的Condition字段中的PodHasNetwork重命名为PodReadyToStartContainers,用来表明网络、卷等已成功创建,sandbox pod已经创建完成,可以启动容器。 在Kubernetes 1.28版本,在KubeSchedulerConfiguration中添加了新的配置选项 delayCacheUntilActive, 该参数为true时,非master节点的kubescheduler不会缓存调度信息。这为非主节点的内存减缓了压力,但会导致主节点发生故障时,减慢故障转移的速度。 在Kubernetes 1.28版本,在admissionregistration.k8s.io/v1alpha1.ValidatingAdmissionPolicy中添加namespaceParamRef字段。 在Kubernetes 1.28版本,在CRD validation rules中添加reason和fieldPath,允许用户指定验证失败的原因和字段路径。 在Kubernetes 1.28版本,ValidatingAdmissionPolicy的CEL表达式通过namespaceObject支持namespace访问。 在Kubernetes 1.28版本,将API groups ValidatingAdmissionPolicy 和ValidatingAdmissionPolicyBinding 提升到betav1。 在Kubernetes 1.28版本,ValidatingAdmissionPolicy 扩展了messageExpression字段,用来检查已解析类型。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        CCE发布Kubernetes 1.28版本说明
      • 快速接入应用容灾多活
        本章节介绍接入应用容灾多活的基本流程,帮助您快速上手产品使用。 概述 应用容灾多活是包含架构加管控的解决方案,提供引导式的应用架构改造接入和一站式的云产品协同管理,在使用上遵循架构适配、资源纳管、规则配置和容灾切流的基本流程。 准备工作 应用容灾多活是构建在已有应用之上的管控,协同其他云产品,但不负责其他云产品的生命周期,需要您提前规划与创建。 同时,数据分区与流量封闭也需要您对业务应用进行必要的改造,一般来说,有如下设计和研发工作需要您考虑和实施: 设计 明确容灾需求,选定是应用双活还是数据双活架构。 适配应用架构,确定数据、服务和组件依赖。 分析业务现状,明确流量、数据和代码改造点。 规划物理架构,开通目标区域、可用区、网络和中间件等资源。 研发 如要求服务调用分区闭环,需进行业务垂直拆分和微服务改造。 如要求数据访问分区闭环,需进行数据水平拆分,确定分片键。 如要求流量调度分区闭环,需进行入口流量带标以及路由标传递改造。 使用流程 应用容灾多活基本使用流程如下所示。 序号 步骤 说明 1 创建应用系统 根据容灾需求,选定应用架构,跳转“应用双活”或“数据双活”页面创建应用系统,开通功能模块。 2 系统架构配置 根据规划的物理架构,在应用系统内按指引创建站点与单元,绑定管控通道。 3 路由规则配置 根据服务分组与分流预期,在应用系统内按指引创建单元组,配置路由规则。 4 应用分层配置 根据组件依赖,分层添加应用资源与应用系统绑定。 接入层配置:为每个站点绑定应用网关,创建URI配置,关联单元组与单元流量入口。 数据层配置:为每个单元组服务绑定数据源,创建数据同步任务。 服务层配置:为每个单元服务生成授权,应用节点通过探针接入。 5 基础配置推送 应用分层配置完成后,创建基础配置推送任务,自动有序地将规则下发到组件和应用节点。 6 多活容灾运维 不同故障场景都通过一键切流实现故障逃逸,日常巡检也有助于帮助业务发现问题。 多活切流:创建流量切换任务,自动有序地调拨流量和数据。 系统监控:架构地图提升可观测性,暴露问题节点,日常巡检自主发现异常,及时通知。
        来自:
        帮助文档
        应用高可用
        快速入门
        快速接入应用容灾多活
      • 创建快照备份Elasticsearch实例数据
        本文为您介绍如何对已经开启的云搜索服务Elasticsearch实例进行备份。 天翼云云搜索服务支持使用对象存储保留实例在指定时间的快照信息 约束限制 备份管理功能上线前创建的实例无此功能。 实例快照会导致CPU、磁盘IO上升等影响,建议在业务低峰期进行操作。 实例异常时,不可创建快照,仅能查看已创建的快照,恢复时请确保目标实例状态正常。 手动快照和自动快照不可同时进行。 前提条件 1. 快照功能依赖天翼云对象存储服务(ZOS),请确保您已开通与云搜索服务实例同资源池的对象存储服务,并创建存储桶。存储快照会产生费用,具体收费请参见对象存储计费说明。 2. 已获取自身天翼云账号的AK/SK。通过“账号中心>安全设置>用户AccessKey”中查看您的AccessKey、SecurityKey信息。如果忘记SecurityKey请工单联系客服重置。 创建及关闭自动备份 1. 登录云搜索服务控制台,进入实例管理列表页,选择需要创建备份的实例,进入实例详情页。 2. 在备份管理页面,点击开关开启备份能力,根据页面提示输入您天翼云的AK/SK,如果验证通过,即可点击下一步进行备份功能开通。 3. 开通成功进入快照列表页面,点击“自动备份设置”,在弹出的弹层上选择快照目标存储的存储桶,设置备份周期和备份对象,并选择备份期望的保留时间,最长可以保留30天。 4. 选择备份对象是索引时,需要填写备份的索引名称,支持使用“”匹配多个索引,例如“index”表示备份名称前缀时index的所有索引数据。您可通过“索引管理”功能先行查看实例内的索引名称。 5. 如您需要修改自动快照的创建规则,再次点击“自动创建备份”按钮进行修改,修改后立即生效,按照新设定的规则生成、删除相应快照,已生成部分的存量快照清理时长按原规则执行。 6. 如您不再需要自动备份,则可在快照列表页点击关闭自动备份,并在弹出的确认弹窗中选择是否保留快照信息,如不保留,则系统会自动删除从本次开启至本次结束期间自动备份产生的所有快照信息,如果选择保留,则本次开启至本次结束期间的快照信息得以保留,再次开启时将不再由系统进行删除,您可根据需要,手动在控制台进行删除。 7. 关闭自动备份期间快照自动清理不会执行。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        备份与恢复Elasticsearch实例
        创建快照备份Elasticsearch实例数据
      • 使用Kibana导入数据至Elasticsearch实例
        本文为您介绍如何通过Kibana向天翼云云搜索服务Elasticsearch实例导入数据。 Kibana 提供的Dev Tools控制台允许直接在浏览器中通过REST API向Elasticsearch发出查询和数据操作请求。 Kibana可视化界面提供了简单的数据导入功能,适用于小规模数据的手动导入场景,特别是在测试和快速验证场景中非常实用。 适用场景 快速测试与调试:适用于开发阶段测试查询语句、创建索引、插入和更新数据等操作。 简单数据管理:如果只是少量数据操作,如插入、更新、删除数据或查看结果,Kibana提供了方便的Web界面操作。 无需编程环境:不需要安装额外的客户端工具,只要能访问Kibana即可操作Elasticsearch。 前提条件 已经开通天翼云云搜索Elasticsearch实例。 查看Kibana的终端可以访问到云搜索实例,设置好5601端口的网络安全策略。 实际操作 点击Kibana输入用户名登录后,进入首页。 右上角可以点击开发工具进入开发工具界面。 如果没有索引,可以创建一个测试索引名为testindex: plaintext PUT /testindex { "mappings": { "properties": { "mytest": { "type": "text" } } } } 执行创建索引操作会返回如下信息: plaintext { "acknowledged" : true, "shardsacknowledged" : true, "index" : "testindex" } 如果有索引可以使用已有的索引。 往索引中写入数据,以上面创建的索引为例。 1. 写入单条数据,可以使用下面命令写入一条id为1的数据: plaintext POST /testindex/doc/1 { "mytest": "xiaoming" } 执行上面的命令,返回下面的结果即导入数据成功。 plaintext { "index" : "testindex", "type" : "doc", "id" : "1", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 0, "primaryterm" : 1 } 2. 批量写数据,可以使用下面命令写入一批数据: plaintext POST /testindex/bulk {"index":{"id": 1}} {"mytest": "xiaoming"} {"index":{"id": 2}} {"mytest": "xiaohong"} {"index":{"id": 3}} {"mytest": "xiaoli"} {"index":{"id": 4}} {"mytest": "xiaozhang"} {"index":{"id": 5}} {"mytest": "xiaowang"} 执行上面的命令,返回下面的结果即导入数据成功。 plaintext { "took" : 10, "errors" : false, "items" : [ { "index" : { "index" : "testindex", "type" : "doc", "id" : "1", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 0, "primaryterm" : 1, "status" : 201 } }, .... { "index" : { "index" : "testindex", "type" : "doc", "id" : "5", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 4, "primaryterm" : 1, "status" : 201 } } ] }
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        导入数据至Elasticsearch实例
        使用Kibana导入数据至Elasticsearch实例
      • 入门简介
        本文带您快速入门多活容灾服务。 使用条件 1. 已经注册并开通天翼云账号。 2. 当前账号已开通多活容灾服务,拥有使用多活容灾服务的权限。 3. 已经完成实名认证。 使用流程 多活容灾服务使用流程如图所示。 1. 开通多活容灾服务。 2. 若生产中心为三方数据中心时,需新增三方数据中心。 3. 创建命名空间。在控制台命名空间页面创建命名空间,用户可以创建多个命名空间,用于逻辑隔离不同的资源。 4. 同步/纳管资源。在多活容灾服务平台使用相关资源之前,用户需通过资源管理模块对资源进行同步或新增操作,以便MDR侧能够实现资源的统一管理。 5. 创建容灾管理中心。用户可以根据业务需要使用一个或若干个容灾管理中心,容灾管理中心与命名空间为一对十绑定关系。 6. 接入应用(可选)。应用接入可帮助用户对容灾管理中心的云主机资源进行流量配比与健康检查监控,云主机资源健康情况可在监控大盘中查看。同时,可以帮助用户进一步将容灾管理中心的资源(如云主机、存储、数据库)按应用维度进行细粒度划分,提升资源管理便捷性。 7. 预案编排。预案编排涵盖预案阶段和预案管理两方面。预案阶段模块中,帮助用户以任务为单位进行串行或并行编排成预案阶段。预案管理模块中,用户可根据多个预案阶段互相衔接组成整体预案流程,预案流程为后续灾备演练和应急切换提供整体流程方案。 8. 容灾演练。容灾演练旨在确保灾难发生后能够快速恢复业务而进行的一系列的演练任务,涉及的演练任务来源于相应的预案流程,演练时演练任务为实战演练。 9. 应急切换。应急切换用于灾难发生后为了快速恢复业务而进行的一系列切换或恢复任务,涉及的演练任务来源于相应的预案流程。故障切换场景下可根据预设的切换预案流程拉起依次数据库、存储、灾备云主机等相关服务;故障回切场景下可根据预设的回切预案流程执行数据库、存储、容灾云主机的回切操作,以确保业务正常运行。
        来自:
        帮助文档
        多活容灾服务
        快速入门
        入门简介
      • 处理容器告警事件
        本小节介绍处理容器告警事件。 企业主机安全可对您已开启的告警防御能力提供总览数据,帮助您快速了解安全告警概况包括存在告警的容器、待处理告警事件、已处理告警事件。 事件列表仅保留近30天内发生的告警事件,您可以根据自己的业务需求,自行判断并处理告警,快速清除资产中的安全威胁。 告警事件处理完成后,告警事件将从“未处理”状态转化为“已处理”。 约束限制 未开启防护的服务器不支持告警事件相关操作。 操作步骤 当发生安全告警事件后,为了保障您的云服务器安全,可以根据以下方式处理安全告警事件。 说明 由于网络攻击手段、病毒样本在不断演变,实际的业务环境也有不同差异,因此,无法保证能实时检测防御所有的未知威胁,建议您基于安全告警处理、漏洞、基线检查等安全能力,提升整体安全防线,预防黑客入侵、盗取或破坏业务数据。 1、登录管理控制台。 2、在弹窗界面单击“体验新版”,切换至企业主机安全页面。 切换至新版后,在总览页左上角单击“返回旧版”,可切换至企业主机安全(旧版) 3、在左侧导航栏中,单击“入侵检测 > 安全告警事件 > 容器安全告警”,进入“容器安全告警”页面。 告警事件状态说明 告警事件状态 告警事件状态说明 存在告警的服务器 展示存在告警容器的数量。 待处理告警事件 展示您资产中所有待处理告警的数量。 安全告警处理页面默认展示所有待处理告警信息。 已处理告警事件 展示您资产中所有已处理的告警事件数量。 4、 处理告警事件。 告警事件展示在“容器安全告警”页面中,事件列表仅展示最近30天的告警事件。 您需要根据自己的业务需求,自行判断并处理告警。告警事件处理完成后,告警事件将从“未处理”状态变更为“已处理”。HSS将不再对已处理的事件进行统计。 批量处理勾选的告警 a.任意选中“事件类型”,在事件列表勾选多个目标告警,单击“事件列表”下方的“处理”。 b.在弹窗中选择处理方式,确认无误,单击“确认”,完成勾选告警处理,处理方式详情如表76所示。 处理单个告警 a.选中目标“事件类型”,单击目标告警事件“操作”类的“处理”。 b.在弹窗中选择处理方式,确认无误,单击“确认”,完成单个告警处理,处理方式详情如表所示。 处理方式 处理方式说明 忽略 仅忽略本次告警。若再次出现相同的告警信息,HSS会再次告警。 手动处理 选择手动处理。您可以根据自己的需要为该事件添加“备注”信息,方便您记录手动处理该告警事件的详细信息。
        来自:
        帮助文档
        企业主机安全
        用户指南
        入侵检测
        容器安全告警
        处理容器告警事件
      • 升级内核小版本
        说明:本章节会介绍如何升级内核小版本 操作场景 云数据库MySQL支持自动或手动升级内核小版本,内核小版本的升级涉及性能提升、新功能或问题修复等。 有新的内核小版本发布时,您可以在“实例管理”页面“数据库引擎版本”列看到内核小版本升级提示,单击“补丁升级”跳转到小版本升级页面。 内核小版本功能详情请参见MySQL内核版本说明。根据升级时间不同,升级内核小版本可以分为以下两种方式。 立即升级:您可以根据实际业务情况,在目标实例的“基本信息”页面手动升级内核小版本。 可维护时间段内升级:您可以在您设置的可维护时间段内进行升级,详情参见设置可维护时间段。 注意事项 升级数据库内核小版本会重启MySQL实例,服务可能会出现闪断,请您尽量在业务低峰期执行该操作,或确保您的应用有自动重连机制。 升级主实例小版本时,如有只读实例,也会同步升级只读实例的小版本,升级完成会重启实例,请您选择合适的时间升级(不支持单独升级只读实例的小版本)。 升级内核小版本后,实例会升级到新的内核小版本,无法降级。 小版本升级过程中禁止event的ddl操作,如create event、drop event和alter event。 约束条件 对于主备实例,复制延迟大于300秒无法升级小版本。 实例中存在异常节点,无法升级小版本。 目前MySQL实例最大可支持10万张表,大于10万张表时,可能会导致小版本升级失败。 云数据库MySQL暂不支持已开启事件定时器功能的实例升级内核小版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 操作步骤 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4 在“实例管理”页面,选择指定的主备实例,单击主实例名称。 步骤5 在“基本信息”页面,“数据库信息”模块的“数据库引擎”处,单击“升级”。 步骤6 在弹出框中,选择升级方式,单击“确定”。 立即升级:系统会立即升级您的数据库内核版本到当前最新版本。 可维护时间段内升级:系统会在您设置的可维护时间段内,升级您的数据库内核版本到当前最新版本。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        实例管理
        升级内核小版本
      • 查看质量报告
        查看数据质量评分 质量评分的满分可设置为5分,10分,100分。默认为5分制,是以表关联的规则为基础进行评分的。而表、数据库等不同维度的评分均基于规则评分,本质上是基于规则评分在不同维度下的加权平均值进行计算的。 您可以查询所创建数据连接下数据库、数据库下的数据表以及数据表所关联规则的评分,具体评分对象的计算公式,请参见下表。 对象评分计算公式 对象 评分计算公式 规则 创建质量作业时,作业关联的规则中结果说明列包含“比率”、“值率”的系统内置规则及用户自定义规则可以生成质量评分报告。 包含“比率”、“值率”的规则可以分为正向规则及反向规则,正向规则即比值越高,代表数据质量越好;反向规则即比值越高,则数据质量越差。 正向规则包含唯一值率、重复值率、合法比率规则,反向规则包含空值率规则。 正向规则评分满足规则的数据行数/数据总行数满分(5,10,100)。 反向规则评分(1满足规则的数据行数/数据总行数)满分(5,10,100)。 数据表 表评分计算公式:∑(表关联的所有规则评分规则权重)/∑规则权重 数据库 数据库下所有数据表评分的加权求平均值,即:∑数据库下所有数据表评分/表的数量。 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据质量”模块,进入数据质量页面。 选择数据质量 2.选择“数据质量监控 > 质量报告”。 3.在“技术报告”页签,选择数据连接及截至日期,查询截至日期前7天的数据质量评分,如下图所示。 选择数据连接 说明 以评分满分为5分为例。其中45分评价为优秀,34分为良好,23分为不及格,12分为较差,01分为极差。 当天质量评分数据在次日凌晨生成。 质量评分历史趋势中的实线为截至日期前7天质量评分组成的连线,虚线为这7天质量评分的平均分。 若一天多次运行该作业,当天的质量评分为最后一次的得分。 4.单击“表评分”列的评分值链接,展开该表关联的规则评分。 5.单击“规则评分”列的评分值链接,展开该规则关联的字段评分,如下图所示。 表关联规则评分界面
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        数据质量监控
        查看质量报告
      • 监控
        监控指标 描述 CPU使用率 监测每个ClickHouse节点的CPU利用率,反映节点的计算能力和负载情况。您可以通过监控CPU使用率来评估系统的处理能力,并及时进行资源调整。 内存使用量 跟踪每个ClickHouse节点的内存消耗情况,了解内存使用情况可以帮助您优化查询性能和调整内存配置。 磁盘使用空间 监控每个ClickHouse节点的磁盘空间占用情况,确保有足够的存储空间来容纳数据和执行操作。及时了解磁盘使用情况可以避免因存储空间不足而导致的数据丢失或运行故障。 每秒IO次数 记录每秒的输入输出操作次数,包括读取和写入数据的次数。通过监控每秒IO次数,您可以评估ClickHouse节点的IO性能和磁盘负载情况,以便进行性能优化和容量规划。 每秒读写字节数 监测每秒读取和写入的数据量,帮助您了解数据处理速度和吞吐量。通过监控每秒读写字节数,您可以评估系统的数据处理能力,并根据需要进行调整和优化。 当前运行查询数 实时跟踪正在运行的查询数量,反映系统的查询负载和性能状况。通过监控当前运行查询数,您可以了解系统的负载情况,并做出相应的优化和调整。 合并数量 监控数据合并操作的数量,用于评估数据压缩和合并操作的效率。通过监控合并数量,您可以了解数据压缩和合并的效果,并根据需要进行优化。 分区变更数量 记录分区变更的次数,用于跟踪分区操作和数据变更情况。了解分区变更数量可以帮助您追踪数据变更的频率和趋势,以及相应的系统影响。 后台任务数 跟踪后台任务的数量,包括数据清理、数据复制等后台处理任务。通过监控后台任务数,您可以了解后台处理的工作负载和执行情况,以及相应的资源占用。 TCP连接数 监控每个ClickHouse节点的TCP连接数量,用于评估网络连接的负载和性能状况。了解TCP连接数可以帮助您优化网络配置和资源分配。 HTTP连接数 记录每个ClickHouse节点的HTTP连接数量,帮助您追踪HTTP请求的并发情况。通过监控HTTP连接数,您可以评估系统的网络负载和处理能力。 Zookeeper监听数 监测Zookeeper集群中的监听数,用于了解集群状态和数据同步情况。通过监控Zookeeper监听数,您可以评估集群的稳定性和可用性。 Zookeeper会话数 跟踪Zookeeper集群中的会话数,用于评估集群的稳定性和连接状态。了解Zookeeper会话数可以帮助您监控集群的健康状况和系统连接情况。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        监控
      • 配置环境变量
        本章节主要介绍配置的配置环境变量。 使用场景 配置作业参数,当某参数隶属于多个作业,可将此参数提取出来作为环境变量,环境变量支持导入和导出。 导入环境变量 导入环境变量功能依赖于OBS服务,如无OBS服务,可从本地导入。 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 3.单击“环境变量”,在“环境变量配置”页面,选择“导入”。 4.在导入环境变量对话框中,选择已上传至OBS或者本地的环境变量文件,以及重命名策略。 详见下图:导入环境变量 配置方法 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 3.单击“环境变量”,在“环境变量配置”页面,配置如下表所示的变量或常量,单击“保存”。 说明 变量和常量的区别是其他工作空间或者项目导入的时候,是否需要重新配置值。 变量是指不同的空间下取值不同,需要重新配置值,比如“工作空间名称”变量,这个值在不同的空间下配置不一样,导出导入后需要重新进行配置。 常量是指在不同的空间下都是一样的,导入的时候,不需要重新配置值。 环境变量参数配置 参数 是否必选 说明 参数名称 是 只支持英文字母、数字、“”、“”,最大长度为64字符,且参数名称不允许重名。 参数值 是 参数值当前支持常量和EL表达式,不支持系统函数。例如支持123,abc。 关于EL表达式的使用,请参见表达式概述。 配置完一个环境变量后,您还可以进行新增、修改或删除等操作。 新增:单击“新增”配置新的环境变量。 修改:参数值为常量时,直接在文本框中修改参数值;参数值为EL表达式时,可以单击文本框后方的编辑EL表达式,修改参数值。修改完成后,请“保存”。 删除:在参数值文本框后方,单击删除环境变量。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        配置管理
        配置
        配置环境变量
      • 跨源认证概述
        本章节主要介绍跨源认证概述。 什么是跨源认证? 跨源分析场景中,如果在作业中直接配置认证信息会触发密码泄露的风险,因此推荐您使用“数据加密服务DEW”或“DLI提供的跨源认证方式”来存储数据源的认证信息。 数据加密服务(Data Encryption Workshop, DEW)是一个综合的云上数据加密服务,为您解决数据安全、密钥安全、密钥管理复杂等问题。推荐使用数据加密服务DEW来存储数据源的认证信息。 跨源认证用于管理访问指定数据源的认证信息。配置跨源认证后,无需在作业中重复配置数据源认证信息,提高数据源认证的安全性,便于DLI安全访问数据源。 本节操作为您介绍DLI提供的跨源认证的使用方法。 约束与限制 仅Spark SQL、和Flink OpenSource SQL 1.12版本的作业支持使用跨源认证。 DLI支持四种类型的跨源认证,不同的数据源按需选择相应的认证类型。 −CSS类型跨源认证:适用于“6.5.4”及以上版本的CSS集群且集群已开启安全模式。 −Kerberos类型的跨源认证:适用于开启Kerberos认证的MRS安全集群。 −KafkaSSL类型的跨源认证:适用于开启SSL的Kafka。 −Password类型的跨源认证:适用于DWS、RDS、DDS、DCS数据源。。 跨源认证类型 DLI支持四种类型的跨源认证,不同的数据源按需选择相应的认证类型。 CSS类型跨源认证:适用于“6.5.4”及以上版本的CSS集群且集群已开启安全模式。配置时需指定集群的用户名、密码、认证证书,通过跨源认证将以上信息存储到DLI服务中,便于DLI安全访问CSS数据源。详细操作请参创建CSS类型跨源认证。 Kerberos类型的跨源认证:适用于开启Kerberos认证的MRS安全集群。配置时需指定MRS集群认证凭证,包括“krb5.conf”和“user.keytab”文件。详细操作请参考创建Kerberos跨源认证。 KafkaSSL类型的跨源认证:适用于开启SSL的Kafka,配置时需指定KafkaTruststore路径和密码。详细操作请参考创建KafkaSSL类型跨源认证。 Password类型的跨源认证:适用于DWS、RDS、DDS、DCS数据源,配置时将数据源的密码信息存储到DLI。详细操作请参考创建Password类型跨源认证。
        来自:
        帮助文档
        数据湖探索
        用户指南
        跨源认证
        跨源认证概述
      • QUIC在短视频场景下的最佳实践
        本文简述QUIC协议在短视频场景下的最佳实践。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC协议的优势 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用:QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移:什么是连接迁移?举个例子,当您用手机使用蜂窝网络参加远程会议,当您把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源地址、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制:QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC):QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        最佳实践
        QUIC在短视频场景下的最佳实践
      • 通过VPN连接云下数据中心与云上VPC
        本文向您介绍如何通过VPN连接云下数据中心与云上VPC。 操作场景 默认情况下,在Virtual Private Cloud (VPC) 中的弹性云主机无法与您自己的数据中心或私有网络进行通信。如果您需要将VPC中的弹性云主机和您的数据中心或私有网络连通,可以启用VPN功能。申请VPN后,用户需要配置安全组并检查子网的连通性,以确保VPN功能可用。主要场景分为两类: 点对点VPN:本端为处于云服务平台上的一个VPC,对端为一个数据中心,通过VPN建立用户数据中心与VPC之间的通信隧道。 点对多点VPN:本端为处于云服务平台上的一个VPC,对端为多个数据中心,通过VPN建立不同用户数据中心与VPC之间的通信隧道。 配置VPN时需要注意以下几点: 本端子网与对端子网不能重复。 本端和对端的IKE策略、IPsec策略、PSK相同。 本端和对端子网,网关等参数对称。 VPC内弹性云服务器安全组允许访问对端和被对端访问。 VPN对接成功后两端的云主机或者物理设备之间需要进行通信,VPN的状态才会刷新为正常。 前提条件 已创建VPN所需的虚拟私有云和子网。 操作步骤 1. 在管理控制台上,创建VPN网关、用户网关,选择合适的IKE策略和IPsec策略创建VPN连接。 2. 检查本端和对端子网的IP地址池。 3. 为弹性云主机配置安全组规则,允许通过VPN进出本地数据中心的报文。 4. 检查VPC安全组。 5. 检查远端LAN配置(即对端数据中心网络配置)。 假设您在云中已经申请了VPC,并申请了2个子网(192.168.1.0/24,192.168.2.0/24),您在自己的数据中心Router下也有2个子网(192.168.3.0/24,192.168.4.0/24)。您可以通过VPN使VPC内的子网与数据中心的子网互相通信。 本端和对端子网IP池不能重合。例如,本端VPC有两个子网,分别为:192.168.1.0/24和192.168.2.0/24,那么对端子网的IP地址池不能包含本端VPC的这两个子网。 从本地数据中心ping云主机,验证安全组是否允许通过VPN进出本地数据中心的报文。 在远程LAN(对端数据中心网络)配置中有可以将VPN流量转发到LAN中网络设备的路由。如果VPN流量无法正常通信,请检查远程LAN是否存在拒绝策略。
        来自:
        帮助文档
        VPN连接
        最佳实践
        通过VPN连接云下数据中心与云上VPC
      • 设置告警规则
        本章节会介绍如何设置数据库监控告警规则。 操作场景 通过在云监控中设置告警规则,用户可自定义关系型数据库的监控目标与通知策略,及时了解关系型数据库运行状况,从而起到预警作用。 设置关系型数据库的告警规则包括设置告警规则名称、服务、维度、监控对象、监控指标、告警阈值、监控周期和是否发送通知等参数。 设置告警规则 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 在“服务列表”中选择“管理与部署 > 云监控服务”,进入云监控服务信息页面。 步骤 4 选择“告警 > 告警规则”。 步骤 5 单击“创建告警规则”。 步骤 6 在“创建告警规则”界面,根据界面提示配置参数。 表 告警规则信息 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 描述 告警规则描述。 告警类型 选择指标。 资源类型 选择关系型数据库。 维度 选择MySQL实例。 监控范围 资源分组:该分组下任何资源满足告警策略时,都会触发告警通知。 指定资源:在“监控对象”单击“选择指定资源”进行指定资源的选择。 触发规则 关联模板:所关联模板内容修改后,该告警规则中所包含策略也会跟随修改。 建议选择导入已有模板,模板中已经包含CPU使用率、内存使用率、磁盘利用率三个常用告警指标。 自定义创建:自行配置告警策略。 模板 触发规则选择关联模板时,需要选择模板。 您可以选择系统预置的默认告警模板,或者选择自定义模板。 表 告警通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知方式 根据需要可选择通知组或主题订阅两种方式。 通知组 需要发送告警通知的通知组。 通知对象 选择主题订阅时设置需要发送告警通知的对象,可选择云账号联系人或主题名称。 云账号联系人为注册时的手机和邮箱。 主题是消息发布或客户端订阅通知的特定事件类型。 生效时间 该告警仅在生效时间段发送通知消息,非生效时段则在隔日生效时段发送通知消息。 如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。 归属企业项目 告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 步骤 7 单击“立即创建”,告警规则创建完成。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        设置告警规则
      • redis常见使用规范
        本节主要介绍Redis常见使用规范,主要从Key名称、Value值、Redis命令以及其他方面描述。 Key名称 Key名称的使用规范如下: 使用统一的命名规范。 一般使用业务名(或数据库名)为前缀,用冒号分隔,例如,业务名:表名:id。 控制key名称的长度。 在保证语义清晰的情况下,尽量减少Key的长度。有些常用单词可使用缩写,例如,user缩写为u,messages缩写为msg。 名称中不要包含特殊字符。 Value值 Value值的使用规范如下: 要避免大Key。 大Key会带来网卡流量风暴和慢查询,一般string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。 选择合适的数据类型。 比如存储用户的信息,可用使用多个key,使用set u:1:name "X"、set u:1:age 20这样存储,也可以使用hash数据结构,存储成1个key,设置用户属性时使用hmset一次设置多个,同时这样存储也能节省内存。 设置合理的过期时间。 最好是过期时间打散,不要集中在某个时间点过期。 Redis命令 Redis命令的常用规范如下: 时间复杂度为O(N)的命令,需要特别注意N的值。 例如:hgetall、lrange、smembers、zrange、sinter这些命令都是做全集操作,如果元素很多,是很耗性能的。可使用hscan、sscan、zscan这些分批扫描的命令替代。 命令禁用,使用前,请参考Redis命令兼容性和WebCli命令兼容性。 慎重使用select。 Redis多数据库支持较弱,多业务用多数据库实际还是单线程处理,会有干扰。最好是拆分使用多个Redis。天翼云集群实例不支持多DB。 如果有批量操作,可使用mget、mset或pipeline,提高效率,但要注意控制一次批量操作的元素个数。 mget、mset和pipeline的区别如下: mget和mset是原子操作,pipeline是非原子操作。 pipeline可以打包不同的命令,mget和mset做不到。 使用pipeline,需要客户端和服务端同时支持。 lua脚本的执行超时时间为5秒钟,建议不要在lua脚本中使用比较耗时的代码,比如长时间的sleep、大的循环等语句。 调用lua脚本时,建议不要使用随机函数去指定key,否则在主备节点上执行结果不一致,从而导致主备节点数据不一致。 集群实例使用lua有如下限制: 使用EVAL和EVALSHA命令时,命令参数中必须带有至少1个key,否则客户端会提示“ERR eval/evalsha numkeys must be bigger than zero in redis cluster mode”的错误。 使用EVAL和EVALSHA命令时,DCS Redis集群实例使用第一个key来计算slot,用户代码需要保证操作的key是在同一个slot。
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        redis常见使用规范
      • 使用Redis实现排行榜功能
        本节基于天翼云分布式缓存服务实践所编写,用于指导您在以下场景使用DCS实现排行榜功能。 场景介绍 在网页和APP中常常需要用到榜单的功能,对某个keyvalue的列表进行降序显示。当操作和查询并发大的时候,使用传统数据库就会遇到性能瓶颈,造成较大的时延。 使用分布式缓存服务(DCS)的Redis版本,可以实现一个商品热销排行榜的功能。它的优势在于: 数据保存在缓存中,读写速度非常快。 提供字符串(String)、链表(List)、集合(Set)、哈希(Hash)等多种数据结构类型的存储。 实践指导 1. 准备一台弹性云主机(ECS),选择Windows系统类型。 2. 在ECS上安装JDK1.8以上版本和Eclipse,下载jedis客户端(点此处直接下载jar包)。 3. 在天翼云控制台购买DCS缓存实例。注意和ECS选择相同虚拟私有云、子网以及安全组。 4. 在ECS上运行Eclipse,创建一个java工程,为示例代码创建一个productSalesRankDemo.java文件,并将jedis客户端作为library引用到工程中。 5. 将DCS缓存实例的连接地址、端口以及连接密码配置到示例代码文件中。 6. 编译并运行得到结果。 代码示例 package dcsDemo02; import java.util.ArrayList; import java.util.List; import java.util.Set; import java.util.UUID; import redis.clients.jedis.Jedis; import redis.clients.jedis.Tuple; public class productSalesRankDemo { static final int PRODUCTKINDS 30; public static void main(String[] args) { //实例连接地址,从控制台获取 String host "192.168.0.246"; //Redis端口 int port 6379; Jedis jedisClient new Jedis(host, port); try { //实例密码 String authMsg jedisClient.auth(""); if (!authMsg.equals("OK")) { System.out.println("AUTH FAILED: " + authMsg); } //键 String key "商品热销排行榜"; jedisClient.del(key); //随机生成产品数据 List productList new ArrayList<>(); for(int i 0; i sortedProductList jedisClient.zrevrangeWithScores(key, 0, 1); for(Tuple product : sortedProductList) { System.out.println("产品ID: " + product.getElement() + ", 销量: " Double.valueOf(product.getScore()).intValue()); } System.out.println(); System.out.println(" "+key); System.out.println(" 前五大热销产品"); //获取销量前五列表并输出 Set sortedTopList jedisClient.zrevrangeWithScores(key, 0, 4); for(Tuple product : sortedTopList) { System.out.println("产品ID: " + product.getElement() + ", 销量: " Double.valueOf(product.getScore()).intValue()); } } catch (Exception e) { e.printStackTrace(); } finally { jedisClient.quit(); jedisClient.close(); } } }
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        使用Redis实现排行榜功能
      • 快速创建弹性伸缩
        本文主要介绍如何快速创建弹性伸缩。 前提条件 1. 已经创建所需的 VPC、子网、安全组、弹性负载均衡器等。 2. 如果使用密钥方式鉴权,还需要准备好密钥对。鉴权方式是指弹性伸缩活动中添加的云主机的鉴权方式。 操作步骤 1. 登录管理控制台。 2. 选择“计算 > 弹性伸缩服务”。 3. 单击“创建弹性伸缩组”。 4. 填写弹性伸缩组的基本信息,例如,名称、最大实例数、最小实例数、期望实例数。参数配置说明如下表所示。 5. 在“伸缩配置”页面,您可以选择使用已有的伸缩配置或者即时创建新的伸缩配置,更多信息请参见使用已有云主机创建伸缩配置和使用新模板创建伸缩配置。 6. (可选)为伸缩组添加伸缩策略。在“伸缩策略”页面,单击“添加伸缩策略”。配置伸缩活动触发的策略类型、执行动作、冷却时间等,根据界面提示进行参数配置,更多信息请参见动态扩展资源和按计划扩展资源。 7. 单击“立即创建”。 8. 创建伸缩组成功后,伸缩组状态变为“已启用”。 说明 如果伸缩活动是伸缩策略触发的,以伸缩策略的冷却时间为准。 如果是手工修改期望实例数量或者其他方式引起的伸缩活动,则以伸缩组的冷却时间为准。 表 伸缩组参数说明 参数 解释 取值样例 区域 区域也称为Region。创建的伸缩组所在的区域。 不同区域的资源之间内网不互通。请选择靠近您客户的区域,可以降低网络时延、提高访问速度。 可用区 可用区也称为AZ(Availability Zone)。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高应用的高可用性,建议您将云服务器创建在不同的可用区内。 如果您需要较低的网络时延,建议您将云服务器创建在相同的可用区内。 如果您选择多个可用区,为提高应用的高可用性,您的云主机会被均匀的创建在不同的可用区内。 名称 创建的伸缩组的名称。 伸缩组名称(1~64个字符)只能由中文、英文字母、数字、下划线、和中划线组成。 最大实例数 最大实例数是指伸缩组中云主机个数的最大值。 1台 期望实例数 期望实例数是指伸缩组中期望的云主机数量。 创建后可以手工修改该值,修改该值就会触发一次弹性伸缩活动。 0台 最小实例数 最小实例数是指伸缩组中云主机个数的最小值。 0台 虚拟私有云 弹性云主机使用的网络是虚拟私有云(VPC)提供的。 同一伸缩组内的弹性云主机均属于该VPC。 子网 您最多可以选择五个子网,伸缩组会自动为创建的实例绑定所有网卡。您选择的第一个子网默认作为云主机的主网卡,其它子网作为云主机的扩展网卡。 自动分配IPv6地址:当且仅当选择支持IPv6的AZ、且VPC子网开启了IPv6功能时,该参数可见。子网如何开启IPv6功能,请参见《虚拟私有云用户指南》。系统默认分配IPv4地址,勾选后,网卡的IP地址为IPv6类型。在同一VPC内,云主机通过IPv6地址在双栈ECS之间进行内网访问。如需访问外网,您需要开启“IPv6带宽”并选择共享带宽,此时云主机可以使用IPv6地址访问互联网。 实例移除策略 实例优先被移除的策略。当满足条件时,会触发实例移除活动,包括如下四种方式: 根据较早创建的配置较早创建的实例:根据“较早创建的配置”较早创建的“实例”优先被移除伸缩组。 根据较早创建的配置较晚创建的实例:根据“较早创建的配置”较晚创建的“实例”优先被移除伸缩组。 较早创建的实例:创建时间较早的实例优先被移除伸缩组。 较晚创建的实例:创建时间较晚的实例优先被移除伸缩组。 说明: 当可用区不均衡时,移出实例时会优先保证可用区均衡。 手动移入伸缩组的云主机不会遵循“实例移除策略”的要求,实例移除优先级最低,且移除时,系统不会删除该云主机。当有多个手工加入伸缩组的云主机时,移除规则是:先进先出。 弹性IP 若伸缩组的伸缩配置使用了弹性IP,在进行扩容活动时,会给创建出来的云主机绑定一个弹性IP。若选择“释放”,当进行缩容活动时,会将云主机上的弹性IP释放,否则仅做解绑定操作,保留弹性IP资源。 健康检查方式 健康检查会将异常的云主机从伸缩组中移除,并重新创建新的云主机,伸缩组的健康检查方式包括以下几种: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、删除都是云主机异常状态。默认为此选项,伸缩组会定期使用云主机健康检查结果来确定每个云主机的运行状况。如果未通过云主机健康检查,则伸缩组会将该云主机移出伸缩组。 负载均衡健康检查:是指根据ELB对云主机的健康检查结果进行的检查。只有当伸缩组使用弹性负载均衡器时,您才可以选择“负载均衡健康检查”,所有监听器下检测到的云主机状态必须均为正常,否则伸缩组会将该云主机移出伸缩组。 健康检查间隔 伸缩组执行健康检查的周期。您可以根据实际情况设置合理的健康检查间隔。 5分钟 通知方式 可选参数。如果勾选此项,伸缩组进行伸缩活动后,系统将以邮件形式通知用户本次弹性伸缩伸缩活动的结果。通知邮箱为用户注册时填写的邮箱信息。
        来自:
        帮助文档
        弹性伸缩服务 AS
        快速入门
        快速创建弹性伸缩
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • 1
      • ...
      • 274
      • 275
      • 276
      • 277
      • 278
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      产品价格

      文档下载

      订购

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号