云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      事件总线EventBridge_相关内容
      • 按时间查询
        介绍分布式消息服务Kafka按时间查询消息功能操作内容。 场景描述 Kafka按时间查询是指通过指定时间范围来查询Kafka主题中的消息。以下是一些常见的按时间查询的场景描述: 数据分析和报告:在数据分析和报告生成的场景中,经常需要按时间查询Kafka主题中的消息。通过指定起始时间和结束时间,可以获取在特定时间范围内产生的消息,用于进一步的数据分析和报告生成。 故障排查:当出现故障或问题时,按时间查询可以帮助定位问题的发生时间和相关的消息。通过指定故障发生的时间范围,可以获取相关的消息,用于故障排查和问题分析。 监控和警报:按时间查询还可以用于监控和警报系统。通过定期按时间查询Kafka主题中的消息,可以检查是否有异常或异常事件发生,并触发相应的警报机制。 数据回溯和重播:按时间查询功能还可以用于数据回溯和重播。通过指定特定的时间范围,可以获取过去某个时间段内的消息,并进行数据回溯或重播操作。 数据同步和复制:在数据同步和复制的场景中,按时间查询可以帮助确保数据的一致性。通过按时间查询源和目标主题中的消息,可以比较不同时间段内的消息,并进行数据同步和复制操作。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消息查询”后默认就是按点位查询。 (5)选择按时间查询,选择需要查询的Topic,输入分区号以及时间段,点击”查询“按钮,会返回时间段内的所有消息。 (6)点击消息列表的“消息详情”可查看消息详情信息。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息查询
        按时间查询
      • 自定义存储资源对象
        自定义通用PVC 当自定义存储类创建完成后,可以通过自定义PVC的方式,选择存储类,动态制备PV。 登录“云容器引擎”管理控制台; 在集群列表页点击进入指定集群; 进入主菜单“存储”——“持久卷声明”,单击左上角“创建持久卷声明”; 在创建对话框,配置持久卷声明PVC的相关参数。配置项说明如下: 配置项 说明 : 名称 PVC的名称 存储声明类型 这里选择“通用” 分配模式 这里选择“使用存储类” StorageClass名称 选择上一步创建的自定义StorageClass 容量 可以根据需求自定义容量 卷模式 支持两种卷模式: 1、文件系统(Filesystem):默认方式,该类型卷会被Pod挂载(Mount)到某个目录。如果卷的存储来自某块设备而该设备目前为空, Kuberneretes会在第一次挂载卷之前在设备上创建文件系统。 2、块设备(Block):这类卷以块设备的方式交给Pod使用,其上没有任何文件系统。这种模式对于为Pod提供一种使用最快可能方式来访问卷而言很有帮助,Pod和卷之间不存在文件系统层。 访问模式 支持选择以下访问模式: 1、ReadWriteOnce:卷可以被一个节点以读写方式挂载 2、ReadOnlyMany:卷可以被多个节点以只读方式挂载 3、ReadWriteMany:卷可以被多个节点以读写方式挂载 参数配置完成后,点击“确定”。创建成功后,可以在持久卷声明列表查看。 进入持久卷声明列表页,等待PVC状态为“已绑定” 。此时,进入主菜单“存储”——“持久卷“,可以看到对应的PV创建。 如果PVC一直未绑定,可以查看进入对应PVC详情页查看事件,或者查看CSI日志进行定位。 通用持久卷声明YAML示例如下: apiVersion: v1 kind: PersistentVolumeClaim metadata: name: {PVCNAME} spec: accessModes: ReadWriteOnce volumeMode: Filesystem resources: requests: storage: 1Gi storageClassName: {YOURSTORAGECLASSNAME}
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        存储
        自定义存储资源对象
      • 无状态
        特权级容器 特权级容器:即给容器赋予主机的root用户权限,一般情况下都不需要设置。一个常见的使用场景是,使用主机目录挂载时,如果该目录是root用户权限的,那么容器想要操作这么目录,那么必须开启特权级容器,开启特权容器后,容器内的用户会设置为root用户 Deployment高级设置 负载注解与负载标签 支持给Deployment设置注解,注解将会以keyvalue形式写入Deployment 支持给Deployment设置标签,标签将会以keyvalue形式写入Deployment 镜像拉取凭证 支持给Deployment设置镜像拉取凭证 镜像拉取凭证主要适用于:如果我们给Deployment设置的镜像属于私有仓库中的镜像,那么一定要先创建镜像拉取凭证,然后再此处添加镜像拉取凭证 节点选择器 支持发布Deployment到指定节点上,选择了keyvalue之后,可以通过查看节点查看Deployment可以发布到哪些节点上。 注意 如果所有的节点都无法满足节点选择器,那么Pod将不会调度,会出现类似的事件0/3 nodes match node selector。 主机别名配置 如果我们希望给运行在k8s上的Pod增加一些域名的解析(例如宿主机的主机名),那么我们可以通过主机别名配置往容器的/etc/hosts文件中添加域名解析 给Deployment设置的主机别名可以等容器启动后,进入容器终端执行命令cat/etc/hosts查看
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(旧版)
        无状态
      • 通过密钥轮转加强密钥使用的安全性
        本文为您介绍通过设置密钥轮转来加强密钥使用的安全性最佳实践。 KMS提供密钥轮转功能实现密钥版本化,从而加强密钥使用的安全性,有效提升业务数据加密的安全性。本文为您介绍如何配置对称密钥和非对称密钥的轮转。 密钥轮转的必要性 密码合规要求 相关行业标准中明确规范,要求密钥进行周期性轮转。 减少每个密钥版本加密的数据量,降低密码分析攻击风险 一个密钥的安全性与被它加密的数据量呈反相关。数据量通常是指同一个密钥加密的数据总字节数。通过定期轮转密钥,可使每个密钥具有更小的密码分析攻击面,使加密方案整体具有更高的安全性。 减少密钥破解的时间窗口 如果在定期轮转密钥的基础上,将旧密钥加密的密文数据用新密钥重新加密,则轮转周期即为一个密钥的破解时间窗口。这意味着恶意者只有在两次轮转事件之间完成破解,才能拿到数据。 密钥版本概述 KMS中的用户CMK支持多个密钥版本。每一个密钥版本是一个独立生成的密钥,同一个CMK下的多个密钥版本在密码学上互不相关。 对称密钥版本 密钥版本可通过自动轮转策略,由系统自动生成,对称密钥的版本分为主版本和非主版本。 一个对称密钥版本包含一个主版本和多个非主版本。密钥创建后KMS会生成初始密钥版本并将其设置为主版本,轮转后会生成一个新的密钥版本,并将新的密钥版本设置为主版本,原版本设置为非主版本; 在调用对称密钥进行加解密操作时,KMS默认使用主版本实现; 密钥轮转产生新的主版本后,KMS不会删除或禁用非主版本,它们需要被用作解密数据。
        来自:
        帮助文档
        密钥管理
        最佳实践
        通过密钥轮转加强密钥使用的安全性
      • 应用组件管理
        删除组件 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”。 2、选择已经创建的应用,单击应用名称,进入应用“概览”页。 3、单击“组件列表”页签: 单个删除 选择待删除的组件,在“操作”列单击“删除”,在弹出的提示框单击“确定”。 批量删除 勾选待删除的多个组件,单击“批量删除组件”,在弹出的提示框单击“确定”。 创建应用组件流水线 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”。 2、选择已经创建的应用,单击应用名称,进入应用“概览”。 3、在“组件列表”页签,单击组件名称,进入组件“概览”页。 4、选择“流水线 > 创建流水线”,创建流水线。请参考应用组件流水线。 不支持为运行时为Docker的组件创建流水线。 查看应用组件构建 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”。 2、选择已经创建的应用,单击应用名称,进入应用“概览”。 3、在“组件列表”页签,单击组件名称,进入组件“概览”页。 4、单击“构建”页签,可以查看应用组件构建工程的状态,详情请参考应用组件构建。 维护组件实例 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”。 2、选择已经创建的应用,单击应用名称,进入应用“概览”。 3、在“环境视图”页签下,选择“环境”: 可以查看各个环境下该应用组件部署情况。 (可选)选择微服务类型的应用组件版本,单击“微服务管理”,进入微服务控制台进行服务治理。详情请参考服务治理。 选择应用组件版本,单击“运维管理”,可以进入组件实例“概览”页,查看组件实例详情。 选择应用组件版本,单击“操作”,可以选择进行组件升级、伸缩、事件查看、启动/停止、重启、回退、删除等运维操作。详情请参考应用运维。 勾选“全选”或者勾选对应的应用组件,单击“升级组件”,对组件进行版本号、软件包/镜像包的变更操作。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用管理
        应用组件管理
      • 如何对外提供服务
        虚拟私有云支持单个ECS对外提供服务,本文带您快速了解通过单个ECS对外提供服务。 单个弹性云主机对外提供服务 如果您要在VPC中的单个弹性云主机实例上提供对外服务,您可申请一个弹性IP,绑定到弹性主机上,该弹性云主机即可连接公网提供服务。具体操作步骤如下: 1. 创建和配置弹性云主机实例:在天翼云管理控制台中创建弹性云主机实例,并选择合适的实例规格、操作系统和网络配置。确保为实例分配弹性IP(EIP)以使其能够与外部网络通信。 2. 配置安全组:安全组是一种虚拟防火墙,用于控制进出弹性云主机实例的流量。为该弹性云主机实例创建一个安全组,并根据应用程序的需求配置入站和出站规则。 3. 配置网络 ACL:ACL也可用于控制子网与外部网络之间的流量。确保对应的子网具有适当的入站和出站规则,以允许外部网络访问该实例提供的服务。 4. 配置路由策略:为了使外部网络能够访问该弹性云主机实例,需要相应的路由配置。 5. 配置DNS解析:将您使用的域名绑定到弹性云主机实例的弹性IP地址上,以便用户可以使用易记的域名访问您提供的服务。 通过弹性负载均衡进行流量分发 对于社交媒体热点事件、电商促销活动等高并发访问的场景,您可以通过弹性负载均衡ELB将访问流量均衡分发到多台弹性云主机上,能够应对大量用户同时访问的需求。天翼云弹性负载均衡无缝集成了弹性伸缩服务,能够根据业务流量自动扩容,保证业务稳定可靠。
        来自:
        帮助文档
        虚拟私有云 VPC
        最佳实践
        常见公网访问方法
        如何对外提供服务
      • 操作类
        发布java应用,如何设置jvm参数? 设置jvm参数是为了让java应用运行性能更优。 1. 登录微服务云应用控制台,这里以容器应用实例为例,左侧菜单栏选择“应用运维>容器应用实例>应用发布>应用实例”,选择对应的Java应用实例,进入总览页。 2. 点击“新增版本”,选中”Java启动参数配置>编辑”。 3. 设置配置预览,内存配置,GC策略,工具,自定义。 配置了服务鉴权规则,没有生效? 规则没生效有可能是规则没有设置正确,可以检查一下被调用方和接口规则设置的是否正确。 1. 到服务鉴权菜单找到对应的规则。 2. 进入到规则详情页面检查被调用方应用是否选择正确。 3. 检查接口规则是针对所有接口设置还是单独接口设置,单独接口需要检查接口路径是否正确。 查看配置的规则是否针对的某个特定接口,针对特定接口的规则只会在请求特定接口时生效。进入到服务鉴权规则列表页面,选择对应的规则惊喜编辑,将接口路径修改为正确的接口路径。 通过镜像发布,选择配置镜像,查看发布事件,提示拉取镜像失败? 配置镜像为用户直接购买的镜像服务,是由用户自己维护的,需要查看创建的镜像是否是私有镜像,私有镜像需要创建密钥,发布应用的时候选择密钥进行发布。 1. 在镜像选择界面,选择私有镜像后会出现一个创建密钥的按钮。 2. 点击创建密钥接口,可以创建新的密钥,也可以选择已经创建好的密钥。
        来自:
        帮助文档
        微服务云应用平台
        常见问题
        操作类
      • 云审计服务支持的DMS for RocketMQ操作列表
        操作名称 资源类型 事件名称 创建Topic成功 reliability ReliabilityTopicCreationSuccess 创建Topic失败 reliability ReliabilityTopicCreationFailure 修改Topic成功 reliability ReliabilityTopicModifySuccess 修改Topic失败 reliability ReliabilityTopicModifyFailure 删除Topic成功 reliability ReliabilityTopicDeletionSuccess 删除Topic失败 reliability ReliabilityTopicDeletionFailure 创建消费组成功 reliability ReliabilityCreateGroupSuccess 创建消费组失败 reliability ReliabilityCreateGroupFailure 编辑消费组成功 reliability ReliabilityGroupModifySuccess 编辑消费组失败 reliability ReliabilityGroupModifyFailure 删除消费组成功 reliability ReliabilityGroupDeletionSuccess 删除消费组失败 reliability ReliabilityGroupDeletionFailure 删除后台任务成功 reliability deleteDMSBackendJobSuccess 删除后台任务失败 reliability deleteDMSBackendJobFailure 创建DMS实例订单成功 reliability createDMSInstanceOrderSuccess 创建DMS实例订单失败 reliability createDMSInstanceOrderFailure 提交修改DMS实例订单请求成功 reliability modifyDMSInstanceOrderSuccess 提交修改DMS实例订单请求失败 reliability modifyDMSInstanceOrderFailure 提交扩容实例请求成功 reliability extendDMSInstanceSuccess 提交扩容实例请求失败 reliability extendDMSInstanceFailure 删除创建失败的DMS实例成功 reliability deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 reliability deleteDMSCreateFailureInstancesFailure 提交批量删除DMS实例请求成功 reliability batchDeleteDMSInstanceSuccess 提交批量删除DMS实例请求失败 reliability batchDeleteDMSInstanceFailure 提交修改DMS实例信息请求成功 reliability modifyDMSInstanceInfoSuccess 提交修改DMS实例信息请求失败 reliability modifyDMSInstanceInfoFailure 批量删除DMS实例任务 reliability batchDeleteDMSInstanceTask 解冻DMS实例任务执行成功 reliability unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务执行失败 reliability unfreezeDMSInstanceTaskFailure 冻结DMS实例任务执行成功 reliability freezeDMSInstanceTaskSuccess 冻结DMS实例任务执行失败 reliability freezeDMSInstanceTaskFailure 删除DMS实例任务执行成功 reliability deleteDMSInstanceTaskSuccess 删除DMS实例任务执行失败 reliability deleteDMSInstanceTaskFailure 创建DMS实例任务执行成功 reliability createDMSInstanceTaskSuccess 创建DMS实例任务执行失败 reliability createDMSInstanceTaskFailure 扩容DMS实例任务执行成功 reliability extendDMSInstanceTaskSuccess 扩容DMS实例任务执行失败 reliability extendDMSInstanceTaskFailure 修改DMS实例信息任务执行成功 reliability modifyDMSInstanceInfoTaskSuccess 修改DMS实例信息任务执行失败 reliability modifyDMSInstanceInfoTaskFailure
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的DMS for RocketMQ操作列表
      • 告警规则:查询列表v4.1
        参数 参数类型 说明 示例 下级对象 regionID String 资源池ID 81f7728662dd11ec810800155d307d5b alarmRuleID String 告警规则ID 3dbd23b274e253f8869c6fe6b07b9dba name String 规则名 告警规则名称 desc String 描述 描述 repeatTimes Integer 重复告警通知次数 1 service String 服务 ecs dimension String 维度 ecs silenceTime Integer 静默时间,单位:秒 300 recoverNotify Integer 本参数表示恢复是否通知。取值范围:0:否。1:是。根据以上范围取值。 0 notifyType Array of Strings 本参数表示告警接收策略。取值范围:email:邮件告警。sms:短信告警。根据以上范围取值。 ['email', 'sms'] contactGroupList Array of Objects 告警联系组 contactGroup notifyWeekdays Array of Integers 本参数表示通知周期。取值范围:0:周日。1:周一。2:周二。3:周三。4:周四。5:周五。6:周六。根据以上范围取值。 [0,1,2,3] notifyStart String 通知起始时段 00:00:00 notifyEnd String 通知结束时段 23:59:59 status Integer 本参数表示告警规则启用状态。取值范围:0:启用。1:停用。根据以上范围取值。 0 webhookUrl Array of Strings webhook消息推送url ['www.ctyun.cn'] resGroupID String 资源分组ID eec4a76a35ba57b891c6c4fd923351d6 createTime Integer 创建时间 1666855494 updateTime Integer 更新时间 1666856960 projectID String 项目ID resources Array of Objects 具体匹配资源 resources condition Array of Objects 触发规则的条件 condition dimensions Array of Objects 自定义监控信息,仅支持部分资源池 dimensions conditionType Integer 本参数表示告警策略触发类型。取值范围:0:或,任一条件触发。1:全部条件满足触发。根据以上范围取值。 0 alarmStatus Integer 本参数表示告警规则是否告警。取值范围:0:未触发告警。1:触发告警。2:无数据(仅部分资源池支持)。根据以上范围取值。 1 alarmType String 告警规则类型。取值范围:series:时序类监控。event:事件类。根据以上范围取值。 1 project String 告警规则来源 console
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        告警服务
        告警规则
        告警规则:查询列表v4.1
      • 数据保护技术
        本节主要介绍分布式缓存服务Redis的数据保护技术 天翼云分布式缓存服务Redis通过多种数据保护手段和措施,保障您在Redis实例上的数据的安全性。 容灾 您在创建Redis缓存实例时,可根据对数据与服务的不同可靠性要求,选择部署在单可用区内(单机房),或者跨可用区(同城灾备)。目前跨可用区在华东1、华南2支持跨可用区部署。具体请参考容灾策略。 副本冗余 当您创建标主备、集群主备、Cluster主备Redis实例后,实例将会采用主备节点的部署方式,副节点通过增量数据同步的方式来保持缓存数据一致,当网络发生异常或节点故障时,通过主备自动故障切换满足服务连续性,并且故障恢复后进行一次全量同步,保持数据一致性。具体请参考主备介绍、集群主备介绍、Cluster主备介绍。 数据持久化 在日常业务系统运行中,可能会发生一些小概率异常事件。对于那些对可靠性要求极高的业务系统而言,除了需要确保缓存实例的高可用性外,还要求对缓存数据进行安全保护、可恢复性处理,甚至要求永久保存数据备份。这样在缓存实例出现异常情况时,可以使用备份数据进行恢复,从而确保业务的正常运行。天翼云分布式缓存Redis深度优化持久化内核机制,提供 RDB+AOF 快照流水的持久化落盘方式,在提供高速数据读写能力的同时满足数据持久化需求。数据自动备份,数据容灾能力强,支持一键备份和恢复。具体备份与还原操作请参考实例备份恢复管理。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        安全
        数据保护技术
      • 管理JMeter测试报告
        概念 解释 各项指标总量 所有线程组各项指标总量的汇总。 最大并发:最大并发操作的虚拟用户数。 RPS:RPS请求总数/响应总时长。 正常返回:如设置了检查点,检查点通过的事务响应数,如未设置默认为返回2XX的事务响应数。 响应时间:指从客户端发一个请求开始计时,到客户端接收到从服务器端返回的响应结果结束所经历的时间。 响应码:记录压测任务进行中响应码分布的情况。 带宽:记录压测任务运行所消耗的实时带宽变化。 异常返回:解析失败、校验失败、响应超时、3XX、4XX、5XX、连接被拒绝的事务响应数。 SLA事件:SLA中定义的事件发生情况。 平均RPS 是指性能测试在统计周期内每秒发送到被测服务器的请求数实时统计,RPS统计周期内发送的请求数/统计周期。 平均RT 记录压测任务平均响应时间的变化。 并发数 记录压测任务运行时,当前并发操作的虚拟用户数的变化。 带宽(KB/S) 记录压测任务运行所消耗的实时带宽变化。 上行带宽:从JMeter测试执行机往外发送出去数据的速度。 下行带宽:JMeter测试执行机接收到数据的速度。 响应状态分布 正常返回、解析失败、校验失败、响应超时的每秒处理事务数,该项指标与思考时间、并发用户、服务器响应能力均有关,比如思考时间为500ms,如果服务器对于当前用户的上个请求响应时间小于500ms,则该用户每秒请求2次。 正常返回:如设置了检查点,检查点通过的事务响应数,如未设置默认为返回2XX的事务响应数。 异常返回:解析失败、校验失败、响应超时、3XX、4XX、5XX、连接被拒绝的用例响应数。 解析失败:HTTP响应无法被正常解析的数量。l校验失败:如设置了检查点,检查点未通过的事务响应数,如未设置,返回不是2XX的事务响应数。 响应超时:是在设置的响应超时时间内,对应的TCP连接中没有响应数据返回的用例请求数量。 连接被拒绝:发送报文建立连接时,服务器拒绝连接数。 其他错误:不属于以上几种错误的数量。 响应码分布 1XX/2XX/3XX/4XX/5XX。 响应时间区间比例 用例的响应时间区间比例。 TP最大响应时间 指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取对应的百分比的那个值作为TPXX的最大响应时间。 TP50:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第50%的那个值作为TP50的值。 TP75:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第75%的那个值作为TP75的值。 TP90:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第90%的那个值作为TP90的值。 TP95:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第95%的那个值作为TP95的值。 TP99:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第99%的那个值作为TP99的值。 TP99.9:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第99.9%的那个值作为TP99.9的值。 TP99.99:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第99.99%的那个值作为TP99.99的值。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        JMeter测试工程管理
        管理JMeter测试报告
      • 实例受限使用命令
        Proxy集群命令限制 1.不支持多db,只能select 0。不支持select其他db. 2.支持事务和PUB/SUB订阅,但要求相关操作的KEY都在同一个SLOT上。 3.PUB/SUB订阅不支持redis内部事件的订阅。不支持keyspace事件的订阅 以下内容为便于浏览和内容表达,本文的表格约定使用下述注释: ⭕️表示Proxy支持该命令,但存在限制,请确保命令所要操作的Key都分布在1个Slot中,例如使用Hash tag等。 ❌表示Proxy不支持该命令。 数字标记①:为兼容某些客户端框架,该命令仅返回 OK或空结果,不会真正执行。 数字标记②:该请求由Proxy直接处理返回,不受Redis DB版本限制。 类型 命令 Proxy集群 Bitmap BITOP ⭕️ Cluster management CLUSTER ADDSLOTS ① Cluster management CLUSTER ADDSLOTSRANGE ❌ Cluster management CLUSTER BUMPEPOCH ❌ Cluster management CLUSTER COUNTFAILUREREPORTS ② Cluster management CLUSTER COUNTKEYSINSLOT ② Cluster management CLUSTER DELSLOTS ① Cluster management CLUSTER DELSLOTSRANGE ❌ Cluster management CLUSTER FAILOVER ① Cluster management CLUSTER FLUSHSLOTS ❌ Cluster management CLUSTER FORGET ① Cluster management CLUSTER GETKEYSINSLOT ① Cluster management CLUSTER INFO ✔️ Cluster management CLUSTER KEYSLOT ② Cluster management CLUSTER LINKS ❌ Cluster management CLUSTER MEET ① Cluster management CLUSTER MYID ❌ Cluster management CLUSTER NODES ② Cluster management CLUSTER REPLICAS ❌ Cluster management CLUSTER REPLICATE ① Cluster management CLUSTER RESET ① Cluster management CLUSTER SAVECONFIG ① Cluster management CLUSTER SETCONFIGEPOCH ① Cluster management CLUSTER SETSLOT ① Cluster management CLUSTER SHARDS ❌ Cluster management CLUSTER SLAVES ✔️ Cluster management CLUSTER SLOTS ② Cluster management READONLY ① Cluster management READWRITE ① Connection management CLIENT CACHING ❌ Connection management CLIENT GETNAME ② Connection management CLIENT GETREDIR ② Connection management CLIENT ID ❌ Connection management CLIENT INFO ② Connection management CLIENT KILL ② Connection management CLIENT LIST ② Connection management CLIENT NOEVICT ❌ Connection management CLIENT PAUSE ❌ Connection management CLIENT REPLY ❌ Connection management CLIENT SETNAME ② Connection management CLIENT TRACKING ❌ Connection management CLIENT TRACKINGINFO ② Connection management CLIENT UNBLOCK ❌ Connection management CLIENT UNPAUSE ❌ Connection management ECHO ② Connection management HELLO ❌ Connection management PING ① Connection management QUIT ② Connection management RESET ① Connection management SELECT ❌ Generic COPY ⭕️ Generic MIGRATE ❌ Generic MOVE ❌ Generic RENAME ⭕️ Generic RENAMENX ⭕️ Generic SORT ⭕️ Generic WAIT ❌ Generic WAITOF ❌ Geospatial indices GEORADIUS ⭕️ Geospatial indices GEORADIUSBYMEMBER ⭕️ Geospatial indices GEOSEARCHSTORE ⭕️ HyperLogLog PFCOUNT ⭕️ HyperLogLog PFDEBUG ❌ HyperLogLog PFMERGE ⭕️ HyperLogLog PFSELFTEST ❌ Lists BLPOP ⭕️ Lists BLMOVE ⭕️ Lists BLMPOP ⭕️ Lists BRPOP ⭕️ Lists BRPOPLPUSH ⭕️ Lists LMOVE ⭕️ Lists LMPOP ⭕️ Lists RPOPLPUSH ⭕️ Pub/Sub PUBSUB HELP ❌ Pub/Sub SSUBSCRIBE ⭕️ Pub/Sub SUNSUBSCRIBE ⭕️ Scripting and Functions EVAL ⭕️ Scripting and Functions EVALRO ⭕️ Scripting and Functions EVALSHA ⭕️ Scripting and Functions EVALSHARO ⭕️ Scripting and Functions FCALL ⭕️ Scripting and Functions FCALLRO ⭕️ Scripting and Functions SCRIPT DEBUG ❌ Server management ACL CAT ❌ Server management ACL DELUSER ❌ Server management ACL DRYRUN ❌ Server management ACL GENPASS ❌ Server management ACL GETUSER ❌ Server management ACL HELP ❌ Server management ACL LIST ❌ Server management ACL LOAD ❌ Server management ACL LOG ❌ Server management ACL SAVE ❌ Server management ACL SETUSER ❌ Server management ACL USERS ❌ Server management ACL WHOAMI ❌ Server management BGREWRITEAOF ❌ Server management BGSAVE ❌ Server management CONFIG HELP ❌ Server management CONFIG RESETSTAT ❌ Server management CONFIG REWRITE ❌ Server management CONFIG SET ❌ Server management DEBUG OBJECT ❌ Server management DEBUG SEGFAULT ❌ Server management FAILOVER ❌ Server management LASTSAVE ❌ Server management LATENCY DOCTOR ❌ Server management LATENCY GRAPH ❌ Server management LATENCY HELP ❌ Server management LATENCY HISTOGRAM ❌ Server management LATENCY HISTORY ❌ Server management LATENCY LATEST ❌ Server management LATENCY RESET ❌ Server management MEMORY DOCTOR ❌ Server management MEMORY HELP ❌ Server management MEMORY MALLOCSTATS ❌ Server management MEMORY PURGE ❌ Server management MEMORY STATS ❌ Server management MEMORY USAGE ❌ Server management MODULE LIST ❌ Server management MODULE LOAD ❌ Server management MODULE LOADEX ❌ Server management MODULE UNLOAD ❌ Server management MONITOR ❌ Server management PSYNC ❌ Server management REPLICAOF ❌ Server management ROLE ② Server management SAVE ❌ Server management SHUTDOWN ❌ Server management SLAVEOF ❌ Server management SWAPDB ❌ Server management SYNC ❌ Sentinel SENTINEL sentinels ② ❌ Sentinel SENTINEL getmasteraddrbyname ② ❌ Sorted Set BZMPOP ⭕️ Sorted Set BZPOPMAX ⭕️ Sorted Set BZPOPMIN ⭕️ Sorted Set ZDIFF ⭕️ Sorted Set ZDIFFSTORE ⭕️ Sorted Set ZINTER ⭕️ Sorted Set ZINTERSTORE ⭕️ Sorted Set ZMPOP ⭕️ Sorted Set ZRANGESTORE ⭕️ Sorted Set ZUNION ⭕️ Sorted Set ZUNIONSTORE ⭕️ Stream XREAD ⭕️ Stream XREADGROUP ⭕️ Stream XSETID ❌ String LCS ⭕️ String MSETNX ⭕️ Transactions WATCH ⭕️
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        开源命令兼容性
        实例受限使用命令
      • 上下文查询
        本文主要介绍云日志服务如何进行上下文查询。 本小节介绍如何在云日志服务控制台查看指定日志在原始日志文件内的上下文信息。 前提条件 已创建日志项目、日志单元 已完成日志接入并已采集到日志 背景信息 日志中的上下文查询是指定日志来源和其中一条日志,将该日志在原始文件中的前若干条(上文)或后若干条日志(下文)也同时检索出来。通过查看指定日志的上下文信息,您可以在业务故障排查过程中快速查找相关故障信息,方便您快速定位问题与解决各类故障。 功能优势 上下文查询的功能优势体现在日志数据的理解和分析。当您对日志进行检索分析时,提供的上下文信息可以显著改进查询的效果和数据分析的质量。 1. 在进行故障排查时,上下文查询可以帮助您理解事件或错误发生的背景和前因后果。 2. 云日志服务具有独立性,无需改动日志文件格式也无需登录云主机服务器即可查看文件的指定日志的上下文信息。 3. 无须担心由于服务器存储空间不足或日志文件覆盖造成的数据丢失,在云日志服务控制台可以随时查看历史数据。 操作步骤 1. 登录云日志服务控制台。 2. 在日志管理页面的日志项目列表中,点击已创建的日志单元名称,进入日志单元详情页面。 3. 在日志单元详情页面中,即可查看当前日志单元中的日志数据。 4. 找到目标日志并点击上下文检索图标,打开上下文浏览界面。 5. 在上下文浏览界面中,使用鼠标在当前页面上下滚动查看指定日志的上下文信息。
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        日志查询
        上下文查询
      • Gang Scheduling调度
        指定使用智算调度器 containers: name: tensorflow image: busybox:latest imagePullPolicy: IfNotPresent command: ["sleep", "30s"] resources: limits: nvidia.com/gpu: 1 作业提交到集群后,可看到调度组件自动为这个任务创建PodGroup自定义资源对象: plaintext [root@pmb86b yaml] kubectl get pg NAME STATUS MINMEMBER RUNNINGS AGE gangexample Running 2 21s [root@pmb86b yaml] kubectl get pg gangexample oyaml apiVersion: scheduling.roc/v1beta1 kind: PodGroup metadata: annotations: kubectl.kubernetes.io/lastappliedconfiguration: {"apiVersion":"kubeflow.org/v1","kind":"TFJob","metadata":{"annotations":{},"name":"gangexample","namespace":"default"},"spec":{"tfReplicaSpecs":{"Worker":{"replicas":2,"restartPolicy":"OnFailure","template":{"spec":{"containers":[{"command":["sleep","5m"],"image":"busybox:latest","imagePullPolicy":"IfNotPresent","name":"tensorflow","resources":{"limits":{"nvidia.com/gpu":1}}}],"schedulerName":"roc"}}}}}} creationTimestamp: "20240414T03:32:54Z" generation: 5 name: gangexample namespace: default ownerReferences: lastTransitionTime: "20240414T03:33:19Z" reason: tasks in gang are ready to be scheduled status: "True" transitionID: 2afbaf4b5424414cb89aa3416925b9b0 type: Scheduled phase: Running running: 2 关键字段 minMember:minMember表示该podgroup下最少需要运行的pod或任务数量。如果集群资源不满足miniMember数量任务的运行需求,调度器将不会调度任何一个该podgroup 内的任务。 queue:queue表示该podgroup所属的queue。queue必须提前已创建且状态为open。 priorityClassName:priorityClassName表示该podgroup的优先级,用于调度器为该queue中所有podgroup进行调度时进行排序。systemnodecritical和systemclustercritical 是2个预留的值,表示最高优先级。不特别指定时,默认使用default优先级或zero优先级。 minResources:minResources表示运行该podgroup所需要的最少资源。当集群可分配资源不满足minResources时,调度器将不会调度任何一个该podgroup内的任务。 phase:phase表示该podgroup当前的状态。 conditions:conditions表示该podgroup的具体状态日志,包含了podgroup生命周期中的关键事件。
        来自:
        帮助文档
        智算套件
        用户指南
        负载调度
        Gang Scheduling调度
      • Gang Scheduling调度(1)
        指定使用智算调度器 containers: name: tensorflow image: busybox:latest imagePullPolicy: IfNotPresent command: ["sleep", "30s"] resources: limits: nvidia.com/gpu: 1 作业提交到集群后,可看到调度组件自动为这个任务创建PodGroup自定义资源对象: plaintext [root@pmb86b yaml] kubectl get pg NAME STATUS MINMEMBER RUNNINGS AGE gangexample Running 2 21s [root@pmb86b yaml] kubectl get pg gangexample oyaml apiVersion: scheduling.roc/v1beta1 kind: PodGroup metadata: annotations: kubectl.kubernetes.io/lastappliedconfiguration: {"apiVersion":"kubeflow.org/v1","kind":"TFJob","metadata":{"annotations":{},"name":"gangexample","namespace":"default"},"spec":{"tfReplicaSpecs":{"Worker":{"replicas":2,"restartPolicy":"OnFailure","template":{"spec":{"containers":[{"command":["sleep","5m"],"image":"busybox:latest","imagePullPolicy":"IfNotPresent","name":"tensorflow","resources":{"limits":{"nvidia.com/gpu":1}}}],"schedulerName":"roc"}}}}}} creationTimestamp: "20240414T03:32:54Z" generation: 5 name: gangexample namespace: default ownerReferences: lastTransitionTime: "20240414T03:33:19Z" reason: tasks in gang are ready to be scheduled status: "True" transitionID: 2afbaf4b5424414cb89aa3416925b9b0 type: Scheduled phase: Running running: 2 关键字段 minMember:minMember表示该podgroup下最少需要运行的pod或任务数量。如果集群资源不满足miniMember数量任务的运行需求,调度器将不会调度任何一个该podgroup 内的任务。 queue:queue表示该podgroup所属的queue。queue必须提前已创建且状态为open。 priorityClassName:priorityClassName表示该podgroup的优先级,用于调度器为该queue中所有podgroup进行调度时进行排序。systemnodecritical和systemclustercritical 是2个预留的值,表示最高优先级。不特别指定时,默认使用default优先级或zero优先级。 minResources:minResources表示运行该podgroup所需要的最少资源。当集群可分配资源不满足minResources时,调度器将不会调度任何一个该podgroup内的任务。 phase:phase表示该podgroup当前的状态。 conditions:conditions表示该podgroup的具体状态日志,包含了podgroup生命周期中的关键事件。
        来自:
      • MySQL锁分析
        锁分析功能支持对MySQL数据库实例进行多种类型的锁分析。 前提条件 仅限来源为天翼云RDS的MySQL数据库。 历史锁快照采集仅支持西南1、华东1、上海36、华北2、长沙42、华南2、长沙42、青岛20、南昌5、西安7、杭州7资源池。 已录入DMS中,且实例状态正常的数据库实例。 注意事项 元数据锁分析,需开启performanceschema参数,并且在performanceschema.setupinstruments中,开启wait/lock/metadata/sql/mdl。 Innodb锁分析,如果是MySQL8.0版本,需开启performanceschema。 死锁分析,需开启innodbdeadlockdetect参数。 Innodb锁最多支持10000行的锁等待分析。 元数据锁最多支持500个不同元数据对象的锁等待分析。 历史元数据锁分析,开启采集后,元数据锁快照仅保存7天。 操作步骤 1. 登录数据管理服务。 2. 在左侧导航栏中,单击 智能运维 > 锁分析,进入锁分析界面。 功能介绍 锁分析功能支持对数据库实例进行多种类型的锁分析。 实时锁分析 实时锁分析功能支持分析数据库实例正在发生的锁等待事件,包括死锁分析、元数据锁分析和Innodb锁分析。 功能名称 功能介绍 死锁分析 基于show engine innodb status,保存最近一次死锁的快照,并支持分析死锁的事务关系与回滚记录。 元数据锁分析 基于informationschema.processlist和performanceschema.metadatalocks,实时分析数据库中状态为Waiting for table metadata lock的元数据锁阻塞情况,并支持定位阻塞源。 Innodb锁分析 基于informationschema.processlist,informationschema.innodbtrx,informationschema.innodblockwaits(MySQL5.7版本)和performanceschema.datalockwaits(MySQL 8.0版本),实时分析数据中Innodb锁阻塞情况,并支持展示Innodb阻塞链关系图和定位阻塞源。
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        锁分析
        MySQL锁分析
      • 金融行业最佳实践
        客户收益 提升用户体验:通过优化网络性能和加速数据传输,客户可以获得更快速、流畅的用户体验,无论是在访问网站、进行交易还是使用移动应用,都能感受到更高的速度和效率。 增强安全性:AOne提供强大的安全防护功能,包括DDoS防护、WAF、CC防护、爬虫防护等,可以帮助客户保护敏感数据免受网络攻击和数据泄露威胁。 提高业务连续性:通过灾难恢复加速等功能,AOne可以帮助客户在网络故障或灾难事件发生时更快地恢复业务,减少业务中断时间,保障业务连续性。 节约成本:优化网络性能和减少网络延迟可以降低数据传输和服务器资源的成本,同时减少维护和运营费用。 满足监管要求:AOne的安全服务可以帮助客户满足金融行业的严格监管和合规性要求,保护客户数据的隐私和保密性。 扩展地域业务:通过多地域节点支持,客户可以更好地扩展地域业务,为不同地区的用户提供高质量的服务和体验。 增强客户信任:通过提供安全的网络环境和优化的用户体验,金融机构可以赢得客户的信任和忠诚度,增加客户满意度。 快速入门 场景 说明 相关文档 开通服务 开通安全与加速服务 服务开通 新增域名 添加域名 新增域名(含IPv6开关) 域名归属权验证指南 配置加速 配置源站信息、缓存、动态加速等 配置加速规则 配置防护 配置Web防护、DDoS防护、CC防护、BOT防护等 Web防护配置 DDoS防护 CC防护 Bot防护 访问控制
        来自:
        帮助文档
        边缘安全加速平台
        最佳实践
        行业最佳实践
        金融行业最佳实践
      • MySQL使用规范建议
        索引设计规范 单表的索引数量最好不超过5个,单个索引中的字段数最好不超过5个,避免因长时间锁定数据导致内存、连接消耗过多等问题。 确保索引字段长度固定且不宜过长。过长的索引字段会占用更多磁盘空间,并影响索引的性能。 避免冗余索引,即存在两个索引 (a,b) 和 (a) 的情况,若查询条件为a列,只需建立 (a,b) 索引即可,不需要额外建立 (a) 索引。 对于高过滤性的字段,考虑在其上加索引。高过滤性字段的索引可以提高查询效率。 注意选择性和数据类型。选择性高的字段和合适的数据类型可以提高索引效果和查询性能。 合理利用覆盖索引来减少I/O开销,通过创建包含所需列的复合索引,避免回表操作。 开发使用规范 在处理复杂运算或业务逻辑时,优先考虑在业务层实现,而非在SQL中进行。合理选择分页方式以提高分页效率,避免使用跳跃式分页。 在事务中使用更新语句时,尽量基于主键或唯一键进行操作,避免产生间隙锁和死锁。 尽量避免使用外键和级联更新,应该在应用层处理外键关系。 减少使用in操作,集合元素数量不应超过1000个。 对于批量数据操作,可以适度采用批量SQL语句,例如使用insert into...values语句批量插入数据,但不宜超过100个。 避免使用存储过程,存储过程难以调试、扩展和移植。 避免使用触发器、事件调度器和视图来实现业务逻辑,这些应该在业务层处理,避免对数据库产生逻辑依赖。 避免使用隐式类型转换,了解类型转换规则,确保比较操作符两边的数据类型一致,避免影响查询性能。 在一个事务中,尽量控制SQL语句的数量,不超过5个,避免长时间锁定数据、内存缓存问题和连接消耗过多。 利用覆盖索引来进行查询操作,避免回表。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        MySQL使用规范建议
      • 授权安全通信
        本章节主要介绍如何授权安全通信。 MRS集群通过管理控制台为用户发放、管理和使用大数据组件,大数据组件部署在用户的VPC内部,MRS管理控制台需要直接访问部署在用户VPC内的大数据组件时需要开通相应的安全组规则,而开通相应的安全组规则需要获取用户授权,此授权过程称为通信安全授权。 若不开启通信安全授权,MRS将无法创建集群。集群创建成功后若关闭通信将导致集群状态为“网络通道未授权”且如下功能将受到影响: 大数据组件安装、集群扩容、集群缩容、升级Master节点规格功能不可用。 集群的运行状态、告警、事件无法监控。 集群详情页的节点管理、组件管理、告警管理、文件管理、作业管理、补丁管理、租户管理功能不可用。 Manager页面、各组件的Web站点无法访问。 再次开启通信安全授权,集群状态会恢复为“运行中”,以上功能将恢复为可用。具体操作请参见下方 为关闭安全通信的集群开启安全通信。 当集群中授权的安全组规则不足以支撑MRS集群管理控制台为用户发放、管理和使用大数据组件的操作时,“通信安全授权”右侧出现的提示,请单击“一键修复”按钮进行修复,具体请参考下方 一键修复。 创建集群时开启安全通信 1.登录MRS管理控制台。 2.单击“创建集群”,进入创建集群页面。 3.在创建集群页面,选择“快速创建”或“自定义创建”。 4.参考快速创建集群或创建自定义集群配置集群信息。 5.在“通信安全授权”栏,勾选“确认授权”。 6.单击“立即创建”创建集群。 当集群开启Kerberos认证时,需要确认是否需要开启Kerberos认证,若确认开启请单击“继续”,若无需开启Kerberos认证请单击“返回”关闭Kerberos认证后再创建集群。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        授权安全通信
      • SpringBoot集成Lettuce
        自动刷新时间 spring.redis.lettuce.cluster.refresh.period60 开启自适应刷新 spring.redis.lettuce.cluster.refresh.adaptivetrue spring.redis.timeout60 i. Redis配置类RedisConfiguration,请务必开启集群自动刷新拓扑配置。 @Bean public LettuceConnectionFactory lettuceConnectionFactory() { String[] nodes clusterNodes.split(","); List listNodes new ArrayList(); for (String node : nodes) { String[] ipAndPort node.split(":"); RedisNode redisNode new RedisNode(ipAndPort[0], Integer.parseInt(ipAndPort[1])); listNodes.add(redisNode); } RedisClusterConfiguration redisClusterConfiguration new RedisClusterConfiguration(); redisClusterConfiguration.setClusterNodes(listNodes); redisClusterConfiguration.setPassword(password); redisClusterConfiguration.setMaxRedirects(maxRedirects); // 配置集群自动刷新拓扑 ClusterTopologyRefreshOptions topologyRefreshOptions ClusterTopologyRefreshOptions.builder() .enablePeriodicRefresh(Duration.ofSeconds(period)) //按照周期刷新拓扑 .enableAllAdaptiveRefreshTriggers() //根据事件刷新拓扑 .build(); ClusterClientOptions clusterClientOptions ClusterClientOptions.builder() //redis命令超时时间,超时后才会使用新的拓扑信息重新建立连接 .timeoutOptions(TimeoutOptions.enabled(Duration.ofSeconds(period))) .topologyRefreshOptions(topologyRefreshOptions) .build(); LettuceClientConfiguration clientConfig LettucePoolingClientConfiguration.builder() .commandTimeout(Duration.ofSeconds(timeout)) .readFrom(ReadFrom.REPLICAPREFERRED) // 优先从副本读取 .clientOptions(clusterClientOptions) .build(); LettuceConnectionFactory factory new LettuceConnectionFactory(redisClusterConfiguration, clientConfig); return factory; } @Bean public RedisTemplate redisTemplate(LettuceConnectionFactory lettuceConnectionFactory) { RedisTemplate template new RedisTemplate<>(); template.setConnectionFactory(lettuceConnectionFactory); //使用Jackson2JsonRedisSerializer替换默认的JdkSerializationRedisSerializer来序列化和反序列化redis的value值 Jackson2JsonRedisSerializer jackson2JsonRedisSerializer new Jackson2JsonRedisSerializer<>(Object.class); ObjectMapper mapper new ObjectMapper(); mapper.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY); mapper.activateDefaultTyping(LaissezFaireSubTypeValidator.instance, ObjectMapper.DefaultTyping.NONFINAL, JsonTypeInfo.As.PROPERTY); jackson2JsonRedisSerializer.setObjectMapper(mapper); StringRedisSerializer stringRedisSerializer new StringRedisSerializer(); //key采用String的序列化方式 template.setKeySerializer(stringRedisSerializer); // hash的key也采用String的序列化方式 template.setHashKeySerializer(stringRedisSerializer); // value序列化方式采用jackson template.setValueSerializer(jackson2JsonRedisSerializer); // hash的value序列化方式采用jackson template.setHashValueSerializer(jackson2JsonRedisSerializer); template.afterPropertiesSet(); return template; } springboot+lettuce连接池方式连接Redis Cluster集群代码示例。 J . 在application.properties配置文件中加上Redis相关配置。 spring.redis.cluster.nodeshost:port spring.redis.cluster.maxredirects3 spring.redis.passwordpwd spring.redis.lettuce.cluster.refresh.period60 spring.redis.lettuce.cluster.refresh.adaptivetrue
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        SpringBoot集成Lettuce
      • 约束与限制
        本章节主要介绍数据治理中心的约束与限制。 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 115,114,113 Windows 10 分辨率最佳可视范围为最小1366768px,最大为19201080px。其中19201080px为最佳显示分辨率,界面自适应为最优显示。 使用限制 使用DataArts Studio前,您需要认真阅读并了解以下使用限制。 表2 DataArts Studio使用限制一览表 组件 约束限制 公共 DataArts Studio基于数据湖底座提供数据一站式集成、开发、治理等能力,本身不具备存储和计算的能力,需要配合数据湖底座使用。 每个企业项目下最多绑定一个DataArts Studio实例。当企业项目下已绑定实例时,再次创建实例会失败。 DataArts Studio各组件对不同数据源的支持程度不一,您需要按照您的业务需求来选择数据湖底座。DataArts Studio平台当前支持的数据湖产品请参见“DataArts Studio用户指南 > 管理中心 > DataArts Studio支持的数据源”。 管理中心 由于管理中心的限制,数据治理各组件(如数据架构、数据质量、数据目录等)暂不支持包含中文和“.”字符的库表名。 建议为管理中心数据连接的Agent和CDM迁移作业规划相互独立的CDM集群,避免双方使用同一集群,导致业务高峰期时资源抢占引起业务不可用。 CDM集群作为管理中心数据连接Agent时,单集群无法连接多个MRS安全集群。建议您按照业务情况规划多个Agent与MRS安全集群一一映射。 CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 单工作空间允许创建的数据连接个数最多200个。 管理中心相关开放API并发限制为100qps。 数据集成 CDM作业支持自动备份和恢复,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据集成 > 管理作业 > 作业配置管理”章节。 CDM作业本身无配额限制,但建议作业数不超过CDM集群的vCPU核数2,否则作业运行性能可能会受到一定影响。 数据集成CDM集群为单集群部署,集群故障可能会导致业务、数据损失。建议您使用数据开发作业CDM Job节点调用CDM作业,并选择两个CDM集群以提升可靠性。详情请参见用户指南中“数据开发 > 节点参考 > CDM Job”章节。 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 在驱动更新场景下,上传驱动后必须在CDM集群列表中重启集群才能更新生效。 单作业的抽取并发数取值范围为1300,集群的总抽取并发数取值范围为11000。其中集群最大抽取并发数的设置与CDM集群规格有关,并发数上限建议配置为vCPU核数2,作业的抽取并发数建议不超过集群的总抽取并发数,过高的并发数可能导致内存溢出,请谨慎修改。 关于数据集成中的更多约束限制,请参考用户指南中“数据集成> 约束与限制”章节。 数据开发 数据开发脚本、作业等资产支持备份管理,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据开发 > 运维调度 > 备份管理”章节。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。 上传资源时,如果资源位置为HDFS,则只支持MRS Spark,MRS Flink Job,MRS MapReduce节点使用该资源。 单工作空间允许创建的脚本个数最多1万个,脚本目录最多5000个,目录层级最多为10层。 单工作空间允许创建的作业个数最多1万个,作业目录最多5000个,目录层级最多为10层。 RDS SQL、DWS SQL、HIVE SQL、SPARK SQL、DLI SQL脚本执行结果页面展示最多1千条,且数据量少于3MB。超过1千条数据可以使用转储功能,转储最多支持1万条。 实例监控、补数据监控只能展示最近6个月的数据。 通知记录只能展示最近30天的数据。 下载中心的下载记录会每7天做老化处理,老化时下载中心记录和已转储的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模和维度建模(仅支持星形模型)这两种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 码表和数据标准的根目录下禁止直接创建码表和数据标准。 单工作空间中创建各类对象的配额如下: l主题5000个。 l数据标准目录500条,个数20000个。 l业务指标100000个。 l原子指标、衍生指标、复合指标各5000条。 配置中心中各类对象的自定义项配额如下: l主题自定义项10条。 l表自定义项30条。 l属性自定义项10条。 l业务指标自定义项50条。 数据质量 数据质量作业执行时长依赖数据引擎,如果底层数据引擎资源不足,可能会导致运行速度变慢。 单个数据质量作业最多可以配置50条规则,如有需要可拆分为多个质量作业。 单个数据连接上的质量作业关联SQL的并发数默认为1000,如果超出则等待排队执行。可配置范围101000。 单Region内的质量作业关联SQL的并发数为10000,如果超出则等待排队执行。 业务指标监控模块总览中的实例运行状态和实例告警状态支持按照7天展示,告警趋势、业务看板、指标看板支持按照7天、15天和30天展示。 数据质量监控模块总览中的变化趋势支持按照30天展示,质量告警分类趋势和规则数量趋势支持按照7天展示。 质量报告采用T+1日定时批量生成,质量报告数据保留90天。 导出质量报告至OBS,会将质量报告导出到工作空间中配置的作业日志OBS路径中,导出记录保留3个月。 数据目录 单工作空间中元数据采集任务最多创建100个。 元数据采集任务通过执行引擎相关的DDL SQL获取,不建议单个任务采集超过1000张表。如有需要可拆分为多个采集任务,另外调度时间和频次也需要根据业务需要进行合理设置,避免对引擎造成较大的访问和连接压力,设置建议如下: l若业务对元数据时效性要求为1天,则设置调度周期max(1天,单次采集周期时间),其他情况同理。 l若业务压力集中在白天,则设置调度时间在夜间,其他情况同理,选择数据源压力最小的时间段。 数据血缘的产生依赖于数据开发中调度运行的作业,测试运行的作业不会产生血缘。 元数据采集模块总览中的数据连接历史统计支持按照7天、15天和30天展示。 数据服务 数据服务共享版仅供开发测试使用,专享版性能优于共享版,推荐使用数据服务专享版。 DataArts Studio实例下最多支持创建5个数据服务专享版集群,且集群需要与某个工作空间绑定,不能多空间共用同一集群。 数据服务专享版集群创建后暂不支持修改规格或升级版本。 DataArts Studio实例下支持创建的专享版API最大数量由数据服务专享版API总分配配额(默认为5000)和当前实例下集群的API规格总和共同决定,取较小的作为限制。例如,某DataArts Studio实例下的数据服务专享版API总分配配额为5000,已分别创建了API规格为500和2000的两个集群,则当前实例下支持创建的专享版API最大数量为2500。 单工作空间下支持创建的专享版API最大数量由数据服务专享版API已分配配额(通过编辑工作空间信息分配)和当前空间下集群的API规格总和共同决定,取较小的作为限制。例如,某工作空间下的数据服务专享版API已分配配额为800,当前工作空间下已创建了API规格为500的两个集群,则当前工作空间下支持创建的专享版API最大数量为800。 单工作空间下支持创建的应用数量为1000。 单工作空间下支持创建的流控策略数量为500。 数据服务支持跟踪并保存事件。对于每个事件,数据服务会报告事件发生日期、说明、时间源(某个集群)等信息,事件保存时长为30天。 数据服务专享版日志信息仅查询集群最近100条访问记录,均分至集群全部所属节点中获取。 总览中的调用趋势、发布趋势、调用比率 top5、调用时间 top5和调用次数 top5支持按照近12小时、近1天、近7天和近30天展示,总调用数为前7天数据总和(不含当天)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        约束与限制
      • 实例概述
        本章节主要介绍物理机实例概述。 实例概述 物理机实例即您创建的一台物理机服务器。不同实例类型提供不同的计算能力、存储空间、网络性能,您可以基于业务需求选择不同类型的实例。当天翼云向您交付一个实例时,您将获得这台服务器完整的控制权限,包括开机、关机、带内管理等。 实例类型 目前天翼云提供的物理机CPU,均为x86架构,根据业务需求选购不同配置的物理机服务器。 x86 V4实例(CPU采用Intel Broadwell架构) x86 V5实例(CPU采用Intel Skylake架构) x86 V6实例(CPU采用Intel Cascade Lake架构) 其他说明 基于本地盘的物理机服务器,系统盘默认RAID 1,数据盘默认直通盘。如果需要更改数据盘RAID配置,可以联系管理员变更。系统盘RAID不支持变配。 常用的RAID级别 RAID 0 RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O要求高,但数据安全性要求低的场合。 图1 RAID 0数据存储原理 RAID 1 RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半以下,因此常用于对容错要求较高的应用场合,如财政、金融等领域。 图2 RAID 1数据存储原理 RAID 5 RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。 图3 RAID 5数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 6 在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块磁盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的磁盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。 图4 RAID 6数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。 RAID 10 RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 0+RAID 1的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。 图5 RAID 10数据存储原理 RAID 50 RAID 50被称为镜像阵列条带,即RAID 5 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图6 RAID 50数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 60 RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图7 RAID 60数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        实例规格说明
        实例概述
      • 管理类
        文件系统支持数据备份功能吗? 暂不支持文件系统级别备份,您可以参考使用云备份CTCBR(Cloud Backup&Recovery)服务,它是一个简单易用、经济高效、安全可靠的一键式备份方案。通过集中管理界面,为天翼云中承载用户业务的云主机中的目录/文件等资源提供统一数据保护。 面向将业务部署在天翼云中的企业,云备份提供简单易用的备份能力。当发生软件错误、病毒入侵、人为删除等事件时,云备份可将数据恢复到任意备份点,减轻经济损失。 弹性文件服务和云硬盘的共享盘有何区别? 弹性文件服务支持多个客户端同时挂载并读写,即Client1和Client2 …ClientN都可以向同一个文件系统中写入数据、访问数据,相较于对象存储和云硬盘的最大优势就是可以用于共享访问,如企业办公、媒体处理等协作场景。 云硬盘的共享盘可以同时挂载至多台云主机,但共享盘必须在集群管理环境中使用,直接将共享盘挂载至多台云主机无法实现共享功能,且存在数据被覆盖的风险,即可能存在写冲突,具体说明参见支持云硬盘共享功能。 弹性文件服务是否支持目录级别权限控制? 弹性文件服务支持通过在文件系统上挂载后,创建多个子目录并为每个子目录分配不同的用户账户,实现多用户之间的访问权限隔离。每个用户只能访问和操作分配给他们的特定子目录,而不能访问其他用户的子目录。具体操作请参考最佳实践:弹性文件服务子目录权限隔离。 这里的用户账户是操作系统层面的账户,是在云主机等计算服务上创建的,可以被用来访问和操作挂载的文件系统中的子目录,而不是天翼云官网账号,也不是指多个实际的人共享同一台云主机的资源。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        管理类
      • 操作类
        设备流状态显示超码率,如何解决? 当设备成功接入到智能视图服务平台并保持流在线后,可以在设备详情页实时查看当前设备当前码率。当摄像头码率超过所配置的资源包码率时,设备流将无法正常上线,用户可通过流状态或设备事件查看到超码率异常提示。 可通过以下方式来解决超码率问题: 通过智能视图服务订购页面购买码率更高的资源包,并绑定至该设备。 在摄像头本地控制台通过定码率的方式将码率上限调整为低于资源包码率。 视频流为什么播放时卡顿? 实时预览摄像头画面时,出现播放卡顿的情况,请按如下步骤排查: 1. 检查摄像头自身控制台配置,请根据摄像头的实际网络情况选择合适码率的视频流。 2. 请检查实时预览所在网络的带宽是否满足摄像头的码率。若带宽低于摄像头配置的码率,请降低摄像头码率或购买更高的网络带宽。 球机PTZ转动过程中为什么出现画面卡顿或不清晰? PTZ控制球机在转动的过程中,实际上是改变镜头的方向,而且在转动过程中,相机会不断地改变焦距和曝光等设置,相机参数变化太快会影响图像的质量。 因此,如果球机转动的速度太快,或者球机镜头的显示质量不高,就可能会导致画面卡顿或变得不清晰。 当球机转动结束之后,相机会自动对焦等设置回归到正常,这时候画面就恢复了正常。如果球机镜头的显示质量较好,并且转动的速度不过快,就不会出现画面卡顿或变得不清晰的情况。
        来自:
        帮助文档
        智能视图服务
        常见问题
        操作类
      • 数据源
        本小节介绍日志审计(原生版)数据源用户指南。 数据源是获取需要展示日志/告警字段条件数据,配置后可在报表中选择并通过图表的形式展示。 新增数据源 1. 登录日志审计(原生版)控制台。 2. 在左侧导航栏选择“审计报表 > 数据源”,进入“数据源”页面。 3. 单击“新增”,并填写新增数据源的相关参数。 参数 参数说明 取值样例 数据源名称 自定义需要创建的数据源名称。 Test 是否抽样统计 确认是否使用抽样统计,默认否。 统计时间间隔 选择该数据源的统计的时间间隔,可选择“分钟”、“小时”或“天”为基础单位。 12小时 数据存放时间 选择数据生成后,在服务中存放的时间,以“天”为基础单位。 7天 数据源描述 自定义数据源的描述内容。 字段类型 选择数据源采集的字段类型,可选“告警类型”或“事件类型”。 告警类型 过滤条件 选择字段条件,多个字段条件通过逻辑关系符关联。 统计字段 选择需要进行统计的字段,可新增多个统计字段,至少新增一个。 分组字段 选择合适的分组字段,已选统计字段不可再次选择,可新增多个分组字段。 4. 填写完成后,单击“确定”,完成数据源新建。 注意 数据源添加完成,每天凌晨3点定时跑任务,获取前一天符合条件的数据。 后续操作 检查数据源:单击“操作”列的“检查”按钮,若数据源已成功录入,则提示“数据源数据存在”。反之,提示“数据源数据不存在”。 编辑数据源:单击“操作”列的“编辑”按钮,在跳转的页面中修改相关参数,修改完成后,单击“确认”即可完成修改。 说明 不支持对“统计字段”和“分组字段”进行修改。 删除数据源:单击“操作”列的“删除”按钮,在跳出的小对话框中单击“确定”,完成删除操作。 说明 若存在报表已经已经引用,则无法删除该数据源,提示“报表存在引用的数据源,不可删除!”。
        来自:
      • 产品优势
        本文介绍数据管理服务的优势和特点,帮助您快速了解数据管理服务。 支持多源异构数据库 数据管理服务DMS致力于构建企业级一站式数据管理平台,为各行业在异构、多云、多环境下的数据库提供统一的管理、运维和研发支持。 支持多种数据库类型,如MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse等。 支持公网、天翼云RDS等来源的数据库。 安全可靠 数据管理服务DMS采用了一系列安全措施,以保障数据和元数据的安全,为企业数据库核心资产保驾护航。 提供了角色权限管理功能,允许企业为不同用户分配不同的权限,确保数据的访问和操作符合企业的安全策略。 支持元数据按团队隔离,大型组织可将实例和人员进行划分并归属不同团队,实现管理域分割,降低跨域越权访问风险。 全员、全生命周期的数据库审计,支持DMS操作审计和数据库内核全量SQL审计,确保数据库操作可追溯。 支持按实例、库/模式、表级进行细粒度的数据权限管控,保障企业数据安全。 提供账密托管能力,普通用户使用数据库不直接接触账密,减少数据库账密泄漏的概率,进一步保障数据库安全。 支持高危操作审批,通过定义不同操作对应的风险等级,可支撑高危操作下强制进行审批的场景,减少操作风险。 脚本和可视化操作双重支持 数据管理服务DMS支持用户编写SQL操作数据库,并支持将常用SQL保存为脚本。此外还支持对表、视图、存储过程、函数、事件、触发器等主要对象的可视化管理功能。 这些功能让用户可以通过直观的图形界面对数据库对象进行创建、修改、删除等操作,无需编写复杂的SQL语句,在满足用户数据库操作的灵活性之余,大大降低了操作门槛,使得非专业数据库管理员也能轻松地进行数据库管理。
        来自:
        帮助文档
        数据管理服务
        产品介绍
        产品优势
      • 日志投递
        字段 字段说明 策略名称 投递策略名称,可设置便于您记忆和辨识的相关策略名称。 策略描述 投递策略描述,用于记录相应策略信息,增加对应描述和备注。 投递方式 投递的方式,目前支持:Kafka、Syslog服务器(可选TCP或UDP协议)、SLS(天翼云)。 投递日志类型 每个投递策略只能投递一种日志类型,若您需要投递多个日志类型,则可创建多个日志投递策略。当前可投递日志类型为:内网审计日志、终端登录日志、平台操作日志、网关防护日志、策略处置记录。 投递设置 设置投递方式的详细配置,具体参数如下: 1、Kafka:需设置Kafka服务器地址、Topic(Kafka事件流主体)、认证方式(可选:无、SASL/PLAIN),若选择认证方式,则需提供用户名、密码。 2、Syslog服务器:需设置Syslog服务器地址,投递协议可选:TCP、UDP。 3、SLS(天翼云):需设置云日志服务访问地址、accessKey、secretkey、日志项目编码、日志单元编码。 说明 天翼云sls的日志投递方式受限于天翼云sls(云日志服务)产品对不同服务区域的功能限制,部分服务区域不支持公网方式传输,具体 内网访问 可选开启内网访问,使用连接器内网通道安全投递,减少投递服务器的公网暴露面,确保数据安全。 若您的Syslog服务器位于内网,请勾选并配置连接器集群,内网访问不支持域名方式访问。 勾选内网访问后,需选择关联的连接器集群,用于走该连接器的网络通道,将投递日志传输到您接收投递日志的相应服务器,请确保连接器集群到服务器地址网络可达。 策略状态 投递策略可选开启和关闭。 时间 展示更新时间、创建时间。 操作 详情:查看投递策略详情。 修改:修改投递策略配置,不支持修改投递方式。 删除:删除投递策略。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        零信任网络日志
        日志投递
      • 漏洞检测类
        本节介绍WAF对SQL注入、XSS等漏洞的检测原理。 WAF对SQL注入的检测原理? SQL(Structured Query Language)注入攻击是一种常见的Web攻击方法,攻击者通过把SQL命令注入到数据库的查询字符串中,最终达到欺骗服务器执行恶意SQL命令的目的。例如,可以从数据库获取敏感信息,或者利用数据库的特性执行添加用户、导出文件等一系列恶意操作,甚至有可能获取数据库乃至系统用户最高权限。 WAF针对SQL注入攻击的检测原理是检测SQL关键字、特殊符号、运算符、操作符、注释符的相关组合特征,并进行匹配。 SQL关键字(如 union,Select,from,as,asc,desc,order by,sort,and ,or,load,delete,update,execute,count,top,between,declare,distinct,distinctrow,sleep,waitfor,delay,having,sysdate,when,dbauser,case,delay 等) 特殊符号(’”,; ()) 运算符(±/%) 操作符(,>, , 、’、”) 外部链接(href“http://xxx/”,src"http://xxx/attack.js") 说明 如果业务需要上传富文本,可以用multipart方式上传,不用body方式上传,放在表单里,即使base64编码也会解码。分析业务场景,建议限制引号、尖括号输入。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        常见问题
        产品咨询
        漏洞检测类
      • 数据库克隆
        数据管理服务支持数据来源为云数据库、数据类型为MySQL、地域/资源池一致的不同实例之间进行数据复制,本文介绍如何提交复制任务。 注意 仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 前提条件 操作用户拥有对源数据库与目标数据库的的读写权限。 源数据库与目标数据库均已是登录状态。 操作步骤 1. 登录数据管理服务控制台。 2. 打开左侧导航栏,选择开发空间> 数据复制 ,进入数据复制管理页面,开始创建复制任务。 3. 单击数据复制选项,按照要求填写数据复制工单,具体的填写说明如下表所示。 输入内容 说明 源数据库 数据库实例选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持来源为云数据库的MySQL。 源数据库表选择 根据需求选择全部表或部分表。 请选择表 若在源数据库表选择中选中部分表选项,则可以根据需求在请选择表下拉选项中选择需要克隆的表。 目标数据库 数据库实例选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持来源为云数据库的MySQL。 复制范围 根据需求选择表结构或全量数据。 附加范围 根据需求选择视图、存储过程、函数、事件、触发器五个选项中的一个或者多个。 同名对象处理 根据需求选择跳过同名对象或覆盖同名对象。 计划执行时间 根据需求选择立即执行或指定时间。 选择日期时间 若在计划执行时间选择指定时间,则可以在选择日期时间根据需求选择开始时间点。 工单说明 描述工单备注内容。 4. 按照需求填写好数据复制工单后,单击提交选项完成工单的提交,等待数据复制完成。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        数据库克隆
      • 通过客户端连接方式
        Node.js Redis客户端 使用Node.js Redis客户端连接Redis步骤如下: 1.安装依赖:在 Node.js 项目中,首先需要安装 noderedis 模块。可以通过 npm 命令进行安装: npm install redis 2.引入模块:在需要连接 Redis 的代码文件中,使用 require 方法引入 noderedis 模块。 const redis require('redis'); 3.创建 Redis 客户端实例:通过调用 redis.createClient() 方法创建 Redis 客户端实例。 const client redis.createClient(); 这将创建一个默认配置的 Redis 客户端实例,连接到本地的 Redis 服务器(默认端口为 6379)。 如果需要指定 Redis 服务器的主机名和端口号,可以在 createClient() 方法中传递相应的参数: const client redis.createClient({ host: 'redisip', port: redisport }); 4.执行 Redis 操作:通过调用 Redis 客户端实例的方法,可以执行各种 Redis 操作。以下是一些常见的操作示例: 设置键值对: client.set('key', 'value', (err, result) > { if (err) { console.error(err); } else { console.log('Keyvalue pair has been set successfully'); } }); 获取键值对: client.get('key', (err, result) > { if (err) { console.error(err); } else { console.log('Value:', result); } }); 可根据具体需求执行其他类型的 Redis 操作,如哈希表操作、列表操作、集合操作等。 5.处理连接异常:在使用 Redis 客户端时,需要注意处理连接异常的情况。可以通过监听 error 事件来捕获连接错误和网络错误,并进行适当的处理。 client.on('error', (err) > { console.error('Redis connection error:', err); }); 6.关闭连接:在使用完 Redis 客户端后,应该关闭与 Redis 服务器的连接,释放资源。 client.quit((err) > { if (err) { console.error('Error while quitting Redis connection:', err); } else { console.log('Redis connection has been closed'); } }); 可以通过调用 quit() 方法来关闭连接,并在回调函数中处理关闭连接的结果。 以上是使用 Node.js 中的 noderedis 客户端连接 Redis 的基本操作步骤。根据实际需求,可以根据以上示例代码进行扩展和定制化开发。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        连接实例
        通过客户端连接方式
      • 集群版客户端常见错误码有哪些?
        本文介绍Redis集群版客户端常见错误码 50010001:路由队列堵塞。 50010002:添加路由队列异常。 50010003: 路由处理异常。 50010004:注册客户端读失败。 50010005:超过允许的最大客户端连接数。 50010006:注册目标路由读事件异常。 50010007:单个客户端连接请求数大于规定值。 50010008:协议异常,一般为客户端发送了不支持的命令或者断开连接。 50010009:不完整的报文。 50010010:读取redis超时。表示已经发送给redis,redis处理超时;检查请求报文是否过大,如果请求报文过大,建议拆小。 50010011:网络io异常。 50010012:目标服务器繁忙,稍后再试。 50010013:获取目标路由主机失败,检查redis机器是否io繁忙。 50010014:路由主机配置端口不合法。 50010015:连接目标主机失败。 50010016:目标主机网络繁忙。 50010017:路由发送给目标主机时网络错误。 50010018:读取解析客户端请求失败。 50010019:注册redis服务端返回失败。 50010020:redis read io exception。 50010021:接入机内部异常。 50010022:内存池不够。 50010023:处理客户端报文异常。 50010024:route 程序bug。 50010025:没有该分组权限。 50010026:实例密码错误。 50010027:集群版鉴权实例名错误。 50010028:客户端IP不在IP白名单内。 50010029: 用户时间失效。 50010030:解析报文失败。 50010031:鉴权信息不完整。 50010032:尚未通过鉴权,未获取到鉴权通过信息。 50010033:尚未通过鉴权,未获取到鉴权分组信息。 50010034:尚未选择分组,未获取到选择分组信息。 50010036:dborder越界。 50010037:获取接入机对应用户名失败。 50010038:订单服务冻结,获取接入机服务失败。 50010039:该分组不存在。 50010040:操作的集合个数不能超过10个。 50010041:每个集合的大小不能超过1000个。 50010042:接入机改造命令限制30k。 50010043:该账户禁止写数据。 50010044:读取redis返回报文串包。 50010047:订阅连接超时错误码。 50010048:接入机不支持的命令。 50010049:接入机read only错误。 50010050:redis内存满。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        Redis使用
        集群版客户端常见错误码有哪些?
      • 查看实例监控
        本节主要介绍如何查看实例监控信息。 操作场景 当剧本执行完成后,剧本实例管理列表中会生成剧本实例,即剧本实例监控。实例监控列表每条记录是一个实例,可呈现实例的历史实例任务列表,以及历史实例任务的运行情况。 约束与限制 流程实例最大手动重试次数为3次,且重试之后,须等剧本执行完毕之后才允许再次重试。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“安全编排 > 剧本编排”,进入剧本管理页面后,选择“实例管理”页签,进入实例管理页面。 5. 在实例管理列表中,可查看实例名称、剧本名称、数据类等,参数说明如下表所示。 参数名称 参数说明 实例名称 实例的名称。 剧本名称 实例对应的剧本名称。 数据类 剧本的运营对象,即数据类。 触发方式 实例的触发方式。 定时触发 事件触发 状态 实例的状态。 成功:剧本实例成功执行。 失败:剧本实例执行失败,单击操作列的重试可重新执行剧本。 运行中:剧本实例处于运行状态,单击操作列的终止可终止剧本。 重试中:剧本实例正在重试中。 终止中:剧本实例正在终止。 已终止:剧本实例已经成功终止。 上下文 实例的上下文信息。 实例创建时间 实例创建的具体时间。 实例结束时间 实例结束的具体时间。 操作 用户可执行终止、重试等操作。 6. 如需查看某个实例的详细信息,可以单击任一实例名称,进入剧本实例图页面,可查看实例流程图和流程节点信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        安全编排
        剧本编排管理
        实例管理
        查看实例监控
      • 1
      • ...
      • 40
      • 41
      • 42
      • 43
      • 44
      • ...
      • 50
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      AI Store

      推荐文档

      文档下载

      云课堂 第二十课:巧用天翼云盘备份云主机数据

      设置告警规则

      消费消息

      术语解释

      如何修改账号的密码?

      法律法规

      修改描述

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号