活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 应用场景
        适用场景 众所周知,将传统的单体应用拆分为一个个微服务固然带来了各种好处,包括更好的灵活性、可伸缩性、重用性,但微服务也同样面临着特殊的安全需求,如下所示: 为了抵御中间人攻击,需要用到流量加密。 为了提供灵活的服务访问控制,需要用到TLS和细粒度访问策略。 为了决定哪些人在哪些时间可以做哪些事,需要用到审计工具。 面对这些需求应用服务网格提供全面的安全解决方案,包括身份验证策略,透明的TLS加密以及授权和审计工具。 价值 默认的安全性:无需修改即可保证应用程序代码和架构的安全性。 纵深防御:与现有的安全系统结合并提供多层防御。 零信任网络:在不受信任的网络上构建安全解决方案。 优势 非侵入安全:应用服务网格是以一种安全基础设施的方式向用户提供透明的安全能力,让不涉及安全问题的代码安全运行,让不太懂安全的人可以开发和运维安全的服务,不用修改业务代码就能提供服务访问安全。应用服务网格提供了一个透明的分布式安全层,并提供了底层安全的通信通道,管理服务通信的认证、授权和加密,提供Pod到Pod、服务到服务的通信安全。开发人员在这个安全基础设施层上只需专注于应用程序级别的安全性。 细粒度授权:在认证的基础上,就可以进行服务间的访问授权管理,可以控制某个服务,或者服务的一个特定接口进行授权管理。如只开放给特定的一个Namespace下的服务,或者开放给某个特定的一个服务。源服务和目标服务可以在不同的集群,甚至源服务的不同实例在不同的集群,目标服务的不同实例在不同的集群。 服务运行监控
        来自:
        帮助文档
        应用服务网格
        产品简介
        应用场景
      • prometheus(停止维护)
        本文主要介绍 prometheus。 插件简介 Prometheus是一套开源的系统监控报警框架。它启发于Google的borgmon监控系统,由工作在SoundCloud的Google前员工在2012年创建,作为社区开源项目进行开发,并于2015年正式发布。2016年,Prometheus正式加入Cloud Native Computing Foundation,成为受欢迎度仅次于Kubernetes的项目。 在云容器引擎CCE中,支持以插件的方式快捷安装Prometheus。 插件官网: 开源社区地址: 约束与限制 CCE提供的Prometheus插件仅支持1.21及以下版本的集群。 插件特点 作为新一代的监控框架,Prometheus具有以下特点: 强大的多维度数据模型: 时间序列数据通过metric名和键值对来区分。 所有的metrics都可以设置任意的多维标签。 数据模型更随意,不需要刻意设置为以点分隔的字符串。 可以对数据模型进行聚合,切割和切片操作。 支持双精度浮点类型,标签可以设为全unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个metrics进行乘法、加法、连接、取分数位等操作。 易于管理:Prometheus server是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占3.5 bytes,且一个Prometheus server可以处理数百万的metrics。 使用pull模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的metrics。 可以采用push gateway的方式把时间序列数据推送至Prometheus server端。 可以通过服务发现或者静态配置去获取监控的targets。 有多种可视化图形界面。 易于伸缩。 需要指出的是,由于数据采集可能会有丢失,所以Prometheus不适用对采集数据要100%准确的情形。但如果用于记录时间序列数据,Prometheus具有很大的查询优势,此外,Prometheus适用于微服务的体系架构。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        prometheus(停止维护)
      • 事件流概述
        随着越来越多的数据源持续、快速地产生数据,此类流式数据急需被系统分析和处理。事件流适用于端到端的流式数据处理场景,对源端产生的事件实时抽取、转换和分析并加载至目标端,帮助您轻松处理流式数据。 事件流总体架构 事件流作为更轻量、实时端到端的流式事件通道,提供轻量流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步,连接不同的系统与服务。 如下图所示,事件源与事件目标之间无需定义事件总线,事件通过事件流这个通道在源端和目标端之间进行流转。 事件源:事件的来源,可将天翼云服务如分布式消息Kafka的业务数据作为事件流中的事件提供方。 事件过滤:事件流通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。 事件转换:可选择天翼云函数计算作为事件转换器,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。 事件目标:消费事件消息。 功能优势 实时高效 事件流支持实时从事件源获取、过滤与转换事件,并加载至事件目标。无需定义事件总线,您可以更快地访问事件。 轻量集成 只需在控制台简单创建任务或者一次调用,即可建立实时端到端的流式事件通道,避免了复杂繁琐的操作,便于快速集成。 指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,出现异常时及时运维,确保数据流正常运行。 节约成本 按量计费,按照数据量进行计费,不使用则不收费。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件流概述
      • 消息层配置
        本章节介绍应用容灾多活的消息层配置。 概述 消息层配置主要包括消息队列 和消息同步,每个单元组可以单独进行配置,不同单元的消息队列之间通过消息路由服务进行同步。 应用容灾多活通过控制面与数据面协同,对指定Topic消息进行打标与过滤。当某个单元发生故障时,可以通过切流任务将故障单元的消息在其他正常单元进行回溯接管,从而保障消息不丢失。 图 消息层配置 前提条件 已开通消息层功能模块。 已完成系统架构配置以及路由规则配置。 已为应用开通分布式消息服务RocketMQ实例。 已为不同站点的实例创建同名的Topic和Group。 配置消息队列 1. 登录应用高可用服务控制台。 2. 单击左侧菜单栏应用容灾多活 ,在应用容灾多活菜单下单击数据双活/应用双活 ,进入数据双活/应用双活管理页面。 3. 在应用系统列表中找到需要配置的应用系统,单击应用系统名称 ,进入应用系统概览页面。 4. 单击左侧导航栏容灾配置 ,在容灾配置菜单下单击消息层配置 ,进入容灾配置消息层配置页面。 5. 单击消息队列 配置列表上方创建 按钮,弹出创建消息队列配置页面。 6. 如下表示例,填写配置信息,单击确定按钮,完成配置。 7. 如需修改或删除消息队列配置,可单击所选配置操作列修改 或删除按钮,根据界面提示进行操作。 表 消息队列配置 配置项 描述 示例 消息队列名称 消息队列自定义标识。 商城北京消息队列 站点 消息队列部署所在站点。 北京站点 产品类型 消息队列技术类型: RocketMQ RocketMQ 实例类型 消息队列产品类型。 云实例 消息队列实例 消息队列对应的云实例ID。 RocketMQ810
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        资源管理
        消息层配置
      • 主子账号
        本章介绍如何使用主子账号体系管理子账号权限 概述 分布式消息服务MQTT已接入主子账号体系,可区分两种账号权限,实现主账号对子账号的数据权限管理与功能权限管理,支持系统策略和自定义策略的授权方式。本章介绍如何使用主子账号体系管理子账号权限。 背景 1. 主账号 :用户在天翼云注册后自动创建,该账号对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,由于账号是付费主体为了确保账号安全,建议创建子用户来进行日常管理工作。 2. 子账号 :主账号认证为企业账号后,在天翼云用户中心页面创建出来的账号。子账号的用户名、密码统一由主账号创建管理。子账号同样可以登录访问天翼云控制台,登录入口与主账号相同,受主账号赋予的权限限制。 3. 企业项目: 将云资源、企业成员按项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用项目内云资源的权限受用户组的授权限制。 注意 一个实例只能归属一个企业项目(可变更),一个子账号可以同时在多个企业项目中。 4. 策略: 是描述一组权限集的语言,它可以精确地描述被授权的资源集和操作集,通过策略,用户可以自由搭配需要授予的权限集。通过给用户组授予策略,用户组中的用户就能获得策略中定义的权限。 5. 系统策略: 系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对组件的只读权限、普通用户权限和管理员权限等等;系统策略只能用于授权,不能编辑和修改。 6. 数据权限: 看到的数据不一样。主账号看到所有实例,子账号只能看到所属项目中的实例。 7. 功能权限: 主账号可以进行所有控制台操作,子账号对单个组件实例拥有的操作权限由主账号授权。 8. 功能权限授权: 给子账号在企业项目A下增加一个策略,即代表该子账号对企业项目A下的实例拥有了策略中定义的权限,策略以外的操作会被禁止。
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        权限管理
        主子账号
      • 生产消费
        本节介绍了编译工程生产消费的主要内容点,包括引入依赖、绑定BindingKey、生产消息和消费消息。 前提条件 创建分布式消息服务RabbitMQ实例。 操作步骤 RabbitMQ是一个开源的消息队列中间件,支持生产者和消费者之间的异步通信。在上述资源准备完成后,接下来需要编译工程生产消费,主要分以下几个步骤: 1、编写生产者代码:编写一个生产者程序。该程序将连接到RabbitMQ服务器,并将消息发送到队列中。 2、编写消费者代码:编写一个消费者程序。该程序将连接到RabbitMQ服务器,并从队列中接收消息。 3、运行生产者和消费者:运行生产者程序,它将发送消息到队列中。然后运行消费者程序,它将从队列中接收并处理消息。 4、验证结果:检查生产者和消费者程序的输出,确保消息被正确发送和接收。 引入依赖 在使用RabbitMQ时,你需要在你的项目中引入相应的依赖。具体的依赖项可能会因你的项目和需求而有所不同。在使用RabbitMQ之前,请确保查阅官方文档以获取最新的依赖项和使用说明。 以Java编程语言为例,可以使用RabbitMQ的Java客户端库。你可以在Maven或Gradle构建工具中添加以下依赖项: com.rabbitmq amqpclient 5.7.0 也可以通过下载JAR包来引入依赖。 绑定BindingKey 在RabbitMQ中,绑定键(Binding Key)是用于绑定交换机(Exchange)和队列(Queue)的关键字。当一个消息被发送到交换机时,交换机会根据绑定键将消息路由到相应的队列中。 绑定键是在创建绑定(Binding)时指定的,它定义了消息应该如何被路由到队列。绑定键通常与消息的属性或内容进行匹配,以确定消息应该发送到哪个队列。 绑定键可以具有不同的形式,取决于使用的交换机类型。以下是一些常见的绑定键形式: 直接匹配(Direct Match):绑定键与消息的路由键(Routing Key)完全匹配时,消息会被路由到相应的队列。 通配符匹配(Wildcard Match):绑定键可以使用通配符进行模式匹配。常见的通配符有和
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        生产消费
      • 主子账号
        本章介绍如何使用主子账号体系管理子账号权限 概述 分布式消息服务RabbitMQ已接入主子账号体系,可区分两种账号权限,实现主账号对子账号的数据权限管理与功能权限管理,支持系统策略和自定义策略的授权方式。本章介绍如何使用主子账号体系管理子账号权限。 背景 1. 主账号:用户在天翼云注册后自动创建,该账号对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,由于账号是付费主体为了确保账号安全,建议创建子用户来进行日常管理工作。 2. 子账号:主账号认证为企业账号后,在天翼云用户中心页面创建出来的账号。子账号的用户名、密码统一由主账号创建管理。子账号同样可以登录访问天翼云控制台,登录入口与主账号相同,受主账号赋予的权限限制。 3. 企业项目:将云资源、企业成员按项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用项目内云资源的权限受用户组的授权限制。 注意 一个实例只能归属一个企业项目(可变更),一个子账号可以同时在多个企业项目中。 4. 策略: 是描述一组权限集的语言,它可以精确地描述被授权的资源集和操作集,通过策略,用户可以自由搭配需要授予的权限集。通过给用户组授予策略,用户组中的用户就能获得策略中定义的权限。 5. 系统策略: 系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对组件的只读权限、普通用户权限和管理员权限等等;系统策略只能用于授权,不能编辑和修改。 6. 数据权限: 看到的数据不一样。主账号看到所有实例,子账号只能看到所属项目中的实例。 7. 功能权限: 主账号可以进行所有控制台操作,子账号对单个组件实例拥有的操作权限由主账号授权。 8. 功能权限授权: 给子账号在企业项目A下增加一个策略,即代表该子账号对企业项目A下的实例拥有了策略中定义的权限,策略以外的操作会被禁止。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        权限管理
        主子账号
      • 主子账号和IAM权限管理
        本文介绍Redis主子账号和IAM权限管理 分布式缓存服务Redis版已对接天翼云统一身份认证服务(IAM),可实现控制台按钮、菜单功能、OpenAPI等维度对用户访问、操作资源的权限控制等, 以达到用户权限的精细管理,保证访问的安全性。 IAM简介 统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。目前天翼云提供对应专有的CTIAM服务,用户可申请开通后免费使用,您只需要为您帐号中的云服务和资源进行付费。具体IAM使用说明详情见:统一身份认证。 IAM涉及主要概念 主用户:用户在天翼云注册后自动创建,该用户对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,为了确保账号安全,建议创建子用户来进行日常管理工作。 子用户:由拥有IAM权限的用户,在用户中心创建的子用户。子用户的用户名、密码由拥有IAM权限的用户控制。子用户同样可以登录访问天翼云控制台,登录入口与主用户相同,受赋予的权限限制。 用户组:用户组是用户的集合,IAM通过用户组功能实现用户的授权。您创建的IAM用户,需要加入特定用户组后,才具备对应的权限,否则IAM用户无法访问您帐号中的任何资源或者云服务。 系统策略:由产品团队维护,系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对 ECS 的只读权限、对 ECS 的管理员权限等;系统策略在IAM控制台中只能用于授权,不能编辑和修改。 自定义策略:由用户自己在IAM控制台创建和管理的权限集,是用户可以自由定义的权限,是对系统策略的扩展和补充。 企业项目:企业项目权限实现细粒度控制的基础。将云资源、企业成员按企业项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用企业项目内云资源的权限受用户组的授权限制。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        主子账号和IAM权限管理
      • RabbitMQ惰性队列
        本文主要介绍分布式消息服务RabbitMQ的惰性队列最佳实践。 使用场景 默认情况下,RabbitMQ生产者生产的消息存储在内存中,当需要释放内存时,会将内存中的消息换页至磁盘中。换页操作会消耗较长的时间,且换页过程中队列无法处理消息。 如果生产速度过快(例如执行批处理任务),或者消费者由于各种原因(例如消费者下线、宕机)长时间内无法消费消息,导致消息大量堆积,使得内存使用率过高,换页频繁,可能会影响其他队列的消息收发。这种场景下,建议您启用惰性队列。 惰性队列(Lazy Queue)会尽可能的将消息存入磁盘中,在消费者消费到相应的消息时才会被加载到内存中,这样可以减少内存的消耗,但是会增加I/O的使用,影响单个队列的吞吐量。惰性对列的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储/消息堆积。 在以下情况下,推荐使用惰性队列: 队列可能会产生消息堆积 队列对性能(吞吐量)的要求不是非常高,例如TPS 1万以下的场景 希望队列有稳定的生产消费性能,不受内存影响而波动 处于以下情况时,无需使用惰性队列: RabbitMQ需要高性能的场景 队列总是很短(即队列中没有消息堆积) 设置了最大长度策略 设置惰性队列 队列具备两种模式:default和lazy,默认模式为default。lazy模式即为惰性队列的模式,可以通过调用channel.queueDeclare方法的时候在参数中设置,也可以通过Policy的方式设置。如果一个队列同时使用这两种方式设置的话,Policy的方式具备更高的优先级。 以下示例演示在Java客户端通过调用channel.queueDeclare设置惰性队列。 Map args new HashMap (); args.put("xqueuemode", "lazy"); channel.queueDeclare("myqueue", false, false, false, args); 以下示例演示在RabbitMQ的Web界面通过Policy的方式设置惰性队列。 更多关于惰性队列的说明,请参考Lazy Queues 。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ惰性队列
      • Redis命令
        本章介绍分布式缓存服务Redis命令。 如何清空Redis数据? 注意数据清空功能为高危操作,请谨慎执行。 Redis3.0实例 Redis3.0实例不支持在DCS控制台上执行“数据清空”功能。需要使用Rediscli客户端连接实例,执行flushdb或者flushall命令进行清空。 flushall:清空整个实例的数据。 flushdb:清空当前DB中的数据。 如何在Redis中查找匹配的Key和遍历所有Key? 查找匹配Key 在大Key和热Key分析中,不支持按照指定格式分析,如果需要查找指定前缀或者后缀格式的Key,您可以使用scan命令,根据指定格式进行匹配查找。 例如,需要查找Redis实例中包含a关键字的Key,可以使用Rediscli工具,执行以下命令: ./rediscli h {redisaddress} p {port} [a password ] scan pattern ' a ' 遍历所有Key 由于keys命令复杂度高,容易导致Redis无响应,所以禁止使用keys命令遍历实例所有的Key。如果需要在Redis实例中遍历所有的Key,可以使用Rediscli工具,执行以下命令可以遍历Redis实例的所有key。 ./rediscli h {redisaddress} p {port} [a password ] scan pattern '' scan命令的使用方法,可以参考Redis官方网站。 在WebCli执行keys命令报错“permission denied” WebCli已禁用keys 命令,请使用Rediscli执行。 高危命令如何禁用? Redis4.0及以上版本的实例创建之后,支持重命名高危命令。当前支持重命名的高危命令有command、keys、flushdb、flushall、hgetall、scan、hscan、sscan、和zscan,Proxy集群实例还支持dbsize和dbstats命令重命名,其他命令暂时不支持。 您可以在创建实例时进行重命名以上高危命令,或在创建完成后,在缓存管理页面,选中实例,单击操作列的“更多 > 命令重命名”进行重命名以上高危命令。 说明 目前Redis不支持直接禁用命令,涉及到以上高危命令,可以使用命令重命名。关于DCS实例支持和禁用的命令请参考 命令重命名提交后,系统会自动重启实例,实例完成重启后重命名生效。 因为涉及安全性,页面不会显示这些命令,请记住重命名后的命令。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        Redis命令
      • 管理标签
        本节介绍了管理标签的相关内容。 标签是DCS实例的标识,为DCS实例添加标签,可以方便用户识别和管理拥有的DCS实例资源。 您可以在创建DCS实例时添加标签,也可以在DCS实例创建完成后,在实例的详情页添加标签,您最多可以给实例添加20个标签。另外,您还可以进行修改和删除标签。 标签共由两部分组成:“标签键”和“标签值”,其中,“标签键”和“标签值”的命名规则如下表所示。 表 标签命名规则 参数名称 规则 标签键 不能为空。 对于同一个实例,Key值唯一。 首尾字符不能为空格。 长度不超过128个字符。 可以包含任意语种的字母、数字、空格和 . : + @。 不能以sys开头。 标签值 长度不超过255个字符。 可以包含任意语种的字母、数字、空格和 . : / + @。 首尾字符不能为空格。 操作步骤 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击 ,选择区域和项目。 步骤 3 单击左侧菜单栏的“缓存管理”。进入缓存管理页面。 步骤 4 在需要查看的DCS缓存实例左侧,单击该实例的名称,进入该实例的基本信息页面。 步骤 5 单击“实例配置>标签”页签,进入标签管理页面。 界面显示该实例的标签列表。 步骤 6 您可以根据实际需要,执行以下操作: 添加标签 a. 单击“添加/编辑标签”,弹出“添加/编辑标签”对话框。您可以直接在“标签键”和“标签值”中输入设置标签。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击的“查看预定义标签”,系统会跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 b. 单击“确定”。为实例添加标签成功。 修改标签 单击“添加/编辑标签”,弹出“添加/编辑标签”窗口,若想修改某标签键,在“添加/编辑标签”窗口中先删除该键,再添加该键,输入想要修改的标签值,单击“添加”。 删除标签 单击标签所在行“操作”列下的“删除”,如果确认删除,在弹出的“删除标签”窗口,单击“确定”。 结束
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        管理标签
      • 节点指标
        本节介绍分布式缓存Redis管理控制台实例指节点指标部分,以节点维度统计。 前提条件 已成功开通分布式缓存服务Redis实例,且实例处于运行中状态。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台右上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 左侧菜单点击性能监控 5. 选择上方的【节点指标】Tab页,选择监控时间可过滤查询该时间段内实例监控数据,默认查询最近一小时数据。 指标说明 指标名称 单位 说明 每秒并发操作数 ops 每秒总请求数,包含读和写命令。 缓存命中率 % 命中率计算方法:Key命中数÷(Key命中数+Key未命中数)。 内存碎片率 % memfragmentationratio (内存碎片率) usedmemoryrss (操作系统实际分配给 Redis 的物理内存空间大小)/ usedmemory(Redis 内存分配器为了存储数据实际申请使用的内存空间大小) memfragmentationratio (内存碎片率)的值越大代表内存碎片率越严重。 已使用内存比例 % 统计Redis的内存利用率。 客户端连接数 count 统计已连接的客户端数量。 活跃客户端连接数 count 统计活跃的客户端的数量。 阻塞客户端连接数 count 统计被阻塞操作挂起的客户端的数量。 已使用内存 Byte 统计Redis已使用的内存字节数。 已用内存RSS Byte 统计Redis已使用的RSS内存。即实际驻留在内存中的内存数。包含和堆,但不包括换出的内存。 已用内存峰值 Byte 统计Redis服务器启动以来使用内存的峰值。 每秒新建连接数 count 统计每秒新建连接数。 连接数使用率 % 统计连接数使用率。 平均时延 us 统计节点的平均时延。 命令最大调用时延 ms 统计实例命令最大调用时延。 Pubsub channels count 统计Pub/Sub通道个数。 Pubsub patterns count 统计Pub/Sub模式个数。 Key命中数 count 统计实例Key命中数。 每秒Key命中数 count/s 统计实例每秒Key命中数。 Key未命中数 count 统计在主字典中查找不命中次数。 每秒Key未命中数 count/s 统计每秒在主字典中查找不命中次数。 数据集使用内存 Byte 统计Redis中数据集使用的内存。 数据集使用内存百分比 % 统计Redis中数据集使用的内存所占总内存百分比。 Lua已用内存 Byte 统计Lua引擎已使用的内存字节。 Redis CPU利用率 % 统计redis进程CPU利用率。 已拒绝的连接数 count 统计周期内因为超过maxclients而拒绝的连接数量。 处理的命令数 count 统计周期内处理的命令数。 收到字节数 Byte 统计周期内收到的字节数。 发送字节数 Byte 统计周期内发送的字节数。 主机CPU使用率 % 统计主机CPU使用率。 磁盘读速率 Byte/s 统计主机磁盘读速率。 磁盘写速率 Byte/s 统计主机磁盘写速率。 网卡接收速率 Byte/s 统计主机网卡接收速率。 网卡输出速率 Byte/s 统计主机网卡输出速率。 主机磁盘使用率 % 统计主机磁盘使用率。 磁盘可用空间 Byte 统计主机磁盘可用空间。 磁盘总空间 Byte 统计主机磁盘总空间。 读IOPS Bps 统计读IOPS。 写IOPS Bps 统计写IOPS。 主从同步数据延迟 s 统计主从同步数据延迟(从节点)。 主从同步数据偏移量 Byte 统计主从同步数据偏移量(从节点)。 键总数 count 统计Redis缓存中键总数。 已设置过期时间的key总数 count 统计已设置过期时间的key总数。 历史过期key总数 count 统计历史过期key总数。 历史淘汰key总数 count 统计历史淘汰key总数。 历史累计逐出key总数 count 统计历史累计逐出key总数。 每秒过期key总数 count/s 统计每秒过期key总数。 每秒淘汰key总数 count/s 统计每秒淘汰key总数。 每秒逐出key总数 count/s 统计每秒逐出key总数。 字符串类型操作命令每秒调用次数 count/s 统计字符串类型操作命令每秒调用次数。 哈希类型操作命令每秒调用次数 count/s 统计哈希类型操作命令每秒调用次数。 keys类型操作命令每秒调用次数 count/s 统计keys类型操作命令每秒调用次数。 列表类型操作命令每秒调用次数 count/s 统计列表类型操作命令每秒调用次数。 发布订阅类型操作命令每秒调用次数 count/s 统计发布订阅类型操作命令每秒调用次数。 集合类型操作命令每秒调用次数 count/s 统计集合类型操作命令每秒调用次数。 有序类型集合操作命令每秒调用次数 count/s 统计有序类型集合操作命令每秒调用次数。 事务类型操作命令每秒调用次数 count/s 统计事务类型操作命令每秒调用次数。 HyperLog类型操作命令每秒调用次数 count/s 统计HyperLog类型操作命令每秒调用次数。 Script类型操作命令每秒调用次数 count/s 统计Script类型操作命令每秒调用次数。 入方向带宽使用率 % 统计主机入方向带宽使用率,计算方式为:网卡接收速率/基准带宽 出方向带宽使用率 % 统计主机出方向带宽使用率,计算方式为:网卡输出速率/基准带宽 节点状态 统计节点状态, 0:运行状态, 1:停止状态 节点每秒请求错误数 count/s 统计Redis节点每秒接收到的错误请求数,注:Redis6.0 / 7.0 才有该指标数据统计
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        查看监控与告警配置
        节点指标
      • 支持的监控指标
        本文主要介绍 支持的监控指标。 功能说明 本章节定义了分布式消息服务Kafka上报云监控服务的监控指标的命名空间,监控指标列表和维度定义,您可以通过云监控服务的管理控制台或API接口来检索Kafka实例产生的监控指标和告警信息,也可以通过分布式消息服务Kafka控制台提供的“监控”页面来检索Kafka实例产生的监控指标。 命名空间 SYS.DMS 实例监控指标 表 实例支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。单位:Count 0~1800 Kafka实例 1分钟 currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。单位:Count 0~1800 Kafka实例 1分钟 groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。单位:Count 0~1000000000 Kafka实例 1分钟 节点监控指标 表 节点支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) brokerdatasize 节点数据容量 该指标用于统计节点当前的消息数据大小。单位:Byte、KB、MB、GB、TB、PB 0~5000000000000 Kafka实例节点 1分钟 brokermessagesinrate 消息生产速率 该指标用于统计每秒生产的消息数量。单位:Count/s 0~500000 Kafka实例节点 1分钟 brokerbytesoutrate 消费流量 该指标用于统计每秒消费的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerbytesinrate 生产流量 该指标用于统计每秒生产的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesinrate 公网入流量 统计Broker节点每秒公网访问流入流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesoutrate 公网出流量 统计Broker节点每秒公网访问流出流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerfetchmean 消费请求平均处理时长 统计Broker节点处理消费请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokerproducemean 生产请求平均处理时长 统计Broker节点处理生产请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokercpucoreload CPU核均负载 该指标为从Kafka节点虚拟机层面采集的CPU每个核的平均负载。单位:% 0~20 Kafka实例节点 1分钟 brokerdiskusage 磁盘容量使用率 该指标为从Kafka节点虚拟机层面采集的磁盘容量使用率。单位:% 0~100% Kafka实例节点 1分钟 brokermemoryusage 内存使用率 该指标为Kafka节点虚拟机层面采集的内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerheapusage Kafka进程JVM堆内存使用率 该指标从Kafka节点Kafka进程JVM中采集的堆内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokeralive 节点存活状态 表示Kafka节点是否存活。 1:存活 0:离线 Kafka实例节点 1分钟 brokerconnections 连接数 统计Kafka节点当前所有TCP连接数量。单位:Count 0~65535 Kafka实例节点 1分钟 brokercpuusage CPU使用率 统计Kafka节点虚拟机的CPU使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerdiskreadawait 磁盘平均读操作耗时 该指标用于统计磁盘在测量周期内平均每个读IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokerdiskwriteawait 磁盘平均写操作耗时 该指标用于统计磁盘在测量周期内平均每个写IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokertotalbytesinrate 网络入流量 统计Broker节点每秒网络访问流入流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokertotalbytesoutrate 网络出流量 统计Broker节点每秒网络访问流出流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokerdiskreadrate 磁盘读流量 磁盘读操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟 brokerdiskwriterate 磁盘写流量 磁盘写操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        支持的监控指标
      • 添加节点
        本节介绍了GeminiDB Redis的添加节点操作场景及操作方式。 操作场景 随着业务数据的增加,原来申请的节点数量不能满足需求,这时,您可以为实例添加节点。 使用须知 添加节点数会有短暂的OPS下降,建议业务空闲时添加。 实例状态为正常、恢复检查中时可以添加节点。 实例进行添加节点时,该实例不可被删除。 方式一 1、登录云数据库GeminiDB控制台。 2、在“实例管理”页面,选择指定的实例,单击实例名称。 3、在“基本信息”页面的“节点信息”区域,单击“添加节点”,进入“添加节点”页面。 4、 在“添加节点”页面,选择新增节点个数,单击“下一步”。 新增节点规格默认与实例规格一致,不可修改。 5、在确认页面,确认节点配置信息。 如需重新选择,单击“上一步”,修改相关配置。 6、查看添加节点结果。 添加过程中,实例运行状态显示为“节点扩容中”。 添加完成后,实例运行状态变为“正常”。 单击实例名称,在实例“基本信息”页面的“节点信息”区域,可查看新增节点信息。 方式二 1、登录云数据库GeminiDB控制台。 2、在“实例管理”页面,选择目标实例,单击操作列“更多 > 添加节点”。 3、在“添加节点”页面,选择新增节点个数,单击“下一步”。 新增节点规格默认与实例规格一致,不可修改。 4、在确认页面,确认节点配置信息。 如需重新选择,单击“上一步”,修改相关配置。 核对无误后,单击“提交”,开始添加节点。 5、 查看添加节点结果。 添加过程中,实例运行状态显示为“节点扩容中”。 添加完成后,实例运行状态变为“正常”。 单击实例名称,在实例“基本信息”页面的“节点信息”区域,可查看新增节点信息。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        变更实例
        添加节点
      • 连接报错:Timeout
        本页介绍了连接报错 timeout 的处理方法。 问题描述 使用 JavaDriver 访问实例时报错(或者其他语言的 Driver 也报错类似的信息),报错信息为: com.mongodb.MongoSocketReadTimeoutException: Timeout while receiving message 原因分析 可能的原因有: 文档数据库服务端高负载,导致处理超时。 客户端连接池配置不合理,导致连接超出了服务端配置的最大连接范围。 处理方法 1. 在控制台上,检查服务端负载情况,是否有耗时的慢查询日志,并进行相应的查询语句优化或索引优化等。 2. 检查客户端的连接池配置是否合理,并进行相应的优化。
        来自:
        帮助文档
        文档数据库服务
        故障排除
        连接报错:Timeout
      • 查询实例的价格
        参数 是否必填 参数类型 说明 示例 下级对象 dbversion 否 String 数据库版本,默认为12.0; 可选值:13.0,12.0,11.0,10.0 12.0 cpuNum 是 Integer CPU核数 2 memSize 是 Integer 内存大小 4 edition 是 String 可选值:standby(主备)、single(单机) standby
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        实例
        查询实例的价格
      • 产品优势
        本页为您介绍数据传输服务DTS的产品优势。 不停服 基于天翼云DTS的不停服迁移/同步,是一种实时的在线逻辑处理过程。整个过程中,原始的应用系统在不停止的情况下,可以继续对外提供服务。如果原始数据量较多,可以选择合适的网络带宽,确保源数据快速地迁移至目标库。 针对新旧数据库异构的情况,天翼云DTS在工作时,底层进行了数据对象的转换映射,整个过程对用户来说是完全透明的,降低了用户的使用难度。 高性能 天翼云DTS通过数据合并、并行回放、数据压缩等技术,实现高效的数据传输能力,远高于数据库原生复制。 数据合并:合并算法执行后,单主键只有一条记录,可以减少数据量,同时提高并行回放的效率,例如:insert + update > insert, update + delete > delete。 并行回放:通过并行回放,加速数据入库的速度。 数据压缩:通过压缩数据降低数据传输延时,可适应跨数据中心的窄带宽网络。 稳定可靠 断点续传:当天翼云DTS组件、数据源或者网络发生故障,故障恢复后,支持断点续传,保证数据迁移/同步等DTS任务的继续进行。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        产品优势
      • 团队管理
        修改成员角色 1. 在左侧菜单栏依次选择 安全协作 > 团队管理 。 2. 在团队成员管理页中,团队下拉列表选中要修改成员角色的团队,系统显示该团队下所有成员。 3. 点击要修改角色的成员的团队内角色下拉列表,选择新的团队角色。 4. 系统自动保存成员的新角色。 删除团队成员 1. 在左侧菜单栏依次选择 安全协作 > 团队管理 。 2. 在团队成员管理页中,团队下拉列表选中要删除成员的团队,系统显示该团队下所有成员。 3. 点击某个成员右侧的从团队移除按钮,系统显示团队移除确认弹窗。 4. 点击确定完成团队成员的删除操作。 数据授权 具体的操作流程请参考数据授权。 录入实例到团队 1. 在左侧菜单栏依次选择 安全协作 > 团队管理 。 2. 在团队资产管理页中,团队下拉列表选中要录入实例的团队,系统显示该团队下所有实例。 3. 点击 添加实例至团队 ,系统显示添加实例弹窗。 4. 在实例弹窗中,实例已默认绑定到当前团队,填写其他信息进行实例的录入。具体如何填写,参见数据资产 >实例管理 >实例列表 >添加云数据库中关于实例录入的说明。 5. 点击确定完成团队实例的录入操作。
        来自:
        帮助文档
        数据管理服务
        用户指南
        安全协作
        团队管理
      • 应用监控
        应用详情 1. 在Ecs应用详情左边导航栏中选择“应用监控“ 2. 在顶部菜单栏中选择“应用详情”查看相应信息 具体使用说明可参考应用性能监控>用户指南>应用详情 数据库监控 1. 在Ecs应用详情左边导航栏中选择“应用监控“ 2. 在顶部菜单栏中选择“数据库监控”查看相应信息 Rest 请求数 响应时间 慢调用次数 性能一揽 应用诊断 1. 在Ecs应用详情左边导航栏中选择“应用监控“ 2. 在顶部菜单栏中选择“应用诊断>Arthas诊断”查看相应信息 具体使用说明可参考应用性能监控>用户指南>Arthas诊断 外部调用监控 1. 在Ecs应用详情左边导航栏中选择“应用监控“ 2. 在顶部菜单栏中选择“外部调用监控”查看相应信息 请求数 响应时间 错误数 应用设置 具体使用说明可参考天翼云官网的“应用性能监控>用户指南>应用列表>应用设置”的文档 具体使用说明可参考应用性能监控>用户指南>应用设置 告警规则 1. 在Ecs应用详情左边导航栏中选择“告警规则“ 2. 在顶部菜单栏中选择“创建告警规则”,填写告警规则信息 具体使用说明可参考应用性能监控>用户指南>设置告警规则
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        部署运维
        ECS应用实例
        应用监控
      • 新建数据连接
        本章节主要介绍数据管理的新建数据连接功能。 通过创建数据连接,您可以在数据开发模块中对相应服务进行更多数据操作,例如:管理数据库、管理命名空间、管理数据库模式、管理数据表。 在同一个数据连接下,可支持多个作业运行和多个脚本开发,当数据连接保存的信息发生变化时,您只需在连接管理中编辑修改该数据连接的信息。 新建数据连接 数据开发模块的数据连接,是基于管理中心的数据连接完成的,创建方法请参考创建数据连接 。 查看连接引用 当用户需要查看某个连接被引用的情况时,可以参考如下操作查看引用。 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3.单击,进入连接目录列表。 4.在连接目录中,右键单击对应的连接,选择“查看引用”,弹出“引用列表”窗口。 5.在引用列表窗口,可以查看该连接被引用的情况。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        数据管理
        新建数据连接
      • 时间宏变量使用解析
        Where子句中的时间宏变量 以SQOOP.CDM20171016表为例,该表中存在表示时间的列DS,如下图“表数据”所示: 假设当前时间为“20171016”,要导出前一天的数据(即DS‘20171015’),则可以在创建作业时配置“Where子句”为 DS'${dateformat(yyyyMMdd,1,DAY)}' ,即可将符合DS‘20171015’条件的数据导出。 时间宏变量和定时任务配合完成增量同步 这里列举两个简单的使用场景: 数据库表中存在表示时间的列DS,类型为“varchar(30)”,插入的时间格式类似于“2017xxxx”。 定时任务中,重复周期为1天,每天的凌晨0点执行定时任务。配置“Where子句”为 DS'${dateformat(yyyyMMdd,1,DAY)}' ,这样就可以在每天的凌晨0点导出前一天产生的所有数据。 数据库表中存在表示时间的列time,类型为“Number”,插入的时间格式为时间戳。 定时任务中,重复周期为1天,每天的凌晨0点执行定时任务。配置“Where子句”为 time between {timestamp(1,DAY)} and {timestamp()} ,这样就可以在每天的凌晨0点导出前一天产生的所有数据。 其它的配置方式原理相同。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        增量迁移原理介绍
        时间宏变量使用解析
      • 数据源
        本文介绍用户如何自定义数据源。 数据源是获取需要展示的日志/告警字段条件数据,配置后可在报表中选择并通过图表的形式展示。 数据源来源: 用户自定义 内置数据源 包括防火墙事件数据源、Windows审计数据源、Linux审计数据源、天翼云堡垒机审计数据源、网络设备数据源、应用服务器数据源、恶意程序数据源、审计事件数据源、攻击事件数据源。 新增数据源 1. 登录日志审计(原生版)控制台。 2. 在左侧导航栏选择“审计报表 > 数据源”,进入“数据源”页面。 3. 单击“新增”,并填写新增数据源的相关参数。 参数 参数说明 取值样例 数据源名称 自定义需要创建的数据源名称。 Test 是否抽样统计 确认是否使用抽样统计,默认否。 统计时间间隔 选择该数据源的统计的时间间隔,可选择“分钟”、“小时”或“天”为基础单位。 12小时 数据存放时间 选择数据生成后,在服务中存放的时间,以“天”为基础单位。 7天 数据源描述 自定义数据源的描述内容。 字段类型 选择数据源采集的字段类型,可选“告警类型”或“事件类型”。 告警类型 过滤条件 选择字段条件,多个字段条件通过逻辑关系符关联。 统计字段 选择需要进行统计的字段,可新增多个统计字段,至少新增一个。 分组字段 选择合适的分组字段,已选统计字段不可再次选择,可新增多个分组字段。 4. 填写完成后,单击“确定”,完成数据源新建。 注意 数据源添加完成,每天凌晨3点定时跑任务,获取前一天符合条件的数据。
        来自:
        帮助文档
        日志审计(原生版)
        用户指南
        审计报表
        数据源
      • 产品类
        托管检测与响应服务(原生版)服务能力、计费方式、核心能力等相关问题描述。 托管检测与响应服务是什么? MDR,Managed Detection and Response Service,也称为安全检测与响应服务,在云计算中,安全托管检测与响应服务(MDR)是指用户外包给云提供商的网络安全服务。根据最近的行业研究,大多数组织(74%)有内部管理IT安全,但82%的IT专业人员表示他们已经与托管安全服务提供商建立了伙伴关系,或计划与之合作。企业转向安全托管检测与响应服务提供商可以减轻他们每天面临的与信息安全有关的压力,例如针对性云安全攻击事件,云安全运营经验不足,客户数据窃取,技能短缺和资源限制。 托管检测与响应服务能提供哪些能力? 借助于用户在公有云多种环境中的网络安全设备与系统的日志数据和托管检测与响应服务平台能力,实现对用户在公有云中的网络安全运营工作的托管运营,减轻用户安全运营负担,提升用户公有云中业务系统的网络安全风险事件的响应与处置能力。 针对公有云提供丰富的网络安全运营服务,包括安全咨询、安全运营到应急响应等服务,充分满足用户在公有云上的合规与安全运营需求。 提供从云端EDR、合规处置工具到集成了SOAR能力的云端托管安全运营服务平台,满足公有云环境中的安全产品使用需求。 基于云上安全服务的最佳配置实践,为用户提供全面的安全评估服务,提供安全加固建议,并协助用户完成加固操作。
        来自:
        帮助文档
        托管检测与响应服务(原生版)
        常见问题
        产品类
      • 安装Agent
        本文以“通过SSH远程安装Agent”为例介绍如何安装Agent,更多安装Agent的方法请参Agent管理。 通过SSH远程安装Agent 您可以通过SSH协议将Agent自动安装到需要审计的服务器上,目前仅支持Linux系统。 在界面上输入需要审计的服务器IP、SSH端口、root用户名、密码,天翼云数据库审计通过scp协议将agent安装包传输到宿主机上并自动安装。 1. 在菜单栏选择“系统管理 > Agent管理”进入“Agent管理”页面,选择“Agent安装”页签。 2. 单击“开始安装”进入通过SSH远程安装Agent页面,编辑审计服务器IP,并添加安装Agent的服务器,单击“安装”。 填写参数说明请参见下表: 参数 参数说明 审计服务器IP 默认为当前的审计服务器IP,用户可以根据需要修改。 安装Agent的服务器 输入需要安装Agent的服务器IP及该服务器root账户的密码,默认端口为22,用户可以根据实际情况修改。 支持表单格式和文本格式输入。 支持IPv4和IPv6。 最多填写20个。 说明 单击“安装状态”可进入“安装状态”查看页面,可进行以下操作: 单击“卸载”可远程卸载已经成功安装了的Agent。 单击“重新安装”可对未成功安装Agent的服务器重新安装。 将光标悬停至“安装失败”后的图标,查看安装失败原因。 若您的业务部署在一类节点的资源池上,审计服务器IP需改为数据库审计所在的VPC组的公网IP。(一类节点可参考[支持的区域](/document/10446453/10489850
        来自:
        帮助文档
        数据库审计
        快速入门
        审计云上自建数据库(安装Agent)
        安装Agent
      • 概念类问题
        什么是云主机备份? 云主机备份(CSBS,Cloud Server Backup Service)可为云主机创建备份,利用多个云硬盘一致性备份数据恢复云主机业务数据,最大限度保障用户数据的安全性和正确性,确保业务安全。 云主机备份可以实现对多块云硬盘的崩溃一致性备份,云主机内的多个云硬盘是同一时间点进行备份的,但是备份前未冻结应用和文件系统,不备份内存数据,因此不是应用一致性备份。 什么是备份策略? 备份策略指的是对备份对象执行备份操作时,预先设置的策略。包括备份策略的名称、开关、备份任务执行的时间、周期以及备份数据的保留规则。其中备份数据的保留规则包括保存时间或保存数量。通过将云主机绑定到备份策略,可以为云主机执行自动备份。 什么是一致性备份? 业界对备份一致性的定义包括如下三类: 不一致备份:云主机中文件或磁盘数据的备份,不在同一时间点产生。 崩溃一致性备份:云主机中文件或磁盘数据的备份,在同一时间点产生,但不会静默数据库等应用系统、不会备份内存数据,不保证应用系统备份的一致性。 应用一致性备份:文件/磁盘数据在同一时间点,并静默数据库刷新内存数据,保证应用系统备份的一致性。
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        概念类问题
      • 性能趋势
        性能趋势功能,提供丰富的性能监控指标的区间查看和对比,并支持自定义图表。 前提条件 仅限来源为天翼云RDS的MySQL数据库。 已录入DMS中,且实例状态正常的数据库实例。 操作步骤 1. 登录数据管理服务。 2. 在左侧导航栏中,单击 智能运维 > 性能趋势,进入性能趋势界面。 功能介绍 性能趋势区间查看 支持选中一段时间区间查看监控指标数据,默认展示关键指标,可在指标选择中勾选更多指标。 监控指标最大支持查看时间范围为30天,指标粒度与查询的时间范围相关,时间范围跨度越大,指标粒度也越大。 勾选联动图表选项,支持多图表指标联动。 性能趋势区间对比 支持选中两个不同日期的同一时间段进行对比查看,默认展示关键指标,可在指标选择中勾选更多指标。 查看区间对比的最大范围为1天,指标粒度与查询的时间范围相关,时间范围跨度越大,指标粒度也越大。 勾选联动图表选项,支持多图表指标联动。 自定义图表 支持用户根据业务需要,创建自定义监控大盘,将多个性能监控指标放在一个大盘中进行展示。 选中监控大盘后,支持修改监控大盘的名称、节点和性能监控指标,支持删除自定义大盘。 说明 若想查看每个性能指标的含义,可查看图表指标名称左侧的问号说明。
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        性能趋势
      • 卸载Agent
        在数据库端或应用端的节点安装Agent后,当不需要停止审计数据库时,您可以在安装Agent的节点卸载Agent。 前提条件 已在安装节点安装了Agent程序。 在Linux操作系统上卸载Agent 1. 使用跨平台远程访问工具(例如PuTTY)以root用户通过SSH方式,登录已安装Agent的节点。 2. 执行以下命令,进入Agent安装包“xxx.tar.gz”解压后所在目录。cd Agent 安装包解压后所在目录。 3. 执行以下命令,查看是否有卸载脚本“uninstall.sh”的执行权限。如果有卸载脚本的执行权限,请执行步骤4。如果没有卸载脚本的执行权限,请执行以下操作: 执行以下命令,添加卸载脚本执行权限。chmod +x uninstall.sh。 确认有安装脚本执行权限后,请执行步骤4。 4. 执行以下命令,卸载Agent。sh uninstall.sh。如果界面回显以下信息,说明卸载成功。 uninstall audit agent... exist osrelease file stopping audit agent audit agent stopped stop auditagent success service auditagent does not support chkconfig uninstall audit agent completed! 在Windows操作系统上卸载Agent 1. 进入Agent安装文件的目录。 2. 双击“uninstall.bat”执行文件,卸载Agent。 3. 验证Agent已卸载成功。 4. 打开任务管理器,查看“dbssauditagent”进程已停止。 5. 查看Agent安装目录,安装目录内容已经全部删除。
        来自:
        帮助文档
        数据库安全
        用户指南
        其他操作
        卸载Agent
      • 云主机磁盘IO Hang
        效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录弹性云主机控制台,进入目标实例的监控指标页,各项指标无上报数据,出现断点。 2、业务应用验证: 任何需要读写目标磁盘的功能(如写入日志、读取配置文件、访问数据库文件等)都会被阻塞,导致相关请求长时间无响应或最终超时。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        计算
        弹性云主机
        云主机磁盘IO Hang
      • 云主机磁盘IO Hang(1)
        效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录弹性云主机控制台,进入目标实例的监控指标页,各项指标无上报数据,出现断点。 2、业务应用验证: 任何需要读写目标磁盘的功能(如写入日志、读取配置文件、访问数据库文件等)都会被阻塞,导致相关请求长时间无响应或最终超时。
        来自:
      • DLI资源
        指定资源 资源名称 资源路径 queue DLI队列 queues.queuename database DLI数据库 databases.dbname table DLI表 databases.dbname.tables.tbname column DLI列 databases.dbname.tables.tbname.columns.colname jobs DLI Flink作业 jobs.flink.jobid resource DLI程序包 resources.resourcename group DLI程序包组 groups.groupname datasourceauth DLI跨源认证信息 datasourceauth.name edsconnections DLI增强跨源 edsconnections.连接ID
        来自:
        帮助文档
        数据湖探索
        用户指南
        权限管理
        DLI资源
      • 天翼云AOne第三方信息共享清单及SDK目录(1)
        天翼云AOne iOS版本 第三方信息共享清单及SDK目录 名称 使用场景 使用目的 信息名称 信息类型 共享方式 开发者/公司 第三方隐私和信息处理规则/开发者协议链接 企业微信登录SDK 关联账号登录 企业微信账号授权登录 无 无 无 深圳市腾讯计算机系统有限公司 腾讯企业微信SDK隐私和信息处理规则 飞书登录SDK 关联账号登录 飞书账户授权登录 设备信息与日志信息:操作系统版本号、服务日志 个人常用设备信息 SDK本机采集 北京飞书科技有限公司 飞书登录 SDK 隐私政策 钉钉登录SDK 关联账号登录 钉钉账户授权登录 无 无 无 钉钉科技有限公司 钉钉登录SDK隐私政策 SDWebImage 图片的加载缓存 图片的加载缓存 无 无 无 社区开源项目 < AFNetworking 和后端的接口交互 进行接口的数据请求 无 无 无 社区开源项目 FMDB 本地数据的存储 数据库的管理 无 无 无 社区开源项目 SSZipArchive 分享文件时压缩文件 文件的压缩与解压 无 无 无 社区开源项目 < CocoaLumberjack 日志打印 日志打印到本地文件 无 无 无 社区开源项目 < SVGKit svg格式图片的显示 svg格式图片的显示 无 无 无 社区开源项目 < openim IM/通知号 IM通信和服务号通知 正在运行的应用安装列表、存储外部存储目录、 读取外部存储目录、存储目录管理、发送语音、拍照 个人设备信息 SDK本机采集 社区开源项目 OpenIM隐私政策 mailcore2 邮箱 获取邮箱、邮箱收发服务 无 无 SDK本机采集 < RZRichTextView 富文本 富文本编辑显示功能 无 无 无 < TZImagePickerController 相册选择 邮箱获取相册图片服务 无 无 无 < SQLCipher 邮箱数据库加班 邮箱数据库加密服务 无 无 无 <
        来自:
      • 创建元数据采集任务
        本章介绍如何创建元数据采集任务。此功能处于公测阶段,公测阶段可免费使用 前提要求 已完成数据库资产委托授权,参考云资产委托授权/停止授权进行操作。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全 > 数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中选择“资产管理 > 元数据任务”,进入“元数据采集任务”页面。 5. 在“元数据采集任务”页面,单击“新建”,进入“新建采集任务 > 数据源配置”页面,具体参数说明如下表所示。 参数名 参数说明 选择数据源 选择数据来源。可选择“MySQL”、“PostgreSQL”、“DMDBMS”、“KingBase”、“OpenGuass”、“DWS”、“Hive”、“MRSHIVE”、“TDSQL”。 数据库实例 选择支持的数据库实例。 6. 单击“下一步”,进入“子任务配置”页面: 选择开启或关闭“扫描用户表”。 选择开启或关闭“扫描系统表”。 选择开启或关闭“扫描列约束”。 选择开启或关闭“扫描视图”。 选择开启或关闭“扫描列注释”。 选择开启或关闭“扫描权限”。 7. 单击“下一步”,进入“任务信息配置”页面,配置任务信息,参数说明请参见下表。 参数名称 参数说明 任务信息 任务名称:必填项, 您可以自定义采集任务的名称。 任务描述:非必填项,对您的采集任务进行描述。 任务配置 选择开启或关闭“删除联通性失败的元数据”。 执行计划 识别周期:您可以选择“单次”、“每日”、“每周”或“每月”。 执行计划:您可以选择“立即执行”或“定时启动”。 8. 单击“下一步”,进入“配置确认”页面,确认您已经配置好的参数。 9. 确认无误后单击“完成”,即可成功创建一个新的元数据采集任务。
        来自:
        帮助文档
        数据安全中心
        用户指南
        资产管理
        元数据任务
        创建元数据采集任务
      • 1
      • ...
      • 218
      • 219
      • 220
      • 221
      • 222
      • ...
      • 289
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      智算一体机

      推荐文档

      如何创建RDS数据库

      Telnet/SSH/Rlogin访问

      查询告警

      玩转天翼云⑤:windows修改mysql目录

      如何退换发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号