活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云服务器_相关内容
      • 连接已开启SASL的Kafka实例
        本文主要介绍 连接已开启SASL的Kafka实例。 创建实例时开启SASLSSL访问,则数据加密传输,安全性更高。 由于安全问题,支持的加密套件为 TLSECDHEECDSAWITHAES128CBCSHA256 , TLSECDHERSAWITHAES128CBCSHA256和 TLSECDHERSAWITHAES128GCMSHA256 。 本章节介绍如何使用开源的Kafka客户端访问开启SASL的Kafka实例的方法,其中包含在内网中通过同一个VPC连接实例和通过公网连接实例两个场景。如果是使用DNAT访问实例,请参考使用DNAT访问Kafka实例。 说明 Kafka实例的每个代理允许客户端单IP连接的个数默认为1000个,如果超过了,会出现连接失败问题。您可以通过 前提条件 1.已配置正确的安全组。 访问开启SASL的Kafka实例时,实例需要配置正确的安全组规则,具体安全组配置要求,请参考上表。 2.已获取连接Kafka实例的地址。 如果是使用内网通过同一个VPC访问,实例端口为9093,实例连接地址获取如下图。 图 使用内网通过同一个VPC访问Kafka实例的连接地址(实例已开启SASL) 如果是公网访问,实例端口为9095,实例连接地址获取如下图。 图 公网访问Kafka实例的连接地址(实例已开启SASL) 3.已获取开启的SASL认证机制。 在Kafka实例详情页的“连接信息”区域,查看“开启的SASL认证机制”。如果SCRAMSHA512和PLAIN都开启了,根据实际情况选择其中任意一种配置连接。如果页面未显示“开启的SASL认证机制”,默认使用PLAIN机制。 图 开启的SASL认证机制 4.如果Kafka实例未开启自动创建Topic功能,在连接实例前,请先创建Topic。 5.已下载client.jks证书。如果没有,在控制台单击Kafka实例名称,进入实例详情页面,在“连接信息 > SSL证书”所在行,单击“下载”。下载压缩包后解压,获取压缩包中的客户端证书文件:client.jks。 6.已下载Kafka命令行工具1.1.0版本或者Kafka命令行工具2.3.0版本或者Kafka命令行工具2.7.2版本,确保Kafka实例版本与命令行工具版本相同。 7.已创建弹性云服务器,如果使用内网通过同一个VPC访问实例,请设置弹性云服务器的VPC、子网、安全组与Kafka实例的VPC、子网、安全组一致。在弹性云服务器中安装Java Development Kit 1.8.111或以上版本,并配置JAVAHOME与PATH环境变量,具体方法如下: 使用执行用户在用户家目录下修改“.bashprofile”,添加如下行。其中“/opt/java/jdk1.8.0151”为JDK的安装路径,请根据实际情况修改。 export JAVAHOME/opt/java/jdk1.8.0151 export PATH$​JAVAHOME/bin:JAVAH​OME/bin:$​PATH 执行source .bashprofile命令使修改生效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        连接已开启SASL的Kafka实例
      • IP 组管理
        本小节介绍服务器安全卫士通用功能IP组管理。 用户可根据自己需求,对产品中有特定作用和含义的 IP 或者 IP 段,设置为 IP 组进行统一管理,包括: 自定义内网 IP 组 :可自定义设置某些"IP 或 IP 段"为内网,则在产品使用中,属于该 IP 组的 IP 会显示为内网 IP; 安全外网 IP 组 :可自定义设置某些"IP 或 IP 段"为安全外网; 自定义 IP 组 :用户可以自定义 IP 组,以结合自身需求灵活使用。 分组管理 可自定义 IP 分组,并对其进行编辑和删除,如下图所示。 添加 IP 或 IP 段 选择分组后,点击“添加 IP 或 IP 段”,弹出添加界面,输入信息,点击“确定”后,可将该 IP 或 IP 组加入该分组。 编辑/删除 IP 和 IP 段 分组内已添加的 IP 或 IP 段,希望对其进行编辑或删除,可点击操作。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        通用功能
        IP 组管理
      • 终端节点服务监控
        本文帮助您了解如何查看终端节点服务相关的监控图表数据并设置告警规则,约定在一些特殊情况出现时向用户发送告警通知。 操作场景 VPC终端节点监控支持终端节点服务维度的监控。您可以通过云监控依据细颗粒度的监控指标获得有关终端节点服务的各种监控数据信息, 也可以通过设置适当的报警阈值和报警策略,及时发现并处理潜在的问题。 使用须知 云监控服务不需要开通,会在您使用VPC终端节点服务后自动启动。 查看监控数据 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“管理与部署>云监控”。 4. 在云监控控制台左侧导航栏,点击“VPC终端节点监控”,选择终端节点服务页签,即可进入VPC终端节点服务监控页面。 5. 点击要查看的终端节点服务的名称/ID进入该终端节点监控详情页面。 6. 在终端节点服务监控数据界面中,选择终端节点服务页签,可查看该终端节点服务的各项监控指标,分别为流入带宽、流出带宽、流入数据包速率、流出数据包速率、流入丢弃带宽、流出丢弃带宽、流入丢弃数据包速率、流出丢弃数据包速率、并发连接。 7. 选择终端节点页签,查找并选择连接到该服务的终端节点。 8. 点击“确定”,即可查看选定终端节点的监控指标信息。 监控指标说明 这些监控指标可以帮助您了解VPC终端节点的网络性能以及数据流量情况。 监控指标 说明 流入带宽 终端节点服务流入的数据带宽大小。 流出带宽 终端节点服务流出的数据带宽大小。 流入数据包速率 终端节点服务每秒钟流入的数据包数量。 流出数据包速率 终端节点服务每秒钟流出的数据包数量。 流入丢弃带宽 终端节点服务流入时被丢弃的数据带宽大小。 流出丢弃带宽 终端节点服务流出时被丢弃的数据带宽大小。 流入丢弃数据包速率 终端节点服务每秒钟流入时被丢弃的数据包数量。 流出丢弃数据包速率 终端节点服务每秒钟流出时被丢弃的数据包数量。 并发连接 终端节点服务的并发连接数。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点服务管理
        终端节点服务监控
      • 以SkyWalking方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过SkyWalking SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 SkyWalking是一款广受欢迎的国产APM(Application Performance Monitoring,应用性能监控)产品,主要针对微服务、Cloud Native和容器化(Docker、Kubernetes、Mesos)架构的应用。SkyWalking的核心是一个分布式追踪系统。 接入步骤 1、安装Agent plaintext dotnet add package SkyAPM.Agent.AspNetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供v3版本接入点(Skywalking 8.)的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、设置环境变量 plaintext ASPNETCOREHOSTINGSTARTUPASSEMBLIESSkyAPM.Agent.AspNetCore SKYWALKINGSERVICENAME 4、配置Agent属性 plaintext 安装SkyAPM.DotNet.CLI工具 plaintext dotnet tool install g SkyAPM.DotNet.CLI plaintext 生成配置文件skyapm.json plaintext dotnet skyapm config sampleapp 192.168.0.1:11800 plaintext skyapm.json文件内容如下 plaintext {   "SkyWalking": {     "ServiceName":  ,     "Namespace": "",     "HeaderVersions": [       "sw8"     ],     "Sampling": {       "SamplePer3Secs": 1,       "Percentage": 1.0     },     "Logging": {       "Level": "Information",       "FilePath": "logsskyapm{Date}.log"     },     "Transport": {       "Interval": 3000,       "ProtocolVersion": "v8",       "QueueSize": 30000,       "BatchSize": 3000,       "gRPC": {         "Servers":  ,         "Timeout": 10000,         "ConnectTimeout": 10000,         "ReportTimeout": 600000,         "Authentication": "Bearer  "       }     }   } } 属性说明: :服务名称 :获取的接入点 :获取的接入点鉴权令牌 Logging:日志记录与调试。Level表示日志级别,FilePath表示日志文件保存的位置以及文件名称 运行程序时,Agent的日志会记录在Logging设置的文件中,可以参考log文件进行调试和修改。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以SkyWalking方式接入
      • 提交导入任务
        本页介绍天翼云TeleDB数据库提交导入任务相关操作。 1、在左侧导航栏,单击开发空间 > 数据导入,进入数据导入管理页面。 2、单击数据导入按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表。 3、填写完数据导入工单后,单击提交按钮,即完成工单的提交,进入数据导入后台执行阶段。 4、数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可单击详情查看原因。更多详细操作请查看导入工单列表章节。 输入内容 说明 目标数据库(必填) 数据库/模式选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持MySQL、PostgreSQL和TeleDB,其中MySQL可选择到库级别,PostgreSQL、TeleDB可选择到模式级别。当前仅支持单选一个目标库/模式。注意:如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 文件类型(必填) 选择导入数据的上传文件类型:· SQL:目前支持INSERT,UPDATE,REPLACE语句。选择该文件类型则无法指定“目标表”和“写入方式”。· CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。· TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 目标表(必填) 在选择目标数据库下,筛选导入的目标表。仅支持CSV和TXT格式导入。 写入方式(必填) 选择导入文件的写入方式:· INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。· INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。· REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。注意:· 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。· 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL、TeleDB数据库类型支持INSERT INTO的导入方式。 附件上传(必填) 单击上传文件,上传选中文件类型对应的文件。注意:· 目前支持SQL,CSV,TXT三种文件格式,上传前请检查文件名后缀是否符合要求。· 目前仅支持上传单个文件。· 上传文件大小最大限制为1GB,请控制好文件数据大小。 工单说明(选填) 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        数据导入
        提交导入任务
      • 全量SQL洞察
        本节主要介绍全量SQL洞察。 在实例开启DAS收集全量SQL的前提下,该模块基于全量SQL数据进行分析,并提供多维度的分析、搜索、过滤的能力,帮助用户全面洞察SQL,TOP SQL快速定位异常原因,保障数据库稳定运行。 全量SQL洞察功能在对实例性能影响极小(5%以内)的情况下,记录了全量SQL,提供了访问最频繁、更新最频繁的表,锁等待时间最长的SQL等多维度的分析、搜索、过滤能力。 使用须知 关闭DAS收集全量SQL后,DAS将不再采集您新产生的SQL,已经收集的SQL也会被删除,请您谨慎操作。 免费实例的全量SQL日志仅保留1个小时,付费实例默认保留7天,最长可保存30天,到期后自动删除。 全量SQL功能不能保证记录全部数据,针对RDS for PostgreSQL会有如下使用限制: 当前全量SQL受内存缓冲区限制,业务量大的场景下,全量SQL有较小概率因缓冲区满,存在丢弃部分记录(一般来说,qps大于1000或者CPU、内存等资源达到瓶颈会出现丢失部分记录)。 当前全量SQL单条记录超过4096字节时,会默认丢弃超过4096字节的SQL。 全量SQL洞察仅支持以下内核版本的RDS for PostgreSQL实例: 如大版本为14,小版本需 > 14.4 如大版本为13,小版本需 > 13.6 (13.6>小版本>13.2,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为12,小版本需 > 12.10(12.10>小版本>12.6,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为11,小版本需 > 11.15(11.15>小版本>11.11,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为10,小版本需 > 10.20(10.20>小版本>10.16,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为9.6,小版本需 > 9.6.24(9.6.24>小版本>9.6.21,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为9.5,小版本需 > 9.6.25(部分9.5.25版本实例通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集)
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        PostgreSQL
        全量SQL洞察
      • 功能总览
        本文介绍DRDS的功能总览。 DRDS支持功能如下所示: 功能分类 功能名称 功能描述 实例管理 实例管理 包括一键检测、退订、续订、规格变更等功能。具体使用方法,请参考实例管理。 实例管理 绑定/解绑弹性IP 通过绑定弹性IP,实现通过公共网络访问数据库实例。具体方法,请参考绑定/解绑弹性IP。 实例管理 修改安全组 通过修改安全组,对DRDS实例的出入流量进行访问控制。具体方法,请参考修改安全组。 实例管理 分组管理 包括属性设置、关联MySQL管理、DML审计、IP黑白名单等功能。具体使用方法,请参考分组管理。 实例管理 节点管理 包括启动、停止节点、属性设置、命令行等功能。具体使用方法,请参考节点管理。 实例管理 schema管理 包括创建、导出、删除schema等功能。具体使用方法,请参考schema管理。 实例管理 用户管理 支持用户创建、删除、设置权限等功能。具体使用方法,请参考用户管理。 实例管理 角色管理 支持角色创建、删除、设置权限等功能。具体使用方法,请参考角色管理。 实例管理 关联MySQL管理 进行关联、删除MySQL,支持直接添加天翼云购买的MySQL实例,请参考关联MySQL管理。 实例管理 DDL审计 介绍了支持的DDL审计规则及默认值。具体使用方法,请参考DDL审计。 实例监控 实例监控 介绍了实例监控页面的监控指标。具体使用方法,请参考实例监控。 统计分析 统计分析 包括SQL执行分析、慢SQL分析、事务统计等功能。具体使用方法,请参考统计分析。 运维工具 运维工具 包括数据库连接查询、数据库锁表查询等功能。具体使用方法,请参考运维工具。 全局索引 全局索引 包括全局索引的核心特性,以及设置实例属性、管理关联DBProxy、管理节点日志和状态等功能。具体使用方法,请参考全局索引。 操作日志 操作日志 支持查看目标实例的操作日志,具体使用方法,请参考操作日志。 登录数据库 通过DMS登录DRDS实例 支持使用数据管理服务DMS登录DRDS实例,具体使用方法,请参考通过DMS登录DRDS实例。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        功能总览
      • 【调价】2024年5月20日起,关系数据库MySQL版对Ⅱ类型资源池主机资源进行价格及包年折扣调整
        本页主要对关系数据库MySQL版的价格调整及包年优惠政策进行说明。 为提供更具竞争力和经济实惠的数据存储与处理解决方案,助力业务蓬勃发展。天翼云关系数据库MySQL版将于2024年05月20日推出针对按需和包周期等全系列全规格产品的降价优惠。无论您是新用户还是现有客户,在下单时都将享受到降价后的优惠价格。对于现有客户,续费存量实例时也将适用新的价格标准。 调价详情 关系数据库MySQL版对按需、包周期全系列全规格产品进行降价优惠,对长年限包周期实例购买下调价格显著,买的时间越久价格越便宜,降幅显著,长年限降幅最高达74%,具体降价幅度如下表所示。 注:下表仅挑选常用规格做降幅说明,其他降价规格资费详情请见产品资费。 销售品名称 月费用 1年费用 2年费用 3年费用 4年费用 5年费用 销售品名称 降价前(元/月) 降价后(元/月) 降幅 降价前(元/年) 降价后(元/年) 降幅 降价前(元/2年) 降价后(元/2年) 降幅 降价前(元/3年) 降价后(元/3年) 降幅 降价前(元/4年) 降价后(元/4年) 降幅 降价前(元/5年) 降价后(元/5年) 降幅 单机版2C4G通用型 231 150 35% 2356.2 1170 50% 3880.8 1980 49% 4158 2430 42% 5544 2520 55% 6930 2700 61% 单机版2C8G通用型 422 185 56% 4304.4 1443 66% 7089.6 2442 66% 7596 2997 61% 10128 3108 69% 12660 3330 74% 单机版4C8G通用型 455 360 21% 4641 2808 40% 7644 4752 38% 8190 5832 29% 10920 6048 45% 13650 6480 53% 单机版4C16G通用型 620 480 23% 6324 3744 41% 10416 6336 39% 11160 7776 30% 14880 8064 46% 18600 8640 54% 单机版8C32G通用型 1229 960 22% 12535.8 7488 40% 20647.2 12672 39% 22122 15552 30% 29496 16128 45% 36870 17280 53% 主备版2C8G通用型 672 520 23% 6854.4 4056 41% 11289.6 6864 39% 12096 8424 30% 16128 8736 46% 20160 9360 54% 主备版16C32G通用型 3640 2897 20% 37128 22596.6 39% 61152 38240.4 37% 65520 46931.4 28% 87360 48669.6 44% 109200 52146 52% 主备版16C64G通用型 4872 3768 23% 49694.4 29390.4 41% 81849.6 49737.6 39% 87696 61041.6 30% 116928 63302.4 46% 146160 67824 54% 主备版32C64G通用型 7278 5684 22% 74235.6 44335.2 40% 122270.4 75028.8 39% 131004 92080.8 30% 174672 95491.2 45% 218340 102312 53%
        来自:
      • 防敏感信息泄露
        本文主要为您介绍如何开启防敏感信息泄露防护,以及如何配置防敏感信息泄露规则。 网站域名接入Web应用防火墙后,您可以选择开启防敏感信息泄露功能,并配置防敏感信息泄露规则,可对网页中的敏感信息或指定的HTTP响应码页面进行过滤或拦截。 前提条件 已开通Web应用防火墙(原生版)实例。 已完成网站域名接入。 使用限制 基础版和标准版不支持防敏感信息泄露功能,请升级到更高版本使用。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置”页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 在“安全防护”页签定位到“防敏感信息泄露”模块,可以选择开启/关闭防护。 7. 点击防护规则右侧的“前去配置”,进入防敏感信息泄露规则页面。 8. 单击“新建防护规则”,在弹出的对话框中,配置防敏感信息泄露规则。 参数说明如下: 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 匹配条件 选择需要在响应信息中检测的敏感信息类型,包括敏感信息、响应码、关键字。 敏感信息:用户的个人身份信息,包括身份证号、电话号码、电子邮箱等。 响应码:指定的HTTP响应码,比如401、402、403等。 关键字:自定义需要检测关键字。 匹配内容 根据所选匹配条件,对应不同的内容。 敏感信息:包括身份证号、电话号码、电子邮箱等。 响应码:选择特定的HTTP请求状态码。 关键字:需要手动输入匹配的关键字。 防护路径 需要防护的URL的路径。 执行动作 选择在响应信息中检测到敏感信息后系统执行的动作。 观察:仅通过日志记录匹配到的页面和内容,不进行拦截。 信息脱敏全部屏蔽:对匹配到的内容,将被全部进行脱敏展示。 信息脱敏自定义范围:选择该项,还需要配置“显示”或“屏蔽”具体的范围。 拦截:拦截匹配到的页面和内容,并向发起请求的客户端返回拦截响应页面。 规则描述 可选项。设置规则的描述信息。 9. 单击“确定”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(安全防护)
        防敏感信息泄露
      • 设计预案
        本文为您介绍设计预案的具体操作。 使用条件 预案设计需要至少一个不为空的预案阶段节点,需要预先创建并设计预案阶段。 操作步骤 在您创建预案后,可以通过多活容灾服务控制台进行预案设计。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案管理”,进入预案管理列表页。 5. 在列表上方下拉菜单中选择需要进行预案操作的命名空间。 6. 点击预案列表中的“预案设计”按钮。 1. 若当前预案状态为草稿,直接进入预案设计页面。 2. 若当前预案状态为已启用,且未被容灾演练或应急切换关联,直接进入预案设计页面。 3. 若当前预案状态为已启用,且存在关联的容灾演练或应急切换,弹出预案设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案设计页面。不同状态的容灾演练或应急切换与预案的关联情况如下: 1. 若当前预案已被容灾演练关联,对预案重新设计后,对应容灾演练将自动关联最新的预案流程执行演练(执行中演练不受影响)。 2. 若当前预案已被未开始的应急切换关联,对预案重新设计后,对应应急切换将关联最新的预案流程执行切换(执行中演练不受影响)。 7. 在预案设计页面,用户可拖拽预案阶段、开始节点和结束节点至画布中,同时可点击预案阶段节点进行预案阶段配置。 8. 用户拖拽预案阶段任务至画布后,点击“预案阶段”,弹出关联预案阶段弹窗,可选择已发布的预案阶段,选择后点击“确定”。 9. 整体预案设计完毕后,检查是否符合预案设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个预案阶段节点,且所有预案阶段均不能为空; 4. 所有节点必须通过箭线连接; 5. 两个节点间只能有1条箭线(不区分箭头方向); 6. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 10. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案管理
        设计预案
      • 入门简介
        本文带您快速入门多活容灾服务。 使用条件 1. 已经注册并开通天翼云账号。 2. 当前账号已开通多活容灾服务,拥有使用多活容灾服务的权限。 3. 已经完成实名认证。 使用流程 多活容灾服务使用流程如图所示。 1. 开通多活容灾服务。 2. 若生产中心为三方数据中心时,需新增三方数据中心。 3. 创建命名空间。在控制台命名空间页面创建命名空间,用户可以创建多个命名空间,用于逻辑隔离不同的资源。 4. 同步/纳管资源。在多活容灾服务平台使用相关资源之前,用户需通过资源管理模块对资源进行同步或新增操作,以便MDR侧能够实现资源的统一管理。 5. 创建容灾管理中心。用户可以根据业务需要使用一个或若干个容灾管理中心,容灾管理中心与命名空间为一对十绑定关系。 6. 接入应用(可选)。应用接入可帮助用户对容灾管理中心的云主机资源进行流量配比与健康检查监控,云主机资源健康情况可在监控大盘中查看。同时,可以帮助用户进一步将容灾管理中心的资源(如云主机、存储、数据库)按应用维度进行细粒度划分,提升资源管理便捷性。 7. 预案编排。预案编排涵盖预案阶段和预案管理两方面。预案阶段模块中,帮助用户以任务为单位进行串行或并行编排成预案阶段。预案管理模块中,用户可根据多个预案阶段互相衔接组成整体预案流程,预案流程为后续灾备演练和应急切换提供整体流程方案。 8. 容灾演练。容灾演练旨在确保灾难发生后能够快速恢复业务而进行的一系列的演练任务,涉及的演练任务来源于相应的预案流程,演练时演练任务为实战演练。 9. 应急切换。应急切换用于灾难发生后为了快速恢复业务而进行的一系列切换或恢复任务,涉及的演练任务来源于相应的预案流程。故障切换场景下可根据预设的切换预案流程拉起依次数据库、存储、灾备云主机等相关服务;故障回切场景下可根据预设的回切预案流程执行数据库、存储、容灾云主机的回切操作,以确保业务正常运行。
        来自:
        帮助文档
        多活容灾服务
        快速入门
        入门简介
      • 关联查询使用分布键关联
        本页介绍天翼云TeleDB数据库关联查询使用分布键关联的最佳实践。 多表关联时,通过explain查看执行计划,查看SQL语句是否使用到分布键(前面已介绍),查看SQL关联是否使用到了分布键。 如果两表关联都使用到了分布键,那么两表关联可以在dn节点内完成,不需要在dn节点之间交互数据;如果其中一张表没有用分布键,那么两表关联不能在dn节点内完成,该表需要在dn节点之间交互数据;如果两张表都没有使用分布键,那么两张表都需要在dn节点之间交互数据。 两表关联时,应优先使用两表的分布键关联,尽量保证高频并发的SQL都用到了分布键关联;其次至少有一张表用到了分布键,也可以减少一次数据重分布;两张表都没有用到分布键的场景应尽量避免。同时,两表关联时如果只能有一个表带分布键,那么更大的表、或查询结果集更大的表优先使用到分布键,让小一点的表去重分布数据。 在执行计划中,如果DN之间有数据重分布,那么执行计划中会有这样的关键字Distribute results by S: f1,这里表示按f1进行数据重分布。 例如,teledb1的分布键为f2,teledb2的分布键为f1,下面的SQL,两表关联时teledb1没有用到分布键,两表关联不能在dn节点内完成,需要dn节点之间发起数据交互(重分布),teledb1在完成表扫描后发起了按f1字段重分布的动作,对应执行计划中的Distribute results by S: f1。 teledb explain select teledb1. from teledb1,teledb2 where teledb1.f1teledb2.f1 ; QUERY PLAN Remote Subquery Scan on all (dn001,dn002) (cost29.80..186.32 rows3872 width40) > Hash Join (cost29.80..186.32 rows3872 width40) Hash Cond: (teledb1.f1 teledb2.f1) > Remote Subquery Scan on all (dn001,dn002) (cost100.00..158.40 rows880 width40) Distribute results by S: f1 > Seq Scan on teledb1 (cost0.00..18.80 rows880 width40) > Hash (cost18.80..18.80 rows880 width4) > Seq Scan on teledb2 (cost0.00..18.80 rows880 width4) (8 rows) 例如下面的SQL,teledb1和teledb2关联时都用到了分布键,那么两表关联可以在dn节点内完成,不需要在dn节点之间交互数据。 teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        性能优化最佳实践
        SQL优化最佳实践
        关联查询使用分布键关联
      • 实时日志查询
        介绍实时日志查询的相关操作。 适用场景 媒体存储提供实时日志查询,通过此功能,用户可以自助查询通过API或SDK操作对象存储的相关日志。 实时日志查询时提取日志文件中重要部分字段,按照列表展示,用户能按照指定字段检索,提高查看日志的效率。 前提条件 已注册天翼云账号。 已开通媒体存储的对象存储能力。 登录媒体存储控制台。 使用说明 目前实时日志查询为内测功能,如需使用,可联系客户经理或提交工单申请。 实时日志查询记录的日志为通过控制台、API或SDK进行的接口操作。 实时日志查询仅支持查询7天内历史日志,如有其他日志查询以及日志下载需求,请使用日志存储功能。具体可参考 日志存储 。 操作步骤 1. 登录媒体存储控制台后,进入【日志查询实时日志查询】菜单页面,默认查询最近24小时的操作日志。 2. 支持通过资源池、存储桶名、操作类型、状态码、资源标识以及时间查询日志记录。 实时日志记录说明 通过实时日志查询,您可查询以下接口的相关操作记录: 接口能力 接口英文名 列举桶列表 listBuckets 创建桶 putBucket 删除桶 deleteBucket 获取对象列表 listObjects 获取桶信息 getBucketInfo 返回存储桶所在的区域 getBucketLocation 设置桶控制权限 putBucketAcl 获取桶控制权限 getBucketAcl 配置桶生命周期 putLifecycle 获取桶生命周期配置 getLifecycle 删除桶生命周期配置 deleteLifecycle 开启桶版本控制 putVersioning 获取桶版本控制 getVersioning 列举桶版本控制 listVersions 授权桶策略 putPolicy 获取桶策略 getPolicy 删除桶策略 deletePolicy 开启桶静态网站托管 putWebsite 获取桶静态网站托管 getWebsite 删除桶静态网站托管 deleteWebsite 开启桶默认加密 putEncryption 获取桶默认加密 getEncryption 删除桶默认加密 deletetEncryption 设置桶标签 putBucketTag 获取桶标签 getBucketTag 删除桶标签 deleteBucketTag 设置桶跨域配置 putCors 获取桶跨域配置 getCors 删除桶跨域配置 deleteCors 预检options请求 options 上传对象 putObject 拷贝对象 copyObject 追加上传对象 AppendObject 基于表单上传对象到指定的桶。 postObject 下载对象 getObject 删除对象 deleteObject 批量删除对象 deleteMultipleObjects 获取对象元数据 headObject 获取对象元数据 getObjectMeta 初始化分片上传任务 initiateMultipartUpload 上传分片 uploadPart 合并分片 completeMultipartUpload 拷贝分片 copyUploadPart 取消分片任务 abortMultipartUpload 列举分片任务 listMultipartUploads 列举某个分片任务中已成功上传的分片 listParts 设置对象权限控制 putObjectAcl 获取对象权限控制 getObjectAcl 设置对象标签 putObjectTag 获取对象标签 getObjectTag 删除对象标签 deleteObjectTag
        来自:
        帮助文档
        媒体存储
        控制台指南
        日志管理
        实时日志查询
      • 计费说明
        本章节介绍数据迁移的计费说明。 目前在线迁移服务暂不收取服务费用,但因迁移数据时会产生数据的上传下载以及API请求,所以会产生对应的下行流量费用以及API请求次数费用。 下行流量说明 数据迁移时,服务会将数据先从源端下载,再将数据上传至媒体存储,这个过程会产生源端的下行流量费用,流量由已迁移数据的实际大小决定,数据上传至媒体存储不收取费用。 1.如果源端为第三方云厂商,数据迁移时产生的下行流量费用由第三方云厂商收取。 2.如果源端为媒体存储,数据迁移时产生的下行流量费用由天翼云收取。 API请求次数说明 以下说明基于单个文件的请求次数 场景 源端 目的端 对于源地址中与目的地址不同名的文件 1. 迁移前对比数据,确认对象是否存在和对比需要一次head请求 2. 迁移数据需要一次get请求 1. 迁移前对比数据,确认对象是否存在和对比需要一次head请求 2. 迁移数据需要一次put请求 3. 迁移完成后校验数据需要一次head请求 对于源地址和目的地址的同名文件,并且文件需要迁移至目的端 1. 迁移前对比数据,确认对象是否存在和对比需要一次head请求 2. 迁移数据需要一次get请求 1. 迁移前对比数据,确认对象是否存在和对比需要一次head请求 2. 迁移数据需要一put请求 3. 迁移完成后校验数据需要一次head请求 对于源端和目的端的同名文件,并且文件不需要迁移至目的端 迁移前对比数据,确认对象是否存在和对比需要一次head请求 1. 迁移前对比数据,确认对象是否存在和对比需要一次head请求 2. 迁移完成后校验数据需要一次head请求 注意: 如果迁移文件大于或等于100MB,则迁移数据时会将文件进行分片后再上传,单个分片大小为50MB,此时迁移数据的请求数根据迁移数据大小决定。如果进行了分片处理,在分片之前会有一个post请求,分片上传完毕之后合并分片会有一个post请求。 例如:大小为150M的文件会被分成三片,迁移时源端请求数与之前一致,数据迁移过程中目的端会产生三次put请求和两次post请求,因此目的端整个流程一共有两次head请求,两次post请求和三次put请求。 采用传入文件或者文件列表形式的方式进行迁移,每个object会多产生一次head请求(为了验证传入的文件是否存在)。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据迁移
        计费说明
      • TeleDB内核架构
        本页介绍天翼云TeleDB数据库的内核架构。 分布式数据库方案架构如图所示。 Global Transaction Manager(简称 GTM),是全局事务管理器,负责全局事务管理,包括管理分布式事务和管理全局对象。GTM 上不存储业务数据。 管理分布式事务‌:GTM负责协调和管理分布式环境中的事务,确保事务的原子性、一致性、隔离性和持久性(ACID属性),从而保证数据的一致性和完整性。 管理全局对象‌:除了管理分布式事务本身,GTM还负责管理全局对象,如序列等,这些对象在分布式环境中需要跨多个节点进行协调和管理。 Coordinator(简称 CN)是协调节点,主要负责数据的分发和查询规划。协调节点需对外提供接口,确保高效处理和分发数据。协调节点是分布式系统中的一个组件,通过任务调度和数据分发来协调整个数据处理流程,提高处理速度和可靠性。它们还负责监控工作节点的状态和进度,确保数据的高效处理和分析。在大数据处理中,协调节点作为主节点,分配任务给工作节点,确保负载均衡和系统的容错能力。 任务调度‌:协调节点负责将任务分配给可用的工作节点,根据负载均衡策略和节点的可用性确定任务的分配方式。 数据分发‌:协调节点将输入数据分发给工作节点,实现数据并行处理,提高处理速度。 状态监控‌:协调节点监控工作节点的状态和进度,及时检测节点故障或任务失败,并采取相应的措施,如重新分配任务或启动备用节点。‌ Datanode(简称 DN)是数据节点,主要负责存储数据,执行协调节点分发的业务请求。‌它包含数据库的实际数据文件和索引文件,并接收来自应用程序或其他节点的数据读写请求,负责执行实际的数据存储和检索操作。数据节点以分布式方式组织,每个节点存储部分数据,通过分片(Sharding)技术来实现数据的水平扩展和负载均衡。这样的设计使得分布式数据库系统能够支持大规模的数据存储和高可用性,同时确保数据的均匀分布,避免单个节点成为瓶颈,从而提高系统的整体性能和可靠性。 说明 各个数据节点可以部署在不同的物理机上,也支持同物理机部署多个数据节点,注意互为主备数据节点不建议部署在同物理主机上。数据节点存储空间彼此之间独立、隔离,是标准的无共享存储拓扑结构。并且数据节点之间可以相互通信,互相交换数据。‌ TeleDB管控资源全生命周期管理。 说明 在接口上,TeleDB 支持 JDBC、ODBC、shell、C、Python、PHP、.NET 等大多数语言的 API。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB内核架构
      • 密钥轮换概述
        自动轮换密钥 KMS会根据设置的轮换周期(默认365天)自动轮换密钥,系统自动生成一个新的密钥B,并替换当前使用的密钥A。自动轮换密钥只会更改主密钥的密钥材料,即加密操作中所使用的加密材料。不管密钥材料有没有变更或变更了多少次,该主密钥仍是相同的逻辑资源。主密钥的属性(密钥ID、别名、描述、权限)不会发生变化。 自动密钥轮换具有以下特点: 为现有的自定义密钥开启密钥轮换后,KMS自动为该自定义密钥生成新的密钥材料。 自动密钥轮换对主密钥所保护的数据无效。它不会轮换主密钥生成的数据密钥,也不会对任何受主密钥保护的数据重新加密,并且它无法减轻数据密钥泄露的影响。 自动密钥轮换工作原理 说明 KMS会保留与该自定义密钥关联的所有版本的自定义密钥。这使得KMS可以解密使用该自定义密钥加密的任何密文。 加密数据时,KMS会自动使用当前最新版本的自定义密钥来执行加密操作。 解密数据时,KMS会自动使用加密时所使用的自定义密钥来执行解密操作。 密钥支持的轮换方式 密钥轮换方式如下表: 密钥的来源或状态 支持的密钥轮换方式 默认密钥 不支持密钥轮换。 自定义密钥 仅支持手动轮换密钥。 对称密钥 支持自动轮换密钥和手动轮换密钥。 非对称密钥 仅支持手动轮换密钥。 已禁用的主密钥 禁用主密钥后,KMS不会对它进行轮换。但是,密钥轮换状态不会发生改变,并且在主密钥处于禁用状态时不能对其进行更改。重新启用主密钥后,如果已禁用的自定义密钥已超过轮换周期,KMS会立即轮换。如果已禁用的自定义密钥少于轮换周期,KMS会恢复之前的密钥轮换计划。关于禁用密钥的信息,请参见禁用密钥。 计划删除的主密钥 对于计划删除的主密钥,KMS不会对它进行轮换。如果取消删除,将恢复之前的密钥轮换状态。如果计划删除的自定义密钥已超过轮换周期,KMS会立即轮换。如果计划删除的用户主密钥少于轮换周期,KMS会恢复之前的密钥轮换计划。关于计划删除密钥的信息,请参见删除密钥。 说明 用户可在“轮换策略”页面查看轮换详情,例如:上次轮换时间、轮换次数。
        来自:
        帮助文档
        数据加密
        用户指南
        密钥管理
        轮换密钥
        密钥轮换概述
      • 查询HBlock信息
        项目 描述 HBlock ID HBlock的ID。 HBlock name HBlock的名字。 HBlock serial ID HBlock的序列号。 User name HBlock的管理员用户名。 Base Pool 基础存储池(仅集群版)。 Fault domain of base pool 基础存储池的故障域类型(仅集群版): path:数据目录级别。 server:服务器级别。 rack:机架级别。 room:机房级别。 Setup date HBlock初始化的时间。 License ID 最后一次成功导入的软件许可证ID(商业版)。 License type 软件许可证订购类型: Subscription:订阅模式。 Perpetual:永久许可模式。 License status 软件许可证状态: Effective:软件许可证已生效。 Expired:软件许可证已过期。 Invalid:软件许可证无效。 License maintenance expire time 对于永久许可模式软件许可证,软件许可证维保过期时间。 License expire time 对于订阅模式软件许可证,软件许可证过期时间。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        查询HBlock信息
      • 查询单个采集的日志
        名称 类型 描述 id String 日志ID。 startTime Long HBlock日志采集的起始时间。 endTime Long HBlock日志采集的结束时间。 servers Array of string 日志采集的服务器ID。 logTypes Array of logType 采集的日志类型: Config:配置相关的日志。 System:系统相关的日志。 Data:数据处理相关的日志(仅集群版支持)。 Coordination:内部协调服务相关的日志(仅集群版支持)。 file String 日志文件存储路径及名称。 status Enum 日志采集的状态: Processing:日志采集中。 Succeeded:采集成功。 PartiallySucceeded:部分采集成功。 Failed:采集失败。 size Long 采集到的日志文件大小,单位是bytes。 createTime Long 日志采集请求的创建时间。 message String 收集失败或者部分收集成功的原因,如果收集成功,则不会返回此项。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        事件和日志管理
        查询单个采集的日志
      • 策略语法
        云服务名称 是否支持条件键 云通信短信 否 弹性文件服务 否 分布式消息服务Kafka 否 账务 是 分布式消息服务RabbitMQ 否 分布式消息服务RocketMQ 否 云硬盘 是 天翼云电脑(政企版) 是 内网DNS 否 CRM业务中台 是 分布式缓存服务Redis版 否 弹性云主机 是 弹性负载均衡 否 镜像服务 是 云监控 否 弹性伸缩服务 否 虚拟私有云 是 物理机 否 云硬盘备份 否 云主机备份 否 服务器安全卫士(原生版) 否 密钥管理 否 云间高速 否 统一身份认证 是 客服工单 是 容器云服务引擎CCSE 是 微服务应用平台MSAP 否 活动与券 是 消息管理 是 Web应用防火墙(原生版) 否 云审计 否 企业组织 是 VPC终端节点 否 NAT网关 是
        来自:
        帮助文档
        统一身份认证(一类节点)
        用户指南
        策略管理
        策略语法
      • 个人数据保护机制
        访问权限控制 云堡垒机系统用户个人数据通过加密存储,系统管理员及上级管理员需通过安全码才能查看用户的手机、邮箱。但用户密码对所有人(包括本人)都不明文可见。 二次认证 云堡垒机系统用户账号配置用户登录限制“多因子认证” 后,用户在登录系统时开启登录验证功能,需要二次认证(二次认证方式支持 “手机短信” 、 “手机令牌” 、 “USBKey” 、 “动态令牌”),有效保护用户敏感信息。 日志记录 云堡垒机系统用户个人数据的所有操作,包括增加、修改、查询和删除,云堡垒机系统都会记录审计日志,并可备份到远程服务器或本地电脑。拥有审计权限用户可以查看并管理下级管理部门用户账号的日志,系统管理员admin拥有系统最高权限,可查看并管理登录系统全部用户账号操作记录。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        产品简介
        个人数据保护机制
      • DNAT规则类
        本文介绍NAT网关—DNAT规则类相关问题。 为什么使用DNAT? DNAT是一种网络地址转换技术,用于改变数据包中的目标IP地址和端口号。当数据包从外部网络传输到内部网络时,DNAT会将数据包中的目标IP地址和端口号替换为内部网络中对应的IP地址和端口号,以便正确地将数据包传递给内部主机,从而保护自己的服务器不暴露在公网中,以免受到攻击。 同时,DNAT功能可以实现VPC内多个云主机共享弹性IP,为互联网提供服务。 DNAT规则是否支持更新操作? 支持 进入NAT网关实例详情页,选择DNAT规则,点击需要修改的DNAT规则操作列中的“修改”按钮,即可修改DNAT规则。 操作流程详见管理DNAT规则。
        来自:
        帮助文档
        NAT网关
        常见问题
        DNAT规则类
      • 介绍
        本节简要介绍OOS数据迁移工具。 OOS数据迁移工具是一款将数据迁移至OOS的工具。您可以将迁移工具部署在本地服务器或云主机上,将其它云存储(阿里云、腾讯云、华为云、AmazaonS3)的数据迁移到OOS、本地数据迁移到OOS、或者进行OOS各资源池间数据迁移。 OOS数据迁移工具具有以下特点: 支持断点续传。迁移过程中,如果出现中断,重新启动工具后,可以继续执行迁移工作。已经迁移完成的部分数据,根据isSkipExist参数设置进行上传或跳过。 支持流量控制。迁移过程中,可以动态调整从源端获取数据的速率。 支持迁移指定前缀的文件。 支持文件并行下载和上传。 支持根据迁移工具日志(迁移成功日志、迁移失败日志、迁移忽略日志)进行文件迁移。
        来自:
        帮助文档
        对象存储(经典版)I型
        常用工具
        OOS数据迁移工具
        介绍
      • 典型应用
        互联网 DDS的副本集模式采用三节点Replica Set的高可用架构,三个数据节点组成一个反亲和组,部署在不同的物理服务器上,自动同步数据。Primary节点和Secondary节点提供服务,两个节点分别拥有独立内网地址,配合Driver实现读取压力分配。 大型企业的数据库往往需要应对TB级数据,有较强的数据存储需求。且大数据场景下,还需要满足业务在线数据实时写入数据库、大数据计算分析、分析结果反馈等实时查询、动态分析的需求。 优势 MapReduce: 解决数据分析场景需求,用户可以自己写查询语句或脚本,将请求都分发到DDS上完成。 性能扩展能力强: 应对业务增长快,数据量大的内容管理系统。具备较好的扩展能力。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        典型应用
      • 操作流程
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        本地PostgreSQL迁移到RDS for PostgreSQL
        操作流程
      • 操作流程
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        其他云PostgreSQL迁移到RDS for PostgreSQL
        操作流程
      • 如何修改弹性云主机(Windows)的SID
        本文向您介绍如何修改弹性云主机(Windows)的SID。 操作场景 Windows操作系统是通过安全标识符(SID)对计算机和用户的识别。由于基于同一镜像生产的云服务器实例 SID 相同,会引起无法入域的问题。如果您需要搭建 Windows 域环境,则需要通过修改 SID 以达到入域的目的。本文档以 Windows Server 2012 操作系统云服务器为例,介绍如何使用系统自带sysprep 以及 sidchg 工具修改 SID。 注意 本说明仅适用于 Windows Server 2008 R2 、Windows Server 2012 以及Windows Server 2016及更高版本。 如果有批量修改 SID 的需求,可通过制作自定义镜像(选择 “执行 sysprep 制作镜像”)解决。 修改云主机SID可能导致数据丢失或系统损坏,建议您提前做好数据备份。 操作步骤 使用sysprep修改SID 注意 1. 使用 sysprep 修改 SID 后,系统参数很多都被重新设置,包括 IP 配置信息等,您必须手动重新设置。 2. 使用 sysprep 修改 SID 后,C:UsersAdministrator 将会被重置,系统盘部分数据将被清理,请注意做好数据备份。 1. 使用远程登录方式登录云主机。 2. 在操作系统界面,点击运行,输入cmd,按Enter,打开管理员命令行工具。 在管理员命令行工具中,执行以下命令,保存当前网络配置。 ipconfig /all 3. 以管理员身份使用 PowerShell 执行以下命令。 $unattendContent @" true Work 3 true true "@ $unattendContent OutFile FilePath C:WindowsSystem32Sysprepunattend.xml Encoding UTF8 Force C:WindowsSystem32Sysprepsysprep.exe /generalize /oobe /shutdown /unattend:C:WindowsSystem32Sysprepunattend.xml 4. 执行完成后,系统会自动关机。此时,您可在云平台制作私有镜像。 5. 启动云主机进入操作系统后执行下方命令,验证SID是否已修改,返回类似如下信息,则表示SID已完成修改。 whoami /user 6. 根据步骤2保存的网络配置信息,重新设置网卡相关信息(如IP地址、网关地址、DNS等)。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        使用故障类
        如何修改弹性云主机(Windows)的SID
      • 安全组的使用限制
        实践建议 请您遵循白名单原则配置安全组规则,即安全组内实例默认拒绝所有外部的访问请求,通过添加允许规则放通指定的网络流量。 添加安全组规则时,请遵循最小授权原则。例如,放通22端口用于远程登录云主机时,建议仅允许指定的IP地址登录,谨慎使用0.0.0.0/0(所有IP地址)。 请您尽量保持单个安全组内规则的简洁,通过不同的安全组来管理不同用途的实例。如果您使用一个安全组管理您的所有业务实例,可能会导致单个安全组内的规则过于冗余复杂,增加维护管理成本。 您可以将实例按照用途加入到不同的安全组内。例如,当您具有面向公网提供网站访问的业务时,建议您将运行公网业务的Web服务器加入到同一个安全组,此时仅需要放通对外部提供服务的特定端口,例如80、443等,默认拒绝外部其他的访问请求。同时,请避免在运行公网业务的Web服务器上运行内部业务,例如MySQL、Redis等,建议您将内部业务部署在不需要连通公网的云主机上,并将这些云主机关联至其他安全组内。 对于安全策略相同的多个IP地址,您可以将其添加到一个IP地址组内统一管理,并在安全组内添加针对该IP地址组的授权规则。当IP地址发生变化时,您只需要在IP地址组内修改IP地址,那么IP地址组对应的安全组规则将会随之变更,无需逐次修改安全组内的规则,降低了安全组管理的难度,提升效率。 请您尽量避免直接修改已运行业务的安全组规则。如果您需要修改使用中的安全组规则,建议您先克隆一个测试安全组,然后在测试安全组上进行调试,确保测试安全组内实例网络正常后,再修改使用中的安全组规则,减少对业务的影响。 您在安全组内新添加实例,或者修改安全组的规则后,此时不需要重启实例,安全组规则会自动生效。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        安全组
        安全组的使用限制
      • 创建测试用例
        本文主要介绍创建测试用例 操作步骤 1、登录性能测试控制台,选择左侧导航栏的“测试工程”。 2、在性能测试测试工程所在行,单击测试工程名称,例如前面创建的测试工程“Webtest”,进入测试工程详情页面。在“测试用例”页签,可以看到自动生成的默认目录和样本用例。 3、在默认目录下单击“样本用例”,选择页面右侧的“用例步骤”,选择前置步骤或测试步骤配置。 前置步骤:每个执行线程中,仅执行一次。如无业务需求可以不添加。 测试步骤:测试用例的执行体,需要配置。 4、在该用例下,单击“添加请求”。输入请求名称,添加请求信息。 报文 必须配置。报文是HTTP应用程序之间发送的数据块。 选择“报文”,根据被测服务的实际情况,设置报文信息。 思考时间 可选配置。为了更好的模拟用户行为,需要模拟用户在不同操作之间的等待时间。例如当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟就称为思考时间。 请根据各业务的不同来设置思考时间。建议性能测试的时候,不要设置过长的思考时间,以最坏的情况下对服务器施压。 如果需要配置,请启用“思考时间”,设置执行下一个动作之间停留的持续时间,例如:1000毫秒。 响应提取 可选配置。如果同一用例中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 如果需要配置,请启用“响应提取”,设置响应提取参数。 检查点 可选配置。如果设置检查点,通过自定义校验信息来验证服务端的返回内容是否正确。 如果需要配置,请启用“检查点”,配置检查点参数。 5、在该用例下,选择“压力配置”。 可根据业务特点选择不同的压力模式,添加多个阶段,每个阶段模拟不同的并发用户数。 6、配置完成后,单击“保存”。 7、单击页面右上角的“调试”,在弹出的对话框中选择资源组后单击“启动调试”。 8、在“调试日志”页签,查看调试的操作日志。 9、调试完成后,在“结果”页签,查看测试用例调试的具体内容。 如果调试结果报错,可根据错误日志信息,修改用例后重新调试。
        来自:
        帮助文档
        性能测试PTS
        快速入门
        创建测试用例
      • 使用预签名URL直传媒体存储
        本文介绍使用预签名URL直传媒体存储的最佳实践。 实践背景 对象存储SDK提供预签名接口可以生成预签名URL,通过预签名URL,移动端APP可以直接上传或者下载文件。不需要使用SDK和密钥,使用HTTP接口就可以进行文件的上传和下载。 应用流程 使用预签名URL直传媒体存储应用流程如下: 实践步骤 生成预签名URL 业务服务器配置长期密钥,调用预签名接口生成预签名URL,具体可参照如下java示例。如需其他语言SDK 示例,可参考:SDK概览 。 上传预签名 String bucketName " "; String objectKey " "; LocalDateTime expirationDateTime LocalDateTime.now().plusSeconds(5 60); //url的有效时间5分钟 Date expiration Date.from(expirationDateTime.atZone(ZoneId.systemDefault()).toInstant()); try { GeneratePresignedUrlRequest generatePresignedUrlRequest new GeneratePresignedUrlRequest(bucketName, objectKey) .withMethod(HttpMethod.PUT) .withExpiration(expiration); URL url s3.generatePresignedUrl(generatePresignedUrlRequest); } catch (AmazonServiceException e) { System.err.println(e.getErrorMessage()); } 下载预签名 String bucketName " "; String objectKey " "; try { GeneratePresignedUrlRequest generatePresignedUrlRequest new GeneratePresignedUrlRequest(bucketName, objectKey) .withMethod(HttpMethod.GET) .withExpiration(expiration); URL url s3.generatePresignedUrl(generatePresignedUrlRequest); } catch (AmazonServiceException e) { System.err.println(e.getErrorMessage()); } 使用预签名URL直传 移动端通过业务服务器获取到预签名URL,使用HTTP接口和预签名URL上传或者下载文件。具体可参照如下示例。 上传 Log.i(TAG, "upload"); try { OkHttpClient httpClient new OkHttpClient.Builder() .followRedirects(false) .retryOnConnectionFailure(false) .cache(null) .build(); MediaType mediaType MediaType.parse("text/plain"); RequestBody body RequestBody.create("file content", mediaType); Request httpRequest new Request.Builder() .url(url) .put(body) .build(); Call c httpClient.newCall(httpRequest); Response res c.execute(); Log.i(TAG, "Status:" + res.code()); if (res.header("ETag") ! null) { Log.i(TAG, "ETag:" + res.header("ETag")); } res.close(); } catch (IOException e) { e.printStackTrace(); } } 下载 private void download(String url) { Log.i(TAG, "download"); try { OkHttpClient httpClient new OkHttpClient.Builder() .followRedirects(false) .retryOnConnectionFailure(false) .cache(null) .build(); Request httpRequest new Request.Builder() .url(url) .get() .build(); Call c httpClient.newCall(httpRequest); Response res c.execute(); Log.i(TAG, "Status:" + res.code()); if (res.body() ! null) { Log.i(TAG, "Content:" + res.body().string()); } res.close(); } catch (IOException e) { e.printStackTrace(); } }
        来自:
        帮助文档
        媒体存储
        最佳实践
        对象存储
        操作使用
        使用预签名URL直传媒体存储
      • 事件样例
        以下提供云审计服务所收集事件的两个页面样例,并对其中常用的观察点进行了描述,以方便用户更直观的理解事件信息。其他服务所产生的事件可参照以下样例理解。 创建弹性云主机实例 json { "time": "2016/12/01 11:07:28 GMT+08:00", "user": { "name": "aaa/opservice", "id": "f2fe9fac63414a35a7d03108d5f1ea73", "domain": { "name": "aaa", "id": "1f9b9ba51f6b4061bd5c1736b28469f8" } }, "request": { "server": { "name": "asconfig15f1XWO68TFC", "imageRef": "b2b2c7dcbbb04d6b81ddf0904023d54f", "flavorRef": "m1.tiny", "personality": [], "vpcid": "e4c374b93675482c9b814acd59745c2b", "nics": [ { "subnetid": "fff8913288d44e5b9e27d9001167d24f", "nictype": null, "ipaddress": null, "binding:profile": null, "extradhcpopts": null } ], "adminPass": "", "count": 1, "metadata": { "opsvcuserid": "26e96eda18034ae9a44130bacb967b96" }, "availabilityzone": "az1.dc1", "rootvolume": { "volumetype": "SATA", "extendparam": { "resourceSpecCode": "SATA" }, "size": 40 }, "datavolumes": [], "securitygroups": [ { "id": "dd597fd7d1194994a22c891fcfc54be1" } ], "keyname": "KeyPair3e51" } }, "response": { "status": "SUCCESS", "entities": { "serverid": "42d39b4a19b74ee2b01ba9f1353b4c54" }, "jobid": "4010b39d58b855980158b8574b270018", "jobtype": "createSingleServer", "begintime": "20161201T03:04:38.437Z", "endtime": "20161201T03:07:26.871Z", "errorcode": null, "failreason": null }, "servicetype": "ECS", "resourcetype": "ecs", "resourcename": "asconfig15f1XWO68TFC", "resourceid": "42d39b4a19b74ee2b01ba9f1353b4c54", "sourceip": "", "tracename": "createSingleServer", "tracestatus": "normal", "tracetype": "SystemAction", "apiversion": "1.0", "recordtime": "2016/12/01 11:07:28 GMT+08:00", "traceid": "4abc3a67b77311e684128f0ed3cc97c6" } 在以上信息中,可以重点关注如下字段: "time":记录了事件发生的时间,本例中为12月1日上午11点07分28秒。 "user":记录了操作用户的信息,本例中操作用户为企业帐户(domain字段)aaa下的用户(name字段)aaa。 "request":记录了创建ECS服务器的请求,可以抽取该ECS服务器的简单信息,如name为asconfig15f1XWO68TFC,资源id为e4c374b93675482c9b814acd59745c2b。 "response":记录了创建ECS服务的返回结果,可以抽取其中的关键信息,如创建结果(status字段)为Success,错误码(errorcode字段)和失败原因(failreason字段)均为空(null)。
        来自:
        帮助文档
        云审计
        用户指南
        云审计服务事件参考
        事件样例
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • 生产消费
        本节介绍了编译工程生产消费的主要内容点,包括引入依赖、绑定BindingKey、生产消息和消费消息。 前提条件 创建分布式消息服务RabbitMQ实例。 操作步骤 RabbitMQ是一个开源的消息队列中间件,支持生产者和消费者之间的异步通信。在上述资源准备完成后,接下来需要编译工程生产消费,主要分以下几个步骤: 1、编写生产者代码:编写一个生产者程序。该程序将连接到RabbitMQ服务器,并将消息发送到队列中。 2、编写消费者代码:编写一个消费者程序。该程序将连接到RabbitMQ服务器,并从队列中接收消息。 3、运行生产者和消费者:运行生产者程序,它将发送消息到队列中。然后运行消费者程序,它将从队列中接收并处理消息。 4、验证结果:检查生产者和消费者程序的输出,确保消息被正确发送和接收。 引入依赖 在使用RabbitMQ时,你需要在你的项目中引入相应的依赖。具体的依赖项可能会因你的项目和需求而有所不同。在使用RabbitMQ之前,请确保查阅官方文档以获取最新的依赖项和使用说明。 以Java编程语言为例,可以使用RabbitMQ的Java客户端库。你可以在Maven或Gradle构建工具中添加以下依赖项: com.rabbitmq amqpclient 5.7.0 也可以通过下载JAR包来引入依赖。 绑定BindingKey 在RabbitMQ中,绑定键(Binding Key)是用于绑定交换机(Exchange)和队列(Queue)的关键字。当一个消息被发送到交换机时,交换机会根据绑定键将消息路由到相应的队列中。 绑定键是在创建绑定(Binding)时指定的,它定义了消息应该如何被路由到队列。绑定键通常与消息的属性或内容进行匹配,以确定消息应该发送到哪个队列。 绑定键可以具有不同的形式,取决于使用的交换机类型。以下是一些常见的绑定键形式: 直接匹配(Direct Match):绑定键与消息的路由键(Routing Key)完全匹配时,消息会被路由到相应的队列。 通配符匹配(Wildcard Match):绑定键可以使用通配符进行模式匹配。常见的通配符有和
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        生产消费
      • 1
      • ...
      • 291
      • 292
      • 293
      • 294
      • 295
      • ...
      • 341
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      集群信息

      适用场景

      开通备案

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号