云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(经典版)I型_相关内容
      • 视图管理
        select from trangemv; f1 f2new + 1 20230822 3 20230822 2 20230822 2 20230822 (4 rows) teledb REFRESH MATERIALIZED VIEW trangemv; REFRESH MATERIALIZED VIEW teledb select from trangemv; f1 f2new + 1 20230822 2 20230822 2 20230822 5 20230822 3 20230822 (5 rows) 注意 物化视图数据存储在CN节点上面,每个CN节点各有一份相同的数据。 plaintext teledb explain select from trangemv; QUERY PLAN Seq Scan on trangemv (cost0.00..22.70 rows1270 width12) (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        视图管理
      • 视图管理
        select from trangemv; f1 f2new + 1 20230822 3 20230822 2 20230822 2 20230822 (4 rows) teledb REFRESH MATERIALIZED VIEW trangemv; REFRESH MATERIALIZED VIEW teledb select from trangemv; f1 f2new + 1 20230822 2 20230822 2 20230822 5 20230822 3 20230822 (5 rows) 注意 物化视图数据存储在CN节点上面,每个CN节点各有一份相同的数据。 plaintext teledb explain select from trangemv; QUERY PLAN Seq Scan on trangemv (cost0.00..22.70 rows1270 width12) (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        视图管理
      • 视图管理
        select from trangemv; f1 f2new + 1 20230822 3 20230822 2 20230822 2 20230822 (4 rows) teledb REFRESH MATERIALIZED VIEW trangemv; REFRESH MATERIALIZED VIEW teledb select from trangemv; f1 f2new + 1 20230822 2 20230822 2 20230822 5 20230822 3 20230822 (5 rows) 注意 物化视图数据存储在CN节点上面,每个CN节点各有一份相同的数据。 teledb explain select from trangemv; QUERY PLAN Seq Scan on trangemv (cost0.00..22.70 rows1270 width12) (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        视图管理
      • NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        本指南基于物理机的Galaxy镜像进行集群化快速部署,区别于传统的DeepSeek部署方式依赖于手动编写配置脚本并拉起服务,本指南支持多节点分布式部署,集成了Slurm作业调度系统,优化了存储架构与高可用性设计。 一、环境准备 1.1 前置条件 基础要求: 节点类型 镜像要求 数量要求 管理节点 CentOS7.9@GalaxyMasterGPU镜像 1台 计算节点 CentOS7.9@GalaxyComputeGPU镜像 ≥2台 服务要求:Slurm作业调度系统已正常启动、所有节点间SSH免密互通、NTP时间同步服务已配置。 1.2 存储配置 查看磁盘设备: $ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 446.6G 0 disk sda1 8:1 0 122M 0 part sda2 8:2 0 976.6M 0 part /boot/efi sda3 8:3 0 1.9G 0 part /boot sda4 8:4 0 443.7G 0 part systemlvswap 253:0 0 16G 0 lvm [SWAP] systemlvroot 253:1 0 427.7G 0 lvm / loop0 7:0 0 58.6M 1 loop nvme0n1 259:1 0 2.9T 0 disk nvme1n1 259:0 0 2.9T 0 disk 执行以下脚本将两块NVMe合并成一块并挂载在/mnt/data目录下,也可按需挂载: $ more mountnvme.sh
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        物理机搭建DeepSeek指南
        NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
      • 创建后端主机组
        参数 参数类型 说明 示例 下级对象 ID String 后端主机组ID target49bp8uzydb
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        后端主机组
        创建后端主机组
      • 更新后端主机组
        参数 参数类型 说明 示例 下级对象 ID String 后端主机组ID target49bp8uzydb
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        后端主机组
        更新后端主机组
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • jsonb应用
        select from tjsonb; id fjsonb + 1 {"col": "pgxz", "col1": 1, "col2": "teledb"} 2 {"col1": 1, "col2": "teledb"} 3 {"col1": 1, "col2": "teledbupdate"} (3 rows) teledb update tjsonb set fjsonb jsonbset( fjsonb , '{col2}' , '"pgxz"' , false ) where id3; UPDATE 1 teledb select from tjsonb; id fjsonb + 1 {"col": "pgxz", "col1": 1, "col2": "teledb"} 2 {"col1": 1, "col2": "teledb"} 3 {"col1": 1, "col2": "pgxz"} (3 rows) jsonb函数应用 jsonbeach() 将 json 对象转变键和值 plaintext teledb select fjsonb from tjsonb where id1; fjsonb {"col": "pgxz", "col1": 1, "col2": "teledb"} (1 row) teledb select from jsonbeach((select fjsonb from tjsonb where id1)); key value + col "pgxz" col1 1 col2 "teledb" (3 rows) jsonbeachtext() 将 json 对象转变文本类型的键和值 plaintext teledb select from jsonbeachtext((select fjsonb from tjsonb where id1)); key value + col pgxz col1 1 col2 teledb (3 rows) rowtojson() 将一行记录变成一个json对象 plaintext teledb create table t1(id int, name varchar); CREATE TABLE teledb insert into t1 values(1,'teledb'),(2,'pgxc'); COPY 2 teledb select from t1; id name + 1 teledb 2 pgxc (2 rows) teledb select rowtojson(t1) from t1; rowtojson {"id":1,"name":"teledb"} {"id":2,"name":"pgxc"} (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        数据库基础开发
        json和jsonb使用
        jsonb应用
      • jsonb应用
        select from tjsonb; id fjsonb + 1 {"col": "pgxz", "col1": 1, "col2": "teledb"} 2 {"col1": 1, "col2": "teledb"} 3 {"col1": 1, "col2": "teledbupdate"} (3 rows) teledb update tjsonb set fjsonb jsonbset( fjsonb , '{col2}' , '"pgxz"' , false ) where id3; UPDATE 1 teledb select from tjsonb; id fjsonb + 1 {"col": "pgxz", "col1": 1, "col2": "teledb"} 2 {"col1": 1, "col2": "teledb"} 3 {"col1": 1, "col2": "pgxz"} (3 rows) jsonb函数应用 jsonbeach() 将 json 对象转变键和值 plaintext teledb select fjsonb from tjsonb where id1; fjsonb {"col": "pgxz", "col1": 1, "col2": "teledb"} (1 row) teledb select from jsonbeach((select fjsonb from tjsonb where id1)); key value + col "pgxz" col1 1 col2 "teledb" (3 rows) jsonbeachtext() 将 json 对象转变文本类型的键和值 plaintext teledb select from jsonbeachtext((select fjsonb from tjsonb where id1)); key value + col pgxz col1 1 col2 teledb (3 rows) rowtojson() 将一行记录变成一个json对象 plaintext teledb create table t1(id int, name varchar); CREATE TABLE teledb insert into t1 values(1,'teledb'),(2,'pgxc'); COPY 2 teledb select from t1; id name + 1 teledb 2 pgxc (2 rows) teledb select rowtojson(t1) from t1; rowtojson {"id":1,"name":"teledb"} {"id":2,"name":"pgxc"} (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        数据库基础开发
        json和jsonb使用
        jsonb应用
      • pg_audit_fga_conf_detail
        本页介绍天翼云TeleDB数据库系统视图pgauditfgaconfdetail的内容。 视图的作用:对象审计配置的详细信息。 名称 类型 定义 auditor name 使用pgcatalog.pggetuserbyid函数根据auditorid获取审计员的用户名。 objectschema name 被审计对象所在的模式(schema)名称,通过连接pgclass和pgnamespace表获取。 objectname name 被审计对象的名称,直接从pgclass表中获取。 policyname name 审计策略的名称,直接从pgauditfgaconf表中获取。 auditcolumns text 被审计的列的列表,直接从pgauditfgaconf表中获取。 auditcondition text 审计条件的字符串表示,直接从pgauditfgaconf表中获取。 auditenable boolean 审计是否启用,直接从pgauditfgaconf表中获取。 statementtypes name 触发审计的语句类型,直接从pgauditfgaconf表中获取。 auditcolumnopts boolean 审计列的选项,直接从pgauditfgaconf表中获取。 handlerschema name 处理程序所在的模式(schema)名称,通过左连接pgnamespace表获取。 handlermodule name 处理程序的名称,通过左连接pgproc表获取。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据字典
        系统视图
        pg_audit_fga_conf_detail
      • gwlb更新target_group
        参数 参数类型 说明 示例 下级对象 targetGroupID String 后端服务组ID tgxxxx
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        gwlb网关负载均衡
        gwlb更新target_group
      • pg_cls_user
        本页介绍天翼云TeleDB数据库元数据pgclsuser的内容。 存储行列级安全访问策略的用户信息。 名称 类型 定义 polid int16 策略ID privilege int16 权限值 userid Oid 用户的OID maxreadlabel int16 最大读取标签ID maxwritelabel int16 最大写入标签ID minwritelabel int16 最小写入标签ID defaultreadlabel int16 默认读取标签ID defaultwritelabel int16 默认写入标签ID defaultrowlabel int16 默认行标签ID username NameData 用户名
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据字典
        元数据表
        pg_cls_user
      • 构造请求
        方法 说明 GET 请求服务器返回指定资源 PUT 请求服务器更新指定资源 POST 请求服务器新增资源或执行特殊操作 DELETE 请求服务器删除指定资源,如删除对象等 HEAD 请求服务器资源头部 PATCH 请求服务器更新资源的部分内容
        来自:
      • 删除指定拼接模板
        参数 是否必填 参数类型 说明 示例 下级对象 templateId 是 Long 拼接模板ID 100000000004
        来自:
        帮助文档
        云点播
        API参考
        API
        公共接口
        删除指定拼接模板
      • MySQL数据迁移到OBS
        创建OBS连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 详见下图:选择连接器类型 2.连接器类型选择“对象存储服务(OBS)”后,单击“下一步”配置OBS连接参数。 名称:用户自定义连接名称,例如“obslink”。 OBS服务器、端口:配置为OBS实际的地址信息。 访问标识(AK)、密钥(SK):登录OBS的AK、SK。 3.单击“保存”回到连接管理界面。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到OBS的任务。 详见下图: 创建MySQL到OBS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建MySQL连接中的“mysqllink”。 −使用SQL语句:否。 −模式或表空间:待抽取数据的模式或表空间名称。 −表名:要抽取的表名。 −其他可选参数一般情况下保持默认即可,详细说明请参见配置常见关系数据库源端参数。 目的端作业配置 −目的连接名称:选择创建OBS连接中的“obslink”。 −桶名:待迁移数据的桶。 −写入目录:写入数据到OBS服务器的目录。 −文件格式:迁移数据表到文件时,文件格式选择“CSV格式”。 −高级属性里的可选参数一般情况下保持默认既可,详细说明请参见 配置OBS目的端参数。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段,如下图“表到文件的字段映射”所示。 如果字段映射顺序不匹配,可通过拖拽字段调整。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。CDM支持并发抽取MySQL数据,如果源表配置了索引,可调大抽取并发数提升迁移速率。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入脏数据前需要先配置好OBS连接。针对文件到表类迁移的数据,建议配置写入脏数据。 作业运行完是否删除:这里保持默认值“不删除”。根据使用场景,也可配置为“删除”,防止迁移作业堆积。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MySQL数据迁移到OBS
      • 创建后端主机
        参数 参数类型 说明 示例 下级对象 ID String 后端服务组ID target49bp8uzydb
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        后端主机
        创建后端主机
      • 完成上传水印
        参数 是否必填 参数类型 说明 示例 下级对象 templateId 是 Long 模板id 100000000004
        来自:
        帮助文档
        云点播
        API参考
        API
        公共接口
        完成上传水印
      • 吊销已签发的证书
        参数 是否必填 参数类型 说明 示例 下级对象 id 是 String 证书 id 5b9fead7e9ff4f1589ffff22cd3c4bf3
        来自:
        帮助文档
        证书管理服务
        API参考
        API
        2024-01-10
        吊销已签发的证书
      • 名词解释
        Queue A Message B key.a.b.c key.a.b. key.a..c Queue A Queue B Message C key.a.d.c key.a..c Queue B Binding 一套绑定规则,用于告诉 Exchange 消息应该被存储到哪个 Queue。它的作用是把 Exchange 和 Queue 按照路由规则绑定起来。 Routing Key Producer 在发送消息给 Exchange 时,需要指定一个 Routing key 来设定该消息的路由规则,而 Routing key 需要与 Exchange 类型及 Binding key 联合使用才能生效;一般情况下,Exchange 类型与 Binding key 提供配置好,Producer 在发送消息给 Exchange 时,可以通过指定 Routing key 来决定消息投放到哪个 Queue。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        名词解释
      • 修改云硬盘描述
        云硬盘支持修改描述,您可以参考以下操作步骤进行修改。 操作场景 创建云硬盘后,如果云硬盘描述需要更新或编辑,可以为云硬盘修改描述。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 在云硬盘列表中,找到待编辑描述的云硬盘,点击云硬盘所在行的“操作>更多>编辑描述”。 5. 在“编辑描述”弹窗中,对云硬盘描述进行编辑。 6. 确认无误后,点击“确定”按钮。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        修改云硬盘描述
      • 查看快照详情
        本文指导用户如何查看快照详情。 操作场景 当用户有查看快照详细信息的诉求时可参考本文。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 单击左侧导航栏中的“云硬盘快照”,进入云硬盘快照页面。 5. 单击需要查看详情信息的云硬盘快照名称,即可进入快照详情页面,查看其源云硬盘信息、快照来源、状态等详细信息。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘快照
        查看快照详情
      • 产品定义
        混合云一体机(以下简称一体机)是天翼云基于多年研发积累和大规模业务实践验证,结合对市场用户云业务需求深入洞察,推出的软硬一体产品。其中硬件部分采用通用x86或国产服务器,软件集成天翼云平台,提供计算、存储、网络、监控、管理等全栈云服务,帮助企业从零构建云底座。 一体机是标准化交付产品,到货后110个工作日即可完成交付,无需经过冗长的项目沟通及采购流程。同时用户可自行指定一体机部署位置,安全可控,满足低延时、低成本的需求,非常适合承载边缘、灵活上云需求。
        来自:
        帮助文档
        混合云一体机
        产品简介
        产品定义
      • 节点扩容
        本页介绍天翼云TeleDB数据库节点扩容。 操作场景 随着业务的增长,数据库在运行性能及存储上逐渐会达到瓶颈。此时,需要通过增加节点来提升集群的性能及存储能力。该任务用于指导对协调节点(CN)和数据节点(DN)进行扩容。协调节点和数据节点都是按组添加。每组数量与创建实例时选择的实例系列相关联。机器规格和原实例规格保持一致。用户可自定义新增节点所在服务器。 注意 主备节点所在服务器不能为同一台服务器。 增加节点前请检查所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据无法完成迁移导致新增节点失败。 扩容数据节点后请手动使用数据重平衡功能。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击实例列表,进入实例列表页面。 2. 在实例列表页面,单击目标实例所在行的详情,进入实例详情页面。 3. 单击右上角操作下拉框,单击节点扩容 ,出现节点扩容(协调、数据节点)对话框。 4. 进入节点扩容 对话框,根据以下内容填写基本信息,单击确定完成扩容。 扩容节点类型:可根据实际情况填写协调节点或数据节点。 说明 当扩容节点类型为协调节点,则下面出现节点名称。当扩容节点为数据节点,则下面出现节点组名称。 节点名称:默认不可更改。 节点组名称:默认不可更改。 节点规格:默认不可更改。 VIP:可选参数,可根据实际需求选择vip。 主节点节点信息:可选参数,可根据实际需求选择主节点ip。 备节点节点信息:可选参数,可根据实际需求选择备节点ip。 5. 弹出提示 对话框。可单击立即前往,在任务管理页面查看执行详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        节点扩容
      • 节点扩容
        本页介绍天翼云TeleDB数据库节点扩容。 操作场景 随着业务的增长,数据库在运行性能及存储上逐渐会达到瓶颈。此时,需要通过增加节点来提升集群的性能及存储能力。该任务用于指导对协调节点(CN)和数据节点(DN)进行扩容。协调节点和数据节点都是按组添加。每组数量与创建实例时选择的实例系列相关联。机器规格和原实例规格保持一致。用户可自定义新增节点所在服务器。 注意 主备节点所在服务器不能为同一台服务器。 增加节点前请检查所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据无法完成迁移导致新增节点失败。 扩容数据节点后请手动使用数据重平衡功能。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击实例列表,进入实例列表页面。 2. 在实例列表页面,单击目标实例所在行的详情,进入实例详情页面。 3. 单击右上角操作下拉框,单击节点扩容 ,出现节点扩容(协调、数据节点)对话框。 4. 进入节点扩容 对话框,根据以下内容填写基本信息,单击确定完成扩容。 扩容节点类型:可根据实际情况填写协调节点或数据节点。 说明 当扩容节点类型为协调节点,则下面出现节点名称。当扩容节点为数据节点,则下面出现节点组名称。 节点名称:默认不可更改。 节点组名称:默认不可更改。 节点规格:默认不可更改。 VIP:可选参数,可根据实际需求选择vip。 主节点节点信息:可选参数,可根据实际需求选择主节点ip。 备节点节点信息:可选参数,可根据实际需求选择备节点ip。 5. 弹出提示 对话框。可单击立即前往,在任务管理页面查看执行详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        节点扩容
      • 备份HBase元数据
        本章主要介绍翼MapReduce的备份HBase元数据功能。 操作场景 为了确保HBase元数据(主要包括tableinfo文件和HFile)安全,防止因HBase的系统表目录或者文件损坏导致HBase服务不可用,或者系统管理员需要对HBase系统表进行重大操作(如升级或迁移等)时,需要对HBase元数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份HBase任务并备份元数据。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 HBase的“fs.defaultFS”配置参数需要与Yarn、HDFS的配置保持一致。 如果HBase数据存储在本地HDFS,支持将HBase元数据备份到OBS。如果HBase数据存储在OBS,则不支持数据备份。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份HBase元数据
      • 快速定位查询存储倾斜的表
        本章节主要介绍 快速定位查询存储倾斜表的最佳实践。 目前提供的倾斜查询接口有函数:tabledistribution(schemaname text, tablename text) 、tabledistribution() 以及视图PGXCGETTABLESKEWNESS,客户可以根据自身业务情况来选择使用。 场景一:磁盘满后快速定位存储倾斜的表 首先,通过pgstatgetlastdatachangedtime(oid)函数查询出近期发生过数据变更的表,介于表的最后修改时间只在进行IUD操作的CN记录,要查询库内1天(间隔可在函数中调整)内被修改的所有表,可以使用如下封装函数: CREATE OR REPLACE FUNCTION getlastchangedtable(OUT schemaname text, OUT relname text) RETURNS setof record AS $$ DECLARE rowdata record; rowname record; querystr text; querystrnodes text; BEGIN querystrnodes : 'SELECT nodename FROM pgxcnode where nodetype ''C'''; FOR rowname IN EXECUTE(querystrnodes) LOOP querystr : 'EXECUTE DIRECT ON (' rowname.nodename ') ''SELECT b.nspname,a.relname FROM pgclass a INNER JOIN pgnamespace b on a.relnamespace b.oid where pgstatgetlastdatachangedtime(a.oid) BETWEEN currenttimestamp 1 AND currenttimestamp;'''; FOR rowdata IN EXECUTE(querystr) LOOP schemaname rowdata.nspname; relname rowdata.relname; return next; END LOOP; END LOOP; return; END; $$ LANGUAGE plpgsql; 然后,通过tabledistribution(schemaname text, tablename text)查询出表在各个DN占用的存储空间。 SELECT tabledistribution(schemaname,relname) FROM getlastchangedtable(); 场景二:常规数据倾斜巡检 在库中表个数少于1W的场景,直接使用倾斜视图查询当前库内所有表的数据倾斜情况。 SELECT FROM pgxcgettableskewness ORDER BY totalsize DESC; 在库中表个数非常多(至少大于1W)的场景,因PGXCGETTABLESKEWNESS涉及全库查并计算非常全面的倾斜字段,所以可能会花费比较长的时间(小时级),建议参考PGXCGETTABLESKEWNESS视图定义,直接使用tabledistribution()函数自定义输出,减少输出列进行计算优化,例如: SELECT schemaname,tablename,max(dnsize) AS maxsize, min(dnsize) AS minsize FROM pgcatalog.pgclass c INNER JOIN pgcatalog.pgnamespace n ON n.oid c.relnamespace INNER JOIN pgcatalog.tabledistribution() s ON s.schemaname n.nspname AND s.tablename c.relname INNER JOIN pgcatalog.pgxcclass x ON c.oid x.pcrelid AND x.pclocatortype 'H' GROUP BY schemaname,tablename;
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        数据库管理
        数据倾斜查询优秀实践
        快速定位查询存储倾斜的表
      • 查看备份详情
        本文带您熟悉如何查看自己已有的备份副本。 操作场景 创建云主机备份任务下发或完成后,您可以通过各种筛选条件在备份列表查看备份详情。创建云主机备份的具体操作可参考创建云主机备份。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择上海上海36。 3. 在系统首页,选择“存储>云主机备份”。 4. 选择“备份副本”页签,查看备份。 5. (可选)您可以通过“状态”列筛选备份副本。下表为各种状态的说明。 状态 状态属性 说明 全部 显示所有状态的备份。 可用 稳定状态 备份完成之后的稳定状态。该状态下可以执行各种操作。 创建中 中间状态 云主机备份的第一步,系统准备开始创建云主机备份。 准备创建快照 中间状态 云主机备份的第二步,准备创建一致性快照/非一致性快照。 非一致性创建快照中 中间状态 正在进行非一致性快照的备份。 一致性创建快照中 中间状态 正在进行一致性快照备份。 注:系统默认优先创建一致性快照备份,当一致性快照备份创建失败后,会尝试创建非一致性快照。 创建备份中 中间状态 将制作完成的云主机备份导出到备份存储池中。 恢复数据中 中间状态 将已经完成的备份恢复到源云主机上。 删除中 中间状态 正在删除已经完成的云主机备份。 错误 稳定状态 云主机备份发生了异常,请重新进行备份。 6. (可选)您可以通过“备份开始时间”列对备份进行排序和筛选。 7. 您也可以在备份列表右上角的搜索框中输入要查找的备份名称进行搜索,搜索到的备份会显示在备份列表中。
        来自:
        帮助文档
        云主机备份 CSBS
        用户指南
        备份管理
        查看备份详情
      • 使用天翼云弹性文件服务进行WordPress网站搭建
        本文介绍如何基于天翼云弹性文件服务进行WordPress网站搭建,包括应用场景、搭配产品、方案优势及操作步骤。 应用场景 WordPress是一款免费开源的内容管理系统(CMS),目前已经成为全球使用最多的CMS建站程序。根据 W3techs 的最新统计(截至2021年4月),在全球的所有网站中WordPress占有41%的市场份额,意味着每5个网站中就有2个网站是使用WordPress搭建的。在使用CMS构建的所有网站中WordPress占有64.7%的市场份额,并且它的市场占有率一直在持续增长。 在本案例中,我们将会搭建一个基础的WordPress网站,需要使用到的资源如下: 1. 弹性云主机:用于安装WordPress应用程序,是整个网站的核心,更多信息请参考弹性云主机。 2. 文件系统:存储WordPress应用文件和上传资源文件,更多信息请参考弹性文件服务。 3. 虚拟私有云VPC:提供一个逻辑隔离的局域网环境,创建云主机和文件系统的必选参数,更多信息请参考虚拟私有云。 4. mysql数据库:用于存储WordPress使用中的用户基础信息。 5. Docker:在云主机中启动mysql和WordPress。 方案使用云产品 弹性云主机,弹性文件服务 准备工作 在开始之前需要创建一个虚拟机私有云VPC,一台云主机,一个文件系统。具体操作如下: 1. 在需要操作的地域创建虚拟私有云VPC,具体操作步骤参见创建虚拟私有云VPC。 2. 创建该VPC下的弹性云主机,操作系统为Linux,此处以CTyunOS 2.0.1为例演示,具体操作步骤参见创建弹性云主机。 3. 创建该VPC下的文件系统,文件系统的协议类型为NFS,具体操作步骤参见创建文件系统。
        来自:
        帮助文档
        弹性文件服务 SFS
        最佳实践
        基于弹性文件服务搭建应用
        使用天翼云弹性文件服务进行WordPress网站搭建
      • 数据库性能
        本页介绍了文档数据库服务性能相关常见问题。 文档数据库服务什么情况下会触发主备切换 当集群和副本集的primary节点down掉之后,会触发主备切换。另外,您也可以在控制台实例基本信息页面进行主动的主备切换。文档数据库服务通过提供集群的连接串方式,便于应用端在主备切换后可以正常的进行读写,建议您使用连接串的方式配置业务的数据库服务访问。 当发现磁盘使用率高时怎么进行问题排查 您可以通过监控查看机器磁盘使用率。如果磁盘使用率高,可以从下面几个角度进行排查解决: 确认业务数据量,您可以先连接数据库,执行 show dbs 命令观察目前数据库的数据量。如果发现是业务数据量太大,那么可以对该实例进行磁盘扩容。 您也可以将过期无需再使用的业务数据进行删除。 文档数据库服务默认使用WiredTiger存储引擎。WiredTiger存储引擎在删除数据时,不会直接释放磁盘空间,您可以借助compact命令进行磁盘空间的释放回收。 对于sharding集群实例,确认是否因选择的分片不合理引发数据分布不均衡问题,可以优化数据库集合分片配置。 副本集中主从同步存在多长时间的延迟 数据库主备同步延迟受多种因素的影响,常见的有: 主备节点间的网络延迟,主备节点间的数据同步需要通过网络传输。 复制策略:异步复制通常会引入更大的延迟。 数据库负载:如主节点的负载较高,处理写入操作的速度可能会受到限制,从而导致主备延迟加大。 事务大小:大事务通常会导致更长的主备同步延迟。 您可以通过连接文档数据库服务,执行rs.printSlaveReplicationInfo()指令查看副本集中的主备同步延迟。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库性能
      • 删除节点
        本文主要介绍删除节点。 操作场景 在CCE集群中删除节点会将该节点以及节点内运行的业务都销毁,删除前请确认您的正常业务运行不受影响,请谨慎操作。 约束与限制 删除CCE集群时,ECS节点也将一起删除,暂不支持删除CCE集群而保留ECS节点的需求。 对于包周期(包年/包月)预付费的ECS节点不能直接删除,请通过页面右上角的“费用中心我的订单”,执行资源退订操作。 注意 对于1.17.11及之后版本的集群,在ECS页面退订或删除虚机后,集群中对应的node节点也会自动删除。 删除节点会导致与节点关联的本地持久存储卷类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用。删除节点时使用了本地持久存储卷的Pod会从删除的节点上驱逐,并重新创建Pod,Pod会一直处于pending状态,因为Pod使用的PVC带有节点标签,由于冲突无法调度成功。 注意事项 删除节点会涉及Pod迁移,可能会影响业务,请在业务低峰期操作。 操作过程中可能存在非预期风险,请提前做好相关的数据备份。 操作过程中,后台会把当前节点设置为不可调度状态。 删除节点仅能移除工作节点,不会移除控制节点。 操作步骤 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏选择“节点管理”,在右侧单击节点后的“更多 > 删除”。 步骤 3 在弹出的“删除节点”窗口中,单击“是”,等待完成节点删除。 说明 删除节点后,原有节点上的工作负载实例会自动迁移至其他可用节点。 节点上绑定的磁盘和EIP如果属于重要资源请先解绑,否则会被级联删除。 释放ECS实例仅释放“按需计费”的ECS实例。
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        删除节点
      • CSE仪表盘中数据通过ServiceStage对接到AOM
        本节主要介绍CSE仪表盘中数据通过ServiceStage对接到AOM 业务场景 部署到微服务引擎的Java Chassis应用,在微服务引擎仪表盘上的实时监控数据默认保留5分钟。如果需要持久化存储历史监控数据用于后续查询分析,可以使用ServiceStage的自定义指标监控功能,将微服务显示到微服务引擎仪表盘中的数据对接到AOM。 本章节以Docker部署应用为例,指导您完成将微服务引擎仪表盘中的数据通过ServiceStage对接到AOM。 操作步骤 1、添加依赖。 在开发环境中,打开需要持久化存储历史监控数据的应用项目,在微服务pom文件中添加如下依赖: org.apache.servicecomb metricscore org.apache.servicecomb metricsprometheus 2、发将添加依赖后的应用项目重新编译打包并上传。 将重新打包制作的容器镜像上传至SWR软件仓库。 3、部署应用组件。 新部署组件,请执行步骤4。 已部署组件,请执行步骤5。 4、在组件部署过程中的“组件配置”界面,选择“高级设置 > 运维监控 > 自定义指标监控”,填写下列参数: 参数名称 参数值 上报路径 /metrics 上报端口 9696 组件部署成功后,执行步骤7。 5、更新已部署组件来源,选择步骤2中打包并上传SWR的容器镜像。 6、对接监控指标到AOM。 1. 登录ServiceStage控制台,选择“应用管理 > 应用列表”。 2. 单击组件所在应用名称,进入应用“概览”页。 3. 在“环境视图”页签,选择部署了组件的“环境”。 4. 单击组件名称,进入组件实例“概览”页。 5. 单击“更新升级”。 6. 选择“高级设置 > 运维监控 > 自定义指标监控”,填写下表参数: 参数名称 参数值 上报路径 /metrics 上报端口 9696 7. 单击“重新部署”,等待组件重新部署成功。 7、在AOM中查看监控指标并导出监控数据。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        使用微服务引擎管理应用
        CSE仪表盘中数据通过ServiceStage对接到AOM
      • 功能特性
        本节介绍专属加密服务的功能特性。 专属加密(Dedicated Hardware Security Module,Dedicated HSM)是一种云上数据加密的服务,可处理加解密、签名、验签、产生密钥和密钥安全存储等操作。 Dedicated HSM为您提供的加密硬件,帮助您保护弹性云服务器上数据的安全性与完整性,满足FIPS 1402安全要求。同时,您能够对专属加密实例生成的密钥进行安全可靠的管理,也能使用多种加密算法来对数据进行可靠的加解密运算。 功能介绍 Dedicated HSM提供以下功能: 生成、存储、导入、导出和管理加密密钥(包括对称密钥和非对称密钥) 使用对称和非对称算法加密和解密数据 使用加密哈希函数计算消息摘要和基于哈希的消息身份验证代码 对数据进行加密签名(包括代码签名)并验证签名 以加密方式生成安全随机数据 Dedicated HSM支持的密码算法 支持国际通用密码算法,满足用户各种加密算法需求。 Dedicated HSM支持的密码算法 加密算法分类 通用密码算法 国密算法 对称密码算法 AES SM1、SM4、SM7 非对称密码算法 RSA(10244096) SM2 摘要算法 SHA1、SHA256、SHA384 SM3 Dedicated HSM支持的密码机类型 密码机类型 功能 适用场景 服务器加密机 数据加密/解密、数据签名/验签、数据摘要、支持MAC的生成和验证 满足各种行业应用中的基础密码运算需求,比如身份认证、数据保护、SSL密钥和运算卸载等。 金融加密机 支持PIN码的生成/加密/转换/验证 支持MAC生成及验证 支持CVV生成及验证 支持TAC生成及验证 支持常用Racal指令集 支持PBOC3.0常用指令集 满足金融领域密码运算需求,比如发卡系统、POS系统等。 签名服务器 签名/验签、编码/解码数字信封、编码/解码带签名的数字信封、证书验证 满足签名业务相关需求,比如CA系统、证书验证、大量数据的加密传输和身份认证。
        来自:
      • 1
      • ...
      • 281
      • 282
      • 283
      • 284
      • 285
      • ...
      • 411
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      训推服务

      公共算力服务

      科研助手

      知识库问答

      人脸属性识别

      推荐文档

      授权文件导入

      退款规则及退款流程

      代金券查询与使用

      删除队列

      天翼云进阶之路②:Centos更改MySQL数据库目录位置

      性能类问题

      RDP/VNC访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号