云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 透明数据加密概述
        本文介绍了透明数据加密(Transparent Data Encryption)功能。 功能简介 透明数据加密(Transparent Data Encryption)是通过对磁盘上存储的数据进行加密和解密来实现数据的保护。 透明: 当使用者在打开或编辑指定文件时,系统将自动对未加密的文件进行加密,对已加密的文件解密。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密: TDE使用openssl提供AES(Advanced Encryption Standard)算法来加密数据,并将密钥存储在数据库服务器的受信任位置,以确保安全性。 RDSPostgreSQL透明加密实现方案 RDSPostgreSQL通过用户在数据密钥服务中创建的对称主密钥来生成 DEK(Data Encryption Key)数据密钥密文与明文,通过DEK密钥对数据进行加密,通过DEK密文对DEK密钥进行加密。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据安全
        数据加密
        透明数据加密概述
      • 概览
        本节列出了最佳实践章节名称和相应的描述。 章节名称 简介 MySQL使用规范建议 主要介绍了MySQL的一些基本使用规范。 MySQL索引优化建议 主要介绍如何创建最佳索引,提高MySQL的读取性能。 MySQL搭建跨可用区灾备实例 主要介绍如何创建MySQL跨可用区部署实例。 设置utf8mb4字符集以支持全面的字符显示 主要介绍如何通过统一使用utf8mb4字符集,来实现在MySQL实例中存储emoji表情的最佳实践。 解锁数据库潜力:MySQL与DRDS搭配,提升数据服务能力 主要介绍MySQL与DRDS搭配实现数据服务能力提升。 性能调优 主要介绍了对MySQL进行性能调优相关建议以及解决方案。 参数优化建议 主要介绍了MySQL的部分重要参数以及典型参数的用法。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        概览
      • 检测规则
        本节介绍如何新增检测规则。 检测规则中包含基本设置、检测条件设置、分级分类设置、严重性设置等内容。通过对检测规则的设置,可以对敏感信息更加精确的检测并进行分级分类与严重性的设置。 新增检测规则 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“内容安全 > 语料安全 > 检测规则”。 3. 点击“新增”。填写基本设置、检测条件、分级分类、严重性等信息,点击“保存”完成检测规则配置。 参数如下表所示: 信息 说明 基本设置 名称 该策略名称。 基本设置 备注 该策略描述备注。 检测条件设置 只允许选择一种检测条件;关键字、正则支持多选。 检测条件:关键字、正则表达式、字典、文档指纹、数据库指纹、图像指纹、语义模型、文件类型、文件名称、文件大小、文件MD5、修改时间。 分基分类设置 所属分类 数据来源于分类模板。 分基分类设置 所属分级 数据来源于分级。 严重性设置 数据来源于严重性。 支持配置检测达一定数据时视为某种严重性。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        内容安全
        语料安全
        检测规则
      • 入门前准备
        本章节主要介绍数据仓库服务入门前的准备工作。 本指南是一个入门教程,向您演示如何创建示例DWS 集群,连接示例DWS 集群数据库、导入存储在OBS中的示例数据和分析示例数据的流程。您可以使用该入门教程评估DWS 服务。 在开始创建DWS 集群之前,请确保您已完成如下前提条件: 确定集群端口 在创建DWS 集群时需要指定一个端口供SQL客户端或应用程序通过该端口访问集群。 如果您的客户端机器位于防火墙之后,则您需要有一个可用的开放端口,这样才能从SQL客户端工具连接到集群并进行查询分析。 如果您不了解可用的开放端口,则请联系网络管理员,在您的防火墙中确定一个开放端口。DWS 支持的端口范围为8000~30000。 在集群创建之后无法更改集群的端口号,请务必确保在集群创建过程中指定的端口为可用的开放端口。
        来自:
        帮助文档
        数据仓库服务
        快速入门
        入门前准备
      • 功能特性
        弱口令检测 通过弱口令字典,检测用户SSH、RDP等服务是否使用了弱密码,及时更改弱口令有效防备暴力破解入侵。 配置脆弱性检测 配置脆弱性检测也就是基线检查,指针对IT设备的安全特性,选择合适的安全控制措施,定义不同IT设备的最低安全配置要求,则该最低安全配置要求就称为安全基线,天翼云漏洞扫描服务平台整合操作系统、数据库等系统环境基线规范,通过基线规范逐项比对主机安全配置项的配置情况,发现配置薄弱点,反馈检查参数,针对加固,避免因配置薄弱导致的入侵风险。 专业的漏洞分析 漏洞扫描结束后扫描器将自动输出扫描结果,描述漏洞风险、漏洞数量以及整改建议,电信云安全专家对扫描器结果结合应用环境、最新业界安全形势、大数据分析、威胁情报分析等整理输出一份有深度、有广度的专业漏洞扫描评估报告,并提出切实可行的安全整改建议,帮助客户全面掌握漏洞风险态势,合理高效安排加固工作。
        来自:
        帮助文档
        漏洞扫描
        产品介绍
        功能特性
      • 配置增强高速网卡(Ubuntu系列)
        本文主要介绍如何配置增强高速网卡(Ubuntu系列)。 下面以Ubuntu 16.04 LTS (Xenial Xerus x8664)操作系统为例,举例介绍物理机增强高速网卡的bond配置方法: 说明 Ubuntu系列其他操作系统的配置方法与Ubuntu 16.04 LTS (Xenial Xerus x8664)类似。 增加网卡 步骤1 以“root”用户,使用密钥或密码登录物理机。 步骤2 进入物理机的命令行界面,查询网卡信息。 ip link 返回信息示例如下: 1: lo: mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo validlft forever preferredlft forever inet6 ::1/128 scope host validlft forever preferredlft forever 2: eth0: mtu 8888 qdisc mq master bond0 state UP group default qlen 1000 link/ether fa:16:00:9b:91:c3 brd ff:ff:ff:ff:ff:ff 3: eth1: mtu 8888 qdisc mq master bond0 state UP group default qlen 1000 link/ether fa:16:00:9b:91:c3 brd ff:ff:ff:ff:ff:ff 4: p5p1: mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e4:1d brd ff:ff:ff:ff:ff:ff 5: p5p2: mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e4:1e brd ff:ff:ff:ff:ff:ff 6: p4p1: mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e3:a9 brd ff:ff:ff:ff:ff:ff 7: p4p2: mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e3:aa brd ff:ff:ff:ff:ff:ff 8: bond0: mtu 8888 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:00:9b:91:c3 brd ff:ff:ff:ff:ff:ff inet 192.168.254.85/24 brd 192.168.254.255 scope global bond0 validlft forever preferredlft forever inet6 fe80::f816:ff:fe9b:91c3/64 scope link validlft forever preferredlft forever 9: bond0.3157@bond0: mtu 8888 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:00:9c:1e:79 brd ff:ff:ff:ff:ff:ff inet 192.168.100.14/24 brd 192.168.100.255 scope global bond0.3157 validlft forever preferredlft forever inet6 fe80::f816:ff:fe9c:1e79/64 scope link validlft forever preferredlft forever 10: bond0.3159@bond0: mtu 8888 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:00:0a:2e:8e brd ff:ff:ff:ff:ff:ff inet 192.168.101.153/24 brd 192.168.101.255 scope global bond0.3159 validlft forever preferredlft forever inet6 fe80::f816:ff:fe0a:2e8e/64 scope link validlft forever preferredlft forever 说明 其中,“eth0”和“eth1”为承载VPC网络的网络设备,“p5p1”、“p5p2”、“p4p1”和“p4p2”为承载增强高速网络的网络设备。下面步骤将使用“p4p1”和“p4p2”配置增强高速网卡bond。 步骤3 检查udev规则配置文件。 执行以下命令,查看“/etc/udev/rules.d/”目录下是否有“80persistentnet.rules”配置文件。 ll /etc/udev/rules.d/ grep 80persistentnet.rules 如果存在“80persistentnet.rules”,且该配置文件中已存在步骤2 中查询到的除“bond0”和“lo”以外的其它所有网卡和对应的MAC地址,请执行 步骤6 。 否则,继续执行 步骤4 。 步骤4 执行以下命令,将“/etc/udev/rules.d/70persistentnet.rules”文件拷贝一份(文件名为“/etc/udev/rules.d/80persistentnet.rules”)。 cp p /etc/udev/rules.d/70persistentnet.rules /etc/udev/rules.d/80persistentnet.rules 步骤5 设置udev规则。 将步骤2中查询到的除“lo”、“eth0”、“eth1”和“bond0”以外的网卡和MAC对应关系添加到“/etc/udev/rules.d/80persistentnet.rules”文件中,使得物理机重启复位后,网卡名称和顺序不会发生改变。 说明 网卡的MAC地址和名称中的字母,请使用小写字母。 vim /etc/udev/rules.d/80persistentnet.rules 修改后的示例如下: SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:5d:b6:fc", NAME"eth0" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:5d:b6:fd", NAME"eth1" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"40:7d:0f:52:e4:1d", NAME"p5p1" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"40:7d:0f:52:e4:1e", NAME"p5p2" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"40:7d:0f:52:e3:a9", NAME"p4p1" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"40:7d:0f:52:e3:aa", NAME"p4p2" 修改完成后,按“Esc”,输入“:wq”保存并退出。 步骤6 执行以下命令,将网卡配置文件“/etc/network/interfaces.d/50cloudinit.cfg”拷贝为“/etc/network/interfaces.d/60cloudinit.cfg”。 cp p /etc/network/interfaces.d/50cloudinit.cfg /etc/network/interfaces.d/60cloudinit.cfg 说明 如果没有“/etc/network/interfaces.d/50cloudinit.cfg”文件,请拷贝“/etc/network/interfaces”文件,依次执行以下命令: mkdir /etc/network/interfaces.d cp p /etc/network/interfaces /etc/network/interfaces.d/60cloudinit.cfg 步骤7 执行以下命令,编辑“/etc/network/interfaces.d/60cloudinit.cfg”,配置“p4p1”设备和“p4p2”设备的网络配置文件“/etc/network/interfaces.d/60cloudinit.cfg”。 vim /etc/network/interfaces.d/60cloudinit.cfg 按如下格式编辑: auto p4p1 iface p4p1 inet manual bondmode 1 bondmaster bond1 bondmiimon 100 mtu 8888 auto p4p2 iface p4p2 inet manual bondmode 1 bondmaster bond1 bondmiimon 100 mtu 8888 auto bond1 iface bond1 inet static bondmiimon 100 bondslaves none bondmode 1 address 10.10.10.103 netmask 255.255.255.0 hwaddress 40:7d:0f:52:e3:a9 mtu 8888 其中, “p4p1”和“p4p2”为承载增强高速网络配置的网卡名称。 “hwaddress”为“p4p1”设备对应的MAC地址。 “address”的取值为给增强高速网络“bond1”配置的IP(给增强高速网络规划的IP地址在没有与VPC网段冲突的情况下可任意规划,需要通过增强高速网络通信的物理机须将增强高速网络配置在同一个网段)。 “netmask”的取值为给增强高速网络“bond1”配置的IP的掩码。 各个设备的其他参数可参考如上信息进行配置,如“mtu”配置为“8888”,“bondmiimon”配置为“100”,“bondmode”配置为“1”等。 修改完成后,按“Esc”,输入“:wq”保存并退出。 步骤8 执行以下命令,启动bond网卡。 ifup p4p1 ifup p4p2 说明 其中,“p4p1”和“p4p2”分别为承载增强高速网络的网卡。 步骤9 执行以下命令,查看网卡设备的状态和“bond1”配置文件是否生效。 ip link Ifconfig 步骤10 参见上述步骤,完成其他物理机的配置。 步骤11 待其他物理机配置完成后,互相ping对端增强高速网络配置的同网段IP,检查是否可以ping通。 ping 10.10.10.102 ,返回如下: [root@bmsubuntu ~]
        来自:
        帮助文档
        物理机 DPS
        用户指南
        增强高速网络
        配置增强高速网卡(Ubuntu系列)
      • Redis实例内存使用率高问题排查和解决
        本节主要介绍Redis实例内存使用率高问题排查和解决 问题现象 Redis可提供高效的数据库服务,当内存不足时,可能导致Key频繁被逐出、响应时间上升、QPS(每秒访问次数)不稳定等问题,进而影响业务运行。由于Redis自身运行机制(主从同步、延迟释放等),内存占用率可能出现略微超过100%的情况,此为正常情况,此时内存已经写满,用户需要考虑扩容,或者清理一些无用的数据。通常情况下,当内存使用率超过95%时需要及时关注。 排查原因 1. 查询指定时段的内存使用率信息,具体操作请参见查看监控指标。“内存利用率”指标持续接近100%。 2. 查询内存使用率超过95%的时间段内,“已逐出的键数量”和“命令最大时延”,均呈现显著上升趋势,表明存在内存不足的问题。 建议客户登录控制台,参考缓存分析和查询Redis实例慢查询,执行大Key扫描和慢查询。如果实例没有设置过期时间,会导致存储数据太多,内存被占满。 2. Redis实例如果内存满了但是key不多,可能原因是客户端缓冲区(output buffer)占用过多的内存空间。 可以在Rediscli客户端连接实例后,执行大key扫描命令:rediscli bigkeys,然后执行info,查看output buffer占用情况。
        来自:
        帮助文档
        分布式缓存服务Redis版
        故障排除
        Redis实例内存使用率高问题排查和解决
      • 应用参数模板
        本节介绍了如何应用云数据库GaussDB 的参数模板。 操作场景 参数模板编辑修改后,不会立即应用到实例,您可以根据业务需要应用到实例中,参数模板只能应用于相同版本的实例中。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在“参数模板管理”页面,根据参数模板类型不同进行如下操作。 若需要将默认参数模板应用到实例,在“系统默认”页签的目标参数模板操作列,单击“应用”。 若需要将用户自己创建的参数模板应用到实例,在“自定义”页签的目标参数模板操作列,单击“更多 > 应用”。 一个参数模板可被应用到一个或多个实例。 步骤 3 在弹出框中,选择或输入所需应用的实例,单击“确定”。 参数模板应用成功后,您可参考查看参数模板应用记录,查看应用状态是否为“成功”。如果应用状态为“应用中”,则再次应用该模板时,将无法选择正在应用参数模板的实例。如果需要再次应用参数模板到同一实例,请确保应用状态为“成功”。 说明: 参数模板应用成功后,如果重启生效的参数有修改,实例将会变为“等待重启”状态,此时需要重启实例参数修改才能生效。如果所有重启生效的参数都没有修改,则实例状态不会发生改变。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        参数模板管理
        应用参数模板
      • 查看监控指标
        本节介绍了GeminiDB Redis的查看监控指标操作场景及操作步骤。 操作场景 云监控可以对GeminiDB Redis的运行状态进行日常监控。您可以通过管理控制台,直观地查看GeminiDB Redis的各项监控指标。 由于监控数据的获取与传输会花费一定时间,因此,云监控显示的是当前时间5~10分钟前的监控状态。如果您的实例刚刚创建完成,请等待5~10分钟后查看监控数据。 前提条件 实例正常运行。 故障或已删除的实例,无法在云监控中查看其监控指标。当实例再次启动或恢复后,即可正常查看。 实例已正常运行一段时间(约10分钟)。 对于新创建的实例,需要等待一段时间,才能查看上报的监控数据和监控视图。 1、登录云数据库GeminiDB控制台。 2、在“实例管理”页面,单击目标实例名称,进入实例的“基本信息”页面。 3、在“基本信息”页面的“节点信息”区域,单击操作列的“查看监控指标”,跳转到云监控页面。 4、在监控指标页面,您可以通过选择时长,查看对应时间的监控数据。 当前页支持查看近1小时、近3小时和近12小时的监控数据。 如需查看更长时间范围监控曲线,请在监控视图中单击 进入大图模式查看。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        监控与告警
        查看监控指标
      • 视图管理
        本节主要介绍视图管理 打开视图 操作场景 PostgreSQL数据库管理中的视图没有主键,不能进行编辑操作。 操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签下选择“视图”,在右侧操作栏单击“打开视图”。 打开视图 2. 在视图详情页面,您可进行查看或者通过Where条件查询获取视图信息。 获取视图信息 界面操作说明 名称 功能说明 :: Where条件 您可通过where查询,快速获取查询信息。 复制行 双击选择行,单击“复制行”,即可复制所选行数据信息。 复制列 在列下拉框中选择所需复制的列,即可复制列信息。 列设置 您可通过“列设置”筛选出需显示的列信息。 刷新 支持对表数据进行手动更新。 单行详情 显示指定数据行详细信息。 查看视图详情 操作步骤 您可在顶部导航栏选择“库管理”。 1. 在库管理页面对象列表页签中选择“视图”,在表列表右侧操作栏中单击“查看视图详情”。 查看视图详情 2. 在查看视图详情弹出框中,您可方便直观查看视图建立的SQL语句。 查看视图详情
        来自:
        帮助文档
        数据管理服务
        用户指南
        PostgreSQL数据库管理(开发工具)
        库管理
        视图管理
      • 修改任务信息
        本节主要介绍修改任务信息 实时迁移任务创建成功后,支持对部分任务信息进行修改,以方便区分和识别迁移任务。 支持可修改的任务信息如下: 任务名称 描述 收件人手机号 收件人邮箱 时延阈值 任务启动时间 前提条件 已登录数据库复制服务控制台。 已成功创建迁移任务。 操作步骤 1、在“实时迁移管理”页面,选择指定的迁移任务,单击任务名称。 2、进入“基本信息”页签,在“任务信息”模块下,选择需要修改的任务信息。 对于任务名称、描述,可以单可以单击 ,进行修改。 单击 ,提交修改。 单击 ,取消修改。 表 实时迁移任务信息 任务信息 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 对于任务启动时间,当迁移任务为“等待启动”状态时,才可以进行修改。需要在“任务信息”模块下的“计划启动时间”处,单击“修改”,选择指定时间,单击“确定”即可。 3、修改完成后,可在“基本信息”页签下查看修改结果。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        修改任务信息
      • GeminiDB Redis与开源Redis对比优势
        本节主要介绍GeminiDB Redis与开源Redis对比优势。 与自建开源Redis数据库相比,GeminiDB Redis在产品架构、成本、容量、安全性、可靠性、故障恢复、运维等方面具有很大的优势。使用GeminiDB Redis可以帮助您轻松上线业务。 产品架构对比 GeminiDB Redis的产品架构 GeminiDB Redis产品架构图 GeminiDB Redis支持全量数据落盘,由GaussDB基础组件服务提供底层数据三副本冗余保存,数据0丢失。 GeminiDB Redis的全部计算节点可写。 数据三副本强一致保障,多点访问无脏读。 GeminiDB Redis具有完备的大规模集群管理能力,故障秒级接管,动态负载均衡。 GeminiDB Redis采用存算分离架构,资源可弹性平滑扩缩容,业务几乎无感知。 开源Redis产品架构 开源Redis架构图 开源Redis的数据分散保存到各个独立节点本地内存中,一对主备故障就会导致部分数据丢失。 开源Redis集群中有一半节点是备节点,不可写。 开源Redis采用主从异步复制,访问从节点数据会不一致。 Gossip协议在开源Redis集群规模过大时,效率显著下降。 扩缩容开源Redis的容量实际上就是变更物理节点数量,对业务影响大。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        产品介绍
        GeminiDB Redis与开源Redis对比优势
      • 变更配置
        本页面介绍云数据库ClickHouse的配置变更。 根据包周期计费和按需计费这两种方式,以下是对配置升级后的计费规则的总结: 包周期计费: 对于包周期计费方式,用户通常选择一定时长的套餐,如包年或包月计费。 配置升级后的计费规则在包周期计费下可能有以下变化: 节点机器费用:如果升级增加了节点数量或改变了计算节点单价,在升配完成后将根据新的节点数量和单价进行计费。 存储空间费用:如果升级增加了存储空间大小,在升配完成后将根据新的存储空间大小进行计费。 订单升配标准费用(新规格当日产品标准天单价原规格当日产品标准天单价)(原规格订单总天数已使用天数)。 按需计费 按需计费方式根据实际使用的资源和时长进行计费,没有固定的套餐时长。 配置升级后的计费规则在按需计费下可能有以下变化: 节点机器费用:升级后的节点数量和计算节点单价将直接应用于新的使用时段,按照实际使用的节点数量和时长计费。 存储空间费用:升级后的存储空间大小将直接应用于新的使用时段,按照实际使用的存储空间和时长计费。
        来自:
        帮助文档
        云数据库ClickHouse
        计费说明
        变更配置
      • 数据加工
        列加工 步骤 1 在“数据加工”页面选择“列加工”。 步骤 2 在“对象选择”区域选择需要加工的对象。 步骤 3 单击右侧已选对象的“编辑”。 步骤 4 在“编辑列”中,勾选需要映射的列,填写映射后的“新列名”。 说明 列加工提供列级的查询、映射和过滤能力。 编辑列名后,目标数据库的列名为修改后的名称。 列映射名不能和原列名或已存在的映射名相同。 任务再编辑时,已经同步的表不支持修改列信息。 只有勾选的列才会被同步。 MySQL>MySQL不支持分区表的分区字段进行列映射。 步骤 5 填写完成后单击“确定”。 步骤 6 检查无误后,单击“下一步”,进入下一步操作。 查看数据过滤 步骤 1 在“管理”页面任务列表中,选择需要查看数据加工的任务,单击任务名称。 步骤 2 选择“数据加工”页签,查看数据过滤记录。单击右上角的,可刷新数据。 查看列加工 步骤 1 在“管理”页面任务列表中,选择需要查看的任务,单击任务名称。 步骤 2 选择“同步映射”页签,单击右上角选择列映射,查看列映射记录。单击右上角的,可刷新数据。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        对象管理
        数据加工
      • 失败案例总览
        本页为数据传输服务DTS的失败案例总览。 失败案例总览情况,请见下表: 案例类型 名称 配置任务案例 []( 结构迁移或同步案例 []( already exists) 结构迁移或同步案例 []( does not exist) 结构迁移或同步案例 []( default value for xxx) 全量迁移或同步案例 []( error) 全量迁移或同步案例 []( 全量迁移或同步案例 []( space left on device) 全量迁移或同步案例 []( table xxx is full) 全量迁移或同步案例 []( wait timeout exceeded) 全量迁移或同步案例 []( 全量迁移或同步案例 []( link failure) 全量迁移或同步案例 []( many connections) 增量迁移或同步案例 []( xxx doesn't exist) 增量迁移或同步案例 []( column 'xxx' in field list) 增量迁移或同步案例 []( xxx already exists) 增量迁移或同步案例 []( live node) 增量迁移或同步案例 []( encountered)
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        失败案例
        失败案例总览
      • 创建应急切换
        本文为您介绍创建应急切换的具体操作。 概述 应急切换用于灾难发生后为了快速恢复业务而进行的一系列切换或恢复任务,涉及的切换任务来源于相应的预案流程。故障切换场景下可根据预设的切换预案流程拉起依次数据库、存储、灾备云主机等相关服务;故障回切场景下可根据预设的回切预案流程执行数据库、存储、容灾云主机的回切操作,以确保业务正常运行。 使用条件 应急切换主要用于突发故障下切换工作,为单次执行,不可重复执行。若需定时多次演练,可在容灾演练模块进行相关操作。 进行应急切换前,需完成命名空间创建、容灾管理中心配置、应用接入(可选)、预案编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“容灾切换”“应急切换”,进入应急切换列表页。 5. 在列表上方下拉菜单中选择需要进行应急切换的命名空间。 6. 点击列表上方的“创建应急切换”按钮,弹出创建应急演练弹窗。 7. 填写创建应急切换信息,各配置项信息如下: 参数 是否必填 配置说明 切换名称 √ 填写切换名称,同命名空间下切换名称需唯一。 关联预案 √ 选择当前命名空间下已发布状态的预案名称。 涉及容灾管理中心 × 显示选择关联预案后容灾管理中心。 切换超时时间 √ 填写切换超时时间,单位为分钟。 系统将在执行“开始切换”操作后计时,超时系统将自动终止该切换,最新切换状态更新为“已终止”且无法恢复。 时间范围为10分钟6小时。 单个任务超时时间 √ 填写单个任务超时时间,单位为分钟。 单个任务超时时间指任务执行时间超出后系统自动将该任务状态置为“已超时”,需人工介入处理。 该超时时间仅对脚本任务及资源操作类的内置任务有效,人工任务及流程控制类的内置任务不受此超时时间影响。 时间范围为1分钟2小时。 描述 × 填写容灾切换描述。 长度为0100个字符。 8. 点击“确定”按钮,完成应急切换创建。成功创建后,列表新增一条相关记录,状态为“未开始”。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        容灾切换
        应急切换
        创建应急切换
      • 以SkyWalking方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过SkyWalking SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 SkyWalking是一款广受欢迎的国产APM(Application Performance Monitoring,应用性能监控)产品,主要针对微服务、Cloud Native和容器化(Docker、Kubernetes、Mesos)架构的应用。SkyWalking的核心是一个分布式追踪系统。 接入步骤 1、安装Agent plaintext dotnet add package SkyAPM.Agent.AspNetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供v3版本接入点(Skywalking 8.)的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、设置环境变量 plaintext ASPNETCOREHOSTINGSTARTUPASSEMBLIESSkyAPM.Agent.AspNetCore SKYWALKINGSERVICENAME 4、配置Agent属性 plaintext 安装SkyAPM.DotNet.CLI工具 plaintext dotnet tool install g SkyAPM.DotNet.CLI plaintext 生成配置文件skyapm.json plaintext dotnet skyapm config sampleapp 192.168.0.1:11800 plaintext skyapm.json文件内容如下 plaintext {   "SkyWalking": {     "ServiceName":  ,     "Namespace": "",     "HeaderVersions": [       "sw8"     ],     "Sampling": {       "SamplePer3Secs": 1,       "Percentage": 1.0     },     "Logging": {       "Level": "Information",       "FilePath": "logsskyapm{Date}.log"     },     "Transport": {       "Interval": 3000,       "ProtocolVersion": "v8",       "QueueSize": 30000,       "BatchSize": 3000,       "gRPC": {         "Servers":  ,         "Timeout": 10000,         "ConnectTimeout": 10000,         "ReportTimeout": 600000,         "Authentication": "Bearer  "       }     }   } } 属性说明: :服务名称 :获取的接入点 :获取的接入点鉴权令牌 Logging:日志记录与调试。Level表示日志级别,FilePath表示日志文件保存的位置以及文件名称 运行程序时,Agent的日志会记录在Logging设置的文件中,可以参考log文件进行调试和修改。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以SkyWalking方式接入
      • 基于Serverless集群快速部署FastChat应用
        本文介绍如何基于Serverless集群快速部署FastChat应用。 在这篇文章中,我们将介绍如何在Serverless集群上快速部署FastChat应用。您可以选择使用控制台或kubectl来完成应用部署,随后即可通过外部端点访问FastChat。 前提条件 已开通Serverless集群,并且能通过公网访问集群。 背景信息 Serverless集群兼容原生Kubernetes语义和API,您可以在Serverless集群中轻松创建Deployment、StatefulSet、Service、Ingress、PersistentVolume、ConfigMap或CRD等资源。此外,您也可以使用Helm部部署和管理复杂的Kubernetes应用程序的生命周期。 FastChat介绍 FastChat是一个用于训练、部署和评估基于大型语言模型的聊天机器人的开放平台。其核心功能包括:最先进模型的权重、训练代码和评估代码(例如Vicuna、FastChatT5);基于分布式多模型的服务系统,具有Web界面和与OpenAI兼容的RESTful API。 注意 天翼云不对第三方模型“FastChat”的合法性、安全性、准确性进行任何保证,天翼云不对由此引发的任何损害承担责任。 您应自觉遵守第三方模型“FastChat”的用户协议、使用规范和相关法律法规,并就使用第三方模型的合法性、合规性自行承担相关责任。 操作步骤 创建FastChat应用 您可以通过控制台部署FastChat应用,也可以通过kubectl工具连接Serverless集群来创建FastChat应用。 1. 登录管理控制台,在左侧菜单栏选择“集群”。 2. 在集群列表页面,选择目标集群名称,然后在左侧菜单栏,选择“工作负载 ”下的“无状态”,选择“创建Deployment”。 3. 在创建Deployment页面,填写负载类型、负载名称、命名空间、实例数量等。 4. 在容器配置的基本信息中填写容器名称、镜像、镜像版本、CPU/内存配额限制等。 注意 FastChat镜像要提前上传到容器镜像服务的镜像仓库中,点击选择镜像选择FastChat镜像即可。 5. 在容器配置的生命周期中点击“启动命令”,添加启动执行命令。 6. 在容器配置的健康检查中点击“就绪探针”并开启,按需进行相应配置。 7. 在访问设置项,点击“开启Service”,设置服务相关参数,通过该服务公开FastChat应用。 注意 需要提前手工创建ELB。 8. 点击“提交”,返回到如下页面表示创建成功,等待Deployment的副本Pod运行起来即可。
        来自:
        帮助文档
        云容器引擎 Serverless版
        快速入门
        基于Serverless集群快速部署FastChat应用
      • 查看慢SQL诊断页面
        本页介绍天翼云TeleDB数据库如何查看慢SQL诊断页面。 1. 单击诊断 ,进入慢SQL诊断页面。 2. 查看SQL诊断优化结果。 3. 单击实际执行 计划,查看慢SQL对应实际执行计划。 4. 单击执行 ,查看实际执行计划。 5. 单击确定 ,确认要查看实际执行计划。 6. 单击重新执行 ,会再次执行查询当前慢SQL实际执行计划的语句。 7. 下滑滚轮,查看执行计划可视化。 8. 单击索引建议 ,查看当前慢SQL的索引优化建议。 9. 查看索引优化建议。 10. 单击语句优化建议 ,查看语句优化建议。 11. 单击查看参考案例 。 12. 查看参考案例。 13. 单击确定 ,返回SQL诊断优化页面。 14. 返回SQL诊断优化页面。 15. 单击确定 ,返回慢查询分析页面。 16. 返回慢查询分析页面。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        智能诊断优化服务模块操作指南
        慢查询分析
        查看慢SQL诊断页面
      • 审计日志
        本页介绍天翼云TeleDB数据库的审计日志相关操作。 注意 审计日志模块只有超级管理员才能进入。 SQL审计 SQL审计日志记录了用户于何时对哪个数据源执行了什么类型的SQL语句,并对该操作给出 high 、 medium 、low三种等级的风险评估。对数据源的记录最精细可以审计到表级别 ,同时也会记录SQL执行的结果、查询耗时、影响行数等信息。若执行失败,会记录对应的报错信息。 SQL审计搜SQL审计支持的搜索项包括执行时间、SQL类型、风险等级、操作用户、实例名称、实例地址、库名/模式名、表名、功能、执行状态。其中操作用户、实例名称、实例地址、库名/模式名、表名等搜索项支持模糊搜索。若用户想清除已经选择的搜索项,可以单击重置按钮。 SQL审计详情除上述基本信息外,单击详情按钮,弹出的详情界面还会展示具体的执行语句。 SQL审计对象SQL审计对象包括来自查询窗口、可视化编辑、元数据管理三个功能模块的SQL语句,审计的SQL语句类型为SELECT、INSERT、CREATETABLE、CREATESELECT、INSERTSELECT、ALTERTABLE、CREATEDATABASE、ALTERDATABASE、CREATESCHEMA、ALTERSCHEMA、REVOKE、GRANT、DROPDATABASE、DROPSCHEMA、DROPTABLE、DELETE、UPDATE、TRUNCATE。 SQL审计导出SQL审计支持导出当前页记录到本地,导出格式可以选择csv或者xlsx两种。用户先按需求选择搜索项,然后单击查询,再单击导出按钮,选择文件格式后,即可将SQL审计日志记录下载到本地。用户可以通过调整分页数下载更多的审计日志记录。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        审计日志
      • 新建/编辑脚本
        本页介绍天翼云TeleDB数据库新建或编辑脚本。 1、新建SQL脚本 1. 进入查询窗口,单击窗口上方tab的“➕”号,打开新建脚本页面。 2. 编辑脚本内容完毕,单击保存 按钮,弹出脚本命名窗口。命名后单击确定,保存脚本。 3. 保存成功后,查询窗口左侧的脚本列表可显示新建的脚本。 2、打开SQL脚本 1. 打开查询窗口,选择窗口中我的脚本tab页,可查看已保存的SQL脚本。 2. 双击脚本名称,即可打开脚本。 3. 双击脚本列表,可展开脚本列表窗口,查看脚本的相关信息和进行编辑。 3、删除SQL脚本 1. 在左侧我的脚本tab中,右键选中脚本,单击删除 按钮,在打开的删除确认弹窗上单击确定按钮即可。 2. 在展开的脚本列表中,单击操作栏的删除 按钮,在打开的删除确认弹窗上单击确定按钮。 4、快速访问SQL脚本 数据管理模块的查询窗口支持恢复上次未关闭的SQL脚本窗口。在数据管理模块的首页,可通过最近打开的脚本或脚本管理模块,快速打开脚本窗口。 注意 恢复窗口功能仅限已进行保存操作的SQL脚本。 5、搜索脚本 1. 控制台头部右侧的搜索栏,支持SQL脚本名称的全局搜索和条件筛选,单击搜索结果中的脚本可快速跳转到编辑脚本页。 2. 查询窗口中,打开脚本列表后,通过搜索栏搜索脚本名称。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        查询窗口
        新建/编辑脚本
      • 元数据不一致类问题
        本页介绍天翼云TeleDB数据库数据不一致类问题。 单节点内部元数据不一致类问题 问题描述 单个CN或DN主节点内部元数据不一致问题,对应pgcheck()元数据检查返回类型“intercheck”,例如:pgclass.relhasindex标识该表是否有索引,如果和索引不一致,则会检测出来;有表,但是pgattribute中没有表记录。 例如,以下select from pgcheck(); 查询结果: 产生元数据不一致的主要原因:在元数据缺失的节点上,主节点和备节点不同步,DDL语句在备节点未应用时,发起了主备切换,备升主后,该备节点元数据与其它主节点不一致。 可能影响 索引不准确,可能会导致执行计划生成不准; 元数据不一致,可能会导致对象访问出错,例如表缺少字段,访问表时会出错。 解决步骤 1. 元数据不一致检查及分析 首先根据select from pgcheck();结果梳理和分析元数据不一致情况,第一列checktypeintercheck,表示为节点内存部元数据不一致,然后根据查询结果再进一步分析,常见的情况: 1)pgclass.relhasindex与表的实际索引情况不一致,例如上面查询结果,cn001节点pgclass.relhasindex和pgindex的元数据不一致。 检查办法: a、根据检查结果,拼出SQL如下,得到testvarchar2表索引testvarhcar2ididex; teledb select indexrelid::regclass,indrelid::regclass from pgindex where indexrelid34461; indexrelid indrelid + testvarchar2ididx testvarchar2 (1 row) b、拼出SQL如下,得到pgclass.relhasindexf,表示该表上没有索引; teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        元数据不一致类问题
      • 后备服务器相关参数
        walreceiverstatusinterval (integer) 指定在后备机上的WAL 接收者进程向主服务器或上游后备机发送有关复制进度的信息的最小频度,它可以使用pgstatreplication视图看到。后备机将报告它已经写入的上一个预写式日志位置、它已经刷到磁盘的上一个位置以及它已经应用的最后一个位置。这个参数的值是报告之间的最大间隔,以秒计。每次写入或刷出位置改变时会发送状态更新,或者至少按这个参数的指定的频度发送。因此,应用位置可能比真实位置略微滞后。将这个参数设置为零将完全禁用状态更新。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。默认值是 10 秒。 hotstandbyfeedback (boolean) 指定一个热后备机是否将会向主服务器或上游后备机发送有关于后备机上当前正被执行的查询的反馈。这个参数可以被用来排除由于记录清除导致的查询取消,但是可能导致在主服务器上用于某些负载的数据库膨胀。反馈消息的发送频度不会高于每个walreceiverstatusinterval周期发送一次。默认值是off。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。如果使用级联复制,反馈将被向上游传递直到它最后到达主服务器。后备机在接收到反馈之后除了传递给上游不会做任何其他操作。这个设置不会覆盖主服务器上的oldsnapshotthreshold的行为,后备服务器上一个超过了主服务器年龄阈值的快照可能会变得不可用,导致后备服务器上事务的取消。这是因为oldsnapshotthreshold 是为了对死亡行能够存在的时间给出一个绝对限制,不然就会因为一个后备服务器的配置而被违背。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        复制相关参数
        后备服务器相关参数
      • 参数名称和值
        本页介绍天翼云TeleDB数据库参数名称和值。 TeleDB的所有参数名都是大小写不敏感的。每个参数都可以接受五种类型之一的值: 布尔、字符串、整数、 浮点数或枚举。该类型决定了设置该参数的语法: 布尔: 值可以被写成 on, off, true, false, yes, no, 1, 0 (都是大小写不敏感的)或者这些值的任何无歧义前缀。 字符串: 通常值被包括在单引号内,值内部的任何单引号都需要被双写。不过,如果值是一个简单数字或者标识符,引号通常可以被省略。 数字(整数和浮点): 只对浮点参数允许一个小数点。不要使用千位分隔符。不要求引号。 带单位的数字: 一些数字参数具有隐含单位,因为它们描述内存或时间量。单位可能是千字节、块(通常是8KB)、毫秒、秒或分钟。这些设置之一的一个未修饰的数字值将使用该设置的默认单位,默认单位可以通过引用pgsettings.unit来找到。为了方便,也可以显式地指定一个不同的单位,例如时间值可以是'120 ms',并且它们将被转换到参数的实际单位。要使用这个特性,注意值必须被写成一个字符串(带有引号)。单位名称是大小写敏感的,并且在数字值和单位之间可以有空白。 可用的内存单位是kB(千字节)、MB(兆字节)、GB(吉字节)和TB (terabytes)。内存单位的乘数是 1024 而不是 1000。 可用的时间单位是ms(毫秒)、s(秒)、min(分钟)、h(小时)和d(天)。 枚举: 枚举类型的参数以与字符串参数相同的方式指定,但被限制到一组有限的值。 这样一个参数可用的值可以在pgsettings.enumvals 中找到。枚举参数值是大小写无关的。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        参数设置说明
        参数名称和值
      • 检查点相关参数
        本页介绍天翼云TeleDB数据库检查点相关参数。 checkpointtimeout (integer) 自动WAL 检查点之间的最长时间,以秒计。 有效值在30秒和1天之间。 默认是 5 分钟(5min)。 增加这个参数的值会增加崩溃恢复所需的时间。 这个参数只能在postgresql.conf文件中或在服务器命令行上设置。 checkpointcompletiontarget (floating point) 指定检查点完成的目标,作为检查点之间总时间的一部分。默认是0.5。 这个参数只能在postgresql.conf文件中或在服务器命令行上设置。 checkpointflushafter (integer) 在执行检查点时,只要有checkpointflushafter字节被写入, 就尝试强制 OS 把这些写发送到底层存储。 这样做将会限制内核页面高速缓存中的脏数据数量, 降低在检查点末尾发出fsync或者 OS 在后台大批量写回数据时被卡住的可能性。 那常常会导致大幅度压缩的事务延迟,但是也有一些情况 (特别是负载超过sharedbuffers但小于 OS 页面高速缓存) 的性能会降低。这种设置可能会在某些平台上没有效果。合法的范围在 0(禁用强制写回)和2MB之间。 Linux 上的默认值是256kB,其他平台上是0 (如果BLCKSZ不是8kB,默认值和最大值会等比例缩放)。 这个参数只能在postgresql.conf文件中或者服务器命令行上设置。 checkpointwarning (integer) 如果由于填充检查点段文件导致的检查点之间的间隔低于这个参数表示的秒数,那么就向服务器日志写一个消息(它建议增加maxwalsize的值)。默认值是 30 秒(30s)。零则关闭警告。如果checkpointtimeout低于checkpointwarning,则不会有警告产生。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        预写式日志(WAL)相关参数
        检查点相关参数
      • 内核资源相关参数
        本页介绍天翼云TeleDB数据库内核资源相关参数。 maxfilesperprocess (integer) 设置每个服务器子进程允许同时打开的最大文件数目。默认是1000 个文件。如果内核强制一个安全的针对每个进程的限制,那么你不用操心这个设置。但是在 一些平台上(特别是大多数 BSD 系统),如果很多进程都尝试打开很多文件,内核将允许独立进程打开比个系统真正可以支持的数目大得多得文件数。如果你发现自己看到了“Too many open files”这样的失败,可尝试减小这个设置。这个参数只能在服务器启动时设置。 enableglobalplancache 是否开启global plancache,设置成on的时候,打开global plancache功能。设置成off的时候,关闭该功能。打开开关,表示打开全局执行计划缓存(global plancache)功能,能够让不同的连接共享同一份Plan Cache。这个参数改了之后需要重启生效。 enableglobalsyscache 是否开启global syscache,设置成on的时候,打开global syscache功能。设置成off的时候,关闭该功能。打开开关,表示打开全局元数据缓存功能,可以让所有进程共享同一个缓存条目,提高内存利用效率,降低因此发生OOM的风险。这个参数改了之后需要重启生效。 globalplancachesize 该参数表示可使用的global plancache的共享内存大小,单位MB,重启集群生效,不配置的话有默认参数。 globalcachesize 该参数表示可使用的元数据缓存的共享内存大小,单位MB,重启集群生效,不配置的话有默认参数。 enableremotedataaccessplan 是否开启RDA,默认off。设置成on的时候,打开RDA功能。设置成off的时候,关闭该功能。打开开关,表示打开远程数据访问(RDA)功能。参数类型:布尔。是否动态生效:是。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        资源消耗相关参数
        内核资源相关参数
      • 重置消费位置
        介绍分布式消息服务Kafka重置消费位置功能操作内容。 场景描述 Kafka重置消费位置的场景包括以下几个: 初次消费:当一个新的消费者加入到Kafka集群时,它需要从某个位置开始消费消息。在这种情况下,可以将消费位置重置为最早的消息或最新的消息。 消费者组重置:当消费者组中的消费者发生变化,如新增或退出消费者,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最早的消息或最新的消息。 消费者出现故障:当消费者发生故障,并且需要将其替换或修复时,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最早的消息或最新的消息,以确保新的消费者能够从正确的位置开始消费。 消费者重新处理消息:在某些情况下,消费者可能需要重新处理之前已经消费过的消息。这可能是由于消费者的处理逻辑发生变化,或者需要重新计算之前的结果。在这种情况下,可以将消费位置重置为指定的消息位置,以便消费者重新处理消息。 消费者消费速度过慢:当消费者的处理能力不足,无法及时消费消息时,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最新的消息,以便消费者能够跳过堆积的消息,从最新的消息开始消费。 操作步骤 Tips:目前消费只能重置72小时内的消息,可选择72小时内时间点重置。 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)在目标消费组所在行,点击其右侧的“更多”,在下拉框中单击“重置消费位置”。 (6)出现重置消费位置窗口后,可以选择从最新点位开始消费、从最旧点位开始消费、按时间点进行消费位置重置、重置消费点位到附近n条。 四种重置方式试用场景如下: 从最新点位开始消费:将消费者的消费位置重置为最新的消息。这意味着消费者将从当前Kafka主题的最新消息开始消费,忽略之前已经产生的消息。这种方式适用于只关注最新消息的场景,如实时监控或日志记录。 从最旧点位开始消费:将消费者的消费位置重置为最早的消息。这意味着消费者将从当前Kafka主题的最早消息开始消费,包括之前已经产生的消息。这种方式适用于需要处理全部消息历史记录的场景,如数据重播或数据分析。 按时间点进行消费位置重置:将消费者的消费位置重置为指定的时间点。这意味着消费者将从指定时间点之后的消息开始消费,可以精确地选择消费的起始位置。这种方式适用于需要从特定时间点开始消费的场景,如数据回溯或重新处理。 重置消费点位到附近n条:将消费者的消费位置重置到指定的消费位点上,这个是分区级别的,因此可以更加精确地选择消费的起始位置。这种方式适用于需要从特定位点开始消费的场景,如数据回溯或重新处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        重置消费位置
      • 集群信息
        场景描述 RocketMQ集群信息是指描述RocketMQ集群的配置和状态的信息。它包括集群的名称、角色、节点信息、主题信息等。通过集群信息,可以管理和监控RocketMQ集群的运行情况,包括节点的状态、消息的发送和消费情况,以及负载均衡等。集群信息对于配置、监控和管理RocketMQ集群非常重要,能够确保集群的正常运行和高可用性。 配置管理:集群信息可以用于管理RocketMQ集群的配置,包括节点的IP地址、端口号、角色(如Master、Slave)、存储路径等。通过集群信息,可以方便地查看集群配置,协助保障集群的正常运行。 监控和管理:集群信息可以用于监控RocketMQ集群的状态和健康状况。通过集群信息,可以查看集群的运行状态、消息的发送和消费情况,以及节点的负载情况等。这对于集群的管理和故障排查非常重要。 负载均衡:集群信息可以用于实现RocketMQ的负载均衡。通过集群信息,可以根据节点的负载情况,动态地调整消息的分布和消费的负载,保证集群的高可用性和性能。 容灾和高可用性:集群信息可以用于实现RocketMQ的容灾和高可用性。通过配置主备节点和多副本模式,可以保证消息的可靠传递和数据的一致性。集群信息可以用于监控主备节点的状态,并在主节点故障时自动切换到备节点,保证集群的高可用性。 集群列表 分布式消息服务RocketMQ集群信息界面展示如下图: 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5 节点。 列表展示该集群每个broker的统计指标概况: 其中关键指标 昨天生产总数为前一天24小时内生产消息总数 昨天消费总数为前一天24小时内消费消息总数 今日生产总数为当前生产消息总量减去当天点集群内的生产消息总数 今日消费总数为当前消费消息总量减去当天点集群内的消费消息总数 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点。 列表展示该集群每个broker的统计指标概况: 其中关键指标 生产TPS(1min),即生产TPS(每分钟事务数),是指RocketMQ消息生产者在一分钟内发送的消息数量。TPS是衡量系统性能的重要指标之一,它反映了系统处理能力的强弱。对于RocketMQ来说,生产TPS代表了消息生产者的发送速度和系统的处理能力。较高的生产TPS意味着系统能够处理更多的消息请求,具有更高的吞吐量。监控和优化生产TPS可以帮助提高系统的性能和可扩展性。 消费TPS(1min),即消费TPS(每分钟事务数),是指RocketMQ消息消费者在一分钟内成功消费的消息数量。消费TPS反映了系统消费消息的速度和处理能力。较高的消费TPS表示系统能够高效地处理大量的消息,具有更高的吞吐量。监控和优化消费TPS可以帮助提高系统的消费能力和性能。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        集群信息
      • 支持的监控指标
        操作场景 天翼云分布式消息Kafka自集成了一整套监控方案,对Kafka实例的运行状态进行日常监控,可以通过管理控制台查看Kafka实例各项监控指标。各项监控指标可以分为实例监控、实例节点监控、主题监控、消费组监控和Connect监控,各项监控指标的具体细节如下表所示。 操作前提 已开通天翼云Kafka实例,且实例状态为“运行中” Kafka 实例是天翼云Ⅱ类资源池实例,目前Ⅱ类资源池包括:华东1、上海36、华北2、长沙42、武汉41、西安7、杭州7、青岛20、西南1、西南2、广州4、郑州5、华南2等 监控指标 监控项的数据聚合周期为1分钟,即1分钟计算一次,计算出来每秒字节数。您可以将该数据理解为一分钟内的平均值。 1. 实例监控 指标ID 指标名称 指标含义 取值范围 单位 currentbrokers 存活节点数 该指标用于统计Kafka实例中正常运行的实例节点数 0~50 Count currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。 0~2000 Count currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。 0~2000 Count groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。 >0 Count instancebytesinrate 生产流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancebytesoutrate 消费流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancemessagesinrate 消息生产速率 该指标用于统计实例每秒生产的消息数。 >0 Count/s instancemessagesoutrate 消息消费速率 该指标用于统计实例每秒消费的消息数。 注意:2025年1月及以后购买的实例,支持此监控项。 >0 Count/s instancerequestqueuesize 实例请求队列长度 该指标用于统计实例请求队列长度。 >0 Count instanceresponsequeuesize 实例响应队列长度 该指标用于统计实例响应队列长度。 >0 Count instanceconnectionusage 实例连接数使用率 该指标用于统计实例连接数使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancetopicusage 实例用户主题数使用率 该指标用于统计实例租户主题使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancepartitionusage 实例用户主题分区数使用率 该指标用于统计实例租户主题分区使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancegroupusage 实例用户消费组数使用率 该指标用于统计实例租户消费组使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instanceproducelimit 实例生产限流次数 该指标用于统计实例生产限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count instanceconsumelimit 实例消费限流次数 该指标用于统计实例消费限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        可观测
        监控信息
        支持的监控指标
      • 匹配条件字段说明
        本文为您介绍配置部分防护策略时,系统支持设置的匹配字段。 在进行云WAF的防护配置时,CC防护、精准访问控制、白名单、BOT防护均涉及定义规则匹配条件。本文具体描述了规则匹配条件中支持使用的字段及其释义。 什么是匹配条件、匹配动作 在进行云WAF的防护配置时,您可以自定义CC防护规则、自定义精准访问策略、自定义白名单规则、自定义BOT防护规则,自定义规则由匹配条件与匹配动作构成。在创建规则时,通过设置匹配字段和相应的匹配内容定义匹配条件,并针对符合匹配条件的访问请求设置相应的动作。 匹配条件 匹配条件包含匹配字段、逻辑符、匹配内容。每一条自定义规则中最多允许设置多个匹配条件组合,且各个条件间是“与”的逻辑关系,即访问请求必须同时满足所有匹配条件才算命中该规则,并执行相应的匹配动作。 匹配动作 Web基础防护白名单规则中的匹配动作表示不检测模块,其他自定义防护策略的匹配动作表示处置动作,具体配置方式请参见各防护模块配置说明。 支持匹配的字段 匹配字段 适用的逻辑符 字段描述 请求参数值 包含、相等、正则匹配 请求的参数value,包括query和form,如/?p123中的123 请求参数名 包含、相等、正则匹配 请求的参数key,包括query和form,如/?p123中的p Cookie 包含、相等、正则匹配、统计次数、统计个数 请求的Cookie值 请求路径 包含、相等、正则匹配、统计次数、统计个数 请求的路径,不包含域名和参数,未解码 请求URI 包含、相等、正则匹配、统计次数、统计个数 请求的URI,带参数 请求头值 包含、相等、正则匹配 请求header的值 请求头名 包含、相等、正则匹配 请求header的名字 请求方法 包含、相等、正则匹配、统计次数、统计个数 请求方法 请求大小 大于等于、小于等于 请求的大小 请求Host 包含、相等、正则匹配、统计次数、统计个数 请求Host头的值 请求referer 头 包含、相等、正则匹配、统计次数、统计个数 请求referer头的值 请求UserAgent 包含、相等、正则匹配、统计次数、统计个数 请求UserAgent 请求体 包含、相等、正则匹配、统计次数 请求体 请求端口 相等、统计次数、统计个数 请求的端口 源IP 属于、不属于 请求来源IP
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        匹配条件字段说明
      • 设计预案阶段
        本文为您介绍设计预案阶段的具体操作。 使用条件 若预案阶段设计需要脚本任务,需要预先在脚本库中新建脚本并发布。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段中任务的编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表中的“预案阶段设计”按钮。 1. 若当前预案阶段状态为草稿,直接进入预案阶段设计页面。 2. 若当前预案阶段状态为已启用,且未被预案关联,直接进入预案阶段设计页面。 3. 若当前预案阶段状态为已启用,且存在被草稿/已启用/已停用状态关联的预案,弹出预案阶段设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案阶段设计页面。不同状态的预案与预案阶段的关联情况如下: 1. 若当前预案阶段已被草稿状态的预案关联,对预案阶段重新设计后,对应预案将自动关联最新的预案阶段。 2. 若当前预案阶段已被启用状态的预案关联,对预案阶段重新设计后,对应预案状态将更新为“待重新启用”,需重新启用预案。 3. 若当前预案阶段已被停用状态的预案关联,对预案阶段重新设计后,对应预案状态不改变,启用预案时自动关联最新预案。 7. 在预案阶段设计页面,用户可拖拽普通任务、条件任务、开始节点和结束节点至画布中,同时可点击任务节点进行任务配置。 流程绘制说明如下: 1. 普通任务:通过关联自定义脚本或平台内置能力对单个资源执行预期操作。 2. 条件任务:在普通任务基础上支持根据条件任务的执行结果(正常/异常)分别配置后续工作,配置条件任务在配置自身任务信息外,需对后面的箭线配置执行条件,条件任务后只能有2条箭线。 3. 任务并行编排通过任务间的箭线决定,一条箭线两端的任务为串行执行顺序,一个任务后有多条普通箭线(非条件判断箭线)代表此任务执行完成后需并行执行其后的任务。 8. 用户拖拽普通任务至画布后,点击“普通任务”,弹出编辑任务弹窗,可对普通任务进行任务编辑。任务类型分为脚本任务、人工任务、内置任务。 1. 当任务类型为脚本任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为脚本任务。任务类型可选脚本任务、人工任务、内置任务。 脚本名称 √ 选择脚本名称,下拉数据源为脚本库中“已发布”状态脚本的脚本名称。 目标资源 √ 选择容灾管理中心,下拉数据源为当前命名空间下所有运行的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源。其中: 若所选脚本的资源类型为“主机”:下拉数据源为对应操作系统类型的开启了远程连接的非天翼云主机。 若所选脚本的资源类型为“数据库”:下拉数据源为对应数据库类型的配置连接信息的数据库实例。 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为自定义时,由用户自定义设置参数值。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 失败重试次数 √ 填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 2. 当任务类型为人工任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 目标资源 × 选择容灾管理中心,下拉数据源为当前命名空间下容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下资源类型的资源实例。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 描述 × 填写预案阶段描述。 长度为0100个字符。 3. 当任务类型为内置任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 任务目的 √ 选择任务目的,可选资源操作、流程控制。 操作名称 √ 选择操作名称。 任务目的为资源操作时:可选云主机关机、云主机重启、云主机开机、MySQL/Redis/PostgreSQL/MongoDB主备切换、ELB流量切换、ELB流量调节、ELB流量回切。 任务目的为流程控制时:可选等待。 等待时长 √ 仅任务目的为流程控制时可见,填写等待时长时间(单位:s)。 取值范围为17200s。 目标资源 √ 选择容灾管理中心: 1. 任务为非流量配置相关的任务时:可选当前命名空间下所有运行中的容灾管理中心。 2. 任务为流量配置相关的任务时:可选当前命名空间下配置了ELB的运行中的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源: 1. 主机相关任务:资源所选容灾管理中心下的云上云主机 2. 数据库相关任务:资源为所选容灾管理中心下的云上数据库 3. 流量相关任务:资源为所选容灾管理中心下接入成功的且流量配比进行过初始配置的应用 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 任务目的为资源操作时:填写预计耗时时间(单位:s)。 任务目的为流程控制时:与等待时长一致,不可编辑。 失败重试次数 √ 仅任务目的为资源操作时可见,填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 9. 编辑任务完毕后,点击弹窗底部“确定”按钮。若存在参数引用的相关配置,用户确认知晓提示内容后,点击“已确认”。 10. 条件任务按上方基础任务配置后,需对后面的箭线配置执行条件。点击箭线后,弹出条件配置弹窗。条件判定可选择正常或异常,选择完毕后,点击“确认”按钮,完成条件配置,配置结果显示在箭线上。 11. 整体预案阶段设计完毕后,检查是否符合预案阶段设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个普通任务或条件任务节点,且所有任务节点均不能为空; 4. 所有节点必须通过箭线连接; 5. 条件任务节点后必须跟2条箭线,且箭线上需配置判定条件,同时两条箭线的判定条件不能相同; 6. 两个节点间只能有1条箭线(不区分箭头方向); 7. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 12. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案阶段设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        设计预案阶段
      • 科研助手解锁 OWL 智能体,启动任务 “开挂” 模式
        本文主要介绍了如何在科研助手上使用OWL智能助手。 概述 OWL CAMELAI‌的 OWL 是开源多智能体协作系统,通过逆向工程复刻并超越 Manus 的通用 Agent 功能,其核心采用六步工作流(Ubuntu 容器部署、数据挂载、动态生成 todo.md 等)实现任务自动化,并集成CRAB 技术‌支持跨平台多设备操作‌。项目以 ‌57.7% 的 GAIA 基准测试成绩‌超越主流开源框架,提供 ‌Ubuntu Toolkit‌ 和 ‌Memory Toolkit‌ 工具链,支持开发者快速定制智能体行为与集成第三方服务‌。目前完全开源,适用于企业自动化、科研辅助等场景,鼓励社区共同构建全能型 Agent 生态‌。 科研助手新增 OWL 能力概述 科研助手平台在 OWL 开源的基础上,为方便您的使用,增加了如下能力: 支持使用本地 QWQ32B 大模型,无需 API Key 外连其他大模型 支持 bing search toolkit,无需代理,在国内就可以进行问题搜索 修复了 OWL Web UI 回答框,只支持展示单行结果的问题 前置说明 1. 该文档为在科研助手上使用OWL快速代码生成的说明。OWL目前为开源测试版本,仍处于开发与优化阶段,可能存在功能不稳定或未完善的情况。用户在使用过程中需自行甄别潜在问题,并承担可能产生的风险。我们建议用户在关键任务中谨慎使用。感谢您的理解与支持! 2. OWL目前支持的Search API只有Google和duckduckgo,因网络等原因限制,暂不可用;科研助手已内置了 bing search toolkit,可以访问国内必应网站进行内容搜索。 3. 本产品中的模型由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别并对自行选择的服务负责。 4. 如您在使用过程中遇到了问题或需要反馈的内容,可通过客服工单的方式,向我们进行咨询和反馈,我们将及时进行回复和处理。
        来自:
        帮助文档
        科研助手
        最佳实践
        科研助手解锁 OWL 智能体,启动任务 “开挂” 模式
      • 1
      • ...
      • 235
      • 236
      • 237
      • 238
      • 239
      • ...
      • 291
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      AI Store

      模型推理服务

      一站式智算服务平台

      智算一体机

      知识库问答

      人脸检测

      人脸实名认证

      人脸属性识别

      推荐文档

      服务案例

      客户端下载安装

      常见问题

      天翼云域名的优势

      产品优势

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号