云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云解析_相关内容
      • 将Oracle同步到PostgreSQL
        参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“Oracle”。 目标数据库引擎 选择“PostgreSQL”。 网络类型 此处以“公网网络”为示例。目前支持可选“公网网络”、“VPC网络”和“VPN、专线网络”。 目标数据库实例 创建好的RDS for PostgreSQL实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到PostgreSQL
      • 将MySQL同步到Kafka
        参数 描述 数据流动方向 选择“自建自建”。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“Kafka”。 网络类型 此处以“公网网络”为示例。目前支持可选公网网络、VPC网络和VPN、专线网络。 可用区 选择DRS实例创建在哪个可用区,选择跟源或目标库相同的可用区性能更优。 VPC 选择可用的虚拟私有云。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。 默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 内网安全组 请选择内网安全组。内网安全组限制实例的安全访问规则,加强安全访问。 同步类型 增量增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。 无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见 标签管理。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        自建到自建
        将MySQL同步到Kafka
      • HBlock用户手册和安装包
        版本 发布日期 说明 4.0 2026年03月24日 1. 支持免费版本。 2. 新增调整HBlock服务占用服务器内存参数功能。 3. 上云卷新增挂起卷功能。 4. 支持通过API设置本地卷的扩展属性。 5. 增加设置鉴权方式。 3.10 2025年09月25日 1. 支持target访问权限,实现客户端和target端权限管理。 2. 支持备份,基于快照生成独立于源卷的数据备份文件。 3. 支持设置QoS规则,从带宽和IOPS维度管控流量。 3.9 2025年04月21日 1. 支持快照功能,实现数据的快速备份与恢复。 2. 支持克隆卷功能,用于数据复制、测试验证等场景。 3.8 2025年02月14日 1. API签名方法变更,提升安全性。 2. 存储卷和缓存卷支持将数据上传至兼容 S3 的对象存储。 3. 支持设置基础服务的数据存储目录。 4. Target增加回收策略,支持无卷关联后自动删除。 5. 针对智算、虚拟化以及高可用敏感度等场景,支持一键调整系统参数。 6. 支持设置折叠副本数,允许数据副本/分片放在同一个故障域中。 3.7 2024年08月08日 1. 支持设置集群拓扑。 2. 支持创建和管理多存储池。 3. 支持机房和机架级别故障域。 4. 支持设置卷的高速缓存池。 5. 支持基础服务迁移。 3.6 2024年06月03日 1. 支持存储卷和缓存卷,将数据从后端上传到天翼云对象存储(经典版)I型。 2. 硬件及HBlock监控数据支持对接到Prometheus。 3. 支持HBlock告警信息对接到智能运维平台。 4. 优化读写性能。 5. 增加对龙芯服务器的支持。 3.5 2024年03月04日 1. 支持服务器、数据目录级别的故障域,支持磁盘级别的数据服务。 2. 支持指定基础服务的安装节点。 3. 支持数据目录配额,设置HBlock可写入的数据量上限。 4. Target可被多个客户端发现并连接。 5. 设置卷的最小写入副本数,提高数据写入安全性。 6. 扩大纠删码EC N+M支持范围,满足N+M<128。 3.4 2023年07月12日 1. 卷连接支持一主多备,提高业务可用性。 2. 支持IPv6环境。 3. 控制台提供Dashboard一页式概览。 4. 支持通过命令行查询CHAP密码。 3.3 2022年12月23日 支持安全移除服务器。 3.2 2022年09月26日 1. 监控项增加,扩大覆盖范围。 2. 增加对告警、日志管理的支持。 3. 事件中增加对系统事件的支持。 3.1 2022年06月14日 1. 单机版支持添加多个数据目录。 2. 集群版支持创建Target时指定对应的服务器,支持Target迁移。 3. 支持用户事件的记录和查询。 3.0 2022年01月18日 1. 命令行变更为非交互式。 2. 支持WEB、API调用方式。 3. 卷操作:支持设置卷的高可用类型和卷的写策略。 2.1 2021年08月27日 1. 增加对ARM服务器的支持。 2. 软件许可证:查看许可证时,可以显示允许的容量。 3. 卷操作:支持对卷进行主备切换,即卷对应的Active Target和Standby Target切换。 2.0 2021年05月28日 1. 支持集群版部署。 2. 支持多副本和纠删码数据冗余。
        来自:
        帮助文档
        存储资源盘活系统
        文档下载
        HBlock用户手册和安装包
      • password字段加密的方法
        本页主要介绍云容器引擎产品的API使用中password字段加密的方法。 涉及的OpenAPI包括:纳管节点 通过API创建节点时password字段需要进行加密处理,具体方法如下: Java 以下是Java环境下对密码进行加密的示例步骤: plaintext import javax.crypto.Cipher;import java.security.KeyFactory; import java.security.PublicKey; import java.security.spec.X509EncodedKeySpec; import java.util.Base64; public class PasswordEncryptDemo { public final static String publicKeyWord "MIGfMA0GCSqGSIb3DQEBAQUAA4GNADCBiQKBgQCcX/slG/wUF6+qVw34VTW+gwFuVvHMHAPmu9jDn+jwED2A+i87CuYpvcjyYwPij41uS6SPZ/MSWDTO6f8/1YRs0Jbj1SIDNpRl/udTEbsPquFIqHSQSZsQseZS+j0HCAIwLUgMAJHW4AHw622Vgiirsm7gOY0qwnry1BmymiVXlQIDAQAB"; private static String encrypt(String password) throws Exception { Cipher cipher Cipher.getInstance("RSA"); PublicKey publicKey KeyFactory.getInstance("RSA").generatePublic(new X509EncodedKeySpec(Base64.getDecoder().decode(publicKeyWord))); cipher.init(Cipher.ENCRYPTMODE, publicKey); byte[] encrypts cipher.doFinal(password.getBytes("UTF8")); return Base64.getEncoder().encodeToString(encrypts); } public static void main(String[] args) throws Exception { String password "密码"; String encryptPassword encrypt(password); System.out.println(encryptPassword); }} GO 以下是GO环境下对密码进行加密的示例步骤: plaintext package mainimport ( "crypto/rand" "crypto/rsa" "crypto/x509" "encoding/base64" "encoding/pem" "fmt")const publicKeyword "BEGIN PUBLIC KEYnMIGfMA0GCSqGSIb3DQEBAQUAA4GNADCBiQKBgQCcX/slG/wUF6+qVw34VTW+gwFuVvHMHAPmu9jDn+jwED2A+i87CuYpvcjyYwPij41uS6SPZ/MSWDTO6f8/1YRs0Jbj1SIDNpRl/udTEbsPquFIqHSQSZsQseZS+j0HCAIwLUgMAJHW4AHw622Vgiirsm7gOY0qwnry1BmymiVXlQIDAQABnEND PUBLIC KEY"func Encrypt(password string) string { publicKeywordByte : []byte(publicKeyword) block, : pem.Decode(publicKeywordByte) if block nil { fmt.Println("解析pem 失败") return "" } publicKeyInterface, error : x509.ParsePKIXPublicKey(block.Bytes) if error ! nil { fmt.Println("Failed to parse public key:", error) return "" } publicKey, ok : publicKeyInterface.(rsa.PublicKey) if !ok { fmt.Println("Public key is not type rsa.publicKey") return "" } ciphertext, err : rsa.EncryptPKCS1v15(rand.Reader, publicKey, []byte(password)) if err ! nil { fmt.Println("Encryption failed:", err) return "" } return base64.StdEncoding.EncodeToString(ciphertext)}func main() { fmt.Println(Encrypt("密码"))}
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        API参考
        附录
        password字段加密的方法
      • 代理管理
        后续操作 开启/关闭代理:单击“操作”列的“开启/关闭代理”,可以控制代理数据库的开启和关闭状态,开启代理之后,应用即可将JDBC连接从物理数据库上切换至代理数据库上。 开启/关闭仿真模式:选择“操作”列的“仿真 > 开启/关闭”,仿真模式下,代理数据库将会把应用产生的数据SQL根据配置的规则进行解析后,存入仿真文件中,由应用判断改写后的SQL是否符合要求。
        来自:
        帮助文档
        云密评专区
        用户指南
        云密评专区—数据加密网关操作指南
        数据库管理
        数据库列表
        代理管理
      • 安全认证原理和认证机制
        本章节主要介绍安全认证原理和认证机制。 功能 开启了 Kerberos认证的安全模式集群,进行应用开发时需要进行安全认证。 Kerberos这一名词来源于希腊神话“三个头的狗——地狱之门守护者”,后来沿用作为安全认证的概念,使用Kerberos的系统在设计上采用“客户端/服务器”结构与AES等加密技术,并且能够进行相互认证(即客户端和服务器端均可对对方进行身份认证)。可以用于防止窃听、防止replay攻击、保护数据完整性等场合,是一种应用对称密钥体制进行密钥管理的系统。 原理 Kerberos的原理架构和各模块的说明如下图所示: 原理架构 模块说明 App Client:应用客户端,通常是需要提交任务(或者作业)的应用程序。 App Server:应用服务端,通常是应用客户端需要访问的应用程序。 Key Distribution Center(KDC):提供安全认证的服务。 Database:存储Principal数据。 Authentication Server(AS):认证服务器,认证客户端身份,发放客户访问TGS的票据授权票据(TGT)。 Ticket Granting Server(TGS):票据授予服务器,发放应用客户端访问应用服务端所需的服务票据(ST)。 步骤原理说明 应用客户端(App Client)可以是集群内某个服务,也可以是客户二次开发的一个应用程序,应用程序可以向应用服务提交任务或者作业。 1. ASREQ:App Client在提交任务或者作业前,需要向AS申请TGT,用于建立和TGS的安全会话。 2. ASREP:AS在收到TGT请求后,会解析其中的参数来生成对应的TGT,使用App Client指定的用户名的密钥进行加密响应消息。 3. TGSREQ:App Client收到TGT响应消息后,解析获取TGT,此时,再由App Client(通常是RPC底层)向TGS获取应用服务端的ST。 4. TGSREP:TGS在收到ST请求后,校验其中的TGT合法后,生成对应的App Server的ST,再使用App Server密钥将响应消息进行加密处理。 5. APREQ:App Client收到ST响应消息后,将ST打包到发给App Server的消息里面传输给对应的App Server。 6. APREP:App Server端收到请求后,使用App Server对应的密钥解析其中的ST,并校验成功后,本次请求合法通过。 说明 1. Kerberos认证时需要配置Kerberos认证所需要的文件参数,主要包含keytab路径,Kerberos认证的principal,Kerberos认证所需要的客户端配置krb5.conf文件。 2. 方法login()为调用的UserGroupInformation的方法执行Kerberos认证,生成TGT票据。 3. 方法doSth()调用hadoop的接口访问文件系统,此时底层RPC会自动携带TGT去Kerberos认证,生成ST票据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        安全性说明
        安全认证原理和认证机制
      • OpenSSL漏洞修复最佳实践
        本节介绍OpenSSL漏洞修复最佳实践。 OpenSSL简介 OpenSSL是一个开放源代码的软件库包,应用程序可以使用这个包来进行安全通信,避免窃听,同时确认另一端连接者的身份。这个包广泛被应用在互联网的网页服务器上,因此需要注重OpenSSL安全漏洞的修复。 OpenSSL用途 加密和解密数据:OPENSSL支持对称和非对称加密算法,可以用于安全的数据加密和解密操作。 数字签名:OPENSSL可以对数据进行数字签名,提高数据的可信度和合法性。还可以验证数字签名和证书的有效性。 SSL/TLS协议实现:OPENSSL支持SSL、TLS等协议,可以用于建立安全的网络连接,对数据进行加密传输,提高网络的安全性。 生成和管理数字证书:OPENSSL可以生成和管理各种类型的数字证书,包括服务器证书、客户端证书等。数字证书是实现安全通信的重要工具之一。 伪随机数生成器:OPENSSL可以生成高质量的伪随机数,用于各种密码算法中的随机数种子。 其他的密码学工作:除了上述主要用途外,OPENSSL还包括了各种密码学工具和库,可以实现密码算法的实现和分析。 依赖OpenSSL的软件或协议 MongoDB 4.4 Nginx KeepAlived Https OpenSSH SSH VPN 电子邮件 OpenSSL漏洞扫描 您可以参考漏洞扫描最佳实践进行漏洞扫描。 OpenSSL常见漏洞 CVE20160705 OpenSSL DSA代码双重释放漏洞 漏洞危害 OpenSSL 1.0.2及更早版本、1.0.1及更早版本解析畸形DSA密钥中存在双重释放漏洞,可导致受影响应用拒绝服务或内存破坏。 影响版本 OpenSSL 1.0.2及更早版本 OpenSSL 1.0.1及更早版本 修复建议 目前厂商已经发布了升级补丁以修复此安全问题,补丁获取链接:< CVE20160799 OpenSSL‘BIOprintf’函数安全漏洞 漏洞危害 OpenSSL 1.0.2及更早版本、1.0.1及更早版本在BIOprintf函数的实现上存在内存破坏漏洞,可导致内存泄露等。 影响版本 OpenSSL 1.0.2及更早版本 OpenSSL 1.0.1及更早版本 修复建议 目前厂商已经发布了升级补丁以修复此安全问题,补丁获取链接:< CVE20162842 OpenSSL doaproutch函数拒绝服务漏洞 漏洞危害 OpenSSL 1.0.1 < 1.0.1s、1.0.2 < 1.0.2g版本,crypto/bio/bprint.c/doaproutch函数未验证某些内存分配结果,这可使远程攻击者造成拒绝服务。 影响版本 OpenSSL 1.0.1 < 1.0.1s OpenSSL 1.0.2 < 1.0.2g 修复建议 目前厂商已经发布了升级补丁以修复此安全问题,补丁获取链接:< CVE20162108 OpenSSL ASN.1编码器内存破坏漏洞 漏洞危害 OpenSSL中的ASN.1解析器在对数据解析时没有正确处理特定标签,当遇到VASN1NEGINTEGER和VASN1NEGENUMERATED标签时,ASN.1解析器也会将其视作ASN1ANY类型,从而解析其中的数据。当数据再次编码序列化时,可能造成数据越界写入,引起内存损坏。 影响版本 OpenSSL Project OpenSSL 1.0.2 OpenSSL Project OpenSSL 1.0.1 不受影响版本 OpenSSL Project OpenSSL 1.0.2c OpenSSL Project OpenSSL 1.0.1o 修复建议 目前厂商已经发布了升级补丁以修复此安全问题,补丁获取链接:<
        来自:
        帮助文档
        服务器安全卫士(原生版)
        最佳实践
        OpenSSL漏洞修复最佳实践
      • 接入云主机-文本日志
        sectioncee6df8fa1da56d5)。 6. 索引配置。(可选项) 具体查看索引配置。 7. 点击下一步后,接入成功后,可以点击【返回接入配置列表】查看日志接入,也可单击【查询日志】查看该日志单元下的日志数据。 采集配置 您需要在日志接入流程中配置采集规则,采集器将按照该规则采集目标云主机的日志。 采集配置的具体配置参数说明如下: 1. 采集规则名称:自定义采集规则名称,字符长度64以内,仅支持字母、数字、下划线()和连字符(),且必须以字母和数字开头、结尾。 2. 采集路径配置:填写您需要采集的日志路径与日志文件名,采集器将监听这些目录(包含子层目录)下所有匹配文件名规则的日志文件,并采集日志数据至云日志服务中。您可通过以下多种方式配置采集路径: 1. 采集单一目录下的单一日志文件。示例: plaintext /var/logs/a.log 此例中,采集器将会监听/var/log/目录下以a.log命名的日志文件。 2. 支持通配符模式进行目录与文件名的模糊匹配,通配符( )表示匹配多个任意字符,通配符(?) 表示匹配单个任意字符。示例如下: 采集路径 示例说明 /var/logs//a.log 此例中,表示/var/logs/目录下,任何一个目录中存在a.log,都能进行日志匹配。 /var/logs/service/a.log 此例中,表示/var/logs/目录下,任何一个以service开头的目录中存在a.log,都能进行日志匹配。 /var/logs/service/a.log 此例中,表示/var/logs/service目录下,任何一个以a开头的log类型日志文件,都能进行日志匹配。 /var/logs/.log 此例中,表示/var/logs/目录下,后缀名为.log的日志文件,都能进行日志匹配。 3. 支持使用递归路径,//表示当前目录以及所有子目录。示例: plaintext /var/log//a.log 此例中,采集器将会监听/var/log/前缀路径下子目录中以a.log命名的日志文件,默认往里递归5个目录层级,如: plaintext /var/logs/1/a.log /var/logs/1/2/a.log /var/logs/1/2/3/a.log /var/logs/1/2/3/4/a.log /var/logs/1/2/3/4/5/a.log 说明 1. 以上示例中的/1/2/3/4/5/,表示/var/logs目录中,往里递归的5个目录层级,在这5个目录层级中只要存在a.log,都能进行日志匹配。若您需要递归更多的目录层级,可修改当前页面中的【最大目录深度】字段。 2. 采集路径中只能出现一次,不能出现两个及以上。错误示例如:/var/logs//test//a.log。 3. 采集路径中第一个层级不允许为,以避免误采集系统文件,错误示例如://logtest/a.log。 3. 采集策略 1. 全量:采集新文件时,从文件的末尾开始读; 2. 增量:采集新文件时,从文件的开头开始读。(从增量改为全量,也仅从最后采集位置开始采集,若要全量采集日志,请新建采集规则。全量最大采集10GB) 4. 采集黑名单: 支持对日志进行过滤采集,即通过设置黑名单,在采集时过滤指定的文件。 打开采集黑名单设置后,您需要输入完整的文件绝对路径与文件名称,代表该文件将会被采集器忽略。 支持添加多个采集黑名单。 5. 最大目录深度:默认为5层,该配置控制日志采集的最大目录深度,采集器不会采集所在目录层级超过指定最大目录深度的日志文件。当您的目标采集路径包含模糊匹配时,建议配置合适的最大目录深度,避免采集器性能浪费。 6. 切割模式 支持选择切割模式以实现日志的结构化解析,目前采集器提供多种结构化解析方式,详情如下: 解析方式 说明 单行全文 单行全文是指一条日志仅包含一行的内容,在采集的时候,将使用换行符来作为一条日志的结束符,即在日志文件中,以换行符分隔两条日志。日志数据本身不再进行日志结构化处理,也不会提取日志字段。每条日志都会存在一个默认的字段message,采集器会将日志内容存放在message中。详情请参考单行全文模式。 多行全文 多行全文日志是指一条完整的日志数据可能跨占多行,您需要指定首行正则以进行匹配,当某行日志匹配上预先设置的正则表达式,就认为是一条日志的开头,而下一个行首出现则作为该条日志的结束标识符。日志内容同样也会存放在message字段中。详情请参考多行全文模式。 单行正则 单行正则模式用于处理结构化的日志,针对包含一行内容的日志,您需要指定一个正则表达式,采集器按照正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考单行正则模式。 多行正则 多行正则模式用于处理结构化的日志,针对包含多行内容的日志,您需要指定一个行首正则表达式用于匹配日志的开头,并指定一个正则表达式用于提取多个值,采集器按照该正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考多行正则模式。 单行分隔符 单行分隔符模式支持通过配置的分隔符将一条日志分割成多个 keyvalue 键值,从而实现结构化处理,该模式仅适用于单行日志,每条完整的日志以换行符为结束标识符。详情请参考单行分隔符模式。 JSON 支持解析Object类型的JSON日志,提取JSON日志内容作为KeyValue对,即Object首层的键作为Key,Object首层的值作为Value。详情请参考JSON模式。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        接入云主机-文本日志
      • HLS标准加密改写
        EXTXKEY:METHODAES128,URI" 3. 客户端播放器下载M3U8文件,并解析其中的EXTXKEY标签,向 4. www.ctyun.cn服务器通过鉴权后,向客户端播放器返回秘钥信息。 5. 客户端播放器继续解析M3U8文件,并下载对应TS文件内容。 6. 客户端播放器基于AES128算法,以及获取的秘钥信息,对下载的TS文件进行解密播放。 上述整个环节中,为避免非法客户端基于M3U8明文中的鉴权地址获取到解密秘钥,有如下建议: 1. 获取秘钥的地址需做https加密传输,避免秘钥在传输过程中被劫持。 2. 获取秘钥的过程需要做严格的鉴权,客户端播放器请求时需携带鉴权参数,由服务端校验请求的合法性,鉴权通过后再返回秘钥文件。 3. 最好对秘钥本身进行加密,即使客户端播放器获取到秘钥后,也需要同时获悉秘钥的解密key,才能正常使用秘钥,从而确保仅特定的播放器才能播放加密TS内容。 4. 作为整个防盗链保护版权方案的一部分,TS文件链接最好也做防盗链鉴权,天翼云CDN支持同时对M3U8中的TS文件URL或参数做增删改的处理,并支持继承M3U8中的鉴权参数,使得M3U8对应的TS文件也具备相同的鉴权属性。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        视频相关
        HLS标准加密改写
      • 设置防护规则引擎
        本文为您介绍开启Web核心防护能后,如何配置防护规则引擎。 Web核心防护提供最新的OWASP TOP10威胁防御,包含但不限于SQL注入攻击,XSS跨站攻击、跨站请求伪造攻击、参数污染、命令执行、服务端代码注入、信息泄露、预测资源位置、缓存溢出、Cookie投毒、XML注入、远程文件包含、XPath注入、路径遍历、认证攻击、LDAP注入、逃避检测攻击、目录遍历、HTTP响应拆分、XML解析漏洞、恶意文件上传、远程命令执行、文件包含、多层编译攻击、动态应用混淆、恶意扫描爬虫、网站挂马、后门上传等黑客攻击。支持防护针对Web应用框架和组件漏洞发起的攻击,深度发现经过混淆、变形的恶意隐藏的Web请求,在造成破坏之前预防、阻断,提供设备指纹识别,识别隐藏攻击。 支持防逃逸,自动还原常见编码,解码常见编码类型包含URL编码、JavaScriptUnicode编码、HEX编码、HTML实体编码、Java序列化编码、PHP序列化编码、Base64编码、UTF7编码、UTF8编码、混合嵌套编码、ASCII编码、IIS反斜杠编码等。 前提条件 已开通Web应用防火墙(原生版)实例。 已完成网站域名接入。 背景信息 云WAF的Web全局防护规则引擎默认开启,所有接入云WAF防护的网站业务,默认都受到Web核心防护规则引擎的检测和防护。 Web核心防护则引擎基于天翼云持续优化的高质量攻击检测规则集,帮助网站防御各种常见的Web应用攻击。您可以根据业务防护需要,在防护规则组的维度,设置规则引擎采用哪些防护规则。WAF按照防护严格程度,内置了三套规则组供选用: 正常规则组:默认选用该规则组。 宽松规则组:如需减少误拦截,可选用该规则组。 严格规则组:如需提高攻击检测命中率,可选用该规则组。 您也可以自定义防护规则组,相关操作,请参见全局Web核心防护。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(安全防护)
        Web核心防护
        设置防护规则引擎
      • 本地开发 local
        参数解析 参数全称 参数缩写 Yaml 模式下必填 参数含义 event e 选填 标准运行时函数的事件数据。 操作案例 1. 使用 VS Code 打开项目,项目根目录应包含资源描述文件(s.yaml),在项目根目录执行 s local debug 启动本地函数容器。 2. 在需要调试的代码行号设置调试断点。 3. 点击左侧调试功能按钮,并启动调试器。 4. 调试您的代码。
        来自:
        帮助文档
        函数计算
        开发工具
        Serverless Devs
        命令参考
        本地开发 local
      • 增加SRV类型记录集
        操作场景 当您想要为域名增加一条SRV解析记录时,可以执行本操作添加记录集。支持为内网域名添加SRV类型记录集。 操作步骤 1. 登录管理控制台。 2. 选择“网络 > 内网DNS”。 进入内网DNS页面。 3. 在左侧树状导航栏,选择“内网域名”。 进入域名列表页面。 4. (可选)如果选择“内网域名”,请单击管理控制台左上角的,选择区域和项目。 5. 在待添加记录集的域名所在行,单击“名称”列的域名名称。 6. 单击“添加记录集”。 系统进入“添加记录集”页面。 7. 设置记录集参数,如下表所示。 表添加SRV类型记录集参数说明 参数 参数说明 取值样例 主机记录 填写主机通过哪种网络协议(如tcp、udp)提供了哪种通用网络服务(如ftp、ssh、sip)。格式为: 服务的名字 .协议的类型 ftp.tcp表示通过TCP协议提供FTP服务。 类型 记录集的类型,此处为SRV类型。 SRV – 记录提供特定服务的服务器 TTL(秒) 记录集的有效缓存时间,以秒为单位。 默认为“5min”,即300s。 值 格式为:优先级 权重 端口号 目标地址其中:优先级、权重、端口号均为数字,取值范围0~65535。系统优先比较优先级,优先级相同时,再比较权重。优先级:值越小,优先级越高。权重:值越大,权重越大。目标地址:目的主机的域名。请确保该主机可以解析。 2 1 2355 exampleserver.test.com 描述 可选配置,对SRV记录集的描述。 The description of SRV Server. 8. 单击“确定”,完成记录集的添加。 您可以在域名对应的记录集列表中查看添加的记录集。当记录集的状态显示为“正常”时,表示记录集添加成功。
        来自:
        帮助文档
        内网DNS
        用户指南
        增加记录集
        增加SRV类型记录集
      • LevelDB到GeminiDB Redis的迁移
        本节主要介绍LevelDB到GeminiDB Redis的迁移方案。 LevelDB是一个开源的持久化KV单机数据库引擎,具有很高的随机写,顺序读/写性能,适合应用在写多读少的场景。其内部没有设计成C/S网络结构,使用时必须和服务部署在同一台服务器,对于服务的部署、使用有较大的限制。相比于在LevelDB基础上开发的RocksDB, LevelDB存在较多缺点,如无法很好的使用多核服务器的计算性能,无法支撑TB级数据存储,不支持从HDFS读取数据等。 GeminiDB Redis采用RocksDB作为存储引擎,兼容Redis协议,具有丰富的数据类型,可以满足LevelDB的使用需求。同时GeminiDB Redis对RocksDB进行深度定制,实现秒级分裂弹性扩容,扩缩容无需搬迁数据,快速而平滑,为LevelDB业务转到Redis生态提供了便利。 迁移原理 使用自研迁移工具leveldbport,和LevelDB部署在相同机器上,准备好配置文件,启动迁移即可自动完成全量与增量的迁移。 全量迁移对LevelDB数据进行快照,然后扫描整个数据库,将数据打包成GeminiDB Redis识别的格式,发送到GeminiDB Redis ,具有很高的迁移效率。 增量迁移解析LevelDB的wal文件,将LevelDB的操作解析出来,然后对其中的key进行分片,多线程进行发送。 使用须知 迁移工具需要部署在源端,对性能有一定消耗,可通过修改配置文件进行一定的控制。 迁移过程读取LevelDB的源数据文件,只读操作,理论上不会有数据受损风险。 迁移过程不需要停服。 若迁移过程出现故障,需要清理GeminiDB Redis实例,重新启动迁移。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        LevelDB到GeminiDB Redis的迁移
      • RocketMQ PHP SDK
        说明 分布式消息服务RocketMQ兼容了社区版 HTTP SDK,您可以使用社区版 HTTP SDK接入分布式消息服务RocketMQ。 前提条件: 1. 在PHP安装目录下的composer.json文件中加入社区PHP SDK 依赖。 2. 使用Composer安装依赖。 composer install 发送普通消息 client new MQClient( // 填写分布式消息服务RocketMQ控制台HTTP接入点 "${HTTPENDPOINT}", // 填写AccessKey,在管理控制台创建 "${ACCESSKEY}", // 填写SecretKey 在管理控制台创建 "${SECRETKEY}" ); // 所属的 Topic $topic "${TOPIC}"; // Topic所属实例ID,默认实例为空NULL $instanceId "${INSTANCEID}"; $this>producer $this>client>getProducer($instanceId, $topic); } public function run() { try { for ($i 1; $i putProperty("a", $i); // 设置消息KEY $publishMessage>setMessageKey("MessageKey"); $result $this>producer>publishMessage($publishMessage); print "Send mq message success. msgId is:" . $result>getMessageId() . ", bodyMD5 is:" . $result>getMessageBodyMD5() . "n"; } } catch (Exception $e) { printr($e>getMessage() . "n"); } }}$instance new NormalProducerExample();$instance>run();?> 消费普通消息 client new MQClient( // 填写分布式消息服务RocketMQ控制台HTTP接入点 "${HTTPENDPOINT}", // 填写AccessKey,在管理控制台创建 "${ACCESSKEY}", // 填写SecretKey 在管理控制台创建 "${SECRETKEY}" ); // 所属的 Topic $topic "${TOPIC}"; // 您在控制台创建的 Consumer ID(Group ID) $groupId "${GROUPID}"; // Topic所属实例ID,默认实例为空NULL $instanceId "${INSTANCEID}"; $this>consumer $this>client>getConsumer($instanceId, $topic, $groupId, "TagA"); } public function run() { // 在当前线程循环消费消息,建议是多开个几个线程并发消费消息 while (True) { try { // 长轮询消费消息 // 长轮询表示如果topic没有消息则请求会在服务端挂住3s,3s内如果有消息可以消费则立即返回 $messages $this>consumer>consumeMessage( 3, // 一次最多消费3条(最多可设置为16条) 3 // 长轮询时间3秒(最多可设置为30秒) ); } catch (MQExceptionMessageResolveException $e) { // 当出现消息Body存在不合法字符,无法解析的时候,会抛出此异常。 // 可以正常解析的消息列表。 $messages $e>getPartialResult()>getMessages(); // 无法正常解析的消息列表。 $failMessages $e>getPartialResult()>getFailResolveMessages(); $receiptHandles array(); foreach ($messages as $message) { // 处理业务逻辑。 $receiptHandles[] $message>getReceiptHandle(); printf("MsgID %sn", $message>getMessageId()); } foreach ($failMessages as $failMessage) { // 处理存在不合法字符,无法解析的消息。 $receiptHandles[] $failMessage>getReceiptHandle(); printf("Fail To Resolve Message. MsgID %sn", $failMessage>getMessageId()); } $this>ackMessages($receiptHandles); continue; } catch (Exception $e) { if ($e instanceof MQExceptionMessageNotExistException) { // 没有消息可以消费,接着轮询 printf("No message, contine long polling!RequestId:%sn", $e>getRequestId()); continue; } printr($e>getMessage() . "n"); sleep(3); continue; } print "consume finish, messages:n"; // 处理业务逻辑 $receiptHandles array(); foreach ($messages as $message) { $receiptHandles[] $message>getReceiptHandle(); printf("MessageID:%s TAG:%s BODY:%s nPublishTime:%d, FirstConsumeTime:%d, nConsumedTimes:%d, NextConsumeTime:%d,MessageKey:%sn", $message>getMessageId(), $message>getMessageTag(), $message>getMessageBody(), $message>getPublishTime(), $message>getFirstConsumeTime(), $message>getConsumedTimes(), $message>getNextConsumeTime(), $message>getMessageKey()); printr($message>getProperties()); } // $message>getNextConsumeTime()前若不确认消息消费成功,则消息会重复消费 // 消息句柄有时间戳,同一条消息每次消费拿到的都不一样 printr($receiptHandles); try { $this>ackMessages($receiptHandles); } catch (Exception $e) { if ($e instanceof MQExceptionAckMessageException) { // 某些消息的句柄可能超时了会导致确认不成功 printf("Ack Error, RequestId:%sn", $e>getRequestId()); foreach ($e>getAckMessageErrorItems() as $errorItem) { printf("tReceiptHandle:%s, ErrorCode:%s, ErrorMsg:%sn", $errorItem>getReceiptHandle(), $errorItem>getErrorCode(), $errorItem>getErrorCode()); } } } print "ack finishn"; } } public function ackMessages($receiptHandles) { try { $this>consumer>ackMessage($receiptHandles); } catch (Exception $e) { if ($e instanceof MQExceptionAckMessageException) { // 某些消息的句柄可能超时,会导致消费确认失败。 printf("Ack Error, RequestId:%sn", $e>getRequestId()); foreach ($e>getAckMessageErrorItems() as $errorItem) { printf("tReceiptHandle:%s, ErrorCode:%s, ErrorMsg:%sn", $errorItem>getReceiptHandle(), $errorItem>getErrorCode(), $errorItem>getErrorCode()); } } } }}$instance new ConsumerExample();$instance>run();?>
        来自:
        帮助文档
        分布式消息服务RocketMQ
        SDK参考
        RocketMQ PHP SDK
      • DNS概述
        本节介绍网络的用户指南:服务发现DNS概述。 创建集群时会自动安装CoreDNS插件,用来提供集群内部域名解析。在kubesystem命名空间下,可以查看到CoreDNS相关Pod: kubectl nkubesystem get po l k8sappkubedns NAME READY STATUS RESTARTS AGE coredns84f6584c855rmgq 1/1 Running 0 41h coredns84f6584c85rs4n6 1/1 Running 0 41h 作为集群内部DNS服务器,CoreDNS会将Service域名与Service的IP记录起来,Pod可以向CoreDNS查询Service域名获取对应IP地址。Pod访问的Service域名格式为..svc.,其中为Service名称,为命名空间名称,为集群内部域名,默认为cluster.local。若客户端和服务端在同一个命名空间下,可通过直接访问。建议在集群内部使用Service域名访问Pod,无需感知具体Service地址。 默认情况下,会将Coredns Service的地址作为域名解析服务地址写在Pod的/etc/resolv.conf kubectl nkubesystem get svc kubedns NAME TYPE CLUSTERIP EXTERNALIP PORT(S) AGE kubedns ClusterIP 10.96.0.10 53/UDP,53/TCP,9153/TCP 9d kubectl exec it nginxdemo748fb499d78f2t5 cat /etc/resolv.conf search default.svc.cluster.local svc.cluster.local cluster.local nameserver 10.96.0.10 options ndots:5 Pod内通过Service域名访问后端Pod的DNS解析过程,如下图所示:
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        服务发现DNS
        DNS概述
      • 产品定义
        天翼云网站安全监测服务依托全球部署的分布式监测集群,对目标系统提供724小时安全监测服务,通过对网站可用性、安全事件、内容安全、OWASP Top 10 Web漏洞以及DNS解析的实时监测,协助客户及时发现目标系统风险,并解决安全隐患,为网站安全保驾护航。 本产品实现一站式全托管服务,SaaS产品性质远程直接交付,应用更快捷。 网站安全监测基本架构:
        来自:
        帮助文档
        网站安全监测
        产品介绍
        产品定义
      • 支持的监控指标
        本节介绍了云数据库TaurusDB支持的监控指标。 功能说明 通过Cloud Eye的资源监控功能可以了解系统的运行情况。本节定义了云数据库TaurusDB上报云监控的监控指标的命名空间,监控指标列表和监控指标维度。 命名空间 SYS.GAUSSDB 实例支持的监控指标 表TaurusDB实例支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) gaussdbmysql001cpuutil CPU使用率 该指标用于统计测量对象的CPU利用率。 0~100% GaussDB(for MySQL)实例 1分钟 gaussdbmysql002memutil 内存使用率 该指标用于统计测量对象的内存利用率。 0~100% GaussDB(for MySQL)实例 1分钟 gaussdbmysql004bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql005bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql006conncount 数据库总连接数 该指标用于统计连接到TaurusDB数据库的总连接数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql007connactivecount 当前活跃连接数 该指标用于统计当前活跃的连接数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql008qps QPS 该指标用于统计SQL语句查询次数,包含DDL,DML,SHOW语句,SET语句和存储过程。 ≥0 Times/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql009tps TPS 该指标用于统计平均每秒事务执行次数,包含提交的和回退的。 ≥0 Times/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql010innodbbufusage 缓冲池利用率 该指标用于统计使用的页与InnoDB缓存中数据页总数比例。 01 GaussDB(for MySQL)实例 1分钟 gaussdbmysql011innodbbufhit 缓冲池命中率 该指标用于统计该段时间读命中与读请求数比例。 01 GaussDB(for MySQL)实例 1分钟 gaussdbmysql012innodbbufdirty 缓冲池脏块率 该指标用于统计InnoDB缓存中脏数据与数据比例。 01 GaussDB(for MySQL)实例 1分钟 gaussdbmysql013innodbreads InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql014innodbwrites InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写页面数据字节数。TaurusDB只写入临时表页面。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql017innodblogwritereqcount InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql019innodblogwrites Innodb log buffer写入log file的总次数 该指标用于采集InnoDB表上的 log buffer写入log file的总次数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql020temptblcount 临时表数量 该指标用于统计TaurusDB执行语句时在硬盘上自动创建的临时表的数量。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql028comdmldelcount Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql029comdmlinscount Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql030comdmlinsselcount InsertSelect语句执行频率 该指标用于统计平均每秒InsertSelect语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql031comdmlrepcount Replace语句执行频率 该指标用于统计平均每秒Replace语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql032comdmlrepselcount ReplaceSelection语句执行频率 该指标用于统计平均每秒ReplaceSelection语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql033comdmlselcount Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql034comdmlupdcount Update语句执行频率 该指标用于统计平均每秒Update语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql035innodbdelrowcount 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql036innodbinsrowcount 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql037innodbreadrowcount 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql038innodbupdrowcount 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql048diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘使用大小。 0GB~128TB GaussDB(for MySQL)实例 1分钟 gaussdbmysql072connusage 连接数使用率 该指标用于统计当前已用的TaurusDB连接数占最大连接数的百分比。 0~100% GaussDB(for MySQL)实例 1分钟 gaussdbmysql074slowqueries 慢日志个数统计 该指标展示每分钟TaurusDB产生慢日志的数量。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql077replicationdelay 数据同步延迟 该指标用于采集实例的数据同步延迟时间。 ≥0 s GaussDB(for MySQL)实例 1分钟 gaussdbmysql104dfvwritedelay 存储写时延 该指标用于统计某段时间写入数据到存储层的平均时延。 ≥0 ms GaussDB(for MySQL)实例 1分钟 gaussdbmysql105dfvreaddelay 存储读时延 该指标用于统计某段时间从存储层读取数据的平均时延。 ≥0 ms GaussDB(for MySQL)实例 1分钟 gaussdbmysql106innodbrowlockcurrentwaits InnoDB行锁数量 该指标用于采集InnoDB表上的操作当前正在等待的行锁数量。 ≥0 Locks/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql107comdmlinsandinsselcount Insert和InsertSelect语句执行频率 该指标用于统计平均每秒Insert和InsertSelect语句的执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql108comcommitcount Commit语句执行频率 该指标用于统计平均每秒Commit语句的执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql109comrollbackcount Rollback语句执行频率 该指标用于统计平均每秒Rollback语句的执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql110innodbbufpoolreads InnoDB存储层读请求频率 该指标用于统计平均每秒InnoDB从存储层读取数据的请求次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql111innodbbufpoolreadrequests InnoDB读请求频率 该指标用于统计平均每秒InnoDB读取数据的请求次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql114innodbbufpoolreadahead Innodb顺序预读页数 该指标用于采集InnoDB表上的顺序预读页数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql115innodbbufpoolreadaheadevicted Innodb顺序预读,但未访问过的页数 该指标用于采集InnoDB表上的顺序预读,但未访问过的页数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql116innodbbufpoolreadaheadrnd Innodb随机预读页数 该指标用于采集InnoDB表上的随机预读页数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql117innodbpagesread Innodb读取物理page的数量 该指标用于采集InnoDB表上的读取物理page的数量。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql118innodbpageswritten Innodb写入物理page的数量 该指标用于采集InnoDB表上的写入物理page的数量。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql121innodbrowlocktime 行锁花费时间 该指标用于统计该段时间内InnoDB表上行锁花费时间。 ≥0 ms GaussDB(for MySQL)实例 1分钟 gaussdbmysql122innodbrowlockwaits 行锁等待数 该指标用于统计该段时间内InnoDB表上行锁数量。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql123sortrange 范围排序数 该指标用于统计该段时间内使用范围扫描完成的排序数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql124sortrows 行排序数 该指标用于统计该段时间内已排序的行数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql125sortscan 扫描表排序数 该指标用于统计该段时间内通过扫描表完成的排序数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql126tableopencachehits 打开表缓存查找的命中数 该指标用于统计该段时间内打开表缓存查找的命中数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql127tableopencachemisses 打开表缓存查找的未命中数 该指标用于统计该段时间内打开表缓存查找的未命中数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql128longtrxcount 未关闭的长事务个数 该指标用于统计未关闭的长事务个数。 ≥0 counts GaussDB(for MySQL)实例 150秒 gaussdbmysql342iostatiopswrite IO写IOPS 该指标用于采集磁盘每秒写次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql344iostatiopsread IO读IOPS 该指标用于采集磁盘每秒读次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql346iostatthroughputwrite IO写带宽 该指标用于采集磁盘每秒写带宽。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql348iostatthroughputread IO读带宽 该指标用于采集磁盘每秒读带宽。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql371taurusbinlogtotalfilecounts Binlog文件个数 该指标用于统计TaurusDB Binlog文件数量。 ≥0 GaussDB(for MySQL)实例 5分钟 gaussdbmysql378createtemptblpermin 临时表每分钟创建数 该指标用于统计TaurusDB执行语句时在硬盘上每分钟自动创建的临时表的数量。 ≥0counts/min GaussDB(for MySQL)实例 1分钟
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        监控指标与告警
        支持的监控指标
      • 创建节点
        本文主要介绍创建节点。 前提条件 已创建至少一个集群。 您需要新建一个密钥对,用于远程登录节点时的身份认证。 若使用密码登录节点,请跳过此操作。 约束与限制 为了保证节点的稳定性,CCE集群节点上会根据节点的规格预留一部分资源给Kubernetes的相关组件(kubelet、kubeproxy以及docker等)和Kubernetes系统资源,使该节点可作为您的集群的一部分。 因此,您的节点资源总量与节点在Kubernetes中的可分配资源之间会存在差异。节点的规格越大,在节点上部署的容器可能会越多,所以Kubernetes自身需预留更多的资源,详情请参见节点预留资源计算公式。 节点的网络(如虚机网络、容器网络等)均被CCE接管,不允许用户自行添加删除网卡或改变路由,若自行修改,CCE不保证服务可用。例如,节点上名为的gw11cbf51a@eth0网卡为容器网络网关,不可修改。 节点购买后如需对其进行升级或降低规格等操作,请将节点关机后进行变更,也可以重新购买节点后,将老节点删除。 创建节点过程中会使用域名方式从OBS下载软件包,需要能够使用云上内网DNS解析OBS域名,否则会导致创建不成功。为此,节点所在子网需要配置为内网DNS地址,从而使得节点使用内网DNS。在创建子网时DNS默认配置为内网DNS,如果您修改过子网的DNS,请务必 确保子网下的DNS服务器可以解析OBS服务域名 ,否则需要将DNS改成内网DNS。 集群中的节点一旦创建后不可变更可用区。 集群开启IPv4/IPv6双栈时,所选节点子网不允许开启DHCP无限租约。
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        创建节点
      • 性能数据参考
        本文介绍天翼云全站加速的性能数据。 背景说明 行业内,全站加速一般通过如下相关性能指标衡量使用全站加速前后的加速效果,客户可以通过观测相关指标的发展变化来判断全站加速对自身业务的实际加速效果。 通用指标 业内一般通过平均响应时间、服务可用性、DNS解析时间、TCP建连时间、SSL握手时间、首包时间等相关性能指标来监测使用全站加速前后的加速效果,客户可以通过第三方监测平台监测以下相关指标的变化来判断全站加速对自身业务的实际加速效果。 类型 指标 描述 ::: 主要评价指标 整体性能 总下载时间,该值越小,则响应时间越短。 主要评价指标 服务可用性 访问成功率,该值越高,则可靠性越强。 网络指标 DNS解析时间 通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。 网络指标 TCP建连时间 浏览器或客户端和WEB服务器建立TCP/IP连接的消耗时间。 网络指标 SSL握手时间(按需) 浏览器或客户端和WEB服务器建立安全套接层(SSL)连接的消耗时间。 网络指标 首包时间 浏览器或客户端发送HTTP请求结束开始,到收到WEB服务器返回的第一个数据包的消耗时间。 网络指标 内容下载时间 监测一个页面时,从页面角度看,浏览器或客户端接收WEB服务器返回第一个数据包,到所有内容传输完成的时间。 平台指标 回源率 回源率分为回源请求数比例及回源流量比例两种。 1. 回源请求数比:指全站节点对于没有缓存、缓存过期(可缓存)和不可缓存的请求占全部请求记录的比例。 2. 回源流量比:回源流量是全站节点回源请求内容时产生的流量。回源流量比回源流量/用户请求访问的流量,比值越低,性能越好。 平台指标 缓存命中率 缓存命中率包括流量命中率和请求命中率。全站缓存命中率低,会导致源站压力大,静态内容访问效率低。 统计方式: 流量命中率 1 源站响应节点的流量/节点响应用户的总流量(5分钟粒度)。 请求命中率 1 节点回源请求数/用户访问节点的总请求数(5分钟粒度)。 注意 对于开启Range回源功能的域名,因为回源做了分片,而用户访问全站节点没有分片,可能会出现全站节点回源请求数远大于用户访问全站节点的请求数的情况。这种情况下回源请求数比的数据将没有参考意义。
        来自:
        帮助文档
        全站加速
        产品介绍
        性能数据参考
      • 查看数据血缘
        本章节主要介绍节点数据血缘的查看数据血缘。 当数据开发模块中的作业已完成血缘关系配置后,启动作业调度,并在数据目录模块进行元数据采集任务,则可以在数据目录模块可视化查看数据血缘关系。 前提条件 已完成血缘关系的自动配置或手动配置,请参见配置数据血缘。 启动作业调度 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发控制台,单击左侧导航栏中的作业开发按钮,进入作业开发页面后,打开已完成血缘配置的作业。 3.在数据开发中,当作业进行“执行调度”时,系统开始解析血缘关系。 说明 测试运行不会解析血缘。 详见下图:作业调度 新建元数据采集任务 如果已创建元数据采集任务,此操作可跳过。 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 详见下图:选择数据目录 2.请参见任务管理,新建元数据采集任务。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        节点数据血缘
        查看数据血缘
      • 查看数据血缘
        本章节主要介绍通过数据地图查看数据血缘关系的查看数据血缘。 当数据开发模块中的作业已完成血缘关系配置后,启动作业调度,并在数据目录模块进行元数据采集任务,则可以在数据目录模块可视化查看数据血缘关系。 前提条件 已完成血缘关系的自动配置或手动配置,请参见 配置数据血缘。 启动作业调度 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发控制台,单击左侧导航栏中的作业开发按钮,进入作业开发页面后,打开已完成血缘配置的作业。 3. 在数据开发中,当作业进行“执行调度”时,系统开始解析血缘关系。 说明 测试运行不会解析血缘。 详见下图:作业调度 新建元数据采集任务 如果已创建元数据采集任务,此操作可跳过。 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 详见下图:选择数据目录 2. 请参见任务管理章节新建元数据采集任务。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        使用教程
        通过数据地图查看数据血缘关系
        查看数据血缘
      • 如何停用域名
        操作 说明 停用域名 对域名进行停用操作后,控制台上域名状态将变更为“已停止”。天翼云CDN会将加速域名的CNAME立即解析至不可用地址。 注意:对域名进行停用操作后,边缘节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,可再次对域名进行"启用"操作 删除域名 对域名进行删除操作后,天翼云边缘节点会直接删除加速域名在边缘节点的配置,域名对应CNAME入口地址失效,此时域名请求如果仍访问至边缘节点,则会响应403。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        快速入门
        域名操作
        如何停用域名
      • 查看实例信息
        本文主要介绍天翼云云搜索服务OpenSearch实例的基础信息查看方式。 在实例管理列表页、详情页,您可以查看实例版本、节点状态、使用情况等信息。 实例列表信息介绍 实例列表页为您展示归属当前登录账号的实例清单,如为子账号,则需具备云搜索服务权限并赋权相应的企业项目。 参数 描述 名称 订购时设置的实例名称,单击实例名称可以进入实例详情页。 企业项目 当前实例对应当前的企业项目,如有资源迁移,企业项目更新会有小时级延迟,请等待并刷新。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持。 索引数量 实例内的索引数量 存储用量 磁盘已使用的存储总量 版本 展示实例的版本号 计费模式 包年包月 到期时间 包年包月实例使用,表示包周期可使用的截止时间 创建时间 实例的创建时间 操作 展示实例可执行的操作入口,包含重启、续订等针对实例的操作,当前实例无法操作某项时,按钮将置灰。已经销毁的实例可以点击删除按钮,该实例不会在列表中展示。
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        管理实例
        查看实例信息
      • 虚机接入
        7.1 增加 CAADDR 环境变量 在 ${WORKDIR}/cluster.env 文件中追加以下环境变量: CAADDRistiod .istiosystem.svc:15012 示例: CAADDRistiod1190.istiosystem.svc:15012 说明 在默认配置中,虚拟机端的 istioagent 会尝试自动解析 CA 地址(istiod 服务)。 但在部分环境中,Istio 的服务命名规则中包含版本号(如 istiod1190), 这会导致虚拟机无法通过默认的服务名 istiod.istiosystem.svc 成功解析到控制面地址。 因此,需要显式设置 CAADDR 变量,指定正确的控制面服务地址和端口。 7.2 更新 hosts 文件 ${WORKDIR}/hosts 中默认的域名解析只有 192.168.2.122 istiod.istiosystem.svc,需要添加带版本好的域名记录,例如: 192.168.2.122 istiod1190.istiosystem.svc 备注:IP 地址保持和 istiod.istiosystem.svc 相同。 8. 配置虚拟机 在要添加到 Istio 网格的虚拟机上,运行以下命令: 1. 将根证书安装到目录 /etc/certs: $ sudo mkdir p /etc/certs $ sudo cp "${WORKDIR}"/rootcert.pem /etc/certs/rootcert.pem 2. 将令牌安装到目录 /var/run/secrets/tokens: $ sudo mkdir p /var/run/secrets/tokens $ sudo cp "${WORKDIR}"/istiotoken /var/run/secrets/tokens/istiotoken 3. 下载并安装含 Istio 虚拟机集成运行时(runtime)的包: $ sudo rpm i istiosidecar.rpm 4. 将 cluster.env 安装到目录 /var/lib/istio/envoy/ 中: $ sudo cp "${WORKDIR}"/cluster.env /var/lib/istio/envoy/cluster.env 5. 将网格配置文件 Mesh Config 安装到目录 /etc/istio/config/mesh: $ sudo cp "${WORKDIR}"/mesh.yaml /etc/istio/config/mesh 6. 将 istiod 主机添加到 /etc/hosts: $ sudo cat "${WORKDIR}"/hosts >> /etc/hosts 7. 把文件 /etc/certs/ 和 /var/lib/istio/envoy/ 的所有权转移给 Istio 代理: $ sudo mkdir p /etc/istio/proxy $ sudo chown R istioproxy /var/lib/istio /etc/certs /etc/istio/proxy /etc/istio/config /var/run/secrets /etc/certs/rootcert.pem
        来自:
        帮助文档
        应用服务网格
        用户指南
        集群与工作负载
        虚机接入
      • 经过CDN加速后,回到源站的IP有哪些
        本文介绍使用CDN加速后,回源IP的属性。 未经过CDN加速前,域名是直接解析到您的源站服务器,用户可以直接访问您的源站,源站看到的IP即用户IP。经过CDN加速后,回到源站的IP会变成CDN节点IP。 为了减轻源站的压力,CDN厂商一般会对边缘节点进一步进行收敛,即正常请求先访问到CDN边缘节点,边缘节点再转发给中间节点,由中间节点进行回源,此时回到源站的IP为CDN中间节点IP。
        来自:
        帮助文档
        CDN加速
        常见问题
        回源相关
        经过CDN加速后,回到源站的IP有哪些
      • 函数+APIG:处理文件上传
        本章节以NodeJS和Python语言为例,指导用户如何开发后端解析函数,获取上传的文件。 应用场景 端侧文件上传云主机器是Web和App应用的一类场景,例如服务运行日志的上报,Web应用图片上传等,函数可作为后端,结合APIG提供通用的API处理这类场景。 约束与限制 1. 单次请求上传文件大小不超过6MB。 2. 函数逻辑处理时间不超过15分钟。 操作步骤 1. 创建函数。 1. 登录函数工作流控制台,在左侧导航栏选择“函数 > 函数列表”,单击“创建函数”。 2. 选择“创建空白函数”,填写函数信息,完成后单击“创建函数”。选择运行时:Node.js 14.18。 3. 在“代码”页签,复制如下代码替换默认的函数代码,并单击“部署”更新函数。 const stream require("stream"); const Busboy require("busboy"); exports.handler async (event, context) > { const logger context.getLogger() logger.info("Function start run."); if (!("contenttype" in event.headers) !event.headers["contenttype"].includes("multipart/formdata")) { return { 'statusCode': 200, 'headers': { 'ContentType': 'application/json' }, 'body': 'The request is not in multipart/formdata format.', }; } const busboy Busboy({ headers: event.headers }); let buf Buffer.alloc(0); busboy.on('file', function (fieldname, file, filename, encoding, mimetype) { logger.info('filename:' + JSON.stringify(filename)) file.on('data', function (data) { logger.info('Obtains ' + data.length + ' bytes of data.') buf Buffer.concat([buf, data]); }); file.on('end', function () { logger.info('End data reception'); }); }); busboy.on('finish', function () { //这里处理数据 logger.info(buf.toString()); return { 'statusCode': 200, 'headers': { 'ContentType': 'application/json' }, 'body': 'ok', }; }); //APIG(专享版)触发器默认对数据进行Base64编码,这里解码 const body Buffer.from(event.body, "base64"); var bodyStream new stream.PassThrough(); bodyStream.end(body); bodyStream.pipe(busboy); } 2. 配置函数依赖。 1. 制作依赖包。代码中选择busboy库解析上传的文件,需要生成Node.js14.18版本对应的依赖包busboy.zip。如果您使用Node.js语言其他版本,请制作对应版本的依赖包。 2. 创建依赖包。在左侧导航栏“函数 > 依赖包”管理页面,单击“创建依赖包”,配置完成后单击“确定”。 3. 添加依赖包。进入uploadfile1函数详情页面,在“代码”页签最底部,单击“添加依赖包”。在“私有依赖包”的包源中,选择上一步创建的busboy依赖包,单击“确定”,完成依赖包的添加。 3. 配置APIG(专享版)触发器。 1. 在uploadfile1函数详情页面,单击“设置 > 触发器”,开始创建触发器。 2. 单击“创建触发器”,触发器类型可以选择“API 网关服务(APIG 专享版)”。安全认证:此处为方便测试,配置“None”,实际业务请选择更安全的认证方式,例如IAM认证等。请求协议:选择“HTTPS”。请求方法:在下拉列表中根据需求选择。后端超时(毫秒):默认5000毫秒。 4. 端到端测试:以curl工具为例(curl F的方式主要用的是linux环境),您也可以选择postman等其他工具,在本地创建app.log文件,内容自定义。执行如下命令测试: curl iv {APIG(专享版)触发器URL} F upload@/{本地文件路径}/app.log
        来自:
        帮助文档
        函数工作流
        最佳实践
        函数+APIG:处理文件上传
      • 绑定域名
        本章主要介绍绑定域名。 在开放API前,您需要为API分组绑定独立域名,API调用者通过独立域名访问分组内的API。您也可以使用系统分配的调试域名访问API分组内的API。 调试域名(子域名):API分组创建后,系统为分组自动分配一个内部测试用的调试域名,此调试域名唯一且不可更改,每天最多可以访问1000次。 独立域名:您自定义的域名。最多可以添加5个独立域名,不限访问次数。API调用者通过访问独立域名来调用您开放的API。 说明 同一实例下的不同分组不能绑定相同的独立域名。 调试域名默认只能在与实例相同VPC内的服务器上解析和访问,如果调试域名要支持公网解析与访问,请在实例上绑定公网入口弹性IP。 当独立域名为泛域名(例如.aaa.com)时,用户可以通过泛域名的所有子域名(例如default.aaa.com,1.aaa.com)访问所绑定分组下的所有API。 前提条件 1. 已有独立域名。 2. 已将独立域名A记录解析到实例的入口地址上。 3. 如果API分组中的API支持HTTPS请求协议,那么在独立域名中需要添加SSL证书,请您提前获取SSL证书的内容和密钥,并创建SSL证书。 操作步骤 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API分组”。 步骤 4 单击 分组名称 。 步骤 5 单击“分组信息”页签。 步骤 6 在“域名管理”区域,单击“绑定独立域名”,并在弹窗中配置域名信息。 表 独立域名配置 信息项 描述 域名 填写要绑定的域名。 支持最小TLS版本 选择域名访问所使用的最小TLS版本,TLS1.1或TLS1.2,推荐使用TLS1.2。 该配置仅对HTTPS生效,不影响HTTP或者其他访问方式。 支持http to https自动重定向 支持独立域名开启http to https自动重定向。 步骤 7 单击“确定”,将独立域名与API分组绑定。 如果不再需要此域名时,在域名所在行,单击“解绑域名”。 步骤 8 (可选)如果API分组中的API支持HTTPS请求协议,则需要为独立域名绑定SSL证书。否则跳过此步骤。 1. 在域名所在行单击“选择SSL证书”。 2. 在选择SSL证书弹窗中勾选要绑定的SSL证书,然后单击“确定”,完成SSL证书的绑定。 如果选择的SSL证书上传过CA证书,可以勾选“开启客户端认证”即开启HTTPS双向认证。注意,开启/关闭客户端认证会对现有业务有影响,请谨慎操作。 如果证书列表中无可用的SSL证书,可单击“创建SSL证书”,新增SSL证书。
        来自:
        帮助文档
        API网关
        开放API网关
        API分组管理
        绑定域名
      • 手工搭建Ghost博客(Ubuntu 20.04)
        安装Ghost 1. 输入以下命令创建GhostCLI命令工具,快速配置Ghost。 plaintext sudo npm install ghostcli@latest g 2. 依次执行以下命令,创建Ghost安装目录并进授权。 plaintext sudo mkdir p /var/www/ghost sudo chown test:test /var/www/ghost //配置权限 sudo chmod 775 /var/www/ghost 3. 执行以下命令,进入创建的文件夹,安装Ghost。 plaintext cd /var/www/ghost ghost install 一些配置参数如下: Enter your blog URL:请输入已解析的域名或者公网IP,请输入 Enter your MySQL hostname:请输入数据库连接地址,请输入 localhost 后按 Enter。 Enter your MySQL username:请输入数据库用户名,请输入 root 后按 Enter。 Enter your MySQL password:请输入数据库密码,请输入在设置root账户中已设置的密码后按 Enter。 Enter your database name:请输入 Ghost 使用的数据库的名称,请输入在创建数据库中已创建的ghost后按 Enter。 之后会有一些参数的配置,可按照需要进行设置,本文均输入yes。 4. 测试访问Ghost博客。 访问Ghost前台首页。 在任何具有访问公网能力的主机中,打开浏览器输入云主机实例的公网IP地址或者域名,即可访问Ghost前台首页。 例如: 如果想要进入管理员后台的话只需要在域名或者公网IP地址的后面加上/ghost即可进入,第一次进入需要进行账号注册,然后便能进入后台。 例如:
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        手工搭建Ghost博客(Ubuntu 20.04)
      • 关系数据库增量迁移
        本章节主要介绍关系数据库增量迁移。 CDM支持对关系型数据库进行增量迁移,全量迁移完成之后,可以增量迁移指定时间段内的数据(例如每天晚上0点导出前一天新增的数据)。 增量迁移指定时间段内的数据 −适用场景:源端为关系型数据库,目的端没有要求。 −关键配置:Where子句+定时执行作业。 −前提条件:数据表中有时间日期字段或时间戳字段。 关系数据库增量迁移方式,只对数据表追加写入,不会更新或删除已存在的记录。 Where子句 参数位置:在创建表/文件迁移作业时,如果源端为关系型数据库,那么在源端作业参数的高级属性下面可以看到“Where子句”参数。 参数原理:通过“Where子句”参数可以配置一个SQL语句(例如:age > 18 and age < 60),CDM只导出该SQL语句指定的数据;不配置时导出整表。 Where子句支持配置为时间宏变量使用解析,当数据表中有时间日期字段或时间戳字段时,配合定时执行作业,能够实现抽取指定日期的数据。 配置样例: 假设数据库表中存在表示时间的列DS,类型为“varchar(30)”,插入的时间格式类似于“2017xxxx”,如下图所示,参数配置如下: 图 表数据 a.Where子句:配置为 DS'${dateformat(yyyyMMdd,1,DAY)}' 。 b.配置定时任务:重复周期为1天,每天的凌晨0点自动执行作业。 这样就可以每天0点导出前一天产生的所有数据。Where子句支持配置多种 时间宏变量使用解析,结合CDM定时任务的重复周期:分钟、小时、天、周、月,可以实现自动导出任意指定日期内的数据。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        增量迁移原理介绍
        关系数据库增量迁移
      • 记录什么到日志
        loglockwaits (boolean) 控制当一个会话为获得一个锁等到超过deadlocktimeout时,是否要产生一个日志消息。这有助于决定是否所等待造成了性能低下。默认值是off。只有超级用户可以更改此设置。 logstatement (enum) 控制哪些SQL 语句被记录。有效值是 none (off)、ddl、mod和 all(所有语句)。ddl记录所有数据定义语句,例如CREATE、ALTER和 DROP语句。mod记录所有ddl语句,外加数据修改语句例如INSERT, UPDATE、DELETE、TRUNCATE, 和COPY FROM。 如果PREPARE、EXECUTE和 EXPLAIN ANALYZE包含合适类型的命令,它们也会被记录。对于使用扩展查询协议的客户端,当收到一个执行消息时会产生日志并且会包括绑定参数的值(任何内嵌的单引号会被双写)。默认值是none。只有超级用户可以改变这个设置。注意即使设置了logstatementall,包含 简单语法错误的语句也不会被记录。因为仅在完成基本的语法分析并 确定了语句类型之后才记录日志。在使用扩展查询协议的情况下,在 执行阶段之前(语法分析或规划阶段)同样不会记录。将 logminerrorstatement设为ERROR 或更低才能记录这些语句。 即使使用logstatement all设置,包含简单语法错误的语句也不会被记录。这是因为只有在完成基本语法解析并确定了语句类型之后才会发出日志消息。在扩展查询协议的情况下,在执行阶段之前(即在解析分析或规划期间)出错的语句也不会被记录。将logminerrorstatement设置为ERROR(或更低)来记录这种语句。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        记录什么到日志
      • SSDB到GeminiDB Redis的迁移
        本节主要介绍SSDB到GeminiDB Redis的迁移方案。 SSDB是一款使用C/C++语言开发的高性能NoSQL数据库,和Redis具有相似的API,支持KV,list,map(hash),zset(sorted set),qlist(队列)等数据结构,因此得到了广泛的应用。SSDB是一个持久化的KV存储系统,底层使用leveldb作为存储引擎。其业务直接与LevelDB交互,Compaction等操作会对业务读写造成直接的影响。 GeminiDB Redis是一款兼容Redis生态的云原生NoSQL数据库,基于共享存储池的多副本强一致机制,以保证数据的安全性和可靠性。GeminiDB Redis使用RocksDB作为存储引擎,其性能与leveldb相比有了很大的提升, 并解决了leveldb主动限制写的问题,同时实现了冷热分离,减小了存储层的操作对性能造成的影响。 迁移原理 ssdbport作为源端SSDB数据库的主节点的从节点(replica)运行,通过主从复制的方式进行数据迁移。将获取到的数据解析、转换为Redis支持的格式,并发送到配置文件中指定的Redis实例,迁移过程如下图所示。全量同步完成后,SSDB中新增的数据也会同步到Redis实例中。 图迁移原理 使用须知 ssdbport作为SSDB主节点的从节点,只读取全量和增量数据,无数据受损风险。 由于在源端使用ssdbport迁移工具,源端SSDB性能会受到一定的影响。 全量迁移和增量迁移可以不停服,数据全部迁入GeminiDB Redis后需要短暂停服。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        SSDB到GeminiDB Redis的迁移
      • 公有云数据库产品价格
        本章会按照数据库实例规格大小介绍收费模式。 基于云计算平台,稳定可靠、可弹性伸缩、即开即用的在线数据库服务,实现数据库数据备份、智能监控、便捷迁移。资费包括主备实例、主实例、只读实例、存储和备份租用费。 收费标准(根据天翼云价格调整策略,2021年6月1日零点采用新的资费标准) 包年预付费优惠政策:一年85折,2年7折,3年享受5折优惠。 PG SQL主备实例 CPU(核) 内存(GB) 标准资费(元/小时) 标准资费(元/月) :::: 2 4 0.96 462 2 8 1.4 672 2 16 1.8 860 4 8 1.9 910 4 16 2.58 1239 4 32 3.6 1720 8 16 3.79 1820 8 32 5.12 2457 8 64 7.2 3440 16 32 7.58 3640 16 64 10.15 4872 16 128 14.4 6880 32 64 15.16 7278 32 128 20.26 9723 60 128 30.24 14556 60 256 40.52 19446 64 128 30.24 14556 64 256 40.52 19446 64 512 56 27000
        来自:
        帮助文档
        关系数据库PostgreSQL版
        计费说明
        公有云数据库产品价格
      • 1
      • ...
      • 21
      • 22
      • 23
      • 24
      • 25
      • ...
      • 418
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      AI Store

      知识库问答

      人脸实名认证

      推荐文档

      创建只读实例

      消息者消费者

      购买指南

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号