活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云hbase数据库_相关内容
      • HTTPS概述
        本文概括介绍天翼云HTTPS相关的功能及使用场景。 功能简介 HTTPS相关功能主要包括:HTTPS配置、HTTP2.0配置、强制跳转、OCSP装订、国密HTTPS、TLS版本配置、批量HTTPS证书配置、配置HSTS、配置加密套件等,可满足客户不同场景的使用需求。 功能 说明 配置HTTPS 开启HTTPS功能,实现客户端和CDN节点之间使用HTTPS加密传输。 HTTP2.0配置 相对于HTTP1.1,HTTP2.0新增了多路复用、压缩HTTP头、划分请求优先级和服务端推送等特性,解决HTTP1.1中存在的一些问题,优化请求性能。 强制跳转 用户到CDN节点的请求需要强制跳转为HTTP或者HTTPS时,可以配置强制跳转功能。 OCSP装订 开启OCSP装订功能后,由CDN进行OCSP信息查询并将查询结果缓存到服务器中,提升HTTPS响应性能。 国密HTTPS 国密算法,即国家商用密码算法。是由国家密码管理局认定和公布的密码算法标准及其应用规范,其中部分密码算法已经成为国际标准。 TLS版本配置 TLS即安全传输层协议,目的是为互联网通信提供安全及数据完整性保障,您可以按需对不同加速域名配置不同的TLS协议版本。 批量HTTPS证书配置 CDN支持HTTPS加速服务,您可以通过控制台上传证书,并批量关联域名启用HTTPS加速服务,实现全网数据加密传输。 配置HSTS HSTS是一种网站用来声明他们只能使用安全连接(HTTPS)访问的方法。 网站可通过声明HSTS,来强制客户端(如浏览器)只能使用HTTPS与服务器连接,拒绝所有的HTTP连接并阻止用户接受不安全的SSL证书,降低第一次访问请求被拦截的风险。 配置加密套件 加密套件是用于在SSL/TLS握手期间协商安全设置的算法的组合。在Client Hello和Server Hello消息交换之后,客户端发送密码支持套件列表,服务器从列表中选择密码套件进行响应。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        HTTPS配置
        HTTPS概述
      • 认证鉴权
        本文介绍认证鉴权内容。 信息的获取 获取AccessKey(ak)和SecurityKey(sk): 登录天翼云门户,在“控制台”>“账号中心”>“安全设置”>“登录保护”>“用户AccessKey”点击“查看”获取。 注意:SecurityKey信息只在创建的时候展示,请务必留存好信息。 EopAuthorization签名认证信息: 可参考调用示例Python3调用示例、Java调用示例 步骤一:构造代签字符串 sigture sigture 需要进行签名的Header排序后的组合列表+ " n " + encode的query + " n " + toHex(sha256(原封的body)) 名称 描述 需要进行签名的Header排序后的组合列表 将ctyuneoprequestid、eopdate以 “headername:headervalue”的形式、以“n”作为每个header的结尾符、以英文字母表作为headername的排序依据将它们拼接起来。注意:EOP强制要求ctyuneoprequestid、eopdate必须进行签名。其他字段是否需要签名看自身需求。例子(假设你需要将ctyuneoprequestid、eopdate、host都要签名): ctyuneoprequestid:123456789neopdate:20210531T100101Zn encode的query query以&作为拼接,key和value以连接,值需要encode,query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 sigture示例1( 假设query为空 、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160752Z n”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160752Z nnne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 sigture示例2( 假设query不为空 、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160930Z nnaa1&bb2ne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855
        来自:
        帮助文档
        印刷文字识别
        API参考
        如何调用API
        认证鉴权
      • 查询直播带宽
        接口功能介绍 支持按照协议、运营商、省份、流名等不同维度查询直播带宽。 使用说明 单个用户一分钟限制调用10000次,并发不超过100。 可查询历史数据时间范围为最近14天。 单次可查询的时间跨度为3小时,时间延时为5分钟。 单次查询输入域名的个数不能超过100个。 最大返回记录50000条记录。 该接口查询的数据不作为计费依据。 接口详情 请求方式:post 请求路径:/live/statistics/querybandwidthdata 请求参数 参数名 类型 名称 是否必填 说明 :::: starttime long 开始时间戳 是 起始时间,时间戳(秒)。不传或者传小于等于0是默认取当前时间3分钟 endtime long 结束时间戳 是 结束时间,时间戳(秒)。不传或者传小于等于0默认取starttime + 1分钟 interval string 时间粒度 否 时间粒度,目前限制1m,不传默认1m domain list(string) 域名列表 否 域名,不传默认名下所有域名,可多个域名,且域名的个数不超过100个 app list(string) 应用名列表 否 应用名,默认名下所有应用名,可多个应用名 stream list(string) 流名列表 否 流名,默认名下所有流名,可多个流名 province list(int) 省编码列表 否 省编码列表,不传默认所有省份,点击查看省份及对应的省编码。 isp list(string) 运营商编码列表 否 运营商编码,不传默认所有运营商,可多个运营商编码,作为统计筛选项,点击查看运营商及对应的运营商编码。 protocol list(string) 应用层协议列表 否 应用层协议,不传默认所有络层协议,支持作为统计筛选项,可以为rtmp、http、https livetype list(string) 播放协议列表 否 播放协议,支持rtmp,flv,hls,other,不传默认所有播放协议,作为统计过滤项。 groupby list(string) 聚合维度 否 该指标统计结果的聚合维度,支持在时间颗粒度外叠加多种聚合维度。目前支持domain,app,province,isp,stream,province,isp,protocol,livetype。不传默认统计结果按时间颗粒维度聚合。
        来自:
        帮助文档
        视频直播
        API参考
        API
        统计分析
        查询直播带宽
      • 自研池单VPC修改主机网关
        本小节介绍云下一代防火墙自研池单VPC修改主机网关最佳实践。 场景描述 天翼云自研池环境中,用户业务主机与云墙属于同VPC,业务主机进出公网的流量均需要经过云墙,使业务能够正常对外映射。 场景需求 : 1. A业务经过云墙对外映射9999相关服务完成业务发布。 2. 内网B业务主机通过防火墙访问互联网。 3. C主机业务不过云墙,直接访问互联网。 4. 内网主机之间能够正常互相访问。 方案拓扑 当前解决方法 云主机及云墙相关网络规划: 云墙和业务云主机均在同一个VPC的相同子网下。 过墙业务主机和不过墙业务主机,可以在相同子网中,也可以在不同子网中。 防火墙创建两张网卡,一张网卡作为内网口(其绑定的EIP可做Web管理);其他网卡为外网口(本方案仅画出一个外网口),由云墙进行业务转发使用。 流量需要经过云墙的业务云主机,将网关手动改为云墙内网口IP地址192.168.0.10。 平台侧操作步骤 平台侧网络规划: 业务云主机和云墙在VPC:192.168.0.0/16中: 业务云主机涉及子网192.168.0.0/24。 云墙涉及子网192.168.0.0/24以及192.168.10.0/24。 云墙按照内网口及外网口规划新建对应子网下的网卡配置: 192.168.0.10/24:云墙内网IP 192.168.10.20/24:云墙外网IP 业务云主机修改网关: Windows: Linux: 1. 编辑网卡。 vi /etc/sysconfig/networkscripts/ifcfgeth0 2. 修改为静态IP,网关指向防火墙。 IPADDR192.168.0.101 GATEWAY192.168.0.10 NETMASK255.255.255.0 DNS1114.114.114.114 3. 重启网卡生效。 service network restart
        来自:
        帮助文档
        云下一代防火墙
        最佳实践
        自研池单VPC修改主机网关
      • 创建一个备份集
        名称 位置 类型 必选 说明 prodInstId body Long 是 实例id resId body Long 否 数据库资源唯一标识(不传默认使用主库,数据来源接口:/v1/resource/dbresource) backupName body String 否 备份名称 desc body String 否 备注
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        备份
        创建一个备份集
      • 使用类
        如何处理DRDS逻辑库与RDS实例的先后关系 DRDS逻辑库与关联的RDS强相关,不允许直接删除关联的RDS,这会导致业务不可用且逻辑库也会删除失败。如果需要删除,先删除逻辑库再删除RDS。 DRDS逻辑库删除后,数据节点里面残留着部分预留的DRDS数据库和一些DRDS的帐户,这些是否需要手动删除 如果不需要了,可以直接手动删除,释放空间。
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        使用类
      • 磁盘使用率高问题排查
        本文主要介绍磁盘使用率问题排查 使用文档数据库服务时,如果实例的磁盘使用率过高或完全被使用,将会导致实例不可⽤。 本章节帮助您分析解决DDS实例磁盘使用率高的问题。 查看磁盘使用情况 DDS目前提供如下两种方法用于查看实例磁盘的使用情况。 1. 通过DDS控制台查看磁盘使用情况。 您可以登录DDS控制台,单击目标实例名称,进入“基本信息”页面,在“存储空间”区域可以查看到当前实例的磁盘使用情况。 图 查看磁盘使用情况 2. 通过查看监控指标(磁盘利用率和磁盘使用量)判断实例磁盘的使用情况。 如何查看监控指标请参见查看监控指标。 图 查看磁盘使用情况 解决方案 1. 对于集群实例,可能是因为选择和设置的分片不合理导致数据分布不均衡,从而引起磁盘空间使用率高的情况。 此时,可以对数据库集合进行合适的分片,具体操作请参见设置数据分片以充分利用分片性能。 2. 随着业务数据的增加,原来申请的数据库磁盘容量不足。此时建议扩容磁盘空间,确保磁盘空间足够。 集群实例,请参见扩容集群实例的磁盘空间。 副本集实例,请参见扩容副本集实例的磁盘空间。 如果原有实例规格的磁盘已是最大的,请先升级规格。 集群实例,请参见变更集群实例的CPU和内存规格。 副本集实例,请参见变更副本集实例的CPU和内存规格。 3. 存在大量过期的数据文件占用磁盘空间,此时需要及时处理过期数据文件。例如:如果整个库不需要了,则可以执行dropDatabase命令进行删除,从而快速释放磁盘空间。 4. 后台数据处理机制原因。 因为无论是写入、更新或删除等操作(包括索引插入和删除等操作),在后台实际上都会转成写入。因为底层的存储引擎(WiredTiger和RocksDB),采用都是appendOnly机制。只有当存储引擎内部数据状态满足一定条件后,会触发内部的compaction操作,进行数据压缩,进而释放磁盘空间。 所以有时候会发现,磁盘占用量比实际数据量大,实际上这只是“看起来大”,并不会影响用户的使用。因为内部有些数据压缩,是延时操作,没有立即执行。随着数据的继续写入,会触发后台执行数据压缩清理空间。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        磁盘使用率高问题排查
      • 超高IO型Ir7
        本文主要介绍超高IO型Ir7 概述 超高I/O型弹性云主机使用高性能NVMe SSD本地磁盘,提供高存储IOPS以及低读写时延,您可以通过管理控制台创建挂载有高性能NVMe SSD盘的弹性云主机。 类型 CPU基频/睿频 CPU型号 Ir7 3.0GHz/3.5GHz 8378A 使用场景 超高I/O型弹性云主机适用于高性能关系型数据库 NoSQL数据库(Cassandra、MongoDB等)以及ElasticSearch搜索等场景 规格 表 Ir7型弹性云主机的规格 规格名称 vCPU 内存 (GiB) 网络最大带宽/基准带宽 (Gbps) 网络最大收发包 (万PPS) 网络连接数 (万) 网卡多队列数 网卡个数上限 本地盘 (GiB) 虚拟化类型 ir7.large.4 2 8 3/0.8 40 50 2 3 2 × 50 KVM ir7.xlarge.4 4 16 6/1.5 80 50 2 3 2 × 100 KVM ir7.2xlarge.4 8 32 15/3.1 150 100 4 4 2 × 200 KVM ir7.4xlarge.4 16 64 20/6.2 300 150 4 6 2 × 400 KVM ir7.8xlarge.4 32 128 30/12 400 300 8 8 2 × 800 KVM ir7.16xlarge.4 64 256 40/25 600 500 16 8 2 × 1600 KVM
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        超高IO型
        超高IO型Ir7
      • 锁&事务
        本节主要介绍锁&事务。 InnoDB锁等待 当前功能展示了当前时刻(实时)数据库的DML操作之前的锁等待的信息,可以快速帮助定位多个会话因同时更新同一条数据,而产生的会话等待和阻塞,并且支持快速终止持有锁的源头会话,从而恢复被阻塞的操作。 说明 DDL锁(Metadata Lock, MDL),不在当前功能的范围之内,可以使用元数据锁进行分析和查看。 操作步骤 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 选择“锁&事务”下的“InnoDB锁等待”,即可查看是否存在锁等待。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        GaussDB(for MySQL)
        锁&事务
      • 敏感数据链路刻画
        本章节为您介绍什么是敏感数据链路刻画 敏感数据链路刻画模块用于展示数据源、应用系统、访问源之间的访问链接图谱。根据敏感数据类型进行追踪,如身份证、邮箱、银行卡、手机号,系统将对敏感数据出现的日志进行大模型比对分析,推测出置信度高的链接访问途径,绘制出以数据源、应用系统、访问源为节点的链接图谱; 同时还用于对特定数据内容进行追踪,如搜索身份证内容、银行卡内容、手机号内容,系统将以数据内容为中心,将数据内容流经的数据源、应用系统、访问源进行追踪,追踪该数据内容出现的所有数据源、数据表、访问的应用系统、访问源刻画成一张链接图谱进行展示。 敏感数据链路查询 在数据安全运营中心上方导航栏选择“敏感数据链路刻画”,进入敏感数据链路刻画页面。 可在查询栏根据不同数据查询。 数据类型查询:支持根据邮箱、身份证、手机号、银行卡号。 数据内容查询:可敏感数据进行查询,也可根据历史数据查询。 数据库资产查询:根据数据库资产名称检索并进行查询。 应用系统查询:根据应用系统名称检索并进行查询。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据安全运营中心
        敏感数据链路刻画
      • 限速设置
        在数据迁移和同步过程中,可根据源库的数据写入量,源库和目标库的资源配置,来灵活控制全量迁移速率和增量迁移速率,以缓解目标库的压力。 适用范围 DTS数据迁移和数据同步任务,可以在任务配置或任务运行阶段修改限速值;处于运行状态的任务,需要暂停任务,再设置限速并重启。DTS默认不限速。 设置限制全量迁移速率或增量迁移速率时,限速分别针对全量迁移阶段、增量迁移阶段生效,通过调整每秒的RPS值或每秒迁移的数据量,控制全量或增量阶段的源端RPS实际统计值或迁移数据量在限速值上下波动。 说明 全量限速与增量限速可独立设置或同时设置。若同时设置,系统将对全量和增量阶段分别生效对应的限速策略。 全量限速支持按行数(RPS)和数据量(MB/秒)两个维度限速。可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 增量限速支持按行数(RPS)和数据量(MB/秒)两个维度限速。可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 支持的源和目标数据库 限速功能支持的源和目标数据库,如下表: 源数据库 目标数据库 RDS for MySQL 自建MySQL 5.6部分版本/5.7/8.0 RDS for MySQL 5.7/8.0 RDS for MySQL 自建MySQL 5.6部分版本/5.7/8.0 RDS for PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for PostgreSQL 自建PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for PostgreSQL 自建PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for MySQL 5.7/8.0 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) 自建SQL Server、RDS for SQL Server 2016标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 RDS for SQL Server 2016标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 自建SQL Server、RDS for SQL Server 2016标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 RDS for PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        限速设置
      • 授权大数据资产
        如果您需要添加云搜索服务(CSS)、数据湖探索(DLI)和Hive的资产,可参考本章节进行操作。 前提要求 已完成大数据资产委托授权,参考云资源委托授权/停止授权进行操作。 已开通CSS和DLI服务,且CSS和DLI中已有资产,且对应子网下含有可用的IP配额。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 单击左侧导航树的,选择“安全 >数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中选择“资产列表”,并选择“大数据”页签,进入大数据资产列表页面。 5. 在大数据资产列表左上角,单击“添加大数据源”。 6. 在弹出的“添加大数据源”对话框中,参考下表配置大数据源参数。 参数名称 参数说明 取值样例 资产名称 自定义参数。 区域 默认为当前帐号登录的区域。 大数据类型 选择大数据类型。 “Elasticsearch”,选择此类型时,其他参数说明请参见“Elasticsearch”参数说明。 “DLI”,选择此类型时,其他参数说明请参见“DLI”参数说明。 “Hive”,选择此类型时,其他参数说明请参见“Hive”参数说明。 Elasticsearch “Elasticsearch”参数说明: 参数名称 参数说明 取值样例 ES实例 在下拉框中选择ES实例。 版本 选择大数据类型对应的版本。 5.x 主机 大数据源服务器IP地址。 192.168.0.233 端口 大数据源服务器的端口号。 3306 索引 输入大数据源对应的index。 用户名 输入访问大数据服务器的用户名。 密码 输入访问大数据服务器的密码。 “DLI”参数说明: 参数名称 参数说明 取值样例 队列 在下拉框中选择DLI中数据源的队列名称。 default DLI数据库 选择DLI中目标队列下的数据库名称。 5.x “Hive”参数说明: 参数名称 参数说明 取值样例 虚拟私有云 在下拉框中选择虚拟私有云。 子网 选择虚拟私有云对应的子网名称。 安全组 在下拉框中选择可用的安全组。 主机 大数据源服务器IP地址。 192.168.0.233 端口 大数据源服务器的端口号。 3306 数据库名称 输入数据库名称。 7. 单击“确定”,大数据源资产添加完成。 大数据资产添加完成后,该大数据源的状态“连通性”为“检查中”,DSC会测试数据源的连通性,即测试DSC是否能够通过您配置的用户名和密码正常访问添加的大数据源。 数据安全中心DSC能正常访问已添加的大数据源,该大数据源的状态“连通性”状态为“成功”。 若数据安全中心DSC不能正常访问已添加的大数据源,该大数据源的“连通性”状态为“失败”。单击“原因”查看失败的原因并重新正确填写访问目标大数据源的用户名和密码。
        来自:
        帮助文档
        数据安全中心
        用户指南
        资产管理
        资产中心
        授权大数据资产
      • 使用Impala客户端
        操作步骤 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 运行Impala客户端命令,实现A业务。 直接执行Impala组件的客户端命令: impalashell 说明 默认情况下,impalashell尝试连接到localhost的21000端口上的Impala守护程序。如需连接到其他主机,请使用 i host:port 选项,例如:impalashell i xxx.xxx.xxx.xxx:21000。要自动连接到特定的Impala数据库,请使用 d 选项。例如,如果您的所有Kudu表都位于数据库“impalakudu”中,则d impalakudu可以使用此数据库。要退出ImpalaShell,请使用quit命令。 内部表的操作: 1. 根据表创建用户信息表userinfo并添加相关数据。 createtable userinfo(id string,name string,gender string,age int,addr string); insert into table userinfo(id,name,gender,age,addr)values("12005000201","A","男",19,"A城市"); ......(其他语句相同) 2. 在用户信息表userinfo中新增用户的学历、职称信息。 以增加编号为12005000201的用户的学历、职称信息为例,其他用户类似。 alter table userinfo add columns(education string,technical string); 3. 根据用户编号查询用户姓名和地址。 以查询编号为12005000201的用户姓名和地址为例,其他用户类似。 select name,addr from userinfo where id'12005000201'; 4. 删除用户信息表。 drop table userinfo; 外部分区表的操作: 创建外部分区表并导入数据 1. 创建外部表数据存储路径。 安全模式(集群开启了Kerberos认证): cd /opt/hadoopclient source bigdataenv kinit hive 说明 用户hive需要具有Hive管理员权限。 impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 普通模式(集群关闭了Kerberos认证): su omm cd /opt/hadoopclient source bigdataenv impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 2. 建表。 create external table userinfo(id string,name string,gender string,age int,addr string) partitioned by(year string) row format delimited fields terminated by ' ' lines terminated by 'n' stored as textfile location '/hive/userinfo'; 说明 fields terminated指明分隔的字符,如按空格分隔,' '。 lines terminated 指明分行的字符,如按换行分隔,'n'。 /hive/userinfo为数据文件的路径。 3. 导入数据。 a. 使用insert语句插入数据。 insert into userinfo partition(year"2018") values ("12005000201","A","男",19,"A城市"); b. 使用load data命令导入文件数据。 i.根据下表数据创建文件。如,文件名为txt.log,以空格拆分字段,以换行符作为行分隔符。 ii. 上传文件至hdfs。 hdfs dfs put txt.log /tmp iii. 加载数据到表中。 load data inpath '/tmp/txt.log' into table userinfo partition (year'2018'); 4. 查询导入数据。 select from userinfo; 5. 删除用户信息表。 drop table userinfo;
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Impala客户端
      • 应用场景
        本节介绍了云数据库GaussDB 的应用场景。 交易型应用 大并发、大数据量、以联机事务处理为主的交易型应用,如政务、金融、电商、O2O、电信CRM/计费等,服务能力支持高扩展、弹性扩缩,应用可按需选择不同的部署规模。 详单查询 具备PB级数据负载能力,通过内存分析技术满足海量数据边入库边查询要求,适用于安全、电信、金融、物联网等行业的详单查询业务。
        来自:
        帮助文档
        云数据库GaussDB
        产品简介
        应用场景
      • 修改实例安全组
        本节主要介绍修改实例安全组 使用须知 对于进行节点扩容中的实例,不可修改安全组。 操作步骤 1. 登录云数据库GeminiDB控制台。 2. 在“实例管理”页面,选择指定的实例,单击实例名称。 3. 在左侧导航树,单击“连接管理”。 4. 在“内网安全组”区域,单击,选择实例所属安全组。 1. 单击√,提交修改。此过程约需1~3分钟。 2. 单击×,取消修改。 5. 稍后可在“安全组”区域,查看修改结果。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        连接管理
        修改实例安全组
      • 高可用
        本页介绍了文档数据库服务的高可用。 自动故障切换 副本集模式下,自动搭建多节点副本集,由Primary和Secondary节点提供服务(Hidden节点对服务不可见),当Primary节点出现故障时,系统自动选举新的Primary节点接管服务。 集群规格模式下,Configserver角色和每个Shard角色,都由一组三节点副本集构成,当Primary节点出现故障时,系统自动选举新的Primary节点。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        产品优势
        高可用
      • 云备份 CBR
        云备份CTCBR(Cloud Backup&Recovery)是一个简单易用、经济高效、安全可靠的一键式备份产品。通过集中管理界面,为用户的云主机、物理机、本地主机相关的数据库、硬盘、虚拟机、文件数据等资源提供统一数据保护。
        来自:
        帮助文档
        云备份 CBR
      • 数据架构示例
        所属主题 维度名称 维度英文名称 维度类型 资产责任人 描述 数据连接类型 数据连接 数据库 时间 日期维度 dimdate 层级维度 无 MRSHIVE mrshivelink demodwrdb
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 时延类
        本页为时延类常见问题。 数据迁移/同步全量阶段进度条不更新的原因是什么? DTS在全量阶段停滞、进度条不动的原因可能有以下几种: 单表数据量过大:在全量同步过程中,进度条的计算和表数量相关,如果源库中某些表数据量过大,需要耗费较长来进行迁移,则可能导致数据库进度条长时间不动。 网络问题:在全量同步过程中,如果网络带宽过小或网络不稳定,可能会导致同步进度长时间不动。可以通过检查网络带宽和网络连接情况来判断是否是网络问题导致的问题。 数据库负载过高:在全量同步过程中,如果源库或目标库的负载过高,同步进度就会受到影响。数据库所在的磁盘有读写上限,当同一时间有其他任务占用过多的读写带宽,会影响DTS数据传输服务的任务进度。 数据迁移/同步增量阶段延迟高的原因是什么? 增量过程中延迟很高的原因可能有以下几种: 网络问题:在增量同步过程中,如果网络带宽不足或网络不稳定,同步的延迟就会相应增高。 数据变更频繁:在增量同步过程中,如果源库中的数据变更频繁,同步的延迟就会很高。这是因为每次数据变更都需要同步到目标库,如果变更频繁,同步的延迟就会累积,从而导致同步延迟增加。 磁盘读写速度慢:如果目标库的磁盘读写速度不足,写入同步数据的速度就会受到影响,从而导致同步延迟增加。 DTS系统规格限制:如果需要同步的数据过大,而DTS没有选用相应的规格来支撑,可能会导致增量阶段延迟过大。 针对上述延迟高的原因,可以采取以下措施来减少同步延迟: 增加网络带宽或优化网络连接,以提高数据传输速度和稳定性。 等待任务完成数据同步,优化业务逻辑,减少短时间内密集写入和大事务写入。 优化目标库磁盘,可以考虑优化磁盘分区或使用SSD等方式来提高磁盘读写速度。 重新购买更大规格的同步实例,以支撑现有业务。
        来自:
        帮助文档
        数据传输服务DTS
        常见问题
        时延类
      • 操作使用类
        如何使用脚本功能? 脚本功能可以方便用户随时随地快速地访问和使用脚本,提高工作效率。通过充分利用脚本功能,您可以更轻松地执行常见任务,节省时间和精力。 数据管理服务DMS支持对脚本进行编辑、删除和复制使用,以便更好地满足您的数据库管理需求。 您可以通过以下路径进入使用脚本功能: 在控制台首页,点击下方最近打开的脚本列表中的打开/编辑按钮,使用脚本功能。 进入到查询窗口页面,点击左侧我的脚本标签,查看脚本列表并使用脚本功能;或在查询窗口页,点击SQL编辑框区域的保存按钮,保存编辑框内SQL语句到我的脚本中。 如何可视化创建/编辑表? 您可以在数据管理服务DMS平台上轻松地可视化创建和编辑表,这将有助于提高您的数据库管理效率,简化表结构设计和修改过程。 具体的操作路径有以下几种: 点击菜单栏选择 实例列表 打开任意实例的查询窗口,在左侧表标签页处右键表名称行,选择新建表/编辑表。 点击菜单数据资产 >实例管理,点击实例列表中的库列表进入库列表页面,点击库列表中的对象列表进入对象列表页,选择上方表标签页,点击左上方的新建表按钮可在查询窗口可视化地创建表,在表列表中点击编辑操作可以编辑表。 如何可视化创建/编辑可编程对象? 您可以在数据管理服务DMS平台上轻松地可视化创建和编辑可编程对象,这将有助于提高您的数据库管理效率,简化可编程对象的设计和修改过程。 具体的操作路径有以下几种: 点击菜单栏选择 实例列表 打开任意实例的查询窗口,在左侧区域切换可编程对象标签,右键可编程对象名称行,选择新建/编辑操作。 点击菜单 数据资产 >实例管理,点击实例列表中的库列表进入库列表页面,点击库列表中的对象列表进入对象列表页,切换上方的可编程对象标签页,点击左上方的新建按钮可在查询窗口可视化地创建可编程对象,在列表中点击编辑操作可以编辑可编程对象。
        来自:
        帮助文档
        数据管理服务
        常见问题
        操作使用类
      • 消息类问题
        本文主要介绍 消息类问题 Kafka生产消息的最大长度是多少? 生产消息的最大长度为10M。 为什么Kafka实例常常发生Rebalance,导致消息拉取失败? 消费组的Rebalance就是对Topic分区的重新分配。 正常情况下消费组内加入新的消费者或老的消费者退出都会导致Rebalance,这种情况是无法避免的。但是某些特殊情况下,消费者会被误认为异常从而被踢出消费组,此时可能会导致消费异常,需要重点关注。 消费者被误认为异常从而被踢出消费组的场景如下: 1. 未能及时发送心跳请求。 消费者以设置的heartbeat.interval.ms为间隔向broker发送心跳请求,如果broker在session.timeout.ms时间内没有收到消费者的心跳请求,broker会认为消费者异常,从而将其从消费组中踢出,然后开始新一轮的Rebalance。 2. 消费者消费时间间隔过长。 消费者每次最多消费max.poll.records条消息,多数情况下客户端都会把一次消费到的数据处理完后才会开始下一次消费,如果单次消费的消息太多导致无法在max.poll.interval.ms时间内处理完或消息处理流程发生了异常(如需要写入后端数据库,后端数据库压力太大,时延增加等)导致消费时间增加,在max.poll.interval.ms时间内消费者没有发起下一次消费请求,broker认为消费者不活跃而将其踢出消费组,然后开始新一轮的Rebalance。 解决方法/排查思路 场景一: 未能及时发送心跳请求 解决方法: 建议在消费者客户端将session.timeout.ms值设置为heartbeat.interval.ms值3倍以上。 场景二: 消费者消费时间间隔过长 排查思路: 1. 检查单条消息的处理时间是多久,处理max.poll.records条消息会不会超过max.poll.interval.ms时间。 2. 消息处理流程是否有网络行为,如写数据库、调用后端API等,在发生Rebalance的场景下后端是否正常。 解决方法: 建议在消费者客户端将max.poll.records值减小。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        消息类问题
      • 通过自定义脚本实现其它Linux应用的一致性备份
        本文主要介绍通过自定义脚本实现其它Linux应用的一致性备份。 场景介绍 在Linux下,如果有其它应用需要一致性备份,可以编写自己的冻结、解冻脚本,来实现应用的保护。自定义脚本需放置在/home/rdadmin/Agent/bin/thirdparty/ebkuser目录中,供Agent在备份过程中调用。 下面以一个虚构的应用appexample为例,来进行说明。 appexample是一款新的数据库,它对外提供了appexample freeze与appexample unfreeze两个命令来实现冻结与解冻。 用户需要开发自己的appexamplefreeze.sh与appexampleunfreeze.sh脚本,供备份Agent调用以实现一致性备份。在备份过程中,会先调用appexamplefreeze.sh脚本来冻结IO,冻结成功后,会进行磁盘的一致性快照激活,保证备份的数据是一致性的,最后再调用appexampleunfreeze.sh脚本解冻IO。 整体流程如下图所示: 数据库备份流程图 开发冻结脚本 appexamplefreeze.sh示例如下: !/bin/sh AGENTROOTPATH$1 Agent程序调用脚本时,传入的的根目录,日志函数等会使用此变量,请不要改名 PID$2 Agent程序调用脚本时,传入的PID数字,用于结果的输出,请不要改名 . "${AGENTROOTPATH}/bin/agentfunc.sh" 引用脚本框架,提供了日志,加解密等功能 结果处理函数,用于将结果写入到文件中,供脚本调用者获取返回值。
        来自:
        帮助文档
        云主机备份 CSBS
        最佳实践
        通过自定义脚本实现数据库备份
        通过自定义脚本实现其它Linux应用的一致性备份
      • Druid连接池
        介绍APM监控详情里数据库监控中的Druid连接池相关指标的名称、含义等信息。 Druid连接池指标说明表 指标类别 指标 指标说明 数据类型 数据源(DataSource,数据源) URL JDBC的URL String 数据源(DataSource,数据源) dbType 数据库类型 String 数据源(DataSource,数据源) driverClassName 驱动 String 数据源(DataSource,数据源) dbdruidinitialsize 初始化连接数 Int 数据源(DataSource,数据源) dbdruidminIdle 连接池最小空闲数 Int 数据源(DataSource,数据源) dbdruidmaxIdle 连接池最大空闲数 Int 数据源(DataSource,数据源) dbdruidmaxActive 连接池大小上限 Int 数据源(DataSource,数据源) dbdruidwaitThreadCount 等待线程数 Int 数据源(DataSource,数据源) dbdruidMaxwaitThreadcount 等待线程数上限 Int 数据源(DataSource,数据源) dbdruidPoolingCount 池中连接数 Int 数据源(DataSource,数据源) dbdruidPoolingPeak 最大池中连接数 Int 数据源(DataSource,数据源) dbdruidActiveCount 活跃连接数 Int 数据源(DataSource,数据源) dbdruidActivePeak 最大活跃连接数 Int 数据源(DataSource,数据源) dbdruidConnectCount 获取连接总数 Int 数据源(DataSource,数据源) dbdruidMaxwait 获取连接最大等待时间 Int 数据源(DataSource,数据源) dbdruidRemoveAbandonedcount 超时连接回收次数 Int 数据源(DataSource,数据源) dbdruidRemoveAbandonedTimeoutMillis 如果池中连接被获取且超过该时长未被还回,则回收该连接 Int 数据源(DataSource,数据源) dbdruidTimeBetweenEvictionRunsMillis 检查池中连接空闲周期 Int 数据源(DataSource,数据源) dbdruidMinEvictableIdleTimeMillis 池中连接可空闲的时间 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        数据库监控
        Druid连接池
      • 资源冻结/释放/删除/退订
        本节主要介绍资源冻结/释放/删除/退订类问题 GeminiDB Redis资源为什么被释放了? 客户在购买产品后,如果没有及时的进行续费或充值,将进入宽限期。如宽限期满仍未续费或充值,将进入保留期。在保留期内资源将停止服务。保留期满仍未续费或充值,存储在云服务中的数据将被删除、云服务资源将被释放。 GeminiDB Redis资源为什么被冻结了? 资源冻结的类型有多种,最常见类型为欠费冻结。 实例被冻结了,还可以备份数据吗? 不支持,如果是欠费冻结,需要您先续费解冻GeminiDB Redis实例后才能备份数据。 怎样将资源解冻? 欠费冻结:用户可通过续费或充值来解冻资源,恢复GeminiDB Redis正常使用。欠费冻结的GeminiDB Redis允许续费、释放或删除;已经到期的包周期GeminiDB Redis不能发起退订,未到期的包周期GeminiDB Redis可以退订。 冻结、解冻、释放资源时对业务的影响 资源冻结时: 资源将被限制访问和使用,会导致您的业务中断。例如GeminiDB Redis被冻结时,会使得用户无法再连接至数据库。 包周期资源被冻结后,将被限制进行变更操作。 资源被冻结后,可以手动进行退订/删除。 资源解冻时:资源将被解除限制,用户可以连接至数据库。 资源释放时:资源将被释放,实例将被删除,删除前将依据用户策略决定是否执行实例回收站。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        常见问题
        资源冻结/释放/删除/退订
      • 设置安全组规则
        操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页面。 4. 设置安全组规则。 在“基本信息 > 网络信息”处,单击“内网安全组”后面的安全组名称,进入安全组页面。 图1 内网安全组 5. 添加入方向规则。 在安全组详情页面,选择“入方向规则”页签。 图2 入方向规则 单击“添加规则”,弹出添加入方向规则窗口。 图3 添加规则 根据界面提示配置安全组规则。 表2 入方向安全组规则参数说明 参数 说明 取值示例 协议端口 网络协议。目前支持“All”、“TCP”、“UDP”、“ICMP”和“GRE”等协议。 端口:允许远端地址访问弹性云主机指定端口,取值范围为:1~65535。 TCP 类型 IP地址类型。开通IPv6功能后可见。 IPv4 IPv6 IPv4 源地址 源地址:可以是IP地址、安全组、IP地址组。用于放通来自IP地址或另一安全组内的实例的访问。 例如: xxx.xxx.xxx.xxx/32(IPv4地址) xxx.xxx.xxx.0/24(子网) 0.0.0.0/0(任意地址) sgabc(安全组) 0.0.0.0/0 描述 安全组规则的描述信息,非必填项。描述信息内容不能超过255个字符,且不能包含“ ”。 6. 单击“确定”。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        连接管理
        设置安全组规则
      • 关系数据库MySQL版元数据锁MDL导致无法操作数据库的解决方法
        本文主要介绍元数据锁MDL导致无法操作数据库的解决方法以及如何避免元数据锁阻塞。 MetaData Lock主要为了保证元数据的一致性,用于处理不同线程操作同一数据对象的同步与互斥问题。MySQL 5.5版本开始,引入了MDL锁,MDL锁是表级别的锁,有些类型的MDL锁会导致读写操作都无法进行,导致SQL的阻塞。 操作步骤 1. 连接MySQL实例。具体操作请参见实例连接方式介绍,通过内网和公网连接实例。 2. 在SQL窗口执行如下SQL查看数据库所有线程状态。 show full processlist 3. 查看State列是否出现大量Waiting for table metadata lock,即表示出现阻塞,在对应的Info列可以查看到对应表的操作,找到正在对该表进行操作的会话Id。 4. 在SQL窗口执行如下命令解锁MDL锁。 kill id 如何避免元数据锁阻塞 MDL 锁一旦发生会对业务造成极大影响,因为后续所有对该表的访问都会被阻塞,造成连接积压。所以日常要尽量避免 MDL 锁阻塞的发生,下面给出几点优化建议可供参考: 开启 metadatalocks 表记录 MDL 锁。 设置参数 lockwaittimeout 为较小值,使被阻塞端主动停止。 规范使用事务,及时提交事务,避免使用大事务。 DDL 操作及备份操作放在业务低峰期执行。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        性能调优
        关系数据库MySQL版元数据锁MDL导致无法操作数据库的解决方法
      • 配置规则
        此章节为你介绍如何进行数据库审计的规则配置。 规则配置 规则配置是指根据一些特征(如客户端、服务端、SQL语句)定义危险行为(安全规则)、可以信任的行为(信任规则)和不审计的行为(过滤规则)。当系统审计到对数据库的操作匹配过滤规则的行为则不进行审计,对应匹配信任规则时不会触发告警,对应匹配安全规则时会触发告警。 系统匹配规则的顺序为: 1. 过滤规则 2. 信任规则 3. 安全规则 配置过滤规则 过滤规则的功能是根据某些特定的条件过滤一些操作,系统对这些操作不审计,从而节省设备的磁盘空间,将有限的资源用来存储更有价值的审计数据。 过滤规则的过滤方式有三种: 按IP过滤:设置某些IP地址为信任的IP地址,系统对这些IP地址发起的SQL请求不审计。 按SQL模板过滤:设置SQL模板为可信任的模板,当访问的SQL语句的模板是设置的过滤模板,则不进行审计。 按规则过滤:指按照特定的条件进行审计过滤,规则包括客户端信息、服务端信息、SQL请求和SQL结果等条件。 具体操作步骤请参考过滤规则章节。 配置信任规则 1. 在左侧菜单栏中选择“规则配置 > 信任规则”进入“信任规则”页面。 2. 单击“新增”,在弹出的新增规则对话框中编辑相关信息,具体参数请参考信任规则章节。 3. 配置完成后,单击“保存”即可完成信任规则的配置。
        来自:
        帮助文档
        数据库审计
        快速入门
        审计云上自建数据库(安装Agent)
        配置规则
      • 产品优势
        本页介绍了分布式融合数据库HTAP的产品优势,方便您更好的了解分布式融合数据库HTAP。 弹性扩展 采用存储计算分离的架构设计,用户可以根据应用实际需求在线对计算和存储进行扩容或缩容,实现高度灵活的资源分配优化,有效降低资源成本。 扩容或缩容操作过程在线无缝完成,对应用透明,无需人工干预,同时降低了运维管理成本。 支持实时动态调度节点和数据,实现热点打散、负载均衡等优化,进一步提升了整体性能和稳定性。 金融级高可用 服务支持多节点冗余,确保在任何节点故障的情况下,其他节点仍能够接管服务,保障业务的连续性和稳定性。 数据采用多副本存储,支持多 AZ(可用区)部署等灵活策略,通过 MultiRaft 协议确保数据强一致性且少数副本发生故障时不影响数据的可用性,以满足不同的数据容灾级别需求。 实时HTAP 采用行列混合存储方式,将传统的行存储与高效的列存储相结合,并借助 MultiRaft Learner 协议实时同步,确保行存储和列存储之间数据的强一致性。 采用 MPP(大规模并行处理)架构,运用向量化执行等优化技术,显著提升了分析查询的性能,实现了对复杂查询的快速实时分析。 提供一站式实时 HTAP,能够在同一个系统中同时满足事务处理和分析查询等多种数据处理需求,同时解决混合负载下的资源隔离问题,简化了架构,降低了管理成本。
        来自:
        帮助文档
        分布式融合数据库HTAP
        产品介绍
        产品优势
      • 保护Failover Cluster模式下的SQL Server
        本文主要介绍保护Failover Cluster模式下的SQL Server。 当前云主机备份只支持单个虚拟机的一致性备份,对于集群数据库暂不支持,完整支持将在后续版本中推出。 在Failover Cluster模式下,SQL Server服务只在主节点上是启动的,故在创建云主机备份时,只需要将主节点加入策略进行备份。在主备发生切换后,及时调整策略,确保始终对主节点进行备份。在恢复时,请先停止所有备节点,然后还原主节点。
        来自:
        帮助文档
        云主机备份 CSBS
        最佳实践
        通过自定义脚本实现数据库备份
        保护Failover Cluster模式下的SQL Server
      • 设置安全组规则
        操作步骤 1、登录云数据库 GaussDB NoSQL控制台。 2、 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页面。 3、设置安全组规则。 方法一: 在“基本信息”页面,单击“网络信息 > 内网安全组”后面的安全组名称,进入安全组页面。 方法二: 在“基本信息”页面,单击左侧导航栏中的“连接管理”,在右侧“内网安全组”区域,单击内网安全组名称,进入安全组页面。 4、根据界面提示配置安全组规则。 5、单击“确定”。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        连接管理
        设置安全组规则
      • SDK参考
        本页介绍了文档数据库服务产品支持的SDK,您可以根据实际业务需求进行集成。 各语言SDK下载及使用 支持语言 SDK附件 Java DDSSDKJAVA.zip(v1.0.0) GO DDSSDKGO.zip(v1.0.0) 说明 由于运行环境的多样性,部分接口在某些特定配置下可能存在适配差异,我们的技术团队将持续优化兼容性。如有问题,可提单咨询。
        来自:
      • 保护Failover Cluster模式下的SQL Server
        本章节介绍如何保护Failover Cluster模式下的SQL Server。 当前云主机备份只支持单个虚拟机的一致性备份,对于集群数据库暂不支持,完整支持将在后续版本中推出。 在Failover Cluster模式下,SQL Server服务只在主节点上是启动的,故在创建云主机备份时,只需要将主节点加入策略进行备份。在主备发生切换后,及时调整策略,确保始终对主节点进行备份。在恢复时,请先停止所有备节点,然后还原主节点。
        来自:
        帮助文档
        云服务备份
        最佳实践
        通过自定义脚本实现数据库备份
        保护Failover Cluster模式下的SQL Server
      • 1
      • ...
      • 301
      • 302
      • 303
      • 304
      • 305
      • ...
      • 371
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      轻量型云主机

      公共算力服务

      应用托管

      一站式智算服务平台

      人脸检测

      人脸属性识别

      人脸活体检测

      人脸比对

      推荐文档

      入门教程②:windows磁盘挂载流程

      如何激活代金券?

      如何修改发票抬头

      产品优势

      安装网页防篡改集中管理中心

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号