活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云云hbase数据库_相关内容
      • 高级配置
        本节为您介绍云迁移服务CMS中数据库迁移工具高级配置相关内容。 1. 在迁移对象过滤界面,点击”高级配置”, 可对要迁移的表进行高级配置。 2. 在高级配置页面,可点击”批量配置”按钮,对选择的表进行批量配置,也可以点击对应表后面的配置按钮,进行单表配置,详情如下: 3. 点击对应表后面的配置按钮,进行针对单表进行高级配置详情如下: 4. 可点击”批量配置”按钮,针对多表进行高级配置详情如下: 说明 该高级配置功能,主要是对表、字段进行映射数据过滤
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        数据库全流程迁移演示
        高级配置
      • 只读节点简介
        本页介绍了文档数据库服务的副本集、集群版只读节点。 为了扩展副本集、集群版实例在读业务上的能力,为副本集、集群版规格实例类型扩展只读从节点,其具备单独的连接地址,方便为只读业务及帐号授权,缓解主节点压力。 特点 提升副本集、集群版实例的读能力。 规格、存储等均与副本集主节点、集群版shard节点保持一致。 增加只读节点后,数据自动同步。 限制 仅支持副本集实例、集群版实例扩展只读节点,都具有独立连接地址。 仅支持只读节点在0~5个内的增加,还不支持缩减只读节点。 仅提供读请求,副本集只读节点、集群版只读节点不参与投票选举主节点,不会被选举为主节点。 主节点和只读从之间的数据同步为异步,存在时延。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        实例说明
        只读节点简介
      • 安装前检查
        您需要在部署天翼云TeleDB数据库之前,检查相关的机器、安装包、操作系统、端口等信息。 确保您的安装包与操作系统版本匹配。 检查机器之间是否存在通信问题或者拦截问题,确保主机之间网络互通。 确保已获取主机超级用户。 确保所有主机不能拥有teledbx用户,当安装或者开通实例会自动创建,无需手动创建。 若为高可用则需要配置vip,每组cn一个。 检查部署机器是否有空闲数据盘提供使用,已经挂载好磁盘不需要重新挂载。 安装之前请确保所有需要使用的服务端口未被占用。 安装的系统预先装好jdk 环境,建议 1.8.0201 版本及以上。 检查主机是否自带libaio0.3.10913.el7.x8664.rpm lz41.7.53.el7.x8664.rpmpv1.4.61.el7.x8664.rpm sshpass1.062.el7.x8664.rpm 依赖 perl 依赖。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        安装部署手册
        安装前准备
        安装前检查
      • 安装前检查
        您需要在部署天翼云TeleDB数据库之前,检查相关的机器、安装包、操作系统、端口等信息。 确保您的安装包与操作系统版本匹配。 检查机器之间是否存在通信问题或者拦截问题,确保主机之间网络互通。 确保已获取主机超级用户。 确保所有主机不能拥有teledbx用户,当安装或者开通实例会自动创建,无需手动创建。 若为高可用则需要配置vip,每组cn一个。 检查部署机器是否有空闲数据盘提供使用,已经挂载好磁盘不需要重新挂载。 安装之前请确保所有需要使用的服务端口未被占用。 安装的系统预先装好jdk 环境,建议 1.8.0201 版本及以上。 检查主机是否自带libaio0.3.10913.el7.x8664.rpm lz41.7.53.el7.x8664.rpmpv1.4.61.el7.x8664.rpm sshpass1.062.el7.x8664.rpm 依赖 perl 依赖。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        安装部署手册
        安装前准备
        安装前检查
      • 命名规范
        本页介绍天翼云TeleDB数据库的命名规范。 1. DB object:database, schema, table, column, view, index, sequence, function, trigger 等名称。 建议使用小写字母、数字、下划线的组合。 建议不使用双引号即"包围,除非必须包含大写字母或空格等特殊字符。 长度不能超过63个字符。 不建议以pg 开头或者 pgxc(避免与系统 DB object 混淆),不建议以数字开头。 禁止使用SQL 关键字,如 type, order 等。 2. table 能包含的 column 数目,根据字段类型的不同,数目在250到1600之间。 3. 临时或备份的DB object:table、view 等,建议加上日期, 如 dbaops.b2cproductsummay20140712 (其中 dbaops 为 DBA 专用 schema)。 4. index命名规则为:普通索引为 表名列名idx,唯一索引为 表名列名uidx,如 studentnameidx,studentiduidx。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        进阶开发
        开发规范
        命名规范
      • 命名规范
        本页介绍天翼云TeleDB数据库的命名规范。 1. DB object:database, schema, table, column, view, index, sequence, function, trigger 等名称。 建议使用小写字母、数字、下划线的组合。 建议不使用双引号即"包围,除非必须包含大写字母或空格等特殊字符。 长度不能超过63个字符。 不建议以pg 开头或者 pgxc(避免与系统 DB object 混淆),不建议以数字开头。 禁止使用SQL 关键字,如 type, order 等。 2. table 能包含的 column 数目,根据字段类型的不同,数目在250到1600之间。 3. 临时或备份的DB object:table、view 等,建议加上日期, 如 dbaops.b2cproductsummay20140712 (其中 dbaops 为 DBA 专用 schema)。 4. index命名规则为:普通索引为 表名列名idx,唯一索引为 表名列名uidx,如 studentnameidx,studentiduidx。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        进阶开发
        开发规范
        命名规范
      • 安装前检查
        您需要在部署天翼云TeleDB数据库之前,检查相关的机器、安装包、操作系统、端口等信息。 确保您的安装包与操作系统版本匹配。 检查机器之间是否存在通信问题或者拦截问题,确保主机之间网络互通。 确保已获取主机超级用户。 确保所有主机不能拥有teledbx用户,当安装或者开通实例会自动创建,无需手动创建。 若为高可用则需要配置vip,每组cn一个。 检查部署机器是否有空闲数据盘提供使用,已经挂载好磁盘不需要重新挂载。 安装之前请确保所有需要使用的服务端口未被占用。 安装的系统预先装好jdk 环境,建议 1.8.0201 版本及以上。 检查主机是否自带libaio0.3.10913.el7.x8664.rpm lz41.7.53.el7.x8664.rpmpv1.4.61.el7.x8664.rpm sshpass1.062.el7.x8664.rpm 依赖 perl 依赖。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        安装部署手册
        安装前准备
        安装前检查
      • 命名规范
        本页介绍天翼云TeleDB数据库的命名规范。 DB object:database, schema, table, column, view, index, sequence, function, trigger 等名称。 建议使用小写字母、数字、下划线的组合。 建议不使用双引号即"包围,除非必须包含大写字母或空格等特殊字符。 长度不能超过63个字符。 不建议以pg 开头或者 pgxc(避免与系统 DB object 混淆),不建议以数字开头。 禁止使用SQL 关键字,如 type, order 等。 table 能包含的 column 数目,根据字段类型的不同,数目在250到1600之间。 临时或备份的DB object:table、view 等,建议加上日期, 如 dbaops.b2cproductsummay20140712 (其中 dbaops 为 DBA 专用 schema)。 index命名规则为:普通索引为 表名列名idx,唯一索引为 表名列名uidx,如 studentnameidx,studentiduidx。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        进阶开发
        开发规范
        命名规范
      • 命名规范
        本页介绍天翼云TeleDB数据库的命名规范。 DB object:database, schema, table, column, view, index, sequence, function, trigger 等名称。 建议使用小写字母、数字、下划线的组合。 建议不使用双引号即"包围,除非必须包含大写字母或空格等特殊字符。 长度不能超过63个字符。 不建议以pg 开头或者 pgxc(避免与系统 DB object 混淆),不建议以数字开头。 禁止使用SQL 关键字,如 type, order 等。 table 能包含的 column 数目,根据字段类型的不同,数目在250到1600之间。 临时或备份的DB object:table、view 等,建议加上日期, 如 dbaops.b2cproductsummay20140712 (其中 dbaops 为 DBA 专用 schema)。 index命名规则为:普通索引为 表名列名idx,唯一索引为 表名列名uidx,如 studentnameidx,studentiduidx。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        进阶开发
        开发规范
        命名规范
      • 文件位置相关参数
        本页介绍天翼云TeleDB数据库文件位置相关参数。 datadirectory (string) 指定用于数据存储的目录。这个选项只能在服务器启动时设置。 configfile (string) 指定主服务器配置文件postgresql.conf。这个参数只能在postgres命令行上设置。 hbafile (string) 指定基于主机认证配置文件pghba.conf。 这个参数只能在服务器启动的时候设置。 identfile (string) 指定用于用户名称映射的配置文件pgident.conf。 这个参数只能在服务器启动的时候设置。 externalpidfile (string) 指定可被服务器创建的用于管理程序的额外进程ID(PID)文件。这个参数只能在服务器启动的时候设置。 在默认安装中不会显式设置以上参数。相反,命令行参数D或者环境变量PGDATA指定数据目录,并且上述配置文件都能在数据目录中找到。 不建议更改上述参数默认值。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        文件位置相关参数
      • 命名规范
        本页介绍天翼云TeleDB数据库的命名规范。 DB object:database, schema, table, column, view, index, sequence, function, trigger 等名称。 建议使用小写字母、数字、下划线的组合。 建议不使用双引号即"包围,除非必须包含大写字母或空格等特殊字符。 长度不能超过63个字符。 不建议以pg 开头或者 pgxc(避免与系统 DB object 混淆),不建议以数字开头。 禁止使用SQL 关键字,如 type, order 等。 table 能包含的 column 数目,根据字段类型的不同,数目在250到1600之间。 临时或备份的DB object:table、view 等,建议加上日期, 如 dbaops.b2cproductsummay20140712 (其中 dbaops 为 DBA 专用 schema)。 index命名规则为:普通索引为 表名列名idx,唯一索引为 表名列名uidx,如 studentnameidx,studentiduidx。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        进阶开发
        开发规范
        命名规范
      • 站内消息
        本页介绍天翼云TeleDB数据库如何查询站内消息。 在消息中心模块,提供了站内消息和消息订阅的功能。站内消息包括服务订阅、系统消息、产品消息和告警消息四大类消息。 消息查询:在消息查询中可以通过消息类型的精确匹配和消息标题或消息内容的模糊匹配对消息进行过滤查询。 消息详情:单击消息标题可以查看具体消息的详情,在查看具体消息详情之后,会将推送的消息置灰。 除此之外,还能够站内消息进行删除和批量删除以及全部删除操作。当您在消息列表上方单击全部标为已读按钮时,所有消息都将置灰。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据库资源与生命周期管理服务操作指南
        消息中心
        站内消息
      • 数据表管理
        本页面介绍如何在数据库实例中快速查看业务库表结构设计和数量分布情况 操作步骤 1. 进入实例详情页面。 2. 单击数据表管理,进入数据表管理页面。 3. 选择表查询对比 或表数据分布,查看数据表信息。 表查询对比: 场景:对比2个不同节点上相同业务表的建表差异,用于发现和分析可能因手动建表差异带来性能问题和数据安全问题。 1. 选择指定cluster及指定库/表,再选择对比的节点。 2. 单击对比,即可查看2个节点上的相同业务表的建表SQL差异。 表数据分布: 场景:查看业务表在多个节点上的表分布,用于发现数据分布是否合理,是否存在数据倾斜的情况 1. 选择指定cluster及指定库/表,再选择对比的数据节点。 2. 选择完成后,即可查看该表在不同计算存储节点上的数据分布情况。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        集群管理
        数据表管理
      • 产品优势
        本节为您介绍数据安全中心产品优势。 云上全场景覆盖 通过整合云上各类数据源,提供一站式数据保护和防御机制。不仅支持结构化类型数据,还支持非结构化类型数据,支持云原生和ECS自建场景。 全生命周期可视化 将数据安全全生命周期各阶段的状态整合起来,并通过可视化方式展示云上数据安全态势。 高效识别数据源 通过专家知识库和NLP的双重加权,提升识别能力,精确高效地锁定敏感数据源。 全方位敏感数据防护 根据敏感数据发现策略,精准识别数据库中的敏感数据,并结合多种预置脱敏算法和用户自定义脱敏算法,实现全方位的敏感数据防护。
        来自:
        帮助文档
        数据安全中心
        产品介绍
        产品优势
      • 停用加速服务
        操作 说明 停用域名 对域名进行停用操作后,控制台上域名状态将变更为“已停止”。3天内,天翼云将加速域名的CNAME解析至客户源站地址。 注意:对域名进行停用操作后,边缘节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,可再次对域名进行"启用"操作。 删除域名 对域名进行删除操作后,天翼云边缘节点会直接删除加速域名在边缘节点的配置,域名对应CNAME入口地址失效,此时域名请求如果仍访问至边缘节点,则会响应403。
        来自:
        帮助文档
        边缘安全加速平台
        快速入门
        站点安全与加速
        启动和停用加速服务
        停用加速服务
      • 项目管理
        本节主要介绍项目管理 项目管理可对多个资源进行分组和管理,例如:可为阿里云迁移至天翼云创建一个新的项目,里面将包含阿里云平台的主机、数据库、组件等信息。 新建项目 在浏览器中输入 单击左侧导航栏的“ 配置管理 ”,进入配置管理 界面。在“ 项目管理 ”页签,单击“ 新建项目 ”。 新建项目 在弹出的“ 新建项目 ”窗口,输入项目名称和项目描述,单击“ 保存 ”。 保存项目
        来自:
        帮助文档
        云迁移工具RDA
        用户指南
        配置管理
        项目管理
      • 告警日志
        添加到信任规则 根据告警日志里的信息,可以选择客户端工具、数据库账号、客户端 、操作类型等属性生成一条新的信任规则,对于符合信任规则的请求将不再告警。 1.在左侧菜单栏选择“查询分析 > 告警日志”进入告警日志页面。 2.在告警日志列表中选择一条需要加到信任规则的告警日志,单击“详情”按钮,在告警日志详细页,单击下方“添加到信任规则”按钮。 3.勾选需要信任属性后 ,单击“确定”按钮 ,则成功添加到信任规则。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        查询分析
        告警日志
      • 如何停用域名
        操作 说明 停用域名 对域名进行停用操作后,控制台上域名状态将变更为“已停止”。天翼云CDN会将加速域名的CNAME立即解析至不可用地址。 注意:对域名进行停用操作后,边缘节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,可再次对域名进行"启用"操作 删除域名 对域名进行删除操作后,天翼云边缘节点会直接删除加速域名在边缘节点的配置,域名对应CNAME入口地址失效,此时域名请求如果仍访问至边缘节点,则会响应403。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        快速入门
        域名操作
        如何停用域名
      • 与其它服务的关系
        本节主要介绍与其它服务的关系。 云原生架构模式下,完成业务功能需要很多服务相互配合: CSE一般和数据库、缓存和消息中间件同时使用,完成业务功能的开发。 AOM、APM、LTS等工具,则为业务提供运维能力,帮助检测业务故障、分析故障原因。 以Spring Cloud为例,典型的云原生架构和技术选型如下: 云原生架构和DevOps通常是密不可分的,配合使用ServiceStage,可以实现云原生环境的管理、部署流水线,简化微服务应用部署到容器CCE的流程。
        来自:
        帮助文档
        微服务引擎
        产品简介
        与其它服务的关系
      • 产品优势
        本章节主要介绍云服务备份产品的优势。 可靠 支持云主机多盘一致性备份,数据库服务器应用一致性备份,使您的数据更加安全可靠。 高效 永久增量备份,缩短95%备份时长。即时恢复,RPO最小为1小时,RTO可达分钟级。 说明 RPO(Recovery Point Objective):最多可能丢失数据的时长。 RTO(Recovery Time Objective):从灾难发生到整个系统恢复正常所需要的最大时长。 简单 操作简单,3步完成备份配置,无需具备专业的备份软件技能。相比传统备份系统,使用更简单。 安全 加密盘的备份数据自动加密,保证数据安全。
        来自:
        帮助文档
        云服务备份
        产品介绍
        产品优势
      • 如何关闭加速服务
        操作 说明 停用域名 对域名进行停用操作后,天翼云会将加速域名的CNAME入口解析至客户源站地址,控制台上域名状态变更为【已停止】。 对域名进行停用操作后,节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,可再次对域名进行【启用】操作。 删除域名 对域名进行删除操作后,天翼云会直接删除加速域名在节点的配置,域名对应CNAME入口地址失效,此时域名请求如果仍访问至节点,则会响应403。
        来自:
        帮助文档
        全站加速
        常见问题
        域名接入类
        如何关闭加速服务
      • 自动续费
        本节主要介绍自动续费。 自动续费可以减少手动续费的管理成本,避免因忘记手动续费而导致云数据库被自动删除。自动续费的规则如下所述: 以实例的到期日计算第一次自动续费日期和计费周期。 实例自动续费周期以您选择的续费时长为准。 按月购买:自动续费周期为1个月。 按年购买:自动续费周期为1年。 在实例到期前均可开通自动续费,到期前7日凌晨3:00首次尝试自动续费,如果扣款失败,每天凌晨3:00尝试一次,直至实例到期或者续费成功。 开通自动续费后,还可以手动续费该实例。手动续费后,自动续费仍然有效,在新的到期时间前的第7天开始扣款。 自动续费的到期前7日自动扣款属于系统默认配置,您也可以根据需要修改此扣款日,如到期前6日、到期前5日等等。 前提条件 请确认包年/包月实例还未到期。 在购买实例页面开通自动续费 您可以在购买数据库实例页面开通自动续费,如图1所示。 图1 自动续费配置 在续费管理页面开通自动续费 1、登录管理控制台。 2、单击“控制台”页面上方“费用与成本”,在下拉菜单中选择“续费管理”,进入“续费管理”页面。 3、 自定义查询条件。 可在“自动续费项”页签查询已经开通自动续费的资源。 可对“手动续费项”、“到期转按需项”、“到期不续费项”页签的资源开通自动续费。 图2 续费管理 4、为包年/包月资源开通自动续费。 单个资源开通自动续费:选择需要开通自动续费的实例,单击操作列“开通自动续费”。 图3 单个资源开通自动续费 批量资源开通自动续费:选择需要开通自动续费的实例,单击列表左上角的“开通自动续费”。 图4 多个资源开通自动续费 5、 选择续费时长,并根据需要设置自动续费次数,单击“开通”。 图5 开通自动续费
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        计费说明
        续费
        自动续费
      • 通过自定义脚本实现其它Linux应用的一致性备份
        本章节介绍如何通过自定义脚本实现其它Linux应用的一致性备份。 场景介绍 在Linux下,如果有其它应用需要一致性备份,可以编写自己的冻结、解冻脚本,来实现应用的保护。自定义脚本需放置在 /home/rdadmin/Agent/bin/thirdparty/ebkuser 目录中,供Agent在备份过程中调用。 下面以一个虚构的应用appexample为例,来进行说明。 appexample是一款新的数据库,它对外提供了appexample freeze与appexample unfreeze两个命令来实现冻结与解冻。 用户需要开发自己的appexamplefreeze.sh与appexampleunfreeze.sh脚本,供备份Agent调用以实现一致性备份。在备份过程中,会先调用appexamplefreeze.sh脚本来冻结IO,冻结成功后,会进行磁盘的一致性快照激活,保证备份的数据是一致性的,最后再调用appexampleunfreeze.sh脚本解冻IO。 整体流程如下图所示: 数据库备份流程图 开发冻结脚本 appexamplefreeze.sh示例如下: !/bin/sh AGENTROOTPATH$1 Agent程序调用脚本时,传入的的根目录,日志函数等会使用此变量,请不要改名 PID$2 Agent程序调用脚本时,传入的PID数字,用于结果的输出,请不要改名 . "${AGENTROOTPATH}/bin/agentfunc.sh"引用脚本框架,提供了日志,加解密等功能 结果处理函数,用于将结果写入到文件中,供脚本调用者获取返回值。 入参 $1: 0表示成功,1表示失败 无返回值 RESULTFILE在agentfunc.sh中进行了定义 function ExitWithResult() { Log "[INFO]:Freeze result is $1." echo $1 > ${RESULTFILE} chmod 666 ${RESULTFILE} exit $1 } function Main() { Log "" Log "[INFO]:Begin to freeze appexample." 查找appexample是否存在,如果appexample不存在,则返回0,退出 在冻结IO步骤中,Agent程序会依次调用每个冻结脚本,如果一个失败,总体就会失败。所以为了防止干扰其他程序的冻结过程,找不到appexample时,应返回0 which appexample if [ $? ne 0 ] then Log "[INFO]:appexample is not installed." ExitWithResult 0 fi 调用实际的冻结命令 appexample freeze if [ $? ne 0 ] then Log "[INFO]:appexample freeze failed." 冻结失败,记录结果并退出 ExitWithResult 1 fi Log "[INFO]:Freeze appexample success." 冻结成功,记录结果并退出 ExitWithResult 0 } Main
        来自:
        帮助文档
        云服务备份
        最佳实践
        通过自定义脚本实现数据库备份
        通过自定义脚本实现其它Linux应用的一致性备份
      • 工单申请
        参数 说明 基本信息 工单名称 输入您待提交工单的名称。 基本信息 工单类型 选择需要授权的工单类型,根据业务需求选择如下四种类型: 资产访问授权 字符命令授权 文件传输授权 数据库命令授权 资产 选择模式 取值范围: 全部资产 选择资产(组) 资产 资产 选择您需要访问的资产或者命令,可多选。 资产 资产组 选择您需要访问的资产组,可多选。 账号 资产账号 选择您需要授权的资产账号。 注意 若选择授权的资产账号为二次登录账号(例如root),需同时授权二次登录的源账号(例如添加root资产账号时配置的二次登录源账号testuser),否则将无法完成二次登录。 协议 服务 (仅工单类型选择“资产访问授权”时需要配置)默认全部服务,也支持选择单个服务。 敏感命令 提示符正则 (仅工单类型选择“字符命令授权”时需要配置)输入待授权命令的提示符正则式。 敏感命令 命令正则式 (仅工单类型选择“字符命令授权”时需要配置)输入待授权命令的正则式。 敏感命令 文件传输 (仅工单类型选择“文件传输授权”时需要配置)选择需要授权的文件传输操作,包括上传、下载、删除等。 敏感命令 文件或目录 (仅工单类型选择“文件传输授权”时需要配置)配置策略生效的文件或目录的正则表达式,可配置多个,多个以回车进行分隔。 敏感命令 sql命令类型 (仅工单类型选择“数据库命令授权”时需要配置)选择需要授权的SQL命令类型。 授权时间 生/失效日期 配置权限生效的起始和截止日期。 支持选择1天、3天、7天、15天、长期有效,或者自定义选择日期。 授权时间 生/失效时间 配置权限生效的具体时间点。 支持选择全天、闲时(0点~6点),或者自定义时间。 其他 描述 填写申请工单的相关描述。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        运维使用手册
        工单管理
        工单申请
      • 安全事故事后追溯
        此小节介绍如何使用堡垒机对安全事故进行事后追溯。 随着业务上云并不断发展,云上运维的人数不断增加,这样必然会衍生出一些运维人员操作疏忽而导致的一些安全事故,但由于传统服务器缺少指令监控,操作回放等功能,这样就导致安全事件可追溯性不完善的问题。 云堡垒机可以管控所有的操作,并对所有的操作都进行详细记录。针对会话的审计日志,支持在线查看、在线播放和下载后离线播放。目前支持字符协议(SSH、TELNET)、图形协议(RDP、VNC)、文件传输协议(FTP、SFTP、SCP)、数据库协议(DB2、MySQL、Oracle、SQL Server)和应用发布的操作审计。其中,字符协议和数据库协议能够进行操作指令解析,还原操作指令;文件传输能够记录传输的文件名称和目标路径。 简介 本章节介绍了云堡垒机如何通过会话审计功能对安全事件进行追溯调查,完成安全事件的责任界定。 前提条件 已购买云堡垒机,并且使用有审计模块权限的账号登录云堡垒机 对历史会话进行审计 1. 登录控制台。进入“历史会话”页面,具体操作步骤详见查看历史会话。 2. 根据您业务出现安全问题的一些信息,在“高级搜索框”中输入相关信息进行检索。 3. 根据搜索完后的结果,在“操作”列单击“详情”,进入“会话详情”页面,对历史操作指令、文件传输情况进行排查。 根据上述步骤您就可以根据操作指令的情况,排查出是哪个步骤出现了问题,为您的事件追溯提供了便利性。当然您也可以使用会话回放功能,通过播放运维视频,来查看具体的操作情况。 云堡垒机还为您提供实时会话监控功能,让您可以实时查看高危操作的运维界面,若出现危险指令可立即切断运维人员的操作,确保业务的安全。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        最佳实践
        安全事故事后追溯
      • 步骤二:配置实例
        本文介绍了如何配置RDSPostgreSQL安全组。 RDSPostgreSQL开通后,您连接访问前需要对实例进行安全组相关设置,具体指引如下: 操作场景 安全组是一个逻辑上的分组,为同一个虚拟私有云内具有相同安全保护需求,并相互信任的弹性云服务器和RDSPostgreSQL实例提供访问策略。 为了保障数据库的安全性和稳定性,在使用RDSPostgreSQL实例之前,您需要设置安全组,开通需访问数据库的IP地址和端口。 通过弹性公网IP连接RDSPostgreSQL实例时,需要为RDSPostgreSQL所在安全组配置相应的入方向规则。 注意事项 因为安全组的默认规则是在出方向上的数据报文全部放行,同一个安全组内的弹性云服务器和RDSPostgreSQL实例可互相访问。安全组创建后,您可以在安全组中定义各种访问规则,当RDSPostgreSQL实例加入该安全组后,即受到这些访问规则的保护。 为一个安全组设置过多的安全组规则会增加首包延时,因此,建议一个安全组内的安全组规则不超过50条。 当需要从安全组外访问安全组内的RDSPostgreSQL实例时,需要为安全组添加相应的入方向规则。 源地址默认的IP地址0.0.0.0/0是指允许所有IP地址访问安全组内的RDSPostgreSQL实例。 操作步骤 1. 登录天翼云门户。 2. 点击【控制中心】,选择对应资源池,例如“华东1”。 3. 在页面中找到【网络】>【虚拟私有云】,并点击进入。 4. 在左侧导航树选择“访问控制 > 安全组”。 5. 在安全组界面,单击“安全组名称”列对应的安全组,进入安全组详情界面。 6. 根据实际情况,选择“入方向规则”或者“出方向规则”。 7. 在安全组详情界面,单击“添加规则”,弹出添加规则窗口。 8. 根据界面提示配置安全组规则。 9. 单击“确定”。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        快速入门
        步骤二:配置实例
      • 认证与访问控制
        介绍分布式消息服务Kafka认证与访问控制方式 分布式消息服务Kafka支持CTIAM身份认证和多种访问控制,多维度保障您数据的安全。 身份认证 CTIAM 统一身份认证(Identity and Access Management, 简称:CTIAM)是提供用户进行权限管理的基础服务,可以帮助您安全的控制天翼云服务和资源的访问及操作权限,包括:用户身份认证、权限分配、访问控制等功能。具体介绍请参考统一身份认证产品介绍。 您可以创建IAM用户,并为其设置关联分布式消息服务Kafka实例权限,该用户就可以通过用户名和密码访问授权的实例资源。具体请参见统一身份认证快速入门创建IAM用户。 访问控制 权限控制 购买分布式消息服务Kafka实例之后,您可以使用CTIAM为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,通过CTIAM进行精细的权限管理。 VPC和子网 虚拟私有云(Virtual Private Cloud,VPC)为分布式消息服务Kafka构建隔离、私密的虚拟网络环境,提升数据库的安全性,并简化用户的网络部署。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。通过子网与其他网络隔离,独享网络资源,提高网络安全性。具体内容请参见虚拟私有云用户指南创建虚拟私有云和子网 。 安全组 安全组是一个逻辑上的分组,可以为同一个虚拟私有云内具有相同安全保护需求并相互信任的Kafka实例提供相同的访问策略。您可以通过为数据库实例设置安全组,开通需访问Kafka实例的IP地址和端口,来保证保障其运行环境的安全性和稳定性。具体请参见配置安全组
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        安全
        认证与访问控制
      • 技术类
        多活容灾是否只要做好入口流量分发和底层数据同步? 否。入口流量分发和底层数据同步是实现多活能力的重要步骤,但并不能完全保证系统具备多活能力。 要具备完整的多活能力,首先做好架构规划与演进,其次要有配套的管控能力,包括集中管理、流量控制、数据同步、数据保护等。 如何保障业务在多活场景下的数据一致性? 默认使用异步复制和最终一致性模型,通过流量纠错和禁写保护避免脏写,有更高要求建议使用分布式数据库。 微服务是如何实现跨集群发现的? 微服务通过注册中心数据同步来实现跨集群服务发现,服务调用时根据路由规则计算路由命中来选择跨单元或跨站点调用。 微服务在多活场景该如何处理? 尽可能单元内自封闭,若无法自封闭,可配置HTTP/DUBBO的解析规则对微服务进行打标,流量通过路由规则计算后实现跨单元调用。 消息在多活场景该如何处理? 生产侧在消息的header或body打标,消费侧根据路由规则进行过滤或接管,消息在站点间同步,避免数据丢失。 缓存在多活场景该如何处理? 应用读写本地缓存集群,缓存本身不建议同步,本地数据中心的缓存不包含其他中心的数据,当流量切换到新中心时可通过数据库重建缓存。 任务调度在多活场景该如何处理? 您可以考虑以下两个方案: 数据双活:2个站点均开启定时任务,捞取全量数据,过滤掉非本单元的数据后再执行。 应用双活:2个站点均开启定时任务,通过配置中心开关控制任务执行的主、备站点角色,由主站点执行全量定时任务。
        来自:
        帮助文档
        应用高可用
        常见问题
        应用容灾多活
        技术类
      • 使用咨询
        本章节主要介绍使用咨询相关问题。 什么是DLI 数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark、Apache Flink生态,提供一站式的流处理、批处理、交互式分析的Serverless融合处理分析服务。用户不需要管理任何服务器,即开即用。支持标准SQL/Spark SQL/Flink SQL,支持多种接入方式,并兼容主流数据格式。数据无需复杂的抽取、转换、加载,使用SQL或程序就可以对云上CloudTable、RDS、DWS、CSS、OBS、ECS自建数据库以及线下数据库的异构数据进行探索。 DLI支持哪些数据格式 DLI支持如下数据格式: Parquet CSV ORC Json Avro DLI中的Spark组件与MRS中的Spark组件有什么区别? DLI服务的Spark组件是全托管式服务,用户对Spark组件不感知,仅仅可以使用该服务,且接口为封装式接口。 MRS服务Spark组件的是建立在客户的购买MRS服务所分配的虚机上,用户可以根据实际需求调整及优化Spark服务,支持各种接口调用。 DLI的数据可存储在哪些地方 DLI服务的数据可存储在如下地方: OBS:SQL作业,Spark作业,Flink作业使用的数据均可以存储在OBS服务中,降低存储成本。 DLI:DLI内部使用的是列存的Parquet格式,即数据以Parquet格式存储。存储成本较高。 跨源作业可将数据存储在对应的服务中,目前支持CloudTable,CSS,DCS,DDS,DWS,MRS,RDS等。 DLI表与OBS表的区别 DLI表表示数据存储在本服务内部,用户不感知数据存储路径。 OBS表表示数据存储在用户自己账户的OBS桶中,源数据文件由用户自己管理。 DLI表相较于OBS表提供了更多权限控制和缓存加速的功能,性能相较于外表性能更好,但是会收取存储费用。
        来自:
        帮助文档
        数据湖探索
        常见问题
        购买类
        使用咨询
      • 最佳实践概述
        本文介绍为云主机配置内网域名的最佳实践概述。 背景 内网域名是指仅在VPC内生效的虚拟域名,无需购买和注册,无需备案。云解析服务提供的内网域名功能,可以让您在VPC中拥有权威DNS,且不会将您的DNS记录暴露给互联网,解析性能更高,时延更低,并且可以防护解析劫持。我们可以将VPC内承担内网域名解析功能的DNS称为内网DNS。 内网域名功能支持为VPC内每个云主机创建一个内网域名,实现: 通过内网域名访问VPC内的云主机,无需经过Internet,访问速度更快、安全性更高。 在代码中使用内网域名代替内网IP。当需要进行云主机切换时,只需通过修改内网域名解析记录即可,无需修改代码。 操作场景 本实践为内网DNS典型应用场景,如图所示。 图逻辑组网 方案优势 上图展示了某网站的逻辑组网,在一个VPC内,部署了ECS和RDS。其中: ECS:作为主业务站点和业务入口。 ECS1:作为公共接口。 RDS1:作为数据库,存储业务数据。 ECS2和RDS2:作为备份服务器和数据库。 当该网站在运行过程中,因ECS1故障,需要将业务切换到备份的云主机ECS2时,若云主机没有配置内网域名,则需要通过修改主业务节点ECS的代码来重新设置云主机的内网IP地址。该操作需要中断业务并重新发布网站,耗时耗力。 假如在部署该网站时,我们为云主机申请了内网域名,且代码中设置的是云主机的内网域名,则仅需要通过修改内网域名解析记录即可实现云主机的切换,无需中断业务,也不需要重新发布网站。
        来自:
        帮助文档
        内网DNS
        最佳实践
        为弹性云主机器配置内网域名
        最佳实践概述
      • 组网与使用场景
        本文向您介绍企业版VPN中组网与使用场景类常见问题。 是否可以通过VPN实现跨境访问网站? 不可以。 VPN实现的是将云上的VPC子网和用户侧数据中心的IDC网络打通的场景,即站点与站点互通(site to site)。 是否可以将应用部署在云端,数据库放在本地IDC,然后通过VPN实现互联? 可以。 VPN连通的是两个子网,即云上VPC网络与用户数据中心网络。 VPN成功建立后,两个子网间可以运行任何类型的业务流量,此时应用服务器访问数据库业务在逻辑上和访问同一局域网的其它主机是相同的,因此该方案可行的。 这种场景是IPsec VPN的典型场景,请用户放心使用。 同时VPN连通以后,并不限定业务的发起方是云上还是用户侧数据中心,即用户可以从云上向用户侧数据中心发起业务,也可以反向。 注意 用户在打通VPN以后,需要关注网络延迟和丢包情况,避免影响业务正常运行。 建议用户先运行ping,获取网络的丢包和时延情况。 连接云下的多台服务器需要购买几个连接? VPN属于IPsec VPN,它是用于打通云上VPC和用户侧数据中心子网的VPN,所以购买VPN连接的个数与服务器的数量无关,而与这些服务器所在的数据中心数量有关。 一个VPN网关支持绑定两个EIP和用户侧网关进行通信: 如果用户侧数据中心只有一个公网出口网关,所有服务器(或用户主机)都通过该网关连接至Internet:这种情况需要配置一个VPN连接组,即VPN网关的两个EIP分别配置一条VPN连接和用户侧出口网关通信。 如果用户侧数据中心只有两个公网出口网关,所有服务器(或用户主机)通过两个网关连接至Internet:这种情况需要配置两个VPN连接组,即VPN网关的两个EIP分别配置一条VPN连接和两个用户侧出口网关通信。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        组网与使用场景
      • 使用Impala客户端
        操作步骤 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 运行Impala客户端命令,实现A业务。 直接执行Impala组件的客户端命令: impalashell 说明 默认情况下,impalashell尝试连接到localhost的21000端口上的Impala守护程序。如需连接到其他主机,请使用 i host:port 选项,例如:impalashell i xxx.xxx.xxx.xxx:21000。要自动连接到特定的Impala数据库,请使用 d 选项。例如,如果您的所有Kudu表都位于数据库“impalakudu”中,则d impalakudu可以使用此数据库。要退出ImpalaShell,请使用quit命令。 内部表的操作: 1. 根据表创建用户信息表userinfo并添加相关数据。 createtable userinfo(id string,name string,gender string,age int,addr string); insert into table userinfo(id,name,gender,age,addr)values("12005000201","A","男",19,"A城市"); ......(其他语句相同) 2. 在用户信息表userinfo中新增用户的学历、职称信息。 以增加编号为12005000201的用户的学历、职称信息为例,其他用户类似。 alter table userinfo add columns(education string,technical string); 3. 根据用户编号查询用户姓名和地址。 以查询编号为12005000201的用户姓名和地址为例,其他用户类似。 select name,addr from userinfo where id'12005000201'; 4. 删除用户信息表。 drop table userinfo; 外部分区表的操作: 创建外部分区表并导入数据 1. 创建外部表数据存储路径。 安全模式(集群开启了Kerberos认证): cd /opt/hadoopclient source bigdataenv kinit hive 说明 用户hive需要具有Hive管理员权限。 impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 普通模式(集群关闭了Kerberos认证): su omm cd /opt/hadoopclient source bigdataenv impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 2. 建表。 create external table userinfo(id string,name string,gender string,age int,addr string) partitioned by(year string) row format delimited fields terminated by ' ' lines terminated by 'n' stored as textfile location '/hive/userinfo'; 说明 fields terminated指明分隔的字符,如按空格分隔,' '。 lines terminated 指明分行的字符,如按换行分隔,'n'。 /hive/userinfo为数据文件的路径。 3. 导入数据。 a. 使用insert语句插入数据。 insert into userinfo partition(year"2018") values ("12005000201","A","男",19,"A城市"); b. 使用load data命令导入文件数据。 i.根据下表数据创建文件。如,文件名为txt.log,以空格拆分字段,以换行符作为行分隔符。 ii. 上传文件至hdfs。 hdfs dfs put txt.log /tmp iii. 加载数据到表中。 load data inpath '/tmp/txt.log' into table userinfo partition (year'2018'); 4. 查询导入数据。 select from userinfo; 5. 删除用户信息表。 drop table userinfo;
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Impala客户端
      • 1
      • ...
      • 152
      • 153
      • 154
      • 155
      • 156
      • ...
      • 200
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      推荐文档

      扩容磁盘

      如何修改发票抬头

      加入会议

      业务咨询

      管理只读实例

      产品优势

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号