活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云hbase数据库_相关内容
      • 审计云上自建数据库
        本章节为您介绍如何快速配置RDS数据库审计。 背景 为保护数据库的数据安全,防范各种攻击事件,满足国家等保合规要求,您都需要对您的数据库进行保护。 天翼云数据库审计,提供旁路模式数据库安全审计服务功能,通过实时记录用户访问数据库行为,形成细粒度的审计报告,对风险行为和攻击行为进行实时告警。同时,数据库安全审计可以生成满足数据安全标准(例如SarbanesOxley)的合规报告,对数据库的内部违规和不正当操作进行定位追责,保障数据资产安全。 步骤一:购买数据库审计实例 您需要根据您的业务需求购买数据库审计规格并配置数据库安全审计参数,详细操作请参见:购买数据库审计实例。 步骤二:添加数据库资产 1.在左侧菜单栏选择“资产 > 资产管理”进入“资产管理”页面,选择“资产管理”页签,单击“添加”。 2.在弹出的“添加资产”窗口编辑相关信息。参数填写规则可参见下表。 参数 参数说明 保存时启用推荐的规则 勾选此选项,则保存时添加的资产会使用系统推荐的规则;不勾选此选项,保存时添加的资产不会使用系统推荐的规则。 类型 选择“关系型”数据库,此处以MySQL 5.7版本举例。 资产组 设置资产所属的资产组。 名称 填写资产的名称,必须为中文字符、字母、数字、下划线“”、点“.”或短横“”,长度不超过64字符。 操作系统 此处以“Linux”系统举例。 IP端口 设置资产所在主机的IP及端口号。 3.添加完成后,单击“保存”即可将数据库纳入资产中。
        来自:
        帮助文档
        数据库审计
        最佳实践
        审计云上自建数据库
      • 安装部署
        二、安装dto 1)自动安装dto a)天翼云云主机 使用条件 1. 天翼云云主机支持一键安装客户端。 2. 需完成天翼云云主机同步。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源同步管理”“数据源”“客户端管理”,进入客户端管理列表页。 5. 在列表上方下拉菜单中选择需要进行操作的命名空间。 6. 客户端类型选择“dto客户端”,TAB栏选择天翼云云主机,点击操作列“安装dto客户端”按钮,确认安装须知后,点击“确定”按钮,进行dto客户端安装。 非天翼云云主机 使用条件 1. 非天翼云云主机提供dto客户端安装脚本供用户手动执行。 2. 需完成非天翼云云主机同步。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏资源同步管理”“数据源”“客户端管理”,进入非天翼云云主机列表页。 5. 在列表上方下拉菜单中选择需要进行操作的命名空间。 6. 点击操作列“安装客户端”按钮,目前提供“公网”和“专线”的网络类型,根据当前网络情况并选择相关属性后,可复制安装命令,到三方主机中执行脚本,完成dto安装。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        安装部署
      • 迁移前准备工作
        本节为您介绍云迁移服务CMS中数据库迁移工具迁移前的准备工作,包括账号注册认证、账户余额确认、迁移网络打通等。 1.使用或注册天翼云账号。 2.确认源端数据库或目标端是否满足数据库类型要求。 需对数据库迁移工具支持迁移的迁移源数据库类型及版本做确认,具体请见数据库迁移兼容性列表。 迁移网络打通 迁移节点 迁移节点所在云主机需要能正常访问源数据库、目标数据库、CMS控制台,建议出方向安全组不作限制。 迁移节点若使用弹性IP连接,需要提前购买和配置正确的EIP。 迁移节点默认端口为18080,因此迁移节点所在云主机需开放TCP的18080端口,以便CMS控制台下发任务。未执行任务时,建议及时关闭18080端口。 源数据库 若使用弹性IP连接,源数据库需要提前购买和配置正确的EIP。 源数据库安全组需开放数据库端口,建议将数据库端口的入方向IP限制为迁移节点所在云主机IP。 目标数据库 若使用弹性IP连接,目标数据库需要提前购买和配置正确的EIP。 目标数据库安全组需开放数据库端口,建议将数据库端口的入方向IP限制为迁移节点所在云主机IP。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        数据库迁移模块
        迁移前准备工作
      • 关于日志
        审计日志 操作类型 操作 DBService审计日志 维护管理 备份恢复操作 HBase审计日志 DDL(数据定义)语句 创建表 删除表 修改表 增加列族 修改列族 删除列族 启用表 禁用表 用户信息修改 修改密码 用户登录 HBase审计日志 DML(数据操作)语句 put数据(针对hbase:meta表、ctmeta表和hbase:acl表) 删除数据(针对hbase:meta表、ctmeta表和hbase:acl表) 检查并put数据(针对hbase:meta表、ctmeta表和hbase:acl表) 检查并删除数据(针对hbase:meta表、ctmeta表和hbase:acl表) HBase审计日志 权限控制 给用户授权 取消用户授权 Hive审计日志 元数据操作 元数据定义,如创建数据库、表等 元数据删除,如删除数据库、表等 元数据修改,如增加列、重命名表等 元数据导入/导出 Hive审计日志 数据维护 向表中加载数据 向表中插入数据 Hive审计日志 权限管理 创建/删除角色 授予/回收角色 授予/回收权限 HDFS审计日志 权限管理 文件/文件夹访问权限 文件/文件夹owner信息 HDFS审计日志 文件操作 创建文件夹 创建文件 打开文件 追加文件内容 修改文件名称 删除文件/文件夹 设置文件时间属性 设置文件副本个数 多文件合并 文件系统检查 文件链接 Mapreduce审计日志 程序运行 启动Container请求 停止Container请求 Container结束,状态为成功 Container结束,状态为失败 Container结束,状态为中止 提交任务 结束任务 LdapServer审计日志 维护管理 添加操作系统用户 添加组 添加用户到组 删除用户 删除组 KrbServer审计日志 维护管理 修改kerberos帐号密码 添加kerberos帐号 删除kerberos帐号 用户认证 Loader审计日志 安全管理 用户登录 Loader审计日志 元数据管理 查询connector 查询framework 查询step Loader审计日志 数据源连接管理 查询数据源连接 增加数据源连接 更新数据源连接 删除数据源连接 激活数据源连接 禁用数据源连接 Loader审计日志 作业管理 查询作业 创建作业 更新作业 删除作业 激活作业 禁用作业 查询作业所有执行记录 查询作业最近执行记录 提交作业 停止作业 Hue审计日志 服务启动 启动Hue Hue审计日志 用户操作 用户登录 用户退出 Hue审计日志 任务操作 创建任务 修改任务 删除任务 提交任务 保存任务 任务状态更新 Zookeeper审计日志 权限管理 设置ZNODE访问权限 Zookeeper审计日志 ZNODE操作 创建ZNODE 删除ZNODE 设置ZNODE数据 Storm审计日志 Nimbus 提交拓扑 中止拓扑 重分配拓扑 去激活拓扑 激活拓扑 Storm审计日志 UI 中止拓扑 重分配拓扑 去激活拓扑 激活拓扑
        来自:
      • 服务协议
        此小节介绍天翼云数据库安全服务协议 天翼云数据库安全服务协议
        来自:
        帮助文档
        数据库安全
        相关协议
        服务协议
      • 资产管理
        本章节为您介绍数据库安全网关的资产管理功能 在数据库安全网关中,资产是指系统需要防护和管理的数据库系统。资产管理是系统核心功能之一,涵盖了对各种数据库类型的安全监控与防护操作。 手动添加资产 1.登录数据库安全网关。 2.在左侧菜单栏选择“资产 > 资产管理”进入“资产管理”页面 ,单击页面的“新增”按钮。 注意 如果资产是集群,需要先在资产管理页面添加 集群的所有资产,包括每个节点的地址 和端口,以及ScanIP(集群扫描IP)等信息,然后切换到“集群配置”页面进行集群设置。 3.在弹出的“新增资产”对话框中,填写相关信息。 配置项 说明 类型 选择数据库的类型,系统支持数据库类型如下: 通用数据库:Oracle(包含RAC)、MySQL、MSSQL、Sybase ASE、DB2、Informix、Oscar、达梦(DM)、Cache、PostgreSQL、Teradata、人大金仓(Kingbase) 、GBase、MariaDB、Hana、MongoDB、GaussDB、GreenPlum、TiDB、Vertica、GoldenDB、UXDB、Doris、虚谷、HifhGo、OceanBase 大数据:HBase、Hive、Elasticsearch、Impala、SparkSQL、Clickhouse、Presto、Tdh、Odps 其他:HTTP、Trino 天翼云RDS:MySQL、PostgreSQL、MSSQL 说明 若您选择的资产类型为:Oracle、Hive、Trino,需要额外配置相关参数。 操作系统 设置资产所在主机的操作系统。 IP/域名 设置资产所在主机的IPv4 或者IPv6 或者域名。 端口 设置资产原生端口号。 代理端口 设置访问资产的反向代理端口。 防护模式 入侵检测模式:对数据库进行入侵检测,可以产生审计、告警、脱敏、运维日志,但不会对请求进行阻断和脱敏; 入侵防护模式:对数据库进行入侵检测和防护,除可以生成审计、告警、脱敏、运维日志外,还可以对请求进行阻断和脱敏。 默认数据源 默认关闭,可启用。 支持Oracle、MySQL、MSSQL、DB2、达梦(DM)、PostgreSQL、MariaDB、UXDB、Hive、Tdh等。 默认数据源用途: 1. 新增敏感数据扫描任务时,自动带出数据源信息,减少用户操作步骤; 2. 安全规则配置“影响行数”维度,该规则匹配依赖资产的默认数据源。 数据库名 填写数据库名。(MSSQL、DB2、PostgreSQL、UXDB等) 用户名 填写数据库的用户名。 密码 填写数据库的密码。 测试 测试数据库的连通性。 4.配置完成后,单击“测试”进行资产连接测试,若正常则会提示连接成功。 5.单击“保存” ,弹出是否需要立即进行敏感数据扫描的提示框: 若选择“确定” ,则跳转到“资产 > 敏感数据 > 敏感数据扫描”页面进行下一步。 若选择“取消” ,则停留在资产管理页面。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        资产
        资产管理
      • 常见问题
        使用对等连接,两端VPC的网段可以相同吗? 使用对等连接时,两端VPC的网段可以相同。计划通过对等连接互通的VPC网段相同时,需要注意规划两个VPC之间需要互通的子网的网段不同。具体场景请参考 指向VPC子网的对等连接配置。 用对等连接进行VPC内网互通,两侧可以互相访问哪些资源? 对等连接可以将同资源池的两个VPC内网打通,添加所需的路由后,可以访问对端VPC中的资源,云主机、物理机、网卡、虚拟IP、负载均衡、终端节点、数据库 等通过VPC内网地址提供服务的资源,不支持访问跨VPC的专线、NAT网关、VPN网关。 对等连接能否支持跨租户的VPC内网互通? 对等连接支持同一租户或两个不同租户在同一地域的VPC之间进行内网互通。建立不同租户VPC互通的对等连接时,需要先了解对端账号的邮箱以及VPCID。跨租户VPC之间创建对等连接请参考 创建对等连接(跨账号)。 对等连接能否支持跨资源池的VPC内网互通? 不支持,对等连接仅支持同资源池VPC之间的内网互通。如果有跨地域互通的场景,可以考虑使用云间高速产品。天翼云云间高速(标准版)(CTEC, Express Connect standard)产品是基于中国电信骨干网络,为用户提供一种高速、安全、稳定的混合组网能力,助力企业云上云下、跨区域,多网络、灵活组网,帮助用户构建一张具有企业级规模和通信能力的云上网络。请参考 云间高速产品介绍 。
        来自:
        帮助文档
        虚拟私有云 VPC
        对等连接
        常见问题
      • 常见问题(1)
        使用对等连接,两端VPC的网段可以相同吗? 使用对等连接时,两端VPC的网段可以相同。计划通过对等连接互通的VPC网段相同时,需要注意规划两个VPC之间需要互通的子网的网段不同。具体场景请参考 指向VPC子网的对等连接配置。 用对等连接进行VPC内网互通,两侧可以互相访问哪些资源? 对等连接可以将同资源池的两个VPC内网打通,添加所需的路由后,可以访问对端VPC中的资源,云主机、物理机、网卡、虚拟IP、负载均衡、终端节点、数据库 等通过VPC内网地址提供服务的资源,不支持访问跨VPC的专线、NAT网关、VPN网关。 对等连接能否支持跨租户的VPC内网互通? 对等连接支持同一租户或两个不同租户在同一地域的VPC之间进行内网互通。建立不同租户VPC互通的对等连接时,需要先了解对端账号的邮箱以及VPCID。跨租户VPC之间创建对等连接请参考 创建对等连接(跨账号)。 对等连接能否支持跨资源池的VPC内网互通? 不支持,对等连接仅支持同资源池VPC之间的内网互通。如果有跨地域互通的场景,可以考虑使用云间高速产品。天翼云云间高速(标准版)(CTEC, Express Connect standard)产品是基于中国电信骨干网络,为用户提供一种高速、安全、稳定的混合组网能力,助力企业云上云下、跨区域,多网络、灵活组网,帮助用户构建一张具有企业级规模和通信能力的云上网络。请参考 云间高速产品介绍 。
        来自:
      • 常见问题
        使用对等连接,两端VPC的网段可以相同吗? 使用对等连接时,两端VPC的网段可以相同。计划通过对等连接互通的VPC网段相同时,需要注意规划两个VPC之间需要互通的子网的网段不同。具体场景请参考 指向VPC子网的对等连接配置。 用对等连接进行VPC内网互通,两侧可以互相访问哪些资源? 对等连接可以将同资源池的两个VPC内网打通,添加所需的路由后,可以访问对端VPC中的资源,云主机、物理机、网卡、虚拟IP、负载均衡、终端节点、数据库 等通过VPC内网地址提供服务的资源,不支持访问跨VPC的专线、NAT网关、VPN网关。 对等连接能否支持跨租户的VPC内网互通? 对等连接支持同一租户或两个不同租户在同一地域的VPC之间进行内网互通。建立不同租户VPC互通的对等连接时,需要先了解对端账号的邮箱以及VPCID。跨租户VPC之间创建对等连接请参考 申请对等连接(跨账号)。 对等连接能否支持跨资源池的VPC内网互通? 不支持,对等连接仅支持同资源池VPC之间的内网互通。如果有跨地域互通的场景,可以考虑使用云间高速产品。天翼云云间高速(标准版)(CTEC, Express Connect standard)产品是基于中国电信骨干网络,为用户提供一种高速、安全、稳定的混合组网能力,助力企业云上云下、跨区域,多网络、灵活组网,帮助用户构建一张具有企业级规模和通信能力的云上网络。请参考 云间高速产品介绍 。
        来自:
        帮助文档
        对等连接(文档停止维护)
        常见问题
        常见问题
      • 产品介绍
        本节介绍云智助手的产品介绍。 产品介绍 云智助手(原AI应用中心)是天翼AI云电脑3.0推出全系统级AI应用,全面接入DeepSeek大模型,并基于星辰大模型和合作伙伴大模型能力,提供一系列场景化AI能力,升级全场景智能化体验。通过AI赋能,重塑AI云电脑使用体验,让AI云电脑更智能、更简单、更好用。 应用场景 云智助手通过打造了AI助手、AI空间两大功能模块,赋能办公、教育、创作、生活等场景,提升工作、生活效率。 使用说明 使用范围 (1)公有云:所有天翼AI云电脑(公众版)、天翼AI云电脑(政企版)均可使用云智助手; (2)私有云:可联系天翼云客服、大区、售前经理了解私有化部署要求。 获取方式 (1)已在AI云电脑镜像中预装,在桌面找到“云智助手”点击即可直接使用; (2)如未在桌面找到或已卸载,可前往AI云电脑应用市场,搜索“云智助手”下载。 使用条件 (1)云智助手当前支持Windows、UOS等各类操作系统; (2)天翼AI云电脑客户端建议升级至v2.4.3及以上版本; (3)移动端可以通过下载天翼云云电脑APP(3.1.1以上版本)使用云智助手。
        来自:
        帮助文档
        天翼云电脑(公众版)
        云智助手
        产品介绍
      • 产品介绍
        本节介绍云智助手的产品介绍。 产品介绍 云智助手(原AI应用中心)是天翼AI云电脑3.0推出全系统级AI应用,全面接入DeepSeek大模型,并基于星辰大模型和合作伙伴大模型能力,提供一系列场景化AI能力,升级全场景智能化体验。通过AI赋能,重塑AI云电脑使用体验,让AI云电脑更智能、更简单、更好用。 应用场景 云智助手通过打造了AI助手、AI空间两大功能模块,赋能办公、教育、创作、生活等场景,提升工作、生活效率。 使用说明 使用范围 (1)公有云:所有天翼AI云电脑(公众版)、天翼AI云电脑(政企版)均可使用云智助手; (2)私有云:可联系天翼云客服、大区、售前经理了解私有化部署要求。 获取方式 (1)已在AI云电脑镜像中预装,在桌面找到“云智助手”点击即可直接使用; (2)如未在桌面找到或已卸载,可前往AI云电脑应用市场,搜索“云智助手”下载。 使用条件 (1)云智助手当前支持Windows、UOS等各类操作系统; (2)天翼AI云电脑客户端建议升级至v2.4.3及以上版本; (3)移动端可以通过下载天翼云云电脑APP(3.1.1以上版本)使用云智助手。
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        产品介绍
      • 服务等级
        此小节介绍天翼云数据库安全服务等级。 天翼云数据库安全服务等级协议
        来自:
        帮助文档
        数据库安全
        相关协议
        服务等级
      • DataArts Studio支持的数据源
        数据源类型 简介 数据仓库服务(DWS) DWS是基于Sharednothing分布式架构,具备MPP大规模并行处理引擎,兼容标准ANSI SQL 99和SQL 2003,同时兼容PostgreSQL/Oracle数据库生态,为各行业PB级海量大数据分析提供有竞争力的解决方案。 数据湖探索(DLI) DLI是完全兼容Apache Spark和Apache Flink生态,实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值。 MapReduce服务(MRS HBase) HBase是一个开源的、面向列(ColumnOriented)、适合存储海量非结构化数据或半结构化数据的、具备高可靠性、高性能、可灵活扩展伸缩的、支持实时数据读写的分布式存储系统。 使用MRS HBase可实现海量数据存储,并实现毫秒级数据查询。选择MRS HBase可以实现物流数据毫秒级实时入库更新,并支持百万级时序数据查询分析。 MapReduce服务(MRS Hive) Hive是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。Hive定义了简单的类SQL查询语言,称为HiveQL,它允许熟悉SQL的用户查询数据。 使用MRS Hive可实现TB/PB级的数据分析,快速将线下Hadoop大数据平台(CDH、HDP等)迁移上云,业务迁移 “0”中断,业务代码 “0”改动。 MapReduce服务(MRS Kafka) MapReduce服务可提供专属MRS Kafka集群。Kafka是一个分布式的、分区的、多副本的消息发布订阅系统,它提供了类似于JMS的特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线的消息消费,如常规的消息收集、网站活性跟踪、聚合统计系统运营数据(监控数据)、日志收集等大量数据的互联网服务的数据收集场景。 MapReduce服务(MRS Ranger) Ranger提供一个集中式安全管理框架,提供统一授权和统一审计能力。它可以对整个Hadoop生态中如HDFS、Hive、HBase、Kafka、Storm等进行细粒度的数据访问控制。用户可以利用Ranger提供的前端WebUI控制台通过配置相关策略来控制用户对这些组件的访问权限。 MySQL MySQL是目前最受欢迎的开源数据库之一,其性能卓越,架构成熟稳定,支持流行应用程序,适用于多领域多行业,支持各种WEB应用,成本低,中小企业首选。 MapReduce服务(MRS Spark) Spark是一个开源的,并行数据处理框架,能够帮助用户简单的开发快速、统一的大数据应用,对数据进行协处理、流式处理、交互式分析等等。 Spark提供了一个快速的计算、写入以及交互式查询的框架。相比于Hadoop,Spark拥有明显的性能优势。Spark提供类似SQL的Spark SQL语言操作结构化数据。 云数据库RDS RDS是一种基于云计算平台的即开即用、稳定可靠、弹性伸缩、便捷管理的在线关系型数据库服务。 注意,DataArts Studio平台目前仅支持RDS中的MySQL和PostgreSQL数据库。 主机连接 通过主机连接,用户可以在DataArts Studio数据开发中连接到指定的主机,通过脚本开发和作业开发在主机上执行Shell或Python脚本。主机连接保存连接某个主机的连接信息,当主机的连接信息有变化时,只需在主机连接管理中编辑修改,而不需要到具体的脚本或作业中逐一修改。 MapReduce服务(MRS Presto) Presto是一个开源的用户交互式分析查询的SQL查询引擎,用于针对各种大小的数据源进行交互式分析查询。其主要应用于海量结构化数据/半结构化数据分析、海量多维数据聚合/报表、ETL、AdHoc查询等场景。 Presto允许查询的数据源包括Hadoop分布式文件系统(HDFS),Hive,HBase,Cassandra,关系数据库甚至专有数据存储。一个Presto查询可以组合不同数据源,执行跨数据源的数据分析。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        管理控制台
        DataArts Studio支持的数据源
      • 功能特性
        本文介绍弹性文件服务的功能特性。 多客户端共享访问 支持多个计算实例挂载同一文件系统,实现共享访问,适用于多种应用场景。 支持云主机、物理机、容器等多种计算服务挂载访问。 多协议配置 天翼云弹性文件系统支持NFSv3/v4.1、CIFS(SMB2.1/SMB3.0)协议,用户能够在创建文件系统时指定协议类型。 通过标准POSIX接口访问数据,无缝适配主流应用程序进行数据读写。 基础管理 支持在控制台进行创建、搜索、查看、扩容、删除、续订等基本文件系统管理操作。 分钟级别快速扩容,用户可根据实际需要对文件系统进行在线扩容,扩容过程不影响业务使用。 同地域跨VPC、跨AZ访问 通过给文件系统添加多个VPC,可将文件系统挂载至不同VPC的计算实例上,实现同地域跨VPC访问。 通过给文件系统和其它AZ的计算实例添加到同一VPC中,实现同地域跨AZ挂载。 权限管理 权限组是一种白名单机制,通过创建权限组和权限组规则,授予不同网段或IP的客户端不同的访问权限。 支持统一身份认证(Identity and Access Management,简称IAM)服务,帮助您安全的控制云服务和资源的访问及操作权限。 监控告警 依托天翼云云监控服务,提供基础性能指标监控和容量指标监控,了解文件系统运行情况。 支持对重要指标设置自定义告警规则,可及时知晓数据异常并处理。 支持一键告警,对容量使用率默认阈值一键开启告警通知,保证业务正常进行。
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        功能特性
      • 功能特性(1)
        本文介绍弹性文件服务的功能特性。 多客户端共享访问 支持多个计算实例挂载同一文件系统,实现共享访问,适用于多种应用场景。 支持云主机、物理机、容器等多种计算服务挂载访问。 多协议配置 天翼云弹性文件系统支持NFSv3/v4.1、CIFS(SMB2.1/SMB3.0)协议,用户能够在创建文件系统时指定协议类型。 通过标准POSIX接口访问数据,无缝适配主流应用程序进行数据读写。 基础管理 支持在控制台进行创建、搜索、查看、扩容、删除、续订等基本文件系统管理操作。 分钟级别快速扩容,用户可根据实际需要对文件系统进行在线扩容,扩容过程不影响业务使用。 同地域跨VPC、跨AZ访问 通过给文件系统添加多个VPC,可将文件系统挂载至不同VPC的计算实例上,实现同地域跨VPC访问。 通过给文件系统和其它AZ的计算实例添加到同一VPC中,实现同地域跨AZ挂载。 权限管理 权限组是一种白名单机制,通过创建权限组和权限组规则,授予不同网段或IP的客户端不同的访问权限。 支持统一身份认证(Identity and Access Management,简称IAM)服务,帮助您安全的控制云服务和资源的访问及操作权限。 监控告警 依托天翼云云监控服务,提供基础性能指标监控和容量指标监控,了解文件系统运行情况。 支持对重要指标设置自定义告警规则,可及时知晓数据异常并处理。 支持一键告警,对容量使用率默认阈值一键开启告警通知,保证业务正常进行。
        来自:
      • ALM-19018 HBase合并队列超出阈值
        本章节主要介绍ALM19018 HBase合并队列超出阈值的告警。 告警解释 系统每300秒周期性检测HBase服务的compaction队列长度,当检测到HBase服务的compaction队列长度超过告警的阈值(默认100)时产生该告警。当compaction队列长度小于告警的阈值时,告警恢复。 说明 说明 若集群启用了多实例功能且安装了多个HBase服务,请根据“定位信息”的“服务名”值来确定具体产生告警的HBase服务。例如“定位信息”中显示服务名HBase1,处理步骤中的操作对象也应由HBase调整为HBase1。 告警属性 告警ID 告警级别 是否自动清除 19018 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 产生该告警表示HBase服务的compaction队列长度已经超过规定的阈值,如果不及时处理,可能会导致集群性能下降,影响数据读写。 可能原因 HBase RegionServer数太少。 HBase 单个RegionServer上Region数过多。 HBase RegionServer堆大小较小。 资源不足。 相关参数配置不合理。 处理步骤 检查相关配置是否合理 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看是否存在告警ID为“19011”的告警。 是,单击对应告警右侧的“查看帮助”并按照帮助文档进行处理,执行步骤3。 否,执行步骤2。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > HBase > 配置 > 全部配置,搜索“hbase.hstore.compaction.min”,“hbase.hstore.compaction.max”,“hbase.hstore.compactionThreshold”,“hbase.regionserver.thread.compaction.small”和“hbase.regionserver.thread.compaction.throttle”,适当调大其值。 3.观察界面告警是否清除。 是,处理完毕。 否,执行步骤4。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19018 HBase合并队列超出阈值
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 配置元数据库
        本章节主要介绍数据连接的创建过程以及参数说明。 配置数据连接 翼MapReduce的数据连接是用来管理集群中组件使用的外部源连接,如Hive、Ranger、Amoro、Hue、DolphinScheduler服务的元数据使用外部的关系型数据库,可以通过数据连接关联数据库与组件。 选择在翼MR集群部署Hive、Ranger、Amoro、Hue、DolphinScheduler组件服务时,翼MR提供关系数据库MySQL版(CTRDS MySQL)的元数据存储方式。在进行数据连接时,请选择关联与当前集群同一虚拟私有云(VPC)下的MySQL数据库,元数据将存储于关联的数据库中,不会随当前集群的删除而删除,多个翼MR集群可共享同一份元数据。 前置操作 1. 登录“关系数据库MySQL版”管理控制台。 2. 点击菜单栏“MySQL”“实例管理”进入页面,选择希望翼MR连接的数据库实例。 3. 点击实例名称,进入实例详情页。选择“数据库管理”tab页,单击“创建数据库”即可创建新的数据库。 4. 可按需前往“账号管理”页,点击“创建账号”,创建非root用户账号,并为该账号授予数据库的操作权限。 说明 1、当前仅支持通过内网地址进行数据库连接。请选择关联与当前集群同一虚拟私有云(VPC)下的MySQL数据库。 2、配置元数据库信息时,请提前创建数据库,若需要部署多个服务,请创建多个数据库,创建方式可参考 3、元数据配置所需信息可前往 4、请确保配置的数据库用户具有该数据库的读写权限。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        管理数据连接
        配置元数据库
      • 组件依赖关系表
        本章节主要介绍翼MapReduce服务的组件依赖关系。 组件依赖关系说明 组件名称 集群部署的依赖组件 Doris / Elasticsearch / HBase HDFS、ZooKeeper、Kerberos、OpenLDAP HDFS ZooKeeper、Kerberos、OpenLDAP Hive HDFS、YARN、ZooKeeper、Kerberos、OpenLDAP Kafka ZooKeeper、Kerberos、OpenLDAP Kerberos OpenLDAP Kibana Elasticsearch Kyuubi Spark、Hive、HDFS、YARN、ZooKeeper、OpenLDAP、Kerberos OpenLDAP / Ranger HDFS、OpenLDAP、Kerberos、ZooKeeper Spark HDFS、YARN、Hive、ZooKeeper、OpenLDAP、Kerberos Trino Kerberos、OpenLDAP YARN ZooKeeper、Kerberos、HDFS、OpenLDAP ZooKeeper Kerberos、OpenLDAP Flink HDFS、YARN、Kerberos、OpenLDAP、ZooKeeper Hudi Hive/Spark/Flink Iceberg Hive/Spark/Flink Knox Kerberos、OpenLDAP Logstash / JeekeFS Kerberos、OpenLDAP Tez HDFS、YARN、Hive、ZooKeeper、OpenLDAP、Kerberos Flume / KafkaUI Kafka、OpenLDAP、Kerberos、ZooKeeper SeaTunnel Flink、HDFS、YARN、OpenLDAP、Kerberos、ZooKeeper Pushgateway / TezUI OpenLDAP、Kerberos、Hive、ZooKeeper、Tez、HDFS、YARN Amoro Kerberos、OpenLDAP、ZooKeeper、HDFS、YARN Hue Kerberos、OpenLDAP DolphinScheduler HDFS、OpenLDAP、Kerberos、ZooKeeper Sqoop HDFS、YARN Lance / Paimon Hive/Spark/Flink
        来自:
        帮助文档
        翼MapReduce
        快速入门
        组件依赖关系表
      • 安装部署
        二、安装drnode 1)自动安装drnode a)天翼云云主机 使用条件 1. 天翼云云主机支持一键安装客户端。 2. 需完成天翼云云主机同步。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源同步管理”“数据源”“客户端管理”,进入客户端管理列表页。 5. 在列表上方下拉菜单中选择需要进行操作的命名空间。 6. 点击操作列“安装客户端”按钮,确认安装须知后,点击“确定"按钮,进行drnode客户端安装。 b)非天翼云云主机 使用条件 1. 非天翼云云主机提供drnode客户端安装脚本供用户手动执行。 2. 需完成非天翼云云主机同步。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏资源同步管理”“数据源”“客户端管理”,进入非天翼云云主机列表页。 5. 在列表上方下拉菜单中选择需要进行操作的命名空间。 6. 点击操作列“安装客户端”按钮,目前提供“公网”和“专线”的网络类型,根据当前网络情况并选择相关属性后,可复制安装命令,到三方主机中执行脚本,完成drnode安装。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        网络配置与drnode客户端安装
        安装部署
      • 修改备份策略
        操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,然后单击备份策略页签。 5. 单击基础备份策略右侧的编辑图标。 6. 根据实际情况修改备份相关的参数。 参数 说明 备份方式 选择备份方式: 全量备份 库表备份 注意 库表备份适用于备份整数据库文件过大,而其中只有部分库表较为重要,只需要备份部分库表的场景。具体库表备份的配置参数和相关操作,请参见库表备份。 备份保留天数 选择备份保留天数。 备份周期 选择备份周期,支持同时勾选多个备份周期: 星期一 星期二 星期三 星期四 星期五 星期六 星期日 备份开始时间 选择备份开始时间,支持设置的范围为00:00~24:00。 高频增量备份 您可以根据实际情况配置高频增量备份,具体信息,请参见高频物理备份。 7. 确认配置无误,并单击提交。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        备份
        修改备份策略
      • 产品定义
        本章节向您主要介绍什么是VPN连接、VPN连接的组成部分以及如何访问VPN连接服务。 产品概述 虚拟专用网络(Virtual Private Network,以下简称VPN),用于在企业用户本地网络、数据中心与天翼云云上网络之间搭建安全、可靠、高性价比的加密连接通道。 VPN由VPN网关、对端网关和VPN连接组成。 VPN网关提供了VPC的公网出口,与用户数据中心的对端网关对应。 VPN连接通过加密技术,将VPN网关与对端网关相关联,使数据中心与VPC通信,更快速、更安全地构建混合云环境。 组成部分 VPN网关 :虚拟专用网络在天翼云上的虚拟网关,与用户本地网络、数据中心的对端网关建立安全私有连接。 对端网关 :用户数据中心的VPN设备或软件应用程序。控制台上创建的对端网关是云上虚拟对象,用于记录用户数据中心实体设备的配置信息。 VPN连接 :VPN网关和对端网关之间的安全通道,使用IPsec协议对传输数据进行加密。 访问方式 VPN服务提供了Web化的服务管理平台,即管理控制台。用户可以登录管理控制台访问VPN服务。 如果用户已注册帐户,可直接登录管理控制台,在主页选择“网络 > VPN”。 如果未注册,可先注册天翼云账号后,再使用VPN服务。 约束与限制 VPN服务仅支持VPN网关与对端网关间通过IPSec协议建立安全通道,从而进行点对点通信,不支持SSL VPN能力。 VPN仅支持建立非跨境连接,不支持建立跨境连接。
        来自:
        帮助文档
        VPN连接
        产品简介
        产品定义
      • 概述
        本页为本地MySQL迁移到RDS for MySQL的网络和准备工作概述。 网络通信方式 当前阶段,本地MySQL迁移至天翼云RDS for MySQL,需通过公网网络进行网络打通,包括数据库实例具备公网IP,天翼云DTS实例具备公网IP。 准备工作 1. 准备公网IP 如果存在可用的公网IP,则可跳过本环节,否则用户需先自行通过天翼云官网购买对应资源池(目前支持上海36/华东1/西南1/华北2/长沙42/杭州7)的EIP资源,相关操作可参考申请弹性IP文档。 2. 准备RDS for MySQL 如果存在可用的RDS for MySQL实例,则可跳过本环节,否则用户需先自行通过天翼云官网购买对应资源池(目前支持上海36/华东1/西南1/华北2/长沙42/杭州7)的数据库实例,相关操作可参考天翼云关系数据库MySQL版创建实例文档。 3. 本地数据库绑定公网IP 用户本地数据库绑定公网IP,具体操作步骤及方法取决于用户本地网的架构,天翼云不做具体说明。 4. 本地数据库添加白名单 本地数据库需要添加DTS实例配置的公网IP远程访问数据库的权限。本地数据库添加白名单的方法取决于用户本地网的架构,天翼云不做具体说明。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        本地MySQL迁移到RDS for MySQL
        概述
      • 监控与审计
        云资源审计 弹性云主机已接入天翼云云审计供您免费使用,为您提供统一的云资源配置历史追踪、配置合规审计,帮助您支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 云审计可检测当前天翼云账号和所有 IAM 用户的操作记录,可记录通过天翼云控制台、OpenAPI访问和使用云上产品和服务的日志数据。具体支持的云服务审计事件,请参见++支持审计的云产品及关键操作列表++。 云审计默认为您记录最近7天的事件。如需保存更长时间的日志,则需要创建跟踪,将产生的时间记录到日志审计(原生版)或对象存储ZOS。详细操作,请参见云审计++配置事件追踪器++ 当您将事件投递到日志审计(原生版)或对象存储ZOS后,可以通过日志审计(原生版)或对象存储ZOS查询或分析事件。 流日志和流量镜像作用 流量镜像(Traffic Mirror)功能可以将网络流量从某一云服务器的网卡镜像到其他指定的云服务器的网卡上,以便于应用到内容检查、监控分析、问题排查等场景。流量镜像主要是镜像并筛选出符合条件的流量,因此它可以在不影响网络性能的情况下,捕获和记录网络流量,帮助管理员诊断网络故障、检测网络攻击等。更多信息,请参见++流量镜像概述++ 。
        来自:
        帮助文档
        弹性云主机 ECS
        安全合规
        监控与审计
      • 数据库使用许可协议
        12 隐私权保护 天翼云不收集客户在TeleDB数据库中存储的信息。为了更好地改进产品和服务,用户同意天翼云代理可以收集、维护、处理和使用客户在使用本产品过程中产生的诊断性、技术性、使用及相关信息, 包括但不限于定期搜集系统日志、独特的系统或硬件识别码(“诊断信息”)。为便于本公司和第三方开发商改善其设计配合本产品使用的产品、硬件和服务,本公司并可向任何此类伙伴或第三方开发商提供与该伙伴或第三方开发商的产品、硬件和/或服务有关的诊断信息子集。如根据有关法律法规的规定导致天翼云不得再按照上述方式处理诊断信息,天翼云将按照有关法律法规的规定变更数据处理方式,并将通过满足法律法规的要求且在商业上合理的方式通知您,并获得您的同意。 13 免责与责任限制 1. 本产品经过详细的测试,但不能保证与提供的技术清单外的,所有的软硬件系统完全兼容,不能保证本产品完全没有错误。 2. 使用本产品风险由用户自行承担,在适用法律允许的最大范围内,对因使用或不能使用本产品所产生的损害及风险,包括但不限于直接或间接的数据丢失、个人损害、商业赢利的丧失、贸易中断、商业信息的丢失或任何其它经济损失,本公司不承担任何责任。 3. 对于因电信系统或互联网网络故障、计算机故障或病毒、信息损坏或丢失、计算机系统问题或其它任何不可抗力原因而产生损失,本公司不承担任何责任。 4. 用户违反本协议规定,对本公司造成损害的。本公司有权采取包括但不限于中断使用许可、停止提供服务、限制使用、法律追究等措施。 5. 对于从非本公司指定站点下载的本产品以及从非本公司发行的介质上获得的本产品,本公司无法保证该产品是否感染计算机病毒、是否隐藏有伪装的木马程序或者黑客产品,使用此类产品,将可能导致不可预测的风险,建议用户不要轻易下载、安装、使用,本公司不承担任何由此产生的任何法律责任。 6. 本《协议》所述明示担保,为担保的全部内容。在适用法律所允许的最大范围内,天翼云及其供应商提供的本“产品”和支持服务(如有)均为按现状及包含所有瑕疵状况下提供,不允诺其它不论是明示的、暗示的还是法定的任何保证和担保:包括但不限于本“产品”对特殊应用目的适销性或适应性,反应的精确性,结果的完整性,不含病毒及疏忽,针对本“产品”提供或不提供支持服务。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        政策及其它
        数据库使用许可协议
      • ALM-19012 HBase系统表目录或文件丢失
        本章节主要介绍ALM19012 HBase系统表目录或文件丢失的告警。 告警解释 系统按120秒周期性检测HBase在HDFS上的如下目录和文件是否存在,当检测到文件或者目录不存在时,上报该告警。当文件或目录都恢复后,告警恢复。 检查内容: 命名空间hbase在HDFS上的目录。 hbase.version文件。 hbase:meta表在HDFS上的目录、.tableinfo和.regioninfo文件。 hbase:namespace表在HDFS上的目录、.tableinfo和.regioninfo文件。 hbase:hindex表在HDFS上的目录、.tableinfo和.regioninfo文件。 hbase:acl表在HDFS上的目录、.tableinfo和.regioninfo文件(该表在普通模式集群默认不存在)。 说明 若集群启用了多实例功能且安装了多个HBase服务,请根据“定位信息”的“服务名”值来确定具体产生告警的HBase服务。例如HBase1服务不可用,则“定位信息”中显示服务名HBase1,处理步骤中的操作对象也应由HBase调整为HBase1。 告警属性 告警ID 告警级别 是否自动清除 19012 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 HBase服务重启/启动失败。 可能原因 HDFS上的文件或者目录缺失。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19012 HBase系统表目录或文件丢失
      • 产品定义
        本文为您介绍密钥管理服务的定义及产品架构。 密钥管理服务(Key Management Service,KMS)是一站式密钥管理和数据加密服务平台,提供安全合规、可靠易用的资源托管及密码运算服务。同时与天翼云云硬盘、对象存储、弹性文件、关系型数据库MYSQL等云产品无缝集成,实现云上原生数据的加密保护。 产品架构 业务组件 业务组件 说明 参考文档 密钥管理 密钥管理组件提供密钥安全托管存储、生命周期管理以及密码运算能力。您可以在自建应用程序中,通过KMS提供的云原生接口实现数据加解密、签名验签等运算,同时KMS已对接天翼云云硬盘、对象存储、弹性文件、关系数据库MySQL版,为云服务提供服务端加密能力。 密钥管理概述 证书管理 证书管理组件提供高可用、高安全的密钥和证书托管能力,您可以通过KMS提供的云原生接口实现签名验签运算。 证书管理概述
        来自:
        帮助文档
        密钥管理
        产品介绍
        产品定义
      • 步骤一:创建实例
        在使用天翼云关系型数据库MySQL前,您需要先创建实例。本文为您详细介绍如何创建天翼云关系数据库MySQL版实例。 背景信息 您可以根据业务需要定制相应计算能力和存储空间的关系型数据库实例,其中,计费模式支持包年包月(包周期)和按需计费。 创建实例时,系统默认开启自动备份策略。 实例创建成功后,您可以根据实际情况修改,具体操作,请参见修改备份策略。 数据库端口默认为13049。您也可在订购页自定义端口。 实例创建成功后,您可以根据实际情况修改,具体操作,请参见修改数据库端口。 操作步骤 1. 进入数据库实例订购页面。 方法一: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 注意 如需要对II 类型资源池广州4、苏州进行实例创建和管理,需要先在控制台的实例列表页面的左上角单击数据库资源池切换,并选择对应的资源池,然后进行管理和订购等操作。 3. 在实例列表上方,单击创建实例,进入数据库实例订购页面。 方法二: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击立即开通,进入数据库实例订购页面。 2. 在顶部菜单栏,选择区域和项目。 2. 根据实际情况,配置如下实例相关参数。 模块 参数 描述 基本信息 组件引擎和版本 选择数据库组件引擎和版本: 说明 选用MySQL数据库时,请根据实际业务需求选择合适的数据库引擎版本。建议您选择当前可用的最高版本数据库,因其性能更稳定,安全性更高,使用更可靠。 引擎:MySQL 版本:5.7或者8.0 基本信息 区域 租户当前所在区域。支持在顶部菜单栏左上角切换到其他区域。 注意 不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 基本信息 计费模式 选择计费模式: 包年/包月:若选择该模式,则按照购买时长进行计费,一次性扣除。 按需计费:若选择该模式,则会从余额中进行扣除费用。 基本信息 模式 选择实例模式: 非MGR:实例类型可以选择单机版、一主一备和一主两备。 MGR:模式选择MGR后,实例类型默认只能选择一主两备 。更多MGR集群信息,请参见MGR集群。 基本信息 实例类型 根据具体的业务需求选择对应的实例类型。详细的实例类型信息,请参见实例类型。 基本信息 可用区 选择实例所在的可用区。针对支持多可用区的资源池,您可以将订购的非单机版实例节点分布在不同的可用区,即跨可用区部署实例。一个可用区不受其他可用区故障的影响,保证您数据库服务的可用性。 注意 跨可用区功能仅II类型资源池中的部分资源池支持,I类型资源池不支持该功能,以订购页实际显示为准。更多资源池信息,请参见功能概览。 规格与存储 CPU类型 部分资源池提供了X86和ARM架构,具体资源池加载情况以实际受理页为准。 规格与存储 性能类型 支持选择通用型、计算增强型和内存优化型的主机类型。关于各主机类型具体说明和适用场景,请参见实例规格。 说明 对应的主机类型提供对应六代机或七代机,目前七代机的表现整体优于六代机。 规格与存储 性能规格 选择实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 创建成功后,支持进行规格变更。 规格与存储 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。具体存储类型差异,请参见实例存储类型。 规格与存储 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。存储空间支持100GB到32TB,您选择的容量大小必须为10的整数倍。 存储空间自动扩展:可选择开通自动扩容,开通后实例将根据选择的阈值进行自动扩展,无需担心空间满问题,建议扩容上限值设置大一些,以备不时之需。 磁盘加密:可选择磁盘是否加密,有效保护数据安全,此项功能仅支持在订购时进行设置,在控制台暂不支持设置。 注意 磁盘加密功能仅II类型资源池中的部分资源池支持,I类型资源池不支持该功能,以订购页实际显示为准。更多资源池信息,请参见功能概览。 规格与存储 备份空间 如果备份类型是云硬盘方式,备份空间大小需要大于等于存储空间。 如果备份类型是对象存储方式,默认会赠送和订购时选择的存储空间大小相等的对象存储空间。 注意 对象存储方式仅II类型资源池中的部分资源池支持,I类型资源池不支持该方式,以订购页实际显示为准。更多资源池信息,请参见功能概览。 免费备份空间额度仅与首次购买的存储空间大小绑定,后续扩容不额外增加免费额度。 备份空间实际用量超过免费额度时,系统将自动对超出部分按标准费率计费。 企业项目 企业项目 企业项目权限实现细粒度控制。将云资源、企业成员按企业项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用企业项目内云资源的权限受用户组的权限限制。 网络 虚拟私有云 关系数据库MySQL版实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。如何创建虚拟私有云,请参见创建虚拟私有云VPC。 如果没有可选的虚拟私有云,关系型数据库服务默认为您分配资源。 注意 目前关系数据库MySQL版实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 网络 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效,创建关系数据库MySQL版实例的子网默认开启DHCP功能,不可关闭。 创建实例时关系数据库MySQL版会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址可修改。 网络 IP地址 创建实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址不可修改。 注意 手动输入指定IP地址功能仅II类型资源池支持,I类型资源池不支持该功能,以订购页实际显示为准。更多资源池信息,请参见功能概览。 网络 安全组 安全组限制实例的安全访问规则,加强关系数据库MySQL版服务与其他服务间的安全访问。请确保所选取的安全组允许客户端访问数据库实例。 如果不创建安全组或没有可选的安全组,关系数据库MySQL版服务默认为您分配安全组资源。 集群配置 实例名称 长度为4~64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 集群配置 设置密码 您可以在订购的时候设置密码,也可以选择在创建后进行设置密码,提高订购开通效率。 集群配置 管理员账号 数据库的登录名默认为root。 集群配置 管理员密码 长度为8~26位,需为字母、数字和特殊字符~!@
        来自:
        帮助文档
        关系数据库MySQL版
        快速入门
        通过内网连接MySQL实例
        步骤一:创建实例
      • ALM-19007 HBase GC时间超出阈值
        本章节主要介绍ALM19007 HBase GC时间超出阈值的告警。 告警解释 系统每60秒周期性检测HBase服务的老年代GC时间,当检测到HBase服务的老年代GC时间超出阈值(默认连续3次检测超过5秒)时产生该告警。 在FusionInsight Manager首页,用户可通过选择“运维 > 告警 > 阈值设置> HBase > GC > GC中回收old区所花时长”修改阈值。 当HBase服务的老年代GC时间小于或等于阈值时,告警恢复。 说明 若集群启用了多实例功能且安装了多个HBase服务,请根据“定位信息”的“服务名”值来确定具体产生告警的HBase服务。例如HBase1服务不可用,则“定位信息”中显示服务名HBase1,处理步骤中的操作对象也应由HBase调整为HBase1。 告警属性 告警ID 告警级别 是否自动清除 19007 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 老年代GC时间超出阈值,会影响到HBase数据的读写。 可能原因 该节点HBase实例内存使用率过大,或配置的堆内存不合理,或HBase存在大量的IO操作,导致进程GC频繁。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19007 HBase GC时间超出阈值
      • 概述
        本章节为您简单介绍数据安全运营中心内容。 天翼云数据安全运营中心是一个针对大数据汇聚、流动及交换共享过程中产生的数据安全风险推出的数据全流域安全管控方案,管控平台利用复杂系统建模方法和大数据智能分析,提供流动数据风险治理、数据安全合规监管能力。从数据、接口、人员三个视角建立规则模型,对数据归集、处理、共享、交换场景下的数据风险进行全域治理和合规监管,对发现的网络风险和数据安全风险进行及时预警和通报,建立适应数据动态流动的安全管控机制。 以管控平台为基础工具,可以建立数据层面从【资产识别】→【风险分析】→【监测预警】→【响应处置】→【工单管理】的数据安全监督管控闭环。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据安全运营中心
        概述
      • 续订与退订
        本页为您介绍数据库专家服务的续订和退订。 续订 数据库专家服务产品不提供续订功能。用户退订产品后、或订购产品到期后,如需继续使用数据库专家服务可重新订购。 退订 基础服务和保驾护航服务 客户在天翼云数据库专家团队进行服务实施前均可发起退订,天翼云无条件退还全部费用(现阶段退订暂不能在页面发起,如需退订请联系客服)。 一旦已进入服务实施阶段不允许退订,不退还费用。 若在评估阶段因天翼云原因评估未通过的,由天翼云通知客户并处理退订。 数据库增值服务包 客户在服务完成前均可发起退订,天翼云按服务订购时间和订购的时长计算剩余的服务天数,按天折算退还剩余费用。
        来自:
        帮助文档
        数据库专家服务
        购买指南
        计费说明
        续订与退订
      • 开源组件端口列表
        配置参数 默认端口 当前配置端口 端口说明 hbase.master.port 16000 16000 HMaster 服务绑定端口 hbase.master.info.port 16010 16010 HMaster webUI绑定端口 com.sun.management.jmxremote.port 10101 HMaster jmx端口 hbase.regionserver.port 16020 16020 regionserver 服务绑定端口 hbase.regionserver.info.port 16030 16030 regionserver webUI绑定端口 com.sun.management.jmxremote.port 10102 regionserver jmx端口 hbase.zookeeper.peerport 2888 2888 zk 服务端口 hbase.zookeeper.leaderport 3888 3888 zk 选举leader端口 hbase.zookeeper.property.clientPort 2181 2181 连接zk client端口 hbase.rest.port 8080 8080 hbase rest server 端口 hbase.status.multicast.address.port 16100 16100 hbase 多播端口
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问组件Web页面
        开源组件端口列表
      • 1
      • ...
      • 4
      • 5
      • 6
      • 7
      • 8
      • ...
      • 371
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      AI Store

      模型推理服务

      推荐文档

      云课堂 第五课:CC攻击介绍及如何防御

      慢查询日志

      文档下载

      价格

      全面了解天翼云⑤:勒索病毒尝试处理方案

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号