云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云物融合_相关内容
      • 安装包与系统版本不匹配导致安装失败
        当安装包与系统版本不匹配导致安装失败时,您可以参考本文,查看问题现象、原因和解决方案。 问题现象 安装dcp控制体出现安装报错,执行删除冲突的安装包,但删除不了。 原因分析 安装包与操作系统版本不一致,操作系统版本过高导致的。 解决方案 升级安装包,使其匹配操作系统版本。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        安装包与系统版本不匹配导致安装失败
      • Teledb管控服务安装部署
        填写机器的IP PUSHGATEWAYUSERNAMEadmin PUSHGATEWAYPASSWORD[ENCRYPTIONencryption]XhGs6BZulfxSto9l ENABLEEVENTALARMfalse ALARMPUSHURL 填写机器的IP ALARMTYPEID18 执行如下命令修改配置文件ossinit.conf vim ossinit.conf 这文件就改控制台安装目录这一个地方,其他不用动 cat ossinit.conf PGXZOSUSERteledbx PGXZOSPSWD'4MPhD%gKeNMy' PGXZOSHOME/app/teledbx 只修改这里的安装目录 if [ $(cat /etc/systemrelease grep i centos wc l) "1" ]; then PGXZOSNAMEcentos else PGXZOSNAMEctyunos fi PGXZOSBINDIR${PGXZOSHOME}/install PGXZOSDATADIR${PGXZOSHOME}/data CONFDBOSDATADIR${PGXZOSHOME}/confdb PGXZOSETHeth${PGXZOSUSER} PGXZYUMDIR$(cd ../teledbxmirror; pwd) PGXZYUMPORT8018 5. 安装控制台 执行如下命令安装控制台。 su teledb cd /app/teledbconsole centos.x8664/teledbxmgr/ sh teledbxmgr.sh install 安装过程中出现选项,输入Y即可。 当出现如下回显信息,表示安装成功。 安装后验证 1. 打开浏览器访问dcp地址: 2. 能访问,并登录表示安装成功。 卸载服务 执行forceclean.sh脚本,可卸载服务。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        Teledb管控服务安装部署
      • 数据库资源与生命周期服务控制台安装部署
        ip nginxDir"/usr/local" 路径 rontHttpsPort9083 端口 prometheusVersion"prometheus2.31.1.linuxamd64" pushgatewayVersion"pushgateway1.4.2.linuxamd64" alertManagerVersion"alertmanager0.23.0.linuxamd64" opengateway openGatewayAdminPort9014 端口 openGatewayCorePort9013 端口 openApiHttpPort7084 端口 openGatewayCoreHost"" 部署 IP 地址 openapiTenantId11 openapiUserId11 openapiCloudTypeprivatecloud mysql init initMysqlUserroot 控制台公共库 root 用户 initMysqlBin"/teledb/teledb8801/bin/mysql" 控制台公共库路径 initMysqlUserPwd"" root 的密码 3. 执行deploy.sh脚本 执行如下命令。 cd /app/teledbdcpdeploy/deploy/mysql vi inituser.sql 修改inituser.sql文件中创建数据库用户密码,使其与dcp密码一致。 输入 :wq!保存退出。 vi deploy.sh 单节点公共库填写ps efgrep mysql查询sock路径,高可用公共库需要填写VIPIP和端口,通过该命令查询:h VIPIP p端口 执行如下命令,执行deploy.sh脚本 sh deploy.sh 4. 执行控制台服务脚本deploydcp.sh 执行如下命令 sudo sh deploydcp.sh 启动web和gateway服务 sudo systemctl start teledbdcpweb sudo systemctl start teledbdcpapigateway 执行如下命令,检查是否启动。 sudo systemctl status teledbdcpweb sudo systemctl status teledbdcpapigateway 5. 验证前端是否部署完成 curl k 如果是服务器重启,nginx 需要手动启动: /usr/local/nginx/sbin/nginx c /usr/local/nginx/conf/nginx.conf 6. 启动相关服务 执行如下命令,运行prometheus 的脚本 deploypromethues.sh sudo sh deploypromethues.sh 执行如下命令,启动prometheus 相关服务 sudo systemctl start prometheus sudo systemctl start alertmanager sudo systemctl start pushgateway 执行如下命令查看服务情况 sudo systemctl status prometheus sudo systemctl status alertmanager sudo systemctl status pushgateway
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        数据库资源与生命周期服务控制台安装部署
      • 提交工单显示主机cpu或者内存不足
        本文为您介绍提交工单显示主机cpu或者内存不足的问题现象、问题原因和解决方案。 问题现象 提交工单时提示主机资源不足。 原因分析 通过查看错误日志发现需要的主机资源远超主机本身规格,实例主机规格是(96C256G),内存不够。 但是统计发现实例主机使用的资源是192G,与dcp计算的相差甚大。 解决方案 调整配置库的cgroupcluster表数据,降低比例。 use dcp select oversalerate from cgroupcluster update cgroupcluster set oversalerate200;
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        提交工单显示主机cpu或者内存不足
      • 实例服务器初始化及实例开通
        安装后验证 服务器上架成功,实例开通成功,确认部署完成。 卸载服务 1. 删除实例: 在控制台停止实例、删除实例,具体步骤参见用户手册。 2. 如需卸载环境 1. 下架服务器,下架前确保没有实例部署在服务器上。 2. 停止服务器上的Agent服务。 3. 清空数据目录。 4. 删除teledb账号。 5. 回收服务器。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        实例服务器初始化及实例开通
      • Teledb公共库安装部署
        该任务用于指导软件工程师安装部署teledb公共配置库。 前提条件 已初始化环境。 操作步骤 请您参照如下步骤安装teledb公共库。 1. 上传部署包 上传monitor 控制台安装包:teledbtelemonitor . tar到/app 目录下的teledb目录。 2. 解压部署包执行如下命令解压monitor控制台部署包 tar zxvf teledbtelemonitor .tar.gz C /app/teledb 3. 手动安装部署依赖(单节点只需初始化部署主机,高可用需要初始化每一台主机) 执行如下命令,进入package/envinit/x86目录。 cd package/envinit/x86 执行如下命令,解压部署包。 tar zxvf envInitx86.tar.gz 得到如下目录: envInit/ envInit/installjdk.sh envInit/jdk/ envInit/jdk/jdk8u201linuxx64.tar.gz envInit/sshpass1.062.el7.x8664.rpm envInit/pv1.4.61.el7.x8664.rpm envInit/lz41.7.53.el7.x8664.rpm envInit/libaio0.3.10913.el7.x8664.rpm 执行如下命令,安装jdk。 cd envInit/ sh installjdk.sh 出现如下回显信息,表示安装成功。 install and config java success. 安装成功后,执行如下命令更新环境变量。 source /etc/profile 执行如下命令安装部署依赖。 rpm ivh force nodeps nosignature libaio0.3.10913.el7.x8664.rpm rpm ivh force nodeps nosignature lz41.7.53.el7.x8664.rpm rpm ivh force nodeps nosignature pv1.4.61.el7.x8664.rpm rpm ivh force nodeps nosignature sshpass1.062.el7.x8664.rpm (可选)执行如下命令,检查perl是否安装。 yum install y perl 4. 部署monitor控制台 执行如下命令,进入目录 cd /app/teledb cd consoledeploy/conf/ Vi tele.ini 参考如下内容,修改tele.ini配置文件 ;package and directory info [package] ;cputype 填写范围 ,指预置区的芯片类型 x86、arm CPUTYPEx86 PACKAGEMAINDIR/app
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        Teledb公共库安装部署
      • 数据安全保障机制
        数据库安全保障是指通过一系列安全措施加强对数据库安全进行防护。数据库安全配置核心在对数据库进行访问控制、数据加密、审计、数据脱敏和数据库备份与恢复等安全管理策略,确保数据的完整性、机密性、可用性、可控性和可审查性。 访问控制 TeleDB支持通过设有用户权限控制和强制访问控制,对不同对象有不同的访问来控制权限,确保数据安全。它主要包括自主访问权限控制和强制访问控制。 自主访问控制 :TeleDB支持自主赋予不同用户角色操作控制权限和提供对数据库资源(实例、表、视图等)细粒度权限控制能力。 强制访问控制: 提供更细粒度的访问控制,即行级的访问控制。 自主访问控制具体实施方案请参考《TeleDB安全配置手册》中“自主访问控制”章节。 强制访问控制具体实施方案请参考《TeleDB安全配置手册》中“强制访问控制”章节。 数据加密 TeleDB支持通过数据加密来确保只有授权的用户才能访问敏感信息,防止个人信息泄露。数据加密是一种将原始数据转换成不可读格式的过程。通过数据加密可以确保只有授权的用户才能访问存储在设备或数据库中的敏感信息,防止个人信息泄露。TeleDB支持三种数据加密方式,分别为透明存储加密、通信加密和全密态加密。 透明存储加密方式(Transparent Data Encryption, TDE)是一种保护数据库中静态数据的加密技术,使数据在存储时自动加密,有助于防止未授权访问和数据泄露。透明存储加密的特点是数据在加密和解密过程对应用程序透明,该过程中应用程序无需进行任何修改,从而简化了实施流程。加密操作(函数调用)与业务侧解耦合,业务只负责传递原始数据到数据库内核,后续的加密计算在数据库内部完成,从而业务侧操作上无感知。具体实施方案请参考《TeleDB安全配置手册》中“透明存储加密”章节。 通信加密是指基于传输层SSL(Secure Sockets Layer)协议加密的加密方式。SSL加密是一种安全协议,用于在互联网上建立一个加密的链接,来确保数据传输的安全性。具体实施方案请参考《TeleDB安全配置手册》中“通信加密”章节。 全密态加密是一种数据加密技术,‌旨在确保数据在整个生命周期(‌包括传输、‌运算和存储)‌中始终保持加密状态,‌从而保护数据隐私。‌这种加密技术不仅涉及到数据的存储加密,‌还包括数据在处理过程中的加密,‌确保即使在数据传输和计算过程中,‌攻击者也无法获取有效的数据信息。‌全密态加密技术的实现依赖于特定的密钥管理机制,‌包括客户端主密钥(‌CMK)‌和数据加密密钥(‌CEK)‌的使用,‌其中CMK用于加密CEK,‌而CEK则用于加密用户数据,‌从而形成一个完整的数据加密体系。具体实施方案请参考《TeleDB安全配置手册》中“全密态加密”章节。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        数据安全保障机制
      • TeleDB同城双中心容灾部署
        双中心容灾部署是指在同一个城市内建立两个数据中心,其中一个作为主数据中心,负责日常的生产运行,而另一个作为灾备中心,用于在主数据库中心出现故障时接管业务,保证业务的连续性和数据完整性。 同城双中心容灾部署方案 同城双中心部署方案建议采用至少一主两从的三节点的方式,它包括两个物理机房,分别是同城IDC1机房和同城IDC2机房。同城IDC1机房为主中心采用一主一从两组节点,同城IDC2机房至少部署1个一组从节点为同城中心,其中主中心负责主要的业务处理,而同城中心则作为备份,提供数据冗余和故障恢复能力。三组节点分布在同城两个IDC机房里,机房之间使用专线互通,通过这种方式,即使主中心发生故障,同城中心也可以接管部分或全部业务,保证业务的连续性和数据的完整性。 若业务需要使用TeleDB的HTAP能力,那么必须开启TeleDB的读写多平面特性。考虑到跨机房的时延,同城IDC2机房建议只开启只读平面。在TeleDB集群中,同一平面的CN节点是对等的,由于LVS等负载均衡的组件,具备故障节点自动剔除的能力,可以保证在任意平面的CN故障时,业务请求不会失败;GTM节点以及DN节点均有同步备机存在,TeleDB在运维管理系统的辅助下,会在1分钟以内发现故障,并发起自动切换,数据保证0丢失。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB容灾部署方案架构
        TeleDB同城双中心容灾部署
      • TeleDB数据管理服务
        本文为您介绍组成TeleDB管控数据管理服务的元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块。 TeleDB管控数据管理服务由元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块组成。它旨在为企业提供一套全面的数据管理解决方案,包括数据的存储、访问、分析和安全等核心环节。通过TeleDB管控数据管理模块,企业可以实现对数据的集中式管理和存储,从而简化了数据的访问和检索过程。 元数据管理模块 :提供对实例、数据库、模式、表和可编程对象等各级数据库对象的元数据管理,在数据库的创建、编辑、删除等常规操作需提供界面化操作支持,可以实时同步数据库的元数据信息。 查询窗口模块 :数据库开发者常用功能,提供功能丰富的SQL输入框,包括语法提示、脚本保存以及结果集的返回,支持对结果集进行界面可视化编辑进行数据更新。 数据导入导出模块 :支持多种文件格式的数据导入到数据库,以及从数据库中导出数据。支持的文件格式为:sql、txt和csv。支持不同层级的数据导入导出,分别支持库/模式以及表级的数据导出。同时,也支持不同层级数据库对象的结构导出。 慢查询分析 :慢查询统计、索引推荐主要和管控实例交互获取,慢查询分析、语句优化主要和业务实例交互获取,性能容量评估操作建议可联动慢查询分析,进行服务调用,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 性能容量评估 :性能容量评估的监控指标数据主要和管控实例交互获取,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 会话管理 :会话管理通过业务实例获取全局会话和异常会话的信息,并提供部分会话、全部会话的终止功能,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 锁分析: 锁分析通过管控实例获取到业务实例最近一次发生死锁的信息,获取到死锁的事务环信息和回滚的事务信息并展示说明,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB数据管理服务
      • 分布式事务全局一致性
        分布式数据库通过在不同物理位置的多个节点上存储数据来提高系统的可用性和可扩展性。而分布式事务则需要确保这些节点上数据的一致和完整。 分布式事务全局一致性面临挑战 为实现分布式事务全局数据一致性,我们将面临如下挑战: 数据分散 分布式事务需要满足事务的ACID的特性,而业务数据分散存储在网络中的多个节点上。因此,分布式数据库在进行事务的分发,协同多节点完成业务请求过程中,如何确保所有节点上数据同步更新将是一大挑战。 网络延迟与故障 跨网络多节点需要协调配合,协调能否正常、顺利作业是关键,这决定了业务数据的一致性和请求响应的及时性。网络时延、异常、主机故障和操作系统调度异常等不确定因素,都会给分布式事务一致性带来诸多挑战。而数据库需要在异常发生后,能够快速自愈,并能保证异常期间事务的完整性(不出现数据丢失、错乱)和一致性将又是另一大挑战。 并发控制 在多个事务并发执行时,如何避免数据冲突和死锁也是一大难题。 分布式事务全局一致性实现策略 TeleDB引入全局事务管理节点(GTM),专门处理分布式事务一致性工作。它通过全局时钟(Global Timestamp)和两阶段提交(Two Phase Commit)两种策略,使分布式环境下的事务保持一致成为可能。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式事务全局一致性
      • Java应用实践
        连接池 应用侧可以通过 maximumPoolSize配置连接池最大连接数,可以通过minimumIdle配置连接池最小空闲连接数,需要根据自身情况配置合适的连接池大小。 分布式数据库HTAP 默认不会主动关闭客户端连接(除非报错),但是也需要探活连接,可以在每次使用连接前检查连接是否可用,或者定期发送 test query 保活连接等方式进行探活。 数据库访问框架 可以使用目前比较流行MyBatis数据访问框架管理 SQL 并完成结果集和 Java 对象的来回映射工作。 如果希望从MyBatis中读取超大结果集合时可以使用带 ResultHandler的查询接口来避免一次获取整个结果集,或者使用Cursor 类来进行流式读取等。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        Java应用实践
      • 创建集群
        响应示例 请求成功示例: { "statusCode": 200, "message": "success", "returnObj": { "orderNo": "20221018153152727265" } } 验签失败示例: { "statusCode": 500, "error": "EMR401000", "message": "OpenAPI认证失败", "returnObj": {} } 实名认证失败示例: { "statusCode": 500, "error": "EMR401009", "message": "账号未进行实名认证", "returnObj": {} } 非法操作示例: { "statusCode": 500, "error": "EMR401004", "message": "非法操作", "returnObj": {} } 请求参数类型错误示例: { "statusCode": 500, "error": "EMR401001", "message": "请求参数类型错误", "returnObj": "{"clusterName": "应为字符串"}" } 请求参数值无效示例1: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"clusterName": "不能为空"}" } 请求参数值无效示例2: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"clustertype": "集群类型不存在:xxx"}" } 规格不足示例: { "statusCode": 500, "error": "EMR401012", "message": "规格已售罄", "returnObj": {} } IP不足示例: { "statusCode": 500, "error": "EMR401013", "message": "子网下IP余量不足", "returnObj": {} } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        创建集群
      • 元数据概览
        参数 是否必填 参数类型 说明 示例 下级对象 clusterId 是 String 集群id da595eb1d81503b323fdc01d9bf786b7 timestamp 是 Long 要查询的时间点,以 Unix 时间戳表示(单位:秒) 1700000000
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        元数据概览
      • Kafka性能调优
        本章节主要介绍Kafka的最佳实践。 1. 体系结构概述 Kafka主题用于对记录进行组织。记录由生产者生成,由消费者使用。生产者将记录发送到 Kafka 代理,后者存储数据。 主题跨代理对记录进行分区。在使用记录时,每个分区最多可使用一个消费者来实现数据并行处理。 复制用于在节点之间复制分区。这可以防止节点(代理)发生服务中断。将副本组之间的单个分区指定为分区领导者。生产者流量将根据由ZooKeeper管理的状态路由到每个节点的领导者。 2. 调优方案选择 Kafka性能体现在两个主要方面:吞吐量和延迟。吞吐量是指数据的最大处理速率,通常吞吐量越高越好。延迟是指存储或检索数据所花费的时间。通常,延迟越低越好。在吞吐量、延迟和应用基础结构的开销方面找到适当的平衡可能会有难度。 根据追求的是高吞吐量、低延迟还是此两者,性能要求可能符合以下三种常见情况中的一种: 高吞吐量,低延迟。此方案要求同时满足高吞吐量和低延迟(大约100毫秒)。服务可用性监视就是这种应用场景的一个例子。 高吞吐量,高延迟。此方案要求满足高吞吐量(大约1.5 GBps),但可以容许较高的延迟(< 250 毫秒)。这种应用场景的一个例子是引入遥测数据进行近实时的处理,例如安全与入侵检测应用程序。 低吞吐量,低延迟。此方案要求提供低延迟(< 10毫秒)以完成实时处理,但可以容许较低的吞吐量。在线拼写和语法检查就是这种应用场景的一个例子。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        Kafka性能调优
      • ES集群规划、性能优化
        批量写入 使用批量 API 进行写入操作,以减少网络开销。在高吞吐量写入场景中,可以适度增加 Refresh 间隔,减少索引刷新操作,提高写入性能。示例如下: POST /myindex/doc/bulk { "index": {}} { "field1": "value1" } { "index": {}} { "field2": "value2" } 索引刷新 避免频繁的索引刷新,可以适当调整 Refresh 间隔以平衡写入和查询性能。示例如下: PUT /myindex/settings { "refreshinterval": "30s" } 查询优化 查询性能 使用查询DSL进行复杂查询,以充分利用 Elasticsearch 的强大功能。 使用索引别名和索引模板来优化查询,示例如下: GET /myindex/search { "query": { "bool": { "must": [ { "match": { "productname": "apple" }}, { "range": { "price": { "gte": 100 }}} ] } } } 分页查询 使用游标(Scroll)进行大数据量分页查询,避免深度分页带来的性能问题。示例如下: POST /myindex/search?scroll5m { "query": { "matchall": {}}, "size": 100 } 硬件和监控 硬件选择 选择高性能硬件,特别是快速的磁盘和足够的内存。 使用 SSD 硬盘来提升索引和查询性能。 监控和警报 设置监控指标,如集群健康、节点状态、资源使用等。 使用监控工具持续监测集群,并设置警报以便在出现问题时能及时响应。 安全性
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        ES集群规划、性能优化
      • 扩容集群
        状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        扩容集群
      • 退订集群
        参数 是否必填 参数类型 说明 示例 下级对象 clusterId 是 String 集群id 00c3a04292996955752f073c995a1cc6
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        退订集群
      • 元数据信息查询
        状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        元数据信息查询
      • 使用Trino客户端
        本章节主要介绍使用Trino的操作指导。 操作场景 该任务指导用户使用Trino客户端。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Trino客户端 1. 执行如下命令启动客户端。 plaintext ./trinocliexecutable.jar server catalog hive user presto 2. 执行成功后的客户端界面。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Trino客户端
      • 查询集群节点组详情V2
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码,成功:200,失败:500 200 message String 用来简述当前接口调用状态以及必要提示信息 请求成功 error String 错误码,请求成功时,不返回该字段 EMR400000 returnObj Object 返回结果
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        查询集群节点组详情V2
      • 根据集群id查询节点组信息V2
        状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        根据集群id查询节点组信息V2
      • Kibana用户体验、性能优化
        本章节主要介绍Kibana用户体验、性能优化的最佳实践。 Kibana是一个用于可视化和分析ElasticSearch中数据的强大工具。为了最大化利用Kibana的功能,提高用户体验和数据洞察力,以下是Kibana的一些最佳实践。 1. 仪表盘设计 明确的目标 在创建仪表盘之前,明确您的目标和需求。确定您希望从数据中获得什么样的见解,以便针对性地设计可视化组件。比如假设您是一个电子商务平台的数据分析师,您想要创建一个仪表盘来监控商品销售情况。您的目标是找出最畅销的商品类别和购买趋势。 简洁和重点突出 避免过于拥挤的仪表盘,尽量保持简洁。突出显示关键指标和信息,避免分散用户的注意力。避免在同一个仪表盘中混杂过多的信息,以确保用户专注于关键指标。 2. 可视化 合适的图表类型 根据数据的性质选择合适的图表类型,例如线形图、柱状图、饼图等。确保图表类型能够最有效地呈现数据。比如为了展示商品销售趋势,您可以选择使用折线图。这可以清晰地显示出不同类别的销售额随时间的变化。 轴标签和标题 为图表添加清晰的轴标签和标题,以便用户理解数据的含义。标签应该简洁明了,避免过于技术性的术语。比如在折线图上添加横轴和纵轴标签,分别标明时间和销售额。为图表添加标题,比如“商品销售趋势”。 3. 搜索和过滤
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        Kibana用户体验、性能优化
      • ZooKeeper扩容
        2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)重启FlinkHistoryServer服务,推荐滚动重启。 Kyuubi 1、修改配置 1)前往Manager页面,集群服务> Kyuubi集群> 配置管理> default配置组> 配置文件kyuubidefaults.conf > 配置项kyuubi.ha.addresses。 2)将新的ZK节点,添加到配置项kyuubi.ha.addresses中。 3)相同操作:同时修改client配置组的配置项。 2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)需要重启Kyuubi服务,推荐滚动重启。 HBase 1、修改配置 1)前往Manager页面,集群服务> HBase集群> 配置管理> default配置组> 配置文件hbasesite.xml > 配置项hbase.zookeeper.quorum。 2)将新的ZK节点,添加到配置项hbase.zookeeper.quorum中。 3)相同操作:同时修改client配置组的配置项。 2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)需要重启HBase所有服务,包含HMaster和HRegionServer,推荐滚动重启。 Kafka 警告:Kafka不建议重启,所以不建议修改ZK节点。 原因:Kafka每个节点都是有状态的,每个节点的主分区都不一样,重启会导致业务受影响。 1、修改配置 1)前往Manager页面,集群服务> Kafka集群> 配置管理> default配置组> 配置文件server.properties > 配置项zookeeper.connect。 2)将新的ZK节点,通过vs统一修改3个配置,添加到配置项zookeeper.connect中。 2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)需要重启Kafka所有服务。请谨慎进行Kafka集群的重启操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        Master扩容-服务配置修改建议
        ZooKeeper扩容
      • 开源组件端口列表
        配置参数 默认端口 当前配置端口 端口说明 dfs.namenode.httpaddress.x.x 9870 50070 namenode Web UI绑定端口 dfs.namenode.httpsaddress.x.x 9871 9871 namenode https绑定端口 dfs.namenode.rpcaddress.x.x 8020 54310 namenode响应client请求RPC绑定端口 dfs.namenode.servicerpcaddress.x.x 53310 namenode响应内部服务请求RPC绑定端口,例如datanode等server请求 com.sun.management.jmxremote.port 8006 namenode jmx端口 dfs.datanode.address 9866 1004 datanode 数据传输端口 dfs.datanode.http.address 9864 1006 datanode http webUI端口 dfs.datanode.ipc.address 9867 9867 datanode rpc响应端口 com.sun.management.jmxremote.port 8016 datanode jmx端口 dfs.datanode.https.address 9865 datanode https端口 dfs.journalnode.rpcaddress 8485 8485 journalnode rpc端口 dfs.journalnode.httpaddress 8480 8480 journalnode http端口 dfs.journalnode.httpsaddress 8481 8481 journalnode https端口 com.sun.management.jmxremote.port 8046 journalnode jmx端口 dfs.ha.zkfc.port 8019 8019 zkfc rpc端口 com.sun.management.jmxremote.port 8056 zkfc jmx端口 dfs.federation.router.rpcaddress 8888 55310 hdfs router 响应client请求 rpc处理端口 dfs.federation.router.adminaddress 8111 hdfs router 响应 admin请求 rpc处理端口 dfs.federation.router.httpaddress 50071 hdfs router http端口 dfs.federation.router.httpsaddress 50072 hdfs router https端口 com.sun.management.jmxremote.port 8106 hdfs router jxm端口
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问组件Web页面
        开源组件端口列表
      • 使用HDFS客户端
        本章节主要介绍使用HDFS的操作指导。 操作场景 该任务指导用户在运维场景或业务场景中使用HDFS客户端。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用HDFS客户端 1. 安装客户端。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行HDFS Shell命令。例如: plaintext hdfs dfs ls /
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用HDFS客户端
      • 使用Kyuubi客户端
        本章节主要介绍使用Kyuubi的操作指导。 前提条件 已安装客户端并且部署了ZooKeeper集群。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Kyuubi客户端 1. 安装客户端。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行命令。例如: 7. plaintext bin/beeline u 'jdbc:subprotocol://host:port' subprotocol:kyuubi or hive2 host: IP address of the kyuubi server
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Kyuubi客户端
      • 使用HBase客户端
        本章节主要介绍使用Hbase的操作指导。 操作场景 该任务指导用户在运维场景或业务场景中使用HBase客户端。 前提条件 已安装客户端。例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 非root用户使用HBase客户端,请确保该HBase客户端目录的属主为该用户,否则请参考如下命令修改属主。 plaintext chown user:group R客户端安装目录/HBase 使用HBase客户端 1. 安装客户端,具体请参考安装客户端章节。 2. 用户登录安装客户端的节点。 3. 执行以下命令切换到客户端目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行HBase组件的客户端命令。 7. plaintext hbase shell
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用HBase客户端
      • 使用Kafka客户端
        本章节主要介绍使用Kafka的操作指导。 操作场景 用户可以在集群客户端完成Topic的创建、查询、删除等基本操作。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Kafka客户端 1. 安装客户端,具体请参考安装客户端章节。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端目录,例如: plaintext cd /opt/hadoopclient/Kafka/kafka/bin 4. 执行以下命令,配置环境变量。 plaintext source /opt/hadoopclient/bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 创建一个Topic。 plaintext sh kafkatopics.sh create topic 主题名称partitions 主题占用的分区数 replicationfactor 主题的备份个数 zookeeper ZooKeeper角色实例所在节点IP地址:clientPort/kafka 7. 执行以下命令,查询集群中的Topic信息。 plaintext sh kafkatopics.sh list zookeeper ZooKeeper角色实例所在节点IP地址:clientPort/kafka 8. 删除创建的Topic。 plaintext sh kafkatopics.sh delete topic 主题名称 zookeeper ZooKeeper角色实例所在节点IP地址:clientPort/kafka 输入 "y",回车。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Kafka客户端
      • 使用YARN客户端
        本章节主要介绍YARN客户端的使用。 操作场景 该任务指导用户在运维场景或业务场景中使用YARN客户端。 前提条件 已安装客户端。例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用YARN客户端 1. 安装客户端。 2. 用户登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行YARN命令。例如: 7. plaintext yarn application list
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用YARN客户端
      • 使用ZooKeeper客户端
        本章节主要介绍使用ZooKeeper的操作指导。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用ZooKeeper客户端 1. 安装客户端并安装了JDK8。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行命令。例如: 7. plaintext zkCli.sh 服务器IP:端口号
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用ZooKeeper客户端
      • 脱密审批流程设置
        本节介绍管理员可以自定义设置脱密申请的审批流程。 云电脑内的加密文件如需外发,需要经过审批,管理员可以自定义设置脱密申请的审批流程。 部门领导审批 1.打开“组织管理”—“审批流程”; 2.点击“分管设置”,设置租户内各个部门的分管人员。部门内用户提交的脱密申请将由分管人员审批。 部门的分管人员若设置了多个,则部门内人员提交的脱密申请,按该部门分管人员列表从上到下的顺序进行审批。 若配置分管人员时发现部门人员与当前组织架构不符,可点击列表右上方的“同步组织机构”进行更新。 除此之外,脱密审批流程支持更加灵活的自定义配置。在“流程配置”中找到企业加密流程,点击“编辑”进行修改。 审批流程设置 当管理员开启了脱密审批功能,系统将自动配置一个默认审批流程规则:默认配置只有一个流程审批节点,审批人为提交人的上级主管(如存在多个主管时默认第一个主管审批,如未配置主管流程会自动通过)。 如果业务需要自定义流程审批规则,管理员可以根据实际情况自行修改审批流程设置。常用的审批节点有6种:流程开始节点、流程结束节点、审批节点、抄送节点、经办节点、汇合点。其中流程开始节点和流程结束节点为系统默认放置的两个节点,不可删除。 下面我们以最常用的审批节点为例进行配置说明。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼加密
        管理员指南
        加密AI云电脑
        脱密审批流程设置
      • Web页面访问类
        修改开源组件Web页面的超时时间 1.进入服务全部配置界面。 MRS 3.x之前版本集群:在集群详情页面,选择“组件管理 > meta > 服务配置”。 MRS 3.x及之后版本集群:登录FusionInsight Manager,选择“集群 > 服务 > meta”,单击“配置”,选择“全部配置”。 2.根据需要修改“meta”下的“http.server.session.timeout.secs”值,单位为秒。 3.保存配置,不勾选“重新启动受影响的服务或实例”并单击“确定”。 重启会影响业务,建议在业务空闲时执行重启操作。 4.可选)若需要使用Spark的Web页面,则需要Spark“全部配置”页面,搜索并修改配置项“spark.session.maxAge”为合适的值,单位为秒。 保存配置,不勾选“重新启动受影响的服务或实例”并单击“确定”。 5.重启meta服务及需要使用Web界面的服务,或者在业务空闲时重启集群。 重启会影响业务,建议在业务空闲时执行重启操作,或使用滚动重启功能,在不影响业务的情况下重启服务。 说明 不支持修改Flink组件Web页面的超时时间。 MRS租户管理中的动态资源计划页面无法刷新怎么办? 以root用户分别登录Master1和Master2节点。 1.执行ps ef grep aos命令检查aos进程号。 2.执行kill 9 aos 进程号 结束aos进程。 3.等待aos进程自动重启成功,可通过ps ef grep aos命令查询进程是否存在,若存在则重启成功,若不存在请稍后再查询。 Kafka Topic监控页签在Manager页面不显示怎么办? 分别登录集群Master节点,并切换用户为omm。 1.进入目录“/opt/Bigdata/apachetomcat7.0.78/webapps/web/WEBINF/lib/components/Kafka/”。 2.拷贝zookeeper包到该目录“cp /opt/share/zookeeper3.5.1mrs2.0/zookeeper3.5.1mrs2.0.jar ./”。 3.重启Tomcat。 sh /opt/Bigdata/apachetomcat7.0.78/bin/shutdown.sh sh /opt/Bigdata/apachetomcat7.0.78/bin/startup.sh
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        Web页面访问类
      • 1
      • ...
      • 251
      • 252
      • 253
      • 254
      • 255
      • ...
      • 273
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      弹性伸缩服务 AS

      训推服务

      应用托管

      科研助手

      智算一体机

      人脸实名认证

      人脸比对

      动作活体识别

      推荐文档

      复制

      创建手动备份

      订购

      常见问题

      普通连接

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号