云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云物融合_相关内容
      • 返回两个结果的交集
        本文介绍如何在使用SELECT语法时,返回两个结果的交集。 teledb select from teledbpg intersect select from teledbpg1; id nickname + 3 pg (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DML操作
        SELECT语法
        返回两个结果的交集
      • 返回两个结果的差集
        本文介绍如何在使用SELECT语法时,返回两个结果的差集。 teledb select from teledbpg except select from teledbpg1; id nickname + 2 TELEDB 4 1 teledb 1 hello,pgxc (4 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DML操作
        SELECT语法
        返回两个结果的差集
      • 视图管理
        本文为您介绍如何管理视图,包括创建视图、删除视图和物化视图使用。 创建视图 teledb create view trangeview as select from trange; CREATE VIEW teledb select from trangeview; f1 f2 f3 ++ 1 20230822 11:06:16.9783 1 2 20230822 11:06:16.9783 50 2 20230822 11:06:16.9783 110 3 20230822 11:06:16.9783 100 (4 rows) 数据类型重定义。 teledb drop view trangeview; DROP VIEW teledb create view trangeview as select f1,f2::date from trange; CREATE VIEW teledb select from trangeview; f1 f2 + 1 20230822 3 20230822 2 20230822 2 20230822 (4 rows) 数据类型重定义,以及取别名。 teledb drop view trangeview; DROP VIEW teledb create view trangeview as select f1,f2::date as mydate from trange; CREATE VIEW teledb select from trangeview; f1 mydate + 1 20230822 2 20230822 2 20230822 3 20230822 (4 rows) TeleDB 支持视图引用表或字段改名联动,不受影响。 teledb d+ trangeview View "teledb.trangeview" Column Type Collation Nullable Default Storage Description ++++++ f1 bigint plain mydate date plain View definition: SELECT trange.f1, trange.f2::date AS mydate FROM trange; teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        视图管理
      • 分区表全局索引
        本文为您介绍如何管理分区表全局索引。 支持创建分区表全局索引,目前仅支持btree索引类型 建表 CREATE TABLE parentrangetbl( c1 int not null, c2 int not null, c3 int not null ) PARTITION BY RANGE (c1); CREATE TABLE part0100 PARTITION OF parentrangetbl FOR VALUES FROM (0) TO (100); CREATE TABLE part100200 PARTITION OF parentrangetbl FOR VALUES FROM (100) TO (200); CREATE TABLE partdefault PARTITION OF parentrangetbl DEFAULT; 插入数据 INSERT INTO parentrangetbl(c1,c2,c3) SELECT generateseries(50, 100) AS c1, generateseries(50, 100) AS c2, generateseries(50, 100) AS c3; 创建全局索引 CREATE INDEX c3globalidx ON parentrangetbl(c3) GLOBAL; 设置不使用seq scan set enableseqscan TO off; 通过全局索引查询数据 EXPLAIN SELECT c3 FROM parentrangetbl WHERE c3 > 70 AND c3 Index Only Scan using c3globalidx on parentrangetbl (cost0.12..8.14 rows9 width4) Index Cond: ((c3 > 70) AND (c3 < 75)) (3 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        索引管理
        分区表全局索引
      • 唯一索引
        本文为您介绍如何创建唯一索引。 创建唯一索引 teledb create unique index tasiduidx on tas using btree(id); CREATE INDEX 非shard key 字段不能建立唯一索引 teledb create unique index tasiduidx on tas using btree(mc); ERROR: Unique index of partitioned table must contain the hash/modulo distribution column.
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        索引管理
        唯一索引
      • 使用 IF NOT EXISTS
        本页为您介绍如何使用使用 IF NOT EXISTS关键字。 带IF NOT EXISTS 关键字作用表示表不存在时才创建。 teledb create table t(id int,mc text); CREATE TABLE teledb create table t(id int,mc text); ERROR: relation "t" already exists teledb create table IF NOT EXISTS t(id int,mc text); NOTICE: relation "t" already exists, skipping CREATE TABLE
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        数据表管理
        使用 IF NOT EXISTS
      • 逻辑分区表
        d+ tnativemullistgd Table "public.tnativemullistgd" Column Type Collation Nullable Default Storage Stats target Description ++++++ + f1 bigint not null nextval('tnativemullistf1seq'::regclass) plain f2 integer plain f3 text extended f4 text extended f5 timestamp(0) without time zone plain Partition of: tnativemullist FOR VALUES IN ('广东') Partition constraint: ((f3 IS NOT NULL) AND (f3 ANY (ARRAY['广东'::text]))) Partition key: RANGE (f5) Partitions: tnativemullistgd201701 FOR VALUES FROM ('20170101 00:00:00') TO ('20170201 00:00:00'), tnativemullistgd201702 FOR VALUES FROM ('20170201 00:00:00') TO ('20170301 00:00:00') Distribute By: SHARD(f1) Location Nodes: ALL DATANODES TeleDB支持存在1级和2级分区混用,大家不需要都平级。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        数据表管理
        逻辑分区表
      • 配置访问模式的顺序
        insert into public.t3 values(1,'test'); INSERT 0 1 由于teledb模式在第一顺位,且存在同名表,所以始终是teledb模式下的空表 teledb select from t3; id content + (0 rows) 指定public模式去查询可以查到插入的数据 teledb select from public.t3; id content + 1 test (1 row) 访问不在搜索路径的对象时,需要写全路径。 teledb create table test1.t4 (id int, name char); CREATE TABLE teledb select from t4; ERROR: relation "t4" does not exist LINE 1: select from t4; ^ teledb select from test1.t4; id name + (0 rows) 上面出错是因为模式test1没有配置在searchpath搜索路径中。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        模式管理
        配置访问模式的顺序
      • 修改模式属性
        本文为您介绍如何修改模式属性。 您可参考如下操作修改模式属性。 修改模式名 teledb alter schema teledbschema rename to teledbschemanew; ALTER SCHEMA 修改所有者 teledb dn teledbschemanew List of schemas Name Owner + teledbschemanew teledb (1 row) teledb alter schema teledbschemanew owner to teledbuser; ALTER SCHEMA teledb dn teledbschemanew List of schemas Name Owner + teledbschemanew teledbuser (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        模式管理
        修改模式属性
      • 删除数据库
        本文为您介绍如何删除数据库。 删除数据库teledbdbnew teledb drop database teledbdbnew; 仍有会话连接数据库时,会报错 ERROR: database "teledbdbnew" is being accessed by other users DETAIL: There is 1 other session using the database. 停止该数据库的所有连接后重新删除数据库 teledb select pgterminatebackend(pid) from pgstatactivity where datname'teledbdbnew'; pgterminatebackend t (1 row) teledb drop database teledbdbnew; DROP DATABASE
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        数据库管理
        删除数据库
      • 删除模式
        本文为您介绍如何删除模式。 您可执行如下操作删除模式。 teledb drop schema teledbschemaowner; DROP SCHEMA 当模式中存在对象时,则会删除失败,提示如下。 teledb create table teledbschemanew.test(id int); CREATE TABLE teledb drop schema teledbschemanew; ERROR: cannot drop schema teledbschemanew because other objects depend on it DETAIL: table teledbschemanew.test depends on schema teledbschemanew HINT: Use DROP ... CASCADE to drop the dependent objects too. 您可参考如下操作强制删除,会将模式中的对象也级联删除。 teledb drop schema teledbschemanew cascade; NOTICE: drop cascades to table teledbschemanew.test DROP SCHEMA
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        模式管理
        删除模式
      • 实例主机手动创建了teledbx用户导致开通实例失败
        本文为您介绍实例主机手动创建了teledbx用户导致开通实例失败的问题原因和解决方案。 问题现象 创建实例开通失败。 原因分析 经过查看错误日志,发现其手动创建teledbx用户。由于在开通创建实例时,系统会自动创建teledbx用户,无需手动创建。 解决方案 1. 执行如下命令删除实例主机teledbx用户。 userdel teledbx 2. 在管控台中选择实例管理> 工单管理 ,单击所创建实例行所在的操作 列的重新施工即可。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        实例主机手动创建了teledbx用户导致开通实例失败
      • TeleDB助力广州12345政府热线平稳落地
        广州12345政府服务热线,业务的核心TeleDB服务器部署内网,敏感数据部署在这个核心TeleDB实例中,并涉及到130个部门,8千余个分类,4万余条知识点。该系统要求系统具备高安全性,目前存储了6000+加密表,同时要求通信链路加密,数据脱敏,访问白名单,TeleDB的多级安全策略在该业务系统有了完美的落地。该系统的核心系统结构如下:
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        典型案例分享
        TeleDB助力广州12345政府热线平稳落地
      • TeleDB数据传输服务
        TeleDB管控数据传输服务由管理模块、执行模块、稽核模块、核心配置集群、核心配置库组成,本文为您详细介绍具体的模块。 TeleDB管控数据传输服务由管理模块、执行模块、稽核模块、核心配置集群、核心配置库组成,具备广泛的兼容性,支持从多种数据源(如Oracle、MySQL、PostgreSQL等)迁移数据至TeleDB。这一功能为各类客户提供了一种简便、顺畅的迁移方式,能够顺利完成数据的迁移与整合。 管理模块 :接受外部用户对系统的请求,对操作请求进行预处理和分发,并兼具进行任务管理、任务配置、监控数据查看、日志查看、工作节点调度等功能。 执行模块 :具体负责执行数据迁移,接收管理模块的任务请求,依序执行迁移评估、结构迁移、全量迁移、增量迁移的具体工作流程。 稽核模块 :负责在全量迁移完成后,对存量数据的正确性进行数据比对。包含对象级稽核、行级稽核、内容级稽核三个级别。对象级稽核比对源端和目标端数据库对象的结构是否一致,行级稽核比对源端表和目标端对应表的数据行数是否一致,内容级稽核比对源端表和目标端对应表的数据内容是否一致。 核心配置集群 :负责增量任务位点管理、实时监控数据存储、任务状态存储和工作节点高可用。 核心配置库 :负责存储和管理用户的任务信息以及部分元数据信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB数据传输服务
      • 实例开通时,勾选备份机导致开通实例失败
        本文为您介绍实例开通时,勾选备份机导致开通实例失败的问题现象、原因和解决方案。 问题现象 提交工单后,在工单管理中显示实例施工失败。 原因分析 勾选备份机导致开通实例失败。 解决方案 去勾选备份机,重新提交工单。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        实例开通时,勾选备份机导致开通实例失败
      • 提交工单显示系统错误
        当提交工单显示系统错误时,您可以参考本文,查看问题现象、问题原因和解决方案。 问题现象 提交工单显示系统错误。 查看日志发现是sql插入有问题,instmanager的vip列插入失败。 原因分析 开通实例使用到了8个vip,给的varchar字符窜长度不够。 解决方案 执行如下命令增加vip列的varchar长度,将其修改为255。 use dcp desc instmanager alter table instmanager modify column vip varchar(255);
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        提交工单显示系统错误
      • 添加主机时,硬件联通及测试主机失败
        添加主机时,如果硬件联通及测试主机失败,则您需要添加安全组,放通监控插件端口。 问题现象 添加主机时,测试连通及硬件检测失败。 原因分析 监控插件端口未放通。 解决方案 添加安全组,放通端口。出现如下图所示,则表示执行成功。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        添加主机时,硬件联通及测试主机失败
      • 数据管理服务安装部署
        安装后校验 1. 检查容器状态:docker ps grep E 'dmsdas' 2. 检查启动日志:docker logs f 卸载服务 1. 查看容器ID,docker ps grep E 'dmsdas' 2. 停止容器:docker stop 3. 移除容器:docker rm 4. 查看镜像ID:docker images grep E 'dmsdas' 5. 移除镜像:docker rmi
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        数据管理服务安装部署
      • 开通实例的teledbx版本信息不对
        当导入的teledbx内核版本与实例开通的版本选择不一致时,您可以参考本文查看问题现象、问题原因和解决方案。 问题现象 导入的teledbx内核版本与实例开通的版本选择不一致。 原因分析 导入配置库的sql语句数据错误,dcp的README.md文件是6.11版本的规格。 解决方案 修改dcp库的prodtemplate表数据。 mysql> use dcp mysql> select id ,prodversion from prodtemplate; ++ id prodversion ++ 8 5.7 9 6.11 10 6.11 ++ 3 rows in set (0.00 sec) mysql> update prodtemplate set prodversion'6.13' where id9; Query OK, 1 row affected (0.00 sec) Rows matched: 1 Changed: 1 Warnings: 0 mysql> update prodtemplate set prodversion'6.13' where id10; Query OK, 1 row affected (0.01 sec) Rows matched: 1 Changed: 1 Warnings: 0 mysql> select id ,prodversion from prodtemplate; ++ id prodversion ++ 8 5.7 9 6.13 10 6.13 ++ 3 rows in set (0.00 sec)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        开通实例的teledbx版本信息不对
      • 安全认证原理和认证机制
        本章节主要介绍安全认证原理和认证机制。 功能 开启了 Kerberos认证的安全模式集群,进行应用开发时需要进行安全认证。 Kerberos这一名词来源于希腊神话“三个头的狗——地狱之门守护者”,后来沿用作为安全认证的概念,使用Kerberos的系统在设计上采用“客户端/服务器”结构与AES等加密技术,并且能够进行相互认证(即客户端和服务器端均可对对方进行身份认证)。可以用于防止窃听、防止replay攻击、保护数据完整性等场合,是一种应用对称密钥体制进行密钥管理的系统。 原理 Kerberos的原理架构和各模块的说明如下图所示: 原理架构 模块说明 App Client:应用客户端,通常是需要提交任务(或者作业)的应用程序。 App Server:应用服务端,通常是应用客户端需要访问的应用程序。 Key Distribution Center(KDC):提供安全认证的服务。 Database:存储Principal数据。 Authentication Server(AS):认证服务器,认证客户端身份,发放客户访问TGS的票据授权票据(TGT)。 Ticket Granting Server(TGS):票据授予服务器,发放应用客户端访问应用服务端所需的服务票据(ST)。 步骤原理说明 应用客户端(App Client)可以是集群内某个服务,也可以是客户二次开发的一个应用程序,应用程序可以向应用服务提交任务或者作业。 1. ASREQ:App Client在提交任务或者作业前,需要向AS申请TGT,用于建立和TGS的安全会话。 2. ASREP:AS在收到TGT请求后,会解析其中的参数来生成对应的TGT,使用App Client指定的用户名的密钥进行加密响应消息。 3. TGSREQ:App Client收到TGT响应消息后,解析获取TGT,此时,再由App Client(通常是RPC底层)向TGS获取应用服务端的ST。 4. TGSREP:TGS在收到ST请求后,校验其中的TGT合法后,生成对应的App Server的ST,再使用App Server密钥将响应消息进行加密处理。 5. APREQ:App Client收到ST响应消息后,将ST打包到发给App Server的消息里面传输给对应的App Server。 6. APREP:App Server端收到请求后,使用App Server对应的密钥解析其中的ST,并校验成功后,本次请求合法通过。 说明 1. Kerberos认证时需要配置Kerberos认证所需要的文件参数,主要包含keytab路径,Kerberos认证的principal,Kerberos认证所需要的客户端配置krb5.conf文件。 2. 方法login()为调用的UserGroupInformation的方法执行Kerberos认证,生成TGT票据。 3. 方法doSth()调用hadoop的接口访问文件系统,此时底层RPC会自动携带TGT去Kerberos认证,生成ST票据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        安全性说明
        安全认证原理和认证机制
      • 使用Spark客户端
        本章节主要介绍使用Spark的操作指导。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Spark客户端 1. 安装客户端。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行命令。例如: 7. plaintext sparksql
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Spark客户端
      • 使用Hive客户端
        本章节主要介绍使用Hive的操作指导。 操作场景 该任务指导用户在运维场景或业务场景中使用Hive客户端。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Hive客户端 1. 安装客户端,具体请参考安装客户端章节。 2. 用户登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 将实际的zookeeper主机名替换以下命令中的zkhostname1、zkhostname2、zkhostname3,执行命令登录Hive客户端。 plaintext beeline u "jdbc:hive2://zkhostname1:2181,zkhostname2:2181,zkhostname3:2181/default;serviceDiscoveryModezooKeeper;zooKeeperNamespacehiveserver2" 说明 beeline连接后可以编写并提交HQL语句执行相关任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Hive客户端
      • 运行Flink作业
        本章节主要介绍如何通过后台提交并运行Flink作业。 通过后台提交作业 目前Flink客户端默认安装路径为“/usr/local/flink”。具体以实际为准。 1. 通过SSH方式登录集群。 2. 配置环境变量。 在/etc/profile添加如下配置: export HADOOPHOME/usr/local/hadoop3 export FLINKHOME/usr/local/flink export PATHPATH:PATH:FLINKHOME/bin:HADOOPHOME/bin export HADOOPCONFDIRHADOOPHOME/bin exportHADOOPCONFDIRHADOOPHOME/etc/hadoop export PATHPATH:PATH:HADOOPCONFDIR export HADOOPCLASSPATHhadoop classpath 执行如下命令初始化环境变量 source /etc/profile 3. 集群默认开启Kerberos认证,需要执行以下命令以完成认证。 示例: klist kt /etc/security/keytabs/flink.keytab 获取flink.keytab的principalname kinit kt /etc/security/keytabs/flink.keytab flink.keytab的principalname 同时,应配置安全认证。在“/usr/local/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 security.kerberos.login.useticketcache: true security.kerberos.login.keytab: security.kerberos.login.principal: user security.kerberos.login.contexts: Client,KafkaClient 例如: security.kerberos.login.keytab: /etc/security/keytabs/hdfs.keytab security.kerberos.login.principal: hdfs 4. 运行wordcount作业。 首先执行上述第3步骤中的认证操作,然后启动Flink集群。 /usr/local/flink/bin/startcluster.sh Session模式 执行如下命令在session中提交作业。 yarnsession.sh nm "sessionname" detached flink run /usr/local/flink/examples/streaming/WordCount.jar 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 Application模式 执行如下命令以Application方式提交作业。 flink runapplication t yarnapplication/usr/local/flink/examples/streaming/WordCount.jar 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Flink作业
      • 帐号权限类
        本章节主要介绍操作类问题中有帐号权限的问题。 如果不开启Kerberos认证,MRS集群能否支持访问权限细分? MRS 2.1.0及之前版本:在MRS Manager页面选择“系统设置”>“配置”>“权限配置”查询。 MRS 3.x及之后版本:在FusionInsight Manager页面选择“系统 > 权限”查询。 如何给集群内用户添加租户管理权限? 分析集群和混合集群支持添加租户管理权限,流式集群不支持添加租户管理权限。给新建帐号添加租户管理权限方法如下: MRS3.x之前版本 1.登录MRS Manager。 2.在“系统设置 > 用户管理”中选择新建的用户,单击“操作”列中的“修改”。 3.在“分配角色权限”中单击“选择并绑定角色”。 绑定Managertenant角色,则该帐号拥有租户管理的查看权限。 绑定Manageradministrator角色,则该帐号拥有租户管理的查看和操作权限。 4.单击“确定”完成修改。 MRS3.x及之后版本 1.登录FusionInsight Manager,选择“系统 > 权限 > 用户”。 2.在要修改信息的用户所在行,单击“修改”。 根据实际情况,修改对应参数。 绑定Managertenant角色,则该帐号拥有租户管理的查看权限。绑定Manageradministrator角色,则该帐号拥有租户管理的查看和操作权限。 说明 修改用户的用户组,或者修改用户的角色权限,最长可能需要3分钟时间生效。 3.单击“确定”完成修改操作。 为什么在Manager中找不到用户管理页面? 当前登录用户没有Manageradministrator角色权限,所以在MRS Manager中无法查看“用户管理”相关内容,请使用admin用户或者其他具有Manager管理权限的用户重新登录Manager。 Hue有配置帐号权限的功能吗? Hue服务没有配置帐号权限的功能。 可以通过在Manager的“系统设置”中配置用户角色和用户组来配置帐号权限,从而实现Hue权限的配置。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        帐号权限类
      • 配置并使用互信集群的用户
        本章节主要介绍 配置并使用互信集群的用户 。 操作场景 配置完跨集群互信后,需要在互信的集群上设置用户的权限,这样本集群中的用户才能访问互信集群中同名用户可访问的资源。 说明 该章节操作仅适用于MRS 3.x之前版本集群。MRS3.x及之后版本集群请参考 前提条件 已完成跨集群互信配置,然后刷新两个集群的客户端。 操作步骤 在集群A的MRS Manager,选择“系统设置 > 用户管理”,检查互信集群B的用户,是否在A集群中已存在相同名字用户。 是,执行步骤2。 否,执行步骤3。 1. 单击用户名左侧的 展开用户的详细信息,检查该用户所在的用户组和角色分配的权限是否满足本次业务需求。 例如,集群A的“admin”用户拥有查看本集群HDFS中目录“/tmp”并创建文件的权限,然后执行步骤4。 2. 创建业务所需要使用的用户,同时关联业务所需要的用户组或者角色。然后执行步骤4。 3. 选择“服务管理 > HDFS > 实例”,查看“NameNode(主)”的“管理IP”。 4. 登录集群B的客户端节点。 例如在Master2节点更新客户端,则在该节点登录客户端,具体参见使用MRS客户端。 5. 执行以下命令,查看集群A中的目录“/tmp”。 hdfs dfs ls hdfs://192.168.6.159:9820/tmp 其中,192.168.6.159是集群A中主NameNode的IP地址,9820是客户端与NameNode通信的默认端口。 6. 执行以下命令,在集群A中的目录“/tmp”创建一个文件。 hdfs dfs touchz hdfs://192.168.6.159:9820/tmp/mrstest.txt 访问集群A,在目录“/tmp”中可查询到mrstest.txt文件,则表示配置跨集群互信成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        配置并使用互信集群的用户
      • 集群创建类
        本章节主要介绍操作类问题中有关集群创建的问题。 如何使用自定义安全组创建MRS集群? 使用自定义安全组创建MRS集群有以下两种方式: 用户购买集群时,选择使用自己创建的安全组时,需要放开9022端口。 用户购买集群时,安全组选择“自动创建”。 创建MRS集群时,为什么找不到HDFS、Yarn、MapReduce组件? HDFS、Yarn和MapReduce组件包含在Hadoop组件中,当创建MRS集群时无法看到HDFS、Yarn和MapReduce组件,勾选Hadoop组件并等待集群创建完成后即可在“组件管理”页签看到HDFS、Yarn和MapReduce组件。 创建MRS集群时,为什么找不到ZooKeeper组件? 创建MRS 3.x之前版本集群时,ZooKeeper组件为默认安装的组件,不在创建集群的界面上显示。 集群创建完成后可在集群“组件管理”页签看到ZooKeeper组件。 创建MRS 3.x及之后版本集群时,可以在创建集群的界面看到ZooKeeper组件,并默认勾选。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        集群创建类
      • 修改操作系统用户密码
        本章节主要介绍修改操作系统用户密码。 操作场景 该任务指导用户定期修改MRS集群节点操作系统用户“omm”、“ommdba”、"root"的登录密码,以提升系统运维安全性。 各节点“omm”、“ommdba”、"root"无需设置为统一的密码。 操作步骤 登录Master1节点,然后登录要修改操作系统用户密码的其他节点。 1. 执行以下命令切换到用户。 sudo su root 执行如下命令,修改omm/ommdba/root用户密码。 passwd omm passwd ommdba passwd root 例如omm:passwd,系统显示: Changing password for user omm. New password: 输入用户的新密码。操作系统的密码修改策略由用户实际使用的操作系统类型决定。 Retype new password: passwd: all authentication tokens updated successfully. 说明 MRS集群默认密码复杂度要求: 密码字符长度至少8位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符'~!@$%^&()+[{}];:'", /?中的3种类型字符。 重置的密码不能是最近5次使用过的密码。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        安全管理
        修改操作系统用户密码
      • 修复隔离主机补丁
        本章节主要介绍修复隔离主机补丁 。 若集群中存在主机被隔离的情况,集群补丁安装完成后,请参见本节操作对隔离主机进行补丁修复。修复完成后,被隔离的主机节点版本将与其他未被隔离的主机节点一致。 访问MRS Manager,详细操作请参见访问MRS Manager(MRS2.x及之前版本)。 1. 选择“系统设置 > 补丁管理”,进入补丁管理页面。 2. 在“操作”列表中,单击“详情”。 3. 在补丁详情界面,选中“Status”是“Isolated”的主机节点。 4. 单击“Select and Restore”,修复被隔离的主机节点。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        修复隔离主机补丁
      • 修改操作用户密码
        本章节主要介绍 修改操作用户密码 。 操作场景 出于MRS集群安全的考虑,“人机”类型系统用户密码必须定期修改。该任务指导用户通过MRS Manager完成修改自身密码工作。 如需对用户修改的密码使用新的密码策略,请先修改密码策略,再参考本章节修改密码。 说明 该章节操作仅适用于MRS 3.x之前版本集群。MRS3.x及之后版本集群请参考 对系统的影响 修改MRS集群用户密码后,如果以前下载过用户认证文件,则需要重新下载并获取keytab文件。 前提条件 从管理员获取当前的密码策略。 从管理员获取MRS Manager访问地址。 开启Kerberos认证的集群或开启弹性公网IP功能的普通集群。 操作步骤 访问MRS Manager,详细操作请参见访问MRSManager(MRS2.x及之前版本)。 1. 在MRS Manager,移动鼠标到界面右上角的。 在弹出菜单,选择“修改密码”。 2. 分别输入“旧密码”、“新密码”、“确认新密码”,单击“确定”完成修改。 集群中,默认的密码复杂度要求: 密码字符长度为8~32位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符'~!@$%^&()+[{}];:'", /?中的3种类型字符。 不能与用户名或倒序的用户名相同。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        修改操作用户密码
      • 客户端使用类
        本章节主要介绍操作类问题中有关客户端使用的问题。 怎么关闭ZooKeeper SASL认证? 1.登录FusionInsight Manager。 2.选择“集群 > 服务 > ZooKeeper > 配置 > 全部配置”。 3.在左侧导航栏选择“quorumpeer > 自定义”添加参数名称和值:zookeeper.sasl.disable false。 保存配置后,重启ZooKeeper服务。 在MRS集群外客户端中执行kinit报错“Permission denied”如何处理? 问题现象 在MRS集群外节点上安装了客户端后并执行kinit命令报错如下: bash kinit Permission denied 执行java命令也报错如下: bash: /xxx/java: Permission denied 执行 ll / java 安装路径 /JDK/jdk/bin/java命令查看该文件执行权限信息正常。 原因分析 执行mount column t查看挂接的分区状态,发现java执行文件所在的挂载点的分区状态是“noexec”。当前环境中将安装MRS客户端所在的数据盘配置成“noexec”,即禁止二进制文件执行,从而无法使用java命令。 解决方法 1.以root用户登录MRS客户端所在节点。 2.移除“/etc/fstab”文件中MRS客户端所在的数据盘的配置项“noexec”。 3.执行umount 命令卸载数据盘,然后再执行mount a重新挂载数据盘。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        客户端使用类
      • 修改用户信息
        本章节主要介绍 修改用户信息。 操作场景 该任务指导管理员用户在MRSManager修改已创建的用户信息,包括修改用户组、主组、角色和描述。 操作步骤 在MRS Manager,单击“系统设置”。 1. 在“权限配置”区域,单击“用户管理”。 2. 在要修改用户所在的行,单击“修改”,修改用户信息。 说明 为用户修改用户组或分配的角色权限,最长可能需要3分钟时间生效。 3. 单击“确定”完成修改操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        权限管理
        修改用户信息
      • 删除用户
        本章节主要介绍 删除用户。 MRS集群用户不再需要使用时,管理员可以在MRS Manager中删除此用户。 说明 如果删除用户A后,再次准备重新创建同名用户A,如果该用户A已经提交过作业(客户端提交或者MRS console页面提交),那么需要在删除该用户A的同时,删除该用户A残留的文件夹,否则使用重新创建的同名用户A提交作业会失败。 删除用户残留文件夹操作方法为:依次登录MRS集群的Core节点,在每个Core节点上执行如下两条命令,其中如下命令中“$user”为具体的以用户名命名的文件夹。 cd/srv/BigData/hadoop/data1/nm/localdir/usercache/ rmrf $user 操作步骤 在MRS Manager,单击“系统设置”。 1. 在“权限配置”区域,单击“用户管理”。 2. 在要删除用户所在的行,选择“更多 > 删除”。 3. 单击“确定”完成删除操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        权限管理
        删除用户
      • 1
      • ...
      • 268
      • 269
      • 270
      • 271
      • 272
      • ...
      • 273
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      公共算力服务

      模型推理服务

      应用托管

      推荐文档

      Push方式的调用说明

      云课堂 第十九课:RDS数据库服务基于SSL的安全访问

      卸载磁盘

      FTP访问

      产品退订

      大事记

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号