活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云关系数据库sql server版_相关内容
      • 操作类
        本章节介绍操作数据库时的常见问题有哪些及解决办法。 可以通过创建模板的方式创建实例吗 目前不支持实例模板。可通过备份恢复功能将备份文件恢复到新实例上。 云数据库如何进行主备切换 关系型数据库(Relational Database Service,简称RDS)服务提供高可用类型,推荐您选择主备模式。 故障切换 也叫计划外的切换。当主机出现故障时,系统会在1~5分钟内自动切换到备机,主备实例的连接IP不变,整个过程无需人工干预。切换过程中不可访问,需要您设置好程序跟关系型数据库服务的自动重连,避免因为切换导致服务不可用。 手动切换 也叫计划内的切换。当实例运行正常时,用户可以自主手动触发主备切换,以满足业务需求。 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4在“实例管理”页面,选择指定的主备实例,单击实例名称,进入实例的“基本信息”页面。 步骤5 在“基本信息”页面中“数据库信息”模块的“实例类型”处,单击“主备切换”。 您也可以在“基本信息”页面,单击“实例拓扑图”模块的。进行主备切换。 注意 主备切换可能会造成几秒或几分钟的服务闪断(闪断时间与复制时延有关),并有可能在主备同步时延过大的情况下,导致少量数据丢失。 主备切换后,请注意对业务进行预热,避免业务高峰期出现阻塞。 在“主备切换”弹框,单击“是”进行主备实例的切换。 在“复制状态”为“正常”的情况下,复制时延大于300s,主备切换任务无法下发。 主备切换成功后,单击“返回实例列表”,用户可以在“实例管理”页面对其进行查看和管理。 切换过程中,状态显示为“主备切换中”。 在实例列表的右上角,单击刷新列表,可查看到主备切换完成后,实例状态显示为“正常”。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        常见问题
        操作类
      • 预览数据
        本章节主要介绍预览数据。 “预览页面”将显示对应表的前10条数据。 预览数据步骤 预览数据的入口有两个,分别在“数据管理”和“SQL编辑器”页面。 在“数据管理”页面预览数据。 1. 在管理控制台左侧,单击“数据管理”>“库表管理”。 2. 单击需导出数据对应数据库名称,进入该数据库“表管理”页面。 3. 单击目标表“操作”栏中的“更多”,选择“表属性”。 4. 单击“预览”页签,即可预览该表数据。 在“SQL编辑器”页面预览数据。 1. 在管理控制台左侧,单击“SQL编辑器”。 2. 在“SQL编辑器”页面的左侧导航栏中,选择“数据库”页签。 3. 鼠标左键单击对应数据库名,进入该数据库的表列表。 4. 鼠标左键单击对应表右侧的,在列表菜单中选择“表属性”,单击“预览”页签,即可预览该表数据。
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        库表管理
        预览数据
      • 步骤1:创建初始表并加装样例数据
        本章节主要介绍创建初始表并加装样例数据的最佳实践。 创建一组不设置存储方式,无分布键、分布方式和压缩方式的表。然后,为这些表加载样例数据。 1.(可选)创建集群。 如果已经有可供使用的集群,则可跳过这一步。创建集群的操作,请按中的步骤操作。同时请使用SQL客户端连接到集群并测试连接。 本实践所使用的是8节点集群。也可以使用4节点集群进行测试。 2.使用最少的属性创建SS(StoreSales)测试表。 说明 如果SS表在当前数据库中已存在,需要先删除这些表。删除表使用DROP TABLE命令。如下示例表示删除表storesales。 DROP TABLE storesales; 考虑到本实践的目的,首次创建表时,没有设置存储方式、分布键、分布方式和压缩方式。 执行CREATE TABLE命令创建上图"TPCDS Store Sales ERDiagram"中的11张表。限于篇幅,这里仅附storesales的创建语法。请从附录初始表创建中拷贝所有建表语法进行创建。 CREATE TABLE storesales ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) ; 3.为这些表加载样例数据。 OBS存储桶中提供了本次实践的样例数据。该存储桶向所有经过身份验证的云用户提供了读取权限。请按照下面的步骤加载这些样例数据: a.为每个表创建对应的外表。 DWS应用Postgres提供的外部数据封装器FDW(Foreign Data Wrapper)进行数据并行导入。因此需要先创建FDW表,又称外表。限于篇幅,此处仅给出“storesales”表对应的外表“obsfromstoresales001”的创建语法。请从附录外表创建拷贝其他外表的语法进行创建。 说明 l 注意,以下语句中的代表OBS桶名,仅支持部分区域。DWS集群不支持跨区域访问OBS桶数据。 l 外表字段需与即将注入数据的普通表字段保持一致。例如此处storesales表及其对应的外表obsfromstoresales001,他们的字段是一致的。 l 这些外表语法能够帮助您获取OBS存储桶中为本次实践所提供的样例数据。如果您需要加载其他样例数据,需进行SERVER gsmppserver OPTIONS的调整。 CREATE FOREIGN TABLE obsfromstoresales001 ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) Configure OBS server information and data format details. SERVER gsmppserver OPTIONS ( LOCATION '/tpcds/storesales', FORMAT 'text', DELIMITER '', ENCODING 'utf8', NOESCAPING 'true', ACCESSKEY 'accesskeyvaluetobereplaced', SECRETACCESSKEY 'secretaccesskeyvaluetobereplaced', REJECTLIMIT 'unlimited', CHUNKSIZE '64' ) If create foreign table failed,record error message WITH errobsfromstoresales001; b.将创建外表语句中的参数ACCESSKEY和SECRETACCESSKEY替换为实际值,然后在客户端工具中执行替换后的语句创建外表。 ACCESSKEY和SECRETACCESSKEY的值,请参见“常见问题通用问题”中的“如何获取Access Key ID(AK)和 Secret Access Key(SK)”。 c.执行数据导入。 创建包含如下语句的insert.sql脚本文件,并执行.sql脚本文件。 timing on parallel on 4 INSERT INTO storesales SELECT FROM obsfromstoresales001; INSERT INTO datedim SELECT FROM obsfromdatedim001; INSERT INTO store SELECT FROM obsfromstore001; INSERT INTO item SELECT FROM obsfromitem001; INSERT INTO timedim SELECT FROM obsfromtimedim001; INSERT INTO promotion SELECT FROM obsfrompromotion001; INSERT INTO customerdemographics SELECT from obsfromcustomerdemographics001 ; INSERT INTO customeraddress SELECT FROM obsfromcustomeraddress001 ; INSERT INTO householddemographics SELECT FROM obsfromhouseholddemographics001; INSERT INTO customer SELECT FROM obsfromcustomer001; INSERT INTO incomeband SELECT FROM obsfromincomeband001; parallel off 结果应该类似如下: SET Timing is on. SET Time: 2.831 ms Parallel is on with scale 4. Parallel is off. INSERT 0 402 Time: 1820.909 ms INSERT 0 73049 Time: 2715.275 ms INSERT 0 86400 Time: 2377.056 ms INSERT 0 1000 Time: 4037.155 ms INSERT 0 204000 Time: 7124.190 ms INSERT 0 7200 Time: 2227.776 ms INSERT 0 1920800 Time: 8672.647 ms INSERT 0 20 Time: 2273.501 ms INSERT 0 1000000 Time: 11430.991 ms INSERT 0 1981703 Time: 20270.750 ms INSERT 0 287997024 Time: 341395.680 ms total time: 341584 ms d.计算所有11张表的总执行时间。该数字将作为加载时间记录在下一小节步骤步骤1中的基准表内。 e.执行以下命令,验证每个表是否都已正确加载并将行数记录到表中。 SELECT COUNT() FROM storesales; SELECT COUNT() FROM datedim; SELECT COUNT() FROM store; SELECT COUNT() FROM item; SELECT COUNT() FROM timedim; SELECT COUNT() FROM promotion; SELECT COUNT() FROM customerdemographics; SELECT COUNT() FROM customeraddress; SELECT COUNT() FROM householddemographics; SELECT COUNT() FROM customer; SELECT COUNT() FROM incomeband; 以下显示每个SS表的行数: 表名称 行数 StoreSales 287997024 DateDim 73049 Store 402 Item 204000 TimeDim 86400 Promotion 1000 CustomerDemographics 1920800 CustomerAddress 1000000 HouseholdDemographics 7200 Customer 1981703 IncomeBand 20 4.执行ANALYZE更新统计信息。 ANALYZE; 返回ANALYZE后,表示执行成功。 ANALYZE ANALYZE语句可收集数据库中与表内容相关的统计信息,统计结果存储在系统表PGSTATISTIC中。查询优化器会使用这些统计数据,以生成最有效的执行计划。 建议在执行了大批量插入/删除操作后,例行对表或全库执行ANALYZE语句更新统计信息。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        步骤1:创建初始表并加装样例数据
      • 计费项
        本章介绍关系型数据库的计费项。 计费项 计费说明 :: 数据库实例(计算和存储) 提供包年包月和按需计费两种方式。同一个实例下的实例规格计费方式和存储计费方式保持一致。 备份存储 RDS提供了部分免费存储空间,用于存放您的备份数据,其总容量约为您购买容量的100%。备份存储用量超过数据库存储空间的100%,开始按照阶梯计费。 公网流量(可选) RDS实例支持公网访问,公网访问会产生带宽流量费;RDS数据库实例在云内部网络产生的流量不计费。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        计费说明
        计费项
      • OOS有哪些数据访问方法?
        OOS数据访问方式有以下几种: 通过OOS自服务控制台进行访问。 通过HTTP REST API接口进行访问。 通过OOS SDK进行编程访问。 通过天翼云云存储网关进行访问。 通过第三方工具(如S3 browser)进行访问。
        来自:
        帮助文档
        对象存储(经典版)I型
        常见问题
        产品咨询类
        OOS有哪些数据访问方法?
      • 计费说明
        本文主要介绍应用监控与Prometheus监控的计费说明。 目前天翼云应用性能监控包括应用监控与Prometheus监控。开通应用性能监控APM不收取费用,开通后即可使用应用监控与Prometheus监控能力,使用过程中将按照各计费项进行计费。 其中应用监控提供按量付费与资源包模式,Prometheus监控提供按需计费模式。 说明 Prometheus监控仅对自定义指标收取指标上报费用,对云容器引擎的基础指标不收取上报费用,且提供免费15天存储。 目前容器基础指标存储时间默认为15天,因此默认情况下,在云容器引擎中开启Prometheus基础指标监控不会产生额外费用,请放心使用。若额外开启自定义指标监控,请参考下文计费说明。 应用监控计费说明 按需计费 若以Javaagent方式接入,则按照以下方式进行按需计费: 总费用 Agent数量 按需计费单价时间 计费项 单位 免费额度 价格 探针时 agenthour 每月提供2200agenthour的免费额度 0.2元 注意 一个探针使用一小时收费0.2元,一天需支付4.8元。调用链数据默认存储1个月,指标数据默认存储1个月。 Agent实例使用时长不足1小时不计费。 探针时(agenthour):1个探针可以监控1个应用实例,如一个Tomcat实例或一个Java进程。1探针时(agenthour)表示一个探针使用了1小时。 若以其他非JavaAgent方式接入,则按照以下方式进行按需计费: 总费用 上报量总费用 + 链路存储时长总费用 上报量总费用 上报数量(百万个)× 上报数量单价 链路存储时长总费用 上报数量(百万个)× 存储时长(天)× 链路储存单价 计费项 单位 免费额度 价格 Span上报量 百万个 每月提供30百万个span的免费额度 0.1元 Span存储量 百万个天 每月提供210百万个天的免费额度 0.06元 注意 产生1百万条span上报量,收费0.1元;1百万Span存储1天,收费0.06元。调用链数据默认存储1个月,指标数据默认存储1个月。 Span上报量不足1百万不计费。 Span存储量不足1百万不计费。 > Span:Trace通常指的是一个完整的调用序列,包括所有函数的调用和返回。Span则更侧重于单个函数调用或其内部逻辑的一部分,可以被视为Trace的一个子集,代表一个具体的逻辑运行单元。
        来自:
        帮助文档
        应用性能监控 APM
        计费说明
        计费说明
      • 管理加密云硬盘
        本章为您介绍如何管理加密云硬盘,包括创建加密云硬盘与卸载加密云硬盘。 工作原理 服务端加密支持选择默认密钥及用户自行创建的用户主密钥,具体可选择的密钥类型如下。 密钥创建者 密钥类型 密钥算法 服务版本 云产品 默认密钥 AES256(默认) 按需版&包周期版 用户自行创建 用户主密钥软件 AES256 按需版 用户自行创建 用户主密钥硬件 AES256 SM4 按需版 在了解云硬盘加密工作原理之前,首先需要了解两个概念: 默认密钥 系统为云产品自动创建的用于服务端加密的默认密钥,默认密钥与云产品对应,每个天翼云账号下的每个云产品,在每个资源池支持创建1个默认密钥。 默认密钥的别名定义为alias ,例如aliasecs。 默认密钥的密钥材料由KMS生成,不支持导入外部密钥材料,同时不支持自动轮转、启用/禁用、删除等操作。 用户主密钥 云产品加密时,可选用户在KMS服务中自建的用户主密钥,密钥类型为对称密钥,算法支持AES256、SM4,保护级别可选软件保护、硬件保护。 用户主密钥按照KMS按需及包周期版的服务标准资费进行计费,请您确保账户余额充足、到期前及时续费,避免KMS服务冻结,冻结后云产品无法进行正常的加解密操作,云产品可能会出现异常。 用户主密钥支持计划删除,操作计划删除前请确保该密钥非云产品加密使用的密钥,避免误删除导致云产品无法正常加解密而出现异常。为避免误删,您可以为密钥开启删除保护功能。 注意 当前云硬盘加密仅支持选择按需版本中的自建用户主密钥,当前包周期版本中的用户主密钥暂不支持做云硬盘加密使用。 若您为2024年9月10日之后购买了KMS包周期服务,您可选择使用默认密钥进行云产品加密。 第一次使用加密云硬盘时,系统会自动创建一个用户主密钥(CMK),该密钥有且仅有一个,且是在KMS中的相应地域所创建,并将其存储在受严格的物理和逻辑安全控制保护的密钥管理服务上。查看如何通过KMS实现服务端加密。 每个地域的加密云硬盘,都需要通过256位数据密钥(DEK)进行加密,此数据密钥(DEK)具备地域唯一性,即每个地域都有且仅有一个。该密钥受 KMS 提供的密钥管理基础设施的保护,能有效防止未经授权的访问。云硬盘的数据密钥(DEK)仅在实例所在的宿主机的内存中使用,不会以明文形式存储在任何持久化介质(即使是云硬盘本身)上。 在创建加密云硬盘并将其挂载到实例后,以下数据都将关联此密钥并进行加密: 云硬盘中的静态数据 云硬盘和实例间传输的数据(实例操作系统内的数据不加密) 通过加密云硬盘创建的快照
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理加密云硬盘
      • 大数据业务开发
        如何修改Clickhouse服务的allowdropdetached配置项? 用root用户登录Clickhouse客户端所在节点。 1.进入客户端目录,配置环境变量。 cd /opt/客户端安装目录 source bigdataenv 2.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS集群用户 说明 该用户必须具有Clickhouse管理员权限。 3.执行命令clickhouse client host 192.168.42.90 secure m ,其中192.168.42.90为ClickHouseServer实例节点IP,执行结果如下: [root@server21100820010017 hadoopclient] clickhouse client host 192.168.42.90 secure m ClickHouse client version 21.3.4.25. Connecting to 192.168.42.90:21427. Connected to ClickHouse server version 21.3.4 revision 54447. 4.执行命令修改allowdropdetached的值。 例如:设置allowdropdetached1 set allowdropdetached1; 5.执行如下命令查看allowdropdetached的值: SELECT  FROM system.settings WHERE name 'allowdropdetached'; 6.执行命令 q; 退出clickhouse client。 执行Spark任务报内存不足告警如何处理? 问题现象 执行Spark任务就会报内存不足告警,告警id:18022,可用内存会陡降到0。 处理步骤 在SQL脚本前设置executor参数,限制executor的核数和内存。 例如设置如下: set hive.execution.enginespark; set spark.executor.cores2; set spark.executor.memory4G; set spark.executor.instances10; 参数值大小请根据实际业务情况调整。 ClickHouse系统表日志过大,如何添加定期删除策略?
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        大数据业务开发
      • 查看集群服务配置
        本章节主要介绍翼MR Manager的集群服务配置的查看操作。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab,即可查看该集群服务的所有配置。如图所示: 7. 对于隐私配置项,默认将加密展示,点击文本框右侧查看按钮,输入配置主密码即可查看。如果当前集群开通后未设置过主密码,请参考用户手册的配置管理主密码设置,设置主密码后,进行查看。 说明运维变量配置 在服务的default分组下,以vars.yaml后缀结尾的配置文件,为运维变量配置文件。运维变量配置文件不是服务本身的配置文件,而是存放Manager运维操作变量的文件,每个运维变量的含义如下表。 组件 运维变量名 是否建议修改 含义说明 HDFS activenamenode 否 部署时使用,在这台机器上执行format操作。 HDFS kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HDFS ldapGuestPassword 否 部署和扩容时使用,连接ldap的guest用户密码,此权限只能查看用户,不能创建用户。 HDFS ldapuri 否 部署和扩容时使用,配置ldap的连接地址。 HDFS dfsclusterId 否 部署时使用,ns的默认值。 HDFS pipelinejobretrytimes 是 流水线重试次数。 HDFS jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 YARN 无 共享HDFS运维变量。 ZooKeeper kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 ZooKeeper kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 ZooKeeper zksuperuser 否 部署和扩容时使用,配置zk的超级用户。 ZooKeeper zksuperuserpasswd 否 部署和扩容时使用,配置超级用户的密码。 ZooKeeper componentuser 否 暂未使用。 ZooKeeper dataLogDir 否 部署时使用,需要通过ansbile创建目录。 ZooKeeper dataDir 否 部署时使用,需要通过ansbile创建目录。 Kerberos kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 Kerberos kdcmaster 否 部署时使用,指定master节点,执行master节点的操作。 Kerberos kdcslave 否 部署时使用,指定slave节点,执行slave节点的操作。 Kerberos kerberosdatabasepasswd 否 部署时使用,配置kerberos的数据库密码。 Kerberos kerberosadminuser 否 部署时使用,配置kerberos的admin用户。 Kerberos kerberosadminpasswd 否 部署时使用,配置kerberos的admin用户密码。 OpenLDAP ldapmasterhostname 否 部署时使用,指定master节点,执行master节点的操作。 OpenLDAP ldapslavehostname 否 部署时使用,指定slave节点,执行slave节点的操作。 OpenLDAP olcRootDN 否 部署时使用,服务配置。 OpenLDAP olcSuffix 否 部署时使用,服务配置。 OpenLDAP ldapAdminPwd 否 部署时使用,admin用户的密码。 OpenLDAP ldapGuestPwd 否 部署时使用,guest用户的密码。 OpenLDAP ldapuri 否 部署时使用,ldap的连接信息。 OpenLDAP ldapBaseUgDN 否 部署时使用,服务配置。 OpenLDAP pipelinejobretrytimes 是 流水线重试次数。 OpenLDAP jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 HBase kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HBase pipelinejobretrytimes 是 流水线重试次数。 HBase jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Spark kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Spark ldapmaster 否 部署时使用,ldap的master节点。 Spark eventlogdir 否 部署时使用,通过ansible创建目录。 Spark sparkhome 否 部署时使用,通过ansible创建目录。 Hive kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Hive ldapmaster 否 部署时使用,ldap的master节点。 Hive databasepass 否 部署时使用,hive使用的数据库密码,需要用户填写。 Kafka kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 Kafka kerberosrealm 否 kerberos的realm的信息。 Kafka logdirs 否 (目前不再使用,通过从配置文件中渲染来创建目录)部署和扩容时使用,通过ansible创建目录。 Kafka pipelinejobretrytimes 是 流水线重试次数。 Kafka jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Kyuubi kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Kyuubi ldapmaster 否 部署时使用,ldap的master节点。 Kyuubi kyuubilogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubieventlogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubiworkdir 否 目录。部署时使用,通过ansible创建。 Kyuubi adminuser 否 目录的属主。 Kyuubi usergroup 否 目录的属组。 Kyuubi pipelinejobretrytimes 是 流水线重试次数。 Kyuubi jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Flink kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Flink ldapmaster 否 部署时使用,ldap的master节点。 Flink logDir 否 目录。部署时使用,通过ansible创建。 Flink HistoryServerDir 否 目录。部署时使用,通过ansible创建。 Flink pipelinejobretrytimes 是 流水线重试次数。 Flink jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Elasticsearch CERTNODE 否 部署时使用,指定证书节点,在节点上执行生成证书的操作。 Elasticsearch ESDATADIRS 否 目录。部署时使用,通过ansible创建。 Elasticsearch ESDEFAULTPASSWORD 否 部署时使用。默认的密码,随机密码。 Doris FEDEFAULTLEADERHOSTNAME 否 部署和扩容时使用,指定leader节点,在上面执行leader的相关操作。 Doris FEDEFAULTPASSWORD 是 部署时随机生成的Doris组件root密码。节点扩容需要使用该密码,如用户已修改,需要设置正确的值,否则会影响扩容操作。 Doris FEHTTPPORT 否 服务端口,不推荐修改。 Doris FEQUERYPORT 否 服务端口,不推荐修改。 Doris FEEDITLOGPORT 否 服务端口,不推荐修改。 Doris BESTORAGEROOTPATH 否 服务端口,不推荐修改。 Doris BEHEARTBEATSERVICEPORT 否 服务端口,不推荐修改。 Doris BROKERIPCPORT 否 服务端口,不推荐修改。 Trino datadir 否 目录。部署和扩容时使用,通过ansible创建。 Trino kerberosrealm 否 kerberos的realm的信息。 Trino kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Trino ldapmaster 否 部署时使用,ldap的master节点。 Trino coordinator 否 部署和扩容时使用,指定主节点,在上面执行主节点的相关操作。 Trino uiuser 否 ui的用户。 Trino uipassword 否 ui的密码,部署时随机生成。 Trino serveruser 否 server的用户。 Trino serverpassword 否 server的密码,部署时随机生成。 Trino pipelinejobretrytimes 是 流水线重试次数。 Trino jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Ranger dbhost 否 外置数据库信息,需要用户填写。 Ranger dbname 否 外置数据库信息,需要用户填写。 Ranger dbuser 否 外置数据库信息,需要用户填写。 Ranger dbpassword 否 外置数据库信息,需要用户填写。 Ranger dbrootuser 否 部署时使用,ranger使用的外置数据库信息。 Ranger dbrootpassword 否 部署时使用,ranger使用的外置数据库信息。 Ranger rangerpassword 否 ranger admin用户密码。 Ranger SYNCLDAPBINDPASSWORD 否 部署时使用,ranger访问ldap的密码。 Ranger SYNCSOURCE 否 用户同步方式,ldap。 Ranger kerberosrealm 否 kerberos的realm的信息。 Ranger kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Ranger SYNCLDAPURL 否 ldap相关信息。 Ranger POLICYMGRURL 否 ranger admin url信息。 Ranger separatedbamode 否 是否单独执行DBA,默认true,表示需要提前创建ranger使用的数据库和用户,并授权,不推荐修改。 Ranger pipelinejobretrytimes 是 流水线重试次数。 Ranger jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Knox kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Logstash pipelinejobretrytimes 是 流水线重试次数。 Logstash jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 JeekeFS kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI ldapGuestPassword 否 部署时使用,Openldap的guest用户密码。 Pushgateway PUSHGATEWAYPASSWORD 否 部署时使用,Pushgateway服务的密码。 Pushgateway PUSHGATEWYUSERNAME 否 部署时使用,Pushgateway服务的用户名。 TezUI pipelinejobretrytimes 是 流水线job最大重试次数。 TezUI jobretrybasedonpipelinetypes 否 基于的流水线类型。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        集群服务
        查看集群服务配置
      • 数据类型
        本页介绍天翼云TeleDB数据库的数据类型,包括数字类型、字符类型、二进制数据类型、日期类型和布尔类型。 数字类型 名字 存储尺寸 描述 范围 smallint 2字节 小范围整数 小范围整数 32768 到+32767 integer 4字节 整数的典型选择 2147483648 到+2147483647 bigint 8字节 大范围整数 大范围整数 9223372036854775808 到+9223372036854775807 decimal 可变 用户指定精度,精确 最高小数点前131072位,以及小数点后16383位 numeric 可变 用户指定精度,精确 最高小数点前131072位,以及小数点后16383位 real 4字节 可变精度,不精确 6位十进制精度 double precision 8字节 可变精度,不精确 15位十进制精度 smallserial 2字节 自动增加的小整数 1到32767 serial 4字节 自动增加的整数 1到2147483647 bigserial 8字节 自动增长的大整数 1到9223372036854775807 字符类型 名字 描述 character varying(n),varchar(n) 有限制的变长 character(n),char(n) 定长,空格填充 text 1GB
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        数据库基础开发
        数据类型
      • 数据库性能
        原理解释 一个操作能够并行执行是有条件的,需要逻辑上能够并行,比如做汇总(SUM),我们可以各个节点(DN)并行汇总后,最后的汇总一定是不能并行,要在某一个节点(CN)上执行,由于大部分的汇总工作已经在DN节点完成,CN端的工作是比较轻量的。 某些场景必须要集中执行,比如事务号,必须要保证全局唯一,这个任务在我们系统里是通过GTM来实现的,因此,GTM也是全局唯一的组件(主备)。所有需要全局唯一的任务DWS 都是通过GTM来完成,只是在设计上尽量避免阻塞在GTM上,因此GTM并没有太多瓶颈,而且有些场景下还可以GTMFree和GTMLite。 从传统单机数据库的应用开发模式到并行数据库,为确保获得更好的性能,可能需要对业务进行少量改动,尤其是传统Oracle的存储过程互相嵌套的开发模式,如果要保证高性能,需要进行业务修改及对应的适配。 解决方案 如遇到此类问题,请参考《数据仓库服务数据库开发指南》中的“优化查询性能”章节。 或者,请联系技术人员进行业务适配的修改调优。 业务读写阻塞,如何查看某个时间段的sql执行记录? 当您的数据库集群出现读写阻塞时,可通过TopSQL功能查看某个时间段所执行的sql语句,支持查看当前CN或者所有CN的sql语句。 TopSQL功能包括查看实时sql语句和历史sql语句: 实时sql语句查询请参见:《数据仓库服务开发指南》的“实时TopSQL”章节。 历史sql语句查询请参见:《数据仓库服务开发指南》的“历史TopSQL”章节。 DWS中“算子下盘”是什么含义? 用户业务查询执行过程中,当集群内存不足时,数据库可能会选择将临时结果暂存到磁盘。当临时结果的磁盘存储量超过一定值后,用户会收到告警“查询语句触发下盘量超阈值”,那这个告警中的“下盘量”或者经常数据库中经常出现的“算子下盘”如何理解呢?
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        数据库性能
      • 发起HBlock日志采集
        本节主要介绍如何使用API发起HBlock日志采集。 此操作用来发起HBlock日志采集。 注意 日志采集的进程不能超过10个。 请求语法 plaintext POST /rest/v1/system/logcollect HTTP/1.1 Date: date Host: ip:port ContentLength: length Authorization: authorization { "startTime": startTime, "endTime": endTime, "servers": [serverID], "logTypes": [logTypes], "outputDirectory": outputDirectory } 请求参数 参数 类型 描述 是否必须 startTime String HBlock日志采集的起始时间。 取值:unix时间戳(UTC),精确到毫秒。默认值为HBlock日志采集结束时间2小时之前的时间点。 注意 HBlock日志采集的起始时间必须早于HBlocks日志采集的结束时间。 如果HBlock日志采集的起始时间早于HBlock初始化时间,则HBlock初始化时间为日志采集起始时间。 如果修改系统时间,可能导致日志文件的最后修改时间出现波动甚至错误。 否 endTime String HBlock日志采集的结束时间。 取值:unix时间戳(UTC),精确到毫秒。默认值为当前时间。 注意 HBlock日志采集的起始时间必须早于HBlocks日志采集的结束时间。 HBlock日志采集的结束时间必须晚于HBlock初始化时间。 日志文件的最后修改时间大于结束时间时,如果存在多个大于结束时间的同类型日志,则HBlock日志采集时间值最小的那个日志文件。 否 servers Array of String 要采集HBlock日志的服务器ID。 取值:可以填写多个服务器ID,以英文逗号(,)隔开。默认采集所有服务器。 否 logTypes Array of logType 采集的日志类型 取值: Config:配置相关的日志。 System:系统相关的日志。 Data:数据处理相关的日志(仅集群版支持)。 Coordination:内部协调服务相关的日志(仅集群版支持)。 默认采集所有类型的日志。 否 outputDirectory String HBlock日志采集后存放的目录,为绝对路径。 取值:如果不指定,默认存放在被请求服务器的HBlock安装目录下。以collectedlogs/hblocklogsidyyyyMMddHHmmssyyyyMMddHHmmss.zip命名,其中: id:本次日志请求的唯一标识符。 yyyyMMddHHmmss:日志采集的起始时间和结束时间,UTC+0时间。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        事件和日志管理
        发起HBlock日志采集
      • 解决SQL Server中文乱码问题
        本文提供SQL Server中文乱码的常见原因和解决方案。 在实际生产和使用SQL Server中,常常会用到中文的情况。但是,有时候会出现中文乱码的情况,本文提供中文乱码的两种常见原因和解决思路。 安装设置问题 安装SQL Server实例时,系统默认选择的是排序规则是拉丁文的排序规则,极容易造成使用过程中出现乱码。 解决方案就是在安装实例时不使用默认值、选择ChinesePRCCSAIWS。 业务连接问题 在 一些客户业务使用SQL Server中,连接设置的字符集也会影响到中文显示问题。以Python为例,SQL Server中涉及到中文的缺省字符集是CP936,因此需要将charset设置为CP936,从而解决中文乱码问题。 import pymssql conn pymssql.connect(server"xxx",user"xxx",password"xxx",database"xxx",charset'cp936')
        来自:
        帮助文档
        关系数据库SQL Server版
        最佳实践
        解决SQL Server中文乱码问题
      • 权限管理
        本文为您介绍日志审计(原生版)的权限管理能力,支持通过IAM实现对日志审计(原生版)的访问控制、权限分配。 天翼云提供统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。通过IAM服务定义企业项目、创建子用户,轻松实现IAM子用户对日志审计(原生版)资源的访问控制、权限分配等。 默认情况下,天翼云主账号拥有管理员权限,而主账号创建的IAM用户没有任何权限。IAM用户需要加入用户组,并给用户组授权相应策略后,IAM用户才能获得策略对应的权限,才可以基于被授予的权限对云服务进行操作。 日志审计(原生版)支持企业项目管理,若您需要对日志审计(原生版)资源进行分组和管理,形成逻辑隔离,您可以创建企业项目,并将资源划分至不同的企业项目中,不同的企业项目可以绑定不同的用户组,并给用户组授予日志审计(原生版)产品的权限策略(包括系统策略和自定义策略),从而实现对特定资源的授权。 说明 仅“一类节点”区域的实例支持企业项目管理。 IAM应用场景 IAM策略主要面向同一主账号下,对不同IAM用户授权的场景: 您可以为不同操作人员或应用程序创建不同IAM用户,并授予IAM用户刚好能完成工作所需的权限,比如查看权限,进行最小粒度授权管理。 新创建的IAM用户可以使用自己的登录名和密码登录控制台,实现多用户协同操作时无需分享账号密码的安全要求。
        来自:
        帮助文档
        日志审计(原生版)
        用户指南
        权限管理
      • 在移动设备上登录Windows云主机
        本节介绍了在移动设备上登录Windows云主机的操作场景、前提条件、操作步骤。 操作场景 本节操作以“Windows Server 2012 R2 数据中心版 64位”操作系统为例,介绍如何通过Microsoft Remote Desktop客户端登录Windows实例。 前提条件 云主机状态为“运行中”。 已获取Windows云主机用户名和密码。 云主机已经绑定弹性IP,绑定方式请参见绑定弹性公网IP。 所在安全组入方向已开放3389端口,配置方式请参见配置安全组规则。 移动设备已安装Microsoft Remote Desktop。 操作步骤 1. 启动RD Client。 2. 在“Remote Desktop”页面右上角,单击图标,选择“Desktop”。 图 Remote Desktop 3. 在“Add desktop”页面,设置登录信息后,单击“SAVE”。 − PC name:输入需要登录的Windows实例的弹性公网IP地址。 − 按以下步骤设置“User name”: i. 单击“User name”,在下拉列表中选择“Add user account”。 弹出“Add user account”对话框。 ii. 输入Windows实例帐号“administrator”,并输入实例的登录密码,单击“SAVE”。 图 输入登录信息 图 保存填写的登录信息 4. 在“Remote Desktop”页面,单击需要登录的Windows实例图标。 图 登录Windows实例 5. 确认信息后,单击“CONNECT”。 图 CONNECT 至此,您已经登录Windows实例。 图 登录成功
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        登录Windows弹性云主机
        在移动设备上登录Windows云主机
      • 数据类型
        本页介绍天翼云TeleDB数据库的数据类型,包括数字类型、字符类型、二进制数据类型、日期类型和布尔类型。 数字类型 名字 存储尺寸 描述 范围 smallint 2字节 小范围整数 小范围整数 32768 到+32767 integer 4字节 整数的典型选择 2147483648 到+2147483647 bigint 8字节 大范围整数 大范围整数 9223372036854775808 到+9223372036854775807 decimal 可变 用户指定精度,精确 最高小数点前131072位,以及小数点后16383位 numeric 可变 用户指定精度,精确 最高小数点前131072位,以及小数点后16383位 real 4字节 可变精度,不精确 6位十进制精度 double precision 8字节 可变精度,不精确 15位十进制精度 smallserial 2字节 自动增加的小整数 1到32767 serial 4字节 自动增加的整数 1到2147483647 bigserial 8字节 自动增长的大整数 1到9223372036854775807 字符类型 名字 描述 character varying(n),varchar(n) 有限制的变长 character(n),char(n) 定长,空格填充 text 1GB
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        数据库基础开发
        数据类型
      • 步骤一:购买DRDS实例及RDS for MySQL实例
        购买RDS for MySQL实例 步骤 1 在云控制台登录页,输入账号及密码,登录云控制台。 步骤 2 单击管理右上角的 ,选择对应Region。 步骤 3 在控制页面单击 ,选择“数据库 > 关系型数据库”,进入RDS控制台。 步骤 4 在实例管理页面,单击页面右上方的“购买数据库实例”。 步骤 5 在购买数据库实例页面,设置实例相关信息。 相关参数的说明请参见《RDS用户指南》中“购买”章节。 注意 支持5.7、8.0版本的RDS for MySQL实例与DRDS实例进行关联。 RDS for MySQL实例的虚拟私有云(VPC)和子网必须和DRDS实例保持一致。如果子网不一致,需要额外配置路由以确保网络互通。 RDS for MySQL实例的规格建议不小于DRDS的规格,否则会影响性能。 步骤 6 实例信息设置完成后,单击页面下方“立即购买”。 步骤 7 确认配置信息,单击“提交”。等待13分钟实例即可创建成功。 结束
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤一:购买DRDS实例及RDS for MySQL实例
      • 逆向数据库(关系建模)
        本章节主要介绍逆向数据库关系建模操作。 通过逆向数据库,您可以将其他数据源的数据库中的表导入到指定的关系模型中。 前提条件 在逆向数据库之前,请先在DataArts Studio数据目录模块中对数据库进行元数据采集,以便同步数据目录时可以同步成功,否则同步数据目录将执行失败。有关数据目录元数据采集的具体操作,请参见任务管理。 逆向数据库导入表到模型中 1.在DataArts Studio数据架构控制台,单击左侧导航栏的“关系建模”进入关系建模页面。 2.在模型总览中找到所需要执行逆向数据库导入的模型,单击卡片进入模型,单击上方的“逆向数据库”。 3. 在“逆向数据库”对话框中配置如下参数。 下表为逆向数据库 参数名称 说明 所属主题 单击“选择主题”按钮选择所属的主题信息。 数据连接类型 如果逆向到逻辑模型,请在下拉列表中选择所需要的连接类型。 如果逆向到物理模型,将显示当前模型的连接类型。 数据连接 选择所需要的数据连接。 如需从其他数据源逆向数据库到关系模型中,需要先在DataArts Studio管理中心创建一个数据连接,以便连接数据源。创建数据连接的操作,请参见创建数据连接。 数据库 选择数据库。 队列 仅限DLI连接类型,需选择DLI队列。 Schema 仅限DWS连接类型,需设置DWS模式。 更新已有表 在导入时,如果所要导入的表在关系模型中已存在,是否更新已有的表。在导入时,系统将按表编码进行判断将要导入的表在当前的关系模型中是否已存在。在导入时,只有创建或更新操作,不会删除已有的表。 不更新 :如果表已存在,将直接跳过,不更新。 更新 :如果表已存在,更新已有的表信息。如果表处于“已发布”状态,表更新后,您需要重新发布表,才能使更新后的表生效。 数据表 选择“全部”时,将数据库中的所有的表都导入关系模型中。 选择“部分”时,请选择需要导入关系模型的表。 4.单击“确定”开始执行逆向数据库操作。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        逆向数据库(关系建模)
      • 重启实例
        本页介绍天翼云TeleDB数据库重启实例。 操作场景 当实例处于停止和运行状态时,TeleDB支持手动重启实例,重新启动组件所有进程。 约束与限制 停止实例过程中以及停止后不支持备份和重置密码等操作。 重启实例会导致数据库业务短暂中断,请谨慎执行。 重启实例过程中,实例将会不可用。重启后实例会自动释放内存中的缓存,请注意对业务进行预热,避免业务高峰期出现阻塞。 存在大量慢SQL、会话或线程池满的情况下会增加一定的重启耗时。 操作步骤 1. 切换至TeleDB控制台,在左侧导航单击实例列表 。 2. 单击目标实例所在行的详情 ,进入实例详情页面。 3. 在实例详情页面,在操作下拉框,单击重启实例 ,出现提示 对话框。 4. 在提示 对话框中,单击确定 重启实例。 5. 您可单击立即前往,跳转至任务管理器查看任务详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        维护管理实例
        重启实例
      • 管理云间高速
        管理云间高速(尊享版): 1、登录天翼云控制中心; 2、单击 ,选择【网络】单击【云间高速】; 3、进入云间高速服务界面,点击【云间高速管理】,如图所示 说明:线上渠道开通用户,在云间高速管理页面,可对云间高速进行补点、变更带宽、变更路由及退订等操作。 管理云间高速(标准版): 1、登录天翼云控制中心; 2、单击 ,选择【网络】单击【云间高速(标准版)】; 3、进入云间高速服务界面,点击【云间高速(标准版)】,如图所示:
        来自:
        帮助文档
        云间高速(尊享版)
        云间高速(尊享版)
        操作指导
        管理云间高速
      • 通过SQL命令安装和卸载插件
        本节介绍了通过SQL命令安装和卸载插件的相关内容。 通过SQL命令安装和卸载插件 本章节提供基于root用户的PostgreSQL插件管理方案,下列插件无需用户手动创建,其他插件均需要参考本章节内容手动创建。 autoexplain passwordcheck pgprofilepro pgsqlhistory plpgsql wal2json testdecoding 说明 RDS for PostgreSQL插件是数据库级生效,并不是全局生效。因此创建插件时需要在对应的业务库上进行手动创建。 RDS for PostgreSQL 11及以上版本的最新小版本,支持以root用户通过社区的方式来创建(create extension)、删除(drop extension)插件。 创建插件 以root用户连接需要创建插件的数据库,执行如下SQL创建插件。 select controlextension('create',' ', ' '); EXTENSIONNAME为插件名称,请参见支持的插件列表。 SCHEMA为模式名称,指定创建插件的模式位置,不指定该参数时默认为public模式。 示例如下: 创建postgis插件,创建位置为public schema。 plaintext 指定创建插件schema位置为public select controlextension('create','postgis', 'public'); controlextension create postgis successfully. (1 row) schema参数未指定时,默认schema位置为public select controlextension('create', 'postgis'); controlextension create postgis successfully. (1 row) 删除插件 以root用户连接需要创建插件的数据库,执行如下SQL删除插件。 select controlextension('drop',' ', ' '); EXTENSIONNAME为插件名称,请参见支持的插件列表。 SCHEMA为模式名称,在删除插件时参数无意义,可以不指定该参数。 示例如下: plaintext select controlextension('drop','postgis'); controlextension drop postgis successfully. (1 row)
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        管理插件
        通过SQL命令安装和卸载插件
      • 与其他服务的关系
        本文介绍NAT网关与其他服务的关系。 NAT网关与其他服务的关系如图所示: 具体关系如下表: 相关服务 具体关系 配置参考 计算实例 公网NAT网关可以为计算实例(弹性云主机、物理机、专属云主机等)提供访问公网或者为公网提供服务的能力。 源地址转换,云上资源主动访问Internet、云上资源对外提供服务,节省公网IP 虚拟私有云 NAT网关是在VPC内部部署的,它为VPC内的云资源提供了访问互联网的能力。 同VPC使用多NAT网关 弹性IP NAT网关需要绑定一个弹性公网IP,这个IP地址用于与互联网进行通信。 创建SNAT弹性IP资源池 云专线 通过云专线接入VPC的本地服务器,可以通过公网NAT网关访问公网或为公网提供服务。 云间NAT网关高速访问互联网 云监控服务 查看NAT网关的监控数据,还可以获取可视化监控图表。 查看云服务监控指标 云审计服务 通过云审计服务,可以记录与NAT网关服务相关的操作事件,便于日后的查询、审计和回溯。 查看审计事件
        来自:
        帮助文档
        NAT网关
        产品简介
        与其他服务的关系
      • 主机资产
        此小节介绍云堡垒机资产管理。 云堡垒机具备集中资源管理功能,将已有资源和资源账户添加到系统,可实现对资源账户全生命周期管理,单点登录资源,管理或运维无缝切换。 资源类型纳管资源类型丰富,包括Windows、Linux、Mac等主机资源,MySQL、PostgreSQL、Oracle等数据库资源以及Windows应用程序资源。 前提条件 仅“管理角色”支持资产相关的操作。 新增单个资产 1.使用“管理角色”账户登录云堡垒机(原生版)控制台。 2.在左侧导航栏选择“资产管理 > 资产”,进入“资产”页面。 3.单击“新增”按钮,弹出“新增资产”对话框,并填写相关内容。 参数 参数说明 取值样例 资产名称 自定义新增的资产名称。 Test 资产类型 选择新增的资产类型,可选Windows服务器、Unix/Linux服务器或数据库。 当您选择Windows服务器 或Unix/Linux服务器 时,可填写SSH登录指令/目录和Telnet登录指令/目录。 具体支持的资产类型可参考:使用限制章节。 Windows服务器 IP地址 填写待纳管资产的IP地址。 0.0.0.0 资产组 选择新增资产所在的资产组,资产组相关操作请参照:资产组章节。 资产描述 填写资产的描述。 协议 选择资产的协议类型: 当资产类型 选择Windows服务器 或Unix/Linux服务器 时支持选择:SSH、TELNET、SFTP、FTP、X11、RDP。 当资产类型 选择数据库 时支持选择:Oracle、DB2、MySQL、PostgreSQL、达梦。 协议选择完成后,需填写“端口”,若您选择的是数据库资产,还需再填写“服务器名称”。 SSH、80 账号 (可选)添加可访问资产的账号: 账号名:填写可正常访问资产的账号名。 密码:输入账户名对应的密码。 私钥:若选择该项,需要上传有效的RSA证书。 使用协议:选择账户对应的协议。 状态:选择账号状态。 您也可以在资产账号模块添加。 访问信息 选择资产系统编码,可选“UTF8”或“GBK”。 GBK 4.填写完成后,单击“连通性测试”按钮测试云堡垒机是否可以正常连接新增的资产。 5.若结果为正常,则单击“提交”完成资产新增。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        资产管理
        主机资产
      • 逆向数据库(维度建模)
        参数名称 说明 所属主题 单击“选择主题”按钮选择所属的主题信息。 数据连接类型 选择维度建模的逆向数据库。 数据连接 选择所需要的数据连接。 如需从其他数据源逆向数据库到关系模型中,需要先在DataArts Studio管理中心创建一个数据连接,以便连接数据源。创建数据连接的操作,请参见 数据库 选择数据库。 队列 仅限DLI连接类型,需选择DLI队列。 Schema DWS或POSTGRESQL的模式。该参数在DWS或POSTGRESQL连接类型有效。 更新已有表 在导入时,只有创建或更新操作,不会删除已有的表。 不更新 :如果表已存在,将直接跳过,不更新。 更新 :如果表已存在,更新已有的表信息。如果表处于“已发布”状态,表更新后,您需要重新发布表,才能使更新后的表生效。 数据表 选择“全部”时,将数据库中的所有的表都导入。 选择“部分”时,请选择需要导入的表。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        逆向数据库(维度建模)
      • 安装前检查
        您需要在部署天翼云TeleDB数据库之前,检查相关的机器、安装包、操作系统、端口等信息。 确保您的安装包与操作系统版本匹配。 检查机器之间是否存在通信问题或者拦截问题,确保主机之间网络互通。 确保已获取主机超级用户。 确保所有主机不能拥有teledbx用户,当安装或者开通实例会自动创建,无需手动创建。 若为高可用则需要配置vip,每组cn一个。 检查部署机器是否有空闲数据盘提供使用,已经挂载好磁盘不需要重新挂载。 安装之前请确保所有需要使用的服务端口未被占用。 安装的系统预先装好jdk 环境,建议 1.8.0201 版本及以上。 检查主机是否自带libaio0.3.10913.el7.x8664.rpm lz41.7.53.el7.x8664.rpmpv1.4.61.el7.x8664.rpm sshpass1.062.el7.x8664.rpm 依赖 perl 依赖。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        安装部署手册
        安装前准备
        安装前检查
      • 安装前检查
        您需要在部署天翼云TeleDB数据库之前,检查相关的机器、安装包、操作系统、端口等信息。 确保您的安装包与操作系统版本匹配。 检查机器之间是否存在通信问题或者拦截问题,确保主机之间网络互通。 确保已获取主机超级用户。 确保所有主机不能拥有teledbx用户,当安装或者开通实例会自动创建,无需手动创建。 若为高可用则需要配置vip,每组cn一个。 检查部署机器是否有空闲数据盘提供使用,已经挂载好磁盘不需要重新挂载。 安装之前请确保所有需要使用的服务端口未被占用。 安装的系统预先装好jdk 环境,建议 1.8.0201 版本及以上。 检查主机是否自带libaio0.3.10913.el7.x8664.rpm lz41.7.53.el7.x8664.rpmpv1.4.61.el7.x8664.rpm sshpass1.062.el7.x8664.rpm 依赖 perl 依赖。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        安装部署手册
        安装前准备
        安装前检查
      • 连接说明类
        TaurusDB实例连接数过多,存在什么隐患 TaurusDB连接数过多,可能会导致业务侧无法正常连接,也会导致实例全量备份和增量备份失败,影响业务的正常使用。 解决方案 1. 请及时排查业务侧连接是否有效,优化实例连接,释放不必要的连接。 2. 云监控服务目前可以监控数据库CPU、内存、磁盘、连接数等指标,并且设置告警策略,出现告警时可以提前识别风险。 ECS和TaurusDB部署在同一区域的不同的VPC内,网络不通怎么办 本节介绍了不同VPC互通的问题与处理方法。 同一区域内,不同VPC下TaurusDB内网是不通的。且创建实例后不支持切换VPC。 解决方法: 1. 为两个不同的虚拟私有云建立对等连接,实现内网互通。 2. 将ECS的虚拟私有云切换为与TaurusDB相同的虚拟私有云。 如何查看当前时间所有连接数据库的IP 在数据库上执行以下SQL语句,统计IP连接数。 SELECT substringindex(host, ':',1) AS hostname,state,count() FROM informationschema.processlist GROUP BY state,hostname;
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        数据库连接类
        连接说明类
      • 接入ARM应用监控
        ECI已自动接入APM应用性能监控,本文介绍如何查看监控数据。 背景信息 应用性能监控(Application Performance Monitoring,APM)是天翼云可观测体系中的一款产品,帮助您进行应用性能管理。 ECI实例默认接入APM应用性能监控,自动上报ECI实例的监控指标(通过系统账号,非用户账号,无需用户承担APM应用性能监控费用),包括cAdvisor容器指标、运行时指标丰富指标。 查看监控数据 通过ECI控制台查看 1. 在弹性容器实例控制台左侧导航栏中选择“容器组”,进入容器组列表页。 2. 在容器组列表中找到该实例,点击实例名称进入实例详情页面。 3. 在实例详情页面点击监控页签即可查看该实例的监控信息。参考如下图: 通过ECI OpenAPI查看 获取ECI实例监控数据,详情请参考++查询ECI监控指标++。
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过云容器引擎集群使用ECI
        监控
        接入ARM应用监控
      • Windows云主机挂载CIFS文件系统报错
        故障现象 Windows云主机挂载CIFS文件系统实例时出现以下错误: 可能原因 云主机操作系统版本过低 解决方法 登录云主机控制台,查看云主机所使用的操作系统镜像版本,与当前官网列举的兼容的操作系统版本进行比对,若操作系统版本过低,则须进行重装系统,推荐使用Windows Server 2016 Datacenter 和 Windows Server 2012 R2 Standard。更换操作系统后再尝试挂载。
        来自:
        帮助文档
        弹性文件服务 SFS
        故障修复
        Windows云主机挂载CIFS文件系统报错
      • 安装前检查
        您需要在部署天翼云TeleDB数据库之前,检查相关的机器、安装包、操作系统、端口等信息。 确保您的安装包与操作系统版本匹配。 检查机器之间是否存在通信问题或者拦截问题,确保主机之间网络互通。 确保已获取主机超级用户。 确保所有主机不能拥有teledbx用户,当安装或者开通实例会自动创建,无需手动创建。 若为高可用则需要配置vip,每组cn一个。 检查部署机器是否有空闲数据盘提供使用,已经挂载好磁盘不需要重新挂载。 安装之前请确保所有需要使用的服务端口未被占用。 安装的系统预先装好jdk 环境,建议 1.8.0201 版本及以上。 检查主机是否自带libaio0.3.10913.el7.x8664.rpm lz41.7.53.el7.x8664.rpm pv1.4.61.el7.x8664.rpm sshpass1.062.el7.x8664.rpm 依赖 perl 依赖。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装前准备
        安装前检查
      • 计算加速型P1
        使用须知 P1型云主机的系统盘大小建议大于40GiB。 P1型云主机配置了NVMe SSD本地盘,专为深度学习训练、HPC高性能计算等对存储I/O性能有极高要求的业务场景设计。本地盘与特定规格的云主机绑定,不可单独购买,不可卸载并挂载到另一台云主机上使用。 说明 P1型云主机配置的NVMe SSD本地盘有丢失数据的风险(比如NVMe SSD故障或宿主机故障时),强烈建议您在本地NVMe SSD磁盘中存放临时数据,如需存放重要数据,请做好数据备份。 P1型云主机创建完成后,需安装NVIDIA驱动,实现计算加速功能。安装操作,请参见GPU加速型实例安装Tesla驱动及CUDA工具包章节。 P1型弹性云主机不支持规格变更。 P1型弹性云主机不支持自动恢复功能。 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭ECS完成宿主机硬件维修动作。 因系统维护或硬件故障等,HA重新部署ECS实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。 P1型弹性云主机当前支持如下版本的操作系统: Windows Server 2019 Standard 64bit Windows Server 2016 Standard 64bit Windows Server 2012 R2 Standard 64bit Debian 8.0 64bit CentOS 7.3 64bit Ubuntu Server 16.04 64bit EulerOS 2.2 64bit 删除P1型弹性云主机后,本地NVMe SSD磁盘的数据会被自动清除。 使用公共镜像创建的P1型云主机,默认已安装Tesla驱动。 使用私有镜像创建的P1型云主机,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云主机创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包章节。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        计算加速型P1
      • 更新集群密钥
        本章主要介绍翼MapReduce的更新集群密钥功能。 操作场景 在安装集群时,系统将自动生成加密密钥key值以对集群的部分安全信息(例如所有数据库用户密码、密钥文件访问密码等)进行加密存储。在集群安装成功后,如果原始密钥不慎意外泄露或者需要使用新的密钥,系统管理员可以通过以下操作手动更改密钥值。 对系统的影响 更新集群密钥后,集群中新增加一个随机生成的新密钥,用于加密解密新保存的数据。旧的密钥不会删除,用于解密旧的加密数据。在修改安全信息后,例如修改数据库用户密码,新密码将使用新的密钥加密。 更新集群密钥需要停止集群,集群停止时无法访问。 前提条件 已确认主备管理节点IP。请参见登录管理节点。 停止依赖集群运行的上层业务应用。 操作步骤 1.登录FusionInsight Manager。 2.选择“集群 > 待操作集群的名称 > 停止”,输入当前登录的用户密码确认身份。 在确认停止的对话框单击“确定”,等待界面提示停止成功。 3.以omm用户登录主管理节点。 4.执行以下命令,防止超时退出。 TMOUT0 说明 执行完本章节操作后,请及时恢复超时退出时间,执行命令 TMOUT 超时退出时间 。例如: TMOUT600 ,表示用户无操作600秒后超时退出。 5.执行以下命令,切换目录。 cd ${BIGDATAHOME}/omserver/om/tools 6.执行以下命令,更新集群密钥。 sh updateRootKey.sh 根据界面提示,输入 y : The root key update is a critical operation. Do you want to continue?(y/n): 界面提示以下信息表示更新密钥成功: Step 41: The key save path is obtained successfully. ... Step 44: The root key is sent successfully. 7.在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 启动”。 在弹出窗口中单击“确定”,等待界面提示启动成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全加固
        更新集群密钥
      • 1
      • ...
      • 87
      • 88
      • 89
      • 90
      • 91
      • ...
      • 633
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      推荐文档

      加入会议

      备案信息需真实有效

      性能瓶颈定界

      云课堂 第十八课:天翼云函数服务之“Hello,World!”

      云课堂 第十七课:天翼云在线语音合成AI云服务测试Demo

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号