云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      关系数据库SQL Server版_相关内容
      • 返回值类型介绍
        $$ teledb LANGUAGE PLPGSQL; CREATE FUNCTION teledb SELECT FROM f19(); id mc + 1 teledb 2 teledb1 (2 rows) teledb CREATE OR REPLACE FUNCTION f20(aint integer) RETURNS SETOF record AS teledb $$ teledb$ DECLARE teledb$ aint定义返回的字段数,实现动态列返回 teledb$ vrec record; teledb$ vsql text; teledb$ BEGIN teledb$ IF aint 2 THEN teledb$ vsql:'SELECT id,yhm FROM t1 ORDER BY id '; teledb$ ELSE teledb$ vsql:'SELECT id,yhm,nc FROM t1 ORDER BY id'; teledb$ END IF; teledb$ FOR vrec IN EXECUTE vsql LOOP teledb$ RETURN NEXT vrec; teledb$ END LOOP; teledb$ RETURN ;最后的RETURN可以加,也可以不加上去 teledb$ END; teledb$ $$ teledb LANGUAGE PLPGSQL; CREATE FUNCTION teledb SELECT FROM f20(2) t(id integer,yhm text); id yhm + 1 teledb 2 teledb1 (2 rows) teledb SELECT FROM f20(3) t(id integer,yhm text,nc text); id yhm nc ++ 1 teledb teledb 2 teledb1 teledb1 (2 rows) teledb CREATE OR REPLACE FUNCTION f21(OUT aid integer,OUT ayhm TEXT) RETURNS SETOF record AS teledb $$ teledb$ DECLARE teledb$ 使用out返回 teledb$
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        PL:pgsql开发
        返回值详细介绍
        返回值类型介绍
      • 创建Flink SQL作业
        本章节主要介绍创建Flink SQL作业 。 Flink SQL是一种由用户根据自己的逻辑需求编写作业的方式。用SQL表达业务逻辑,可以简便快捷的实现业务。目前Flink SQL作业支持两种Flink SQL语句编辑方式:SQL编辑器和可视化编辑器。本章节主要介绍使用SQL编辑器编写Flink SQL作业的方式。 前提条件 创建Flink SQL作业时,需要事先准备数据源以及数据输出通道,具体内容请参见准备Flink作业数据。 创建Flink SQL作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 1. 当前Flink作业支持访问的外部数据源详情请参考增强型跨源连接概述。 2. 创建跨源连接操作请参见增强型跨源连接。创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考测试地址连通性。 创建FLink SQL作业 1. 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入“Flink作业”页面。 2. 在“Flink作业”页面右上角单击“创建作业”,弹出“创建作业”对话框。 3. 配置作业信息。 详见下表:作业配置信息 参数 参数说明 类型 选择“Flink SQL”:用户通过编辑SQL语句来启动作业。 名称 作业名称,只能由字母、中文、数字、中划线和下划线组成,并且长度为1~57字节。 说明 作业名称必须是唯一的。 描述 作业的相关描述,长度为0~512字节。 模板名称 用户可以选择样例模板或自定义的作业模板。关于模板的详细信息,请参见Flink模板管理。 4. 单击“确定”,进入作业“编辑”页面。 5. 编辑SQL作业。 在SQL语句编辑区域,输入详细的SQL语句。相关SQL语句请参考《数据湖探索SQL语法参考》。 6. 单击“语义校验”,确保语义校验成功。 只有语义校验成功后,才可以执行“调试”或“启动”作业的操作。 如果校验成功,提示“SQL语义校验成功”。 如果校验失败,会在错误的SQL语句前面显示红色的“X”记号,鼠标移动到“X”号上可查看详细错误,请根据错误提示修改SQL语句。 7. 设置作业运行参数 参见下表:作业运行参数说明 参数 参数说明 所属队列 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 当所选择队列的剩余容量不能满足作业需求时,系统会自动扩容。当队列空闲时,系统也会自动缩容。 UDF Jar 选择“独享队列”时可配置该参数。 用户自定义UDF文件,在选择UDF Jar之前需要将对应的jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,具体操作请参考创建程序包。 用户可以在SQL中调用插入Jar包中的自定义函数。 CU数量 CU数量为DLI的计算单元数量和管理单元数量总和,1CU1核4G。 当前配置的CU数量为运行作业时所需的CU数,不能超过其绑定队列的CU数量。 管理单元 管理单元CU数量。 并行数 并行数是指同时运行Flink SQL作业的最大任务数。适度增加并行数会提高作业整体算力,但也须考虑线程增多带来的切换开销。 说明 最大并行数不能大于计算单元(CU数量管理单元)的4倍。 该界面并行数优先级低于代码中并行数设置。 TaskManager配置 用于设置TaskManager资源参数。 勾选后需配置下列参数: “单TM所占CU数”:每个TaskManager占用的资源数量。 “单TM Slot”:每个TaskManager包含的Slot数量。 OBS桶 选择OBS桶用于保存用户作业日志信息、checkpoint等信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 保存作业日志 设置是否将作业运行时的日志信息保存到OBS。日志信息的保存路径为:“桶名/jobs/logs/作业id开头的目录”。在作业列表中,单击对应的作业名称,在“运行日志”页签,可以单击页面提供的OBS链接跳转至对应的路径下。 注意 该参数建议勾选,否则作业运行完成后不会生成运行日志,后续如果作业运行异常则无法获取运行日志进行定位。 勾选后需配置下列参数: “OBS桶”:选择OBS桶用于保存用户作业日志信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 作业异常告警 设置是否将作业异常告警信息,如作业出现运行异常或者欠费情况,以SMN的方式通知用户。 勾选后需配置下列参数: “SMN主题”: 选择一个自定义的SMN主题。如何自定义SMN主题,请参见《消息通知服务用户指南》中“创建主题”章节。 开启Checkpoint 设置是否开启作业快照,开启后可基于Checkpoint(一致性检查点)恢复作业。 勾选后需配置下列参数: “Checkpoint间隔”:Checkpoint的时间间隔,单位为秒,输入范围1~999999,默认值为30s。 “Checkpoint模式”:支持如下两种模式: − At least once:事件至少被处理一次。 − Exactly once:事件仅被处理一次。 “OBS桶”:选择OBS桶用于保存用户Checkpoint。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 Checkpoint保存路径为:“桶名/jobs/checkpoint/作业id开头的目录”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 异常自动重启 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 勾选后需配置下列参数: “异常重试最大次数”:配置异常重试最大次数。单位为“次/小时”。 − 无限:无限次重试。 − 有限:自定义重试次数。 “从Checkpoint恢复”:需要同时勾选“开启Checkpoint”才可配置该参数。 空闲状态保留时长 用于清除GroupBy或Window经过最大保留时间后仍未更新的中间状态,默认设置为1小时。 脏数据策略 选择处理脏数据的策略。支持如下三种策略:“忽略”,“抛出异常”和“保存”。 说明 “保存”是指将脏数据保存到OBS桶中。 脏数据转储地址 “脏数据策略”选择“保存”时,配置该参数。单击地址框选择保存脏数据的OBS路径。 8. (可选)根据需要调试参数。作业调试功能只用于验证SQL逻辑,不会有数据写入操作。 具体操作请参见 调试Flink作业。 9. (可选)根据需要设置自定义配置。自定义配置为用户自定义。 10. 单击“保存”,保存作业和相关参数。 11. 单击“启动”,进入“启动Flink作业”页面,确认作业规格后,单击“立即启动”,启动作业。 启动作业后,系统将自动跳转到Flink作业管理页面,新创建的作业将显示在作业列表中,在“状态”列中可以查看作业状态。作业提交成功后,状态将由“提交中”变为“运行中”。运行完成后显示“已完成”。 如果作业状态为“提交失败”或“运行异常”,表示作业提交或运行失败。用户可以在作业列表中的“状态”列中,将鼠标移动到状态图标上查看错误信息,单击可以复制错误信息。根据错误信息解决故障后,重新提交。 说明 其他功能按钮说明如下: 另存为:将新建作业另存为一个新作业。 调试:对作业进行调试。具体操作请参见 格式化:对SQL语句进行格式化。 设为模板:将新创建的作业设置为作业模板。 主题设置:设置页面主题,可以设置字体大小,自动换行和页面风格。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink SQL作业
      • 续订
        本节主要介绍续订的相关内容。 说明 当产品实例到达到期时间,则会暂停相应的服务。建议实例到期前可以通过续订操作延后实例的到器时间。 1. 实例列表中选待续订实例的“续费”链接; 2. 选择续订的时长,并完成订单支付。
        来自:
        帮助文档
        分布式关系型数据库
        计费说明
        续订
      • 云企业路由器工作原理
        管控路由 路由表 在云间高速网络中,云企业路由器是一种连接网络并转发网络流量的重要设备。云企业路由器通过查询路由表中的路由条目信息,将网络流量准确地转发到目标网络。 每个云企业路由器都默认携带一个默认路由表,但您可以根据需要为云企业路由器创建自定义路由表。两个路由表之间互不相通,有助于实现访问隔离。 关联转发 关联转发功能控制网络实例的流量转发。网络实例通过与云企业路由器建立关联转发关系,可以将流量进行转发。云企业路由器则会通过查询路由表中的路由条目信息,来转发网络实例的流量。 一个网络实例只能与云企业路由器建立一种关联转发关系。 自定义路由条目 云企业路由器路由表支持添加自定义路由条目。您可以通过在云企业路由器路由表中添加自定义路由条目辅助控制网络实例流量的转发。 路由策略 路由策略功能可精准控制企业版转发路由器路由表中的路由传播。借助路由策略,您能够自主决定是否将企业版转发路由器路由表内的路由传播至网络实例,或是其他地域的转发路由器。不仅如此,您还能利用路由策略对企业版转发路由器路由表中路由的属性进行修改。 当您添加路由策略时,需选定与该路由策略相关联的企业版转发路由器路由表。值得注意的是,路由策略仅对其关联的路由表内的路由进行过滤和属性修改操作。
        来自:
        帮助文档
        云间高速(标准版)EC
        产品简介
        云企业路由器工作原理
      • 冷热数据分离加密
        本页介绍天翼云TeleDB数据库冷热数据分离加密。 创建透明加密算法 teledb c mlsadmin Password for user mlsadmin: You are now connected to database "teledb" as user "mlsadmin". teledb> select MLSTRANSPARENTCRYPTCREATEALGORITHM('AES192', '1234567adbdef'); mlstransparentcryptcreatealgorithm 1 (1 row) 第一个参数为透明加密算法:AES128,AES192,AES256,SM4。 第二个参数为透明加密算法密码,可以自行设置。 创建带加密算法的USER MAPPING teledb CREATE USER MAPPING FOR XXX SERVER minionforeignserver OPTIONS (user 'XXX', algoid ‘X’, accesskey 'XXXXXXXXXXXXX', secretkey 'XXXXXXXXXX'); CREATE USER MAPPING User:对象存储服务用户名(如有)。 algoid:创建的透明加密算法id,如上面的1。 Accesskey:对象存储服务accesskey。 Secretkey:对象存储服务secretkey。 创建成功后可以查看系统表pgusermapping,ak和sk是否已经加密,是否带有algoid。 teledb select from pgusermapping; umuser umserver umoptions ++ 10 16583 {userXXX,algoid1,accesskeyXXXXXXXXXXXXX,secretkeyXXXXXXXXXX} (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        冷热数据分离
        冷热数据分离加密
      • 场景二:创建OBS自建桶迁移任务
        本节主要介绍场景二:创建OBS自建桶迁移任务 介绍OBS自建桶场景下的备份迁移。您可以将本地数据库备份文件上传到OBS桶,然后通过下载OBS桶里的备份文件,对已有数据库实例进行备份数据迁移。 本小节主要介绍通过数据库复制控制台创建备份迁移任务的配置流程。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足备份移支持的数据库类型,参见备份迁移。 满足备份迁移的限制条件,参见使用须知。 操作步骤 以下操作流程仅以Microsoft SQL Server引擎为示例,详细介绍数据库备份迁移任务的配置流程,其他存储引擎的配置流程类似。 1、在“备份迁移管理”页面,单击“创建迁移任务”。 2、在“选定备份”页面输入任务名称和描述,填选备份文件信息,单击“下一步”。 图 任务信息 表 任务信息 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 备份文件信息 表 备份文件信息 参数 描述 数据库类型 备份文件的数据库类型,选择Microsoft SQL Server。 备份文件来源 选择OBS自建桶。 桶名 选择备份文件所在的桶名,以及该桶目录下的备份文件。 说明 Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。 不支持将一个库分割成不同文件上传。 该桶的桶名、备份文件名或者路径中不能包含中文。 3、在“选定目标”页面,根据所选数据库类型,配置相应的数据库信息,单击“下一步”。 图 Microsoft SQL Server数据库信息 表 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。若没有合适的目标RDS数据库实例,请先创建所需的目标数据库实例。 待恢复备份类型 请根据业务需求,选择全量备份或增量备份类型。 全量备份:指备份文件是完整备份类型的备份。 增量备份:指备份文件是日志类型的备份。 说明 进行增量备份恢复前,需要先执行一次全量备份恢复的操作。 一次性数据库迁移,则需要停止业务,上传全量备份进行恢复。 如果需要数据库迁移中业务不中断,则需要使用全量备份和多次增量日志备份的恢复来实现业务中断最小化。 最后一个备份 一次典型的增量恢复过程,会涉及多次恢复增量备份。每个增量备份恢复均会使目标数据库保持还原中状态,此时数据库不可读写,直至最后一个增量备份恢复完成后,数据库才能变成可用状态。此后数据库将无法继续进行增量恢复,所以确定为最后一个备份的场景有: 一次性全量迁移,后续将不再进行增量恢复,选择“是”。 增量恢复流程中,最后割接阶段的最后一个增量备份选择“是”。 覆盖还原 覆盖还原是指目标端数据库实例已经存在同名的数据库,备份还原中是否要覆盖已存在的数据库。您可以根据业务需求,选择是否进行覆盖还原。 说明: 若选择此项,目标数据库实例中与待还原数据库同名的数据库将会被覆盖,请谨慎操作。 执行预校验 备份迁移任务是否执行预校验,默认为是。 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。 否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复,默认恢复全部数据库。 全部数据库:恢复备份文件中所有的数据库,不需要填写待还原的数据库名。 部分数据库:恢复备份文件中的部分数据库,需要填写待还原的数据库名。全量备份与增量备份需要保证指定恢复的数据库始终一致。 重置数据库名 当选择的指定恢复数据库类型为“全部数据库”时,您可以选择重置数据库名。该功能将忽略备份文件中原有的数据库名,通过DRS将其恢复为指定的新数据库名。 使用条件: 备份文件中只有一个数据库。 备份文件是全量备份类型(待恢复备份类型选择:全量备份),且是一次性恢复(最后一个备份选择:是)。 说明: 仅支持“待恢复备份类型”为“全量备份”,且“指定需要恢复的数据库类型”为“全部数据库”时重置数据库名。 待还原数据库名称 当选择的指定恢复数据库类型为“部分数据库”时,需要输入待还原数据库名称。 待还原数据库名称必须与备份文件中的数据库名称一致,区分大小写,长度为1~256个字节,可以包含中文、字母,数字、中划线和下划线,不能包含其他特殊字符。 此处,数据库复制服务还提供待还原数据库别名设置的功能,具体使用场景如下: 如果您选择的是全量备份下的部分数据库恢复,那么可以在填写待还原数据库名称时,根据需求为待还原数据库进行别名设置,该别名也将存储于目标端数据库。 如果是增量备份下部分数据库恢复,则不支持待还原数据库别名设置功能。 说明: 待还原数据库支持重命名,最大配额为100个。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 备份迁移
        场景二:创建OBS自建桶迁移任务
      • 通过PVC创建克隆卷
        本节主要介绍通过PVC创建克隆卷的步骤。 前提条件 CSI中已经存在HBlock相关的PVC,且对应的HBlock卷为Local模式。 在执行此操作之前,请确保源卷(PVC)的所有数据已持久化,即如果源卷已被客户端挂载,需确保客户端的数据都已经同步到卷上。创建克隆卷前: 如果是block模式的卷:在客户端执行sync命令。 如果是filesystem模式的卷:如果客户端支持sync f(可以通过sync help命令查看是否支持),在客户端执行sync f命令;否则在客户端执行sync命令。 操作步骤 1. 创建克隆卷的StorageClass配置文件(可选)。 说明 如果下列参数在克隆卷的StorageClass和源卷StorageClass都存在,但是取值不同,则以克隆卷StorageClass中的取值为准。 plaintext apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csistorsclocal provisioner: stor.csi.k8s.io parameters: clusterID: clusterID storageMode: Local sectorSize: sectorSize localStorageClass: localStorageClass minReplica: minReplica redundancyOverlap: redundancyOverlap ECfragmentSize: ECfragmentSize highAvailability: highAvailability writePolicy: writePolicy isMultipath: isMultipath pool: pool cachePool: cachePool flattenVolumeFromSnapshot: "false" maxCloneDepth: maxCloneDepth maxSessions: maxSessions serverNumbers: serverNumbers faultDomains: faultDomains chapEnable: "false" chapUser: username chapPassword: password reclaimPolicy: Delete volumeBindingMode: Immediate allowVolumeExpansion: true 克隆卷的StorageClass配置文件参数: 参数 描述 是否必填 metadata.name StorageClass的名称。 是 provisioner HBlock CSI驱动名称。 取值:HBlock CSI安装时的驱动名称。 是 parameters.clusterID csiconfigMap.yaml中配置的HBlock的标识。需要与源卷的clusterID保持一致。 是 parameters.storageMode 卷的存储类型。 取值:Local。默认与源卷保持一致。 否 parameters.sectorSize 扇区大小。根据客户端文件系统 I/O 操作的最小单位设定卷扇区大小。 取值:"512"、"4096",单位是bytes。默认值为源卷的扇区大小。 否 parameters.localStorageClass 本地存储冗余模式。单机版不能设置此参数。 注意 如果设置了克隆卷的minReplica或redundancyOverlap,则必须同时指定该参数。 取值: singlecopy:单副本; 2copy:两副本; 3copy:三副本; EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M<128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的卷冗余模式。 否 parameters.minReplica 最小副本数(仅集群版支持)。 注意 如果指定该参数,则必须指定克隆卷的localStorageClass。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的最小副本数。 如果指定了克隆卷的localStorageClass:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[N, N+M],默认值为N。 否 parameters.redundancyOverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定该参数,则必须指定克隆卷的localStorageClass。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的折叠副本数。 如果指定了克隆卷的localStorageClass:对副本模式,取值范围是[1,副本数];对于EC卷,取值范围是[1, N+M]。默认值为1。 否 parameters.ECfragmentSize 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 否 parameters.highAvailability 是否选择高可用模式。单机版不能设置此参数。 取值: ActiveStandby:启动主备,该卷关联对应Target下的所有IQN。 Disabled:禁用高可用模式,该卷关联对应Target下的一个IQN。 默认值为源卷的高可用类型。 否 parameters.writePolicy 卷的写策略。 取值: WriteBack:回写,即数据写入到内存后,立刻返回给客户端写成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,即数据同时写入内存和磁盘,并在两处都写成功后,再返回客户端写成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,即数据写入磁盘后即释放相应内存,写入磁盘成功后,立刻返回客户端写成功。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 否 parameters.isMultipath 是否使用Multipath。 取值: "true"。 "false"。 默认值为"true"。 注意 这里需要输入字符串,即"true"或"false"。 如果HBlock集群版使用的HBlock卷没有启用高可用模式,即highAvailability为Disabled,此处需要设置为"false",否则会导致pod启动失败。 如果是HBlock单机版,此处需要设置为"false"。 条件 parameters.path 指定存储卷数据的数据目录(仅单机版支持)。 如果创建卷时不指定数据目录,默认与源卷配置保持一致。 否 parameters.pool 存储池名称,表示最终存储池,卷数据最终落在该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.cachePool 存储池名称,表示高速缓存存储池,卷数据首先写入该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.flattenVolumeFromSnapshot 是否断开克隆卷与快照的关系链。 取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.maxCloneDepth 最大克隆卷深度,当超过设置的最大深度时,新创建的克隆卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。 否 parameters.maxSessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 注意 卷模式为filesystem,取值只能为1。 否 parameters.serverNumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 parameters.faultDomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 parameters.chapEnable 是否使用CHAP认证,取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.chapUser CHAP认证的用户名。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的用户名使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 parameters.chapPassword CHAP认证的密码。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的密码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是12~16,必须包含大写字母、小写字母、数字、下划线()中的至少两种字符,字母区分大小写。 否 parameters.IOPS 每秒能够进行读写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.readIOPS 每秒能够进行读操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.writeIOPS 每秒能够进行写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.Bps 每秒可传输数据量的最大值。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.readBps 读带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBps 写带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurst 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:只有当IOPS大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.readIOPSBurst 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或(readIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.writeIOPSBurst 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或(writeIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.BpsBurst 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或(Bps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.readBpsBurst 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或(readBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBpsBurst 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或(writeBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.BpsBurstSecs 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readBpsBurstSecs 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeBpsBurstSecs 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 2. 创建克隆卷的配置文件。 plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: clonepvcfrompvcblock
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        创建克隆卷
        通过PVC创建克隆卷
        通过PVC创建克隆卷
      • 读写分离操作指导
        前提条件 已申请DRDS实例和带只读实例的数据节点。 已经创建好逻辑库。 操作步骤 1、登录分布式关系型数据库控制台。 2、单击目标实例名称,进入实例基本信息页面。 3、在左侧导航栏,单击“DN管理”页签。 4、开启读写分离。 5、设置读写权重。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        DN管理
        读写分离操作指导
      • 手动搭建LNMP环境
        安装MySQL 1. 依次执行以下命令,安装MySQL。 plaintext rpm Uvh yum y install mysqlcommunityserver 2. 依次执行以下命令,启动MySQL服务并设置开机自启动。 plaintext systemctl start mysqld systemctl enable mysqld 3. 执行以下命令,获取安装MySQL时自动设置的root用户密码。 plaintext grep 'temporary password' /var/log/mysqld.log 回显如下类似信息。 plaintext 20180829T07:27:37.541944Z 1 [Note] A temporary password is generated for root@localhost: 2YY?3uHUA?Ys 4. 执行以下命令,并按照回显提示信息进行操作,加固MySQL。 plaintext mysqlsecureinstallation Securing the MySQL server deployment. Enter password for user root: 输入上一步骤中获取的安装MySQL时自动设置的root用户密码 The existing password for the user account root has expired. Please set a new password. New password: 设置新的root用户密码 Reenter new password: 再次输入密码 The 'validatepassword' plugin is installed on the server. The subsequent steps will run with the existing configuration of the plugin. Using existing password for root. Estimated strength of the password: 100 Change the password for root ? ((Press yY for Yes, any other key for No) : N 是否更改root用户密码,输入N ... skipping. By default, a MySQL installation has an anonymous user, allowing anyone to log into MySQL without having to have a user account created for them. This is intended only for testing, and to make the installation go a bit smoother. You should remove them before moving into a production environment. Remove anonymous users? (Press yY for Yes, any other key for No) : Y 是否删除匿名用户,输入Y Success. Normally, root should only be allowed to connect from 'localhost'. This ensures that someone cannot guess at the root password from the network. Disallow root login remotely? (Press yY for Yes, any other key for No) : Y
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建环境相关最佳实践
        手动搭建LNMP环境
      • Serverless集群概述
        本文介绍Serverless集群概述。 产品简介 云容器引擎Serverless版是天翼云提出的Serverless Kubernetes容器服务。与传统Kubernetes集群相比,Serverless集群无需购买节点即可直接部署容器应用,同时无需对集群进行节点维护和容量规划,降低了Kubernetes使用门槛,让用户更专注于应用程序,而不是管理底层基础设施。Serverless集群提供完善的Kubernetes兼容能力,您可以轻松迁移已有的Kubernetes应用到Serverless集群上,并且根据应用配置的CPU和内存资源量进行按需付费。 使用场景 互联网企业:大规模业务上线生产环境,对管控的稳定性、可观测性和安全性有较高要求。 大数据计算企业:大规模数据计算、高性能数据处理、高弹性需求等类型业务,对集群稳定性、性能和效率有较高要求。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        集群
        Serverless集群概述
      • 内核发版记录
        本文介绍RDSPostgreSQL内核发版记录。 RDSPostgreSQL支持的社区版本及发布日期如下表所示。 发布日期 版本修改说明 202205 Ⅰ类资源池:新增 PostgreSQL 12.3版本 202304 Ⅱ类资源池:新增 PostgreSQL 14.6版本 202306 Ⅱ类资源池:新增 PostgreSQL 13.9版本 202310 Ⅱ类资源池:升级内核小版本至 PostgreSQL 12.16、13.12、14.9版本,并修复部分漏洞 202312 Ⅱ类资源池:新增 PostgreSQL 15.4版本 202409 Ⅱ类资源池:升级内核小版本至 PostgreSQL 12.20、13.16、14.13、15.8版本,并修复部分漏洞 202501 Ⅱ类资源池:西南1新增 PostgreSQL 16.4版本 202503 Ⅱ类资源池:放开全网Ⅱ类资源池 PostgreSQL 16.4版本 202504 Ⅱ类资源池:升级内核小版本至 PostgreSQL 12.22、13.20、14.17、15.12、16.8版本,并修复部分漏洞 202506 Ⅱ类资源池:部分资源池新增 PostgreSQL 17.5版本 202507 Ⅱ类资源池:PostgreSQL 12~16版本新增适配rdkit插件
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        RDS-PostgreSQL内核
        内核发版记录
      • 数据切分策略
        切分原则 分表分库虽然能解决大表对数据库系统的压力,但它并不是万能的,也有一些不利之处,因此首要问题为:分不分库,分哪些库,什么规则分,分多少分片。 原则一 分片数量尽量少,分片尽量均匀分布在多个DataHost 上,因为一个查询SQL 跨分片越多,则总体性能越差,虽然要好于所有数据在一个分片的结果,只在必要的时候进行扩容,增加分片数量。 原则二 能不分片就不分片,800万以内的表,不建议分片,通过合适的索引,读写分离等方式,可以很好的解决性能问题。 原则三 不到800 万但跟大表(超800 万的表)有关联查询的表也要拆分,在此称为大表关联表。大表关联表如何拆:小于100 万的使用全局表;大于100 万小于800 万跟大表使用同样的拆分策略;无法跟大表使用相同规则的,可以考虑从java 代码上分步骤查询,不用关联查询,或者破例使用全局表。 原则四 破例的全局表(例如itemsku 表250万行数据),跟大表关联了,又无法跟大表使用相同拆分策略,也做成了全局表。破例的全局表必须满足的条件:没有太激烈的并发update,如多线程同时update 同一条id1 的记录。虽有多线程update,但不是操作同一行记录的不在此列。多线程update 全局表的同一行记录会死锁,批量insert 没问题。 原则五 拆分字段只能是一个字段,如果想按照两个字段拆分,必须新建一个冗余字段,冗余字段的值使用两个字段的值拼接而成(如大区+年月拼成zoneyyyymm 字段)。 原则六 分片规则需要慎重选择,分片规则的选择,需要考虑数据的增长模式,数据的访问模式,分片关联性问题,分片扩容问题以及数据热点问题。 原则七 分片规则的选择问题,如果某个表的数据有明显的时间特征,比如订单、交易记录等,则他们通常比较合适用时间范围分片,因为具有时效性的数据,我们往往关注其近期的数据,查询条件中往往带有时间字段进行过滤,比较好的方案是,当前活跃的数据,采用跨度比较短的时间段进行分片,而历史性的数据,则采用比较长的跨度存储。总体上来说,分片的选择是取决于最频繁查询SQL 的条件。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        SQL调优指南
        数据切分策略
      • 测试数据生成
        数据管理服务DMS的测试数据生成功能支持为多表批量生成枚举、字符串、序列等类型的数据,可以大大减轻准备测试数据的负担。本文将介绍构建测试数据的方法。 前提条件 组织版本:基础版、企业版均可 支持的数据库类型:MySQL、PostgreSQL 背景信息 在测试环节,数据准备往往是最容易被忽视却又最耗时的部分。无论是功能测试还是性能压测,构造合适的数据集都至关重要。但现实中,常见的几种方式各有痛点: 从线上系统导出数据,存在较高的数据安全和合规风险,容易导致敏感信息泄露; 人工创建数据适用于简单场景,但在面对大规模或复杂结构数据时效率低下; 通过脚本生成数据具备一定的灵活性,但通用性差,维护成本较高; 在实际研发流程中,测试数据生成需要在效率、质量、安全之间取得平衡。为满足这一需求,DMS 提供了测试数据生成功能,支持高效生成数据集。通过该能力,开发与测试团队可以快速构建符合需求的测试数据,显著提升测试效率。 注意事项 支持按需操作单个/多个表 每张表的单次生成上限阈值为100万行 操作步骤 1. 登录DMS控制台。 2. 在左侧导航栏,单击开发空间>测试数据生成,进入测试数据生成页面。 3. 单击数据生成 按钮,弹出数据生成工单填写弹窗,工单需要选择或输入的内容说明见下表1。 4. 填写完数据生成工单后,单击提交按钮,即完成工单的提交。 5. 数据生成任务的工单状态与执行进度,可在工单详情页面查看。 表1 工单输入内容说明 输入内容 说明 目标数据库 选择测试数据生成的数据库/模式,数据来源于在DMS控制台中添加的数据库实例,其中MySQL可选择到库级别,PostgreSQL可选择到模式级别。当前仅支持单选一个目标库/模式。 生成对象 选择需要生成测试数据的表名,以及确定对应的生成行数。表的每一列都对应一个仿真规则,每个仿真规则都对应一个配置信息;也可以选择删除该列的仿真规则。 冲突处理 选项:遇到冲突中止、遇到冲突跳过。注意:当批次内出现冲突时,系统将跳过整个批次,而非仅跳过冲突行 并发数 范围:15。注意:并发数较高时可能给系统带来性能负担,影响其他服务的访问。请合理的配置并发数
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        测试数据生成
      • DSC支持解析的非结构化文件类型?
        序号 文件类型 序号 文件类型 1 Access数据库文件 74 Pdf文档 2 Arff文件 75 Perl源代码 3 Asp文件 76 Pgp文件 4 Atom文件 77 Php源代码 5 Bat文件 78 Pkcs7数字证书文件 6 Bcpl源代码 79 Plist文件 7 Bib文件 80 Postgres数据库文件 8 C源代码 81 Postscript文档 9 C/C+源代码 82 Powerpoint文档 10 Cad Sldworks文件 83 Properties文件 11 Cad文档 84 Publisher文件 12 Cbor文件 85 Python源代码 13 Cfg文件 86 QuattroPro电子表格 14 Chm文件 87 Redis数据库文件 15 Com可执行文件 88 Rss文件 16 Css文件 89 Rtf文档 17 Datax配置文件 90 Ruby源代码 18 Dbf文件 91 R源代码 19 Dif文件 92 Sas7Bdat文件 20 Dita文件 93 Sas文件 21 Djvu文档 94 Scala源代码 22 Dos可执行文件 95 Shell脚本 23 D源代码 96 Sqlite3数据库文件 24 Elf可执行文件 97 Sqlserver数据库文件 25 Epub电子书 98 Sql源代码 26 Excel文档 99 Ssh公钥 27 Fdf文档 100 Ssh配置文件 28 Fictionbook Xml文件 101 Ssh私钥 29 Ftp会话文件 102 Staroffice文档 30 Gnuccash财务xml文件 103 Swift源代码 31 Go源代码 104 Tab文件 32 Groovy源代码 105 Tcl源代码 33 Hdr文件 106 Text文件 34 Hocon文件 107 Tff文件 35 Html文件 108 Tnef文件 36 Htm文件 109 Tomcat Application配置文件 37 Hwp文件 110 Tomcat Users配置文件 38 Ibooks文件 111 Tomcat配置文件 39 Iis配置文件 112 Toml文件 40 Ini文件 113 Tsd文件 41 IsaTab文件 114 Tsv文件 42 Iwork文档 115 Vcs文件 43 Java Jce Keystore文件 116 Visio文档 44 Java Keystore文件 117 Visualbasic源代码 45 Javascript源代码 118 Vrml虚拟现实建模语言代码 46 Java源代码 119 Webarchive文件 47 Json文件 120 Weblogic配置文件 48 Jsp源代码 121 Webvtt文件 49 Latex源代码 122 Windowsinf文件 50 Log日志文件 123 Windows帮助全文搜索引 51 Lua源代码 124 Windows预编译文件 52 Mariadb数据库文件 125 Wordperfect文档 53 Markdown文档 126 Word文档 54 Matlab源代码 127 Wpd文档 55 Mbox文件 128 Wps文档 56 Mhtml文件 129 Xdp文件 57 Microsoft Reader文档 130 Xfdf文件 58 Mongodb数据库文件 131 Xhtml文件 59 Mrs配置文件 132 Xlf文件 60 Msworks文档 133 Xliff文件 61 Mysql数据库文件 134 Xlr文件 62 Netcdf文件 135 Xlz文件 63 ObjectiveC源代码 136 Xml Sitemap文件 64 Obs配置文件 137 Xml文件 65 Office文档 138 Xmp文件 66 Onenote文件 139 Xps文档 67 Opendocument文件 140 Xpt文件 68 Openvpn配置文件 141 Yaml文件 69 Oracle数据库文件 142 常见数字证书文件 70 Outlook文件 143 空文件 71 Pascal源代码 144 配置文件windows Initialization 72 Pbm文件 145 其他普通未加密文本文件 73 Pcx文件 146 邮件文档
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        DSC支持解析的非结构化文件类型?
      • HTTP客户端
        本页面介绍云数据库ClickHouse如何通过HTTP接口进行连接。 HTTP接口使您可以通过任何编程语言在任何平台上使用云数据库ClickHouse,您将其用于Java和Perl以及Shell脚本,Perl、Python和Go也可以使用HTTP接口。HTTP接口比本机接口受到更多限制,但是具有更好的兼容性。clickhouseserver 侦听的HTTP端口默认情况下是8123。 如果进行不带参数的GET请求,它将返回200响应代码和httpserverdefaultresponse默认值“ Ok”中定义的字符串,末尾有换行符。参数可以URL参数query发送或者以POST请求方式发送,或在“ query”参数中发送查询的开头,然后在POST中发送其余查询(在后面解释为什么这样做的必要性)。在发送大型查询时,请注意URL的大小限制为16 KB。如果成功,您将在响应正文中收到200响应代码和结果。 如果发生错误,您将在响应正文中收到响应代码500和一个错误描述文本。 使用GET方法时,设置为“只读”。换句话说,对于修改数据的查询,只能使用POST方法。可以在POST正文或URL参数中发送查询本身。默认情况下,服务器设置中注册的数据库用作默认数据库即default,可以在表名称之前使用点来指定数据库。 身份验证 可以通过以下三种方式之一指定用户名和密码进行登录验证: 使用HTTP基本身份验证。 ​​$ echo 'SELECT 1' curl ' d @ 在URL参数中使用user 和password指定,使用database参数指定数据库。 ​​$ echo 'SELECT 1' curl ' d @ 在HTTP请求头中通过“ XClickHouseUser”和“ XClickHouseKey”指定用户名和密码。 ​​$ echo 'SELECT 1' curl H 'XClickHouseUser: user' H 'XClickHouseKey: yourpassword' ' d @
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        客户端连接
        HTTP客户端
      • 专属云上使用云审计
        操作事件 字段 云主机创建 createserver 云主机开机 startserver 云主机关机 stopserver 云主机重启 restartserver 云主机重装 rebuildserver 云主机删除 deleteserver 云主机重置密码 changeserverpassword 云主机变配 resizeserver 挂载云硬盘 attachvolume 卸载云硬盘 detachvolume 更改安全组 updatefirewall 删除安全组 deletefirewall 绑定弹性网卡 addnic 解绑弹性网卡 removenic 创建密钥对 createkeypair 删除密钥对 deletekeypair 创建私有镜像 createprivateimage 共享私有镜像 shareimage 取消共享私有镜像 cancelshareimage 删除私有镜像 deleteprivateimage 修改私有镜像 updateprivateimage
        来自:
        帮助文档
        专属云(计算独享型)
        用户指南
        专属云上使用云审计
      • 术语解释
        元数据 用来定义数据的数据。主要是描述数据自身信息,包含源、大小、格式或其它数据特征。数据库字段中,元数据用于理解以及诠释数据仓库的内容。 元数据采集 元数据采集是指获取数据源的元数据,然后将元数据写入到元数据系统中的过程。 云数据库 云数据库是指云服务提供商提供的各种服务化的关系型数据库(RDS)、文档数据库服务(DDS)等。
        来自:
        帮助文档
        数据安全中心
        产品介绍
        术语解释
      • 冷热数据分离列存
        本页介绍天翼云TeleDB数据库冷热数据分离列存。 创建列存分区表 CREATE TABLE tp ( id int not null, a int not null ) PARTITION BY RANGE (a); 创建分区 CREATE TABLE tp20 PARTITION OF tp FOR VALUES FROM (10) TO (20) using pax; CREATE TABLE tp30 PARTITION OF tp FOR VALUES FROM (20) TO (30) using pax; insert into tp values (1, 10); insert into tp values (2, 10); insert into tp values (3, 10); insert into tp values (4, 10); insert into tp values (5, 10); insert into tp values (6, 10); insert into tp values (7, 10); insert into tp values (8, 10); insert into tp values (9, 10); insert into tp values (10, 10); insert into tp values (11, 10); insert into tp values (12, 10); insert into tp values (13, 10); insert into tp values (14, 10); insert into tp values (15, 10); insert into tp values (16, 10); insert into tp values (17, 10); insert into tp values (18, 10); insert into tp values (19, 20); insert into tp values (20, 20); insert into tp values (21, 20); insert into tp values (22, 20); insert into tp values (23, 20); insert into tp values (24, 20); 例如,pax的数据目录在dn01节点的pgdata/data/dn01/base/13422/238312pax/中。 热转冷 ALTER TABLE tp alterpartition partition tp20 SET storagetype oss OPTIONs (server 'minioforeignserver', filePath '/bucketname/tp1',enableCache 'true'); tp:分区主表的名字。 tp20:分区子表的名字。 oss:使用对象存储存储数据。 sever:创建的server服务器的名字。 filePath:数据存在对象存储的路径。 enableCache:是否使用缓存,true或false。 热转冷后数据可读: teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        冷热数据分离
        冷热数据分离列存
      • 查询语法
        本文主要介绍云日志服务的查询语句语法。 云日志服务提供一套查询分析语句,由查询条件与SQL语句组成,两者通过管道符竖线 分割。 查询条件:通过查询条件指定日志内容需要匹配的条件,返回符合该条件的日志。例如使用 'status:404' 查询响应状态码为404的日志。检索条件为空代表无检索条件,即所有日志均可被查询出来。 SQL语句:通过SQL语句可针对符合检索条件的日志进行统计分析,返回统计分析结果。例如使用以下查询分析语句,统计响应状态码为404的日志数量。 plaintext status:404 select count() as num 本文主要介绍查询语句语法,SQL语法与使用说明请查看SQL语法。若您只需要查询日志,不需要进行统计分析,则可省略其中的管道符及SQL语句。 查询方式 根据索引配置方式可分为全文搜索和字段搜索,根据搜索精确程度可分为精确搜索和模糊搜索。 以下为云日志服务提供的各种查询方式介绍以及查询语句示例。 全文查询 前提条件:配置索引时开启了全文索引,详情请查看索引配置。 语法说明:日志单元配置全文索引后,日志服务将原始日志拆分成多个关键词。您可直接输入关键词进行检索。 plaintext keyword1 [ [ and or not ] keyword2 ] ... 使用示例:以下示例均为搜索原文中同时包含ERROR和INFO关键词的日志 plaintext ERROR INFO plaintext ERROR and INFO 注意 message为日志原文对应的内置字段,查询语句ERROR等同于message:ERROR,默认匹配日志原文的内容。 多个关键词默认通过AND连接,查询语句ERROR INFO等同于ERROR and INFO。
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        查询语法
      • 镜像咨询类
        操作系统类 型 适用场景 使用限制 Windows · 适合运行Windows下开发的程序,如.NET等。 · 支持SQL Server等数据库(需要自行安装)。 系统盘要求40 GB及以上、内存1 GB及以上。 Linux · 适合运行高性能Web等服务器应用,支持常见的PHP、Python等编程语言。 · 支持MySQL等数据库(需要自行安装)。 系统盘要求40 GB及以上、内存512 MB及以上。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询类
      • 镜像怎么选?
        操作系统类型 适用场景 使用限制 Windows 适合运行Windows下开发的程序,如.NET等。 支持SQL Server等数据库(需要自行安装)。 系统盘要求40 GB及以上、内存1 GB及以上。 Linux 适合运行高性能Web等服务器应用,支持常见的PHP、Python等编程语言。 支持MySQL等数据库(需要自行安装)。 系统盘要求40 GB及以上、内存512 MB及以上。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        镜像怎么选?
      • 查询数据库参数模板
        接口描述 查询数据库参数模板。 请求方法 GET URI /v1/template/page 请求参数 名称 位置 类型 必选 说明 name query String 否 参数名称 pageNum query Integer 是 当前页,默认1 pageSize query Integer 是 页大小,默认10,最大限制500 响应参数 名称 二级节点 三级节点 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object pageNum Integer 当前页 pageSize Integer 页大小 pageTotal Integer 页码总数 total Integer 总记录数 list Array 记录 pgTemplateId Long 参数模板ID name String 参数模板名称 description String 参数模板描述 version String 数据库大版本 updateTimestamp String 更新时间 示例 请求示例 /v1/template/page?pageNum1&pageSize10 响应示例 { "message": "SUCCESS", "returnObj": { "list": [ { "description": "Default parameter template for PostgreSQL 11", "name": "DefaultPostgreSQL11", "pgTemplateId": 1, "updateTimestamp": "20200915 16:13:26", "version": "11" } ], "pageNum": 1, "pageSize": 10, "pageTotal": 1, "total": 2 }, "statusCode": 800 }
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        参数
        查询数据库参数模板
      • 调试Flink作业
        本章节主要介绍调试Flink作业。 调试作业功能可以帮助用户在正式运行作业前,检测用户编写的SQL语句逻辑的正确性。 说明 目前只有Flink SQL作业支持本功能。 作业调试功能只用于验证SQL逻辑,不会有数据写入操作。 调试作业步骤 1.在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入“Flink作业”页面。 2.在已创建的Flink SQL作业“操作”列中,单击“编辑”,进入Flink SQL作业编辑页面。 如果是正在创建的新作业,可直接在“编辑”页面中,对作业进行调试。 3.单击“编辑”页面的“调试”,对已经编辑好的SQL语句进行解析。“编辑”页面右侧自动跳转到“调试参数”页签。 “调试结果转储地址”:选择OBS桶用于保存调试日志,如果选择未授权的桶,单击“OBS授权”进行授权。 “数据输入方式”:可选择保存在OBS桶中的CSV数据,也可手动录入。 −选择“OBS(CSV)”方式 用户将OBS服务作为数据源,需要与OBS服务对接,在使用DLI服务前,需要先准备OBS数据,具体请参见准备Flink作业数据。OBS方式的数据输入格式为CSV,以换行分隔多条记录,以逗号分隔单条记录中不同字段。同时,用户需要选择OBS中具体的对象作为输入源数据。 −选择“手动录入”方式 用户编写SQL语句作为数据源。手动录入方式需要填写单条记录的每一个字段值。 4.单击“开始调试”,调试完毕会弹出“调试结果”页面。 如果调试结果符合预期,说明作业可以正常运行。 如果调试结果不符合预期,说明作业业务逻辑可能存在问题,请修改SQL语句后再重新调试。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        调试Flink作业
      • 经典分析样例
        本文主要介绍经典分析样例。 本章以Nginx日志为例进行介绍,对云日志服务中的Nginx原始日志进行查询分析。 操作步骤 1. 在目标日志单元下,进入日志查询页面。 2. 在查询分析框中,输入查询分析sql语句进行统计分析,以下为两个具体统计分析案例。 统计前3访问来源 输入sql分析语句如下: plaintext select count(1) as pv, httpreferer group by httpreferer order by pv desc limit 3 展示结果如下 使用饼图统计各请求状态占比 输入sql分析语句如下: plaintext select "status", count() as "num" from log group by "status" order by "num" 展示结果如下
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        SQL统计分析
        经典分析样例
      • 全量数据恢复:恢复到指定时间点
        操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏中选择“备份恢复”页签,单击“恢复到指定时间点”。 步骤 6 选择恢复日期和该日期下可恢复的时间区间,并输入要恢复到的时间点,选择恢复方式,单击“确定”。 恢复到新实例 跳转到“恢复到新实例”的服务选型页面: − 数据库引擎和数据库版本,与原实例相同,不可修改。 − 存储空间大小默认和原实例相同,且必须大于或等于原实例存储空间大小。 − 其他参数默认,用户可设置,请参见购买。 恢复到已有实例(非原实例) a. 勾选“我确认恢复到目标实例会导致数据被覆盖,恢复过程中数据库不可用。目标实例引擎类型、版本号要求与原实例相同,且存储空间大于等于原实例。”,单击“下一步”。 b. 确认恢复信息无误,单击“确定”。 步骤 7 查看恢复结果。 恢复到新实例 RDS会为用户重新创建一个和该时间点数据相同的实例。可看到实例由“创建中”变为“正常”,说明恢复成功。 恢复成功的新实例是一个独立的实例,与原有实例没有关联。如需使用只读实例,请重新在该实例上进行创建。 新实例创建成功后,系统会自动执行一次全量备份。 恢复到已有实例(非原实例) 在“实例管理”页面,可查看该实例下所有实例状态为“恢复中”,恢复完成后,实例状态由“恢复中”变为“正常”。 恢复完成后,系统会自动执行一次全量备份。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据恢复
        恢复到云上PostgreSQL数据库
        全量数据恢复:恢复到指定时间点
      • 升级HBlock
        [server 2/3] [module 11/12] 20260311 13:48:40 CST+0800 Upgrading monitor for hblock3 Check[√], Stop[√], Update[√], Start[√] [server 3/3] [module 11/12] 20260311 13:48:47 CST+0800 Upgrading ws for hblock1 Check[√], Stop[√], Update[√], Start[√] [service 1/2] [server 1/3] [module 12/12] 20260311 13:48:52 CST+0800 Upgrading ms for hblock1 Check[√], Stop[√], Update[√], Start[√] [service 2/2] [server 1/3] [module 12/12] 20260311 13:49:04 CST+0800 Upgrading ws for hblock2 Check[√], Stop[√], Update[√], Start[√] [service 1/2] [server 2/3] [module 12/12] 20260311 13:49:09 CST+0800 Upgrading ms for hblock2 Check[√], Stop[√], Update[√], Start[√] [service 2/2] [server 2/3] [module 12/12] 20260311 13:49:20 CST+0800 Upgrading ws for hblock3 Check[√], Stop[√], Update[√], Start[√] [service 1/2] [server 3/3] [module 12/12] 20260311 13:49:25 CST+0800 Upgrading ms for hblock3 Check[√], Stop[√], Update[√], Start[√] [service 2/2] [server 3/3] [module 12/12] 20260311 13:49:36 CST+0800 [Step 5/5] Updating system info... 20260311 13:49:38 CST+0800 [Post Upgrade] Cleaning... 20260311 13:49:38 CST+0800 Cleaning hblock1
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        升级HBlock
        升级HBlock
      • 服务端加密
        本节介绍了服务端加密的相关内容。 服务端加密简介 关系型数据库服务的管理控制台目前支持数据加密服务(Data Encryption Workshop,简称DEW)托管密钥的服务端加密,即使用数据加密服务提供的密钥进行服务端加密。 数据加密服务通过使用硬件安全模块 (Hardware Security Module,简称HSM) 保护密钥安全的托管,帮助用户轻松创建和控制加密密钥。用户密钥不会明文出现在硬件安全模块之外,避免密钥泄露。对密钥的所有操作都会进行访问控制及日志跟踪,提供所有密钥的使用记录,满足监督和合规性要求。 当启用服务端加密功能后,用户创建实例和扩容磁盘时,磁盘数据会在服务端加密成密文后存储。用户下载加密对象时,存储的密文会先在服务端解密为明文,再提供给用户。 使用服务端加密方式加密磁盘 用户首先需要在数据加密服务中创建密钥(或者使用数据加密服务提供的默认密钥)。创建实例时,在“磁盘加密”项选择“加密”,选择或创建密钥,该密钥是最终租户密钥,使用该密钥进行服务端加密,使磁盘更安全。 已通过统一身份认证服务添加关系型数据库所在区域的KMS Administrator权限。 如果用户需要使用自定义密钥加密上传对象,则需要先通过数据加密服务创建密钥。目前关系型数据库只支持对称密钥。 RDS购买磁盘加密后,在实例创建成功后不可修改磁盘加密状态,且无法更改密钥。选择“磁盘加密”,存放在对象存储服务上的备份数据不会被加密。 设置了磁盘加密或备份数据加密后,提醒您保存好密钥,一旦密钥被禁用、删除或冻结,会导致数据库不可用,并且可能无法恢复数据,具体场景如下: − 针对磁盘加密,备份数据不加密的场景:可以通过备份恢复到新实例的方式恢复数据。 − 针对磁盘加密,并且备份数据加密的场景:无法恢复数据。 选择磁盘加密的实例,新扩容的磁盘空间依然会使用原加密密钥进行加密。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        安全与加密
        服务端加密
      • 通过全量备份文件恢复实例
        您可以通过全量备份文件将全量历史数据恢复至当前实例。本文介绍DRDS如何通过全量备份文件恢复历史数据到当前实例。 使用说明 DRDS支持使用已有的自动备份或手动备份文件,将实例数据恢复到备份被创建时的状态。该操作恢复的是整个实例的数据,恢复时长和备份的大小与介质有关。可通过选择备份集文件,将文件恢复至当前实例的某个备份状态。其中,数据恢复依赖于底层所关联的MySQL实例的恢复功能,元数据恢复将选择目标备份集创建时间前最近的一条元数据备份进行恢复。 注意事项 DRDS目前仅支持恢复到当前实例。 当进行恢复操作后,当前实例将按照备份集中的数据被覆盖性恢复,请谨慎操作。 恢复过程中实例将不可用,请选择适当的时间执行恢复任务。 当底层所关联的所有MySQL实例全部恢复成功时,恢复任务才为成功状态。当有任意MySQL恢复失败,该恢复任务结果为失败。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 分布式关系型数据库】,进入分布式关系型数据库产品页面。然后单击【管理控制台】,进入【概览】页面。 2. 在左侧导航栏,选择【DRDS > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击【操作】列的【管理】,进入实例【基本信息】页面。 4. 单击【备份恢复】,进入【备份列表】页面。 5. 根据您的恢复方式,执行如下操作: 快速备份 1. 在备份文件列表中,找到目标备份文件,单击【操作】列的【恢复】。 2. 在【实例恢复】面板中,勾选【此恢复为覆盖性恢复,可能导致目标实例的原数据被覆盖,请确保已做好数据备份】,然后单击【确定】。 说明 您也可以在备份文件列表上方,单击【实例恢复】,然后将【恢复策略】设置为【按备份集】、【备份名称】选择目标备份文件,即可将全量备份文件恢复到实例。 一致性备份 1. 在备份文件列表上方,单击【实例恢复】。 2. 在【实例恢复】面板中,将【恢复方式】设置为【一致性备份】、【恢复策略】设置为【按备份集】,然后在【备份名称】列表中选择目标备份文件。 3. 勾选【此恢复为覆盖性恢复,可能导致目标实例的原数据被覆盖,请确保已做好数据备份】,然后单击【确定】。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        备份与恢复
        恢复
        通过全量备份文件恢复实例
      • 热补丁升级
        步骤三:升级后验证 升级完成后需要检查升级后的实例状态、备份创建、连接实例是否正常,能否进行正常的增加、删除、修改、查询操作。 1. 在“实例管理”页面,查看实例的运行状态是否为“正常”。 2. 在“实例管理”页面单击实例名称,进入基本信息页面,查看“数据库信息”模块的“已升级热补丁版本”与“已升级内核热补丁版本”是否已包含目标版本。 3. 检查实例连接是否正常,是否能进行正常的增加、删除、修改、查询操作。 a. 通过数据管理服务DAS连接实例,登录到数据库。 b. 进入SQL查询页面。 c. 创建数据库。 CREATE DATABASE 数据库名; 以创建一个库名为dbtpcds的数据库为例: CREATE DATABASE dbtpcds; 创建完dbtpcds数据库后,可以在左上方切换到新创建的库中。 d. 创建表,并进行增加、删除、修改、查询操作。 i. 创建一个SCHEMA。 CREATE SCHEMA myschema; ii. 创建一个名称为mytable,只有一列的表。字段名为firstcol,字段类型为Integer。 CREATE TABLE myschema.mytable (firstcol int); iii. 向表中插入数据: INSERT INTO myschema.mytable VALUES (100); iv. 查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 100 v. 修改表中数据: UPDATE myschema.mytable SET firstcol 200; vi. 再次查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 200 vii. 删除表: DROP TABLE myschema.mytable; 回退操作 如果升级后,由于业务原因,需要回退,可以参考该章节手动执行回退操作,将实例回退到初始状态。 方式一:单个实例回退 步骤 1 在“版本升级”界面,单击“热补丁升级 ”。 步骤 2 单击“ 升级回退”。 步骤 3 选择“目标版本”,输入“confirm”,单击“确定”。 步骤 4 在“实例管理”页面,查看回退情况。回退完成后,实例运行状态变为“正常”。 步骤 5 在“实例管理”页面单击实例名称,进入基本信息页面,查看“数据库信息”模块的“已升级热补丁版本”与“已升级内核热补丁版本”不包含目标版本。 步骤 6 检查实例连接是否正常,是否能进行正常的增加、删除、修改、查询操作。 1. 通过数据管理服务DAS连接实例,登录到数据库。 2. 进入SQL查询页面。 3. 创建数据库。 CREATE DATABASE 数据库名; 以创建一个库名为dbtpcds的数据库为例: CREATE DATABASE dbtpcds; 创建完dbtpcds数据库后,可以在左上方切换到新创建的库中。 4. 创建表,并进行增加、删除、修改、查询操作。 a. 创建一个schema。 CREATE SCHEMA myschema; b. 创建一个名称为mytable,只有一列的表。字段名为firstcol,字段类型为integer。 CREATE TABLE myschema.mytable (firstcol int); c. 向表中插入数据: INSERT INTO myschema.mytable values (100); d. 查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 100 e. 修改表中数据: UPDATE myschema.mytable SET firstcol 200; f. 再次查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 200 g. 删除表: DROP TABLE myschema.mytable; 结束 方式二:批量实例回退 步骤 1 在“实例管理”页面,选择指定的实例,单击“批量版本升级”。 步骤 2 在“批量版本升级”界面,选择“热补丁升级”,单击“升级回退”,选择“目标版本”,输入“confirm”,单击“确定”。 步骤 3 在“实例管理”页面,查看回退情况。回退完成后,实例运行状态变为“正常”。 步骤 4 在“实例管理”页面单击实例名称,进入基本信息页面,查看“数据库信息”模块的“已升级热补丁版本”与“已升级内核热补丁版本”不包含目标版本。 步骤 5 检查实例连接是否正常,是否能进行正常的增加、删除、修改、查询操作。 1. 通过数据管理服务DAS连接实例,登录到数据库。 2. 进入SQL查询页面。 3. 创建数据库。 CREATE DATABASE 数据库名; 以创建一个库名为dbtpcds的数据库为例: CREATE DATABASE dbtpcds; 创建完dbtpcds数据库后,可以在左上方切换到新创建的库中。 4. 创建表,并进行增加、删除、修改、查询操作。 a. 创建一个SCHEMA。 CREATE SCHEMA myschema; b. 创建一个名称为mytable,只有一列的表。字段名为firstcol,字段类型为Integer。 CREATE TABLE myschema.mytable (firstcol int); c. 向表中插入数据: INSERT INTO myschema.mytable VALUES (100); d. 查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 100 e. 修改表中数据: UPDATE myschema.mytable SET firstcol 200; f. 再次查看表中数据: SELECT FROM myschema.mytable; plaintext firstcol ++ 1 200 g. 删除表: DROP TABLE myschema.mytable; 结束
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        版本升级
        热补丁升级
      • 创建VPC终端节点
        资源池 服务实例ID 服务实例名称 华东1 endpserjraeobv2mr vpcectgchaosserverhd1 西南1 endpserh1ti3dqy70 vpcectgchaosserverxn1 华北2 endpser1k6c0s0fdc vpcectgchaosserverhb2 西安7 endpserq2im8cy7tj vpcectgchaosserverxa7
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        应用管理
        探针管理
        创建VPC终端节点
      • 数据迁移
        本节主要介绍数据迁移。 社区版InfluxDB是非常受欢迎的时序数据库,着力于高性能地查询与存储时序型数据。 GeminiDB Influx是计算存储分离架构,兼容InfluxDB的生态的时序数据库。在云计算平台高性能、高可用、高可靠、高安全、可弹性伸缩的基础上,提供了一键部署、快速备份恢复、计算存储独立扩容、监控告警等服务能力。GeminiDB Influx相较于社区版本InfluxDB,有更强的查询、写入以及数据压缩的性能。 本章节主要介绍社区版InfluxDB到GeminiDB Influx的迁移方案。 迁移原理 通过迁移工具解析社区版InfluxDB的tsm以及wal文件写入到行协议(Line Protocal)文件中,最终将行协议文件数据解析并迁移至目标端。 整个迁移过程分为导出和导入阶段两个阶段。 导出阶段会并发解析社区版InfluxDB的tsm以及wal文件,并将解析数据写入到行协议文件中。 导入阶段会并发读取行协议文件,将读取数据发送至GeminiDB Influx集群各节点上。 迁移工具支持全量迁移和增量迁移,具体可在配置文件中配置。 使用须知 迁移工具,与社区版InfluxDB部署在相同机器上,准备好配置文件。 迁移工具需要从tsm以及wal提取数据到本地行协议文件,并从行协议文件中获取数据发送到目标端GeminiDB Influx ,该过程中可能影响源端性能,建议在业务低峰期运行迁移工具。 由于需要将tsm/wal文件数据提取至行协议文件,请预留足够大的磁盘空间。 迁移工具仅支持社区版InfluxDB 1.X版本迁移。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        数据迁移
      • xlog(WAL)堆积类问题
        本页介绍天翼云TeleDB数据库xlog(WAL)堆积类问题。 xlog(WAL)堆积问题总体排查思路 问题描述 xlog(WAL)堆积,明显超过预期大小,导致磁盘空间使用率上涨,甚至打满磁盘,影响实例运行。 可能影响 占用更多的磁盘空间; 可能会打满磁盘,影响实例运行。 解决步骤 1. 首先检查WAL和归档相关参数,核实参数是否符合预期; > 连接到WAL日志堆积的节点,执行以下SQL: > > select currentsetting('walkeepsegments') as walkeepsegments,(select count(1) > from pglsdir('./pgwal/')) as walcount; > WAL相关参数中,walkeepsegments为保留WAL日志文件的数量,通常实际统计的WAL日志文件数量比walkeepsegments稍多,相差几百内都属于正常范围,明显超出则确定WAL日志有堆积; 2. 检查WAL日志增长量是否符合预期; > 登录WAL日志堆积的节点所在服务器,进入pgwal目录,执行以下shell命令,按纬度统计WAL数量; > 统计每小时日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7" "$8}'awk F: '{print $1}'sort uniq c > 统计每天日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7}'awk F: '{print $1}'sort uniq c 3. 检查复制槽状态,是否有activefalse的复制槽; > 连接到WAL日志堆积的节点,执行以下SQL: > > select from pgreplicationslots where activefalse; > 如果有activefalse的复制槽,那么就会导致WAL堆积,需要核实并解决复制槽问题; 4. 如果不是复制槽问题,可以继续检查归档配置是否正确; > 连接到WAL日志堆积的节点,执行以下SQL: > > show archivestatuscontrol; > 如果参数查询结果为break,那么WAL日志文件不会被正常删除,需要核实并更正参数为continue; 5. 检查归档执行状态是否正常; > 登录WAL日志堆积的节点所在服务器,检查archiver进程状态是否正常,进程显示的last 归档的文件是否在更新。 > > ps fegrep archiver > 查询结果显示为archiver process failed on xxx,则说明归档败了,需要进一步排查归档失败原因; > 也可以执行以下SQL查询归档执行状: > > select from pgstatgetarchiver(); > 其中failedcount>0表示有归档失败。 6. 检查归档速度是否正常; > 如果归档正常,那需要检查归档速度是否正常,归档速度是否能赶上WAL日志生成的速度,如果归档速度比生成的慢,那么WAL日志会逐渐堆积起来,可以从减少WAL日志生成量和加快WAL日志文件归档两个方面入手进行优化; 7. 检查是否有长事务/长时间执行未结束的SQL; > 连接到WAL日志堆积的节点,执行以下SQL: > > select pid,clientaddr,statechange,querystart,statechange,EXTRACT(EPOCH FROM > (now()querystart)),query,state,usename,applicationname from pgstatactivity where > EXTRACT(EPOCH FROM (now()querystart))>600 and state!'idle'; > 如果有长时间执行未结束的SQL或事务,需要核实后清理掉,避免影响WAL日志文件的清理。 8. 如果影响业务,需要快速恢复,可以先手动清理,再定位原因; > 登录WAL日志堆积的节点所在服务器,进入pgwal/archivestatus目录,执行以下shell命令,修改.ready 的扩展名称.done > > find .ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done > 或 > > ls lrt grep .ready awk F' ' '{print $NF}' xargs i rename ready done ./{} > 如果提示有太多的bash: /usr/bin/find: Argument list too long,则需要分批修改,具体前缀可以 top看一下 Arichve 进程当前在处理哪个WAL,然后取其前缀就行,例如: find 00000001000005[19].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done find 00000001000005[AF].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        xlog(WAL)堆积类问题
      • 1
      • ...
      • 68
      • 69
      • 70
      • 71
      • 72
      • ...
      • 376
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      模型推理服务

      应用托管

      一站式智算服务平台

      推荐文档

      完成授权

      应用场景

      EIP解绑和批量解绑

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号