云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      服务等级目标_相关内容
      • 实例续费
        本节主要介绍实例续费。 您可根据业务需要,对GeminiDB Redis“包年/包月”实例进行续费。 使用须知 按需计费的实例不支持续费。 单个包周期实例续费 1、登录云数据库GeminiDB控制台。 2、在“实例管理”页面,选择需要续费的实例,单击操作列“续费”。 您也可以单击目标实例名称,进入实例的“基本信息”页面,在“计费信息”模块的“计费模式”处,单击“续费”。 3、进入续费页面,对实例进行续费。 批量续费 1、 登录云数据库GeminiDB控制台。 2、在“实例管理”页面,勾选目标实例,单击实例列表上方的“续费”。 3、在弹出框中确认需要续费的实例,单击“是”,进入续费页面,对实例进行续费。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        计费管理
        实例续费
      • 通讯库性能检测
        通讯库性能检测对两种典型的集合通讯库,即英伟达系列的NCCL和升腾系列的HCCL进行多种通信模型的性能检测,可输出算法带宽,辅助用户判断环境健康。 此功能目前只在部分资源池提供,具体资源池信息请询问客户经理 使用前提 当前用户是主账号。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的【通讯库性能检测】,进入通讯库性能检测新建页。 2. 选择检测内容。 字段 说明 通讯库类别 nccl(英伟达)、hccl(昇腾)。 通讯模型 选择相关通讯模型(单选)。 单节点待测GPU数量 18,默认为8,目前支持的节点规格单节点不会超过8卡。 3. 选择检测目标。 字段 说明 集群名称 根据选择的通讯库(nccl或hccl)列出相关集群供用户选择。如选择nccl,则列出英伟达资源组;选择了hccl,列出昇腾资源组。 选择节点 根据选择的集群列出集群下方的节点,对节点进行勾选,可多选。 节点密码 输入集群下节点的密码,(该密码为root用户密码)。 注意:集群下各节点密码需要保持一致,该输入框只能输入一个节点密码,不一致会检测失败。 4. 开始检测。 1)点击【开始检测】,启动检测,也可以点击【检测历史】查看节点的历史检测报告。 2)启动之后,进行检测确认。确认之后,跳入检测历史页面进行检测结果查看。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        环境检测
        通讯库性能检测
      • 告警设置
        本页介绍分布式融合数据库HTAP如何配置实例的告警。 告警设置简介 在控制台的“管理中心告警中心告警设置”界面,可以查看当前设置的告警策略列表,还可以自定义监控目标与通知策略,保证及时了解HTAP数据库服务运行状况,从而起到预警作用。 实例告警策略相关参数信息如下: 参数名 参数解释 策略名称 告警策略的名称,一个告警策略可以包含多个告警规则。 备注 告警策略的备注说明信息,用于对告警策略的区分或补充描述。 告警对象 告警策略针对的天翼云数据库类型,不同的数据库类型告警的策略和模板可能会根据引擎差异有不同。 资源池 根据选择的资源池,点击“选择实例”,可以根据标签或者实例相关信息筛选该资源池的指定数据库实例。 模板类型 支持手动创建告警规则,也可复用已配置的告警策略模板。 阈值告警 支持选择实例内存使用率、磁盘使用率、CPU使用率、连接数和活跃连接数比例、全部会话、活跃会话等告警指标。 事件告警 根据已定义好的动作事件,触发相应的告警策略。 沉默周期 指告警发生后如果未恢复正常,间隔多久重复发送一次告警通知。 自动进入静默期设置 指告警发生后,由于实例可能较长时间处于告警状态而一直触发告警,为避免过度打扰用户,在发送指定次数的次告警后,进入静默期,不再发送告警消息。 告警级别 支持选择紧急、告警、普通三种告警级别。 告警联系人 目前只能选择当前账号,不可选择其他用户。 通知方式 支持选择邮箱、短信,站内信等多种方式,支持同时选择多种告警方式进行告警。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        告警服务
        告警设置
      • 产品地域和可用区
        可用区 可用区(AZ,Availability Zone)是指在同一地域内,电力和网络互相独立的物理区域。一个AZ是一个或多个物理数据中心的集合,具备独立的风火水电,可用区之间距离100KM以内,一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 相关特性 划分可用区的目标是能够保证可用区间故障相互隔离(大型灾害或者大型电力故障除外),不出现故障扩散,使得用户的业务持续在线服务。通过启动独立可用区内的实例,用户可以保护应用程序不受单一位置故障的影响。 处于相同地域不同可用区,但在同一个虚拟私有云下的云产品之间均通过内网互通,可以直接使用内网 IP 访问。 如何选择可用区 在同一地域内,可用区与可用区之间内网互通。各可用区之间可以实现故障隔离,即如果一个可用区出现故障,则不会影响其他可用区的正常运行。是否将实例放在同一可用区内,主要取决于您的应用对容灾能力和网络延时的要求。 如果您的应用需要较高的容灾能力,建议您将实例部署在同一地域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,建议您将实例创建在同一可用区内。 地域和可用区的关系 每个地域完全独立,不同地域的可用区完全隔离,但同一个地域内的可用区之间使用低时延链路相连。 地域和可用区之间的关系如图所示: 目前,天翼云已在全球多个地域开放云服务,您可以根据需求选择适合自己的区域和可用区。
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        产品地域和可用区
      • 产品定义
        本章节介绍什么是媒体存储。 产品简介 媒体存储(CTXStor,原对象存储融合版)是天翼云基于分布式数据存储和媒体处理技术,为客户提供海量视频、图片及其他非结构化数据存取与处理的云服务,具有弹性灵活、安全可靠、高性价比等优点,支持多种存储协议及多档资源类型,深度匹配各类行业场景应用。 产品架构 支持多种网络接入,如公网、内网、专线等接入方式,满足用户不同的网络环境情况。 提供多种接入方式,如标准存储协议、流直存,并提供丰富的API与SDK,供用户、开发者使用,便捷快速上云。 通过数据迁移服务,用户可以轻松地将海量数据迁入媒体存储。 提供多种标准存储协议以及多档资源类型,精细匹配应用场景需求。 搭配基础管理、生命周期、数据安全与数据处理等功能,完成数据的全生命周期管理。 重要特性 版本控制:媒体存储支持版本控制,针对Object的覆盖和删除操作以历史版本的形式保存下来,可将 Object 恢复至任意的历史版本。 存储桶复制:支持跨不同存储区域或同一存储区域的Bucket 自动、异步(近实时)复制对象(Object),可根据配置,将源桶Object的创建、更新和删除等操作复制到目标Bucket。 合规保留:开启合规保留后,处于合规保留期的对象均“不可删除、不可篡改”。 图片处理:针对媒体存储内存储的图片文件(Object),您可以在GetObject请求中携带图片处理参数对图片文件进行处理。例如添加图片水印、转换格式等。 媒体存储为客户提供更多数据管理、数据安全和数据处理等功能,详情请参见 产品功能 文档。
        来自:
        帮助文档
        媒体存储
        产品介绍
        产品定义
      • 容量预估
        Top库表 可查看物理文件大小Top50库表,结合磁盘空间的分布情况,识别占用较高的库表并进行优化。 单击“查看趋势”,可以查看近7天、近30天、自定义时间段(时间跨度在30天内)的数据量变化情况。 说明 数据管理服务每天凌晨4点左右会进行一次数据采集。 物理文件大小为精确采集数据,其余指标为预估值(存在误差),如差距较大建议对目标表执行ANALYZA TABLE。 库名或表名中包含保留特殊字符时无法正常统计,包括“/”和“ p p”。 目前只支持RDS for MySQL 5.7和8.0版本。 实例总计表数量超过5万时,为了不影响实例,不会采集数据。 由于Top库表可能存在波动,趋势数据可能存在部分缺失。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        MySQL
        容量预估
      • 加油站卸油合规检测
        本节介绍iBox边缘盒子产品在加油站的应用实践。 客户场景 针对加油站,对客户的传统摄像头进行智能化升级。通过设备连接、可视化探索分析、高性能算法推理,可以实时分析视频内容,自动探测异常信息,主动进行风险防控。 iBox边缘盒子快速开通入门 参考iBox边缘盒子(标准版) 卸油作业记录统计 卸油合规算法支持区分每次卸油作业的开始及结束时间,按每次作业分析合规及违规情况,支持统计自定义时间范围内的卸油次数以及合规率。 卸油作业全流程19项合规检测 卸油作业专项抓拍 针对每个检测项实时抓拍违规或合规画面,并标注画面中检测目标。 目标区域绘制,适用更多相机角度 通过绘制目标分析区域,可有效避免各个加油站操作的差异。例如锥桶平时放在画面左侧,卸油时放在画面右侧;通过绘制区域即可避免卸油时检测到左侧锥桶导致误判为合规。
        来自:
        帮助文档
        iBox边缘盒子
        最佳实践
        加油站卸油合规检测
      • 查询事件轨迹
        本文介绍如何在事件总线EventBridge控制台按事件ID或时间范围查询事件轨迹和事件详情。 约束与限制 事件总线EventBridge仅支持查询72小时内的事件。 每次查询最多返回5000条数据,若数据量过大,请缩小查询时间范围或精确查询条件。 按事件ID查询事件轨迹与事件详情 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,点击事件追踪 按钮,点击按事件ID查询 ;输入事件ID,点击查询。 3. 在下方事件列表中查看事件的ID,事件源,事件类型与事件接收时间等信息。 4. 点击查询事件轨迹,查看事件的事件接收与事件投递详情,详见图1。 5. 点击事件详情,可查看事件的参数详情。 图1 根据时间范围查询事件 按时间范围查询事件轨迹与事件详情 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,点击事件追踪 按钮,点击按时间范围查询 ,配置对应参数,点击查询,详见图2。 1. 时间范围:选择对应时间范围。 2. (可选)事件源:选择已创建的事件源。 3. (可选)事件类型:选择对应事件类型。 3. 在查询的结果列表中找到目标事件,在其右侧操作列,查询事件轨迹和事件详情。 图2 根据事件范围查询事件
        来自:
      • 应用场景
        Kafka作为一款热门的消息队列中间件,具备高效可靠的消息异步传递机制,主要用于不同系统间的数据交流和传递,在企业解决方案、金融支付、电信、电子商务、社交、即时通信、视频、物联网、车联网等众多领域都有广泛应用。 异步通信 将业务中属于非核心或不重要的流程部分,使用消息异步通知的方式发给目标系统,这样主业务流程无需同步等待其他系统的处理结果,从而达到系统快速响应的目的。 如网站的用户注册场景,在用户注册成功后,还需要发送注册邮件与注册短信,这两个流程使用Kafka消息服务通知邮件发送系统与短信发送系统,从而提升注册流程的响应速度。 图 串行发送注册邮件与短信流程 图 借助消息队列异步发送注册邮件与短信流程 错峰流控与流量削峰 在电子商务系统或大型网站中,上下游系统处理能力存在差异,处理能力高的上游系统的突发流量可能会对处理能力低的某些下游系统造成冲击,需要提高系统的可用性的同时降低系统实现的复杂性。电商大促销等流量洪流突然来袭时,可以通过队列服务堆积缓存订单等信息,在下游系统有能力处理消息的时候再处理,避免下游订阅系统因突发流量崩溃。消息队列提供亿级消息堆积能力,3天的默认保留时长,消息消费系统可以错峰进行消息处理。 另外,在商品秒杀、抢购等流量短时间内暴增场景中,为了防止后端应用被压垮,可在前后端系统间使用Kafka消息队列传递请求。 图 消息队列应对秒杀大流量场景 日志同步 在大型业务系统设计中,为了快速定位问题,全链路追踪日志,以及故障及时预警监控,通常需要将各系统应用的日志集中分析处理。 Kafka设计初衷就是为了应对大量日志传输场景,应用通过可靠异步方式将日志消息同步到消息服务,再通过其他组件对日志做实时或离线分析,也可用于关键日志信息收集进行应用监控。 日志同步主要有三个关键部分:日志采集客户端,Kafka消息队列以及后端的日志处理应用。 1. 日志采集客户端,负责用户各类应用服务的日志数据采集,以消息方式将日志“批量”“异步”发送Kafka客户端。 Kafka客户端批量提交和压缩消息,对应用服务的性能影响非常小。 2. Kafka将日志存储在消息文件中,提供持久化。 3. 日志处理应用,如Logstash,订阅并消费Kafka中的日志消息,最终供文件搜索服务检索日志,或者由Kafka将消息传递给Hadoop等其他大数据应用系统化存储与分析。 图 日志同步示意图 上图中Logstash、ElasticSearch分别为日志分析和检索的开源工具,Hadoop表示大数据分析系统。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        应用场景
      • MaterializedMySQL引擎
        本页面介绍了MaterializedMySQL引擎。 MaterializedMySQL是一个用于从MySQL数据库中获取数据的表引擎。它的工作原理是: MaterializedMySQL会定期从MySQL拉取数据,同步到云数据库ClickHouse本地。 数据同步后,会存储在本地云数据库ClickHouse表中,表引擎设置为合适的引擎(如MergeTree)。 查询时,云数据库ClickHouse不会访问MySQL,而是直接从本地已同步的表中读取数据。 同步的时间间隔可以通过 mysqlmaterializedtablesttl参数设置,默认10分钟同步一次。 MaterializedMySQL的主要优点是: 减少了跨网络访问MySQL的开销,查询性能更好。 可以对同步的数据进行云数据库ClickHouse的查询优化,实现更快的分析。 支持增量同步,只同步新增或修改的数据,而不是整表同步。 支持只同步指定的列,以减少不需要的数据量。 本地表引擎可自定义,使存储方式更灵活。 创建数据库 语法 创建使用MaterializedMySQL引擎的表的语法: sql CREATE TABLE [IF NOT EXISTS] tablename ENGINE MaterializedMySQL(mysqlsourcehost, mysqlsourcedatabase, mysqlsourcetable, clickhousesinkdatabase, clickhousesinktable, clickhouseengine) mysqlsourcehost:MySQL的源主机地址 mysqlsourcedatabase:MySQL源数据库名 mysqlsourcetable:MySQL源表名 clickhousesinkdatabase:云数据库ClickHouse目标数据库名 clickhousesinktable:云数据库ClickHouse目标表名 clickhouseengine:云数据库ClickHouse目标表的引擎 示例 sql 从MySQL synctest库的data表同步到ClickHouse的sync数据库syncdata表 CREATE TABLE sync.syncdata ENGINE MaterializedMySQL('localhost', 'synctest', 'data', 'sync', 'syncdata', 'MergeTree() order by id'); 这个表会定期从MySQL localhost上的synctest库的data表同步数据到云数据库ClickHouse的sync库的syncdata表,目标表的引擎是MergeTree。 MaterializedMySQL提供了从MySQL增量同步数据的便捷途径,可以让云数据库ClickHouse对MySQL数据进行更优化的存储和查询。 MySQL服务器端配置 为了 MaterializedMySQL的正确工作,有一些必须设置的 MySQL端配置设置: defaultauthenticationplugin mysqlnativepassword,因为 MaterializedMySQL 只能授权使用该方法。 gtidmode on,因为基于GTID的日志记录是提供正确的 MaterializedMySQL复制的强制要求。 说明 当打开 gtidmode 时需要指定 enforcegtidconsistency on。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        MaterializedMySQL引擎
      • 包周期计费实例转按需计费
        本页介绍了包周期计费实例转按需计费。 操作说明 在TeleDB数据库控制台,您可以将包周期(包年/包月)实例转为按需计费实例。对于到期后不再长期使用资源的包周期实例,可以选择转按需操作,到期后将转为按需计费实例。 约束限制 包周期实例状态为“运行中”时才能转按需计费。 操作步骤 1. 登录TeleDB数据库控制台。 2. 在“DDS”>“实例管理”页面,在需要转按需的目标实例上,选择“更多>包周期转按需",进入转按需页面。 3. 在转按需页面,确认您的实例信息无误后,单击“确定”。包周期实例将在到期后转为按需计费实例。 4. 包周期实例在到期转为按需计费实例后,在目标实例的“计费模式”列,会看到已变成按需计费。
        来自:
        帮助文档
        文档数据库服务
        计费说明
        包周期计费实例转按需计费
      • 变更可用区
        )。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 在网络信息区域,点击可用区右侧的变更可用区按钮即打开新的变更可用区页面。 在打开的变更可用区页面中,可以查看实例基础信息,并完成下述配置。 配置 说明 主可用区变更 选择目标可用区。 备可用区变更 指定备可用区后,实例的备节点会迁移至该可用区,实现跨可用区容灾。 主可用区副本数 如果实例为基础版、增强版(多副本)实例,在迁移到双可用区时,您可以通过本参数调整实例中主可用区的副本数分布。备可用区副本数自动确定。 4. 查看变更风险检查明细,也可手动执行左下角重新检查按钮,然后单击提交订单。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例生命周期管理
        变更可用区
      • 任务列表查看
        本节为您介绍数据库迁移中任务列表查看。 数据库迁移工具可以查看当前用户发起的迁移任务基本信息,如任务名、源连接、目标连接开始时间、状态等信息。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务列表查看
      • 限速设置
        在数据迁移和同步过程中,可根据源库的数据写入量,源库和目标库的资源配置,来灵活控制全量迁移速率和增量迁移速率,以缓解目标库的压力。 适用范围 DTS数据迁移和数据同步任务,可以在任务配置或任务运行阶段修改限速值;处于运行状态的任务,需要暂停任务,再设置限速并重启。DTS默认不限速。 设置限制全量迁移速率或增量迁移速率时,限速分别针对全量迁移阶段、增量迁移阶段生效,通过调整每秒的RPS值或每秒迁移的数据量,控制全量或增量阶段的源端RPS实际统计值或迁移数据量在限速值上下波动。 说明 全量限速与增量限速可独立设置或同时设置。若同时设置,系统将对全量和增量阶段分别生效对应的限速策略。 全量限速支持按行数(RPS)和数据量(MB/秒)两个维度限速。可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 增量限速支持按行数(RPS)和数据量(MB/秒)两个维度限速。可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 支持的源和目标数据库 限速功能支持的源和目标数据库,如下表: 源数据库 目标数据库 RDS for MySQL 自建MySQL 5.6部分版本/5.7/8.0 RDS for MySQL 5.7/8.0 RDS for MySQL 自建MySQL 5.6部分版本/5.7/8.0 RDS for PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for PostgreSQL 自建PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for PostgreSQL 自建PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17 RDS for MySQL 5.7/8.0 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) 自建SQL Server、RDS for SQL Server 2016标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 RDS for SQL Server 2016标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 自建SQL Server、RDS for SQL Server 2016标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 RDS for PostgreSQL 9.4/9.5/9.6/10/11/12/13/14/15/16/17
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        限速设置
      • 迁移后进行数据校验
        本节介绍了在迁移完成后如何进行数据校验。 当任务状态变为“增量同步”,说明全量同步已经完成,全量同步完成后,登录云数据库GaussDB 查看数据迁移结果。 1. 等待迁移任务状态变为“增量同步”。 2. 单击任务名称,进入任务详情页。 3. 在“同步进度”页签查看全量同步结果。 如图所示,本次实践将TESTINFO库中DATATYPELIST表迁移至shard0,共迁移了两条数据。 4. 验证数据一致性。 a) 在“同步对比 > 对象级对比”页面,查看库和表的迁移结果。 b) 在“同步对比 > 数据级对比”页面,创建对比任务,查看表中行的迁移结果。 5. 通过DAS连接云数据库GaussDB openGauss版的目标库“ testdatabaseinfo ”。 DAS连接实例的方法请参考《新增数据库登录》。 6. 执行如下语句,查询全量同步结果。 SELECT FROM testinfo.datatypelistafter; Oracle数据库中的模式迁移完成后,会在云数据库GaussDB 数据库中作为Schema,所以查询语句中添加Schema精确查询。 如图所示,查询表中的各个数据类型都迁移成功,并且数据正确无误。 7. 验证增量同步。 由于本次实践为“全量+增量”同步模式,全量同步完成后,如果在创建任务后有数据写入,这些写入的数据会一直同步至目标库中,直到任务结束。下面我们模拟写入另外的数据。 a) 根据本地的Oracle数据库的IP和地址,通过数据库连接工具连接数据库。 b) 执行如下语句,在源库插入一条数据。 我们插入一条“id”为1的数据。 insert into testinfo.DATATYPELIST values(1,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA');commit; c) 在目标库执行如下语句查询结果。 SELECT FROM testinfo.datatypelistafter; 如图所示,在源库新增的数据,可以实时同步至目标库。 8. 结束迁移任务。 根据业务情况,待业务完全迁移至目标库,可以结束当前任务。 a) 单击“操作”列的“结束”。 b) 仔细阅读提示后,单击“是”,结束任务。 9. 迁移完成后,进行性能测试。
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移后进行数据校验
      • 查看或下载慢日志
        查看慢日志 步骤1、登录管理控制台。 步骤2、单击管理控制台左上角的,选择区域和项目。 步骤3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 步骤4、在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页签。 步骤5、在左侧导航栏单击“日志管理”,在“慢日志”页签,单击,开启慢日志功能。 步骤6、在“慢日志”页面,记录所生成的慢日志文件名。 说明 打开慢日志搜集功能会对当前实例的性能产生一定影响。 步骤7、通过SQL Server客户端连接目标实例。 步骤8、目标实例连接成功后,通过执行如下sql查看慢日志详情。 select from ::fntracegettable(‘D:SQLTraceaudit XXX ’, default) 说明 XXX为步骤6中所记录的慢日志文件名。 查看慢日志详情,示例如下: select from ::fntracegettable(‘D:SQLTraceauditSQLTrace.trc’, default) 查看慢日志结果下图所示。 下载慢日志 步骤1、登录管理控制台。 步骤2、单击管理控制台左上角的,选择区域和项目。 步骤3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 步骤4、在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页签。 步骤5、在左侧导航栏单击“日志管理”,在“慢日志”页签,单击,开启慢日志功能。 说明 打开慢日志搜集功能会对当前实例的性能产生一定影响。 步骤6、选择目标日志文件,单击操作列中的“下载”。 1、系统会在“下载”弹出框中自动加载下载准备任务,加载时长受日志文件大小及网络环境影响。 下载准备过程中,状态显示为“准备中...”。 下载准备完成,状态显示为“准备完成”。 下载准备工作失败,状态显示为“异常”。 2、根据日志文件的大小确定下载方式。 (1)当前页面支持下载的文件最大不超过40MB,时间范围是从当前时间往前计算,直至文件大小累计为40MB。 (2)当需要下载的文件大于40MB时,即只可能比40MB大一点的日志文件,不会产生例如100MB或200MB的日志文件。需要通过客户端工具OBS Browser+进行下载。 3、在“下载”弹出框中,对于“准备完成”的日志文件,单击“确定”,下载慢日志。单击“取消”,则不下载慢日志文件,直接返回下载页签。下载链接有效期为5分钟。如果超时,提示用户下载链接已失效,关闭窗口后重新下载日志文件。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        查看或下载慢日志
      • AWS S3数据迁移到OOS
        本节主要介绍如何将数据从AWS S3迁移到OOS中。 应用场景 将数据从AWS S3的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从AWS S3迁移到OOS的文件(Object),仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问AWS S3资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:S3,代表AmazonS3。 srcEndpoint为s3.amazonaws.com。 S3的region可在S3控制台存储桶列表中查看源Bucket所在的区域。 S3 AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"S3", 从S3迁移文件 "srcEndpoint":"s3.amazonaws.com", S3的Endpoint "srcAccessKey":"your s3 accessKey", S3的AccessKey "srcSecretKey":"your s3 secretKey", S3的SecretKey "srcBucket":"s3bucket", S3的bucket "srcRegionName":"useast1",S3的region,请根据实际填写 "srcPrefix":"logs/", S3上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", S3上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        AWS S3数据迁移到OOS
      • 阿里云OSS数据迁移到OOS
        本节主要介绍如何将数据从阿里云OSS迁移到OOS中。 应用场景 将数据从阿里云OSS的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从阿里云OSS迁移到OOS的文件,仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问阿里云OSS资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:OSS,代表阿里云。 srcEndpoint为阿里云Bucket的Endpoint,您可在阿里云控制台Bucket概览中进行查看。 OSS AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"OSS", 从阿里云迁移文件 "srcEndpoint":"osscnhangzhou.aliyuncs.com", 阿里云的Endpoint,请根据实际填写 "srcAccessKey":"your oss accessKey",阿里云的AccessKey "srcSecretKey":"your oss secretKey", 阿里云的SecretKey "srcBucket":"ossbucket", 阿里云的Bucket "srcPrefix":"logs/", 阿里云上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", 阿里云上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        阿里云OSS数据迁移到OOS
      • 鉴权方式B
        参数 说明 待改写PATH ^/[^/]+/[^/]+(/[^/]+) 目标PATH $1
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        访问控制
        URL鉴权配置
        鉴权方式B
      • 配置识别模板
        修改模板规则分类 步骤 1 登录管理控制台。 步骤 2 单击左上角的,选择区域或项目。 步骤 3 在左侧导航树中,单击,选择选择“安全 > 数据安全中心”,进入数据安全中心总览界面。 步骤 4 在左侧导航树中选择“敏感数据识别 > 识别配置”,进入识别模板页签。 步骤 5 单击目标模板的“详情”进入模板详情界面。 步骤 6 单击列表选择规则,支持多选。 步骤 7 在规则列表左上角单击“修改分类”,在修改分类的弹框中选择目标分类。 步骤 8 单击“确定”,提示规则分类修改成功。
        来自:
        帮助文档
        数据安全中心
        用户指南
        敏感数据识别(新)
        敏感数据识别配置
        配置识别模板
      • 导出权限
        您可以根据实际情况,导出角色权限。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧导航栏,选择用户与角色管理 ,进入用户管理页面。 5. 单击角色管理 页签,进入角色管理页面。 6. 在角色列表中,找到目标角色,单击操作 列的导出权限。 系统自动导出并下载.csv格式的文件,请妥善保存。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        用户与角色管理
        角色管理
        导出权限
      • 删除用户
        您可以根据实际情况,删除不再需要的用户。 注意事项 删除操作无法恢复,请谨慎操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧导航栏,选择用户与角色管理 ,进入用户管理页面。 5. 在用户列表中,找到目标用户,然后在操作 列选择更多 > 删除。 6. 在删除用户 对话框中,单击确定。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        用户与角色管理
        用户管理
        删除用户
      • 编辑用户
        本文介绍如何编辑用户。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧导航栏,选择用户与角色管理 ,进入用户管理页面。 5. 在用户列表中,找到目标用户,然后在操作 列选择更多 > 编辑用户。 6. 在编辑用户面板中,编辑管理命令权限、过载保护名单和角色等参数。 7. 单击确定。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        用户与角色管理
        用户管理
        编辑用户
      • 查看参数模板应用记录
        本节主要介绍查看参数模板应用记录 操作场景 参数模板应用到DRDS实例之后,您可以查看参数模板的应用记录。 操作步骤 1.登录管理控制台。 2.单击管理控制台左上角的,选择区域和项目。 3.在页面左上角单击,选择“数据库 > 分布式关系型数据库 ”。进入分布式关系型数据库信息页面。 4.单击“参数模板”。 5.在“系统默认”页签下,选择目标参数模板,单击“应用记录”;或在“自定义”页签下,选择目标参数模板,单击“更多 > 应用记录”,查看应用记录。 6.您可查看参数模板所应用到的实例名称/ID、应用状态、应用时间、失败原因。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数模板管理
        查看参数模板应用记录
      • 删除数据库
        本节介绍了删除数据库的操作场景、约束限制和操作步骤等相关内容。 操作场景 您可删除自己创建的数据库。 注意 数据库一旦删除,数据会丢失,请谨慎操作。 约束限制 恢复中的实例,不可进行该操作。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页。 步骤 5 在左侧导航栏,单击“数据库管理”。 步骤 6 选择目标数据库,单击操作列的“删除”。 步骤 7 在弹出框中,单击“确定”,删除数据库。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        使用数据库
        数据库管理
        删除数据库
      • 管理用户和角色的DDL语句
        修改用户 支持的语法: plaintext [UDAL] ALTER USER [IF EXISTS] 'username' IDENTIFIED BY '' SET manageCommand 'true' 'false' AND profile 'profilename' AND whitelist 'true' 'false' AND freeFrontConnection 'true' 'false' AND groups '{ "setAll": "true" "false", "groupList": "..." }' AND canhint 'true' 'false' AND role 'rolename [, rolename2, ...]'; 其中,用户名必填,其余参数选填,填写的参数值将直接覆盖原来的设置,其余未填写参数将不做覆盖保持原样。 语法说明: username:需要修改的用户名称。 IDENTIFIED BY:需要修改的用户密码。 manageCommand:是否有管理命令权限(true/false)。 profile:密码策略,设定用户的安全策略或权限等级(如 复杂度高长期有效)。可以填写中文或者英文,所填的值大小写敏感: 中文 英文 复杂度低临时有效 Low complexity temporary effective 复杂度中短期有效 Medium complexity short term effective 复杂度高长期有效 High complexity long term effective 复杂度高永久有效 High complexity permanent whitelist:是否有过载保护白名单权限(true/false)。 freeFrontConnection:是否前端连接不受限(true/false)。 canhint:是否具有Hint权限(true/false)。 role:赋予用户的角色,可以是多个角色,如果是同时赋予多个角色,需要用逗号分开并用单引号或双引号包括起来。 groups:指定用户所拥有权限的分组信息以及对应分组的连接数限制信息,JSON格式,包含setAll和groupList。 setAll表示是否拥有所有分组权限,groupList表示拥有哪些分组权限以及对应的分组的连接数限制。当设置groups参数时必须包含这两个值,否则报错。 其中,groups指定用户所拥有的分组权限时,根据是否前端连接不受限有以下组合: 不设置分组权限,则不需要设置groups参数。 当该用户的前端连接不受限,即设置freeFrontConnectiontrue,或者原本就设置了freeFrontConnectiontrue,本次alter没有修改这个参数时,并拥有所有的分组权限,则设置groups'{ "setAll": "true", "groupList": "" }'。 当前端连接不受限,即设置freeFrontConnectiontrue,或者原本就设置了freeFrontConnectiontrue,本次alter没有修改这个参数时,并拥有部分分组权限,则设置groups'{ "setAll": "false", "groupList": "group1,group2" }'。 当前端连接受限,即设置freeFrontConnectionfalse,或者原本就设置了freeFrontConnectionfalse,本次alter没有修改这个参数时,需要设置分组权限时,如果对某分组不设置连接数限制则直接填写分组名称,如果对某分组设置连接数限制则填写分组名:连接数。 例如, groups '{ "setAll": "false", "groupList":"r1,r2:100,r3" }' 意为拥有部分分组的权限,具体为r1,r2,r3这三个分组的权限,其中r1,r3的前端连接数不受限制, r2的前端连接数限制为100。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        管理用户和角色的DDL语句
      • 联系人
        当通知策略的匹配条件被触发时,系统可向您指定的联系人发送通知信息。联系人可通过电话、短信及邮件等多种渠道接收相关告警通知。 创建联系人 1. 登录控【应用性能监控制台】,在左侧导航栏选择告警管理 > 通知对象。 2. 在联系人 页签单击新建联系人。 3. 在新建联系人 对话框中根据实际需求设置以下参数,然后单击确认。 参数 说明 姓名 自定义联系人姓名。 手机号 设置联系人的手机号码后,可以通过电话和短信的方式接收告警通知。 说明 仅验证过的手机号码可以在通知策略中使用电话的通知方式,验证手机号的操作,请参见【验证手机号】。 邮箱 设置联系人的邮箱地址后,可以通过邮箱接收告警通知。 联系人组 选择联系人需要加入的联系人组。创建联系人组的操作,请参见【联系人组】。 注意 手机号码和邮箱至少填写一项,每个手机号码或邮箱只能用于一个联系人。 验证手机号 仅验证过的手机号可以在通知策略中使用电话的通知方式。 1. 在联系人 页签上,单击未验证手机号右侧的待验证。 2. 在弹出的界面中,点击发送验证码,系统将会给手机号发送验证短信。 3. 输入短信验证码,点击确定,即可完成手机号验证。 管理联系人 创建联系人后,您可以在联系人页签查询、编辑或删除联系人: 编辑联系人:单击目标联系人右侧操作 列中的编辑 ,在弹出的对话框中修改联系人信息,然后单击确认。 删除单个联系人:单击目标联系人右侧操作 列中的删除 ,然后在弹出的对话框中单击确认。 删除多个联系人:选择目标联系人,单击批量删除 ,然后在提示对话框中单击确认。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        告警管理(新版)
        告警通知对象
        联系人
      • 配置同步实例
        配置同步对象及高级配置详细说明 点击“实例配置”按钮,可在第二步进行同步对象的选择和高级配置。 选择同步步骤 在配置信息中,可选择要进行的同步步骤。其中,库表结构同步为必选项。 说明 1. 当进行库表结构同步时,如果目标库已存在同名对象,同步过程中默认会跳过这些同名对象。如果同名对对象是表,请确保目标库这些同名表和源库保持一致,否则将会导致后续的全量同步和增量同步失败。 2. 全量同步过程中,如果目标库已存在同名表对象,且这些表对象中存在和源库相同主键的行记录,这些行记录将会被源库的行记录覆盖。 3. 如果是“实例编辑”,则禁止再改变同步步骤。 选择同步对象 进入实例配置的第二步时,左侧的“源库对象”将会展示可选择的同步对象。例如,如果是MySQL同步到MySQL,将会先以库级别展示出待同步对象。 用户可根据正则表达式搜索需要同步的对象。 点击父级对象左侧的展开按钮,将弹出整库同步提示,点击确定。 库对象展开后,可选择下一级别的同步对象,例如可勾选所有表对象作为待同步对象。点击中间的“>”按钮,可将这些表对象变成已选择对象。 说明 1. 当不展开库对象,直接将库对象勾选作为已选择对象时,将进行整库同步。 2. 当同时勾选了增量同步、增量DDL并选择进行整库同步时,新创建的表结构才会在增量同步阶段被同步到目标库。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        实例配置和实例编辑
        配置同步实例
      • 导入导出
        本节主要介绍导入导出 导入 说明 出于数据隐私性保护目的,DAS需要您提供一个您自己的OBS存储,用来接收您上传的附件信息,然后DAS会自动连接到该OBS文件,进行内存式读取,整个过程您的数据内容不会落盘在DAS的任何存储介质上。 导入完成后若勾选删除上传的文件选项,则该文件导入目标数据库成功后,将从OBS桶中自动删除。 操作说明 当需要进行数据备份或迁移时,您可将数据导入目标数据表,目标CSV表数据类型须与待导入表数据类型保持一致,SQL文件同理。 约束限制 导入单文件大小最大可达1G。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 操作步骤 1. 在顶部菜单栏选择“导入·导出”>“导入”。 DAS支持从本地选取文件导入,同时也支持从OBS桶中直接选择文件进行导入操作。 新建导入任务 从本地导入文件 在导入页面单击左上角的“新建任务”,在弹出框选择导入类型,选择文件来源为“上传文件”、附件存放位置等信息并上传文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 为了保障数据安全,DAS中文件保存在OBS桶中。 从OBS桶中导入文件 在导入页面单击左上角的“新建任务”,在弹出框设置导入类型,选择文件来源为“从OBS中选择”,在OBS文件浏览器弹窗中选择待导入文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 说明 从OBS桶中直接选择文件导入,导入目标数据库成功后,OBS桶不会删除该文件。 2. 导入信息设置完成后,单击“创建导入任务”即可。由于导入任务可能会覆盖您原有的数据,需再次确认无误后单击“确定”继续。 您可在导入任务列表中查看导入进度等信息,在操作栏单击“查看详情”,您可在任务详情弹出框中,了解本次导入任务成功、失败等执行情况及耗时。 导出
        来自:
        帮助文档
        数据管理服务
        用户指南
        PostgreSQL数据库管理(开发工具)
        导入导出
      • 查看迁移详情
        本页介绍如何查看数据迁移实例的迁移详情。 查看数据迁移实例详情,包含:查看结构迁移、查看全量数据迁移与查看增量数据迁移详情。 操作步骤 1、进入【实例管理】页面。 在【数据迁移】实例列表页面选择相应的实例数据,并点击实例ID进入【实例管理】页面。 2、进入详情页面。 在【实例管理】页面点击“实例详情”,进入【实例管理】页面。 3、进入【迁移详情】页面查看迁移详情。 在左侧菜单栏点击“迁移详情”,进入【迁移详情】页面。 结构迁移 点击“结构迁移”菜单,查看当前数据迁移实例的结构迁移详情,包括迁移的Tables、Views、Functions、Procedures的对象名称、源库、目标库、状态等信息。 点击页面中列表右方“操作”列的“创建语法”按钮,可以查看迁移对象的创建语句。 全量数据迁移 点击“全量数据迁移”菜单,查看当前数据迁移实例的全量部分的迁移详情,包括对象名称、源库与目标库的库表信息、已完成行数、耗时、状态等信息。 增量数据迁移 点击“增量数据迁移”菜单,查看当前数据迁移任务增量部分的迁移详情,包括源库、目标库、当前的DTS拉取位点和源库最新位点、是否延迟等状态信息。 注意 1. 位点用BINLOGNAME:BINLOGPOSITION的格式记录,如上例mysqlbin.000049是BINLOG的名称,1010401550是当前位点在这个BINLOG FILE的文件偏移量。DTS拉取位点表示DTS的当前进度,与源库最新位点如果有差距就存在延迟。可以通过这两个值查看延迟有多大。 2. 如果针对迁移的库未迁移的表作了数据变更操作,DTS拉取位点由于过滤条件的存在,该值不会进行更新,但源库最新位点会实时更新。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例管理
        查看迁移详情
      • 桶清单简介
        本文主要介绍桶清单简介。 桶清单功能可以定期生成桶内对象的元数据信息,通过查看这些信息,可以帮助您更好地了解桶内对象的状态。 生成的桶清单为CSV格式的文件,您可以规定桶清单在生成后自动上传到指定桶中。 您可以通过对象前缀过滤需要生成清单的对象,指定清单的生成周期(每天或每周),选择是否列出对象的所有版本。同时您还可以根据实际业务需要,指定清单中要包含的对象元数据内容,包括文件大小、上次修改时间、存储类别、ETag、分段上传、复制状态、加密状态等。 约束与限制 一个桶最多支持10条桶清单。 桶清单配置的源桶和目标桶必须归属同一个帐号。 桶清单配置的源桶和目标桶必须归属同一个区域。 只支持生成CSV格式的清单文件。 桶清单筛选条件目前仅支持设置为所有对象或指定前缀的对象。 同一个桶中多条清单规则的筛选条件不能彼此包含: 如果已经存在针对桶中所有对象的规则,则无法再创建按对象名前缀筛选的规则。如需创建,要先删除针对所有对象的规则。 如果已经存在按对象名前缀筛选的规则,则无法再创建针对桶中所有对象的规则。如需创建,要先删除所有按对象名前缀筛选的规则。 如果已经存在某个按对象名前缀筛选的规则(如前缀ab),则无法再创建与其存在包含或被包含关系的规则(如前缀a或前缀abc)。如需创建,要先删除存在包含或被包含关系的规则。 桶清单加密方式目前只支持SSEKMS。 桶清单中配置的目标桶不能开启桶默认加密。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        桶清单
        桶清单简介
      • 加密桌面管理
        本节介绍翼加密的加密桌面相关管理。 开启加密保护 1. 点击“文件加密”—“加密桌面管理”; 2. 批量勾选列表中的桌面; 3. 点击列表顶部的“开启加密保护”按钮,即可开启AI云电脑加密保护。 开启加密保护后,AI云电脑将进行全盘扫描,直到所有的目标文件类型都完成加密。扫描方式分为两种: 强制扫描 强制扫描期间AI云电脑无法登录使用,直到AI云电脑完成全盘加密。 后台扫描 AI云电脑将在后台进行静默加密扫描,期间AI云电脑可以正常登录使用。 注意 开启加密保护后,AI云电脑内已有的所有目标文件会被加密保护。并且后续AI云电脑编辑保存、接收、下载的所有目标类型文件将被自动加密保护。 更改桌面的加密策略 点击“文件加密”—“加密桌面管理”,在加密桌面列表中可以单个/批量对AI云电脑进行更改策略的操作。 更改策略时,可能存在以下几种情况: (1) 使用该加密策略的已加密AI云电脑被取消分配策略。出现这种情况时系统会提示请先将生效该策略的AI云电脑解密后,再重新分配策略。 (2) 策略分配的范围内,存在已经使用其他加密策略的AI云电脑,并且两个加密策略的范围配置和加密强度不同。出现这种情况时系统会提示请先将原策略的AI云电脑解密后,再重新分配策略。 (3) 策略分配的范围内,存在已经使用其他加密策略的AI云电脑,但两个加密策略的范围配置和加密强度一致。出现这种情况时可以直接完成策略的重新分配。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼加密
        管理员指南
        加密桌面管理
      • 1
      • ...
      • 101
      • 102
      • 103
      • 104
      • 105
      • ...
      • 530
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      AI Store

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      产品功能

      复制

      产品特点

      基本功能

      Windows方程式漏洞ACL策略配置说明

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号