云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 通过mongoexport和mongoimport工具迁移数据
        本章节将介绍mongoexport和mongoimport工具的使用方法。 mongoexport和mongoimport是MongoDB客户端自带的备份恢复工具。您可以在本地设备或ECS中安装MongoDB客户端,通过mongoexport和mongoimport工具将自建MongoDB数据库或其他云数据库MongoDB迁移至天翼云DDS实例。 要将已有的MongoDB数据库迁移到文档数据库,需要先使用mongoexport工具对它做转储。再通过弹性云服务器或可访问文档数据库的设备,使用mongoimport工具将转储文件导入到文档数据库服务。 使用须知 mongoexport和mongoimport工具仅支持全量数据迁移。为保障数据一致性,迁移操作开始前请停止源数据库的相关业务,并停止数据写入。 建议您尽量选择在业务低峰期迁移数据,避免在迁移过程中对业务造成影响。 不支持迁移系统库admin和local。 确保源库中系统库admin和local没有创建业务集合,如果已经有业务集合,必须在迁移前将这些业务集合从admin和local库中迁移出来。 导入数据之前,确保源端有必要的索引,即在迁移前删除不需要的索引,创建好必要的索引。 如果选择迁移分片集群,必须在目标库创建好要分片的集合,并配置数据分片。同时,迁移前必须要创建好索引。 前提条件 准备弹性云服务器或可访问文档数据库的设备。 − 通过内网连接文档数据库实例,需要创建并登录弹性云服务器,请参见创建弹性云服务器和登录弹性云服务器。 − 通过公网地址连接文档数据库实例,需具备以下条件。 为实例中的节点绑定公网地址,保证本地设备可以访问文档数据库绑定的公网地址。 在已准备的弹性云服务器或可访问文档数据库的设备上,安装数据迁移工具。 安装数据迁移工具,请参见如何安装MongoDB客户端。 说明 MongoDB客户端会自带mongoexport和mongoimport工具。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongoexport和mongoimport工具迁移数据
      • 通过DAS实现数据的导入和导出
        本节主要介绍通过DAS实现数据的导入和导出 数据导入 数据管理服务支持从本地或者OBS桶导入数据,进行数据的备份和迁移。 使用须知 当需要进行数据备份或迁移时,您可以将数据导入目标数据表,目标CSV表数据类型须与待导入表数据类型保持一致,SQL文件同理。 导入单文件大小最大可达1GB。 可以支持导入的数据文件类型包括CSV格式和SQL文件格式。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择区域和项目。 步骤 3 单击页面左上角的,选择“数据库 > 数据管理服务”,进入数据管理服务页面。 步骤 4 在左侧导航栏中,单击“开发工具”,进入开发工具页面。 步骤 5 选择需要登录的目标数据库实例,单击操作列表中的“登录”,登录目标数据库实例。 步骤 6 在顶部菜单栏选择“导入·导出 > 导入”。 步骤 7 单击“新建任务”。 表 参数说明 参数名称 说明 导入类型 可选择sql或CSV。 文件来源 DAS支持从本地选取文件导入,同时也支持从OBS桶中直接选择文件进行导入操作。 上传文件选择文件来源为“上传文件”、需要设置附件存放位置,并上传文件。出于数据隐私性保护目的,DAS需要您提供一个自己的OBS存储,用来接收您上传的附件信息,DAS会自动连接到该OBS文件,进行内存式读取,整个过程您的数据内容不会存储在DAS的任何存储介质上。创建OBS桶免费,但是保存文件将产生一定的费用。导入完成后若勾选删除上传的文件选项,则该文件导入目标数据库成功后,将从OBS桶中自动删除。 OBS桶选择文件来源为“从OBS中选择”,需要在OBS中选择待导入文件。从OBS桶中直接选择文件导入,导入目标数据库成功后,OBS桶不会删除该文件。 数据库 选择导入的目标数据库。 字符集 按需设置字符集。 选项 勾选选项“忽略报错,即SQL执行失败时跳过”时,则在数据导入目标数据库的过程中,如果有SQL执行出错,系统将忽略执行错误,继续往下执行。勾选“导入完成后删除上传的文件”时,则该文件导入目标数据库成功后,将从OBS桶中自动删除。该选项仅适用于本地上传的文件。 备注 自定义备注信息。 步骤 8 导入信息设置完成后,单击“创建导入任务”即可。 由于导入任务可能会覆盖您原有的数据,需再次确认无误后单击“确定”。 步骤 9 您可在导入任务列表中查看导入进度等信息。 在操作栏单击“查看详情”,您可以在任务详情弹框中,了解本次导入任务成功、失败等执行情况及耗时。
        来自:
        帮助文档
        数据管理服务
        最佳实践
        通过DAS实现数据的导入和导出
      • 初始化数据盘场景及磁盘分区形式介绍
        本节介绍了初始化数据盘场景及磁盘分区形式。 操作场景 磁盘挂载至云主机后,需要登录云主机初始化磁盘,即格式化磁盘,之后磁盘才可以正常使用。 系统盘 系统盘不需要初始化,创建云主机时会自带系统盘并且自动初始化,默认磁盘分区形式为主启动记录分区(MBR, Master boot record)。 数据盘 1)创建云主机时直接创建数据盘,数据盘会自动挂载至云主机。 2)单独创建数据盘,然后将该数据盘挂载至云主机。 以上两种情况创建的数据盘挂载至云主机后,均需要初始化后才可以使用,请您根据业务的实际规划选择合适的分区方式。 约束与限制 从数据源创建的磁盘无需初始化。该磁盘在初始状态就具有数据源中的数据,初始化有丢失数据的风险。 磁盘分区形式 常用的磁盘分区形式如表1所示,并且针对Linux操作系统,不同的磁盘分区形式需要选择不同的分区工具。 磁盘分区形式 支持最大磁盘容量 支持分区数量 Linux分区工具 主启动记录分区(MBR) 2TB 4个主分区 3个主分区和1个扩展分区 以下两种工具均可以使用: fdisk工具 parted工具 主启动记录分区(MBR) 2TB MBR分区包含主分区和扩展分区,其中扩展分区里面可以包含若干个逻辑分区。扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。以创建6个分区为例,以下两种分区情况供参考: 以下两种工具均可以使用: fdisk工具 parted工具 主启动记录分区(MBR) 2TB 3个主分区,1个扩展分区,其中扩展分区中包含3个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 主启动记录分区(MBR) 2TB 1个主分区,1个扩展分区,其中扩展分区中包含5个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 全局分区表 18 EB 不限制分区数量 parted工具 (GPT, Guid Partition Table) 1 EB 1048576 TB GPT格式下没有主分区、扩展分区以及逻辑分区之分。 parted工具 注意 MBR支持的磁盘最大容量为2TB,GPT最大支持的磁盘容量为18 EB,当前数据盘支持的最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,分区形式请采用GPT。当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
        初始化数据盘场景及磁盘分区形式介绍
      • 恢复到自建MySQL数据库
        工具 下载实例 MySQL 5.6 mysql5.6.51linuxglibc2.12x8664.tar.gz MySQL 5.7 mysql5.7.38linuxglibc2.12x8664.tar.gz MySQL 8.0 mysql8.0.26linuxglibc2.12x8664.tar qpress Percona XtraBackup (MySQL 5.6、5.7) Percona XtraBackup (MySQL 8.0)
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据恢复
        恢复到自建MySQL数据库
      • 通过mongodump和mongorestore工具迁移数据
        本页介绍了通过mongodump和mongorestore工具迁移数据操作步骤。 通过使用mongodump和mongorestore工具来迁移文档数据库服务数据是一种常见且可靠的方法。这两个工具是MongoDB官方提供的备份和还原工具,可以帮助您将数据从一个文档数据库服务实例备份到文件,然后再将备份文件还原到另一个文档数据库服务实例。 以下是使用mongodump和mongorestore工具进行文档数据库服务数据迁移的步骤: 1. 使用mongodump备份数据: 在源文档数据库服务实例所在的服务器上运行mongodump命令,用于备份数据到文件。 mongodump命令:mongodump uriyoursourcemongodburi out/path/to/backupdirectory。 其中,yoursourcemongodburi是源文档数据库服务实例的连接URI,/path/to/backupdirectory是备份文件保存的目录。请确保您有权限在该目录下写入文件。 2. 将备份文件传输到目标服务器: 将上一步备份的文件传输到目标文档数据库服务实例所在的服务器,可以使用scp、rsync或其他文件传输工具。 3. 使用mongorestore还原数据: 在目标文档数据库服务实例所在的服务器上运行mongorestore命令,用于将备份文件还原到目标MongoDB实例。 mongorestore命令:mongorestore uriyourtargetmongodburi /path/to/backupdirectory。 其中,yourtargetmongodburi是目标MongoDB实例的连接URI,/path/to/backupdirectory是备份文件所在的目录。 4. 验证数据迁移: 运行完mongorestore命令后,您可以连接到目标文档数据库服务实例,并使用mongo shell或MongoDB客户端工具验证数据是否成功迁移。 注意 使用mongodump和mongorestore工具进行数据迁移会导致目标MongoDB实例上的数据完全被源实例中的数据覆盖。因此,在进行数据迁移前,请务必谨慎备份数据,并在生产环境之外进行测试和验证。如果迁移的目标实例上已经存在数据,那么请特别注意避免数据冲突和重复插入。另外,如果数据量较大或者需要在生产环境中进行数据迁移,考虑使用文档数据库服务副本集或分片集群,并采用逐步迁移的方式,以确保数据的连续性和一致性。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongodump和mongorestore工具迁移数据
      • 购买类
        Hadoop压力测试工具如何获取? Hadoop压力测试工具社区获取地址: 翼MapReduce(MRS)服务集成的开源第三方SDK中包含的公网IP地址声明是什么? MRS服务集成的开源组件所依赖的开源三方包中包含SDK使用示例,其中涉及“12.1.2.3”、“54.123.4.56”、“203.0.113.0”、“203.0.113.12”等公网IP均为示例IP,MRS服务进程不会主动发起与该公网IP的连接,也不会与该公网IP进行任何数据交换。 翼MapReduce(MRS)是否支持Hive on Kudu? MRS不支持Hive on Kudu。 目前MRS只支持两种方式访问Kudu: 通过Impala表访问Kudu。 通过客户端应用程序访问操作Kudu表。 10亿级数据量场景的解决方案有哪些? 有数据更新、联机事务处理OLTP、复杂分析的场景,建议使用云数据库 GaussDB(for MySQL)。 MRS的Impala + Kudu也能满足该场景,Impala + Kudu可以在join操作时,把当前所有的join表都加载到内存中来实现。 如何修改DBService的IP地址? MRS集群内不支持修改DBService的IP地址。 翼MapReduce(MRS)集群内节点上的sudo log能否清理? MRS集群内节点上的sudo log文件是omm用户的操作记录,以方便问题的定位,用户可以清理。 因为日志占用了一部分存储空间,建议管理员清除比较久远的操作日志释放资源空间。 1.日志文件较大,可以将此文件目录添加到“/etc/logrotate.d/syslog”中,让系统做日志老化 ,定时清理久远的日志 。 更改文件日志目录:sed i '3 a/var/log/sudo/sudo.log' /etc/logrotate.d/syslog 2.可以根据日志个数和大小进行设置“/etc/logrotate.d/syslog”,超过设置的日志会自动删除掉。一般默认按照存档大小和个数进行老化的,可以通过size和rotate分别是日志大小限制和个数限制,默认没有时间周期的限制,如需进行周期设置可以增加daily/weekly/monthly指定清理日志的周期为每天/每周/每月。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        购买类
      • 产品定义
        本文带您了解什么是AI Store。 天翼云AI Store依托息壤一站式智算服务平台能力,提供全栈AI产品的聚合服务,集成强大的算力、丰富的模型、多样化的应用以及MCP生态,实现一站式体验和采购,满足不同行业的业务需求,助力产业智能化升级。 功能模块 算力市场:弹性、高效、经济的AI算力服务,满足用户在不同场景下的算力需求。 模型市场:主流大模型在线体验,提供标准化API接口,支持高并发、低时延推理。 应用市场:汇聚多元应用,包括公有云一键部署的应用,以及私有化交付部署的应用。 公有云应用包括Dify、Ragflow、McpServers等应用,支持一键部署,简化应用的安装和配置,轻松上手。 私有化应用包括无忧智慧公文、一站式AI智能体开发平台,提供线下私有化部署,满足安全、独享需求。 MCP市场:涵盖内容生成、网页搜索、效率工具等多种类型,支撑各类智能应用场景。 产品架构
        来自:
        帮助文档
        AI Store
        产品介绍
        产品定义
      • 什么是Prometheus监控
        天翼云 Prometheus 监控服务对接开源 Prometheus 生态,提供多种开箱即用的预置监控大盘,且提供全面托管的 Prometheus 服务。 什么是Prometheus实例 Prometheus实例是天翼云可观测监控服务中用于管理数据采集、存储与分析的核心逻辑单元,包含预配置的数据采集规则、时序数据库、可视化监控面板及告警策略等功能模块。 产品优势 集成便捷:提供一站式解决方案,显著降低可观测系统的部署与运维复杂度。 成本可控:相较自建方案,天翼云可观测Prometheus监控服务具备更优的性价比优势。 生态融合:深度集成天翼云容器服务,实现无缝对接。 专业护航:享有天翼云官方提供的专业技术支持体系。 注意 目前Prometheus监控服务仅于华东1、华南2、西南1上线。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        产品概述
        什么是Prometheus监控
      • 通过mongodump和mongorestore工具迁移数据
        本章节将介绍mongodump和mongorestore工具的使用方法 mongodump和mongorestore是MongoDB客户端自带的备份恢复工具。您可以在本地设备或ECS中安装MongoDB客户端,通过mongodump和mongorestore工具将自建MongoDB数据库或其他云数据库MongoDB迁移至天翼云DDS实例。 使用须知 mongodump和mongorestore工具仅支持全量数据迁移。为保障数据一致性,迁移操作开始前请停止源数据库的相关业务,并停止数据写入。 建议您尽量选择在业务低峰期迁移数据,避免在迁移过程中对业务造成影响。 不支持迁移系统库admin和local。 确保源库中系统库admin和local没有创建业务集合,如果已经有业务集合,必须在迁移前将这些业务集合从admin和local库中迁移出来。 导入数据之前,确保源端有必要的索引,即在迁移前删除不需要的索引,创建好必要的索引。 如果选择迁移分片集群,必须在目标库创建好要分片的集合,并配置数据分片。同时,迁移前必须要创建好索引。 如果使用mongodump工具备份失败(示例:备份进度至97%时报错),建议您尝试增大虚拟机磁盘空间,预留部分冗余空间,再重新执行备份。 客户侧使用的是rwuser帐号,仅支持操作客户业务库表。所以,在使用时建议指定库和表,仅对业务数据执行导入导出。不指定库表,全量进行导入导出,可能会遇到权限不足的问题。 前提条件 准备弹性云服务器或可访问DDS的设备。 − 通过内网连接文档数据库实例,需要创建并登录弹性云服务器,请参见创建弹性云服务器和登录弹性云服务器。 − 通过公网地址连接文档数据库实例,需具备以下条件。 为实例中的节点绑定公网地址,保证本地设备可以访问文档数据库绑定的公网地址。 在已准备的弹性云服务器或可访问DDS的设备上,安装数据迁移工具。 安装数据迁移工具,请参见如何安装MongoDB客户端。 说明 MongoDB客户端会自带mongodump和mongorestore工具。 MongoDB客户端版本须和实例相匹配,若版本不匹配则会有兼容性问题出现。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongodump和mongorestore工具迁移数据
      • 云迁移服务基本概念
        目标云环境 目标云环境指的是迁移后应用程序和数据所在的云平台,也就是迁移到的目标位置。 迁移工具 迁移工具用于将业务应用程序和数据从本地环境迁移到云平台。在云迁移服务平台工具中心包括服务器迁移工具、数据库迁移工具、数据迁移工具及华为提供异构迁移工具。 迁移报告 迁移报告是一份记录和总结迁移过程的报告,其中包含了迁移组名称、迁移组描述、资源数量、迁移计划个数、计划创建时间、完成时间、备注等信息。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        云迁移服务基本概念
      • 在线工具加解密小数据
        本节指导用户通过密钥管理界面使用在线工具加解密不大于4KB的数据。 前提条件 自定义密钥处于“启用”状态。 约束条件 在线工具不支持通过默认密钥加解密小数据。 用户可使用调用API接口的方式,使用默认密钥加解密小数据。 加密数据时,使用当前指定的密钥加密数据。 解密数据时,在线工具自动识别并使用数据被加密时使用的密钥解密数据,如果加密时使用的密钥已被删除,会导致解密失败。 加密数据 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角,选择区域或项目。 步骤 3 单击“服务列表”,选择“安全> 数据加密服务”,默认进入“密钥管理”界面。 步骤 4 单击目标自定义密钥的别名,进入密钥详细信息在线工具加密数据页面。 步骤 5 在“加密”文本框中输入待加密的数据。 步骤 6 单击“执行”,右侧文本框显示加密后的密文数据。 说明 加密数据时,使用当前指定的密钥加密数据。 用户可单击“清除”,清除已输入的数据。 用户可单击“复制到剪切板”拷贝加密后的密文数据,并保存到本地文件中。 解密数据 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角,选择区域或项目。 步骤 3 单击“服务列表”,选择“安全> 数据加密服务”,默认进入“密钥管理”界面。 步骤 4 解密数据时,可单击任意“启用”状态的非默认密钥别名,进入该密钥的在线工具页面。 步骤 5 单击“解密”,在左侧文本框中数据待解密的密文数据。 说明 在线工具自动识别并使用数据被加密时使用的密钥解密数据。 若该密钥已被删除,会导致解密失败。 步骤 6 单击“执行”,右侧文本框中显示解密后的明文数据。 说明 用户可直接单击“复制到剪切板”拷贝解密后的明文数据,并保存到本地文件中。
        来自:
        帮助文档
        数据加密
        用户指南
        密钥管理
        在线工具加解密小数据
      • 工具中心
        本节为您介绍云迁移服务工具中心。 云迁移服务CMS平台提供迁移管理工具中心功能,您可以根据任务需求,在左侧导航栏选择迁移管理点击【工具中心】按钮,跳转至 [ 工具中心 ] 界面,选择合适迁移工具。 工具中心提供服务器迁移服务(CMSSMS)、数据库迁移服务(CMSDMS)、数据迁移工具(CMSZMS)、服务器资源池间迁移工具(CMSCRS)及异构迁移工具异构迁移(ExaGear)、 异构迁移(DevKit),如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        迁移管理
        工具中心
      • AI云电脑同步工具
        本节介绍可通过AI云电脑同步工具将本地电脑数据同步到天翼量子AI云电脑,或者将天翼量子AI云电脑的数据同步到另外一个天翼量子AI云电脑。 1.简介 如需将本地电脑数据同步到AI云电脑,或者将AI云电脑的数据同步到另外一个AI云电脑,可使用AI云电脑同步工具进行数据同步。同步工具适用于Windows系统、统信UOS系统、银河麒麟系统、中科方德系统等,操作使用方式请参考以下操作指导。 同步工具客户端下载地址:++天翼云电脑同步工具客户端下载++ 2.登录/退出客户端 2.1 扫码登录 在登录界面,使用移动端的天翼云电脑App或翼连App进行二维码扫码,移动端确认登录。 2.2 账密登录 在登录界面,输入天翼量子AI云电脑账号密码,点击“安全登录”,即可登录同步工具客户端。 2.3 专线接入 若天翼量子AI云电脑的租户开通了企业专线接入,该租户下用户使用同步工具也需要通过专线接入登录,同步工具的专线地址与天翼量子AI云电脑专线地址一致。 1. 勾选“企业/专线地址”,弹出专线接入配置框; 2. 在专线接入配置框中,选择协议类型“http”或“https”,输入专线地址和端口; 3. 点击“启用”按钮。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南(新)
        AI云电脑同步工具
      • 任务管理
        任务取消 数据库迁移工具提供对执行中的任务进行取消,使当前任务结束。进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据迁移”,点击指定任务的“取消”按钮即可。 停止增量 数据库迁移工具增量迁移需由用户自行停止。当增量迁移监测到5分钟内没有增量数据,在进度界面将出现“增量迁移”按钮,用户可自行决定是否结束增量迁移。 任务终结 数据库迁移工具提供任务终结功能,用户可通过点击迁移任务的“终结”按钮,移除迁移任务数据。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据迁移”。 2. 点击“终结”按钮,并点击“确定“按钮,即可完成任务信息移除。 任务释放 数据库迁移工具提供任务释放功能,用户可通过点击迁移任务的“释放”按钮,完全删除迁移任务数据。该操作不可逆,数据将无法找回。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据迁移”。 2. 点击“释放”按钮,并点击“确定“按钮,即可彻底移除任务信息。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        任务管理
      • 产品架构
        本章介绍数据管理服务的整体产品架构。 数据管理服务DMS助力于企业数字化转型,为企业提供了高效、安全的数据管理解决方案。 先进的数据资产管理功能,帮助企业优化数据资源的组织、分类和检索。 可视化开发工具,为开发人员提供友好的数据操作界面,简化数据库的开发和管理过程。 重视数据的安全保护,通过团队隔离、用户与角色管理、操作审计等功能,确保数据的安全性。 下图为数据管理服务的整体产品架构图。 产品架构图 整个产品架构分为四层: 统一访问:通过统一的访问界面入口,用户无需在多个系统或客户端之间切换,可以轻松地访问和管理各种数据资源。这种统一的访问方式简化了操作流程,提高了管理效率,同时降低了学习成本和维护难度,有助于企业制定统一的安全策略、开发规范和变更流程。此外,DMS还提供Open API,方便第三方集成。 功能设计:DMS提供了丰富的产品功能,包括数据资产管理、可视化开发、SQL治理、数据安全协作、智能运维等,能够全方位地满足用户使用和管理数据库的需求。 数据库内核:DMS正在持续地丰富数据源生态,现已支持多种开源和商业数据库类型,更多数据源支持正在持续上线中。 来源/环境:DMS支持各种网络环境的数据库,包括天翼云、公网/直连数据库等,具备了多环境、多云的适配能力。
        来自:
        帮助文档
        数据管理服务
        产品介绍
        产品架构
      • 应用场景
        场景二:Web类应用 使用FunctionGraph和其他云服务或租户VM结合,用户可以快速构建高可用,自动伸缩的Web/移动应用后端。比如小程序、网页/App、聊天机器人、BFF等。 其优势有: 高可用,利用OBS,Cloud Table的高可用性实现网站数据的高可靠性,利用API Gateway和FunctionGraph的高可用性实现网站逻辑的高可用。 灵活扩展,业务爆发时可以自动调度资源运行更多函数实例以满足处理需求。 按需收费,只有对函数处理文件数据的时间进行计费,无需购买冗余的资源用于非峰值处理。 场景三:AI类应用 各行各业智能化深入带来更多的应用开发场景,通常需要集成各类服务快速上线。比如三方服务集成、AI推理、人脸识别、车牌识别。 其优势有: 快速搭建,用户上传图像后触发函数工作流执行调用文字识别/内容检测服务针对图像进程处理,并将结果以JSON结构化数据返回。按需使用函数与多个智能服务集成,形成丰富的应用处理场景。并随时根据业务改变对函数处理过程做调整,实现业务灵活变更。 简化运维,用户只需开通相关云服务并在函数服务中编写业务逻辑,无需配置或管理服务器,专注于业务创新。业务爆发时可以自动调度资源运行更多函数实例以满足处理需求。 按需计费,只有对函数执行的时间及各智能服务处理进行计费,无需购买冗余的资源用于非峰值处理。
        来自:
        帮助文档
        函数工作流
        产品简介
        应用场景
      • 功能特性
        云工作流支持的功能如下(公测版): 功能集 功能 功能说明 参考文档 基本功能 流程(Flow) 云工作流基于CNCF ServerlessWorkflow Specification 0.8版本进行适配优化作为天翼云云工作流执行流程定义。执行流程时,云工作流执行引擎会根据流程定义解析并驱动执行相关状态流转。 一个流程通常包含若干状态(State),这些状态可以是简单的执行类状态,例如操作(Operation)、暂停(Sleep)、传递(Noop)和失败(Fail)等;也可以是复杂的流程控制类状态,例如条件分支(Switch)、并行(Parallel)和迭代(Foreach)。 流程定义介绍 创建流程 执行流程 基本功能 调度(Schedule) 云工作流调度(即触发器)是触发工作流执行的方式。在事件驱动的计算模型中,事件源是事件的生产者,工作流是事件的处理者。云工作流目前支持比较常见的触发器场景: 定时触发器、HTTP触发器、消息队列类型(Kafka、 RokectMQ)触发器, 云原生网关触发器 工作流调度简介 特性功能 标准(Standard)模式 云工作流支持创建标准(Standard)和快速(Express)两种模式的工作流。 标准(Standard)模式适用于传统意义上的离线业务流程编排执行场景,具备执行步骤状态的持久化存储,支持运行长时间的工作流执行状态流转。 快速工作流和标准工作流 特性功能 快速(Express)模式 云工作流支持创建标准(Standard)和快速(Express)两种模式的工作流。 快速(Express)模式适用于常见的在线业务流程编排和准实时业务流程编排场景,例如微服务API编排、流式数据处理等低延迟和大负载业务场景。 快速工作流和标准工作流 运维及可观测建设 工作流执行监控 工作流执行监控可对工作流的执行启动、执行成功、执行失败、执行超时以及执行过程中的状态转换和执行耗时等指标进行监控和展示。 监控指标 运维及可观测建设 审计事件 云工作流已接入审计服务,可以在云审计中查询用户操作云工作流产生的管控事件, 例如创建工作流、删除工作流以及执行工作流等。 审计事件 流程开发 工作流设计器 云工作流提供一个低代码、可视化的工作流设计器,包含cloudflow studio、 yaml以及工作流设置等功能区。可以基于cloudflow studio进行工作流可视化编排以及相关属性设置, 降低用户对流程定义语言的学习成本。 工作流设计器 集成建设 云服务优化集成 云工作流支持与天翼云多个云服务集成,允许在流程中调用这些云服务的API进行相关资源的操作,完成业务流程构建。 云工作流与云服务的集成类型包括普通集成和优化集成。普通集成是指允许云工作流直接调用云产品的OpenAPI服务接口,不对这些服务接口做任何包装处理和实现优化,基本包括了在天翼云OpenAPI门户注册的云服务OpenAPI服务接口。 优化集成是指对部分高频使用的云产品服务接口进行包装和优化处理,简化接口使用难度,方便用户集成。 集成模式 服务集成模式 函数计算集成 云工作流计集成 集成建设 云服务普通集成 普通集成是指云工作流直接通过在天翼云产品在天翼云OpenAPI门户注册的OpenAPI对外提供的服务接口进行集成调用,不对服务接口做任何特殊处理和优化。 允许云工作流通过调用弹性计算、存储服务、数据库、容器、大数据处理、中间件服务在内的多个天翼云服务的接口实现业务流程编排。 普通集成
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        功能简介
        功能特性
      • 使用GPU实例
        本文介绍如何使用GPU实例。 ECI GPU实例预装了显卡和 CUDA 驱动程序,这意味着在使用 ECI GPU 实例时,您只需选择集成了CUDA Toolkit 等工具的标准镜像,无需额外安装任何驱动。本文将指导您如何有效利用ECI GPU实例。 使用方法 在Pod metadata中添加k8s.ctyun.cn/eciusespecs 的annotaions,选择合适的ECI支持GPU规格,目前ECI支持的GPU规格请见指定ECS规格创建实例。 在Container的resources中声明GPU资源,即ctyun.cn/gpu,用于指定该容器使用的GPU个数。 注意 容器使用GPU个数总和不能超过指定规格所包含的GPU数量。 具体实例如下: apiVersion: apps/v1 kind: Deployment metadata: name: busyboxgpu namespace: default labels: app: busyboxgpu spec: selector: matchLabels: app: busyboxgpu template: metadata: labels: app: busyboxgpu annotations: k8s.ctyun.cn/eciusespecs: pi7.4xlarge.4 spec: containers: name: busybox image: "registryhuadong1.crsinternal.ctyun.cn/opensource/busybox:1.36" resources: limits: ctyun.cn/gpu: '1'
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        ECI Pod
        使用GPU实例
      • 产品咨询
        本节为您介绍数据迁移产品咨询相关问题。 我在什么场景下使用数据迁移工具? 当您需要将其余云服务商的数据迁移上天翼云时,您可以使用数据迁移工具帮助您有序、安全、便捷、轻松地将数字资部分或完全迁移到天翼云,同时保证云上业务的可用性、安全性以及连续性。 数据迁移工具是否支持从阿里云、天翼云等其余云迁移至天翼云? 支持。 数据迁移工具支持市面上主流云厂商的数据迁移至天翼云,如阿里云、天翼云、AWS以及腾讯云等; 数据迁移工具是否支持将天翼云上的数据,迁移到其余云服务商或本地? 不支持。 数据迁移工具迁移目标端仅能够选择天翼云,无法将天翼云数据迁移到本地或其他云服务商。 当我使用数据迁移工具时,是否能够要求天翼云技术人员帮助迁移? 天翼云技术人员不直接参与您的业务迁移,您可以通过查看帮助中心,然后实行迁移; 若帮助中心未涉及您的问题,您可通过页面反馈问题,相关技术人员后续对内容进行补充; 若您需要专业的迁移方案和专属的技术支持,您可以订购我们的迁移服务,帮助您平滑迁移业务,缩短整体业务停机时间,减少上云对业务的影响,解除您的上云顾虑,让您聚焦于业务发展。
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        数据迁移服务模块
        产品咨询
      • AI云电脑同步工具
        本节介绍可通过AI云电脑同步工具将本地电脑数据同步到天翼量子AI云电脑,或者将天翼量子AI云电脑的数据同步到另外一个天翼量子AI云电脑。 简介 如需将本地电脑数据同步到AI云电脑,或者将AI云电脑的数据同步到另外一个AI云电脑,可使用AI云电脑同步工具进行数据同步。同步工具适用于Windows系统、统信UOS系统、银河麒麟系统、中科方德系统等,操作使用方式请参考以下操作指导。 同步工具客户端下载地址:++天翼云电脑同步工具客户端下载++ 登录/退出客户端 扫码登录 在登录界面,使用移动端的天翼云电脑App或翼连App进行二维码扫码,移动端确认登录。 账密登录 在登录界面,输入天翼量子AI云电脑账号密码,点击“安全登录”,即可登录同步工具客户端。 专线接入 若天翼量子AI云电脑的租户开通了企业专线接入,该租户下用户使用同步工具也需要通过专线接入登录,同步工具的专线地址与天翼量子AI云电脑专线地址一致。 1. 勾选“企业/专线地址”,弹出专线接入配置框; 2. 在专线接入配置框中,选择协议类型“http”或“https”,输入专线地址和端口; 3. 点击“启用”按钮。
        来自:
        帮助文档
        天翼云电脑(政企版)
        电脑终端指南(新)
        AI云电脑同步工具
      • 下载客户端
        本章节主要介绍如何下载Linux gsql客户端。 DWS 提供了与集群版本配套的客户端工具包,用户可以在DWS 管理控制台下载客户端工具包。 客户端工具包包含以下内容: 数据库连接工具Linux gsql和测试样例数据的脚本 Linux gsql是一款运行在Linux环境上的命令行客户端,用于连接DWS 集群中的数据库。 测试样例数据的脚本是执行入门示例时用的。 Windows版本gsql Windows gsql是一款运行在Windows环境上的命令行客户端,用于连接DWS 集群中的数据库。 说明 仅8.1.3.101及以上版本支持在console控制台下载。 GDS工具包 GDS工具包是数据服务工具。用户可以使用GDS工具将普通文件系统中的数据文件导入到DWS 数据库中,GDS工具包需要安装在数据源文件所在的服务器上。数据源文件所在的服务器称为数据服务器,也称为GDS服务器。 下载客户端 1. 登录DWS 管理控制台,详情请参见 集群配置章节中的 登录DWS管理控制台。 2. 在左侧导航栏中,单击“连接管理”。 3. 在“gsql命令行客户端”的下拉列表中,选择对应版本的DWS 客户端。 请根据集群版本和安装客户端的操作系统,选择对应版本。 “Redhat x8664”客户端工具支持在以下系统中使用: RHEL 6.4~7.6 CentOS 6.4~7.4 EulerOS 2.3 “SUSE x8664”客户端工具支持在以下系统中使用: SLES 11.1~11.4 SLES 12.0~12.3 “Euler Kunpeng64”客户端工具支持在以下系统中使用: EulerOS 2.8 “RedhatKunpeng64”客户端工具支持在以下系统中使用: CentOS 7.5,7.6 NeoKylin 7.6 “Microsoft Windows”客户端工具支持在以下系统中使用: Windows 7及以上 Windows Server 2008及以上 4. 单击“下载”可以下载与现有集群版本匹配的gsql。单击“历史版本”可根据集群版本下载相应版本的gsql。 如果同时拥有不同版本的集群,单击“下载”时会下载与集群最低版本相对应的客户端工具。如果当前没有集群,单击“下载”时将下载到低版本的客户端工具。DWS 集群可向下兼容低版本的客户端工具。 下表列出了下载的Linux gsql工具包中的文件和文件夹。 Linux gsql工具包目录及文件说明 文件或文件夹 说明 bin 该文件夹中包含了gsql在Linux中的可执行文件。其中包含了gsql客户端工具、GDS并行数据加载工具以及gsdump、gsdumpall和gsrestore工具。 gds 该文件夹中包括了GDS数据服务工具的相关文件,GDS工具用于并行数据加载,可将存储在普通文件系统中的数据文件导入到DWS数据库中。 lib 该文件夹中包括执行gsql所需依赖的lib库。 sample 该文件夹中包含了以下目录或文件: setup.sh:在使用gsql导入样例数据前所需执行的配置AK/SK访问密钥的脚本文件。 tpcdsloaddatafromobs.sql:使用gsql客户端导入TPCDS样例数据的脚本文件。 querysql目录:查询TPCDS样例数据的脚本文件。 gsqlenv.sh 在运行gsql前,配置环境变量的脚本文件。 下表列出了下载的Windows gsql工具包中的文件和文件夹。 Windows gsql工具包目录及文件说明 文件或文件夹 说明 x64 该文件夹中包含了64位Windows gsql执行二进制和动态库。 x86 该文件夹中包含了32位Windows gsql执行二进制和动态库。 在“集群管理”页面的集群列表中,单击指定集群的名称,再选择“集群详情”页签,可查看集群版本。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        使用gsql命令行客户端连接集群
        下载客户端
      • 订阅进度查看
        本节为您介绍数据库迁移工具订阅进度查看。 数据订阅任务启动后会自动跳转数据订阅实时进度查看界面,用户也可以点击任务列表任务名跳转至进度界面,进度界面提供查看当前任务的数据堆积量、读取量、推送量等信息。 堆积量 源库增量变更已经被工具读取到,但是还未推送到目标的数据量 读取量 源库增量变更已经被系统读取到的数据量 推送量 工具成功将源库增量推送到目标的数据量 变更读取时间 工具读取到源库增量的时间 最后推送时间 工具最近一次成功将源库增量推送到目标的时间 错误 工具最近一次推送到目标发生错误的异常信息
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        数据订阅
        订阅进度查看
      • 对象存储触发器
        对象存储与函数计算集成后,对象存储事件能触发相关工作流执行,实现对对象存储中的数据的自定义处理。 背景信息 对象存储和工作流通过对象存储触发器实现无缝集成,可以编排工作流对对象存储事件进行自定义处理,当对象存储捕获到指定类型的事件后,对象存储事件触发相应的工作流执行。例如,可以设置工作流来处理PutObject事件,当上传图片到对象存储后,相关联的工作流会自动被触发来处理该图片。 对象存储和工作流集成后,可以自由地调用各种工作流处理图像或音频数据,再把结果写回到多种存储服务中。整个架构中,只需要专注于工作流逻辑的编写,系统将以实时的、可靠的、大规模并行的方式处理海量的数据。 前提条件 创建事件总线类触发器前,需要先确认开通事件总线对工作流的服务委托,赋予事件总线调用工作流的权限。 对象存储事件定义 当对象存储系统捕获到相关事件后,会将事件信息编码为JSON字符串,传递给事件处理函数。 已支持的对象存储事件定义如下表所示。 事件类型 说明 s3:ObjectCreated:Put 原子上传对象到Bucket。 s3:ObjectCreated:Post Post上传对象到Bucket。 s3:ObjectCreated:CompleteMultipartUpload 分段上传对象到Bucket。 s3:ObjectCreated:Copy 拷贝上传。 s3:ObjectRemoved:Delete 删除Bucket中对象。 s3:ObjectRemoved:DeleteMarkerCreated 不指定版本号删除多版本Bucket中对象。 s3:ObjectRestore:Post 对象解冻。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        事件总线类触发器
        对象存储触发器
      • 行动集成
        接收到告警后,您可在应用性能监控控制台中执行预先配置好的操作,完成告警响应。本文主要介绍如何借助应用性能监控告警管理的行动集成功能,手动执行告警处理预案;若需实现自动化执行,可在通知策略中绑定相应的行动集成,使系统在告警触发或恢复时自动运行对应的行动集成。 功能介绍 在当前版本的应用性能监控中,支持的行动集成类型: Webhook。 行动集成支持静态和动态两类参数,静态参数就是固定参数,动态参数可以从告警的内容中动态提取。 创建Webhook行动集成 Webhook允许将告警通知发送到指定的公网地址。详细步骤如下: 1. 登录【应用性能监控控制台】,在左侧导航栏选择告警管理 > 集成。 2. 在集成 页面,单击行动集成 页签,然后单击Webhook。 3. 在弹出的新建 Webhook 行动集成页面中,填写名称、描述、URL、参数等信息,然后单击确定。 测试 配置完成后可以选择历史告警进行测试 1. 在行动集成 页面,单击对应名称操作 列的测试。 2. 在弹出的行动集成测试 页面,单击实际告警测试页签。 3. 单击选择待测试的历史告警,单击开始测试。 执行行动集成
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        告警管理(新版)
        集成
        行动集成
      • 迁移限制
        本节为您介绍迁移限制相关问题。 兼容性列表有哪些? 您可参见兼容性列表。 数据迁移工具将对象数据迁移到并行文件系统有哪些限制? 数据迁移工具将对象数据迁移到并行文件系统有以下限制(并行文件系统限制): 若对象名以/结尾,则对象大小必须为0,否则不支持迁移。 对象名中不能出现连续/,例如test//test。 迁移源使用共享带宽是否可以进行迁移? 不可以。 数据迁移工具仅支持独占带宽进行迁移,不支持使用共享带宽进行迁移,否则会出现无法获取到迁移源处的网络情况的问题。 数据迁移工具重要声明有哪些? 具体内容您可以参见[免责声明]数据库迁移部分。
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        数据迁移服务模块
        迁移限制
      • 创建CDM集群
        本章节主要介绍创建CDM集群。 CDM采用独立集群的方式为用户提供安全可靠的数据迁移服务,各集群之间相互隔离,不可相互访问。 CDM集群可用于如下场景: 用于创建并运行数据迁移作业。 作为管理中心组件连接数据湖时的Agent代理。 DataArts Studio实例中不包含CDM集群,如果您需要使用数据集成的功能,请参考用户指南中的“准备工作 > (可选)创建DataArts Studio增量包”章节,创建批量数据迁移集群。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理集群
        创建CDM集群
      • 任务管理
        操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据同步” 2. 用户可通过点击同步任务的“启动”按钮,该任务恢复运行。 3. 点击“确定”之后,任务状态恢复为执行中 任务取消 数据库迁移工具提供对执行中的任务进行取消,使当前任务结束。进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据同步”,点击指定任务的“取消”按钮即可。 任务终结 数据库迁移工具提供对执行中的任务进行终结,移除当前任务信息。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据同步" 2. 用户可通过点击同步任务的“终结”按钮,该任务被删除。 3. 点击“确定”之后,选中的任务信息被移除。 任务释放 数据库迁移工具提供任务释放功能,用户可通过点击迁移任务的“释放”按钮,完全同步任务数据。该操作不可逆,数据将无法找回。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        任务管理
      • 什么是开发者平台-边缘函数
        功能说明 开发者平台边缘函数目前由函数触发器、函数运行时、边缘存储组成: 触发器目前支持HTTP触发器和定时触发器: HTTP触发器:基于您的CDN加速域名,匹配请求中的对应规则(例如 定时触发器:提供类似Crontab形式,使用函数执行周期性任务(即将上线)。 函数运行时:在边缘节点运行您的JavaScript业务代码的安全隔离环境,请求级隔离,微秒级别启动,用完立即销毁。 边缘存储:提供全网同步的KV存储功能(即将上线)。 相关术语 无服务器 Serverless 无服务器是一种云原生开发模型,可使开发人员专注构建和运行应用,而无需管理服务器。无服务器方案中仍然有服务器,但它们已从应用开发中抽离了出来。云提供商负责置备、维护和扩展服务器基础架构等例行工作。开发人员可以简单地将代码打包到容器中进行部署。部署之后,无服务器应用即可响应需求,并根据需要自动扩容。公共云提供商的无服务器产品通常通过一种事件驱动执行模型来按需计量。因此,当无服务器功能闲置时,不会产生费用。 函数即服务 FaaS 函数即服务(FaaS:Function as a service)是一种事件驱动计算执行模型;开发人员编写代码逻辑,部署到完全由平台管理的函数运行时中,然后按需执行。与 BaaS 不同,FaaS 可让开发人员拥有更大的掌控权力,他们可以创建自定义应用,而不依赖于包含预编写服务的库。代码则部署到边缘安全加速平台管理的容器运行时中。具体而言,这些函数运行时具有以下特点: 无状态 让数据集成变得更加简单。 运行周期短 可以只运行非常短的时间。 事件触发 可在需要时自动运行。 这样,您只用为所需的计算能力付费,而不必管"闲置"的应用和服务器。使用FaaS时,开发人员可以通过触发器调用无服务器应用。 触发器 用户绑定触发器和对应函数,来实现多种调用效果。目前支持定时触发器以及HTTP触发器。 HTTP 路由 用户绑定HTTP触发器和对应函数后,访问安全与加速服务中托管域名的特定路由,即可在边缘节点调用起对应函数计算逻辑。 KV 存储 OmniKV边缘存储提供了KeyValue型边缘存储服务,使开发人员能够构建低时延、频繁读取、不频繁写入的数据驱动的边缘无服务器应用程序。借助OmniKV,无服务器应用程序可以将数据存放在靠近用户的位置,避免从云端或本地解决方案中检索信息的需要,从而实现快速响应。用户快速可以构建高度动态的API和网站服务,部署轻量型的API网关、BaaS服务。 运行时 用于在边缘节点运行用户自定义函数的安全隔离环境。函数运行时所支持的编程语言,目前支持JavaScript。 开发者工具 开发人员使用命令行工具,在本地完成函数编写,构建,灰度上线。
        来自:
        帮助文档
        边缘安全加速平台
        开发者平台
        什么是开发者平台-边缘函数
      • 如何使用KMS加密保护线下数据
        本小节介绍数据加密如何使用KMS加密保护线下数据最佳实践。 加解密小量数据 场景说明 当有少量数据(例如:口令、证书、电话号码等)需要加解密时,用户可以通过密钥管理服务(Key Management Service,KMS)界面使用在线工具加解密数据,或者调用KMS的API接口使用指定的用户主密钥直接加密、解密数据。 约束条件 当前支持不大于4KB的小数据加解密。 在线工具加解密 步骤 1 单击目标自定义密钥的别名,进入密钥详细信息在线工具加密数据页面。 步骤 2 在“加密”文本框中输入待加密的数据。 步骤 3 单击“执行”,右侧文本框显示加密后的密文数据。 解密数据 说明 加密数据时,使用当前指定的密钥加密数据。 用户可单击“清除”,清除已输入的数据。 用户可单击“复制到剪切板”拷贝加密后的密文数据,并保存到本地文件中。 步骤 4 解密数据时,可单击任意“启用”状态的非默认密钥别名,进入该密钥的在线工具页面。 步骤 5 单击“解密”,在左侧文本框中数据待解密的密文数据。 说明 在线工具自动识别并使用数据被加密时使用的密钥解密数据。 若该密钥已被删除,会导致解密失败。 步骤 6 单击“执行”,右侧文本框中显示解密后的明文数据。 说明 用户可直接单击“复制到剪切板”拷贝解密后的明文数据,并保存到本地文件中。
        来自:
        帮助文档
        数据加密
        最佳实践
        如何使用KMS加密保护线下数据
      • 功能特性
        本文介绍应用托管的功能特性。 应用全生命周期管理 提供从构建、交付、管理到运维的全生命周期应用管理能力,支持多种方式灵活构建应用、通过模板标准化交付、一站式管理应用访问与资源,提供持续运维能力。 高效便捷的应用市场和MCP市场 提供丰富多样的应用资源库,涵盖开源工具、模型算法、AI应用、MCP服务等多种类型,满足不同业务场景下的功能扩展与集成需求。支持一键部署,简化传统应用安装与配置的复杂流程,显著提升部署效率。 持久化应用存储 为应用提供持久化存储,支持多种存储类型和性能规格,提供多途径文件接入方式。 灵活资源分配与团队协作 支持完善的项目空间管理能力,实现多项目、多团队的高效协作与资源隔离,灵活配置人员、角色与权限体系,实现对成员访问范围与操作权限的精细化控制。 弹性伸缩 具备弹性伸缩能力,一种根据系统负载情况自动调整资源配置的机制,旨在确保系统在不同的业务场景下都能保持良好的性能和稳定性,同时避免资源的浪费。
        来自:
        帮助文档
        应用托管
        产品介绍
        功能特性
      • 联邦资源管理概述
        本节介绍联邦资源管理概述。 概述 CCE One 联邦资源管理的目标是统一管理联邦中集群的Kubernetes资源。 联邦资源分发 联邦资源管理的一个基础能力就是Kubernetes资源分发,将Kubernetes资源按用户指定的策略分发到联邦中的集群。 为实现资源分发,将资源分发API拆分为资源模板和策略两部分,策略按需要拆分为调度策略和差异化策略。 资源模板 CCE One使用 Kubernetes 原生 API 定义联邦资源模板,以便轻松与现有 Kubernetes 采用的工具进行集成。 策略 调度策略 CCE One提供了一个独立的 Propagation(placement) Policy API 来定义多集群的调度要求。 支持 1:N 的策略映射机制。用户无需每次创建联邦应用时都标明调度约束。 差异化策略 CCE One为不同的集群提供了一个可自动化生产独立配置的 Override Policy API。例如: 基于成员集群所在区域自动配置不同镜像仓库地址。 根据集群不同的云厂商,可以使用不同的存储类。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        集群联邦
        联邦资源管理
        联邦资源管理概述
      • 版本说明
        本页介绍天翼云TeleDB数据库V5.1.5版本更新说明。 版本说明 本章节主要介绍TeleDB版本更新说明。 V5.1.5版本说明 组件名称 版本号 发布时间 TeleDB Core 5.1.5 2024年 11 月 说明 该版本适配的DCP版本为V3.10.1p1。 新增和优化功能: 1. 支持分布式远程数据访问框架RDA。 管控侧:在实例发放页面新增RDA端口输入框,实例开通页面增加内部通信端口。 内核侧:基于RDA实现了TeleDB分布式数据库实例内部,节点间数据的高效传输,解决了原生PGXL架构在处理复杂查询时连接数暴涨的问题。 2. 支持获取和配置全局数据变化的CDC订阅能力。 管控侧:支持部署CDC插件工具,配置CDC运行参数。 内核侧:用于捕获、处理和同步TeleDB分布式数据库实例数据变化的工具,允许将 TeleDB分布式数据库中的变更数据实时地同步到下游系统,例如其他数据库、消息队列、数据仓库等。 3. 新增对接内核跨版本升级工具,支持用户在界面操作跨版本升级。 管控侧:在实例升级流程中,主动识别升级路径,并对接跨版本升级工具。 内核侧:在实例升级过程中,支持通过升级工具对系统表加列、支持新建系统表、支持增删系统函数和支持升级版本管理。 4. 磁盘只读增加开关,支持Agent定时监控磁盘空间使用率和支持磁盘满的时候只允许查询数据,不允许写入数据。 管控侧:支持定时检测节点磁盘容量,当如果任一节点所在机器的数据目录或者表空间目录磁盘达到阈值,则管控侧将自动修改defaulttransactionreadonly参数值。 内核侧:通过识别defaulttransactionreadonly参数值,来设置只允许查询,不允许执行插入更新语句。 5. 支持分布式死锁检测DDS特性。 管控侧:不涉及。 内核侧:用于实时检测分布式死锁,并按优先级终止事务解除死锁。将opentenbase社区pgunlock插件的死锁检测实效性从分钟级提升到秒级。 6. 支持分区表全局索引。 管控侧:不涉及。 内核侧:支持创建节点内跨分区表的全局索引,分区表在非分片键上的查询性能明显提升。 7. 支持GlobalCache特性。 管控侧:不涉及。 内核侧:支持各进程共享PlanCache数据、SysCache 数据和RelCache 数据,全局元数据缓存,实现节点内表、执行计划等对象的全局缓存,减少大并发场景下的内存消耗。 8. 支持列存储引擎Pax。 管控侧:不涉及。 内核侧:通过表访问方法Table Access Method(简称为 Table AM)提供一种可插拔存储引擎机制,用于实现不同的表访问方式,它允许通过实现自定义的 Table AM,来定义新的表访问方式,并将其集成到数据库中。基于这种机制使得 TeleDB 数据库内核可以支持列存储引擎。 9. 支持XCopy实现集群间数据拷贝。 管控侧:不涉及。 内核侧:支持通过XCopy工具实现集群间数据拷贝。 10. 支持全局统计信息搜集。 管控侧:不涉及。 内核侧:支持在1个CN执行analyze后,其它CN统计信息同步更新。 11. 支持索引优化建议。 管控侧:定时任务中内置Queryindexadvice函数和慢SQL查询增加索引优化建议按钮。 内核侧:采样用户SQL,通过创建虚拟索引对比执行计划,给出索引方面的优化建议。 12. 支持表级降冷存储。 管控侧:不涉及。 内核侧:支持数据表整体降冷和重新转热。 13. 支持透明加密对接KMS、全密态对接KMS、审计用户和RDA加密等。 管控侧:实例开通时增加KMS开关、SSL开关。 内核侧:支持按规则、对象等维度,记录DDL、DML、SQL等独立设计的MLSADMIN账号体系和支持行级访问控制,和磁盘数据加密对接KMS、接入KMS管理密钥,密钥不落盘。 修复漏洞 1. prof调试信息泄露漏洞【原理扫描】。 2. Xlake插件相关漏洞修复。 CVE201910164 漏洞名称:TeleDB:PostgreSQL 缓冲区错误漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2024年11月 漏洞修复时间:2024年10月 历史版本临时解决方案:数据库禁止互联网访问,或开放风险端口;梳理高危用户权限,避免使用弱密码;pghba.conf认证方式选用md5,暂时规避使用scramsha256的方式。 正式解决方案:产品版本升级到5.1.5及以上。 CVE20222625 漏洞名称:TeleDB:PostgreSQL 安全漏洞 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2024年11月 漏洞修复时间:2024年10月 历史版本临时解决方案:数据库禁止互联网可访问,或开放风险端口;禁止使用不受信任第三方插件;扫描并卸载不受信或未使用插件;插件安装禁用CREATE OR REPLACE、 CREATE IF NOT EXISTS。 正式解决方案:产品版本升级到5.1.5及以上。 CVE202339417 漏洞名称:TeleDB:redhat software collectionsSQL注入漏洞 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2024年11月 漏洞修复时间:2024年10月 历史版本临时解决方案:数据库禁止互联网可访问,或开放风险端口;业务系统前端配置WAF防火墙;业务系统启用SQL防注入能力;严格检查extension的安装sql文件是否存在:@extowner@等特殊非法语句否则应调整或禁止安装。 正式解决方案:产品版本升级到5.1.5及以上。 CVE20247348 漏洞名称:TeleDB:PostgreSQL pgdump竞争条件漏洞 风险等级:高危漏洞 漏洞发布时间:2024年11月 漏洞修复时间:2024年08月 漏洞详情: 历史版本临时解决方案:在pgdump 工具中存在TOCTOU竞争条件漏洞,pgdump是PostgreSQL用于备份数据库的工具,它通常由具有较高权限(如超级用户)的用户运行。由于pgdump 在检查对象类型和实际使用这些对象之间存在检查时间使用时间 (TOCTOU) 竞争条件漏洞,威胁者可利用该漏洞来替换某些数据库对象。 正式解决方案:产品版本升级到5.1.5及以上。 CVE20221552 漏洞名称:TeleDB:PostgreSQL 权限许可和访问控制问题漏洞 风险等级:高危漏洞 漏洞发布时间:2024年11月 漏洞修复时间:2024年10月 漏洞详情: PostgreSQL 存在权限许可和访问控制问题漏洞,该漏洞源于autovacuum 功能和多个命令可以逃脱“安全限制操作”沙箱。 正式解决方案:产品版本升级到5.1.5及以上。 修复缺陷 1. 内核特性适配。 2. 备份策略的加密配置可修改。 3. 和DCP联调RDA内核开通。 4. 兼容四位版本解析。 5. 禁用dbusernamespace参数。 6. 扩容撤销工单对接。 7. 内存监控指标调整。 8. 配合前端做接口调整。 9. 升级golang sdk为1.11。 10. 实例名称修改。 11. 提供内核版本接口给DCP调用。 12. 通过DCP开通实例失败返回有用错误日志。 13. 修改DCP和x实例列表中的实例系列。 14. pgclean定时任务需针对每个database都执行。 15. RDA版本内核和非RDA版本内核之间的备份恢复。 16. 参数管理增加允许值和描述。 17. 详情页实例名称支持修改。 18. 修改DCP和x实例列表中的实例系列。 19. 强制升级按钮屏蔽。 20. DCP工单以及任务管理中显示具体的扩容失败原因。 21. 备份策略与增量日志定时检测任务优化。 22. 回收资源时,不处理DCP创建的资源。 23. 修改密码页面增加提示。 24. 修改密码页面增加提示。 25. 修复实例运维相关问题,如主从切换、备份恢复、实例启停等。 26. 修复数据空间管理相关问题。 27. 修复监控采集脚本不执行、计算错误等问题。 28. 修复Xcopy无法执行问题。 29. 修复审计相关问题。 30. 界面易用性优化。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        版本说明书
        版本说明
      • 1
      • ...
      • 3
      • 4
      • 5
      • 6
      • 7
      • ...
      • 423
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      训推服务

      AI Store

      公共算力服务

      模型推理服务

      应用托管

      推荐文档

      云课堂 第八课:通过IPv6隧道实现天翼云云主机IPv4和IPv

      产品详情

      创建

      复制备份

      Microsoft SQL Server

      应用

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号