活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 常见问题(新)(1)
        天翼AI云电脑同步工具支持文件增量同步吗? 支持,可以自动对传输文件进行差异数据计算,只传输文件增量部分。 天翼AI云电脑同步工具支持数据压缩吗? 支持,可以自动对传输文件进行高效数据压缩,减少传输的数据量。 天翼AI云电脑同步工具支持批量同步吗? 支持,可以同时选择多个文件或文件夹发起批量同步。 天翼AI云电脑同步工具支持一对多同步吗? 支持,可以在创建A电脑的同步任务后,再切换目标为B桌面,创建B电脑的同步任务。 天翼AI云电脑同步工具支持专线环境下使用吗? 支持,可以配置专线接入地址后进行专线接入。 天翼AI云电脑同步工具支持自动同步吗? 支持,可创建自动同步任务,实时进行文件变动监测和同步。自动同步任务在天翼AI云电脑同步工具退出后会自动停止。 天翼AI云电脑同步工具提示“无法连接服务器”,如何处理? 请检查本地网络是否正常,天翼AI云电脑同步工具工作时需要联网。 天翼AI云电脑同步工具提示“文件同步失败”,如何处理? 文件同步过程中出现了网络中断,可点击“恢复”按钮继续未完成的同步任务。 天翼AI云电脑同步工具提示“未更新同步服务补丁”,如何处理? 请按提示要求重启目标AI云电脑,完成同步服务补丁更新。
        来自:
      • 支持接入的云服务日志
        本节介绍态势感知(专业版)支持接入的日志。 态势感知(专业版)支持集成多种云产品的日志数据。集成后,可以检索并分析所有收集到的日志。 支持接入的日志: 云服务 日志描述 日志 日志生命周期范围 Web应用防火墙(Web Application Firewall,WAF) 攻击日志 wafattack 7~30 天 Web应用防火墙(Web Application Firewall,WAF) 访问日志 wafaccess 7~30 天 态势感知(专业版) 合规基线日志 secmasterbaseline 7~10 天 对象存储服务(Object Storage Service,OBS) 访问日志 obsaccess 7~15 天 入侵防御系统(Intrusion Prevention System,IPS) 攻击日志 nipattack 7~180 天 统一身份认证(Identity and Access Management,IAM) 审计日志 iamaudit 7~180 天 企业主机安全(Host Security Service,HSS) 主机安全告警 hssalarm 7~180 天 企业主机安全(Host Security Service,HSS) 主机漏洞扫描结果 hssvul 7 天 企业主机安全(Host Security Service,HSS) 主机安全日志 hsslog 7~15 天 数据安全中心(Data Security Center,DSC) 告警日志 dscalarm 7~180 天 AntiDDoS流量清洗(AntiDDoS) 攻击日志 ddosattack 7~180 天 数据库安全服务(Database Security Service,DBSS) 告警日志 dbssalarm 7~180 天 云审计服务(Cloud Trace Service,CTS) 云审计服务日志 ctsaudit 7~180 天 云防火墙(Cloud Firewall,CFW) 访问控制日志 cfwblock 7~30 天 云防火墙(Cloud Firewall,CFW) 流量日志 cfwflow 7~15 天 云防火墙(Cloud Firewall,CFW) 攻击事件日志 cfwrisk 7~180 天 API网关(API Gateway) 访问日志 apigaccess 7~180 天
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        云服务接入
        支持接入的云服务日志
      • 什么是云迁移服务CMS
        资源规划 1. 创建迁移组,用户确认源端调研的信息无误后,可进行迁移组的创建。用户在资源列表选取相应的主机、数据库资源组成自定义迁移组,为用户提供管理待迁移资源的全新方式,从而为迁移计划的执行提供强力支持与辅助。 2. 创建迁移计划,用户完成迁移组的创建后,可进行迁移计划的创建。用户选取相应的迁移组,确认包含的相关资源后,可全面评估待迁移资源的情况,并以此制定合理的迁移计划,对迁移过程输出有效的管控。 3. 资源匹配,用户在完成迁移组与迁移计划的创建后,可以使用平台提供的资源匹配功能,在资源明细中对云主机、数据库和对象存储资源的源端和目标端使用详情进行匹配和对比。 4. 资源创建,用户可以根据已制定的迁移计划进行批量的目标端资源创建,协同资源匹配功能,助力用户在云迁移服务中快速、灵活地创建和管理各类计算、网络、存储资源,并为后续执行各类迁移计划提供支持。 迁移管理 1. 工具管理,资源规划完成后,用户可以进入工具管理模块,在这里根据源端待迁移资源的类型或者已制定的迁移计划,选择合适的迁移工具。这些工具包括服务器迁移服务、数据库迁移服务、数据迁移服务和华为提供的ExaGear、DevKit异构迁移工具。通过选择适当的工具,用户可以更加方便地进行迁移操作。 2. 调度管理,用户完成所需使用的迁移工具选择后,可以进入调度管理模块,使用调度功能自定义创建调度任务,并发迁移管控。 3. 进度大盘,用户开始执行既定的迁移计划、调度任务后,可于进度大盘模块查看各类具体资源迁移任务的状态与监控,助力用户全面了解不同类型迁移任务的进展情况,确保迁移工作的顺利进行。 4. 迁移报告,用户完成各类型的迁移任务后,可在迁移报告模块查看并获取某次迁移任务的迁移报告。 访问方式 使用天翼云 CMS 迁移服务,您需在 CMS控制台和迁移源服务器进行操作。
        来自:
      • 容量大于2TB,初始化Linux数据盘(parted)
        操作场景 本文以“CentOS 7.6 64位”操作系统为例,介绍当磁盘容量大于2TB时,如何使用parted分区工具在Linux操作系统中为数据盘设置分区,操作回显仅供参考。 说明 物理机的不同操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 前提条件 挂载至物理机的云盘数据盘或者物理机的本地数据盘还没有被初始化。 操作步骤 当新增数据盘容量大于2TB,使用parted工具进行Linux数据盘初始化共分为五步,具体步骤如下: 登录物理机。 查看新增数据盘:查看新增数据盘是否已成功挂载至此台物理机,并查看其容量。 创建GPT分区:为新增数据盘创建独立的逻辑分区,以便更好地组织和管理数据,当磁盘容量大于2TB时,必须创建GPT分区。 创建文件系统并挂载:为新建分区创建文件系统,可以使用独立的文件系统来存储数据。 设置开机自动挂载磁盘:物理机系统启动时可自动挂载磁盘。 登录物理机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>物理机服务”,进入物理机列表页面。 4. 单击需要初始化数据盘的物理机所在列的“操作>远程登录”,登录此台物理机,具体操作可参见登录Linux物理机。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        磁盘
        初始化数据盘
        容量大于2TB,初始化Linux数据盘(parted)
      • 应用场景
        优势 多源数据分析免搬迁:关系型数据库RDS中存放车辆和车主基本信息,表格存储中存放实时的车辆位置和健康状态信息,数据仓库DWS中存放周期性统计的指标。通过DLI无需数据搬迁,对多数据源进行联邦分析。 数据分级存储:车企需要保留全量历史数据支撑审计类等业务,低频进行访问。温冷数据存放在低成本的对象存储服务OBS上,高频访问的热数据存放在数据引擎(DWS)中,降低整体存储成本。 告警快速敏捷触发服务器弹性伸缩:对CPU、内存、硬盘空间和带宽无特殊要求。 建议搭配以下服务使用: CDM、OBS、DWS。 大数据ETL处理 运营商大数据分析 运营商数据体量在PB~EB级,其数据种类多,有结构化的基站信息数据,非结构化的消息通信数据,同时对数据的时效性有很高的要求,DLI服务提供批处理、流处理等多模引擎,打破数据孤岛进行统一的数据分析。 优势 大数据ETL:具备TB~EB级运营商数据治理能力,能快速将海量运营商数据做ETL处理,为分布式批处理计算提供分布式数据集。 高吞吐低时延:采用Apache Flink的Dataflow模型,高性能计算资源,从用户自建的Kafka、MRSKafka、DMSKafka消费数据,单CU每秒吞吐1千~2万条消息。 建议搭配以下服务使用: OBS、DataArts Studio。
        来自:
        帮助文档
        数据湖探索
        产品简介
        应用场景
      • 任务参数配置
        本节为您介绍云迁移服务CMS中数据库迁移工具任务相关参数配置。 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据迁移”。 2. 点击“创建任务”按钮,跳转至任务参数配置界面。 任务名称 任务的名称,用于更好地识别迁移任务。 启动时间 迁移任务的启动时间。配置后迁移任务会在预定的时间开始运行。 迁移选择 可选择结构迁移、全量迁移、增量迁移和稽核修复中的一个或多个,根据需求组合,模式说明如下: 全量迁移:迁移源库表中的存量数据; 结构迁移:迁移源库中的表、函数等结构(支持的结构类型需根据源库和目标库类型而定,异构数据库间仅支持表结构迁移); 增量迁移:迁移任务启动后,数据库发生的数据变更(仅限INSERT、UPDATE、DELETE变更); 稽核修复:比对源库和目标库中表数据的一致性。 全量并发数 全量迁移表的数量。 增量并发数 增量迁移时同时处理表的数量。 稽核并发数 数据比对时同时处理表的数量。 结构并发数 结构迁移时同时处理结构的数量。 允许自建表 允许用户在迁移前自行建表。请确保建好的表中无数据,否则可能导致迁移失败。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        任务参数配置
      • 应用场景
        本文介绍云容器引擎Serverless版的应用场景。 应用托管 Serverless集群无需购买节点即可轻松部署容器应用,无需对集群进行节点维护和容量规划,大大降低业务的基础设施管理和运维成本,提供高效的应用托管服务。 突发业务 面对有明显波峰波谷特征的业务负载,Serverless集群的秒级伸缩能力能够以最低的成本代价平滑应对流量高峰,保证业务的高可用和性能。 数据计算 面对数据分析或机器学习训练等任务,Serverless集群可以提供快速、灵活的计算资源,快速启动大量Pod实例在短时间内运行特定的计算任务,计算结束后释放自动停止计费,极大降低了整体的计算成本。 CI/CD Serverless集群可以轻松搭建各种持续集成环境,帮助用户快速构建测试环境和自动化的部署流程,同时为各种持续集成任务之间提供隔离性和安全性。
        来自:
        帮助文档
        云容器引擎 Serverless版
        产品简介
        应用场景
      • 产品咨询类常见问题
        OOS会不会扫描我的数据用于其他用途? 系统对数据做的扫描仅限于判断数据块是否存在或被损坏(如有损坏,会启动修复),不会读取具体的内容。 后台工程师能否导出我存在OOS中的数据? 后台工程师无法导出用户数据。 使用数据迁移工具,可以迁移哪些数据至OOS? 数据迁移工具支持下列场景的数据迁移至OOS: 搬迁本地数据至OOS。 迁移第三方云厂商数据至OOS,如阿里云、腾讯云、华为云、AmazaonS3。 OOS之间数据迁移(跨帐号、跨资源池以及同资源池内数据迁移)。 OOS是否支持数据冗余存储? 支持。OOS支持多种冗余存储方式,包括Erasure Code(EC,纠删码)和多副本。在保证数据安全性的情况下,OOS会选择最优冗余存储方案进行数据存储。 使用OOS时,出现RequestTimeTooSkewed的报错信息,怎么处理? 出于安全目的,OOS会校验客户端与OOS服务端的时间差,当两者相差大于15分钟时,OOS服务器会拒绝您的请求,并给出报错信息RequestTimeTooSkewed。此时,请检查发送请求设备的系统时间,并根据时区调整到正确时间。OOS的系统时间采用UTC/GMT时间,您的设备的系统时间需要调整到UTC时间,或与其相对应的时区时间。UTC是零时区的区时,即世界标准时间。
        来自:
        帮助文档
        对象存储(经典版)I型
        常见问题
        产品咨询类
        产品咨询类常见问题
      • 导入数据最佳实践
        本章节主要介绍导入数据的最佳实践。 从OBS并行导入数据 • 将导入数据拆分为多个文件 导入大数据量的数据时通常需要较长的时间及耗费较多的计算资源。 从OBS上导入数据时,如下方法可以提升导入性能:将数据文件存储到OBS前,尽可能均匀地将文件切分成多个,文件的数量以DN的整数倍更适合。 • 在导入前后验证数据文件 从OBS导入数据时,首先将您的文件上传到OBS存储桶中,我们建议您列出存储桶的内容,然后验证该存储桶是否包含所有正确的文件并且仅包含这些文件。 在完成导入操作后,请使用SELECT查询语句以验证所需文件是否已导入。 • OBS导入导出数据时,不支持中文路径。 使用GDS导入数据 • 数据倾斜会造成查询表性能下降。对于记录数超过千万条的表,建议在执行全量数据导入前,先导入部分数据,以进行数据倾斜检查和调整分布列,避免导入大量数据后发现数据倾斜,调整成本高。 • 为了优化导入速度,建议拆分文件,使用多GDS进行并行导入。另外,单个导入任务可以拆分成多个导入任务并发执行导入,多个导入任务使用同一GDS时可以使用t参数打开GDS多线程并发执行导入。GDS建议挂载在不同物理盘以及不同网卡上,避免物理IO以及网络可能出现的瓶颈。 • 在GDS IO与网卡未达到物理瓶颈前,可以考虑在数据仓库开启SMP进行加速。SMP开启之后会对对应的GDS产生成倍的压力。需要特别说明的是:SMP自适应衡量的标准是数据仓库的CPU压力,而不是GDS所承受的压力。 • GDS与数据仓库通信要求物理网络畅通,并且尽量使用万兆网。千兆网无法承载高速的数据传输压力,极易出现断连。即使用千兆网时数据仓库无法提供通信保障。满足万兆网的同时,数据磁盘组I/O性能大于GDS单核处理能力上限(约400MB/s)时,方可寻求单文件导入速率最大化。 • 并发导入场景,与单表导入相似,至少应保证I/O性能大于网络最大速率。 • GDS跟DN的数据比例建议在1:3至1:6之间。 • 为了优化列存分区表的批量插入效率,在批量插入过程中会对数据进行缓存后再批量写盘。通过GUC参数“partitionmembatch”和“partitionmaxcachesize”,可以设置缓存个数以及缓存区大小。这两个参数的值越小,列存分区表的批量插入越慢。当然,越大的缓存个数和缓存分区,会带来越多的内存消耗。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        导入数据最佳实践
      • 数据迁移
        本节介绍了如何使用mysqldump工具迁移云数据库TaurusDB。 使用mysqldump迁移TaurusDB数据 注意 对于mysqlpump工具,由于在并行备份场景有coredump问题,不建议您使用,推荐您使用mysqldump工具迁移。 迁移准备 TaurusDB支持开启公网访问功能,通过弹性IP进行访问。您也可通过弹性云主机的内网访问TaurusDB。 1. 准备弹性云主机或可通过公网访问TaurusDB。 1. 通过弹性云主机连接TaurusDB数据库实例,需要创建一台弹性云主机。创建并登录弹性云主机,请参见《弹性云主机用户指南》中“创建弹性云主机”和“登录弹性云主机”。 2. 通过公网地址连接TaurusDB数据库实例,需具备以下条件。 1. 先对TaurusDB数据库实例绑定公网地址。 2. 保证本地设备可以访问TaurusDB数据库实例绑定的公网地址。 2. 在准备的弹性云主机或可访问TaurusDB数据库的设备上,安装MySQL客户端。 如何获取相应安装包及完成安装,请参见如何安装MySQL客户端。 说明 该弹性云主机或可访问TaurusDB数据库的设备需要安装和TaurusDB数据库服务端相同版本或更高版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 导出数据 要将源数据库迁移到TaurusDB数据库,需要先对其进行导出。 注意 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 步骤 1 登录已准备的弹性云主机,或可访问TaurusDB数据库的设备。 步骤 2 使用mysqldump将元数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ] [ ] [^ ] / /' e 's/DEFINER[ ]. FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.xx.xx.xx P 3306 sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > dumpdefs.sql Enter password: 命令执行完会生成“dumpdefs.sql”文件。 步骤 3 使用mysqldump将数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u p h P r 以上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.xx.xx.xx P 3306 r dumpdata.sql 命令执行完会生成“dumpdata.sql”文件。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        数据迁移
      • 产品规格
        本章节主要介绍数据治理中心DataArts Studio的可用规格。 数据治理中心 DataArts Studio (基础包): 销售品名称 数据治理中心 DataArts Studio初级版 数据治理中心 DataArts Studio企业版 DataArts Studio 增量包 批量数据迁移 CDM : 销售品名称 CPU核数 内存 DataArts Studio增量包批量数据迁移cdm.large 8 16GB DataArts Studio增量包批量数据迁移cdm.xlarge 16 32GB DataArts Studio增量包批量数据迁移cdm.4xlarge 64 128GB
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        产品规格
      • 通过ECS内网连接DDS实例
        本章节内容主要介绍通过ECS内网连接DDS实例 场景描述 文档数据库实例创建成功后,可通过内网访问数据库实例。本章节以Linux系统为例,介绍从购买到内网连接集群实例的操作步骤。 步骤1:创建ECS 步骤2:创建集群实例 步骤3:连接集群实例 方案正文 本章节以Linux系统为例,介绍从购买到内网连接集群实例的操作步骤。具体操作步骤如下: 步骤1:创建ECS 1.登录管理控制台。 2.选择“计算 > 弹性云主机”,单击“购买弹性云主机”。 3.配置基础信息后,单击“下一步:网络配置”。ECS与待连接的集群实例的区域及可用区一致。 图1 基础配置 图2 选择镜像 4.配置网络信息后,单击“下一步:高级配置”。ECS与待连接的集群实例的VPC和安全组一致。 图3 网络配置 5.配置密码等信息后,单击“下一步:确认配置”。 图4 高级配置 6.确认配置信息后,单击“立即购买”。 图5 确认配置 7.查看购买成功的ECS。 图6 购买成功 步骤2 创建集群实例 1.登录管理控制台。 2.选择“数据库 > 文档数据库服务 DDS”,单击“购买数据库实例”。 3.填选实例信息后,单击“立即购买”。ECS与待连接的集群实例的区域、可用区、VPC和安全组一致。 图7 基础配置 图8 设置密码 图9 网络设置 查看购买成功的DDS实例。 图10 购买成功 步骤3 连接DDS实例 1.本地使用Linux远程连接工具登录ECS。“Remote host”为ECS绑定的弹性公网IP。 图11 新建会话 2.输入创建ECS时设置的密码。 图12 输入密码 图13 登录成功 3.打开 图14 下载客户端 4.上传客户端安装包到ECS。 图15 上传客户端 图16 上传成功 5.在弹性云服务器上,解压安装包。 tar zxvf mongodblinuxx8664rhel704.0.27.tgz 6.进入安装包的“bin”文件夹下,获取客户端工具。 cd mongodblinuxx8664rhel704.0.27/bin 其中,常用工具包含如下: MongoDB客户端mongo。 数据导出工具mongoexport。 数据导入工具mongoimport。 7.使用客户端工具前,需要对工具赋予执行权限。 执行chmod +x mongo,赋予连接实例的权限。 执行chmod +x mongoexport,赋予导出数据的权限。 执行chmod +x mongoimport,赋予导入数据的权限。 8.连接DDS实例。 ./mongo mongodb://rwuser:@ : , : /test?authSourceadmin,实例地址可在控制台直接复制。 图17 连接成功 常用创建数据库和集合的操作。 图18 创建数据库 图19 创建集合
        来自:
        帮助文档
        文档数据库服务
        最佳实践
        通过ECS内网连接DDS实例
      • 数据资产管理
        本章节为您介绍数据资产的相关操作。 数据资产功能主要用于数据源 输出目标的管理,您可以在该功能模块手动添加 或导入导出数据源/输出目标。 手动新增数据源 1.使用系统管理员账号登录数据脱敏实例。 2.在左侧目标栏选择“数据资产管理 > 数据源/目标”,进入“数据源/目标”管理页面。 3.单击页面左上角的“新增”按钮,在右侧的窗口中数据需要新增数据源的相关信息。 注意 不同的数据源类型会存在不同的参数填写情况。 若您选择的数据源类型为StructFile下的LOCAL/FTP/SFTP,且文件类型为csv/txt/del,则可以在高级属性中填写表头行数:若表头行数为0,将自动填充表头;若行数大于1,则仅保留最后一行作为新表头,此配置可以使数据扫描更加准确。 4.填写完成后,单击窗口左下角的“测试连接”按钮,测试数据源的连通性。 5.连接成功后,若需要再新增目标请单击“保存并新增数据目标”重复上述操作,否则请单击“保存”按钮。 批量导入数据源 注意 SFTP/FTP/本地文件/METADATA/MySQL分片环境/HIVE类型的数据源暂不支持通过模板批量导入。 1.使用系统管理员账号登录数据脱敏实例。 2.在左侧目标栏选择“数据资产管理 > 数据源/目标”,进入“数据源/目标”管理页面。 3.单击页面右上方的图标,下载导入模板。 4.在模板中填写数据源信息。 参数名称 参数说明 填写样例 数据源名称 自定义需要导入的数据源名称 Test 源or目标 仅支持填写“输入源”或“输出目标”。 输入源 数据源类型 填写需要新增的数据源类型 MYSQL 主机 填写数据源所在主机IP地址 192.168.0.1 端口 填写数据源所在主机的端口 3377 5.填写完成后,保存Excel文件,并导入至数据脱敏实例中。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据脱敏操作指导
        数据资产管理
      • 备份类问题
        云硬盘备份支持选择云硬盘的某个分区进行备份吗? 不支持。云硬盘备份是以云硬盘作为备份粒度进行备份的,即对整个磁盘进行备份,不支持再向下细分至分区进行备份。 如果您需要对云硬盘的某个分区进行备份,推荐您使用云备份服务。云备份CTCBR(Cloud Backup&Recovery)是一个简单易用、经济高效、安全可靠的一键式备份方案。通过集中管理界面,为天翼云中承载用户业务的云主机中的目录/文件等资源提供统一数据保护。 云硬盘能否跨地域备份? 不能。 当前只支持地域(Region)内备份。创建备份后,您可以使用备份: 恢复数据至源云硬盘。 创建新的云硬盘。新云硬盘与源云硬盘地域必须相同,可用区则无要求。 为什么备份容量会大于操作系统中查看到的使用容量? 问题场景 在服务器中存放了大量文件,删除文件后进行备份,备份的大小大于操作系统中查看到的已使用空间。 问题原因说明 天翼云云硬盘备份为存储层块级备份,按照块存储中已使用的数据块作为备份目标,并不识别操作系统中的文件变化。操作系统在删除文件时,只在文件属性中创建删除标记,但是未对块设备中的数据进行擦除(设置为0),块备份无法感知到操作系统层的删除标记,只能通过是否是全0数据块来判断否要备份。 解决建议 可采用第三方磁盘清理/擦除工具(由提供工具厂商为工具安全性/可用性负责)为云硬盘进行清理。
        来自:
        帮助文档
        云硬盘备份 VBS
        常见问题
        备份类问题
      • 应用场景
        本节介绍云安全中心的应用场景。 场景一:安全运营场景 为中小企业提供专业的安全运营团队,为用户提供专业的安全运营支撑。为用户提高各类威胁检测率,降低误报率。在一定程度上降低用户在安全运营上的成本,提升了安全运营的灵活性。 方案优势 减少无效告警:通过不同安全产品之间的数据关联,减少孤立的数据点,降低无效告警信息的产生。 提升告警精准度:提高告警信息的精准度,使得安全团队能够专注于真正重要的安全告警,从而提升整体运维效率。 高效统一的安全运营工具:用户云上的安全工具互相独立,每种工具只能有限防范几种常见攻击。云安全中心提供统一的安全运营平台,帮助用户高效统一地进行安全运营。 场景示意图 场景二:安全合规场景 满足国家行业监管要求,帮助企业业务安全合规。帮助企业明确安全目标,系统化构建信息系统安全,降低安全隐患和攻击风险,向客户及利益相关方展示安全承诺,增强客户、合作伙伴及利益相关方的信心。 方案优势 全局数据整合:将不同安全能力产生的数据进行整合和分析,使企业能够全面掌握安全态势。 全局统一视角:整合各安全措施后,企业能够从全局视角监控和管理安全状况,提高对整体安全态势的把握。 全局协同效应:各安全能力之间实现有效协同,形成统一的防护体系,增强整体防御能力。 云安全中心依托安全服务订阅模式,为企业提供个性化服务套餐订阅,事前预防,事发检测分析,事中快速响应,事后溯源。遵从合规性要求,监控预防,实时知悉系统健康情况,“御敌于城门之外”。
        来自:
        帮助文档
        云安全中心
        产品介绍
        应用场景
      • 初始化Linux数据盘(fdisk)
        本文为您介绍初始化Linux数据盘的操作步骤。 操作场景 本文以“CentOS 7.6 64位”操作系统为例,介绍如何使用fdisk分区工具为数据盘设置分区,操作回显仅供参考。 前提条件 已挂载数据盘至云主机或物理机,且数据盘还没有被初始化。 操作步骤 当新增云硬盘的容量小于2TB,使用fdisk工具进行Linux数据盘初始化共分为五步,具体步骤如下: 登录弹性云主机。 查看新增数据盘:查看新增数据盘是否已成功挂载至此台云主机,并查看其容量。 创建MBR分区:为新增数据盘创建独立的逻辑分区,以便更好地组织和管理数据。 创建文件系统并挂载:为新建分区创建文件系统,可以使用独立的文件系统来存储数据。 设置开机自动挂载磁盘:云主机系统启动时可自动挂载磁盘。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Linux弹性云主机。 查看新增数据盘 执行命令 fdisk l,查看新增数据盘。回显如下: 当前的云主机有两块磁盘,/dev/vda是默认的系统盘,且已经拥有了一个分区/dev/vda1,/dev/vdb是本次新增需要初始化的数据盘,容量为40G。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 功能特性
        数据过滤 行过滤:用户可以自由拼接where条件完成行数据过滤。 列过滤:用户可以直接设置需要迁移的列。 DML和DDL清洗:支持选择增量迁移/同步的DDL或DML(INSERT/UPDATE/DELETE)操作筛选。 数据稽查 对象级对比 对源库和迁移/同步后的目标库,支持对索引、表、视图、存储过程和函数等对象在数量上进行对比,确保数据对象无缺失。 数据级对比 对源库和迁移/同步后的目标库,支持对迁移或同步的表的行数进行对比,确保用户数据完整性。 内容级对比 对源库和迁移/同步后的目标库,支持对迁移或同步的表的行数据设置对比的数据块大小,进行全量或抽样校验,确保用户数据的一致性。 迁移报告 迁移评估报告 当数据迁移完成时,自动为用户生成迁移评估报告,提供迁移前(预检查情况),迁移中(迁移过程中性能监控指标)和迁移后(数据稽查比对)的全视图,并提供WORD版本下载。 任务管理 开始任务 实例订购完成后,用户可以随时开始任务。如果是按需实例,在首次开始任务之前,不会产生任何费用。 暂停任务 用户可以随时暂停正在进行中的任务,被暂停的任务数据传输会临时中断,可以通过“开始任务”恢复运行。 编辑任务 用户可以随时调整任务当中的迁移对象,对迁移/同步对象进行新增、删除操作,重启任务后生效。 注意 在编辑任务之前,用户必须先将该任务暂停。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        功能特性
      • 术语解释
        安全运维报告 根据用户云环境的安全态势及风险威胁处置数据生成安全运营报告。 安全漏洞扫描 安全管理中心集成主机漏洞及应用漏洞扫描功能,能够帮助用户高效、全方位的检测出服务环境中的各类脆弱风险,并提供专业、有效的安全分析和修补建议。 组件集中管理 安全管理中心集中管理全网安全专区能力组件,已部署的组件规格、部署区域、版本许可信息、运行状态等配置信息统一展现,安全管理员从天翼云控制台即可单点登录所有安全组件进行策略配置及备份策略,无需繁琐的分别登录组件进行管理。
        来自:
        帮助文档
        安全专区
        产品介绍
        术语解释
      • AI 应用漏洞检测
        背景说明 随着生成式AI工具的普及,员工为提升效率普遍绕过IT监管私自使用AI工具,导致企业面临数据泄露与知识产权流失、漏洞与攻击面扩大等安全风险。AI 应用漏洞检测功能 通过自动化扫描、多维度风险分析、全流程漏洞管理 ,帮助企业精准识别 AI 组件漏洞,构建从 “发现 响应 标记” 的闭环管理体系,解决传统安全工具对 AI 资产 “看不见、管不住” 的核心痛点。 功能说明 支持超过 30+ 种 AI 应用组件漏洞检测,通过多视图查看及标记能力实现漏洞高效管理,帮助用户掌握 AI 应用漏洞风险状况。 ⚠️注意:1、已订购终端管理企业版套餐用户。 操作步骤 1. 登录边缘安全加速控制台,选择【终端管理】。 2. 在左侧导航栏点击【AI 安全检测】【AI应用漏洞检测】,查看 AI 应用漏洞检测功能。 3. 可根据业务需求进行相关扫描和漏洞标记。 AI 漏洞扫描 1. 在 “AI 风险概况” 模块,点击【下发扫描】按钮,可针对组织、用户组、用户、设备主动触发对终端 AI 应用的漏洞扫描,获取最新漏洞数据。 2. 扫描完成后,“最新扫描时间” 将更新为本次扫描时间。
        来自:
        帮助文档
        边缘安全加速平台
        终端管理
        终端安全
        AI 安全检测
        AI 应用漏洞检测
      • HTTP集成
        返回值说明 HTTP请求的返回结果会被包装为JSON对象,结构如下: plaintext { "Header": { "ContentType": "application/json;charsetUTF8", "AccessControlAllowMethods": "GET,POST,OPTIONS" }, "Code": 200, "Body": "hello world" } Header:响应头部信息,如内容类型、允许方法等。 Code:HTTP状态码,如200表示成功,404表示资源未找到。 Body:响应正文,可能是字符串或JSON数据,依服务返回而定。 后续状态可通过json路径(如{ $.Body })访问这些字段,用于条件判断或数据处理,详见数据传递文档。 执行模式 云工作流HTTP集成支持两种执行模式,具体如下: RequestComplete: 定义:发起HTTP调用后,当前任务完成,输出为HTTP服务器的返回数据。 特点:同步执行,适合需要立即获取结果的场景。 适用场景:实时数据获取、API查询。 示例中采用此模式,GET请求后直接结束。 WaitForTaskToken: 定义:发起HTTP调用后,流程暂停,等待外部系统通过回调恢复执行。 特点:异步模式,依赖任务令牌(taskToken)实现回调。 工作原理 :调用时,任务令牌通过{ $Context.taskToken }获取。外部服务需调用ReportTaskSucceeded或ReportTaskFailed接口,携带令牌和状态,触发流程继续。 适用场景:需要外部系统异步处理,如审批流程、长任务执行。 注意:用户需确保外部服务支持回调机制,流程挂起期间需监控任务状态。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        工作流集成
        HTTP集成
      • 典型应用场景
        本文介绍事件总线EventBridge产品中的典型应用场景。 场景一:函数计算触发器 事件总线提供了标准化与中心化的接入方式,支持天翼云应用及自定义应用作为事件源接入。 事件总线EventBridge对事件进行过滤,路由与转换,然后触发事件规则对应的函数,处理对应的业务逻辑。 场景二:多功能数据集成与同步 事件总线EventBridge的事件流模块适用于端到端、实时的过滤与转换流式数据。通过事件流,可轻松实现消息路由与消息同步。 场景三:应用间事件流转 应用产生的事件可以通过事件总线触发,实现应用间的流转,打破应用间的事件孤岛;事件总线EventBridge提供丰富的事件过滤与转换能力。
        来自:
        帮助文档
        事件总线
        产品简介
        典型应用场景
      • 产品类
        漏洞扫描服务有哪些扫描 IP? 安全体检产品需要对互联网IP进行安全扫描。如果您的服务器有相关防护措施或者限制了访问的IP,为保证体检的正常进行,建议您将以下IP地址加到白名单。 安全体检产品扫描出口IP为:117.88.244.141。 安全体检的结果应该如何处理? 一旦安全体检完成,组织需要采取以下步骤: 1. 优先级排序:根据漏洞的严重程度和潜在影响为每个漏洞分配优先级。 2. 制定计划:创建一个具体的行动计划来修复漏洞,包括分配资源和设定修复期限。 3. 修复验证:修复后重新进行扫描,确保漏洞已被成功解决。 4. 持续监测:建立持续的安全监测机制,确保系统的安全状态。 安全体检会对业务运营产生影响吗? 大多数现代的安全体检工具设计为尽量减少对业务运营的影响。然而,在进行安全体检时,仍然需要注意以下几点: 计划时间:选择非高峰时段进行体检,以减少对正常业务的影响。 性能考量:确保工具的使用不会导致网络拥塞或系统性能下降。 资源调配:合理安排人力资源,确保体检过程中出现问题时能够迅速响应。 安全体检可以完全防止数据泄露吗? 虽然安全体检是预防数据泄露的重要步骤之一,但它并不能保证完全防止数据泄露。这是因为新的漏洞可能随时出现,而且安全体检工具只能检测到已知的安全问题。为了进一步增强安全性,组织还需要结合其他安全措施,例如员工培训、访问控制策略、加密技术和事件响应计划等。
        来自:
        帮助文档
        安全体检
        常见问题
        产品类
      • 解决Windows弹性云主机磁盘空间不足的问题
        本章将为您介绍当Windows云主机实例磁盘空间不足时用户应该做的操作,包括清理空间、卸载不必要的程序以及扩容磁盘等。 实践概述 随着业务数据的增加,弹性云主机实例可能会发生磁盘空间不足的问题,当云主机实例磁盘空间不足时会导致应用程序无法正常运行,系统性能下降,严重的会有数据丢失的风险。因此,维护足够的磁盘空间对于保持云主机的正常运行和性能至关重要。 通常有以下几种方式来解决此类磁盘空间不足的问题: 使用磁盘清理工具清理磁盘空间:您可以使用磁盘清理工具来删除临时文件、回收站中的文件和其他不再需要的文件。 卸载不需要的程序:检查云主机上安装的程序和组件,并删除您不再使用的内容。通过控制面板或应用程序自身提供的卸载功能进行删除。 扩展磁盘空间:您可以考虑扩展磁盘空间。具体操作请参见扩容云硬盘。 本实践将以Windows 2016 数据中心版弹性云主机为例,介绍两种方式来解决磁盘空间不足问题,分别是“使用磁盘清理工具清理磁盘空间”和“卸载不需要的程序”,除了这两种常用方法之外,用户还需要定期监视磁盘空间并采取适当的措施来进行日常维护,具体可参见本文末尾的磁盘空间日常使用维护建议。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        解决Windows弹性云主机磁盘空间不足的问题
      • 产品应用场景
        超大规模数据仓库解决方案 在面对企事业单位内部复杂业务时,往往需要购买两套不同数据库产品分别用于交易类和数据分析。TeleDB 能在一套集群分配分布式分析型架构,更高效地建设企业数仓,产品基于存算分离架构,存储容量可以无限扩展,可以管理 PB 级数据,提供并行计算(MPP)等能力,轻松完成千亿级数据分析和大模型应用扩展,产品支持链接到 MySQL、Oracle 等外部数据,或采用 DTS、DMS等进行数据实时同步,轻松对接下游大数据分析服务系统。同时,产品兼容 PostgreSQL/Greenplum/Oracle 等语法生态,大多数的 BI、商业智能、日志分析、ERP 等极少或无需改造即可上线业务。 电商/游戏 电子商务/ 游戏等互联网场景下,用户可根据业务发展情况订购对应数量的天翼云 RDS实例,无需购买昂贵的服务器、操作系统和数据库管理系统等软硬件,有效避免资源闲置浪费。且可实现弹性扩展,高可用,高安全,满足电商处理大量用户请求和交易数据的高并发场景。以便捷的运维方式,详细的实例信息和实时监控告警,让客户能随时了解实例动态。 网站/APP 数据库是网站搭建及应用程序开发的重要基础,用于存储和管理大量数据,提供数据持久化、高效访问和管理的功能,能为网站和应用程序提供动态内容和个性化服务。天翼云云数据库所具有的数据备份、恢复和安全性管理功能,能确保网站数据的安全性和一致性,避免数据丢失和泄露等风险。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品应用场景
      • 运维故障
        问题现象 登录云堡垒机系统,在主机管理或应用发布中添加资源,提示“资源超出许可限制”,不能继续添加资源。 可能原因 添加资源总数已达到实例规格“资产数”上限,继续添加资源超出许可资产数限制。 主机资源账户验证不通过怎么办? 问题现象 添加主机资源账户时验证账户,提示“验证账户超时”。 添加主机资源账户时验证账户,提示“输入错误的账户密码”。 添加主机资源账户后验证账户,任务中心验证结果显示失败,提示“主机不可达”。 添加主机资源账户后验证账户,任务中心验证结果显示失败,提示“密码错误” 可能原因 原因一:主机信息配置错误,例如主机IP或端口配置错误。 原因二:主机资源账户密码配置错误。 原因三:主机网络延时,网络状况差。 解决办法 原因一: 返回主机信息配置页面,或进入主机详情页面,修改主机IP地址、端口等基本信息。 原因二: 返回主机资源账户配置页面,或进入资源账户详情页面,修改主机资源账户密码。 原因三: 重启相应主机资源,检查主机资源网络状况。 打开系统数据文件显示乱码怎么办? 问题现象 用户将CBH系统数据导出为csv文件,并以Excel工具打开文件,文件内数据信息乱码。 可能原因 云堡垒机系统导出的csv文件使用了UTF8编码格式,而Excel工具以ANSI编码格式打开文件,编码方式不一致而导致数据信息识别错误,出现乱码。 解决办法 使用记事本等文本编辑器打开csv文件,另存文件时选择编码为ANSI格式。 文件另存成功后,重新用Excel工具打开文件,文件信息即可显示正常。 运维会话经常提示登录超时,断开连接怎么办?
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        故障排除
        运维故障
      • 新建汇总表
        本章节主要介绍新建汇总表。 汇总逻辑表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。 汇总表分为“手工创建”和“自动汇聚”,此处仅描述手工创建场景。 说明 如果在“数据架构 > 配置中心 > 功能配置”页面中开启了“模型设计业务流程步骤 > 创建数据开发作业”(默认为关闭),发布汇总表时,系统将在数据开发中自动创建一个数据开发作业,作业名称以“ 数据库名称表编码 ”开头。您可以进入“数据开发 > 作业开发”页面查看作业。该作业默认没有调度配置,需要您自行在数据开发模块中设置。 前提条件 在创建汇总表之前,请先确认您已完成维度、维度表、事实表和衍生指标/复合指标的新建、发布与审核。 新建汇总表并发布 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2. 在数据架构控制台,单击左侧导航树中的“维度建模”,然后选择“汇总表”页签。 3. 在左侧主题目录中选中一个主题,然后单击“新建”按钮,开始创建汇总表。 4. 在“新建汇总表”页面,完成如下配置: a. 设置“基本配置”参数: 下表为基本配置参数说明 参数说明 说明 所属主题 单击“选择主题”,选择表所属的主题域分组、主题域和业务对象。 表名称 设置表名称。只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文和英文字母开头。 表英文名称 设置表英文名称。只能包含英文字母、数字和下划线,且以英文字母开头。 统计维度 选择统计维度。在下拉列表中只会显示来源于衍生指标的统计维度。如果下拉列表中没有统计维度,请参考新建维度进行创建。 当汇总表完成新建后,“统计维度”指定的维度的所有维度属性,都将被自动添加到汇总表中,成为汇总表中的字段。您可以在完成汇总表的新建后,进入汇总表页面,单击汇总表名称查看详情中的表字段信息。 数据连接类型 请选择和维度表、事实表相同的数据连接类型。 数据连接 维度建模建议使用统一的数据连接。 数据库 选择数据库。 队列 DLI队列。该参数仅DLI连接类型有效。 Schema DWS或POSTGRESQL的模式。该参数在DWS或POSTGRESQL连接类型有效。 表类型 DWS连接类型的表支持以下表类型: DWSROW:行存表。行存储是指将表按行存储到硬盘分区上。 DWSCOLUMN:列存表。列存储是指将表按列存储到硬盘分区上。 MRSHIVE仅支持HIVETABLE类型。 DISTRIBUTE BY 该参数仅DWS连接类型有效。DWS表当前支持复制(Replication)和散列(Hash)两种分布策略。用户可选取多个字段。 REPLICATION方式:在每一个DN节点上存储一份全量表数据。这种存储方式的优点是每个DN上都有此表的全量数据,在join操作中可以避免数据重分布操作,从而减小网络开销;缺点是每个DN都保留了表的完整数据,造成数据的冗余。一般情况下只有较小的维度表才会定义为Replication表。 HASH方式:采用这种分布方式,需要为用户表指定一个分布列(distribute key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。对于Hash分布表,在读/写数据时可以利用各个节点的IO资源,大大提升表的读/写速度。一般情况下大表(1000000条记录以上)定义为Hash表。 资产责任人 在下拉框中选择资产责任人,可以手动输入名字或直接选择已有的责任人。 描述 描述信息。支持的长度为1~600个字符。 b. 在“时间分区”区域,输入字段编码以及选择数据类型。当表发布成功后,在往表里写数据时,将根据该时间分区字段进行分区。 c. 在“指标配置”区域,单击“添加”,可以添加一个或多个与所指定的“统计维度”相关联的衍生指标或复合指标。 5. 单击“发布”,并在弹出框中单击“确认提交”,提交审核。 6. 请联系审核人员审核汇总表,等待审核通过。 审核通过后,汇总表就会在数据库中自动创建。 7. 返回“维度建模 > 汇总表”页面,在列表中找到刚发布的汇总表,在“同步状态”一列中可以查看汇总表的同步状态。 − 如果同步状态均显示成功,则说明汇总表发布成功,汇总表在数据库中已创建成功。 − 如果同步状态中存在失败,可单击该汇总表所在行的“更多 > 发布历史”,然后在展开的页面中进入“发布日志”页签查看日志。请根据错误日志定位失败原因,问题解决后,您可以在汇总表页面勾选该汇总表,再单击列表上方的“更多 > 同步”尝试重新同步。如果问题仍未能解决,请联系技术支持人员协助处理。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据集市建设
        新建汇总表
      • 术语解释
        Hudi Hudi是数据湖的文件组织层,对Parquet格式文件进行管理提供数据湖能力,支持多种计算引擎,提供IUD接口,在 HDFS的数据集上提供了插入更新和增量拉取的流原语。 资源池 ModelArts提供的大规模计算集群,可应用于模型开发、训练和部署。支持公共资源池和专属资源池两种,分别为共享资源池和独享资源池。ModelArts默认提供公共资源池。专属资源池需单独购买,专属使用,不与其他用户共享。 Hue Hue是一组WEB应用,用于和MRS大数据组件进行交互,能够帮助用户浏览HDFS,进行Hive查询,启动MapReduce任务等,它承载了与所有MRS大数据组件交互的应用。 Kafka Kafka是一个分布式的、分区的、多副本的消息发布订阅系统,它提供了类似于JMS的特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线的消息消费,如常规的消息收集、网站活性跟踪、聚合统计系统运营数据(监控数据)、日志收集等大量数据的互联网服务的数据收集场景。 Spark Spark是一个开源的,并行数据处理框架,能够帮助用户简单的开发快速,统一的大数据应用,对数据进行离线处理,流式处理,交互式分析等等。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        术语解释
      • 功能特性
        本文为您介绍容器安全卫士的功能特性。 通过容器安全卫士服务,可以轻松应对各种云原生应用威胁和风险。 仪表盘 仪表盘通过图标可视化方式展示了镜像、容器、节点、镜像仓库、集群这些重要资产的数量统计信息、部署安全信息、以及安全威胁分布情况。可以更直观地显示各资产信息统计、漏洞信息统计、报警信息。使客户能够更快速的识别和了解威胁情况。 趋势和历史记录 提供可视化的界面和报告,以展示威胁情报的相关统计数据、趋势等信息,帮助决策者理解威胁情报的现状和趋势。 告警和事件管理 集成告警和事件管理系统,将安全事件和告警信息汇总展示在大屏幕上,并提供快速的事件处理和跟踪功能。 资产管理 展示每个资产的详细信息,包括集群资产、节点资产、命名空间、工作负载等资产,以帮助用户全面了解资产的特征和配置。 漏洞数据集成和可视化 将漏洞扫描结果数据进行集成,以可视化的方式展示漏洞分布、统计信息,帮助用户全面了解漏洞态势。 网络可视化 对容器环境中网络流量进行绘图,打破网络黑洞,支持对进程、容器、pod、服务、主机级别的网络监测。通过对单个业务之间,业务组之间,以及租户之间的网络访问策略配置,实现业务之间隔离,来减小被入侵之后的影响范围;通过网络拓扑图,从网络层面判断入侵影响范围。 容器安全卫士自动检测发现Kubernetes集群内的运行容器,应用以及镜像,关联相应的安全风险进行汇总,展示安全风险的数量以及风险级别的分布。支持自动发现容器内进程之间、容器之间、POD之间、服务之间、节点之间的网络连接状态,展示连接的原地址,目的地址以及端口。并对异常连接进行预警。支持对Kubernetes集群内POD之间的通信进行网络隔离控制、隔离策略支持配置POD的间的访问规则、阻断来自其他命名空间的所有流量、允许来自外部客户端的流量等。 支持租户隔离 支持对Kubernetes集群内租户进行隔离控制,租户之间默认禁止直接通信,可以通过配置RBAC、POD策略、网络策略等实现租户间的访问策略。 支持自定义网络策略 支持对Kubernetes集群内的隔离策略管理,展示各个POD已经配置的隔离策略并能进行配置和应用。 可视化的展示视角 通过雷达可视图的展示方式,用户可以查看到容器内进程之间、容器之间、POD之间、服务之间、节点之间的网络进出站信息,对指定的网桥、网卡进行流量的DPI分析,有助于识别、阻断流向异常的流量。 多种类型策略支持 基于用户不同的使用环境与业务需求,支持多种策略类型,包括: IPtables模式(可针对不同的资源之间设置网络访问策略)。 OVS模式(在OpenShift环境下, 针对不同的资源之间设置网络访问策略)。 NetworkPolicy模式(为指定资源设置允许进出站访问)。
        来自:
        帮助文档
        容器安全卫士
        产品介绍
        功能特性
      • 产品咨询类
        本节主要介绍产品咨询类相关问题。 云存储网关是否支持同传统 SAN 存储产品之间的数据迁移? 支持。可以通过虚拟化平台完成云存储网关和其他 SAN 产品之间的数据迁移。对于非虚拟化场景,比如数据库,可以采用专门的数据迁移工具进行 SAN 与云存储网关之间的数据迁移。此外,Linux 的内核模块dmclone,可以用于实时克隆块设备,将数据从原有的 LUN 切到新的 LUN,实现原有 SAN 存储到云存储网关的数据迁移。Windows 操作系统可以使用用户状态迁移工具实现数据迁移。 什么是云存储网关? 云存储网关是中国电信天翼云自主研发的一款可在线下和云上部署的网关软件,方便用户将本地数据轻松上传到天翼云对象存储(经典版)I型(ObjectOriented Storage,OOS),实现存储空间弹性扩展。云存储网关作为本地与云端存储之间的桥梁,通过标准 iSCSI 协议(Internet小型计算机系统接口)提供块存储服务,帮助用户将全量数据自动同步到OOS,本地仅保留热数据以节省本地存储空间,或者保留全量数据以保障本地I/O性能,实现混合云存储。同时,云存储网关也可以将通用服务器及其管理的存储资源转换成高性能的虚拟存储阵列,承载企业核心业务数据。
        来自:
        帮助文档
        云存储网关
        常见问题
        产品咨询类
      • 轻量云主机与弹性云主机有什么区别?
        轻量型云主机与云主机就具有以下几点区别 1. 轻量型云主机更适合轻量级、小型化服务及业务。而云主机可选择规格较多,覆盖业务场景更加广泛。 2. 轻量型云主机集成了计算、存储、网络三类资源进行售卖,在原本各个资源的价格上进行了最大折扣,在满足性能需求的前提下,更加经济,性价比更高。 3. 轻量型云主机在服务配置流程上做减法,操作简化,门槛更低,入门和使用更简单。集成天翼云云盘、镜像等产品能力,无需跳转产品页面,实现真正一站式管理,后续将配套应用镜像、应用管理、内网互通、安全防护等功能,全方位护航,助力用户快速搭建应用服务。 类型 弹性云主机 轻量型云主机 轻量型云主机优势 应用场景 覆盖全量应用: 网站和应用程序托管 企业应用和业务系统 数据分析和大数据处理 游戏服务器和多媒体应用 图形渲染及高性能应用 适用于较轻量的应用: 开发和测试环境 小型网站和博客 个人项目和学习 云图、网盘等 适用于轻量型负载业务 计费方式 包年包月、按需计费 用户需分别选择实例类型规格,云盘类型规格,并单独购买弹性公网IP 包年包月 提供基础型、进阶型、随心购的资源套餐。 购买简单,价格更优惠 管理方式 以弹性云主机服务控制台为中心,提供对于实例的管理及操作功能,用户还可分别前往云硬盘、网络、安全、备份等产品控制台对其余配套资源及服务进行管理和操作。 集成了计算、存储、网络资源控制台管理界面,实现一站式管理服务,用户通过轻量型云主机服务控制台,可完成对多方资源的管理及操作。 操作流程及方式更简单。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        产品咨询类
        轻量云主机与弹性云主机有什么区别?
      • 购买
        参数 说明 增量包类型 选择批量数据迁移增量包。 计费方式 选择按需计费。 可用区 请根据实际需求选择区域和可用区。 工作空间 选择需要使用批量数据迁移增量包的工作空间。 例如在DataArts Studio实例test的A工作空间中按需创建批量数据迁移的增量包,这里工作空间选择A。 创建成功后,即可通过A工作空间查看到已经创建的批量数据迁移集群。 集群名称 自定义批量数据迁移集群名称。 实例类型 目前批量数据迁移集群支持以下规格供用户选择: cdm.medium:4核CPU、8G内存的虚拟机,最大带宽/基准带宽为1.5/0.4Gbps,能够并发执行的作业个数为20,适合单张表规模<1000万条的场景。 cdm.large:8核CPU、16G内存的虚拟机,最大带宽/基准带宽为3/0.8Gbps,能够并发执行的作业个数为30,适合单张表规模≥1000万条的场景。 cdm.xlarge:16核CPU、32G内存的虚拟机,最大带宽/基准带宽为10/4Gbps,能够并发执行的作业个数为100,适合使用10GE高速带宽进行TB以上的数据量迁移。 虚拟私有云 批量数据迁移集群所属VPC、子网、安全组,需确保批量数据迁移集群与待连接的数据源能正常通信。 用户可以根据批量数据迁移迁移的数据源端、目的端所处网络进行选择: 如果批量数据迁移集群与待连接的数据源所属不同的VPC,或者待连接的为本地数据源时,批量数据迁移集群需要绑定EIP,通过公网通信。 如果待连接的数据源为云上服务,则推荐批量数据迁移集群的网络配置与该云服务一致,此时批量数据迁移集群不用绑定EIP,通过内网通信。 如果待连接的数据源为云上服务,批量数据迁移与它在同一个VPC但所属不同子网,则可以通过配置安全组规则来使批量数据迁移集群与云服务间的网络互通。VPC、子网、安全组的详细操作,请参见《 子网 DataArts Studio实例中的数据集成CDM集群所属的VPC。 VPC即虚拟私有云,是通过逻辑方式进行网络隔离,提供安全、隔离的网络环境。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 说明 目前CDM实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 安全组 DataArts Studio实例中的数据集成CDM集群所属的安全组。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 说明 目前CDM实例创建完成后不支持切换安全组,请谨慎选择所属安全组。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        购买
      • 使用RedisShake工具迁移自建Redis Cluster集群
        set to true if target is a redis cluster address "ip:port" when cluster is true, set address to one of the cluster node username "" keep empty if not using ACL password "" keep empty if no authentication is required tls false 6、在线迁移,同步数据。 使用如下命令同步源Redis集群和目标Redis集群数据: ./redisshake shake.toml 执行日志中出现如下信息,代表同步完成: all done 7、迁移后验证。 数据同步结束后,可使用rediscli工具连接DCS 实例,通过dbsize查看Key数量,确认数据是否完整导入。 如果数据不完整,可使用flushall或者flushdb命令清理实例中的缓存数据后重新同步。 8、清理RedisShake配置文件。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用RedisShake工具迁移自建Redis Cluster集群
      • 1
      • ...
      • 11
      • 12
      • 13
      • 14
      • 15
      • ...
      • 447
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      训推服务

      公共算力服务

      应用托管

      科研助手

      智算一体机

      人脸实名认证

      人脸活体检测

      推荐文档

      如何修改账号的密码?

      常见问题

      安装控制

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号