活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云大数据平台_相关内容
      • 修改计算增强型云电脑网卡v3
        接口功能介绍 计算增强型云电脑功能请联系客户经理开通。 接口约束 无 URI POST /v3/ecs/modifyPort 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID。 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 portOid 是 String 网卡ID privateIpAddress 是 String 私有IP地址 portNickname 否 String 网卡别名 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码。可能值: 800:请求成功。 900:请求失败。 800 error String 错误码。 ECPC1000 message String 提示信息。 OK. returnObj Object 返回数据对象 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 operationId String 修改计算增强型云电脑网卡操作ID(当仅修改别名时,此字段返回空),可用于查询操作状态(相关接口:异步操作查询操作详情)。 枚举参数 无 请求示例 请求url 无 请求头header 无 请求体body { "portOid":"xxxxxxxxxxxxxx", "privateIpAddress":"xxx.xxx.xxx.xxx", "portNickname":"portNicknameTest" }
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        计算增强型云电脑
        修改计算增强型云电脑网卡v3
      • 新建作业
        本章节主要介绍作业开发的新建作业。 作业由一个或多个节点组成,共同执行以完成对数据的一系列操作。开发作业前请先新建作业。 前提条件 作业在每工作空间的最大配额为10000,请确保当前作业的数量未达到最大配额。 新建目录(可选) 如果已存在可用的目录,可以不用新建目录。 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业目录中,右键单击目录名称,选择“新建目录”。 4. 在弹出的“新建目录”页面,配置如下表所示的参数。 作业目录参数 参数 说明 目录名称 作业目录的名称,只能包含英文字母、数字、中文字符、“”、“”,且长度为1~64个字符。 选择目录 选择该作业目录的父级目录,父级目录默认为根目录。 5. 单击“确定”,新建目录。 新建作业 默认作业的最大配额是10000,请确保当前作业的数量未达到最大配额。 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 新建作业的方式有如下两种: a.在“作业开发”界面中,单击“新建作业”。 详见下图:新建作业(方式一) b.在作业目录中,右键单击目录名称,选择“新建作业”。 详见下图:新建作业(方式二) 4. 在弹出的“新建作业”页面,配置如下表所示的参数。 作业参数 参数 说明 作业名称 自定义作业的名称,只能包含英文字母、数字、中文、“”、“”、“.”,且长度为1~128个字符。 作业类型 选择作业的类型。 批处理作业:按调度计划定期处理批量数据,主要用于实时性要求低的场景。批作业是由一个或多个节点组成的流水线,以流水线作为一个整体被调度。被调度触发后,任务执行一段时间必须结束,即任务不能无限时间持续运行。批处理作业可以配置作业级别的调度任务,即以作业为一整体进行调度,具体请参见调度作业章节中的“配置作业调度任务(批处理作业)”。 实时处理作业:处理实时的连续数据,主要用于实时性要求高的场景。实时作业是由一个或多个节点组成的业务关系,每个节点可单独被配置调度策略,而且节点启动的任务可以永不下线。在实时作业里,带箭头的连线仅代表业务上的关系,而非任务执行流程,更不是数据流。实时处理作业可以配置节点级别的调度任务,即每一个节点可以独立调度,具体请参见调度作业章节中的 配置节点调度任务(实时作业)。 创建方式 选择作业的创建方式。 创建空作业:创建一个空的作业。 基于模板创建:使用数据开发模块提供的模板来创建。 选择目录 选择作业所属的目录,默认为根目录。 责任人 填写该作业的责任人。 作业优先级 选择作业的优先级,提供高、中、低三个等级。 委托配置 配置委托后,作业执行过程中,以委托的身份与其他服务交互。若该工作空间已配置过委托,参见配置委托章节中的“配置工作空间级委托”,则新建的作业默认使用该工作空间级委托。您也可参见配置委托章节中的“配置作业级委托”,修改为作业级委托。 说明 作业级委托优先于工作空间级委托。 日志路径 选择作业日志的OBS存储路径。日志默认存储在以dlflog{Projectid}命名的桶中。 说明 若您想自定义存储路径,请选择您已在OBS服务侧创建的桶。 请确保您已具备该参数所指定的OBS路径的读、写权限,否则系统将无法正常写日志或显示日志。 5. 单击“确定”,创建作业。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        新建作业
      • 对比灾备项
        本节主要介绍对比灾备项 对比灾备项可以对比业务数据库和灾备数据库的数据一致性。灾备对比功能支持对象级对比和数据级对比。 对象级对比:支持对数据库、索引、表、视图等对象进行对比。 数据级对比:支持对表的行数进行对比。为了确保对比结果具有可参考性,请通过“稍后启动”功能在业务低峰期或者无业务期进行数据对比,业务运行期间由于数据的持续变化,仅适合对一些业务的低频率修改的冷数据进行对比。 说明 如果单独对灾备库进行数据修改操作,有可能数据检验不准确 为避免占用资源,DRS对行对比的时长进行限制,超过限制时长,行对比任务自动停止。源库是关系型数据库时,行对比限制时长为60分钟;源库为非关系型数据库时,行对比限制时长为30分钟。 前提条件 已登录数据复制服务控制台。 操作步骤 步骤 1 在“实时灾备管理”界面,选中指定灾备任务,单击任务名称,进入“基本信息”页签。 步骤 2 单击“灾备对比”页签,进入“灾备对比”信息页面,对业务数据库和灾备数据库的数据进行对比分析。 1. 首先进行数据库对象完整性检查。 在“对象级对比”页签,查看各个对比项的对比结果。 若需要查看对比项的对比结果详情,可单击指定对比项操作列的“详情”。 2. 对比任务提交成功后,返回“数据级对比”页签,单击刷新列表,可以查看到所选对比类型的对比结果。 3. 若需要查看对比类型详情,可单击指定对比类型操作列的“查看对比报表”,然后选择需要进行对比的数据库,单击操作列的“查看详情”,查看指定业务数据库和灾备数据库的对比结果详情。 说明 已取消的对比任务也支持查看对比报表。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务管理
        对比灾备项
      • 配置DLI源端参数
        参数名 说明 取值样例 资源队列 选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 cardetail 分区 导入前清空数据,如果设置为true时,呈现此参数。 表示分区信息。 year2020,locationsun
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置DLI源端参数
      • 弹性IP概述
        弹性IP(Elastic IP Address,简称EIP)是可以独立申请的公网 IP 地址,将弹性IP 地址和VPC中的各项云资源绑定和解绑,可以实现 VPC 中的云资源通过固定的公网 IP 地址与互联网互通。弹性IP产品既包含公网IP地址,也可以提供公网带宽服务,与其他带宽产品组合使用,可以达到访问公网与节省成本的目的。 弹性IP需与绑定的云资源在同一个区域进行使用,不允许跨区域(Region)使用弹性IP。 更多内容请参见弹性IP产品介绍。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        网络
        弹性IP
        弹性IP概述
      • 创建Topic
        本节主要介绍分布式消息服务Kafka的创建Topic说明 背景信息 Kafka的主题(Topic)是对消息进行分类和组织的概念。主题是Kafka中最基本的逻辑单元,用于区分不同类型的消息。 每个主题可以有多个分区(Partition),每个分区都是一个有序的消息日志。分区允许消息在集群中进行并行处理,提高了吞吐量和并发性能。 主题的特点包括: 逻辑分类:主题可以根据业务需求或数据类型进行逻辑分类,例如订单主题、日志主题、用户行为主题等。 多分区:主题可以被分成多个分区,每个分区都有自己的消息顺序。分区可以在不同的节点上进行存储和处理,实现了水平扩展和负载均衡。 副本复制:每个分区可以有多个副本(Replica),副本用于提供高可用性和容错性。副本可以分布在不同的节点上,当节点故障时可以自动进行故障转移。 持久化存储:主题中的消息被持久化存储在磁盘上,确保消息的可靠性和持久性。消费者可以随时消费主题中的历史消息,而不仅仅是最新的消息。 通过使用主题,Kafka能够有效地组织和管理大规模的消息流。主题的分区和副本机制提供了高可用性和容错性,使得Kafka成为处理大规模实时数据流的理想选择。 前提条件 已购买并部署分布式消息服务Kafka 操作步骤 创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后、点击“创建Topic”。 (5)点击“创建Topic”后,输入Topic名称、分区数等参数。 (6)创建好Topic后,可以点击“更多”按钮中的“生产消息”来测试其是否正常。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建Topic
      • 查看探测状态
        状态 说明 探测正常 表示一个小时内,数据接口被调用次数大于等于8次,接口连通性正常,“探测状态”检测正常,正常上报当前产品数据。 启用产品集成后一个小时内,默认探测状态为正常。 探测异常 表示一个小时内,数据接口被调用次数大于0次小于8次,接口连通性异常,“探测状态”检测异常,不能正常上报当前产品数据。 停止探测 表示已停止上报当前产品数据。 从未探测 表示从未上报当前产品数据。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        产品集成
        查看探测状态
      • 备份与恢复简介
        本章节主要介绍 备份与恢复简介 。 概述 MRS Manager提供对系统内的用户数据及系统数据的备份恢复能力,备份功能按组件提供,支持备份管理系统Manager的数据(需要同时备份OMS和LdapServer)、Hive用户数据、DBService中保存的组件元数据和HDFS元数据备份。 备份恢复任务的使用场景如下: 用于日常备份,确保系统及组件的数据安全。 当系统故障导致无法工作时,使用已备份的数据完成恢复操作。 当主集群完全故障,需要创建一个与主集群完全相同的镜像集群,可以使用已备份的数据完成恢复操作。 详见下表:根据业务需要备份元数据 备份类型 备份内容 OMS 默认备份集群管理系统中的数据库数据(不包含告警数据)以及配置数据。 LdapServer 备份用户信息,包括用户名、密码、密钥、密码策略、组信息。 DBService 备份DBService管理的组件(Hive)的元数据。 NameNode 备份HDFS元数据。 原理 任务 在进行备份恢复之前,需要先创建备份恢复任务,并指定任务的参数,例如任务名称、备份数据源和备份文件保存的目录类型等等。通过执行备份恢复任务,用户可完成数据的备份恢复需求。在使用Manager执行恢复HDFS、Hive和NameNode数据时,无法访问集群。 每个备份任务可同时备份不同的数据源,每个数据源将生成独立的备份文件,每次备份的所有备份文件组成一个备份文件集,可用于恢复任务。备份任务支持将备份文件保存在Linux本地磁盘、本集群HDFS与备集群HDFS中。备份任务提供全量备份或增量备份的策略,增量备份策略支持HDFS和Hive备份任务,OMS、LdapServer、DBService和NameNode备份任务默认只应用全量备份策略。 说明 任务运行规则: 某个任务已经处于执行状态,则当前任务无法重复执行,其他任务也无法启动。 周期任务自动执行时,距离该任务上次执行的时间间隔需要在120秒以上,否则任务推迟到下个周期启动。手动启动任务无时间间隔限制。 周期任务自动执行时,当前时间不得晚于任务开始时间120秒以上,否则任务推迟到下个周期启动。 周期任务锁定时无法自动执行,需要手动解锁。 OMS、LdapServer、DBService和NameNode备份任务开始执行前,若主管理节点“LocalBackup”分区可用空间小于20GB,则无法开始执行。 用户在规划备份恢复任务时,请严格根据业务逻辑、数据存储结构、数据库或表关联关系,选择需要备份或者恢复的数据。系统默认创建了一个间隔为24小时的周期备份任务“default”,支持全量备份OMS、LdapServer、DBService和NameNode数据到Linux本地磁盘。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        备份与恢复
        备份与恢复简介
      • 实时作业监控
        实时作业监控:禁用节点后恢复 您可以对实时作业中某个节点配置“禁用”后恢复运行,恢复运行时可以重新选择运行位置。 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“运维调度 > 作业监控”。 3. 选择“实时作业监控”页签,单击作业名称。 4. 进入“作业监控”详情页面后,右键单击节点,选择“禁用”。 5. 设置禁用后,再右键单击选择“恢复”。弹出“恢复”对话框,配置如下表所示的参数。 恢复参数说明 参数 说明 上次暂停时间 节点暂停运行的起始时间。 未运行任务数 节点暂停期间没有运行的任务数量。 运行位置 “运行暂停期间任务”的参数。 表示选择节点暂停运行后,恢复运行时的启动位置。 从暂停节点开始运行 从子作业第一个节点开始运行 处理并发数 “运行暂停期间任务”的参数。 表示选择任务处理的数量。 任务名称 “运行暂停期间任务”的参数。 表示恢复的任务名称。 实时作业监控:事件驱动调度节点调度配置 当您配置的实时作业中某个节点配置有事件驱动调度时,在“作业监控”详情页面中右键单击配置有事件驱动调度的节点,选择“调度配置”,可以查看和修改节点的调度信息。 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“运维调度 > 作业监控”。 3. 选择“实时作业监控”页签,单击作业名称。 4. 进入“作业监控”详情页面后,右键单击配置有事件驱动调度的节点,选择“调度配置”,配置如下表所示的参数。 详见下图:调度配置 调度配策略参数说明 参数 说明 事件处理并发数 选择作业并行处理的数量,最大并发数为10。 事件检测间隔 配置事件检测时间间隔。时间间隔单位可以配置为秒或分钟。 失败策略 选择调度失败后的策略: 结束调度 忽略失败,继续调度
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        运维调度
        作业监控
        实时作业监控
      • 高可靠
        本页介绍了文档数据库服务的高可靠。 数据冗余 文档数据库服务具有多节点副本集与分片集群的高可靠架构,数据会存放在多个机器、机架。 数据恢复 目前支持一键恢复备份数据至当前实例,即覆盖性恢复。覆盖性恢复是将指定备份数据覆盖到主实例,指定备份数据创建之后产生的数据将会丢失,存在一定的风险。请用户在进行覆盖性恢复操作之前一定要评估清楚影响。 数据备份 支持物理热备份,相比mongo dump速度更快,对业务影响更小。支持自动备份和手动备份两种方式。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        产品优势
        高可靠
      • 场景示例代码
        本章节为您介绍云审计场景示例代码参考。 场景示例代码请进入API调试中心,选择“云审计”。 选择待参考代码示例的API,填写参数后,选择“代码示例”参考。
        来自:
        帮助文档
        云审计
        API参考
        场景示例代码
      • 查询所有东西向资产
        参数 参数类型 说明 示例 下级对象 vrfName String 专线网关ID vrfId String 专线网关名字 vpcId String vpc id vpcName String vpc名称 vpcCidr String vpc的网段 cdaName String 云专线名称 cdaId String 云专线id regionName String 资源池名称 protectStatus Boolean 防护状态false;true
        来自:
        帮助文档
        云防火墙(原生版)
        API参考
        API
        2023-10-16
        防火墙管理
        VPC边界
        查询所有东西向资产
      • 绑定弹性网卡到虚拟IP
        本文主要介绍如何绑定弹性网卡到虚拟IP。 操作场景 通过将弹性网卡与虚拟IP绑定,使用户可以通过绑定的虚拟IP访问该弹性网卡绑定的服务器。 未绑定云主机实例的弹性网卡不能绑定虚拟IP。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击图标,打开服务列表,选择“网络 > 虚拟私有云”。进入虚拟私有云列表页面。 3. 在左侧导航栏选择“弹性网卡”。 4. 在弹性网卡列表页,单击操作列的“更多 > 绑定虚拟IP”。进入虚拟IP列表页。 5. 在需要绑定的虚拟IP操作列,单击“绑定服务器”。 6. 选择服务器及网卡,单击“确定”。
        来自:
      • 区域属性
        本节主要介绍存储桶的区域属性。 在“存储桶列表”页面点击“属性”>“区域属性”,进入区域属性页面,用户可以通过该页更改存储桶( Bucket)的数据位置和数据调度策略,但不能修改索引位置。 项目 描述 索引位置 存放文件索引信息的位置,在创建存储桶(Bucket)时指定索引位置,创建成功后不能再对存储桶的索引位置进行更改。 数据位置 存放文件的数据位置,用户可以根据自身需求进行修改: 就近写入:文件将被存储在距离写入点最近的数据位置。 指定位置:可以指定多数据位置存放对文件,OOS将按用户指定的位置顺序存储文件。 数据调度策略 数据调度的策略: 允许自动调度:OOS可以根据用户选择地区的实际使用情况,自动进行数据存储位置的调度,以便为用户提供更快的访问速度。 不允许自动调度:OOS不会自动调度用户数据存储位置的调度。 Endpoint 域名地址。 Bucket域名 Bucket域名地址。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        存储桶管理
        区域属性
      • 概述
        本节主要介绍概述 操作场景 本章介绍如何登录数据管理服务并实现对数据库中的数据管理。 使用流程 通过控制台进行数据管理的使用流程如下: 步骤一:登录数据管理服务 步骤二:新增数据库登录 步骤三:登录数据库 步骤四:数据管理操作
        来自:
        帮助文档
        数据管理服务
        快速入门
        概述
      • json和jsonb简介
        本文为您介绍 json和jsonb。 本产品支持非关系数据类型JSON,JSON 数据类型是用来存储JSON(JavaScript Object Notation)数据的。这种数据也可以被存储为text,但是JSON数据类型的优势在于能强制要求每个被存储的值符合JSON规则。 也有很多JSON相关的函数和操作符可以用于存储在这些数据类型中的数据。JSON数据类型有json 和jsonb。它们接受完全相同的值集合作为输入。主要的实际区别是效率。json数据类型存储输入文本的精准拷贝,处理函数必须在每次执行时必须重新解析该数据。而jsonb数据被存储在一种分解好的二进制格式中,它在输入时要稍慢一些,因为需要做附加的转换。但是jsonb在处理时要快很多,因为不需要解析。jsonb也支持索引,这也是一个令人瞩目的优势。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        数据库基础开发
        json和jsonb使用
        json和jsonb简介
      • json和jsonb简介
        本文为您介绍 json和jsonb。 本产品支持非关系数据类型JSON,JSON 数据类型是用来存储JSON(JavaScript Object Notation)数据的。这种数据也可以被存储为text,但是JSON数据类型的优势在于能强制要求每个被存储的值符合JSON规则。 也有很多JSON相关的函数和操作符可以用于存储在这些数据类型中的数据。JSON数据类型有json 和jsonb。它们接受完全相同的值集合作为输入。主要的实际区别是效率。json数据类型存储输入文本的精准拷贝,处理函数必须在每次执行时必须重新解析该数据。而jsonb数据被存储在一种分解好的二进制格式中,它在输入时要稍慢一些,因为需要做附加的转换。但是jsonb在处理时要快很多,因为不需要解析。jsonb也支持索引,这也是一个令人瞩目的优势。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        数据库基础开发
        json和jsonb使用
        json和jsonb简介
      • Pod水平自动扩缩(HPA)
        本节介绍了:Pod 水平自动扩缩(HPA)的用户指南。 应用场景 云容器引擎提供Pod 水平自动扩缩(HPA)能力,水平自动扩缩能够根据指标自动更新工作负载资源 (例如 Deployment 或者StatefulSet)的副本数, 目的是自动扩缩工作负载以满足需求。在云容器引擎控制台支持配置基础资源(CPU、内存)和自定义指标(网络、磁盘等)作为Pod扩缩容的触发条件。 前提条件 已创建专有版集群,具体操作请参见 用户指南 > 集群管理 > 新建集群 章节。若已有集群,无需重复操作。 通过基础指标(CPU、内存)进行Pod的水平自动伸缩 步骤一 安装cubemetricsserver 插件 云容器引擎在插件市场提供了cubemetricsserver插件,cubemetricsserver是k8s原生提供的插件,支持通过CPU、内存进行HPA的能力; 登陆云容器引擎控制台,进入需要操作的集群,在左侧菜单选择 插件 > 插件市场,选择cubemetricsserver进行安装 步骤二 配置HPA策略 登陆云容器引擎控制台,进入需要操作的集群,在左侧菜单选择 工作负载 并选择进入对应的工作负载页面,以下以无状态工作负载为例,点击需要伸缩的工作负载右侧的更多按钮,选择弹性伸缩,开启指标伸缩按钮 点击启用策略,指标名称可选CPU和内存,计值方式为百分比;填写伸缩的指标阈值及副本数的伸缩范围,点击确定创建HPA策略 通过预置的高阶指标(网络、磁盘等)进行 Pod的水平自动伸缩
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        工作负载
        Pod水平自动扩缩(HPA)
      • Pod水平自动扩缩(HPA)(1)
        本节介绍了:Pod 水平自动扩缩(HPA)的用户指南。 应用场景 云容器引擎提供Pod 水平自动扩缩(HPA)能力,水平自动扩缩能够根据指标自动更新工作负载资源 (例如 Deployment 或者StatefulSet)的副本数, 目的是自动扩缩工作负载以满足需求。在云容器引擎控制台支持配置基础资源(CPU、内存)和自定义指标(网络、磁盘等)作为Pod扩缩容的触发条件。 前提条件 已创建专有版集群,具体操作请参见 用户指南 > 集群管理 > 新建集群 章节。若已有集群,无需重复操作。 通过基础指标(CPU、内存)进行Pod的水平自动伸缩 步骤一 安装cubemetricsserver 插件 云容器引擎在插件市场提供了cubemetricsserver插件,cubemetricsserver是k8s原生提供的插件,支持通过CPU、内存进行HPA的能力; 登陆云容器引擎控制台,进入需要操作的集群,在左侧菜单选择 插件 > 插件市场,选择cubemetricsserver进行安装 步骤二 配置HPA策略 登陆云容器引擎控制台,进入需要操作的集群,在左侧菜单选择 工作负载 并选择进入对应的工作负载页面,以下以无状态工作负载为例,点击需要伸缩的工作负载右侧的更多按钮,选择弹性伸缩,开启指标伸缩按钮 点击启用策略,指标名称可选CPU和内存,计值方式为百分比;填写伸缩的指标阈值及副本数的伸缩范围,点击确定创建HPA策略 通过预置的高阶指标(网络、磁盘等)进行 Pod的水平自动伸缩
        来自:
      • 边边网络概述
        本节主要介绍边边网络的组成、产品优势、应用场景和使用限制。 针对处于相同或者不同边缘云地域下的多VPC之间内网互通场景,边边网络EEN(Edge to Edge Network)提供多VPC内网互通服务,其可以快速构建安全、稳定、灵活的边边互通网络。 边边网络提供路由控制功能,当VPC加入边边网络实例时,系统会自动将VPC下所有子网的路由自动添加到边边网络实例的路由表,添加后路由默认不开启,需手动开启;当VPC和边边网络实例解除关联后,对应的路由会自动删除。若关联的多个VPC下的子网CIDR有重叠冲突或者包含冲突时,当两个子网路由均需开启时,后开启的路由将因冲突不能开启。 应用场景 同地域多VPC内网互通组网 针对ECX同一地域下的两个以上的VPC之间内网互通组网需求,建议使用EEN关联多个VPC的方式实现内网互通,该方式可以代替传统的VPC对等连接功能,简化多VPC之间内网互通的网络结构和配置,同时还保留后续跨边缘云地域的内网组网能力。 跨地域多VPC内网互通组网 针对ECX边缘云不同地域下的多个VPC之间的内网互通组网需求,建议使用EEN关联多个VPC的方式实现内网互通,该方式代替传统的VPN和专线方案快速实现跨边缘云地域多VPC内网组网,可以简化配置和成本,同时提供安全、优质、稳定的网络质量。 同一边边网络实例可以同时支持ECX边缘云同地域多VPC内网互通和跨地域多VPC内网互通需求。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        边边网络
        边边网络概述
      • 通过CRD采集应用日志
        本文介绍如何通过CRD采集应用日志。 本文介绍如何在Serverless集群中配置CRD并进行应用日志采集管理。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 确保kubectl工具已经连接目标集群。 注意事项 通过云日志服务CRD开启日志采集仅对后续创建的ECI Pod生效。如果想要采集存量Pod的日志,需要对存量Pod进行一次滚动发布。 操作步骤 您需要先在集群内安装ctglogoperator插件,再通过日志采集配置CRD来配置应用日志采集。 步骤一:安装ctglogoperator日志插件 1. 登录云容器引擎管理控制台,在左侧导航栏选择“集群列表”。 2. 在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择“插件” > “插件市场”。 3. 在插件市场页面,在插件列表中选择要安装的ctglogoperator插件,点击“安装”按钮。 等待ctglogoperator插件安装完成。 步骤二:创建日志采集配置 1. 编写日志采集配置CRD的YAML配置文件。 说明 创建日志采集配置的 CRD 资源后,您可以在云日志服务控制台查看相应的日志项目和采集配置。请注意,直接在云日志服务控制台上修改这些通过 CRD 创建的配置,其更改不会同步回 CRD 资源本身。因此,若您后续需要更新配置,请直接编辑并应用 CRD 资源,避免在云日志服务控制台进行操作,以防止配置出现不一致的情况。 CtyunLogConfig CRD 配置文件,logstdout.yaml示例如下: shell apiVersion: sce.ctyun.cn/v1 kind: CtyunLogConfig metadata: name: simplestdoutexample
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        日志
        通过CRD采集应用日志
      • 新建原子指标
        管理原子指标 1. 在数据架构控制台,单击左侧导航树中的“技术指标”,选择“原子指标”页签,进入原子指标页面。 2. 您可以根据实际需要选择如下操作。 当需要... 则... 新建 执行新建原子指标并发布。 编辑 执行3。 发布 执行4。 查看发布历史 执行5。 下线 执行6。 删除 执行7。 导入 执行8。 导出 执行9。 3. 编辑 a. 在需要编辑的原子指标右侧,单击“编辑”,进入编辑原子指标页面。 b. 根据实际需要编辑相关内容。 c. 单击“发布”。如果您暂时不想发布,可以先单击“保存”,稍后再发布。 4. 发布 a. 在需要发布的原子指标右侧,单击“发布”,弹出“提交发布”对话框。 b. 在下拉菜单中选择审核人。 c. 单击“确认提交”。 5. 查看发布历史 a. 在列表中,找到所需查看的原子指标,单击“更多 > 发布历史”,将显示“发布历史”页面。 b. 在“发布历史”中,您可以查看原子指标的发布历史和版本对比信息。 6. 下线 a. 在需要下线的原子指标右侧,单击“更多 > 下线”,系统弹出“提交下线”对话框。 b. 在下拉菜单中选择审核人。 c. 单击“确认提交”。 说明 下线及删除原子指标的前提是无依赖引用,即无衍生指标引用。 7. 删除 a. 勾选需要删除的原子指标,单击上方“更多 > 下线”,系统弹出“删除”对话框。 b. 单击“是”。 8. 导入 可通过导入的方式将原子指标批量快速的导入到系统中。 a. 在原子指标列表上方,单击“更多>导入”,进入“导入配置”页签。 b. 下载原子指标导入模板,编辑完成后保存至本地。 c. 选择是否更新已有数据。 说明 如果系统中已有的编码和模板中的编码相同,系统则认为是数据重复。 不更新:当数据重复时,不会替换系统中原有的数据。 更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 d. 单击“添加文件”,选择编辑完成的导入模板。 e. 单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。 f. 单击“关闭”。 9. 导出 可通过导出的方式将原子指标导出到本地。 a. 在原子指标列表选中待导出的指标。 b. 在列表上方,单击“更多>导出”,即可将系统中的原子指标导出到本地。 说明 在左侧主题树中选中某个主题,可以导出该主题下的所有原子指标; 当该空间下不超过500条原子指标数据时可以全部导出。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        指标设计
        技术指标
        新建原子指标
      • 透明存储加密
        本页介绍天翼云TeleDB数据库中透明存储加密。 透明存储加密方式(Transparent Data Encryption, TDE)是一种保护数据库中静态数据的加密技术,使数据在存储时自动加密,有助于防止未授权访问和数据泄露。透明存储加密的特点是数据在加密和解密过程对应用程序透明,该过程中应用程序无需进行任何修改,从而简化了实施流程。加密操作(函数调用)与业务侧解耦合,业务只负责传递原始数据到数据库内核,后续的加密计算在数据库内部完成,从而业务侧操作上无感知。 透明加密的方案 透明加密是由自动加密与解密和加密密钥管理两部分机制组成。 自动加密与解密:当数据写入磁盘,TDE会自动对数据进行加密。当数据从磁盘读取时, TDE会自动对数据进行解密。整个加密与解密过程,用户和应用程序将不会感知。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密密钥管理:TDE通常使用对称加密算法(如AES)。加密密钥被存储在数据库管理系统外部或安全位置,加密算法的由数据库维护,包括加密算法的选择、秘钥管理,都可以由安全员独立操作完成,以确保数据安全。 开启透明存储加密 TeleDB数据库支持提供TDE功能。当用户需要对磁盘上存储的数据进行加密和解密来实现对数据的保护时,可以对该功能进行开启。 注意 TDE功能仅能在实例开通时开启,且开启后无法关闭。 支持加密功能的内核版本为:5.1.5。 您可参考如下操作开启透明加密。 管控侧操作: 1. 以用户名和密码登录TeleDBDCP管理控制台。 2. 进入TeleDBDCP控制台管理页面,开通实例。您可参考《安装部署》中实例服务初始化及实例开通章节开通实例。 3. 在实例开通页面,填写基本信息页面,打开KMS开关,选择KMS机器。 说明 KMS开启后无法关闭,选择后无法更改。 数据库侧操作: 说明 用户可以通过函数创建加密算法,之后可以通过函数将创建的算法绑定到schema,表和列上,实现加密算法和数据库对象建⽴关联。同时⽀持,将已经绑定的算法从schema,表和列上解绑,从⽽取消加密算法和数据库对象之间的关联关系。 1. 创建加密算法 SELECT MLSTRANSPARENTCRYPTCREATEALGORITHM(algoname, password) 2. 注销加密算法 SELECT MLSTRANSPARENTCRYPTDROPALGORITHM(algoid) 3. 加密算法绑定 (1) 绑定到Schema SELECT MLSTRANSPARENTCRYPTALGORITHMBINDSCHEMA(schemaname, algoid) (2) 绑定到表 SELECT MLSTRANSPARENTCRYPTALGORITHMBINDTABLE(schemaname, tablename, algoid) (3) 绑定到列 SELECT MLSTRANSPARENTCRYPTALGORITHMBINDTABLE(schemaname, tablename, attrname, algoid) 4. 加密算法解绑 SELECT MLSTRANSPARENTCRYPTALGORITHMUNBINDSCHEMA(schemaname) SELECT MLSTRANSPARENTCRYPTALGORITHMUNBINDTABLE(schemaname, tablename, needcascade) 使用示例 创建管理插件 CREATE EXTENSION teledbxmls; 切换为安全管理员⽤⼾ c mlsadmin 注册内置的加密算法和对应密钥(此处使⽤国测sm4加密算法进⾏注册),获得对应的algo id select MLSTRANSPARENTCRYPTCREATEALGORITHM('SM4','0123456789012345'); select MLSTRANSPARENTCRYPTCREATEALGORITHM('AES128','0123456789012345'); c xieyuecreate table t1(id int,content int); c mlsadmin 将加密算法绑定到表上 select MLSTRANSPARENTCRYPTALGORITHMBINDTABLE('public','t1',1); insert into t1 values(1,0), (2,0), (3,0); insert into t1 values(7, 0), (8,0), (9,0);
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        数据加密
        透明存储加密
      • Loop内嵌对象
        本章节主要介绍DataArts Studio的Loop内嵌对象功能。 使用Loop内嵌对象可获取For Each数据集中的数据。 属性 属性说明 属性 类型 描述 dataArray String For循环算子输入的数据集,是一个二维数组。 current String For循环算子当前遍历到的数据行,是一个一维数组。 offset Int For循环当前的偏移量,从0开始。Loop.dataArray[Loop.offset] Loop.current。 举例 Foreach算子循环获取前一节点输出(二维数组)的第一列,EL表达式如下: {Loop.current[0]}
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        EL表达式参考
        Loop内嵌对象
      • Xcopy
        本页为您介绍Xcopy的简介和使用方法。 Xcopy模块是支持数据迁移功能的重要组成部分。该模块不仅支持元数据的迁移,还支持表数据的迁移,并提供四种不同的迁移粒度,包括集群级别、数据库级别、Schema级别和表级别的数据迁移。 初始化实例 通过pgxcctl新建一个双CN、双DN的实例,并开启服务。 使用Xcopy进行数据迁移 表级别数据迁移。 plaintext ./Xcopy sourcehost 源库host sourceport 源库端口 sourceuser 源库用户 sourcepassword '源库密码' desthost 目标库host destport 目标库端口 destuser 目标库用户 destpassword '目标库密码' includetable 表名 truncate 模式级别数据迁移。 plaintext ./Xcopy sourcehost 源库host sourceport 源库端口 sourceuser 源库用户 sourcepassword '源库密码' desthost 目标库host destport 源库端口 destuser 目标库用户 destpassword '目标库密码' schema schema名 destschema schema名 truncate 数据库级别数据迁移。 plaintext ./Xcopy sourcehost 源库host sourceport 源库端口 sourceuser 源库用户 sourcepassword '源库密码' desthost 目标库host destport 源库端口 destuser 目标库用户 destpassword '目标库密码' dbname "xcopydb" destdbname "xcopydb" truncatecascade 实例级别数据迁移。 plaintext ./Xcopy sourcehost 源库host sourceport 源库端口 sourceuser 源库用户 sourcepassword '源库密码' desthost 目标库host destport 源库端口 destuser 目标库用户 destpassword '目标库密码'truncatecascade
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        Xcopy
      • 同步增量数据
        本章介绍如何配置同步增量数据。 操作场景 启动目的端后,如果您的源端服务器有增量数据,您可以使用同步功能,将源端增量数据同步到目的端。 说明 只有迁移实时状态为“已完成”的任务,才可以进行同步操作。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,选择“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面找到需要进行同步的服务器,在“操作”列,单击“同步”。 4. 在弹出的“同步”窗口,仔细查看同步说明。确认同步增量数据后,单击“是”。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        迁移服务器管理
        同步增量数据
      • 标签管理
        本章节主要介绍云搜索服务如何进行标签管理。 标签是集群的标识。为集群添加标签,可以方便用户识别和管理拥有的集群资源。 您可以在创建集群时添加标签,也可以在集群创建完成后,在集群的详情页添加标签。 为集群添加标签 1.登录云搜索服务管理控制台。 2.在创建集群页面,“高级配置”选择“自定义”后,为集群添加标签。 您可以选择预定义标签,并为此标签设置“标签值”。您可以单击“查看预定义标签”,进入“标签管理服务”,了解此用户下已有的标签。 您也可以自定义“标签键”和“标签值”。 云搜索服务的每个集群最多可以设置10个标签。当设置不正确时,可单击标签右侧的“删除”按钮,删除此标签。当不设置标签时,可保持为空。 标签命名规则 参数 说明 标签键 不能为空。 对于同一个集群,标签键值唯一。 长度不超过36个字符。 只能包含数字、英文字母、下划线、中划线和中文。 标签值 长度不超过43个字符。 只能包含数字、英文字母、下划线、中划线和中文。 不能为空。 通过标签搜索集群 1.登录云搜索服务管理控制台。 2.在集群管理页面,单击集群列表右上角的“标签搜索”。 3.输入需要搜索的标签键和标签值。 标签键和标签值仅支持从下拉列表中选择,当标签键和标签值全匹配时,系统可以自动查询到目标集群。当有多个标签条件时,会取各个标签的交集,进行集群查询。 系统最多支持10个不同标签的组合搜索。 4.单击“搜索”。 系统根据标签键和标签值搜索目标集群。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        标签管理
      • 公网访问
        本章节主要介绍云搜索服务针对安全集群如何配置公网访问。 针对安全集群,云搜索服务的集群支持配置公网访问,配置完成后,通过提供的公网IP,您可以在外网接入安全集群。 创建集群时配置公网访问 1.登录云搜索服务管理控制台。 2.在创建集群页面,开启“安全模式”。 6.5.4及之后版本的集群支持开启“安全模式”。 3.“公网访问”选择“自动绑定”,配置公网访问相关参数。 公网访问参数说明 参数 说明 带宽 设置公网访问的带宽。 访问控制开关 如果关闭访问控制开关,则允许任何IP通过公网IP访问集群。如果开启访问控制开关,则只允许白名单列表中的IP通过公网IP访问集群。 白名单 设置允许访问的IP地址或网段,中间用英文逗号隔开。 已有集群公网访问管理 您可以对已经创建集群的公网访问进行修改,查看,解绑,也可以配置公网访问。 1.登录云搜索服务管理控制台。 2.在集群管理页面,单击需要配置公网访问的集群名称,进入集群基本信息页面。 配置公网访问 如果创建集群时,未配置公网访问,集群配置成功后,可以在集群基本信息页面配置公网访问。 单击“公网访问”参数右侧的“绑定”,设置访问带宽后,单击“确定”。 如果绑定失败,用户可以等待几分钟后,再次尝试重新绑定公网访问。 修改 对已经配置了公网访问的集群,可以通过单击“带宽”参数右侧的“修改”,修改带宽大小,也可以通过单击“访问控制”右侧的“设置”,设置访问控制开关和访问白名单。 查看 在“基本信息”页面,可以查看当前集群绑定的公网IP地址。 解绑 对于已经绑定的公网IP,可以通过单击“公网访问”参数右侧的“解绑”,解绑公网IP。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        公网访问
      • 配置HDFS目的端参数
        参数名 说明 取值样例 写入目录 写入数据到HDFS服务器的目录。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 /user/output 文件格式 写入后的文件格式,可选择以下文件格式: CSV格式:按CSV格式写入,适用于数据表到文件的迁移。 二进制格式:选择“二进制格式”时不解析文件内容直接传输,CDM会原样写入文件,不改变原始文件格式,适用于文件到文件的迁移。 如果是文件类数据源(FTP/SFTP/HDFS/OBS)之间相互迁移数据,此处的“文件格式”只能选择与源端的文件格式一致。 CSV格式 重复文件处理方式 只有文件名和文件大小都相同才会判定为重复文件。写入时如果出现文件重复,可选择如下处理方式: 替换重复文件 跳过重复文件 停止任务 停止任务 压缩格式 写入文件后,选择对文件的压缩格式。支持以下压缩格式: NONE:不压缩。 DEFLATE:压缩为DEFLATE格式。 GZIP:压缩为GZIP格式。 BZIP2:压缩为BZIP2格式。 LZ4:压缩为LZ4格式。 SNAPPY:压缩为SNAPPY格式。 SNAPPY 换行符 文件中的换行符,默认自动识别“n”、“r”或“rn”。“文件格式”为“二进制格式”时该参数值无效。 n 字段分隔符 文件中的字段分隔符。“文件格式”为“二进制格式”时该参数值无效。 , 使用包围符 “文件格式”为“CSV格式”,才有该参数,用于将数据库的表迁移到文件系统的场景。 选择“是”时,如果源端数据表中的某一个字段内容包含字段分隔符或换行符,写入目的端时CDM会使用双引号(")作为包围符将该字段内容括起来,作为一个整体存储,避免其中的字段分隔符误将一个字段分隔成两个,或者换行符误将字段换行。例如:数据库中某字段为hello,world,使用包围符后,导出到CSV文件的时候数据为"hello,world"。 否 首行为标题行 在迁移表到CSV文件时,CDM默认是不迁移表的标题行,如果该参数选择“是”,CDM在才会将表的标题行数据写入文件。 否 写入到临时文件 将二进制文件先写入到临时文件(临时文件以“.tmp”作为后缀),迁移成功后,再进行rename或move操作,在目的端恢复文件。 否 作业成功标识文件 当作业执行成功时,会在写入目录下生成一个标识文件,文件名由用户指定。不指定时默认关闭该功能。 finish.txt 自定义目录层次 支持用户自定义文件的目录层次。例如:【表名】/【年】/【月】/【日】/【数据文件名】. csv 目录层次 指定文件的目录层次,支持时间宏(时间格式为yyyy/MM/dd)。不填默认为不带层次目录。例如:${dateformat(yyyy/MM/dd, 1, DAY)} 加密方式 “文件格式”选择“二进制格式”时,该参数才显示。 选择是否对写入的数据进行加密: 无:不加密,直接写入数据。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 AES256GCM 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成。 请您牢记这里配置的“数据加密密钥”,解密时的密钥与这里配置的必须一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成。 请您牢记这里配置的“初始化向量”,解密时的初始化向量与这里配置的必须一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置HDFS目的端参数
      • Bucket权限控制
        本节主要介绍Bucket权限限制。 OOS提供Bucket级别的权限控制,Bucket目前有3种访问权限:private(私有)、publicread(公共读)和publicreadwrite(公共读写): private(私有) 只有根用户和具有相应权限的子用户可以对该存储桶内的文件进行读/写/删除操作(包括Get、Put和Delete Object),其他人(包括匿名访问)只有通过Bucket Policy授权或分享链接才可访问该存储桶内的文件。 publicread(公共读) 只有根用户和具有相应权限的子用户可以对该存储桶内的文件进行写/删除操作(包括Put和Delete Object)。任何人(包括匿名访问)都可以对该存储桶内的文件进行读操作,这有可能造成您数据的外泄以及费用激增,请慎用该权限。 publicreadwrite(公共读写) 任何人(包括匿名访问)都可以对该存储桶内的文件进行读/写/删除操作(包括Get、Put和Delete Object)。这有可能造成您数据的外泄以及费用激增,若被人恶意写入违法信息还可能会侵害您的合法权益,除特殊场景外,不建议您配置公共读写权限。 注意 如果想使用访问权限为公共读写的存储桶,请联系天翼云客服评估审核后开通此功能。 说明 新建Bucket时,默认权限是private,用户可以根据需要修改为公共读或公共读写。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        安全策略
        Bucket权限控制
      • 事件监控:查询列表
        事件监控 事件监控:查询列表 接口功能介绍 根据指定时间段查询事件发生情况。 接口约束 regionID、startTime、endTime、eventNameList、dimension、service存在。 URI POST /v4/monitor/events/querylist 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池 ID 81f7728662dd11ec810800155d307d5b eventNameList 否 Array of Strings 本参数表示事件指标列表,事件指标见查询事件接口返回。不传,默认全部事件指标 ['migrationeventcomplete','migrationeventstart'] service 是 String 服务,见事件监控:查询服务维度接口返回。 ecs dimension 是 String 维度,见事件监控:查询服务维度接口返回。 ecs startTime 是 Integer 查询起始时间戳 1647424660 endTime 是 Integer 查询截止时间戳 1647424660 pageNo 否 Integer 页码,默认为1 1 pageSize 否 Integer 页大小,默认为20 2 resGroupID 否 String 资源分组ID,在资源分组事件时传入 9cb2b3301dd85ec49c6db07fe65a9aca 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败),默认值:800 800 errorCode String 失败时的错误代码,参见公共错误码说明 message String 失败时的错误描述,一般为英文描述 Success msgDesc String 失败时的错误描述,一般为中文描述 成功 error String 错误码,请求成功时,不返回该字段 Openapi.Parameter.Error returnObj Object 返回对象 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 totalCount Integer 获取对象数据条数 14 totalPage Integer 总页数 1 currentCount Integer 当前页记录数 14 eventList Array of Objects 事件列表 eventObj 表 eventObj 参数 参数类型 说明 示例 下级对象 eventName String 事件指标 migrationeventstart description String 事件中文描述 云主机迁移发生 eventTime Integer 事件最后发生事件时间,秒级时间戳 1647424660 eventCount Integer 事件数量 5
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        事件监控
        系统事件
        事件监控:查询列表
      • 运行MapReduce作业
        通过后台提交作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.在“节点管理”页签中单击某一Master节点名称,进入弹性云主机管理控制台。 4.单击页面右上角的“远程登录”。 5.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 7.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 8.执行如下命令拷贝OBS文件系统中的程序到集群的Master节点。 hadoop fs Dfs.obs.access.keyAK Dfs.obs.secret.keySK copyToLocal sourcepath.jar targetpath.jar 例如:hadoop fs Dfs.obs.access.keyXXXXDfs.obs.secret.keyXXXX copyToLocal "obs://mrsword/program/hadoopmapreduceexamplesXXX.jar" "/home/omm/hadoopmapreduceexamplesXXX.jar" AK/SK可登录OBS控制台,请在集群控制台页面右上角的用户名下拉框中选择“我的凭证 > 访问密钥”页面获取。 9.执行如下命令提交wordcount作业,如需从OBS读取或向OBS输出数据,需要增加AK/SK参数。 source /opt/Bigdata/client/bigdataenv;hadoop jar executejar wordcount inputpath outputpath 例如:source /opt/Bigdata/client/bigdataenv;hadoop jar/home/omm/hadoopmapreduceexamplesXXX.jar wordcount Dfs.obs.access.keyXXXXDfs.obs.secret.keyXXXX "obs://mrsword/input/""obs://mrsword/output/" inputpath为OBS上存放作业输入文件的路径。outputpath为OBS上存放作业输出文件地址,请设置为一个不存在的目录。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行MapReduce作业
      • 1
      • ...
      • 290
      • 291
      • 292
      • 293
      • 294
      • ...
      • 605
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      模型推理服务

      推荐文档

      Microsoft SQL Server

      服务器迁移的功能

      支持的监控指标

      修改数据库端口

      接口方法概述

      如何选择云主机?

      监控节点运行状态

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号