云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云空间_相关内容
      • 新建数据标准
        参数名称 说明 标准名称 只能包含中文、英文字母、数字、左右括号、空格、中划线和下划线,且以中文或英文字母开头。如果未开启“数据标准是否重名”,需要确保标准名称在本工作空间内唯一。请在“数据架构”模块,“配置中心”的“功能配置”页签下查看“数据标准是否重名”是否开启。 标准编码 支持自动生成和自定义两种方式。 自定义的标准编码要求本工作空间内唯一,用于唯一标识一条数据标准记录。 数据类型 数据类型有:STRING、BIGINT、DOUBLE、TIMESTAMP、DATE、BOOLEAN、DECIMAL。 不同的系统数据类型可能存在差异,系统内部会做类型转换。如果未找到所需要的数据类型,您可以参考上方“字段类型管理”章节添加数据类型。 数据长度 设置数据长度: 可以为空。数据长度为空时,对数据长度不做限制。 可以设置为具体的数值。输入1~10000之间的数值。 可以设置为一个范围。输入数据范围的临界值。 如果设置了数据长度标准,当数据类型为STRING时,会为关联该标准的属性创建数据质量作业,其他类型暂不支持创建质量作业。 是否有允许值 当开启时,请输入允许值。 引用码表 选择已创建的码表并选择相应的“码表字段”,这样就可以将码表字段和数据标准相关联。如果未创建码表,请参见 质量规则 在“配置中心>功能置”页面中的“模型设计业务流程步骤>创建质量作业”勾选的情况下,数据标准设置质量规则后,如果将表关联该数据标准,表在发布成功后,系统将会在DataArts Studio数据质量中自动创建一个质量作业,质量作业中会包含此处添加的质量规则。如果当前表已经发布,则系统会自动更新质量作业。 单击 弹出“关联质量规则”对话框,单击“添加规则”进行设置。 例如,添加名称为“字段唯一值”规则,选中该规则后单击“确定”,在“告警条件”中输入告警条件表达式,然后按照此方法添加其他规则后,单击“确定”。 告警条件表达式,由告警参数和逻辑运算符组成。在质量作业运行时,系统将计算出告警条件表达式的结果,并根据表达式的结果是否为真来判断是否触发告警。如果表达式的结果为真则触发质量告警,结果为假则不触发质量告警。 在此处的“关联质量规则”对话框中,每个质量规则的“告警参数”以按钮形式列出。 详见下图:关联质量规则界面 业务规则责任人 在下拉框中选择业务规则责任人。该责任人为质量规则制定责任人,可以手动输入名字或直接选择已有的责任人。 数据监控责任人 在下拉框中选择数据监控责任人。该责任人为质量规则实施责任人,可以手动输入名字或直接选择已有的责任人。 标准层级 global:全局级别。 domain:非全局级别。 用户自定义字段 该配置项是在DataArts Studio数据架构的“配置中心>标准模板管理”中添加的自定义项。您可以根据实际情况添加一个或多个自定义项,名称可以自己定义。有关添加自定义项的更多信息,请参见 描述 描述信息。支持的长度为0~600个字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        标准设计
        新建数据标准
      • 我的镜像
        支持在线镜像制作和镜像共享。 预置镜像 平台预置了一些常用镜像,可以在创建任务时直接使用 自定义镜像 平台允许通过开发机和使用天翼云容器镜像服务来制作镜像,具体步骤如下: 使用开发机制作镜像 1. 启动在线制作环境:进入模型定制模块,选择开发机,点击【JupyterLab】>【创建JupyterLab】或【VSCode】>【创建VSCode】,选择一个系统内置镜像,选择运行环境,提交后操作列点击启动 2. 镜像制作:等待启动成功,当创建的JupyterLab或VSCode的状态显示【运行中】后即可点击操作列【打开】,在开发环境中安装自己需要的软件和环境,退出,选中创建的JupyterLab或VSCode,操作列点【更多】>【制作镜像】,即可将容器中的操作环境打包成新的镜像,并出现在自定义镜像列表中,可参见开发机制作镜像模块内容 镜像共享 1. 登陆天翼云容器镜像服务,访问地址( /dashboard),在【同资源池】下,按需创建【个人版】或【企业版】,进入实例详情创建属于您自己的命名空间和镜像仓库。 2. 有了镜像仓库后,根据实例详情访问凭证中的指引通过公网地址将您的镜像上传至仓库中。 3. 进入镜像共享,创建镜像共享,将您希望使用的镜像共享至一站式智算服务平台,共享目标用户填入【huijuprod】,共享后您就可以在一站式智算服务平台的自定义镜像中看到此镜像。 注意 1、如果您想在模型开发JupyterLab和VSCode中使用自定义镜像,需要将对应的软件安装包打包进您的自定义镜像中。 方法1:在docker file中具体执行命令:
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        智算资产
        我的镜像
      • 大Key和热Key分析
        分布式缓存支持分析实例中的占用空间较大的大key和访问频率较高的热key。 说明 大key和热key分析需要消耗CPU资源,建议在业务低峰时段执行大Key和热Key分析。 前提条件 已成功开通分布式缓存服务Redis实例,且实例处于运行中状态。 进行热key分析时,需 在实例配置中,将maxmemorypolicy修改成volatilelfu,参考修改修改实例配置参数。 大key和热key的定义 参数 说明 大Key Redis中存储的value可以分为两类,一类是String类型的元素,一类是集合元素,根据这两类,通过大Key可分为以下两种情况: String类型的value,值超过1 MB 集合类型的value,成员数超过3000 热Key 热Key是指在一段时间内,某个Key的访问量显著高于其他Key,形成访问热点。 例如:实例每秒处理请求10000次,而其中某一个Key的访问量达到每秒3000次。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 左侧菜单点击CloudDBA>TOP KEY分析,进入TOP KEY分析界面。 5. 点击实时Tab页,点击立即分析,即可立即分析展示大key和热key的分析结果。 6. 点击历史Tab页,勾选TOP KEY自动扫描,可搜索历史的大key和热key。 注意 勾选TOP KEY自动扫描对业务量大的场景可能会有性能影响。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例诊断分析
        大Key和热Key分析
      • 操作类
        使用clusterList查询 主TPS不为0,从TPS一直为0 这种情况最大的可能是从同步出错,可以做进一步的确认,查看store.log或者 stoererror.log,一般会看到有持续的报错信息。这种情况可以删除从的store目录,重新进行同步。 注意:部署有高可用模块或者主的brokerRoleASYNCMASTER,否则停止从的时候,生产会报错。 解决方案: 手工停止从broker(kill pid,注意不要加9,如果自动拉起broker参数设置为true,则需要先关掉从的deamon)。 删除或者备份从的store目录(为保险起见,空间允许的话,可以mv备份,不要直接删除。 手工启动broker(sh sh/broker.sh)。 从broker启动完成后,用clusterList查看,可以看到从的TPS比较高,因为正在同步。 主broker异常恢复 需要走异常恢复流程的一般是consumequeue生成有问题,导致无法拉取消息(注意 有多种情况会导致无法拉取消息,不一定是consumequeue有问题,注意判断)、根据offset查询报错。 异常恢复流程: 1.停止需要恢复这一组broker的主从deamon,主从broker。 2.删除主broker store目录下的checkpoint consumequeue consumeStore index(也可以mv 改下名字来备份)。 3.检查store目录下的abort文存是否存在,如果不存在新建一个(touch abort)。 4.启动主broker,查看store.log,可以看到打印恢复过程的日志,如果没有报错,说明恢复成功。 5.如果commitlog文件比较多,可能恢复时间较长,可以通过查看store.log或者broker端口是否起来判断恢复是否完成。 6.主broker起来后,通过消费或者根据offset查询消息来验证是否恢复成功。 7.如果主broker恢复成功,启动从broker,启动主从deamon。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        操作类
      • DMS操作审计
        本文介绍了数据管理服务使用DMS操作审计有效记录了用户进行的操作,数据管理服务DMS会对用户的操作行为做出高风险、中风险、低风险三种等级的风险评估。DMS操作审计功能只对超级管理员和管理员开放。 前提条件 登录用户的角色为超级管理员、系统管理员、审计管理员。 对组织内的实例、用户角色、组织信息、团队信息进行变更以生成操作审计记录。 操作步骤 1. 用户登录DMS系统。 2. 在左侧菜单栏依次点击 安全协作 > 操作审计 。 3. 点击DMS操作审计标签,进入审计界面。 注意事项 DMS操作审计的日志记录基础版可保存7天,企业版可保存180天。 DMS操作审计不会审计所有的用户操作,例如查看团队内的实例列表、查看/更改个人用户信息等常规系统操作,不具备风险威胁,将不会被审计。 仅超级管理员、系统管理员、审计管理员可以进入DMS操作审计界面,查看操作审计的相关记录。 功能介绍 DMS操作审计记录了用户于何时对DMS系统的哪个菜单进行了某个事件操作,并对该事件操作给出高风险、中风险、低风险三种等级的风险评估。同时也会对实例信息、工单信息、操作内容、操作结果进行记录。 DMS操作审计搜索 DMS操作审计支持的搜索项包括执行时间、操作风险、操作用户、实例名称、实例地址、工单号、功能菜单、事件类型、操作结果。其中操作用户、实例名称、实例地址、工单号等搜索项支持模糊搜索。功能菜单是一个二级搜索框,用户需要先在数据资产、开发空间、SQL治理、安全协作、智能运维、个人中心 选择一项,进而在弹出的选项中选择二级菜单。若用户想清除已经选择的搜索项,可以点击重置按钮。
        来自:
        帮助文档
        数据管理服务
        用户指南
        安全协作
        操作审计
        DMS操作审计
      • 安装部署
        本文为您介绍数据定时灾备安装部署的相关操作。 概要 数据定时灾备可作为企业级数据备份与恢复功能的软件,支持常见文件系统、数据库、大数据平台备份和恢复。提供多种备份方式满足用户备份策略需求,备端重删压缩技术可节约备份空间,传输压缩可节省带宽资源、传输加密保障数据传输安全性,支持块存储、磁带库、对象存储等存储介质,为企业核心业务数据保驾护航。 数据定时灾备可按照网络配置与drnode安装部署进行配置。除此之外,若需将对象存储作为备份设备,备份服务器需要安装dto程序,用于读取本地存储及对象存储数据并进行传输。DTO的安装分为两种方式:软件包安装和压缩包解压安装。 注意: DTO有关软件程序的安装必须在Linux的root用户、Windows的administrator用户或其他具有超级权限的用户下进行。 DTO当前只支持操作系统为CentOS Linux 7.9 64 位、银河麒麟高级服务器操作系统 V10 SP2 64 位 ARM版。 Linux系统安装DTO包(RPM包) DTO软件程序可以部署在物理主机或虚拟机上,在Linux操作系统下安装DTO,用户需要准备适配的操作系统,下文描述以CentOS和RHEL,SUSE及银河麒麟v10系的Linux为例,安装步骤如下: 1. 将DTO安装包上传到服务器,执行dto安装包的安装命令进行安装,命令参考:rpm ivh 包名.rpm。 2. 安装完成后,确认当前DTO版本信息与安装包名的版本是否一致,命令参考:rpm qa grep dto。 3. 查看DTO服务状态,命令参考:systemctl status drdto。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据定时灾备
        安装部署
      • (可选)新建数据库模式
        本章节主要介绍数据管理的(可选)新建数据库模式。 DWS数据连接创建完成后,用户可以在右侧区域中管理DWS数据连接的数据库模式。 前提条件 已新建DWS数据连接,请参见 新建数据连接。 已新建DWS数据库,请参见 新建数据库。 新建数据库模式 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”或“数据开发 > 作业开发”。 3. 在左侧菜单选择,单击DWS数据连接名称,选择需配置的数据库,展开目录层级至“schemas”,右键单击“schemas”,选择“新建模式”。 4. 在弹出的“新建模式”页面,配置如下表所示的参数。 新建模式 参数 是否必选 说明 模式名称 是 数据库模式的名称。 描述 否 数据库模式的描述信息。 5. 单击“确定”,新建数据库模式。 修改数据库模式 1. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”或“数据开发 > 作业开发”。 2. 在左侧菜单选择,单击数据连接名称,选择数据库,目录层级展开至需要修改的数据库模式,右键单击数据库模式名称,选择“修改”。 3. 在弹出的“修改模式”页面,修改数据库模式的描述信息。 4. 单击“确定”,保存修改。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        数据管理
        (可选)新建数据库模式
      • 审核中心
        本章节主要介绍审核中心。 开发环境生成的规范建模、数据处理类任务提交后,都会存储在审核中心页面,然后在审核中心页面进行任务发布,这些任务才会在生产环境上线。 审核人员审核对象 如果您是审核人员,请使用审核人员的帐号参考以下步骤审核对象。 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2. 在左侧导航树中,单击“审核中心”,选择“待我审核”页签,在列表中找到需要审核的对象,然后在该对象所在行单击“审核”。 您也可以勾选多个待审核的对象,然后单击“批量审核”按钮进行批量审核。 3. 在审核的详情页面,确认信息无误后,单击“通过”,然后在弹出对话框中输入审核意见并单击“确定”完成审核。 如果信息有误,请单击“驳回”,然后在弹出对话框中输入审核意见并单击“确定”完成审核。 查看已审核、待审核、我的申请 待我审核 在DataArts Studio数据架构的左侧导航树中,单击“审核中心”,选择“待我审核”页签,可以查看待审批的对象。 已审核 在DataArts Studio数据架构的左侧导航树中,单击“审核中心”,选择“已审核”页签,可以查看已通过审批的对象。 我的申请 在DataArts Studio数据架构的左侧导航树中,单击“审核中心”,选择“我的申请”页签,可以查看自己提交审批的对象。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        审核中心
      • 约束与限制
        限制项 约束和限制 描述 版本 当前服务端版本为3.8.35、3.7.17。 兼容AMQP 091协议的客户端版本。 连接数 RabbitMQ单机和集群实例,不同实例规格的连接数上限不一致,具体限制,请参考 产品规格 。 通道数 < 2047 单条连接可以建立的通道数。 消息大小 单条消息的最大长度为50MB。 服务端限制了单条消息的最大长度为50MB,请勿发送大于此长度的消息,否则生产失败。 内存高水位阈值 < 40% 内存使用率超过40%会触发内存高水位,生产者流程被阻塞。 磁盘高水位阈值 > 5GB 磁盘剩余空间低于5GB会触发磁盘高水位,生产者流程被阻塞。 clusterpartitionhandling pauseminority 当集群发生网络分区时,代理会检查自己是否处于“少数派”(存储分区的代理数小于等于总代理数的一半称为少数派)。少数派中的代理将会自动关闭服务并定期检测网络状态,待分区恢复之后重新启动服务。如果未开启镜像队列,发生分区时少数派上的队列将无法生产消费。此策略相当于放弃了可用性而选择了数据一致性。 rabbitmqdelayedmessageexchange 插件延迟时间存在1%左右的误差,可能提前或者推迟发送消息给消费者。 实例是否开启消息延迟功能。 RabbitMQ插件 RabbitMQ插件功能可用于测试和迁移业务等场景,不建议用于生产业务。 RabbitMQ实例主要提供AMQP 091业务消息的功能,兼容相关协议的Vhost、Exchange等组件。插件相关内容为非核心功能,不建议用于生产业务。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        约束与限制
      • LoadBalancer类型Service
        配置Service负载均衡的注意事项 多个Service使用同个负载均衡的同个监听端口 CCM版本v1.0.7之前,若不同Service监听同个负载均衡的同个监听端口,会导致监听配置相互覆盖的问题。CCMv1.0.7及之后版本,后创建的Service默认会配置失败,可通过设置Service注解“service.beta.kubernetes.io/ctyunloadbalanceroverridelisteners”为“true”指定强制覆盖已有监听。 存量集群请检查好CCM版本(通过查看kubesystem命名空间下的工作负载ccsecloudcontrollermanager使用的镜像版本可知),将CCM版本升级到v1.0.7或以上。 LoadBlance类型Service流量走向 访问LoadBlance类型Service,流量走向主要和外部流量策略及网络插件类型有关。如下所示: 外部流量策略为cluster 当外部流量策略为cluster时,业务LoadBlance类型Service会把集群所有工作节点添加到LoadBlance实例后端。此时访问LoadBlance的流量,将均衡到各个工作节点的NodePort,随后二次转发到对应的Pod后端,如下图所示: 外部流量策略为local,网络插件为calico 当外部流量策略为local,网络插件为calico时,只有Pod所在节点才会加入LoadBlance实例后端,访问LoadBlance的流量将均衡到Pod所在节点,不做SNAT处理直接二次转发到节点上的Pod后端,如下图所示: 外部流量策略为local,网络插件为cubecni cubecni网络插件为Pod分配VPC地址时,Pod直接加入LoadBlance实例后端组,访问LoadBlance的流量将直接发送到Pod,不经过Service二次转发,性能较优,如下图所示:
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        Service管理
        LoadBalancer类型Service
      • 库表备份
        适用于备份整数据库文件过大,而其中只有部分库表较为重要,只需要备份部分库表的用户。库表备份将会占用更少的备份空间,并提供自动库表备份和手动库表备份两种方式。 注意 仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 约束限制 如选择库表备份则不允许开启高频增量备份。 不支持备份名称包含特殊字符(英文、数字、下划线除外)的库表,如需备份,请先更改名称。 库表备份集文件仅作于库表恢复。不支持直接拿备份集文件恢复到其他实例。 操作步骤 自动库表备份 如果需要系统自动库表备份,按照指定的周期进行备份,按照如下步骤进行设置。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,进入基础备份列表 页签,然后单击备份策略页签。 5. 单击基础备份策略右侧的编辑图标。 6. 在基础备份策略 面板中,设置备份方式 为库表备份,然后配置基础备份参数和待备份的库表。 7. 单击确定。 将会按照所设置的库表备份策略进行自动备份。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        备份
        库表备份
      • 调试API
        本章节主要介绍调试API。 操作场景 API创建后需要验证服务是否正常,管理控制台提供调试功能,您可以添加HTTP头部参数与body体参数,调试API接口。 说明 后端路径中含有环境变量的API,不支持调试。 API绑定签名密钥时,不支持调试。 如果API已绑定流控策略,在调试API时,流控策略无效。 前提条件 已创建API。 已搭建完成后端服务。 操作步骤 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.单击“开发API > API管理”,进入到API管理信息页面。 4.通过以下任意一种方法,进入API调试页面。 在待调试的API所在行,单击“更多 >调试”。 单击“调试API”,进入API详情页面,单击“调试”。 左侧为API请求参数配置区域,参数说明如下表所示。右侧为API发送的请求信息和API请求调用后的返回结果回显。 调试API 参数名称 说明 参数配置 Query的参数与参数值。 集群配置 仅专享版支持,选择调试API所依托的实例。 说明 不同类型的请求,调试界面展现的信息项有差异。 5.添加请求参数后,单击“开始测试”。 右侧返回结果回显区域打印API调用的Response信息。 −调用成功时,返回HTTP状态码为“200”和Response信息。 −调试失败时,返回HTTP状态码为4xx 或5 xx 。 6.您可以通过调整请求参数与参数值,发送不同的请求,验证API服务。 说明 如果需要修改API参数,请在右上角单击“编辑”,进入API编辑页面。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        调试API
      • 备份HDFS业务数据
        本章主要介绍翼MapReduce的备份HDFS业务数据功能。 操作场景 为了确保HDFS日常用户的业务数据安全,或者系统管理员需要对HDFS进行重大操作(如升级或迁移等),需要对HDFS数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份HDFS任务并备份数据。支持创建任务自动或手动备份数据。 说明 加密目录不支持备份恢复。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份任务的类型、周期、备份对象、备份目录和备份任务需要使用的Yarn队列等策略规格。 检查备集群HDFS是否有充足的空间,备份文件保存的目录建议使用用户自定义的目录。 使用HDFS客户端,以“hdfs”用户执行hdfs lsSnapshottableDir检查当前集群中已创建HDFS快照的目录清单,确保待备份的数据文件所在HDFS路径的父目录或子目录不存在HDFS快照,否则无法创建备份任务。 如果数据要备份至NAS中,需要提前部署好NAS服务端。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份HDFS业务数据
      • 应用场景
        本页为您介绍WPS云文档天翼云版的应用场景 多部门 50 人以上,使用场景复杂,数据交互性强,有强存储、强管理需求,人员流动性也会影响客户对于“企业数据安全”的重视。举例:多部门的文件分级管理需求;文档管理权限与组织架构打通;离职员工文档 交接。 单一部门 50 人以下,使用场景鲜明、单一,根据部门/团队属性挖掘使用场景,重点输出产品的企业级价值。举例:财务部门数据处理高频且大量。对效率、安全十分重视。 部门文件共享 对部门团队及部门文档编辑、上传、共享,可实现共享查看、文件夹策略授权。 多地协作、多部门协作 针对多地办公、多部门协作,可通过文档在线协同编辑,满足高响应、保持同步的需求。 上下游单位文件往来 针对上下游单位大量文件往来,可通过团队共享、权限控制,既能保障文档快速共享,又能实现文档安全可控。 高频类文档快速处理 对部门的日报、周报类、记录、汇报、会议纪要、工作汇报等高频处理文档,通过文档的协同编辑、在线汇总、云端保存、外链分享的方式,进行快速处理,及时方便领导查看及处理。 备份所有文档 针对勒索病毒、实现个人及部门文档批量上传备份同步,并通过文档增量备份,实现冗余文档梳理,有效文档存储空间 10:1 压缩。 文档安全管控 针对安全文件设置的繁琐密码难以记住的问题,通过文档账号加密和文档权限管控有效解决,不用记繁多的密码。
        来自:
        帮助文档
        WPS云文档天翼云版
        产品简介
        应用场景
      • 场景描述
        本章节主要介绍向量检索的使用场景。 随着大规模图像检索、视频搜索、推荐等场景的数据规模越来越大,对高维空间向量检索的时延和准确率提出了更高的要求。云搜索服务针对大规模的向量检索场景提供了具体的解决方案,基于自研的向量搜索引擎,结合Elasticsearch的插件机制,高效集成了向量检索能力。 原理 向量检索从本质上讲,其思维框架和传统的检索方法没有区别。为了提升向量检索的性能,通常需要解决以下两个问题: 减少候选向量集 和传统的文本检索类似,向量检索也需要某种索引结构来避免在全量的数据上做匹配,传统文本检索是通过倒排索引来过滤掉无关文档,而向量检索是通过对向量建立索引结构来绕过不相关的向量,减小需要考察的范围。 降低单个向量计算的复杂度 向量检索支持漏斗模型,先对所有向量进行量化和近似计算,筛选出一定量接近检索目标的数据集,然后基于筛选的数据集进行精细的计算和排序。本方法不需要对所有向量都进行复杂的计算,可以有效提高检索效率。 向量检索即在一个给定的向量数据集中,按照某种度量方式,检索出与查询向量相近的K个向量(KNearest Neighbor,KNN),但由于KNN计算量过大,通常只关注近似近邻(Approximate Nearest Neighbor,ANN)问题。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        场景描述
      • 升级
        如何升级HBlock CSI插件。 前置条件 请在升级之前,进行如下场景检查: 检查是否进行调整PV的服务端连接位置操作,如果执行过,需要确保满足以下条件: 如果PV只会被一个Pod挂载,不受影响。 如果PV被多个Pod挂载,请确保全部的Pod都没有进行过重启,或者全部完成了重启。 检查是否在HBlock侧执行过卷的target迁移操作(此处的卷为CSI侧的PV对应的HBlock侧的实例): 如果Kubernetes版本低于1.21,请确保挂载了该PV的Pod全部完成了重启。 Kubernetes版本为1.21及以上,不受影响。 说明 如果对升级方案有任何问题,请联系我们协助处理。如果升级前没有进行检查就执行了升级操作,可能会导致iSCSI连接无法断开,如果遇到此问题,请联系我们进行处理。 iscsid守护进程位置不变的升级 下列情况使用该方案升级: 升级前版本安装时中没设置参数iscsionhost(1.5.1之前版本不能设置该参数),升级后版本也没有设置该参数。 升级前升级后版本都设置了参数iscsionhost。 升级步骤 1. 更新驱动镜像:请根据逐台导入镜像的方式或docker私仓导入镜像的方式章节的步骤,导入最新安装包的驱动。 2. 在升级版本的对应文件下修改HBlock相关配置: 修改deploy/csipluginconf/csiconfigMap.yaml,确保与升级前版本的配置一致。 修改deploy/csipluginconf/csisecret.yaml,确保与升级前版本的配置一致。 修改deploy/csipluginconf/csisecretdecrypt.yaml ,确保与升级前版本的配置一致。 3. 在升级版本的/deploy下执行下列命令升级: 升级前版本安装时中没设置参数iscsionhost(1.5.1之前版本不能设置该参数),升级后版本也没有设置该参数,执行下列命令: plaintext ./deploy.sh 升级前升级后版本都设置了参数iscsionhost,执行下列命令: plaintext ./deploy.sh [ iscsionhost ] [ drivernamedrivername ] [ drivernamespacedrivernamespace ] 说明 如果升级前iscsionhost打开状态,则 iscsionhost:是必选参数。 drivername:升级前版本的驱动名称,如果升级前版本的驱动名称为默认值stor.csi.k8s.io,可以不填此参数。 drivernamespace:升级前版本绑定的Kubernetes命名空间,如果升级前版本绑定的Kubernetes命名空间为默认值default,此参数可以不填写。 4. 升级后检查: 可以在宿主机启动样例POD,进行基础流程测试,确认功能正常。 重启Kubernetes所有的slave宿主机节点,确认各存量POD能正确启动。(如果不验证重启恢复的场景,可跳过这步。) 从低版本(小于等于1.6.0)升级到高版本(大于等于1.6.1)后,如存在业务POD,确保在没有正在新建或者删除POD的前提下,执行命令kubectl get pod A grep csistorpluginnode awk '{print $2}' xargs I {} kubectl exec {} c storpluginnode sh c'/storadmupgrade addmissingtrackfile',补齐缺失的trackfile。 注意 kubectl get pod A grep csistorpluginnode的作用是过滤出所有CSI节点的驱动POD。执行此命令前需管理员检查此处需要与驱动实际部署方案一致,如果不一样,请修改为对应CSI节点的驱动POD。 命令执行完成后,将显示添加成功与失败的 tracefile 数量。若存在添加失败的情况(如提示“Failed to add x file(s)”),管理员需及时排查原因并处理。 如果用户使用了自定义的驱动部署方案,请注意:storadm工具的执行依赖于环境变量DRIVERNAME和KUBENODENAME,因此必须在 CSI Node Server 的Pod中配置这两个环境变量,否则可能导致功能异常。 plaintext env: name: DRIVERNAME value: 驱动名 name: KUBENODENAME valueFrom: fieldRef: apiVersion: v1 fieldPath: spec.nodeName
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        脚本方式使用指南
        升级
      • 导入导出表
        参数名 参数说明(导入DLI/POSTGRESQL/DWS/MRSHIVE类型的表) 所属主题 需填写已有的主题的编码路径,以/分隔。如果您未新建主题信息,请参见 逻辑实体名称 表名称,只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文和英文字母开头。 表名称 表英文名称,只能包含英文字母、数字、下划线、$、{、},且不能以数字开头。 表别名 用户在配置中心打开了“表别名”时显示此项,名称别名。 表级标签 给表添加的标签,请输入已有的标签或新的标签名称。您也可以先前往DataArts Studio数据目录模块的“标签管理”页面添加标签,然后再回到此处设置相应的标签。添加标签的具体操作,请参见 描述 表的描述信息。 资产责任人 需输入DataArts Studio实例当前工作空间中的用户名。只有工作空间管理员或开发者、运维者角色的用户才可以设置为责任人。 数据连接类型 支持以下连接类型:DLI、POSTGRESQL、DWS、MRSHIVE。 表类型 DLI模型的表支持以下表类型: Managed:数据存储位置为DLI的表。 External:数据存储位置为OBS的表。当“表类型”设置为External时,需设置“OBS路径””参数。 DLIVIEW:该类型只支持导入,不支持在控制台页面创建。 DWS模型的表支持以下表类型: DWSROW:行类型。 DWSCOLUMN:列类型。 DWSVIEW:视图类型。 MRSHIVE模型的表不支持该参数。 OBS路径 DLI模型的表类型为DLIEXTERNAL时,需填写与表相关联的存放源数据的OBS路径。OBS路径格式如:bucketname/filepath。 数据格式 该参数仅DLI模型的表有效。 表类型为DLIMANAGED的表支持的数据格式有: Parquet、Carbon。 表类型为DLIEXTERNAL的表支持的数据格式有: Parquet、Carbon、CSV、ORC、JSON、Avro。 表所属的数据连接 输入已创建的数据连接名称。 表所属的数据库 输入已创建的数据库名称。 数据连接扩展信息 连接类型为DLI时,输入DLI队列名称。连接类型为DWS或POSTGRESQL时,输入Schema名称。 属性名称(CHN) 表中的属性字段的中文名称。只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文或英文字母开头。 属性名称(ENG) 表中的属性字段的英文名称。只能包含英文字母、数字和下划线,且以英文字母开头。 顺序 属性字段在表中的顺序,从1开始。可以不填,不填时属性字段默认按模板中的顺序在表中排列。 属性描述 属性字段的描述信息。 数据类型 不同的数据连接类型支持的数据类型不一样,请参见 数据长度 对于不定长的数据类型,如果所指定的数据连接类型支持对其指定数据长度,请指定数据长度。 例如,DWS连接类型,如果字段类型为CHAR(10),需要在“数据类型”中填写“CHAR”,在“数据长度”中填写“10”。 是否分区 填写“Y”表示该字段为分区字段,填写“N”表示不是分区字段。 是否主键 填写“Y”表示该字段为主键,填写“N”表示不是主键。 不为空 填写“Y”表示该字段不为空,填写“N”表示字段允许为空。 引用的数据标准编码 填写需要引用的数据标准的编码,也可以不填。如果未创建数据标准,请参见 属性标签 为属性字段添加的标签,请输入已有的标签或新的标签名称。您也可以先前往DataArts Studio数据目录模块的“标签管理”页面添加标签,然后再回到此处设置相应的标签。添加标签的具体操作,请参见 其他配置 为JSON格式,用于存放表额外配置信息。格式如下:{"optionname1": "value","optionname2": "value"……}例如:{"a1": "100","a2": "30"} 版本号 可选参数。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        导入导出表
      • 直播录制的计费规则是什么
        本文介绍直播录制的计费规则。 视频直播过程中,可通过直播录制实现对直播流进行录制并存储到云存储中。 天翼云视频直播仅支持对接收到的源直播流进行录制,暂不支持录制直播转码流。 直播录制包含录制服务费和存储空间费用。 直播录制费用以当月直播录制并发路数峰值为结算标准,详细信息请参见:直播录制。 存储计费规则请参见:媒体存储计费说明。
        来自:
        帮助文档
        视频直播
        常见问题
        订购计费
        直播录制的计费规则是什么
      • 相关术语
        视频转封装 视频转封装是指在不改变视频编码的情况下,将一个视频文件的容器格式从一种类型转换为另一种类型的过程。容器格式是指视频文件中包含视频和音频流以及其他元数据的文件格式,常见的容器格式有MP4、AVI、MKV等。在视频转封装的过程中,视频和音频的编码格式不会改变,但是可以调整封装格式的参数,如封装方式、视频帧率、音频码率、字幕等。转封装可以帮助适应不同的播放设备和软件,提高视频的兼容性和播放效果。 GOP GOP是视频编码中的一个重要概念,是Group of Pictures的缩写。在视频编码中,一帧画面经过压缩编码后会被分为I帧、P帧和B帧三种类型,I帧是关键帧,也是独立编码的帧,P帧和B帧是参前后的帧进行预测编码的帧。GOP是由一组连续的I帧、P帧和B帧组成的序列,整个序列被视为一个编码单元,用于提高视频编码效率和减小文件大小。 在一个GOP中,第一个I帧被称为GOP头,最后一个B帧被称为GOP尾,中间的P帧和B帧被称为B帧组或P帧组。GOP的大小可以根据需要进行调整,通常选择一个适当的GOP大小可以在保证视频质量的同时减小视频文件的大小。较小的GOP大小可以提高视频的编码效率,但同时也会增加编码延迟和视频文件的大小。 声道数 声道(Sound Channel)是指声音在录制(或播放)时,在不同空间位置采集(或播放)的相互独立的音频信号。所谓声道数,也就是声音录制时的音源数量或播放时的扬声器数量。
        来自:
        帮助文档
        云点播
        产品介绍
        相关术语
      • 集群概述
        集群架构 CCE采用兼容标准的Kubernetes集群,Kubernetes集群属于主从分布式架构,主要由Master和Worker Node组成,以及包括客户端命令行工具kubectl和其它附加项。因此,在CCE集群中至少包含一个Master和多个Worker Node,这些Worker Node称为工作节点,这些节点都运行在Kubernetes集群编排系统中。 下图简要介绍了CCE集群的架构: Master:管控集群的管理面节点,提供Kubernetes核心服务和应用程序工作负载的业务流程,对集群进行调度管理。Master Node由API Server、Scheduler、Cluster State Store和ControllerManager Server所组成。 Node:业务运行的工作节点,用于运行应用程序的容器工作负载。Worker Node包含kubelet、kube proxy和Container Runtime。 kubectl:用于通过命令行与API Server进行交互,而对Kubernetes进行操作,实现在集群中进行各种资源的增删改查等操作。 replication Controller:副本控制器,用于伸缩副本数量。 Pod:实例(Pod)是Kubernetes部署应用或服务的最小的基本单位。一个Pod封装多个应用容器(也可以只有一个容器)、存储资源、一个独立的网络IP以及管理控制容器运行方式的策略选项。 Container:容器。一个通过Docker镜像创建的运行实例,一个节点可运行多个容器。容器的实质是进程,但与直接在宿主执行的进程不同,容器进程运行于属于自己的独立的命名空间。 Label:标签。其实就一对key/value ,被关联到对象上,比如Pod、标签的使用我们倾向于能够标示对象的特殊特点,并且对用户而言是有意义的,但是标签对内核系统是没有直接意义的。 Service:服务,将运行在一组Pods上的应用程序公开为网络服务的抽象方法。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        集群管理
        集群概述
      • 内存相关参数
        本页介绍天翼云TeleDB数据库内存相关参数。 sharedbuffers (integer) 设置数据库服务器将使用的共享内存缓冲区量。默认通常是128 兆字节(128MB),但是如果你的内核设置不支持(在initdb时决定),那么可以会更少。这个设置必须至少为 128 千字节(BLCKSZ的非默认值将改变最小值)。不过为了更好的性能,通常会使用明显高于最小值的设置。如果有一个专用的 1GB 或更多内存的数据库服务器,一个合理的sharedbuffers开始值是系统内存的 25%。即使较大的sharedbuffers有效,也会造成一些工作负载,但因为TeleDB同样依赖操作系统的高速缓冲区,将sharedbuffers设置为超过 40% 的RAM不太可能比一个小点值工作得更好。为了能把对写大量新的或改变的数据的处理分布在一个较长的时间段内,sharedbuffers更大的设置通常要求对maxwalsize也做相应增加。如果系统内存小于 1GB,一个较小的 RAM 百分数是合适的,这样可以为操作系统留下足够的空间。 hugepages (enum) 启用/禁用巨型内存页面的使用。可用的值是 try(默认)、on、和off。当前,只有 Linux 上支持这个特性。在其他系统上这个参数被设置为try时,它会被忽略。巨型页面的使用会导致更小的页面表以及花费在内存管理上的 CPU 时间更少,从而提高性能。 当hugepages被设置为try时,服务器将 尝试使用巨型页面,如果失败则会转回去使用正常的分配。如果设置为 on,使用巨型页面失败会阻止服务器启动。如果设置为 off,则不会使用巨型页面。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        资源消耗相关参数
        内存相关参数
      • Helm v2与Helm v3的差异及适配方案
        本文主要介绍Helm v2与Helm v3的差异及适配方案。 随着Helm v2 发布最终版本Helm 2.17.0,Helm v3 现在已是 Helm 开发者社区支持的唯一标准。为便于管理,建议用户尽快将模板切换至Helm v3格式。 当前社区从Helm v2演进到Helm v3,主要有以下变化: 1. 移除tiller Helm v3 使用更加简单和灵活的架构,移除了 tiller,直接通过kubeconfig连接apiserver,简化安全模块,降低了用户的使用壁垒。 2. 改进了升级策略,采用三路策略合并补丁 Helm v2 使用双路策略合并补丁。在升级过程中,会对比最近一次发布的chart manifest和本次发布的chart manifest的差异,来决定哪些更改会应用到Kubernetes资源中。如果更改是集群外带的(比如通过kubectl edit),则修改不会被Helm识别和考虑。结果就是资源不会回滚到之前的状态。 Helm v3 使用三路策略来合并补丁,Helm在生成一个补丁时,会考虑之前老的manifest的活动状态。因此,Helm在使用老的chart manifest生成新补丁时会考虑当前活动状态,并将其与之前老的 manifest 进行比对,并再比对新的 manifest 是否有改动,并进行自动补全,以此来生成最终的更新补丁。 详情及示例请见Helm官方文档: 3. 默认存储驱动程序更改为secrets Helm v2 默认情况下使用 ConfigMaps 存储发行信息,而在 Helm v3 中默认使用 Secrets。 4. 发布名称限制在namespace范围内 Helm v2 只使用tiller 的namespace 作为release信息的存储,这样全集群的release名字都不能重复。Helm v3只会在release安装的所在namespace记录对应的信息,这样release名称可在不同命名空间重用。应用和release命名空间一致。 5. 校验方式改变 Helm v3 对模板格式的校验更加严格,如Helm v3 将chart.yaml的apiVersion从v1切换到v2,针对Helm v2的chart.yaml,强要求指定apiVersion为v1。可安装Helm v3客户端后,通过执行helm lint命令校验模板格式是否符合v3规范。 适配方案 :根据Helm官方文档 v3模板,apiVersion字段必填。 6. 废弃crdinstall Helm v3删除了crdinstall hook, 并用chart中的crds目录替换。需要注意的是,crds目录中的资源只有在release安装时会部署,升级时不会更新,删除时不会卸载crds目录中的资源。若crd已存在,则重复安装不会报错。 适配方案 :根据Helm官方文档 当前可使用crds目录或者将crd定义单独放入chart。考虑到目前不支持使用Helm升级或删除CRD,推荐分隔chart,将CRD定义放入chart中,然后将所有使用该CRD的资源放到另一个 chart中进行管理。 7. 未通过helm创建的资源不强制update,releaes默认不强制升级 Helm v3强制升级逻辑变化,不再是升级失败后走删除重建,而是直接走put更新逻辑。因此当前CCE release升级默认使用非强制更新逻辑,无法通过Patch更新的资源将导致release升级失败。若环境存在同名资源且无Helm V3的归属标记app.kubernetes.io/managedby: Helm,则会提示资源冲突。 适配方案 :删除相关资源,并通过Helm创建。 8. Release history数量限制更新 为避免release 历史版本无限增加,当前release升级默认只保留最近10个历史版本。 更多变化和详细说明请参见Helm官方文档 Helm v2与Helm v3的区别: Helm v2如何迁移到Helm v3:
        来自:
        帮助文档
        云容器引擎
        用户指南
        模板管理(helm)
        Helm v2与Helm v3的差异及适配方案
      • MySQL 实例间的双向同步
        本文介绍了如何通过数据传输服务DTS在其他云数据库与天翼云关系数据库MySQL版间实现数据双向同步。 前提条件 源库要求 正向同步(源库同步至目标库)所需权限: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 反向同步(目标库同步至源库)所需权限为以下全局权限: ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、REFERENCES、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 在磁盘空间允许的情况下,建议数据库binlog保存时间越长越好,建议为3天。 数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 数据库expirelogsdays参数值为0,可能会导致同步失败。 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。 必须设置MySQL数据库的serverid。如果数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 数据库GTID状态建议为开启状态,数据库实例没有开启GTID的情况下数据传输服务DTS不支持主备HA切换,因为数据传输服务DTS任务会因为位点不续接而中断导致无法恢复。 数据库必须有足够的磁盘空间。 目标库关联RDS数据库的字符集必须与源数据库一致。 源库和目标库的大版本号需保持一致。 数据库必须包含双向同步标记库表(用于解决双向同步数据回环的问题),相关SQL请参考如下语句: sql CREATE DATABASE IF NOT EXISTS retl; CREATE TABLE retl.retlmark ( ID bigint(20) NOT NULL AUTOINCREMENT, CHANNELID int(11) DEFAULT NULL, CHANNELINFO varchar(128) DEFAULT NULL, PRIMARY KEY (ID) ) ENGINEInnoDB AUTOINCREMENT3002 DEFAULT CHARSETutf8;
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        双向同步
        MySQL 实例间的双向同步
      • Topic和分区问题
        Kafka支持减少分区数吗? Kafka不支持减少分区数,您可以通过删除原先的Topic,然后创建新Topic,重新设置分区数。 Kafka实例创建Topic失败 可能原因:已创建的Topic,分区数之和达到实例规格的分区数上限。不同规格实例配置的分区数上限不同,具体请参考产品规格。 解决方案:对Kafka实例扩容,或者删除不需要的Topic。 Kafka实例支持批量导入Topic功能么?或者是自动生成Topic功能? 支持自动生成Topic功能,但不支持Topic批量导入功能,仅支持批量导出Topic功能。 通过以下任意一种方法,开启自动生成Topic功能: 创建实例时,开启Kafka自动创建Topic。 创建实例后,在实例详情页开启Kafka自动创建Topic。 为什么删除Topic不生效?删除后该Topic仍然存在 可能原因:您开启了自动创建Topic功能,且有消费者正在连接该Topic。所以,如果没有停止您的业务,删除了Topic后,还会有消息生产行为,并自动创建Topic。 解决办法:需要关闭自动创建Topic功能,才可以正常删除Topic。 Kafka实例是否支持查看单个Topic占用磁盘空间? 支持。通过以下任意一种方法,查看单个Topic占用磁盘空间大小。 在Kafka实例名称后,单击,跳转到云监控页面。在“队列”页签中,“队列”选择待查看磁盘空间大小的Topic名称,“监控类型”选择“基本监控”,查看“队列数据容量”,该指标表示该队列当前的消息数据大小。 单击Kafka实例名称,进入实例详情页。在左侧导航栏单击“监控”,进入监控页面。在“主题”页签中,“主题”选择待查看磁盘空间大小的Topic名称,“监控类型”选择“基本监控”,查看“队列数据容量”,该指标表示该队列当前的消息数据大小。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        Topic和分区问题
      • 产品优势
        本节主要介绍云存储网关的产品优势。 易用即装即用 仅约140MB的高度优化zip安装包,只需3个命令即可安装在Linux操作系统上,从安装包解压到集群初始化不超过3分钟。云存储网关与通用64位x86服务器和ARM服务器上的主流Linux操作系统兼容。 成本利用率高 兼容主流Linux操作系统,支持和其他应用混合部署,支持异构硬件部署,支持自动精简配置,显著提高了资源利用率,降低使用成本。 安全稳定可靠 支持多副本和纠删码数据冗余保护机制,多种异常情况下确保数据不丢,并且保持数据一致性,可以承载企业核心业务数据;通过传输加密、监控告警、配置备份等最大程度实现安全保障。 高可用业务永续 可达秒级故障切换速度,实现不中断会话的故障转移,媲美传统高端存储,单节点故障不影响可用性,确保企业核心应用724永续。 快速读写延迟低 采用分布式双控架构,提升读写性能,延迟极低。同时优化了数据重建流程,避免性能瓶颈,快速响应企业的核心应用。 上云弹性扩展 可作为本地与云端存储之间的桥梁,利用天翼云对象存储(经典版)I型(ObjectOriented Storage,OOS)提供的PB级弹性存储空间能力,实现大规模横向扩展,将全量数据自动同步到OOS中,本地仅保留热数据以节省本地存储空间,或者保留全量数据以保障本地I/O性能,实现混合云存储。
        来自:
      • 权限管理
        本节介绍了云数据库TaurusDB的权限管理。 IAM权限管理 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用TaurusDB的其他功能。 如果您需要对购买的TaurusDB资源,为企业中的员工设置不同的访问权限,为达到不同员工之间的权限隔离,您可以使用统一身份认证服务 (Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制资源的访问。 通过IAM,您可以在帐号中给员工创建IAM用户,并授权控制员工对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望开发人员拥有TaurusDB的使用权限,但是不希望拥有删除TaurusDB等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用TaurusDB,但是不允许删除TaurusDB的权限,控制开发人员对TaurusDB资源的使用范围。 IAM是提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。 TaurusDB权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 TaurusDB部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问TaurusDB时,需要先切换至授权区域。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对云数据库TaurusDB,管理员能够控制IAM用户仅能对某一类数据库资源进行指定的管理操作。 如下表所示,包括了云数据库TaurusDB的所有系统权限。 表 TaurusDB系统权限 策略名称 描述 类别 GaussDB FullAccess 云数据库TaurusDB服务的所有执行权限。 系统策略 GaussDB ReadOnlyAccess 云数据库TaurusDB服务的只读访问权限。 系统策略 下表列出了云数据库TaurusDB常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 操作 GaussDB FullAccess GaussDB ReadOnlyAccess 创建TaurusDB实例 支持 不支持 删除TaurusDB实例 支持 不支持 查询TaurusDB实例列表 支持 支持 表 常用操作与对应授权项 操作名称 授权项 备注 修改参数模板 gaussdb:param:modify 变更数据库实例的规格 gaussdb:instance:modifySpec 创建数据库实例 gaussdb:instance:create 界面选择VPC、子网、安全组需要配置:vpc:vpcs:listvpc:vpcs:getvpc:subnets:getvpc:securityGroups:get创建加密实例需要在项目上配置KMS Administrator权限。创建包周期实例需要配置CBC权限:bss:renewal:viewbss:renewal:updatebss:balance:viewbss:order:view 创建手动备份 gaussdb:backup:create 查询备份列表 gaussdb:backup:list 查询错误日志 gaussdb:log:list 重启实例 gaussdb:instance:restart 查询数据库实例列表 gaussdb:instance:list 创建参数模板 gaussdb:param:create 删除参数模板 gaussdb:param:delete 修改备份策略 gaussdb:instance:modifyBackupPolicy 查看参数模板 gaussdb:param:list 删除实例 gaussdb:instance:delete 删除手动备份 gaussdb:backup:delete 查询项目标签 gaussdb:tag:list 应用参数模板 gaussdb:param:apply 批量添加删除项目标签 gaussdb:instance:dealTag 变更配额 gaussdb:quota:modify 升级数据库实例版本 gaussdb:instance:upgrade 只读升主 gaussdb:instance:switchover 修改数据库端口 gaussdb:instance:modifyPort 修改实例安全组 gaussdb:instance:modifySecurityGroup 修改读写内网地址 gaussdb:instance:modifyIp 界面选择ip需要配置:vpc:vpcs:listvpc:vpcs:get 开启、关闭SSL gaussdb:instance:modifySSL 修改实例名称 gaussdb:instance:rename 添加只读节点 gaussdb:instance:addNodes 删除只读节点 gaussdb:instance:deleteNodes 修改存储空间 gaussdb:instance:modifyStorageSize 修改数据库实例密码 gaussdb:instance:modifyPassword 绑定公网IP gaussdb:instance:bindPublicIp 界面列出公网IP需要配置:vpc:publicIps:getvpc:publicIps:list 解绑公网IP gaussdb:instance:unbindPublicIp 修改监控策略 gaussdb:instance:modifyMonitorPolicy 修改节点倒换优先级 gaussdb:instance:modifySwitchoverPriority 修改可维护时间窗 gaussdb:instance:modifyMaintenanceWindow 节点隔离 gaussdb:instance:isolateNodes 创建数据库用户 gaussdb:user:create 删除数据库用户 gaussdb:user:delete 修改数据库用户密码 gaussdb:user:modify 查询数据库用户 gaussdb:user:list 数据库用户授权 gaussdb:user:grantPrivilege 回收数据库用户权限 gaussdb:user:revokePrivilege 创建数据库 gaussdb:database:create 删除数据库 gaussdb:database:delete 查询数据库列表 gaussdb:database:list
        来自:
        帮助文档
        云数据库TaurusDB
        产品介绍
        权限管理
      • Mysql数据库自建,使用,问题排查最佳实践
        案例四 数据库密码忘记的问题 plaintext [root@zs ~] mysql uroot p Enter password: ERROR 1045 (28000): Access denied for user ‘root’@’localhost’ (using password: YES) [root@zs ~] mysql uroot p Enter password: ERROR 1045 (28000): Access denied for user ‘root’@’localhost’ (using password: YES) 解决思路: 目前是进入不了数据库的情况,所以我们要考虑是不是可以跳过权限。因为在数据库中,MySQL 数据库中 user 表记录着我们用户的信息。 解决方法:启动 MySQL 数据库的过程中,可以这样执行: plaintext /usr/local/mysql/bin/mysqldsafe –defaultsfile/etc/my.cnf –skipgranttables & 这样启动,就可以不用输入密码,直接进入 MySQL 数据库了。然后在修改你自己想要改的 root 密码即可。 plaintext update mysql.user set passwordpassword(‘root123′) where user’root’; 案例五 truncate 删除数据,导致自动清空自增 ID,前端返回报错 not found这个问题的出现,就要考虑下 truncate 和 delete 的区别了,看下实验演练: 首先先创建一张表: plaintext CREATE TABLE t ( a int(11) NOT NULL AUTOINCREMENT, b varchar(20) DEFAULT NULL, PRIMARY KEY (a), KEY b (b) ) ENGINEInnoDB AUTOINCREMENT300 DEFAULT CHARSETutf8 插入三条数据: plaintext mysql> insert into t (b) values (‘aa’); Query OK, 1 row affected (0.00 sec) mysql> insert into t (b) values (‘bb’); Query OK, 1 row affected (0.00 sec) mysql> insert into t (b) values (‘cc’); Query OK, 1 row affected (0.00 sec) mysql> select from t; —–+——+ a b —–+——+ 300 aa 301 bb 302 cc —–+——+ 3 rows in set (0.00 sec) 先用 delete 进行删除全表信息,再插入新值。 结果发现 truncate 把自增初始值重置了,自增属性从 1 开始记录了。当前端用主键 id 进行查询时,就会报没有这条数据的错误。 个人建议不要使用 truncate 对表进行删除操作,虽然可以回收表空间,但是会涉及自增属性问题。这些坑,我们不要轻易钻进去。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        数据库相关最佳实践
        Mysql数据库自建,使用,问题排查最佳实践
      • Kubernetes 1.31版本说明
        Kubernetes 1.30 版本Changelog 1. Pod 调度就绪机制(GA),通过 spec.schedulingGates 字段,允许用户在 Pod 创建后动态控制其调度时机。例如,当存储卷或网络策略未准备好时,Pod 可被标记为 “未就绪”,避免无效调度导致的资源浪费。 2. Pod 拓扑分布最小域(GA),在 PodTopologySpread 中新增 minDomains 参数,要求 Pod 至少分布在指定数量的拓扑域(如可用区)。若当前域不足,Pod 将暂停调度,触发自动缩放器创建新节点,确保高可用性。 3. 基于索引的 Job 回退机制(Beta),支持为索引 Job 的每个任务索引单独配置重试策略(.spec.backoffLimitPerIndex),避免因单个索引失败导致整个 Job 终止。适用于分布式训练等需细粒度控制的场景。 4. 基于容器资源的 HPA(GA),Horizontal Pod Autoscaler 可根据 Pod 内单个容器的 CPU / 内存使用情况进行扩缩容,而非依赖 Pod 整体指标。例如,优先对关键容器(如数据库主节点)设置更严格的扩缩容阈值。 5. 负载均衡器 IP 模式(Beta), LoadBalancer 类型的 Service 新增 .status.loadBalancer.ingress.ipMode 字段,用于指定负载均衡器IP的转发行为。该字段仅在指定了.status.loadBalancer.ingress.ip字段时才能被指定。 6. 多服务 CIDR 支持(Alpha),允许为集群配置多个 Service ClusterIP 地址段(通过 ServiceCIDR 资源),扩展服务 IP 地址空间,满足复杂网络拓扑需求。 7. 基于 CEL 的准入控制(GA),该特性支持通过CEL表达式声明资源的验证准入策略。 8. ImageMaximumGCAge(Beta),允许kubelet配置对未使用镜像被垃圾回收前的最大存活时间,即在达到指定时间后若镜像仍然未被使用,那么镜像将可被垃圾收集机制清理。默认值为"0s",即不设置时间限制)。 更多信息请参考:Kubernetes 1.30 Changelog
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        Kubernetes版本发布记录
        Kubernetes 1.31版本说明
      • 使用ZOS静态存储卷
        本文介绍如何使用ZOS静态存储卷。 使用对象存储静态存储卷,即使用预先在对象存储控制台已创建Bucket,通过手动创建PV指定已有Bucket,创建PVC时使用已有PV的方式,实现容器内挂载对象存储。 该模式下需要用户自建对象存储Bucket及PV资源,一定程度上增加操作和管理复杂性。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。若已有Serverless集群,无需重复操作。 已在插件市场安装存储插件cstorcsi,且插件正常运行。 容器集群所在资源池已开通对象存储服务。 已在对象存储控制台创建Bucket。 确保kubectl工具已经连接目标集群。 使用对象存储静态存储卷(kubectl) 步骤一:创建保密字典 1. 创建示例yaml文件zostest.yaml: shell apiVersion: v1 data: AK: xxxxxxxxxxxx 填写base64编码后的AK SK: xxxxxxxxxxxx 填写base64编码后的SK kind: Secret metadata: name: zostest namespace: default type: Opaque 2. 执行以下命令,创建secret: plaintext kubectl apply f zostest.yaml 步骤二:创建持久卷(PV) 1. 创建示例yaml文件pvstaticzos.yaml: shell apiVersion: v1 kind: PersistentVolume metadata: annotations: pv.kubernetes.io/provisionedby: zos.csi.cstor.com name: pvc{PVNAME} pv名称,以pvc开头 spec: accessModes: ReadWriteOnce 访问模式 capacity: storage: 5Gi 容量 csi: driver: zos.csi.cstor.com nodePublishSecretRef: name: {SECRETNAME} 保密字典名称 namespace: {SECRETNAMESPACE} 保密字典命名空间 volumeAttributes: bucket: {BUCKETNAME} bucket名称 mountEndpoint: 挂载地址,在存储控制台可查 driverType: zos.csi.cstor.com type: STANDARD 产品类型 volumeHandle: 0105{PVNAMELENTH}{PVNAME} PVNAMELENTH为PVNAME长度的十六进制表示,比如PVNAME是"pvstaticzos",则PVNAMELENTH为0D volumeMode: Filesystem 2. 执行以下命令,创建pv: plaintext kubectl apply f pvstaticzos.yaml
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        存储
        对象存储存储卷
        使用ZOS静态存储卷
      • 创建备份策略
        本文带您熟悉创建备份策略的操作步骤,您可按需创建需要的备份策略。 操作场景 通过创建备份策略,您可以按照预定的周期对云主机数据进行备份,以确保在出现数据丢失或损坏的情况下快速恢复数据,保障业务的连续正常运行,也可以实现在备份过期后自动删除,释放存储空间。启用备份策略后,系统会按照设定的周期自动备份绑定的云主机,并为每个备份生成一个以“autoxxxx”命名的备份标识,便于备份的识别和组织管理。 约束与限制 每个用户在当前资源池默认可以创建20个备份策略,一个备份策略默认可以绑定20个云主机,如需调整配额请提交工单。 创建完成备份策略后,还需要为备份策略绑定云主机,以及将备份策略绑定至存储库,自动备份功能才可真正生效。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择上海上海36。 3. 在系统首页,选择“存储>云主机备份”。 4. 选择“备份策略”页签,点击“创建备份策略”。 5. 根据提示设置备份策略信息,各参数说明如下表。 参数 说明 名称 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度为264字符。 是否启用 是否启用备份策略,默认为不启用。 备份时间 设置备份任务的执行时间。此处选择的时间是细粒度至天之后的整点执行时间,用户可在一天内选择多个整点时间进行备份执行。 建议您选择业务量较少或无业务的时间进行备份,比如凌晨时间。 注意 设定的备份时间和控制台实际创建备份的时间可能存在差异。 如需要备份的资源总数据量较大,建议备份执行时间点不宜设置过于紧密。如果单个资源执行备份的时长超过两个备份执行时间间隔,则会跳过第二个备份时间点不进行备份。 例如:某主机的备份策略设置的备份时间点为:00:00,01:00,02:00。在00:00时,开始进行备份,由于此次备份增量数据较大,或者该时间段同时执行的备份任务较多,该次备份任务耗时90分钟,在01:30时完成备份。则01:00的备份时间点会跳过,在02:00时再执行备份,将只会产生两个备份。 若云主机备份策略、云硬盘自动快照策略和云硬盘备份策略的备份时间重叠,可能导致备份时间有重叠的备份任务失败而影响数据安全性。请您在设置时预留充足间隔,保障所有备份任务顺利执行。 备份周期 设置备份任务的执行日期。 按周指定备份策略在每周的周几进行备份,可以多选。 按天指定备份策略每隔几天进行一次备份,可设置1~30天。 注意 按天备份的备份时间是每个月的固定时间,例如"每3天"表示执行备份的日期为每月1日、4日、7日,以此类推。备份策略在创建当月生效。举例来说,在某月2日创建备份周期为“每3天”的备份策略,则第一次备份日期为当月4日。建议选择无业务或者业务量较少的时间对云主机进行备份。 全量备份配置 若不配置定期全量备份,默认在绑定的存储库的首次备份进行全量备份,后续进行永久增量备份。 若您开启了定期全量备份,则会按照配置频次执行全量备份。 注意 仅上线华东1、华北2资源池。 保留规则 设置备份产生后的保留规则,即哪些备份将被保留。共有三种规则,按时间、按数量、永久保存。 按时间:可选择1个月、3个月、6个月、1年的固定保留时长或根据需要自定义保留时长。取值范围为1~99999天,当到达规定时间,备份将被自动删除。 按数量:单个云硬盘执行备份策略保留的备份总份数。取值范围为1~99999个。 永久保存:备份产生后将会被永久保留,用户可以手动将其删除。 说明 当保留规则为按数量保留,保留的备份数超过预设保留数值时,系统会按照时间自动删除最早创建的备份。 当保留规则为按时间保留,保留的备份超过预设时间时,系统会自动删除所有过期的备份。删除的备份不会影响其他备份的数据恢复。 修改备份策略或将云硬盘绑定到新策略,备份副本会按照新策略的保留规则执行自动删除。 保留规则仅对备份策略自动调度生成的备份有效。手动执行备份策略生成的备份不会统计在内,且不会自动删除。如需删除,请在备份页签的备份列表中手动删除。 高级保留选项 日备份:保留指定周期内每天最新的一个备份副本。 周备份:保留指定周期内每周最新的一个备份副本。 月备份:保留指定周期内每月最新的一个备份副本。 年备份:保留指定周期内每年最新的一个备份副本。 设置高级保留选项后,指定周期内每日/周/月/年最新的一个备份副本不受保留规则的影响。例如,设置“日备份:保留3天内,每天最新的一个备份”。假设某月1日起开始执行该备份策略,在3日时,除按“保留规则”对备份副本进行保留外,1日和2日两天最后创建的备份副本不受“保留规则”的影响,不会被自动删除。 注意 仅上线华东1、华北2资源池。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。默认为default。 6. 设置完成后,点击“确定”,完成备份策略的创建。 注意 备份策略创建完成后还需绑定到存储库才能生效,具体可参见存储库绑定备份策略。
        来自:
        帮助文档
        云主机备份 CSBS
        用户指南
        策略管理
        创建备份策略
      • Oracle数据迁移到DWS
        创建DWS连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 2.连接器类型选择“数据仓库服务(DWS)”后单击“下一步”配置DWS连接参数,必填参数如下表“DWS连接参数”所示,可选参数保持默认即可。 参数名 说明 取值样例 名称 输入便于记忆和区分的连接名称。 dwslink 数据库服务器 DWS数据库的IP地址或域名。 192.168.0.3 端口 DWS数据库的端口。 8000 数据库名称 DWS数据库的名称。 dbdemo 用户名 拥有DWS数据库的读、写和删除权限的用户。 dbadmin 密码 用户的密码。 使用Agent 是否选择通过Agent从源端提取数据。 是 Agent 单击“选择”,选择连接Agent中已创建的Agent。 导入模式 COPY模式:将源数据经过DWS管理节点后拷贝到数据节点。如果需要通过Internet访问DWS,只能使用COPY模式。 COPY 3.单击“保存”完成创建连接。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从Oracle导出数据到DWS的任务。 详见下图:创建Oracle到DWS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建Oracle连接中的“oraclelink”。 −模式或表空间:待迁移数据的数据库名称。 −表名:待迁移数据的表名。 −高级属性里的可选参数一般情况下保持默认既可,详细说明请参见配置常见关系数据库源端参数。 目的端作业配置 −目的连接名称:选择上述 创建DWS连接中的连接“dwslink”。 −模式或表空间:选择待写入数据的DWS数据库。 −自动创表:只有当源端和目的端都为关系数据库时,才有该参数。 −表名:待写入数据的表名,可以手动输入一个不存在表名,CDM会在DWS中自动创建该表。 −存储模式:可以根据具体应用场景,建表的时候选择行存储还是列存储表。一般情况下,如果表的字段比较多(大宽表),查询中涉及到的列不多的情况下,适合列存储。如果表的字段个数比较少,查询大部分字段,那么选择行存储比较好。 −扩大字符字段长度:当目的端和源端数据编码格式不一样时,自动建表的字符字段长度可能不够用,配置此选项后CDM自动建表时会将字符字段扩大3倍。 −导入前清空数据:任务启动前,是否清除目的表中数据,用户可根据实际需要选择。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段,如下图“表到表的字段映射”所示。 如果字段映射顺序不匹配,可通过拖拽字段调整。 单击,可批量映射字段。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。可适当调大参数,提升迁移效率。 是否写入脏数据:表到表的迁移容易出现脏数据,建议配置脏数据归档。 作业运行完是否删除:这里保持默认值“不删除”。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。 说明 如遇目的端写太久导致迁移超时,请减少Oracle连接器中“一次请求行数”参数值的设置。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        Oracle数据迁移到DWS
      • 桶配额
        本文帮助您了解对象存储桶配额及其相关的操作步骤。 操作场景 设置桶配额可以限制桶内允许上传的对象总容量/总数量,超过设置的容量/数量后,上传对象会失败。适用于需要对桶的容量/桶中对象数量进行限制的场景。 约束与限制 桶配额仅对设置后的文件传输操作起作用。如果设置的桶配额值小于已上传的文件容量/数量,已有文件不会被删除,但之后无法再上传新文件。您可以通过扩大配额或删除部分无用文件,释放已使用空间,使其低于配额限制。 桶配额支持的区域请参见产品能力地图,可通过提工单申请权限。 桶配额的校验依赖于桶的存量数据,桶的存量数据由后台计算,因此桶配额可能存在滞后性,可能出现桶的容量或数量超出配额或者删除数据后未能及时回落的情况。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表,点击Bucket名称进入“概览”页面。 5. 选择“基础设置”页面,找到“桶配额”,点击“设置”。 6. 点击开启桶配额,选择需要的限制方式,可同时选择“容量限制”和“数量限制”。容量限制可选单位KB、MB、GB、TB、PB。当选择单位为PB时,取值范围为11000的整数,其他单位的取值范围为19999的整数。数量限制的取值范围为1400000000的整数。 7. 点击保存,设置配额成功。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        桶管理
        桶配额
      • 1
      • ...
      • 56
      • 57
      • 58
      • 59
      • 60
      • ...
      • 444
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      模型推理服务

      应用托管

      科研助手

      知识库问答

      推荐文档

      实例详情

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号