活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云5g网络_相关内容
      • 创建桶
        参数 说明 地域 桶所在的地域。存储桶一旦创建成功,地域不能修改。 Bucket名称 桶的名称,注意以下命名规则: 不能与已有的任何桶名称重复。 创建成功后不支持修改。 长度范围为3到63个字符,支持小写字母、数字、中划线()。 禁止以中划线()开头或结尾。 存储类型 桶的存储类型,可选标准存储/低频存储/归档存储。部分资源池暂不支持低频或归档存储。 读写权限 桶的读写权限控制。 私有:仅桶的拥有者和授权用户可进行读写操作。 公共读:公共读权限下所有用户均拥有该桶的读权限,这有可能造成 数据的外泄 以及 费用激增 ,不推荐此配置。 数据冗余策略 单AZ存储:选择单AZ,数据会存储在一个可用区。单AZ存储支持标准存储、低频存储、归档存储三种存储类型。 多AZ存储:选择多AZ存储,数据会存储在同一地域的多个可用区中,可用性更高。多AZ采用相对较高的计费标准。多AZ存储仅支持标准或低频存储类型。 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略后续无法更改。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务将统一的云资源按项目管理。 为桶选择所属的企业项目,从而将桶与企业项目进行关联。在选择“企业项目”的下拉列表中,将显示用户在企业项目服务中已创建的项目。 系统还内置了一个缺省的企业项目“default”,如果用户没有为桶创建企业项目,将使用缺省项目“default”。您也可参考 服务端加密 开启服务端加密功能,上传的对象将以加密的方式存储在ZOS中。 下载对象时,ZOS会自动将加密文件解密后再提供给用户。 选择加密方式。取值范围如下: 关闭 : 不启用服务器端加密。 ZOS完全托管 : 使用ZOS托管的密钥进行加密。 KMS : 使用KMS默认托管的CMK或指定CMK ID进行加解密操作 。 2种加密方式的对比见 合规保留 开启合规保留后,允许用户以“不可删除、不可篡改”方式保存和使用数据。 是否编辑桶标签 为指定存储桶设置标签,用来标记不同用途的存储桶并进行分类管理。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        桶管理
        创建桶
      • 查询集群节点组详情V2
        枚举参数 无 请求示例 请求url 请求头header 无 请求体body { "clusterId":"e7afb3bd9d7117d116893c03a352f4e3" } 响应示例 退订成功示例: { "statusCode": 200, "message": "success", "returnObj": [ { "id": "1848620195079360514", "clusterId": "e7afb3bd9d7117d116893c03a352f4e3", "payType": 1, "nodeGroupType": "MASTER", "nodeGroupName": "master", "imageId": "35e905b296f3449da56989bad1b419c5", "hostNum": 3, "computeSpecificationId": 98, "iaasVmSpecCode": "s7.2xlarge.4", "cpuNum": 8, "memory": 32, "diskSpecificationList": "[{"diskFunction":"SYSTEM","diskFunctionName":"系统盘","diskType":"cloud","diskTypeName":"云硬盘","ioType":"SATA","ioTypeName":"普通IO","volume":80,"diskNum":1},{"diskFunction":"DATA","diskFunctionName":"数据盘","diskType":"cloud","diskTypeName":"云硬盘","ioType":"SATA","ioTypeName":"普通IO","volume":80,"diskNum":1}]", "createTime": 1729580375000, "updateTime": 1730021300000, "mountPublicIp": false, "iaasVmSpecId": "b307034dcbc327bb24f7a97565814236", "highest": null, "regionId": "bb9fdb42056f11eda1610242ac110002", "availableZoneId": "cnhuadong1jsnj1Apublicctcloud", "vpcId": "vpcyrecox87qe", "clusterHostDtoList": [ { "id": "1848620196580921345", "nodeGroupId": "1848620195079360514", "iaasHostId": "7b9e58a68270568dc1d416e996f43718", "hostName": "bigdatavm1729580376k09wy", "manageIp": "", "serviceIp": "192.168.0.42", "publicIp": "", "ipv6ServiceIp": "", "ipv6PublicIp": "", "state": 8, "vpcId": "vpcyrecox87qe", "subnetId": "subnetpxpru3r0as", "regionId": "bb9fdb42056f11eda1610242ac110002", "availableZoneId": "cnhuadong1jsnj1Apublicctcloud", "eipId": null, "bandwidthId": null, "jobId": "compute9ed0c255998b419f98f88281f06ff485", "masterOrderId": "", "iaasMasterOrderId": "INT022024102214593521544350", "paasResourceId": "PaasResourceId", "isDeleted": 0, "createTime": 1729580375000, "updateTime": 1729580375000, "hostStateValue": "运行中", "deployRoleInstance": [ "NameNode", "JournalNode", "ZKFC", "HDFSClient", "ZKServer", "KDCMaster", "SSSD", "TrinoCoordinator", "YARNClient", "FlinkHistoryServer", "FlinkClient" ] }, { "id": "1848620196585115649", "nodeGroupId": "1848620195079360514", "iaasHostId": "49980a64aa7e44ab62969c8136482c27", "hostName": "bigdatavm1729580376k09wy0001", "manageIp": "", "serviceIp": "192.168.0.46", "publicIp": "", "ipv6ServiceIp": "", "ipv6PublicIp": "", "state": 8, "vpcId": "vpcyrecox87qe", "subnetId": "subnetpxpru3r0as", "regionId": "bb9fdb42056f11eda1610242ac110002", "availableZoneId": "cnhuadong1jsnj1Apublicctcloud", "eipId": null, "bandwidthId": null, "jobId": "compute9ed0c255998b419f98f88281f06ff485", "masterOrderId": "", "iaasMasterOrderId": "INT022024102214593521544350", "paasResourceId": "PaasResourceId", "isDeleted": 0, "createTime": 1729580375000, "updateTime": 1729580375000, "hostStateValue": "运行中", "deployRoleInstance": [ "JournalNode", "HDFSClient", "ZKServer", "Slapd", "SSSD", "ResourceManager", "JobHistory", "YARNClient", "FlinkClient" ] }, { "id": "1848620196585115650", "nodeGroupId": "1848620195079360514", "iaasHostId": "848b2edb8635149c71dd1cdba1035377", "hostName": "bigdatavm1729580376k09wy0002", "manageIp": "", "serviceIp": "192.168.0.48", "publicIp": "", "ipv6ServiceIp": "", "ipv6PublicIp": "", "state": 8, "vpcId": "vpcyrecox87qe", "subnetId": "subnetpxpru3r0as", "regionId": "bb9fdb42056f11eda1610242ac110002", "availableZoneId": "cnhuadong1jsnj1Apublicctcloud", "eipId": null, "bandwidthId": null, "jobId": "compute9ed0c255998b419f98f88281f06ff485", "masterOrderId": "", "iaasMasterOrderId": "INT022024102214593521544350", "paasResourceId": "PaasResourceId", "isDeleted": 0, "createTime": 1729580375000, "updateTime": 1729580375000, "hostStateValue": "运行中", "deployRoleInstance": [ "NameNode", "JournalNode", "ZKFC", "HDFSClient", "ZKServer", "KDCSlave", "Slapd", "SSSD", "ResourceManager", "YARNClient", "FlinkClient" ] } ] } ] } 请求参数类型不正确示例: { "statusCode": 500, "error": "EMR401001", "message": "请求参数类型错误", "returnObj": "{"nodeState": "应为int范围内整数","clusterId": "应为字符串"}" } 请求参数值无效示例: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"clusterId":"不能为空"}" } 查询无权限的集群示例: { "statusCode": 500, "error": "EMR401004", "message": "非法操作", "returnObj": {} } 非运行集群无法查看示例: { "statusCode": 500, "error": "EMR401006", "message": "非运行中集群无法查看信息", "returnObj": {} }
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        查询集群节点组详情V2
      • 登录集群节点
        本章节主要介绍如何登录翼MR集群节点。 本章节介绍如何使用翼MR管理控制台上提供的节点远程连接(VNC方式)和如何使用密码方式(SSH方式)登录翼MR集群中的节点,远程连接主要用于紧急运维场景,远程登录主机进行相关维护操作。其他场景下,优先推荐用户使用SSH方式登录集群节点。 说明 如果需要使用SSH方式登录集群节点,需要在集群的安全组规则中手动添加入方向规则:其中源地址为“客户端公网IPV4地址/32”,端口为22,具体请参见“帮助中心>虚拟私有云>安全组>[ 登录主机(VNC方式) 1. 登录翼MapReduce服务管理控制台。 2. 选择“集群列表 > 我的集群”,选中一个运行中的集群并单击集群名,进入集群基本信息页面。 3. 选择“节点管理”,单击展开节点组,显示节点列表。 4. 在目标节点的右侧“操作”列中,单击“远程连接”。 5. 在VNC方式新标签页Web页面中,可以看到服务器的命令行界面,类似于Linux服务器登录模式,输入root账号,并输入密码。 说明 1、初始密码为创建集群时所设定的集群密码。 2、自2.16版本起,若忘记密码,可通过基础信息页的重置密码功能修改云主机密码,物理机暂不支持修改。 登录主机(SSH密钥方式) 本地使用Windows操作系统 如果您本地使用Windows操作系统登录Linux主机,可以按照下面方式登录主机。下面步骤以Xshell为例。 1. 登录翼MR服务管理控制台。 2. 选择“集群列表 > 我的集群”,选中一个运行中的集群并单击集群名,进入集群基本信息页面。 3. 选择“节点管理”,单击展开节点组,显示节点列表。 4. 在目标节点的右侧“操作”列中,单击“更多”,选择“绑定弹性IP”,可以为该节点选择一个已存在且未绑定使用的弹性公网IP或者可以单击“+创建弹性公网IP”跳转至弹性IP控制台完成弹性IP购买后,再完成弹性公网IP绑定操作,若已绑定弹性公网IP请跳过该步骤。 5. 运行Xshell。 6. 选择“新建会话”。 7. 名称:选择你认为合适的会话名称,用于方便管理。 8. 协议:使用默认的“SSH”。 9. 主机:输入主机所绑定的弹性公网IP。 10. 端口号:使用默认的“22”,详见下图: 单击“Session”。 11. 单击“连接”,按照提示步骤,分别完成登录用户(默认为root)、密码的输入并保存,即可完成远程登录操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        登录集群
        登录集群节点
      • 开通实例
        该任务用于指导用户开通实例。 本文档用于指导如何在非独立部署(依赖统一PaaS平台)的环境上开通TelePG实例。 前提条件 已部署好telepg后端控制台。 已部署好telepg前端。 已在统一PaaS平台上配置了Postgresql数据库应用的资源池版本。 操作步骤 1. 使用系统管理员登录到统一PaaS平台。 2. 单击管控面板 ,在左侧导航树上选择系统管理与审批 > 系统配置 > 组件应用管理 ,进入组件应用管理页面。 3. 在搜索框中搜索postgresql ,单击更多 > 资源板池, 在对应资源池上配置telepg的后端服务访问地址。 4. 统一PaaS平台上存在租户、租户管理员(租户拥有者)。 1. 租户管理员:使用系统管理员登录到统一PaaS平台,选择管理面板 > 租户管理 > 账号管理 ,新建账号。 2. 租户:使用系统管理员登录到统一PaaS平台,选择管理面板 > 租户管理 > 租户管理 ,新建租户,设置上面创建的用户为租户拥有者。 5. 对应租户对应资源池上已配置了可用的主机,且配置的主机的系统ssh账号有sudo权限。 如果使用非物理机模式开通组件,则可以忽略此步骤。 新增主机:使用租户管理员(租户拥有者)登录到统一PaaS平台,单击管理面板 ,选择我的资源 > 我的主机 ,单击新增 ,新增主机。 6. 对应租户对应资源池上已配置了虚拟ip。 7. 如果使用非物理机模块开通组件,则可以忽略此步骤(2) 如果没有配置虚ip,使用物理机开通时,只能开通基础版的pg实例,无法开通高可用版(一主一从)。 新增虚拟ip:使用租户管理员(租户拥有者)登录到统一PaaS平台,单击管理面板 ,选择我的资源 > 虚IP资源管理 ,单击新增 ,新增虚拟ip。 8. 对应资源池内的Postgresql组件已上架。 使用系统管理员登录到paas平台,单击管理面板 ,选择资源池管理> 池内组件上架 ,单击上架 ,上架待开通的telepg实例。 9. 开通实例 1. 使用租户管理员(租户拥有者) 登录到统一PaaS平台,单击控制台。 2. 在PaaS平台上,选择组件产品 > RDSPostgresql版。 3. 在Postgresql数据库开通页面上,选择资源池、网络、版本、系列、实例规格,录入实例名称和实例的root用户密码、以及磁盘大小,开启高级设置,单击检测 。(1) 开通时的版本是根据postgresql的后端资源池版本确定的。这里只会显示一个小于等于后端资源池版本的最新的版本 (2) 不开启高级设置,则使用新建虚机的方式开通实例 (3) 如果不手工选择主机,则检测成功后,会自动分配主机,如果分配的主机不是用户想要的,则可以重新选择主机。 4. 单击订购 ,弹出订购预览对话框,查看相关的产品和部署信息。 5. 单击确认,提示提交成功,会生成一个开通的订单。 6. 查看订单详情。 1. 单击管理面板,选择订单中心> 我的订单 ,查看生成的订单。若订单处理失败,则可以单击订单上的更多 > 作废,作废此订单,释放响应端口。 2. 单击订单详情,可查看订单详情。 3. 单击订单流程,可查看订单的各个流程。 7. 查看工单详情 1. 单击管理面板 ,选择订单中心> 我的订单,可查看已开通生成的订单。 2. 进入我的工单页面,单击工单ID,可查看工单详情,包含参数信息、施工过程和施工流程。 3. 若开通失败时,可单击查看流程,查看具体的报错信息。 4. 若开通失败,可单击更多 > 重新施工 。 paas平台施工时默认会进行3次重试,若3次都重试失败,才会将工单的施工结果标注为失败。 8. 查看开通的实例 1. 选择管理面板 ,单击我的云服务 > 我的组件,即可查看已开通的实例信息。 2. 单击控制台,可跳转至TelePG控制台。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        管理平台使用手册
        开通实例
      • 概述
        本文介绍标签管理的应用场景和使用说明。 标签通常用于标识云服务资源,基于标签,您可以实现对资源的便捷搜索和整理。 标签由键值对(KeyValue)组成,您可以为资源绑定和删除标签,可以在控制台中通过标签筛选快速查找资源。 应用场景 当项目中云资源较多,或当前资源信息不足以有效地为资源分组归类时,可以通过为资源添加不同维度(例如所属业务、开发团队等)的标签,实现资源分类。 基于标签筛选功能,您还可以快速查找一组资源,进行批量管理。 例如: 在团队管理中,为资源添加团队标签(如department: R&D),标识所属开发部门,方便企业快速定位云资源所属部门。 在项目管理中,批量为业务1中所有文件系统实例绑定业务标签business:service1,并通过标签筛选,快速完成对业务1中文件系统实例的日常维护。 使用说明 每个资源最多可绑定50个标签。 每个资源下的标签键是唯一的,不可绑定相同标签键。 每个资源下的标签键对应的标签值唯一,如修改已有标签键对应的标签值,新标签值将会覆盖旧标签值。例如,将文件系统实例的business:service1的标签值service1,修改为service2,则新标签business: service2将覆盖旧标签business:service1。 标签键值命名规则: 字段 规则 标签键 不能为空 首字符不能为空格 长度不超过128个字符 标签值 不能为空 首字符不能为空格 长度不超过128个字符
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        标签管理
        概述
      • 功能特性
        本文介绍弹性文件服务的功能特性。 多客户端共享访问 支持多个计算实例挂载同一文件系统,实现共享访问,适用于多种应用场景。 支持云主机、物理机、容器等多种计算服务挂载访问。 多协议配置 天翼云弹性文件系统支持NFSv3/v4.1、CIFS(SMB2.1/SMB3.0)协议,用户能够在创建文件系统时指定协议类型。 通过标准POSIX接口访问数据,无缝适配主流应用程序进行数据读写。 基础管理 支持在控制台进行创建、搜索、查看、扩容、删除、续订等基本文件系统管理操作。 分钟级别快速扩容,用户可根据实际需要对文件系统进行在线扩容,扩容过程不影响业务使用。 同地域跨VPC、跨AZ访问 通过给文件系统添加多个VPC,可将文件系统挂载至不同VPC的计算实例上,实现同地域跨VPC访问。 通过给文件系统和其它AZ的计算实例添加到同一VPC中,实现同地域跨AZ挂载。 权限管理 权限组是一种白名单机制,通过创建权限组和权限组规则,授予不同网段或IP的客户端不同的访问权限。 支持统一身份认证(Identity and Access Management,简称IAM)服务,帮助您安全的控制云服务和资源的访问及操作权限。 监控告警 依托天翼云云监控服务,提供基础性能指标监控和容量指标监控,了解文件系统运行情况。 支持对重要指标设置自定义告警规则,可及时知晓数据异常并处理。 支持一键告警,对容量使用率默认阈值一键开启告警通知,保证业务正常进行。
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        功能特性
      • 如何使用翼MR
        本章节主要介绍翼MapReduce基本使用流程。 天翼云大数据平台 翼MapReduce是一个在云上部署和管理Hadoop系统的服务,一键即可开通部署Hadoop、HBase、Hive、Spark、Flink、Doris等大数据集群。翼MapReduce提供租户完全可控的企业级大数据集群云服务,轻松运行Hadoop、HBase、Hive、Spark、Flink、Doris等大数据组件。 翼MapReduce使用简单,通过使用在集群中连接在一起的多台计算机,您可以运行各种任务,处理或者存储(PB级)巨量数据。翼MapReduce的基本使用流程如下: 1. 创建集群:进入天翼云官网翼MapReduce服务订购页面,选择需要的业务场景,创建集群。用户可以通过业务场景简化大数据集群组合,可以用于数据湖、数据服务、云搜索、数据分析等业务需要。选择完业务场景与服务后,用户可以进一步指定集群的操作系统、主机类型、CPU类型、实例规格、实例数量、数据盘类型(普通IO、高IO、超高IO与通用型SSD多款类型)等。 2. 管理集群:上述集群购买部署完成后,翼MapReduce为用户提供企业级的大数据集群的统一管理平台翼MR Manager,帮助用户快速掌握集群服务及主机的健康状态,通过图形化的指标监控及时获取系统的关键信息,根据实际业务的性能需求修改服务属性的配置,对集群、服务、角色实例等实现一键启停等操作。 3. 创建翼MapReduce操作用户:主用户可以使用统一身份认证服务(Identity and Access Management,简称IAM)来创建子用户,通过精细的权限管理,在翼MR控制台给子用户赋予不同的角色权限。 4. 退订:如果您不想继续使用已有集群,可以通过天翼云官网的订单管理页面,对集群进行退订操作。 5. 续订:如果您的集群即将到期,可以通过续订操作延长集群使用期限。 6. 配置升级:当master、core或者core节点ECS实例的规格(vCPU和内存)无法满足您的业务需求时,您可以使用配置升级功能提升ECS实例规格。 7. 节点扩容:当master、core或task节点组内的资源无法满足您的业务需求时,您可以使用节点扩容功能增加ECS实例数量。 8. 节点缩容:当task节点组内的资源超出您的业务需求时,您可以使用节点缩容功能减少实例数量。 9. 新增节点组:当存量core或task节点组的计算或存储资源无法满足您的业务需求时,您可以使用新增节点组功能增加ECS实例。 10. 磁盘扩容:当master、core或task节点的数据存储空间无法满足您的业务需求时,您可以使用磁盘扩容功能增加云硬盘数据盘的空间。
        来自:
        帮助文档
        翼MapReduce
        快速入门
        如何使用翼MR
      • 使用ODBC连接数据库
        本节介绍了如何使用ODBC连接云数据库GaussDB 数据库。 ODBC(Open Database Connectivity,开放数据库互连)是由Microsoft公司基于X/OPEN CLI提出的用于访问数据库的应用程序编程接口。应用程序通过ODBC提供的API与数据库进行交互,在避免了应用程序直接操作数据库系统的同时,增强了应用程序的可移植性、扩展性和可维护性。 云数据库GaussDB 目前在以下环境中提供对ODBC3.5的支持。 表 ODBC支持平台 操作系统 平台 EulerOS 2.5 x8664位 EulerOS 2.8 ARM64位 Windows 7 x8632位 Windows 7 x8664位 Windows Server 2008 x8632位 Windows Server 2008 x8664位 UNIX/Linux系统下的驱动程序管理器主要有unixODBC和iODBC,在这选择驱动管理器unixODBC2.3.0作为连接数据库的组件。 Windows系统自带ODBC驱动程序管理器,在控制面板>管理工具中可以找到数据源(ODBC)选项。 说明: 当前数据库ODBC驱动基于开源版本,对于自研的数据类型,tinyint、smalldatetime、nvarchar2在获取数据类型的时候,可能会出现不兼容。 前提条件 已下载Linux版本的ODBC驱动包和Windows版本的ODBC驱动包, Linux环境下,开发应用程序要用到unixODBC提供的头文件(sql.h、sqlext.h等)和库libodbc.so。这些头文件和库可从unixODBC2.3.0的安装包中获得。 已下载开源unixODBC代码文件,支持版本为2.3.0,下载地址: ttps://sourceforge.net/projects/unixodbc/files/unixODBC/2.3.0/unixODBC2.3.0.tar.gz/download 将提供的ODBC DRIVER(psqlodbcw.so)配置到数据源中便可使用。配置数据源需要配置“odbc.ini”和“odbcinst.ini”两个文件(在编译安装unixODBC过程中生成且默认放在“/usr/local/etc”目录下),并在服务器端进行配置。
        来自:
        帮助文档
        云数据库GaussDB
        快速入门
        使用驱动连接实例
        使用ODBC连接数据库
      • AI风险概览
        通过控制台“AI风险概览”为您呈现推理安全、语料安全、环境安全的风险态势。 操作场景 AI风险概览实时为您呈现大模型合规态势,支持大模型的数据语料风险运营、推理业务风险运营和环境安全风险运营,实时呈现大模型的风险概览,助您识别大模型风险和潜在威胁。 推理安全:基于WAF攻击日志和访问日志,分析呈现大模型接口的调用请求次数、调用请求命中防护策略数、以及命中防护策略数排名前5的推理模型域名和数量、提示词注入的攻击分布、推理模型攻击类型分布等。 语料安全:基于DSC告警日志,分析呈现大模型中的语料风险类别和数量、TOP5语料风险资产分布等。 环境安全:基于态势感知(专业版)基线检查、漏洞管理、告警管理功能,分析呈现当前工作空间的TOP5合规检查风险、TOP5漏洞风险、TOP5告警和最近攻击列表。 前提条件 推理安全 依赖Web应用防火墙 WAF服务,在使用AI风险概览的推理安全功能模块前需要确保Web应用防火墙 WAF服务在有效使用期内,且仅WAF云模式支持。 语料安全 依赖数据安全中心DSC服务,在使用AI风险概览的语料安全功能模块前需要确保大模型数据安全防护在有效使用期内。 已经在态势感知(专业版)控制台接入“WAF攻击日志”,“WAF访问日志”和“DSC告警日志”。接入云服务日志请参见接入日志数据。 仅态势感知(专业版)专业版支持。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        态势感知
        AI风险概览
      • 配置常见关系数据库目的端参数
        本章节主要介绍配置常见关系数据库目的端参数。 常见关系数据库作为目的端包括云数据库 MySQL、云数据库 SQL Server、云数据库 PostgreSQL。 将数据导入到以上数据源时,目的端作业参数如下表所示。 表 常见关系型数据库作为目的端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 模式或表空间 待写入数据的数据库名称,支持自动创建Schema。单击输入框后面的按钮可选择模式或表空间。 schema 基本参数 自动创表 只有当源端为关系数据库时,才有该参数。表示写入表数据时,用户选择的操作: 不自动创建:不自动建表。 不存在时创建:当目的端的数据库没有“表名”参数中指定的表时,CDM会自动创建该表。如果“表名”参数配置的表已存在,则不创建,数据写入到已存在的表中。 先删除后创建:CDM先删除“表名”参数中指定的表,然后再重新创建该表。 不自动创建 基本参数 表名 写入数据的目标表名,单击输入框后面的按钮可进入表的选择界面。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 table 基本参数 导入开始前 导入数据前,选择是否清除目的表的数据: 不清除:写入数据前不清除目标表中数据,数据追加写入。 清除全部数据:写入数据前会清除目标表中数据。 清除部分数据:需要配置“where条件”参数,CDM根据条件选择性删除目标表的数据。 清除部分数据 基本参数 where条件 “导入开始前”参数选择为“清除部分数据”时配置,配置后导入前根据where条件删除目的表的数据。 age > 18 and age < 60 基本参数 约束冲突处理 当迁移数据出现冲突时的处理方式。 insert into:当存在主键、唯一性索引冲突时,数据无法写入并将以脏数据的形式存在。 replace into:当存在主键、唯一性索引冲突时,会先删除原有行、再插入新行,替换原有行的所有字段。 on duplicate key update,当存在主键、唯一性索引冲突时,目的表中约束冲突的行除开唯一约束列的其他数据列将被更新。 insert into 基本参数 loader线程数 每个loader内部启动的线程数,可以提升写入并发数。 说明 不支持“约束冲突处理”策略为“replace into”或“on duplicate key update”的并发场景。 1 高级参数 先导入阶段表 如果选择“是”,则启用事务模式迁移,CDM会自动创建临时表,先将数据导入到该临时表,导入成功后再通过数据库的事务模式将数据迁移到目标表中,导入失败则将目的表回滚到作业开始之前的状态。 默认为“否”,CDM直接将数据导入到目的表。这种情况下如果作业执行失败,已经导入到目标表中的数据不会自动回滚。 说明 如果“导入开始前”选择“清除部分数据”或“清除全部数据”,CDM的事务模式不会回滚已经删除的数据。 否 高级参数 扩大字符字段长度 选择自动创表时,迁移过程中可将字符类型的字段长度扩大为原来的3倍,再写入到目的表中。如果源端数据库与目的端数据库字符编码不一样,但目的表字符类型字段与源表一样,在迁移数据时,可能会有出现长度不足的错误。 说明 当启动该功能时,也会导致部分字段消耗用户相应的3倍存储空间。 否 高级参数 使用非空约束 当选择自动创建目的表时,如果选择使用非空约束,则目的表字段的是否非空约束,与原表具有相应非空约束的字段保持一致。 是 高级参数 导入前准备语句 执行任务之前率先执行的SQL语句。目前向导模式仅允许执行一条SQL语句。 create temp table 高级参数 导入后完成语句 执行任务之后执行的SQL语句,目前仅允许执行一条SQL语句。 merge into
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置常见关系数据库目的端参数
      • 云监控服务Java SDK
        本文主要介绍云监控服务Java SDK接入指南。 一、前言 安装使用JAVA SDK可以帮助开发者快速接入并使用天翼云的监控服务相关功能。 二、使用条件 2.1 先决条件 用户需要具备以下条件才能够使用LTS SDK Java版本: 1. 开通了天翼云的云监控服务。 2. 已获取AccessKey 和 SecretKey。 3. 已安装JDK1.8及以上环境。 2.2 下载及安装 安装jar包有如下两种方式: 1、源码编译:下载 ctyunmonitorjavasdk1749785225503.zip 压缩包,放到相应位置后并解压,把包放在本地目录: 。如果您想直接使用SDK,可以不做修改,直接使用SDK源码,示例代码为example/SamplePutlogs.java。 1. 把SDK源码构建成jar包,可通过构建工具构建 2. 把生成的jar包引入本地maven仓库。可以通过例如idea的maven工具install 到maven仓库。或者通过命令构建安装(在jar包所在目录执行下面命令)。 plaintext // 构建 jar 命令(保证已经到 ctyunmonitorjavasdk1749785225503 工程根目录) mvn clean package am amd Dmaven.test.skiptrue Dcheckstyle.skiptrue // 将生成的jar包引入本地maven仓库 mvn install:installfile Dfile./target/ctyunjavasdk1.0.0SNAPSHOT.jar DgroupIdcom.ctyun DartifactIdctyunjavasdk Dversion1.0.0SNAPSHOT Dpackagingjar 其中: Dfile 指定 jar 文件的路径。 2、直接联系天翼云客户经理获取jar包,拿到 jar 包后使用如下命令将 jar 包引入本地maven仓库 plaintext // 将生成的jar包引入本地maven仓库 mvn install:installfile Dfilexxx/ctyunjavasdk1.0.0SNAPSHOT.jar DgroupIdcom.ctyun DartifactIdctyunjavasdk Dversion1.0.0SNAPSHOT Dpackagingjar 其中: Dfile 指定 jar 文件的路径。 执行上述命令后,如果成功会出现如下提示:
        来自:
        帮助文档
        云监控服务
        API参考
        如何调用API
        SDK接入
        云监控服务Java SDK
      • 退订站点
        本文将为您介绍站点的退订流程。 前提条件 已经开通网络服务站点,具体操作说明详见开通站点。 网络服务站点无在途清单。 操作步骤 1. 登录公共传输通道控制台,在左侧导航栏中,单击【站点信息】。 2. 在站点列表页面,选择目标站点,在操作栏中单击【退订】按钮。 3. 在退订页面,确认退订站点信息无误欧,单击【确认】按钮。 注意 站点完成退订后,站点列表页中将不再展示该站点信息。
        来自:
        帮助文档
        公共传输通道
        用户指南
        站点信息
        退订站点
      • CC攻击防御最佳实践简介
        本节简单介绍WAF和CC攻击。 什么是Web应用防火墙? Web应用防火墙(Web Application Firewall,简称WAF),针对Web攻击进行防护,例如 :XSS(跨站脚本攻击)、SQL注入、Webshell上传等,除此之外,还提供了CC攻击的防护,CC攻击是攻击者借助代理服务器生成指向受害主机的合法请求,是拒绝服务攻击的一种类型。 如何判断是否遭受CC攻击? 当客户发现网站处理速度下降,网络带宽占用过高时,很有可能已经遭受CC攻击,此时可查看Web服务器的访问日志或网络连接数量,如果访问日志或网络连接数量显著增加,则可确定遭受CC攻击,可以按照以下策略进行配置,利用WAF阻断CC攻击,保障网站业务的正常运行。 说明 WAF防护应用层流量的拒绝服务攻击,适合防御HTTP Get攻击等。 WAF服务并不提供针对四层及以下流量的防护,例如:ACK Flood、UDP Flood等攻击,这类攻击建议使用DDoS及IP高防服务进行防护。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        最佳实践
        CC攻击防御最佳实践
        CC攻击防御最佳实践简介
      • 以SkyWalking方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过SkyWalking SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 SkyWalking是一款广受欢迎的国产APM(Application Performance Monitoring,应用性能监控)产品,主要针对微服务、Cloud Native和容器化(Docker、Kubernetes、Mesos)架构的应用。SkyWalking的核心是一个分布式追踪系统。 接入步骤 1、安装Agent plaintext dotnet add package SkyAPM.Agent.AspNetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供v3版本接入点(Skywalking 8.)的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、设置环境变量 plaintext ASPNETCOREHOSTINGSTARTUPASSEMBLIESSkyAPM.Agent.AspNetCore SKYWALKINGSERVICENAME 4、配置Agent属性 plaintext 安装SkyAPM.DotNet.CLI工具 plaintext dotnet tool install g SkyAPM.DotNet.CLI plaintext 生成配置文件skyapm.json plaintext dotnet skyapm config sampleapp 192.168.0.1:11800 plaintext skyapm.json文件内容如下 plaintext {   "SkyWalking": {     "ServiceName":  ,     "Namespace": "",     "HeaderVersions": [       "sw8"     ],     "Sampling": {       "SamplePer3Secs": 1,       "Percentage": 1.0     },     "Logging": {       "Level": "Information",       "FilePath": "logsskyapm{Date}.log"     },     "Transport": {       "Interval": 3000,       "ProtocolVersion": "v8",       "QueueSize": 30000,       "BatchSize": 3000,       "gRPC": {         "Servers":  ,         "Timeout": 10000,         "ConnectTimeout": 10000,         "ReportTimeout": 600000,         "Authentication": "Bearer  "       }     }   } } 属性说明: :服务名称 :获取的接入点 :获取的接入点鉴权令牌 Logging:日志记录与调试。Level表示日志级别,FilePath表示日志文件保存的位置以及文件名称 运行程序时,Agent的日志会记录在Logging设置的文件中,可以参考log文件进行调试和修改。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以SkyWalking方式接入
      • 功能总览
        本文介绍DRDS的功能总览。 DRDS支持功能如下所示: 功能分类 功能名称 功能描述 实例管理 实例管理 包括一键检测、退订、续订、规格变更等功能。具体使用方法,请参考实例管理。 实例管理 绑定/解绑弹性IP 通过绑定弹性IP,实现通过公共网络访问数据库实例。具体方法,请参考绑定/解绑弹性IP。 实例管理 修改安全组 通过修改安全组,对DRDS实例的出入流量进行访问控制。具体方法,请参考修改安全组。 实例管理 分组管理 包括属性设置、关联MySQL管理、DML审计、IP黑白名单等功能。具体使用方法,请参考分组管理。 实例管理 节点管理 包括启动、停止节点、属性设置、命令行等功能。具体使用方法,请参考节点管理。 实例管理 schema管理 包括创建、导出、删除schema等功能。具体使用方法,请参考schema管理。 实例管理 用户管理 支持用户创建、删除、设置权限等功能。具体使用方法,请参考用户管理。 实例管理 角色管理 支持角色创建、删除、设置权限等功能。具体使用方法,请参考角色管理。 实例管理 关联MySQL管理 进行关联、删除MySQL,支持直接添加天翼云购买的MySQL实例,请参考关联MySQL管理。 实例管理 DDL审计 介绍了支持的DDL审计规则及默认值。具体使用方法,请参考DDL审计。 实例监控 实例监控 介绍了实例监控页面的监控指标。具体使用方法,请参考实例监控。 统计分析 统计分析 包括SQL执行分析、慢SQL分析、事务统计等功能。具体使用方法,请参考统计分析。 运维工具 运维工具 包括数据库连接查询、数据库锁表查询等功能。具体使用方法,请参考运维工具。 全局索引 全局索引 包括全局索引的核心特性,以及设置实例属性、管理关联DBProxy、管理节点日志和状态等功能。具体使用方法,请参考全局索引。 操作日志 操作日志 支持查看目标实例的操作日志,具体使用方法,请参考操作日志。 登录数据库 通过DMS登录DRDS实例 支持使用数据管理服务DMS登录DRDS实例,具体使用方法,请参考通过DMS登录DRDS实例。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        功能总览
      • 修改Topic
        介绍分布式消息服务Kafka修改主题功能的操作内容。 场景描述 Kafka修改主题的场景描述如下: 数据分区调整:当数据负载不均衡或者需要重新分配数据分区时,可以通过修改主题来调整数据分区的数量和分布。管理员可以根据实际情况修改主题的配置,重新分配分区,以实现更好的负载均衡和性能优化。 副本分配策略调整:Kafka的主题可以配置多个副本以实现数据冗余和高可用性。当需要调整副本的分配策略时,可以修改主题的配置,更改副本的分布方式,以满足不同的需求,如提高数据的可靠性或者减少网络传输的开销。 数据保留策略变更:Kafka支持根据时间或者大小等条件来设置数据的保留策略。当需要修改主题的数据保留策略时,可以修改主题的配置,调整数据的保留时间或者保留的数据大小,以便根据实际需求来管理数据的存储和清理。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后,选择指定的Topic点击其右侧“编辑”按钮。 (5)点击“编辑”后,在弹窗中修改具体参数,详见下表:Topic参数说明。 表:Topic参数说明 参数 参数说明 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic
      • 资源池管理
        新建代理 步骤 1 在资源池列表中找到目标资源池,单击资源池名称,进入“代理列表”页面。 代理列表可显示代理机状态(包括空闲中、停用、下线、运行中、删除中)、内存使用率、可用硬盘等信息。 步骤 2 单击“新建代理”,页面弹出对话框。 步骤 3 根据需要完成参数配置。 配置主机所需的网络环境。 配置项 配置说明 自动安装JDK 主机需要具备JAVA8+环境。开启此开关后,将为主机自动安装JDK。安装的版本为jdk1.8.0202,指定安装目录为“/usr/local”。若关闭此开关,则需手动安装。如何安装JAVA8+? 自动安装Git 主机需要具备Git环境。开启此开关后,将为主机自动安装Git。自动安装使用yum y install git 或aptget install git 命令安装,需要用户确认安装主机是否有适合的yum源。若关闭此开关,则需手动安装。如何安装Git? 自动安装Docker 主机需要具备Docker环境。开启此开关后,将为主机自动安装Docker。安装的版本为docker18.06.1ce,指定安装目录为“/usr/local”。安装完成后将自动注册服务并启动docker服务。若关闭此开关,则需手动安装。如何安装Docker? 配置身份认证信息。 配置项 配置说明 AK Access Key Id。在通过“我的凭证 > 访问密钥”下载的访问密钥文件中获取。 SK Secret Access Key。在通过“我的凭证 > 访问密钥”下载的访问密钥文件中获取。 代理名称 代理(Agent)的名称,同一台主机不可以安装相同名称的代理。请根据实际情况填写。为了方便管理,命名建议清晰,建议关联代理机IP,如:10.10.10.10agent01。 代理工作空间 代理在主机上运行的工作目录,任务执行的工作空间,同一台主机的不同代理不可以使用同样的代理工作空间。请根据实际情况填写。为了方便管理,建议关联数据盘,如:/opt/cloud/agent01。 生成命令。 完成参数配置,勾选“我已阅读并同意”,单击“生成命令”,命令框中自动生成安装代理命令。 单击“复制命令”,复制此命令。 步骤 4 登录主机,执行上一步复制的安装命令,当命令终端显示如下提示时,表示安装结束。 安装成功回显 步骤 5 返回“代理列表”页面,关闭弹窗。 等待1030秒,刷新页面,在列表中可查看到已经安装的代理实例状态为“空闲中”,表示安装成功。
        来自:
        帮助文档
        软件开发生产线CodeArts
        用户指南
        租户设置
        资源池管理
      • 新建汇总表
        参数说明 说明 所属主题 单击“选择主题”,选择表所属的主题域分组、主题域和业务对象。 表名称 设置表名称。只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文和英文字母开头。 表英文名称 设置表英文名称。只能包含英文字母、数字和下划线,且以英文字母开头。 统计维度 选择统计维度。在下拉列表中只会显示来源于衍生指标的统计维度。如果下拉列表中没有统计维度,请参考 数据连接类型 请选择和维度表、事实表相同的数据连接类型。 数据连接 维度建模建议使用统一的数据连接。 数据库 选择数据库。 队列 DLI队列。该参数仅DLI连接类型有效。 Schema DWS或POSTGRESQL的模式。该参数在DWS或POSTGRESQL连接类型有效。 表类型 DWS连接类型的表支持以下表类型: DWSROW:行存表。行存储是指将表按行存储到硬盘分区上。 DWSCOLUMN:列存表。列存储是指将表按列存储到硬盘分区上。 MRSHIVE仅支持HIVETABLE类型。 DISTRIBUTE BY 该参数仅DWS连接类型有效。DWS表当前支持复制(Replication)和散列(Hash)两种分布策略。用户可选取多个字段。 REPLICATION方式:在每一个DN节点上存储一份全量表数据。这种存储方式的优点是每个DN上都有此表的全量数据,在join操作中可以避免数据重分布操作,从而减小网络开销;缺点是每个DN都保留了表的完整数据,造成数据的冗余。一般情况下只有较小的维度表才会定义为Replication表。 HASH方式:采用这种分布方式,需要为用户表指定一个分布列(distribute key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。对于Hash分布表,在读/写数据时可以利用各个节点的IO资源,大大提升表的读/写速度。一般情况下大表(1000000条记录以上)定义为Hash表。 资产责任人 在下拉框中选择资产责任人,可以手动输入名字或直接选择已有的责任人。 描述 描述信息。支持的长度为1~600个字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据集市建设
        新建汇总表
      • 实例规格变更问题
        本文主要介绍实例规格变更问题。 Kafka扩容/缩容会影响业务吗? Kafka扩容带宽/代理个数/存储空间,都不会影响业务的使用。 Kafka扩容代理规格,在扩容过程中,节点会重启,可能造成闪断。若Topic为单副本,扩容期间无法对该Topic生产消息或消费消息。 表 变更实例规格的影响 变更配置类型 影响 基准带宽/代理数量 扩容基准带宽/代理数量不会影响原来的代理,业务也不受影响。 扩容基准带宽/代理数量时,系统会根据当前磁盘大小进行相应比例的存储空间扩容。例如扩容前实例的代理数为3,每个代理的磁盘大小为200GB,扩容后实例的代理数为10,此时代理的磁盘大小依旧为200GB,但是总磁盘大小为2000GB。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过修改Kafka分区平衡,实现将原有Topic分区的副本迁移到新代理上。 存储空间 扩容存储空间有次数限制,只能扩容20次。 扩容存储空间不会影响业务。 代理规格 若Topic为单副本,扩容/缩容期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,扩容/缩容代理规格不会造成服务中断,但会逐个节点重启,负载会转移到剩余节点上,建议您在业务低峰期扩容/缩容。 扩容/缩容代理规格的过程中,节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: a. 生产客户端为Kafka开源客户端时,检查是否配置retries和retry.backoff.ms参数。建议参数值分别配置为:retries10,retry.backoff.ms1000。 b. 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(10, Time.seconds(20))); 若实例已创建的分区数总和大于待缩容规格的实例分区数上限,此时无法缩容。不同规格配置的实例分区数上限不同,具体请参见产品规格。例如:kafka.4u8g.cluster3的实例,已创建800个分区,您想把此实例的规格缩容为kafka.2u4g.cluster3,kafka.2u4g.cluster3规格的实例分区数上限为750,此时无法缩容。 变更代理规格的时长和代理数量有关,单个代理的变更时长一般在5~10分钟,代理数量越多,规格变更时间越长。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例规格变更问题
      • 审计ECS自建数据库
        步骤二:添加数据库并开启审计 购买数据库安全审计后,您需要先将目标数据库添加至数据库安全审计实例并开启该数据库的审计功能。 1. 登录管理控制台。 2. 在页面上方选择“区域”后,单击页面左上方的,选择“安全与合规 > 数据库安全服务”,进入数据库安全审计“总览”界面。 3. 在左侧导航树中,选择“数据库列表”,进入数据库列表界面。 4. 在“选择实例”下拉列表框中,选择需要添加数据库的实例,并单击“添加数据库”。 5. 在弹出的对话框中,如图所示。 6. 单击“确定”,该数据库添加到数据库列表中,且“审计状态”为“已关闭”。 7. 在该数据库所在行的“操作”列,单击“开启”,开启审计功能。 步骤三:添加Agent 1. 在数据库所在行的“Agent”列,单击“添加Agent”,如图所示。 2. 在弹出的对话框中,选择添加方式。在数据库端添加Agent 3. 单击“确定”,Agent添加成功。 步骤四:添加安全组规则 Agent添加完成后,您需要为数据库安全审计实例所在的安全组添加入方向规则TCP协议(8000端口)和UDP协议(70007100端口),使Agent与审计实例之间的网络连通,数据库安全审计才能对添加的数据库进行审计。 如果该安全组已配置安装节点的入方向规则,请执行步骤五:安装Agent。 如果该安全组未配置安装节点的入方向规则,请按照本节内容进行配置。 注意 安全组规则也可以在成功安装Agent后进行添加。 1. 在数据库列表的上方,单击“添加安全组规则”。 2. 在弹出的弹框中,记录数据库安全审计实例的“安全组名称”(例如default),如图所示。 3. 单击“前往处理”,进入“安全组”界面。 4. 在列表右上方的搜索框中输入安全组“default”后,单击或按“Enter”,列表显示“default”安全组信息。 5. 单击“default”,进入“基本信息”页面。 6. 选择“入方向规则”页签,单击“添加规则”,如图所示。 7. 在“添加入方向规则”对话框中,为安装节点IP添加TCP协议(端口为8000)和UDP协议(端口为70007100)规则,如图所示。 8. 单击“确定”,完成添加入方向规则。
        来自:
        帮助文档
        数据库安全
        最佳实践
        审计ECS自建数据库
      • 认证策略
        本章节主要介绍认证策略。 大数据平台用户需要对用户进行身份认证,防止不合法用户访问集群。安全模式或者普通模式的集群均提供认证能力。 安全模式 安全模式的集群统一使用Kerberos认证协议进行安全认证。Kerberos协议支持客户端与服务端进行相互认证,提高了安全性,可有效消除使用网络发送用户凭据进行模拟认证的安全风险。集群中由KrbServer服务提供Kerberos认证支持。 Kerberos用户对象 Kerberos协议中,每个用户对象即一个principal。一个完整的用户对象包含两个部分信息:用户名和域名。在运维管理或应用开发的场景中,需要在客户端认证用户身份后才能连接到集群服务端。系统操作运维与业务场景中主要使用的用户分为“人机”用户和“机机”用户。二者主要区别在于“机机”用户密码由系统随机生成。 Kerberos认证 Kerberos认证支持两种方式:密码认证及keytab认证。认证有效时间默认为24小时。 密码认证:通过输入用户正确的密码完成身份认证。主要在运维管理场景中使用“人机”用户进行认证,命令为kinit 用户名 。 keytab认证:keytab文件包含了用户principal和用户凭据的加密信息。使用keytab文件认证时,系统自动使用加密的凭据信息进行认证无需输入用户密码。主要在组件应用开发场景中使用“机机”用户进行认证。keytab文件也支持在kinit命令中使用。 普通模式 普通模式的集群不同组件使用原生开源的认证机制,不支持kinit认证命令。FusionInsight Manager(含DBService、KrbServer和LdapServer)使用的认证方式为用户名密码方式。组件使用的认证机制如下表所示。 表 组件认证方式一览表 服务 认证方式 ClickHouse simple认证 Flume 无认证 HBase WebUI:无认证 客户端:simple认证 HDFS WebUI:无认证 客户端:simple认证 Hive simple认证 Hue 用户名密码认证 Kafka 无认证 Loader WebUI:用户名密码认证 客户端:无认证 Mapreduce WebUI:无认证 客户端:无认证 Oozie WebUI:用户名密码认证 客户端:simple认证 Spark2x WebUI:无认证 客户端:simple认证 Storm 无认证 Yarn WebUI:无认证 客户端:simple认证 ZooKeeper simple认证 认证方式解释如下: “simple认证”:在客户端连接服务端的过程中,默认以客户端执行用户(例如操作系统用户“root”或“omm”)自动进行认证,管理员或业务用户不显式感知认证,不需要kinit完成认证过程。 “用户名密码认证”:使用集群中“人机”用户的用户名与密码进行认证。 “无认证”:默认任意的用户都可以访问服务端。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全概述
        认证策略
      • 查看文件系统
        文件系统详情页 点击文件系统名称,可以跳转至文件系统详情页,查看更多文件系统信息。 基本信息 文件系统基础信息,与文件系统列表信息一致。 挂载信息 页面中部展示未关联VPC终端节点服务的挂载信息,仅可用于除物理机外的计算服务挂载使用,如云主机、容器等。若使用物理机挂载访问,必须在添加VPC时选择创建终端节点(VPCE),在页面下方VPC列表中查看VPCE挂载信息。 NFS文件系统仅支持Linux操作系统挂载,其详情页仅展示适用于Linux 的共享路径,点击复制按钮可复制完整挂载命令。 请注意将挂载命令中“/localfolder”替换为您在客户端创建的挂载目录。 若要使用IPv6访问文件系统,需要将VPC开启IPv6。 VPC页签 在详情页VPC页签下,可以查看文件系统绑定的VPC、权限组、VPC终端节点及对应挂载信息。支持按VPC名称在VPC列表中进行搜索。可以进行添加VPC、解绑VPC、更换权限组等操作。 字段 说明 VPC名称/ID 文件系统添加的VPC,要挂载的计算服务归属的VPC必须添加到文件系统VPC列表中。通过添加多个VPC,可实现文件系统跨VPC访问。 单文件系统列表可添加20个VPC。 文件系统退订前必须解绑所有VPC。 权限组 文件系统VPC绑定的权限组。同一个文件系统,一个VPC只能绑定一个权限组。 VPC终端节点 在创建文件系统或添加VPC时选择创建终端节点(VPCE),则会在此处展示对应的VPCE。点击可跳转至VPCE详情页。 注意 请不要删除/修改此VPCE,否则会导致VPCE挂载信息失效,文件系统将无法访问。 VPCE挂载信息 若添加VPC时创建终端节点(VPCE),则会在此处展示对应的挂载地址,物理机挂载访问必须使用此挂载信息。点击复制按钮即可复制完整挂载命令。 注意 VPCE挂载信息返回通常需要1~3分钟。若长时间没有返回挂载地址,请提交工单联系技术人员排查。 不支持双栈VPCE,无法通过IPv6访问物理机。 操作 更换权限组:可以更换VPC绑定的权限组。解绑:解绑VPC及权限组。 注意 当添加VPC/创建文件系统时选择创建终端节点,若操作“更换权限组”将导致客户端与文件系统网络断开,造成访问中断/客户端卡死。 当添加VPC/创建文件系统时未选择创建终端节点,VPC列表中将不会展示对应的VPC终端节点及VPCE挂载信息。也就无法挂载至该VPC中的计算 服务,否则可以解绑再次添加该VPC并选择创建终端节点。
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        基础管理
        管理文件系统
        查看文件系统
      • 配置NAS文件存储
        在函数计算的应用场景中,当多个应用或函数需要共享访问同一组数据时,您可以通过为函数配置SFS文件系统来存储数据。这不仅能够实现文件共享,还能简化数据管理流程,并解决本地磁盘空间的限制问题。配置SFS文件系统后,您的函数便可以像操作本地文件系统一样轻松地读取和写入SFS文件。 前提条件 创建函数。 配置VPC。 目前只支持在私有的VPC环境内添加SFS挂载点,因此,在配置网络时需设置允许函数访问VPC内资源,并配置正确的VPC,才能访问指定的SFS文件系统。 创建SFS服务。 已创建SFS文件系统,并添加挂载点。 使用限制 函数计算在同一地域下的一个函数最多支持配置5个SFS挂载点。 SFS挂载点和ZOS挂载点设置的函数运行环境中的本地目录不能冲突。 配置SFS文件系统 1. 登录函数计算控制台,在左侧导航栏,单击函数。 2. 在函数页面,点击目标函数,进入目标函数详情页。 3. 在目标函数详情页的上方导航栏,点击配置。 4. 在左侧导航栏,点击存储 选项卡,在NAS文件系统 区域单击编辑 ,在编辑面板中配置以下参数,然后单击部署。 您需要手动选择SFS文件系统,设置VPCE挂载地址、远端目录等SFS相关参数才能完成配置SFS文件系统。重点配置项介绍如下: 配置项 说明 示例 NAS挂载点 选择已创建的SFS文件系统。如需创建新的SFS文件系统,单击下方的创建弹性文件服务,跳转到文件存储控制台手动创建。 sfsxxx VPCE挂载地址 单击下方的查询VPCE挂载地址,跳转到文件存储控制台,再单击SFS实例名称,即可查看挂载地址。 192.168.xxx.xxx 远端目录 远端SFS中的目录是指位于SFS文件系统中的绝对目录,以/开头。例如,您希望挂载SFS文件系统的整个根目录,则远端目录填写为/。 / 函数本地目录 建议使用/home、/mnt、/tmp或/data的子目录。 /mnt/sfs 说明 1. 函数本地目录不能使用通用的Linux和Unix系统目录及其子目录,例如/bin、/opt、/var或/dev等,以免挂载失败。 2. SFS文件系统的挂载地址是以内网地址开头(如172.16开头和192.168开头)的字符串,下图是一个示例。如果您的SFS文件存储控制台并未显示类似的挂载地址,请联系SFS文件存储团队为您处理。
        来自:
        帮助文档
        函数计算
        用户指南
        函数配置
        配置存储
        配置NAS文件存储
      • 存储桶(Bucket)概述
        日志 出于分析或审计等目的,用户可以开启日志功能,用于把存储桶的各类访问请求记录成日志,并将生成的日志文件写入用户指定的桶中。 生成的日志文件会保存在指定的存储桶中,占用存储空间,因此会产生存储费用。默认情况下,OOS不会为用户的存储桶收集访问日志。 生命周期 生命周期管理支持通过配置指定的规则,定期将存储桶内的文件(Object)转储为指定存储类型,或者将过期的文件删除,从而节省存储费用。 注意 如果存储桶没有配置过生命周期规则,执行该操作将创建新的生命周期规则。 如果存储桶内的生命周期规则正在执行时被修改配置,则修改后的配置并不立即生效,需等原生命周期规则执行完成后才能生效。 每个存储桶最多创建1000条生命周期规则。 同一存储桶,同一类型(到期删除或者到期转成低频访问存储)的生命周期规则不能存在叠加前缀,例如已创建到期删除文件的生命周期规则的前缀是ABC,则无法再创建前缀为ABCD或AB或A的到期删除文件的生命周期规则。 当用户为存储桶设置了生命周期规则,这些规则将同时应用于已有文件和后续新创建的文件。例如,用户今天增加了一个生命周期,指定过期时间为30天,那么OOS将会将最后修改时间在30天前的文件都加入到待删除队列中。 跨域设置 跨域资源共享(Cross Origin Resource Sharing,CORS)是由W3C标准化组织提出的一种网络浏览器的规范机制,定义了一个域中加载的客户端Web应用程序与另一个域中的资源交互的方式。而在通常的网页请求中,由于同源安全策略(Same Origin Policy,SOP,同协议、同域名或IP、以及同端口视为同源)的存在,不同域之间的网站脚本和内容是无法进行交互的。例如,当来自于A网站的页面中的JavaScript代码希望访问B网站的时候,浏览器会拒绝该访问,因为A、B两个网站是属于不同的域。 OOS支持配置CORS规范,定义了客户端Web应用程序在一个域中与另一个域中的资源进行交互的方式,允许跨域请求访问OOS中的资源。 注意 每个Bucket最多可以配置100条跨域规则。 当OOS收到一个跨域请求(或者OPTIONS请求)时,会读取Bucket对应的CORS规则,然后进行相应的权限检查。OOS会依次检查每一条规则,使用第一条匹配的规则来允许请求并返回对应的Header。如果所有规则都匹配失败,则不附加任何CORS相关的Header。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        存储桶管理
        存储桶(Bucket)概述
      • 直播转码
        本文简述直播转码功能的详细操作步骤。 如果您希望适配不同用户终端或者不同网络环境输出不同码率的流,或者进行H265、H264的互转、添加水印等,您可以通过配置直播转码功能来实现。 注意事项 一个域名可以配置多个转码模板。 转码只能与拉流域名进行绑定。 若修改了转码配置,则正在直播的在线直播流不会生效,仅对修改配置后新请求的直播流生效。 直播转码功能为计费项,按实际使用的编码标准、转码分辨率和转码时长收取费用。收费详情请参考增值服务计费中的直播转码。 不支持回源拉流为HLS场景下的转码。 前提条件 已添加拉流域名,详情请参见添加加速域名。 已配置CNAME。 创建转码模板 1. 登录直播控制台。 2. 单击【功能配置】下方的【直播转码】,进入【直播转码】配置页面。 3. 单击页面右上角【创建转码模板】,创建转码模板。 参数 说明 模板名称 转码模板的名称。支持大小写字母、数字和特殊符号“”。 模板描述 针对该模板的相关描述。 推荐参数 预设四种转码档位:流畅、标清、高清和超清。 选择不同的档位,对应不同的视频码率、视频分辨率宽度和高度、视频帧率、音频码率以及音频采样率。 编码方式 支持H.264和H.265两种标准的视频编码格式。 视频码率 输出直播流的平均视频码率。 取值范围:100至8000。 视频分辨率宽度 视频分辨率的宽度。取值范围:100至8000。 视频分辨率高度 视频分辨率的高度。取值范围:100至8000。 视频帧率 输出直播流的视频帧率。取值范围:5至60。 音频码率 输出直播流的平均音频码率。取值范围:10至500。 音频采样率 输出直播流的音频采样率。 音频编码 音频编码方式。支持AAC和PCM。 GOP 在高级设置中,支持设置关键帧间隔。取值范围:1至20。 参数限制 支持可配置限制原始分辨率、限制原始帧率和限制原始码率。 水印 支持输出直播流中添加水印。 水印图片地址:水印图片的访问地址。暂不支持访问本地图片。同时支持设置水印的大小和位置。 4. 单击【保存】,即完成模板的创建。创建后的模板名称会在页面中间列显示,您可以单击页面右上方的【编辑】或者【删除】进行修改或者删除模板。
        来自:
        帮助文档
        视频直播
        用户指南
        功能配置
        直播转码
      • 产品架构和功能原理
        本节介绍了产品架构和功能原理的相关内容。 DRS的产品架构以及功能原理如下图所示: 图 DRS产品架构 架构说明 最小权限设计 a. 采用JDBC连接,无需在用户的源数据库、目标数据库节点部署程序。 b. 任务独立虚拟机运行独享资源,租户之间数据隔离。 c. 采用最小IP资源,在源数据库、目标数据库仅开放DRS数据迁移实例节点IP访问权限,无需增加网段。 可靠性设计 a. 连接异常自动重试:当网络闪断、数据库倒换等场景造成DRS和数据库连接异常,会自动重试直到任务恢复。 b. 具备断点续传能力:源数据库或目标数据库连接出现异常时,自动记录当前回放位点,等故障修复后,自动从上一次位点接续回放,保证同步数据的一致性。 c. DRS迁移实例所在虚拟机故障,业务自动切换到新虚拟机并保证IP不变,保证迁移任务正常。 实时迁移基本原理 图 实时迁移原理 以“全量+增量”迁移为例,完整的迁移分为四个阶段。 a. 第一阶段:结构迁移。DRS服务会从源数据库查询到用户选择迁移的库、表、主键等对象,然后在目标数据库创建这些对象。 b. 第二阶段:全量数据迁移。DRS服务会通过并行技术,以最高效的资源利用,从源数据库查询到当前所有数据,并在目标数据库进行插入。在全量数据迁移启动前,会提前进行增量数据抽取保存,以便在第三阶段增量数据迁移时,能够和全量数据接续,保证数据的完整性和一致性。 c. 第三阶段:增量数据迁移。全量任务结束后,增量迁移任务启动,此时会从全量开始的增量数据持续的解析转换和回放,直到追平当前的增量数据。 d. 第四阶段:为了防止触发器、事件在迁移阶段对于数据的操作,在结束任务阶段再迁移触发器、事件。 全量数据迁移的底层模块主要原理: 分片模块:通过优化的分片算法,计算每个表的分片逻辑 抽取模块:根据计算的分片信息并行多任务从源数据库查询数据 回放模块:将抽取模块查询的数据并行多任务插入目标数据库 增量数据迁移的底层实现模块主要原理: 日志读取模块:日志读取模块从源数据库读取原始增量日志数据(例如MySQL为binlog),经过解析转换为标准的日志格式存储在本地。 日志回放模块:日志回放模块根据日志读取模块转换的标准格式增量日志,根据用户的选择策略进行加工过滤,将增量数据同步到目标数据库。
        来自:
        帮助文档
        数据库复制
        产品简介
        产品架构和功能原理
      • 标签路由
        标签路由是将每个服务打上一个标签,通过标签将标签相同的服务分为同一个分组,然后约束流量在同一个分组内流转,以此实现灰度发布、金丝雀发布、蓝绿发布等功能。 功能入口 1. 完成灰度应用部署后,即可查看应用当前存在的标签。 2. 登录云应用引擎控制台。 3. 在左侧导航栏选择 应用管理 > 应用列表,单击目标应用名称。 4. 应用基础信息页面,选择 微服务治理 > 流量治理,单击 标签路由 使用标签路由 1. 在标签路由页单击流量分配,为标签按比例分配流量。 2. 在标签路由页的流量规则栏新增流量规则。 流量规则参数说明: 参数 说明 路由名称 路由规则的名称。 应用 所选的应用。 标签 设置的标签名。 应用实例 设置了该标签的实例ip。 是否链路传递 代表开启全链路流控。 框架类型 Spring Cloud Dubbo。 Path SpringCloud为path路径,Dubbo为接口。 条件模式 满足一个条件,或者满足所有条件。 条件列表 可以设置Header、Cookie、Parameter和Body Content四种参数类型。 是否开启流量规则 流量规则开关。
        来自:
        帮助文档
        云应用引擎
        用户指南
        微服务治理
        流量治理
        标签路由
      • 数据加工
        本文主要介绍云日志服务中的数据加工常见问题。 基本语法错误 问题:编写了不符合日志加工 DSL语法的加工规则,例如:多或者少写括号、逗号(,),漏打回车符等。 排查方法:通过加工预览检测语法错误,页面会提示SyntaxError等错误信息。 非法运算符 问题:日志加工DSL中所有的操作都需要通过 DSL提供的函数来完成。比如数值运算、比较等操作都需要通过op函数完成,而不能直接使用python运算符。 排查方法:通过加工预览检测运算符等错误;可将算术运算符和比较操作符等运算符替换为DSL提供的函数完成。 调用不存在的函数 问题:调用了不存在的函数,通过加工预览即可检测出来,并提示unknown function。 排查方法:通过加工预览即可检测出是否调用了不存在的函数;建议检查是否拼写错误。 函数参数传递错误 问题:参数类型错误或参数个数错误等,加工预览会有错误结果输出,比如TypeError、ValueError、"xx takes at least x arguments (xx given)"等。 排查方法:通过加工预览和构造测试日志发现参数传递问题。
        来自:
        帮助文档
        云日志服务
        常见问题
        数据加工
      • 如果不配置集群管理权限,是否可以使用kubectl命令呢?
        本文介绍如果不配置集群管理权限,是否可以使用kubectl命令。 如果不配置集群管理权限,是否可以使用kubectl命令呢? 使用kubectl命令无需经过IAM认证,因此理论上不配置集群管理(IAM)权限是可以使用kubectl命令的。但前提是需要获取具有命名空间权限的kubectl配置文件(kubeconfig),以下场景认证文件传递过程中均存在安全泄露风险,应在实际使用中注意。 场景一:如果某IAM子用户先配置了集群管理权限和命名空间权限,然后在界面下载kubeconfig认证文件。后面再删除集群管理权限(保留命名空间权限),依然可以使用kubectl来操作Kubernetes集群。因此如需彻底删除用户权限,必须同时吊销该子用户的kubeconfig文件。 场景二:如果某IAM用户拥有一定范围的集群管理权限和命名空间权限,然后在界面下载kubeconfig认证文件。此时云容器引擎根据用户信息的权限判断用户对应kubeconfig文件,相当于kubeconfig中就拥有这个用户的认证信息,若其他人获取了这个kubeconfig,则可以通过这个kubeconfig文件访问集群。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        API&kubectl
        如果不配置集群管理权限,是否可以使用kubectl命令呢?
      • 复制参数模板
        本节介绍了如何复制云数据库GaussDB 的参数模板。 操作场景 您可以复制您创建的自定义数据库参数模板。当您已创建一个数据库参数模板,并且想在新的数据库参数模板中包含该组中的大部分自定义参数和值时,复制参数模板是一个方便的解决方案。 复制数据库参数模板之后,新参数模板可能不会立即显示,建议您等待至少5分钟再使用。 您无法复制默认参数模板。不过,您可以创建基于默认参数模板的新参数模板。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在“参数模板管理”页面的“自定义”页签,选择需要复制的参数模板,单击“复制”。 步骤 3 在弹出框中,填写新参数模板名称和描述,单击“确定”。 参数模板名称长度在1~64个字符之间,区分大小写,可包含字母、数字、中划线、下划线或句点,不能包含其他特殊字符。 参数模板的描述长度不能超过256字符,且不能包含回车和>!<"&'特殊字符。 创建完成后,会生成一个新的参数模板,您可在参数模板列表中对其进行管理。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        参数模板管理
        复制参数模板
      • 异常恢复
        本章为您介绍数据迁移服务异常恢复相关问题。 创建迁移任务失败怎么办? 创建迁移任务失败,会在迁移任务列表的左上方出现“任务创建失败”的提示。 请通过以下步骤重试失败的迁移任务。 单击任务列表左上方的“重试失败任务”,进入重试失败任务界面。 选择要重试的任务,并输入源端和目的端的AK/SK,单击“确认”。 源端对象存储访问频率过高导致迁移失败怎么办? 为保证较高的迁移速率,迁移任务执行过程中,对象存储迁移服务会以较高频率调用源端对象存储API。由于某些源端对象存储对访问频率进行了限制,当访问频率过高时就会导致迁移任务失败。 解决办法: 联系源端云服务提供商,修改源端对象存储对访问频率的限制值以满足迁移的要求。 通过API创建任务,并采用较低的threadnum值(迁移任务使用的线程数),以降低迁移线程访问频率。 迁移完成后,若想再次迁移如何操作? 重新为数据源绑定目标节点,并重新配置任务。
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        数据迁移服务模块
        异常恢复
      • 全量、增量及稽核修复
        本节为您介绍云迁移服务CMS中数据库迁移全量、增量及稽核修复相关内容。 能够在以下配置界面对迁移任务进行配置,在“迁移选择”选项,点击“全量”、“增量”或者”稽核修复”即为选择全量、增量迁移或者稽核修复。选择全量迁移时:仅迁移任务发起所处时间点的数据,不会对迁移过程中源库数据发生的变更进行同步;选择增量迁移时:在完成任务发起所处时间的数据后,会对迁移过程中源库发生的数据变更进行迁移;选择稽核修复时:在迁移完成后,会对数据进行一致性校验,并对不一致的数据进行修复。 说明 1. 为保障数据一致性,迁移期间请勿在源库中写入新的数据。如需实现不停机迁移,您需要在配置数据迁移任务时,同时选择全量数据迁移和增量数据迁移。 2. 增量数据迁移会保持同步的状态,所以迁移任务不会自动结束,您需要手动结束迁移任务。 3. 为保障数据一致性,稽核修复期间请勿在源库或目标库写入新数据。
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        数据库全流程迁移演示
        全量、增量及稽核修复
      • 1
      • ...
      • 310
      • 311
      • 312
      • 313
      • 314
      • ...
      • 453
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      公共算力服务

      应用托管

      科研助手

      推荐文档

      管理只读实例

      变更规格通用操作

      基本概念

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号