爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云大数据paas服务_相关内容
      • 删除备份资源(1)
        接口功能介绍 删除指定对象所有备份资源,包括备份计划、备份任务、备份数据、恢复任务 接口约束 1、该备份对象存在需要删除的备份资源 URI POST /v4/backup/deleteresourcesbackup 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 backupObjectID 是 String 备份对象ID 0ae97ef56ee244af9d051a509b0a1be6 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b isCloud 否 Boolean 是否是云上资源(默认true),true:弹性云主机,false:本地客户主机。该参数后续即将下线,推荐使用sourceType参数 true sourceType 否 String 产品服务类型(默认CTECS),CTECS:弹性云主机,CTDPS:裸金属物理机,CTLS:本地客户主机 CTDPS 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败) 800 message String 成功或失败时的描述,一般为英文描述 SUCCESS description String 成功或失败时的描述,一般为中文描述 成功 returnObj Object 成功时返回对象 returnObj errorCode String 业务细分码,为product.module.code三段式码。 backup.regionInfo.empty error String 业务细分码,为product.module.code三段式大驼峰码 Backup.RegionInfo.Empty 表 returnObj 参数 参数类型 说明 示例 下级对象 status String 删除操作状态 参考响应示例 regionID String 资源池ID 参考响应示例
        来自:
      • 删除备份资源
        接口功能介绍 删除指定对象所有备份资源,包括备份计划、备份任务、备份数据、恢复任务 接口约束 1、该备份对象存在需要删除的备份资源 URI POST /v4/backup/deleteresourcesbackup 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 backupObjectID 是 String 备份对象ID 0ae97ef56ee244af9d051a509b0a1be6 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b isCloud 否 Boolean 是否是云上资源(默认true),true:弹性云主机,false:本地客户主机。该参数后续即将下线,推荐使用sourceType参数 true sourceType 否 String 产品服务类型(默认CTECS),CTECS:弹性云主机,CTDPS:裸金属物理机,CTLS:本地客户主机 CTDPS 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败) 800 message String 成功或失败时的描述,一般为英文描述 SUCCESS description String 成功或失败时的描述,一般为中文描述 成功 returnObj Object 成功时返回对象 returnObj errorCode String 业务细分码,为product.module.code三段式码。 backup.regionInfo.empty error String 业务细分码,为product.module.code三段式大驼峰码 Backup.RegionInfo.Empty 表 returnObj 参数 参数类型 说明 示例 下级对象 status String 删除操作状态 参考响应示例 regionID String 资源池ID 参考响应示例
        来自:
        帮助文档
        云备份 CBR
        API参考
        API
        2023-04-12
        删除备份资源
      • 登录系统故障
        登录系统,报IP/MAC地址不在登录范围怎么办? 问题现象 通过Web浏览器登录云堡垒机系统,上报“您的IP地址不在允许登录的范围内!”错误。 通过Web浏览器登录云堡垒机系统,上报“您的MAC地址不在允许登录的范围内!”错误。 可能原因 云堡垒机系统限制了用户IP地址或MAC地址登录,用户登录IP地址或MAC地址被设置了登录黑名单,不能登录云堡垒机系统。 解决办法 请管理员排查用户登录限制配置,查看是否配置“登录IP地址限制”和“登录MAC地址限制”白名单或黑名单。 若配置了白名单,请根据配置的IP/MAC地址,使用配置范围内的服务器登录。 若配置了黑名单,请根据配置的IP/MAC地址,使用未被限制的服务器登录。 登录系统,系统提示“404:服务错误”怎么办? 问题现象 通过Web浏览器登录云堡垒机系统,弹出系统提示框,提示“/3.0/AUTHSERVICE/CONFIG404:服务错误”。 可能原因 云堡垒机系统网盘空间满了,可使用数据盘空间不足。 解决办法 单独挂载系统数据盘,并重启云堡垒机即可恢复。 变更云堡垒机规格,提高系统整体规格性能。 不允许对原有的系统盘或数据盘进行扩充,只能单独挂载数据盘,重启云堡垒机自动挂载。 登录系统,系统提示“499:服务错误”怎么办? 问题现象 通过Web浏览器登录云堡垒机系统,弹出系统提示框,提示“/3.0/profileService/freshProfile 499:服务错误,请稍后重试”。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        故障排除
        登录系统故障
      • 产品定义
        本文带您了解什么是内网DNS产品。 内网DNS(Intranet Domain Name Service,CTIDNS)提供高可用,高扩展的DNS服务和DNS管理服务,帮助客户将域名或应用资源转换成用于计算机连接的IP地址,从而将最终用户路由到相应的应用资源上,实现应用资源的访问和内网服务的连接。内网DNS可提供VPC内安全、全面、高性能的域名解析功能,可直接响应内网域名的解析请求,快速高效,有效防护劫持,避免安全风险。 内网域名解析过程 当VPC内云服务器访问内网域名时,内网DNS直接对内网域名进行解析,向云服务器返回对应被访问的云服务器的私网IP地址。 当VPC内云服务器访问Internet上的公网域名时,内网DNS会将对公网域名的解析请求转发至公共DNS进行解析,待收到公共DNS返回的公网IP地址后,再将公网IP返回云服务器。 系统架构 内网DNS(Intranet Domain Name Service,CTIDNS)由两个关键组成部分构成,分别是管控层和解析层: 管控层:管控层通过控制台和OpenAPI对外提供服务,主要职能如下: 管理域名解析数据:管控层负责处理域名解析数据的增删改查操作,确保域名与IP地址的映射准确性。 配置数据管理:管控层管理配置数据,保障DNS服务的可靠性和可用性。 日志数据管理:管控层记录和管理日志数据,支持用户监测和故障排除。 存储功能:管控层存储域名解析数据、配置数据和日志数据,确保数据的安全性和可靠性。 解析层:解析层通过部署解析服务器集群向外提供服务,主要职能为: 域名解析:解析层接收来自管控层的域名解析记录数据,并对解析请求进行响应,将域名解析为对应的IP地址,实现计算机之间的连接。
        来自:
        帮助文档
        内网DNS
        产品简介
        产品定义
      • 快照概述
        本文为您介绍云硬盘快照的定义、优势、应用场景及使用限制。 产品定义 天翼云云硬盘快照是一种数据备份方式,云硬盘快照服务可以备份或者恢复整个云硬盘的数据,常用于数据备份、制作镜像、应用容灾等。 云硬盘快照能够记录某一块云硬盘在某个时刻的数据,通过回滚将云硬盘数据恢复至快照时间点。还可以通过快照快速创建出多个具有相同数据的云硬盘用于业务部署。 产品优势 弹性扩展:快照容量可弹性扩展,立即生效,不受存储设备性能、容量的限制。 动态收费:根据实际业务数据变化量,按照快照的实际使用容量收费。 安全:提供数据加密服务,快照的加密属性继承其源云硬盘,加密云硬盘所创建的快照也会被加密。 应用场景 数据保护和恢复:快照可以用作数据的备份和恢复手段。当云硬盘的数据发生意外删除、损坏或错误修改时,可以使用快照来恢复到之前的状态。 数据恢复测试:可以使用快照来进行数据恢复测试。在进行关键操作之前,先创建一个快照,然后在测试过程中可以随时回滚到快照状态,以确保操作的安全性和可靠性。 数据备份和归档:通过创建快照,可以定期备份云硬盘的数据,并将快照存档用于长期数据保留、合规要求或法律需求。 批量部署多个业务:通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘快照
        快照概述
      • 跨帐号迁移业务数据(迁移系统盘+数据盘)
        本文主要介绍跨帐号迁移业务数据(迁移系统盘+数据盘) 操作场景 如果您的业务数据同时保存在数据盘和系统盘中,要想实现业务数据跨帐号迁移,需要用到镜像服务的创建整机镜像、共享镜像等功能。本节操作以Windows操作系统为例,为您详细介绍在同一区域内,跨帐号迁移业务数据(包括系统盘和数据盘数据)的操作流程。 说明: 只有通过云服务备份,或云主机(未通过旧版CSBS服务生成备份)创建的整机镜像,才支持共享。 不允许共享加密镜像、已冻结的镜像以及创建中的镜像。 方案介绍 跨帐号迁移业务数据的方案为:帐号A将云主机A做成整机镜像,将此镜像共享给帐号B;帐号B接受帐号A的共享镜像后,将其创建为新的云主机,实现数据迁移。操作流程如下: 图 跨帐号迁移业务数据流程图 步骤一: 创建整机镜像 假设帐号A的云主机数据盘中存放了数据:data disk.txt,系统盘中存放了数据:system disk.txt。 图 数据盘数据 图 系统盘数据 1、帐号A登录管理控制台,在左上角切换区域为“广东广州4”。 2、选择“ 镜像服务”。 进入镜像列表页面。 3、单击右上角的“创建私有镜像”。 进入创建私有镜像页面。 4、填写如下参数: 图 创建整机镜像 创建方式:创建私有镜像 镜像类型:整机镜像 选择镜像源:云主机,并选择云主机“ecsxxxx” 名称:输入整机镜像名称,如“fullimageecsxxxx” 企业项目:选择默认项目“default” 说明: 使用云主机制作整机镜像时,云主机应处于关机状态。如果镜像中包含数据库,请在关机状态下制作。 整机镜像创建过程中,请勿卸载系统盘,不要关闭、开启或者重启云主机,避免创建失败。 了解更多通过云主机创建整机镜像的约束限制,请查看约束与限制。 5、单击“立即创建”。 6、确认无误后,阅读并勾选协议,单击“提交”。 返回私有镜像列表,等待几分钟后,整机镜像创建成功。 图 查看私有镜像
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        跨帐号迁移业务数据(迁移系统盘+数据盘)
      • 迁移概述
        本节为您介绍使用海量文件服务时四种常见的数据迁移场景。 文件系统需要挂载到计算服务后可被共享访问,可通过将文件系统挂载至一台可访问公网的弹性云主机后借助迁移工具实现数据迁移。常见的数据迁移场景有以下四种: 非天翼云数据迁移至海量文件服务 对象存数据迁移至海量文件服务 同账号不同资源池间的数据迁移 文件系统之间的数据迁移
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        数据迁移
        迁移概述
      • 云硬盘备份的用户场景
        本章节介绍云硬盘备份的应用场景:数据备份恢复和业务快速迁移部署。 云硬盘备份可为多种资源提供备份保护服务,有效保障用户数据的安全性和正确性,确保业务安全。云硬盘备份适用于数据备份和恢复以及业务快速迁移和部署的场景。 数据备份和恢复 云硬盘备份在以下场景中,均可快速恢复数据,保障业务安全可靠。 受黑客攻击或病毒入侵 通过云硬盘备份,可立即恢复到最近一次没有受黑客攻击或病毒入侵的备份时间点。 数据被误删 通过云硬盘备份,可立即恢复到删除前的备份时间点,找回被删除的数据。 应用程序更新出错 通过云硬盘备份,可立即恢复到应用程序更新前的备份时间点,使系统正常运行。 云主机宕机 通过云硬盘备份,可立即恢复到宕机之前的备份时间点,使服务器能再次正常启动。 业务快速迁移&部署 为云服务器的系统盘创建镜像、数据盘创建备份,利用镜像和备份,可快速复制一个或多个与现有云服务器相同配置的云服务器。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        云硬盘备份的用户场景
      • 权限管理
        策略名称 描述 策略类别 CTLTS admin 云日志服务的所有权限,拥有该权限的用户可以操作并使用云日志服务。 系统策略 CTLTS viewer 云日志服务的只读权限,拥有该权限的用户仅能查看云日志服务数据。 系统策略
        来自:
        帮助文档
        云日志服务
        用户指南
        权限管理
      • 概览
        天翼云搜索服务的OpenSearch实例支持多种访问方式,本文将对各种访问方式适用场景进行简单介绍。 OpenSearch Dashboards访问 OpenSearch实例支持通过OpenSearch Dashboards可视化界面进行连接。用户可以通过登录页面输入用户名和密码访问实例,默认用户名为admin,密码为创建实例时设置的管理员密码。Dashboards提供了强大的数据可视化和管理功能。 Curl命令行方式 用户可以使用Curl命令行与OpenSearch实例进行通信。Curl命令允许执行多种操作,如创建索引、查询数据、更新和删除文档,适合用于快速测试和管理实例。 Python客户端访问 OpenSearch提供官方Python客户端(opensearchpy),允许开发者通过API与OpenSearch实例交互。该客户端适用于数据索引、复杂查询和自动化脚本,适合大规模数据处理和分析场景。 Java客户端访问 Java客户端提供对OpenSearch实例的深度集成,使用RestHighLevelClient等API与OpenSearch通信。Java客户端非常适合在企业级应用中进行复杂搜索、实时数据处理等操作,能够与Spring等框架很好地结合。 Go客户端访问 Go客户端支持与OpenSearch REST API高效交互,特别适合需要高并发、低延迟的应用。通过Go客户端,可以实现对OpenSearch实例的快速连接和操作,常用于高性能、可扩展的云搜索服务场景。
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        访问OpenSearch实例
        概览
      • 查看流量使用情况
        本文帮助您了解如何查看弹性负载均衡流量使用情况以及绑定的EIP的使用流量。 应用场景 对于一些高访问量的业务,可以使用负载均衡来实现流量分发,通过设置适当的转发策略,将访问量均衡地分配到多个后端云主机,从而有效提高业务处理的效率和性能。假如您担心流量过大,引起业务问题,需要查看弹性负载均衡使用流量,云监控服务能够帮助我们监控负载均衡的公网流量。 前提条件 您已创建负载均衡实例,并且进行了EIP绑定。 查看EIP使用流量 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 在控制中心页面,依次选择“管理与部署>云监控”。 4. 在云监控左侧列表,选择“云服务监控 > 弹性公网IP监控”。 5. 在弹性负载均衡绑定的弹性IP所在行,点击“查看监控图表”。进入监控图表详情页面。在监控图表详情页面,支持查看“1小时”、“3小时”、“12小时”、“24小时”、“7天”、“15天”的数据。 6. 在弹性IP使用流量监控页面,您可以清晰地看到该弹性IP的入网流量、出网流量、入网带宽、出网带宽等情况。
        来自:
        帮助文档
        弹性负载均衡 ELB
        最佳实践
        查看流量使用情况
      • 应用场景
        本章介绍分布式缓存服务Redis版的典型应用场景。 Redis应用场景 很多大型电商网站、视频直播和游戏应用等,存在 大规模数据访问 ,对 数据查询效率要求高 ,且 数据结构简单 , 不涉及太多关联查询 。这种场景使用Redis,在速度上对传统磁盘数据库有很大优势,能够有效减少数据库磁盘IO,提高数据查询效率,减轻管理维护工作量,降低数据库存储成本。Redis对传统磁盘数据库是一个重要的补充,成为了互联网应用,尤其是支持高并发访问的互联网应用必不可少的基础服务之一。 以下举几个典型样例: 1. (电商网站)秒杀抢购 电商网站的商品类目、推荐系统以及秒杀抢购活动,适宜使用Redis缓存数据库。 例如秒杀抢购活动,并发高,对于传统关系型数据库来说访问压力大,需要较高的硬件配置(如磁盘IO)支撑。Redis数据库,单节点QPS支撑能达到10万,轻松应对秒杀并发。实现秒杀和数据加锁的命令简单,使用SET、GET、DEL、RPUSH等命令即可。 2. (视频直播)消息弹幕 直播间的在线用户列表,礼物排行榜,弹幕消息等信息,都适合使用Redis中的SortedSet结构进行存储。 例如弹幕消息,可使用ZREVRANGEBYSCORE排序返回,在Redis5.0中,新增了zpopmax,zpopmin命令,更加方便消息处理。 3. (游戏应用)游戏排行榜 在线游戏一般涉及排行榜实时展现,比如列出当前得分最高的10个用户。使用Redis的有序集合存储用户排行榜非常合适,有序集合使用非常简单,提供多达20个操作集合的命令。 4. (社交APP)返回最新评论/回复 在web类应用中,常有“最新评论”之类的查询,如果使用关系型数据库,往往涉及到按评论时间逆排序,随着评论越来越多,排序效率越来越低,且并发频繁。 使用Redis的List(链表),例如存储最新1000条评论,当请求的评论数在这个范围,就不需要访问磁盘数据库,直接从缓存中返回,减少数据库压力的同时,提升APP的响应速度。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        应用场景
      • 数据脱敏与水印
        进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据脱敏与水印”,跳转到数据脱敏与水印控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据脱敏与水印控制台。 使用数据脱敏与水印 请参见数据脱敏与水印。
        来自:
        帮助文档
        云等保专区
        用户指南
        数据脱敏与水印
      • 术语解释
        宿主机CPU超配比 部分宿主机规格(通用型)支持自定义CPU超配比。不同的超配比将影响宿主机的可用 vCPU数,超配比越大,可使用的vCPU越多,达到部署更多同等规格的弹性云主机实例的目的,降低单位部署成本。 地域 地域(Region)是指物理的数据中心的地理区域。地域从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。 可用区 可用区(AZ,Availability Zone)是指在同一地域内,电力和网络互相独立的物理区域。一个AZ是一个或多个物理数据中心的集合,具备独立的风火水电,可用区之间距离100KM以内,一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求,专属云(计算独享型)可支持同资源池下跨AZ部署。 其余详细信息可参见产品地域和可用区页面。
        来自:
        帮助文档
        专属云(计算独享型)
        产品简介
        术语解释
      • 与其它云服务的关系
        功能 相关服务 云服务器和文件系统归属于同一项目下,用于挂载共享路径实现数据共享。 弹性云主机(Elastic Cloud Server,ECS) VPC为弹性云主机构建隔离的、用户自主配置和管理的虚拟网络环境,提升用户云中资源的安全性,简化用户的网络部署。 云服务器无法访问不在同一VPC下的文件系统,使用弹性文件服务时需将文件系统和云服务器归属于同一VPC下。 虚拟私有云(Virtual Private Cloud,VPC) IAM是支撑企业级自助的云端资源管理系统,具有用户身份管理和访问控制的功能。当企业存在多用户访问弹性文件服务时,可以使用IAM新建用户,以及控制这些用户帐号对企业名下资源具有的操作权限。 统一身份认证服务(Identity and Access Management, IAM) 文件系统的加密功能依赖于密钥管理服务。您可以使用密钥管理服务提供的密钥来加密文件系统,从而提升文件系统中数据的安全性。 数据加密服务(Data Encryption Workshop, DEW)的密钥管理KMS功能 当用户开通了弹性文件服务后,无需额外安装其他插件,即可在云监控查看对应服务的性能指标,包括读带宽、写带宽和读写带宽等。 云监控服务(Cloud Eye Service) 为用户提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。通过云审计服务,您可以记录与弹性文件服务相关的操作事件,便于日后的查询、审计和回溯。 云审计服务(Cloud Trace Service,CTS)
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        与其它云服务的关系
      • 查看云审计日志
        本页面主要介绍天翼云数据传输服务DTS对接的云审计服务使用和查看方法。 操作场景 数据传输服务DTS现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 云审计服务本身免费,包括时间记录以及7天内的存储和检索。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 字段 创建实例 dtsCreateInstance 删除实例 dtsDeleteInstance 任务启动 dtsStartJob 任务暂停 dtsStopJob 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表页,根据需要选择时间段、设置筛选条件,如:读写类型、事件级别、操作用户、事件来源、资源类型、资源名称、事件名称等。点击查询即可。 4. 在审计事件查询结果列表右侧操作列点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        日志管理
        查看云审计日志
      • 创建数据订阅任务
        本文为您介绍创建数据订阅任务的操作场景、前提条件和操作步骤。 操作场景 场景一:数据实时分析 使用云监控数据订阅功能,将业务进行异步解耦,在不影响源库业务的情况下,实时同步监控数据(指标、事件)或告警数据到客户自有分析系统中,帮助企业用户进行实时数据分析。 场景二:数据归档存储 使用云监控数据订阅功能,您可将资源监控或告警数据的增量更新数据,实时地推送到归档数据库或数据仓库。 说明 数据订阅功能当前为受限开放,如有需求可以联系客户经理为您开放此功能。 资源池下单个用户最多可创建10个数据订阅任务。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 注意 数据订阅功能数据类型支持指标数据、事件数据,订阅方式支持分布式消息服务及API方式。 指标数据订阅支持分布式消息服务(kafka)及remotewriteapi方式。 事件数据订阅支持分布式消息服务(kafka)及apipush方式。(事件订阅入口为:云监控服务>事件监控>事件订阅) 创建订阅任务需提前创建订阅渠道。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击左侧“数据订阅”菜单,进入数据订阅任务列表。 5. 单击“创建订阅任务”功能,进入数据订阅任务创建二级页面。 6. 创建订阅任务参数配置如下: 模块 参数 参数说明 配置示例 备注 选择订阅对象 服务维度 选择需要订阅数据的服务维度信息,支持多选 云主机云主机 选择订阅对象 监控对象类型 具体实例 选择订阅对象 选择对象 选择资源实例对象 具体实例 定义订阅方式 订阅通道 选择公网/内网 分布式消息服务 定义订阅方式 发送渠道 Kafka Kafka 定义订阅方式 订阅失败缓存时间 输入用户客户端地址 基础信息 订阅任务名称 填写自定义订阅任务名称 testtask 基础信息 描述 填写订阅任务描述信息 说明 关于告警数据订阅全部资源的场景,涉及两个周期: 订阅服务subscription同步订阅配置的周期,预计上线配置2分钟。 数据订阅配置全部资源,也需要周期同步全量的实例资源,预计线上配置3分钟。 因此,考虑极限情况,告警订阅服务在周期1 + 周期2之后产生的告警,订阅服务才能匹配消费到。
        来自:
        帮助文档
        云监控服务
        用户指南
        数据订阅
        创建数据订阅任务
      • 数据分类分级(1)
        本节介绍如何进入数据分类分级制台,及如何使用数据分类分级。 进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据分类分级”,跳转到数据分类分级控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据分类分级控制台。 使用数据分类分级 请参见数据分类分级。
        来自:
      • 数据分类分级
        本节介绍如何进入数据分类分级制台,及如何使用数据分类分级。 进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据分类分级”,跳转到数据分类分级控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据分类分级控制台。 使用数据分类分级 请参见数据分类分级。
        来自:
        帮助文档
        云等保专区
        用户指南
        数据分类分级
      • 断点续训
        本文旨在向您介绍一站式智算服务平台断点续训的功能。 产品背景 大模型训练过程往往比较长,根据业界数据,平均约两天,大模型训练会中断一次,经常遇到的问题例如: 程序出现故障 节点出现故障 loss数据恶化,需要手动暂停,调参重训 服务器故障、网络中断、开发平台故障等 断点续训过程需要排查节点、隔离节点、重新启动上一次CKPT,浪费了资源和训练时间,是大模型训练的重要痛点之一。针对这一问题,平台提供了断点续训能力并支持配置客户需要的策略。 断点续训 平台对节点故障、集群故障、程序故障等多种场景,支持故障感知、故障定位、故障修复。目前支持PyTorch、Mindspore框架。 支持以下故障类型: 网络故障:当网卡链接出现故障或状态异常(link status: DOWN)后,可正常触发重调度,实现断点续训 节点心跳故障:当节点因Label异常等原因导致心跳丢失后,可正常触发重调度,实现断点续训 节点Shutdown/Reboot故障:当节点被关闭或重启后,可正常触发重调度,实现断点续训 芯片PCIE故障:当节点发生芯片丢失等异常后,可正常触发重调度,实现断点续训 断点故障:当错误发生时断点正在写入,未正常完成保存即断点保存不完整时,可正常恢复至上一完整断点,实现断点续训
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型定制
        断点续训
      • SDK接入概述
        本文主要介绍云日志服务SDK接入概述。 SDK主要功能 不同语言的SDK实现逻辑在具体细节上会存在细微差异,但都是对云日志服务API的进一步包装,实现的功能基本一致,SDK的主要功能包括: 跨语言封装 :云日志服务为各种编程语言提供了统一的API封装库,让您无需关注底层API的调用细节,即可实现高效、安全的日志服务交互。 数字签名自动化 :封装库内置了数字签名功能,您无需手动处理复杂的签名逻辑,只需提供必要的认证信息,SDK将自动完成签名过程。 ProtoBuffer透明封装 :在上传日志时,SDK会自动将您的日志数据转换为符合ProtoBuffer格式的二进制数据,让您无需关心具体的ProtoBuffer编码细节。 压缩支持 :SDK支持日志数据的压缩传输,以提升传输效率和存储效率。默认情况下,SDK会启用压缩模式,默认使用lz4压缩。 统一错误处理 :云日志服务提供了统一的错误处理机制,让您可以按照您所熟悉的语言习惯来处理API请求中可能出现的异常。 异步请求 :目前,云日志服务提供的SDK全部具备同步请求方式,确保请求的完整性和顺序性。部分SDK提供异步请求、批量上传等更强大的功能。 这些特性旨在降低使用云日志服务API的复杂性,提高开发效率。更多详细信息,请参考下文提供的接口规范、请求签名、ProtoBuffer格式、错误处理机制等文档。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        SDK接入概述
      • SDK接入概述
        本文主要介绍云日志服务SDK接入概述。 SDK主要功能 不同语言的SDK实现逻辑在具体细节上会存在细微差异,但都是对云日志服务API的进一步包装,实现的功能基本一致,SDK的主要功能包括: 跨语言封装 :云日志服务为各种编程语言提供了统一的API封装库,让您无需关注底层API的调用细节,即可实现高效、安全的日志服务交互。 数字签名自动化 :封装库内置了数字签名功能,您无需手动处理复杂的签名逻辑,只需提供必要的认证信息,SDK将自动完成签名过程。 ProtoBuffer透明封装 :在上传日志时,SDK会自动将您的日志数据转换为符合ProtoBuffer格式的二进制数据,让您无需关心具体的ProtoBuffer编码细节。 压缩支持 :SDK支持日志数据的压缩传输,以提升传输效率和存储效率。默认情况下,SDK会启用压缩模式,默认使用lz4压缩。 统一错误处理 :云日志服务提供了统一的错误处理机制,让您可以按照您所熟悉的语言习惯来处理API请求中可能出现的异常。 异步请求 :目前,云日志服务提供的SDK全部具备同步请求方式,确保请求的完整性和顺序性。部分SDK提供异步请求、批量上传等更强大的功能。 这些特性旨在降低使用云日志服务API的复杂性,提高开发效率。更多详细信息,请参考下文提供的接口规范、请求签名、ProtoBuffer格式、错误处理机制等文档。
        来自:
      • 开启Smart Connect
        本节介绍如何开启Kafka的Smart Connect功能。 Smart Connect用于Kafka实例和其他云服务(如OBS)之间的数据同步,或者两个Kafka实例之间的数据同步,实现数据的备份或迁移。 Smart Connect的使用流程为: 1. 开启Smart Connect。 2. 创建Smart Connect任务。 本章节主要介绍如何开启Smart Connect。 约束与限制 开启Smart Connect后,实例需要另外收取用于Smart Connect的代理费用。 例如:规格为kafka.4u8g.cluster的实例,会另外创建至少两个规格为kafka.4u8g的代理,用于Smart Connect,所以需要收取相应代理费用。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 “auto.create.groups.enable”已设置为“true”。如果需要修改“auto.create.groups.enable”的取值,请参考修改Kafka实例配置参数。 开启Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,开启Smart Connect。 在待开启Smart Connect的Kafka实例所在行,单击“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。在“Smart Connect”后,单击。 单击Kafka实例名称,进入实例详情页面。在左侧导航栏单击“Smart Connect”,进入Smart Connect页面。单击“开启Smart Connect”。 5、单击,将Smart Connect设置为开启,并设置用于Smart Connect的代理数量,代理数取值范围为2~16个,单击“下一步”。 说明 代理数默认为2个,如果您预估2个Kafka实例间的同步流量比较大,例如大于50MB/s,请设置2个以上的代理数。 6、确认“Smart Connect”为开启状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        开启Smart Connect
      • 用户数据注入
        案例5 该样例介绍如何通过用户数据注入,为Linux弹性云主机更新系统软件包,并且开启httpd相关服务。注入成功后,您的弹性云主机就可以使用httpd服务了。 用户数据注入示例: !/bin/bash yum update y service httpd start chkconfig httpd on 案例6 该样例介绍如何通过用户数据注入,激活Linux弹性云主机的root用户远程登录权限。注入成功后,您可以使用SSH密钥方式,以root帐户登录弹性云主机。 用户数据注入示例: cloudconfig disableroot: false runcmd: sed i 's/^PermitRootLogin.$/PermitRootLogin withoutpassword/' /etc/ssh/sshdconfig sed i '/^KexAlgorithms.$/d' /etc/ssh/sshdconfig service sshd restart 相关链接 更多关于用户数据注入案例的介绍,请参见Cloudinit/Cloudbaseinit官网:
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        使用用户数据和元数据
        用户数据注入
      • 安装备份客户端(1)
        接口功能介绍 为指定云主机安装备份客户端 接口约束 1、在一个地域下,每个用户最多保留20个备份客户端(可依据配额动态调整) 2、云主机处于运行中状态 3、备份服务已开通 4、云主机未安装过备份客户端 URI POST /v4/backup/installclientbackup 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b instanceID 是 String 云主机ID 82e2defb3bc8aa3f99c7ccb0aba0fcb0 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败) 800 message String 成功或失败时的描述,一般为英文描述 SUCCESS description String 成功或失败时的描述,一般为中文描述 成功 returnObj Object 成功时返回对象 returnObj errorCode String 业务细分码,为product.module.code三段式码。 backup.regionInfo.empty error String 业务细分码,为product.module.code三段式大驼峰码 Backup.RegionInfo.Empty 表 returnObj 参数 参数类型 说明 示例 下级对象 installStatus Boolean 备份客户端安装命令下发状态 true
        来自:
      • 支持审计的关键操作
        本章节向您介绍企业路由器支持审计的关键操作。 企业路由器(Enterprise Router, ER)可以连接虚拟私有云或本地网络来构建中心辐射型组网,是云上大规格,高带宽,高性能的集中路由器。 通过云审计服务,您可以记录与企业路由器相关的操作事件,便于日后的查询、审计和回溯。 云审计支持的ER操作列表 操作名称 资源类型 事件名称 创建企业路由器 erInstance createInstance 修改企业路由器配置 erInstance updateInstance 删除企业路由器 erInstance deleteInstance 在企业路由器中添加连接 erAttachment createAttachment 修改连接信息 erAttachment updateAttachment 删除连接 erAttachment deleteAttachment 接受连接创建申请 erAttachment acceptAttachment 拒绝连接创建申请 erAttachment rejectAttachment 创建路由表 erRouteTable createRouteTable 修改路由表信息 erRouteTable updateRouteTable 删除路由表 erRouteTable deleteRouteTable 创建静态路由 erStaticRoute createStaticRoute 批量创建静态路由 erStaticRoute batchCreateStaticRoute 删除静态路由 erStaticRoute deleteStaticRoute 批量删除静态路由 erStaticRoute batchDeleteStaticRoute 修改静态路由 erStaticRoute updateStaticRoute 创建关联 erAssociation createAssociation 删除关联 erAssociation deleteAssociation 创建传播 erPropagation createPropagation 删除传播 erPropagation deletePropagation 创建流日志 erFlowLog createFlowLog 修改流日志基本信息 erFlowLog updateFlowLog 关闭流日志 erFlowLog updateFlowLog 开启流日志 erFlowLog updateFlowLog 删除流日志 erFlowLog deleteFlowLog
        来自:
        帮助文档
        企业路由器
        用户指南
        审计
        支持审计的关键操作
      • MySQL数据迁移到DWS
        创建DWS连接 1.在CDM集群管理界面,单击集群后的“作业管理”,选择“连接管理 > 新建连接”,进入连接器类型的选择界面。 2.连接器类型选择“数据仓库服务(DWS)”后单击“下一步”配置DWS连接参数,必填参数如下表“DWS连接参数”所示,可选参数保持默认即可。 参数名 说明 取值样例 名称 输入便于记忆和区分的连接名称。 dwslink 数据库服务器 DWS数据库的IP地址或域名。 192.168.0.3 端口 DWS数据库的端口。 8000 数据库名称 DWS数据库的名称。 dbdemo 用户名 拥有DWS数据库的读、写和删除权限的用户。 dbadmin 密码 用户的密码。 使用Agent 是否选择通过Agent从源端提取数据。 是 Agent 单击“选择”,选择连接Agent中已创建的Agent。 导入模式 COPY模式:将源数据经过DWS管理节点后拷贝到数据节点。如果需要通过Internet访问DWS,只能使用COPY模式。 COPY 3.单击“保存”完成创建连接。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到DWS的任务。 详见下图:创建MySQL到DWS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择上述 创建MySQL连接 中的“mysqllink”。 −使用SQL语句:否。 −模式或表空间:待抽取数据的模式或表空间名称。 −表名:要抽取的表名。 −其他可选参数一般情况下保持默认即可,详细说明请参见配置常见关系数据库源端参数。 目的端作业配置 −目的连接名称:选择创建DWS连接中的连接“dwslink”。 −模式或表空间:选择待写入数据的DWS数据库。 −自动创表:只有当源端和目的端都为关系数据库时,才有该参数。 −表名:待写入数据的表名,可以手动输入一个不存在表名,CDM会在DWS中自动创建该表。 −是否压缩:DWS提供的压缩数据能力,如果选择“是”,将进行高级别压缩,CDM提供了适用I/O读写量大,CPU富足(计算相对小)的压缩场景 −存储模式:可以根据具体应用场景,建表的时候选择行存储还是列存储表。一般情况下,如果表的字段比较多(大宽表),查询中涉及到的列不多的情况下,适合列存储。如果表的字段个数比较少,查询大部分字段,那么选择行存储比较好。 −扩大字符字段长度:当目的端和源端数据编码格式不一样时,自动建表的字符字段长度可能不够用,配置此选项后CDM自动建表时会将字符字段扩大3倍。 −导入前清空数据:任务启动前,是否清除目的表中数据,用户可根据实际需要选择。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段,如下图“表到表的字段映射”所示。 如果字段映射顺序不匹配,可通过拖拽字段调整。 单击,可批量映射字段。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。可适当调大参数,提升迁移效率。 是否写入脏数据:表到表的迁移容易出现脏数据,建议配置脏数据归档。 作业运行完是否删除:这里保持默认值“不删除”。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MySQL数据迁移到DWS
      • 权限管理
        DataArts Studio控制台功能依赖的角色或策略 DataArts Studio服务各组件功能所需依赖服务的权限如表12所示。在实际授权场景中,推荐为开发者用户配置DataArts Studio服务级别的依赖服务最小权限,开发者用户的最小依赖服务权限如表13所示。 说明 在实际授权场景中,DAYU Administrator和DAYU User系统角色已经预置了依赖服务的管理员权限。为了避免普通用户/用户组被授予DAYU User系统角色导致其拥有的依赖服务权限过大的风险,您可以在为用户组授权DAYU User系统角色后,手动删除用户组的周边依赖权限,再为用户组授予所需依赖服务的最小权限合集。 表12 DataArts Studio控制台依赖服务的角色或策略 控制台功能 依赖服务 需配置角色/策略 具体功能 管理中心 BSS bss:coupon:view bss:renewal:update bss:discount:view bss:order:view bss:order:pay bss:order:update 创建增量包或DataArts Studio实例 管理中心 KMS kms:cmk:get kms:cmk:list kms:cmk:create kms:cmk:decrypt kms:cmk:encrypt kms:dek:create kms:dek:encrypt kms:dek:decrypt 创建数据连接时,使用KMS加解密 管理中心 DWS dws:cluster:list dws:cluster:getDetail dws:openAPICluster:getDetail 创建DWS数据连接 管理中心 MRS mrs:cluster:get mrs:cluster:list 创建MRS数据连接 管理中心 VPC vpc:publicIps:get vpc:publicIps:list vpc:vpcs:get vpc:port:get vpc:subnets:get 创建MRS数据连接 管理中心 RDS rds::get rds::list 创建RDS数据连接 数据集成 VPC vpc:publicIps:get vpc:publicIps:list vpc:vpcs:get vpc:vpcs:list vpc:port:get vpc:subnets:get vpc:securityGroups:get vpc:firewalls:list vpc:routeTables:list vpc:subNetworkInterfaces:list 创建CDM集群或DataArts Studio实例 数据集成 ECS ecs:flavors:get ecs:cloudServerFlavors:get ecs:availabilityZones:list 创建CDM集群或DataArts Studio实例 数据集成 CDM cdm:cluster:create 创建CDM集群 数据集成 KMS kms:cmk:get kms:cmk:list kms:cmk:create kms:cmk:decrypt kms:cmk:encrypt kms:dek:create kms:dek:encrypt kms:dek:decrypt 创建数据连接时,使用KMS加解密 数据集成 MRS mrs:cluster:get mrs:cluster:list mrs:job:get mrs:job:list 创建MRS数据连接 数据集成 DWS dws:cluster:list dws:cluster:getDetail dws:openAPICluster:getDetail 创建DWS数据连接 数据集成 CDM cdm:cluster:get cdm:cluster:list cdm:link:operate cdm:job:operate 通过CDM控制台操作时,需要CDM服务权限 数据集成 CES ces::get ces::list 查看CES监控 数据集成 CSS css::get css::list 创建CSS连接 数据集成 CloudTable cloudtable::get cloudtable::list 创建CloudTable连接 数据集成 RDS rds::get rds::list 创建RDS连接 数据集成 RMS rms:resources:list 创建CDM集群 数据开发 OBS obs:object:GetObject obs:object:PutObject obs:bucket:GetBucketLocation obs:bucket:ListAllMyBuckets obs:bucket:ListBucket obs:bucket:CreateBucket 运行脚本、运行作业以及备份作业 数据开发 SMN smn:topic:publish smn:topic:list 作业通知 数据开发 KMS kms:cmk:get kms:cmk:list kms:cmk:create kms:cmk:decrypt kms:cmk:encrypt kms:dek:create kms:dek:encrypt kms:dek:decrypt 创建数据连接时,使用KMS加解密 数据开发 MRS mrs:cluster:get mrs:cluster:list mrs:job:submit mrs:job:delete mrs:job:stop mrs:sql:execute mrs:sql:cancel mrs:job:get mrs:job:list MRS类型作业节点运行: MRS Presto SQL、MRS Spark、MRS Spark Python、MRS Flink Job、 MRS MapReduce MRS Spark SQL、MRS Hive SQL 数据开发 DLI dli:queue:submitJob dli:jobs:create dli:jobs:update dli:jobs:get dli:jobs:list dli:jobs:listAll DLI类型作业节点运行: DLI SQL、DLI Spark 数据开发 OBS obs:object:GetObject obs:object:PutObject obs:object:DeleteObject obs:bucket:GetBucketLocation obs:bucket:ListAllMyBuckets obs:bucket:ListBucket obs:bucket:ListBucketVersions obs:bucket:CreateBucket obs:bucket:DeleteBucket OBS类型作业节点运行: Create OBS、Delete OBS、OBS Manager 数据开发 DWS dws:cluster:list dws:cluster:getDetail dws:openAPICluster:getDetail 创建DWS数据连接 数据开发 CDM cdm:cluster:get cdm:cluster:list cdm:job:operate 数据连接需要Agent的相关脚本、作业,以及CDM作业运行: RDS SQL、DWS SQL、Hive SQL、SPARK SQL、Shell、Python 数据开发 CES ces:metricData:list 运维概览,查询DLI队列CPU 数据开发 GES ges:graph:access ges:graph:operate ges:graph:list ges:graph:getDetail ges:metadata:create ges:metadata:operate ges:metadata:delete ges:metadata:list ges:metadata:getDetail ges:jobs:list ges:jobs:getDetail Import GES作业节点运行 数据开发 ECS ecs:servers:list ecs:servers:get ecs:servers:stop ecs:servers:start ecs:cloudServers:list Open/Close Resource作业节点运行,创建主机连接 数据开发 DLI dli:queue:submitJob dli:queue:cancelJob dli:group:useGroup dli:group:getGroup dli:group:updateGroup dli:group:deleteGroup dli:group:listAllGroup dli:database:createDatabase dli:database:dropDatabase dli:database:displayDatabase dli:database:displayAllDatabases dli:database:explain dli:database:createView dli:database:createTable dli:database:displayAllTables dli:database:createFunction dli:database:describeFunction dli:database:showFunctions dli:database:dropFunction dli:table:select dli:table:update dli:table:delete dli:table:dropTable dli:table:describeTable dli:table:showCreateTable dli:table:showPartitions dli:table:showSegments dli:table:showTableProperties dli:table:insertOverwriteTable dli:table:insertIntoTable dli:table:compaction dli:table:truncateTable dli:table:alterView dli:table:alterTableRename dli:table:alterTableAddColumns dli:table:alterTableDropColumns dli:table:alterTableChangeColumn dli:table:alterTableSetLocation dli:table:alterTableAddPartition dli:table:alterTableRenamePartition dli:table:alterTableSetProperties dli:table:alterTableRecoverPartition dli:table:alterTableDropPartition dli:column:select dli:jobs:create dli:jobs:delete dli:jobs:start dli:jobs:stop dli:jobs:update dli:jobs:export dli:jobs:get dli:jobs:list dli:jobs:listAll dli:resource:useResource dli:resource:updateResource dli:resource:deleteResource dli:resource:getResource dli:resource:listAllResource dli:variable:update dli:variable:delete DLI类型作业/脚本运行 数据开发 IAM iam:agencies:listAgencies 获取作业委托 数据开发 DIS DIS Operator DIS User DIS类型作业节点运行: DIS Stream、DIS Dump、DIS Client 数据开发 SWR SWR Admin 仅当在数据开发组件作业中使用DLI Spark 节点选择自定义镜像时,需要容器镜像服务中的镜像读取权限。 推荐通过,添加所需镜像的读取权限。不推荐直接为用户授予SWR Admin系统角色, 可能存在权限过大的风险。 数据目录 OBS obs:object:GetObject obs:bucket:GetBucketStorage obs:bucket:GetBucketLocation obs:bucket:ListAllMyBuckets obs:bucket:ListBucket OBS元数据采集 数据目录 DIS dis:streams:list dis:transferTasks:list DIS元数据采集 数据目录 CSS css:cluster:list CSS元数据采集 数据目录 GES ges:graph:list ges:graph:getDetail ges:metadata:list ges:metadata:getDetail GES元数据采集 数据目录 DLI dli:database:displayDatabase dli:database:displayAllDatabases dli:table:select dli:table:describeTable dli:table:showPartitions dli:table:showTableProperties dli:jobs:create dli:jobs:get DLI元数据采集&数据概要分析 数据目录 CDM cdm:cluster:list CSS元数据采集 数据质量 SMN smn:topic:publish smn:topic:list 配置作业通知 数据质量 OBS obs:object:GetObject obs:object:PutObject obs:bucket:GetBucketLocation obs:bucket:ListAllMyBuckets obs:bucket:ListBucket obs:bucket:CreateBucket 导出质量报告 数据质量 MRS mrs:job:submit mrs:sql:execute mrs:sql:cancel mrs:job:get MRS质量作业运行 数据质量 DLI dli:queue:submitJob dli:jobs:get dli:jobs:listAll DLI质量作业运行 数据安全 DLI dli:queue:submitJob dli:queue:cancelJob dli:database:displayDatabase dli:database:displayAllDatabases dli:database:displayAllTables dli:table:describeTable dli:jobs:create dli:jobs:stop dli:jobs:get dli:resource:deleteResource dli:resource:getResource dli:resource:listAllResource DLI权限管控 数据安全 DWS dws:cluster:list dws:cluster:getDetail dws:openAPICluster:getDetail DWS权限管控 数据安全 MRS mrs:cluster:list mrs:job:submit mrs:job:stop MRS权限管控 数据安全 KMS kms:cmk:list kms:cmk:encrypt kms:cmk:decrypt 使用KMS加解密 数据安全 CDM 任意cdm权限,例如cdm:cluster:get DWS和MRS权限管控 表13 开发者用户的依赖服务最小权限合集 权限类型 角色与策略权限系统角色 角色与策略权限自定义策略 角色与策略权限自定义策略 是否必配 必配 必配 必配 权限 l DIS Operator l DIS User l (可选,不推荐)SWR Admin 说明 仅当在数据开发组件作业中使用DLI Spark 节点选择自定义镜像时,需要容器镜像服务中的镜像读取权限。 推荐通过,添加所需镜像的读取权限。不推荐直接为用户授予SWR Admin系统角色, 可能存在权限过大的风险。 依赖的全局级(global级)云服务的自定义策略DataArtsStudioPermissionsOfDependentServicesglobal : { "Version": "1.1", "Statement": [ { "Effect": "Allow", "Action": [ "obs:object:GetObject", "obs:object:PutObject", "obs:object:DeleteObject", "obs:bucket:GetBucketStorage", "obs:bucket:GetBucketLocation", "obs:bucket:ListAllMyBuckets", "obs:bucket:ListBucket", "obs:bucket:ListBucketVersions", "obs:bucket:CreateBucket", "obs:bucket:DeleteBucket", "rms:resources:list", "iam:agencies:listAgencies" ] } ] } 依赖的项目级(region级)云服务的自定义策略DataArtsStudioPermissionsOfDependentServicesregion : { "Version": "1.1", "Statement": [ { "Effect": "Allow", "Action": [ "cdm:cluster:get", "cdm:cluster:list", "cdm:cluster:create", "cdm:link:operate", "cdm:job:operate", "ces::get", "ces::list", "cloudtable::get", "cloudtable::list", "css::get", "css::list", "dis:streams:list", "dis:transferTasks:list", "dli:queue:submitJob", "dli:queue:cancelJob", "dli:table:insertOverwriteTable", "dli:table:insertIntoTable", "dli:table:alterView", "dli:table:alterTableRename", "dli:table:compaction", "dli:table:truncateTable", "dli:table:alterTableDropColumns", "dli:table:alterTableSetProperties", "dli:table:alterTableChangeColumn", "dli:table:showSegments", "dli:table:alterTableRecoverPartition", "dli:table:dropTable", "dli:table:update", "dli:table:alterTableDropPartition", "dli:table:alterTableAddPartition", "dli:table:alterTableAddColumns", "dli:table:alterTableRenamePartition", "dli:table:delete", "dli:table:alterTableSetLocation", "dli:table:describeTable", "dli:table:showPartitions", "dli:table:showCreateTable", "dli:table:showTableProperties", "dli:table:select", "dli:resource:updateResource", "dli:resource:useResource", "dli:resource:getResource", "dli:resource:listAllResource", "dli:resource:deleteResource", "dli:database:explain", "dli:database:createDatabase", "dli:database:dropFunction", "dli:database:createFunction", "dli:database:displayAllDatabases", "dli:database:displayAllTables", "dli:database:displayDatabase", "dli:database:describeFunction", "dli:database:createView", "dli:database:createTable", "dli:database:showFunctions", "dli:database:dropDatabase", "dli:group:useGroup", "dli:group:updateGroup", "dli:group:listAllGroup", "dli:group:getGroup", "dli:group:deleteGroup", "dli:column:select", "dli:jobs:start", "dli:jobs:export", "dli:jobs:update", "dli:jobs:list", "dli:jobs:listAll", "dli:jobs:get", "dli:jobs:delete", "dli:jobs:create", "dli:jobs:stop", "dli:variable:update", "dli:variable:delete", "dws:cluster:list", "dws:cluster:getDetail", "dws:openAPICluster:getDetail", "ecs:servers:get", "ecs:servers:list", "ecs:servers:stop", "ecs:servers:start", "ecs:flavors:get", "ecs:cloudServerFlavors:get", "ecs:cloudServers:list", "ecs:availabilityZones:list", "ges:graph:access", "ges:metadata:create", "ges:jobs:list", "ges:graph:operate", "ges:jobs:getDetail", "ges:graph:getDetail", "ges:graph:list", "ges:metadata:list", "ges:metadata:getDetail", "ges:metadata:delete", "ges:metadata:operate", "kms:cmk:get", "kms:cmk:list", "kms:cmk:create", "kms:cmk:decrypt", "kms:cmk:encrypt", "kms:dek:create", "kms:dek:encrypt", "kms:dek:decrypt", "mrs:cluster:get", "mrs:cluster:list", "mrs:job:get", "mrs:job:list", "mrs:job:submit", "mrs:job:stop", "mrs:job:delete", "mrs:sql:execute", "mrs:sql:cancel", "rds::get", "rds::list", "smn:topic:publish", "smn:topic:list", "vpc:publicIps:list", "vpc:publicIps:get", "vpc:vpcs:get", "vpc:vpcs:list", "vpc:port:get", "vpc:subnets:get", "vpc:securityGroups:get", "vpc:firewalls:list", "vpc:routeTables:list", "vpc:subNetworkInterfaces:list" ] } ] }
        来自:
      • 使用OpenSearch客户端导入数据至OpenSearch实例
        本文为您介绍使用OpenSearch客户端导入数据至天翼云云搜索服务OpenSearch实例的方法。 OpenSearch提供官方的客户端库,支持多种编程语言,如 Java、Python、JavaScript 等。 适用场景 编程场景:当你有自定义应用程序,需要通过代码直接与OpenSearch交互时,OpenSearch客户端提供了灵活的 API 进行复杂查询和批量导入数据。 批量数据导入:通过客户端库可以实现大规模数据的分块导入,并发写入,适用于处理大数据量的场景。 动态数据处理:如果数据在导入前需要复杂的逻辑处理,可以通过编程语言和客户端实现定制的数据流。 前提条件 已经开通天翼云云搜索OpenSearch实例。 能够通过HTTP访问OpenSearch实例。 客户端使用实例 这里以Python和Java客户端为例。 使用Python客户端 (opensearchpy) Python客户端opensearchpy是一个与OpenSearch交互的轻量级库。使用它,你可以通过index方法将数据导入到指定索引中。 python from opensearchpy import OpenSearch 创建OpenSearch客户端 osclient OpenSearch(" 要导入的数据 data { "title": "OpenSearch入门", "content": "OpenSearch是一款分布式搜索引擎,用于高效搜索和分析大量数据。", "date": "20240823" } 将数据导入到名为"articles"的索引 response osclient.index(index"articles", bodydata) print(response) 使用Java客户端 Java 是 OpenSearch 的主要编程语言之一,其官方客户端提供了丰富的功能。以下示例展示了如何使用 Java 客户端导入数据: java import org.opensearch.client.RestClient; import org.opensearch.client.RestHighLevelClient; import org.opensearch.client.RequestOptions; import org.opensearch.action.index.IndexRequest; import org.opensearch.action.index.IndexResponse; import org.opensearch.common.xcontent.XContentType; public class DataImporter { public static void main(String[] args) throws Exception { RestHighLevelClient client new RestHighLevelClient( RestClient.builder(new HttpHost("ip", 9200, "http")) ); String jsonString "{" + ""title":"OpenSearch入门"," + ""content":"OpenSearch是一款分布式搜索引擎..."," + ""date":"20240823"" + "}"; IndexRequest request new IndexRequest("articles"); request.source(jsonString, XContentType.JSON); IndexResponse response client.index(request, RequestOptions.DEFAULT); System.out.println(response.getId()); client.close(); } }
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        导入数据至OpenSearch实例
        使用OpenSearch客户端导入数据至OpenSearch实例
      • 应用场景
        云服务备份可为多种资源提供备份保护服务,有效保障用户数据的安全性和正确性,确保业务安全。云服务备份适用于数据备份和恢复以及业务快速迁移和部署的场景。 云服务备份可为多种资源提供备份保护服务,最大限度保障用户数据的安全性和正确性,确保业务安全。云服务备份适用于数据备份和恢复以及业务快速迁移和部署的场景。 云数据备份和恢复 云服务备份在以下场景中,均可快速恢复数据,保障业务安全可靠。 受黑客攻击或病毒入侵 通过云服务备份,可立即恢复到最近一次没有受黑客攻击或病毒入侵的备份时间点。 数据被误删 通过云服务备份,可立即恢复到删除前的备份时间点,找回被删除的数据。 应用程序更新出错 通过云服务备份,可立即恢复到应用程序更新前的备份时间点,使系统正常运行。 云主机宕机 通过云服务备份,可立即恢复到宕机之前的备份时间点,使服务器能再次正常启动。 业务快速迁移&部署 为云主机创建备份,使用备份创建镜像,可快速创建与现有云主机相同配置的新云服务器,实现业务的快速部署。 详情请参考最佳实践整机镜像跨可用区迁移
        来自:
        帮助文档
        云服务备份
        产品介绍
        应用场景
      • 分析Redis实例大Key和热Key
        本章主要介绍分析Redis实例大Key和热Key 大Key和热Key问题是Redis使用中的常见问题,本章节主要介绍对Redis实例进行大Key和热Key分析,通过大Key和热Key分析,可以监控到占用空间过大的Key,以及该Redis实例存储数据中被访问最多的Key。 大Key分析使用限制和说明: 所有Redis实例都支持。 在大Key分析时,会遍历Redis实例中的所有Key,因此分析所需要时间取决于Key的数量。 在进行大Key分析时,建议在业务低谷期间进行,且不要与配置的自动备份时间重叠。 如果是主备和集群实例,大Key分析是对备节点的分析,对实例性能影响较小。如果是单机实例,由于只有一个节点,是对主节点进行分析,客户访问性能会略有影响(不高于10%),所以建议在业务低谷期进行大Key分析。 对于大Key分析结果,每个Redis实例默认最多保存100条记录(string类型保存top20,list/set/zset/hash类型保存top80),当超过100条记录时会默认删除最老的分析记录,而存入最新的记录。同时,支持用户在控制台上手动删除无用的大Key分析记录。 热Key分析使用限制和说明: 只有Redis 4.0/Redis 5.0/Redis 6.0实例支持,并且实例maxmemorypolicy参数必须配置为allkeyslfu或者volatilelfu。 在热Key分析时,会遍历Redis实例中的所有Key,因此分析所需要时间取决于Key的数量。 配置自动热key分析时,要考虑不要在业务高峰期进行,避免影响业务,同时也不要过了高峰期太久,避免分析结果不准确。 热key分析是对于主节点的分析,在进行分析时,客户访问性能会略有影响(不高于10%)。 对于热Key分析结果,每个Redis实例默认最多保存100条记录。当超过100条记录时会默认删除最老的分析记录,而存入最新的记录。同时,支持用户在控制台上手动删除无用的热Key分析记录 说明 建议在业务低峰时段执行大Key和热Key分析,降低CPU被用满的可能。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        分析Redis实例大Key和热Key
      • 工具中心
        本节为您介绍云迁移服务迁移管理中工具中心。 进入云迁移服务CMS平台,在左侧导航栏中迁移管理选项点击【工具中心】,进入[ 工具中心 ]界面。云迁移服务CMS提供服务器迁移服务(CMSSMS)、数据库迁移服务(CMSDMS)、数据迁移工具(CMSZMS)以及异构迁移工具。如下图所示。
        来自:
      • 1
      • ...
      • 30
      • 31
      • 32
      • 33
      • 34
      • ...
      • 752
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      人脸检测

      推荐文档

      登录

      玩转天翼云④:ntp时间同步服务

      什么是服务器迁移

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号