活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 查询软件端口等资产指纹top5数据
        参数 参数类型 说明 示例 下级对象 userInfoList Array of Objects 账户topN数据 userInfoList processList Array of Objects 进程topN数据 processList packageList Array of Objects 软件topN数据 packageList portList Array of Objects 端口topN数据 portList selfStartList Array of Objects 自启动项topN数据 selfStartList 表 selfStartList
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        资产概览
        查询软件端口等资产指纹top5数据
      • SPL加工(1)
        SPL概述 云日志服务提供SPL语句(Semistructured Processing Language),对半结构化的日志数据做结构化处理,比如信息提取、字段操作、数据过滤等操作。SPL提供类Linux Shell脚本的管道级联功能,其中第一级管道前的表达式是数据源(可以是索引过滤条件或其他SPL语句的命名引用),后面的多级管道前后都是SPL命令表达式。 SPL语法说明 一个SPL语句由多个表达式组成,各表达式之间通过英文管道符 () 连接;一个SPL语句以英文分号 (;) 作为语句结束符。SPL语法结构如下: 语法 html sourceexpr cmdexpr cmdexpr; 参数说明 参数 说明 示例 sourceexpr 数据源。包括日志单元数据和SPL命名引用 · · $src 管道符:与Linux Shell中管道符作用类似,即管道前的指令的输出会作为管道后的指令的输入 cmdexpr 指令表达式,即SPL处理日志数据的各种表达式。 详情参考指令表达式语法。 parse typecsv raw as time,ip,level,msg 数据源 分类 场景 数据来源 说明 非命名引用 采集 采集器采集数据 使用星号()表示将采集器采集的全部原始数据作为输入 非命名引用 数据加工 日志单元数据 使用索引过滤结果作为输入。 · 目前索引过滤条件仅支持 命名引用 SPL 通过let指令定义的命名引用 前提:其他SPL表达式已通过let指令定义了命名引用; 通过$+命名引用名称,即可解引用并将其当作数据源
        来自:
      • 冷热数据分离语法介绍
        本页介绍天翼云TeleDB数据库的冷热数据转换语法。 热数据转冷数据语法 ALTER TABLE [分区主表名] ALTERPARTITION PARTITION [分区子表名] SET STORAGETYPE OSS STORAGEOPTION ( name1 val1, name2 val2, name3 val3…); STORAGE TYPE::可以为OSS和LOCAL,OSS为远程对象存储,LOCAL为本地数据。 STORAGE OPTION: server 服务器名 filePath 对象存储全路径(不包括桶名) enableCache 是否使用缓存(true/false) 冷数据转热数据语法 ALTER TABLE [分区主表名] ALTERPARTITION PARTITION [分区子表名] SET STORAGETYPE LOCAL;
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        冷热数据分离
        冷热数据分离语法介绍
      • 数据脱敏与水印
        进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据脱敏与水印”,跳转到数据脱敏与水印控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据脱敏与水印控制台。 使用数据脱敏与水印 请参见数据脱敏与水印。
        来自:
        帮助文档
        云等保专区
        用户指南
        数据脱敏与水印
      • 数据同步类
        MySQL双向实时同步时,若源库和目标库同时变更同一个表的同一条数据,会怎么样? 数据库双写问题是业界难题,DTS的双向同步无法完全解决数据双写引发的数据冲突问题。在使用双向同步时,您需要在业务层面配合进行相应的改造,保证同一个主键或唯一键的记录只在双向同步的某个节点进行更新。 若短时间内业务对源库、目标库中同一条记录发生变更,DTS采用以下策略来保证数据的最终一致性: TaskFailed(遇到冲突,任务报错退出)。 当数据同步遇到冲突时,同步任务直接报错并退出,同步任务进入失败状态,需要您介入修复任务。 Ignore(遇到冲突,直接使用目标实例中的冲突记录)。 当数据同步遇到冲突时,直接跳过当前同步语句,继续往下执行,选择使用目标库中的冲突记录。 Overwrite(遇到冲突,直接覆盖目标实例中的冲突记录)。 当数据同步遇到冲突时,直接覆盖目标库中的冲突记录。 正向和反向都可以选择以上一种冲突修复策略,DTS根据用户配置的冲突修复策略进行冲突的检测和处理。 PostgreSQL双向实时同步时,若源库和目标库同时变更同一个表的同一条数据,会怎么样? 数据库双写问题是业界难题,DTS的双向同步无法完全解决数据双写引发的数据冲突问题。在使用双向同步时,您需要在业务层面配合进行相应的改造,保证同一个主键或唯一键的记录只在双向同步的某个节点进行更新。 若短时间内业务对源库、目标库中同一条记录发生变更,DTS采用以下策略来保证数据的最终一致性: TaskFailed(遇到冲突,任务报错退出)。 当数据同步遇到冲突时,同步任务直接报错并退出,同步任务进入失败状态,需要您介入修复任务。 Ignore(遇到冲突,直接使用目标实例中的冲突记录)。 当数据同步遇到冲突时,直接跳过当前同步语句,继续往下执行,选择使用目标库中的冲突记录。 Overwrite(遇到冲突,直接覆盖目标实例中的冲突记录)。 当数据同步遇到冲突时,直接覆盖目标库中的冲突记录。 正向和反向都可以选择以上一种冲突修复策略,DTS根据用户配置的冲突修复策略进行冲突的检测和处理。
        来自:
        帮助文档
        数据传输服务DTS
        常见问题
        数据同步类
      • 与其他云服务的关系
        操作名称 资源类型 事件名称 创建密钥 cmk createKey 创建数据密钥 cmk createDataKey 创建不含明文数据密钥 cmk createDataKeyWithoutPlaintext 启用密钥 cmk enableKey 禁用密钥 cmk disableKey 加密数据密钥 cmk encryptDatakey 解密数据密钥 cmk decryptDatakey 计划删除密钥 cmk scheduleKeyDeletion 取消计划删除密钥 cmk cancelKeyDeletion 创建随机数 rng genRandom 修改密钥别名 cmk updateKeyAlias 修改密钥描述 cmk updateKeyDescription 密钥删除风险提示 cmk deleteKeyRiskTips 导入密钥材料 cmk importKeyMaterial 删除密钥材料 cmk deleteImportedKeyMaterial 加密数据 cmk encryptData 解密数据 cmk decryptData 添加标签 cmk createKeyTag 删除标签 cmk deleteKeyTag 批量添加标签 cmk batchCreateKeyTags 批量删除标签 cmk batchDeleteKeyTags 开启密钥轮换 cmk enableKeyRotation 修改密钥轮换周期 cmk updateKeyRotationInterval 关闭密钥轮换 cmk disableKeyRotation
        来自:
        帮助文档
        数据加密
        产品介绍
        与其他云服务的关系
      • 敏感实例
        脱敏授权 当用户需要授权其他用户查询敏感列的明文信息时,可以进行脱敏授权操作。 1. 登录数据管理服务。 2. 在左侧菜单栏中,选择数据资产 > 敏感数据保护,进入敏感数据保护页面。 3. 在顶部菜单栏中,选择敏感实例页签,进入敏感实例页面。 4. 在敏感实例列表中,点击指定实例操作列的脱敏授权按钮即可跳转到该实例的数据权限管理页面。 5. 在数据权限管理页面,用户可以查看、添加、回收该实例下所有敏感列的权限。 关闭保护 当实例不再需要敏感数据保护功能时,可以通过关闭保护操作,移除该实例的敏感数据保护功能。 1. 登录数据管理服务。 2. 在左侧菜单栏中,选择数据资产 > 敏感数据保护,进入敏感数据保护页面。 3. 在顶部菜单栏中,选择敏感实例页签,进入敏感实例页面。 4. 在敏感实例列表中,点击指定实例操作列的关闭保护按钮即可。 5. 需要注意的是,关闭保护后,会同步删除对应实例的所有敏感列、历史识别任务、敏感列权限。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        敏感数据保护
        敏感实例
      • 使用限制
        类型 限制项 默认配额 备注 数据查询 最大查询时间范围 11000 暂不支持调整 数据查询 单次接口查询超时时间 30秒 暂不支持调整 数据查询 单次查询最多扫描时间线数量 2万 可提交工单申请扩容,扩容不会对之前上报数据生效。 数据查询 单次查询扫描最大数据量 1000万 暂不支持调整 数据查询 单次查询返回的最大数据量 100万 暂不支持调整 数据查询 最大查询QPS 50QPS 暂不支持调整 数据采集和上报 每个数据点最大支持大小 32kB,超过会解析失败 暂不支持调整 数据采集和上报 每个用户最大时间线数量 实际上系统会在到达限额之前为您自动做相关的扩容,因此您无需关注该限制。 数据采集和上报 每次上报请求总数据量大小 不超过1MB(最多一次上报1024个指标,因此理论上不会超过) 不支持调整,超过1 MB数据会被全部丢弃。 数据采集和上报 单指标Label长度限制 Label Key或者Label Value字符串长度不超过256个字符。 不支持调整,超限会被调换为MAXTAGVALUELIMITED 数据采集和上报 单个指标的标签数限制 64个 超出可能会造成数据丢失 数据采集和上报 默认数据保存时长 Prometheus实例 for 云服务默认保存30天,其他类型实例默认保存15天。 您可在控制台自行调整数据存储时长。 数据采集和上报 Agent单副本默认配置(3核4 G)一次最多能采集的数据点数 350万 建议您扩容副本 数据采集和上报 Agent单副本默认配置(3核4 G)最大采集Target数 1000个 建议您扩容副本 数据采集和上报 1个Target 30秒内可以最大可采集的数据点数 60万 建议您扩容副本 数据采集和上报 Agent HPA最大副本数 20 若超限,您可在控制台手动增加副本数。 数据采集和上报 Agent 支持的ACK集群版本 待测 建议您升级Kubernetes版本 告警 告警规则查询返回结果数 500 其他 单集群Recording Rules数量上限 100 超限不限制使用,但是计算可能会有延迟 其他 共享版Grafana每个租户最多能创建的Folder数量 10
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        产品概述
        使用限制
      • 使用Hive加载HDFS数据并分析图书评分情况
        本章节主要介绍使用Hive加载HDFS数据并分析图书评分的实践。 MRS离线处理集群,可对海量数据进行分析和处理,形成结果数据,供下一步数据应用使用。 离线处理对处理时间要求不高,但是所处理数据量较大,占用计算存储资源较多,通常通过Hive/SparkSQL引擎或者MapReduce/Spark2x实现。 本实践基于天翼云翼MapReduce服务,用于指导您创建MRS集群后,使用Hive对原始数据进行导入、分析等操作,展示了如何构建弹性、低成本的离线大数据分析。 基本内容如下所示: 1. 创建MRS离线查询集群。 2. 将本地数据导入到HDFS中。 3. 创建Hive表。 4. 将原始数据导入Hive并进行分析。 场景描述 Hive是建立在Hadoop上的数据仓库框架,提供大数据平台批处理计算能力,能够对结构化/半结构化数据进行批量分析汇总完成数据计算。提供类似SQL的Hive Query Language语言操作结构化数据,其基本原理是将HQL语言自动转换成MapReduce任务,从而完成对Hadoop集群中存储的海量数据进行查询和分析。 Hive主要特点如下: 海量结构化数据分析汇总。 将复杂的MapReduce编写任务简化为SQL语句。 灵活的数据存储格式,支持JSON,CSV,TEXTFILE,RCFILE,SEQUENCEFILE,ORC(Optimized Row Columnar)这几种存储格式。 本实践以某图书网站后台用户的点评数据为原始数据,导入Hive表后通过SQL命令筛选出最受欢迎的畅销图书。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        数据分析
        使用Hive加载HDFS数据并分析图书评分情况
      • 为什么WAF、HSS中的数据和SA中的数据不一致?
        本节介绍为什么WAF、HSS中的数据和SA中的数据不一致。 由于SA中汇聚WAF和HSS上报的所有历史告警数据,而WAF和HSS中展示的是实时告警数据,导致存在SA与WAF、HSS中数据不一致的情况。 因此,建议您前往对应服务(WAF或HSS)进行查看并处理。
        来自:
        帮助文档
        态势感知(专业版)
        常见问题
        产品咨询
        为什么WAF、HSS中的数据和SA中的数据不一致?
      • 数据保护技术
        数据保护手段 简要说明 传输中的数据保护 日志数据采用安全协议HTTPS传输到日志服务,防止数据被窃取;用户的配置数据传输采用安全协议HTTPS,防止数据被窃取。 配置数据完整性 CFW会和配置管理中心检验配置一致性,实时确保配置的准确性和完整性。 数据销毁机制 考虑到残留数据导致的用户信息泄露问题,保留期到期仍未续订或充值,存储在云服务中的数据将被删除,云服务资源将被释放。CFW会清除用户数据,避免用户数据残留造成信息泄露。 数据存储安全 对静态数据进行透明加密,可以保护数据免受可以访问底层文件系统的攻击者的影响。
        来自:
        帮助文档
        云防火墙(原生版)
        产品介绍
        安全
        数据保护技术
      • 等候室
        会前设置 1. 创建者预定会议时,在预定会议页面勾选“开启等候室”。 会中设置 1. 点击底部工具栏 “安全”按钮,在“安全设置”弹窗的“会议管理”标签页,勾选“开启等候室”。 2. 点击底部工具栏 “成员”按钮,选择一个成员,点击“更多”>“移至等候室”,则将该成员移至等候室的同时,也会开启等候室。 如何关闭等候室 会前设置 1. 创建者编辑会议时,在编辑会议页面将“开启等候室”取消勾选,再点击“确认”。 会中设置 1. 点击底部工具栏 “安全”按钮,在“安全设置”弹窗的“会议管理”标签页,将“开启等候室”取消勾选即可。如果已有成员在等候中,关闭等候室时会弹窗提示,主持人可在“等候室已关闭”的弹窗中,选择查看等候室或全部准入。 将会中成员移至等候室 1. PC端主持人:点击底部工具栏 “成员”按钮,选中成员后点击“更多”>“移至等候室”即可。 2. 移动端主持人:点击底部工具栏 “成员”按钮,点击选中的成员,点击“移至等候室”即可。 如何管理等候室成员 1. 开启等候室后,当有新成员进入等候室时,主持人/联席主持人的底部工具栏“成员”按钮会显示红色数字图标,提示等候中的成员数量。点击“成员”按钮,即可在“成员管理”>“等候中”页面查看正在等候室中的成员。 2. 选中等候中的成员,点击【移出】,在“移出等候成员”的弹窗再次点击“移出”即可将该成员移出等候室。如果在弹窗中勾选“不允许用户再次加入该会议”后再点击“移出”,该成员后续将无法再通过任何方式加入本场会议,除非主持人在会中主动邀请他加入。点击“全部移出”,即可将等候室中所有成员移出。 3. 选中等候中的成员,点击“准入”按钮,在“准入等候成员”的弹窗再次点击“准入”即可允许该成员加入会议,这个准入是单次有效的,如果成员离开会议后再加入还会先进入等候室。如果在弹窗中勾选“允许本场自动准入”后再点击“准入”,该成员后续加入本场会议都将跳过等候室直接进入会议中。如果点击“全部准入”,即允许等候中的所有成员加入该会议。 4. 如果在准入时勾选了“允许本场自动准入”,后续在将其移出会议时,如果在“移出会议”弹窗中勾选了“回收本场自动准入权限”再点击“移出会议”,则该成员后续再加入该会议时,还是会先进入等候室。
        来自:
        帮助文档
        AOne会议
        用户指南
        等候室
      • 透明数据加密概述
        本文介绍了透明数据加密(Transparent Data Encryption)功能。 功能简介 透明数据加密(Transparent Data Encryption)是通过对磁盘上存储的数据进行加密和解密来实现数据的保护。 透明: 当使用者在打开或编辑指定文件时,系统将自动对未加密的文件进行加密,对已加密的文件解密。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密: TDE使用openssl提供AES(Advanced Encryption Standard)算法来加密数据,并将密钥存储在数据库服务器的受信任位置,以确保安全性。 RDSPostgreSQL透明加密实现方案 RDSPostgreSQL通过用户在数据密钥服务中创建的对称主密钥来生成 DEK(Data Encryption Key)数据密钥密文与明文,通过DEK密钥对数据进行加密,通过DEK密文对DEK密钥进行加密。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据安全
        数据加密
        透明数据加密概述
      • 归档数据直读
        本节主要介绍归档数据直读。 您可以在创建桶时开启归档数据直读,也可以在已创建的桶中根据需要开启归档数据直读,详细操作步骤如下。 操作步骤 步骤 1 在OBS管理控制台桶列表中,单击待操作的桶,进入“对象”页面。 步骤 2 在左侧导航栏,单击“概览”,进入“概览”页面。 步骤 3 在“基础配置”区域下,单击“归档数据直读”卡片,系统弹出“归档数据直读”对话框。 步骤 4 选择“开启”。 步骤 5 单击“确定”。
        来自:
      • 通过DMS登录MySQL实例
        创建关系数据库MySQL版实例后,可以通过登录数据库管理服务DMS对数据库实例进行数据管理、用户授权、SQL审计、数据可视化等管理操作。本文为您介绍如何通过数据库管理服务DMS登录关系数据库MySQL版实例。 注意 仅西南1、华东1、华南2、华北2等II类型资源池支持该功能,I类型资源池不支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见使用限制或者功能概览。 背景信息 数据管理服务(Data Management Service,DMS)是异构数据库(支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS等数据库类型)的一站式、全生命周期管理平台,为企业提供统一数据资产视图、统一数据库开发规范、统一数据安全策略、统一变更管控标准,让数据库的使用更高效、更安全、更规范。更多DMS信息,请参见DMS产品定义。 前提条件 已快速创建关系数据库MySQL版实例。 已创建数据库用户。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 选择如下一种方式,进入数据库管理服务DMS。 方法一:在实例列表上方,单击进入数据管理服务,进入到DMS管理控制台,然后填写登录数据库的数据库账号和密码,即可登录DMS。 方法二:在实例列表中,找到目标实例,单击实例名称,进入实例基本信息 页签,然后在右上角单击登录数据库,即可进入该实例的DMS登录页面。 方法三:在实例列表中,找到目标实例,选择操作 列的更多 > 登录数据库,即可进入该实例的DMS登录页面。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库工具
        通过DMS登录MySQL实例
      • 如何通过设置数据分片来提升性能
        选择合适的数据分布策略 分片集群支持将单个集合的数据分散存储在多个分片上,用户可以根据集合内文档的分片键来分布数据。 目前,主要支持两种数据分布策略,即范围分片(Range based sharding)和Hash分片(Hash based sharding)。 下面分别介绍这两种数据分布策略以及各自的优缺点。 范围分片 基于范围进行分片,即集群按照分片键的范围把数据分成不同部分。假设有一个数字分片键,为一条从负无穷到正无穷的直线,每一个片键的值均在直线上进行标记。可以理解为将该直线划分为更短的不重叠的片段,并称之为数据块,每个数据块包含了分片键在一定的范围内的数据。 图 数据分布示意图 如上图所示,x表示范围分片的片键,x的取值范围为[minKey,maxKey],且为整型。将整个取值范围划分为多个chunk,每个chunk(通常配置为64MB)包含其中一小段的数据。其中,chunk1包含x值在[minKey, 75]中的所有文档,每个chunk的数据都存储在同一个分片上,每个分片可以存储多个chunk,并且chunk存储在分片中的数据会存储在config服务器中,mongos也会根据各分片上的chunk的数据自动执行负载均衡。 范围分片能够很好的满足范围查询的需求,例如,查询x的取值在[60,20]中的文档,仅需mongos将请求路由到chunk2。 范围分片的缺点在于,如果分片键有明显递增(或递减)趋势,新插入的文档很大程度上会分布到同一个chunk,从而无法扩展写的能力。例如,使用“id”作为分片键,集群自动生成id的高位值将是递增的时间戳。 Hash分片 根据用户的分片键值计算出Hash值(长度64bit且为整型),再按照范围分片策略,根据Hash值将文档分布到不同的chunk中。基于Hash分片主要的优势为保证数据在各节点上分布基本均匀,具有“相近”片键的文档很可能不会存储在同一个数据块中,数据的分离性更高。 图 数据分布示意图 Hash分片与范围分片互补,能将文档随机分散到各个chunk,充分扩展写能力,弥补范围分片的不足。但所有的范围查询要分发到后端所有的分片,才能获取满足条件的文档,查询效率低。
        来自:
        帮助文档
        文档数据库服务
        最佳实践
        如何通过设置数据分片来提升性能
      • 使用DAS的导出和导入功能迁移RDS for SQL Server数据
        本节介绍了 使用DAS的导出和导入功能迁移RDS for SQL Server数据的相关内容。 操作场景 当进行数据备份或迁移时,支持使用数据管理服务的数据导出功能,获取完整的数据信息,再将数据从本地或者从OBS桶导入目标数据表。 约束限制 只支持导入一个文件,该文件最大可达1GB。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 RDS for SQL Server实例表数量超过1万时,使用DAS的“导出数据库”功能会报错表数量过多,无法导出数据。此时请使用“导出SQL结果集”功能。 导出数据 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击操作列的“登录”,进入数据管理服务实例登录界面。 步骤 5 正确输入数据库用户名和密码,单击“登录”,即可进入您的数据库并进行管理。 步骤 6 在顶部菜单栏选择“导入·导出”>“导出”。 步骤 7 在导出页面,单击左上角“新建任务”,您可根据需要选择“导出数据库”或“导出SQL结果集”。下文以导出数据库为例,导出SQL集同理。 您也可通过单击“快速导出”,创建快速导出任务导出指定数据库信息,选择存储位置,并单击“确定”。 步骤 8 在导出数据库弹出页面,您可按需选填“基本信息”及“高级选项”,并在页面右侧选择需要导出的表。 步骤 9 设置完导出任务信息,单击弹出页面下部“确定”,创建导出任务。 步骤 10 在导出任务列表页面,您可查看任务ID、任务类型、任务状态、进度等信息。 步骤 11 您可在列表操作栏,单击“查看详情”,在任务详情弹出页面,查看本次导出任务执行的详情信息。 结束
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        数据库迁移
        使用DAS的导出和导入功能迁移RDS for SQL Server数据
      • 数据采集
        数据类型 采集数据 传输方式 存储方式 数据用途 时限 性能指标数据 JVM相关数据、异常、数据库、SQL语句以及中间件调用相关的数据 通过WSS方式传输 APM服务端按照租户隔离存储 指标查看页面展示 免费版7天,企业版30天,到期彻底删除 调用链数据 调用链event数据,包含中间件调用的相关数据 通过WSS方式传输 APM服务端按照租户隔离存储 调用链前台查询展示 免费版7天,企业版30天,到期彻底删除 资源信息 服务类型、服务名称、创建时间、删除时间、所在节点地址和服务发布端口 通过WSS方式传输 APM服务端按照租户隔离存储 资源库前台查询展示 免费版7天,企业版30天,到期彻底删除 资源属性 系统类型、系统启动事件、CPU个数、服务执行用户名称、服务进程id、服务的PodID、CPU标志、系统版本、服务使用的Web框架、JVM版本、时区、系统名称、采集器版本以及LastMail的Url 通过WSS方式传输 APM服务端按照租户隔离存储 资源库前台查询展示 免费版7天,企业版30天,到期彻底删除
        来自:
        帮助文档
        应用性能管理
        产品介绍
        数据采集
      • 方案正文
        本章节介绍详细的操作步骤关于如何通过常用工具Navicat连接PostgreSQL。 创建PostgreSQL 操作场景 本文将介绍在云数据库RDS服务的管理控制台上创建实例的过程。 目前,RDS for PostgreSQL支持“包年/包月”和“按需计费”购买,您可以根据业务需要定制相应计算能力和存储空间的RDS实例。 操作步骤 1、登录管理控制台。 2、单击管理控制台右上角区域选项,选择区域和项目。 3、在页面左上角单击 ,选择“数据库 > 关系型数据库PostgreSQL”。进入云数据库 RDS信息页面。 4、在“实例管理”页面,单击“购买数据库实例”。 5、在“服务选型”页面,选择计费模式,填写并选择实例相关信息后,单击“立即购买”。 图 购买PostgreSQL数据库 登录主机下载Navicat 操作步骤 1、通过windows远程登录页面登录ECS 2、登录Navicat官网下载对应的数据库客户端 通过Navicat连接PostgreSQL 操作步骤 1、打开Navicat点击新建连接 2、编辑PostgreSQL登录信息 3、创建数据库 4、右击”表“,选择新建 5、编辑数据表的字段信息 6、编写测试数据 7、查询测试数据
        来自:
        帮助文档
        关系数据库PostgreSQL版
        最佳实践
        通过Navicat连接PostgreSQL
        方案正文
      • 云备份概述
        备份类型 备份对象 适用场景 区别和优势 备份方法 恢复方法 云主机备份 弹性云主机中的所有云硬盘(系统盘和数据盘) 云主机受到攻击或病毒入侵 通过云主机备份,可立即恢复到最近一次没有受黑客攻击或病毒入侵的备份时间点。 数据被误删 通过云主机备份,可立即恢复到删除前的备份时间点,找回被删除的数据 应用程序更新出错 通过云主机备份,可立即恢复到应用程序更新前的备份时间点,使系统正常运行。 云主机宕机 通过云主机备份,可立即恢复到宕机之前的备份时间点,使云主机能再次正常启动 备份的同一个云主机下的所有云硬盘数据具有一致性,即同时对所有云硬盘进行备份,不存在因备份创建时间差带来的数据不一致问题。 且云备份支持根据备份策略自动备份。 创建云主机备份 使用云主机备份恢复数据(恢复至原服务器) 使用云主机备份恢复数据(创建新的云主机) 云硬盘备份 指定的单个或多个云硬盘(系统盘或数据盘) 系统盘没有个人数据,因而只需要对部分的数据盘进行备份 当云硬盘出现故障或云硬盘中的数据发生逻辑错误时(如误删数据、遭遇黑客攻击或病毒危害等),可快速恢复数据。 备份作为基线数据 设置备份策略,根据策略自动对云硬盘进行数据备份,通过定期创建的备份作为基线数据,用来创建新的云硬盘或者恢复数据到云硬盘。 备份数据则存储在对象存储 (OBS)中,可以实现在云硬盘存储损坏情况下的数据恢复 保证数据安全的同时降低备份成本 创建云硬盘备份 使用云硬盘备份恢复数据(恢复至原磁盘) 使用云硬盘备份恢复数据(创建新的磁盘) 快照 指定的单个或多个云硬盘(系统盘或数据盘) 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况 快速恢复数据 应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云主机 A的系统盘 A发生故障而无法正常开机时,此时您可以使用系统盘 A已有的快照新创建一块云硬盘 B并挂载至正常运行的云主机 B上,从而云主机 B能够通过云硬盘 B读取原系统盘 A的数据。 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。 例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。 说明 只支持回滚快照数据至原云硬盘,不支持快照回滚到其它云硬盘。 重装操作系统或切换操作系统后,系统盘快照会自动删除;数据盘快照不受影响,可以照常使用。 快照数据与云硬盘数据存储在一起,可以支持快速备份和恢复 快速保存指定时刻云硬盘的数据,同时还可以通过快照创建新的云硬盘,这样云硬盘在初始状态就具有快照中的数据 创建快照 使用快照回滚数据 系统盘镜像 系统盘 快速恢复系统 更换操作系统、应用软件升级或业务数据迁移等重大操作前,将系统盘创建成系统盘镜像,一旦迁移过程中出现问题,可以通过系统盘镜像切换操作系统,或重新创建新的云主机。 快速部署多个业务 通过同一个系统盘镜像可以快速创建出多个具有相同操作系统的云主机,从而快速部署多个业务。 系统盘镜像可以实现在云主机操作系统损坏情况下快速切换至损坏前的操作系统。 创建系统盘镜像 使用系统盘镜像切换故障云主机的操作系统 使用系统盘镜像创建新的云主机 数据盘镜像 指定的数据盘 快速复制数据 通过同一个数据盘镜像可以快速创建出多个具有相同数据的云硬盘,再将新创建的云硬盘挂载到其他服务器上,从而可以同时为多种业务提供数据资源。 数据盘镜像可以复制全盘的数据并创建新的云硬盘挂载到其他服务器上,实现云主机数据盘的复制和共享。 创建数据盘镜像 使用数据盘镜像创建数据盘 整机镜像 弹性云主机中的所有云硬盘(系统盘和数据盘) 快速恢复系统 更换操作系统、应用软件升级或业务数据迁移等重大操作前,将云主机的系统盘和数据盘创建成整机镜像,一旦迁移过程中出现问题,可以通过整机镜像切换操作系统,或重新创建新的云主机。 快速部署多个业务 通过同一个整机镜像可以快速创建出多个具有相同操作系统和数据的云主机,从而快速部署多个业务。 通过整机镜像实现业务的整理迁移。 创建整机镜像 使用整机镜像创建新的云主机
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云备份
        云备份概述
      • 功能特性
        本节为您介绍数据安全中心提供的功能。 功能特性 说明 数据安全总览 展示数据安全全生命周期各个阶段的状态,包括云服务全景图(资产地图)、数据采集安全、数据传输/存储安全和数据交换/删除安全,实时呈现了用户资产的具体情况。 资产地图 通过可视化方式,从资产概况、分类分级、权限配置、数据存储、敏感数据等多个维度查看资产的安全状态,可快速发现风险资产并进行快速风险处理。 资产管理 资产列表:支持管理OBS、数据库、大数据和MRS数据资产。 数据目录:可查看不同业务域或不同类型数据的统计信息。 数据探索:查看当前已添加的所有数据资产详细信息,并对数据库、数据表以及数据视图等添加描述、标签、密级和分类操作,从而实现数据资产分级分类管理。 元数据任务:采集原数据。 数据管理:对现有数据进行分组管理。 敏感数据识别 数据自动分级分类:在AI和专家知识库的双重加权下,精确识别敏感数据和文件,覆盖结构化(RDS)和非结构化(OBS)两种数据类型,实现云上全场景覆盖。 文件类型:支持近200种非结构化文件。 数据类型:支持数十种个人隐私数据类型,包含中英文。 图片类型:支持识别(png、jpeg、xportablepixmap、tiff、bmp、gif、jpx、jp2总共8种类型)图片中的敏感文字,包含中英文。 合规模板:多种内置合规知识库,如GDPR,PCI DSS,HIPAA等。 自动识别敏感数据: 自动识别敏感数据及个人隐私数据。 支持自定义规则,场景适配不同行业。 提供可视化识别结果。 DSC服务敏感数据的识别时长将由您所扫描数据源的数据量、扫描规则数、扫描模式决定。 数据风险检测 用户异常行为分析:基于深度行为识别技术,建立用户行为基线,实现基线外异常操作实时告警,行为操作实时查询,行为轨迹可视化,风险事件关联识别,针对风险事件关联用户操作,完善溯源审计链条。 通常情况下,以下行为均被视为异常事件: 非法用户在未经授权的情况下对敏感数据进行了访问、下载。 合法用户对敏感数据进行了访问、下载、修改、权限更改、权限删除。 合法用户对敏感数据的桶进行权限更改、权限删除。 访问敏感数据的用户登录终端异常等情况。 数据脱敏 DSC的数据脱敏支持静态脱敏和动态脱敏。 DSC的数据脱敏特点: 不影响用户数据:从原始数据库读取数据,通过精确的脱敏引擎,对用户的敏感数据实施静态脱敏,脱敏结果另行存放,不会影响原始的用户数据。 支持云上各类场景:支持RDS,ECS自建数据库,大数据合规。 满足多种脱敏需求:用户可以通过20+种预置脱敏规则,或自定义脱敏规则来对指定数据库表进行脱敏。 实现一键合规:基于扫描结果自动提供脱敏合规建议,一键配置脱敏规则。 DSC通过内置和自定义脱敏算法,实现对RDS、Elasticsearch数据进行脱敏。 数据水印 针对PDF、PPT、Word、Excel格式的文件提供了添加和提取水印的功能。 版权证明:嵌入数据拥有者的信息,保证资产唯一归属,实现版权保护。 追踪溯源:嵌入数据使用者的信息,在发生数据泄露事件时,追踪其泄露源头。 同时,DSC提供了数据动态添加水印和提取数据水印的API接口供您使用。 告警通知 通过设置告警通知,当敏感数据检测完成后或异常事件处理监测到异常事件时,数据安全中心会将其检测结果通过用户设置的接收通知方式发送给用户。
        来自:
        帮助文档
        数据安全中心
        产品介绍
        功能特性
      • 支持的功能模块
        本章节介绍应用容灾多活中不同的应用架构支持的功能模块。 应用架构 支持的功能模块 应用双活 管控通道 注册配置中心RCC 应用双活 接入层 云原生网关CGW 应用双活 服务层 SpringCloud 应用双活 服务层 Dubbo 应用双活 数据层 关系型数据库MySQL版 应用双活 数据层 关系型数据库PostgreSQL版 应用双活 消息层 分布式消息服务RocketMQ 数据双活 管控通道 注册配置中心RCC 数据双活 接入层 云原生网关CGW 数据双活 服务层 SpringCloud 数据双活 服务层 Dubbo 数据双活 数据层 关系型数据库MySQL版 数据双活 数据层 关系型数据库PostgreSQL版 数据双活 消息层 分布式消息服务RocketMQ
        来自:
        帮助文档
        应用高可用
        购买指南
        应用容灾多活计费说明
        支持的功能模块
      • 与其他产品的关系
        与表格存储服务的关系 表格存储服务(CloudTable Service)作为数据湖探索的数据来源及数据存储,与数据湖探索配合一起使用,关系有如下两种。 • 数据来源:数据湖探索服务提供DataFrame和SQL方式从CloudTable中导入数据到数据湖探索。 • 存储查询结果:数据湖探索使用标准SQL的Insert语法将日常作业的查询结果数据存放到CloudTable表中。 与关系型数据库服务(RDS)的关系 关系型数据库(Relational Database Service)作为数据湖探索的数据来源及数据存储,与数据湖探索配合一起使用,关系有如下两种。 • 数据来源:数据湖探索服务提供DataFrame和SQL方式从RDS中导入数据到数据湖探索。 • 存储查询结果:数据湖探索使用标准SQL的Insert语法将日常作业的查询结果数据存放到RDS表中。 与数据仓库服务的关系 数据仓库服务(Data Warehouse Service)作为数据湖探索的数据来源及数据存储,与数据湖探索配合一起使用,关系有如下两种。 • 数据来源:数据湖探索服务提供DataFrame和SQL方式从数据仓库中导入数据到数据湖探索。 • 存储查询结果:数据湖探索使用标准SQL的Insert语法将日常作业的查询结果数据存放到数据仓库服务表中。 与云搜索服务的关系 云搜索服务(Cloud Search Service)作为数据湖探索的数据来源及数据存储,与数据湖探索配合一起使用,关系有如下两种。 • 数据来源:数据湖探索服务提供DataFrame和SQL方式从云搜索服务中导入数据到数据湖探索。 • 存储查询结果:数据湖探索使用标准SQL的Insert语法将日常作业的查询结果数据存放到云搜索服务表中。
        来自:
        帮助文档
        数据湖探索
        产品简介
        与其他产品的关系
      • 任务管理
        查看迁移详情 在DTS的实例管理 页面,单击目标实例名称,进入实例详情页面。然后在左侧菜单栏选择迁移详情 ,进入迁移详情页面。您可以查看结构迁移、全量数据迁移和增量数据迁移的具体信息。 结构迁移 单击结构迁移 ,查看当前数据迁移实例的结构迁移详情,包括迁移的Tables、Views、Functions、Procedures的对象名称、源库、目标库、状态等信息。 单击列表右方操作 列的查看创建语法 ,可以查看迁移对象的创建语句。 全量数据迁移 单击全量数据迁移 ,查看当前数据迁移实例的全量部分的迁移详情,包括对象名称、源库与目标库的库表信息、已完成行数、耗时、状态等信息。 增量数据迁移 单击增量数据迁移 ,查看当前数据迁移任务增量部分的迁移详情,包括源库、目标库、当前的数据传输模块拉取位点和源库最新位点、是否延迟等状态信息。 编辑迁移任务 只有在任务未启动前,才可以编辑任务。 编辑迁移任务需要先暂停实例任务,然后单击编辑迁移按钮,进行迁移对象的动态增加或减少。 动态增加迁移对象 然后依次单击 下一步 ,完成迁移对象的动态增加、减少。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        任务管理
      • 勒索病毒防护
        参数名称 参数说明 取值样例 配置详情 选择自定义或固定保留备份数据的周期,选择后自动开启备份保留,满足周期备份数据后系统将自动删除更早的数据。 自定义:输入以天为单位的数值,备份数据满足自定义天数的保存周期后,系统自动删除最早产生的备份数据。 1个月:备份数据满足1个月的保存周期后,系统自动删除最早产生的备份数据。 3个月:备份数据满足3个月的保存周期后,系统自动删除最早产生的备份数据。 6个月:备份数据满足6个月的保存周期后,系统自动删除最早产生的备份数据。 1年:备份数据满足1年的保存周期后,系统自动删除最早产生的备份数据。 3个月
        来自:
      • 初始化
        参数 类型 描述 是否必须 path String 指定数据目录。数据目录用于存储数据,建议不要与操作系统共用磁盘或文件系统。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 说明 对于单机版,第一个数据目录为默认数据目录。对于集群版,需要至少有一个数据目录。 注意 如果故障域是server和path级别,此项必填。 否 capacityQuota Long 指定数据目录的容量配额,即针对加入到服务器中的每个数据目录,HBlock可写入的数据总量。当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 取值:小于数据目录所在磁盘的总容量,单位是bytes。负整数表示无限制写入,0表示禁止写入。默认不限制写入。 注意 如果相同的数据目录出现多次,以第一次出现的数据目录的容量配额为准。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        初始化
        初始化
      • 新建质量作业
        导出质量作业 系统支持批量导出质量作业,一次最多可导出200个质量作业。 1. 选择“数据质量监控 > 质量作业”,选择要导出的质量作业。 2. 单击“导出”,弹出“导出质量作业”对话框。 3. 单击“导出”,切换到“导出记录”页签。 4. 在导出文件列表中,单击最新导出文件对应的“下载”,可将质量作业的Excel表格下载到本地。 导入质量作业 系统支持批量导入质量作业,一次最大可导入1M数据的文件,并且最多200个质量作业。 1. 选择“数据质量监控 > 质量作业”,单击“导入”,弹出“导入质量作业”对话框。 2. 在“导入配置”页签,选择模板名称重名策略。 终止:如果质量作业名称有重复,则全部导入失败。 跳过:如果质量作业名称有重复,会忽略后继续导入。 覆盖:如果质量作业名称有重复,会覆盖现有同名作业。 3. 单击“上传文件”,选择准备好的数据文件。 说明 可通过如下两种方式填写数据文件: (推荐使用)通过“导出”功能,可将数据直接/或修改后批量导入系统。 通过“下载Excel模板”,将数据填写好,再导入至系统中。 4. 分别配置数据连接、集群、目录、主题的映射资源信息。 数据连接:选择导入后的数据连接类型。 集群:如果数据连接类型是DLI,需要选择对应的队列。 目录:选择导入后的质量作业存储目录。 主题:如果配置了消息通知,需要选择主题。 5. 单击“导入”,将填好的Excel表格模板导入到系统。 6. 单击“导入记录”页签,可查看对应的导入记录。
        来自:
      • 权限管理
        操作 KMS Administrator KMS CMKFullAccess 创建密钥 √ √ 启用密钥 √ √ 禁用密钥 √ √ 计划删除密钥 √ √ 取消计划删除密钥 √ √ 修改密钥别名 √ √ 修改密钥描述 √ √ 创建随机数 √ √ 创建数据密钥 √ √ 创建不含明文数据密钥 √ √ 加密数据密钥 √ √ 解密数据密钥 √ √ 获取密钥导入参数 √ √ 导入密钥材料 √ √ 删除密钥材料 √ √ 创建授权 √ √ 撤销授权 √ √ 退役授权 √ √ 查询授权列表 √ √ 查询可退役授权列表 √ √ 加密数据 √ √ 解密数据 √ √ 查询密钥实例 √ √ 查询密钥标签 √ √ 查询项目标签 √ √ 批量添加删除密钥标签 √ √ 添加密钥标签 √ √ 删除密钥标签 √ √ 查询密钥列表 √ √ 查询密钥信息 √ √ 查询实例数 √ √ 查询配额 √ √
        来自:
        帮助文档
        数据加密
        产品介绍
        权限管理
      • 权限管理概述
        场景举例 某互联网公司,主要有游戏和音乐两大业务,使用DLI服务进行用户行为分析,辅助决策。 如图所示,“基础平台组组长”在云上申请了一个“租户管理员”(Tenant Administrator)帐号,用于管理和使用云的各个服务。因为“大数据平台组”需要使用DLI进行数据分析,所有“基础平台组组长”增加了一个权限为“DLI服务管理员”(DLI Service Admin)的子帐号用于管理和使用DLI服务。“基础平台组组长”按照公司两个业务对于数据分析的要求,创建了“队列A”分配给“数据工程师A”运行游戏数据分析业务,“队列B”分配给“数据工程师B”运行音乐数据分析业务,并分别赋予“DLI普通用户”权限,具有队列使用权限,数据(除数据库)的管理和使用权限。 详见下图:权限分配 “数据工程师A”创建了一个gameTable表用于存放游戏道具相关数据,userTable表用于存放游戏用户相关数据。因为音乐业务是一个新业务,想在存量的游戏用户中挖掘一些潜在的音乐用户,所以“数据工程师A”把userTable表的查询权限赋给了“数据工程师B”。同时,“数据工程师B”创建了一个musicTable用于存放音乐版权相关数据。 “数据工程师A”和“数据工程师B”对于队列和数据的使用权限如下表所示。 使用权限说明 用户 数据工程师A (游戏数据分析) 数据工程师B (音乐数据分析) 队列 队列A(队列使用权限) 队列B(队列使用权限) 数据(表) gameTable(表管理和使用权限) musicTable(表管理和使用权限) 数据(表) userTable(表管理和使用权限) userTable(表查询权限) 说明 队列的使用权限包括提交作业和终止作业两个权限。
        来自:
        帮助文档
        数据湖探索
        用户指南
        权限管理
        权限管理概述
      • SQL模板下TPC-H样例数据说明
        TPCH的测试和度量指标 TPCH 测试分解为3 个子测试:数据装载测试、Power测试和Throughput测试。建立测试数据库的过程被称为装载数据,装载测试是为测试DBMS装载数据的能力。装载测试是第一项测试,测试装载数据的时间,这项操作非常耗时。Power 测试是在数据装载测试完成后,数据库处于初始状态,未进行其它任何操作,特别是缓冲区还没有被测试数据库的数据,被称为raw查询。Power测试要求22 个查询顺序执行1 遍,同时执行一对RF1 和RF2 操作。最后进行Throughput 测试,也是最核心和最复杂的测试,更接近于实际应用环境,与Power 测试比对SUT 系统的压力有非常大的增加,有多个查询语句组,同时有一对RF1 和RF2 更新流。 测试中测量的基础数据都与执行时间有关,这些时间又可分为:装载数据的每一步操作时间、每个查询执行时间和每个更新操作执行时间,由这些时间可计算出:数据装载时间、Power@Size、Throughput@Size、QphH@Size 和$/QphH@Size。 Power@Size 是Power 测试的结果,被定义为查询时间和更改时间的几何平均值的倒数,公式如下: 其中:Size 为数据规模;SF 为数据规模的比例因子;QI (i,0)为第 i个查询的时间,以秒为单位;R(I j,0)为 RFj更新的时间,以秒为单位。 Throughput@Size 是Throughput 测试的结果,被定义为所有查询执行时间平均值的倒数,公式如下:
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业模板
        附录
        SQL模板下TPC-H样例数据说明
      • 从快照回滚数据(公测)
        本节介绍了从快照回滚数据的操作场景、约束与限制、操作步骤。 操作场景 如果云硬盘的数据发生错误或者损坏,可以回滚快照数据至创建该快照的云硬盘,从而恢复数据。 约束与限制 ● 只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 ● 只有当快照的状态为“可用”,并且源云硬盘状态为“可用”(即未挂载给云主机)或者“回滚数据失败”时,您才可以执行该操作。 ● 开头为“autobksnapshotvbs”、“manualbksnapshotvbs”、“autobksnapshotcsbs”、“manualbksnapshotcsbs”的快照,是创建备份时系统自动生成的快照。该快照仅支持查看详细信息,无法用于回滚数据。 操作步骤 步骤 1 登录管理控制台。 步骤 2 选择“存储 > 云硬盘”。 步骤 3 在左侧导航栏,选择“云硬盘 > 快照”。 进入“快照”页面。 步骤 4 在快照列表中,找到目标快照并单击快照所在行的“操作”列下的“回滚数据”。 步骤 5 在弹出的对话框中,只有当快照的状态为“可用”,并且源云硬盘状态为“可用”或者“回滚数据失败”时,才可以单击“确定”。 步骤 6 返回快照列表页面,当快照状态由“正在回滚”变为“可用”时,表示回滚数据成功。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        普通快照(公测)
        从快照回滚数据(公测)
      • 数据投递至Kafka
        Prometheus监控服务支持将Prometheus实例的监控数据导出,以进行自定义业务处理。您可以根据业务需求,选择相应的投递目标。本文介绍如何创建Kafka数据投递任务。 前提条件 已接入Prometheus实例。 已部署目标的分布式消息服务Kafka实例,并创建Topic等资源。 开通事件总线EventBridge服务。 注意 1. 数据投递功能依赖事件总线EventBridge,事件总线EventBridge目前公测中,费用详情请参考计费说明。 2. 仅支持从创建任务开始后的实时数据导出,不支持历史数据的投递。 操作步骤 1. 登录应用性能监控控制台。在左侧菜单栏点击Prometheus监控 数据投递菜单。 2. 进入数据投递页面后,点击左上角【创建任务】按钮。 3. 在对话框中输入任务名称和任务描述后,单击确定。将自动跳转至任务编辑页面。 4. 在任务编辑页面,配置数据源和投递目标: 1. 点击【+ 添加数据源】按钮,配置以下参数,然后单击确定。 配置项 说明 示例 Prometheus实例 Prometheus数据源所在实例。 ccexxxxxx 数据过滤 设置需要过滤的指标标签,黑名单机制代表符合条件的指标将不会被投递。白名单机制代表符合条件的指标才会被投递。 支持正则表达式。多个条件需要换行,条件之间为且的关系。 plaintext name~xxxxx regionIdhuadong1 idixxxxxx 数据打标 设置需要新增的标签,设置后将在投递的指标数据增加对应的label。多个标签需要换行。 plaintext testkey1aaaaa testkey2bbbbb 2. 点击【添加目标】按钮,选择目标类型为分布式消息服务Kafka,并选择目标kafka实例与Topic,点击确定,即可完成任务的创建。 注意 在使用kafka数据投递前,需要先在对应kafka实例安全组中允许VPC内访问Kafka实例服务端口,具体操作请查看操作指引。 5. 投递任务启动后,数据经过2~5分钟的延迟即可到达投递目标。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        控制台操作指南
        数据投递
        数据投递至Kafka
      • 1
      • ...
      • 82
      • 83
      • 84
      • 85
      • 86
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      推荐文档

      导入数据

      公告

      客户端下载安装

      网页防篡改卸载

      常见问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号