云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容安全_相关内容
      • 管理手动备份
        本节介绍了GeminiDB Redis的管理手动备份操作说明。 GeminiDB Redis支持对“运行状态”为“正常”的实例创建手动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 说明 系统默认手动备份总配额为50。 手动备份为全量备份。 创建手动备份 1、登录云数据库 GeminiDB控制台。 2、创建手动备份。 方式一 在“实例管理”页面,选择目标实例,单击操作列的“创建备份”。 方式二 1. 在“实例管理”页面,单击目标实例,进入实例的“基本信息”页面。 2. 在左侧导航栏中选择“备份恢复”页签,单击“创建备份”。 方式三 在左侧导航树单击“备份管理”,进入“备份管理”页面,单击“创建备份”。 在“创建备份”弹出框中,输入备份名称及描述,单击“确定”。 创建手动备份参数说明 3、创建手动备份任务下发成功后,可查看备份状态。 在“备份管理”或“备份恢复”页面,可查看正在创建的手动备份的状态显示为“备份中”。 手动备份创建成功的状态显示为“备份完成”。 删除手动备份 如果不再需要已经生成的手动备份,可在“备份管理”页面或“备份恢复”页签进行删除。 手动备份被删除后,将不再显示在备份列表中。 注意 备份删除后,不可恢复,请谨慎操作。 方式一 1. 登录云数据库 GeminiDB控制台。 2. 在“实例管理”页面,单击目标实例,进入实例的“基本信息”页签。 3. 在左侧导航栏中选择“备份恢复”页签,单击目标备份对应操作列中的“删除”。 4. 在删除备份弹出框中,确认目标备份的信息,单击“是”。 方式二 1. 登录云数据库 GeminiDB控制台。 2. 在“备份管理”页面,单击目标备份对应操作列中的“删除”。 3. 在删除备份弹出框中,确认目标备份的信息,单击“是”。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        备份与恢复
        管理手动备份
      • 概述
        全局索引是一组非分片键和分片键的映射关系,通过非分片键查询到分片键,直接计算出数据所在的分片节点,从而提升非分片键查询(select语句)时的效率,避免广播查询。本文对分布式关系数据库DRDS全局索引功能进行说明。 核心特性 全局索引的核心特性说明如下: 增量索引追加 解析binlog数据,提取非分片键和分片键的映射关系。 支持全量索引重建 通过JDBC从数据库中获取全量数据。 以单索引单分片为最小任务单元分配重建任务。 索引存储 索引数据以keyvalue方式存储在分布式缓存中。 索引配置 索引项相关的配置与DRDS实例共用,配置修改实时同步。 库表信息变更自动同步更新。 索引延时 正常情况下,索引与数据库延时在秒级以内。 注意事项 DRDS实例版本不同全局索引的管理入口可能存在差异,具体版本说明如下,请以控制台实际情况为准: V5.1.20.0.13及以后版本:Giserver与DBProxy合并部署,不再区分DBProxy和Giserver两种实例,即购买DRDS实例时,将自动为该实例部署Giserver与DBProxy,且两者之间底层服务与进程互相隔离、故障互相隔离,更具安全性和性价比。 说明 您可以在控制台的左侧导航栏选择DRDS > 实例管理 ,进入实例列表页面,再单击目标DRDS实例操作 列的管理 ,进入实例基本信息 页面,然后单击目录树的全局索引,管理您的GiServer。 V5.1.20.0.13以前的版本:存在DBProxy和Giserver两种实例,存量GiServer实例不影响使用。 说明 您可以在控制台的左侧导航栏选择DRDS > 全局索引,进入全局索引管理页面,管理您的GiSever实例。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        概述
      • SNAT规则类
        本文介绍NAT网关—SNAT规则类相关问题。 为什么使用SNAT? 在网络通信中,当内部网络的主机向外部网络发送数据包时,数据包的源IP地址会经过SNAT被转换为一个公共IP地址,这样外部网络就无法直接访问内部网络的真实IP地址。SNAT的主要作用是隐藏内部网络的真实IP地址,从而增强网络的安全性。 同时SNAT可以使多个内网主机通过同一个外网IP接入Internet,从而达到节省成本的目的。 什么是 SNAT连接数 ? 由源IP地址、源端口、目的IP地址、目的端口、传输层协议这五个元素组成的集合视为一条连接。连接能够区分不同会话,并且对应的会话是唯一的。其中源IP地址和源端口指SNAT转换之后的EIP和它的端口。 当多个内部主机通过同一个外部IP地址访问外部网络时,网络设备会使用SNAT来转换源IP地址和端口号,以便外部网络可以正确识别和回复数据包。 SNAT连接数表示当前正在进行的通过SNAT技术建立的连接数量。这些连接可能是在同一时间内与外部网络建立的活动连接,也可以是已建立但尚未关闭的连接。通过跟踪SNAT连接数,可以对网络流量和负载进行监控和管理,并确保网络资源的适当分配和性能优化。 NAT网关规格为并发连接数,并发连接数为每分钟内并发连接的数量。并发连接数=SNAT连接数+DNAT连接数。 主机通过NAT网关访问外网,请问NAT网关的带宽是多少?在哪里设置? 主机通过NAT网关访问外网,NAT网关的带宽即SNAT规则绑定的弹性IP带宽,可以在弹性IP页面调整带宽大小,具体操作参见弹性IP修改带宽。
        来自:
        帮助文档
        NAT网关
        常见问题
        SNAT规则类
      • 通过自定义域名访问集群
        本文主要介绍通过自定义域名访问集群 操作场景 集群服务端证书中签入的 主题备用名称(Subject Alternative Name,缩写SAN) 。SAN通常在TLS握手阶段被用于客户端校验服务端的合法性:服务端证书是否被客户端信任的CA所签发,且证书中的SAN是否与客户端实际访问的IP地址或DNS域名匹配。 当客户端无法直接访问集群内网私有IP地址或者公网弹性IP地址时,您可以将客户端可直接访问的IP地址或者DNS域名签入集群服务端证书,以支持客户端开启双向认证,提高安全性。典型场景例如DNAT访问、域名访问等特殊场景。 域名访问场景的典型使用方式如下: 客户端配置Host域名指定DNS域名地址,或者客户端主机配置/etc/hosts,添加域名映射。 云上内网使用,云解析服务DNS支持配置集群弹性IP与自定义域名的映射关系。后续更新弹性IP可以继续使用双向认证+自定义域名访问集群,无需重新下载kubeconfig.json配置文件。 自建DNS服务器,自行添加A记录。 约束与限制 仅支持1.19及以上版本集群。 添加自定义SAN 步骤 1 登录CCE控制台。 步骤 2 在集群列表中单击集群,进入集群详情页。 步骤 3 在连接信息的自定义SAN处单击,在弹出的窗口中添加IP地址或域名,然后单击“保存”。 说明 当前操作将会短暂重启kubeapiserver并更新kubeConfig.json文件,请避免在此期间操作集群。 请输入域名或ip,以英文逗号(,)分隔,最多128个。 自定义域名如需绑定弹性公网,请确保已配置公网地址。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        访问集群
        通过自定义域名访问集群
      • 数据脱敏快速入门
        本章节为您介绍如何快速使用数据脱敏能力。 第一步:新增数据源 1.使用系统管理员账号登录数据脱敏实例。 2.在左侧目标栏选择“数据资产管理 > 数据源/目标”,进入“数据源/目标”管理页面。 3.单击页面左上角的“新增”按钮,在右侧的窗口中数据需要新增数据源的相关信息。 注意 不同的数据源类型会存在不同的参数填写情况。 若您选择的数据源类型为StructFile下的LOCAL/FTP/SFTP,且文件类型为csv/txt/del,则可以在高级属性中填写表头行数:若表头行数为0,将自动填充表头;若行数大于1,则仅保留最后一行作为新表头,此配置可以使数据扫描更加准确。 4.填写完成后,单击窗口左下角的“测试连接”按钮,测试数据源的连通性。 5.连接成功后,若需要再新增目标请单击“保存并新增数据目标”重复上述操作,否则请单击“保存”按钮。 第二步:配置脱敏任务 1.使用系统管理员登录数据脱敏实例。 2.在左侧导航栏选择“脱敏/水印任务 > 结构化任务 ”,进入“结构化任务”页面。 3.单击页面左上角的“新增”按钮,进入“任务新增”界面。 4.填写完成后,单击“下一步”即可完成脱敏规则的基础配置。 第三步:配置脱敏规则 在完成基础配置后,会开始脱敏规则的创建。 配置数据脱敏任务时,您可以选择手动配置所需字段对应的脱敏规则,或者一键选择数据安全专区提供的脱敏模板。 若您希望创建自己的脱敏模板,可单击“管理”按钮,进入对应配置页面配置自定义脱敏模板,单击“保存”后单击“刷新” ,即可在下拉框中选择新创建的自定义模板。如下图所示。
        来自:
        帮助文档
        数据安全专区
        快速入门
        数据脱敏快速入门
      • 备份概述
        本页介绍天翼云TeleDB数据库备份概述。 TeleDB支持数据库实例的备份与恢复,以保证数据的可靠性。备份存储方式可根据业务需求设置加密或不加密。TeleDB数据库实例的备份包括物理备份和逻辑备份。 备份的目的 当数据库被恶意或误删除,虽然TeleDB支持高可用,但备机数据库会被同步删除且无法还原。因此,数据被删除后只能依赖于实例的备份保障数据安全。 全量备份 全量备份表示对所有目标数据进行备份,包含备份时刻点上数据库的全量数据,耗时时间长(和数据库数据总量成正比),自身即可恢复出完整的数据库。 增量备份 只包含从指定时刻点之后的增量修改数据,耗时时间短(和增量数据成正比,和数据总量无关),但是必须要和全量备份数据一起才能恢复出完整的数据库。 自动备份 TeleDB会在数据库实例的备份时段中创建数据库实例的自动备份。系统根据您指定的备份保留期保存数据库实例的自动备份。 手动备份 用户还可以创建手动备份对数据库进行备份,手动备份是由用户启动的数据库实例的全量备份,会一直保存,直到用户手动删除。 对象存储备份 数据库对象存储备份是一种数据备份策略,‌其中数据库数据被存储在对象存储‌系统中。‌这种备份方法利用对象存储的特性和优势,‌为数据库提供连续的数据保护和低成本的备份服务。‌对象存储作为一种存储架构,‌以对象为单位处理、‌存储和检索数据,‌每个对象包含数据本身、‌元数据以及一个全局唯一的标识符。‌这种存储方式特别适合存储大量非结构化的数据,‌并且能够通过API进行数据的读写。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        备份与恢复
        备份概述
      • 备份概述
        本页介绍天翼云TeleDB数据库备份概述。 TeleDB支持数据库实例的备份与恢复,以保证数据的可靠性。备份存储方式可根据业务需求设置加密或不加密。TeleDB数据库实例的备份包括物理备份和逻辑备份。 备份的目的 当数据库被恶意或误删除,虽然TeleDB支持高可用,但备机数据库会被同步删除且无法还原。因此,数据被删除后只能依赖于实例的备份保障数据安全。 全量备份 全量备份表示对所有目标数据进行备份,包含备份时刻点上数据库的全量数据,耗时时间长(和数据库数据总量成正比),自身即可恢复出完整的数据库。 增量备份 只包含从指定时刻点之后的增量修改数据,耗时时间短(和增量数据成正比,和数据总量无关),但是必须要和全量备份数据一起才能恢复出完整的数据库。 自动备份 TeleDB会在数据库实例的备份时段中创建数据库实例的自动备份。系统根据您指定的备份保留期保存数据库实例的自动备份。 手动备份 用户还可以通过手动方式对数据库进行备份。手动备份是共享备份策略设置的保留份数,超过也会自动删除备份文件。 对象存储备份 数据库对象存储备份是一种数据备份策略,‌其中数据库数据被存储在对象存储‌系统中。‌这种备份方法利用对象存储的特性和优势,‌为数据库提供连续的数据保护和低成本的备份服务。‌对象存储作为一种存储架构,‌以对象为单位处理、‌存储和检索数据,‌每个对象包含数据本身、‌元数据以及一个全局唯一的标识符。‌这种存储方式特别适合存储大量非结构化的数据,‌并且能够通过API进行数据的读写。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        备份与恢复
        备份概述
      • 脱敏策略
        本节介绍如何创建数据脱敏策略,然后在数据目录中进行脱敏查询。 前提条件 数据分类规则已创建,数据分类规则的创建请参见数据分类。 数据连接,数据表已创建成功,敏感数据已被数据目录采集。 创建脱敏策略 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 详见下图:选择数据目录 2. 选择“数据安全 > 脱敏策略”,在“脱敏策略”页面中,单击“新建”。 3. 绑定分类规则,配置脱敏算法并适配对应的算法类型。脱敏算法包含掩码,截断和哈希。每种脱敏算法对应多种算法类型,请根据产品界面进行选择,这里不再赘述。配置完成后单击“确定”。 说明 已被绑定脱敏算法的分类规则不支持被重复绑定。 详见下图:新建脱敏 4. 适配脱敏算法后,支持用户在线进行测试。输入测试数据,单击“测试”,在测试结果文本框中进行验证。 5. 开启或关闭状态,只有启用状态下的脱敏策略才可生效。 查看数据脱敏效果 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 详见下图:选择数据目录 2. 选择“数据地图 > 数据目录”。 3. 在资产搜索结果列表,搜索脱敏后的数据表,进入数据表详情页面。 4. 单击“数据预览”,查看数据脱敏后的效果。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        数据安全(待下线)
        脱敏策略
      • 管理应用接入点
        本文为您介绍如何通过KMS产品控制台管理应用接入点。 创建应用接入点 1. 登录密钥管理服务控制台。 2. 在页面最上方的导航栏选择服务所在的区域。 3. 进入“应用接入点”页面,点击 创建应用接入点 。 4. 在弹出的创建对话框,根据页面提示进行配置。 配置项 说明 应用接入点名称 自定义名称。 企业项目 选择所属企业项目。 虚拟私有云 选择当前地域下的虚拟私有云(Virtual Private Cloud,VPC)。 说明 此处对应的是您应用所在的虚拟私有云,即需要连通KMS服务的虚拟私有云。 子网 选择当前VPC内子网。 5. 创建成功后,您可以在应用接入点列表查看对应信息。 配置权限 可以为应用接入点配置允许/访问的密钥和证书。 如果您不需要对应用接入点做访问限制,则不需要设置权限规则,关闭规则开关即可。但为了更高的安全性,通常建议您开启并合理设置。 1. 在应用接入点页面,单击“配置权限”,进入配置权限页面。 或单击“详情”,进入应用接入点详情页,在“权限策略”页签,单击“配置权限策略”,进入配置权限页面。 2. 根据界面提示配置资源权限。 权限规则开关:默认关闭,即允许访问当前账号下的所有资源及操作。若您需要为应用接入点配置特定权限,请开启开关并配置。 允许访问的资源:选择允许应用接入点操作的资源。 效果:仅支持“允许”。 操作:选择允许应用接入点执行的操作。包括写操作和读操作两类。 3. 配置完成后,单击“确认”。
        来自:
        帮助文档
        密钥管理
        用户指南
        应用接入点
        管理应用接入点
      • 管理共享磁盘
        本文主要介绍 管理共享磁盘 如何使用VBD和SCSI共享磁盘? 您可以创建VBD类型的共享磁盘和SCSI类型的共享磁盘。建议将共享磁盘挂载至位于同一个反亲和性云主机组内的ECS,以提高业务可靠。 VBD类型的共享磁盘:创建的共享磁盘默认为VBD类型,该类型磁盘可提供虚拟块存储设备,不支持SCSI锁。当您部署的应用需要使用SCSI锁时,则需要创建SCSI类型的共享磁盘。 SCSI类型的共享磁盘:SCSI类型的共享磁盘支持SCSI锁。 说明 为了提升数据的安全性,建议您结合云主机组的反亲和性一同使用SCSI锁,即将SCSI类型的共享磁盘挂载给同一个反亲和性云主机组内的ECS。 如果ECS不属于任何一个反亲和性云主机组,则不建议您为该ECS挂载SCSI类型的共享磁盘,否则SCSI锁无法正常使用并且则会导致您的数据存在风险。 反亲和性和SCSI锁的相关概念: 云主机组的反亲和性:ECS在创建时,将会分散地创建在不同的物理主机上,从而提高业务的可靠性。 SCSI锁的实现机制:通过SCSI Reservation命令来进行SCSI锁的操作。如果一台ECS给磁盘传输了一条SCSI Reservation命令,则这个磁盘对于其他ECS就处于锁定状态,避免了多台ECS同时对磁盘执行读写操作而导致的数据损坏。 云主机组和SCSI锁的关系:同一个磁盘的SCSI锁无法区分单个物理主机上的多台ECS,因此只有当ECS位于不同物理主机上时才可以支持SCSI锁,因此建议您结合云主机组的反亲和性一起使用SCSI锁命令。
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        管理共享磁盘
      • 技术支持
        本节主要介绍云存储网关的技术支持。 联系我们 天翼云官网咨询热线4008109889。 天翼云官网工单管理系统。 开启远程协助 如果您已安装云存储网关但未初始化 与天翼云工作人员联系后,根据天翼云工作人员提供的HOST、PORT(默认端口号是18100),开启远程协助功能。然后将命令返回的远程协助码再告知天翼云工作人员,此时天翼云工作人员可以进行远程协助。 如果您已完成安装、初始化云存储网关 您可以使用已安装云存储网关但未初始化时的方式操作。也可以先获取云存储网关ID,将问题和云存储网关ID一起发给天翼云工作人员。并根据天翼云工作人员提供的HOST、PORT(默认端口号是18100),开启远程协助功能,此时天翼云工作人员可以进行远程协助。 默认情况下,远程协助功能处于禁用状态,用户可以随时启用或禁用此功能。启用后,天翼云工作人员有权登录用户环境中的云存储网关系统以诊断问题。天翼云工作人员远程协助登录时,具有以下两种用户的权限:开启远程协作操作的用户、安装云盘阵的用户。用户可以通过logs/remoteaccess/remoteaccess.log查看工作人员远程协助时的所有操作。 注意 如果用户启用了远程协助功能,则意味着用户相信天翼云工作人员并授权天翼云工作人员访问云存储网关系统中的所有数据。天翼云工作人员将尽力诊断问题并确保数据安全,但是由于系统环境的复杂性,我们对远程协助引起的任何后果不承担任何责任。如果用户对远程协助功能有疑问,并希望使其保持禁用状态,则可以通过咨询热线或者工单管理系统联系我们以获取帮助。
        来自:
        帮助文档
        云存储网关
        用户指南
        技术支持
      • 使用须知
        本章节主要介绍使用须知 数据库复制服务在使用上有一些固定的限制,用来提高数据迁移的稳定性和安全性。在进行正式的数据迁移之前,请先阅读以确保各存储引擎已满足使用限制条件。 备份文件准备 请先阅读以确保您已了解备份迁移任务所需要的各项使用条件,以便帮助您顺利完成数据迁移。 表 备份文件准备 迁移场景 准备工作 OBS自建桶场景 准备一个OBS桶,如果没有,则首先需要创建,相关操作请参见《对象存储服务控制台指南》中“创建桶”章节。 OBS桶里需要存在待还原的数据库备份文件,如果没有,需将本地的备份文件上传到OBS桶,并注意备份文件名称格式的正确性。上传备份文件的方法请参见《对象存储服务控制台指南》中“上传文件”章节。 如果批量上传多个文件(单次最多支持100个文件同时上传,总大小不超过5GB),或单次上传文件大于5GB,需下载OBS Browser+客户端,安装并登录,相关操作请参见《对象存储服务客户端指南》。 说明 本地备份文件上传到OBS桶时,暂不支持KMS加密方式。 本地备份文件上传到OBS桶时,请选择“标准存储”,否则会导致备份文件迁移失败。 建议备份文件放置于同区域且独立的公共桶,混用其他公共桶可能会因为其他文件过多,而无法展示迁移备份文件。 RDS全量备份场景 用户已有的Microsoft SQL Server数据库实例存在全量备份,如果没有,请参考《关系型数据库用户指南》中的“[](
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 备份迁移
        使用须知
      • 从本地存储迁移数据
        从Spark导入详细示例 要通过Spark将本地存储的数据导入到云数据库ClickHouse,您可以按照以下步骤进行操作: 1. 准备工作: 确保您已经安装了Spark,并配置好了与云数据库ClickHouse的连接。 确保您已经在本地存储中准备好了要导入的数据文件。 2. 导入所需的依赖: 在Spark应用程序中添加所需的依赖项以支持与云数据库ClickHouse的连接。您需要使用ClickHouse JDBC驱动程序和Spark的相关依赖。例如,在Maven项目中,您可以添加以下依赖项: xml ru.yandex.clickhouse clickhousejdbc 0.4.1 根据您使用的构建工具和版本,请相应地配置依赖项。 3. 编写Spark应用程序: 创建一个Spark应用程序,通过Spark读取本地存储的数据文件,并将数据导入到云数据库ClickHouse中。下面是一个示例代码: scala import org.apache.spark.sql.{SparkSession, SaveMode} object ClickHouseDataImporter { def main(args: Array[String]): Unit { // 创建SparkSession val spark SparkSession.builder() .appName("ClickHouse Data Importer") .getOrCreate() // 读取本地存储的数据文件 val data spark.read.format("csv") .option("header", "true") // 如果数据文件包含头部,则设置为true .option("inferSchema", "true") // 自动推断列的数据类型 .load("/path/to/data/file.csv") // 替换为实际数据文件的路径 // 将数据保存到ClickHouse数据库中 data.write .mode(SaveMode.Append) // 指定保存模式,可以根据需求更改 .format("jdbc") .option("url", "jdbc:clickhouse://yourclickhousehost:port/database") // 替换为实际的云数据库ClickHouse连接URL和目标数据库 .option("dbtable", "yourtable") // 替换为目标表的名称 .option("user", "yourusername") // 替换为云数据库ClickHouse的用户名 .option("password", "yourpassword") // 替换为云数据库ClickHouse的密码 .save() } } 在上述代码中,您需要替换以下内容: "/path/to/data/file.csv":实际的本地数据文件路径。 "jdbc:clickhouse://yourclickhousehost:port/database":实际的云数据库ClickHouse连接URL和目标数据库信息。 "yourtable":目标表的名称。 "yourusername":云数据库ClickHouse的用户名。 "yourpassword":云数据库ClickHouse的密码。 4. 运行Spark应用程序: 将您的Spark应用程序打包,并将其提交到Spark集群或本地运行。根据您的环境和需求,选择适当的方式来运行Spark应用程序。 例如,如果您使用的是Sparksubmit命令行工具,可以执行以下命令来提交应用程序: sparksubmit class ClickHouseDataImporter master local[] path/to/your/app.jar 这将启动Spark应用程序并开始将本地存储的数据导入到云数据库ClickHouse中。 说明 上述示例代码仅提供了一个基本的框架,您可能需要根据实际需求进行调整和优化。另外,还可以使用Spark的分布式计算能力和数据处理功能来进行更复杂的数据转换和导入操作。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从本地存储迁移数据
      • 修改数据库参数
        本章节主要介绍如何修改数据库参数。 集群创建成功后,用户可以根据实际需要修改集群的数据库参数。在DWS 管理控制台,您可以查看或设置一些常用的数据库参数,详情请参见操作步骤。也可以查看历史参数修改记录,详情请参见查看参数修改历史。如需查看或设置其他数据库参数,您可以通过SQL命令的方式,详情请参见《数据仓库服务用户开发指南》中的有关“配置GUC参数”的内容。 前提条件 只有当集群无运行中的任务时,才能修改参数。 操作步骤 1. 登录DWS管理控制台。 2. 在左侧导航栏中,单击“集群 > 专属集群”。 3. 在集群列表中找到所需要的集群,单击集群名称,进入“集群详情”页面。 4. 单击“参数修改”页签,修改相应的参数值,然后单击“保存”。 5. 在“修改预览”窗口,确认修改无误后,单击“保存”。 6. 用户可根据修改参数所在行的“是否重启集群”列,判断集群是否进行重启操作。 说明 若修改参数无需进行重启集群操作,则参数修改后立即生效。 若修改参数需进行重启集群操作,参数修改任务下发成功后页面显示修改后的参数值,待集群重启成功后修改的参数值生效。 参数说明 由于数据库参数较多,下表仅显示部分参数说明,用户可在控制台集群参数修改页面搜索查看,操作详情请参见操作步骤。 说明 以下参数默认值仅为参考值,具体与当前集群版本有关。详情请参见《数据仓库服务开发指南》的“GUC参数”章节。 参数说明表 参数名称 参数描述 默认值 sessiontimeout Session闲置超时时间,单位为秒,0表示关闭超时限制。取值范围:0 ~ 86400。 600 datestyle 设置日期和时间值的显示格式。 ISO,MDY failedloginattempts 输入密码错误的次数达到该参数所设置的值时,帐户将会被自动锁定。配置为0时表示不限制密码输入错误的次数。取值范围:0 ~ 1000。 10 timezone 设置显示和解释时间类型数值时使用的时区。 UTC logtimezone 设置服务器写日志文件时使用的时区。 UTC enableresourcerecord 设置是否开启资源记录功能。 当SQL语句实际执行时间大于resourcetrackduration参数值(默认为60s,可自行设置)时,监控信息将会归档。 此功能开启后会引起存储空间膨胀及轻微性能影响,不用时请关闭。 说明 归档:监控信息保存在history视图,归档在info表。归档时间为三分钟,归档后history视图中的记录会被清除。 history视图GSWLMSESSIONHISTORY,对应存入info表GSWLMSESSIONINFO。 history视图GSWLMOPERATORHISTORY,对应存入info表GSWLMOPERATORINFO。 off querydop 用户自定义的查询并行度。 配置为0表示查询并行度自适应。 配置为1表示查询不并行。 配置为2表示查询并行度为2。 0 resourcetrackcost 设置对语句进行资源监控的最小执行代价。 值为1或者执行语句代价小于10时,不进行资源监控。值大于等于0时,执行语句的代价大于等于10并且超过这个参数的设定值就会进行资源监控。 SQL语句的预估执行代价可通过执行SQL命令Explain进行查询。 100000 resourcetrackduration 设置当前会话资源监控实时视图中记录的语句执行结束后进行归档的最小执行时间,单位为秒。 值为0时,资源监控实时视图中记录的所有语句都会进行历史信息归档。 值大于0时,资源监控实时视图中记录的语句的执行时间超过设定值就会进行历史信息归档。 60 passwordeffecttime 设置帐户密码的有效时间,临近或超过有效期系统会提示用户修改密码。 取值范围为0 ~999,单位为天。设置为0表示不开启有效期限制功能。 90 updatelockwaittimeout 该参数控制并发更新同一行时单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错。0表示不等待,有锁时直接报错,单位为毫秒。 120000 enableresourcetrack 设置是否开启资源监控功能。开启后可以对SQL语句进行监控。 on passwordpolicy 使用CREATE ROLE/USER命令创建或ALTER ROLE/USER命令修改DWS帐户时,该参数决定是否进行密码复杂度检查。 0表示不采用任何密码复杂度策略。 1表示采用默认密码复杂度校验策略。 1 passwordreusetime 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用天数检查。 取值范围:0~3650,单位为天。0表示不检查密码可重用天数。正数表示新密码不能为该值指定的天数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusetime为0时,表示不限制密码重用天数,仅限制密码重用次数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 60 passwordreusemax 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用次数检查。 0表示不检查密码可重用次数。正整数表示新密码不能为该值指定的次数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusemax为0时,表示不限制密码重用次数,仅限制密码重用天数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 0 passwordlocktime 该参数指定帐户被锁定后自动解锁的时间。 0表示密码验证失败时,自动锁定功能不生效。 正数表示帐户被锁定后,当锁定时间超过该参数设定的值时,帐户将会被自行解锁。 1 passwordencryptiontype 该字段决定采用何种加密方式对用户密码进行加密存储。 0表示采用md5方式对密码加密。 1表示采用sha256方式对密码加密,兼容postgres客户端的md5用户认证方式。 2表示采用sha256方式对密码加密。md5为不安全的加密算法,不建议用户使用。 2 passwordnotifytime 该字段决定帐户密码到期前提醒的天数。 0表示不开启提醒功能。 1~999表示帐户密码到期前提醒的天数。 7 enablestatelesspoolerreuse pooler复用切换开关,重启集群生效。 on表示使用pooler复用模式。 off表示关闭pooler复用模式。 说明 CN和DN需要同步设置。如果CN设置为off,DN设置为on时会导致集群不能正常通信,因此必须对该参数做CN和DN全局相同的配置,重启集群才会生效。 off workmem 设置内部排序操作和Hash表在开始写入临时磁盘文件之前使用的内存大小,单位为KB。 ORDER BY,DISTINCT和merge joins都要用到排序操作。 Hash表在散列连接、散列为基础的聚集、散列为基础的IN子查询处理中都要用到。 对于复杂的查询,可能会同时并发运行好几个排序或者散列操作,每个都可以使用此参数所声明的内存量,不足时会使用临时文件。同样,好几个正在运行的会话可能会同时进行排序操作。因此使用的总内存可能是workmem的好几倍。 64MB maintenanceworkmem 设置在维护性操作(比如VACUUM、CREATE INDEX、ALTER TABLE ADD FOREIGN KEY等中可使用的最大的内存,单位为KB。 说明 该参数的设置会影响VACUUM、VACUUMFULL、CLUSTER、CREATE INDEX的执行效率。 128MB enableorccache 设置是否允许在初始化cstorebuffers时,将1/4的cstorebuffers空间预留,用于缓存orc元数据。 on表示开启缓存orc元数据,可提升hdfs表的查询性能,但是会占用列存buffer资源,导致列存性能下降。 off表示关闭缓存orc元数据。 on sqlusespacelimit 限制单个SQL在单个DN上,触发落盘操作时,落盘文件的空间大小,管控的空间包括普通表、临时表及中间结果集落盘占用的空间,单位为KB。其中1表示没有限制。 1 enablebitmapscan 控制优化器对位图扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablehashagg 控制优化器对Hash聚集规划类型的使用。 on表示使用。 off表示不使用。 on enablehashjoin 控制优化器对Hash连接规划类型的使用。 on表示使用。 off表示不使用。 on enableindexscan 控制优化器对索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enableindexonlyscan 控制优化器对仅索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablemergejoin 控制优化器对融合连接规划类型的使用。 on表示使用。 off表示不使用。 off enablenestloop 控制优化器对内表全表扫描嵌套循环连接规划类型的使用。虽然不能完全消除嵌套循环连接,但关闭该参数会使优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 off enableseqscan 控制优化器对顺序扫描规划类型的使用。虽然不能完全消除顺序扫描,但关闭该参数会让优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 on enabletidscan 控制优化器对TID扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablekillquery CASCADE模式删除用户时,会删除此用户拥有的所有对象。此参数标识是否允许在删除用户的时候,取消锁定此用户所属对象的query。 on表示允许取消锁定。 off表示不允许取消锁定。 off enablevectorengine 控制优化器对向量化执行引擎的使用。 on表示使用。 off表示不使用。 on enablebroadcast 控制优化器对stream代价估算时对broadcast分布方式的使用。 on表示使用。 off表示不使用。 on skewoption 控制是否使用优化策略。 off:关闭策略。 normal:采用激进策略。对于不确定是否出现倾斜的场景,认为存在倾斜,并进行相应优化。 lazy:采用保守策略。对于不确定是否出现倾斜场景,认为不存在倾斜,不进行优化。 normal defaultstatisticstarget 为没有用ALTER TABLE SET STATISTICS设置字段目标的表设置缺省统计目标。此参数设置为正数是代表统计信息的样本数量,为负数时,代表使用百分比的形式设置统计目标,负数转换为对应的百分比,即5代表5%。 100 enablecodegen 标识是否允许开启代码生成优化,目前代码生成使用的是LLVM优化。 on表示允许开启代码生成优化。 off表示不允许开启代码生成优化。 on autoanalyze 标识是否允许在生成计划的时候,对于没有统计信息的表进行统计信息自动收集。 on表示允许自动进行统计信息收集。 off表示不允许自动进行统计信息收集。 说明 当前不支持对外表触发autoanalyze,如需收集,需用户手动执行analyze操作。 不支持对带有ON COMMIT [DELETE ROWS l DROP]选项的临时表触发autoanalyze,如需收集,需用户手动执行analyze操作。 如果在autoanalyze某个表的过程中数据库发生异常,当数据库正常运行之后再执行语句有可能仍提示需要收集此表的统计信息。此时需要用户对该表手动执行一次analyze操作,以同步统计信息数据。 off enablesonichashagg 标识是否依据规则约束使用基于面向列的hash表设计的Hash Agg算子。 on表示在满足约束条件时使用基于面向列的hash表设计的Hash Agg算子。 off表示不使用面向列的hash表设计的Hash Agg算子。 on loghostname 默认状态下,连接消息日志只显示正在连接主机的IP地址。打开此选项同时可以记录主机名。由于解析主机名可能需要一定的时间,可能影响数据库的性能。on表示可以同时记录主机名。off表示不可以同时记录主机名。 off maxactivestatements 设置全局的最大并发数量。此参数只应用到CN,且针对一个CN上的执行作业。设置为1和0表示对最大并发数不做限制。 60 enableresourcetrack 是否开启资源监控功能。 on resourcetracklevel 设置当前会话的资源监控的等级。该参数只有当参数enableresourcetrack为on时才有效。 none,不开启资源监控功能。 query,开启query级别资源监控功能,开启此功能会把SQL语句的计划信息(类似explain输出信息)记录到top SQL中。 perf,开启perf级别资源监控功能,开启此功能会把包含实际执行时间和执行行数的计划信息(类似explain analyze输出信息)记录到top SQL中。 operator,开启operator级别资源监控功能,开启此功能不仅会把包含实际执行时间和执行行数的信息记录到top SQL中,还会把算子级别执行信息刷新到top SQL中。 query enabledynamicworkload 是否开启动态负载管理功能。 on表示打开动态负载管理功能。 off表示关闭动态负载管理功能。 on topsqlretentiontime 设置历史TopSQL中gswlmsessioninfo和gswlmoperatorinfo表中数据的保存时间。单位为天。 值为0时,表示数据永久保存。 值大于0时,表示数据能够保存的对应天数。 0 trackcounts 控制收集数据库活动的统计数据。 on表示开启收集功能。 off表示关闭收集功能。 off autovacuum 控制数据库自动清理进程(autovacuum)的启动。自动清理进程运行的前提是将trackcounts设置为on。 on表示开启数据库自动清理进程。 off表示关闭数据库自动清理进程。 off autovacuummode 该参数仅在autovacuum设置为on的场景下生效,它控制autoanalyze或autovacuum的打开情况。 analyze表示只做autoanalyze。 vacuum表示只做autovacuum。 mix表示autoanalyze和autovacuum都做。 none表示二者都不做。 mix autoanalyzetimeout 设置autoanalyze的超时时间。在对某张表做autoanalyze时,如果该表的analyze时长超过了autoanalyzetimeout,则自动取消该表此次analyze,单位为秒。 5min autovacuumiolimits 控制autovacuum进程每秒触发IO的上限。其中1表示不控制,而是使用系统默认控制组。 1 autovacuummaxworkers 设置能同时运行的自动清理线程的最大数量。其中0表示不会自动进行autovacuum。 3 autovacuumnaptime 设置两次自动清理操作的时间间隔,单位为秒。 10min autovacuumvacuumthreshold 设置触发VACUUM的阈值。当表上被删除或更新的记录数超过设定的阈值时才会对这个表执行VACUUM操作。 50 autovacuumanalyzethreshold 设置触发ANALYZE操作的阈值。当表上被删除、插入或更新的记录数超过设定的阈值时才会对这个表执行ANALYZE操作。 50 autovacuumanalyzescalefactor 设置触发一个ANALYZE时增加到autovacuumanalyzethreshold的表大小的缩放系数。 0.1 statementtimeout 当语句执行时间超过该参数设置的时间(从服务器收到命令时开始计时)时,该语句将会报错并退出执行,单位为毫秒。 0 deadlocktimeout 设置死锁超时检测时间。当申请的锁超过设定值时,系统会检查是否产生了死锁,单位为毫秒。 1s lockwaittimeout 控制单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错,单位为毫秒。 20min maxqueryretrytimes 指定SQL语句出错自动重试功能的最大重跑次数(目前支持重跑的错误类型为“Connection reset by peer”、“Lock wait timeout”和“Connection timed out”等,设定为0时关闭重跑功能。 6 maxpoolsize CN的连接池与其它某个CN/DN的最大连接数。 800 enablegtmfree 大并发场景下同一时刻存在活跃事务较多,GTM下发的快照变大且快照请求变多的情况下,瓶颈卡在GTM与CN通讯的网络上。为消除该瓶颈,引入GTMFREE模式。取消CN和GTM的交互,取消CN下发GTM获取的事务信息给DN。CN只向各个DN发送query,各个DN由本地产生快照及xid等信息,开启该参数支持分布式事务读最终一致性,即分布式事务只有写外部一致性,不具有读外部一致性。 off enablefastqueryshipping 控制查询优化器是否使用分布式框架。 on enablecrccheck 设置是否允许开启数据校验功能。写入表数据时生成校验信息,读取表数据时检查校验信息。不建议用户修改设置。 on explainperfmode 此参数用来指定explain的显示格式。 normal:代表使用默认的打印格式。 pretty:代表使用DWS改进后的新显示格式。新的格式层次清晰,计划包含了plan node id,性能分析简单直接。 summary:是在pretty的基础上增加了对打印信息的分析。 run:在summary的基础上,将统计的信息输出到csv格式的文件中,以便于进一步分析。 pretty udfmemorylimit 控制每个CN、DN执行UDF时可用的最大物理内存量,单位为KB。 200MB defaulttransactionreadonly 设置每个新创建事务是否是只读状态。on表示只读状态。off表示非只读状态。 off
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改数据库参数
      • 开源对比
        介绍分布式消息服务RocketMQ与开源自建的对比情况。 分布式消息服务RocketMQ基于开源产品RocketMQ进行问题修复与优化,并自主研发,实现低成本、高可靠、高性能和具备监控运维能力的中间件产品。 使用开源RocketMQ遇到的问题 功能不完善:功能比较单一,针对不同应用场景无法有效支持,如消息查询,数据自动删除策略等。 可维护性差:缺乏配套监控运维能力,难以迅速发现解决如消息堆积、队列堵塞等问题。 可靠性较低:消息服务不提供主备切换能力,存在单点故障,无法保证服务高可用。 分布式消息服务RocketMQ改进点 高可用、高可靠改进: 实现自动主备切换、自动拉起功能,保证服务高可用。 实现消息删除策略,按不同的场景优先保证服务可用性或者数据安全性。 可维护性改进: 实现按生产者、消费者、数据节点、队列4种维度的运行状态监控,方便快速发现问题。 实现可视化的监控、配置、管理界面实现自动化测试,以快速迭代。 新增功能: 新增消息查询,做到可查可追踪。 重新封装SDK,简化应用使用,并提供按hash算法实现消息局部有序生产消费。 开源自建对比项 对比项 开源自建 分布式消息服务RocketMQ 自动化部署 不支持自动化部署,需要专业人员自行部署、运维 全托管PaaS,免机器资源一键自动化部署。开箱即用,按需使用,支持弹性扩容 运维监控 缺乏配套的监控运维能力 提供多维度的数据可视化监控,快速定位、处理问题 增强能力 功能单一,无法支持多种场景需求 功能丰富,支持消息重试、消息查询、消息轨迹查询、数据自动清理等定制化功能 延迟消息/定时消息 仅支持18个固定延迟时长,最长延迟2小时 支持秒级的任意延迟时长,最长延迟40天 ACL访问控制 访问控制配置复杂 灵活配置,一键生效
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        开源对比
      • 入门指引和场景说明
        本章节将为您介绍云主机备份入门的基本流程,主要包括场景说明,控制台快速创建云主机备份的操作,帮助您快速上手云主机备份。 入门指引 您还可以通过API方式创建云主机备份,查看和恢复等。 场景说明 云主机备份提供两种配置方式,一次性备份和周期性备份。一次性备份是指用户手动创建的一次性备份任务。周期性备份是指用户通过创建备份策略并绑定云主机的方式创建的周期性备份任务。 云主机备份的两种配置方式对比如下表,可根据实际情况选择适合的配置方式。 对比项 一次性备份 周期性备份 备份策略 不需要 需要 备份次数 手动执行一次性备份 根据备份策略进行周期性备份 单次可备份的云主机数目 1个 ≤64个 备份名称 支持自定义 系统自动生成 备份方式 首次全量备份,非首次增量备份 云主机备份支持从任意一个备份恢复云服务器的全量数据,无论这个备份是全量还是增量。 首次全量备份,非首次增量备份 云主机备份支持从任意一个备份恢复云服务器的全量数据,无论这个备份是全量还是增量。 建议使用场景 云主机进行操作系统补丁安装、升级,应用升级等操作之前,以便安装或者升级失败之后,能够快速恢复到变更之前的状态。 云主机的日常备份保护,以便发生不可预见的故障而造成数据丢失时,能够使用邻近的备份进行恢复。 另外,用户也可以根据业务情况将两种方式混合使用。例如,根据云主机中存放数据的重要程度不同,可以将所有的云主机加入到一个备份策略中进行日常备份保护。其中个别保存有非常重要的数据的云主机,根据需要不定期的执行一次性备份,保证数据的安全性。
        来自:
        帮助文档
        云主机备份 CSBS
        快速入门
        入门指引和场景说明
      • 新增DML审计规则
        为确保DRDS高效、稳定运行,需对应用可能运行的SQL语句进行审计,找出不符合规范的语句,拒绝语句执行或者对用户提示警告,即通过DML审计规则可以实现SQL黑名单的功能。除默认常用的DML审计规则外,您还可以根据实际情况新增DML审计规则。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录单击数据库安全 ,然后单击数据库审计 页签,进入DML审计页面。 您可以在审计日志列表中查看目标分组和分片的审计日志,包括时间、数据库、语句、用户、客户端、审计方式和审计信息。 5. 选中目标分组,单击查看或修改审计 规则,进入DML审计规则面板。 6. 在审计规则列表上方,单击新增DML审计配置。 7. 在对话框中,配置审计规则参数,然后单击确定。 参数 说明 DML审计规则 审计规则的名称。 审计类型 审计匹配规则,取值范围: 参数化sql匹配 原始sql匹配 正则式匹配 SQL 当审计类型 设置为参数化sql匹配 或原始sql匹配时,需要输入审计的SQL语句。 正则表达式 当审计类型 设置为正则式匹配时,需要输入审计的正则表达式。 审计方式 支持配置为拒绝 或警告。 注意 对于审计方式 为拒绝 的审计规则,DRDS实例直接向前端提示报错信息,拒绝语句执行。 对于审计方式 为警告的审计规则,DRDS实例会将语句的相关信息记录到审计日志中,该日志可提供给开发人员对SQL语句进行参考优化,您可以在审计日志中查看相关信息。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        数据库安全
        DML审计
        新增DML审计规则
      • 管理应用用户生产消费权限
        场景描述 Kafka管理应用用户生产消费权限的场景描述如下: 应用开发和测试:在应用开发和测试阶段,需要为开发人员和测试人员提供适当的生产和消费权限,以便他们能够读取和写入Kafka主题。这样可以确保他们能够有效地测试和验证应用程序的功能。 应用部署和运维:在将应用程序部署到生产环境中时,需要为运维团队提供适当的生产和消费权限。运维团队可以使用这些权限来监控和管理Kafka集群,并处理任何可能的故障或问题。 数据分析和报告:对于数据分析师和报告人员,他们可能需要从Kafka主题中读取数据进行分析和生成报告。为他们提供适当的消费权限可以帮助他们获取所需的数据,并进行相关的数据分析和报告工作。 数据集成和同步:在数据集成和同步的场景中,可能需要为特定的应用或系统提供生产和消费权限。这样可以确保数据的可靠传输和同步,以满足不同系统之间的数据需求。 多租户环境:在多租户环境中,需要管理不同租户之间的生产和消费权限。为每个租户分配独立的权限可以确保数据的隔离和安全性,同时满足不同租户的需求。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页的操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入用户管理界面,该页面展示用户列表。 (5)选择相应的用户,点击其右侧的”用户权限“按钮进行权限管理。 (6)生产权限。先点击”添加生产权限“按钮,在弹窗的左侧选择需要添加生产权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。 (7)消费权限。左上角切换消费权限,点击”添加消费权限“按钮,在弹窗的左侧选择需要添加消费权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        管理应用用户生产消费权限
      • (停止维护)CCE发布Kubernetes 1.21版本说明
        本文主要介绍 CCE发布Kubernetes 1.21版本说明。 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍CCE发布Kubernetes 1.21版本所做的变更说明。 版本升级说明 CCE针对Kubernetes 1.21版本提供了全链路的组件优化和升级。 表 核心组件及说明 集群类型 核心组件 版本号 升级注意事项 :::: CCE集群 Kubernetes 1.21 无 CCE集群 Docker CentOS:18.9.0 Ubuntu:18.09.9 无 CCE集群 操作系统 CentOS Linux release 7.6 1.21版本开始CCE集群 Centos7.6节点docker存储模式使用overlayfs CCE集群 操作系统 Ubuntu 18.04 server 64bit 无 资源变更与弃用 社区1.21 ReleaseNotes CronJob现在已毕业到稳定状态,版本号变为batch/v1。 不可变的Secret和ConfigMap现在已升级到稳定状态。向这些对象添加了一个新的不可变字段,以拒绝更改。此拒绝可保护集群免受可能无意中中断应用程序的更新。因为这些资源是不可变的,kubelet不会监视或轮询更改。这减少了kubeapiserver的负载,提高了可扩展性和性能。更多信息,请参见Immutable ConfigMaps。 优雅节点关闭现在已升级到测试状态。通过此更新,kubelet可以感知节点关闭,并可以优雅地终止该节点的Pod。在此更新之前,当节点关闭时,其Pod没有遵循预期的终止生命周期,这导致了工作负载问题。现在kubelet可以通过systemd检测即将关闭的系统,并通知正在运行的Pod,使它们优雅地终止。 具有多个容器的Pod现在可以使用kubectl.kubernetes.io/默认容器注释为kubectl命令预选容器。 PodSecurityPolicy废弃,详情请参见 BoundServiceAccountTokenVolume特性进入Beta,该特性能够提升服务账号(ServiceAccount)Token的安全性,改变了Pod挂载Token的方式,Kubernetes 1.21及以上版本的集群中会默认开启。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.21版本说明
      • POST请求签名(V2版本)
        此文档介绍通过POST请求上传对象所需的V2版本签名方法。 POST V2签名说明 POST签名是指使用POST方式上传文件时,要求每个请求都必须附带一个签名(Signature)。POST V2签名是通过访问密钥(Secret Access Key)对一系列请求参数(上传策略policy等)进行加密计算得到的。当请求发送时,会验证签名的合法性,只有签名验证成功的请求才会被接受,否则请求将被拒绝。 POST V2签名表单独有参数 POST V2签名除了POST上传对象中说明的公共表单元素外,会有一些独有的表单元素: 参数 参数类型 说明 AWSAccessKeyId String Bucket拥有者的Access Key ID,当Bucket为非publicreadwrite或者提供了Policy(或Signature)表单域时,必须提供AWSAccessKeyId表单域 Signature String 根据AccessKey Secret和Policy计算的签名信息,验证该签名信息从而验证该Post请求的合法性。注意: 当Bucket为非publicreadwrite或者提供了AWSAccessKeyId(或Policy)表单域时,必须提供Signature表单域,同时表单域的值对大小写敏感,但是表单域对大小写不敏感 Policy说明 Policy表单域是一种安全策略,若请求不包含Policy,则只能访问publicreadwrite的Bucket, 当Bucket为非publicreadwrite或者提供了AccessKeyId(或Signature)表单域时,必须提供Policy表单域 。 Policy由JSON格式来定义,可以通过多项参数来限制上传的相关操作,比如允许上传的Bucket、Key前缀等。 其中,policy中有两个字段是必须的: expiration:指定policy的过期时间(ISO8601 GMT格式)。例如指定为20241216T13:00:00.000Z,表示必须在2024年12月16日13点之前发起POST请求。 conditions:指定POST请求表单域的合法值。
        来自:
        帮助文档
        媒体存储
        API参考
        API(原生接口)
        关于对象的操作
        基础操作
        POST上传
        POST请求签名(V2版本)
      • 示例场景
        本节主要介绍示例场景 前提条件 请确保您已拥有天翼云帐号,若您还没有帐号,请先进行注册并实名认证。 请确保您已开通企业项目管理服务EPS,如服务未开通,请首先在天翼云网门户提交申请开通工单。 创建企业项目的用户必须是管理员,或在IAM侧已被授予EPS FullAccess权限的IAM用户。 操作场景 企业项目管理支持通过配置IAM用户对云资源进行分类管理。 若您拥有多种云资源,为了方便云资源的管理和使用的安全性,可以通过创建不同的企业项目和IAM用户并授予不同云服务的管理权限,从而实现IAM用户对云资源的分类管理。 本节以一个案例让您了解如何通过企业项目管理实现IAM用户拥有独立、隔离的云资源管理权限。 操作规划 操作项目 描述 创建用户组 在IAM控制台分别创建用户组TestECSA和TestECSB。 创建IAM用户并添加至用户组 在IAM控制台分别创建用户TestUserA和TestUserB。 将用户TestUserA添加至用户组TestECSA; 将用户TestUserB添加至用户组TestECSB。 创建企业项目并将用户组添加至项目 在企业项目管理页面分别创建企业项目projectA和projectB。 将用户组TestECSA添加至企业项目projectA; 将用户组TestECSB添加至企业项目projectB。 企业项目迁入资源 在企业项目管理页面分别给企业项目projectA和projectB迁入对应的云资源。 操作流程
        来自:
        帮助文档
        企业项目管理
        快速入门
        示例场景
      • 术语解释
        分布式表(Distributed Table) 分布式表是云数据库ClickHouse中本地表的集合,将多个本地表抽象为一张统一的表,对外提供写入和查询功能。当写入分布式表时,数据会被自动分发到集合中的各个本地表中;当查询分布式表时,集合中的各个本地表都会被分别查询,最终结果会被汇总后返回。分布式表具备良好的横向扩展能力,可以利用多台服务器的存储和计算资源来处理大规模数据。 表引擎 表引擎即表类型,决定数据的存储方式和位置、支持的查询以及访问、索引、主备复制等特性。云数据库ClickHouse提供了多种表引擎,主要为以下4个系列。MergeTree系列:核心存储引擎,最通用和功能最强大的表引擎,支持数据Replicated和Distributed。Log系列:功能相对简单,主要用于快速写入小表(1百万行左右的表),然后全部读出的场景。Integration系列:主要用于将外部数据如Kafka、HDFS、Mysql导入到云数据库ClickHouse中,或者在云数据库ClickHouse中直接操作外部数据源。Special系列:为特定场景而定制,如数据内存存储、为目标表配置buffer、数据存本地文件等。 单机表 单机表的数据只会存储在当前机器上,不会被复制到其他机器。单机表适用于对数据的冗余存储要求较低的场景,适合小规模数据集的处理和分析。 复制表 复制表的数据会被自动复制到多台机器上,形成多个副本。复制表通过数据冗余和备份提高数据的可靠性和容错能力。当其中一个副本节点出现故障时,系统可以切换到其他副本节点,确保数据的持久性和可用性。复制表适用于对数据可靠性和冗余要求较高的场景,确保数据的安全性和高可用性。
        来自:
        帮助文档
        云数据库ClickHouse
        产品简介
        术语解释
      • Kubernetes集群内置DNS配置说明
        工作负载的DNS配置介绍 Kubernetes集群内置DNS插件KubeDNS/CoreDNS,为集群内的工作负载提供域名解析服务。业务在高并发调用场景下,如果使用到域名解析服务,可能会触及到KubeDNS/CoreDNS的性能瓶颈,导致DNS请求概率失败,影响用户业务正常运行。在Kubernetes使用的过程中,在有些场景下工作负载的域名解析存在冗余的DNS查询,使得高并发场景更容易触及DNS的性能瓶颈。根据业务使用场景,对工作负载的DNS配置进行优化,能够在一定程度上减少DNS请求概率失败的问题。 更多DNS相关信息请参见CoreDNS(系统资源插件,必装)或通过kubectl配置kubedns/CoreDNS高可用。 Linux 系统域名解析文件配置项的介绍 在Linux系统的节点或者容器里执行cat /etc/resolv.conf命令,能够查看到DNS配置,以Kubernetes集群的容器DNS配置为例: nameserver 10.247.x.x search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 配置项说明: nameserver:容器解析域名时查询的DNS服务器的IP地址列表。如果设置为10.247.x.x说明DNS对接到KubeDNS/CoreDNS,如果是其他IP地址,则表示采用DNS或者用户自建的DNS。 search:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。对于CCE集群来说,容器的搜索域列表配置3个域,当解析一个不存在的域名时,会产生8次DNS查询,因为对于每个域名需要查询两次,分别是IPv4和IPv6。 options:定义域名解析配置文件的其他选项,常见的有timeout、attempts和ndots等等。Kubernetes集群容器的域名解析文件设置为options ndots:5,该参数的含义是当域名的“.”个数小于ndots的值,会先把域名与search搜索域列表进行组合后进行DNS查询,如果均没有被正确解析,再以域名本身去进行DNS查询。当域名的“.”个数大于或者等于ndots的值,会先对域名本身进行DNS查询,如果没有被正确解析,再把域名与search搜索域列表依次进行组合后进行DNS查询。如查询www.ctyun.cn域名时,由于该域名的“.”个数为2,小于ndots的值,所以DNS查询请求的顺序依次为:www.ctyun.cn.default.svc.cluster.local、www.ctyun.cn.svc.cluster.local、 www.ctyun.cn.cluster.local和www.ctyun.cn,需要发起至少7次DNS查询请求才能解析出该域名的IP。可以看出,这种配置在访问外部域名时,存在大量冗余的DNS查询,存在优化点。 说明:完整的Linux域名解析文件配置项说明可以参考文档: Kubernetes 集群应用的DNS 相关配置项介绍 前面已经分析过,应用在某些场景下会出现冗余的DNS查询。Kubernetes为应用提供了与DNS相关的配置选项,通过对应用进行DNS配置,能够在某些场景下有效地减少冗余的DNS查询,提升业务并发量。目前应用配置中与DNS相关的字段有dnsPolicy 和dnsConfig。 dnsPolicy 字段说明: dnsPolicy字段是应用设置的DNS策略,默认值为“ClusterFirst”。基于dnsPolicy策略生成的域名解析文件会与dnsConfig设置的DNS参数进行合并,合并规则将在“dnsConfig字段说明”中说明,dnsPolicy当前支持四种参数值: − ClusterFirst:应用对接KubeDNS/CoreDNS(CCE集群的KubeDNS/CoreDNS默认级联DNS)。这种场景下,容器既能够解析service注册的集群内部域名,也能够解析发布到互联网上的外部域名。由于该配置下,域名解析文件设置了search搜索域列表和ndots: 5,因此当访问外部域名和集群内部长域名(如kubernetes.default.svc.cluster.local)时,大部分域名都会优先遍历search搜索域列表,导致至少有6次无效的DNS查询,只有访问集群内部短域名(如kubernetes)时,才不存在无效的DNS查询。 − ClusterFirstWithHostNet:对于配置主机网络的应用,默认配置kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS)。当dnsPolicy设置为“ClusterFirstWithHostNet”时,应用对接KubeDNS/CoreDNS。该配置下,容器的域名解析文件与“ClusterFirst”一致,也存在无效的DNS查询。 − Default:容器的域名解析文件使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS),没有配置search搜索域列表和options。该配置只能解析注册到互联网上的外部域名,无法解析集群内部域名,且不存在无效的DNS查询。 − None:Kubernetes v1.9(Beta in v1.10)中引入的新选项值。设置为None之后,必须设置dnsConfig,此时容器的域名解析文件将完全通过dnsConfig的配置来生成。 dnsConfig 字段说明: dnsConfig为应用设置DNS参数,设置的参数将合并到基于dnsPolicy策略生成的域名解析文件中。当dnsPolicy为“None”,应用的域名解析文件完全由dnsConfig指定;当dnsPolicy不为“None”时,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 − nameservers:DNS的IP地址列表。当应用的dnsPolicy设置为“None”时,列表必须至少包含一个IP地址,否则此属性是可选的。列出的DNS的IP列表将合并到基于dnsPolicy生成的域名解析文件的nameserver字段中,并删除重复的地址。 − searches:域名查询时的DNS搜索域列表,此属性是可选的。指定后,提供的搜索域列表将合并到基于dnsPolicy生成的域名解析文件的search字段中,并删除重复的域名。Kubernetes最多允许6个搜索域。 − options:DNS的配置选项,其中每个对象可以具有name属性(必需)和value属性(可选)。该字段中的内容将合并到基于dnsPolicy生成的域名解析文件的options字段中,dnsConfig的options的某些选项如果与基于dnsPolicy生成的域名解析文件的选项冲突,则会被dnsConfig所覆盖。 工作负载的DNS配置实践 前面介绍了Linux系统域名解析文件以及Kubernetes为应用提供的DNS相关配置项,下面将举例介绍应用如何进行DNS配置。 场景1 对接kubernetes 内置的KubeDNS/CoreDNS 场景说明: 这种方式适用于应用中的域名解析只涉及集群内部域名,或者集群内部域名+外部域名两种方式,应用默认采用这种配置。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: ClusterFirst 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景2 直接对接DNS 场景说明: 这种方式适用于应用只访问注册到互联网的外部域名,该场景不能解析集群内部域名。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: Default //使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS) 该配置下容器的域名解析文件将如下所示: nameserver 10.125.x.x 场景3 主机网络模式的应用对接KubeDNS/CoreDNS 场景说明: 对于配置主机网络模式的应用,默认对接DNS,如果应用需要对接KubeDNS/CoreDNS,需将dnsPolicy设置为“ClusterFirstWithHostNet”。 示例: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: template: metadata: labels: app: nginx spec: hostNetwork: true dnsPolicy: ClusterFirstWithHostNet containers: name: nginx image: nginx:1.7.9 ports: containerPort: 80 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景4 自定义应用的域名配置 场景说明: 用户可以完全自定义配置应用的域名解析文件,这种方式非常灵活,dnsPolicy和dnsConfig配合使用,几乎能够满足所有使用场景,如对接用户自建DNS的场景、串联多个DNS的场景以及优化DNS配置选项的场景等等。 示例1 :对接用户自建DNS 该配置下,dnsPolicy为“None”,应用的域名解析文件完全根据dnsConfig配置生成。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "None" dnsConfig: nameservers: 10.2.3.4 //用户自建DNS 的IP 地址 searches: ns1.svc.cluster.local my.dns.search.suffix options: name: ndots value: "2" name: timeout value: "3" 该配置下容器的域名解析文件将如下所示: nameserver 10.2.3.4 search ns1.svc.cluster.local my.dns.search.suffix options timeout:3 ndots:2 示例2 :修改域名解析文件的ndots 选项,减少无效的DNS 查询 该配置下,dnsPolicy不为“None”,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "ClusterFirst" dnsConfig: options: name: ndots value: "2" //该配置会将基于ClusterFirst 策略生成的域名解析文件的ndots:5 参数改写为ndots:2 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:2
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        Kubernetes集群内置DNS配置说明
      • 使用限制
        本文简要介绍组播的使用限制及使用前提。 使用限制 在VPC中创建的弹性网卡,如果未绑定到云服务器,不支持加入组播网络。 弹性网卡被指定为组播成员后,如果您在VPC中删除该弹性网卡,则该弹性网卡关联的组播对象关系自动解除,当前弹性网卡(辅助网卡)仅支持动态加入。 在云间组播场景时,若组播成员同时选择IGMPv2和IGMPv3加入组播组,则只会接受IGMPv2的(,G)的report。 同地域的多个组播域之间互不相通。 一个VPC下仅支持创建一个组播域。 一个组播域下支持创建多个组播组,各个组播组的IP地址不能相同。 仅支持弹性网卡的主私网IP地址作为组播网络通信对象,弹性网卡其余IP地址不支持组播通信。 当前不支持IPv6类型组播,仅支持IPv4类型。 对于知名组播地址(224.0.0.0~224.0.0.255,239.0.0.0~239.255.255.255)会做下发限制,暂不允许添加,如您的页面不支持添加知名组播地址的特殊入口,联系工单开放白名单功能。 组播资源的配额限制如下表所示。 资源 默认配额 提升配额 单个租户可以创建的组播域数量 50 不可申请 单个组播域可以创建的组播组数量 30 不可申请 使用前提 1、您已创建虚拟私有云、云服务器等实例。如有云上云下建立组播的需求,需提前准备好云专线。 2、您已配置好客户侧路由及云内专线与VPC的关系(专线的配置仅当云上云下建立组播的时候需要)。 3、确保安全组已放通组播源和组播成员对应的端口号。
        来自:
        帮助文档
        虚拟私有云 VPC
        组播
        使用限制
      • 镜像和备份有什么区别?
        对比维度 云服务备份 镜像服务 概念 备份是将云主机或者云硬盘某一时间节点的状态、配置和数据信息保存下来,以供故障时进行恢复,其目的是为了保证数据安全,提升高可用性。 镜像相当于云主机的“装机盘”,它提供了启动云主机所需的所有信息,其目的是为了创建云主机,批量部署软件环境。系统盘镜像包含运行业务所需的操作系统、应用软件,数据盘包含业务数据。整机镜像是系统盘镜像和数据盘镜像的总和。 使用方式 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建备份的云硬盘删除,对应的备份不会被同时删除。 操作对象:保存云主机/磁盘指定时刻的数据,可以设置自动备份和过期自动删除。 用途:备份可以恢复数据至原主机/磁盘中,也可以直接创建新的磁盘或整机镜像。 是否可以导出至本地:否。 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建镜像的主机/磁盘删除,对应的镜像不会被同时删除。 操作对象:可以将主机的系统盘和数据盘制作为私有镜像,也可以通过外部镜像文件制作私有镜像。 用途:系统盘镜像或整机镜像可以创建新的主机,数据盘镜像可以创建新的磁盘,实现业务迁移。 是否可以导出至本地:部分可以,整机镜像不支持导出至本地,详见 应用场景 适用场景: 数据备份与恢复 业务快速部署和迁移 适用场景: 服务器上云或云上迁移 部署特定软件环境 批量部署软件环境 服务器运行环境备份 优势 支持自动备份,可以定时定量保留服务器/磁盘某一时间节点的数据。 可以备份系统盘。可以将本地或者其他云平台的服务器数据盘镜像文件导入至镜像服务中。导入后,可使用该镜像创建新的云硬盘。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        镜像和备份有什么区别?
      • 执行角色
        执行角色 概述 使用云工作流构建应用时,您需要创建执行委托角色并授予相应权限,若不配置委托角色,云工作流默认使用 服务内联委托 角色 。云工作流在执行流程时将以该角色身份代表您访问云服务,例如执行函数、发送消息或调用其他流程。 云工作流基于统一身份认证IAM的委托权限管理机制。授权原理如下:策略定义了访问某项服务的能力,将策略绑定到委托后,该委托便具备访问该服务的权限。第三方只需扮演具备所需权限的角色即可访问服务,无需长期密钥,从而提升系统安全性。 操作步骤 创建委托角色 1. 使用 IAM管理员 登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页面,单击 创建委托。 4. 在 创建委托 页面,选择 可信实体类型 为 服务委托, 点击下一步。 5. 在配置委托页面, 输入 委托名称 ,选择委托服务选 一类节点函数计算cf。 6. 输入完成后点击 完成,即可创建完成。 配置委托权限 1. 使用IAM管理员登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页,选择需要授权的委托,点击旁边的 授权 按钮。 4. 在 选择策略 页面, 搜索/选择你需要的云服务策略, 本例子授权 对象存储 的 只读 权限 。 如果需要更精细的权限控制,可以先创建自定义策略,详情请查阅创建自定义策略 5. 授权范围将默认勾选全局范围,您可以直接点击“确定”完成授权。 6. 创建完成委托角色后, 即可在 工作流设置 中下拉选择设置。工作流设置详见工作流执行器关于 工作流配置 说明。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        执行角色
      • 超出备份空间免费额度怎么办?
        本文介绍如何处理超出备份空间免费额度的问题。 备份空间免费额度为订购新实例时所选择的存储空间大小,比如,订购SQL Server实例时,存储空间选择了100GB,则赠送100G的备份空间用于存储备份数据。当备份文件大小超出备份空间免费额度时,可以增加备份存储空间或减少备份空间的使用量。 增加备份存储空间(推荐) 通过扩容备份空间,来增加备份存储空间。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例管理】,选择需要扩容的实例,点击【更多】菜单,点击【备份空间扩容】,进入扩容页面。 2. 在备份空间扩容页面,选择扩容空间大小,点击确认并支付。 3. 等待一段时间后,通过实例基本信息页面确认备份空间是否已扩容至已订购的大小。 减少备份空间的使用量 减少备份保留天数,系统会自动删除保留天数之前的备份集以减少空间占用。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例列表】,选择实例,点击实例ID进入实例基本信息页面,点击【备份恢复】,进入备份恢复子页面。 2. 点击备【份策略】,修改备份保留天数。 减少备份周期,可以设置一周2~3次备份,为了您的数据安全,数据备份不可关闭且一周至少需要2次备份。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击实例列表,选择实例,点击实例ID进入实例详情页面,点击备份恢复,进入备份恢复子页面。 2. 点击备份策略,修改备份周期。 删除手动备份,可以删除保留天数之前的手动备份。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例列表】,选择实例,点击实例ID进入实例详情页面,点击备份恢复,进入备份恢复子页面。 2. 点击数据备份,选择需要删除的手动备份,点击删除。注意,并非所有保留天数之前的手动备份都可以删除,必须保证该手动备份不被后续的备份所依赖。
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        备份/恢复
        超出备份空间免费额度怎么办?
      • 管理自动备份
        本节介绍了GeminiDB Redis的自动、修改、关闭、删除自动备份等操作说明。 GeminiDB Redis支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 保留天数:自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如01:00~02:00,12:00~13:00等。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        备份与恢复
        管理自动备份
      • 产品咨询
        本页介绍了文档数据库服务产品咨询类相关常见问题。 文档数据库服务和社区版MongoDB有什么关系 文档数据库服务是天翼云基于社区版MongoDB提供的高性能NoSQL数据库服务,完全兼容MongoDB协议。文档数据库服务在容灾、备份、恢复、监控、报警等方面提供全套数据库解决方案。可降低管理维护成本,方便您专注于应用开发和业务发展。 使用文档数据库服务要注意什么 使用文档数据库服务需要综合考虑安全性、性能、可用性和数据一致性等方面,合理配置和管理数据库,确保应用程序能够高效稳定地使用文档数据库服务。 当您评估业务对服务可用性有较高的要求时,建议优先选择副本集与分片集群的架构,副本集与分片集群提供了更高的数据可靠性与服务可用性,当发生主节点宕机时,其他的节点可以接替主节点继续提供服务,不影响业务侧的读写。 实例侧的弹性云主机,对用户是不可见的,您只需参考实例基本信息页的连接串配置数据库连接进行数据库服务的访问即可。 在对数据库进行不熟悉的操作时,建议先对数据进行备份,方便数据回档。 您不需要进行数据库的基础运维,但是可以留意一下性能监控,比如机器的磁盘、内存使用率等情况,规格不足时可以进行扩容更好满足业务需求。 什么是文档数据库服务的可用性 文档数据库服务的可用性通常是指数据库系统在正常运行时可以对外提供服务的能力,以及系统在遇到故障或意外情况时能够保持部分或全部功能的可用性。文档数据库服务提供多节点副本集与分片集群的高可用架构。集群节点之间数据自动同步,提升了数据的高可靠性与服务的高可用性。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        咨询类
        产品咨询
      • 修改数据库端口
        本章节将介绍如何修改数据库端口的方法。 使用须知 为确保安全性,以下情况不可修改数据库端口: 租户被冻结 重启中 节点扩容中 切换SSL中 规格变更中 删除节点中 存储扩容中 异常 对于集群实例,数据库实例的端口即mongos节点的端口,默认为8635,实例创建成功后可修改。shard节点的端口为8637,config节点的端口为8636,不支持修改。 对于副本集实例,默认端口为8635,实例创建成功后可修改。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 进入实例“基本信息”页面,在“网络信息”区域的“数据库端口”处单击,修改数据库端口。 修改数据库端口 您还可以在左侧导航树,单击“连接管理”,在“基本信息”区域的“数据库端口”处单击,修改数据库端口。 修改实例端口 说明 数据库端口修改范围为2100~9500,27017,27018,27019。 单击,提交修改。此过程约需1~5分钟。 单击,取消修改。 步骤 6 稍后可在“基本信息”区域,查看修改结果。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        连接管理
        修改数据库端口
      • 开启Redis公网访问并获取公网访问地址
        本节介绍开启Redis公网访问并获取公网访问地址。 Redis 4.0及以上版本实例暂不支持绑定弹性IP,可以通过绑定弹性负载均衡(ELB)实现Redis公网访问,本章节介绍开启Redis 4.0及以上版本实例公网访问、获取公网访问连接地址和端口、以及Redis实例或ELB添加IP白名单的操作指导。 约束与限制 仅单机、主备、读写分离、Proxy集群实例支持开启公网访问,Cluster集群实例暂不支持。 客户端公网访问Redis,与处于同一VPC下的客户端访问Redis相比,网络时延会增加。 因公网性能问题造成的客户端访问异常不计入SLA。 客户端通过ELB公网访问Redis,如果Redis配置了IP白名单,需要将ELB内网IP地址添加到Redis实例的IP白名单中,以确保ELB可以访问Redis实例。添加方式请参见配置ELB内网IP到Redis实例IP白名单(可选)。 客户端通过ELB公网访问Redis,如果需要添加公网IP白名单,请将访问Redis实例的公网IP添加到ELB的IP地址组,添加到Redis实例白名单无效。详情请参见配置客户端公网IP到ELB IP白名单(可选)。 前提条件 准备弹性负载均衡ELB,创建ELB的操作,请参考创建独享型负载均衡器。创建的ELB必须符合以下条件。如果已有符合条件的ELB,无需重复创建。 ELB的实例类型必须选择“独享型”,且必须开启“IP类型后端(跨VPC后端)”。 ELB的规格中必须包含“网络型(TCP/UDP)”。 ELB必须选择与Redis实例相同的VPC。 ELB必须绑定弹性IP(EIP)。 ELB必须有可用的端口。 单个ELB挂载多个实例时,Redis的性能会受限于ELB的规格。 为保护Redis实例的网络安全性,Redis实例必须配置访问密码,免密访问的实例不支持开启公网访问。如需修改免密访问的实例为密码访问,请参考重置缓存实例密码。
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        配置Redis网络连接
        开启Redis公网访问并获取公网访问地址
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 1
      • ...
      • 281
      • 282
      • 283
      • 284
      • 285
      • ...
      • 295
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      公共算力服务

      科研助手

      一站式智算服务平台

      智算一体机

      知识库问答

      推荐文档

      网页防篡改卸载

      客户端下载安装

      管理云间高速

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号