活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容安全_相关内容
      • 创建用户并授权
        本节主要介绍创建用户并授权。 如果您需要对您所拥有的云数据库GeminiDB进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),通过IAM,您可以: 根据企业的业务组织,在您的天翼云账号中,给企业中不同职能部门的员工创建IAM用户,让员工拥有唯一安全凭证,并使用云数据库 GeminiDB资源。 根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将云数据库GeminiDB资源委托给更专业、高效的其他天翼云账号或者云服务,这些账号或者云服务可以根据权限进行代运维。 如果天翼云账号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用云数据库 GeminiDB服务的其它功能。 本章节为您介绍对用户授权的方法,操作流程如图1所示。 前提条件 给用户组授权之前,请您了解用户组可以添加的云数据库GeminiDB权限,并结合实际需求进行选择,云数据库 GeminiDB支持的系统权限。 示例流程 图1 给用户授权云数据库 GeminiDB权限流程 1、创建用户组并授权 在IAM控制台创建用户组,并授予云数据库 GeminiDB权限“GeminiDB FullAccess”。 2、创建用户并加入用户组 在IAM控制台创建用户,并将其加入创建的用户组。 3、用户登录并验证权限 新创建的用户登录控制台,切换至授权区域,验证权限: 在“服务列表”中选择云数据库 GeminiDB服务,进入云数据库 GeminiDB主界面,单击右上角“购买数据库实例”,尝试购买云数据库 GeminiDB实例,若可以正常购买数据库实例,则表示所需权限策略均已生效。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        权限管理
        创建用户并授权
      • 开启告警通知
        本节介绍如何开启告警通知。 通过对攻击日志进行通知设置,WAF可将仅记录和拦截的攻击日志通过用户设置的接收通知方式(例如邮件或短信)发送给用户。 前提条件 已开通消息通知服务。 约束条件 在设置时间间隔内,当攻击次数大于或等于您设置的阈值时才会发送告警通知。 操作步骤 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 单击页面左上角的“服务列表”,选择“安全 > Web应用防火墙(独享版)”。 4. 在左侧导航树中,选择“系统管理 > 告警通知”,进入“告警通知”页面。 5. 单击“添加通知”,配置告警通知参数。 参数 参数说明 通知类型 选择告警通知的类型: 防护事件:WAF可将仅记录和拦截的攻击日志通过用户设置的接收通知方式(例如邮件或短信)发送给用户。 通知名称 自定义该条告警的名称。 通知描述 可选参数,备注该条告警的用途。 企业项目 在下拉框中选择企业项目,该通知在选择的企业项目下生效。 通知群组 单击下拉列表选择已创建的主题或者单击“查看主题”创建新的主题,用于配置接收告警通知的终端。 告警频率 在设置时间间隔内,当攻击次数大于或等于您设置的阈值时才会发送告警通知。 事件类型 设置告警的事件类型,系统默认选择“全部”,用户也可以单击“自定义”,勾选需要告警的事件类型。 6. 配置完成后,单击“确认”,告警通知设置成功。 如果需要关闭该告警通知,在目标告警所在行的的“操作”列,单击“关闭”。 如果需要删除该告警通知,在目标告警所在行的的“操作”列,单击“删除”。 如果需要修改该告警通知,在目标告警所在行的的“操作”列,单击“修改”。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        系统管理
        开启告警通知
      • 使用Redis-cli迁移自建Redis(RDB文件)
        本文介绍使用Rediscli迁移自建Redis(RDB文件) 迁移介绍 Rediscli 是 Redis 自带的命令行客户端工具,它允许用户通过命令行与 Redis 服务器进行交互 如果 Redis 服务不支持获取 AOF 文件,你可以尝试使用 Rediscli 工具获取 RDB 文件,并通过其他工具(如 RedisShake)将其导入到 DCS 缓存实例中。 说明 源Redis实例必须支持“SYNC”命令,因为使用Rediscli导出RDB文件依赖SYNC命令。 步骤1:导出前准备 对于主备或集群实例,由于数据写入 RDB 文件存在一定的时延,你可以在迁移之前先了解待迁移 Redis 实例的 RDB 策略配置(策略配置位于 redis.conf 文件中) 为确保 RDB 文件包含完整的缓存数据,建议先暂停业务系统 步骤2:导出RDB文件 说明 建议业务空闲时间进行迁移操作。 待导出的源Redis为集群模式时,需要对集群的每个节点逐一执行导出操作,然后再逐一导入到目标Redis中。 使用如下命令导出RDB文件: ./rediscli h {redisaddress} p {redisport} a {password} rdb {output.rdb} 执行命令后回显"Transfer finished with success.",表示文件导出成功。 步骤3:上传RDB文件至天翼云ECS 为节省传输时间,请先压缩RDB文件再传输。 将压缩文件(如以SFTP/SCP等方式)上传到天翼云ECS。 说明 ECS需保证有足够的磁盘空间,供数据文件存储,同时需要与缓存实例网络互通,通常要求相同VPC和相同子网,且安全组规则不限制访问端口。 步骤4:导入数据 可借助RedisShake工具完成数据导入。 步骤5:迁移后验证 数据导入成功后,请连接DCS缓存实例,通过dbsize命令,确认数据是否导入成功 如果导入不成功,需要分析原因,修正导入语句,然后使用flushall或者flushdb命令清理实例中的缓存数据,并重新导入。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用Redis-cli迁移自建Redis(RDB文件)
      • CCE集群的网络地址段规划实践
        本节主要介绍CCE集群的网络地址段规划实践。 在CCE中创建集群时,您需要根据具体的业务需求规划VPC的数量、子网的数量、容器网段划分和服务网段连通方式。 本文将介绍VPC环境下CCE集群里各种地址的作用,以及地址段该如何规划。 约束与限制 通过搭建VPN方式访问CCE集群,需要注意VPN网络和集群所在的VPC网段、容器使用网段不能冲突。 集群各网段基本概念 VPC网段/子网网段 虚拟私有云(Virtual Private Cloud,简称VPC)是您在天翼云上申请的为云服务器、云容器、云数据库等资源构建隔离的、用户自主配置和管理的虚拟网络环境。您可以自由配置VPC内的IP地址段、子网、安全组等子服务,也可以申请弹性带宽和弹性公网IP搭建业务系统。 子网是用来管理弹性云服务器网络平面的一个网络,可以提供IP地址管理、DNS服务,子网内的弹性云服务器IP地址都属于该子网。 默认情况下,同一个VPC的所有子网内的弹性云服务器均可以进行通信,不同VPC的弹性云服务器不能进行通信。不同VPC的弹性云服务器可通过创建对等连接通信。 在CCE中创建集群时,需要选择VPC和子网,集群的控制节点(k8s控制面)将在所选择的子网中创建。 容器网段(pod网段) Pod是Kubernetes内的概念,每个Pod具有一个IP地址。 在CCE中创建集群时,可以指定Pod的地址段(即容器网段),容器网段不能和子网网段重叠。例如子网网段用的是 192.168.0.0/16,集群的容器网段就不能使用192.168.0.0/18,192.168.1.0/18等,因为这些地址都涵盖在 192.168.0.0/16 里了。
        来自:
        帮助文档
        云容器引擎
        最佳实践
        网络
        CCE集群的网络地址段规划实践
      • 容器隧道网络
        容器隧道网络(Overlay )基于底层VPC网络,另构建了独立的VXLAN隧道化容器网络,适用于一般场景。VXLAN是将以太网报文封装成UDP报文进行隧道传输。容器网络是承载于VPC网络之上的Overlay网络平面,具有付出少量隧道封装性能损耗,即可获得通用性强、互通性强、高级特性支持全面(例如Network Policy网络隔离)的优势,可以满足大多数应用需求。 容器隧道网络 说明如下: Overlay L2指的是容器跨节点以Overlay通信,所有节点上的容器IP都是2层可达的。如Canal支持的Overlay类型为vxlan,采用的vswitch为openvswitch。 Overlay L2特性支持的功能包括: 支持多平面通信和隔离。 支持Pod访问Service IP。 支持Pod应用和Host应用的访问。 Overlay L2通信的上行链路网卡设备需要预配置IP地址。 Overlay L2目前不支持与其他网络模式的混用。 ServiceIP不支持多平面,只支持默认平面。 Overaly L2逻辑网络掩码(大子网掩码)目前不支持配置为大于24的值。 Overlay L2逻辑网络分配给节点的小子网掩码默认为26,支持配置为24~30。另外当小子网掩码为配置为24时,大子网掩码不支持配置为24。 Overlay L2由于在每个节点上都是小子网,容器内网络的网关都是由Canal自动分配,不支持指定网关。 优缺点 优点:不受VPC配额规格、响应速度限制(路由条目数、弹性网卡数、创建速度限制)。 缺点:封装的额外开销,网络复杂性较高、性能较低,无法直接利用VPC提供的负载均衡、安全组等能力。 应用场景 适用于对网络时延、带宽要求不是特别高的一般容器业务场景。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        网络管理
        网络模型
        容器隧道网络
      • 通过云审计服务查询实例相关操作
        本节介绍如何通过云审计服务查询实例相关操作。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶或日志审计(原生版)服务中。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。 若您使用云审计提供的转储至对象存储服务(ZOS)功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 若您使用云审计提供的转储至日志审计(原生版)功能,需要开通日志审计(原生版)服务并支付产生的费用,该费用以日志审计(原生版)产品的计费为准,参考计费说明日志审计(原生版)。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。
        来自:
        帮助文档
        弹性容器实例
        最佳实践
        通过云审计服务查询实例相关操作
      • 异步行为相关参数
        oldsnapshotthreshold (integer) 设置在使用快照时,一个快照可以被使用而没有发生snapshot too old 错误风险的最小时间。这个参数只能在服务器启动时设置。如果超过该阈值,旧数据将被清理掉。这可以有助于阻止长时间使用的快照造成的快照膨胀。 为了阻止由于本来对该快照可见的数据被清理导致的不正确结果, 当快照比这个阈值更旧并且该快照被用来读取一个该快照建立以来被修改过的页面时, 将会产生一个错误。值为1会禁用这个特性,并且这个值是默认值。 对于生产工作有用的值可能从几个小时到几天。该设置将被转换成分钟粒度, 并且小数字(例如0或者1min) 被允许只是因为它们有时对于测试有用。虽然允许高达60d的设置, 但是请注意很多负载情况下,很短的时间帧里就可能发生极大的膨胀或者事务 ID 回卷。当这个特性被启用时,关系末尾的被清出的空间不能被释放给操作系统, 因为那可能会移除用于检测snapshot too old情况所需的信息。 所有分配给关系的空间还将与该关系关联在一起便于重用, 除非它们被显式地释放(例如,用VACUUM FULL)。这个设置不会尝试保证在任何特殊情况下都会生成错误。事实上,如果(例如) 可以从一个已经物化了一个结果集的游标中生成正确的结果, 即便被引用表中的底层行已经被清理掉也不会生成错误。 某些表不能被过早地安全清除,并且因此将不受这个设置的影响, 比如系统目录。对于这些表, 这个设置将不能降低膨胀,也不能降低在扫描时产生 snapshot too old错误的可能性。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        资源消耗相关参数
        异步行为相关参数
      • 登录与注册
        本文介绍如何在天翼云APP注册或登录天翼云账号。 如何在APP注册天翼云账号 短信注册 1、打开天翼云APP,选择【我的】 2、点击【登录/注册】按钮,选择切换至短信注册方式 3、若该手机号已经注册过天翼云账号,可选择继续注册或选择已有账号登录 注意 一个手机号最多可注册5个天翼云账号,超出则不再支持注册新的天翼云账号 通过短信注册的账号默认开启短信登录功能,若关闭此功能,请确保已设置登录密码,便于后期使用账号登录 账号注册 1、打开天翼云APP,选择【我的】 2、点击【登录/注册】按钮,填写账号信息 3、注册成功后可可返回登录界面进行账号登录 如何在APP登录天翼云账号 短信登录 1、打开天翼云APP,选择【我的】 2、点击【登录/注册】按钮,选择其他方式 3、填写手机号及验证码 账号登录 1、打开天翼云APP,选择【我的】 2、点击【登录/注册】按钮,选择其他方式 3、填写账号及密码 如何使用天翼云APP扫码登录 用户可以在PC端和APP端使用同一个天翼云账号,支持通过天翼云APP扫码登录PC端。 1、在PC端选择扫码登录 2、使用天翼云APP【扫一扫】功能,扫描PC端的二维码 注意 天翼云APP需要为已登录状态 3、在天翼云APP的安全提示界面,选择【确认登录】 4、PC端登录成功
        来自:
        帮助文档
        天翼云APP
        通用能力
        登录与注册
      • 域名接入相关问题
        DDoS高防(边缘云版)是否对接入端口有限制? 接入端口因国家备案要求,所以不支持80,8080,443,8443端口接入,有该端口需求可使用域名接入。 此外端口有预留部分内部端口,详情可见控制台实时更新。 DDoS高防(边缘云版)支持对非域名业务进行防护么? HTTP、HTTPS协议接入的域名,必须使用域名接入。 如果没有域名,可选择TCP、UDP协议端口接入(80,8080,443,8443及因安全问题而限制的端口除外)。 DDoS高防(边缘云版)源站IP可以填写内网IP吗? 不可以。DDoS高防(边缘云版)通过公网进行回源,不支持在源站IP填写内网IP,必须要求天翼云节点到源站IP可达,否则业务将无法正常转发到源站。 DDoS高防(边缘云版)配置多个源站时如何进行负载均衡? 针对域名接入的回源配置,支持设置源站的权重,根据权重及IPHASH的方式进行负载均衡。具体配置可详见新增域名。 针对端口接入的回源配置,多个源站将通过轮询的方式进行转发。具体配置可详见新增规则。 接入DDoS高防(边缘云版)业务时,业务会中断吗? 业务接入DDoS高防(边缘云版)时,需要把域名解析从源站IP替换成天翼云的CNAME,该过程因为有Local DNS缓存的影响, 修改DNS解析后仍然会有部分请求未经过天翼云节点直接访问到源站IP。 为避免域名解析生效过程中业务中断,建议您的源站继续提供服务,直到域名解析全部生效,再调整源站的访问策略,如黑白名单等。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        常见问题
        功能咨询类
        域名接入相关问题
      • 产品咨询
        本节介绍网页防篡改(原生版)产品咨询相关常见问题。 什么是网页防篡改(原生版)? 网页防篡改(原生版)是一款全方位保障云上网站安全的产品,可对网站文件进行监控,若发生篡改时,实时对客户进行告警;同时通过备份恢复被篡改的文件或目录,保障客户系统的网站信息不被恶意篡改。 网页防篡改(原生版)都支持哪些资源池? 支持的一类节点区域如下: 资源池大区 资源池名称 华东地区 上海7/上海15/上海36/杭州2/合肥2/芜湖2/芜湖4/南京2/南京3/南京4/南京5/华东1/九江/南昌5/杭州7 华南地区 福州3/福州4/福州25/厦门3/佛山3/佛山7/广州6/南宁2/南宁23/郴州2/长沙3/海口2/武汉3/武汉4/武汉41/长沙42/华南2 西北地区 西安3/西安4/西安5/西宁2/兰州2/乌鲁木齐27/乌鲁木齐7/乌鲁木齐4/中卫5/中卫2/西安7/庆阳2 西南地区 贵州3/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州 北方地区 青岛20/北京5/北京9/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3/沈阳8 国际地区 香港1 支持的二类节点区域如下: 资源池大区 资源池名称 华东地区 上海4/杭州(AZ1)/杭州(AZ2)/苏州(AZ1)/苏州(AZ2)/苏州(AZ3)/芜湖/南昌 华南地区 福州(AZ1)/福州(AZ2)/深圳/南宁/长沙2(AZ1)/长沙2(AZ2)/海口(AZ1)/武汉2(AZ1)/广州4 西北地区 西安2(AZ1)/西安2(AZ2)/西安2(AZ3)/中卫/乌鲁木齐/西宁/兰州 西南地区 贵州/重庆/成都3/昆明 北方地区 郑州/青岛(AZ1)/青岛(AZ2)/北京2/太原/石家庄(AZ1)/石家庄(AZ2)/天津/长春/哈尔滨/沈阳3/内蒙3/华北(AZ3)
        来自:
        帮助文档
        网页防篡改(原生版)
        常见问题
        产品咨询
      • 约束与限制
        本节主要介绍NAT的约束与限制。 公网NAT网关 关于公网NAT网关的使用,您需要注意以下几点: 公共限制 同一个公网NAT网关下的多条规则可以复用同一个弹性公网IP,不同网关下的规则必须使用不同的弹性公网IP。 一个VPC支持关联多个公网NAT网关。 SNAT、DNAT可以共用同一个弹性公网IP,节省弹性公网IP资源。但是在选用全端口模式下,DNAT优先占用全部端口,这些端口不能被 SNAT 使用。因此SNAT规则不能和全端口的DNAT规则共用EIP,以免出现业务相互抢占问题。 公网NAT网关支持转换的资源类型不包括企业型VPN。 当云主机同时配置弹性公网IP服务和公网NAT网关服务时,数据均通过弹性公网IP转发。 出于安全因素考虑,部分运营商会对下列端口进行拦截,导致无法访问。建议避免使用下列端口: 协议 不支持端口 TCP 42 135 137 138 139 444 445 593 1025 1068 1434 3127 3128 3129 3130 4444 4789 4790 5554 5800 5900 9996 UDP 135~139 1026 1027 1028 1068 1433 1434 4789 4790 5554 9996 NAT 网关支持 TCP、UDP 和 ICMP 协议,暂不支持ALG 相关技术,且GRE 隧道和 IPSec 使用的 ESP、AH无法使用 NAT 网关,这是由NAT网关本身的特性决定的。 SNAT限制 VPC内的每个子网只能添加一条SNAT规则。 SNAT规则中添加的自定义网段,对于云专线的配置,必须是云专线侧网段,且不能与虚拟私有云侧的网段冲突。 公网NAT网关支持添加的SNAT规则的数量没有限制。 DNAT限制 一个云主机的一个端口对应一条DNAT规则,一个端口只能映射到一个EIP,不能映射到多个EIP。 公网NAT网关支持添加的DNAT规则的数量为200个。
        来自:
        帮助文档
        NAT网关
        产品简介
        约束与限制
      • ECS整机备份恢复
        本章节介绍如何使用云主机备份产品完成ECS的整机备份恢复。 场景描述 如果您的业务数据同时保存在数据盘和系统盘中,当ECS整机发生系统故障或者错误操作时,您可以通过云主机备份的备份和恢复功能,实现业务应用版本回退。本文详细介绍整机恢复场景的相关内容。 方案优势 当发生病毒入侵、人为误删除、软硬件故障等事件,支持将数据恢复到任意备份点,使系统正常运行。 备份的同一个ECS主机下的所有磁盘数据具有一致性,即同时对所有云硬盘进行备份,不存在因备份创建时间差带来的数据不一致问题。 前提条件 在进行本文操作之前,您需要完成以下准备工作: 请确保弹性云主机在备份前已完成如下操作: Linux弹性云主机优化并安装Cloudinit工具 Windows弹性云主机优化并安装Cloudbaseinit工具 创建镜像前备份的状态必须为“可用”,或者状态为“创建中”并在备份状态列显示“可用于创建镜像”时,才允许执行创建镜像操作。 用于数据恢复的备份必须包含系统盘的备份。 操作步骤 步骤1:创建云主机备份 1、假设云主机A的数据盘中存放了数据:datadisk.txt,系统盘中存放了数据:systemdisk.txt,如下图所示 2、参照云主机备份操作指导章节,完成云主机备份的创建。 3、执行备份成功后,在“备份副本”页签,查看产生的备份状态为“可用”,表示当前备份任务执行成功。 步骤2:删除/新增数据,模拟灾难场景 1、登录天翼云管理控制台。远程登陆云主机,或者使用远程桌面访问对应云主机。 2、删除系统盘和数据盘中准备的数据,新增文件和数据如下图所示: 步骤3:整机恢复 1、登录天翼云管理控制台。选择“存储 > 云主机备份”。进入云主机备份页面。 2、在“备份”页签下,选中创建成功的备份,单击操作列“恢复数据”,进入恢复服务器的向导页面,按需选择对应选项,点击确定。 3、在云主机备份控制台的“备份”页签下,查看任务状态,状态成功后即恢复完成。 步骤4:数据验证 1.登录天翼云管理控制台。远程登陆云主机,或者使用远程桌面访问对应云主机。查看对应数据,如下图所示,已恢复至对应时间点数据状态:
        来自:
        帮助文档
        云主机备份 CSBS
        最佳实践
        ECS整机备份恢复
      • 更改时区
        本节介绍了更改时区的操作场景、更改Linux弹性云主机的时区、更改Windows弹性云主机的时区。 操作场景 弹性云主机默认设置的时区,是您制作镜像时选择的时区。如需修改,请参见本节内容,将其更改为所需的本地时间或网络中的其他时区。 弹性云主机登录成功后,如果发现弹性云主机系统时间与本地时间不一致,建议更改时区,将弹性云主机系统时间与本地时间进行同步。 更改Linux弹性云主机的时区 针对不同的Linux操作系统,更改时区的操作略有不同。本节以CentOS 6.x 64bit为例,介绍更改Linux弹性云主机时区的操作方法。 1. 登录弹性云主机。 2. 执行以下命令,切换至root帐号。 su root 3. 执行以下命令,查询支持使用的时区。 ls /usr/share/zoneinfo/ 其中,“/user/share/zoneinfo”目录显示了时区数据文件的目录结构。您可以通过该目录结构,查找您所需时区的文件。 “/user/share/zoneinfo”目录中显示的信息,部分为时区,部分为目录。其中,目录包含了针对特定城市的时区文件,您可以在此目录查找要用于弹性云主机的所在城市时区。 示例如下: − 假设您需要使用中国上海所在的时区,则需先执行命令ls /usr/share/zoneinfo/Asia打开目录。 其时区文件目录为“/usr/share/zoneinfo/Asia/Shanghai” − 假设您需要使用法国巴黎所在的时区,则需先执行命令ls /usr/share/zoneinfo/Europe打开目录,其时区文件目录为“/usr/share/zoneinfo/Europe/Paris”。 4. 设置新时区。 a. 执行以命令,打开“/etc/sysconfig/clock”文件。 vim /etc/sysconfig/clock b. 查找ZONE条目,将其更改为所需的时区文件名称。 示例如下: 假设更改为中国上海所在时区,需将ZONE条目更改为: ZONE"Asia/Shanghai" 假设更改为法国巴黎所在时区,需将ZONE条目更改为: ZONE"Europe/Paris" 5. 按“ESC”,执行以下命令,保存并退出文件。 :wq 6. 执行以下命令,查询弹性云主机中是否已经存在“/etc/localtime”文件。 ls /etc/localtime − 是,执行7。 − 否,跳转8。 7. 执行以下命令,删除已有的“/etc/localtime”文件。 rm /etc/localtime 8. 执行以下命令,在“/etc/localtime”与时区文件之间创建一个符号链接,使得弹性云主机在引用本地时间信息时找到此时区文件。 ln sf /usr/share/zoneinfo/Asia/Shanghai /etc/localtime 9. 执行以下命令,重启系统,使得所有服务和应用程序接受新时区信息。 reboot 10. 重新登录弹性云主机,使用root帐号执行以下命令,查询弹性云主机的时区,确认是否更改成功。 ls lh /etc/localtime 回显信息如下所示: ls lh /etc/localtime lrwxrwxrwx 1 root root 33 Nov 27 11:01 /etc/localtime > /usr/share/zoneinfo/Asia/Shanghai
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        管理弹性云主机
        更改时区
      • 将PostgreSQL迁移到TeleDB
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将PostgreSQL迁移到TeleDB
      • 流式文件处理
        本章节主要介绍如何使用函数流实现流式大文件处理。 背景与价值 Serverless Workflow由于自身可编排、有状态、持久化、可视化监控、异常处理、云服务集成等特性,适用于很多应用场景,比如: 复杂度高需要抽象的业务(订单管理,CRM 等) 业务需要自动中断 / 恢复能力,如多个任务之间需要人工干预的场景(人工审批,部署流水线等) 业务需要手动中断 / 恢复(数据备份 / 恢复等) 需要详细监控任务执行状态的场景 流式处理(日志分析,图片 / 视频处理等)当前大部分 Serverless Workflow 平台更多关注控制流程的编排,忽视了工作流中数据流的编排和高效传输,上述场景创建函数流触发器中,由于数据流相对简单,所以各大平台支持都比较好,但是对于文件转码等存在超大数据流的场景,当前各大平台没有给出很好的解决方案。FunctionGraph函数工作流针对该场景,提出了 Serverless Streaming 的流式处理方案,支持毫秒级响应文件处理。 技术原理 FunctionGraph函数工作流提出 Serverless Streaming 的流式可编排的文件处理解决方案,步骤与步骤之间通过数据流驱动,更易于用户理解。本章通过图片处理的例子解释该方案的实现机制。 如果需要驱动一个工作流执行,工作流系统需要处理两个部分: 控制流:控制工作流的步骤间流转,以及步骤对应的 Serverless 函数的执行。确保步骤与步骤之间有序执行。 数据流:控制整个工作流的数据流转,通常来说上一个步骤的输出是下一个步骤的输入,比如上述图片处理工作流中,图片压缩的结果是打水印步骤的输入数据。 在普通的服务编排中,由于需要精准控制各个服务的执行顺序,所以控制流是工作流的核心部分。然而在文件处理等流式处理场景中,对控制流的要求并不高,以上述图片处理场景举例,可以对大图片进行分块处理,图片压缩和加水印的任务不需要严格的先后顺序,图片压缩处理完一个分块可以直接流转到下一个步骤,而不需要等待图片压缩把所有分块处理完再开始加水印的任务。 基于上述理解,FunctionGraph工作流的 Serverless Streaming 方案架构设计如下图所示: 在 Serverless Streaming 的流程中,弱化控制流中步骤之间的先后执行顺序,允许异步同时执行,步骤与步骤之间的交互通过数据流驱动。其中数据流的控制通过 Stream Bridge 组件来实现。同时函数 SDK 增加流式数据返回接口,用户不需要将整个文件内容返回,而是通过 gRPC Stream 的方式将数据写入到 Stream Bridge,Stream Bridge 用来分发数据流到下一个步骤的函数 Pod 中。
        来自:
        帮助文档
        函数工作流
        用户指南
        函数流管理
        流式文件处理
      • CDN缓存命中率较低可能的原因
        是否用户请求量过低导致 如果域名请求数总量较少,则即使有少量URL未命中,仍会对总体命中率影响较大。例如,5分钟内仅100个URL请求,其中20个是访问同个URL,但因为该URL在CDN设置了不缓存或缓存时间为0(等同于不缓存),导致每次请求都回源,则此时CDN缓存命中率最高不会超过80%。此外,因为CDN节点磁盘缓存空间有限,一般会有基于文件热度淘汰冷文件机制。如果该域名访问的资源热度极低,例如第一次访问后,下次用户访问同个资源是在一周以后,则在此期间该文件可能因为热度过低被淘汰掉,也会导致命中率较低。 是否用户请求确实比较分散,热度较低导致 域名总请求数和访问量居中,但用户请求确实比较分散,即不同地区不同用户访问的内容都不一样,没有集中请求热点资源,这种用户访问特性也会导致命中率较低。该情况可以结合CDN控制台上【数据分析】模块的“热门URL”数据来进行确认,例如按天统计的热门URL排名TOP10的访问次数很少,访问占比不到1%,则该域名整体命中率较低是正常情况。 是否因缓存设置不合理导致 CDN控制台上有推荐的缓存规则设置,客户可以基于该规则进行适当调整。如果缓存规则设置不合理,也会导致缓存命中率较低。可以结合CDN控制台上【数据分析】模块中“热门URL(回源)”数据进行确认。例如,回源请求次数排名TOP的URL,是否存在实际是可缓存的,或是否存在加速URL中携带问号后参数但实际指向同个文件,因未设置去问号缓存导致重复回源(详情请见:CDN缓存key携带问号后参数导致缓存命中率低)。如存在上述情况,可通过CDN控制台【域名管理】模块中“缓存配置”“缓存过期时间设置”进行调整优化,例如将实际可缓存的URL,设置为强制缓存一段时间,或将相应URL设置为去问号缓存。 注意 CDN缓存规则分为不缓存、强制缓存、遵循源站缓存三种,其中如果选择遵循源站缓存,则可能因为源站返回CacheControl头值为nocache、nostore、private等不缓存头而导致CDN节点不缓存,此时如果确认对应URL实际是可缓存的,可将缓存规则调整为强制缓存,此时CDN节点将忽略源站的不缓存头,强制进行缓存。 完成以上检查后,如发现回源较多的URL确实是不能缓存的URL,即设置了不缓存或缓存时间为0的URL,例如php、jsp文件等,则命中率较低是正常情况。
        来自:
        帮助文档
        CDN加速
        常见问题
        缓存配置
        CDN缓存命中率较低可能的原因
      • 例行维护
        例行维护周期 任务场景 例行维护内容 每天 检查集群服务状态 l 检查每个服务的运行状态和配置状态是否正常,是否为绿色。 l 检查每个服务中,角色实例的运行状态和配置状态是否正常,是否为绿色。 l 检查每个服务中,角色实例的主备状态是否可以正常显示。 l 检查服务与角色实例的“概览”显示结果是否正常。 每天 检查集群主机状态 l 检查每个主机当前的运行状态是否正常,是否为绿色。 l 检查每个主机当前的磁盘使用率、内存使用率和CPU使用率。关注当前内存与CPU使用率是否处于上升趋势。 每天 检查集群告警信息 检查前一天是否生成了未处理异常告警,包含已自动恢复的告警。 每天 检查集群审计信息 检查前一天是否有“高危”和“危险”的操作,是否已确认操作的合法性。 每天 检查集群备份情况 检查前一天OMS、LDAP、DBService和NameNodeOMS、LDAP和DBServiceOMS、LDAP是否自动备份。 每天 检查健康检查结果 在FusionInsight Manager执行健康检查,下载健康检查报告确认当前集群是否存在异常状态。建议启用自动健康检查,并及时导出最新的集群健康检查结果,根据检查结果修复不健康项目。 每天 检查网络通讯 检查集群网络工作状态,节点之间的网络通讯是否存在延时。 每天 检查存储状态 检查集群总体数据存储量是否出现了突然的增长: l 磁盘使用量是否已接近阈值,排查原因,例如是否有业务留下的垃圾数据或冷数据需要清理。 l 业务是否有增长需求,磁盘分区是否需要扩容。 每天 检查日志情况 l 检查是否有失败、失去响应的MapReduce、Spark任务,查看HDFS中“/tmp/logs/${username}/logs/${application id}”日志文件并排除问题。 l 检查Yarn的任务日志,查看失败、失去响应的任务日志,并删除重复数据。 l 检查Storm的worker日志。 l 备份日志到存储服务器。 每周 用户管理 检查用户密码是否将要过期并通知修改。“机机用户”用户修改密码需要重新下载keytab文件。 每周 分析告警 导出指定周期内产生的告警并分析。 每周 扫描磁盘 对磁盘健康状态进行检查,建议使用专门的磁盘检查工具。 每周 统计存储 分批次排查集群节点磁盘数据是否均匀存储,筛选出明显数据增加或不足的硬盘,并确认硬盘是否正常。 每周 记录变更 安排并记录对集群配置参数和文件实施的操作,为故障分析处理场景提供依据。 每月 分析日志 l 收集集群节点服务器的硬件日志,例如BMC系统日志,并进行分析。 l 收集集群节点服务器的操作系统日志,并进行分析。 l 收集集群日志,并进行分析。 每月 诊断网络 对集群的网络健康状态进行分析。 每月 管理硬件 检查设备运行的机房环境,安排清洁设备。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        例行维护
      • 设置跨区域备份策略
        本节介绍了设置跨区域备份策略的操作场景、约束与限制、开启或修改步骤等相关内容。 操作场景 关系型数据库支持将备份文件存放到另一个区域存储,某一区域的实例故障后,可以在异地区域使用备份文件在异地恢复到新的RDS实例,用来恢复业务。 实例开启跨区域备份策略后,会自动将该实例的备份文件备份到目标区域。您可以在RDS“备份管理”页面,对跨区域的备份文件进行管理。未开启跨区域备份策略,默认是在本区域存放备份。 每个租户默认最多支持150个实例设置跨区域备份策略。 计费标准 开启跨区域备份功能后,计费规则如下: 产品 功能 标准资费(元/G/小时) 关系数据库MySQL版 跨区域备份 0.001 约束和限制 目前仅广州苏州、华北贵州支持此能力,如果您的实例在这些资源池内,请您提交工单申请对应权限。 开启或修改跨区域备份策略 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏,单击“备份恢复”,单击“跨区域备份策略”。 步骤 6 在弹框中,开启跨区域全备,或者同时开启跨区域全备和日志备份,选择备份区域和备份保留时长。 实例名称仅会在跨区域备份初次同步时同步,实例ID为跨区域备份的唯一标识。 开启跨区域全备:将本实例的自动全量备份文件备份到异地。 开启跨区域日志备份:将本实例的Binlog备份(增量备份)文件备份到异地。 跨区域备份文件的保留天数范围为1~1825天。 开启跨区域备份策略仅对新产生的备份生效,即为开启跨区域备份策略后产生的备份生效,之前的备份文件不会存储到异地。 开启跨区域日志备份后需要待下一次自动全量备份复制完成后才可进行将数据库实例恢复到指定时间点操作,并且只允许恢复到自动全量备份完成后的时间点。 同一个租户下各数据库实例,备份选择的目标区域需要相同。 跨区域备份会在实例本区域备份完成后异步复制到异地。 步骤 7 单击“确定”,确认修改。 步骤 8 您可以返回实例列表,在左侧导航栏选择“备份管理”,在“数据库跨区域备份”页签,管理跨区域备份文件。 默认展示所有的跨区域备份实例信息。 − 单击“设置区域备份”,可以修改跨区域备份策略。 − 单击“查看跨区域备份”,可以查看到生成的备份文件,当原区域实例发生故障,可以通过该备份文件将数据恢复到新实例。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据备份
        执行备份
        设置跨区域备份策略
      • GDS实践指南
        本章节主要介绍GDS最佳实践。 安装GDS前必需确认GDS所在服务器环境的系统参数是否和数据库集群的系统参数一致。 GDS与DWS通信要求物理网络畅通,尽量使用万兆网。因为千兆网无法承载高速的数据传输压力,极易出现断连,使用千兆网时DWS无法提供通信保障。满足万兆网的同时,要求数据磁盘组I/O性能大于GDS单核处理能力上限(约400MB/s),才能保证单文件导入速率最大化。 提前做好服务部署规划,数据服务器上,建议一个Raid只布1~2个GDS。GDS跟DN的数据比例建议在1:3至1:6之间。一台加载机的GDS进程不宜部署太多,千兆网卡部署1个GDS进程即可,万兆网卡机器建议部署不大于4个进程。 提前对GDS导入导出的数据目录做好层次划分,避免一个数据目录包含过多的文件,并及时清理过期文件。 合理规划目标数据库的字符集,强烈建议使用UTF8作为数据库的字符集,不建议使用sqlascii编码,因为极易引起混合编码问题。GDS导出时保证外表的字符集和客户端字符集一致即可,导入时保证客户端编码,数据文件内容编码和客户端一致。 如果存在无法变更数据库,客户端,外表字符集时,可以尝试使用iconv命令进行手动转换。 注意 f 表示源文件的字符集,t为目标字符集 iconv f utf8 t gbk utf8.txt o gbk.txt 关于GDS导入实践可参考“导入数据最佳实践”章节中的“使用GDS导入数据”。 GDS支持CSV、TEXT、FIXED三种格式,缺省为TEXT格式。不支持二进制格式,但是可以使用encode/decode函数处理二进制类型。例如: 对二进制表导出: 创建表。 CREATE TABLE blobtypet1 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet1( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ) WRITE ONLY; INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO fblobtypet1 select encode(BTCOL,'base64') from blobtypet1; 对二进制表导入: 创建表。 CREATE TABLE blobtypet2 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet2( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/fblobtypet1.dat.0', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ); insert into blobtypet2 select decode(BTCOL,'base64') from fblobtypet2; SELECT FROM blobtypet2; btcol xdeadbeef xdeadbeef xdeadbeef xdeadbeef (4 rows) 对同一张外表重复导出会覆盖之前的文件,因此不要对同一个外表重复导出。 若不确定文件是否为标准的csv格式,推荐将quote参数设置为0x07,0x08或0x1b等不可见字符来进行GDS导入导出,避免文件格式问题导致任务失败。 CREATE FOREIGN TABLE foreignHRstaffSft1 ( MANAGERID NUMBER(6), sectionID NUMBER(4) ) SERVER gsmppserver OPTIONS (location 'file:///inputdata/', format 'csv', mode 'private', quote '0x07', delimiter ',') WITH errHRstaffSft1; GDS支持并发导入导出,gds t参数用于设置gds的工作线程池大小,控制并发场景下同时工作的工作线程数且不会加速单个sql任务。gds t缺省值为8,上限值为200。在使用管道功能进行导入导出时,t参数应不低于业务并发数。 GDS外表参数delimiter是多字符时,建议TEXT格式下字符不要完全相同,例如不建议使用delimiter ''。 GDS多表并行导入同一个文件提升导入性能(仅支持text和csv文件)。 创建目标表。 CREATE TABLE pipegdswidetb1 (city integer, telnum varchar(16), cardcode varchar(15), phonecode vcreate table pipegdswidetb3 (city integer, telnum varchar(16), cardcode varchar(15), phonecode varchar(16), regioncode varchar(6), stationid varchar(10), tmsi varchar(20), recdate integer(6), rectime integer(6), rectype numeric(2), switchid varchar(15), attachcity varchar(6), opc varchar(20), dpc varchar(20)); 创建带有filesequence字段的外表。 CREATE FOREIGN TABLE gdspipcsvr1( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '51'); CREATE FOREIGN TABLE gdspipcsvr2( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '52'); CREATE FOREIGN TABLE gdspipcsvr3( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '53'); CREATE FOREIGN TABLE gdspipcsvr4( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '54'); CREATE FOREIGN TABLE gdspipcsvr5( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '55'); 将widetb.txt并发导入到pipegdswidetb1。 parallel on INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr1; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr2; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr3; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr4; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr5; parallel off filesequence参数详细内容,可参考《开发指南》中的“CREATE FOREIGN TABLE (GDS导入导出)”。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        GDS实践指南
      • 云审计
        本页面主要介绍VPC终端节点对接的云审计服务使用和查看方法。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: ● 记录审计日志:支持用户通过API接口发起的操作。 ● 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 关键操作列表 事件来源 资源类型 事件名称 弹性网络 VPC终端节点 删除终端节点白名单 弹性网络 VPC终端节点 查询终端节点白名单 弹性网络 VPC终端节点 添加终端节点白名单 弹性网络 VPC终端节点 删除终端节点 弹性网络 VPC终端节点 查看终端节点详情 弹性网络 VPC终端节点 查看终端节点列表 弹性网络 VPC终端节点 更新终端节点 弹性网络 VPC终端节点 创建终端节点 弹性网络 VPC终端节点 通过终端节点连接申请 弹性网络 VPC终端节点 拒绝终端节点连接申请 弹性网络 VPC终端节点 修改终端节点服务属性 弹性网络 VPC终端节点 终端节点服务连接查询 弹性网络 VPC终端节点 终端节点服务连接修改 弹性网络 VPC终端节点 查询终端节点服务白名单 弹性网络 VPC终端节点 删除终端节点服务白名单 弹性网络 VPC终端节点 查看终端节点服务列表 弹性网络 VPC终端节点 删除终端节点服务 弹性网络 VPC终端节点 创建终端节点服务 弹性网络 VPC终端节点 更新终端节点服务后端 弹性网络 VPC终端节点 删除终端节点服务后端
        来自:
        帮助文档
        VPC终端节点
        用户指南
        云审计
      • 服务接入
        服务接入可以将预置服务及我的服务打包为服务组,生成AppKey供用户调用。 前置条件 如需要为自定义服务部署创建App Key 需要提前完成服务部署。 创建服务组 进入模型服务模块,点击【服务接入】,服务接入模块可以将预置服务及我的服务打包为服务组,生成AppKey供用户调用。 点击【创建服务组】,填写服务名称和服务描述,选择需要关联的服务(支持选择预置服务、我的服务),提交完成创建。 完成创建后,系统会自动创建一个调用服务的密钥,即生成该服务的密钥,即“AppKey”。 管理服务组 点击服务组卡片【查看详情】,可进入服务组详情页,查看该服务组关联的服务,点击【了解更多】可查看模型详情。 点击服务组卡片对应按钮,可以对“AppKey”进行复制和重置。 点击服务组卡片对应按钮,可以对服务进行停用/启用、编辑、删除、服务组监控。 服务调用 点击查看我的服务详情获取服务接口地址。 点击关联服务组查看当前服务访问的APPKey。 在postman中构造请求接口,在请求header中需要填入Authorization鉴权信息,为避免被安全护栏拦截,建议在http请求header中填入UserAgent信息: plaintext 请求路径: 为具体的功能路径,如/chat/completions 请求方式:POST 请求header必填项: Authorization: Bearer AppKey ContentType: application/json 其他header: UserAgent: PostmanRuntimeApipostRuntime/1.1.0 获得服务调用返回。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型服务
        服务接入
      • (可选)批量添加防护规则
        本节介绍如何批量添加防护规则。 前提条件 已添加防护网站。 操作步骤 步骤1 登录管理控制台。 步骤2 单击管理控制台右上角的,选择区域或项目。 步骤3 单击页面左上方的,选择“安全 > Web应用防火墙(独享版)”。 步骤4 在左侧导航树中,选择“防护策略”,进入“防护策略”页面。 步骤5 在页面左上角,单击“所有策略规则”。 步骤6 在待配置规则列表的左上角,单击“批量添加”,进入对应的规则配置页面。 步骤7 选择策略名称,在“策略名称”的下拉框中选择策略名,可批量多选,如图所示。 步骤8 完成除“策略名称”以外其它参数的配置。 “CC攻击防护”请参见配置CC攻击防护规则进行参数配置。 “精准访问防护”请参见配置精准访问防护规则进行参数配置。 “黑白名单设置”请参见配置IP黑白名单规则进行参数配置。 “地理位置访问控制”请参见配置地理位置访问控制规则进行参数配置。 “网页防篡改”请参见配置网页防篡改规则进行参数配置。 “防敏感信息泄露”请参见配置防敏感信息泄露规则进行参数配置。 “全局白名单”请参见配置全局白名单(原误报屏蔽)规则进行参数配置。 “隐私屏蔽”请参见配置隐私屏蔽规则进行参数配置。 步骤9 单击“确认”,批量添加防护规则成功。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        策略管理
        (可选)批量添加防护规则
      • 查看独享版实例详情
        本节介绍如何查看WAF独享型实例的详细信息。 您可以在产品信息页面查看已购买实例的详细信息,包括实例基本信息、实例节点的健康状态。 前提条件 已购买WAF独享型实例。 查看独享版实例详情 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“系统管理 > 管理独享引擎”,单击目标实例操作列的“查看实例详情”。 5. 在实例详情页面,可以查看实例信息、接入端口,以及实例节点信息。 实例信息 参数 说明 实例名称 系统默认以“资源池名称+VPC名称+实例内网IP”自动生成实例名称。用户可在实例详情页面对其进行修改。 修改实例名称: 1. 在实例详情页面,单击实例名称右侧的图标。 2. 修改实例名称后,单击“保存”,完成修改。 实例ID 实例的ID。 节点个数 当前实例的节点个数。 运行状态 当前实例的运行状态,包括正常、异常、离线。 WAF防护开关 可对实例的防护状态进行开启或关闭,关闭后,该实例下所有防护对象都将不受防护。 资源池 当前实例所属资源池。 VPC名称 当前实例所属VPC。 子网名称 当前实例所属子网。 防护对象 接入防护对象的个数。在实例详情页点击数字可跳转至对应防护对象列表页。 产品版本 实例的规格,单机版或集群版。 实例IPv4 单机版:显示单机节点本身内网IPv4地址。 集群版:显示集群VIP的IPv4地址。 单击“新增辅助网卡”,可以为实例新增网卡,详细操作请参见[新增辅助网卡](
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        系统管理
        管理独享引擎
        查看独享版实例详情
      • 非结构化数据
        本章节为您介绍非结构化数据的分类分级任务。 针对非结构化数据,分类分级任务列表的展示字段包括:数据源名称、数据源类型、主机窗口、业务系统、部门、责任人、创建用户、创建时间、最近更新时间、分类分级状态。 您可以通过输入数据源名称、主机、分类分级状态来查询现有任务,并且可以对任务进行(批量)删除、(批量)执行、编辑、查看结果等操作。 新增分类分级任务 1.使用安全管理员账号登录数据分类分级实例。 2.在左侧导航栏选择“分类分级任务 > 非结构化数据”即可进入“非结构化数据”页面。 3.单击页面左上角的“新增”按钮,开始新增分类分级任务。 4.填写数据源相关参数。 参数 参数说明 填写样例 数据源名称 自定义数据源名称 Test 数据源类型 选择连接数据源的类型: FTP SFTP LOCAL LOCAL 主机 填写连接数据源的主机IP地址 192.168.0.1 端口 填写连接数据源的主机端口 8080 账号 填写连接主机的账号 admin 密码 填写连接主机的账号密码 5.填写完成后,单击“保存”即可完成数据源新增。 后续操作 编辑分类分级任务:选择需要编辑的分类分级任务,选择“操作”列的“编辑”按钮即可编辑分类分级任务。 删除分类分级任务:选择需要删除的分类分级任务,选择“操作”列的“更多 > 删除”按钮即可删除分类分级任务。 执行分类分级任务:选择需要执行的分类分级任务,选择“操作”列的“执行”按钮即可执行分类分级任务。 说明 除分类分级结果外,扫描过程中,系统在扫描过程中还会检测文件是否包含敏感字段信息,结果记录为“敏感字段匹配次数”。 查看分类分级任务结果:选择需要查看结果的分类分级任务,选择“操作”列的“查看”按钮即可查看结果。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据分类分级操作指导
        分类分级任务
        非结构化数据
      • 修改/启用/停用企业项目
        本节主要介绍修改/启用/停用企业项目 当您的业务发生变化时,可以对已存在的企业项目进行修改、启用、停用操作。 为了保证您的资源安全,目前暂不支持删除企业项目。如果您不再使用企业项目,您可以停用企业项目。 说明 已停用企业项目无法使用修改功能。 停用后的企业项目仍会占用企业项目配额,如果您的企业项目配额不足,建议您提交工单让后台运维人员为您提供企业项目删除功能,或提升企业项目数量配额。 企业项目停用后在云服务创建页的“企业项目”中将不可见,无法迁入资源和添加用户组,如需再次使用,请重新启用该企业项目。 默认企业项目(default)无法编辑和停用。 修改企业项目 步骤 1 企业管理员登录天翼云网门户,单击天翼云首页顶部右侧“控制台”。 步骤 2 在控制台首页顶部右侧,单击您的用户名后弹出下拉菜单,单击“企业管理”。 步骤 3 在企业项目管理页面,单击左侧功能菜单“项目管理”,进入企业项目列表页面,单击待修改企业项目右侧的“更多”,单击更多下拉菜单中的“修改”。 步骤 4 在修改企业项目信息弹出框中,输入新的“名称”和“描述”。 步骤 5 单击“确定”完成企业项目修改。 启用/停用企业项目 步骤 1 企业管理员登录天翼云网门户,单击天翼云首页顶部右侧“控制台”。 步骤 2 在控制台首页顶部右侧,单击您的用户名后弹出下拉菜单,单击“企业管理”。 步骤 3 在企业项目管理页面,单击左侧功能菜单“项目管理”,进入企业项目列表页面,单击待启用/停用企业项目右侧的“更多”,单击更多下拉菜单中的“启用”/“停用”。 步骤 4 在企业项目启用/停用确认框中,单击“是”完成企业项目启用/停用。
        来自:
        帮助文档
        企业项目管理
        用户指南
        企业项目管理
        修改/启用/停用企业项目
      • 审计
        本节主要介绍审计 开通云审计服务 如果您需要收集、记录或者查询API网关服务的操作日志,用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景时,需要先开通云审计服务。 云审计服务包含以下功能: 记录审计日志 审计日志查询 审计日志转储 事件文件加密 关键操作通知 查看审计日志 如果需要查看审计日志,可查看日志追踪事件。 图 查看日志 查看关键操作列表 通过云审计服务,您可以记录与API网关相关的操作事件,便于日后的查询、审计和回溯。 表 云审计服务支持的API Gateway操作列表 操作名称 资源类型 事件名称 ::: 创建API分组 apigApiGroups createApiGroup 删除API分组 apigApiGroups deleteApiGroup 修改API分组属性 apigApiGroups updateApiGroup 为API分组解除访问次数限制 apigApiGroups deleteApiGroupLimit 为API分组添加访问次数限制 apigApiGroups updateApiGroupLimit 添加API接口 apigApis createApi 删除API接口 apigApis deleteApi 修改API接口 apigApis updateApi 发布API接口 apigApis publishApi 下线API接口 apigApis offlineApi 为APP授权 apigAppAuths grantAuth 解除APP授权 apigAppAuths relieveAuth 创建环境 apigEnvs createEnvironment 删除环境 apigEnvs deleteEnvironment 修改环境信息 apigEnvs updateEnvironmentInfo 创建环境变量 apigEnvVariables createVariable 删除环境变量 apigEnvVariables deleteVariable 创建Acl黑白名单 apigAcls createAcl 删除Acl黑白名单 apigAcls deleteAcl 更新Acl黑白名单 apigAcls updateAcl 向黑白名单添加值 apigAcls addAclValue 从黑白名单移除值 apigAcls deleteAclValue 添加api与acl绑定关系 apigAclBindings createAclApply 删除api与acl绑定关系 apigAclBindings relieveAclApply 添加流控策略 apigThrottles createThrottle 删除流控策略 apigThrottles deleteThrottle 修改流控策略 apigThrottles updateThrottle 为API绑定流控策略 apigThrottleBindings createThrottleApiBinding 为API解除流控策略 apigThrottleBindings relieveThrottleApiBinding 为APP授权 apigAppAuths grantAuth 解除APP授权 apigAppAuths relieveAuth 创建APP apigApps createApp 删除APP apigApps deleteApp 更新APP apigApps updateApp 重置APP密钥 apigApps resetAppSecret
        来自:
        帮助文档
        API网关
        审计
        审计
      • 通用类问题
        本文主要介绍通用类问题。 容灾和备份的区别是什么? 容灾和备份具有以下区别: 容灾主要针对火灾、地震等重大自然灾害,因此生产站点和容灾站点之间必须保证一定的安全距离;备份主要针对人为误操作、病毒感染、逻辑错误等因素,用于业务系统的数据恢复,数据备份一般是在同一数据中心进行。 容灾系统不仅保护数据,更重要的目的在于保证业务的连续性;而数据备份系统只保护不同时间点版本数据的可恢复。一般首次备份为全量备份,所需的备份时间会比较长,而后续增量备份则在较短时间内就可完成。 容灾的最高等级可实现RPO0;备份可设置一天最多24个不同时间点的自动备份策略,后续可将数据恢复至不同的备份点。 故障情况下(例如地震、火灾),容灾系统的切换时间可降低至几分钟;而备份系统的恢复时间可能几小时到几十小时。 存储容灾有哪些功能 ? 存储容灾服务具有以下主要功能: 便捷的业务恢复方案 存储容灾服务提供集中的控制台,您可以通过管理控制台配置和管理服务器复制,执行切换和故障切换等操作。 服务器复制 您可以创建从生产站点至容灾站点的复制。 不感知应用 运行在服务器上的任何应用都支持被复制。 在不中断的情况下执行容灾演练 可轻松地运行容灾演练,不会影响正在进行的复制。 灵活的故障切换 可针对生产站点预期会出现的中断执行切换操作,确保不丢失任何数据;或者针对意外灾难执行故障切换操作,尽快恢复业务。 高性价比 业务正常情况下,容灾站点的服务器处于关机状态,不产生计算资源消耗,可大幅降低容灾TCO。
        来自:
        帮助文档
        存储容灾服务
        常见问题
        通用类问题
      • 使用限制
        菜单 功能模块 MySQL PostgreSQL SQL Server DRDS MongoDB DDS ClickHouse Oracle 查询窗口 SQL执行 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 脚本保存 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 格式化 支持 支持 支持 支持 不支持 不支持 支持 支持 查询窗口 执行计划 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 查询窗口 SQL诊断 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 查询窗口 语法帮助 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 查询窗口 智能提示 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 执行历史 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 结果集可视化编辑 支持 支持 支持 支持 支持 支持 不支持 不支持 查询窗口 结果集导出 支持 支持 支持 支持 支持 支持 支持 支持 查询窗口 表结构可视化编辑 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 查询窗口 管理员模式 支持 支持 支持 支持 不支持 不支持 不支持 支持 数据导出 整表导出 支持 支持 支持 支持 不支持 不支持 支持 支持 数据导出 SQL导出 支持 支持 支持 支持 支持 支持 支持 支持 数据导出 集合导出 不支持 不支持 不支持 不支持 支持 支持 不支持 不支持 数据导入 CSV导入 支持 支持 支持 支持 支持 支持 支持 支持 数据导入 SQL导入 支持 支持 支持 支持 不支持 不支持 支持 支持 数据导入 TXT导入 支持 支持 支持 支持 不支持 不支持 支持 支持 数据导入 JSON导入 不支持 不支持 不支持 不支持 支持 支持 不支持 不支持 数据导入 EXCEL导入 支持 支持 支持 支持 不支持 不支持 支持 支持 结构对比 结构对比 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 数据对比 数据对比 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 SQL变更 SQL变更 支持 支持 不支持 支持 不支持 不支持 不支持 支持 数据资产 实例管理 支持 支持 支持 支持 不支持 不支持 支持 支持 数据资产 敏感数据保护 支持 支持 不支持 支持 不支持 不支持 不支持 不支持 数据资产 数据权限管理 支持 支持 支持 支持 不支持 不支持 不支持 不支持 智能运维 实例概览 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 实例画像 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 一键诊断 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 会话管理 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 智能运维 SQL限流 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 实时性能 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 诊断报告 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 空间分析 支持 支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 锁分析 支持 支持 支持 不支持 不支持 不支持 不支持 不支持 智能运维 性能洞察 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 数据追踪 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 智能运维 异常管理 支持 不支持 不支持 不支持 不支持 不支持 不支持 不支持 SQL治理 慢SQL 支持 不支持 不支持 支持 不支持 支持 不支持 不支持 SQL治理 SQL审计 支持 支持 支持 不支持 不支持 支持 不支持 不支持 SQL治理 SQL规范 支持 支持 不支持 支持 不支持 不支持 不支持 支持 SQL治理 SQL风险 支持 支持 不支持 支持 不支持 不支持 不支持 支持 SQL治理 SQL审核 支持 支持 不支持 支持 不支持 不支持 不支持 支持 安全协作 DMS SQL审计 支持 支持 支持 支持 不支持 不支持 不支持 不支持 安全协作 DMS 操作审计 支持 支持 支持 支持 支持 支持 支持 支持 AI智能 SQL生成 支持 支持 支持 支持 不支持 不支持 不支持 不支持 AI智能 SQL纠错 支持 支持 支持 支持 不支持 不支持 不支持 不支持
        来自:
        帮助文档
        数据管理服务
        产品介绍
        使用限制
      • 备份HBase业务数据
        本章主要介绍翼MapReduce的备份HBase业务数据功能。 操作场景 为了确保HBase日常数据安全,或者系统管理员需要对HBase进行重大操作(如升级或迁移等),需要对HBase业务数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份HBase任务并备份数据。支持创建任务自动或手动备份数据。 HBase备份业务数据时,可能存在以下场景: 用户创建HBase表时,“KEEPDELETEDCELLS”属性默认值为“false”,备份该HBase表时会将已经删除的数据备份,可能导致恢复后出现垃圾数据。请根据业务需要,在创建HBase表时手动修改参数值为“true”。 用户在HBase表写入数据时手动指定了时间戳,且时间早于上一次该HBase表的备份时间,则在增量备份任务中可能无法备份新数据。 HBase备份功能不支持对HBase的global或者命名空间的读取、写入、执行、创建和管理权限的访问控制列表(ACL)进行备份,恢复HBase数据后需要管理员在FusionInsight Manager上重新设置角色的权限。 已创建的HBase备份任务,如果本次备份任务在备集群的备份数据丢失,当下次执行增量备份时备份任务将失败,需要重新创建HBase的备份任务。若下次执行全量则备份正常。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份任务的类型、周期、备份对象、备份目录和备份任务需要使用的Yarn队列等策略规格。 检查备集群HDFS是否有充足的空间,备份文件保存的目录建议使用用户自定义的目录。 使用HDFS客户端,以hdfs用户执行hdfs lsSnapshottableDir检查当前集群中已创建HDFS快照的目录清单,确保待备份的数据文件所在HDFS路径的父目录或子目录不存在HDFS快照,否则无法创建备份任务。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 HBase的“fs.defaultFS”配置参数需要与Yarn,HDFS的配置保持一致。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份HBase业务数据
      • 创建集群
        本章节主要介绍MapReduce如何创建集群。 使用翼MR的首要操作就是创建集群,本章节为您介绍如何在翼MR管理控制台创建一个新的集群。 操作步骤 1.登录翼MR管理控制台。 2.单击“创建集群”,进入“创建集群”页面。 说明 创建集群时需要注意配额提醒。当资源配额不足时,建议按照提示申请足够的资源,再创建集群 。 3.在创建集群页面,选择“自定义创建”页签。 4 .配置集群软件信息。 区域:默认即可。 集群名称:可以设置为系统默认名称,但为了区分和记忆,建议带上项目拼音缩写或者日期等。例如:“mrs20180321”。 集群版本:默认最新版本即可。 集群类型:默认选择“分析集群”即可。 组件选择:分析集群勾选Spark2x、HBase和Hive等组件。流式集群勾选Kafka和Storm等组件。混合集群可同时勾选分析集群流式集群的组件。 元数据:默认即可。 说明 针对翼MR 3.x之前版本,分析集群勾选Spark、HBase和Hive等组件 。 5.单击“下一步”。 可用区:默认即可。 虚拟私有云:默认即可。如果没有虚拟私有云,请单击“查看虚拟私有云”进入虚拟私有云,创建一个新的虚拟私有云。 子网:默认即可。 安全组:选择“自动创建”。 弹性公网IP:选择“暂不绑定”。 实例规格:Master和Core节点都选择“通用计算型S3>8核16GB(s3.2xlarge.2 )”。 系统盘:存储类型选择“普通IO”,存储空间默认即可。 数据盘:存储类型选择“普通IO”,存储空间默认即可,数据盘数量默认即可。 实例数量:Master节点数量默认为2,Core节点数量配置为3。 注意 上述“实例规格”示例,实际可选规格请以各资源池可用规格为准。 6.单击“下一步”进入高级配置页签,配置参数,其他参数保持默认。 Kerberos认证: −Kerberos认证:关闭Kerberos认证。 −用户名:Manager管理员用户,目前默认为admin用户。 −密码:Manager管理员用户的密码。 登录方式:选择登录ECS节点的登录方式。 −密码:设置登录ECS节点的登录密码。 −密钥对:从下拉框中选择密钥对,如果已获取私钥文件,请勾选“我确认已获取该密钥对中的私钥文件 SSHkeyxxx ,否则无法登录弹性云主机”。如果没有创建密钥对,请单击“查看密钥对”创建或导入密钥,然后再获取私钥文件。 通信安全授权:勾选确认授权。 7.单击“立即申请”。 当集群开启Kerberos认证时,需要确认是否需要开启Kerberos认证,若确认开启请单击“继续”,若无需开启Kerberos认证请单击“返回”关闭Kerberos认证后再创建集群。 8.单击“返回集群列表”,可以查看到集群创建的状态。 集群创建需要时间,所创集群的初始状态为“启动中”,创建成功后状态更新为“运行中”,请您耐心等待。
        来自:
        帮助文档
        翼MapReduce
        快速入门
        创建集群
      • 将MySQL迁移到PostgreSQL
        操作步骤 1. 购买DTS数据迁移实例。 在管理控制台点击“创建实例”进入订购页面,“资源配置”选择“引导模式”中,“场景功能”选择“数据迁移”,“源数据库”选择“MySQL”,“目标数据库”选择“PostgreSQL”,完成其他信息的填写并完成购买; 说明 相关配置信息,除“资源配置”的“链路规格”和“网络配置”订购后不可修改外,其他选择均可在实例配置页面修改。 2. 进入实例配置页面。 DTS实例购买成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。 3. 配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE,选中后点击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查。 点击“下一步预检查”,进入【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查项 检查内容 logslaveupdates参数检查 如果源库为集群的从节点,检查源库的logslaveupdates参数是否设置为ON。 存储引擎检查 检查源库中待迁移的表的存储引擎。 待迁移表主键检查 检查待迁移表是否都存在主键。 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求。 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 6. 确认配置和启动 预检查通过后,点击“下一步”进入【确认配置】页面,用户可确认配置的所有信息,确认无误后,点击右下角的【启动任务】,开始迁移任务。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到PostgreSQL
        操作步骤 1. 购买DTS数据同步实例。 在管理控制台点击“创建实例”进入订购页面,“资源配置”选择“引导模式”中,“场景功能”选择“数据同步”,“源数据库”选择“MySQL”,“目标数据库”选择“PostgreSQL”,完成其他信息的填写并完成购买; 说明 相关配置信息,除“资源配置”的“链路规格”和“网络配置”订购后不可修改外,其他选择均可在实例配置页面修改。 2. 进入实例配置页面。 DTS实例购买成功后,进入【数据同步】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。 3. 配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置同步对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置同步对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE,选中后点击“>”按钮,将待同步对象移动到“已选择对象”中。 5. 预检查。 点击“下一步预检查”,进入【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查项 检查内容 logslaveupdates参数检查 如果源库为集群的从节点,检查源库的logslaveupdates参数是否设置为ON。 存储引擎检查 检查源库中待同步的表的存储引擎。 待同步表主键检查 检查待同步表是否都存在主键。 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求。 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 6. 确认配置和启动同步。 预检查通过后,点击“下一步”进入【确认配置】页面,用户可确认配置的所有信息,确认无误后,点击右下角的【启动任务】,开始同步任务。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 1
      • ...
      • 239
      • 240
      • 241
      • 242
      • 243
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      推荐文档

      创建程序包

      MySQL

      如何申请发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号