云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容审核_相关内容
      • 创建VPN网关
        操作步骤 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 在左侧导航栏,单击“虚拟专用网络 > 企业版VPN网关”。 3. 在“VPN网关”界面,单击“创建VPN网关”。 4. 根据界面提示配置参数,单击“立即创建”。 表VPN网关参数说明 参数 说明 取值样例 计费模式 按需计费:后付费方式,VPN网关和VPN连接组按使用时长收取费用,计费周期为1小时。 按需计费 区域 选择靠近您所在地域的区域可以降低网络时延,从而提高访问速度。 不同区域的资源之间网络不互通。 请根据实际需要进行选择 名称 VPN网关的名称,只能由中文、英文字母、数字、下划线、中划线、点组成。 vpngw001 网络类型 公网:VPN网关通过公网建立VPN连接。 私网:VPN网关通过私网建立VPN连接。 公网 协议类型 支持“IPv4”和“IPv6”两种类型。 IPv6 关联模式 虚拟私有云 通过VPC向对端网关或本端子网内服务器发送通信消息。 企业路由器 通过ER向对端网关或ER下所有VPC所在子网发送通信消息。 说明 该场景下需要关注企业路由器的路由表条数规格限制。如果对端网关和VPN网关发送的路由条数超过企业路由器的规格,则企业路由器将无法学习到超出部分的路由信息,最终导致VPN网关和对端网关之间的流量不通。 虚拟私有云 虚拟私有云 选择虚拟私有云VPC信息。 vpc001(192.168.0.0/16) 企业路由器 仅“关联模式”采用“企业路由器”时需要配置。 选择企业路由器ER信息。 er001 互联子网 用于VPN网关和VPC通信,请确保选择的互联子网存在4个及以上可分配的IP地址。 192.168.66.0/24 本端子网 VPC与对端网关对应数据中心互通的子网。 选择子网选择本 VPC子网信息。 输入网段 可以输入本VPC下的子网信息;也可以输入与本VPC建立了对等网络的VPC子网信息。 192.168.1.0/24,192.168.2.0/24 BGP ASN VPN网关会根据输入值创建相应的ASN,VPN网关和对端网关的BGP ASN需要不同。 64512 可用区 可用区是指在同一地域内,电力和网络互相独立的物理区域。在同一VPC网络内可用区与可用区之间内网互通,可用区之间能做到物理隔离。 当存在两个及以上可用区时,必须选择两个可用区。 部署在两个可用区的VPN网关具备更高的可用性。建议您根据VPC内资源所在的可用区选择网关的可用区。 当仅存在一个可用区时,可选择此可用区创建VPN网关。 可用区1、可用区2 VPN连接组数 VPN网关默认提供10个免费的VPN连接组。 如果用户侧数据中心只有一个公网出口网关,所有服务器(或用户主机)都通过该网关连接至Internet:这种情况需要配置一个VPN连接组,即VPN网关的两个EIP分别配置一条VPN连接和用户侧出口网关通信。 如果用户侧数据中心有两个公网出口网关,所有服务器(或用户主机)通过两个网关连接至Internet:这种情况需要配置两个VPN连接组,即VPN网关的两个EIP分别配置一条VPN连接和两个用户侧出口网关通信。 10 HA模式 双活:主EIP和主EIP2均与对端网关建立VPN连接,但只有一条VPN连接进行数据交互。当其中一条VPN连接发生故障时,数据交互切换至另一条VPN连接。 主备:主EIP与备EIP均与对端网关建立VPN连接,默认情况下流量仅通过主链路进行传输。如果主链路故障,流量自动切换至备链路进行传输;主链路恢复正常后,流量回切至主链路进行传输。 双活 主EIP 用于VPN网关和对端网关进行网络连接。 现在创建:创建新EIP。 使用已有:使用已有EIP。 现在创建 带宽大小 EIP对应带宽大小,单位:Mbit/s。 所有使用该EIP创建的VPN连接均会分摊占用该EIP的带宽大小,所有VPN连接的带宽总和不能超过该EIP的带宽大小。当网络流量超过EIP的带宽大小时,有可能造成网络拥塞导致VPN连接中断,请提前做好带宽规划。 支持在云监控中配置告警规则对带宽进行监控。支持用户在允许的带宽范围内自定义带宽大小。 10 Mbit/s 带宽名称 EIP对应带宽对象的名称。 Vpngwbandwidth1 主EIP2 一个VPN网关需要绑定一组弹性公网IP(即主EIP、主EIP2),每个公网IP可以独立规划带宽。 现在创建 备EIP 一个VPN网关需要绑定一组弹性公网IP(即主/备EIP),每个公网IP可以独立规划带宽。 说明 VPN网关“计费模式”为“按需计费”场景下,若备EIP为按流量计费,强烈建议用户在云监控中配置告警规则对备EIP进行监控,避免因VPN连接故障、主链路切换至备链路导致的流量费用超支问题。 如何在云监控中对EIP配置告警规则,请参见《弹性IP用户指南》。 现在创建 公网带宽 按需计费支持两种计费方式:按带宽计费/按流量计费。 按带宽计费:指定带宽上限,按使用时间计费,与使用的流量无关。 按流量计费:指定带宽上限,按实际使用的出云流量计费,与使用时间无关。 按流量计费 带宽大小 EIP对应带宽大小,单位Mbit/s。 所有使用该EIP创建的VPN连接均会分摊占用该EIP的带宽大小,所有VPN连接的带宽总和不能超过该EIP的带宽大小。当网络流量超过EIP的带宽大小时,有可能造成网络拥塞导致VPN连接中断,请提前做好带宽规划。 支持在云监控中配置告警规则对带宽进行监控。支持用户在允许的带宽范围内自定义带宽大小。 10 Mbit/s 带宽名称 EIP对应带宽对象的名称。 Vpngwbandwidth2 企业项目 创建VPN时,可以将VPN加入已启用的企业项目。 企业项目管理提供了一种按企业项目管理云资源的方式,帮助您实现以企业项目为基本单元的资源及人员的统一管理,默认项目为default。 关于创建和管理企业项目的详情,请参见《企业项目管理用户指南》。 default 高级配置 仅“网络类型”为“私网”、“关联模式”采用“虚拟私有云”时需要配置。 选择:适用于同租户场景,选择本租户下接入虚拟私有云、接入子网、接入IP。 输入:适用于跨租户场景,填写接入项目、接入账号、接入虚拟私有云和接入子网。 选择 接入虚拟私有云 仅“关联模式”为“虚拟私有云”、“网络类型”为“私网”时需要配置。 当VPN网关的南北向需要连接不同的虚拟私有云时,设置北向的虚拟私有云为该接入虚拟私有云。 VPN网关关联的虚拟私有云为南向业务虚拟私有云。 选择“与网关关联的虚拟私有云一致” 接入子网 缺省情况下,VPN网关从关联的虚拟私有云的互联子网接入。当VPN网关需要从指定子网接入时设置。 选择“与互联子网一致” 5. (可选)对于国密型网关,创建后需要上传VPN网关证书,否则VPN连接将无法建立。 上传VPN网关证书的相关操作请参见“上传VPN网关证书”章节内容。
        来自:
        帮助文档
        VPN连接
        用户指南
        企业版VPN网关管理
        创建VPN网关
      • 修改自定义参数模板
        参数名 参数解释 取值范围 默认值 timeout 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。Proxy集群实例不支持该参数。 0~7200,单位:秒。 0 appendfsync 操作系统的fsync函数刷新缓冲区数据到磁盘,有些操作系统会真正刷新磁盘上的数据,其他一些操作系统只会尝试尽快完成。Redis支持三种不同的调用 fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。单机实例不支持该参数。 l nol alwaysl everysec no appendonly 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。有2个取值供选择:yes:开启。no:关闭。单机实例不支持该参数。 l yesl no yes clientoutputbufferlimitslavesoftseconds slave客户端outputbuffer超过clientoutputbufferslavesoftlimit设置的大小,并且持续时间超过此值(单位为秒),服务端会主动断开连接。单机实例不支持该参数。 0~60 60 clientoutputbufferslavehardlimit 对slave客户端outputbuffer的硬限制(单位为字节),如果slave客户端outputbuffer大于此值,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 clientoutputbufferslavesoftlimit 对slave客户端outputbuffer的软限制(单位为字节),如果outputbuffer大于此值并且持续时间超过clientoutputbufferlimitslavesoftseconds设置的时长,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 maxmemorypolicy 在达到内存上限(maxmemory)时DCS将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu:根据LFU算法删除设置了过期时间的键值。 allkeyslfu:根据LFU算法删除任一键值。 取值范围与实例的版本有关 默认值与实例的版本及类型有关 luatimelimit Lua脚本的最长执行时间,单位为毫秒。读写分离实例不支持设置该参数。 100~5,000 5,000 masterreadonly 设置实例为只读状态。设置只读后,所有写入命令将返回失败。Proxy集群、读写分离实例不支持该参数。 l yesl no no maxclients 最大同时连接的客户端个数。Proxy集群、读写分离实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 protomaxbulklen Redis协议中的最大的请求大小,单位为字节。读写分离实例不支持设置该参数。 1,048,576~536,870,912 536,870,912 replbacklogsize 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。单机实例不支持该参数。 16,384~1,073,741,824 1,048,576 replbacklogttl 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。单机实例不支持该参数。 0~604,800 3,600 repltimeout 主从同步超时时间,单位为秒。单机实例不支持该参数。 30~3,600 60 hashmaxziplistentries 当hash表中只有少量记录时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 512 hashmaxziplistvalue 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 64 setmaxintsetentries 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的数据结构对集合进行编码。 1~10000 512 zsetmaxziplistentries 当有序集合中只有少量记录时,使用有利于节约内存的数据结构对有序序列进行编码。 1~10000 128 zsetmaxziplistvalue 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的数据结构对有序集合进行编码。 1~10000 64 latencymonitorthreshold 延时监控的采样时间阈值(最小值),单位为毫秒。阈值设置为0:不做监控,也不采样;阈值设置为大于0:将记录执行耗时大于阈值的操作。可以通过LATENCY等命令获取统计数据和配置、执行采样监控。Proxy集群实例不支持该参数。 0~86400000,单位:毫秒。 0 notifykeyspaceevents notifykeyspaceevents选项的参数为空字符串时,功能关闭。另一方面,当参数不是空字符串时,功能开启。notifykeyspaceevents的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知: K:键空间通知,所有通知以keyspace@为前缀。 E:键事件通知,所有通知以keyevent@为前缀。 g:DEL、EXPIRE、RENAME等类型无关的通用命令的通知。 $ :字符串命令的通知。 l:列表命令的通知。 s:集合命令的通知。 h:哈希命令的通知。 z:有序集合命令的通知。 x:过期事件:每当有过期键被删除时发送。 e:驱逐(evict)事件:每当有键因为maxmemory政策而被删除时发送。 A:参数glshzxe的别名。输入的参数中至少有一个K或者E,A不能与g$lshzxe同时出现,不能出现相同字母。举个例子,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。将参数设为字符串"AKE"表示发送所有类型的通知。Proxy集群实例不支持该参数。 请参考该参数的描述。 Ex slowloglogslowerthan Redis慢查询会记录超过指定执行时间的命令。slowloglogslowerthan用于配置记录到慢查询的命令执行时间阈值,单位为微秒。 0~1,000,000 10,000 slowlogmaxlen 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 0~1,000 128 multidb 开启或关闭多DB特性。要求先清除已有数据。清除数据之前请先手动备份生成备份文件。若要恢复已清除的数据请通过数据迁移页面的备份导入功能进行数据恢复。有2个取值供选择:yes:开启。no:关闭。仅Redis 4.0及以上版本的Proxy集群实例支持该参数。 l yesl no no
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        参数模板
        修改自定义参数模板
      • 创建函数流任务
        本章介绍函数工作流如何创建函数流任务。 本章节主要介绍如何创建函数流任务和编排函数流任务。您可以根据实际业务场景来创建标准函数流或快速函数流。 标准模式面向普通的业务场景,支持长时间任务,支持执行历史持久化和查询,只支持异步调用,在函数流运行记录页面查询执行结果。 快速模式面向业务执行时长较短,需要极致性能的场景,只支持流程执行时长低于5分钟的场景,不支持执行历史持久化,支持同步和异步调用。通过同步执行函数流接口进行函数流的同步执行,接口直接返回函数流执行结果,同时日志页面查看上报到LTS的函数流执行日志。 说明 快速函数流限时免费,欢迎体验! 前提条件 已经在FunctionGraph控制台创建函数。 操作步骤 1、登录FunctionGraph控制台,进入“函数流”页面。 2、在“函数流”页面,单击“创建标准函数流”或“创建快速函数流”,进入新建函数流页面。 3、编排函数流任务,请您根据实际应用进行函数流编排。 在函数流页面,通过拖拽组件进行流程编排。 以下图为例,将开始节点、函数、结束节点拖入编辑框内,并用连接线连接好。 编排函数流 分别单击编辑框中的每个节点进行编辑。配置函数参数,参数说明如下表所示,带参数为必填项。 说明 配置函数前确保已创建好函数,示例中的函数节点选择函数2(函数执行返回result的值为函数调用事件内的input输入值+2的结果值),参见下图配置。 函数节点配置 函数参数说明 参数 说明 应用 函数所属应用,用户创建函数时可以进行分组, 每个函数应用下面可以创建多个函数,在函数创建时可以指定其归属于某个函数应用。 函数 FunctionGraph中对应的函数。 说明 仅对于Go函数支持返回流式数据:在函数详情页的“设置 > 高级设置”下, 打开“返回流式数据”开关即可 版本 FunctionGraph中函数对应的版本。 函数参数 流程中以json格式作为body参数在执行时传入函数。 Key:填写参数 Value:填写参数值 DefaultValue:设置默认值,参数未获取到值时, 默认获取默认值操作:编辑或删除设置的参数 输入过滤表达式(JSONPath) 基于上一个流程的json输出参数, 可以使用JSONPath格式来选择性的过滤出当前流程的输入参数。 输出过滤表达式(JSONPath) 基于当前流程的json输出参数, 可以使用JSONPath格式来选择性的过滤出下一流程的输出参数。 若您的函数流任务中配置了流程控制器,请参见下表进行配置,带参数为必填项。 流程控制器参数说明 类型 参数 说明 ::: 子流程 选择子流程 选择已创建的函数流任务。 子流程 是否等待子流程完成 默认选择“是”。 子流程 输入过滤表达式(JSONPath) 基于上一个流程的json输出参数,可以使用JSONPath格式来选择性的过滤出当前流程的输入参数。 子流程 输出过滤表达式(JSONPath) 基于当前流程的json输出参数,可以使用JSONPath格式来选择性的过滤出下一流程的输出参数。 并行分支 分支执行完成条件 所有分子执行完成:2个或2个以上分支时选择该条件 一个分支执行完成:只有1个分支时选择该条件 指定数目分支执行完成:2个或2个以上分支时其中某个分支可以选择该条件 并行分支 输入过滤表达式(JSONPath) 基于上一个流程的json输出参数,可以使用JSONPath格式来选择性的过滤出当前流程的输入参数。 并行分支 输出过滤表达式(JSONPath) 基于当前流程的json输出参数,可以使用JSONPath格式来选择性的过滤出下一流程的输出参数。 并行分支 指定分支执行完成数目 当“分支执行完成条件”选择指定数目分支执行完成时,支持自定义执行完成的数目。 并行分支 结果输出路径 输入并行分支执行结果输出位置,输入值作为key,并行分支执行结果作为value,以json形式输出。若未填写,默认输出路径为:result。 开始节点 加入触发器 用于标识流程的开始,一个流程只能有一个开始节点。如何创建函数流触发器,请参见创建函数流触发器。 异常处理 是否重试 默认关闭,开启后可以控制函数执行失败后的下一步流程。 重试条件(JSONPath):例如: $.status 500 重试间隔(130秒):默认重试间隔1S 最大重试次数(18):默认重试次数3次 循环节点 遍历数组路径(JSONPath) 需要遍历的数组类型变量地址。 循环节点 迭代变量名称 每次循环迭代,引用数组中元素的参数名称。 循环节点 结果输出路径(JSONPath) 指定全部迭代分支执行结果数组的输出位置。 循环节点 并发迭代数目 并发运行迭代分支的数目,限制0100, 0代表并发拉起的数目无限制。 循环节点 并发迭代时间间隔(秒) 每次迭代间隔的时间。 循环节点 输入过滤表达式(JSONPath) 基于上一个流程的json输出参数,可以使用JSONPath格式来选择性的过滤出当前流程的输入参数。 循环节点 输出过滤表达式(JSONPath) 基于当前流程的json输出参数,可以使用JSONPath格式来选择性的过滤出下一流程的输出参数。 时间等待 延迟时间(秒) 默认1000秒。 服务节点 执行模式 定义服务节点中函数的执行顺序。 串行模式:服务中的函数节点按照连线顺序依次执行,可以严格保证函数的执行顺序 并行模式:服务中的函数节点并行执行,不保证内部函数节点的执行顺序 服务节点 输入过滤表达式 通过JSONPath表达式对节点的输入信息进行过滤。 服务节点 输出过滤表达式 通过JSONPath表达式对节点的输出信息进行过滤。 条件分支 分支类型 条件分支 默认分支 当一个分支选择条件分支时,必须要有一个分支选择默认分支。 条件分支 表达式 选择“条件分支”,需要输入JSONPath类型表达式。 条件分支 输入过滤表达式 通过JSONPath表达式对节点的输入信息进行过滤。 条件分支 输出过滤表达式 通过JSONPath表达式对节点的输出信息进行过滤。 结束节点 流程结束的标志 后面不能接任何节点。 流程中的所有节点参数配置完成后,单击右上角的“保存”。 说明 函数流中的节点改动后,必须先保存信息,再启动函数流任务。 在新建函数流页面,填写相关信息,单击“确定”,函数流保存成功。 输入配置信息 参数 说明 名称 输入函数流名称。 企业项目 选择企业项目。 日志记录 创建快速函数流,保存时需要选择此参数。 ALL:为所有事件启用日志记录 ERROR:仅启用错误日志记录 NONE:关闭日志记录 合并参数 将上一个节点的输出与下一个节点的输入合并为输入。 描述 输入函数流的简要描述。 新建标准函数流 单击“启动”,在弹出的启动执行页面,支持输入定义值或者直接启动。此处选择“输入定义值”。 { "input":3 } 启动执行配置 说明 输入定义值必须是JSON格式的内容。 单击“开始执行”,页面右上角提示“启动函数流xxx成功”。 单击函数流任务名称,进入函数流任务详情,查看函数流执行结果。 查看执行结果
        来自:
        帮助文档
        函数工作流
        用户指南
        函数流管理
        创建函数流任务
      • 权限管理
        本节介绍了权限管理的相关内容。 如果您需要对的RDS资源,为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制资源的访问。 通过IAM,您可以在账号中给员工创建IAM用户,并授权控制他们对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望开发人员拥有RDS的使用权限,但是不希望他们拥有删除RDS等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用RDS,但是不允许删除RDS的权限,控制他们对RDS资源的使用范围。 如果账号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用RDS服务的其它功能。 IAM是提供权限管理的基础服务,无需付费即可使用,您只需要为您账号中的资源进行付费。 RDS权限 RDS部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问RDS时,需要先切换至授权区域。 根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 如下表所示,包括了RDS的所有系统权限。 表 RDS系统策略 策略名称/系统角色 描述 类别 依赖关系 RDS FullAccess 关系型数据库服务所有权限。 系统策略 无。 如果要使用存储空间自动扩容功能,IAM子账号需要添加如下授权项: iam:agencies:listAgencies iam:agencies:createAgency iam:permissions:listRolesForAgencyOnProject iam:permissions:grantRoleToGroupOnProject iam:permissions:grantRoleToAgencyOnProject iam:roles:listRoles iam:roles:createRole RDS ReadOnlyAccess 关系型数据库服务资源只读权限。 系统策略 无。 RDS ManageAccess 关系型数据库服务除删除操作外的DBA权限。 系统策略 无。 RDS Administrator 关系型数据库服务管理员。 系统角色 依赖Tenant Guest和Server Administrator角色,在同项目中勾选依赖的角色。 下表列出了RDS常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 操作 RDS FullAccess RDS ReadOnlyAccess RDS ManageAccess RDS Administrator 创建RDS实例 √ x √ √ 删除RDS实例 √ x x √ 查询RDS实例列表 √ √ √ √ 表 常用操作与对应授权项 操作名称 授权项 备注 创建数据库实例 rds:instance:create rds:param:list 界面选择VPC、子网、安全组需要配置: vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:securityGroupRules:get 创建加密实例需要在项目上配置KMS Administrator权限。 变更数据库实例的规格 rds:instance:modifySpec 无。 扩容数据库实例的磁盘空间 rds:instance:extendSpace 无。 单机转主备实例 rds:instance:singleToHa 若原单实例为加密实例,需要在项目上配置KMS Administrator权限。 重启数据库实例 rds:instance:restart 无。 删除数据库实例 rds:instance:delete 无。 查询数据库实例列表 rds:instance:list 无。 实例详情 rds:instance:list 实例详情界面展示VPC、子网、安全组,需要对应配置vpc::get和vpc::list。 修改数据库实例密码 rds:password:update 无。 修改端口 rds:instance:modifyPort 无。 修改内网IP rds:instance:modifyIp 界面查询剩余IP列表需要: vpc:subnets:get vpc:ports:get 修改实例名称 rds:instance:modify 无。 修改运维时间窗 rds:instance:modify 无。 手动主备倒换 rds:instance:switchover 无。 修改同步模式 rds:instance:modifySynchronizeModel 无。 切换策略 rds:instance:modifyStrategy 无。 修改实例安全组 rds:instance:modifySecurityGroup 无。 绑定/解绑公网IP rds:instance:modifyPublicAccess 界面列出公网IP需要: vpc:publicIps:get vpc:publicIps:list 设置回收站策略 rds:instance:setRecycleBin 无。 查询回收站 rds:instance:list 无。 开启、关闭SSL rds:instance:modifySSL 无。 开启、关闭事件定时器 rds:instance:modifyEvent 无。 读写分离操作 rds:instance:modifyProxy 无。 申请内网域名 rds:instance:createDns 无。 备机可用区迁移 rds:instance:create 备机迁移涉及租户子网下的IP操作,若为加密实例,需要在项目上配置KMS Administrator权限。 表级时间点恢复 rds:instance:tableRestore 无。 透明数据加密(Transparent Data Encryption,TDE)权限 rds:instance:tde 仅用于RDS for SQL Server数据库实例。 修改主机权限 rds:instance:modifyHost 无。 查询对应账号下的主机 rds:instance:list 无。 获取参数模板列表 rds:param:list 无。 创建参数模板 rds:param:create 无。 修改参数模板参数 rds:param:modify 无。 应用参数模板 rds:param:apply 无。 修改指定实例的参数 rds:param:modify 无。 获取指定实例的参数模板 rds:param:list 无。 获取指定参数模板的参数 rds:param:list 无。 删除参数模板 rds:param:delete 无。 重置参数模板 rds:param:reset 无。 对比参数模板 rds:param:list 无。 保存参数模板 rds:param:save 无。 查询参数模板类型 rds:param:list 无。 设置自动备份策略 rds:instance:modifyBackupPolicy 无。 查询自动备份策略 rds:instance:list 无。 创建手动备份 rds:backup:create 无。 获取备份列表 rds:backup:list 无。 获取备份下载链接 rds:backup:download 无。 删除手动备份 rds:backup:delete 无。 复制备份 rds:backup:create 无。 查询可恢复时间段 rds:instance:list 无。 恢复到新实例 rds:instance:create 界面选择VPC、子网、安全组需要配置: vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:securityGroupRules:get 恢复到已有或当前实例 rds:instance:restoreInPlace 无。 获取实例Binlog清理策略 rds:binlog:get 无。 合并Binlog文件 rds:binlog:merge 无。 下载Binlog文件 rds:binlog:download 无。 删除Binlog文件 rds:binlog:delete 无。 设置Binlog清理策略 rds:binlog:setPolicy 无。 获取数据库备份文件列表 rds:backup:list 无。 获取历史数据库列表 rds:backup:list 无。 查询数据库错误日志 rds:log:list 无。 查询数据库慢日志 rds:log:list 无。 下载数据库错误日志 rds:log:download 无。 下载数据库慢日志 rds:log:download 无。 开启、关闭审计日志 rds:auditlog:operate 无。 获取审计日志列表 rds:auditlog:list 无。 查询审计日志策略 rds:auditlog:list 无。 生成审计日志下载链接 rds:auditlog:download 无。 获取主备切换日志 rds:log:list 无。 创建数据库 rds:database:create 无。 查询数据库列表 rds:database:list 无。 查询指定用户的已授权数据库 rds:database:list 无。 删除数据库 rds:database:drop 无。 创建数据库账户 rds:databaseUser:create 无。 查询数据库账户列表 rds:databaseUser:list 无。 查询指定数据库的已授权账户 rds:databaseUser:list 无。 删除数据库账户 rds:databaseUser:drop 无。 授权数据库账户 rds:databasePrivilege:grant 无。 解除数据库账户权限 rds:databasePrivilege:revoke 无。 任务中心列表 rds:task:list 无。 删除任务中心任务 rds:task:delete 无。
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        权限管理
      • 云数据库GaussDB NoSQL支持的事件列表
        云数据库GaussDB NoSQL支持的事件列表 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 创建实例业务失败 NoSQLCreateInstanceFailed 重要 一般是由于实例配额不足或底层资源不足等原因导致。 先释放不再使用的实例再尝试重新发放,或者提交工单调整配额上限。 无法创建数据库实例。 变更规格失败 NoSQLResizeInstanceFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试规格变更操作。 业务中断。 添加节点失败 NoSQLAddNodesFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,删除添加失败的节点,重新尝试添加新节点。 无 删除节点失败 NoSQLDeleteNodesFailed 重要 一般是由于底层释放资源失败导致。 重新尝试删除节点。 无 扩卷失败 NoSQLScaleUpStorageFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试扩卷操作。 如果磁盘满,会导致业务中断。 重置密码失败 NoSQLResetPasswordFailed 重要 一般是由于重置密码命令超时导致。 重新尝试重置密码操作。 无 修改参数组失败 NoSQLUpdateInstance ParamGroupFailed 重要 一般是由于修改参数组命令超时导致。 重新尝试修改参数组操作。 无 设置备份策略失败 NoSQLSetBackupPolicyFailed 重要 一般是由于数据库连接异常导致。 重新重试设置备份策略操作。 无 创建手动备份失败 NoSQLCreateManualBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 创建自动备份失败 NoSQLCreateAutomatedBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 实例运行状态异常 NoSQLFaultyDBInstance 重要 由于灾难或者物理机故障导致实例故障时,会上报该事件,属于关键告警事件。 提交工单。 可能导致数据库服务不可用。 实例运行状态异常已恢复 NoSQLDBInstanceRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 节点运行状态异常 NoSQLFaultyDBNode 重要 由于灾难或者物理机故障导致数据库节点故障时,会上报该事件,属于关键告警事件。 检查数据库服务是否可以正常使用,并提交工单。 可能导致数据库服务不可用。 节点运行状态异常已恢复 NoSQLDBNodeRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 实例主备切换 NoSQLPrimaryStandbySwitched 重要 在手动触发的主备倒换或节点故障自动触发的故障倒换场景下,会上报该事件。 不需要处理。 无 出现热点分区键 HotKeyOccurs 重要 客观上是因为主键设置不合理,使得热点数据集中分布在一个分区。 客户端不合理的应用程序设计,造成对某一key的频繁读写。 1. 选择合理的分区键。 2. 业务增加缓存,业务应用先从缓存中读取热点数据。 影响业务请求成功率,存在影响集群性能及稳定性的风险。 出现超大分区键 BigKeyOccurs 重要 主键设计不合理,单个分区的记录数或数据量过大,引起了节点负载不均。 1. 选择合理的分区键 2. 基于现有分区键,增加分区键散列。 随着数据量增长,集群稳定性会下降。 数据盘空间不足 NoSQLRiskyDataDiskUsage 重要 数据盘空间不足,产生此告警。 请参见对应服务用户指南中“扩容磁盘”的内容,进行磁盘扩容。 实例被设为只读模式,数据无法写入。 数据盘空间已扩容并恢复可写 NoSQLDataDiskUsageRecovered 重要 数据盘空间已扩容并恢复可写,产生此事件。 无需处理。 无 创建索引失败 NoSQLCreateIndexFailed 重要 业务负载超过实例规格瓶颈,此时再创建索引会耗费更多实例资源,导致响应变慢甚至卡顿,最终超时,引起索引创建失败。 1、根据业务负载,选择匹配的实例规格 2、在业务低峰期创建索引 3、使用后台方式创建索引 4、索引字段,结合业务进行合理选择。 索引创建失败或不完整,导致索引无效,需要删掉索引重新创建。 发生写入降速 NoSQLStallingOccurs 重要 写入速度快,接近集群规模和实例规格范围允许最大写能力,从而触发数据库自身的限流机制,会发生请求失败情况 1. 根据业务的最大写请求速率,调整集群规模或者节点规格 2. 衡量业务的最大写请求速率,分散业务写峰值速率 影响业务的请求的成功率 发生写入停止 NoSQLStoppingOccurs 重要 写入速度过快,达到集群规模和实例规格范围允许最大写能力,从而触发数据库自身的限流机制,会发生请求失败情况 1. 根据业务的最大写请求速率,调整集群规模或者节点规格 2. 衡量业务的最大写请求速率,分散业务写峰值速率 影响业务的请求的成功率 重启数据库失败 NoSQLRestartDBFailed 重要 一般是由于实例状态异常等原因导致。 提交工单让运维处理。 数据库实例状态可能存在异常。 恢复到新实例失败 NoSQLRestoreToNewInstanceFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,重新尝试添加新节点。 无法恢复到新的数据库实例。 恢复到已有实例失败 NoSQLRestoreToExistInstanceFailed 重要 一般是由于备份文件下载或恢复失败等原因导致。 提交工单让运维处理。 当前数据库实例可能处于不可用状态。 删除备份文件失败 NoSQLDeleteBackupFailed 重要 一般是由于备份文件从obs删除失败导致。 重新尝试删除备份文件。 无 切换慢日志明文开关失败 NoSQLSwitchSlowlogPlainTextFailed 重要 一般是由于引擎不支持切换等原因导致。 请查阅NoSQL用户指南,确认引擎支持打开慢日志明文开关。提交工单让运维处理。 无 绑定EIP失败 NoSQLBindEipFailed 重要 一般是由于节点状态不正常,节点已经绑定EIP或EIP非法等原因导致。 检查节点是否正常,EIP是否合法。 无法通过公网访问数据库实例。 解绑EIP失败 NoSQLUnbindEipFailed 重要 一般是由于节点状态不正常,节点已经未绑定EIP等原因导致。 检查节点和EIP状态是否正常。 无 修改参数失败 NoSQLModifyParameterFailed 重要 一般是由于参数取值非法等原因导致。 排查参数值是否符合在合法范围内,提交工单让运维处理。 无 参数组应用失败 NoSQLApplyParameterGroupFailed 重要 一般是由于实例状态异常导致参数组无法应用等原因导致。 提交工单让运维处理。 无 开启或关闭SSL失败 NoSQLSwitchSSLFailed 重要 一般是由于修改SSL命令超时导致。 重新提交一次或者提交工单处理,并先保持切换之前使用SSL的连接方式。 是否使用SSL连接。 单行数据量太大 LargeRowOccurs 重要 用户单行数据量过大,可能会导致查询超时,进而节点OOM异常退出等各种故障发生。 1. 对每列和每行的写入长度做限制,遵从规范,使得单行的的key和value长度和不超过阈值。 2. 排查业务是否出现异常写入和异常编码,导致写入大row。 过大的单行记录,随着数据量增长,集群稳定性会下降。 用户计划删除KMS密钥 NoSQLplanDeleteKmsKey 重要 一般是由于用户计划删除kms的key导致。 计划删除kms的key后,及时恢复kms的key或者及时解密数据。 kms的key被删除后用户无法进行磁盘加密。 查询墓碑数过多 TooManyQueryTombstones 重要 查询墓碑数过多,可能会导致查询超时,影响查询性能。 使用合理的查询删除方式,避免大批次的范围查询 可能会导致查询超时,影响查询性能。 超大集合列 TooLargeCollectionColumn 重要 当集合列元素个数太多时,会出现集合列查询失败。 对集合列的元素个数做限制,遵从规范不超过阈值。 排查业务是否出现异常写入和异常编码,导致写入大集合列。 会出现集合列查询失败。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        云数据库GaussDB NoSQL支持的事件列表
      • 创建容器应用
        本文介绍如何创建容器应用。 应用指运行在CCE上的一组实例。创建一个完整的容器应用,可以通过“选择开源镜像”、“上传并选择私有镜像”两种方式实现,后续还将支持通过“应用模板”进行应用创建。本节指导用户通过容器镜像创建无状态类型的容器应用。 操作前提 已创建集群并添加节点。 若用户需要使用私有镜像作为镜像源,需要提前制作好私有镜像并将其上传到仓库中。 操作步骤 1.选择资源池,如【杭州2】,进入云容器引擎平台页面; 2.单击左侧导航栏的【工作负载】>【无状态】,进入无状态应用列表; 3.在【无状态】页下,单击【创建应用】按钮,进入应用创建页面; 4.按照页面提示填写,包含基本信息、容器设置、添加服务、高级配置几步。 1)基本信息填写:按照下表,输入相应参数,其它保持默认: 参数 说明 应用名称 nginx 部署集群 选择所创建的集群 实例数量 1 命名空间 default 2)单击【下一步】,进入容器设置页面>单击【选择镜像】按钮,弹出镜像选择框>在【天翼云官方镜像】页签中选择nginx的镜像,勾选后单击【确定】>选择镜像版本latest,容器名称及规格保持默认,其余配置可跳过>点击【下一步】,进入【添加服务】设置页面; 3)单击【添加服务】,参照下表,输入应用访问配置参数。本例中,将 nginx 应用设置为被集群内访问,参数具体填写内容如下表展示: 参数 说明 服务名称 输入应用发布的可被同个集群内的其他应用访问的名称,设置为:nginx 访问方式 集群内访问 容器端口 容器中应用启动监听的端口,nginx 镜像请设置为:81 访问端口 设置为8080 协议 TCP 4)单击【下一步】,高级设置可按需配置>单击【提交】,等待应用创建完成; 5)应用创建完成后,在应用管理列表中可查看到运行中的应用。 本章节以“天翼云官方镜像”的方式创建应用为例,来创建一个 nginx 容器应用。nginx 是一款轻量级的 Web 服务器,您可通过云容器引擎 CCE 快速创建 nginx 容器应用,搭建 nginx web 服务器。 说明: 节点和应用运行过程中会产生费用,建议您参照本章节创建应用后,删除应用和节点,避免费用产生。本章节执行完成后,可成功访问 nginx 的网页,如下图:
        来自:
        帮助文档
        云容器引擎(旧版)
        快速入门
        创建容器应用
      • 修改子网信息
        参数 说明 取值样例 名称 子网的名称。要求如下: 长度范围为164位。 名称由中文、英文字母、数字、下划线()、中划线()、点(.)组成。 subnet DNS服务器地址 默认配置了2个DNS服务器地址,您可以根据需要修改。最多支持2个IP地址,多个IP地址以英文逗号隔开。 此处默认填写天翼云的DNS服务器地址,可实现云主机在VPC内直接通过内网域名互相访问。同时,还支持不经公网,直接通过内网DNS访问云上服务 100.125.x.x 域名 若您由于业务原因需要指定其他DNS服务器地址,您可以修改默认的DNS服务器地址。如果您删除默认的DNS服务器地址,可能会导致您无法访问云上其他服务,请谨慎操作。 您也可以通过“DNS服务器地址”右侧的“重置”将DNS服务器地址恢复为默认值。 DNS服务器地址最多支持2个IP,请以英文逗号隔开。 test.com IPv4 DHCP租约时间 您可以设置IPv4地址的DHCP租约时间。 DHCP租约时间是指DHCP服务器自动分配给客户端的IP地址的使用期限。超过租约时间,IP地址将被收回,需要重新分配。 期限租约:设置DHCP租约期限,单位为天或者小时。 无限租约:设置DHCP不过期。 DHCP租约时间修改后,对于子网内的实例(比如ECS)来说,当实例下一次续租时,新的租约时间将会生效。实例续租分为自动更新租约和手动更新租约两种,续租不会改变实例当前的IP地址。如果需要DHCP租约立即生效,请在实例中手动更新租约或者重启实例。 NTP服务器地址 NTP时间服务器IP地址,非必填项。 您可以根据需要为子网新增NTP服务器IP地址,该地址不会影响默认NTP服务器地址。该地址为空,表示不新增NTP服务器IP地址。 最多允许输入4个格式正确且不重复的IP地址,多个IP地址请用半角逗号隔开。新增或修改原有子网的NTP服务器地址后,需要子网内的ECS重新获取一次DHCP租约,或者重启ECS,才能生效。清空NTP服务器地址时,需要子网内的ECS重新获取一次DHCP租约,重启ECS无法生效。 192.168.2.1 描述 子网的描述信息,非必填项。描述信息内容不能超过255个字符,且不能包含“<”和“>”。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        虚拟私有云和子网
        子网
        修改子网信息
      • SASL认证
        概述 默认情况下,ZooKeeper集群不会对客户端进行强制身份认证,任何客户端都可以访问ZooKeeper数据,存在安全隐患。目前,MSE ZooKeeper支持SASL身份认证,通过用户名和密码对客户端进行身份认证,提升Zookeeper数据的安全性。 前提条件 创建微服务引擎MSE,参考章节:创建ZooKeeper引擎; 开通引擎版本为3.8.1.9及以上的ZooKeeper实例,并且实例状态正常; 操作步骤 1.登录微服务引擎MSE注册配置中心管理控制台,选择资源池; 2.在左侧导航栏,选择注册配置中心 > 实例列表; 3.在实例列表页面,单击目标实例ID、实例名称或者目标行“管理”按钮均可跳转至实例基础信息页面; 4.在左侧导航栏,选择权限管理> SASL认证; 5.在用户管理页面,单击创建用户。在创建用户面板中输入用户名、密码和确认密码,然后单击确定即可增加新的用户身份信息配置; 6.单击对应用户操作列中的复制配置,以下内容会被复制到粘贴板,密码需要手动补充,然后将其保存在客户端的任意文件中(如jaas.conf); java Client { org.apache.zookeeper.server.auth.DigestLoginModule required usernametest password""; }; 7.对于Java使用Zookeeper原生SDK或者Apache Curator框架的应用时,需要进行以下操作: 假设之前已经保存的配置文件路径为/path/to/jaas.conf,在Java应用启动的时候,指定以下系统属性。 Djava.security.auth.login.config/path/to/jaas.conf // 填写配置保存的文件的路径 重启客户端应用后,客户端会自动读取认证信息配置并向Zookeeper服务端进行身份认证。 8.客户端配置完成之后,在左侧导航栏,选择参数管理。在参数管理页面,将requireClientSASLAuth的值设置为true,即可强制要求客户端连接服务端时进行SASL身份认证; 9.用户创建成功后,可以在用户列表的操作列,按需执行如下操作; 重置密码:点击重置密码,在密码重置面板中输入用户名、新密码和确认密码。当用户密码发生变更后,以该用户身份连接服务端的客户端将会断开连接; 删除用户:单击删除,弹出框提示确认需要删除的用户名称,点击确认即可删除用户。当用户被删除后,以该用户身份连接服务端的客户端将会断开连接;
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        ZooKeeper
        SASL认证
      • 计费项
        本节介绍了云数据库GaussDB 的计费项。 云数据库GaussDB的计费项由GaussDB实例费用、存储空间费用、备份空间费用和公网带宽费用组成。具体内容如下表所示。 说明 标 的计费项为必选计费项。 表云数据库GaussDB计费项 计费项 计费项说明 适用的计费模式 计费公式 数据库实例 计费因子:vCPU和内存,不同规格的实例类型提供不同的计算和存储能力。 包年/包月、按需计费 实例单个节点对应时长单价 购买时长 收费节点的数量 单个节点单价与实例规格相关,请参见云数据库GaussDB产品价格中的“GaussDB产品价格”。 说明: 收费节点的数量 CN的个数 + DN的个数。 独立部署:以默认配置3分片,3副本,3个协调节点(CN)为例,1个分片,3副本有3个DN,则3个分片共有9个DN,则收费节点的数量为 3 + 9 12。 高可用(1主2备):一主两备共计3个DN,则收费节点的数量为 3 。 存储空间 计费因子:存储类型和存储空间,按统一标准进行计费。 包年/包月、按需计费 存储空间对应时长单价 购买时长 存储容量(GB) 存储空间单价请参见云数据库GaussDB产品价格中的“存储空间价格”。 备份空间 计费因子:备份空间,按统一标准进行计费。 按需计费 备份空间单价计费时长( 备份容量 存储容量)(GB) 备份空间单价请参见云数据库GaussDB产品价格中的备份空间计费信息”。 说明: 计费时长:备份超过免费空间大小的使用时长。 公网带宽 如有互联网访问需求,您需要购买弹性公网IP。 计费因子:带宽费、流量费和IP保有费。 包年/包月计费模式支持按带宽计费方式,收取带宽费。 按需计费模式支持按带宽计费、按流量计费和加入共享带宽三种计费方式,分别收取带宽费+IP保有费、流量费+IP保有费、带宽费+IP保有费。 包年/包月、按需计费带宽费支持使用带宽加油包抵扣,流量费支持使用共享流量包抵扣。 按固定带宽值采用阶梯计费 0Mbit/s~5Mbit/s(含):均为一个统一的单价 大于5Mbit/s:按每Mbit/s计费公网带宽单价请参见弹性IP价格说明。
        来自:
        帮助文档
        云数据库GaussDB
        计费说明
        计费项
      • 购买类
        本小节介绍N100购买类常见问题。 哪些资源池可以支持开通N100? N100支持的资源池请以管理控制台为准。 开通流程:在选择资源池节点后,您可以登录天翼云官网,按照N100的开通流程进行操作。 影响面:开通N100可能会对您的网络拓扑结构产生一定的影响。在执行开通操作之前,建议您仔细规划,并在可能的情况下在非业务高峰期进行操作,以减少对正常业务的影响。 注意 在开通N100时,请仔细阅读相关的注意事项和配置要求。确保您的网络环境和业务需求符合产品的要求,以便最大程度地发挥防火墙的作用。 如何选择需要购买的产品规格和功能? 需要用户自行评估业务情况,可通过以下内容进行参考: 规格选择:计算通过N100安全产品的弹性IP总带宽值,不高于N100安全产品各规格限制值。 功能选择:有安全防护需求需开通扩展功能,如病毒过滤、URL过滤及C&C防护。 N100到期后是否可自行续订? 是的,您可以自行发起N100的续订申请,确保您的业务在产品到期后不受到中断。以下是相关的详细信息和操作指南: 续订申请发起:为了确保您的N100服务不中断,建议您在产品到期前至少提前3个工作日主动发起续订申请。续订申请可以通过我们的在线平台或与客户经理联系来完成。 申请时间:提前提交续订申请是至关重要的,这样我们的团队有足够的时间来处理您的请求,确保续订在产品到期之前得以完成。这有助于避免因产品过期而导致的业务中断。 在线平台操作:如果您选择通过在线平台进行续订申请,请登录您的云账户,点击N100产品的续订选项,并按照系统提示完成续订流程。确保在续订过程中提供准确的信息,以避免不必要的延误。 注意事项:在续订申请过程中,请仔细阅读相关条款和条件,确保您了解续订期间可能涉及的费用、服务升级选项等细节。如果有任何疑问,可以咨询客户经理或技术支持团队。 业务影响:请注意,如果未在到期前完成续订申请,可能会导致N100服务中断,影响业务转发。为了避免不必要的风险,请务必按时发起续订申请并遵循相应的操作流程。
        来自:
        帮助文档
        云防火墙(原生版)
        常见问题
        N100常见问题
        购买类
      • 通过客户端连接方式
        "password"。例如自定义账号为testaccount,密码为testPasswd,密码需填写为testaccount testPasswd。 说明: ● 如果通过第三方数据库管理工具连接Redis实例,请在密码框中输入user password进行连接。 ● 如果忘记密码,您可以重置密码。具体操作,请参见重置缓存实例密码。 常见客户端示例 关于Redis支持的客户端列表请参见Redis官方文档,以下为部分客户端的连接实例。 Java 可通过Jedis客户端连接Redis,Jedis是一个Java编程语言用于与Redis服务器进行交互的开源客户端库,允许Java应用程序通过网络与Redis服务器进行通信,并执行各种操作,如数据读写、事务处理、订阅发布等。它提供了简单易用的API,使得与Redis服务器的交互变得非常方便。使用Jedis连接Redis步骤如下: 1. 下载并安装Jedis客户端。 2. 根据业务需求选择连接方式。 打开Eclipse客户端,创建一个Project并配置pom文件,具体内容如下: redis.clients jedis Latest version jar compile 根据Jedis客户端版本,在Project中输入下述代码,然后根据注释提示修改代码 JedisPoolConfig config new JedisPoolConfig(); // 允许的最大空闲连接数,不可超过Redis实例的最大连接数。 config.setMaxIdle(200); // 允许的最大连接数,不可不超过Redis实例的最大连接数。 config.setMaxTotal(300); config.setTestOnBorrow(false); config.setTestOnReturn(false); // 分别将ip和password的值替换为实例的连接地址、密码。 String ip "redisip"; String password "password"; JedisPool pool new JedisPool(config, ip, redisport, 3000, password); Jedis jedis null; try { jedis pool.getResource(); // 执行相关操作,示例如下。 // Store & Retrieve a simple string jedis.set("foo", "bar"); System.out.println(jedis.get("foo")); // prints bar // Store & Retrieve a HashMap Map hash new HashMap<>();; hash.put("name", "John"); hash.put("surname", "Smith"); hash.put("company", "Redis"); hash.put("age", "29"); jedis.hset("usersession:123", hash); System.out.println(jedis.hgetAll("usersession:123")); // Prints: {nameJohn, surnameSmith, companyRedis, age29} }catch (Exception e) { // 超时或其他异常处理。 e.printStackTrace(); }finally { if (jedis ! null) { jedis.close(); } } pool.destroy(); // 当应用退出,需销毁资源时,调用此方法。此方法会断开连接、释放资源。 运行上述代码,在Eclipse的控制台输出如下运行结果,则表示您已成功连接至分布式缓存Redis数据库。 bar {nameJohn, surnameSmith, companyRedis, age29}
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        连接实例
        通过客户端连接方式
      • 创建向量索引
        类型 参数 说明 Index settings参数 vector 当需要使用向量索引加速时,需要设置该值为true。 Field mappings参数 type 字段类型,“vector”表示该字段为向量字段。 Field mappings参数 dimension 向量数据维度。 取值范围:[1, 4096] Field mappings参数 indexing 是否开启向量索引加速。 可选值: l false:表示关闭向量索引加速,向量数据仅写入docvalues,只支持使用ScriptScore以及Rescore进行向量查询。 l true:表示开启向量索引加速,系统将创建额外的向量索引,索引算法由"algorithm"字段指定,写入数据后可以使用VectorQuery进行查询。 默认值:false。 Field mappings参数 algorithm 索引算法。仅当“indexing”为“true”时生效。 可选值: l FLAT:暴力计算,目标向量依次和所有向量进行距离计算,此方法计算量大,召回率100%。适用于对召回准确率要求极高的场景。 l GRAPH:图索引,内嵌深度优化的HNSW算法,主要应用在对性能和精度均有较高要求且单shard中文档数量在千万个以内的场景。 l GRAPHPQ:将HNSW算法与PQ算法进行了结合,通过PQ降低原始向量的存储开销,能够使HNSW轻松支撑上亿规模的检索场景。 l IVFGRAPH:算法将IVF与HNSW结合,对全量空间进行划分,每一个聚类中心向量代表了一个子空间,极大地提升检索效率,同时会带来微小的检索精度损失。适用于数据量在上亿以上同时对检索性能要求较高的场景。 l IVFGRAPHPQ:PQ算法与IVFHNSW的结合,PQ可以通过配置选择与HNSW结合和IVF结合,进一步提升系统的容量并降低系统开销,适用于shard中文档数量在十亿级别以上同时对检索性能要求较高的场景。 默认值:GRAPH。 说明 当选择IVFGRAPH或者IVFGRAPHPQ索引时,需要额外进行预构建中心点索引以及注册等步骤,具体内容请参考 Field mappings参数 见下表“可选参数说明” 当使用向量索引加速时(即“indexing”为“true”时),为了获得更高的查询性能以及查询精度,ES提供了与向量索引相关的可选参数配置。 Field mappings参数 metric 计算向量之间距离的度量方式。 可选值: l euclidean:欧式距离。 l innerproduct:内积距离。 l cosine:余弦距离。 l hamming:汉明距离。 默认值:euclidean
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        创建向量索引
      • 高可用
        。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源同步”“资源同步管理”,进入资源同步管理页面。 5. 点击左侧菜单栏“主机高可用”,点击“高可用”,进入高可用页面。 6. 点击“新建”按钮,进入新建高可用规则页面。 7. 基本设置页面的配置项如下: 参数 配置说明 规则名称 用户自定义的高可用规则名称,便于管理,支持中文和英文字符,区分和识别当前任务的名称。 自动切换 若勾选自动切换时;当高可用规则满足切换条件时,原从节点会变为主节点,原主节点变为从节点; 若不勾选自动切换时,当高可用规则满足切换条件时,规则状态会提示警告,用户需要手动执行切换。 重启接管 此配置仅在高可用规则的主、从节点中仅有单节点存活并发生重启时生效;不开启重启接管(也不开启自动切换)时,单节点重启后,角色为游离,不加载相关资源,需要人工手动“强制切换”后变为主节点,并加载相关资源;开启重启接管时,单节点重启后,如果是原主节点重启,则重启后继续成为主节点;如果是原从节点重启,则重启后可能是主节点或者游离(不勾选“进入复制状态才允许切换”时,角色变为主节点;勾选“进入复制状态才允许切换”时,角色变为游离状态)。 注意:此配置与“自动切换”互斥。 节点设置 两个节点之间不允许是同一个主机,可添加两个节点加入主机高可用规则,当定义优先级相同的时候,在规则启动后设置为初始主节点的主机将扮演主节点提供应用服务;否则优先级赋值更高的主机会成为初始主节点。 仲裁设置 不设置:用户可以根据自己的环境选择使用仲裁设置,默认为不使用; 节点仲裁:设置仲裁IP地址,这个仲裁IP所在的主机需要安装drnode节点软件并且高可用进程正常运行。在心跳线全部失效的情况下,平台根据仲裁机制来判断谁能接管资源,防止发生脑裂。通讯方式默认为TCP,通讯端口默认为26306。支持多节点仲裁机制,最多可添加12个仲裁节点 磁盘仲裁:要求主节点和从节点上的drnode程序以应用方式运行,并挂载同一个网络驱动器并填写具有读写权限的用户名和密码,并勾选“登录时重新连接”,映射后的盘符要相同。这个映射磁盘称为“仲裁磁盘”。 心跳线 主机高可用节点间的通讯模块,负责主机高可用节点间的信息通讯,心跳的检测,出现故障时备端将自动切换。主机高可用节点非网卡IP地址可手动输入(现版本使用的通讯类型都为TCP,选择其他类型暂不可用)。 8. 配置完“基本设置”后,单击“下一步”,进行“数据同步”的配置。 9. 数据同步页面的配置项如下: 参数 配置说明 路径映射 用户选择主节点的文件系统目录和从节点的文件系统目录实现数据同步,后续可以在复制规则列表页面查询。 创建时启动复制规则 若启用,提交规则后自动启动主节点到从节点的复制规则。 若不启用,提交规则后用户需手动启动主节点到从节点的复制规则。默认不启用。 进入复制状态才允许切换 默认为启用。应用切换的前提是两端数据的同步,如果当前状态下的主节点数据文件尚未完全同步到从节点,那么在这个时间点如果进行应用切换让从节点接管服务,会导致两端的数据不一致。不论是前一页配置“自动切换”是否勾选,仅当所配置的数据复制规则处于复制状态,主机高可用切换才会运行执行。但极端情况下,比如生产中心遭受自然灾害整体被摧毁,而且同时假设刚好有生产数据因为网络因素尚未完成到异地的同步,那么这种小概率事件发生的情况下,生产数据无法从生产中心恢复,用户就需要在页面上单击“强制切换”操作,触发异地的应用服务执行接管。页面会弹出警告信息要求用户再次确认后才会执行切换。 反向规则 若勾选,提交规则后会自动创建由从节点到主节点的复制规则,若不勾选,则不会创建。默认不勾选。 自动启动复制规则 若勾选时,规则发生切换后,会自动启动相应的复制规则; 若不勾选,规则发生切换后,用户需手动启动相应的复制规则。 10. 单击“确定”完成数据同步的配置,单击“下一步”,进行监控对象的配置。 11. 监控对象页面的配置项如下: 参数 配置说明 类型 服务监控:指定Windows系统的服务名称作为监控对象。服务运行时监控正常,服务停止时监控失败。 进程监控:指定系统的进程名称作为监控对象,进程存在时监控正常,进程不存在时监控失败。 内存监控:指定系统的内存使用率作为监控对象,低于阈值时监控正常,高于阈值时监控失败。 CPU监控:根据“CPU使用百分比”参数来作为应用切换的触发条件。 自定义脚本监控:有些场景下,用户要求第三方保护软件监控自定义脚本和“监控结果输出文件”,来作为应用切换的依据。 磁盘监控:根据“指定盘符的磁盘空间使用百分比”来作为应用切换的触发条件。 检测间隔(秒) 选择任何一种监控类型,用户都需要配置检测间隔,默认为2秒;用户根据业务系统RPO要求和环境因素进行调整。 最大失败次数 默认为5次,监控请求但未成功获取对象的运行状态的次数,累积达到5次,drnode程序判定被监控节点对象(服务、进程、内存、CPU、自定义脚本、磁盘)失败。 失败后仅记日志 勾选时,如果监控的对象出现异常,drnode程序只会在日志中产生警告信息,但不进行切换;默认不勾选。 监控角色 用户可以选择监控的角色,分为:主节点、从节点、主从节点,共三个选项:当监控的角色满足监控条件后,高可用规则默认会变为告警状态,如果规则开启了自动切换,则会执行角色切换动作。 服务名称 用户自行填写需要保护的应用对应的服务名。 12. 配置完“监控对象”后,单击“下一步”,进行“资源切换”的配置。 13. 资源切换页面的配置项如下: 参数 配置说明 类型 脚本切换资源:高可用规则发生切换的过程中执行,从节点变为主节点时执行获取资源执行脚本,主节点变为从节点时执行释放资源执行脚本。 卷组切换:高可用规则主节点和从节点需要事先配置连接iSCSI目标且发现共享磁盘,根据高可用规则角色,当前主节点会挂载指定的共享磁盘,变为从节点时会卸载指定的共享磁盘。 14. 完成上述配置后,点击“确定”按钮,完成高可用规则创建。 上述内容详情可参见多活容灾服务用户帮助手册主机高可用。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        主机高可用
        高可用
      • 设计预案阶段
        本文为您介绍设计预案阶段的具体操作。 使用条件 若预案阶段设计需要脚本任务,需要预先在脚本库中新建脚本并发布。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段中任务的编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表中的“预案阶段设计”按钮。 1. 若当前预案阶段状态为草稿,直接进入预案阶段设计页面。 2. 若当前预案阶段状态为已启用,且未被预案关联,直接进入预案阶段设计页面。 3. 若当前预案阶段状态为已启用,且存在被草稿/已启用/已停用状态关联的预案,弹出预案阶段设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案阶段设计页面。不同状态的预案与预案阶段的关联情况如下: 1. 若当前预案阶段已被草稿状态的预案关联,对预案阶段重新设计后,对应预案将自动关联最新的预案阶段。 2. 若当前预案阶段已被启用状态的预案关联,对预案阶段重新设计后,对应预案状态将更新为“待重新启用”,需重新启用预案。 3. 若当前预案阶段已被停用状态的预案关联,对预案阶段重新设计后,对应预案状态不改变,启用预案时自动关联最新预案。 7. 在预案阶段设计页面,用户可拖拽普通任务、条件任务、开始节点和结束节点至画布中,同时可点击任务节点进行任务配置。 流程绘制说明如下: 1. 普通任务:通过关联自定义脚本或平台内置能力对单个资源执行预期操作。 2. 条件任务:在普通任务基础上支持根据条件任务的执行结果(正常/异常)分别配置后续工作,配置条件任务在配置自身任务信息外,需对后面的箭线配置执行条件,条件任务后只能有2条箭线。 3. 任务并行编排通过任务间的箭线决定,一条箭线两端的任务为串行执行顺序,一个任务后有多条普通箭线(非条件判断箭线)代表此任务执行完成后需并行执行其后的任务。 8. 用户拖拽普通任务至画布后,点击“普通任务”,弹出编辑任务弹窗,可对普通任务进行任务编辑。任务类型分为脚本任务、人工任务、内置任务。 1. 当任务类型为脚本任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为脚本任务。任务类型可选脚本任务、人工任务、内置任务。 脚本名称 √ 选择脚本名称,下拉数据源为脚本库中“已发布”状态脚本的脚本名称。 目标资源 √ 选择容灾管理中心,下拉数据源为当前命名空间下所有运行的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源。其中: 若所选脚本的资源类型为“主机”:下拉数据源为对应操作系统类型的开启了远程连接的非天翼云主机。 若所选脚本的资源类型为“数据库”:下拉数据源为对应数据库类型的配置连接信息的数据库实例。 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为自定义时,由用户自定义设置参数值。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 失败重试次数 √ 填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 2. 当任务类型为人工任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 目标资源 × 选择容灾管理中心,下拉数据源为当前命名空间下容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下资源类型的资源实例。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 描述 × 填写预案阶段描述。 长度为0100个字符。 3. 当任务类型为内置任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 任务目的 √ 选择任务目的,可选资源操作、流程控制。 操作名称 √ 选择操作名称。 任务目的为资源操作时:可选云主机关机、云主机重启、云主机开机、MySQL/Redis/PostgreSQL/MongoDB主备切换、ELB流量切换、ELB流量调节、ELB流量回切。 任务目的为流程控制时:可选等待。 等待时长 √ 仅任务目的为流程控制时可见,填写等待时长时间(单位:s)。 取值范围为17200s。 目标资源 √ 选择容灾管理中心: 1. 任务为非流量配置相关的任务时:可选当前命名空间下所有运行中的容灾管理中心。 2. 任务为流量配置相关的任务时:可选当前命名空间下配置了ELB的运行中的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源: 1. 主机相关任务:资源所选容灾管理中心下的云上云主机 2. 数据库相关任务:资源为所选容灾管理中心下的云上数据库 3. 流量相关任务:资源为所选容灾管理中心下接入成功的且流量配比进行过初始配置的应用 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 任务目的为资源操作时:填写预计耗时时间(单位:s)。 任务目的为流程控制时:与等待时长一致,不可编辑。 失败重试次数 √ 仅任务目的为资源操作时可见,填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 9. 编辑任务完毕后,点击弹窗底部“确定”按钮。若存在参数引用的相关配置,用户确认知晓提示内容后,点击“已确认”。 10. 条件任务按上方基础任务配置后,需对后面的箭线配置执行条件。点击箭线后,弹出条件配置弹窗。条件判定可选择正常或异常,选择完毕后,点击“确认”按钮,完成条件配置,配置结果显示在箭线上。 11. 整体预案阶段设计完毕后,检查是否符合预案阶段设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个普通任务或条件任务节点,且所有任务节点均不能为空; 4. 所有节点必须通过箭线连接; 5. 条件任务节点后必须跟2条箭线,且箭线上需配置判定条件,同时两条箭线的判定条件不能相同; 6. 两个节点间只能有1条箭线(不区分箭头方向); 7. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 12. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案阶段设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        设计预案阶段
      • 步骤1:创建初始表并加装样例数据
        本章节主要介绍创建初始表并加装样例数据的最佳实践。 创建一组不设置存储方式,无分布键、分布方式和压缩方式的表。然后,为这些表加载样例数据。 1.(可选)创建集群。 如果已经有可供使用的集群,则可跳过这一步。创建集群的操作,请按中的步骤操作。同时请使用SQL客户端连接到集群并测试连接。 本实践所使用的是8节点集群。也可以使用4节点集群进行测试。 2.使用最少的属性创建SS(StoreSales)测试表。 说明 如果SS表在当前数据库中已存在,需要先删除这些表。删除表使用DROP TABLE命令。如下示例表示删除表storesales。 DROP TABLE storesales; 考虑到本实践的目的,首次创建表时,没有设置存储方式、分布键、分布方式和压缩方式。 执行CREATE TABLE命令创建上图"TPCDS Store Sales ERDiagram"中的11张表。限于篇幅,这里仅附storesales的创建语法。请从附录初始表创建中拷贝所有建表语法进行创建。 CREATE TABLE storesales ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) ; 3.为这些表加载样例数据。 OBS存储桶中提供了本次实践的样例数据。该存储桶向所有经过身份验证的云用户提供了读取权限。请按照下面的步骤加载这些样例数据: a.为每个表创建对应的外表。 DWS应用Postgres提供的外部数据封装器FDW(Foreign Data Wrapper)进行数据并行导入。因此需要先创建FDW表,又称外表。限于篇幅,此处仅给出“storesales”表对应的外表“obsfromstoresales001”的创建语法。请从附录外表创建拷贝其他外表的语法进行创建。 说明 l 注意,以下语句中的代表OBS桶名,仅支持部分区域。DWS集群不支持跨区域访问OBS桶数据。 l 外表字段需与即将注入数据的普通表字段保持一致。例如此处storesales表及其对应的外表obsfromstoresales001,他们的字段是一致的。 l 这些外表语法能够帮助您获取OBS存储桶中为本次实践所提供的样例数据。如果您需要加载其他样例数据,需进行SERVER gsmppserver OPTIONS的调整。 CREATE FOREIGN TABLE obsfromstoresales001 ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) Configure OBS server information and data format details. SERVER gsmppserver OPTIONS ( LOCATION '/tpcds/storesales', FORMAT 'text', DELIMITER '', ENCODING 'utf8', NOESCAPING 'true', ACCESSKEY 'accesskeyvaluetobereplaced', SECRETACCESSKEY 'secretaccesskeyvaluetobereplaced', REJECTLIMIT 'unlimited', CHUNKSIZE '64' ) If create foreign table failed,record error message WITH errobsfromstoresales001; b.将创建外表语句中的参数ACCESSKEY和SECRETACCESSKEY替换为实际值,然后在客户端工具中执行替换后的语句创建外表。 ACCESSKEY和SECRETACCESSKEY的值,请参见“常见问题通用问题”中的“如何获取Access Key ID(AK)和 Secret Access Key(SK)”。 c.执行数据导入。 创建包含如下语句的insert.sql脚本文件,并执行.sql脚本文件。 timing on parallel on 4 INSERT INTO storesales SELECT FROM obsfromstoresales001; INSERT INTO datedim SELECT FROM obsfromdatedim001; INSERT INTO store SELECT FROM obsfromstore001; INSERT INTO item SELECT FROM obsfromitem001; INSERT INTO timedim SELECT FROM obsfromtimedim001; INSERT INTO promotion SELECT FROM obsfrompromotion001; INSERT INTO customerdemographics SELECT from obsfromcustomerdemographics001 ; INSERT INTO customeraddress SELECT FROM obsfromcustomeraddress001 ; INSERT INTO householddemographics SELECT FROM obsfromhouseholddemographics001; INSERT INTO customer SELECT FROM obsfromcustomer001; INSERT INTO incomeband SELECT FROM obsfromincomeband001; parallel off 结果应该类似如下: SET Timing is on. SET Time: 2.831 ms Parallel is on with scale 4. Parallel is off. INSERT 0 402 Time: 1820.909 ms INSERT 0 73049 Time: 2715.275 ms INSERT 0 86400 Time: 2377.056 ms INSERT 0 1000 Time: 4037.155 ms INSERT 0 204000 Time: 7124.190 ms INSERT 0 7200 Time: 2227.776 ms INSERT 0 1920800 Time: 8672.647 ms INSERT 0 20 Time: 2273.501 ms INSERT 0 1000000 Time: 11430.991 ms INSERT 0 1981703 Time: 20270.750 ms INSERT 0 287997024 Time: 341395.680 ms total time: 341584 ms d.计算所有11张表的总执行时间。该数字将作为加载时间记录在下一小节步骤步骤1中的基准表内。 e.执行以下命令,验证每个表是否都已正确加载并将行数记录到表中。 SELECT COUNT() FROM storesales; SELECT COUNT() FROM datedim; SELECT COUNT() FROM store; SELECT COUNT() FROM item; SELECT COUNT() FROM timedim; SELECT COUNT() FROM promotion; SELECT COUNT() FROM customerdemographics; SELECT COUNT() FROM customeraddress; SELECT COUNT() FROM householddemographics; SELECT COUNT() FROM customer; SELECT COUNT() FROM incomeband; 以下显示每个SS表的行数: 表名称 行数 StoreSales 287997024 DateDim 73049 Store 402 Item 204000 TimeDim 86400 Promotion 1000 CustomerDemographics 1920800 CustomerAddress 1000000 HouseholdDemographics 7200 Customer 1981703 IncomeBand 20 4.执行ANALYZE更新统计信息。 ANALYZE; 返回ANALYZE后,表示执行成功。 ANALYZE ANALYZE语句可收集数据库中与表内容相关的统计信息,统计结果存储在系统表PGSTATISTIC中。查询优化器会使用这些统计数据,以生成最有效的执行计划。 建议在执行了大批量插入/删除操作后,例行对表或全库执行ANALYZE语句更新统计信息。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        步骤1:创建初始表并加装样例数据
      • 热点问题
        对象存储是否支持数据监控? 支持,提供用户整体和桶维度的数据监控。 用户维度的监控指标:用户级存储容量、用户级对象总数、本月公网流出流量、本月请求次数、用户级公网流出流量、用户级公网流入流量、用户级内网流出流量、用户级内网流入流量、用户级公网请求次数、用户级内网请求次数、用户级有效请求率。 存储桶维度的监控指标:存储容量、存储对象数量、本月公网流出流量、本月请求次数、公网流出流量、公网流入流量、内网流出流量、内网流入流量、公网请求次数、内网请求次数、有效请求率。 通过这些数据监控指标,您可以了解和监控您的存储桶使用情况、流量消耗情况以及请求操作的次数,帮助您更好地管理和优化存储在ZOS中数据。具体相关操作可参考对象存储监控。 ZOS是否支持静态网站托管?设置的入口在哪里?如何操作? 支持。但是由于工信部合规要求,暂不公开开放。若您需要使用该功能,请提工单联系我们为您开通权限。 使用ZOS静态网站托管的步骤如下: 1. 存储网站文件:首先,将静态网站的文件上传至ZOS服务。您可以通过Web管理界面、API或命令行工具完成。文件类型包括HTML页面、CSS样式表、JavaScript代码和其他资源文件。 2. 创建存储桶:在ZOS服务中创建一个存储桶(Bucket)。存储桶是用于组织和管理文件的容器。通常,每个网站都有一个唯一的存储桶。 3. 设置权限和访问策略:为确保网站文件能够通过互联网公开访问,需要设置存储桶的访问权限和策略。通常,ZOS服务提供了公共读取权限选项,以便访客能够从浏览器中下载文件。 4. 分配自定义域名:为了方便用户访问网站,可以将一个自定义域名与存储桶关联起来。这可以通过将域名解析到ZOS服务的地址来实现。例如,可以将网站的CNAME记录指向存储桶的URL。 5. 配置静态网站托管选项:ZOS服务通常提供了专门的静态网站托管选项。在这些设置中,可以指定默认文档(如index.html)和错误页面,并定义重定向规则等。 6. 网站访问:完成上述步骤后,用户可以通过输入自定义域名来访问静态网站。访问请求会发送到存储桶,并由ZOS服务解析。然后,服务会返回相应的文件作为网页内容,以供浏览器展示。
        来自:
        帮助文档
        对象存储 ZOS
        常见问题
        热点问题
      • 管理微服务引擎专享版安全认证
        本节主要介绍管理微服务引擎专享版安全认证 同一个微服务引擎可能会有多个用户共同使用,而不同的用户根据其责任和权限,需要具备不同的微服务引擎访问和操作权限。开启了“安全认证”的微服务引擎专享版,根据用户接入引擎使用的帐号所关联的角色,赋予该用户不同的微服务引擎访问和操作权限。 安全认证具体内容,请参考系统管理。 您可根据实际业务需要,对微服务引擎专享版执行开启或关闭安全认证操作: 开启安全认证 未开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可开启安全认证。 开启安全认证后,接入该引擎的微服务组件如果没有配置安全认证参数,或者微服务组件配置的安全认证帐号和密码不正确,会导致该微服务组件心跳失败,服务被迫下线。 关闭安全认证 已开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可关闭安全认证。 关闭安全认证后,无论接入该引擎的微服务组件是否配置了安全认证参数,微服务组件的正常业务功能不受影响。 开启安全认证 1、登录ServiceStage控制台,选择“微服务引擎 CSE”。 2、选择待操作的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 3、在“安全”区域,开启安全认证开关。 如果引擎版本低于1.2.0,执行步骤4。 如果引擎版本为1.2.0及以上版本,执行步骤5。 4、升级引擎至1.2.0或以上版本。 单击“升级引擎至新版本”。 选择“升级后版本”,查看版本说明,根据需要决定是否升级到该版本后,单击“确定”。 等待升级成功后,单击“返回微服务引擎”。 选择刚升级成功的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 在“安全”区域,开启安全认证开关。 5、在微服务引擎控制台的“系统管理”页面,开启安全认证。 首次开启安全认证,单击“去开启安全认证”。 需先创建root帐号。输入root帐号的“密码”和“确认密码”,单击“立即创建”。 再次开启安全认证,单击“开启安全认证”。 输入引擎中已关联了admin角色的帐号名称及其密码。 6、(可选)参考角色管理,根据业务需要,创建角色。 7、(可选)参考账号管理,根据业务需要,创建帐号。 8、在微服务引擎控制台的“系统管理”页面,单击“开启安全认证”。 9、根据提示确认已经完成所有配置后,勾选“确保已配置”。 10、单击“确定”。 等待微服务引擎更新完成,引擎状态由“配置中”变为“可用”,开启安全认证成功。
        来自:
        帮助文档
        微服务引擎
        用户指南
        ServiceComb引擎
        管理微服务引擎
        管理微服务引擎专享版安全认证
      • 创建Flink Jar作业
        名称 描述 所属队列 默认选择“共享队列”,可以按需选择自定义的队列。 应用程序 用户自定义的程序包。在选择程序包之前需要将对应的Jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,具体操作请参考 主类 指定加载的Jar包类名,如KafkaMessageStreaming。 默认:根据Jar包文件的Manifest文件指定。 指定:必须输入“类名”并确定类参数列表(参数间用空格分隔)。 说明 当类属于某个包时,主类路径需要包含完整包路径,例如:packagePath.KafkaMessageStreaming 参数 指定类的参数列表,参数之间使用空格分隔。 Flink参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量windowsize,Flink Jar作业就可以添加参数windowsSize {{windowsize}}。 依赖jar包 用户自定义的依赖程序包。依赖的相关程序包将会被放置到集群classpath下。 在选择程序包之前需要将对应的Jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,包类型选择“jar”。具体操作请参考 其他依赖文件 用户自定义的依赖文件。其他依赖文件需要自行在代码中引用。 在选择依赖文件之前需要将对应的文件上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,包类型没有限制。具体操作请参考 ClassName.class.getClassLoader().getResource("userData/fileName") Flink版本 选择Flink版本前,需要先选择所属的队列。 优化参数 用户自定义的优化参数。参数格式为keyvalue。 Flink优化参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量phase,Flink Jar作业就可以添加优化参数table.optimizer.aggphase.strategy{{phase}}。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 管理微服务引擎专享版安全认证
        同一个微服务引擎可能会有多个用户共同使用,而不同的用户根据其责任和权限,需要具备不同的微服务引擎访问和操作权限。开启了“安全认证”的微服务引擎专享版,根据用户接入引擎使用的帐号所关联的角色,赋予该用户不同的微服务引擎访问和操作权限。 安全认证具体内容,请参考系统管理。 您可根据实际业务需要,对微服务引擎专享版执行开启或关闭安全认证操作: 开启安全认证 未开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可开启安全认证。 开启安全认证后,接入该引擎的微服务组件如果没有配置安全认证参数,或者微服务组件配置的安全认证帐号和密码不正确,会导致该微服务组件心跳失败,服务被迫下线。 关闭安全认证 已开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可关闭安全认证。 关闭安全认证后,无论接入该引擎的微服务组件是否配置了安全认证参数,微服务组件的正常业务功能不受影响。 开启安全认证 步骤 1 登录ServiceStage控制台,选择“微服务引擎 CSE”。 步骤 2 选择待操作的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 步骤 3 在“安全”区域,开启安全认证开关。 如果引擎版本低于1.2.0,执行步骤4。 如果引擎版本为1.2.0及以上版本,执行步骤5。 步骤 4 升级引擎至1.2.0或以上版本。 1. 单击“升级引擎至新版本”。 2. 选择“升级后版本”,查看版本说明,根据需要决定是否升级到该版本后,单击“确定”。 3. 等待升级成功后,单击“返回微服务引擎”。 4. 选择刚升级成功的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 5. 在“安全”区域,开启安全认证开关。 步骤5 在微服务引擎控制台的“系统管理”页面,开启安全认证。 首次开启安全认证,单击“去开启安全认证”。 需先创建root帐号。输入root帐号的“密码”和“确认密码”,单击“立即创建”。 再次开启安全认证,单击“开启安全认证”。 输入引擎中已关联了admin角色的帐号名称及其密码。 步骤 6 (可选)参考角色管理,根据业务需要,创建角色。 步骤 7 (可选)参考帐号管理,根据业务需要,创建帐号。 步骤 8 在微服务引擎控制台的“系统管理”页面,单击“开启安全认证”。 步骤 9 根据提示确认已经完成所有配置后,勾选“确保已配置”。 步骤 10 单击“确定”。 等待微服务引擎更新完成,引擎状态由“配置中”变为“可用”,开启安全认证成功。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务引擎 CSE
        微服务引擎(CSE)管理
        管理微服务引擎专享版安全认证
      • 用户
        后续操作 修改用户数据:选择需要修改的用户数据,单击“操作”列中“编辑”,按照需求进行用户数据的修改,单击“提交”完成用户数据更新。 修改用户密码:管理员可以修改对应账户的密码,选择需要修改的用户密码,单击“操作”列的“更多 > 改密”,在弹出的对话框中根据密码规则修改密码。 说明 您可以根据自身需求自定义密码规则,具体修改密码规则请参考安全设置章节。 批量导入用户 云堡垒机(原生版)支持批量导入用户信息。 1.使用“管理角色”账号登录云堡垒机。 2.在左侧导航栏选择“用户管理 > 用户”,进入“用户”模块。 3.单击“导入”按钮,弹出“账号导入”对话框。 4.单击“下载导入文件模板”,在线下文件模板中填写内容。 参数 参数说明 登录名 (必填)填写该账户的使用者的姓名(非登录账号)。 姓名 (必填)填写该账户的用户名称(登录账号)。 只能为数字、大小写字母、“.”和“”组成,首位只能数字或者字母,且不超过25个字符; 手机号 (必填)填写手机号,请确保手机号真实有效,否则会影响短信的接收。 邮箱 填写邮箱地址,请确保邮箱地址真实有效,否则会影响告警信息的接收。 密码 (必填)输入该账户的密码,密码请根据管理员设置的密码规则填写,具体可参见:安全设置章节。 角色 (必填)选择该账户所属的角色,可填写“管理角色”、“审计角色”和“访问角色”,需要选择多个角色请使用英文“,”分隔。 用户组 填写该账户所属的用户组,用户组操作请参见:用户组章节。若填写多个用户组请使用英文“,”分隔。 认证方式 (必填)选择认证方式,可选“静态认证”,“令牌认证”和“短信认证”,多个认证方式请使用英文“,”分隔。 授权生效日期 填写该用户生效的日期,日期格式支持:YYYYMMDD或YYYY/MM/DD。 授权失效日期 填写该用户失效的日期,日期格式支持:YYYYMMDD或YYYY/MM/DD。 授权生效日期 填写生效日期的具体时间点,填写范围:023,例如需要早上10点生效,就填写:10。 授权失效日期 填写失效日期的具体时间点,填写范围:023,例如需要晚上10点失效,就填写:22。 准入IP 选择可登录的IP地址。 说明 若不填写生失效日期,则新建的账号默认永久生效。 4.填写完成后,上传模板文件后选择重复用户导入策略。 注意 导入后,用户登录名不可修改。 5.完成后单击“提交”即可完成用户导入。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        用户管理
        用户
      • 自定义插件管理
        本文介绍天翼云云搜索Elasticsearch实例自定义插件的安装方式。 当您需要使用自定义插件或系统默认插件中不包含的开源插件时,可通过云搜索服务的自定义插件上传与安装功能,在实例中上传并安装对应插件。本文介绍具体的操作方法。 前提条件 1. 准备待上传的插件,并确保插件的可用性和安全性。 2. 建议在上传插件前,先在本地自建Elasticsearch实例(与实例相同版本)上进行测试,成功后再进行上传。 3. 开通与云搜索实例同地域的对象存储服务,并上传好需要安装的插件至对象存储的桶中。 使用限制 1. 不支持安装与默认插件一样的插件,包括默认插件的其他版本。 2. 不支持同时安装/卸载两个以上的插件。 3. 云搜索服务不保留用户插件的安装文件,请您自行备份。 4. 插件文件后缀需要为.zip。 5. 不支持上传安装带权限属性的插件。 6. 目前云搜索已关闭该功能,仅版本号<1.5.0的实例可以使用。 注意 安装自定义插件操作会触发实例重启插件本身可能影响实例的稳定性,请务必保证自定义插件的可用性和安全性,建议在业务低峰期进行操作。 操作步骤 1. 登录云搜索服务控制台,进入实例管理列表页,选择需要设置的实例点击名称进入详情页。 2. 在实例详情页选择“插件管理”—“自定义插件”,单击上传插件按钮。 3. 在弹出的页面上填写: 1. 插件名称,仅支持字母、数字和字符,请和插件包名称保持一致。插件名称查询路径:插件包内properties文件中找到pluginName。 2. 插件版本:插件目前的版本,格式为数字和点组合,如:7.10或2.19.1.0等,非必填。 3. 插件描述:用于帮助用户识别插件功能,非必填。 4. 插件地址:填写天翼云对象存储同地域资源池下的地址,获取路径为:对象存储控制台——点击对应桶名称进入详情——点击文件管理,找到对应的插件,点击右侧更多——复制URL。 注意 需要开启对应文件的可读权限。 填写完毕后点击安装并重启,插件会先在实例安装,安装完毕后实例将自动进行重启。期间请勿对实例进行其他操作。 4. 当实例重启完成,插件状态变成“已安装”则表示插件已经安装完毕。若插件处于“未安装”状态,则说明安装失败,您可根据提示调整填写内容再次重试或通过工单联系我们协助处理。您也可以删除该插件信息。 5. 已经安装完毕的插件,如果您不再使用,可单击插件右侧的卸载,卸载此插件。卸载插件如需再次安装,请参照前述步骤执行。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        插件管理
        自定义插件管理
      • 购买类
        本小节介绍云下一代防火墙购买类常见问题。 哪些资源池可以支持开通云下一代防火墙? 云下一代防火墙已适配天翼云各个云资源池节点,天翼云官网任一节点均可以开通云下一代防火墙,一类节点和二类节点均可以开通。 开通流程: 在选择资源池节点后,您可以登录天翼云官网,按照云下一代防火墙的开通流程进行操作。 影响面: 开通云下一代防火墙可能会对您的网络拓扑结构产生一定的影响。在执行开通操作之前,建议您仔细规划,并在可能的情况下在非业务高峰期进行操作,以减少对正常业务的影响。 注意 在开通云下一代防火墙时,请仔细阅读相关的注意事项和配置要求。确保您的网络环境和业务需求符合产品的要求,以便最大程度地发挥防火墙的作用。 如何选择需要购买的产品规格和功能? 需要用户自行评估业务情况,可通过以下内容进行参考: 规格选择:计算通过云下一代防火墙安全产品的弹性IP总带宽值,不高于云下一代防火墙安全产品各规格限制值。 功能选择:有安全防护需求需开通扩展功能,如病毒过滤、URL过滤及C&C防护。 云下一代防火墙安全产品是否支持试用,如何下单? 支持。需联系区域的客户经理,由客户经理代下单完成试用订购。试用订购最长期限为3个月,且每个天翼云账号只拥有一次试用订购机会。 云下一代防火墙安全产品支持试用服务,为了确保您能够充分体验产品的功能和性能。以下是相关的详细信息: 联系客户经理: 如果您有兴趣试用云下一代防火墙安全产品,请直接联系您所在区域的客户经理。客户经理将为您提供试用申请的相关流程和详细信息。 试用期限: 试用期最长为3个月,这段时间足够您深入了解产品的特性,并确认其是否符合您的业务需求。 试用订购限制: 每个天翼云账号只有一次试用订购机会。请确保在提交试用申请之前充分评估您的实际需求,以便最大程度地利用试用期。 下单流程: 试用订购需要通过客户经理进行,他们将协助您完成试用订购的下单流程。在联系客户经理时,请提供您的详细信息和组织需求,以便更好地为您提供支持。 注意事项: 在试用期间,建议您积极参与产品培训和文档阅读,以便更好地理解产品的各项功能和配置。这将有助于您更好地评估产品对您业务的实际帮助。 技术支持: 在试用期内,您可以享受我们的技术支持服务。如有任何技术或操作方面的问题,请随时联系我们的技术支持团队。
        来自:
        帮助文档
        云下一代防火墙
        常见问题
        购买类
      • 将Oracle同步到PostgreSQL
        前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见 实时同步。 操作步骤 本小节以Oracle到RDS for PostgreSQL的实时同步为示例,介绍如何使用数据复制服务配置实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表 任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“Oracle”。 目标数据库引擎 选择“PostgreSQL”。 网络类型 此处以“公网网络”为示例。目前支持可选“公网网络”、“VPC网络”和“VPN、专线网络”。 目标数据库实例 创建好的RDS for PostgreSQL实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。 标签 表标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。说明对于RAC集群,建议使用SCAN IP接入,提高访问性能。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库服务名 数据库服务名(Service Name/SID),客户端可以通过其连接到Oracle,具体查询方法请参照界面提示。 PDB名称 PDB同步仅在Oracle12c及以后的版本支持,该功能为选填项,当需要迁移PDB中的表时开启。PDB功能开启后,只能迁移该PDB中的表,并且需要提供CDB的service name/sid及用户名和密码,不需要PDB的用户名和密码。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 表目标库信息 参数 描述 数据库实例名称 默认为创建任务时选择的RDS for PostgreSQL实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。支持在任务创建后修改密码。 步骤 4 在“设置同步”页面,选择同步对象类型和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象类型 可选同步表结构、同步数据、同步索引,根据实际需求进行选择要同步内容。 l 同步数据为必选项。 l 选则同步表结构的时候目标库不能有同名的表。 l 不选同步表结构的时候目标库必须有相应的表,且要保证表结构与所选表结构相同。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步,您可以根据业务场景选择对应的数据进行同步。选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 l 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 步骤 5 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 6 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 7 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见 任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到PostgreSQL
      • 自定义插件管理
        本文介绍天翼云云搜索OpenSearch实例自定义插件的安装方式。 当您需要使用自定义插件或系统默认插件中不包含的开源插件时,可通过云搜索服务的自定义插件上传与安装功能,在实例中上传并安装对应插件。 前提条件 1. 准备待上传的插件,并确保插件的可用性和安全性。 2. 建议在上传插件前,先在本地自建OpenSearch集群(与实例相同版本)上进行测试,成功后再进行上传。 3. 开通与云搜索实例同地域的对象存储服务,并上传好需要安装的插件至对象存储的桶中。 使用限制 1. 不支持安装与默认插件一样的插件,包括默认插件的其他版本。 2. 不支持同时安装/卸载两个以上的插件。 3. 云搜索服务不保留用户插件的安装文件,请您自行备份。 4. 插件文件后缀需要为.zip。 5. 不支持上传安装带权限属性的插件。 6. 目前云搜索已关闭该功能,仅版本号 “自定义插件”,单击上传插件按钮。 3. 在弹出的页面上填写: 1. 插件名称:仅支持字母、数字和字符,请和插件包名称保持一致。插件名称查询路径:插件包内properties文件中找到pluginName。 2. 插件地址:填写天翼云对象存储同地域资源池下的地址,获取路径为:对象存储控制台——点击对应桶名称进入详情——点击文件管理,找到对应的插件,点击右侧更多——复制URL。 3. 插件版本:插件目前的版本,格式为数字和点组合,如:7.10或2.19.1.0,非必填。 4. 插件描述:用于帮助用户识别插件功能,非必填。 注意 需要开启对应文件的可读权限。 4. 填写完毕后点击安装并重启,插件会先在实例安装,安装完毕后实例将自动进行重启。期间请勿对实例进行其他操作。 5. 当实例重启完成,插件状态变成“已安装”则表示插件已经安装完毕。若插件处于“未安装”状态,则说明安装失败,您可根据提示调填写内容再次重试或通过工单联系我们协助处理。您也可以删除该插件信息。 6. 已经安装完毕的插件,如果您不再使用,可单击插件右侧的卸载,卸载此插件。卸载插件如需再次安装,请参照前述步骤执行。
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        插件管理
        自定义插件管理
      • 大模型学习机文本生成最佳实践
        本文向您介绍如何进行Llama2模型文本生成任务。 前提条件 大模型学习机预装了Llama 27bchat模型与stablediffuisonbasev2.1模型,以及配套的开源服务框架textgenerationwebui与stablediffuisonwebui,使您不需单独进行下载模型与配置环境。 云主机开通与如何登录网页页面参见部署文档。 以下将向您介绍如何进行Llama 2模型文本生成任务: 注意 框架默认角色名称为"You", 但主流大模型默认角色名称一般为"User", 可能会导致模型效果显著变差。 修改角色名称的方式有: 1. 在网页Parameters > Chat > User标签下修改Name字段为"User",此方法刷新页面后就会失效。 2. 修改配置文件/root/textgenerationwebui/modules/shared.py中的'name1': 'User', 并重启llama服务, 此方法永久生效。 1. 大语言模型加载 说明 以下内容基于开源框架textgenerationwebui。 1.1 基础模型加载 大语言模型体积较大,需要占用较多的内存/显存资源,因此在刚启动服务时并未进行加载,需要手动选择模型进行加载。 在页面上切换到Model标签页,左侧下拉菜单展开后会显示所有存放于云主机/root/textgenerationwebui/models目录下的模型。学习机初始预装了Llama27bchat模型(huggingface格式),您也可随时下载其他大模型并放入models目录下进行加载。 默认Model loader:Transformers能够支持huggingface的主流大模型,在自行加载其他模型时您需要确认模型格式是否匹配。 右下角将出现模型加载样式,直至加载成功。耗时可能较长,期间不要退出页面。 注意 在加载预装的Llama27b模型时,如果您使用的是GPU学习机,模型将默认以fp16半精度进行加载,消耗13.1G显存;如果您使用的是CPU学习机,模型将以fp32单精度进行加载,消耗26G内存。 因此,如果您的机型是内存为32G或显存为16G的型号,则会因为资源不足导致无法直接加载Llama27b模型。 解决办法: (1) 参考 27b模型前先将图像生成服务关停。 (2) GPU学习机能够支持对模型进行量化,降低模型精度的同时缩减模型大小。您可以在Model页下方找到loadin8bit的开关并进行勾选,此时Llama27b模型将消耗7G内存,可以和图像生成服务中的StableDiffusion模型共存。且8bit精度对大语言模型的生成来说影响不会特别大。 注意 由于huggingface.io网站访问受限,Model标签页的Download按钮无法直接下载模型。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        大模型学习机文本生成最佳实践
      • 规则说明
        针对弹性云主机退订操作,为您进行说明,请在退订前务必阅读以下内容。 退订规则说明 客户(天翼云用户)可根据需要,在符合天翼云退订规则的前提下,灵活退订资源。目前退订包含七天无理由全额退订,非七天无理由退订,不可退订,以及其他退订。 七天无理由全额退订,用户使用新购资源(含该笔新购资源订单的续订资源)七天内(含第七天),可随时通过系统完成全额退订。 发起退订操作的账号(“退订账号”)七天无理由全额退订次数不超过3次(每账号享有3次七天无理由全额退订次数); 同一用户累计使用的七天无理由全额退订次数不超过15次。其中,同一用户是指:根据不同天翼云账号在注册、登录、使用中的关联信息,关联信息相同天翼云判断其实际为同一用户。关联信息举例:同一名称、同一邮箱、同一负责人证件、同一手机号、同一设备、同一IP地址等(包括已注销的账号)。 客户同意天翼云使用上述信息核查同一用户情况 ; 七天无理由退订标准(含退订次数)将根据业务发展适时调整,具体结果以退订时官网展示和系统显示为准; 促销活动中说明“不支持七天无理由退订”的云服务,无法申请七天无理由退订; 当同时退订多个资源时,且超过3次免费退订次数,系统按照单资源实付金额从高到低依次退订,免费次数优先覆盖高价值资源。 尽管有上述规则,客户不得利用退订规则频繁订购并退订服务,恶意占用天翼云及其他用户资源。如天翼云有合理理由怀疑客户存在频繁退订恶意占用天翼云及其他用户资源的,则天翼云有权取消该客户七天无理由全额退订的权利,并根据《中国电信天翼云用户协议》及网站相关规则和相关服务协议约定,采取相应措施直至终止服务,并追究客户的违约责任。 非七天无理由退订,指使用时长已超过七天以上的用户新购资源(含续订资源),属于非七天无理由退订。非七天无理由退订,不限制退订次数,但退订需要收取相应的使用费用和退订手续费,且不退还代金券及优惠券,但符合下文“其他退订”情形的除外。 不可退订,指天翼云部分资源因技术属性、营销政策、活动优惠、特定使用群体、商务协议等各类原因,此类资源暂不支持退订。不支持退订的场景范围如下: 按需套餐包产品; 含硬件类产品和人工服务类产品; 未完工的订单; 云服务参加特殊赠送活动,明确不可退订的(如促销套餐、促销优惠券、促销优惠券礼包、优惠券计划、抽奖活动、推荐送活动等)具体以特殊赠送活动规则为准; 明确不允许退订的产品或服务。 其他退订。指因天翼云原因导致的,如创建资源失败或系统BUG,产品迭代等情况导致的用户退订。其他退订不限制退订次数,无需用户承担退订费用。
        来自:
        帮助文档
        弹性云主机 ECS
        购买指南
        退费说明
        规则说明
      • 创建节点池
        操作场景 本章介绍了如何添加运行CCE集群的节点池以及对节点池执行操作。要了解节点池的工作原理,请参阅节点池概述。 操作步骤 将节点池添加到现有集群。 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 单击右上角的“创建节点池”。 步骤 3 在创建节点池页面中,参照如下说明设置节点池选型参数。 计费模式: 节点池仅支持“按需计费”的计费模式,该模式将根据实际使用的资源按小时计费。 节点池创建后,自建的节点池里的资源无法转包周期,默认节点池里的资源可以转包周期。您可以把自建节点池里的资源迁移到默认的节点池里后再进行转包周期的操作。如何迁移请参见迁移节点。 当前区域:指节点实例所在的物理位置。 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度;不同区域的云服务产品之间内网互不相通。 节点池名称:新建节点池的名称,默认按“集群名nodepool随机数”生成名称,可自定义。 节点类型:目前仅支持虚拟机节点。 节点购买数量:该节点池下购买的节点数量,此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示选择,如需更多配额,请单击提交工单申请扩大配额。 弹性扩缩容: − 默认不开启。 − 单击 开启后,节点池将根据集群负载情况自动创建或删除节点池内的节点,参数设置如下: 节点数上限和节点数下限:您可设置节点数的上限和下限,保证节点数在合理的范围内伸缩。 优先级:请根据业务需要设置相应数值,该数值表示节点池之间进行弹性扩缩容的优先级,数值越大优先级越高,如设置为4的节点池比设置为1的节点池优先启动弹性伸缩。若多个节点池的值设置相同,如都设置为2,表示这几个节点池之间不分优先级,系统将按最小资源浪费原则进行伸缩。 弹性缩容冷却时间:请设置时间,单位为分钟或小时。弹性缩容冷却时间是指当前节点池扩容出的节点多长时间不能被缩容。 说明: 节点池中的节点建议不要放置重要数据,以防止节点被弹性缩容,数据无法恢复。 为保证功能的正常使用,节点池开启弹性扩缩容功能后,请务必安装autoscaler。 可用区:可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 请根据业务需要进行选择。节点池创建之后不支持修改可用区属性,请谨慎选择。 如果您需要提高工作负载的高可靠性,建议您选择“随机可用区”,将节点随机均匀分布在不同可用区中。 节点规格:请根据业务需求选择相应的节点规格。 须知: 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件,详细请参见节点预留资源计算公式 。 操作系统:请直接选择节点对应的操作系统。 须知:重装操作系统或修改操作系统配置将导致节点不可用,请务必谨慎操作。 虚拟私有云:跟随集群,不可变更。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 请确保子网下的DNS服务器可以解析对象存储服务域名,否则无法创建节点。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32768GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与系统盘一致,此处不再赘述,详情参见系统盘中的云硬盘类型介绍。 须知: 若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建,创建密钥对操作步骤请参见。 步骤 4 云服务器高级设置:(可选),单击 展开后可对节点进行如下高级功能配置: 安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 步骤 5 Kubernetes高级设置:(可选),单击 展开后可对集群进行如下高级功能配置: 最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 Taints:默认为空。支持给该节点池扩容出来的节点加Taints来设置反亲和性,每个节点池最多配置10条Taints,每条Taints包含以下3个参数: −Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 −Value:必须以字符或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 −Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。 须知: Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 节点池创建后可单击列表项的“编辑”修改配置,修改后将同步到节点池下的已有节点。 K8S标签:K8S标签是附加到Kubernetes 对象(比如Pods)上的键值对,旨在用于指定对用户有意义且相关的对象的标识属性,但不直接对核心系统有语义含义。 详细请参见Labels and Selectors。 单容器可用数据空间:该参数用于设置一个容器可用的数据空间大小,设置范围为10G到80G。如果设置的参数超过数据盘中Docker可占用的实际数据空间(由数据盘设置项中的资源分配自定义参数指定,默认为数据盘大小的90%),将以Docker的实际空间大小为主。该参数仅在v1.13.10r0及以上版本的集群中显示。 步骤 6 (可选)您可以单击左侧的 按钮添加多个节点池,在按钮下方可以查看您可用的节点池配额数量。 步骤 7 完成配置后,单击“下一步:配置确认”,确认所设置的服务选型参数、规格和费用等信息。 步骤 8 确认规格和费用后,单击“提交”,节点池开始创建。 节点池创建预计需要610分钟,您可以单击“返回节点池管理”进行其他操作或单击“查看节点池事件列表”后查看节点池详情。待节点池状态为“正常”,表示节点池创建成功。 查看创建的节点池 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 在节点池管理页面中,单击右上角的集群选择框,选择集群后可显示当前集群下所有的节点池,并可查看每个节点池的节点类型、节点规格、弹性扩缩容状态和操作系统等。 须知: 节点池功能上线后,会在每个集群中创建一个默认节点池“DefaultPool”,该节点池不能被编辑、删除或迁移,集群中原有的节点及节点池外创建的节点均会显示在默认节点池“DefaultPool”中。 单击默认节点池“DefaultPool”中“节点”数据框,可查看DefaultPool中的节点列表。 步骤 3 单击右上角的Autoscaler状态选择框,可筛选全部、已启用、未启用Autoscaler功能的节点池。 步骤 4 在节点池列表中,单击节点池的名称,在节点池详情页面,可查看节点池的基本信息、ECS高级设置、Kubernetes高级设置、节点列表等信息。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点池管理
        创建节点池
      • 将Oracle同步到MySQL
        前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见实时同步。 已阅读以上使用建议和使用须知。 操作步骤 本小节以Oracle到RDS for MySQL的实时同步为示例,介绍如何使用数据复制服务配置实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“Oracle”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以“公网网络”为示例。目前支持可选公网网络、VPC网络和VPN、专线网络。 目标数据库实例 创建好的RDS for MySQL实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。 标签 表 标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。说明对于RAC集群,建议使用SCAN IP接入,提高访问性能。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库服务名 数据库服务名(Service Name/SID),客户端可以通过其连接到Oracle,具体查询方法请参照界面提示。 PDB名称 PDB同步仅在Oracle12c及以后的版本支持,该功能为选填项,当需要迁移PDB中的表时开启。PDB功能开启后,只能迁移该PDB中的表,并且需要提供CDB的service name/sid及用户名和密码,不需要PDB的用户名和密码。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 如启用SSL安全连接,请在源库开启SSL,并确保相关配置正确后上传SSL证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的RDS for MySQL实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。支持在任务创建后修改密码。 SSL安全连接 如启用SSL安全连接,请在目标库开启SSL,并确保相关配置正确后上传SSL证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 步骤 4 在“设置同步”页面,选择同步对象类型和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象类型 可选同步表结构、同步数据、同步索引,根据实际需求进行选择要同步内容。 l 同步数据为必选项。 l 选则同步表结构的时候目标库不能有同名的表。 l 不选同步表结构的时候目标库必须有相应的表,且要保证表结构与所选表结构相同。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步、库级同步或导入对象文件,您可以根据业务场景选择对应的数据进行同步。选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 l 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 步骤 5 在“数据加工”页,可对同步数据进行过滤,完成后单击“下一步”,详细可参考” 数据加工“。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到MySQL
      • 从本地存储迁移数据
        从Spark导入详细示例 要通过Spark将本地存储的数据导入到云数据库ClickHouse,您可以按照以下步骤进行操作: 1. 准备工作: 确保您已经安装了Spark,并配置好了与云数据库ClickHouse的连接。 确保您已经在本地存储中准备好了要导入的数据文件。 2. 导入所需的依赖: 在Spark应用程序中添加所需的依赖项以支持与云数据库ClickHouse的连接。您需要使用ClickHouse JDBC驱动程序和Spark的相关依赖。例如,在Maven项目中,您可以添加以下依赖项: xml ru.yandex.clickhouse clickhousejdbc 0.4.1 根据您使用的构建工具和版本,请相应地配置依赖项。 3. 编写Spark应用程序: 创建一个Spark应用程序,通过Spark读取本地存储的数据文件,并将数据导入到云数据库ClickHouse中。下面是一个示例代码: scala import org.apache.spark.sql.{SparkSession, SaveMode} object ClickHouseDataImporter { def main(args: Array[String]): Unit { // 创建SparkSession val spark SparkSession.builder() .appName("ClickHouse Data Importer") .getOrCreate() // 读取本地存储的数据文件 val data spark.read.format("csv") .option("header", "true") // 如果数据文件包含头部,则设置为true .option("inferSchema", "true") // 自动推断列的数据类型 .load("/path/to/data/file.csv") // 替换为实际数据文件的路径 // 将数据保存到ClickHouse数据库中 data.write .mode(SaveMode.Append) // 指定保存模式,可以根据需求更改 .format("jdbc") .option("url", "jdbc:clickhouse://yourclickhousehost:port/database") // 替换为实际的云数据库ClickHouse连接URL和目标数据库 .option("dbtable", "yourtable") // 替换为目标表的名称 .option("user", "yourusername") // 替换为云数据库ClickHouse的用户名 .option("password", "yourpassword") // 替换为云数据库ClickHouse的密码 .save() } } 在上述代码中,您需要替换以下内容: "/path/to/data/file.csv":实际的本地数据文件路径。 "jdbc:clickhouse://yourclickhousehost:port/database":实际的云数据库ClickHouse连接URL和目标数据库信息。 "yourtable":目标表的名称。 "yourusername":云数据库ClickHouse的用户名。 "yourpassword":云数据库ClickHouse的密码。 4. 运行Spark应用程序: 将您的Spark应用程序打包,并将其提交到Spark集群或本地运行。根据您的环境和需求,选择适当的方式来运行Spark应用程序。 例如,如果您使用的是Sparksubmit命令行工具,可以执行以下命令来提交应用程序: sparksubmit class ClickHouseDataImporter master local[] path/to/your/app.jar 这将启动Spark应用程序并开始将本地存储的数据导入到云数据库ClickHouse中。 说明 上述示例代码仅提供了一个基本的框架,您可能需要根据实际需求进行调整和优化。另外,还可以使用Spark的分布式计算能力和数据处理功能来进行更复杂的数据转换和导入操作。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从本地存储迁移数据
      • 管理微服务引擎专享版安全认证
        同一个微服务引擎可能会有多个用户共同使用,而不同的用户根据其责任和权限,需要具备不同的微服务引擎访问和操作权限。开启了“安全认证”的微服务引擎专享版,根据用户接入引擎使用的帐号所关联的角色,赋予该用户不同的微服务引擎访问和操作权限。 安全认证具体内容,请参考系统管理。 您可根据实际业务需要,对微服务引擎专享版执行开启或关闭安全认证操作: 开启安全认证 未开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可开启安全认证。 开启安全认证后,接入该引擎的微服务组件如果没有配置安全认证参数,或者微服务组件配置的安全认证帐号和密码不正确,会导致该微服务组件心跳失败,服务被迫下线。请参考如下方法进行处理: − Java Chassis:请参考“帮助中心 > 微服务云应用平台 > 开发指南 > 对接微服务应用 > Java Chassis接入CSE”中的配置安全认证操作。 − Spring Cloud:请参考“帮助中心 > 微服务云应用平台 > 开发指南 > 微服务开发指南 > 对接微服务应用 > Spring Cloud接入CSE”中的配置安全认证操作。 关闭安全认证 已开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可关闭安全认证。 关闭安全认证后,无论接入该引擎的微服务组件是否配置了安全认证参数,微服务组件的正常业务功能不受影响。 开启安全认证 步骤 1 登录ServiceStage控制台,选择“微服务引擎 CSE”。 步骤 2 选择待操作的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 步骤 3 在“安全”区域,开启安全认证开关。 如果引擎版本低于1.2.0,执行步骤4。 如果引擎版本为1.2.0及以上版本,执行步骤5。 步骤 4 升级引擎至1.2.0或以上版本。 1. 单击“升级引擎至新版本”。 2. 选择“升级后版本”,查看版本说明,根据需要决定是否升级到该版本后,单击“确定”。 3. 等待升级成功后,单击“返回微服务引擎”。 4. 选择刚升级成功的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 5. 在“安全”区域,开启安全认证开关。 步骤 5 在微服务引擎控制台的“系统管理”页面,开启安全认证。 首次开启安全认证,单击“去开启安全认证”。 需先创建root帐号。输入root帐号的“密码”和“确认密码”,单击“立即创建”。 再次开启安全认证,单击“开启安全认证”。 输入引擎中已关联了admin角色的帐号名称及其密码。 步骤 5 (可选)参考角色管理,根据业务需要,创建角色。 步骤 6 (可选)参考帐号管理,根据业务需要,创建帐号。 步骤 7 在微服务引擎控制台的“系统管理”页面,单击“开启安全认证”。 步骤 8 根据提示确认已经完成所有配置后,勾选“确保已配置”。 步骤 9 单击“确定”。 等待微服务引擎更新完成,引擎状态由“配置中”变为“可用”,开启安全认证成功。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务引擎 CSE
        配置微服务
        管理微服务引擎专享版安全认证
      • OpenSora推理生成视频
        本节介绍智算集群部署OpenSora推理生成视频任务。 前提条件 已开通包含GPU/NPU的Kubernetes集群。 已安装智算套件。 集群节点需要访问公网(需通过公网下载模型)。 背景信息 本文演示如何使用OpenSora【GPU】和OpenSoraPlan【NPU】推理任务生成视频。 操作步骤 进入云容器引擎控制台。 点击左侧【集群】进入集群列表。 点击使用的集群名称,进入集群。 创建configmap 文本中填入视频prompt描述(描述内容来自OpenSora官网)。 xml apiVersion: v1 kind: ConfigMap metadata: name: t2vsamplesconfigmap namespace: default data: t2vsamples.txt: A soaring drone footage captures the majestic beauty of a coastal cliff, its red and yellow stratified rock faces rich in color and against the vibrant turquoise of the sea. Seabirds can be seen taking flight around the cliff's precipices. As the drone slowly moves from different angles, the changing sunlight casts shifting shadows that highlight the rugged textures of the cliff and the surrounding calm sea. The water gently laps at the rock base and the greenery that clings to the top of the cliff, and the scene gives a sense of peaceful isolation at the fringes of the ocean. The video captures the essence of pristine natural beauty untouched by human structures. The video captures the majestic beauty of a waterfall cascading down a cliff into a serene lake. The waterfall, with its powerful flow, is the central focus of the video. The surrounding landscape is lush and green, with trees and foliage adding to the natural beauty of the scene. The camera angle provides a bird's eye view of the waterfall, allowing viewers to appreciate the full height and grandeur of the waterfall. The video is a stunning representation of nature's power and beauty. A vibrant scene of a snowy mountain landscape. The sky is filled with a multitude of colorful hot air balloons, each floating at different heights, creating a dynamic and lively atmosphere. The balloons are scattered across the sky, some closer to the viewer, others further away, adding depth to the scene. Below, the mountainous terrain is blanketed in a thick layer of snow, with a few patches of bare earth visible here and there. The snowcovered mountains provide a stark contrast to the colorful balloons, enhancing the visual appeal of the scene. In the foreground, a few cars can be seen driving along a winding road that cuts through the mountains. The cars are small compared to the vastness of the landscape, emphasizing the grandeur of the surroundings. The overall style of the video is a mix of adventure and tranquility, with the hot air balloons adding a touch of whimsy to the otherwise serene mountain landscape. The video is likely shot during the day, as the lighting is bright and even, casting soft shadows on the snowcovered mountains. The vibrant beauty of a sunflower field. The sunflowers, with their bright yellow petals and dark brown centers, are in full bloom, creating a stunning contrast against the green leaves and stems. The sunflowers are arranged in neat rows, creating a sense of order and symmetry. The sun is shining brightly, casting a warm glow on the flowers and highlighting their intricate details. The video is shot from a low angle, looking up at the sunflowers, which adds a sense of grandeur and awe to the scene. The sunflowers are the main focus of the video, with no other objects or people present. The video is a celebration of nature's beauty and the simple joy of a sunny day in the countryside. A serene underwater scene featuring a sea turtle swimming through a coral reef. The turtle, with its greenishbrown shell, is the main focus of the video, swimming gracefully towards the right side of the frame. The coral reef, teeming with life, is visible in the background, providing a vibrant and colorful backdrop to the turtle's journey. Several small fish, darting around the turtle, add a sense of movement and dynamism to the scene. The video is shot from a slightly elevated angle, providing a comprehensive view of the turtle's surroundings. The overall style of the video is calm and peaceful, capturing the beauty and tranquility of the underwater world. A vibrant underwater scene. A group of blue fish, with yellow fins, are swimming around a coral reef. The coral reef is a mix of brown and green, providing a natural habitat for the fish. The water is a deep blue, indicating a depth of around 30 feet. The fish are swimming in a circular pattern around the coral reef, indicating a sense of motion and activity. The overall scene is a beautiful representation of marine life. A bustling city street at night, filled with the glow of car headlights and the ambient light of streetlights. The scene is a blur of motion, with cars speeding by and pedestrians navigating the crosswalks. The cityscape is a mix of towering buildings and illuminated signs, creating a vibrant and dynamic atmosphere. The perspective of the video is from a high angle, providing a bird's eye view of the street and its surroundings. The overall style of the video is dynamic and energetic, capturing the essence of urban life at night. A snowy forest landscape with a dirt road running through it. The road is flanked by trees covered in snow, and the ground is also covered in snow. The sun is shining, creating a bright and serene atmosphere. The road appears to be empty, and there are no people or animals visible in the video. The style of the video is a natural landscape shot, with a focus on the beauty of the snowy forest and the peacefulness of the road. The dynamic movement of tall, wispy grasses swaying in the wind. The sky above is filled with clouds, creating a dramatic backdrop. The sunlight pierces through the clouds, casting a warm glow on the scene. The grasses are a mix of green and brown, indicating a change in seasons. The overall style of the video is naturalistic, capturing the beauty of the landscape in a realistic manner. The focus is on the grasses and their movement, with the sky serving as a secondary element. The video does not contain any human or animal elements. A serene night scene in a forested area. The first frame shows a tranquil lake reflecting the starfilled sky above. The second frame reveals a beautiful sunset, casting a warm glow over the landscape. The third frame showcases the night sky, filled with stars and a vibrant Milky Way galaxy. The video is a timelapse, capturing the transition from day to night, with the lake and forest serving as a constant backdrop. The style of the video is naturalistic, emphasizing the beauty of the night sky and the peacefulness of the forest. 创建pvc(用来存储模型生成的视频) xml apiVersion: v1 kind: PersistentVolumeClaim metadata: name: videovolume namespace: default labels: app: videovolume spec: storageClassName: "cstorcsihpfsperfsc" accessModes: ReadWriteMany resources: requests: storage: 512Gi 点击左侧【工作负载】>【自定义资源】,选择资源浏览器,找到kubeflow.org/v1/PyTorchJob ,选择命名空间,点击新增。 在创建yaml中,填入以下信息后点击【创建】。 注意 1.GPU和昇腾NPU申请资源类型不一样,请使用对应的模板; 2.修改对应的镜像仓库地址前缀为对应资源池,可在容器镜像控制台查看,如武汉41,则修改{imagerepo}为registryvpccrswuhan41.ctyun.cn; 3. namespace: 要和界面选择的一致。 GPU模板 xml apiVersion: "kubeflow.org/v1" kind: PyTorchJob metadata: name: pytorchopensora01 namespace: default spec: pytorchReplicaSpecs: Master: replicas: 1 restartPolicy: OnFailure template: spec: containers: name: pytorch image: {imagerepo}/icce/opensora:multi imagePullPolicy: IfNotPresent command: ["/bin/bash", "c"] args: ["torchrun standalone nprocpernode 1 scripts/inference.py configs/opensora/inference/16x512x512.py ckptpath OpenSorav1HQ16x512x512.pth promptpath /workspace/assets/texts/t2vsamples.txt savedir /outputs/samples"] resources: limits: nvidia.com/gpu: 1 volumeMounts: name: t2vsample mountPath: "/workspace/assets/texts" readOnly: true name: videooutput mountPath: /outputs/samples volumes: name: t2vsample configMap: name: t2vsamplesconfigmap name: videooutput persistentVolumeClaim: claimName: videovolume NPU模板 xml apiVersion: "kubeflow.org/v1" kind: PyTorchJob metadata: name: pytorchopensoranpu01 namespace: default spec: pytorchReplicaSpecs: Master: replicas: 1 restartPolicy: OnFailure template: spec: containers: name: pytorch image: {imagerepo}/icce/opensora:multi imagePullPolicy: IfNotPresent command: ["/bin/bash", "c"] args: ["source /usr/local/Ascend/ascendtoolkit/setenv.sh && bash scripts/textcondition/npu/samplet2vv13.sh "] resources: limits: huawei.com/Ascend910: 1 volumeMounts: name: ascenddriver mountPath: /usr/local/Ascend/driver name: t2vsample mountPath: "/workspace/assets/texts" readOnly: true name: videooutput mountPath: /outputs/samples volumes: name: ascenddriver hostPath: path: /usr/local/Ascend/driver name: t2vsample configMap: name: t2vsamplesconfigmap name: videooutput persistentVolumeClaim: claimName: videovolume 查看运行状态:点击左侧【工作负载】>【容器组】,找到任务名为前缀的容器,点击名称,查看日志/监控等信息是否符合预期。 查看生成视频:可自行创建pod,挂载上述的pvc,导出/查看生成视频。 查看根据prompt生成的视频效果。
        来自:
        帮助文档
        云容器引擎 智算版
        最佳实践
        OpenSora推理生成视频
      • Kubernetes集群内置DNS配置说明
        工作负载的DNS配置介绍 Kubernetes集群内置DNS插件KubeDNS/CoreDNS,为集群内的工作负载提供域名解析服务。业务在高并发调用场景下,如果使用到域名解析服务,可能会触及到KubeDNS/CoreDNS的性能瓶颈,导致DNS请求概率失败,影响用户业务正常运行。在Kubernetes使用的过程中,在有些场景下工作负载的域名解析存在冗余的DNS查询,使得高并发场景更容易触及DNS的性能瓶颈。根据业务使用场景,对工作负载的DNS配置进行优化,能够在一定程度上减少DNS请求概率失败的问题。 更多DNS相关信息请参见CoreDNS(系统资源插件,必装)或通过kubectl配置kubedns/CoreDNS高可用。 Linux 系统域名解析文件配置项的介绍 在Linux系统的节点或者容器里执行cat /etc/resolv.conf命令,能够查看到DNS配置,以Kubernetes集群的容器DNS配置为例: nameserver 10.247.x.x search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 配置项说明: nameserver:容器解析域名时查询的DNS服务器的IP地址列表。如果设置为10.247.x.x说明DNS对接到KubeDNS/CoreDNS,如果是其他IP地址,则表示采用DNS或者用户自建的DNS。 search:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。对于CCE集群来说,容器的搜索域列表配置3个域,当解析一个不存在的域名时,会产生8次DNS查询,因为对于每个域名需要查询两次,分别是IPv4和IPv6。 options:定义域名解析配置文件的其他选项,常见的有timeout、attempts和ndots等等。Kubernetes集群容器的域名解析文件设置为options ndots:5,该参数的含义是当域名的“.”个数小于ndots的值,会先把域名与search搜索域列表进行组合后进行DNS查询,如果均没有被正确解析,再以域名本身去进行DNS查询。当域名的“.”个数大于或者等于ndots的值,会先对域名本身进行DNS查询,如果没有被正确解析,再把域名与search搜索域列表依次进行组合后进行DNS查询。如查询www.ctyun.cn域名时,由于该域名的“.”个数为2,小于ndots的值,所以DNS查询请求的顺序依次为:www.ctyun.cn.default.svc.cluster.local、www.ctyun.cn.svc.cluster.local、 www.ctyun.cn.cluster.local和www.ctyun.cn,需要发起至少7次DNS查询请求才能解析出该域名的IP。可以看出,这种配置在访问外部域名时,存在大量冗余的DNS查询,存在优化点。 说明:完整的Linux域名解析文件配置项说明可以参考文档: Kubernetes 集群应用的DNS 相关配置项介绍 前面已经分析过,应用在某些场景下会出现冗余的DNS查询。Kubernetes为应用提供了与DNS相关的配置选项,通过对应用进行DNS配置,能够在某些场景下有效地减少冗余的DNS查询,提升业务并发量。目前应用配置中与DNS相关的字段有dnsPolicy 和dnsConfig。 dnsPolicy 字段说明: dnsPolicy字段是应用设置的DNS策略,默认值为“ClusterFirst”。基于dnsPolicy策略生成的域名解析文件会与dnsConfig设置的DNS参数进行合并,合并规则将在“dnsConfig字段说明”中说明,dnsPolicy当前支持四种参数值: − ClusterFirst:应用对接KubeDNS/CoreDNS(CCE集群的KubeDNS/CoreDNS默认级联DNS)。这种场景下,容器既能够解析service注册的集群内部域名,也能够解析发布到互联网上的外部域名。由于该配置下,域名解析文件设置了search搜索域列表和ndots: 5,因此当访问外部域名和集群内部长域名(如kubernetes.default.svc.cluster.local)时,大部分域名都会优先遍历search搜索域列表,导致至少有6次无效的DNS查询,只有访问集群内部短域名(如kubernetes)时,才不存在无效的DNS查询。 − ClusterFirstWithHostNet:对于配置主机网络的应用,默认配置kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS)。当dnsPolicy设置为“ClusterFirstWithHostNet”时,应用对接KubeDNS/CoreDNS。该配置下,容器的域名解析文件与“ClusterFirst”一致,也存在无效的DNS查询。 − Default:容器的域名解析文件使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS),没有配置search搜索域列表和options。该配置只能解析注册到互联网上的外部域名,无法解析集群内部域名,且不存在无效的DNS查询。 − None:Kubernetes v1.9(Beta in v1.10)中引入的新选项值。设置为None之后,必须设置dnsConfig,此时容器的域名解析文件将完全通过dnsConfig的配置来生成。 dnsConfig 字段说明: dnsConfig为应用设置DNS参数,设置的参数将合并到基于dnsPolicy策略生成的域名解析文件中。当dnsPolicy为“None”,应用的域名解析文件完全由dnsConfig指定;当dnsPolicy不为“None”时,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 − nameservers:DNS的IP地址列表。当应用的dnsPolicy设置为“None”时,列表必须至少包含一个IP地址,否则此属性是可选的。列出的DNS的IP列表将合并到基于dnsPolicy生成的域名解析文件的nameserver字段中,并删除重复的地址。 − searches:域名查询时的DNS搜索域列表,此属性是可选的。指定后,提供的搜索域列表将合并到基于dnsPolicy生成的域名解析文件的search字段中,并删除重复的域名。Kubernetes最多允许6个搜索域。 − options:DNS的配置选项,其中每个对象可以具有name属性(必需)和value属性(可选)。该字段中的内容将合并到基于dnsPolicy生成的域名解析文件的options字段中,dnsConfig的options的某些选项如果与基于dnsPolicy生成的域名解析文件的选项冲突,则会被dnsConfig所覆盖。 工作负载的DNS配置实践 前面介绍了Linux系统域名解析文件以及Kubernetes为应用提供的DNS相关配置项,下面将举例介绍应用如何进行DNS配置。 场景1 对接kubernetes 内置的KubeDNS/CoreDNS 场景说明: 这种方式适用于应用中的域名解析只涉及集群内部域名,或者集群内部域名+外部域名两种方式,应用默认采用这种配置。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: ClusterFirst 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景2 直接对接DNS 场景说明: 这种方式适用于应用只访问注册到互联网的外部域名,该场景不能解析集群内部域名。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: Default //使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS) 该配置下容器的域名解析文件将如下所示: nameserver 10.125.x.x 场景3 主机网络模式的应用对接KubeDNS/CoreDNS 场景说明: 对于配置主机网络模式的应用,默认对接DNS,如果应用需要对接KubeDNS/CoreDNS,需将dnsPolicy设置为“ClusterFirstWithHostNet”。 示例: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: template: metadata: labels: app: nginx spec: hostNetwork: true dnsPolicy: ClusterFirstWithHostNet containers: name: nginx image: nginx:1.7.9 ports: containerPort: 80 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景4 自定义应用的域名配置 场景说明: 用户可以完全自定义配置应用的域名解析文件,这种方式非常灵活,dnsPolicy和dnsConfig配合使用,几乎能够满足所有使用场景,如对接用户自建DNS的场景、串联多个DNS的场景以及优化DNS配置选项的场景等等。 示例1 :对接用户自建DNS 该配置下,dnsPolicy为“None”,应用的域名解析文件完全根据dnsConfig配置生成。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "None" dnsConfig: nameservers: 10.2.3.4 //用户自建DNS 的IP 地址 searches: ns1.svc.cluster.local my.dns.search.suffix options: name: ndots value: "2" name: timeout value: "3" 该配置下容器的域名解析文件将如下所示: nameserver 10.2.3.4 search ns1.svc.cluster.local my.dns.search.suffix options timeout:3 ndots:2 示例2 :修改域名解析文件的ndots 选项,减少无效的DNS 查询 该配置下,dnsPolicy不为“None”,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "ClusterFirst" dnsConfig: options: name: ndots value: "2" //该配置会将基于ClusterFirst 策略生成的域名解析文件的ndots:5 参数改写为ndots:2 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:2
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        Kubernetes集群内置DNS配置说明
      • 1
      • 2
      • ...
      • 142
      • 143
      • 144
      • 145
      • 146
      • 147
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      应用托管

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      如何修改发票抬头

      产品规格

      PostgreSQL

      复制备份

      篡改告警分析

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号