活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容审核_相关内容
      • 购买类
        本小节介绍N100购买类常见问题。 哪些资源池可以支持开通N100? N100支持的资源池请以管理控制台为准。 开通流程:在选择资源池节点后,您可以登录天翼云官网,按照N100的开通流程进行操作。 影响面:开通N100可能会对您的网络拓扑结构产生一定的影响。在执行开通操作之前,建议您仔细规划,并在可能的情况下在非业务高峰期进行操作,以减少对正常业务的影响。 注意 在开通N100时,请仔细阅读相关的注意事项和配置要求。确保您的网络环境和业务需求符合产品的要求,以便最大程度地发挥防火墙的作用。 如何选择需要购买的产品规格和功能? 需要用户自行评估业务情况,可通过以下内容进行参考: 规格选择:计算通过N100安全产品的弹性IP总带宽值,不高于N100安全产品各规格限制值。 功能选择:有安全防护需求需开通扩展功能,如病毒过滤、URL过滤及C&C防护。 N100到期后是否可自行续订? 是的,您可以自行发起N100的续订申请,确保您的业务在产品到期后不受到中断。以下是相关的详细信息和操作指南: 续订申请发起:为了确保您的N100服务不中断,建议您在产品到期前至少提前3个工作日主动发起续订申请。续订申请可以通过我们的在线平台或与客户经理联系来完成。 申请时间:提前提交续订申请是至关重要的,这样我们的团队有足够的时间来处理您的请求,确保续订在产品到期之前得以完成。这有助于避免因产品过期而导致的业务中断。 在线平台操作:如果您选择通过在线平台进行续订申请,请登录您的云账户,点击N100产品的续订选项,并按照系统提示完成续订流程。确保在续订过程中提供准确的信息,以避免不必要的延误。 注意事项:在续订申请过程中,请仔细阅读相关条款和条件,确保您了解续订期间可能涉及的费用、服务升级选项等细节。如果有任何疑问,可以咨询客户经理或技术支持团队。 业务影响:请注意,如果未在到期前完成续订申请,可能会导致N100服务中断,影响业务转发。为了避免不必要的风险,请务必按时发起续订申请并遵循相应的操作流程。
        来自:
        帮助文档
        云防火墙(原生版)
        常见问题
        N100常见问题
        购买类
      • 通过客户端连接方式
        "password"。例如自定义账号为testaccount,密码为testPasswd,密码需填写为testaccount testPasswd。 说明: ● 如果通过第三方数据库管理工具连接Redis实例,请在密码框中输入user password进行连接。 ● 如果忘记密码,您可以重置密码。具体操作,请参见重置缓存实例密码。 常见客户端示例 关于Redis支持的客户端列表请参见Redis官方文档,以下为部分客户端的连接实例。 Java 可通过Jedis客户端连接Redis,Jedis是一个Java编程语言用于与Redis服务器进行交互的开源客户端库,允许Java应用程序通过网络与Redis服务器进行通信,并执行各种操作,如数据读写、事务处理、订阅发布等。它提供了简单易用的API,使得与Redis服务器的交互变得非常方便。使用Jedis连接Redis步骤如下: 1. 下载并安装Jedis客户端。 2. 根据业务需求选择连接方式。 打开Eclipse客户端,创建一个Project并配置pom文件,具体内容如下: redis.clients jedis Latest version jar compile 根据Jedis客户端版本,在Project中输入下述代码,然后根据注释提示修改代码 JedisPoolConfig config new JedisPoolConfig(); // 允许的最大空闲连接数,不可超过Redis实例的最大连接数。 config.setMaxIdle(200); // 允许的最大连接数,不可不超过Redis实例的最大连接数。 config.setMaxTotal(300); config.setTestOnBorrow(false); config.setTestOnReturn(false); // 分别将ip和password的值替换为实例的连接地址、密码。 String ip "redisip"; String password "password"; JedisPool pool new JedisPool(config, ip, redisport, 3000, password); Jedis jedis null; try { jedis pool.getResource(); // 执行相关操作,示例如下。 // Store & Retrieve a simple string jedis.set("foo", "bar"); System.out.println(jedis.get("foo")); // prints bar // Store & Retrieve a HashMap Map hash new HashMap<>();; hash.put("name", "John"); hash.put("surname", "Smith"); hash.put("company", "Redis"); hash.put("age", "29"); jedis.hset("usersession:123", hash); System.out.println(jedis.hgetAll("usersession:123")); // Prints: {nameJohn, surnameSmith, companyRedis, age29} }catch (Exception e) { // 超时或其他异常处理。 e.printStackTrace(); }finally { if (jedis ! null) { jedis.close(); } } pool.destroy(); // 当应用退出,需销毁资源时,调用此方法。此方法会断开连接、释放资源。 运行上述代码,在Eclipse的控制台输出如下运行结果,则表示您已成功连接至分布式缓存Redis数据库。 bar {nameJohn, surnameSmith, companyRedis, age29}
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        连接实例
        通过客户端连接方式
      • 创建向量索引
        类型 参数 说明 Index settings参数 vector 当需要使用向量索引加速时,需要设置该值为true。 Field mappings参数 type 字段类型,“vector”表示该字段为向量字段。 Field mappings参数 dimension 向量数据维度。 取值范围:[1, 4096] Field mappings参数 indexing 是否开启向量索引加速。 可选值: l false:表示关闭向量索引加速,向量数据仅写入docvalues,只支持使用ScriptScore以及Rescore进行向量查询。 l true:表示开启向量索引加速,系统将创建额外的向量索引,索引算法由"algorithm"字段指定,写入数据后可以使用VectorQuery进行查询。 默认值:false。 Field mappings参数 algorithm 索引算法。仅当“indexing”为“true”时生效。 可选值: l FLAT:暴力计算,目标向量依次和所有向量进行距离计算,此方法计算量大,召回率100%。适用于对召回准确率要求极高的场景。 l GRAPH:图索引,内嵌深度优化的HNSW算法,主要应用在对性能和精度均有较高要求且单shard中文档数量在千万个以内的场景。 l GRAPHPQ:将HNSW算法与PQ算法进行了结合,通过PQ降低原始向量的存储开销,能够使HNSW轻松支撑上亿规模的检索场景。 l IVFGRAPH:算法将IVF与HNSW结合,对全量空间进行划分,每一个聚类中心向量代表了一个子空间,极大地提升检索效率,同时会带来微小的检索精度损失。适用于数据量在上亿以上同时对检索性能要求较高的场景。 l IVFGRAPHPQ:PQ算法与IVFHNSW的结合,PQ可以通过配置选择与HNSW结合和IVF结合,进一步提升系统的容量并降低系统开销,适用于shard中文档数量在十亿级别以上同时对检索性能要求较高的场景。 默认值:GRAPH。 说明 当选择IVFGRAPH或者IVFGRAPHPQ索引时,需要额外进行预构建中心点索引以及注册等步骤,具体内容请参考 Field mappings参数 见下表“可选参数说明” 当使用向量索引加速时(即“indexing”为“true”时),为了获得更高的查询性能以及查询精度,ES提供了与向量索引相关的可选参数配置。 Field mappings参数 metric 计算向量之间距离的度量方式。 可选值: l euclidean:欧式距离。 l innerproduct:内积距离。 l cosine:余弦距离。 l hamming:汉明距离。 默认值:euclidean
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        创建向量索引
      • 高可用
        。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源同步”“资源同步管理”,进入资源同步管理页面。 5. 点击左侧菜单栏“主机高可用”,点击“高可用”,进入高可用页面。 6. 点击“新建”按钮,进入新建高可用规则页面。 7. 基本设置页面的配置项如下: 参数 配置说明 规则名称 用户自定义的高可用规则名称,便于管理,支持中文和英文字符,区分和识别当前任务的名称。 自动切换 若勾选自动切换时;当高可用规则满足切换条件时,原从节点会变为主节点,原主节点变为从节点; 若不勾选自动切换时,当高可用规则满足切换条件时,规则状态会提示警告,用户需要手动执行切换。 重启接管 此配置仅在高可用规则的主、从节点中仅有单节点存活并发生重启时生效;不开启重启接管(也不开启自动切换)时,单节点重启后,角色为游离,不加载相关资源,需要人工手动“强制切换”后变为主节点,并加载相关资源;开启重启接管时,单节点重启后,如果是原主节点重启,则重启后继续成为主节点;如果是原从节点重启,则重启后可能是主节点或者游离(不勾选“进入复制状态才允许切换”时,角色变为主节点;勾选“进入复制状态才允许切换”时,角色变为游离状态)。 注意:此配置与“自动切换”互斥。 节点设置 两个节点之间不允许是同一个主机,可添加两个节点加入主机高可用规则,当定义优先级相同的时候,在规则启动后设置为初始主节点的主机将扮演主节点提供应用服务;否则优先级赋值更高的主机会成为初始主节点。 仲裁设置 不设置:用户可以根据自己的环境选择使用仲裁设置,默认为不使用; 节点仲裁:设置仲裁IP地址,这个仲裁IP所在的主机需要安装drnode节点软件并且高可用进程正常运行。在心跳线全部失效的情况下,平台根据仲裁机制来判断谁能接管资源,防止发生脑裂。通讯方式默认为TCP,通讯端口默认为26306。支持多节点仲裁机制,最多可添加12个仲裁节点 磁盘仲裁:要求主节点和从节点上的drnode程序以应用方式运行,并挂载同一个网络驱动器并填写具有读写权限的用户名和密码,并勾选“登录时重新连接”,映射后的盘符要相同。这个映射磁盘称为“仲裁磁盘”。 心跳线 主机高可用节点间的通讯模块,负责主机高可用节点间的信息通讯,心跳的检测,出现故障时备端将自动切换。主机高可用节点非网卡IP地址可手动输入(现版本使用的通讯类型都为TCP,选择其他类型暂不可用)。 8. 配置完“基本设置”后,单击“下一步”,进行“数据同步”的配置。 9. 数据同步页面的配置项如下: 参数 配置说明 路径映射 用户选择主节点的文件系统目录和从节点的文件系统目录实现数据同步,后续可以在复制规则列表页面查询。 创建时启动复制规则 若启用,提交规则后自动启动主节点到从节点的复制规则。 若不启用,提交规则后用户需手动启动主节点到从节点的复制规则。默认不启用。 进入复制状态才允许切换 默认为启用。应用切换的前提是两端数据的同步,如果当前状态下的主节点数据文件尚未完全同步到从节点,那么在这个时间点如果进行应用切换让从节点接管服务,会导致两端的数据不一致。不论是前一页配置“自动切换”是否勾选,仅当所配置的数据复制规则处于复制状态,主机高可用切换才会运行执行。但极端情况下,比如生产中心遭受自然灾害整体被摧毁,而且同时假设刚好有生产数据因为网络因素尚未完成到异地的同步,那么这种小概率事件发生的情况下,生产数据无法从生产中心恢复,用户就需要在页面上单击“强制切换”操作,触发异地的应用服务执行接管。页面会弹出警告信息要求用户再次确认后才会执行切换。 反向规则 若勾选,提交规则后会自动创建由从节点到主节点的复制规则,若不勾选,则不会创建。默认不勾选。 自动启动复制规则 若勾选时,规则发生切换后,会自动启动相应的复制规则; 若不勾选,规则发生切换后,用户需手动启动相应的复制规则。 10. 单击“确定”完成数据同步的配置,单击“下一步”,进行监控对象的配置。 11. 监控对象页面的配置项如下: 参数 配置说明 类型 服务监控:指定Windows系统的服务名称作为监控对象。服务运行时监控正常,服务停止时监控失败。 进程监控:指定系统的进程名称作为监控对象,进程存在时监控正常,进程不存在时监控失败。 内存监控:指定系统的内存使用率作为监控对象,低于阈值时监控正常,高于阈值时监控失败。 CPU监控:根据“CPU使用百分比”参数来作为应用切换的触发条件。 自定义脚本监控:有些场景下,用户要求第三方保护软件监控自定义脚本和“监控结果输出文件”,来作为应用切换的依据。 磁盘监控:根据“指定盘符的磁盘空间使用百分比”来作为应用切换的触发条件。 检测间隔(秒) 选择任何一种监控类型,用户都需要配置检测间隔,默认为2秒;用户根据业务系统RPO要求和环境因素进行调整。 最大失败次数 默认为5次,监控请求但未成功获取对象的运行状态的次数,累积达到5次,drnode程序判定被监控节点对象(服务、进程、内存、CPU、自定义脚本、磁盘)失败。 失败后仅记日志 勾选时,如果监控的对象出现异常,drnode程序只会在日志中产生警告信息,但不进行切换;默认不勾选。 监控角色 用户可以选择监控的角色,分为:主节点、从节点、主从节点,共三个选项:当监控的角色满足监控条件后,高可用规则默认会变为告警状态,如果规则开启了自动切换,则会执行角色切换动作。 服务名称 用户自行填写需要保护的应用对应的服务名。 12. 配置完“监控对象”后,单击“下一步”,进行“资源切换”的配置。 13. 资源切换页面的配置项如下: 参数 配置说明 类型 脚本切换资源:高可用规则发生切换的过程中执行,从节点变为主节点时执行获取资源执行脚本,主节点变为从节点时执行释放资源执行脚本。 卷组切换:高可用规则主节点和从节点需要事先配置连接iSCSI目标且发现共享磁盘,根据高可用规则角色,当前主节点会挂载指定的共享磁盘,变为从节点时会卸载指定的共享磁盘。 14. 完成上述配置后,点击“确定”按钮,完成高可用规则创建。 上述内容详情可参见多活容灾服务用户帮助手册主机高可用。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        主机高可用
        高可用
      • 热点问题
        对象存储是否支持数据监控? 支持,提供用户整体和桶维度的数据监控。 用户维度的监控指标:用户级存储容量、用户级对象总数、本月公网流出流量、本月请求次数、用户级公网流出流量、用户级公网流入流量、用户级内网流出流量、用户级内网流入流量、用户级公网请求次数、用户级内网请求次数、用户级有效请求率。 存储桶维度的监控指标:存储容量、存储对象数量、本月公网流出流量、本月请求次数、公网流出流量、公网流入流量、内网流出流量、内网流入流量、公网请求次数、内网请求次数、有效请求率。 通过这些数据监控指标,您可以了解和监控您的存储桶使用情况、流量消耗情况以及请求操作的次数,帮助您更好地管理和优化存储在ZOS中数据。具体相关操作可参考对象存储监控。 ZOS是否支持静态网站托管?设置的入口在哪里?如何操作? 支持。但是由于工信部合规要求,暂不公开开放。若您需要使用该功能,请提工单联系我们为您开通权限。 使用ZOS静态网站托管的步骤如下: 1. 存储网站文件:首先,将静态网站的文件上传至ZOS服务。您可以通过Web管理界面、API或命令行工具完成。文件类型包括HTML页面、CSS样式表、JavaScript代码和其他资源文件。 2. 创建存储桶:在ZOS服务中创建一个存储桶(Bucket)。存储桶是用于组织和管理文件的容器。通常,每个网站都有一个唯一的存储桶。 3. 设置权限和访问策略:为确保网站文件能够通过互联网公开访问,需要设置存储桶的访问权限和策略。通常,ZOS服务提供了公共读取权限选项,以便访客能够从浏览器中下载文件。 4. 分配自定义域名:为了方便用户访问网站,可以将一个自定义域名与存储桶关联起来。这可以通过将域名解析到ZOS服务的地址来实现。例如,可以将网站的CNAME记录指向存储桶的URL。 5. 配置静态网站托管选项:ZOS服务通常提供了专门的静态网站托管选项。在这些设置中,可以指定默认文档(如index.html)和错误页面,并定义重定向规则等。 6. 网站访问:完成上述步骤后,用户可以通过输入自定义域名来访问静态网站。访问请求会发送到存储桶,并由ZOS服务解析。然后,服务会返回相应的文件作为网页内容,以供浏览器展示。
        来自:
        帮助文档
        对象存储 ZOS
        常见问题
        热点问题
      • 管理微服务引擎专享版安全认证
        本节主要介绍管理微服务引擎专享版安全认证 同一个微服务引擎可能会有多个用户共同使用,而不同的用户根据其责任和权限,需要具备不同的微服务引擎访问和操作权限。开启了“安全认证”的微服务引擎专享版,根据用户接入引擎使用的帐号所关联的角色,赋予该用户不同的微服务引擎访问和操作权限。 安全认证具体内容,请参考系统管理。 您可根据实际业务需要,对微服务引擎专享版执行开启或关闭安全认证操作: 开启安全认证 未开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可开启安全认证。 开启安全认证后,接入该引擎的微服务组件如果没有配置安全认证参数,或者微服务组件配置的安全认证帐号和密码不正确,会导致该微服务组件心跳失败,服务被迫下线。 关闭安全认证 已开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可关闭安全认证。 关闭安全认证后,无论接入该引擎的微服务组件是否配置了安全认证参数,微服务组件的正常业务功能不受影响。 开启安全认证 1、登录ServiceStage控制台,选择“微服务引擎 CSE”。 2、选择待操作的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 3、在“安全”区域,开启安全认证开关。 如果引擎版本低于1.2.0,执行步骤4。 如果引擎版本为1.2.0及以上版本,执行步骤5。 4、升级引擎至1.2.0或以上版本。 单击“升级引擎至新版本”。 选择“升级后版本”,查看版本说明,根据需要决定是否升级到该版本后,单击“确定”。 等待升级成功后,单击“返回微服务引擎”。 选择刚升级成功的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 在“安全”区域,开启安全认证开关。 5、在微服务引擎控制台的“系统管理”页面,开启安全认证。 首次开启安全认证,单击“去开启安全认证”。 需先创建root帐号。输入root帐号的“密码”和“确认密码”,单击“立即创建”。 再次开启安全认证,单击“开启安全认证”。 输入引擎中已关联了admin角色的帐号名称及其密码。 6、(可选)参考角色管理,根据业务需要,创建角色。 7、(可选)参考账号管理,根据业务需要,创建帐号。 8、在微服务引擎控制台的“系统管理”页面,单击“开启安全认证”。 9、根据提示确认已经完成所有配置后,勾选“确保已配置”。 10、单击“确定”。 等待微服务引擎更新完成,引擎状态由“配置中”变为“可用”,开启安全认证成功。
        来自:
        帮助文档
        微服务引擎
        用户指南
        ServiceComb引擎
        管理微服务引擎
        管理微服务引擎专享版安全认证
      • 设计预案阶段
        本文为您介绍设计预案阶段的具体操作。 使用条件 若预案阶段设计需要脚本任务,需要预先在脚本库中新建脚本并发布。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段中任务的编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表中的“预案阶段设计”按钮。 1. 若当前预案阶段状态为草稿,直接进入预案阶段设计页面。 2. 若当前预案阶段状态为已启用,且未被预案关联,直接进入预案阶段设计页面。 3. 若当前预案阶段状态为已启用,且存在被草稿/已启用/已停用状态关联的预案,弹出预案阶段设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案阶段设计页面。不同状态的预案与预案阶段的关联情况如下: 1. 若当前预案阶段已被草稿状态的预案关联,对预案阶段重新设计后,对应预案将自动关联最新的预案阶段。 2. 若当前预案阶段已被启用状态的预案关联,对预案阶段重新设计后,对应预案状态将更新为“待重新启用”,需重新启用预案。 3. 若当前预案阶段已被停用状态的预案关联,对预案阶段重新设计后,对应预案状态不改变,启用预案时自动关联最新预案。 7. 在预案阶段设计页面,用户可拖拽普通任务、条件任务、开始节点和结束节点至画布中,同时可点击任务节点进行任务配置。 流程绘制说明如下: 1. 普通任务:通过关联自定义脚本或平台内置能力对单个资源执行预期操作。 2. 条件任务:在普通任务基础上支持根据条件任务的执行结果(正常/异常)分别配置后续工作,配置条件任务在配置自身任务信息外,需对后面的箭线配置执行条件,条件任务后只能有2条箭线。 3. 任务并行编排通过任务间的箭线决定,一条箭线两端的任务为串行执行顺序,一个任务后有多条普通箭线(非条件判断箭线)代表此任务执行完成后需并行执行其后的任务。 8. 用户拖拽普通任务至画布后,点击“普通任务”,弹出编辑任务弹窗,可对普通任务进行任务编辑。任务类型分为脚本任务、人工任务、内置任务。 1. 当任务类型为脚本任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为脚本任务。任务类型可选脚本任务、人工任务、内置任务。 脚本名称 √ 选择脚本名称,下拉数据源为脚本库中“已发布”状态脚本的脚本名称。 目标资源 √ 选择容灾管理中心,下拉数据源为当前命名空间下所有运行的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源。其中: 若所选脚本的资源类型为“主机”:下拉数据源为对应操作系统类型的开启了远程连接的非天翼云主机。 若所选脚本的资源类型为“数据库”:下拉数据源为对应数据库类型的配置连接信息的数据库实例。 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为自定义时,由用户自定义设置参数值。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 失败重试次数 √ 填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 2. 当任务类型为人工任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 目标资源 × 选择容灾管理中心,下拉数据源为当前命名空间下容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下资源类型的资源实例。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 描述 × 填写预案阶段描述。 长度为0100个字符。 3. 当任务类型为内置任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 任务目的 √ 选择任务目的,可选资源操作、流程控制。 操作名称 √ 选择操作名称。 任务目的为资源操作时:可选云主机关机、云主机重启、云主机开机、MySQL/Redis/PostgreSQL/MongoDB主备切换、ELB流量切换、ELB流量调节、ELB流量回切。 任务目的为流程控制时:可选等待。 等待时长 √ 仅任务目的为流程控制时可见,填写等待时长时间(单位:s)。 取值范围为17200s。 目标资源 √ 选择容灾管理中心: 1. 任务为非流量配置相关的任务时:可选当前命名空间下所有运行中的容灾管理中心。 2. 任务为流量配置相关的任务时:可选当前命名空间下配置了ELB的运行中的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源: 1. 主机相关任务:资源所选容灾管理中心下的云上云主机 2. 数据库相关任务:资源为所选容灾管理中心下的云上数据库 3. 流量相关任务:资源为所选容灾管理中心下接入成功的且流量配比进行过初始配置的应用 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 任务目的为资源操作时:填写预计耗时时间(单位:s)。 任务目的为流程控制时:与等待时长一致,不可编辑。 失败重试次数 √ 仅任务目的为资源操作时可见,填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 9. 编辑任务完毕后,点击弹窗底部“确定”按钮。若存在参数引用的相关配置,用户确认知晓提示内容后,点击“已确认”。 10. 条件任务按上方基础任务配置后,需对后面的箭线配置执行条件。点击箭线后,弹出条件配置弹窗。条件判定可选择正常或异常,选择完毕后,点击“确认”按钮,完成条件配置,配置结果显示在箭线上。 11. 整体预案阶段设计完毕后,检查是否符合预案阶段设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个普通任务或条件任务节点,且所有任务节点均不能为空; 4. 所有节点必须通过箭线连接; 5. 条件任务节点后必须跟2条箭线,且箭线上需配置判定条件,同时两条箭线的判定条件不能相同; 6. 两个节点间只能有1条箭线(不区分箭头方向); 7. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 12. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案阶段设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        设计预案阶段
      • 步骤1:创建初始表并加装样例数据
        本章节主要介绍创建初始表并加装样例数据的最佳实践。 创建一组不设置存储方式,无分布键、分布方式和压缩方式的表。然后,为这些表加载样例数据。 1.(可选)创建集群。 如果已经有可供使用的集群,则可跳过这一步。创建集群的操作,请按中的步骤操作。同时请使用SQL客户端连接到集群并测试连接。 本实践所使用的是8节点集群。也可以使用4节点集群进行测试。 2.使用最少的属性创建SS(StoreSales)测试表。 说明 如果SS表在当前数据库中已存在,需要先删除这些表。删除表使用DROP TABLE命令。如下示例表示删除表storesales。 DROP TABLE storesales; 考虑到本实践的目的,首次创建表时,没有设置存储方式、分布键、分布方式和压缩方式。 执行CREATE TABLE命令创建上图"TPCDS Store Sales ERDiagram"中的11张表。限于篇幅,这里仅附storesales的创建语法。请从附录初始表创建中拷贝所有建表语法进行创建。 CREATE TABLE storesales ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) ; 3.为这些表加载样例数据。 OBS存储桶中提供了本次实践的样例数据。该存储桶向所有经过身份验证的云用户提供了读取权限。请按照下面的步骤加载这些样例数据: a.为每个表创建对应的外表。 DWS应用Postgres提供的外部数据封装器FDW(Foreign Data Wrapper)进行数据并行导入。因此需要先创建FDW表,又称外表。限于篇幅,此处仅给出“storesales”表对应的外表“obsfromstoresales001”的创建语法。请从附录外表创建拷贝其他外表的语法进行创建。 说明 l 注意,以下语句中的代表OBS桶名,仅支持部分区域。DWS集群不支持跨区域访问OBS桶数据。 l 外表字段需与即将注入数据的普通表字段保持一致。例如此处storesales表及其对应的外表obsfromstoresales001,他们的字段是一致的。 l 这些外表语法能够帮助您获取OBS存储桶中为本次实践所提供的样例数据。如果您需要加载其他样例数据,需进行SERVER gsmppserver OPTIONS的调整。 CREATE FOREIGN TABLE obsfromstoresales001 ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) Configure OBS server information and data format details. SERVER gsmppserver OPTIONS ( LOCATION '/tpcds/storesales', FORMAT 'text', DELIMITER '', ENCODING 'utf8', NOESCAPING 'true', ACCESSKEY 'accesskeyvaluetobereplaced', SECRETACCESSKEY 'secretaccesskeyvaluetobereplaced', REJECTLIMIT 'unlimited', CHUNKSIZE '64' ) If create foreign table failed,record error message WITH errobsfromstoresales001; b.将创建外表语句中的参数ACCESSKEY和SECRETACCESSKEY替换为实际值,然后在客户端工具中执行替换后的语句创建外表。 ACCESSKEY和SECRETACCESSKEY的值,请参见“常见问题通用问题”中的“如何获取Access Key ID(AK)和 Secret Access Key(SK)”。 c.执行数据导入。 创建包含如下语句的insert.sql脚本文件,并执行.sql脚本文件。 timing on parallel on 4 INSERT INTO storesales SELECT FROM obsfromstoresales001; INSERT INTO datedim SELECT FROM obsfromdatedim001; INSERT INTO store SELECT FROM obsfromstore001; INSERT INTO item SELECT FROM obsfromitem001; INSERT INTO timedim SELECT FROM obsfromtimedim001; INSERT INTO promotion SELECT FROM obsfrompromotion001; INSERT INTO customerdemographics SELECT from obsfromcustomerdemographics001 ; INSERT INTO customeraddress SELECT FROM obsfromcustomeraddress001 ; INSERT INTO householddemographics SELECT FROM obsfromhouseholddemographics001; INSERT INTO customer SELECT FROM obsfromcustomer001; INSERT INTO incomeband SELECT FROM obsfromincomeband001; parallel off 结果应该类似如下: SET Timing is on. SET Time: 2.831 ms Parallel is on with scale 4. Parallel is off. INSERT 0 402 Time: 1820.909 ms INSERT 0 73049 Time: 2715.275 ms INSERT 0 86400 Time: 2377.056 ms INSERT 0 1000 Time: 4037.155 ms INSERT 0 204000 Time: 7124.190 ms INSERT 0 7200 Time: 2227.776 ms INSERT 0 1920800 Time: 8672.647 ms INSERT 0 20 Time: 2273.501 ms INSERT 0 1000000 Time: 11430.991 ms INSERT 0 1981703 Time: 20270.750 ms INSERT 0 287997024 Time: 341395.680 ms total time: 341584 ms d.计算所有11张表的总执行时间。该数字将作为加载时间记录在下一小节步骤步骤1中的基准表内。 e.执行以下命令,验证每个表是否都已正确加载并将行数记录到表中。 SELECT COUNT() FROM storesales; SELECT COUNT() FROM datedim; SELECT COUNT() FROM store; SELECT COUNT() FROM item; SELECT COUNT() FROM timedim; SELECT COUNT() FROM promotion; SELECT COUNT() FROM customerdemographics; SELECT COUNT() FROM customeraddress; SELECT COUNT() FROM householddemographics; SELECT COUNT() FROM customer; SELECT COUNT() FROM incomeband; 以下显示每个SS表的行数: 表名称 行数 StoreSales 287997024 DateDim 73049 Store 402 Item 204000 TimeDim 86400 Promotion 1000 CustomerDemographics 1920800 CustomerAddress 1000000 HouseholdDemographics 7200 Customer 1981703 IncomeBand 20 4.执行ANALYZE更新统计信息。 ANALYZE; 返回ANALYZE后,表示执行成功。 ANALYZE ANALYZE语句可收集数据库中与表内容相关的统计信息,统计结果存储在系统表PGSTATISTIC中。查询优化器会使用这些统计数据,以生成最有效的执行计划。 建议在执行了大批量插入/删除操作后,例行对表或全库执行ANALYZE语句更新统计信息。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        步骤1:创建初始表并加装样例数据
      • 创建Flink Jar作业
        名称 描述 所属队列 默认选择“共享队列”,可以按需选择自定义的队列。 应用程序 用户自定义的程序包。在选择程序包之前需要将对应的Jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,具体操作请参考 主类 指定加载的Jar包类名,如KafkaMessageStreaming。 默认:根据Jar包文件的Manifest文件指定。 指定:必须输入“类名”并确定类参数列表(参数间用空格分隔)。 说明 当类属于某个包时,主类路径需要包含完整包路径,例如:packagePath.KafkaMessageStreaming 参数 指定类的参数列表,参数之间使用空格分隔。 Flink参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量windowsize,Flink Jar作业就可以添加参数windowsSize {{windowsize}}。 依赖jar包 用户自定义的依赖程序包。依赖的相关程序包将会被放置到集群classpath下。 在选择程序包之前需要将对应的Jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,包类型选择“jar”。具体操作请参考 其他依赖文件 用户自定义的依赖文件。其他依赖文件需要自行在代码中引用。 在选择依赖文件之前需要将对应的文件上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,包类型没有限制。具体操作请参考 ClassName.class.getClassLoader().getResource("userData/fileName") Flink版本 选择Flink版本前,需要先选择所属的队列。 优化参数 用户自定义的优化参数。参数格式为keyvalue。 Flink优化参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量phase,Flink Jar作业就可以添加优化参数table.optimizer.aggphase.strategy{{phase}}。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 管理微服务引擎专享版安全认证
        同一个微服务引擎可能会有多个用户共同使用,而不同的用户根据其责任和权限,需要具备不同的微服务引擎访问和操作权限。开启了“安全认证”的微服务引擎专享版,根据用户接入引擎使用的帐号所关联的角色,赋予该用户不同的微服务引擎访问和操作权限。 安全认证具体内容,请参考系统管理。 您可根据实际业务需要,对微服务引擎专享版执行开启或关闭安全认证操作: 开启安全认证 未开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可开启安全认证。 开启安全认证后,接入该引擎的微服务组件如果没有配置安全认证参数,或者微服务组件配置的安全认证帐号和密码不正确,会导致该微服务组件心跳失败,服务被迫下线。 关闭安全认证 已开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可关闭安全认证。 关闭安全认证后,无论接入该引擎的微服务组件是否配置了安全认证参数,微服务组件的正常业务功能不受影响。 开启安全认证 步骤 1 登录ServiceStage控制台,选择“微服务引擎 CSE”。 步骤 2 选择待操作的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 步骤 3 在“安全”区域,开启安全认证开关。 如果引擎版本低于1.2.0,执行步骤4。 如果引擎版本为1.2.0及以上版本,执行步骤5。 步骤 4 升级引擎至1.2.0或以上版本。 1. 单击“升级引擎至新版本”。 2. 选择“升级后版本”,查看版本说明,根据需要决定是否升级到该版本后,单击“确定”。 3. 等待升级成功后,单击“返回微服务引擎”。 4. 选择刚升级成功的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 5. 在“安全”区域,开启安全认证开关。 步骤5 在微服务引擎控制台的“系统管理”页面,开启安全认证。 首次开启安全认证,单击“去开启安全认证”。 需先创建root帐号。输入root帐号的“密码”和“确认密码”,单击“立即创建”。 再次开启安全认证,单击“开启安全认证”。 输入引擎中已关联了admin角色的帐号名称及其密码。 步骤 6 (可选)参考角色管理,根据业务需要,创建角色。 步骤 7 (可选)参考帐号管理,根据业务需要,创建帐号。 步骤 8 在微服务引擎控制台的“系统管理”页面,单击“开启安全认证”。 步骤 9 根据提示确认已经完成所有配置后,勾选“确保已配置”。 步骤 10 单击“确定”。 等待微服务引擎更新完成,引擎状态由“配置中”变为“可用”,开启安全认证成功。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务引擎 CSE
        微服务引擎(CSE)管理
        管理微服务引擎专享版安全认证
      • 用户
        后续操作 修改用户数据:选择需要修改的用户数据,单击“操作”列中“编辑”,按照需求进行用户数据的修改,单击“提交”完成用户数据更新。 修改用户密码:管理员可以修改对应账户的密码,选择需要修改的用户密码,单击“操作”列的“更多 > 改密”,在弹出的对话框中根据密码规则修改密码。 说明 您可以根据自身需求自定义密码规则,具体修改密码规则请参考安全设置章节。 批量导入用户 云堡垒机(原生版)支持批量导入用户信息。 1.使用“管理角色”账号登录云堡垒机。 2.在左侧导航栏选择“用户管理 > 用户”,进入“用户”模块。 3.单击“导入”按钮,弹出“账号导入”对话框。 4.单击“下载导入文件模板”,在线下文件模板中填写内容。 参数 参数说明 登录名 (必填)填写该账户的使用者的姓名(非登录账号)。 姓名 (必填)填写该账户的用户名称(登录账号)。 只能为数字、大小写字母、“.”和“”组成,首位只能数字或者字母,且不超过25个字符; 手机号 (必填)填写手机号,请确保手机号真实有效,否则会影响短信的接收。 邮箱 填写邮箱地址,请确保邮箱地址真实有效,否则会影响告警信息的接收。 密码 (必填)输入该账户的密码,密码请根据管理员设置的密码规则填写,具体可参见:安全设置章节。 角色 (必填)选择该账户所属的角色,可填写“管理角色”、“审计角色”和“访问角色”,需要选择多个角色请使用英文“,”分隔。 用户组 填写该账户所属的用户组,用户组操作请参见:用户组章节。若填写多个用户组请使用英文“,”分隔。 认证方式 (必填)选择认证方式,可选“静态认证”,“令牌认证”和“短信认证”,多个认证方式请使用英文“,”分隔。 授权生效日期 填写该用户生效的日期,日期格式支持:YYYYMMDD或YYYY/MM/DD。 授权失效日期 填写该用户失效的日期,日期格式支持:YYYYMMDD或YYYY/MM/DD。 授权生效日期 填写生效日期的具体时间点,填写范围:023,例如需要早上10点生效,就填写:10。 授权失效日期 填写失效日期的具体时间点,填写范围:023,例如需要晚上10点失效,就填写:22。 准入IP 选择可登录的IP地址。 说明 若不填写生失效日期,则新建的账号默认永久生效。 4.填写完成后,上传模板文件后选择重复用户导入策略。 注意 导入后,用户登录名不可修改。 5.完成后单击“提交”即可完成用户导入。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        用户管理
        用户
      • 自定义插件管理
        本文介绍天翼云云搜索Elasticsearch实例自定义插件的安装方式。 当您需要使用自定义插件或系统默认插件中不包含的开源插件时,可通过云搜索服务的自定义插件上传与安装功能,在实例中上传并安装对应插件。本文介绍具体的操作方法。 前提条件 1. 准备待上传的插件,并确保插件的可用性和安全性。 2. 建议在上传插件前,先在本地自建Elasticsearch实例(与实例相同版本)上进行测试,成功后再进行上传。 3. 开通与云搜索实例同地域的对象存储服务,并上传好需要安装的插件至对象存储的桶中。 使用限制 1. 不支持安装与默认插件一样的插件,包括默认插件的其他版本。 2. 不支持同时安装/卸载两个以上的插件。 3. 云搜索服务不保留用户插件的安装文件,请您自行备份。 4. 插件文件后缀需要为.zip。 5. 不支持上传安装带权限属性的插件。 6. 目前云搜索已关闭该功能,仅版本号<1.5.0的实例可以使用。 注意 安装自定义插件操作会触发实例重启插件本身可能影响实例的稳定性,请务必保证自定义插件的可用性和安全性,建议在业务低峰期进行操作。 操作步骤 1. 登录云搜索服务控制台,进入实例管理列表页,选择需要设置的实例点击名称进入详情页。 2. 在实例详情页选择“插件管理”—“自定义插件”,单击上传插件按钮。 3. 在弹出的页面上填写: 1. 插件名称,仅支持字母、数字和字符,请和插件包名称保持一致。插件名称查询路径:插件包内properties文件中找到pluginName。 2. 插件版本:插件目前的版本,格式为数字和点组合,如:7.10或2.19.1.0等,非必填。 3. 插件描述:用于帮助用户识别插件功能,非必填。 4. 插件地址:填写天翼云对象存储同地域资源池下的地址,获取路径为:对象存储控制台——点击对应桶名称进入详情——点击文件管理,找到对应的插件,点击右侧更多——复制URL。 注意 需要开启对应文件的可读权限。 填写完毕后点击安装并重启,插件会先在实例安装,安装完毕后实例将自动进行重启。期间请勿对实例进行其他操作。 4. 当实例重启完成,插件状态变成“已安装”则表示插件已经安装完毕。若插件处于“未安装”状态,则说明安装失败,您可根据提示调整填写内容再次重试或通过工单联系我们协助处理。您也可以删除该插件信息。 5. 已经安装完毕的插件,如果您不再使用,可单击插件右侧的卸载,卸载此插件。卸载插件如需再次安装,请参照前述步骤执行。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        插件管理
        自定义插件管理
      • 购买类
        本小节介绍云下一代防火墙购买类常见问题。 哪些资源池可以支持开通云下一代防火墙? 云下一代防火墙已适配天翼云各个云资源池节点,天翼云官网任一节点均可以开通云下一代防火墙,一类节点和二类节点均可以开通。 开通流程: 在选择资源池节点后,您可以登录天翼云官网,按照云下一代防火墙的开通流程进行操作。 影响面: 开通云下一代防火墙可能会对您的网络拓扑结构产生一定的影响。在执行开通操作之前,建议您仔细规划,并在可能的情况下在非业务高峰期进行操作,以减少对正常业务的影响。 注意 在开通云下一代防火墙时,请仔细阅读相关的注意事项和配置要求。确保您的网络环境和业务需求符合产品的要求,以便最大程度地发挥防火墙的作用。 如何选择需要购买的产品规格和功能? 需要用户自行评估业务情况,可通过以下内容进行参考: 规格选择:计算通过云下一代防火墙安全产品的弹性IP总带宽值,不高于云下一代防火墙安全产品各规格限制值。 功能选择:有安全防护需求需开通扩展功能,如病毒过滤、URL过滤及C&C防护。 云下一代防火墙安全产品是否支持试用,如何下单? 支持。需联系区域的客户经理,由客户经理代下单完成试用订购。试用订购最长期限为3个月,且每个天翼云账号只拥有一次试用订购机会。 云下一代防火墙安全产品支持试用服务,为了确保您能够充分体验产品的功能和性能。以下是相关的详细信息: 联系客户经理: 如果您有兴趣试用云下一代防火墙安全产品,请直接联系您所在区域的客户经理。客户经理将为您提供试用申请的相关流程和详细信息。 试用期限: 试用期最长为3个月,这段时间足够您深入了解产品的特性,并确认其是否符合您的业务需求。 试用订购限制: 每个天翼云账号只有一次试用订购机会。请确保在提交试用申请之前充分评估您的实际需求,以便最大程度地利用试用期。 下单流程: 试用订购需要通过客户经理进行,他们将协助您完成试用订购的下单流程。在联系客户经理时,请提供您的详细信息和组织需求,以便更好地为您提供支持。 注意事项: 在试用期间,建议您积极参与产品培训和文档阅读,以便更好地理解产品的各项功能和配置。这将有助于您更好地评估产品对您业务的实际帮助。 技术支持: 在试用期内,您可以享受我们的技术支持服务。如有任何技术或操作方面的问题,请随时联系我们的技术支持团队。
        来自:
        帮助文档
        云下一代防火墙
        常见问题
        购买类
      • 自定义插件管理
        本文介绍天翼云云搜索OpenSearch实例自定义插件的安装方式。 当您需要使用自定义插件或系统默认插件中不包含的开源插件时,可通过云搜索服务的自定义插件上传与安装功能,在实例中上传并安装对应插件。 前提条件 1. 准备待上传的插件,并确保插件的可用性和安全性。 2. 建议在上传插件前,先在本地自建OpenSearch集群(与实例相同版本)上进行测试,成功后再进行上传。 3. 开通与云搜索实例同地域的对象存储服务,并上传好需要安装的插件至对象存储的桶中。 使用限制 1. 不支持安装与默认插件一样的插件,包括默认插件的其他版本。 2. 不支持同时安装/卸载两个以上的插件。 3. 云搜索服务不保留用户插件的安装文件,请您自行备份。 4. 插件文件后缀需要为.zip。 5. 不支持上传安装带权限属性的插件。 6. 目前云搜索已关闭该功能,仅版本号 “自定义插件”,单击上传插件按钮。 3. 在弹出的页面上填写: 1. 插件名称:仅支持字母、数字和字符,请和插件包名称保持一致。插件名称查询路径:插件包内properties文件中找到pluginName。 2. 插件地址:填写天翼云对象存储同地域资源池下的地址,获取路径为:对象存储控制台——点击对应桶名称进入详情——点击文件管理,找到对应的插件,点击右侧更多——复制URL。 3. 插件版本:插件目前的版本,格式为数字和点组合,如:7.10或2.19.1.0,非必填。 4. 插件描述:用于帮助用户识别插件功能,非必填。 注意 需要开启对应文件的可读权限。 4. 填写完毕后点击安装并重启,插件会先在实例安装,安装完毕后实例将自动进行重启。期间请勿对实例进行其他操作。 5. 当实例重启完成,插件状态变成“已安装”则表示插件已经安装完毕。若插件处于“未安装”状态,则说明安装失败,您可根据提示调填写内容再次重试或通过工单联系我们协助处理。您也可以删除该插件信息。 6. 已经安装完毕的插件,如果您不再使用,可单击插件右侧的卸载,卸载此插件。卸载插件如需再次安装,请参照前述步骤执行。
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        插件管理
        自定义插件管理
      • 将Oracle同步到PostgreSQL
        前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见 实时同步。 操作步骤 本小节以Oracle到RDS for PostgreSQL的实时同步为示例,介绍如何使用数据复制服务配置实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表 任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“Oracle”。 目标数据库引擎 选择“PostgreSQL”。 网络类型 此处以“公网网络”为示例。目前支持可选“公网网络”、“VPC网络”和“VPN、专线网络”。 目标数据库实例 创建好的RDS for PostgreSQL实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。 标签 表标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。说明对于RAC集群,建议使用SCAN IP接入,提高访问性能。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库服务名 数据库服务名(Service Name/SID),客户端可以通过其连接到Oracle,具体查询方法请参照界面提示。 PDB名称 PDB同步仅在Oracle12c及以后的版本支持,该功能为选填项,当需要迁移PDB中的表时开启。PDB功能开启后,只能迁移该PDB中的表,并且需要提供CDB的service name/sid及用户名和密码,不需要PDB的用户名和密码。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 表目标库信息 参数 描述 数据库实例名称 默认为创建任务时选择的RDS for PostgreSQL实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。支持在任务创建后修改密码。 步骤 4 在“设置同步”页面,选择同步对象类型和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象类型 可选同步表结构、同步数据、同步索引,根据实际需求进行选择要同步内容。 l 同步数据为必选项。 l 选则同步表结构的时候目标库不能有同名的表。 l 不选同步表结构的时候目标库必须有相应的表,且要保证表结构与所选表结构相同。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步,您可以根据业务场景选择对应的数据进行同步。选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 l 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 步骤 5 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 6 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 7 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见 任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到PostgreSQL
      • 大模型学习机文本生成最佳实践
        本文向您介绍如何进行Llama2模型文本生成任务。 前提条件 大模型学习机预装了Llama 27bchat模型与stablediffuisonbasev2.1模型,以及配套的开源服务框架textgenerationwebui与stablediffuisonwebui,使您不需单独进行下载模型与配置环境。 云主机开通与如何登录网页页面参见部署文档。 以下将向您介绍如何进行Llama 2模型文本生成任务: 注意 框架默认角色名称为"You", 但主流大模型默认角色名称一般为"User", 可能会导致模型效果显著变差。 修改角色名称的方式有: 1. 在网页Parameters > Chat > User标签下修改Name字段为"User",此方法刷新页面后就会失效。 2. 修改配置文件/root/textgenerationwebui/modules/shared.py中的'name1': 'User', 并重启llama服务, 此方法永久生效。 1. 大语言模型加载 说明 以下内容基于开源框架textgenerationwebui。 1.1 基础模型加载 大语言模型体积较大,需要占用较多的内存/显存资源,因此在刚启动服务时并未进行加载,需要手动选择模型进行加载。 在页面上切换到Model标签页,左侧下拉菜单展开后会显示所有存放于云主机/root/textgenerationwebui/models目录下的模型。学习机初始预装了Llama27bchat模型(huggingface格式),您也可随时下载其他大模型并放入models目录下进行加载。 默认Model loader:Transformers能够支持huggingface的主流大模型,在自行加载其他模型时您需要确认模型格式是否匹配。 右下角将出现模型加载样式,直至加载成功。耗时可能较长,期间不要退出页面。 注意 在加载预装的Llama27b模型时,如果您使用的是GPU学习机,模型将默认以fp16半精度进行加载,消耗13.1G显存;如果您使用的是CPU学习机,模型将以fp32单精度进行加载,消耗26G内存。 因此,如果您的机型是内存为32G或显存为16G的型号,则会因为资源不足导致无法直接加载Llama27b模型。 解决办法: (1) 参考 27b模型前先将图像生成服务关停。 (2) GPU学习机能够支持对模型进行量化,降低模型精度的同时缩减模型大小。您可以在Model页下方找到loadin8bit的开关并进行勾选,此时Llama27b模型将消耗7G内存,可以和图像生成服务中的StableDiffusion模型共存。且8bit精度对大语言模型的生成来说影响不会特别大。 注意 由于huggingface.io网站访问受限,Model标签页的Download按钮无法直接下载模型。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        大模型学习机文本生成最佳实践
      • 规则说明
        针对弹性云主机退订操作,为您进行说明,请在退订前务必阅读以下内容。 退订规则说明 客户(天翼云用户)可根据需要,在符合天翼云退订规则的前提下,灵活退订资源。目前退订包含七天无理由全额退订,非七天无理由退订,不可退订,以及其他退订。 七天无理由全额退订,用户使用新购资源(含该笔新购资源订单的续订资源)七天内(含第七天),可随时通过系统完成全额退订。 发起退订操作的账号(“退订账号”)七天无理由全额退订次数不超过3次(每账号享有3次七天无理由全额退订次数); 同一用户累计使用的七天无理由全额退订次数不超过15次。其中,同一用户是指:根据不同天翼云账号在注册、登录、使用中的关联信息,关联信息相同天翼云判断其实际为同一用户。关联信息举例:同一名称、同一邮箱、同一负责人证件、同一手机号、同一设备、同一IP地址等(包括已注销的账号)。 客户同意天翼云使用上述信息核查同一用户情况 ; 七天无理由退订标准(含退订次数)将根据业务发展适时调整,具体结果以退订时官网展示和系统显示为准; 促销活动中说明“不支持七天无理由退订”的云服务,无法申请七天无理由退订; 当同时退订多个资源时,且超过3次免费退订次数,系统按照单资源实付金额从高到低依次退订,免费次数优先覆盖高价值资源。 尽管有上述规则,客户不得利用退订规则频繁订购并退订服务,恶意占用天翼云及其他用户资源。如天翼云有合理理由怀疑客户存在频繁退订恶意占用天翼云及其他用户资源的,则天翼云有权取消该客户七天无理由全额退订的权利,并根据《中国电信天翼云用户协议》及网站相关规则和相关服务协议约定,采取相应措施直至终止服务,并追究客户的违约责任。 非七天无理由退订,指使用时长已超过七天以上的用户新购资源(含续订资源),属于非七天无理由退订。非七天无理由退订,不限制退订次数,但退订需要收取相应的使用费用和退订手续费,且不退还代金券及优惠券,但符合下文“其他退订”情形的除外。 不可退订,指天翼云部分资源因技术属性、营销政策、活动优惠、特定使用群体、商务协议等各类原因,此类资源暂不支持退订。不支持退订的场景范围如下: 按需套餐包产品; 含硬件类产品和人工服务类产品; 未完工的订单; 云服务参加特殊赠送活动,明确不可退订的(如促销套餐、促销优惠券、促销优惠券礼包、优惠券计划、抽奖活动、推荐送活动等)具体以特殊赠送活动规则为准; 明确不允许退订的产品或服务。 其他退订。指因天翼云原因导致的,如创建资源失败或系统BUG,产品迭代等情况导致的用户退订。其他退订不限制退订次数,无需用户承担退订费用。
        来自:
        帮助文档
        弹性云主机 ECS
        购买指南
        退费说明
        规则说明
      • 创建节点池
        操作场景 本章介绍了如何添加运行CCE集群的节点池以及对节点池执行操作。要了解节点池的工作原理,请参阅节点池概述。 操作步骤 将节点池添加到现有集群。 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 单击右上角的“创建节点池”。 步骤 3 在创建节点池页面中,参照如下说明设置节点池选型参数。 计费模式: 节点池仅支持“按需计费”的计费模式,该模式将根据实际使用的资源按小时计费。 节点池创建后,自建的节点池里的资源无法转包周期,默认节点池里的资源可以转包周期。您可以把自建节点池里的资源迁移到默认的节点池里后再进行转包周期的操作。如何迁移请参见迁移节点。 当前区域:指节点实例所在的物理位置。 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度;不同区域的云服务产品之间内网互不相通。 节点池名称:新建节点池的名称,默认按“集群名nodepool随机数”生成名称,可自定义。 节点类型:目前仅支持虚拟机节点。 节点购买数量:该节点池下购买的节点数量,此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示选择,如需更多配额,请单击提交工单申请扩大配额。 弹性扩缩容: − 默认不开启。 − 单击 开启后,节点池将根据集群负载情况自动创建或删除节点池内的节点,参数设置如下: 节点数上限和节点数下限:您可设置节点数的上限和下限,保证节点数在合理的范围内伸缩。 优先级:请根据业务需要设置相应数值,该数值表示节点池之间进行弹性扩缩容的优先级,数值越大优先级越高,如设置为4的节点池比设置为1的节点池优先启动弹性伸缩。若多个节点池的值设置相同,如都设置为2,表示这几个节点池之间不分优先级,系统将按最小资源浪费原则进行伸缩。 弹性缩容冷却时间:请设置时间,单位为分钟或小时。弹性缩容冷却时间是指当前节点池扩容出的节点多长时间不能被缩容。 说明: 节点池中的节点建议不要放置重要数据,以防止节点被弹性缩容,数据无法恢复。 为保证功能的正常使用,节点池开启弹性扩缩容功能后,请务必安装autoscaler。 可用区:可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 请根据业务需要进行选择。节点池创建之后不支持修改可用区属性,请谨慎选择。 如果您需要提高工作负载的高可靠性,建议您选择“随机可用区”,将节点随机均匀分布在不同可用区中。 节点规格:请根据业务需求选择相应的节点规格。 须知: 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件,详细请参见节点预留资源计算公式 。 操作系统:请直接选择节点对应的操作系统。 须知:重装操作系统或修改操作系统配置将导致节点不可用,请务必谨慎操作。 虚拟私有云:跟随集群,不可变更。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 请确保子网下的DNS服务器可以解析对象存储服务域名,否则无法创建节点。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32768GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与系统盘一致,此处不再赘述,详情参见系统盘中的云硬盘类型介绍。 须知: 若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建,创建密钥对操作步骤请参见。 步骤 4 云服务器高级设置:(可选),单击 展开后可对节点进行如下高级功能配置: 安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 步骤 5 Kubernetes高级设置:(可选),单击 展开后可对集群进行如下高级功能配置: 最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 Taints:默认为空。支持给该节点池扩容出来的节点加Taints来设置反亲和性,每个节点池最多配置10条Taints,每条Taints包含以下3个参数: −Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 −Value:必须以字符或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 −Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。 须知: Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 节点池创建后可单击列表项的“编辑”修改配置,修改后将同步到节点池下的已有节点。 K8S标签:K8S标签是附加到Kubernetes 对象(比如Pods)上的键值对,旨在用于指定对用户有意义且相关的对象的标识属性,但不直接对核心系统有语义含义。 详细请参见Labels and Selectors。 单容器可用数据空间:该参数用于设置一个容器可用的数据空间大小,设置范围为10G到80G。如果设置的参数超过数据盘中Docker可占用的实际数据空间(由数据盘设置项中的资源分配自定义参数指定,默认为数据盘大小的90%),将以Docker的实际空间大小为主。该参数仅在v1.13.10r0及以上版本的集群中显示。 步骤 6 (可选)您可以单击左侧的 按钮添加多个节点池,在按钮下方可以查看您可用的节点池配额数量。 步骤 7 完成配置后,单击“下一步:配置确认”,确认所设置的服务选型参数、规格和费用等信息。 步骤 8 确认规格和费用后,单击“提交”,节点池开始创建。 节点池创建预计需要610分钟,您可以单击“返回节点池管理”进行其他操作或单击“查看节点池事件列表”后查看节点池详情。待节点池状态为“正常”,表示节点池创建成功。 查看创建的节点池 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 在节点池管理页面中,单击右上角的集群选择框,选择集群后可显示当前集群下所有的节点池,并可查看每个节点池的节点类型、节点规格、弹性扩缩容状态和操作系统等。 须知: 节点池功能上线后,会在每个集群中创建一个默认节点池“DefaultPool”,该节点池不能被编辑、删除或迁移,集群中原有的节点及节点池外创建的节点均会显示在默认节点池“DefaultPool”中。 单击默认节点池“DefaultPool”中“节点”数据框,可查看DefaultPool中的节点列表。 步骤 3 单击右上角的Autoscaler状态选择框,可筛选全部、已启用、未启用Autoscaler功能的节点池。 步骤 4 在节点池列表中,单击节点池的名称,在节点池详情页面,可查看节点池的基本信息、ECS高级设置、Kubernetes高级设置、节点列表等信息。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点池管理
        创建节点池
      • 将Oracle同步到MySQL
        前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见实时同步。 已阅读以上使用建议和使用须知。 操作步骤 本小节以Oracle到RDS for MySQL的实时同步为示例,介绍如何使用数据复制服务配置实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“Oracle”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以“公网网络”为示例。目前支持可选公网网络、VPC网络和VPN、专线网络。 目标数据库实例 创建好的RDS for MySQL实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。 标签 表 标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。说明对于RAC集群,建议使用SCAN IP接入,提高访问性能。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库服务名 数据库服务名(Service Name/SID),客户端可以通过其连接到Oracle,具体查询方法请参照界面提示。 PDB名称 PDB同步仅在Oracle12c及以后的版本支持,该功能为选填项,当需要迁移PDB中的表时开启。PDB功能开启后,只能迁移该PDB中的表,并且需要提供CDB的service name/sid及用户名和密码,不需要PDB的用户名和密码。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 如启用SSL安全连接,请在源库开启SSL,并确保相关配置正确后上传SSL证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的RDS for MySQL实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。支持在任务创建后修改密码。 SSL安全连接 如启用SSL安全连接,请在目标库开启SSL,并确保相关配置正确后上传SSL证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 步骤 4 在“设置同步”页面,选择同步对象类型和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象类型 可选同步表结构、同步数据、同步索引,根据实际需求进行选择要同步内容。 l 同步数据为必选项。 l 选则同步表结构的时候目标库不能有同名的表。 l 不选同步表结构的时候目标库必须有相应的表,且要保证表结构与所选表结构相同。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步、库级同步或导入对象文件,您可以根据业务场景选择对应的数据进行同步。选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 l 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 步骤 5 在“数据加工”页,可对同步数据进行过滤,完成后单击“下一步”,详细可参考” 数据加工“。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到MySQL
      • 从本地存储迁移数据
        从Spark导入详细示例 要通过Spark将本地存储的数据导入到云数据库ClickHouse,您可以按照以下步骤进行操作: 1. 准备工作: 确保您已经安装了Spark,并配置好了与云数据库ClickHouse的连接。 确保您已经在本地存储中准备好了要导入的数据文件。 2. 导入所需的依赖: 在Spark应用程序中添加所需的依赖项以支持与云数据库ClickHouse的连接。您需要使用ClickHouse JDBC驱动程序和Spark的相关依赖。例如,在Maven项目中,您可以添加以下依赖项: xml ru.yandex.clickhouse clickhousejdbc 0.4.1 根据您使用的构建工具和版本,请相应地配置依赖项。 3. 编写Spark应用程序: 创建一个Spark应用程序,通过Spark读取本地存储的数据文件,并将数据导入到云数据库ClickHouse中。下面是一个示例代码: scala import org.apache.spark.sql.{SparkSession, SaveMode} object ClickHouseDataImporter { def main(args: Array[String]): Unit { // 创建SparkSession val spark SparkSession.builder() .appName("ClickHouse Data Importer") .getOrCreate() // 读取本地存储的数据文件 val data spark.read.format("csv") .option("header", "true") // 如果数据文件包含头部,则设置为true .option("inferSchema", "true") // 自动推断列的数据类型 .load("/path/to/data/file.csv") // 替换为实际数据文件的路径 // 将数据保存到ClickHouse数据库中 data.write .mode(SaveMode.Append) // 指定保存模式,可以根据需求更改 .format("jdbc") .option("url", "jdbc:clickhouse://yourclickhousehost:port/database") // 替换为实际的云数据库ClickHouse连接URL和目标数据库 .option("dbtable", "yourtable") // 替换为目标表的名称 .option("user", "yourusername") // 替换为云数据库ClickHouse的用户名 .option("password", "yourpassword") // 替换为云数据库ClickHouse的密码 .save() } } 在上述代码中,您需要替换以下内容: "/path/to/data/file.csv":实际的本地数据文件路径。 "jdbc:clickhouse://yourclickhousehost:port/database":实际的云数据库ClickHouse连接URL和目标数据库信息。 "yourtable":目标表的名称。 "yourusername":云数据库ClickHouse的用户名。 "yourpassword":云数据库ClickHouse的密码。 4. 运行Spark应用程序: 将您的Spark应用程序打包,并将其提交到Spark集群或本地运行。根据您的环境和需求,选择适当的方式来运行Spark应用程序。 例如,如果您使用的是Sparksubmit命令行工具,可以执行以下命令来提交应用程序: sparksubmit class ClickHouseDataImporter master local[] path/to/your/app.jar 这将启动Spark应用程序并开始将本地存储的数据导入到云数据库ClickHouse中。 说明 上述示例代码仅提供了一个基本的框架,您可能需要根据实际需求进行调整和优化。另外,还可以使用Spark的分布式计算能力和数据处理功能来进行更复杂的数据转换和导入操作。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从本地存储迁移数据
      • 管理微服务引擎专享版安全认证
        同一个微服务引擎可能会有多个用户共同使用,而不同的用户根据其责任和权限,需要具备不同的微服务引擎访问和操作权限。开启了“安全认证”的微服务引擎专享版,根据用户接入引擎使用的帐号所关联的角色,赋予该用户不同的微服务引擎访问和操作权限。 安全认证具体内容,请参考系统管理。 您可根据实际业务需要,对微服务引擎专享版执行开启或关闭安全认证操作: 开启安全认证 未开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可开启安全认证。 开启安全认证后,接入该引擎的微服务组件如果没有配置安全认证参数,或者微服务组件配置的安全认证帐号和密码不正确,会导致该微服务组件心跳失败,服务被迫下线。请参考如下方法进行处理: − Java Chassis:请参考“帮助中心 > 微服务云应用平台 > 开发指南 > 对接微服务应用 > Java Chassis接入CSE”中的配置安全认证操作。 − Spring Cloud:请参考“帮助中心 > 微服务云应用平台 > 开发指南 > 微服务开发指南 > 对接微服务应用 > Spring Cloud接入CSE”中的配置安全认证操作。 关闭安全认证 已开启安全认证且状态可用的微服务引擎专享版,根据实际业务需要,可关闭安全认证。 关闭安全认证后,无论接入该引擎的微服务组件是否配置了安全认证参数,微服务组件的正常业务功能不受影响。 开启安全认证 步骤 1 登录ServiceStage控制台,选择“微服务引擎 CSE”。 步骤 2 选择待操作的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 步骤 3 在“安全”区域,开启安全认证开关。 如果引擎版本低于1.2.0,执行步骤4。 如果引擎版本为1.2.0及以上版本,执行步骤5。 步骤 4 升级引擎至1.2.0或以上版本。 1. 单击“升级引擎至新版本”。 2. 选择“升级后版本”,查看版本说明,根据需要决定是否升级到该版本后,单击“确定”。 3. 等待升级成功后,单击“返回微服务引擎”。 4. 选择刚升级成功的微服务引擎,单击引擎名称,进入引擎“基本信息”页面。 5. 在“安全”区域,开启安全认证开关。 步骤 5 在微服务引擎控制台的“系统管理”页面,开启安全认证。 首次开启安全认证,单击“去开启安全认证”。 需先创建root帐号。输入root帐号的“密码”和“确认密码”,单击“立即创建”。 再次开启安全认证,单击“开启安全认证”。 输入引擎中已关联了admin角色的帐号名称及其密码。 步骤 5 (可选)参考角色管理,根据业务需要,创建角色。 步骤 6 (可选)参考帐号管理,根据业务需要,创建帐号。 步骤 7 在微服务引擎控制台的“系统管理”页面,单击“开启安全认证”。 步骤 8 根据提示确认已经完成所有配置后,勾选“确保已配置”。 步骤 9 单击“确定”。 等待微服务引擎更新完成,引擎状态由“配置中”变为“可用”,开启安全认证成功。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务引擎 CSE
        配置微服务
        管理微服务引擎专享版安全认证
      • OpenSora推理生成视频
        本节介绍智算集群部署OpenSora推理生成视频任务。 前提条件 已开通包含GPU/NPU的Kubernetes集群。 已安装智算套件。 集群节点需要访问公网(需通过公网下载模型)。 背景信息 本文演示如何使用OpenSora【GPU】和OpenSoraPlan【NPU】推理任务生成视频。 操作步骤 进入云容器引擎控制台。 点击左侧【集群】进入集群列表。 点击使用的集群名称,进入集群。 创建configmap 文本中填入视频prompt描述(描述内容来自OpenSora官网)。 xml apiVersion: v1 kind: ConfigMap metadata: name: t2vsamplesconfigmap namespace: default data: t2vsamples.txt: A soaring drone footage captures the majestic beauty of a coastal cliff, its red and yellow stratified rock faces rich in color and against the vibrant turquoise of the sea. Seabirds can be seen taking flight around the cliff's precipices. As the drone slowly moves from different angles, the changing sunlight casts shifting shadows that highlight the rugged textures of the cliff and the surrounding calm sea. The water gently laps at the rock base and the greenery that clings to the top of the cliff, and the scene gives a sense of peaceful isolation at the fringes of the ocean. The video captures the essence of pristine natural beauty untouched by human structures. The video captures the majestic beauty of a waterfall cascading down a cliff into a serene lake. The waterfall, with its powerful flow, is the central focus of the video. The surrounding landscape is lush and green, with trees and foliage adding to the natural beauty of the scene. The camera angle provides a bird's eye view of the waterfall, allowing viewers to appreciate the full height and grandeur of the waterfall. The video is a stunning representation of nature's power and beauty. A vibrant scene of a snowy mountain landscape. The sky is filled with a multitude of colorful hot air balloons, each floating at different heights, creating a dynamic and lively atmosphere. The balloons are scattered across the sky, some closer to the viewer, others further away, adding depth to the scene. Below, the mountainous terrain is blanketed in a thick layer of snow, with a few patches of bare earth visible here and there. The snowcovered mountains provide a stark contrast to the colorful balloons, enhancing the visual appeal of the scene. In the foreground, a few cars can be seen driving along a winding road that cuts through the mountains. The cars are small compared to the vastness of the landscape, emphasizing the grandeur of the surroundings. The overall style of the video is a mix of adventure and tranquility, with the hot air balloons adding a touch of whimsy to the otherwise serene mountain landscape. The video is likely shot during the day, as the lighting is bright and even, casting soft shadows on the snowcovered mountains. The vibrant beauty of a sunflower field. The sunflowers, with their bright yellow petals and dark brown centers, are in full bloom, creating a stunning contrast against the green leaves and stems. The sunflowers are arranged in neat rows, creating a sense of order and symmetry. The sun is shining brightly, casting a warm glow on the flowers and highlighting their intricate details. The video is shot from a low angle, looking up at the sunflowers, which adds a sense of grandeur and awe to the scene. The sunflowers are the main focus of the video, with no other objects or people present. The video is a celebration of nature's beauty and the simple joy of a sunny day in the countryside. A serene underwater scene featuring a sea turtle swimming through a coral reef. The turtle, with its greenishbrown shell, is the main focus of the video, swimming gracefully towards the right side of the frame. The coral reef, teeming with life, is visible in the background, providing a vibrant and colorful backdrop to the turtle's journey. Several small fish, darting around the turtle, add a sense of movement and dynamism to the scene. The video is shot from a slightly elevated angle, providing a comprehensive view of the turtle's surroundings. The overall style of the video is calm and peaceful, capturing the beauty and tranquility of the underwater world. A vibrant underwater scene. A group of blue fish, with yellow fins, are swimming around a coral reef. The coral reef is a mix of brown and green, providing a natural habitat for the fish. The water is a deep blue, indicating a depth of around 30 feet. The fish are swimming in a circular pattern around the coral reef, indicating a sense of motion and activity. The overall scene is a beautiful representation of marine life. A bustling city street at night, filled with the glow of car headlights and the ambient light of streetlights. The scene is a blur of motion, with cars speeding by and pedestrians navigating the crosswalks. The cityscape is a mix of towering buildings and illuminated signs, creating a vibrant and dynamic atmosphere. The perspective of the video is from a high angle, providing a bird's eye view of the street and its surroundings. The overall style of the video is dynamic and energetic, capturing the essence of urban life at night. A snowy forest landscape with a dirt road running through it. The road is flanked by trees covered in snow, and the ground is also covered in snow. The sun is shining, creating a bright and serene atmosphere. The road appears to be empty, and there are no people or animals visible in the video. The style of the video is a natural landscape shot, with a focus on the beauty of the snowy forest and the peacefulness of the road. The dynamic movement of tall, wispy grasses swaying in the wind. The sky above is filled with clouds, creating a dramatic backdrop. The sunlight pierces through the clouds, casting a warm glow on the scene. The grasses are a mix of green and brown, indicating a change in seasons. The overall style of the video is naturalistic, capturing the beauty of the landscape in a realistic manner. The focus is on the grasses and their movement, with the sky serving as a secondary element. The video does not contain any human or animal elements. A serene night scene in a forested area. The first frame shows a tranquil lake reflecting the starfilled sky above. The second frame reveals a beautiful sunset, casting a warm glow over the landscape. The third frame showcases the night sky, filled with stars and a vibrant Milky Way galaxy. The video is a timelapse, capturing the transition from day to night, with the lake and forest serving as a constant backdrop. The style of the video is naturalistic, emphasizing the beauty of the night sky and the peacefulness of the forest. 创建pvc(用来存储模型生成的视频) xml apiVersion: v1 kind: PersistentVolumeClaim metadata: name: videovolume namespace: default labels: app: videovolume spec: storageClassName: "cstorcsihpfsperfsc" accessModes: ReadWriteMany resources: requests: storage: 512Gi 点击左侧【工作负载】>【自定义资源】,选择资源浏览器,找到kubeflow.org/v1/PyTorchJob ,选择命名空间,点击新增。 在创建yaml中,填入以下信息后点击【创建】。 注意 1.GPU和昇腾NPU申请资源类型不一样,请使用对应的模板; 2.修改对应的镜像仓库地址前缀为对应资源池,可在容器镜像控制台查看,如武汉41,则修改{imagerepo}为registryvpccrswuhan41.ctyun.cn; 3. namespace: 要和界面选择的一致。 GPU模板 xml apiVersion: "kubeflow.org/v1" kind: PyTorchJob metadata: name: pytorchopensora01 namespace: default spec: pytorchReplicaSpecs: Master: replicas: 1 restartPolicy: OnFailure template: spec: containers: name: pytorch image: {imagerepo}/icce/opensora:multi imagePullPolicy: IfNotPresent command: ["/bin/bash", "c"] args: ["torchrun standalone nprocpernode 1 scripts/inference.py configs/opensora/inference/16x512x512.py ckptpath OpenSorav1HQ16x512x512.pth promptpath /workspace/assets/texts/t2vsamples.txt savedir /outputs/samples"] resources: limits: nvidia.com/gpu: 1 volumeMounts: name: t2vsample mountPath: "/workspace/assets/texts" readOnly: true name: videooutput mountPath: /outputs/samples volumes: name: t2vsample configMap: name: t2vsamplesconfigmap name: videooutput persistentVolumeClaim: claimName: videovolume NPU模板 xml apiVersion: "kubeflow.org/v1" kind: PyTorchJob metadata: name: pytorchopensoranpu01 namespace: default spec: pytorchReplicaSpecs: Master: replicas: 1 restartPolicy: OnFailure template: spec: containers: name: pytorch image: {imagerepo}/icce/opensora:multi imagePullPolicy: IfNotPresent command: ["/bin/bash", "c"] args: ["source /usr/local/Ascend/ascendtoolkit/setenv.sh && bash scripts/textcondition/npu/samplet2vv13.sh "] resources: limits: huawei.com/Ascend910: 1 volumeMounts: name: ascenddriver mountPath: /usr/local/Ascend/driver name: t2vsample mountPath: "/workspace/assets/texts" readOnly: true name: videooutput mountPath: /outputs/samples volumes: name: ascenddriver hostPath: path: /usr/local/Ascend/driver name: t2vsample configMap: name: t2vsamplesconfigmap name: videooutput persistentVolumeClaim: claimName: videovolume 查看运行状态:点击左侧【工作负载】>【容器组】,找到任务名为前缀的容器,点击名称,查看日志/监控等信息是否符合预期。 查看生成视频:可自行创建pod,挂载上述的pvc,导出/查看生成视频。 查看根据prompt生成的视频效果。
        来自:
        帮助文档
        云容器引擎 智算版
        最佳实践
        OpenSora推理生成视频
      • Kubernetes集群内置DNS配置说明
        工作负载的DNS配置介绍 Kubernetes集群内置DNS插件KubeDNS/CoreDNS,为集群内的工作负载提供域名解析服务。业务在高并发调用场景下,如果使用到域名解析服务,可能会触及到KubeDNS/CoreDNS的性能瓶颈,导致DNS请求概率失败,影响用户业务正常运行。在Kubernetes使用的过程中,在有些场景下工作负载的域名解析存在冗余的DNS查询,使得高并发场景更容易触及DNS的性能瓶颈。根据业务使用场景,对工作负载的DNS配置进行优化,能够在一定程度上减少DNS请求概率失败的问题。 更多DNS相关信息请参见CoreDNS(系统资源插件,必装)或通过kubectl配置kubedns/CoreDNS高可用。 Linux 系统域名解析文件配置项的介绍 在Linux系统的节点或者容器里执行cat /etc/resolv.conf命令,能够查看到DNS配置,以Kubernetes集群的容器DNS配置为例: nameserver 10.247.x.x search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 配置项说明: nameserver:容器解析域名时查询的DNS服务器的IP地址列表。如果设置为10.247.x.x说明DNS对接到KubeDNS/CoreDNS,如果是其他IP地址,则表示采用DNS或者用户自建的DNS。 search:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。对于CCE集群来说,容器的搜索域列表配置3个域,当解析一个不存在的域名时,会产生8次DNS查询,因为对于每个域名需要查询两次,分别是IPv4和IPv6。 options:定义域名解析配置文件的其他选项,常见的有timeout、attempts和ndots等等。Kubernetes集群容器的域名解析文件设置为options ndots:5,该参数的含义是当域名的“.”个数小于ndots的值,会先把域名与search搜索域列表进行组合后进行DNS查询,如果均没有被正确解析,再以域名本身去进行DNS查询。当域名的“.”个数大于或者等于ndots的值,会先对域名本身进行DNS查询,如果没有被正确解析,再把域名与search搜索域列表依次进行组合后进行DNS查询。如查询www.ctyun.cn域名时,由于该域名的“.”个数为2,小于ndots的值,所以DNS查询请求的顺序依次为:www.ctyun.cn.default.svc.cluster.local、www.ctyun.cn.svc.cluster.local、 www.ctyun.cn.cluster.local和www.ctyun.cn,需要发起至少7次DNS查询请求才能解析出该域名的IP。可以看出,这种配置在访问外部域名时,存在大量冗余的DNS查询,存在优化点。 说明:完整的Linux域名解析文件配置项说明可以参考文档: Kubernetes 集群应用的DNS 相关配置项介绍 前面已经分析过,应用在某些场景下会出现冗余的DNS查询。Kubernetes为应用提供了与DNS相关的配置选项,通过对应用进行DNS配置,能够在某些场景下有效地减少冗余的DNS查询,提升业务并发量。目前应用配置中与DNS相关的字段有dnsPolicy 和dnsConfig。 dnsPolicy 字段说明: dnsPolicy字段是应用设置的DNS策略,默认值为“ClusterFirst”。基于dnsPolicy策略生成的域名解析文件会与dnsConfig设置的DNS参数进行合并,合并规则将在“dnsConfig字段说明”中说明,dnsPolicy当前支持四种参数值: − ClusterFirst:应用对接KubeDNS/CoreDNS(CCE集群的KubeDNS/CoreDNS默认级联DNS)。这种场景下,容器既能够解析service注册的集群内部域名,也能够解析发布到互联网上的外部域名。由于该配置下,域名解析文件设置了search搜索域列表和ndots: 5,因此当访问外部域名和集群内部长域名(如kubernetes.default.svc.cluster.local)时,大部分域名都会优先遍历search搜索域列表,导致至少有6次无效的DNS查询,只有访问集群内部短域名(如kubernetes)时,才不存在无效的DNS查询。 − ClusterFirstWithHostNet:对于配置主机网络的应用,默认配置kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS)。当dnsPolicy设置为“ClusterFirstWithHostNet”时,应用对接KubeDNS/CoreDNS。该配置下,容器的域名解析文件与“ClusterFirst”一致,也存在无效的DNS查询。 − Default:容器的域名解析文件使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS),没有配置search搜索域列表和options。该配置只能解析注册到互联网上的外部域名,无法解析集群内部域名,且不存在无效的DNS查询。 − None:Kubernetes v1.9(Beta in v1.10)中引入的新选项值。设置为None之后,必须设置dnsConfig,此时容器的域名解析文件将完全通过dnsConfig的配置来生成。 dnsConfig 字段说明: dnsConfig为应用设置DNS参数,设置的参数将合并到基于dnsPolicy策略生成的域名解析文件中。当dnsPolicy为“None”,应用的域名解析文件完全由dnsConfig指定;当dnsPolicy不为“None”时,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 − nameservers:DNS的IP地址列表。当应用的dnsPolicy设置为“None”时,列表必须至少包含一个IP地址,否则此属性是可选的。列出的DNS的IP列表将合并到基于dnsPolicy生成的域名解析文件的nameserver字段中,并删除重复的地址。 − searches:域名查询时的DNS搜索域列表,此属性是可选的。指定后,提供的搜索域列表将合并到基于dnsPolicy生成的域名解析文件的search字段中,并删除重复的域名。Kubernetes最多允许6个搜索域。 − options:DNS的配置选项,其中每个对象可以具有name属性(必需)和value属性(可选)。该字段中的内容将合并到基于dnsPolicy生成的域名解析文件的options字段中,dnsConfig的options的某些选项如果与基于dnsPolicy生成的域名解析文件的选项冲突,则会被dnsConfig所覆盖。 工作负载的DNS配置实践 前面介绍了Linux系统域名解析文件以及Kubernetes为应用提供的DNS相关配置项,下面将举例介绍应用如何进行DNS配置。 场景1 对接kubernetes 内置的KubeDNS/CoreDNS 场景说明: 这种方式适用于应用中的域名解析只涉及集群内部域名,或者集群内部域名+外部域名两种方式,应用默认采用这种配置。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: ClusterFirst 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景2 直接对接DNS 场景说明: 这种方式适用于应用只访问注册到互联网的外部域名,该场景不能解析集群内部域名。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: Default //使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS) 该配置下容器的域名解析文件将如下所示: nameserver 10.125.x.x 场景3 主机网络模式的应用对接KubeDNS/CoreDNS 场景说明: 对于配置主机网络模式的应用,默认对接DNS,如果应用需要对接KubeDNS/CoreDNS,需将dnsPolicy设置为“ClusterFirstWithHostNet”。 示例: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: template: metadata: labels: app: nginx spec: hostNetwork: true dnsPolicy: ClusterFirstWithHostNet containers: name: nginx image: nginx:1.7.9 ports: containerPort: 80 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景4 自定义应用的域名配置 场景说明: 用户可以完全自定义配置应用的域名解析文件,这种方式非常灵活,dnsPolicy和dnsConfig配合使用,几乎能够满足所有使用场景,如对接用户自建DNS的场景、串联多个DNS的场景以及优化DNS配置选项的场景等等。 示例1 :对接用户自建DNS 该配置下,dnsPolicy为“None”,应用的域名解析文件完全根据dnsConfig配置生成。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "None" dnsConfig: nameservers: 10.2.3.4 //用户自建DNS 的IP 地址 searches: ns1.svc.cluster.local my.dns.search.suffix options: name: ndots value: "2" name: timeout value: "3" 该配置下容器的域名解析文件将如下所示: nameserver 10.2.3.4 search ns1.svc.cluster.local my.dns.search.suffix options timeout:3 ndots:2 示例2 :修改域名解析文件的ndots 选项,减少无效的DNS 查询 该配置下,dnsPolicy不为“None”,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "ClusterFirst" dnsConfig: options: name: ndots value: "2" //该配置会将基于ClusterFirst 策略生成的域名解析文件的ndots:5 参数改写为ndots:2 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:2
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        Kubernetes集群内置DNS配置说明
      • 服务部署
        服务监控 推理服务提供两类监控指标,一类是调用监控,展示了与业务及性能强相关的指标,例如调用tokens量、QPS等;一类是资源监控,展示了CPU、内存、显卡等相应资源的使用情况。 调用监控 1. 找到需要查看的任务卡片,点击【查看】进入服务详情页面,下拉页面切换到【调用监控】tab,可查看部署服务的调用情况。 2. 选择相应的服务授权,不选则默认统计所有的服务授权。 3. 统计说明及名词解释: 1. 流式响应:模型边推理边输出结果(如逐词、逐句生成),用户可以实时看到部分结果; 2. 非流式响应:模型需要完整计算所有结果后,一次性返回全部内容。 4. 图像展示: 1. 放大与明细:点击指标右侧“>”箭头,可展开指标大图,大图展示对图像上点的统计细项,包括最大值、最小值、平均值、中位数、75分位数; 2. 图例:点击图例,可以对线段进行展示/隐藏; 3. 时间轴:滑动图像下方时间轴,可以在已选定时间的基础上,查看更小范围的监控。 5. 指标含义: 指标 解释 调用次数 一段时间内服务被调用的次数,包含调用总次数、成功次数、失败次数。 累计调用次数 服务启动后,服务累计被调用的次数,包含调用总次数、成功次数、失败次数。 例如,服务于1/1日启动,2/1日统计值为1/12/1日时间段内的调用次数总和。 调用失败率 调用失败率。 平均响应时间 单位时间内成功请求的响应时间平均值。 调用Token量 一段时间内服务被调用的tokens数,包含总量、输入、输出。 累计调用Token量 服务启动后,服务累计被调用的tokens数,包含总量、输入、输出。 例如,服务于1/1日启动,2/1日统计值为1/12/1日时间段内的调用tokens总和。 首Token时延 从接收请求到生成第一个输出token所需的时间,仅统计流式响应。 AVG:首Token时延的平均值。 MAX:首Token时延的最大值。 P50:50%的首Token时延低于该值。 P80:80%的首Token时延低于该值。 P90:90%的首Token时延低于该值。 P99:99%的首Token时延低于该值。 非首Token时延 生成后续每个输出token所需的时间间隔,不包括首token,仅统计流式响应。 AVG:非首Token时延的平均值。 MAX:非首Token时延的最大值。 P50:50%的非首Token时延低于该值。 P80:80%的非首Token时延低于该值。 P90:90%的非首Token时延低于该值。 P99:99%的非首Token时延低于该值。 端到端时延 服务在该时间点所有请求的端到端时延,端到端时延表示从接收到请求到返回所有Token的时间,统计流式及非流式响应。 AVG:端到端时延的平均值。 MAX:端到端时延的最大值。 P50:50%的端到端时延低于该值。 P80:80%的端到端时延低于该值。 P90:90%的端到端时延低于该值。 P99:99%的端到端时延低于该值。 QPS Query Per Second,即每秒响应请求数。
        来自:
        帮助文档
        训推服务
        用户指南
        模型服务
        服务部署
      • 节点维度的网络配置
        本节介绍网络的用户指南:节点维度的网络配置。 使用场景 Cubecni网络插件会为节点额外添加网卡,用来构建容器网络。这些网卡,如eth1,默认使用配置项cubecniconfig配置的Pod子网和安全组,其中Pod子网为订购时选择的子网,安全组为订购时委托自动创建或用户选择的安全组。 可通过创建新的配置项,为特定节点或节点池配置单独的Pod子网和安全组,实现节点维度的容器网络配置。 如下场景,为特定节点配置独立的子网和安全组,以实现节点C的Pod独享NAT出口IP和带宽: 使用限制 1. 仅新建 的网卡会使用新配置的Pod子网和安全组,已创建的ENI会继续使用原有配置。若需配置节点维度Pod子网和安全组,建议为新节点 或节点池配置; 2. 该特性要求Cubecni版本不低于v1.1.6,且集群已配置资源委托。 操作步骤 1. 在命名空间kubesystem中创建名称为foo的ConfigMap。 a. 登录云容器引擎控制台,左侧导航栏选择集群; b. 在集群列表页面,单击目标集群名称,进入集群管理页面; c. 左侧导航栏,选择配置管理 > 配置项; d. 在配置项页面,命名空间选择kubesystem,单击创建配置项; e. 创建页面,配置项名称设置为foo,单击添加配置项,变量名设置为nodeconfig.json,变量值填入以下内容,将iaassubnets和securitygroups参数替换为实际值: plaintext { "action": "override", "iaassubnets": ["subnetjin7fmxxxx"], "securitygroups": ["sg6hxh19xxxx"] } 参数名 说明 action 值固定为override,默认为override,即子网/安全组配置会覆盖cubecniconfig的配置 iaassubnets 值为VPC子网ID列表。若配置多个子网,优先使用可用IP最多的子网;如无需修改,则无需配置iaassubnets,或值配置为null securitygroups 值为安全组ID列表。用于配置新建的Pod共享ENI,最多可配置5个;若无需修改,则无需配置securitygroups,或值配置为null 2. 节点配置标签 新建节点配置标签 创建节点池时添加节点标签,键设置为cubecniconfig,值设置为foo。新建节点池,详见节点池管理。 注意 节点池新增节点会使用foo指定的配置,不会更新存量节点已创建的网卡的安全组。 已有节点配置标签 a. 集群管理页面左侧导航栏,选择节点>标签 ,点击右侧对应节点的设置标签。 b. 在设置节点标签页面,选择自定义标签 ,点击添加标签。 c. 标签名设置为cubecniconfig,标签值值设置为foo,点击确认。 添加标签后,需重建cubecni插件: a. 集群管理页面左侧导航栏,选工作负载>守护进程。 b. 命名空间 选择kubesystem ,找到cubecni服务,点击右侧的重新部署。 c. 选择滚动重启 或快速重启 ,点击确认,当运行/期望Pod数量相等,说明重启成功。 注意 对于存量节点,不会更新已创建的网卡的安全组。 3. 检查配置是否生效 登录弹性云主机控制台,进入云主机实例详情页,可见弹性网卡配置的子网和安全组信息。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        容器网络插件
        Cubecni网络插件
        节点维度的网络配置
      • 告警配置和查看
        本页介绍如何配置告警和查看告警列表。 操作场景 DTS控制台支持设置告警规则,用户可自定义告警规则与通知策略,及时了解DTS数据迁移和数据同步任务的运行状况,从而起到预警作用。 告警配置 在告警配置页面,用户可查看告警规则,添加告警规则,修改告警规则,禁用或启用告警规则,删除告警规则。 查看告警规则 进入数据传输服务DTS控制台页面,在左侧菜单栏点击监控告警 > 告警配置,进入【告警配置】页面,查看当前的告警规则配置。 说明 用户完成DTS实例的订购及任务配置后,系统会自动配置状态异常和同步延迟超1日告警2条默认告警规则,用户如需其他告警规则可手动添加配置。 添加告警规则 在【告警配置】页面,点击右上角的“添加告警规则”按钮,跳转到告警中心告警设置页面。点击“新建告警策略”按钮,进入新建告警策略页面,填写配置策略名称、备注信息、告警对象、资源池、实例、阀值告警、状态告警、沉默周期、告警级别、联系人等信息。 告警规则各配置项,具体如下: 策略名称:必填项,策略名称建议不要使用相同名称命名。 备注:非必填,建议填写策略说明,便于了解告警策略的具体内容。 告警对象:配置DTS告警,请选择“实例DTS”。 资源池:从下拉列表中选择资源池。 选择实例:选择对应资源池的实例,选中实例作为本告警策略监控告警的对象。 模板类型:目前DTS暂无默认模板,请选择手动创建。 阀值告警:可以选择一种或多种监控指标进行配置,当满足配置的全部指标条件时触发告警。 7种监控指标:cpu使用率、内存使用率、系统盘使用率、数据盘使用率、网络接收错误数、网络传输错误数、数据同步延迟。 阀值配置:选择监控指标后,进行时间区间、计算方法、出现次数的配置。例如选择cpu使用率监控指标,时间区间为:1分钟,计算方法为:平均值>90%,出现次数为2次,则表示连续2分钟cpu使用率平均值>90%触发告警。 一个告警策略可以包含多个监控指标,点击“添加条件”,添加新的监控指标。 状态告警:只有一个指标,点击“添加条件”,选择“实例状态”,当实例状态异常时,即触发告警。 沉默周期:指告警发生后如果未恢复正常,间隔多久重复发送一次告警通知。 自动进入静默期设置:指告警发生后,希望发送多少次告警后,进入静默期,不再主动提示。默认发送3次后自动进入静默期。 告警级别:必填项,用户可自行设置该项告警的级别,有紧急、告警和普通三个级别供选择。 告警联系人:支持多选,可以选择对应租户主账号及子账号对应的联系人。 通知方式:支持站内信、邮箱、短信、企业微信、钉钉、飞书、通用webhook等7种方式。 注意 当通知方式为短信时,单个用户每日最多可发送100条短信。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        监控告警
        告警配置和查看
      • 云搜索服务控制台统一身份认证与权限
        本文向您介绍如何使用天翼云官网能力(IAM)创建子用户共享云搜索控制台服务。 统一身份认证IAM介绍 统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。 IAM为您提供的主要功能包括:精细的权限管理、安全访问、通过用户组批量管理用户权限、委托其他帐号管理资源等。 身份管理 访问控制IAM中的身份包括IAM用户、IAM用户组。 IAM用户有确定的登录密码和访问密钥,IAM用户组则用于分类职责相同的IAM用户,IAM用户和IAM用户组均可以被赋予一组权限策略。在需要协同使用资源的场景中,避免直接共享天翼云账号的密码等信息,缩小不同IAM子用户的信息可见范围,可为IAM子用户和IAM用户组按需授权,即使不慎泄露机密信息,也不会危及天翼云账号下的所有资源。 权限管理 统一身份认证IAM通过权限策略描述授权的具体内容,权限策略包括固定的基本元素“Action”“Effect”等,更多信息,请参见“创建自定义策略”。为IAM用户、IAM用户组在全局授权或企业项目授权中添加一组权限策略后,即可让其有权限访问指定资源。 权限策略分为系统策略和自定义策略: 系统策略 :预置的系统策略,您只能使用不能修改。云搜索服务相关的系统策略包含如下: csx admin:云搜索服务的管理者权限,包含云搜索服务所有控制权限(不含订单类权限); csx user: 云搜索服务的使用者权限,包含云搜索服务的列表页与详情页面等查看权限; 自定义策略 :您按需自行创建和维护的权限策略,关于自定义策略的操作和示例,请参见“创建自定义策略”。 控制台功能 三元组名称 配置支持IAM(全局/资源池) 配置支持企业项目 查询实例详情(包含ES、Logstash) ctcsx:instance:describeInstances ✓ ✓ 创建实例 ctcsx:instance:createInstance ✓ ✓ 重启实例 ctcsx:instance:restartInstance ✓ ✓ 扩容实例 ctcsx:instance:updateInstance ✓ ✓ 加装节点 ctcsx:instance:addNode ✓ ✓ 升配实例 ctcsx:instance:changeNode ✓ ✓ 查询快照策略 ctcsx:snapshot:describeSnapshotRule ✓ ✓ 创建快照(包含手动、自动快照创建、修改快照规则) ctcsx:snapshot:createSnapshot ✓ ✓ 查询快照列表 ctcsx:snapshot:describeSnapshot ✓ ✓ 恢复快照 ctcsx:snapshot:restoreSnapshot ✓ ✓ 删除快照 ctcsx:snapshot:deleteSnapshot ✓ ✓ 停用快照功能 ctcsx:snapshot:closeSnapshot ✓ ✓ 开启云日志 ctcsx:instance:openCloudLog ✓ ✓ 关闭云日志 ctcsx:instance:closeCloudLog ✓ ✓ 修改配置信息 ctcsx:instance:updateSetting ✓ ✓ 查看配置信息 ctcsx:instance:describeSettingsInfo ✓ ✓ 密码重置 ctcsx:instance:resetPassword ✓ ✓ 查看安全设置 ctcsx:instance:describeSecurityInfo ✓ ✓ 绑定解绑变更公网IP ctcsx:instance:updateNet ✓ ✓ 开关Https协议 ctcsx:instance:updateHttps ✓ ✓ 退订实例 ctcsx:instance:deleteInstance ✓ ✓ 查看插件(默认插件&自定义插件) ctcsx:instance:describePlugin ✓ ✓ 安装卸载删除自定义插件 ctcsx:instance:updatePlugin ✓ ✓ Logstash加装 ctcsx:instance:addNodeLogstash ✓ ✓ Logstash管道创建(包含预校验) ctcsx:pipeline:createPipe ✓ ✓ Logstash管道部署/停止 ctcsx:pipeline:changePipe ✓ ✓ Logstash管道删除 ctcsx:pipeline:deletePipe ✓ ✓ Logstash实例退订 ctcsx:instance:deleteLogstashInstance ✓ ✓ Logstash实例列表查询 ctcsx:instance:describeLogstashInstance ✓ ✓ Logstash管道列表查询 ctcsx:pipeline:describeLogstashPipe ✓ ✓ 天翼云支持对用户组/子用户,进行资源池或全局维度的权限授权;同时也支持在企业项目中,对用户组进行资源组维度的权限授权。部分没有企业项目属性的接口或资源,授权只能以资源池或全局维度进行。以资源池或全局维度进行的授权判断,其优先级高于企业项目中的资源组维度授权。
        来自:
        帮助文档
        云搜索服务
        用户指南
        权限管理
        云搜索服务控制台统一身份认证与权限
      • 购买节点
        操作场景 节点是指纳管到容器集群的计算资源,包括虚拟机、物理机等。用户需确保所在集群的节点资源充足,若节点资源不足,会导致创建工作负载等操作失败。 前提条件 已创建至少一个集群,请参见集群管理>购买混合集群。 您需要新建一个密钥对,用于远程登录节点时的身份认证。 说明: 若使用密码登录节点,请跳过此操作。 约束与限制 仅支持创建KVM虚拟化类型的节点,非KVM虚拟化类型的节点创建后无法正常使用。 集群中的节点一旦购买后不可变更可用区。 集群中通过“按需计费”模式购买的节点,在CCE“节点管理”中进行删除操作后将会直接被删除;通过“包年/包月”模式购买的节点不能直接删除,请通过页面右上角用户名称下的“我的订单”执行资源退订操作。 操作步骤 步骤 1 登录CCE控制台,可通过如下两种方式进入“购买节点”页面: 在左侧导航栏中选择“资源管理 > 节点管理”,选择节点所在的集群后,在节点列表页面单击上方的“购买节点”。 在左侧导航栏中选择“资源管理 > 集群管理”,在集群卡片上,单击“购买节点”。 步骤 2 计费模式:支持“按需计费”和“包年/包月”类型。本章以“按需计费”类型为例进行讲解。 步骤 3 选择区域和可用区。 当前区域:节点实例所在的物理位置。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高工作负载的高可靠性,建议您在创建集群后将云服务器部署在不同的可用区,购买集群时节点只能部署在一个可用区。 步骤 4 节点类型:选择“虚拟机节点”。配置以下参数。 节点名称:自定义节点名称。长度范围为156个字符,以小写字母开头,支持小写字母、数字、中划线(),不能以中划线()结尾。 节点规格:请根据业务需求选择相应的节点规格。 −通用型:该类型实例提供均衡的计算、存储以及网络配置,适用于大多数的使用场景。通用型实例可用于Web服务器、开发测试环境以及小型数据库工作负载等场景。 −GPU加速型:提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。P系列适合于深度学习,科学计算,CAE等;G系列适合于3D动画渲染,CAD等。 −高性能计算型:实例提供具有更稳定、超高性能计算性能的实例,可以用于超高性能计算能力、高吞吐量的工作负载场景,例如科学计算。 −通用计算增强型:该类型实例具有性能稳定且资源独享的特点,满足计算性能高且稳定的企业级工作负载诉求。 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件。详细请参见节点预留资源计算公式。 操作系统:请直接选择节点对应的操作系统。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32678GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与上方系统盘一致。 说明:若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 −数据盘空间分配:单击后方的“更改配置”,可以对数据盘中的“k8s空间”和“用户空间”占比进行自定义设置,开启LVM管理的数据盘将按照设置的比例进行统一分配。部分集群版本不支持此功能,具体以界面为准。 k8s空间:您可以自定义数据盘中Docker和Kubelet的资源占比。Docker资源包含Docker工作目录、Docker镜像数据以及镜像元数据;Kubelet资源包含Pod配置文件、密钥以及临时存储EmptyDir等挂载数据。 用户空间:定义本地盘中不分配给kubernetes使用的空间大小和用户空间挂载路径。 说明:请注意“挂载路径”不能设置为根目录“/”,否则将导致挂载失败。挂载路径一般设置为: /opt/xxxx(但不能为/opt/cloud) /mnt/xxxx(但不能为/mnt/paas) /tmp/xxx /var/xxx (但不能为/var/lib、/var/script、/var/paas等关键目录) /xxxx(但不能和系统目录冲突,例如bin、lib、home、root、boot、dev、etc、lost+found、mnt、proc、sbin、srv、tmp、var、media、opt、selinux、sys、usr等) 注意不能设置为/home/paas、/var/paas、/var/lib、/var/script、/mnt/paas、/opt/cloud,否则会导致系统或节点安装失败。 虚拟私有云:不可修改,仅用于展示当前集群所在的虚拟私有云。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 该参数仅在v1.13.10r0及以上版本的集群中显示,请务必确保子网下的 DNS 服务器可以解析对象存储服务域名,否则无法创建节点。 已有集群添加节点时,如果子网对应的VPC新增了扩展网段且子网是扩展网段,要在控制节点安全组(即集群名称ccecontrol随机数)中添加如下三条安全组规则,以保证集群添加的节点功能可用(新建集群时如果VPC已经新增了扩展网段则不涉及此场景): 弹性IP : 独立申请的公网IP地址,若节点有互联网访问的需求,请选择“暂不使用”或“使用已有”。集群开启 IPv6 时,不显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 暂不使用:若新增节点未绑定弹性IP,则在该节点上运行的工作负载将不能被外网访问,仅可作为私有网络中部署业务或者集群所需云服务器进行使用。 使用已有:请选择已有的弹性IP,将为当前节点分配已有弹性IP。 说明: CCE默认不启用VPC的SNAT。若VPC启用了SNAT,可以不使用EIP去访问外网。 共享带宽: 请选择“暂不使用”或“使用已有”。仅在集群开启 IPv6 时,显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:选择用于登录本节点的密钥对,支持选择共享密钥。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 说明: 如果子用户创建节点选择密钥对创建,这个密钥只对创建这个密钥的子用户有效,即使其他子用户在同一个组也无法选择,也无法使用。例如:A用户创建的密钥,B用户无法使用这个密钥对创建节点,并且Console也选不到。 云服务器高级设置: (可选),单击展开后可对节点进行如下高级功能配置: −安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 −安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 −新增数据盘:单击“新增数据盘”,选择云硬盘类型并输入数据盘规格。 −子网IP :可选择“自动分配IP地址”和“手动分配IP地址”,推荐使用“自动分配IP地址”。 Kubernetes 高级设置: (可选),单击展开后可对集群进行如下高级功能配置: −最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 节点购买数量: 此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示进行选择,单击后方的可查看影响能添加节点数的因素(取决于最小值)。 步骤 5 购买时长:若选择“包年包月”的计费模式购买节点时,请设置购买时长。 步骤 6 单击“下一步:配置确认”,确认订单无误后,单击“提交”。 若计费模式为“包年包月”,在确认订单无误后,请单击“去支付”,请根据界面提示进行付款。 系统将自动跳转到节点列表页面,待节点状态为“可用”,表示节点添加成功。添加节点预计需要810分钟左右,请耐心等待。 说明: 集群创建时自动创建的安全组以及安全组规则禁止删除,否则会导致集群异常。 步骤 7 单击“返回节点列表”,待状态为可用,表示节点创建成功。 说明: 可分配资源:可分配量按照实例请求值(request)计算,表示实例在该节点上可请求的资源上限,不代表节点实际可用资源。 计算公式为: 可分配CPU CPU总量 所有实例的CPU请求值 其他资源CPU预留值 可分配内存 内存总量 所有实例的内存请求值 其他资源内存预留值
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        购买节点
      • 创建守护进程集(DaemonSet)
        操作场景 云容器引擎(CCE)提供多种类型的容器部署和管理能力,支持对容器工作负载的部署、配置、监控、扩容、升级、卸载、服务发现及负载均衡等特性。 其中守护进程集(DaemonSet)可以确保全部(或者某些)节点上仅运行一个Pod实例,当有节点加入集群时,也会为他们新增一个 Pod。当有节点从集群移除时,这些Pod也会被回收。删除 DaemonSet 将会删除它创建的所有Pod。 使用DaemonSet的一些典型用法: 运行集群存储daemon,例如在每个节点上运行glusterd、ceph。 在每个节点上运行日志收集daemon,例如fluentd、logstash。 在每个节点上运行监控daemon,例如Prometheus Node Exporter、collectd、Datadog代理、New Relic代理,或Ganglia gmond。 一种简单的用法是为每种类型的守护进程在所有的节点上都启动一个DaemonSet。一个稍微复杂的用法是为同一种守护进程部署多个DaemonSet;每个具有不同的标志, 并且对不同硬件类型具有不同的内存、CPU要求。 前提条件 在创建守护进程集前,您需要存在一个可用集群。若没有可用集群 ,请参照购买混合集群中内容创建。 操作步骤 步骤 1 登录CCE管理控制台。 步骤 2 在左侧导航栏中选择“工作负载 > 守护进程集 DaemonSet”,单击页面右上角的“创建守护进程集”。参照下表设置基本信息,其中带“”标志的参数为必填参数。 工作负载基本信息 参数 参数说明 工作负载名称 新建工作负载的名称,命名必须唯一。 请输入4到63个字符的字符串,可以包含小写英文字母、数字和中划线(),并以小写英文字母开头,小写英文字母或数字结尾。 集群名称 新建工作负载所在的集群。 命名空间 在单集群中,不同命名空间中的数据彼此隔离。使应用可以共享同个集群的服务,也能够互不干扰。若您不设置命名空间,系统会默认使用default命名空间。 时区同步 单击开启后,容器将和节点使用相同时区。 须知 时区同步功能开启后,在“数据存储 > 本地磁盘”中,将会自动添加HostPath类型的磁盘,请勿修改删除该磁盘。 工作负载描述 工作负载描述信息。 步骤 3 单击“下一步:容器设置”,添加容器。 1. 单击“添加容器”,选择需要部署的镜像。 − 我的镜像:展示了您创建的所有镜像仓库。 − 第三方镜像:CCE支持拉取第三方镜像仓库(即镜像仓库之外的镜像仓库)的镜像创建工作负载。使用第三方镜像时,请确保工作负载运行的节点可访问公网。第三方镜像的具体使用方法请参见如何使用第三方镜像。 若您的镜像仓库不需要认证,密钥认证请选择“否”,并输入“镜像名称”,单击“确定”。 若您的镜像仓库都必须经过认证(帐号密码)才能访问,您需要先创建密钥再使用第三方镜像,具体操作请参见如何使用第三方镜像。 − 共享镜像:其它租户通过“容器镜像服务”共享给您的镜像将在此处展示,您可以基于共享镜像创建工作负载。 2. 配置镜像基本信息。 工作负载是Kubernetes对一组Pod的抽象模型,用于描述业务的运行载体,一个Pod可以封装1个或多个容器,您可以单击右上方的“添加容器”,添加多个容器镜像并分别进行设置。 镜像参数说明 参数 说明 镜像名称 导入的镜像,您可单击“更换镜像”进行更换。 镜像版本 选择需要部署的镜像版本。 容器名称 容器的名称,可修改。 特权容器 特权容器是指容器里面的程序具有一定的特权。 若选中,容器将获得超级权限,例如可以操作宿主机上面的网络设备、修改内核参数等。 容器规格 CPU 配额: 申请:容器需要使用的最小CPU值,默认0.25Core。 限制:允许容器使用的CPU最大值。建议设容器配额的最高限额,避免容器资源超额导致系统故障。 内存配额: 申请:容器需要使用的内存最小值,默认512MiB。 限制:允许容器使用的内存最大值。如果超过,容器会被终止。 申请和限制的具体请参见设置容器规格。 GPU 配额:当集群中包含GPU节点时,才能设置GPU,无GPU节点不显示此选项。 容器需要使用的GPU百分比。勾选“使用”并设置百分比,例如设置为10%,表示该容器需使用GPU资源的10%。若不勾选“使用”,或设置为0,则无法使用GPU资源。 GPU 显卡:工作负载实例将被调度到GPU显卡类型为指定显卡的节点上。 若勾选“不限制”,容器将会随机使用节点中的任一显卡。您也可以勾选某个显卡,容器将使用特定显卡。 3. 生命周期: 用于设置容器启动和运行时需要执行的命令。 − 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 − 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 − 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 4. 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 − 工作负载存活探针:检查容器是否正常,不正常则重启实例。 − 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 5. 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: − 手动添加:输入变量名称、变量/变量引用。 − 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见创建密钥。 − 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 6. 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见存储管理。 7. 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 8. 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 4 单击“下一步:工作负载访问设置”,单击“添加服务”,设置工作负载访问方式。 若工作负载需要和其它服务互访,或需要被公网访问,您需要添加服务,设置工作负载访问方式。 工作负载访问的方式决定了这个工作负载的网络属性,不同访问方式的工作负载可以提供不同网络能力,具体请参见网络概述。 步骤 5 单击“下一步:高级设置”,配置更多高级策略。 升级策略: − 升级方式:支持“滚动升级”。滚动升级将逐步用新版本的实例替换旧版本的实例,升级的过程中,业务流量会同时负载均衡分布到新老的实例上,因此业务不会中断。 − 最大无效实例数:每次滚动升级允许的最大无效实例数,如果等于实例数有断服风险(最小存活实例数 实例数 最大无效实例数)。 缩容策略: 缩容时间窗:请输入时间。为工作负载删除提供一个时间窗,预留给生命周期中PreStop阶段执行命令。若超过此时间窗,进程仍未停止,该工作负载将被强制删除。 调度策略:您可以根据需要自由组合静态的全局调度策略或动态的运行时调度策略来实现自己的需求。具体请参见调度策略概述。 Pod 高级设置 − Pod标签:内置app标签在工作负载创建时指定,主要用于设置亲和性与反亲和性调度,暂不支持修改。您可以单击下方的“添加标签”增加标签。 客户端DNS 配置:CCE集群内置DNS插件CoreDNS,为集群内的工作负载提供域名解析服务。详细使用方法请参见Kubernetes集群内置DNS配置说明。 − DNS策略: 追加域名解析配置:选择该配置后,将保留默认配置,以下“IP地址”和“搜索域”配置可能不生效。 替换域名解析配置:选择该配置后,将仅使用以下“IP地址”和“搜索域”配置进行域名解析。 继承Pod所在节点域名解析配置:将继承Pod所在节点的域名解析配置。 − IP地址:您可对自定义的域名配置域名服务器,值为一个或一组DNS IP地址,如“1.2.3.4”。 − 搜索域:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。 − 超时时间(s):查询超时时间,请自定义。 − ndots:表示域名中必须出现的“.”的个数,如果域名中的“.”的个数不小于ndots,则该域名为一个FQDN,操作系统会直接查询;如果域名中的“.”的个数小于ndots,操作系统会在搜索域中进行查询。 自定义指标监控:是指监控系统提供的一种指标收集机制,该机制允许工作负载在部署时自定义需要上报的指标名称以及获取这些指标数据的接入点信息,在应用运行时由监控系统按固定的频率访问接入点进行指标的收集。 性能管理配置:性能管理服务可协助您快速进行工作负载的问题定位与性能瓶颈分析。 步骤 6 配置完成后,单击“创建”,在创建成功页面单击“返回工作负载列表”,查看工作负载状态。 在工作负载列表中,当工作负载状态为“运行中”时,表示工作负载创建成功。工作负载状态不会实时更新,请单击右上角的图标或按F5刷新页面查看。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        创建守护进程集(DaemonSet)
      • 规则说明
        针对DDoS高防(边缘云版)退订操作,为您进行说明,请在退订前务必阅读以下内容。 退订规则说明 客户(天翼云用户)可根据需要,在符合天翼云退订规则的前提下,灵活退订资源。目前退订包含七天无理由全额退订和非七天无理由退订以及其他退订。 七天无理由全额退订。新购资源实例(不包含进行了续订、规格升级、扩容、操作系统变更等操作的资源)在满足以下全部条件的前提下,享受七天无理由全额退订: (1)在资源开通的7天内发起退订; (2)发起退订操作的账号(“退订账号”)七天无理由全额退订次数不超过3次(每账号享有3次七天无理由全额退订次数); (3)同一用户累计使用的七天无理由全额退订次数不超过24次。其中,同一用户是指:根据不同天翼云账号在注册、登录、使用中的关联信息,关联信息相同天翼云判断其实际为同一用户。关联信息举例:同一名称、同一邮箱、同一负责人证件、同一手机号、同一设备、同一IP地址等(包括已注销的账号)。客户同意天翼云使用上述信息核查同一用户情况。 成套资源退订属于退订一个资源实例,记为1次退订。 尽管有上述规则,客户不得利用退订规则频繁订购并退订服务,恶意占用天翼云及其他用户资源。如天翼云有合理理由怀疑客户存在频繁退订恶意占用天翼云及其他用户资源的,则天翼云有权取消该客户七天无理由全额退订的权利,并根据《中国电信天翼云用户协议》及网站相关规则和相关服务协议约定,采取相应措施直至终止服务,并追究客户的违约责任。 非七天无理由退订。不符合七天无理由全额退订条件的退订,都属于非七天无理由退订。非七天无理由退订,不限制退订次数,但退订需要收取相应的使用费用和退订手续费,且不退还代金券及优惠券,但符合下文“其他退订”情形的除外。 其他退订。主要 指因创建资源失败或资源未生效等因天翼云原因导致的用户退订。该类退订不限制退订次数,实现无条件退费。 注意 七天无理由退订仅限于新购资源的情形,若新购资源在7天内进行了续订或变更(包含但不限于规格升级、扩容、操作系统变更),退订时按非七天无理由退订处理,需要收取相应的使用费用和退订手续费,且不退还代金券及优惠券。 参与活动购买的云产品,如若本退订规则与活动规则冲突,以活动规则为准;活动中说明“不支持退订”的云服务资源不支持退订。 执行退订操作前,请确保退订的资源数据已完成备份或迁移,退订完成后的资源将被完全删除,且不可恢复,请谨慎操作。 表1 规则说明 退订场景 退订次数 收取手续费 收取已消费金额 返还代金券 返还优惠券 七天无理由全额退订 同一用户(含已注销账号)累计24次。每个账号享有3次。 否 否 是 否 非七天无理由退订 不限次数 是 是 否 否 因天翼云原因导致的退订 不限次数 否 否 是 否 (1)代金券指以券面金额代替现金用来支付订单费用的一类使用券。 (2)优惠券指折扣券和满减券,即购买某种云产品可以打折或者满足支付一定现金金额后可以抵扣部分订单费用的一类使用券。 (3)若用户使用代金券或优惠券订购资源并仅退订其中部分资源,退订发起页面提示退订完成后不返还该订单已使用的代金券和优惠券,并由用户确认是否依然执行退订。 (4)券类如果存在有效使用期,系统将不返还超出有效期的券类。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        计费说明
        退订说明
        规则说明
      • 将MySQL同步到DWS
        操作步骤 本小节以RDS for MySQL到DWS多对一场景的实时同步为示例,介绍如何使用数据复制服务配置实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“DWS”。 网络类型 此处以“VPC网络”为示例。目前支持可选“公网网络”、“VPC网络”和“VPN、专线网络”。 目标数据库实例 可用的DWS实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 可选“全量+增量”、“全量”和“增量”三种模式,此处以“全量+增量”为示例。 全量+增量该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。、 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量 该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。 增量 该模式通过解析日志等技术,将源端产生的增量数据持续同步至目标端数据库。 标签 表 标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 源库类型 源数据库类型,可选“ECS自建库”和“RDS实例”,此处以“RDS实例”为示例。 数据库实例名称 选择待同步的RDS实例。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 说明 源数据库的数据库用户名和密码,会被系统加密暂存,直至删除该任务后自动清除。 表目标库信息 参数 描述 数据库实例名称 默认为创建同步任务时选择的DWS实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。 步骤 4 在“设置同步”页面,选择同步对象类型和同步对象。单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象类型 可选同步表结构、同步数据、同步索引,根据实际需求进行选择要同步内容。 l 同步数据为必选项。 l 选择同步表结构的时候目标库不能有同名的表。 l 不选同步表结构的时候目标库必须有相应的表,且要保证表结构与所选表结构相同。 由于DWS的表结构具有业务逻辑,建议结合业务情况在DWS专家指导下自建表结构,并确保表名、列名、列类型的准确性,否则会出现数据同步失败、数据同步精度丢失等情况。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下形式: l 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 l 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 l 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 异常数据策略 源和目标数据库的客观差异差异,可能导致部分数据无法写入成功,出现异常数据,请选择出现异常数据时的任务策略。 l 任务继续:不因少量异常数据导致全部数据均停止同步,异常数据发生时将会自动记录脏数据,可在“异常数据”模块查看这部分数据。 l 任务失败:出现异常数据后,任务失败停止。 启动位点 步骤2的同步模式选择“增量”时可见,增量同步的启动位点,任务的源库日志从位点后开始获取(不含当前启动位点)。 通过show master status命令获取源库位点,根据提示分别填写File、Position、ExecutedGtidSet。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 l 可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,实现多张表对一张表的同步,具体操作可参考对象名映射。 − 使用多对一操作时,需要使用数据加工的附加列操作来避免数据冲突。 − 源库和目标库多对一的表的结构要一致。 说明 l 选择数据的时候支持对展开的库 搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 对象名同步到目标库后会转换成小写,因此选择的源库表中不能存在表名称字母相同但大小写不同的表,否则,会导致同步失败。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 l 选择库级同步时,在增量同步过程中,不能在源库创建名称字母相同但大小写不同的表,否则会导致其中一张表无法同步。 步骤 5 在“数据加工”页面,可对需要加工的表对象进行数据过滤或添加附加列,,单击“下一步”。 如果需要设置数据过滤,选择“数据过滤”,设置相关过滤规则。 如果需要设置添加附加列,选择“附加列”,单击“操作”列的“添加”,选填需要添加的列名和操作类型信息。 相关操作可参考数据加工。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行实时同步。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将MySQL同步到DWS
      • 下载客户端
        本章节主要介绍如何下载Linux gsql客户端。 DWS 提供了与集群版本配套的客户端工具包,用户可以在DWS 管理控制台下载客户端工具包。 客户端工具包包含以下内容: 数据库连接工具Linux gsql和测试样例数据的脚本 Linux gsql是一款运行在Linux环境上的命令行客户端,用于连接DWS 集群中的数据库。 测试样例数据的脚本是执行入门示例时用的。 Windows版本gsql Windows gsql是一款运行在Windows环境上的命令行客户端,用于连接DWS 集群中的数据库。 说明 仅8.1.3.101及以上版本支持在console控制台下载。 GDS工具包 GDS工具包是数据服务工具。用户可以使用GDS工具将普通文件系统中的数据文件导入到DWS 数据库中,GDS工具包需要安装在数据源文件所在的服务器上。数据源文件所在的服务器称为数据服务器,也称为GDS服务器。 下载客户端 1. 登录DWS 管理控制台,详情请参见 集群配置章节中的 登录DWS管理控制台。 2. 在左侧导航栏中,单击“连接管理”。 3. 在“gsql命令行客户端”的下拉列表中,选择对应版本的DWS 客户端。 请根据集群版本和安装客户端的操作系统,选择对应版本。 “Redhat x8664”客户端工具支持在以下系统中使用: RHEL 6.4~7.6 CentOS 6.4~7.4 EulerOS 2.3 “SUSE x8664”客户端工具支持在以下系统中使用: SLES 11.1~11.4 SLES 12.0~12.3 “Euler Kunpeng64”客户端工具支持在以下系统中使用: EulerOS 2.8 “RedhatKunpeng64”客户端工具支持在以下系统中使用: CentOS 7.5,7.6 NeoKylin 7.6 “Microsoft Windows”客户端工具支持在以下系统中使用: Windows 7及以上 Windows Server 2008及以上 4. 单击“下载”可以下载与现有集群版本匹配的gsql。单击“历史版本”可根据集群版本下载相应版本的gsql。 如果同时拥有不同版本的集群,单击“下载”时会下载与集群最低版本相对应的客户端工具。如果当前没有集群,单击“下载”时将下载到低版本的客户端工具。DWS 集群可向下兼容低版本的客户端工具。 下表列出了下载的Linux gsql工具包中的文件和文件夹。 Linux gsql工具包目录及文件说明 文件或文件夹 说明 bin 该文件夹中包含了gsql在Linux中的可执行文件。其中包含了gsql客户端工具、GDS并行数据加载工具以及gsdump、gsdumpall和gsrestore工具。 gds 该文件夹中包括了GDS数据服务工具的相关文件,GDS工具用于并行数据加载,可将存储在普通文件系统中的数据文件导入到DWS数据库中。 lib 该文件夹中包括执行gsql所需依赖的lib库。 sample 该文件夹中包含了以下目录或文件: setup.sh:在使用gsql导入样例数据前所需执行的配置AK/SK访问密钥的脚本文件。 tpcdsloaddatafromobs.sql:使用gsql客户端导入TPCDS样例数据的脚本文件。 querysql目录:查询TPCDS样例数据的脚本文件。 gsqlenv.sh 在运行gsql前,配置环境变量的脚本文件。 下表列出了下载的Windows gsql工具包中的文件和文件夹。 Windows gsql工具包目录及文件说明 文件或文件夹 说明 x64 该文件夹中包含了64位Windows gsql执行二进制和动态库。 x86 该文件夹中包含了32位Windows gsql执行二进制和动态库。 在“集群管理”页面的集群列表中,单击指定集群的名称,再选择“集群详情”页签,可查看集群版本。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        使用gsql命令行客户端连接集群
        下载客户端
      • 1
      • 2
      • ...
      • 143
      • 144
      • 145
      • 146
      • 147
      • 148
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      应用托管

      一站式智算服务平台

      智算一体机

      推荐文档

      控制中心

      产品定义

      首次备案

      玩转天翼云⑤:windows修改mysql目录

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号