云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      网站安全监测_相关内容
      • 版本说明
        数据管理服务DMS目前提供基础版、企业版,企业版在基础版之外提供更多数据安全和风险管控等企业级特性。本文主要说明版本之间的差异,以及如何查看和切换版本。 基础版和企业版主要差异 模块 功能 基础版 企业版 实例管理 添加实例 Y Y 实例管理 登录实例 账号密码登录 账密托管,免登录 注意 MongoDB和DDS类型数据库暂不支持 实例管理 库/模式管理 Y Y 实例管理 对象管理 Y Y 实例管理 编辑实例 Y Y 实例管理 删除实例 Y Y 实例管理 数据权限管理 实例元数据级别 细粒度,支持实例、库/模式、表级别 实例管理 设置风险规则集 N Y 实例管理 数据库用户管理 Y Y 实例管理 禁用/启用实例 Y Y 实例管理 同步元数据 Y Y 实例列表 所有实例列表 Y Y 实例列表 收藏夹实例列表 Y Y 实例列表 收藏/取消收藏实例 Y Y 查询窗口 执行SQL Y Y 查询窗口 保存脚本 Y Y 查询窗口 格式化 Y Y 查询窗口 执行计划 Y Y 查询窗口 SQL诊断 Y Y 查询窗口 语法帮助 Y Y 查询窗口 导入脚本 Y Y 查询窗口 执行历史 Y Y 查询窗口 结果集可视化编辑 Y Y 查询窗口 表信息查看 Y Y 查询窗口 打开表 Y Y 查询窗口 新建表 Y Y 查询窗口 编辑表 Y Y 查询窗口 复制建表 Y Y 查询窗口 表详情 Y Y 查询窗口 重命名表 Y Y 查询窗口 管理员模式 N Y 查询窗口 删除表 Y Y 查询窗口 新建可编程对象 Y Y 查询窗口 编辑可编程对象 Y Y 数据导出 整库/模式导出 Y Y 数据导出 整表导出 Y Y 数据导出 SQL结果集导出 Y Y 数据导出 结构导出 Y Y 数据导入 CSV/SQL/TXT/JSON/EXCEL数据导入 Y Y SQL变更 提交SQL变更工单 N Y SQL审核 提交SQL审核工单 N Y 结构对比 结构对比 N Y 数据对比 数据对比 N Y 用户与角色 邀请用户 仅能添加普通用户 可添加系统管理员、运维管理员、审计管理员、配置管理员和普通用户 用户与角色 编辑用户 Y Y 用户与角色 删除用户 Y Y 用户与角色 授权用户数据权限 Y Y 用户与角色 授权用户运维权限 N Y 团队管理 团队成员管理 Y Y 团队管理 团队实例管理 Y Y 慢SQL 慢SQL分析 Y Y SQL审计 SQL审计明细 Y Y SQL审计 统计分析 Y Y 操作审计 DMS SQL明细 Y Y 操作审计 DMS 操作审计 Y Y 工单列表 任务工单 Y Y 工单列表 数据权限工单 N Y 工单列表 团队申请工单 Y Y 工单列表 工单审批 N Y SQL规范 规范管理及规则配置 N Y 审批流 审批模板管理 N Y SQL风险 DDL风险规则配置 N Y SQL风险 DML风险 规则配置 N Y SQL风险 数据导出风险规则配置 N Y 敏感数据保护 敏感实例 N Y 敏感数据保护 敏感列 N Y 敏感数据保护 脱敏算法 N Y 敏感数据保护 敏感列权限管控 N Y 敏感数据保护 分类分级 N Y 敏感数据保护 识别任务 N Y 智能运维 实例概览 Y Y 智能运维 实例画像 Y Y 智能运维 一键诊断 Y Y 智能运维 会话管理 Y Y 智能运维 实时性能 Y Y 智能运维 性能趋势 Y Y 智能运维 空间分析 Y Y 智能运维 锁分析 Y Y 智能运维 性能洞察 Y Y 智能运维 诊断报告 Y Y 智能运维 数据追踪 N Y 智能运维 异常管理 Y Y AI智能 数据库智能问答 以DMS帮助文档,及各数据库手册为语料提供智能问答 以DMS帮助文档,数据库元数据,及各数据库手册为语料提供智能问答 AI智能 NL2SQL N Y AI智能 SQL纠错 N Y 个人中心 申请数据权限 N 细粒度,支持实例、库/模式、表级别 组织管理 组织信息配置 Y Y 屏幕水印 屏幕水印 Y Y
        来自:
        帮助文档
        数据管理服务
        产品介绍
        版本说明
      • 申请对等连接(跨账号)
        本文帮助您快速熟悉如何创建跨账户对等连接。 操作场景 对等连接支持创建跨账号对等连接连通跨账号的两个VPC,您可以通过创建对等连接来实现同一资源池不同VPC之间的连通。 约束与限制 两个VPC之间只能建立一个对等连接。 对等连接只能在同一资源池VPC之间建立,不支持跨资源池对等连接。 要实现不同资源池VPC内网互通,可以使用云间高速。 在配置对等连接时,如果本端VPC和对端VPC存在网段重叠的情况,可能会出现VPC中部分或全部子网不能通过对等连接互通的情况,具体请参考对等连接使用示例。 创建不同账户下的VPC对等连接时,如果本端账户发起了对等连接请求,该请求需要对端账户接受方可成功创建。若对端账户拒绝请求,则对等连接将无法建立。为确保网络安全,请勿接受来自未知账户的对等连接申请。 前提条件 在不同账号下分别创建同地域内的两个VPC,并获取对端账户邮箱和对端VPC ID。 说明 VPC ID 可以通过登录 /vpc/vpcList 获取。登录虚拟私有云控制台后,在虚拟私有云列表中点击目标 VPC 名称进入 VPC 详情页,在 VPC 详情部分可以查看具体的资源信息。 操作步骤 1. 登录控制中心,单击控制中心左上角的,选择地域,此处选择华东华东1。 2. 点击“网络 >虚拟私有云”,进入虚拟私有云主页面。 3. 在左侧导航栏选择“对等连接”。 4. 在界面右侧区域点击“创建对等连接”。 5. 根据界面提示配置参数,其中“账户”选择“其他账户”。 参数 说明 选择本端VPC 名称 对等连接名称,由汉字、英文字母、数字、中划线、下划线等构成,一般不超过64个字符。 选择本端VPC 描述 可选参数。 根据需要在文本框中输入对等连接的描述信息。 选择本端VPC 企业项目 所属企业项目,系统默认为default。 选择本端VPC 本端VPC 本端VPC:显示已选择的本端VPC,可在下拉框中选择。 选择本端VPC 本端VPC网段 显示本端VPC的网段。 选择对端VPC 账户 当前账户:表示在同一个账户内、同一个地域下的不同VPC间建立对等连接。 其他账户:表示在同一个地域下的不同账户的VPC间建立对等连接。 此处选择其他账户。 选择对端VPC 对端账户 对端账户邮箱地址 选择对端VPC 对端VPC ID 对端VPC ID,可在VPC详情页面查看。 6. 配置完成后,点击“确定”。 7. 返回到对等连接列表,可查看该对等连接的状态为“待接受”。 注意 创建跨账户的对等连接时,需要对端VPC所属的账号接受连接请求后,才能在两个VPC之间建立跨账号的对等连接。
        来自:
        帮助文档
        对等连接(文档停止维护)
        用户指南
        创建对等连接
        申请对等连接(跨账号)
      • 日志审计v1.0
        本节介绍云等保专区产品的日志审计配置类问题。 日志审计设备如何进行接入配置? 1. 首先在进行审计前,用户需要在资产上设置Syslog等协议将日志发送至平台。 2. 平台可自动发现通过Syslog等协议向平台发送日志的资产向平台发送日志的资产,发现这些资产后,需要添加这些资产,在上边栏选择“资产管理”,在左侧菜单栏选择“ 资产 > 全部资产 ”进入资产页面,点击“新增”。 进入新增资产页面,选择资产类型(如Windows)。 编辑相关信息,点击“保存”。 3. 在事件管理模块中可查询资产的日志信息,在性能监控模块中监控资产的性能状态,在上边栏选择“事件管理”,在左侧菜单栏选择“ 事件 > 自定义查询 ”进入自定义查询页面。设置查询条件,点击“查询”即可查询事件,点击“清空”可清空查询条件。 4. 创建解决方案包为可选操作,平台已经内置了2个解决方案包。用户可根据需要创建解决方案包,解决方案包是一系列安全事件模板的集合,平台根据这些模板分析资产的风险趋势,对于威胁事件给予告警,在上边栏选择“规则库”,在左侧菜单栏选择“解决方案包”进入解决方案包页面。 点击“新增”,编辑相关信息,点击“保存”。 5. 用户还可订阅自己关注的告警事件,可第一时间了解资产的威胁态势,在上边栏选择“事件管理”,在左侧菜单栏选择“ 告警 > 告警订阅 ”进入告警订阅页面,选择未订阅页签。在左侧解决方案包导航栏中选择事件(如“防火墙阻断”),选择邮件订阅、短信订阅、FTP订阅和TCP订阅的用户,点击“保存”。 6. 平台会根据解决方案包对日志事件进行审计并对威胁趋势做出统计,用户可查看审计概要和统计报表,在上边栏选择“审计概要”进入审计概要页面,在左侧解决方案包导航栏中选择具体项目,即可查看该项目的审计概要信息。 在上边栏选择“统计报表”,在左侧菜单栏选择“统计报表”,选择报表项,可查看该报表项的信息。 点击“过滤”,在弹出的对话框中设置过滤条件,点击“过滤”即可查看符合过滤条件的统计信息。 点击时间下拉框,选择时间段可查看对应时间段内的事件统计信息。 点击页面右上角的“导出”,在弹出的菜单栏中选择“导出Word”、“导出PDF”即可将统计报表导出为Word、PDF文件保存至本地。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        日志审计
        日志审计v1.0
      • 限流降级
        本章节介绍ECS应用实例限流降功能 概述 限流降级包含限流和降级两个功能。限流是指通过调节流量阈值控制通过系统的最大流量值,保证系统安全可靠运行。降级通常用于对下游出现超时的非核心服务提供者进行低优先级调用,确保上游核心应用(服务消费者)不被影响。通过接入限流降级,您实时查看限流降级详情和动态变更规则,从而全面保障您的应用可用性。使用限流降级需要事先部署时配置限流降级高级配置接入限流降级。 前提条件 1. 开通微服务治理中心企业版 2. 开启接入微服务治理和限流降级 规则管理 支持配置流控规则、隔离规则、熔断规则、主动降级规则、热点规则、自适应流控等规则。 流控规则 流控规则的原理是监控应用或服务流量的QPS指标,当指标达到设定的阈值时立即拦截流量,避免应用被瞬时的流量高峰冲垮,从而保障应用高可用性。适用于需要限制突发的流量,在尽可能处理请求的同时来保障服务不被击垮的场景。 1. 在应用总览页面,选择限流降级规则管理,进入规则管理页面 2. 选择流控规则页签,点击新增进入流控规则配置页面 3. 选择防护场景 配置项 描述 接口名称 待流控的资源名称。 4. 配置防护规则 参数 描述 是否集群流控 开启集群流控,对集群内此资源的调用总量进行限制。 是否开启 打开开关表示启用该规则,关闭开关表示禁用该规则。 单机QPS阈值 触发对流控接口的统计维度对象的QPS阈值。 来源应用 该规则针对的来源应用,默认来源应用设为default,代表不区分来源应用。 统计维度 选择资源调用关系进行流控。 1.当前接口 :直接控制来自来源应用中调用来源的访问流量,如果来源应用为default则不区分调用来源。通常应用于流量匀速通过的场景。 2.关联接口 :控制当前资源的关联资源的流量。通常应用于资源争抢时,留足资源给优先级高接口的场景。 3.链路入口 :控制该资源所在的调用链路的入口流量。选择链路入口后需要继续配置入口资源,即该调用链路入口的上下文名称。通常应用于预热启动避免大流量冲击的场景 流控效果 选择流控方式来处理被拦截的流量。 1.快速失败: 达到阈值时,立即拦截请求。按照应用系统设置中的适配模块配置信息,进行内容返回。 2.预热启动: 需设置具体的预热时间。 如果系统在此之前长期处于空闲的状态,当流量突然增大的时候,该方式会让处理请求的速率缓慢增加,经过设置的预热时间以后,到达系统处理请求速率的设定值。 默认会从设置的QPS阈值的1/3开始慢慢往上增加至设置的QPS值,多余请求会按照快速失败处理。 3.排队等待: 请求匀速通过,允许排队等待,通常用于请求调用削峰填谷等场景。需设置具体的超时时间,达到超时时间后请求会快速失败。 5. 配置限流行为 配置行为主要是配置Fallback行为。Fallback行为定义某个埋点资源触发了某种规则(如流控、熔断、降级)后的处理行为。目前Fallback行为仅支持Web和RPC两种资源类型。如果您不需要自定义限流后的Fallback行为,则选择默认行为即可。 配置成功后,新的流控规则将出现在流控规则列表中。
        来自:
      • 分级视图
        本小节介绍服务器安全卫士的资产清点分级视图。 功能说明 分级视图,是一种系统化的资产查询视图,通过系统化地分类,展示资产的统计情况,帮助用户快速了解资产总体信息。同时,作为分级视图详情的入口,以结构化的方式,有效地引导用户进行索引查询。 共有12个功能模块,分别为: 主机资产:模块包含所有主机相关信息,包括基本信息、运维信息、代理信息、Bash插件安装信息等; 进程端口:模块包含主机中所有进程,及运行进程的端口相关信息; 系统账号:模块包含主机中所有账号,及用户组相关信息; 硬件配置:模块包含所有主机的硬件配置信息,及硬件消耗情况; 软件应用:模块包含主机中所有软件应用相关信息; Web服务:模块包含主机中所有Web服务相关信息; 数据库:模块包含主机中所有数据库相关信息; Web站点:模块包含主机中所有Web站点相关信息; Web应用:模块包含主机中所有Web应用相关信息; Web应用框架:模块包含主机中所有Web框架相关信息; 安装包和类库:模块包含主机中安装包和Jar包相关信息; 其它:模块包含了一些非核心的资产信息,包括:启动项、计划任务、环境变量、内核变量等。 查看方法 1.通过点击模块及折叠按钮 ,可展开查看具体资产统计信息。 2.点击右上角的 按钮,可以将全部模块的内容展开。 3.展开后,右上角按钮变为 ,点击收起,可以将全部模块的内容收起。 4.点击模块统计数值,即可跳转到对应的”资产详情页面”,查看所有主机中该资产的详细信息。 5.如想仅查看某个主机的资产情况,可以点击”查找主机” 按钮,筛选出该主机后”查看”。 所有主机中的资产信息,每天自动更新一次,如果想获取最新信息,可以点击右上角的”更新数据”按钮,手动触发更新;对于功能中的统计数据,也可以手动触发”更新统计”。 6.在资产详细信息查询中,提供了两种视角(资产视角、主机视角),用户基于不同的统计查询需要,可相互切换。 同时在资产详情页面,用户可以对列表进行操作,得到想要的查询结果。 筛选/搜索区:根据不同需要,对列表内容进行筛选; 更新数据按钮:点击 ,手动触发更新当前资产数据; 全部导出按钮:点击 ,可导出列表中的全部资产数据; 设置显示列按钮:点击 ,通过勾选列名,控制列表中信息的显示/隐藏; 复选框按钮 :点击复选框,可选中该行数据,进行“导出”等操作。
        来自:
        帮助文档
        服务器安全卫士
        资产清点
        分级视图
      • 创建守护进程集(DaemonSet)
        操作场景 云容器引擎(CCE)提供多种类型的容器部署和管理能力,支持对容器工作负载的部署、配置、监控、扩容、升级、卸载、服务发现及负载均衡等特性。 其中守护进程集(DaemonSet)可以确保全部(或者某些)节点上仅运行一个Pod实例,当有节点加入集群时,也会为他们新增一个 Pod。当有节点从集群移除时,这些Pod也会被回收。删除 DaemonSet 将会删除它创建的所有Pod。 使用DaemonSet的一些典型用法: 运行集群存储daemon,例如在每个节点上运行glusterd、ceph。 在每个节点上运行日志收集daemon,例如fluentd、logstash。 在每个节点上运行监控daemon,例如Prometheus Node Exporter、collectd、Datadog代理、New Relic代理,或Ganglia gmond。 一种简单的用法是为每种类型的守护进程在所有的节点上都启动一个DaemonSet。一个稍微复杂的用法是为同一种守护进程部署多个DaemonSet;每个具有不同的标志, 并且对不同硬件类型具有不同的内存、CPU要求。 前提条件 在创建守护进程集前,您需要存在一个可用集群。若没有可用集群 ,请参照购买混合集群中内容创建。 操作步骤 步骤 1 登录CCE管理控制台。 步骤 2 在左侧导航栏中选择“工作负载 > 守护进程集 DaemonSet”,单击页面右上角的“创建守护进程集”。参照下表设置基本信息,其中带“”标志的参数为必填参数。 工作负载基本信息 参数 参数说明 工作负载名称 新建工作负载的名称,命名必须唯一。 请输入4到63个字符的字符串,可以包含小写英文字母、数字和中划线(),并以小写英文字母开头,小写英文字母或数字结尾。 集群名称 新建工作负载所在的集群。 命名空间 在单集群中,不同命名空间中的数据彼此隔离。使应用可以共享同个集群的服务,也能够互不干扰。若您不设置命名空间,系统会默认使用default命名空间。 时区同步 单击开启后,容器将和节点使用相同时区。 须知 时区同步功能开启后,在“数据存储 > 本地磁盘”中,将会自动添加HostPath类型的磁盘,请勿修改删除该磁盘。 工作负载描述 工作负载描述信息。 步骤 3 单击“下一步:容器设置”,添加容器。 1. 单击“添加容器”,选择需要部署的镜像。 − 我的镜像:展示了您创建的所有镜像仓库。 − 第三方镜像:CCE支持拉取第三方镜像仓库(即镜像仓库之外的镜像仓库)的镜像创建工作负载。使用第三方镜像时,请确保工作负载运行的节点可访问公网。第三方镜像的具体使用方法请参见如何使用第三方镜像。 若您的镜像仓库不需要认证,密钥认证请选择“否”,并输入“镜像名称”,单击“确定”。 若您的镜像仓库都必须经过认证(帐号密码)才能访问,您需要先创建密钥再使用第三方镜像,具体操作请参见如何使用第三方镜像。 − 共享镜像:其它租户通过“容器镜像服务”共享给您的镜像将在此处展示,您可以基于共享镜像创建工作负载。 2. 配置镜像基本信息。 工作负载是Kubernetes对一组Pod的抽象模型,用于描述业务的运行载体,一个Pod可以封装1个或多个容器,您可以单击右上方的“添加容器”,添加多个容器镜像并分别进行设置。 镜像参数说明 参数 说明 镜像名称 导入的镜像,您可单击“更换镜像”进行更换。 镜像版本 选择需要部署的镜像版本。 容器名称 容器的名称,可修改。 特权容器 特权容器是指容器里面的程序具有一定的特权。 若选中,容器将获得超级权限,例如可以操作宿主机上面的网络设备、修改内核参数等。 容器规格 CPU 配额: 申请:容器需要使用的最小CPU值,默认0.25Core。 限制:允许容器使用的CPU最大值。建议设容器配额的最高限额,避免容器资源超额导致系统故障。 内存配额: 申请:容器需要使用的内存最小值,默认512MiB。 限制:允许容器使用的内存最大值。如果超过,容器会被终止。 申请和限制的具体请参见设置容器规格。 GPU 配额:当集群中包含GPU节点时,才能设置GPU,无GPU节点不显示此选项。 容器需要使用的GPU百分比。勾选“使用”并设置百分比,例如设置为10%,表示该容器需使用GPU资源的10%。若不勾选“使用”,或设置为0,则无法使用GPU资源。 GPU 显卡:工作负载实例将被调度到GPU显卡类型为指定显卡的节点上。 若勾选“不限制”,容器将会随机使用节点中的任一显卡。您也可以勾选某个显卡,容器将使用特定显卡。 3. 生命周期: 用于设置容器启动和运行时需要执行的命令。 − 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 − 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 − 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 4. 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 − 工作负载存活探针:检查容器是否正常,不正常则重启实例。 − 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 5. 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: − 手动添加:输入变量名称、变量/变量引用。 − 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见创建密钥。 − 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 6. 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见存储管理。 7. 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 8. 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 4 单击“下一步:工作负载访问设置”,单击“添加服务”,设置工作负载访问方式。 若工作负载需要和其它服务互访,或需要被公网访问,您需要添加服务,设置工作负载访问方式。 工作负载访问的方式决定了这个工作负载的网络属性,不同访问方式的工作负载可以提供不同网络能力,具体请参见网络概述。 步骤 5 单击“下一步:高级设置”,配置更多高级策略。 升级策略: − 升级方式:支持“滚动升级”。滚动升级将逐步用新版本的实例替换旧版本的实例,升级的过程中,业务流量会同时负载均衡分布到新老的实例上,因此业务不会中断。 − 最大无效实例数:每次滚动升级允许的最大无效实例数,如果等于实例数有断服风险(最小存活实例数 实例数 最大无效实例数)。 缩容策略: 缩容时间窗:请输入时间。为工作负载删除提供一个时间窗,预留给生命周期中PreStop阶段执行命令。若超过此时间窗,进程仍未停止,该工作负载将被强制删除。 调度策略:您可以根据需要自由组合静态的全局调度策略或动态的运行时调度策略来实现自己的需求。具体请参见调度策略概述。 Pod 高级设置 − Pod标签:内置app标签在工作负载创建时指定,主要用于设置亲和性与反亲和性调度,暂不支持修改。您可以单击下方的“添加标签”增加标签。 客户端DNS 配置:CCE集群内置DNS插件CoreDNS,为集群内的工作负载提供域名解析服务。详细使用方法请参见Kubernetes集群内置DNS配置说明。 − DNS策略: 追加域名解析配置:选择该配置后,将保留默认配置,以下“IP地址”和“搜索域”配置可能不生效。 替换域名解析配置:选择该配置后,将仅使用以下“IP地址”和“搜索域”配置进行域名解析。 继承Pod所在节点域名解析配置:将继承Pod所在节点的域名解析配置。 − IP地址:您可对自定义的域名配置域名服务器,值为一个或一组DNS IP地址,如“1.2.3.4”。 − 搜索域:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。 − 超时时间(s):查询超时时间,请自定义。 − ndots:表示域名中必须出现的“.”的个数,如果域名中的“.”的个数不小于ndots,则该域名为一个FQDN,操作系统会直接查询;如果域名中的“.”的个数小于ndots,操作系统会在搜索域中进行查询。 自定义指标监控:是指监控系统提供的一种指标收集机制,该机制允许工作负载在部署时自定义需要上报的指标名称以及获取这些指标数据的接入点信息,在应用运行时由监控系统按固定的频率访问接入点进行指标的收集。 性能管理配置:性能管理服务可协助您快速进行工作负载的问题定位与性能瓶颈分析。 步骤 6 配置完成后,单击“创建”,在创建成功页面单击“返回工作负载列表”,查看工作负载状态。 在工作负载列表中,当工作负载状态为“运行中”时,表示工作负载创建成功。工作负载状态不会实时更新,请单击右上角的图标或按F5刷新页面查看。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        创建守护进程集(DaemonSet)
      • 错误码列表
        本节主要介绍OOS API错误码。 状态码 错误码 错误信息 描述 400 AuthorizationHeaderMalformed The authorization header is malformed. 签名头格式不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Credential. 签名头格式不正确,需补充Credential。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing SignedHeaders. 签名头格式不正确,需补充SignedHeaders。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Signature. 签名头格式不正确,需补充Signature。 400 AuthorizationHeaderMalformed The authorization header is malformed, the Credential is malformed, expecting 'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'. 签名头中Credential格式不正确,格式应该为'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the date format 'date' is wrong, expecting 'YYYYMMDD'. 签名头中date格式不正确,应该为'YYYYMMDD'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the region'region' is wrong, expecting 'region'. 签名头中区域名不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect service 'service '. This endpoint belongs to 'endpoint'. 签名头不正确,服务域名不对。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect terminal 'terminal'. This endpoint uses 'aws4request'. 签名头不正确,endpoint应使用服务aws4request。 400 AuthorizationPostFormFieldsError Form Post authentication version 4 requires the policy, xamzalgorithm, xamzcredential, xamzsignature, xamzdate form fields. V4签名中policy、xamzalgorithm、xamzcredential、xamzsignature、xamzdate不能为空。 400 AuthorizationPostFormFieldsError Xamzalgorithm only supports 'AWS4HMACSHA256'. v4签名算法仅支持AWS4HMACSHA256。 400 AuthorizationPostFormFieldsError Xamzdate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". xamzdate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError XAmzAlgorithm only supports 'AWS4HMACSHA256'. V4预签名签名算法仅支持AWS4HMACSHA256。 400 AuthorizationQueryParametersError Querystring authentication version 4 requires the XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires parameters. V4预签名需要下列参数:XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires。 400 AuthorizationQueryParametersError XAmzExpires must be less than a week (in seconds); that is, the given XAmzExpires must be less than 604800 seconds. V4预签名生成时间不能超过7天。 400 AuthorizationQueryParametersError XAmzExpires must be nonnegative. V4预签名过期时间不能为负数。 400 AuthorizationQueryParametersError XAmzDate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". V4预签名XAmzDate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError Invalid credential date"date". This date is not the same as XAmzDate:"date". V4预签名credential date与XAmzDate的日期需要保持一致。 400 BadDigest The ContentMD5 you specified did not match what we received. ContentMD5不正确。 400 BadRequest Advance cut's position is out of image. 剪切图片时起始坐标超过原图片尺寸。 400 CanNotModifyMetadataLocation Can not modifiy bucket metadata location. 不能修改元数据位置。 400 IdMismatch Document ID does not match the specified configuration ID. 请求头和请求体中清单ID输入不一致。 400 IncompleteBody You did not provide the number of bytes specified by the ContentLength HTTP header. ContentLength配置的长度与实际收到的数据长度不符,请检查后重发。 400 InvalidArgument User key must have a length greater than 0. 表单上传文件时Key项的值不能为空。 400 InvalidArgument The authorization header is invalid. Expected AccessKeyId:signature. v2签名格式不正确,应该为“AccessKeyId :signature”。 400 InvalidArgument xamzcontentsha256 must be UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD, or a valid sha256 value. v4签名xamzcontentsha256必须是UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD或者有效的sha256值。 400 InvalidArgument Unsupported authorization type. v4签名Authentication标头只支持AWS4HMACSHA256算法。 400 InvalidArgument Bucket POST must contain a field named 'AWSAccessKeyId'. If it is specified, please check the order of the fields. 必须包含字段AWSAccessKeyId。 400 InvalidArgument Bucket POST must contain a field named 'policy'. If it is specified, please check the order of the fields. 必须包含字段policy。 400 InvalidArgument Bucket POST must contain a field named 'signature'. If it is specified, please check the order of the fields. 必须包含字段signature。 400 InvalidArgument POST requires exactly one file upload per request. POST请求每次只能上传一个文件。 400 InvalidArgument Bucket POST must contain a field named 'key'. If it is specified, please check the order of the fields. 表单上传中必须指定key。如果已指定,请检查字段顺序。 400 InvalidArgument If the TargetBucket element does not exist, the TargetPrefix element cannot exist either. 在配置日志规则时,如果TargetBucket元素不存在,则TargetPrefix也不能存在。 400 InvalidArgument The target prefix exceeds 900 bytes. 配置日志记录规则时,TargetPrefix的长度不能超过900字节。 400 InvalidArgument ID length should not exceed allowed limit of 255. 配置生命周期规则时,Rule ID长度不能超过255。 400 InvalidArgument At least one action needs to be specified in a rule. 配置生命周期规则时,必须配置过期时间,Days或Date。 400 InvalidArgument 'Days' for [TransitionExpiration] action must be a positive integer. 配置生命周期规则时,Days必须为正整数。 400 InvalidArgument Only one action can be specified in the rule. 配置生命周期规则时,Days或Date只能存在一个。 400 InvalidArgument 'Date' must be at midnight GMT. 配置生命周期规则时,Date必须为ISO8601格式,并且为UTC的零点。 400 InvalidArgument Invalid target Storage class for Transition action. 指定的存储类型无效。 400 InvalidArgument Default retention period must be a positive integer value. 合规保留日期取值必须是正整数。 400 InvalidArgument Object lock configuration has been enabled and can not be disabled. 合规保留已经开启,不能关闭。 400 InvalidArgument Default retention period cannot be less than previously value. 设置的合规保留时长不能短于上次设置的时长。 400 InvalidArgument MaxUploads should be between 1~1000. maxuploads的取值范围为[1,1000]。 400 InvalidArgument The length of delimiter must be 1. delimiter长度不能超过1。并且只能是‘/’或空。 400 InvalidArgument MaxKeys should be between 1~1000. 参数maxKeys取值范围为[1,1000]。 400 InvalidArgument Maxparts should be between 1~1000. maxparts取值范围为[1,1000]。 400 InvalidArgument Partnumbermarker must be an integer between 0 and 2147483647. partnumbermarker必须是整数,取值范围是(0, 2147483647)。 400 InvalidArgument xamzlimitrate invalid. The input should be positive integer. xamzlimitrate取值必须为正整数。 400 InvalidArgument Invalid request parameter: value. 参数无效。 400 InvalidArgument The object size should be less than 5TiB. 文件大小不能超过5TiB。 400 InvalidArgument The 'Expires' field format invalid. The 'Expires' header format invalid. Expires格式不正确。 400 InvalidArgument The metadata size should be less than 2KiB. 用户自定义元数据不能超过2KiB。 400 InvalidArgument Insufficient information. Origin request header needed. 跨域预检时,请求头不正确。 400 InvalidArgument Please enter an integer not less than 1. CORS配置中MaxAgeSeconds取值为不小于1的整数。 400 InvalidArgument Invalid AccessControlRequestMethod:value . AccessControlRequestMethod无效。 400 InvalidArgument The xamzcopysourcerange value must be of the form bytesfirstlast where first and last are the zerobased offsets of the first and last bytes to copy. xamzcopysourcerange形式必须为bytesfirst last,其中第一个和最后一个都是以零为基础开始的偏移量。 400 InvalidArgument Invalid protocol, protocol can be http or https. If not defined the protocol will be selected automatically. 指定的http协议值不正确。 400 InvalidArgument The provided host name contains N characters. The maximum allowed redirect page size is 1024 characters. HostName包含的字符个数大于1024。 400 InvalidArgument The provided home page contains N characters. The maximum allowed home page size is 1024 characters. 首页包含的字符个数大于1024。 400 InvalidArgument The provided error page contains N characters. The maximum allowed error page size is 1024 characters. 错误页包含的字符个数大于1024。 400 InvalidArgument The provided replacement contains N characters. The maximum allowed replacement size is 1024 characters. 重定向规则中ReplaceKeyPrefixWith或者ReplaceKeyWith包含的字符个数大于1024。 400 InvalidArgument The provided prefix contains N characters.The maximum allowed prefix size is 1024 characters. 重定向规则中KeyPrefixEquals包含的字符个数大于1024。 400 InvalidArgument RedirectAllRequestsTo cannot be provided in conjunction with other Routing Rules. 重定向所有请求不能与其他规则同时存在。 400 InvalidArgument The IndexDocument Suffix cannot contain the "/" character. 索引页配置不能包含斜杠“/”。 400 InvalidArgument The IndexDocument Suffix cannot be blank. 索引页配置不能为空。 400 InvalidArgument Missing required key 'Redirect'. 缺少必需的参数Redirect。 400 InvalidArgument The ErrorDocument Key cannot be blank. 错误页配置不能为空。 400 InvalidArgument The HostName cannot be blank. HostName配置不能为空。 400 InvalidArgument The HostName cannot contain the "/" character. HostName不能包含斜杠“/”。 400 InvalidArgument The provided HTTP error code (value) is not valid. Valid codes are 4XX or 5XX. 重定向条件中的HttpErrorCodeReturnedEquals不是有效值。 400 InvalidArgument Missing required key 'HostName'. 缺少必需的参数HostName。 400 InvalidArgument The HostName cannot contain spaces. HostName配置不能包含空格。 400 InvalidArgument A value for IndexDocument Suffix must be provided if RedirectAllRequestsTo is empty. 重定向所有请求未配置时,索引文件必须配置。 400 InvalidArgument The destination bucket does not belong to you. 目的Bucket为他人的Bucket。 400 InvalidArgument Invalid Format value. 清单的格式不正确,取值只能为CSV。 400 InvalidArgument Invalid Field value. Field值填写错误。 400 InvalidArgument The maximum size of a Destination/Prefix is 512. Prefix最大长度为512。 400 InvalidArgument The maximum size of a Filter/Prefix is 1024. Prefix最大长度为1024。 400 InvalidArgument IsEnabled value expects true or false. IsEnabled的取值只能为true或false。 400 InvalidArgument Frequency value expects Daily or Weekly. Frequency的取值只能为Daily或Weekly。 400 InvalidArgument Schedule/Frequency missing. Frequency未填写。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Bucket missing. 清单的目的Bucket未填写。 400 InvalidArgument IsEnabled missing. IsEnabled缺失。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Format missing. 清单的输出格式缺失。 400 InvalidArgument Invalid id. Id无效。 400 InvalidArgument Id missing. 请求体中的id缺失。 400 InvalidArgument The type of 'IsAccessTime' must be Boolean. IsAccessTime取值应为布尔型,true或者false。 400 InvalidArgument 'Days' in the Expiration action for prefix 'prefix ' must be greater than 'Days' in the Transition action. 两生命周期规则重叠时,过期删除天数必须大于过期转储天数。 400 InvalidBucketCorsConfigure The XML you provided is not valid. XML无效。 400 InvalidBucketName The bucket name is:name . Bucket名字无效。 400 InvalidConfigurationId The specified configuration id is invalid. 请求头的清单ID未填写。 400 InvalidLocationConstraint The specified location constraint is not valid. 指定的数据位置无效。 400 InvalidObjectName The object name is:name . 文件名字无效。 400 InvalidOOSDestinationBucket Invalid Bucket ARN. Bucket ARN的格式不正确。 400 InvalidOOSDestinationBucket Invalid Bucket Name:bucketname . 清单输出的目的Bucket不存在。 400 InvalidPart One or more of the specified parts could not be found. The part may not have been uploaded, or the specified entity tag may not match the part's entity tag. 一个或者多个指定片段无法找到,片段可能没有被上传,或者指定的ETag值跟片段的ETag值不匹配。 400 InvalidPartNumber Part number must be an integer between 1 and 10000. 参数PartNumber的取值是[1, 10000]。 400 InvalidPartOrder The list of parts was not in ascending order. The parts list must be specified in order by part number. 分片片段列表没有按升序排列。片段列表必须根据分片号按顺序排列。 400 InvalidPartSize Your proposed upload is smaller than the minimum allowed object size. Each part must be at least 5 MiB in size, except the last part. 合并分片文件时,只允许最后一片小于5MiB,其他分片至少5MiB。 400 InvalidPolicyDocument Invalid Policy: JSON invalid:value . 策略无效,不是标准的json格式。 400 InvalidPolicyDocument Invalid according to Policy: Extra input fields:value . 策略无效,输入了额外的字段。 400 InvalidPolicyDocument Policy could not be parsed as a valid JSON string. 策略必须是json格式。 400 InvalidPolicyDocument Policy is missing required element Statement. 策略必须配置Statement。 400 InvalidPolicyDocument Policy is missing required element Principal. 策略必须配置Principal。 400 InvalidPolicyDocument Policy element has invalid value Principal. 策略配置的Principal值无效。 400 InvalidPolicyDocument Policy is missing required element Resource. 策略必须配置Resource元素。 400 InvalidPolicyDocument Policy is missing required element Resource content. 策略的Resource元素必须赋值。 400 InvalidPolicyDocument Policy has invalid resource resource . 策略配置的Resource无效。 400 InvalidPolicyDocument Policy has an invalid condition key key . 策略配置的condition key无效。 400 InvalidPolicyDocument No such condition type type. 策略配置的condition type无效。 400 InvalidPolicyDocument Action does not apply to any resource(s) in statement. 策略配置的Action无效。 400 InvalidPolicyDocument Policy is missing required element Effect. 策略必须配置Effect。 400 InvalidPolicyDocument Policy element has invalid value Effect :Effect . 策略配置的Effect无效。 400 InvalidPolicyDocument Policy element has invalid value Version :Version . 策略配置的Version无效。 400 InvalidRedirectLocation The website redirect location must be nonempty. xamzwebsiteredirectlocation头不能为空。 400 InvalidRedirectLocation The website redirect location must have a prefix of ' or ' or '/'. xamzwebsiteredirectlocation必须有前缀' 400 InvalidRedirectLocation The length of website redirect location cannot exceed 2,048 characters. xamzwebsiteredirectlocation长度不能超过2048。 400 InvalidRequest Missing required header for this request: xamzcontentsha256. v4签名必须携带xamzcontentsha256。 400 InvalidRequest Missing required header for this request: ContentMD5. 请求头必须包含ContentMD5。 400 InvalidRequest Please reduce your request rate. 请降低您的请求频率。 400 InvalidRequest The operation failed, please change a resource pool and try again. 请换其他资源池或者重试。 400 InvalidRequest This copy request is illegal because it is trying to copy an object to itself without changing the object's metadata or storage class. 复制文件时必须修改元数据或者存储类型。 400 InvalidRequest xamzlimitrate invalid.The input should be positive integer. xamzlimitrate只能是正整数。 400 InvalidRequest The source object size cannot be smaller than 5 GiB. 如果源文件取range进行拷贝,源文件大小不能小于5G。 400 InvalidRequest You can only define ReplaceKeyPrefix or ReplaceKey but not both. ReplaceKeyPrefix或者ReplaceKey不能同时存在。 400 InvalidRequest Condition cannot be empty. To redirect all requests without a condition, the condition element shouldn't be present. Condition配置不能为空。不带条件的情况下,重定向所有请求不应该出现condition元素。 400 InvalidRequest The maximum size of a prefix is 1024. 配置生命周期规则时,前缀的最大长度为1024。 400 InvalidRequest Number of lifecycle rules should not exceed allowed limit of 1000 rules. 同一Bucket配置的生命周期规则不能超过1000条。 400 InvalidRequest Rule ID must be unique. Found same ID for more than one rule. 配置生命周期规则时,Rule ID必须唯一。 400 InvalidRequest Found two rules with same prefix 'prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有相同的prefix。 400 InvalidRequest Found overlapping prefixes 'prefix ' and ' prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有前缀重叠的情况。 400 InvalidRequest Found overlapping prefixes 'prefix ' and '' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能同时存在有前缀和无前缀规则。 400 InvalidStorageClass The storage class you specified is not valid. xamzstorageclass无效。 400 InvalidStorageClass Can not specify the storage class. 未合并的分段文件不能指定xamzstorageclass进行拷贝。 400 InvalidTargetBucketForLogging The target bucket name is:name. 日志记录规则时,目标Bucket不存在或者无目标Bucket的权限。 400 MalformedPOSTRequest The body of your POST request is not wellformed multipart/formdata. POST表单请求中contenttype配置的boundary格式不规范。 400 MalformedXML CORS Rule is empty. CORS Rule不能为空。 400 MalformedXML The number of CORS Rules you provided cannot exceed 100. CORS Rules个数不能超过100。 400 MalformedXML The length of CORS Rule ID you provided cannot exceed 255 characters. CORS Rule ID长度不能超255个字符。 400 MalformedXML AllowedOrigin does not exist. CORS配置中AllowedOrigin不存在。 400 MalformedXML AllowedMethod does not exist. CORS配置中AllowedMethod不存在。 400 MalformedXML AllowedOrigin "value" can not have more than one wildcard. CORS配置中AllowedOrigin最多只能携带一个通配符。 400 MalformedXML AllowedHeader "value" can not have more than one wildcard. CORS配置中AllowedHeader最多只能携带一个通配符。 400 MalformedXML ExposeHeader "value" contains wildcard. We currently do not support wildcard for ExposeHeader. CORS配置中ExposeHeader不能携带通配符。 400 MalformedXML CORS Rule ID is not unique. CORS Rule ID必须是唯一的。 400 MalformedXML The XML you provided was not wellformed or did not validate against our published schema. XML格式不正确。 400 MaxRequestBodyLengthExceeded Your request was too big, the maximum size is %s . 请求体长度太长。 400 MissingRequestBodyError Request Body is empty. 请求body体为空。 400 NoSuchUpload The specified upload does not exist. The uploadId may be invalid, or the upload may have been aborted or completed. 指定的分片上传过程不存在,上传ID可能非法,分片上传过程可能被终止或者已经完成。 400 PutObjectTooFast Upload:value is updated too fast. 同一文件并发上传过快。 400 TooManyBuckets You have attempted to create more buckets than allowed. Bucket数量已经到达上限。 400 TooManyConfigurations You are attempting to create a new configuration but have already reached the 10configuration limit. 超出清单配置规则的数量限制,每个Bucket最多配置10条清单。 403 InvalidAccessKeyId InvalidAccessKeyId. AccessKeyId无效。 403 InvalidAccessKeyId The AccessKeyId is invalid. AccessKeyId被禁用。 403 InvalidAccessKeyId The specified accessKey:accessKey does not exist. 临时密钥不存在,需重新申请。 403 AccessDenied Please use primary access key. 需要使用主密钥。 403 AccessDenied Nonprimary key can not list without prefix or prefix is not start with access key. 非主密钥只能list以自己access key为前缀的文件。 403 AccessDenied Nonprimary key can not operate bucket. 非主密钥,不能操作该Bucket。 403 AccessDenied Nonprimary key can not operate object that not start with access key. 非主密钥只能操作以自己access key为前缀的文件。 403 AccessDenied The secret token is expired, expiration:value . secret token过期。 403 AccessDenied The OOS service has been closed due to overdue payment. If the overdue payment exceed 15 days, the data will be deleted. Please recharge it in time. 由于逾期付款,OOS服务已关闭。如果逾期付款超过15天,数据将被删除。请及时充值。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header. OOS 签名头中需要携带Date或xamzdate。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header, expecting" YYYYMMDD'T'HHMMSS'Z'". OOS 签名头需要携带正确格式的Date或xamzdate,格式为YYYYMMDD'T'HHMMSS'Z'。 403 AccessDenied Invalid according to Policy: Policy expired. v4签名的xamzdate时间不能超过7天。 403 AccessDenied Invalid according to Policy: Policy Condition failed:xxx 签名策略不对。 403 AccessDenied Querystring authentication requires the Signature, Expires and AWSAccessKeyId parameters. V2预签名需要携带以下参数:Signature、Expires、AWSAccessKeyId。 403 AccessDenied Invalid date (should be seconds since epoch):date . 过期时间需要精确到秒。 403 AccessDenied Request has expired. 请求过期。 403 AccessDenied Anonymous access is forbidden for this operation. 匿名用户禁止此操作。 403 AccessDenied The user's permission is not enough. 用户权限不足。 403 AccessDenied You do not have permission to this resource pool, please try another resource pool. 没有该资源池的权限,请使用其他资源池。 403 AccessDenied CORSResponse: This CORS request is not allowed. This is usually because the evalution of Origin, request method / AccessControlRequestMethod or AccessControlRequestHeaders are not whitelisted by the resource's CORS spec. 跨域预检请求没有通过CORS规则校验。请检查Origin、AccessControlRequestMethod、AccessControlRequestHeaders是否在CORS列表的白名单中。 403 AccessDenied CORSResponse: CORS is not enabled for this bucket. 此Bucket未配置CORS。 403 AccessDenied Access denied by bucket policy. 受Bucket Policy的规则影响,被显示拒绝。 403 AccessDenied Access denied by bucket policy or anonymous access is forbidden. 匿名访问被拒绝,或者被Bucket Policy规则隐式拒绝。 403 AccessDenied User:user is not authorized to perform:action on resource: resource . 没有权限访问此资源。 403 AccessDenied The user does not belong to the region. 没有此资源池的上传权限,请更换其他资源池重试。 403 AccessDenied You do not have permission to request the value data region. Please change the data region for the bucket and try again. Bucket下配置的数据位置都已失效,请重新配置,或者修改为可以自动调度。 403 AccessDenied You are not allowed to set the publicreadwrite permission for the bucket. 您不具备将容器设置为公有的权限,请联系天翼云客服协助开通此功能。 403 AccessDenied You are not allowed to grant publicwrite permission to anonymous users. 您不可以向匿名用户授予写权限,请联系天翼云客服协助开通此功能。 403 AccessDenied Make sure that bucket's permissions are not private before using the static website hosting feature. 在使用静态网站托管功能之前,请确保Bucket权限不是私有。 403 Forbidden CORSResponse: Bucket not found. 如果是preflight CORS请求,Bucket必须存在。 403 IllegalObject The object "bucket/object " is illegal, forbid copy. 源文件是非法文件,不允许拷贝。 403 RequestTimeTooSkewed The difference between the request time and the server's time is too large. 客户端时间和服务器端时间相差超过15分钟。 403 SignatureDoesNotMatch The request signature we calculated does not match the signature you provided. Check your key and signing method. 签名计算错误,需按OOS的签名规则,请检查客户端签名计算方法。 403 SignatureDoesNotMatch The authorization type is malformed. V2签名头不是AWS开头,或者V4签名头不是AWS4HMACSHA256。 403 SignatureDoesNotMatch Invalid order of SignedHeaders. V4签名SignedHeasers需按字典序排序 404 MalformedContinuationToken The continuationtoken you provided invalid. continuationtoken的值不正确。 404 NoSuchBucket The resource you requested does not exist. 请求的Bucket不存在。 404 NoSuchBucket The request bucketname is name. 复制文件时源Bucket不存在。 404 NotSuchBucketPolicy The bucket policy configuration does not exist. 此Bucket Policy配置不存在。 404 NoSuchCORSConfiguration The CORS configuration does not exist. Bucket下没有配置CORS。 404 NoSuchLifecycleConfiguration The lifecycle configuration does not exist. 生命周期规则配置不存在。 404 NoSuchKey The resource you requested does not exist. 请求文件不存在。 404 NoSuchKey An Error Occurred While Attempting to Retrieve a Custom Error Document. 尝试检索自定义错误文档时发生错误。 404 NoSuchWebsiteConfiguration The specified bucket does not have a website configuration. Bucekt未开启website功能。 404 ObjectLockConfigurationNotFoundError Object lock configuration does not exist for this bucket. 此Bucket不存在合规保留配置。 405 MethodNotAllowed The specified location constraint is not valid. 指定的数据位置无效。 405 MethodNotAllowed The specified method is not allowed against this resource. 此资源不允许使用该方法。 409 BucketAlreadyExists BucketAlreadyExists. Bucket名字已存在,请更换名字。 409 BucketNotEmpty The bucket you tried to delete is not empty. Bucket非空,不能删除。 411 MissingContentLength You must provide the ContentLength HTTP header. 需要提供ContentLength消息头。 412 PreconditionFailed Bucket post must be of the enclosuretype multipart/formdata. POST表单的contenttype请求头不正确。 412 PreconditionFailed The preconditions xamzcopysourceifmodifiedsince you specified did not hold. 预处理条件下,指定的xamzcopysourceifmodifiedsince不匹配。 503 ServiceUnavailable Service is busy.Please try again. 服务器繁忙,请重试。 503 SlowDown Please reduce your request rate. 请降低请求频率。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        错误响应
        错误码列表
      • 创建对等连接(跨账号)
        本文帮助您快速熟悉如何创建跨账户对等连接。 操作场景 对等连接支持创建跨账号对等连接连通跨账号的两个VPC,您可以通过创建对等连接来实现同一资源池不同VPC之间的连通。 约束与限制 两个VPC之间只能建立一个对等连接。 对等连接只能在同一资源池VPC之间建立,不支持跨资源池对等连接。 要实现不同资源池VPC内网互通,可以使用云间高速。 在配置对等连接时,如果本端VPC和对端VPC存在网段重叠的情况,可能会出现VPC中部分或全部子网不能通过对等连接互通的情况,具体请参考对等连接使用示例。 创建不同账户下的VPC对等连接时,如果本端账户发起了对等连接请求,该请求需要对端账户接受方可成功创建。若对端账户拒绝请求,则对等连接将无法建立。为确保网络安全,请勿接受来自未知账户的对等连接申请。 前提条件 在不同账号下分别创建同地域内的两个VPC,并获取对端账户邮箱和对端VPC ID。 说明 VPC ID 可以通过登录 虚拟私有云控制台 获取。登录虚拟私有云控制台后,在虚拟私有云列表中点击目标 VPC 名称进入 VPC 详情页,在 VPC 详情部分可以查看具体的资源信息。 操作步骤 1. 登录控制中心,单击控制中心左上角的,选择地域,此处选择华东华东1。 2. 点击“网络 >虚拟私有云”,进入虚拟私有云主页面。 3. 在左侧导航栏选择“对等连接”。 4. 在界面右侧区域点击“创建对等连接”。 5. 根据界面提示配置参数,其中“账户”选择“其他账户”。 参数 说明 选择本端VPC 名称 对等连接名称,由汉字、英文字母、数字、中划线、下划线等构成,一般不超过64个字符。 选择本端VPC 描述 可选参数。 根据需要在文本框中输入对等连接的描述信息。 选择本端VPC 企业项目 所属企业项目,系统默认为default。 选择本端VPC 本端VPC 本端VPC:显示已选择的本端VPC,可在下拉框中选择。 选择本端VPC 本端VPC网段 显示本端VPC的网段。 选择对端VPC 账户 当前账户:表示在同一个账户内、同一个地域下的不同VPC间建立对等连接。 其他账户:表示在同一个地域下的不同账户的VPC间建立对等连接。 此处选择其他账户。 选择对端VPC 对端账户 对端账户邮箱地址 选择对端VPC 对端VPC ID 对端VPC ID,可在VPC详情页面查看。 6. 配置完成后,点击“确定”。 7. 返回到对等连接列表,可查看该对等连接的状态为“待接受”。 注意 创建跨账户的对等连接时,需要对端VPC所属的账号接受连接请求后,才能在两个VPC之间建立跨账号的对等连接。
        来自:
        帮助文档
        虚拟私有云 VPC
        对等连接
        创建对等连接
        创建对等连接(跨账号)
      • 软件开发生产线使用流程
        配置流水线 流水线集成代码检查、编译构建、部署等任务,可根据需要灵活配置流水线中的任务。流水线为非必须操作,根据需要配置即可。 代码检查服务可以对代码进行静态检查和安全检查,代码检查为可选操作,根据需要配置即可。 编译构建服务将软件的源代码编译成目标文件,并把配置文件和资源文件等打包。构建为可选操作,对于一些项目,例如PHP、Node.js前端代码,无需配置构建任务。 部署服务将软件包或代码部署到虚拟机或者容器。部署为可选操作,对于一些项目,例如手机APP开发,无需此类部署方式。 步骤 1 创建代码检查任务。 1. 进入已创建的项目,单击导航栏“代码 > 代码检查”。 2. 单击“新建任务”,在页面中选择需要检查的代码仓库,单击仓库名称后的“新建任务”。 3. 任务创建成功后,进入“概览”页面,单击“开始检查”启动任务。 4. 待任务执行成功后,可以查看检查结果、问题列表、修改建议等。 代码检查服务更多操作请参考《代码检查用户指南》。 步骤 2 创建构建任务。 1. 进入已创建的项目,单击导航栏“持续交付 > 编译构建” 2. 单击“新建任务”,根据需要配置任务信息。 基本信息:配置以下信息,单击“下一步”。 表:构建任务基本信息 配置项 配置建议 任务名称 输入自定义名称。 源码源 选择“Repo”。 源码仓库 选择在配置代码仓库中创建的代码仓库。 分支 根据需要选择仓库分支。 构建模板:可选择内置模板,也可以选择“空白构建模板”,单击“下一步”。 3. 根据需要配置构建步骤、参数、执行计划,单击“新建并执行”。 4. 待任务执行完成后,可以在页面中查看构建结果与构建日志。 编译构建服务更多操作指导请参考《编译构建用户指南》。 步骤 3 创建部署应用。 1. 进入已创建的项目,在页面导航栏选择“设置 > 通用设置 > 基础资源管理”,新建主机集群,并将前提条件中准备的主机加入集群。 2. 进入已创建的项目,在页面导航栏选择“持续交付 > 部署”。 3. 单击“新建应用”,根据需要配置应用信息。 基本信息:输入自定义应用名称,单击“下一步”。 选择部署模板:可选择内置模板,也可以选择“空白模板”,单击“确定”。 4. 根据需要配置部署步骤、参数、环境等信息,单击“保存并部署”。 5. 待应用部署成功后,可以在页面中查看部署结果、部署日志、报错信息等。 部署服务更多操作指导请参考《部署用户指南》。 步骤 4 配置流水线。 1. 进入已创建的项目,单击导航栏“持续交付 > 流水线”。 2. 选择“流水线”页签,单击“新建流水线”,根据实际情况配置流水线信息。 基本信息:配置以下信息,单击“下一步”。 表:流水线基本信息 配置项 配置建议 流水线源 选择“Repo”。 代码库名称 选择在配置代码仓库中创建的代码仓库。 默认分支 根据需要选择仓库分支。 模板:可选择内置模板,也可以选择“空白模板”,单击“确定”。 3. 根据需要配置任务编排、参数、执行计划,单击“保存并运行”。 4. 待任务执行成功后,可单击各任务查看其执行详情。 流水线服务更多操作指导请参考《流水线用户指南》。
        来自:
        帮助文档
        软件开发生产线CodeArts
        快速入门
        软件开发生产线使用流程
      • 限流降级
        本章节介绍微服务云应用平台限流降级能力 概述 限流降级包含限流和降级两个功能。限流是指通过调节流量阈值控制通过系统的最大流量值,保证系统安全可靠运行。降级通常用于对下游出现超时的非核心服务提供者进行低优先级调用,确保上游核心应用(服务消费者)不被影响。通过接入限流降级,您实时查看限流降级详情和动态变更规则,从而全面保障您的应用可用性。使用限流降级需要事先部署时配置限流降级高级配置接入限流降级。 前提条件 1. 开通微服务治理中心企业版 2. 开启接入微服务治理和限流降级 规则管理 支持配置流控规则、隔离规则、熔断规则、主动降级规则、热点规则、自适应流控等规则。 流控规则 流控规则的原理是监控应用或服务流量的QPS指标,当指标达到设定的阈值时立即拦截流量,避免应用被瞬时的流量高峰冲垮,从而保障应用高可用性。适用于需要限制突发的流量,在尽可能处理请求的同时来保障服务不被击垮的场景。 1. 在应用总览页面,选择限流降级规则管理,进入规则管理页面 2. 选择流控规则页签,点击新增进入流控规则配置页面 3. 选择防护场景 配置项 描述 接口名称 待流控的资源名称。 4. 配置防护规则 参数 描述 是否集群流控 开启集群流控,对集群内此资源的调用总量进行限制。 是否开启 打开开关表示启用该规则,关闭开关表示禁用该规则。 单机QPS阈值 触发对流控接口的统计维度对象的QPS阈值。 来源应用 该规则针对的来源应用,默认来源应用设为default,代表不区分来源应用。 统计维度 选择资源调用关系进行流控。 1,当前接口 :直接控制来自来源应用中调用来源的访问流量,如果来源应用为default则不区分调用来源。通常应用于流量匀速通过的场景。 2,关联接口 :控制当前资源的关联资源的流量。通常应用于资源争抢时,留足资源给优先级高接口的场景。 3,链路入口 :控制该资源所在的调用链路的入口流量。选择链路入口后需要继续配置入口资源,即该调用链路入口的上下文名称。通常应用于预热启动避免大流量冲击的场景 流控效果 选择流控方式来处理被拦截的流量。 1,快速失败: 达到阈值时,立即拦截请求。按照应用系统设置中的适配模块配置信息,进行内容返回。 2,预热启动: 需设置具体的预热时间。 如果系统在此之前长期处于空闲的状态,当流量突然增大的时候,该方式会让处理请求的速率缓慢增加,经过设置的预热时间以后,到达系统处理请求速率的设定值。 默认会从设置的QPS阈值的1/3开始慢慢往上增加至设置的QPS值,多余请求会按照快速失败处理。 3,排队等待: 请求匀速通过,允许排队等待,通常用于请求调用削峰填谷等场景。需设置具体的超时时间,达到超时时间后请求会快速失败。 5. 配置限流行为 配置行为主要是配置Fallback行为。Fallback行为定义某个埋点资源触发了某种规则(如流控、熔断、降级)后的处理行为。目前Fallback行为仅支持Web和RPC两种资源类型。如果您不需要自定义限流后的Fallback行为,则选择默认行为即可。 配置成功后,新的流控规则将出现在流控规则列表中。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        部署运维
        容器应用实例
        限流降级
      • 使用ICAgent采集容器日志
        参数 参数说明 存储类型 主机路径:HostPath模式,将主机路径挂载到指定的容器路径(挂载路径)。用户可以在节点的主机路径中查看到容器输出在挂载路径中的日志信息。 容器路径:EmptyDir模式,将节点的临时路径挂载到指定的路径(挂载路径)。临时路径中存在的但暂未被采集器上报到AOM的日志数据在Pod实例删除后会消失。 主机路径 请输入主机的路径,如:/var/paas/sys/log/nginx 挂载路径 请输入数据存储要挂载到容器上的路径,如:/tmp 说明 请不要挂载到系统目录下,如“/”、“/var/run”等,否则会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 挂载高危目录的情况下 ,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。 AOM只采集最近修改过的前20个日志文件,且默认采集两级子目录。 AOM只采集挂载路径下的“.log”、“.trace”、“.out”文本日志文件。 容器中挂载点的权限设置方法,请参见为 主机扩展路径 仅“主机路径”类型需要填写 通过实例的ID或者容器的名称扩展主机路径,实现同一个主机路径下区分来自不同容器的挂载。 会在原先的“卷目录/子目录”中增加一个三级目录。使用户更方便获取单个Pod输出的文件。 None:不配置拓展路径。 PodUID:Pod的ID。 PodName:Pod的名称。 PodUID/ContainerName:Pod的ID/容器名称。 PodName/ContainerName:Pod名称/容器名称。 采集路径 设置采集路径可以更精确的指定采集内容,当前支持以下设置方式: 不设置则默认采集当前路径下.log .trace .out文件 设置 表示递归采集5层目录下的.log .trace .out文件 设置表示模糊匹配 例子: 采集路径为/tmp/ /test.log表示采集/tmp目录及其15层子目录下的全部以test开头的.log文件。 说明 使用采集路径功能请确认您的采集器ICAgent版本为5.12.22或以上版本。 日志转储 此处日志转储是指日志的本地绕接。 设置:AOM每分钟扫描一次日志文件,当某个日志文件超过50MB时,会立即对其转储(转储时会在该日志文件所在的目录下生成一个新的zip文件。对于一个日志文件,AOM只保留最近生成的20个zip文件,当zip文件超过20个时,时间较早的zip文件会被删除),转储完成后AOM会将该日志文件清空。 不设置:若您在下拉列表框中选择“不设置”,则AOM不会对日志文件进行转储。 说明 AOM的日志绕接能力是使用copytruncate方式实现的,如果选择了设置,请务必保证您写日志文件的方式是append(追加模式),否则可能出现文件空洞问题。 当前主流的日志组件例如Log4j、Logback等均已经具备日志文件的绕接能力,如果您的日志文件已经实现了绕接能力,则无需设置。否则可能出现冲突 建议您的业务自己实现绕接,可以更灵活的控制绕接文件的大小和个数。
        来自:
        帮助文档
        云容器引擎
        用户指南
        运维管理
        使用ICAgent采集容器日志
      • 操作类
        本节主要介绍云存储网关操作相关的常见问题。 如何配置云存储网关访问权限? 为加强云存储网关的安全性,可通过配置防火墙权限,限制端口3260的访问来源 IP。请参考以下步骤操作: 1. 开启防火墙: systemctl start firewalld 2. 配置允许 IP: firewallcmd permanent addrichrule"rule familyipv4 source addressIP port protocoltcp port3260 accept" 3. 重启防火墙: firewallcmd –reload 4. 开机自动启动: systemctl enable firewalld.service 配置Linux集群版时,如何更改客户端连接到云存储网关的超时时间? 可以通过更改客户端/etc/iscsi/iscsid.conf和/etc/multipath.conf配置文件,来控制客户端到云存储网关的超时时间。 iscsid文件位置:/etc/iscsi/iscsid.conf 配置项名称 配置项含义 :: conn[0].timeo.noopoutinterval iSCSI Initiator发送NOP OUT的间隔时间,默认值5,单位为秒。 conn[0].timeo.noopouttimeout iSCSI Initiator发出NOP OUT后,收到NOP IN响应的超时时间,默认值5,单位为秒。 session.timeo.replacementtimeout 达到noopouttimeout后,iSCSI Initiator向SCSI层或multipath层返回IO失败前等待iSCSI session重建的超时时间。 默认值200,单位为秒。可选值如下: 0:不等待session 重建,立即返回IO失败。 0:等待指定时间后,返回IO失败。 查看运行时replacementtimeout: cat /sys/class/iscsisession/sessionXX/recoverytmo 修改运行时的replacementtimeout: echo X > /sys/class/iscsisession/sessionXX/recoverytmo 注意 若iSCSI设备配置了multipath,则 /sys/class/iscsisession/sessionXX/recoverytmo会被multipath.conf中的fastiofailtmo覆盖。 multipath文件位置:/etc/multipath.conf 配置项名称 配置项含义 :: pollinginterval 路径检测的间隔时间。默认值5,单位为秒。路径正常时,间隔时间会每次翻倍,增加到4pollinginterval。 路径检测方式由pathchecker 决定,一般为发送TUR命令,或READ第0个扇区。 fastiofailtmo SCSI传输层出现问题后,将IO失败返回到multipath层之前等待传输层重建的超时时间。默认值5,单位为秒。可选值: >0:超时时间,会覆盖/sys/class/iscsisession/sessionXX/recoverytmo off:不修改/sys/class/iscsisession/sessionXX/recoverytmo nopathretry 当某条路径失败后,IO重试的次数,默认值0. 可选值: 0/fail:立即失败。 >0:重试次数。 queue:一直重试。multipath ll查看设备信息,会显示features "1 queueifnopath"。 若nopathretryqueue,且对应的路径失败,则该路径上已经在处理的SCSI命令会被阻塞,一直等待直到路径恢复,即上层应用感知不到IO失败。对于上层是集群的应用场景,可能会影响集群的故障检测及切换。 对于已经被阻塞的SCSI命令,可执行dmsetup message mpathX 0 "failifnopath",使得该路径上的SCSI命令立即返回失败,避免上层应用无限期等待。
        来自:
        帮助文档
        云存储网关
        常见问题
        操作类
      • 管理工作负载和任务
        操作场景 工作负载创建后,您可以对其执行伸缩、升级、编辑YAML、日志、监控、回退、删除等操作。 日志 您可以通过“日志”功能查看无状态工作负载、有状态工作负载、守护进程集、普通任务的日志信息。本文以无状态工作负载为例说明如何查看日志。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“日志”。 在弹出的“日志”窗口中可以查看最近5分钟、最近30分钟、最近1小时内的日志信息。 升级 基于CCE,您可以通过更换镜像或镜像版本实现无状态工作负载、有状态工作负载、守护进程集的快速升级,业务无中断。本节以无状态工作负载为例说明如何进行升级。 若需要更换镜像或镜像版本,您需要提前将镜像上传到容器镜像服务。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”,单击待升级工作负载后的“升级”。 说明:有状态工作负载升级时,若升级类型为替换升级,需要用户手动删除实例后才能升级成功,否则界面会始终显示“升级中”。 步骤 2 请根据业务需求进行工作负载的升级。 镜像名称:单击“更换镜像”,选择新的镜像。 镜像版本:在镜像版本后的下拉框中选择对应版本。 容器名称: 单击容器名称后的,修改容器名称。 特权容器:开启后,容器将可以访问主机上的所有设备。 容器规格:可分别设置CPU配额、内存配额。 高级设置: − 生命周期:用于设置容器启动和运行时需要执行的命令。 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 − 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 工作负载存活探针:检查容器是否正常,不正常则重启实例。 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 − 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: 手动添加:输入变量名称、变量/变量引用。 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见创建密钥。 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 − 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见本地磁盘存储。 说明: 有状态工作负载只能在创建时添加数据存储,创建完成后无法再添加。 − 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 − 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 3 更新完成后,单击“提交”。 编辑YAML 可通过在线YAML编辑窗对无状态工作负载、有状态工作负载、守护进程集和容器组的YAML文件进行修改和下载。普通任务和定时任务的YAML文件仅支持查看、复制和下载。本文以无状态工作负载为例说明如何在线编辑YAML。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“更多 > 编辑YAML”,在弹出的“编辑YAML”窗中可对当前工作负载的YAML文件进行修改。 步骤 3 单击“修改”,在弹出的提示框中单击“确定”,完成修改。 步骤 4 (可选)在“编辑YAML”窗中,单击“下载”,可下载该YAML文件。 伸缩 您可以根据业务需求自行定义无状态工作负载、有状态工作负载和守护进程集的伸缩策略,降低因应对业务变化和高峰压力而人为反复调整资源的工作量,帮助您节约资源和人力成本。本文以无状态工作负载为例说明如何使用伸缩功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待设置伸缩策略工作负载后的“更多 > 伸缩”,进入工作负载详情页面。 步骤 3 在“伸缩”页签,可设置“弹性伸缩”和“手动伸缩”策略,或“编辑伸缩规则”。 详细设置方法请参见工作负载弹性伸缩。 监控 您可以通过CCE控制台查看无状态工作负载、守护进程集和容器组的CPU和内存占用情况,以确定需要的资源规格。本文以无状态工作负载为例说明如何使用监控功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击已创建工作负载的名称,进入工作负载详情页面。在监控页签,可查看工作负载的CPU利用率和物理内存使用率。 步骤 3 单击“实例列表”,单击某个实例名称前的,单击“监控”。 步骤 4 查看相应实例的CPU使用率、内存使用率。 CPU使用率。 横坐标表示时间,纵坐标表示CPU使用率。绿色线条表示CPU使用率,红色线条表示CPU使用限额。 说明: CPU使用量需要计算,故初次显示时,CPU使用量会比内存使用量晚一分钟左右显示。 只有实例处于运行状态时,才能查看CPU使用量。 物理内存使用率。 横坐标表示时间,纵坐标表示内存使用量。绿色线条表示内存使用率,红色线条表示内存使用限额。 说明: 实例处于非运行状态时,无法查看内存使用量。 回退(仅无状态工作负载可用) 所有无状态工作负载的发布历史记录都保留在系统中,您可以回退到指定的版本。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待回退工作负载后的“更多 > 回退”。 步骤 3 在“回退到该版本”后,选择回退版本,单击“确定”。 暂停(仅无状态工作负载可用) 无状态工作负载可以进行暂停操作。暂停后,对负载进行的升级操作可以正常下发,但不会被应用到实例。 如果您正在滚动升级的过程中,滚动升级会在暂停命令下发后停止,出现新旧实例共存的状态。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待暂停的工作负载后方操作栏中的“更多 > 暂停”。 步骤 3 在弹出的负载暂停信息提示框中,单击“确认”。 步骤 4 单击“确定”,可完成暂停操作。 须知: 工作负载状态为暂停中时无法执行回退操作。 恢复(仅无状态工作负载可用) 暂停中的负载可以进行恢复操作。恢复后,负载可以正常升级和回退,负载下的实例会与负载当前的最新信息进行一次同步,如果有不一致的,则会自动按照负载的最新信息进行升级。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待恢复的工作负载后方操作栏中的“更多 > 恢复”。 步骤 3 在弹出的负载恢复信息提示框中,单击“确认”。 标签管理 标签是以key/value键值对的形式附加在工作负载上的。添加标签后,可通过标签对工作负载进行管理和选择,主要用于设置亲和性与反亲和性调度。您可以给多个工作负载打标签,也可以给指定的某个工作负载打标签。 您可以根据业务需求对无状态工作负载、有状态工作负载和守护进程集的标签进行管理,本文以无状态工作负载为例说明如何使用标签管理功能。 如下图,假设为工作负载(例如名称为APP1、APP2、APP3)定义了3个标签:release、env、role。不同工作负载定义了不同的取值,分别为: APP 1:[release:alpha;env:development;role:frontend] APP 2:[release:beta;env:testing;role:frontend] APP 3:[release:alpha;env:production;role:backend] 在使用调度或其他功能时,选择“key/value”值分别为“role/frontend”的工作负载,则会选择到“APP1和APP2”。 图标签使用案例 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待添加标签的工作负载,进入工作负载详情页面。 步骤 3 单击“标签管理”,单击“添加标签”,输入键和值,单击“确定”。 说明: 标签格式要求如下:以字母和数字开头或结尾,由字母、数字、连接符()、下划线()、点号(.)组成且63字符以内。 删除工作负载/任务 若工作负载无需再使用,您可以将工作负载或任务删除。工作负载或任务删除后,将无法恢复,请谨慎操作。本文以无状态工作负载为例说明如何使用删除功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待删除工作负载后的“更多 > 删除”,删除工作负载。 请仔细阅读系统提示,删除操作无法恢复,请谨慎操作。 步骤 3 单击“是”。 说明: 若Pod所在节点不可用或者关机,负载无法删除时可以在详情页面实例列表选择强制删除。 请确保要删除的存储没有被其他负载使用,导入和存在快照的存储只做解关联操作。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        管理工作负载和任务
      • 云日志服务Logging handler SDK
        本文主要介绍Logging handler SDK使用方法。 Python logging handler概述 Python logging 模块提供了一套灵活的日志记录系统,允许开发者在应用程序中记录不同级别的消息,如调试信息、警告、错误等。使用Python SDK提供的logging Handler可以使Python程序在日志在不落盘的情况下自动上传到日志服务上,这种上传方式具有实时性、异步性、吞吐量大、配置简单等特点。使用这部分功能,只需要配置handler目录下的logging.ini 内的几个关键配置即可直接使用。 使用步骤 1、安装ctyunltspythonsdk:1.10.0,目录中包含ctyunltspythonsdk1.10.0.tar.gz。 plaintext pip install ctyunltspythonsdk1.10.0.tar.gz 如果安装失败,可单独安装requirementspy3.txt,详情可参考python SDK 概述2.2下载和安装。 plaintext pip install r requirementspy3.txt 2、修改handler 中的 logging.ini 中的自定义配置,里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) 3、执行example/samplelogginghandler.py 示例即可。 logging.ini 配置 在用例中自定义配置了三种handler :consoleHandler、asyncHandler、syncHandler。 1、consoleHandler的配置中classStreamHandler,这代表会将logger 日志输出到控制台。 2、syncHandler 配置中的 classhandler.AsyncHandler,这代表handler 将会去使用SyncHandler 类的配置进行日志上传,这个类使用的是同步单线程将logger 的日志上传到云日志服务中。 3、asyncHandler配置中的 classhandler.AsyncHandler,这代表handler 将会去使用AsyncHandler 类的配置进行日志上传,这个类使用的是异步批量多线程方式将logger 的日志上传到云日志服务中。 用户使用这个功能的时候,需要修改handler 中的args 配置。里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) ;使用环境变量 ;args(os.environ.get('LTSENDPOINT', '',),os.environ.get('LTSACCESSKEY', ''), os.environ.get('LTSSECRETKEY', ''),os.environ.get('LTSLOGPROJECT', ''), os.environ.get('LTSLOGUNIT', '')) 当然如果对安全性要求较高,强烈建议不要将明文accesskey 和 secretkey 写在logging.ini配置中,代替使用系统变量存放。可使用args(os.environ.get('LTSENDPOINT', '',)获取系统变量。 plaintext [loggers] keysroot,synclogging,asynclogging [handlers] keysconsoleHandler, asyncHandler,syncHandler [formatters] keysconsoleFormatter,ltsFormatter [loggerroot] levelDEBUG handlersconsoleHandler [loggerasynclogging] levelINFO handlersconsoleHandler,asyncHandler qualnameasynclogging propagate0 [loggersynclogging] levelINFO handlersconsoleHandler,syncHandler qualnamesynclogging propagate0 [handlerconsoleHandler] classStreamHandler levelDEBUG formatterconsoleFormatter args(sys.stdout,) [handlerasyncHandler] classhandler.AsyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [handlersyncHandler] classhandler.SyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [formatterconsoleFormatter] format%(asctime)s %(name)s %(levelname)s %(message)s [formatterltsFormatter] format%(asctime)s %(levelname)s %(threadName)s %(filename)s[line:%(lineno)d] %(message)s
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Logging handler SDK
      • 云通信SLA协议
        2.服务可用性 服务可用性计算公式:服务可用性 1 (服务月度内发送短信有效数中的明确失败数 / 服务月度内发送短信有效数)x 100% 服务指标标准 :天翼云提供的本服务可用性不低95%,如未达到上述可用性标准(属于免责条款情形的除外),客户可以按照本协议第四条约定获得赔偿。 3.限制 赔偿范围不包括以下原因所导致的非明确成功短信数造成的未达到上述服务指标承诺: 天翼云预先通知客户后进行系统维护所引起的,包括割接、维修、升级和模拟故障演练; 任何天翼云所属设备以外的网络、设备故障或配置调整引起的; 客户的应用程序受到黑客攻击而引起的; 客户维护不当或保密不当致使数据、口令、密码等丢失、泄露或验证码刷量所引起的; 客户的疏忽或由客户授权的操作所引起的; 客户未遵循天翼云云通信产品使用文档或使用建议引起的; 客户由于信控、流控、信息安全管控等违反平台规则引起的; 因工信部、通管局、运营商等管控引起的; 任何涉及黄赌毒、党政军、诈骗等非法信息引起的; 被终端接受客户认定为骚扰业务; 业务大并发需求未提前告知,短信普通用户达到百万条/天/账号、或短信渠道用户达到亿条/天/账号; 客户采用到码号扩展、码号尾号固定、三网合一码号、固定码号、指定码号配置、天翼云非官网公开试运营产品、功能及权限; 其他不可抗力引起的。 非天翼云原因造成的服务不可用或服务不达标的情况。 属于相关法律法规、相关协议、相关规则或天翼云单独发布的相关规则、说明等中所述的天翼云可以免责、免除赔偿责任等的情况。 4.服务补偿 赔偿标准:根据客户某一天翼云账号下短信成功率指标,按照以下列表标准进行赔偿 1)本服务赔偿以天翼云发放赔偿金额对应的短信条数的形式实现,单条短信价格以天翼云短信服务官方刊例价格为准,您应当遵守短信服务的使用规则(包括使用期限等,具体以天翼云官网短信服务相关规则为准)。赔偿的短信条数不能折现、不开具发票,仅限您通过您的天翼云账户使用,您也不可以将补偿的短信条数进行转让、赠予等。 2)如果本服务月度没有达到服务可用性标准,赔偿额按照相应未达标服务月度单独计算,赔偿总额不超过相应未达标服务月度内您就本服务支付的相应月度服务费(此处的月度服务费不含用代金券、优惠券、服务费减免等抵扣的费用) 指标类型 服务指标 赔偿短信条数 短信成功率 低于95%(不含)但等于或高于90% 服务周期服务费用的10%所对应的短信条数 短信成功率 低于90% 服务周期服务费用的30%所对应的短信条数 补偿方式 : 如果天翼云未达到本SLA承诺的服务可用性,则您可依照本SLA的规定申请补偿,补偿将以服务补偿时间的方式发放,且该补偿是天翼云针对服务不满足服务可用性承诺向您提供的全部及唯一补偿。 补偿申请时限: 您可在每服务周期账单结清后对该服务周期没有达到服务可用性承诺的云服务提出补偿申请,且补偿申请必须在该云服务没有达到服务可用性承诺的服务周期结束后两(2)个月内提出。超出申请时限的补偿申请将不被受理。天翼云将对您的申请进行合理评估,并依据本SLA约定及诚信原则就是否适用补偿做出决定。 补偿申请方法: 您可以在天翼云用户中心提交工单申请补偿。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        相关协议
        云通信SLA协议
      • 约束与限制
        本文介绍了企业交换机服务的配额与使用限制。 配额 表企业交换机配额限制 规格项 默认配额 申请更多配额 每个租户支持创建的企业交换机数量 5个 请提交工单申请更多配额 每个企业交换机支持绑定的VPC数量 1个 不支持修改 每个子网支持连通的二层连接数量 1个 不支持修改 每个“小型”企业交换机支持建立的二层连接数量 1个 不支持修改 每个“中型”企业交换机支持建立的二层连接数量 3个 不支持修改 每个“大型”企业交换机支持建立的二层连接数量 6个 不支持修改 使用限制 不支持云下往云上转发未知单播、广播、组播(除VRRP协议外)的IP报文。 除广州4资源池外,其他资源池暂不支持云下服务器访问云上的高级网络功能,如VPC对等连接、VPC路由表、ELB以及NAT网关等。 对于使用云专线(DC)对接企业交换机的场景,请您先提交工单给云专线服务,确认您的云专线是否支持和企业交换机进行VXLAN对接,若不支持,需要联系客服开通云专线的对接企业交换机能力。 对于使用虚拟专用网络(VPN)对接企业交换机的场景,请您先提交工单给虚拟专用网络服务,确认您的虚拟专用网络是否支持和企业交换机进行VXLAN对接,若不支持,需要联系客服开通虚拟专用网络的对接企业交换机能力。 每个企业交换机最多支持10000个IP二层互通(即包含通过该企业交换机打通的所有二层网段IP),且最多同时支持连接1000个云下二层网段IP。 ESW支持MAC Proxy转发能力,通过ARP报文代理,使云上和云下主机相互不可见对端的实际MAC地址。在业务报文转发时,云上主机收到的云下报文源MAC是二层连接主接口的MAC,云下主机收到的云上报文源MAC是实例隧道口的MAC。如果您的业务场景需要感知实际主机MAC或者有基于MAC的安全策略等,不支持使用ESW。 通常,服务器端会通过ARP学习确定回复报文的目的MAC地址,但是某些主机或硬件设备(如F5负载均衡器)配置了原路径返回能力,回复报文的目的MAC地址取自请求报文的源MAC地址,当通过ESW实现云上云下三层访问场景时,可能会出现网络不通问题,请提前排查。 例如,先通过ESW打通云上和云下192.168.3.0/24网段,当云上主机192.168.2.2/24需要跨网段访问云下主机192.168.3.3/24时,云上请求报文会先通过VPC路由,再经过ESW送往云下主机,云下对应回复报文走路由发回云上,可以经过云专线/VPN。如果云下主机配置了原路径返回,云下回复报文的目的MAC地址不是192.168.3.0/24的网关MAC地址,是取对应请求报文的源MAC地址,即ESW的MAC地址。这样云下回复报文的目的MAC地址错误,导致网络不通。 ESW使用VXLAN协议时,VXLAN协议头占用50个字节,报文长度会增加。请您确保VXLAN报文经过的线下网络设备支持大帧(Jumbo Frames,即MTU大于1500字节的以太网帧)通过,否则会导致大包不通。 说明 不同设备厂商处理大帧的方式不同,其中部分厂商默认大帧放通,例如华为。部分厂商默认大帧不放通,例如思科。 如果您的IDC需要与云上企业交换机对接来建立云下和云上二层网络通信,那么您IDC侧的交换机需要支持VXLAN功能,客户侧负责建设IDC机房的VXLAN网络,包括VXLAN交换机准备、物理网络连通、对接云专线或者虚拟专用网络等。
        来自:
        帮助文档
        企业交换机
        产品介绍
        约束与限制
      • 容器镜像迁移
        使用imagesyncer迁移镜像至SWR 当我们处理数量较少的镜像迁移任务时,使用命令行迁移就可以解决这个问题。但是实际生产中涉及到成千上百个镜像,几T的镜像仓库数据时,迁移过程就变得耗时很是漫长,甚至丢失数据。这时,我们可以使用开源镜像迁移工具imagesyncer来处理这个任务。 步骤 1 下载imagesyncer,解压并运行工具。 以v1.3.1版本为例,您也可以选择其他版本。 wget zvxf imagesyncerv1.3.1linuxamd64.tar.gz 步骤 2 创建镜像仓库的认证信息文件auth.json。 imagesyncer支持基于 Docker Registry V2 搭建的 docker 镜像仓库,按格式填写即可。 将源仓库及目标仓库认证信息写入,示例如下。 { "swr.cngz1.ctyun.cn": { "username": "cngz1@F1I3Q……", "password": "2fd4c869ea0……" }, "swr.cngz4.ctyun.cn": { "username": "cngz4@4N3FA……", "password": "f1c82b57855f9d35……" } } username、password可以在登录命令中获取,获取方法如下: 登录SWR控制台,在右上角单击“登录指令”,在弹出的窗口中获取登录指令,如下图所示。 注意 因安全性要求,以上示例中所有username和password均有部分内容进行省略,请以控制台获取到的实际用户名和密码为准。 步骤 3 创建同步镜像描述文件images.json。 如下示例,左边是源仓库的地址,右边是目的仓库地址。imagesyncer还支持其他描述方式,详见官网说明。 {"swr.cnnorth4.myhuaweicloud.com/orgss/canaryconsumer": "swr.cneast3.myhuaweicloud.com/devcontainer/canaryconsumer"} 步骤 4 执行如下命令将镜像迁移至SWR。 ./imagesyncer auth./auth.json images./images.json namespacedevcontainer registryswr.cneast3.myhuaweicloud.com retries3 log./log 命令行参数说明。 参数 说明 config 设置用户提供的配置文件路径,使用之前需要创建此文件,默认为当前工作目录下的config.json文件。这个参数与 auth和images 的作用相同,分解成两个参数可以更好地区分认证信息与镜像仓库同步规则。建议使用 auth 和 images. images 设置用户提供的镜像同步规则文件所在路径,使用之前需要创建此文件,默认为当前工作目录下的images.json文件 auth 设置用户提供的认证文件所在路径,使用之前需要创建此认证文件,默认为当前工作目录下的auth.json文件 log 打印出来的log文件路径,默认打印到标准错误输出,如果将日志打印到文件将不会有命令行输出,此时需要通过cat对应的日志文件查看 namespace 设置默认的目标namespace,当配置文件内一条images规则的目标仓库为空,并且默认registry也不为空时有效,可以通过环境变量DEFAULTNAMESPACE设置,同时传入命令行参数会优先使用命令行参数值 proc 并发数,进行镜像同步的并发goroutine数量,默认为5 retries 失败同步任务的重试次数,默认为2,重试会在所有任务都被执行一遍之后开始,并且也会重新尝试对应次数生成失败任务的生成。一些偶尔出现的网络错误比如io timeout、TLS handshake timeout,都可以通过设置重试次数来减少失败的任务数量 registry 设置默认的目标registry,当配置文件内一条images规则的目标仓库为空,并且默认namespace也不为空时有效,可以通过环境变量DEFAULTREGISTRY设置,同时传入命令行参数会优先使用命令行参数值 迁移命令执行后,可登录目标镜像仓库,查看已迁移的镜像。
        来自:
        帮助文档
        云容器引擎
        最佳实践
        迁移
        容器镜像迁移
      • 使用限制
        分类 对象 使用限制 仪表盘 仪表盘 1个区域中最多可创建50个仪表盘。 仪表盘 仪表盘中的图表 1个仪表盘中最多可添加20个图表。 仪表盘 仪表盘中图表可选资源、阈值规则、组件或主机的个数 1个曲线图中最多可添加100个资源,且资源可跨集群选择。 1个数字图只能添加1个资源。 1个阈值状态图表最多可添加10个阈值规则。 1个主机状态图表最多可添加10个主机。 1个组件状态图表最多可添加10个组件。 指标 指标数据 基础规格:指标数据最多保存7天。 指标 指标项 资源(例如,集群、组件、主机等)被删除后,其关联的指标项在数据库中最多保存30天。 指标 维度 每个指标的维度最多为20个。 指标 指标查询接口 单次最大可同时查询20个指标。 指标 统计周期 最大统计周期为1小时。 指标 单次查询返回指标数据 单个指标单次查询最大返回1440个数据点。 指标 上报自定义指标 单次请求数据最大不能超过40KB。 指标 应用指标 JOB指标 每个主机的容器个数超过1000个时,ICAgent将停止采集该主机应用指标,并发送“ICAgent停止采集应用指标”告警(告警ID:34105)。 每个主机的容器个数缩减到1000个以内时,ICAgent将恢复该主机应用指标采集,并清除“ICAgent停止采集应用指标”告警 。 由于JOB在完成任务之后,会自动退出。如果您需要监控JOB指标,要保证存活时间大于90秒才能采集到指标数据。 指标 采集器资源消耗 采集器在采集基础指标时的资源消耗情况和容器、进程数等因素有关,在未运行任何业务的VM上,采集器将消耗30M内存、1% CPU。为保证采集可靠性,单节点上运行的容器个数应小于1000。 阈值规则 阈值规则 一个项目下最多可创建1000个阈值规则。 阈值规则 发送通知可选择主题数 每个阈值规则最多可选择5个主题。 日志 单条日志大小 每条日志最大10KB,超出后ICAgent将不会采集该条日志,即该条日志会被丢弃 日志 日志流量 每个租户在每个Region的日志流量不能超过10MB/s。如果超过10MB/s,则可能导致日志丢失。 日志 历史日志 历史日志存储空间免费额度为500MB 日志 日志文件 只支持采集文本类型日志文件,不支持采集其他类型日志文件(例如二进制文件)。 日志 每个通过卷挂载日志的路径下,ICAgent最多采集20个日志文件。 日志 每个ICAgent最多采集1000个容器标准输出日志文件,容器标准输出日志只支持jsonfile类型。 日志 采集日志文件的资源消耗 日志文件采集采集时消耗的资源和日志量、文件个数及网络带宽、backend服务处理能力等多种因素强相关。 日志 日志丢失 采集器使用多种机制保证日志采集的可靠性,尽可能保证数据不丢失,但在如下场景可能导致日志丢失。 日志文件未使用CCE提供的logPolicy轮转策略。 日志文件轮转速度过快,如1秒轮转一次。 系统安全设置或syslog自身原因导致无法转发日志。 容器运行时间过短,例如小于30s。 单节点总日志产生速度过快,超过了单节点网络发送带宽或日志采集速度,建议单节点总日志产生速度<5M/s。 日志 日志丢弃 当单行日志长度超过10240字节时,此行会被丢弃。 日志 日志重复 当采集器被重启后,重启时间点附近可能会产生一定的数据重复。 日志 统计规则 一个日志桶下最多可创建5条统计规则。 告警中心 告警 您最多可查询最近30天的告警。 告警中心 事件 您最多可查询最近30天的事件。
        来自:
        帮助文档
        应用运维管理
        产品简介
        使用限制
      • Windows云主机配置文件共享和网络磁盘映射方法
        本文介绍在局域网内部,Windows云主机之间进行文件夹共享的方法。 约束限制 有些网络服务供应商可能会限制139、445端口的访问,这会导致外部网络无法访问共享文件夹。因此,建议将Windows云主机文件共享方案仅用于内部环境中。 注意安全组的设置,放行对应的端口号。 操作步骤 1. 确保两台需要共享文件夹的Windows云主机的设置是正确的,包括以下几个方面: 确认已开启名为“TCP/IP NetBIOS Helper”的服务。你可以通过打开命令提示符窗口(cmd)并输入 services.msc,然后在服务清单中找到“TCP/IP NetBIOS Helper”服务,检查该服务的运行状态。 图1 TCP/IP NetBIOS Helper 在网络适配器设置中开启TCP/IP上的NetBIOS功能。你可以通过以下步骤完成:右键点击任务栏中的网络图标并选择“打开网络和共享中心”;然后点击“更改适配器设置”;在适配器列表中选择你的以太网连接,右键点击并选择“属性”;双击“Internet协议版本4(TCP/IPv4)”项目;点击“高级”按钮,然后切换到“WINS”选项卡;在这里,选择“启用通过TCP/IP传输NetBIOS(N)”。 图2 启用TCP/IP上的NetBIOS服务 Windows云主机的防火墙已经设置了入站访问策略139和445端口。 2. 修改网络和共享中心。 进入网络和共享中心”,点击“更改高级共享设置”。 图3 更改高级共享设置 a. 确保两台Windows云主机所属的网络应一致,例如均为“公用”或均为“专用”的网络,并勾选“启用网络发现”、“启用共享,以便可以访问网络的用户可以读取和写入公用文件夹中的文件”。 图4 启动网络发现 图5 启用共享,以便可以访问网络的用户可以读取和写入公用文件夹中的文件。 如果无法启用网络发现功能,你可以通过打开“服务”管理器(运行 services.msc命令)来解决,启动“服务”管理器。请检查网络发现功能依赖的服务是否均已启用。网络发现功能依赖的服务包括: Function Discovery Resource Publication、SSDP Discovery Resource Publication、UPnP Device Host。 b. 在“服务”管理器中,开启Workstation服务。 c. 这个服务需要依赖其他部件的支持,开启workstation服务时,必须启动依赖组件Computer Browser和Remote Desktop Configuration。 图6 开启Workstation服务 3. 在需要允许磁盘共享访问的云主机上,进行磁盘共享的设置,点击鼠标右键磁盘,然后选择“属性”选项。切换到“共享”选项卡,接着点击“高级共享”按钮。 图7 设置磁盘共享 设置“共享名”,并单击“确定”。给共享文件夹自定义一个名称。 图8 设置共享文件夹名称 4. 使用位于相同地域的另一台云主机,通过内部网络访问共享文件夹。打开“运行”窗口。输入"内网IP地址share",并点击确定,即可打开共享文件夹. 图9 访问共享文件夹 5. (可选)为了更加方便的访问共享文件夹,您可以将共享路径文件,创建一个网络驱动器映射。 a. 选择共享的文件夹,右键单击“映射网络驱动器”。 b. 创建映射网络驱动器。 图10 映射网络驱动器 c. 点击选择要映射的网络驱动器名称,接着点击“创建快捷方式”并将其发送到桌面。这样,你就能通过双击桌面上的新快捷方式,方便快速地访问共享文件夹。 图11 创建快捷方式
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        操作系统类(Windows)
        Windows云主机配置文件共享和网络磁盘映射方法
      • 产品类
        分类 对象 使用限制 仪表盘 仪表盘 1个区域中最多可创建50个仪表盘。 1个资源集中最多可创建150个仪表盘。 仪表盘 仪表盘中的图表 1个仪表盘中最多可添加20个图表。 1个仪表盘中最多可添加30个图表。 仪表盘 仪表盘中图表可选资源、阈值规则、组件或主机的个数 1个曲线图中最多可添加100个资源,且资源可跨集群选择。 1个曲线图中最多可添加12个资源,且资源可跨集群选择。 1个数字图只能添加1个资源。 1个阈值状态图表最多可添加10个阈值规则。 1个主机状态图表最多可添加10个主机。 1个组件状态图表最多可添加10个组件。 指标 指标数据 指标数据在数据库中最多保存30天。 指标 指标总量 单租户总指标量不超过40W 小规格总指标量不超过10W 指标 指标项 资源(例如,集群、组件、主机等)被删除后,其关联的指标项在数据库中最多保存30天。 指标 维度 每个指标的维度最多为20个。 每个指标的维度最多为30个。 指标 指标查询接口 单次最大可同时查询20个指标。 指标 统计周期 最大统计周期为1小时。 指标 单次查询返回指标数据 单个指标单次查询最大返回1440个数据点。 指标 自定义指标 无限制。 指标 上报自定义指标 单次请求数据最大不能超过40KB,上报指标所带时间戳不能超前于标准UTC时间10分钟,不接收乱序指标,即有新指标上报后,旧指标上报将会失败。 指标 应用指标 每个主机的容器个数超过1000个时,ICAgent将停止采集该主机应用指标,并发送“ICAgent停止采集应用指标”告警(告警ID:34105)。 每个主机的容器个数缩减到1000个以内时,ICAgent将恢复该主机应用指标采集,并清除“ICAgent停止采集应用指标”告警。 指标 采集器资源消耗 采集器在采集基础指标时的资源消耗情况和容器、进程数等因素有关,在未运行任何业务的VM上,采集器将消耗30M内存、1% CPU。为保证采集可靠性,单节点上运行的容器个数应小于1000。 日志 单条日志大小 每条日志最大10KB,超出后ICAgent将不会采集该条日志,即该条日志会被丢弃。 日志 日志流量 每个租户在每个Region的日志流量不能超过10MB/s。如果超过10MB/s,则可能导致日志丢失。 日志 日志文件 只支持采集文本类型日志文件,不支持采集其他类型日志文件(例如二进制文件)。 日志 每个通过卷挂载日志的路径下,ICAgent最多采集20个日志文件。 日志 每个ICAgent最多采集1000个容器标准输出日志文件,容器标准输出日志只支持jsonfile类型。 日志 采集日志文件的资源消耗 日志文件采集时消耗的资源和日志量、文件个数及网络带宽、backend服务处理能力等多种因素强相关。 日志 日志丢失 采集器使用多种机制保证日志采集的可靠性,尽可能保证数据不丢失,但在如下场景可能导致日志丢失。 日志文件未使用CCE提供的logPolicy轮转策略。 日志文件轮转速度过快,如1秒轮转一次。 系统安全设置或syslog自身原因导致无法转发日志。 容器运行时间过短,例如小于30s。 单节点总日志产生速度过快,超过了单节点网络发送带宽或日志采集速度,建议单节点总日志产生速度<5M/s。 日志 日志丢弃 当单行日志长度超过10240字节时,此行会被丢弃。 日志 日志重复 当采集器被重启后,重启时间点附近可能会产生一定的数据重复。 告警 告警 您最多可查询最近15天的告警。 告警 事件 您最多可查询最近15天的事件。 应用发现规则 应用发现规则最多可创建100个。
        来自:
        帮助文档
        应用运维管理
        常见问题
        产品类
      • 功能特性
        功能集 功能 功能描述 应用生命周期管理 创建/部署/更新/查看/启动/停止/删除应用 创建/部署/更新/查看/启动/停止/删除应用。 高级设置 设置启动命令 CAE 会根据预设的启动参数来启动容器 高级设置 设置环境变量 应用在系统中运行更需要配置特定的环境变量 高级设置 设置 Hosts 绑定 CAE 支持应用级别的实例,通过绑定 Hosts 对主机名进行解析,方便应用实例通过主机名进行访问 高级设置 设置持久化日志 CAE 集成了云日志服务的日志收集功能,支持将业务文件日志(容器内日志文件)、容器标准输出日志(stdio)无限制行数地收集至 ALS,便于您聚合分析。 高级设置 设置 NAS 存储 将 NAS 挂载至 CAE 应用实例,可以有效解决应用数据地持久化存储需求,并实现应用实例之间地数据共享 高级设置 设置 OSS 存储 OSS 适用于读多写少地场景,例如挂载配置文件或者前端静态文件等 高级设置 设置应用生命周期管理 如果您精通 K8s,且需要在应用容器启动前或者关闭前执行相关操作,例如运行前部署资源或者停止前优雅下线应用,可以设置应用生命周期管理 高级设置 设置配置项 配置项能够将环境配置信息和容器镜像解耦,方便您修改应用配置 配置管理 配置项(ConfigMap) 配置项是一种存储应用所需配置信息地资源类型,它可以作为容器运行环境中的环境变量,便于应用部署后灵活变更容器配置,也可以通过挂载配置文件的方式向容器中注入配置信息 配置管理 保密字典(Secret) 保密字典是一种用于存储和管理密钥、证书等敏感信息的资源类型。为避免敏感数据暴露到镜像或应用与任务部署参数中,推荐您使用 CAE 命名空间级别的保密字典 弹性管理 手动扩缩 在应用的实例负载过高时以手动方式添加新应用实例,在应用闲置时减少应用实例,能够高效利用应用资源、降低成本 弹性管理 自动扩缩 在分布式应用管理中,弹性伸缩能够感知应用内各个实例的状态,并根据实例状态自动增加或减少实例数量,即扩容或缩容 版本管理 版本回退 应用修改配置并部署后,会自动生成一个基于时间点的应用版本,您可以查看对应时间点应用版本的配置,也可以操作版本回退到指定时间点的应用版本 应用访问 基于 ELB 实现应用公网及私网访问 在 CAE 中部署应用后,可以通过添加公网 ELB 实现公网访问应用,也可以添加私网 ELB 实现同 VPC 内私网访问应用 注册中心 CAE 内置注册中心 CAE 为用户提供免费的内置 Nacos 注册中心,在无需购买或自建注册中心的情况下即可部署微服务应用到 CAE 平台 注册中心 自建 Nacos 注册中心 CAE 支持使用自建 Nacos 注册中心实现服务的注册与发现功能 微服务治理 无损上线 在应用启动过程中,无损上线为应用提供服务延迟注册、服务就绪检查和服务小流量预热的保护能力 微服务治理 无损下线 在应用执行部署、停止、回滚、缩容和重置时,通过无损下线来保证应用正常关闭 微服务治理 金丝雀灰度 对于部署在 CAE 的 Spring Cloud 或 Dubbo 微服务应用,为了确保升级操作的安全性,您可以通过启用灰度发布(即金丝雀发布)的灰度规则进行小规模验证,验证通过后再全量升级 微服务治理 限流降级 CAE 支持使用微服务引擎 MSE 实现应用的限流降级,全面保障应用的可用性 运维管理 基础监控 CAE 对应用所运行设备的 CPU、负载、内存、网络和磁盘进行数据采集与分析,并以动态图的方式展示,方便实时、直观地了解应用所运行设备地状态 运维管理 应用监控 CAE 为多种语言和框架提供无侵入的应用监控能力 运维管理 一键启停 CAE 为应用提供了一键启停按钮,方便用户进行运维操作,同时还支持批量启停操作
        来自:
        帮助文档
        云应用引擎
        产品介绍
        功能特性
      • 管理自动备份
        本节主要介绍管理自动备份。 GeminiDB Influx支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 说明 GeminiDB Influx自动备份时,不会对 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 图1 开启备份策略 1.保留天数: 自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。对于系统中最近一个全量备份文件,如果在新的全量备份未超过保留天数前系统会一直保留,直至新的全量备份超过保留天数后才会删除。 增加保留天数,可提升数据可靠性,请根据需要设置。 减少保留天数,会针对已有的备份文件生效,即超出备份保留天数的已有备份文件(包括全量备份和增量备份)会被自动删除,但手动备份不会自动删除,请您谨慎选择。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如12:00~13:00 。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 假如保留天数设置为“2”,表示超过两天的全量备份和增量备份会被自动删除。即周一产生的备份会在周三删除,同理,周二产生的备份会在周四删除。 全量备份文件自动删除策略: 已有备份文件超出备份天数后会自动删除,考虑到数据完整性,自动删除时仍然会保留最近的一次超过保留天数的全量备份,保证在保留天数内的数据可正常恢复。 假如备份周期选择“周一”、“周二”,保留天数设置为“2”,备份文件的删除策略如下: 本周一产生的全量备份,会在本周四当天自动删除。原因如下: 本周二的全量备份在本周四当天超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即本周二的备份会被保留),因此周四当天删除本周一产生的全量备份文件。 本周二产生的全量备份,会在下周三当天自动删除。原因如下: 下周一产生的全量备份在下周三超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即下周一的备份会被保留),因此下周三当天删除本周二产生的全量备份。 2.备份周期: 默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 增备周期:系统默认自动将每隔15分钟的离散时间点上的增量数据进行备份。您也可以根据需要设置增量备份周期,目前支持设置为5分钟,10分钟,15分钟。增备周期目前为公测阶段,如需使用,请联系客服申请开通相应的操作权限。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        数据备份
        管理自动备份
      • 概述
        DSC的数据脱敏支持静态脱敏和动态脱敏。 数据安全中心DSC的数据脱敏不仅支持静态脱敏,还支持动态脱敏。您可以对指定数据配置脱敏规则实现敏感数据静态脱敏,您还也可以使用数据动态脱敏的API接口实现数据的动态脱敏,确保敏感信息不被泄露。 静态脱敏是一种一次性完成大批量数据的变形转换处理的方式,通常用于将生产环境中的敏感数据交付至开发、测试或外发环境等情况下。它适用于开发测试、数据分享、数据研究等场景。您可以通过DSC控制台创建脱敏任务,快速实现数据库和大数据的脱敏。 脱敏算法 脱敏算法 脱敏方式说明 使用场景 Hash脱敏 使用Hash函数对敏感数据进行脱敏。支持SHA256和SHA512。 SHA256 将数据库表中字符串类型字段的内容用其SHA256的摘要值代替。 该算法执行完后,结果的长度可能超过原表中列允许的最大长度。该算法按照SHA256输出长度调整列的长度。 SHA512 将数据库表中字符串类型字段的内容用其SHA512的摘要值代替。 该算法执行完后,结果的长度可能超过原表中列允许的最大长度。该算法按照SHA512输出长度调整列的长度。 敏感类型:密钥类 适用场景:数据存储 加密脱敏 通过加密算法和加密主密钥生成一种加密配置,达到数据脱敏的效果。加密脱敏的结果中,初始向量IV为加密字符串的前16个字节,剩余部分是加密的密文。 DSC支持AES128、AES192和AES256三种加密算法。 敏感类型: 个人敏感 企业敏感 适用场景:数据存储 字符掩盖 使用指定字符或随机字符(随机字符包含随机数字、随机字母、随机数字字母三种类型)方式遮盖部分内容。 支持以下六种脱敏方式:保留前n后m、保留自x至y、遮盖前n后m、遮盖自x至y、特殊字符前遮盖、特殊字符后遮盖。 说明 敏感数据保护服务中已预置多种字符脱敏模板。 敏感类型:个人敏感 适用场景: 数据使用 数据分享 关键字替换 在指定列中查找关键词并替换。 例如,目标字符串为“张三在家吃饭”,算法执行完后映射为“张先生在家吃饭”,其中指定将“张三”替换为“张先生”。 该算法执行完后,结果的长度可能超过数据库允许的最大长度。该算法将超出部分截断后插入数据库。 敏感类型: 个人敏感 企业敏感 设备敏感 适用场景: 数据存储 数据分享 删除脱敏 将指定字段设置为Null或空值进行脱敏。 Null脱敏 将任意类型字段设置为NULL。 对于列属性设置为“NOT NULL”的字段,该算法在拷贝时将该列属性修改为“NULL”。 空值脱敏 将指定字段内容设置为空值。 具体来说,将字符型的字段设置为空串,数值类的字段设置为0,日期类的字段设置为1970,时间类的字段设置为零点。 敏感类型: 个人敏感 企业敏感 设备敏感 适用场景: 数据存储 数据分享 取整脱敏 针对日期或数字特定参数进行取整运算。 日期取整 年之后字段全部取整。示例:“20190512 > 20190101”或“20190512 08:08:08 > 20190101 00:00:00” 月之后字段全部取整。示例:“20190512 > 20190501”或“20190512 08:08:08 > 20190501 00:00:00” 日之后字段全部取整。示例:“20190512 > 20190512”或“20190512 08:08:08 > 20190512 00:00:00” 小时之后字段全部取整。示例:“08:08:08 > 08:00:00”或“20190512 08:08:08 > 20190512 08:00:00” 分钟之后字段全部取整。示例:“08:08:08 > 08:08:00”或“20190512 08:08:08 > 20190512 08:08:00” 秒之后字段全部取整。示例:“08:08:08.123 > 08:08:08.000”或“1575612731312 > 1575612731000” 数字取整 针对指定数字进行取整运算。 敏感类型:通用敏感 适用场景: 数据存储 数据使用
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据隐私保护
        数据脱敏
        概述
      • 创建备份策略
        参数 说明 名称 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度为264字符。 是否启用 是否启用备份策略,默认为不启用。 备份时间 设置备份任务的执行时间。此处选择的时间是细粒度至天之后的整点执行时间,用户可在一天内选择多个整点时间进行备份执行。 建议您选择业务量较少或无业务的时间进行备份,比如凌晨时间。 注意 设定的备份时间和控制台实际创建备份的时间可能存在差异。 如需要备份的资源总数据量较大,建议备份执行时间点不宜设置过于紧密。如果单个资源执行备份的时长超过两个备份执行时间间隔,则会跳过第二个备份时间点不进行备份。 例如:某主机的备份策略设置的备份时间点为:00:00,01:00,02:00。在00:00时,开始进行备份,由于此次备份增量数据较大,或者该时间段同时执行的备份任务较多,该次备份任务耗时90分钟,在01:30时完成备份。则01:00的备份时间点会跳过,在02:00时再执行备份,将只会产生两个备份。 若云主机备份策略、云硬盘自动快照策略和云硬盘备份策略的备份时间重叠,可能导致备份时间有重叠的备份任务失败而影响数据安全性。请您在设置时预留充足间隔,保障所有备份任务顺利执行。 备份周期 设置备份任务的执行日期。 按周指定备份策略在每周的周几进行备份,可以多选。 按天指定备份策略每隔几天进行一次备份,可设置1~30天。 注意 按天备份的备份时间是每个月的固定时间,例如"每3天"表示执行备份的日期为每月1日、4日、7日,以此类推。备份策略在创建当月生效。举例来说,在某月2日创建备份周期为“每3天”的备份策略,则第一次备份日期为当月4日。建议选择无业务或者业务量较少的时间对云主机进行备份。 全量备份配置 若不配置定期全量备份,默认在绑定的存储库的首次备份进行全量备份,后续进行永久增量备份。 若您开启了定期全量备份,则会按照配置频次执行全量备份。 注意 仅上线华东1、华北2资源池。 保留规则 设置备份产生后的保留规则,即哪些备份将被保留。共有三种规则,按时间、按数量、永久保存。 按时间:可选择1个月、3个月、6个月、1年的固定保留时长或根据需要自定义保留时长。取值范围为1~99999天,当到达规定时间,备份将被自动删除。 按数量:单个云硬盘执行备份策略保留的备份总份数。取值范围为1~99999个。 永久保存:备份产生后将会被永久保留,用户可以手动将其删除。 说明 当保留规则为按数量保留,保留的备份数超过预设保留数值时,系统会按照时间自动删除最早创建的备份。 当保留规则为按时间保留,保留的备份超过预设时间时,系统会自动删除所有过期的备份。删除的备份不会影响其他备份的数据恢复。 修改备份策略或将云硬盘绑定到新策略,备份副本会按照新策略的保留规则执行自动删除。 保留规则仅对备份策略自动调度生成的备份有效。手动执行备份策略生成的备份不会统计在内,且不会自动删除。如需删除,请在备份页签的备份列表中手动删除。 高级保留选项 日备份:保留指定周期内每天最新的一个备份副本。 周备份:保留指定周期内每周最新的一个备份副本。 月备份:保留指定周期内每月最新的一个备份副本。 年备份:保留指定周期内每年最新的一个备份副本。 设置高级保留选项后,指定周期内每日/周/月/年最新的一个备份副本不受保留规则的影响。例如,设置“日备份:保留3天内,每天最新的一个备份”。假设某月1日起开始执行该备份策略,在3日时,除按“保留规则”对备份副本进行保留外,1日和2日两天最后创建的备份副本不受“保留规则”的影响,不会被自动删除。 注意 仅上线华东1、华北2资源池。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。默认为default。
        来自:
        帮助文档
        云主机备份 CSBS
        用户指南
        策略管理
        创建备份策略
      • 支持的数据源
        数据源分类 源端数据源 对应的目的端数据源 说明 数据仓库 数据仓库服务( DWS ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 不支持DWS物理机纳管模式。 数据仓库 数据湖探索( DLI ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 无 Hadoop MRS HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop MRS HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop MRS Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop Apache HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X Hadoop Apache Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X Hadoop Apache HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X 对象存储 对象存储服务( OBS ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 对象存储服务之间的迁移,推荐使用对象存储迁移服务OMS。 文件系统 FTP 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 文件系统 SFTP 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 文件系统 HTTP Hadoop:MRS HDFS 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 关系型数据库 云数据库MySQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 云数据库PostgreSQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 云数据库SQL Server 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 MySQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 PostgreSQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 Microsoft SQL Server 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 Oracle 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 SAP HANA 数据仓库:数据湖探索(DLI) Hadoop:MRS Hive SAP HANA数据源存在如下约束:SAP HANA不支持作为目的端。 仅支持2.00.050.00.1592305219版本。 仅支持Generic Edition。不支持BW/4 FOR HANA。 仅支持英文字母的数据库名、表名与列名,不支持存在空格、符号等特殊字符。 仅支持日期、数字、布尔、字符(除SHORTTEXT) 类型的数据类型,不支持二进制类型等其他数据类型。 迁移时不支持目的端自动建表。 关系型数据库 分库 数据仓库:数据湖探索(DLI) Hadoop:MRS HBase,MRS Hive 搜索:Elasticsearch,云搜索服务(CSS) 对象存储:对象存储服务(OBS) 分库数据源不支持作为目的端。 NoSQL 分布式缓存服务(DCS) Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL Redis Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL 文档数据库服务(DDS) Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL MongoDB Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL 表格存储服务(CloudTable) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL Cassandra 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 消息系统 Apache Kafka 搜索:云搜索服务(CSS) 消息系统不支持作为目的端。 消息系统 DMS Kafka 搜索:云搜索服务(CSS) 消息系统不支持作为目的端。 消息系统 MRS Kafka 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) MRS Kafka不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。不支持ZK开启SSL场景。 搜索 Elasticsearch 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Elasticsearch仅支持非安全模式。 搜索 云搜索服务(CSS) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 导入数据到CSS推荐使用Logstash。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        支持的数据源
      • 创建Topic
        介绍分布式消息服务Kafka创建Topic的功能操作内容。 场景描述 Kafka的新建主题操作适用于以下场景: 系统扩展:当系统需要扩展以处理更多的数据时,可以通过新建主题来增加数据存储和处理的容量。管理员可以根据系统需求创建新的主题,并配置适当的分区和副本数量。 数据分流:在某些情况下,需要将特定类型或特定来源的数据分流到不同的主题中进行处理。通过新建主题,可以为这些特定的数据流创建专门的主题,并将相应的数据写入这些主题中。 数据分析和实时处理:新建主题可以用于数据分析和实时处理场景。根据不同的分析需求,可以为特定的分析任务创建新的主题,将相关的数据写入这些主题中供分析和处理。 业务需求变更:当业务需求发生变化时,可能需要创建新的主题来适应新的数据处理流程或数据存储需求。通过新建主题,可以根据新的业务需求重新组织和管理数据。 数据隔离和权限控制:有时候需要对不同的数据进行隔离和权限控制,以确保数据的安全性和私密性。通过新建主题,可以为不同的数据创建独立的主题,并设置相应的权限和访问控制规则。 总之,Kafka的新建主题操作适用于各种需要扩展、分流、分析和处理数据的场景,以及应对业务需求变更和数据隔离的需求。 操作步骤 创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后,点击“创建Topic”。 (5)点击“创建Topic”后,输入Topic名称、分区数等参数。 表:Topic参数说明 参数 参数说明 Topic名称 Topic名称,英文字母、数字、下划线开头,且只能由英文字母、数字、中划线、下划线组成,长度为364个字符。创建Topic后不能修改名称。 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 副本数 每个Topic设置副本的数量,Kafka会自动在每个副本上备份数据,当其中一个Broker节点故障时数据依然是可用的,副本数越大可靠性越高。默认值:3 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。 标签 标签用于从不同维度对资源分类管理。 预设ACL策略 勾选提前设置好的 ACL 策略,具体 ACL 策略设置可参考用户管理页面的ACL策略管理。 消息清除策略 delete:超过消息保留时长后,消息将被删除。compact:超过消息保留时长后,消息将会被压缩而不是直接删除。 允许unclean副本选举 开启该选项后,不在ISR的副本也将可以参与leader选举。 分片滚动时间 当一个日志段的最老消息的创建时间与当前时间的差值达到该配置的值时,Kafka 会创建一个新的日志段。 分片大小 当一个日志段的大小达到该配置的值时,Kafka 会创建一个新的日志段。该配置和分片滚动时间配置可以同时使用,具体看哪个条件先行触发。 批量创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后、点击“导入Topic”。 (5)点击“导入Topic”后,出现如下界面,点击“下载模板”按钮,获取模板,修改后上传进行导入。 (6)点击“上传文件”完成批量创建。 模板如下。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        创建Topic
      • 容器客户端上传镜像
        入门指引 容器镜像服务是一种支持容器镜像全生命周期管理的服务, 提供简单易用、安全可靠的镜像管理功能,帮助用户快速部署容器化服务。本文档将帮助您学习如何安装容器引擎以及如何使用容器引擎客户端上传镜像到容器镜像仓库。 说明 上传镜像仅适用于管理控制台操作。 图 入门流程图 准备工作 在使用容器镜像服务前,您需要完成天翼云注册并实名认证的准备工作。 本文以一个2048应用为例,讲述根据该应用编写Dockerfile文件构建镜像并上传至容器镜像服务的操作。您可以编写一个Dockerfile文件,以alpine:3.7为基础镜像,来构建一个2048容器镜像。 前提条件 已安装Docker 已获取2048应用,并将该镜像下载至本地。 构建镜像 步骤1: 使用root用户登录虚拟机。 步骤2: 创建2048demo目录。 mkdir 2048demo 步骤3 :下载2048源码至2048demo目录中。 该应用源码地址为: ,详细命令可参考< t 2048demo:v1:指定镜像的名称和版本。 .:指定Dockerfile所在目录,镜像构建命令会按照Dockerfile的内容构建镜像。 步骤7 :执行以下命令,可查看到已成功构建的2048demo镜像,版本为v1。 docker images grep 2048demo 查看已构建的2048demo镜像 创建组织 组织用于隔离镜像,并为租户下用户指定不同的权限(读取、编辑、管理)。 读取:只能下载镜像,不能上传。 编辑:下载镜像、上传镜像、编辑镜像属性以及创建触发器。 管理:下载镜像、上传镜像、删除镜像或版本、编辑镜像属性、添加授权、以及共享镜像。 步骤1 :登录容器镜像服务控制台。 步骤2 :在左侧菜单栏选择“组织管理”,单击右侧“创建组织”,在弹出的页面中填写“组织名称”,然后单击“确定”。 客户端上传镜像 docker客户端上传镜像,是指使用docker命令将镜像上传到容器镜像服务的镜像仓库。 本章节以2048demo:v1镜像为例,介绍如何上传镜像。上传成功后,在“我的镜像”中显示已上传成功的镜像。 注意 使用客户端上传镜像,镜像的每个layer大小不能超过10G。 上传镜像的Docker客户端版本必须为1.11.2及以上。 步骤1:连接容器镜像服务。 a. 登录容器镜像服务控制台。 b. 在左侧菜单栏选择“我的镜像”,单击右侧“客户端上传”,在弹出的页面中单击“生成临时docker login指令”,单击 复制docker login指令。docker login指令末尾的域名即为当前镜像仓库地址,记录该地址。 说明 此处获取的docker login指令有效期为24小时,若需要长期有效的docker login指令,请参见 获取了长期有效的登录指令后,在有效期内的临时登录指令仍然可以使用。 c.在安装Docker的机器中执行上一步复制的docker login指令。 登录成功会显示“login succeeded”。 步骤2:在安装docker的机器给2048demo:v1镜像打标签。 docker tag [镜像名称:版本名称] [镜像仓库地址]/[组织名称]/[镜像名称:版本名称] 说明 镜像名称不支持多级目录格式,例如:镜像名称可命名为“2048demo”,不可命名为“2048demo/test”。 样例如下: docker tag 2048demo:v1 {Public image address}/group/2048demo:v1 其中: {Public image address}为容器镜像服务的镜像仓库地址。获取该地址的方式:单击“我的镜像”,单击镜像列表中的镜像名称,在“Pull/Push指南”页签中的“1. 本镜像地址”下可以看到镜像仓库地址。 group为组织名称,如果该组织还没有创建,容器镜像服务会根据组织名称自动创建一个组织。 2048demo:v1 为镜像名称和版本号。 步骤3:上传镜像至镜像仓库。 docker push [镜像仓库地址]/[组织名称]/[镜像名称:版本名称] 样例如下: docker push {Public image address}/group/2048demo:v1 终端显示如下信息,表明push镜像成功。 6d6b9812c8ae: Pushed 695da0025de6: Pushed fe4c16cbf7a4: Pushed v1: digest: sha256:eb7e3bbd8e3040efa71d9c2cacfa12a8e39c6b2ccd15eac12bdc49e0b66cee63 size: 948 返回系统,在“我的镜像”页面,执行刷新操作后可查看到对应的镜像信息。
        来自:
        帮助文档
        容器镜像服务
        快速入门
        容器客户端上传镜像
      • 任务管理
        本章主要介绍如何通过配置元数据采集策略新建采集任务,不同类型的数据源对应的采集策略不尽相同。元数据管理依据采集任务的配置策略,采集对应的技术元数据信息。 前提条件 元数据采集支持丰富的数据源类型,对于DWS、DLI、MRS HBase、MRS Hive、RDS(MySQL)、RDS(PostgreSQL)和ORACLE类型的数据源,首先需要在管理中心创建数据连接。 新增采集任务 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 选择数据目录 2. 选择“元数据采集 > 任务管理”。 3. 选择采集任务所归属的目录。如果未新建目录请参见下图创建进行。 4. 单击页面上方“新建”或者右键单击任务菜单,单击“新增任务”,在弹出的对话框中,配置相关参数,新建采集任务。 新建任务有如下图所示的两个入口。 a.配置基本参数。 基本配置说明 参数名 说明 任务名称 采集任务的名称,只能包含中文、英文字母、数字和下划线,且长度不能超过62个字符。 描述 为更好的识别采集任务,此处加以描述信息。描述信息长度不能超过255个字符。 选择目录 采集任务的存储目录,可选择已创建的目录。目录创建请参见下图。 目录创建 b.配置数据源信息、 数据源信息参数说明 参数名 说明 数据源类型 从下拉列表中选择数据源类型。 说明 元数据采集支持丰富的数据源类型,对于DWS、DLI、MRS HBase、MRS Hive、RDS(MySQL)、RDS(PostgreSQL)和ORACLE类型的数据源,首先需要在管理中心创建数据连接。 OBS桶 选择待采集数据归属的OBS桶,仅数据源类型为OBS时,呈现此参数。 数据连接 所选数据连接类型中已创建数据连接,支持从下拉列表中选择。 所选数据连接类型中未创建数据连接,请单击“新建”,创建新的数据连接。 OBS路径 选择待采集数据在OBS桶中的存储路径,仅数据源类型为OBS时,呈现此参数。 采集范围 选择待采集数据的采集范围,仅数据源类型为OBS时,呈现此参数,原因是obs桶中是分目录层级的。 选择“当前文件夹”,采集任务仅采集obs路径中设置的文件夹下的对象。 选择“当前文件夹和所有子文件夹”,采集任务会采集obs路径中设置的文件夹下所有的对象,包括其子文件夹下的对象 采集内容 选择待采集数据的采集内容,仅数据源类型为OBS时,呈现此参数,原因是obs桶中是分目录层级的。 选择“文件夹和对象”,采集任务采集文件夹和对象。 选择“ 文件夹”,采集任务仅采集文件夹。 数据库和schema 仅数据源类型为DWS时,呈现此参数。 单击数据库和schema后的“设置”,设置采集任务扫描的数据库和schema范围。当不进行设置时,默认选择该数据连接下的所有数据库和schema。 单击“清除”,可对已选择的数据库和schema进行修改。 命名空间 仅数据源类型为MRS HBase时,呈现此参数。 单击命名空间后的“设置”,设置采集任务扫描的命名空间范围。当不进行设置时,默认选择该数据连接下的所有命名空间 。 单击“清除”,可对已选择的命名空间进行修改。 数据库 数据表 呈现待采集的数据库和数据表。 单击数据库后的“设置”,设置采集任务扫描的数据库范围。当不进行设置时,默认选择该数据连接下的所有数据库 。 单击数据表后的“设置”,设置采集任务扫描的数据表范围。当不进行设置时,默认选择数据库下的所有数据表。针对数据连接类型为Mysql、Oracle和DLI的数据表,支持按照正则表达式过滤需要采集的表。 当数据库和数据表均不设置时,则采集任务扫描的数据范围为该数据连接下的所有数据表。 单击“清除”,可对已选择的数据库和数据表进行修改。 选择图 仅数据源类型为GES时,呈现此参数。 选择存储了以“关系”为基础的结构数据的图。 选择集群 仅数据源类型为CSS时,呈现此参数。 选择待采集数据存储的CSS集群。 您也可以单击“新建”,创建CSS集群,创建完成后单击“刷新”,选择新建的CSS集群即可。 绑定Agent 管理CloudTable/GES/CSS类型的数据连接,请选择CDM集群提供的Agent。 用户也可以单击“新建”,创建新的Agent,创建完成后单击“刷新”,选择新的Agent即可。 索引 仅数据源类型为CSS时,呈现此参数。 用于存储Elasticsearch的数据,类似关系型数据库的Database。是一个或多个分片分组在一起的逻辑空间。 c.元数据采集参数配置 元数据采集参数说明 参数名 说明 数据源元数据已更新 当数据连接中元数据发生变化时,通过配置更新策略,设置数据目录中元数据的更新方式。 需要注意的是配置的更新、删除策略是作用在用户配置的数据库、数据表的范围内的。 勾选“仅更新数据目录中的元数据”:采集任务仅更新数据目录已经采集到的元数据。 勾选“仅添加新元数据”:采集任务仅采集数据源中存在,但是数据目录中不存在的元数据。 勾选“更新数据目录中的元数据、添加新元数据”:采集任务全量同步数据源中的元数据。 勾选“忽略更新、添加操作”:不采集数据源中的元数据。 数据源元数据已删除 当数据连接中元数据发生变化时,通过配置删除策略,设置数据目录中元数据的更新方式。 勾选“从数据目录中删除元数据”:当数据源中的某些元数据已经被删除,数据目录中也将同步删除对应的元数据。 勾选“忽略删除”:当数据源中的某些元数据已经被删除,数据目录中不同步删除对应元数据。 d.勾选数据概要时的参数配置。 数据概要参数说明 参数名 说明 基于全量数据 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较少(100W以下)的情况。 基于采样数据,采样数量为x条 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较多的情况。 基于全量数据,随机取x%的数据 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较多的情况。 DLI队列 选择获取profile数据,执行DLI SQL用的队列。 勾选“采集唯一值”表示只统计已采集的表中的唯一值的个数,并在数据目录中的概要页签呈现。 数据格式 当存储在OBS桶中的数据为CSV格式,请依据数据的实际属性进行勾选是否有表头,是否自定义分隔符,是否自定义引用字符,是否自定义转义字符。 日期格式 当存储在OBS桶中的数据为CSV格式,请依据实际属性配置日期格式,以免影响数据被错误解析。 时间戳格式 当存储在OBS桶中的数据为CSV格式,请依据实际属性配置时间戳格式,以免影响数据被错误解析。 e.数据分类配置说明(仅当数据目录组件中具备数据安全功能时,支持配置该选项;当前暂不支持关联独立数据安全组件中的敏感数据识别规则)。 数据分类:勾选此项参见数据分类新建分类规则组或者选中已有分类规则组,实现自动识别数据并添加分类。 数据分级:勾选“根据数据分类结果更新数据表密级”,表示可根据匹配的分类规则中,将密级最高的设置为表的密级。 数据同步:勾选“手动同步分类结果”,表示“数据目录 > 数据目录 > 列属性”中呈现的数据列,在采集任务执行完毕后,不会自动添加分类和密级属性。需要用户前往“元数据采集 > 任务监控 ”页面,找到任务实例,选择“操作 > 更多 > 扫描结果”,查看采集任务的执行结果,确认分类结果是否匹配。勾选分类匹配字段前的复选框,单击“同步”,即可将分类和密级属性手动同步到资产。 说明 仅DWS、DLI数据源支持创建采集任务时添加数据分类,实现自动识别。另外,只可给数据表的列和OBS对象添加分类。 5. 单击“下一步”,选择调度方式,支持单次调度和周期调度两种方式。单次调度:超时时间表示如果任务运行的时长超过了设置的超时时间,任务会被认定运行失败。 周期调度的相关参数配置请参见下表:配置周期调度参数。 说明 单次调度会产生手动任务的实例,手动任务的特点是没有调度依赖,只需要手动触发即可。 周期调度会产生周期实例,周期实例是周期任务达到启用调度所配置的周期性运行时间时,被自动调度起来的实例快照。 周期任务每调度一次,便生成一个实例工作流。用户可以对已调度起的实例任务进行日常的运维管理,如查看运行状态,对任务进行终止、重跑等操作。 参数名 说明 生效日期 调度任务的生效时间段。 调度周期 选择调度任务的执行周期,并配置相关参数。 分钟 小时 天 周 开始时间 周期调度开始的具体时间,与生效日期中的开始时期配合使用。 间隔时间 两次周期调度之间的间隔时间。 即使上一次调度任务实例未结束,从上次调度开始时间达到间隔时间后,新的调度任务实例也会开始。当前采集任务支持多实例并发运行。 结束时间 周期调度结束的具体时间,与生效日期中的结束时期配合使用。 超时时间 单次任务实例的运行超时时间,如果运行时长超过了此处设置,任务会被认定运行失败。 启动调度 勾选复选框,则表示立即启动此调度任务。 6. 单击“提交”,采集任务创建成功。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        元数据采集
        任务管理
      • 创建桶
        参数 描述 复制桶配置 可选。单击“选择源桶”后,可以在桶列表中选择一个源桶。返回后页面会自动复制源桶的以下配置信息:区域 / 数据冗余策略 / 存储类别 / 桶策略 / 服务端加密 / 归档数据直读 / 企业项目 / 标签。 选择后您仍可以根据业务情况对复制的配置信息进行部分或全部更改。 区域 桶所属区域。请选择靠近您业务的区域,以降低网络时延,提高访问速度。桶创建成功后,不支持变更区域,请谨慎选择。 桶名称 桶的名称。需全局唯一,不能与已有的任何桶名称重复,包括其他用户创建的桶。桶创建成功后,不支持修改名称,创建时,请设置合适的桶名。OBS中桶按照DNS规范进行命名,DNS规范为全球通用规则, 其具体命名规则如下: 需全局唯一,不能与已有的任何桶名称重复,包括其他用户创建的桶。用户删除桶后,立即创建同名桶或并行文件系统会创建失败,需要等待30分钟才能创建。 长度范围为3到63个字符,支持小写字母、数字、中划线()、英文句号(.)。 禁止两个英文句号(.)相邻,禁止英文句号(.)和中划线()相邻,禁止以英文句号(.)和中划线()开头或结尾。 禁止使用IP地址。 说明 当用户使用虚拟主机方式通过HTTPS协议访问OBS时,如果桶名称中包含英文句号(.),会导致证书校验失败。所以该场景下,建议桶名称不要使用英文句号(.) 数据冗余存储策略 多AZ存储:数据冗余存储至多个可用区(AZ),可靠性更高。 单AZ存储:数据仅存储在单个可用区(AZ),成本更低。 注意 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略就确定了,后续无法更改。 默认存储类别 桶的存储类别。不同的存储类别可以满足客户业务对存储性能、成本的不同诉求。 标准存储:适用于有大量热点文件或小文件,且需要频繁访问(平均一个月多次)并快速获取数据的业务场景。 低频访问存储:适用于不频繁访问(平均一年少于12次),但需要快速获取数据的业务场景。 归档存储:适用于很少访问(平均一年一次),且对数据获取速率要求不高的业务场景。 桶策略 桶的读写权限控制。 私有:除桶ACL授权外的其他用户无桶的访问权限。 公共读:任何用户都可以对桶内对象进行读操作。 公共读写:任何用户都可以对桶内对象进行读/写/删除操作。 说明 公共读与公共读写权限可以使任何用户在不用身份认证的情况下直接读取或者读/写/删桶内的对象,为确保您的数据安全,不推荐此配置,建议您选择私有。禁止将天翼云服务用于存储和传播违法信息 归档数据直读 通过归档数据直读,您可以直接下载存储类别为归档存储的对象, 而无需提前恢复。 服务端加密 选择“SSEKMS”加密。加密密钥类型您可以选择“默认密钥”,您上传的对象将使用当前区域的默认密钥进行加密,如果您没有默认密钥,系统将会在首次上传对象时自动为您创建,您也可以选择“自定义密钥”,通过单击“创建KMS密钥”进入数据加密服务页面创建自定义密钥,然后通过KMS密钥的下拉框选中您创建的KMS密钥。若桶已开启了默认加密,上传对象可以继承桶的KMS加密特性。 WORM 开启WORM (一次写入多次读取) 功能后,当前桶支持配置保留策略,受保留策略保护的对象版本在指定时间段内不能被删除。WORM功能只能在创建桶时开启, 开启后无法关闭,当前桶默认开启多版本控制且不可关闭。 开启WORM后,需配置以下参数: 默认保留策略:可以选择在创建桶时配置WORM保留策略,也可以在桶创建后配置。 默认保留模式:默认保留策略选择“配置”时,需配置该参数。当前仅支持“合规模式”,即任何用户在保留期内都不能删除受保护的对象版本,或更改其保留模式。 默认保留期:默认保留策略选择“配置”时,需配置该参数。系统将阻止在保留期内删除受保护的对象版本。可按天或年配置,填写上限为100年。按年配置取值范围为1100,按天配置取值范围为136500。 企业项目 将桶加入到企业项目中统一管理。请先在企业项目界面完成企业项目的创建,默认为default企业项目。在企业项目界面创建企业项目,创建用户组并将用户加入到该用户组,然后将用户组添加到该企业项目。这时用户组内用户将获得用户组授权的该企业项目下的桶和对象的操作权限。 说明:仅企业帐号能够配置企业项目。 标签 可选。标签用于标识OBS中的桶,以此达到对OBS中的桶进行分类的目的。OBS以键值对的形式来描述标签,每个标签有且只有一对键值。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        管理桶
        创建桶
      • 如何通过JDBC连接TaurusDB数据库
        本节介绍了JDBC连接的问题与处理方法。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。TaurusDB新实例默认开启SSL数据加密,SSL连接实现了数据加密功能,但同时会增加网络连接响应时间和CPU消耗,请评估对业务的性能影响,根据需要进行设置。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解java编程语言。 了解JDBC基础知识。 使用SSL证书连接 使用SSL证书连接实例,即通过证书校验并连接数据库。 说明 以下提供的方式不适用于数据库用户的ssltype为x509的认证方式。 执行命令查看当前用户的ssltype值: select ssltype from mysql.user where user 'xxx'; 步骤 1 下载CA证书或捆绑包。 1. 在“实例管理”页面,单击实例名称进入“基本信息”页面。 2. 在“数据库信息”区域,单击“SSL”开关右侧的。 步骤 2 使用keytool工具通过CA证书生成truststore文件。 ./keytool.exe importcert alias ­file keystore storepass 表 变量说明 变量 说明 请替换为JDK或JRE安装路径的bin目录,例如C:Program Files (x86)Javajdk­11.0.7bin。 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为步骤1中下载解压后CA证书的名称,例如ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): Owner: CNMySQLServer8.0.22AutoGeneratedCACertificate Issuer: CNMySQLServer8.0.22AutoGeneratedCACertificate Serial number: 1 Valid from: Thu Feb 16 11:42:43 EST 2017 until: Sun Feb 14 11:42:43 EST 2027 Certificate fingerprints: MD5: 18:87:97:37:EA:CB:0B:5A:24:AB:27:76:45:A4:78:C1 SHA1: 2B:0D:D9:69:2C:99:BF:1E:2A:25:4E:8D:2D:38:B8:70:66:47:FA:ED SHA256:C3:29:67:1B:E5:37:06:F7:A9:93:DF:C7:B3:27:5E:09:C7:FD:EE:2D:18:86:F4:9C:40:D8:26:CB:DA:95: A0:24 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 1 Trust this certificate? [no]: y Certificate was added to keystore 步骤 3 通过JDBC连接TaurusDB数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 表 参数说明 参数 说明 请替换为TaurusDB实例的IP地址。 说明 如果通过弹性云主机连接,“instanceip”是实例的“读写内网地址”。您可以在该实例“基本信息”页面的“网络信息”区域查看。 如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”,即读写公网地址。您可以在该实例““基本信息”页面的“网络信息”区域查看。 请替换为实例的数据库端口,默认为3306。说明您可以在该实例“基本信息”页面的“网络信息”区域查看。 请替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。 取值如下: true:支持。 false:不支持。 说明 requireSSL与其他连接参数、sslMode之间的关系请参考下表。 useSSL的值,用于设置客户端是否使用SSL连接服务端。 取值如下: true:使用。 false:不使用。 说明 useSSL与其他连接参数、sslMode之间的关系请参考下表。 verifyServerCertificate的值,客户端是否校验服务端的证书。 取值如下: true:校验。 false:不校验。 说明 verifyServerCertificate与其他连接参数、sslMode之间的关系请参考下表。 请替换为步骤2中为truststore文件设置的存储路径。 password> 请替换为步骤2中为truststore文件设置的密码。 表 连接参数与SSL Mode的关系说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接TaurusDB数据库的java代码): import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCTest { static final String USER "xxx"; static final String PASS "xxx"; public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql:// : / ? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); conn DriverManager.getConnection(url, USER, PASS); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.print(rs.getMetaData().getColumnName(i)); System.out.print("t"); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.print(rs.getObject(i)); System.out.print("t"); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // release resource .... } } }
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        数据库连接类
        如何通过JDBC连接TaurusDB数据库
      • 创建无状态负载(Deployment)
        操作场景 在运行中始终不保存任何数据或状态的工作负载称为“无状态负载 Deployment”,例如nginx。您可以通过控制台或kubectl命令行创建无状态负载。 前提条件 在创建容器工作负载前,您需要存在一个可用集群。若没有可用集群 ,请参照集群管理>购买混合集群中内容进行创建。 若工作负载需要被外网访问,请确保集群中至少有一个节点已绑定弹性IP,或已购买负载均衡实例。 创建多个工作负载时,请确保容器使用的端口不冲突 ,否则部署会失败。 通过控制台创建 云容器引擎提供了多种创建工作负载的方式,您可以通过如下方式进行创建: 基于“我的镜像”创建工作负载,用户首先需要将镜像上传至容器镜像服务。 基于“共享镜像”创建工作负载,即其它租户通过“容器镜像服务”共享给您的镜像。 您希望通过YAML方式创建工作负载,您可在“创建无状态工作负载”高级设置页面单击界面右侧的“YAML创建”,通过yaml的方式创建工作负载。YAML编写完成后,可单击“创建”,直接创建工作负载。 说明: YAML文件是和界面保持同步的,您也可以通过界面和YAML互动完成工作负载的创建。例如: 界面中填写工作负载名称后,YAML文件会自动关联该名称。 界面中添加完镜像后,YAML中也会自动关联该镜像。 控制台界面右侧的“YAML创建”不支持多个YAML混合,请分别创建,否则创建时将会报错。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”,单击“创建无状态工作负载”。参照下表设置工作负载基本信息,其中带“”标志的参数为必填参数。 工作负载基本信息 参数 参数说明 工作负载名称 新建工作负载的名称,命名必须唯一。 请输入4到63个字符的字符串,可以包含小写英文字母、数字和中划线(),并以小写英文字母开头,小写英文字母或数字结尾。 集群名称 新建工作负载所在的集群。 命名空间 在单集群中,不同命名空间中的数据彼此隔离。使应用可以共享同个集群的服务,也能够互不干扰。若您不设置命名空间,系统会默认使用default命名空间。 实例数量 工作负载的实例数量。工作负载可以有一个或多个实例,用户可以设置具体实例个数,默认为2,可自定义设置为1。 每个工作负载实例都由相同的容器部署而成。设置多个实例主要用于实现高可靠性,当某个实例故障时,工作负载还能正常运行。若使用单实例,节点异常或实例异常会导致服务异常。 时区同步 单击开启后,容器将和节点使用相同时区。 须知:时区同步功能开启后,在“数据存储 > 本地磁盘”中,将会自动添加HostPath类型的磁盘,请勿修改删除该磁盘。 工作负载描述 工作负载描述信息。 步骤 2 单击“下一步:容器设置”,添加容器。 1. 单击“添加容器”,选择需要部署的镜像。 − 我的镜像:展示了您创建的所有镜像仓库。 − 第三方镜像:CCE支持拉取第三方镜像仓库(即镜像仓库之外的镜像仓库)的镜像创建工作负载。使用第三方镜像时,请确保工作负载运行的节点可访问公网。第三方镜像的具体使用方法请参见如何使用第三方镜像。 若您的镜像仓库不需要认证,密钥认证请选择“否”,并输入“镜像名称”,单击“确定”。 若您的镜像仓库都必须经过认证(帐号密码)才能访问,您需要先创建密钥再使用第三方镜像,具体操作请参见如何使用第三方镜像。 − 共享镜像:其它租户通过“容器镜像服务”共享给您的镜像将在此处展示,您可以基于共享镜像创建工作负载。 2. 配置镜像基本信息。 工作负载是Kubernetes对一组Pod的抽象模型,用于描述业务的运行载体,一个Pod可以封装1个或多个容器,您可以单击右上方的“添加容器”,添加多个容器镜像并分别进行设置。 镜像参数说明 参数 说明 镜像名称 导入的镜像,您可单击“更换镜像”进行更换。 镜像版本 选择需要部署的镜像版本。 容器名称 容器的名称,可修改。 特权容器 特权容器是指容器里面的程序具有一定的特权。 若选中,容器将获得超级权限,例如可以操作宿主机上面的网络设备、修改内核参数等。 容器规格 CPU 配额: 申请:容器需要使用的最小CPU值,默认0.25Core。 限制:允许容器使用的CPU最大值。建议设容器配额的最高限额,避免容器资源超额导致系统故障。 内存配额: 申请:容器需要使用的内存最小值,默认512MiB。 限制:允许容器使用的内存最大值。如果超过,容器会被终止。 申请和限制的具体请参见设置容器规格。 GPU 配额:当集群中包含GPU节点时,才能设置GPU,无GPU节点不显示此选项。 容器需要使用的GPU百分比。勾选“使用”并设置百分比,例如设置为10%,表示该容器需使用GPU资源的10%。若不勾选“使用”,或设置为0,则无法使用GPU资源。 GPU 显卡:工作负载实例将被调度到GPU显卡类型为指定显卡的节点上。 若勾选“不限制”,容器将会随机使用节点中的任一显卡。您也可以勾选某个显卡,容器将使用特定显卡。 3. 生命周期:用于设置容器启动和运行时需要执行的命令。 − 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 − 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 − 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 4. 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 − 工作负载存活探针:检查容器是否正常,不正常则重启实例。 − 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 5. 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: − 手动添加:输入变量名称、变量/变量引用。 − 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见配置中心>创建密钥。 − 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见配置中心>创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 6. 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见存储管理。 7. 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 8. 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 3 单击“下一步:工作负载访问设置”,单击“添加服务”,设置工作负载访问方式。 若工作负载需要和其它服务互访,或需要被公网访问,您需要添加服务,设置工作负载访问方式。 工作负载访问的方式决定了这个工作负载的网络属性,不同访问方式的工作负载可以提供不同网络能力,具体请参见网络管理>网络概述。 步骤 4 单击“下一步:高级设置”,配置更多高级策略。 升级策略:您可以指定无状态工作负载的升级方式,包括逐步“滚动升级”和整体“替换升级”。 − 滚动升级:将逐步用新版本的实例替换旧版本的实例,升级的过程中,业务流量会同时负载均衡分布到新老的实例上,因此业务不会中断。 最大无效实例数:每次滚动升级允许的最大无效实例数,如果等于实例数有断服风险(最小存活实例数 实例数 最大无效实例数)。 − 替换升级:将先把您工作负载的老版本实例删除,再安装指定的新版本,升级过程中业务会中断。 缩容策略:为工作负载删除提供一个时间窗,预留给生命周期中PreStop阶段执行命令。若超过此时间窗,进程仍未停止,该工作负载将被强制删除。 − 缩容时间窗 (s):请输入时间,该时间为工作负载停止前命令的执行时间窗(09999秒),默认30秒。 − 缩容优先级:可根据业务需要选择“优先减少新实例”或“优先减少老实例”。 迁移策略:当工作负载实例所在的节点不可用时,系统将实例重新调度到其它可用节点的时间窗。 − 迁移时间窗 (s):请输入时间,默认为300秒。 调度策略:您可以根据需要自由组合静态的全局调度策略或动态的运行时调度策略来实现自己的需求。具体请参见亲和反亲和性调度>调度策略概述。 Pod高级设置 − Pod标签:内置app标签在工作负载创建时指定,主要用于设置亲和性与反亲和性调度,暂不支持修改。您可以单击下方的“添加标签”增加标签。 说明: 客户端DNS配置:CCE集群内置DNS插件CoreDNS,为集群内的工作负载提供域名解析服务。详细使用方法请参见Kubernetes集群内置DNS配置说明。 − DNS策略: 追加域名解析配置:选择该配置后,将保留默认配置,以下“IP地址”和“搜索域”配置可能不生效。 替换域名解析配置:选择该配置后,将仅使用以下“IP地址”和“搜索域”配置进行域名解析。 继承Pod所在节点域名解析配置:将继承Pod所在节点的域名解析配置。 − IP地址:您可对自定义的域名配置域名服务器,值为一个或一组DNS IP地址,如“1.2.3.4”。 − 搜索域:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。 − 超时时间(s):查询超时时间,请自定义。 − ndots:表示域名中必须出现的“.”的个数,如果域名中的“.”的个数不小于ndots,则该域名为一个FQDN,操作系统会直接查询;如果域名中的“.”的个数小于ndots,操作系统会在搜索域中进行查询。 自定义指标监控:是指监控系统提供的一种指标收集机制,该机制允许工作负载在部署时自定义需要上报的指标名称以及获取这些指标数据的接入点信息,在应用运行时由监控系统按固定的频率访问接入点进行指标的收集。 性能管理配置:性能管理服务可协助您快速进行工作负载的问题定位与性能瓶颈分析。 步骤 5 配置完成后,单击“创建”,在创建成功页面单击“返回工作负载列表”,查看工作负载状态。 在工作负载列表中,当工作负载状态为“运行中”时,表示工作负载创建成功。工作负载状态不会实时更新,请刷新页面查看。 步骤 6 在“无状态负载 Deployment”页面的工作负载列表中,复制“外部访问地址”,可在浏览器中访问工作负载。 说明: 当工作负载访问方式设为“节点访问(NodePort)”并绑定弹性IP或设为“负载均衡 ( LoadBalancer )”时,才可以获取外部访问地址,可以访问外网。 工作负载列表页在超过500条以上时,将采用Kubernetes的分页机制进行分页。Kubernetes的分页机制:仅支持回到第一页和查看下一页,不支持查看上一页,且在分页显示的情况下,资源总数显示的是批量查询出的数目而不是真实总数。 通过kubectl命令行创建 本节以nginx工作负载为例,说明kubectl命令创建工作负载的方法。 前提条件 请参见通过kubectl操作CCE集群配置kubectl命令,使弹性云主机连接集群。 操作步骤 步骤 1 登录已配置好kubectl命令的弹性云主机。 步骤 2 创建一个名为nginxdeployment.yaml的描述文件。其中,nginxdeployment.yaml为自定义名称,您可以随意命名。 vi nginxdeployment.yaml 描述文件内容如下。此处仅为示例,deployment的详细说明请参见kubernetes官方文档。 apiVersion: apps/v1 kind: Deployment metadata: name: nginx spec: replicas: 1 selector: matchLabels: app: nginx strategy: type: RollingUpdate template: metadata: labels: app: nginx spec: containers: image: nginx imagePullPolicy: Always name: nginx imagePullSecrets: name: defaultsecret 以上yaml字段解释如下表。 deployment字段详解 字段名称 字段说明 必选/可选 apiVersion 表示API的版本号。 说明 集群版本为1.9之前的无状态应用apiVersion格式为extensions/v1beta1,1.9之后的集群兼容extensions/v1beta1和apps/v1两种格式Version,请根据集群版本输入。 必选 kind 创建的对象类别。 必选 metadata 资源对象的元数据定义。 必选 name deployment的名称。 必选 Spec 用户对deployment的详细描述的主体部分都在spec中给出。 必选 replicas 实例数量。 必选 selector 定义Deployment可管理的容器实例。 必选 strategy 升级类型。当前支持两种升级方式,默认为滚动升级。 RollingUpdate:滚动升级。 ReplaceUpdate:替换升级。 可选 template 描述创建的容器实例详细信息。 必选 metadata 元数据。 必选 labels metadata.labels定义容器标签。 可选 spec: containers image(必选):容器镜像名称。 imagePullPolicy(可选):获取镜像的策略,可选值包括Always(每次都尝试重新下载镜像)、Never(仅使用本地镜像)、IfNotPresent(如果本地有该镜像,则使用本地镜像,本地不存在时下载镜像),默认为Always。 name(必选):容器名称。 必选 imagePullSecrets Pull镜像时使用的secret名称。若使用私有镜像,该参数为必选。 需要Pull SWR容器镜像仓库的镜像时,参数值固定为defaultsecret。 当Pull第三方镜像仓库的镜像时,需设置为创建的secret名称。 可选 步骤 3 创建deployment。 kubectl create f nginxdeployment.yaml 回显如下表示已开始创建deployment。 deployment "nginx" created 步骤 4 查看deployment状态。 kubectl get pods deployment状态显示为Running,表示deployment已创建成功。 NAME READY STATUS RESTARTS AGE icagentm9dkt 0/0 Running 0 3d nginx1212400781qv313 1/1 Running 0 3d 参数解析: NAME:pod的名称 READY:已经部署完毕的pod副本数 STATUS:状态 RESTARTS:重启次数 AGE:已经运行的时间 步骤 5 若工作负载(即deployment)需要被访问(集群内访问或节点访问),您需要设置访问方式,具体请参见8 网络管理创建对应服务。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        创建无状态负载(Deployment)
      • 通过JDBC连接MySQL实例
        本页介绍如何通过JDBC连接关系数据库MySQL版。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解JAVA编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。 1. 下载CA证书。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在网络 区域,单击SSL状态 参数右侧的下载证书。 2. 使用keytool工具通过CA证书生成truststore文件。 说明 Keytool是Java开发工具包中的一个命令行工具,可用于管理密钥和证书。 如果您的系统中安装了Java并配置了正确的环境变量,则可以直接使用keytool命令。 如果您的系统中没有安装Java,请先安装Java,然后配置环境变量再使用keytool命令。 java keytool.exe importcert alias file keystore storepass 变量 说明 : 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为下载的CA证书的名称,ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): java Owner: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Issuer: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Serial number: b0db70460527a4df Valid from: Tue Mar 21 15:40:12 CST 2023 until: Fri Mar 18 15:40:12 CST 2033 Certificate fingerprints: MD5: A6:9G:E5:5C:10:E4:F4:18:84:66:76:23:54:92:4C:8A SHA1: 23:66:FE:D4:83:24:58:69:B5:F6:28:04:8D:AA:FB:0E:B0:B9:F9:CB SHA256: 3F:C9:C7:EA:3F:8E:9F:6E:71:7E:5C:7A:81:44:0B:EA:51:CB:EA:7F:9C:00:3A:CF:6E:B8:64:9D:16:62:73:91 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 3 Extensions: Trust this certificate? [no]: y Certificate was added to keystore 3. 通过JDBC连接MySQL数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 参数 说明 请替换为实例的IP地址。 说明:如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例“基本信息”页面的“实例信息”区域查看连接地址。如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。 请替换为实例的数据库端口,默认为13049。 说明:您可以在该实例“连接管理”页面的“连接信息”区域查看。 替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。取值如下:true:支持。false:不支持。 useSSL的值,用于设置客户端是否使用SSL连接服务端。取值如下:true:使用。false:不使用。 verifyServerCertificate的值,客户端是否校验服务端的证书。取值如下:true:校验。false:不校验。 替换为truststore文件设置的存储路径。 替换为truststore文件设置的密码。 requireSSL参数应用说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCConnTest { public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql://instanceip:13049/dbname? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); String USER "xxx"; String PASSOWRD "xxx"; conn DriverManager.getConnection(url, USER, PASSOWRD ); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.println(rs.getMetaData().getColumnName(i)); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.println(rs.getObject(i)); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // 释放资源 } } }
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接MySQL实例
      • 1
      • ...
      • 221
      • 222
      • 223
      • 224
      • 225
      • ...
      • 234
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      模型推理服务

      科研助手

      推荐文档

      变更实例的CPU和内存规格

      变更规格通用操作

      购买类

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号