活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容安全_相关内容
      • 日志审计v1.0
        本节介绍云等保专区产品的日志审计配置类问题。 日志审计设备如何进行接入配置? 1. 首先在进行审计前,用户需要在资产上设置Syslog等协议将日志发送至平台。 2. 平台可自动发现通过Syslog等协议向平台发送日志的资产向平台发送日志的资产,发现这些资产后,需要添加这些资产,在上边栏选择“资产管理”,在左侧菜单栏选择“ 资产 > 全部资产 ”进入资产页面,点击“新增”。 进入新增资产页面,选择资产类型(如Windows)。 编辑相关信息,点击“保存”。 3. 在事件管理模块中可查询资产的日志信息,在性能监控模块中监控资产的性能状态,在上边栏选择“事件管理”,在左侧菜单栏选择“ 事件 > 自定义查询 ”进入自定义查询页面。设置查询条件,点击“查询”即可查询事件,点击“清空”可清空查询条件。 4. 创建解决方案包为可选操作,平台已经内置了2个解决方案包。用户可根据需要创建解决方案包,解决方案包是一系列安全事件模板的集合,平台根据这些模板分析资产的风险趋势,对于威胁事件给予告警,在上边栏选择“规则库”,在左侧菜单栏选择“解决方案包”进入解决方案包页面。 点击“新增”,编辑相关信息,点击“保存”。 5. 用户还可订阅自己关注的告警事件,可第一时间了解资产的威胁态势,在上边栏选择“事件管理”,在左侧菜单栏选择“ 告警 > 告警订阅 ”进入告警订阅页面,选择未订阅页签。在左侧解决方案包导航栏中选择事件(如“防火墙阻断”),选择邮件订阅、短信订阅、FTP订阅和TCP订阅的用户,点击“保存”。 6. 平台会根据解决方案包对日志事件进行审计并对威胁趋势做出统计,用户可查看审计概要和统计报表,在上边栏选择“审计概要”进入审计概要页面,在左侧解决方案包导航栏中选择具体项目,即可查看该项目的审计概要信息。 在上边栏选择“统计报表”,在左侧菜单栏选择“统计报表”,选择报表项,可查看该报表项的信息。 点击“过滤”,在弹出的对话框中设置过滤条件,点击“过滤”即可查看符合过滤条件的统计信息。 点击时间下拉框,选择时间段可查看对应时间段内的事件统计信息。 点击页面右上角的“导出”,在弹出的菜单栏中选择“导出Word”、“导出PDF”即可将统计报表导出为Word、PDF文件保存至本地。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        日志审计
        日志审计v1.0
      • 操作类
        本节主要介绍云存储网关操作相关的常见问题。 如何配置云存储网关访问权限? 为加强云存储网关的安全性,可通过配置防火墙权限,限制端口3260的访问来源 IP。请参考以下步骤操作: 1. 开启防火墙: systemctl start firewalld 2. 配置允许 IP: firewallcmd permanent addrichrule"rule familyipv4 source addressIP port protocoltcp port3260 accept" 3. 重启防火墙: firewallcmd –reload 4. 开机自动启动: systemctl enable firewalld.service 配置Linux集群版时,如何更改客户端连接到云存储网关的超时时间? 可以通过更改客户端/etc/iscsi/iscsid.conf和/etc/multipath.conf配置文件,来控制客户端到云存储网关的超时时间。 iscsid文件位置:/etc/iscsi/iscsid.conf 配置项名称 配置项含义 :: conn[0].timeo.noopoutinterval iSCSI Initiator发送NOP OUT的间隔时间,默认值5,单位为秒。 conn[0].timeo.noopouttimeout iSCSI Initiator发出NOP OUT后,收到NOP IN响应的超时时间,默认值5,单位为秒。 session.timeo.replacementtimeout 达到noopouttimeout后,iSCSI Initiator向SCSI层或multipath层返回IO失败前等待iSCSI session重建的超时时间。 默认值200,单位为秒。可选值如下: 0:不等待session 重建,立即返回IO失败。 0:等待指定时间后,返回IO失败。 查看运行时replacementtimeout: cat /sys/class/iscsisession/sessionXX/recoverytmo 修改运行时的replacementtimeout: echo X > /sys/class/iscsisession/sessionXX/recoverytmo 注意 若iSCSI设备配置了multipath,则 /sys/class/iscsisession/sessionXX/recoverytmo会被multipath.conf中的fastiofailtmo覆盖。 multipath文件位置:/etc/multipath.conf 配置项名称 配置项含义 :: pollinginterval 路径检测的间隔时间。默认值5,单位为秒。路径正常时,间隔时间会每次翻倍,增加到4pollinginterval。 路径检测方式由pathchecker 决定,一般为发送TUR命令,或READ第0个扇区。 fastiofailtmo SCSI传输层出现问题后,将IO失败返回到multipath层之前等待传输层重建的超时时间。默认值5,单位为秒。可选值: >0:超时时间,会覆盖/sys/class/iscsisession/sessionXX/recoverytmo off:不修改/sys/class/iscsisession/sessionXX/recoverytmo nopathretry 当某条路径失败后,IO重试的次数,默认值0. 可选值: 0/fail:立即失败。 >0:重试次数。 queue:一直重试。multipath ll查看设备信息,会显示features "1 queueifnopath"。 若nopathretryqueue,且对应的路径失败,则该路径上已经在处理的SCSI命令会被阻塞,一直等待直到路径恢复,即上层应用感知不到IO失败。对于上层是集群的应用场景,可能会影响集群的故障检测及切换。 对于已经被阻塞的SCSI命令,可执行dmsetup message mpathX 0 "failifnopath",使得该路径上的SCSI命令立即返回失败,避免上层应用无限期等待。
        来自:
        帮助文档
        云存储网关
        常见问题
        操作类
      • 管理工作负载和任务
        操作场景 工作负载创建后,您可以对其执行伸缩、升级、编辑YAML、日志、监控、回退、删除等操作。 日志 您可以通过“日志”功能查看无状态工作负载、有状态工作负载、守护进程集、普通任务的日志信息。本文以无状态工作负载为例说明如何查看日志。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“日志”。 在弹出的“日志”窗口中可以查看最近5分钟、最近30分钟、最近1小时内的日志信息。 升级 基于CCE,您可以通过更换镜像或镜像版本实现无状态工作负载、有状态工作负载、守护进程集的快速升级,业务无中断。本节以无状态工作负载为例说明如何进行升级。 若需要更换镜像或镜像版本,您需要提前将镜像上传到容器镜像服务。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”,单击待升级工作负载后的“升级”。 说明:有状态工作负载升级时,若升级类型为替换升级,需要用户手动删除实例后才能升级成功,否则界面会始终显示“升级中”。 步骤 2 请根据业务需求进行工作负载的升级。 镜像名称:单击“更换镜像”,选择新的镜像。 镜像版本:在镜像版本后的下拉框中选择对应版本。 容器名称: 单击容器名称后的,修改容器名称。 特权容器:开启后,容器将可以访问主机上的所有设备。 容器规格:可分别设置CPU配额、内存配额。 高级设置: − 生命周期:用于设置容器启动和运行时需要执行的命令。 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 − 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 工作负载存活探针:检查容器是否正常,不正常则重启实例。 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 − 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: 手动添加:输入变量名称、变量/变量引用。 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见创建密钥。 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 − 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见本地磁盘存储。 说明: 有状态工作负载只能在创建时添加数据存储,创建完成后无法再添加。 − 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 − 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 3 更新完成后,单击“提交”。 编辑YAML 可通过在线YAML编辑窗对无状态工作负载、有状态工作负载、守护进程集和容器组的YAML文件进行修改和下载。普通任务和定时任务的YAML文件仅支持查看、复制和下载。本文以无状态工作负载为例说明如何在线编辑YAML。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“更多 > 编辑YAML”,在弹出的“编辑YAML”窗中可对当前工作负载的YAML文件进行修改。 步骤 3 单击“修改”,在弹出的提示框中单击“确定”,完成修改。 步骤 4 (可选)在“编辑YAML”窗中,单击“下载”,可下载该YAML文件。 伸缩 您可以根据业务需求自行定义无状态工作负载、有状态工作负载和守护进程集的伸缩策略,降低因应对业务变化和高峰压力而人为反复调整资源的工作量,帮助您节约资源和人力成本。本文以无状态工作负载为例说明如何使用伸缩功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待设置伸缩策略工作负载后的“更多 > 伸缩”,进入工作负载详情页面。 步骤 3 在“伸缩”页签,可设置“弹性伸缩”和“手动伸缩”策略,或“编辑伸缩规则”。 详细设置方法请参见工作负载弹性伸缩。 监控 您可以通过CCE控制台查看无状态工作负载、守护进程集和容器组的CPU和内存占用情况,以确定需要的资源规格。本文以无状态工作负载为例说明如何使用监控功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击已创建工作负载的名称,进入工作负载详情页面。在监控页签,可查看工作负载的CPU利用率和物理内存使用率。 步骤 3 单击“实例列表”,单击某个实例名称前的,单击“监控”。 步骤 4 查看相应实例的CPU使用率、内存使用率。 CPU使用率。 横坐标表示时间,纵坐标表示CPU使用率。绿色线条表示CPU使用率,红色线条表示CPU使用限额。 说明: CPU使用量需要计算,故初次显示时,CPU使用量会比内存使用量晚一分钟左右显示。 只有实例处于运行状态时,才能查看CPU使用量。 物理内存使用率。 横坐标表示时间,纵坐标表示内存使用量。绿色线条表示内存使用率,红色线条表示内存使用限额。 说明: 实例处于非运行状态时,无法查看内存使用量。 回退(仅无状态工作负载可用) 所有无状态工作负载的发布历史记录都保留在系统中,您可以回退到指定的版本。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待回退工作负载后的“更多 > 回退”。 步骤 3 在“回退到该版本”后,选择回退版本,单击“确定”。 暂停(仅无状态工作负载可用) 无状态工作负载可以进行暂停操作。暂停后,对负载进行的升级操作可以正常下发,但不会被应用到实例。 如果您正在滚动升级的过程中,滚动升级会在暂停命令下发后停止,出现新旧实例共存的状态。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待暂停的工作负载后方操作栏中的“更多 > 暂停”。 步骤 3 在弹出的负载暂停信息提示框中,单击“确认”。 步骤 4 单击“确定”,可完成暂停操作。 须知: 工作负载状态为暂停中时无法执行回退操作。 恢复(仅无状态工作负载可用) 暂停中的负载可以进行恢复操作。恢复后,负载可以正常升级和回退,负载下的实例会与负载当前的最新信息进行一次同步,如果有不一致的,则会自动按照负载的最新信息进行升级。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待恢复的工作负载后方操作栏中的“更多 > 恢复”。 步骤 3 在弹出的负载恢复信息提示框中,单击“确认”。 标签管理 标签是以key/value键值对的形式附加在工作负载上的。添加标签后,可通过标签对工作负载进行管理和选择,主要用于设置亲和性与反亲和性调度。您可以给多个工作负载打标签,也可以给指定的某个工作负载打标签。 您可以根据业务需求对无状态工作负载、有状态工作负载和守护进程集的标签进行管理,本文以无状态工作负载为例说明如何使用标签管理功能。 如下图,假设为工作负载(例如名称为APP1、APP2、APP3)定义了3个标签:release、env、role。不同工作负载定义了不同的取值,分别为: APP 1:[release:alpha;env:development;role:frontend] APP 2:[release:beta;env:testing;role:frontend] APP 3:[release:alpha;env:production;role:backend] 在使用调度或其他功能时,选择“key/value”值分别为“role/frontend”的工作负载,则会选择到“APP1和APP2”。 图标签使用案例 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待添加标签的工作负载,进入工作负载详情页面。 步骤 3 单击“标签管理”,单击“添加标签”,输入键和值,单击“确定”。 说明: 标签格式要求如下:以字母和数字开头或结尾,由字母、数字、连接符()、下划线()、点号(.)组成且63字符以内。 删除工作负载/任务 若工作负载无需再使用,您可以将工作负载或任务删除。工作负载或任务删除后,将无法恢复,请谨慎操作。本文以无状态工作负载为例说明如何使用删除功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待删除工作负载后的“更多 > 删除”,删除工作负载。 请仔细阅读系统提示,删除操作无法恢复,请谨慎操作。 步骤 3 单击“是”。 说明: 若Pod所在节点不可用或者关机,负载无法删除时可以在详情页面实例列表选择强制删除。 请确保要删除的存储没有被其他负载使用,导入和存在快照的存储只做解关联操作。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        管理工作负载和任务
      • 如何开启云主机动态获取IPv6?
        Linux操作系统(手动配置启用IPv6) 注意: CentOS 6.x和Debian操作系统的云主机内部配置IPv6自动获取功能之后,将该云主机制作为私有镜像,使用该镜像在非IPv6网络环境中创建云主机时,由于等待获取IPv6地址超时,导致云主机启动较慢,您可以参考下文“设置云主机获取IPv6地址超时时间”设置获取IPv6地址超时时间为30s,然后再重新制作私有镜像。 步骤 1 执行如下命令,查看当前云主机是否启用IPv6。 ip addr 如果没有开启IPv6协议栈,则只能看到IPv4地址,如下图所示,请参考步骤2先开启IPv6协议栈。 未开启IPv6协议栈 如果已开启IPv6协议栈,则可以看到LLA地址(fe80开头)。 已开启IPv6协议栈 如果已开启IPv6协议栈并且已获取到IPv6地址,则会看到如下地址: 已开启IPv6协议栈并且已获取到IPv6地址 说明: Linux公共镜像均已开启IPv6协议栈;Ubuntu 16公共镜像不仅已开启IPv6协议栈,而且可以获取到IPv6地址,无需特殊配置。 步骤 2 开启Linux云主机IPv6协议栈。 1. 执行如下命令,确认内核是否支持IPv6协议栈。 sysctl a grep ipv6 − 如果有输出信息,表示内核支持IPv6协议栈。 − 如果没有任何输出,说明内核不支持IPv6协议栈,需要执行步骤2.2加载IPv6模块。 2. 执行以下命令,加载IPv6模块。 modprobe ipv6 3. 修改“/etc/sysctl.conf”配置文件,增加如下配置: net.ipv6.conf.all.disableipv60 4. 保存配置并退出,然后执行如下命令,加载配置。 sysctl p 步骤 3 手动配置启用IPv6。操作系统不同,步骤有所差别。 Ubuntu操作系统云主机配置动态获取IPv6。 说明: Ubuntu 18.04请执行以下操作步骤;Ubuntu 16.04操作系统已默认启用IPv6,不需要做任何配置操作。 a. 修改“/etc/network/interface”配置文件,在“iface eth0 inet dhcp”下增加一行配置: iface eth0 inet6 dhcp b. (可选配置)配置网卡IPv6 LLA地址的生成方式为EUI64。 nmcli con modify "Wired connection 1" ipv6.addrgenmode eui64 c. 执行以下命令,重启网络服务。 ifdown eth0 ifup eth0 Debian操作系统云主机配置动态获取IPv6。 a.编辑“/etc/network/interfaces”文件,使之包含以下内容: auto lo iface lo inet loopback auto eth0 iface eth0 inet dhcp iface eth0 inet6 dhcp preup sleep 3 b.如果有多个网卡,则在“/etc/network/interfaces”文件中,增加对应网卡的配置,以eth1为例,需要增加: auto eth1 iface eth1 inet dhcp iface eth1 inet6 dhcp preup sleep 3 c.执行如下命令重启网络服务。 service networking restart 说明: 如果将网卡进行down/up操作之后无法获取IPv6地址,也可以通过此命令重启网络服务。 d. 执行步骤步骤1检查是否已开启动态IPv6。 CentOS/EulerOS/Fedora操作系统云主机配置动态获取IPv6。 a. 编辑主网卡配置文件“/etc/sysconfig/networkscripts/ifcfgeth0”。 补充如下配置项: IPV6INITyes DHCPV6Cyes b. 编辑“/etc/sysconfig/network”,按如下所示添加或修改以下行。 NETWORKINGIPV6yes c. CentOS 6系列从网卡需要编辑对应的配置文件,以eth1为例,编辑“/etc/sysconfig/networkscripts/ifcfgeth1”。 补充如下配置项: IPV6INITyes DHCPV6Cyes CentOS 6.3系统中默认ip6tables会过滤dhcpv6client请求,所以CentOS 6.3除了需要编辑“ifcfgeth”文件外,还需要额外添加一条允许dhcpv6client请求的ip6tables规则。操作如下: i. 执行以下命令,添加ip6tables规则。 ip6tables A INPUT m state state NEW m udp p udp dport 546 d fe80::/64 j ACCEPT ii. 执行以下命令,保存ip6tables规则。 service ip6tables save 命令示例 d. (可选配置)CentOS 7系列需要将扩展网卡的IPv6 LLA地址模式修改为EUI64。 i. 执行如下命令查看网卡信息。 nmcli con 查看网卡信息 ii. 将eth1的IPv6 LLA地址模式按以下命令修改为EUI64: nmcli con modify "Wired connection 1" ipv6.addrgenmode eui64 iii. 通过ifconfig命令将eth1进行down/up操作。 ifdown eth1 ifup eth1 e. 重启网络服务。 i. CentOS 6系列执行以下命令,重启网络服务。 service network restart ii. CentOS 7/EulerOS/Fedora系列执行以下命令,重启网络服务。 systemctl restart NetworkManager f. 执行步骤步骤1检查是否已开启动态IPv6。 SUSE/openSUSE/CoreOS操作系统云主机配置动态获取IPv6。 SUSE 11 SP4不支持IPv6自动获取。 SUSE 12 SP1、SUSE 12 SP2无需特殊配置。 openSUSE 13.2、openSUSE 42.2无需特殊配置。 CoreOS 10.10.5无需特殊配置。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
        如何开启云主机动态获取IPv6?
      • 场景:全量+增量备份迁移
        本章节内容主要介绍全量+增量备份迁移 全量+增量备份迁移为数据持续性迁移,需要在完成全量备份恢复的基础上,通过多次增量备份文件恢复,实现迁移过程中业务中断的最小化。一次典型的增量恢复过程,会涉及多次恢复增量备份。每个增量备份恢复均会使目标数据库保持还原中状态,此时数据库不可读写,直至最后一个增量备份恢复完成后,数据库才能变成可用状态。 本小节将以一次完整的全量+增量迁移为示例,详细介绍如何实现最小化业务中断的数据库迁移。 迁移示意图 图 全量+增量迁移 迁移流程图 图 流程图 首次进行全量迁移 1.导出全量备份文件,具体操作请参见导出数据库备份文件。 2.将导出的全量备份文件上传至OBS桶内,请参见上传备份文件。 3.登录数据库复制服务控制台。 4.单击管理控制台左上角的,选择区域和项目。 5.在“所有服务”或“服务列表”中,选择“数据库>数据库复制服务”,进入数据库复制服务信息页面。 6.在页面左侧导航栏,选择“备份迁移管理”,单击“创建迁移任务”,进入“选定备份”页面。 7.填写迁移任务信息和备份文件信息,单击“下一步”。 图 迁移任务信息 表 迁移任务信息 参数 描述 任务名称 任务名称在464位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 数据库类型 选择Microsoft SQL Server数据库引擎。 备份文件来源 选择自建OBS桶。 桶名 选择备份文件所在的桶名,以及该桶目录下上传好的全量备份文件。说明:o Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。该桶的桶名、备份文件名或者路径中不能包含中文。 在“选定目标”页面,填选数据库信息后,单击“下一步”。 图 全量迁移数据库信息 表 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。若没有合适的目标RDS数据库实例,请先创建所需的目标数据库实例,可参见《关系型数据库快速入门》中“SQL Server快速入门”下的“购买实例”章节。 待恢复备份类型 选择全量备份。全量备份指备份文件是完整备份类型的备份。 最后一个备份 一次典型的增量恢复过程,会涉及多次恢复增量备份。每个增量备份恢复均会使目标数据库保持还原中状态,此时数据库不可读写,直至最后一个增量备份恢复完成后,数据库才能变成可用状态。此后数据库将无法继续进行增量恢复,所以确定为最后一个备份场景有:o 一次性全量迁移,后续将不再进行增量恢复,选择“是”。o 增量恢复流程中,最后割接阶段的最后一个增量备份选择“是”。当前进行的是全量+增量备份迁移,全量备份恢复后,需要继续进行增量备份恢复,该参数选择“否”。此时目标数据库将会处于恢复中的状态,不可读写。 覆盖还原 覆盖还原是指目标端数据库实例已经存在同名的数据库,备份还原中是否要覆盖已存在的数据库。您可以根据业务需求,选择是否进行覆盖还原。说明:若选择此项,目标数据库实例中与待还原数据库同名的数据库将会被覆盖,请谨慎操作。 执行预校验 备份迁移任务是否执行预校验,默认为是。o 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复。o 全部数据库:恢复备份文件中所有的数据库,不需要输入待还原数据库名称,默认还原备份文件里的所有数据库o 部分数据库:恢复备份文件中的部分数据库,需要输入待还原数据库名称。全量备份需要保证指定恢复的数据库始终一致。 9.在“确认信息”页面核对配置详情后,勾选协议,单击“下一步”。 10.在“备份迁移管理”页面任务列表中,观察对应的恢复任务的状态为“恢复中”,恢复成功后,任务状态显示“成功”。 进行第一次增量迁移 1.导出第一次增量备份文件,具体操作请参见导出数据库备份文件。 2.将导出的备份文件上传至OBS桶内,请参见上传备份文件。 3.返回数据库复制服务控制台。 4.在页面左侧导航栏,选择“备份迁移管理”,单击“创建迁移任务”,进入“选定备份”页面,继续创建增量备份迁移任务。 5.填写迁移任务信息和备份文件信息,单击“下一步”。 图 增量备份 表 迁移任务信息 参数 描述 任务名称 任务名称在464位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 数据库类型 选择Microsoft SQL Server数据库引擎。 备份文件来源 选择自建OBS桶。 桶名 选择备份文件所在的桶名,以及该桶目录下上传好的第一次增量备份文件。说明:Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。 在“选定目标”页面,填选数据库信息后,单击“下一步”。 图 增量迁移数据库信息 表 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。该目标RDS实例应该与进行全量备份恢复时选择的目标实例一致。 待恢复备份类型 选择增量备份。增量备份指备份文件是日志类型的备份。 最后一个备份 一次典型的增量恢复过程,会涉及多次恢复增量备份。每个增量备份恢复均会使目标数据库保持还原中状态,此时数据库不可读写,直至最后一个增量备份恢复完成后,数据库才能变成可用状态。此后数据库将无法继续进行增量恢复,所以确定为最后一个备份场景有:o 一次性全量迁移,后续将不再进行增量恢复,选择“是”。o 增量恢复流程中,最后割接阶段的最后一个增量备份选择“是”。当前进行的是第一次增量备份迁移,该参数选择“否”。此时目标数据库将会处于恢复中的状态,不可读写。 执行预校验 备份迁移任务是否执行预校验,默认为是。o 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复。o 全部数据库:恢复备份文件中所有的数据库,不需要输入待还原数据库名称,默认还原备份文件里的所有数据库部分数据库:恢复备份文件中的部分数据库,需要输入待还原数据库名称。 7.在“确认信息”页面核对配置详情后,勾选协议,单击“下一步”。 8.在“备份迁移管理”页面任务列表中,观察对应的恢复任务的状态为“恢复中”,恢复成功后,任务状态显示“成功”。 进行第二次增量迁移 为了实现迁移导致的业务中断时间最小化,需要在业务割接前,进行一次事务日志备份上传与恢复,该操作会将割接前所有的历史数据恢复至目标数据库,很大程度上减少了割接时最后一个事务日志备份的上传与恢复的时间。 1.在业务割接前,导出新的增量备份文件,请参见导出数据库备份文件。 2.继续执行2到4。 3.填写迁移任务信息和备份文件信息,单击“下一步”。 图 增量备份 表 迁移任务信息 参数 描述 任务名称 任务名称在464位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 数据库类型 选择Microsoft SQL Server数据库引擎。 备份文件来源 选择自建OBS桶。 桶名 选择备份文件所在的桶名,以及该桶目录下上传好的新的增量备份文件。说明:Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。 4.在选定目标页面,填选数据库信息后,单击“下一步”。 图 增量迁移数据库信息 表 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。该目标RDS实例应该与进行全量备份恢复时选择的目标实例一致。 待恢复备份类型 选择增量备份。增量备份指备份文件是日志类型的备份。 最后一个备份 一次典型的增量恢复过程,会涉及多次恢复增量备份。每个增量备份恢复均会使目标数据库保持还原中状态,此时数据库不可读写,直至最后一个增量备份恢复完成后,数据库才能变成可用状态。此后数据库将无法继续进行增量恢复,所以确定为最后一个备份的场景有:o 一次性全量迁移,后续将不再进行增量恢复,选择“是”。o 增量恢复流程中,最后割接阶段的最后一个增量备份选择“是”。当前进行的是割接业务前的增量备份迁移,该参数选择“否”。此时目标数据库将会处于恢复中的状态,不可读写。 执行预校验 备份迁移任务是否执行预校验,默认为是。o 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复。o 全部数据库:恢复备份文件中所有的数据库,不需要输入待还原数据库名称,默认还原备份文件里的所有数据库部分数据库:恢复备份文件中的部分数据库,需要输入待还原数据库名称。 5.在“确认信息”页面核对配置详情后,勾选协议,单击“下一步”。 6.在“备份迁移管理”页面任务列表中,观察对应的恢复任务的状态为“恢复中”,恢复成功后,任务状态显示“成功”。 检查数据库事务 在进行业务割接之前,需要停止业务,然后确认数据库内无未完成的事务,避免因数据库中存在未完成的事务导致数据丢失问题。 1.执行如下语句,判断业务系统IP是否已经断开连接。 select from sys.dmexecconnections; 是,表示所有业务系统ip都已经断开连接,可以进行最后一个增量备份迁移。 否,执行2。 2.如果查询到存在未断开的业务系统ip,继续通过如下语句查询未关闭的会话 。 select from sys.dmexecsessions; 同时,根据如下语句查看正在执行的事务。 select from sys.dmtransessiontransactions; 若上述查询结果中存在未关闭的会话和正在执行的事务,请继续执行3。 3.需要等到事务执行完成,关闭会话,断开业务系统连接后,才可以进行最后一个增量备份迁移。 进行最后一次增量迁移 经过上面多次增量备份的迁移与恢复,数据库数据已经接近一致了,同时在上一阶段检查数据库事务的过程中已经将源业务停止,不会再产生新数据,此时为了确保迁移与恢复数据的完整性和一致性,需要进行最后一次增量备份的迁移与恢复。 1.导出新的增量备份文件,具体操作请参见导出数据库备份文件。 2.继续执行2到4。 3.填写迁移任务信息和备份文件信息,单击“下一步”。 图 增量备份 表 备份任务信息 参数 描述 任务名称 任务名称在464位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 数据库类型 选择Microsoft SQL Server数据库引擎。 备份文件来源 选择自建OBS桶。 桶名 选择备份文件所在的桶名,以及该桶目录下上传好的新的增量备份文件。说明:Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。 4.在选定目标页面,填选数据库信息后,单击“下一步”。 图10 增量迁移数据库信息 表 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。该目标RDS实例应该与进行全量备份恢复时选择的目标实例一致。 待恢复备份类型 选择增量备份。增量备份指备份文件是日志类型的备份。 最后一个备份 该阶段为停止业务后进行的最后一次增量迁移,该参数选择“是”。 执行预校验 备份迁移任务是否执行预校验,默认为是。o 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复。o 全部数据库:恢复备份文件中所有的数据库,不需要输入待还原数据库名称,默认还原备份文件里的所有数据库部分数据库:恢复备份文件中的部分数据库,需要输入待还原数据库名称。 5.在“确认信息”页面核对配置详情后,勾选协议,单击“下一步”。 6.在“备份迁移管理”页面任务列表中,观察对应的恢复任务的状态为“恢复中”,恢复成功后,任务状态显示“成功”。
        来自:
      • 云日志服务Logging handler SDK
        本文主要介绍Logging handler SDK使用方法。 Python logging handler概述 Python logging 模块提供了一套灵活的日志记录系统,允许开发者在应用程序中记录不同级别的消息,如调试信息、警告、错误等。使用Python SDK提供的logging Handler可以使Python程序在日志在不落盘的情况下自动上传到日志服务上,这种上传方式具有实时性、异步性、吞吐量大、配置简单等特点。使用这部分功能,只需要配置handler目录下的logging.ini 内的几个关键配置即可直接使用。 使用步骤 1、安装ctyunltspythonsdk:1.10.0,目录中包含ctyunltspythonsdk1.10.0.tar.gz。 plaintext pip install ctyunltspythonsdk1.10.0.tar.gz 如果安装失败,可单独安装requirementspy3.txt,详情可参考python SDK 概述2.2下载和安装。 plaintext pip install r requirementspy3.txt 2、修改handler 中的 logging.ini 中的自定义配置,里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) 3、执行example/samplelogginghandler.py 示例即可。 logging.ini 配置 在用例中自定义配置了三种handler :consoleHandler、asyncHandler、syncHandler。 1、consoleHandler的配置中classStreamHandler,这代表会将logger 日志输出到控制台。 2、syncHandler 配置中的 classhandler.AsyncHandler,这代表handler 将会去使用SyncHandler 类的配置进行日志上传,这个类使用的是同步单线程将logger 的日志上传到云日志服务中。 3、asyncHandler配置中的 classhandler.AsyncHandler,这代表handler 将会去使用AsyncHandler 类的配置进行日志上传,这个类使用的是异步批量多线程方式将logger 的日志上传到云日志服务中。 用户使用这个功能的时候,需要修改handler 中的args 配置。里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) ;使用环境变量 ;args(os.environ.get('LTSENDPOINT', '',),os.environ.get('LTSACCESSKEY', ''), os.environ.get('LTSSECRETKEY', ''),os.environ.get('LTSLOGPROJECT', ''), os.environ.get('LTSLOGUNIT', '')) 当然如果对安全性要求较高,强烈建议不要将明文accesskey 和 secretkey 写在logging.ini配置中,代替使用系统变量存放。可使用args(os.environ.get('LTSENDPOINT', '',)获取系统变量。 plaintext [loggers] keysroot,synclogging,asynclogging [handlers] keysconsoleHandler, asyncHandler,syncHandler [formatters] keysconsoleFormatter,ltsFormatter [loggerroot] levelDEBUG handlersconsoleHandler [loggerasynclogging] levelINFO handlersconsoleHandler,asyncHandler qualnameasynclogging propagate0 [loggersynclogging] levelINFO handlersconsoleHandler,syncHandler qualnamesynclogging propagate0 [handlerconsoleHandler] classStreamHandler levelDEBUG formatterconsoleFormatter args(sys.stdout,) [handlerasyncHandler] classhandler.AsyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [handlersyncHandler] classhandler.SyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [formatterconsoleFormatter] format%(asctime)s %(name)s %(levelname)s %(message)s [formatterltsFormatter] format%(asctime)s %(levelname)s %(threadName)s %(filename)s[line:%(lineno)d] %(message)s
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Logging handler SDK
      • 云通信SLA协议
        2.服务可用性 服务可用性计算公式:服务可用性 1 (服务月度内发送短信有效数中的明确失败数 / 服务月度内发送短信有效数)x 100% 服务指标标准 :天翼云提供的本服务可用性不低95%,如未达到上述可用性标准(属于免责条款情形的除外),客户可以按照本协议第四条约定获得赔偿。 3.限制 赔偿范围不包括以下原因所导致的非明确成功短信数造成的未达到上述服务指标承诺: 天翼云预先通知客户后进行系统维护所引起的,包括割接、维修、升级和模拟故障演练; 任何天翼云所属设备以外的网络、设备故障或配置调整引起的; 客户的应用程序受到黑客攻击而引起的; 客户维护不当或保密不当致使数据、口令、密码等丢失、泄露或验证码刷量所引起的; 客户的疏忽或由客户授权的操作所引起的; 客户未遵循天翼云云通信产品使用文档或使用建议引起的; 客户由于信控、流控、信息安全管控等违反平台规则引起的; 因工信部、通管局、运营商等管控引起的; 任何涉及黄赌毒、党政军、诈骗等非法信息引起的; 被终端接受客户认定为骚扰业务; 业务大并发需求未提前告知,短信普通用户达到百万条/天/账号、或短信渠道用户达到亿条/天/账号; 客户采用到码号扩展、码号尾号固定、三网合一码号、固定码号、指定码号配置、天翼云非官网公开试运营产品、功能及权限; 其他不可抗力引起的。 非天翼云原因造成的服务不可用或服务不达标的情况。 属于相关法律法规、相关协议、相关规则或天翼云单独发布的相关规则、说明等中所述的天翼云可以免责、免除赔偿责任等的情况。 4.服务补偿 赔偿标准:根据客户某一天翼云账号下短信成功率指标,按照以下列表标准进行赔偿 1)本服务赔偿以天翼云发放赔偿金额对应的短信条数的形式实现,单条短信价格以天翼云短信服务官方刊例价格为准,您应当遵守短信服务的使用规则(包括使用期限等,具体以天翼云官网短信服务相关规则为准)。赔偿的短信条数不能折现、不开具发票,仅限您通过您的天翼云账户使用,您也不可以将补偿的短信条数进行转让、赠予等。 2)如果本服务月度没有达到服务可用性标准,赔偿额按照相应未达标服务月度单独计算,赔偿总额不超过相应未达标服务月度内您就本服务支付的相应月度服务费(此处的月度服务费不含用代金券、优惠券、服务费减免等抵扣的费用) 指标类型 服务指标 赔偿短信条数 短信成功率 低于95%(不含)但等于或高于90% 服务周期服务费用的10%所对应的短信条数 短信成功率 低于90% 服务周期服务费用的30%所对应的短信条数 补偿方式 : 如果天翼云未达到本SLA承诺的服务可用性,则您可依照本SLA的规定申请补偿,补偿将以服务补偿时间的方式发放,且该补偿是天翼云针对服务不满足服务可用性承诺向您提供的全部及唯一补偿。 补偿申请时限: 您可在每服务周期账单结清后对该服务周期没有达到服务可用性承诺的云服务提出补偿申请,且补偿申请必须在该云服务没有达到服务可用性承诺的服务周期结束后两(2)个月内提出。超出申请时限的补偿申请将不被受理。天翼云将对您的申请进行合理评估,并依据本SLA约定及诚信原则就是否适用补偿做出决定。 补偿申请方法: 您可以在天翼云用户中心提交工单申请补偿。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        相关协议
        云通信SLA协议
      • 约束与限制
        本文介绍了企业交换机服务的配额与使用限制。 配额 表企业交换机配额限制 规格项 默认配额 申请更多配额 每个租户支持创建的企业交换机数量 5个 请提交工单申请更多配额 每个企业交换机支持绑定的VPC数量 1个 不支持修改 每个子网支持连通的二层连接数量 1个 不支持修改 每个“小型”企业交换机支持建立的二层连接数量 1个 不支持修改 每个“中型”企业交换机支持建立的二层连接数量 3个 不支持修改 每个“大型”企业交换机支持建立的二层连接数量 6个 不支持修改 使用限制 不支持云下往云上转发未知单播、广播、组播(除VRRP协议外)的IP报文。 除广州4资源池外,其他资源池暂不支持云下服务器访问云上的高级网络功能,如VPC对等连接、VPC路由表、ELB以及NAT网关等。 对于使用云专线(DC)对接企业交换机的场景,请您先提交工单给云专线服务,确认您的云专线是否支持和企业交换机进行VXLAN对接,若不支持,需要联系客服开通云专线的对接企业交换机能力。 对于使用虚拟专用网络(VPN)对接企业交换机的场景,请您先提交工单给虚拟专用网络服务,确认您的虚拟专用网络是否支持和企业交换机进行VXLAN对接,若不支持,需要联系客服开通虚拟专用网络的对接企业交换机能力。 每个企业交换机最多支持10000个IP二层互通(即包含通过该企业交换机打通的所有二层网段IP),且最多同时支持连接1000个云下二层网段IP。 ESW支持MAC Proxy转发能力,通过ARP报文代理,使云上和云下主机相互不可见对端的实际MAC地址。在业务报文转发时,云上主机收到的云下报文源MAC是二层连接主接口的MAC,云下主机收到的云上报文源MAC是实例隧道口的MAC。如果您的业务场景需要感知实际主机MAC或者有基于MAC的安全策略等,不支持使用ESW。 通常,服务器端会通过ARP学习确定回复报文的目的MAC地址,但是某些主机或硬件设备(如F5负载均衡器)配置了原路径返回能力,回复报文的目的MAC地址取自请求报文的源MAC地址,当通过ESW实现云上云下三层访问场景时,可能会出现网络不通问题,请提前排查。 例如,先通过ESW打通云上和云下192.168.3.0/24网段,当云上主机192.168.2.2/24需要跨网段访问云下主机192.168.3.3/24时,云上请求报文会先通过VPC路由,再经过ESW送往云下主机,云下对应回复报文走路由发回云上,可以经过云专线/VPN。如果云下主机配置了原路径返回,云下回复报文的目的MAC地址不是192.168.3.0/24的网关MAC地址,是取对应请求报文的源MAC地址,即ESW的MAC地址。这样云下回复报文的目的MAC地址错误,导致网络不通。 ESW使用VXLAN协议时,VXLAN协议头占用50个字节,报文长度会增加。请您确保VXLAN报文经过的线下网络设备支持大帧(Jumbo Frames,即MTU大于1500字节的以太网帧)通过,否则会导致大包不通。 说明 不同设备厂商处理大帧的方式不同,其中部分厂商默认大帧放通,例如华为。部分厂商默认大帧不放通,例如思科。 如果您的IDC需要与云上企业交换机对接来建立云下和云上二层网络通信,那么您IDC侧的交换机需要支持VXLAN功能,客户侧负责建设IDC机房的VXLAN网络,包括VXLAN交换机准备、物理网络连通、对接云专线或者虚拟专用网络等。
        来自:
        帮助文档
        企业交换机
        产品介绍
        约束与限制
      • 使用限制
        分类 对象 使用限制 仪表盘 仪表盘 1个区域中最多可创建50个仪表盘。 仪表盘 仪表盘中的图表 1个仪表盘中最多可添加20个图表。 仪表盘 仪表盘中图表可选资源、阈值规则、组件或主机的个数 1个曲线图中最多可添加100个资源,且资源可跨集群选择。 1个数字图只能添加1个资源。 1个阈值状态图表最多可添加10个阈值规则。 1个主机状态图表最多可添加10个主机。 1个组件状态图表最多可添加10个组件。 指标 指标数据 基础规格:指标数据最多保存7天。 指标 指标项 资源(例如,集群、组件、主机等)被删除后,其关联的指标项在数据库中最多保存30天。 指标 维度 每个指标的维度最多为20个。 指标 指标查询接口 单次最大可同时查询20个指标。 指标 统计周期 最大统计周期为1小时。 指标 单次查询返回指标数据 单个指标单次查询最大返回1440个数据点。 指标 上报自定义指标 单次请求数据最大不能超过40KB。 指标 应用指标 JOB指标 每个主机的容器个数超过1000个时,ICAgent将停止采集该主机应用指标,并发送“ICAgent停止采集应用指标”告警(告警ID:34105)。 每个主机的容器个数缩减到1000个以内时,ICAgent将恢复该主机应用指标采集,并清除“ICAgent停止采集应用指标”告警 。 由于JOB在完成任务之后,会自动退出。如果您需要监控JOB指标,要保证存活时间大于90秒才能采集到指标数据。 指标 采集器资源消耗 采集器在采集基础指标时的资源消耗情况和容器、进程数等因素有关,在未运行任何业务的VM上,采集器将消耗30M内存、1% CPU。为保证采集可靠性,单节点上运行的容器个数应小于1000。 阈值规则 阈值规则 一个项目下最多可创建1000个阈值规则。 阈值规则 发送通知可选择主题数 每个阈值规则最多可选择5个主题。 日志 单条日志大小 每条日志最大10KB,超出后ICAgent将不会采集该条日志,即该条日志会被丢弃 日志 日志流量 每个租户在每个Region的日志流量不能超过10MB/s。如果超过10MB/s,则可能导致日志丢失。 日志 历史日志 历史日志存储空间免费额度为500MB 日志 日志文件 只支持采集文本类型日志文件,不支持采集其他类型日志文件(例如二进制文件)。 日志 每个通过卷挂载日志的路径下,ICAgent最多采集20个日志文件。 日志 每个ICAgent最多采集1000个容器标准输出日志文件,容器标准输出日志只支持jsonfile类型。 日志 采集日志文件的资源消耗 日志文件采集采集时消耗的资源和日志量、文件个数及网络带宽、backend服务处理能力等多种因素强相关。 日志 日志丢失 采集器使用多种机制保证日志采集的可靠性,尽可能保证数据不丢失,但在如下场景可能导致日志丢失。 日志文件未使用CCE提供的logPolicy轮转策略。 日志文件轮转速度过快,如1秒轮转一次。 系统安全设置或syslog自身原因导致无法转发日志。 容器运行时间过短,例如小于30s。 单节点总日志产生速度过快,超过了单节点网络发送带宽或日志采集速度,建议单节点总日志产生速度<5M/s。 日志 日志丢弃 当单行日志长度超过10240字节时,此行会被丢弃。 日志 日志重复 当采集器被重启后,重启时间点附近可能会产生一定的数据重复。 日志 统计规则 一个日志桶下最多可创建5条统计规则。 告警中心 告警 您最多可查询最近30天的告警。 告警中心 事件 您最多可查询最近30天的事件。
        来自:
        帮助文档
        应用运维管理
        产品简介
        使用限制
      • 配置增强高速网卡(RedHat系列,CentOS系列,Oracle Linux系列,Euler系列)
        本文主要介绍如何配置增强高速网卡(RedHat系列,CentOS系列,Oracle Linux系列,Euler系列)。 下面以CentOS 6.9 (x8664)操作系统为例,举例介绍物理机增强高速网卡的配置方法。 说明 RedHat系列、Oracle Linux系列、Euler系列及CentOS系列操作系统的配置方法类似。 增加网卡: 以“root”用户,使用密钥或密码登录物理机。执行如下命令: blkid grep config2 如果输出结果为空,请采用 配置方式二 ;如果输出结果如下图所示,请采用 配置方式一 。 配置方式一 步骤1 登录物理机服务器。 以“root”用户,使用密钥或密码登录物理机。 步骤2 进入物理机的命令行界面,查询网卡信息。 ip link 返回信息示例如下: 说明 其中,“eth0”和“eth1”为承载VPC网络的网络设备,“eth2”和“eth3”为承载增强高速网络的网络设备。 步骤3 检查udev规则配置文件。 执行以下命令,查看“/etc/udev/rules.d/”目录下是否有“80persistentnet.rules”配置文件。 ll /etc/udev/rules.d/ grep 80persistentnet.rules 如果存在“80persistentnet.rules”,且该配置文件中已存在步骤 2中查询到的除“bond0”和“lo”以外的其它所有网卡和对应的MAC地址,请执行步骤6。 否则,继续执行 步骤4 。 步骤4 拷贝udev规则配置文件。 执行以下命令,将“/etc/udev/rules.d/70persistentnet.rules”文件拷贝一份(文件名为“/etc/udev/rules.d/80persistentnet.rules”)。 cp p /etc/udev/rules.d/70persistentnet.rules /etc/udev/rules.d/80persistentnet.rules 说明 如果没有“/etc/udev/rules.d/70persistentnet.rules”文件,请直接创建“/etc/udev/rules.d/80persistentnet.rules”文件,按如下格式填写内容: SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"4c:f9:5d:d9:e8:ac", NAME"eth0" SUBSYSTEM"net", ACTION"add", DRIVERS"? ", ATTR{address}"4c:f9:5d:d9:e8:ad", NAME"eth1" 步骤5 设置udev规则。 将步骤2中查询到的除“eth0”和“eth1”以外的网卡(即“/etc/udev/rules.d/70persistentnet.rules”中未体现的网卡MAC地址和名称),写入“/etc/udev/rules.d/80persistentnet.rules”文件中,使得物理机重启复位后,网卡名称和顺序不会发生改变。 说明 网卡的MAC地址和名称中的字母,请使用小写字母。 vi /etc/udev/rules.d/80persistentnet.rules 修改后的示例如下: 修改完成后,按“Esc”,输入":wq"保存并退出。 步骤6 配置网络配置文件。 执行以下命令,将网络配置文件“/etc/sysconfig/networkscripts/ifcfgbond0”拷贝为“/etc/sysconfig/networkscripts/ifcfgbond1”,将网络配置文件“/etc/sysconfig/networkscripts/ifcfgeth0”拷贝为“/etc/sysconfig/networkscripts/ifcfgeth2”和“/etc/sysconfig/network/ ifcfgeth3”。 cp p /etc/sysconfig/networkscripts/ifcfgbond0 /etc/sysconfig/networkscripts/ifcfgbond1 cp p /etc/sysconfig/networkscripts/ifcfgeth0 /etc/sysconfig/networkscripts/ifcfgeth2 cp p /etc/sysconfig/networkscripts/ifcfgeth0 /etc/sysconfig/networkscripts/ifcfgeth3 步骤7 修改网络配置文件。 执行以下命令,编辑“/etc/sysconfig/networkscripts/ifcfgeth2”和“/etc/sysconfig/networkscripts/ifcfgeth3”,配置“eth2”设备和“eth3”设备的网络配置文件。 vi /etc/sysconfig/networkscripts/ifcfgeth2 “eth2”按以下格式编辑: USERCTLno MTU8888 NMCONTROLLEDno BOOTPROTOstatic DEVICEeth2 TYPEEthernet ONBOOTyes MASTERbond1 SLAVEyes 其中,“BOOTPROTO”参数取值修改为“static”,“DEVICE”为对应的网络设备名称,取值即为“eth2”,“MASTER”为对应的增强高速网卡bond的名称,取值如“bond1”,其他参数可保持不变。 vi /etc/sysconfig/networkscripts/ifcfgeth3 “eth3”按以下格式编辑(格式和规则和“eth2”一致): USERCTLno MTU8888 NMCONTROLLEDno BOOTPROTOstatic DEVICEeth3 TYPEEthernet ONBOOTyes MASTERbond1 SLAVEyes 步骤8 执行以下命令,编辑“/etc/sysconfig/networkscripts/ifcfgbond1”。 vi /etc/sysconfig/networkscripts/ifcfgbond1 按以下格式编辑: MACADDR40:7d:0f:52:e3:a5 BONDINGMASTERyes USERCTLno ONBOOTyes NMCONTROLLEDno BOOTPROTOstatic BONDINGOPTS"mode1 miimon100" DEVICEbond1 TYPEBond IPADDR10.10.10.101 NETMASK255.255.255.0 MTU8888 其中, “MACADDR”参数取值修改为增强高速网卡“eth2”或者“eth3”设备的MAC地址。 “BOOTPROTO”参数取值修改为“static”。 “DEVICE” 参数取值修改为“bond1”。 “IPADDR” 参数取值修改为待给“bond1”分配的IP地址(为增强高速网络规划的IP地址在没有与VPC网段冲突的情况下可任意规划,需要通过增强高速网络通信的物理机须将增强高速网络配置在同一个网段),如“10.10.10.101”。 “NETMASK”参数为给增强高速网络“bond1”配置的IP的子网掩码。 其他参数可保持不变。 修改完成后,按“Esc”,输入":wq"保存并退出。 步骤9 执行以下命令,启动增强高速网络端口组“bond1”。 首先启动增强高速网卡“eth2”和“eth3”设备。 ifup eth2 ifup eth3 ifup bond1 步骤10 参见上述步骤,完成其他物理机的配置。 步骤11 待其他物理机配置完成后,互相ping对端增强高速网络配置的同网段IP,检查是否可以ping通。
        来自:
      • DLI Flink Job
        本章节主要介绍节点参考的DLI Flink Job。 功能 通过DLI Flink Job节点执行一个预先定义的DLI作业,实现实时流式大数据分析。 原理 该节点方便用户启动或者查询DLI作业是否正在运行。当作业类型不是“选择已存在的Flink作业”时,系统会根据在节点中配置的作业情况,进行创建和启动作业。方便用户自定义作业以及作业参数。 参数 DLI Flink Job的参数配置,请参考以下内容: 属性参数: − 选择已存在的Flink作业 :请参见下表。 − Flink SQL作业 :请参见下表。 − Flink自定义作业 :请参见下表。 高级参数 已存在的Flink作业属性参数 参数 是否必选 说明 作业类型 是 选择“选择已存在的Flink作业”。 作业名称 是 选择一个已存在的DLI Flink作业。 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“ ”等各类特殊字符,长度为1~128个字符。 Flink SQL作业属性参数 参数 是否必选 说明 作业类型 是 选择“Flink SQL作业”。用户采用编写SQL语句来启动作业。 脚本路径 是 选择需要执行的Flink SQL脚本。如果脚本未创建,请参考新建脚本和开发SQL脚本创建和开发Flink SQL脚本。 DLI队列 是 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 CUs 是 一个CU是1核4G的资源配置。 并发数 是 并发数是指同时运行Flink SQL作业的任务数。 说明 并发数不能大于计算单元(CUs1)的4倍。 UDF Jar 否 当作业所属集群选择独享集群时,该参数有效。在选择UDF Jar之前,您需要将UDF Jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考管理资源章节中的 新建资源。用户可以在SQL中调用插入Jar包中的自定义函数。 异常自动启动 否 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 作业名称 是 填写DLI Flink作业的名称,只能包含英文字母、数字、“”,且长度为1~64个字符。默认与节点的名称一致。 作业名称添加工作空间前缀 否 设置是否为创建的作业名称添加工作空间前缀。 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“ ”等各类特殊字符,长度为1~128个字符。 Flink自定义作业属性参数 参数 是否必选 说明 作业类型 是 选择“Flink自定义作业”。 jar包路径 是 用户自定义的程序包。在选择程序包之前,您需要将对应的jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考管理资源章节中的 新建资源。 入口类 是 指定加载的Jar包类名,如KafkaMessageStreaming。 默认:根据Jar包文件的Manifest文件指定。 指定:需要输入类名并确定类参数列表(参数间用空格分隔)。 说明 当类属于某个包时,需携带包路径,例如:packagePath.KafkaMessageStreaming。 入口参数 是 指定类的参数列表,参数之间使用空格分隔。 DLI队列 是 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 作业特性 否 选择自定义镜像和对应版本。仅当DLI队列为容器化队列类型时,出现本参数。自定义镜像是DLI的特性。用户可以依赖DLI提供的Spark或者Flink基础镜像,使用Dockerfile将作业运行需要的依赖(文件、jar包或者软件)打包到镜像中,生成自己的自定义镜像,然后将镜像发布到SWR(容器镜像服务)中,最后在此选择自己生成的镜像,运行作业。自定义镜像可以改变Spark作业和Flink作业的容器运行环境。用户可以将一些私有能力内置到自定义镜像中,从而增强作业的功能、性能。 CUs 是 一个CU是1核4G的资源配置。 管理节点CU数量 是 设置管理单元的CU数,支持设置1~4个CU数,默认值为1个CU。 并发数 是 并发数是指同时运行Flink SQL作业的任务数。 说明 并发数不能大于计算单元(CUs1)的4倍。 异常自动启动 否 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 作业名称 是 填写DLI Flink作业的名称,只能包含英文字母、数字、“”,且长度为1~64个字符。默认与节点的名称一致。 作业名称添加工作空间前缀 否 设置是否为创建的作业添加工作空间前缀。 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“ ”等各类特殊字符,长度为1~128个字符。 高级参数 参数 是否必选 说明 节点执行的最长时间 是 设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将不会再重试,直接置为失败状态。 失败重试 是 节点执行失败后,是否重新执行节点。 是:重新执行节点,请配置以下参数。 − 最大重试次数 − 重试间隔时间(秒) 否:默认值,不重新执行节点。 说明 如果作业节点配置了重试,并且配置了超时时间,该节点执行超时后将不会再重试,直接置为失败状态。 失败策略 是 节点执行失败后的操作: 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。 继续执行下一节点:忽略当前节点失败,当前作业实例状态显示为“忽略失败成功”。 挂起当前作业执行计划:暂停当前作业运行,当前作业实例状态显示为“等待运行”。 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 空跑 否 如果勾选了空跑,该节点不会实际执行,将直接返回成功。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        DLI Flink Job
      • 功能特性
        功能集 功能 功能描述 参考文档 应用生命周期管理 创建/部署/更新/查看/启动/停止/删除应用 创建/部署/更新/查看/启动/停止/删除应用。 微服务治理 无损上线 在应用启动过程中,无损上线为应用提供服务延迟注册、服务就绪检查和服务小流量预热的保护能力 微服务治理 无损下线 在应用执行部署、停止、回滚、缩容和重置时,通过无损下线来保证应用正常关闭 微服务治理 金丝雀灰度 对于部署在 CAE 的 Spring Cloud 或 Dubbo 微服务应用,为了确保升级操作的安全性,您可以通过启用灰度发布(即金丝雀发布)的灰度规则进行小规模验证,验证通过后再全量升级 微服务治理 限流降级 CAE 支持使用微服务引擎 MSE 实现应用的限流降级,全面保障应用的可用性 微服务注册中心 使用 CAE 内置注册中心 CAE 为用户提供免费的内置 Nacos 注册中心,在无需购买或自建注册中心的情况下即可部署微服务应用到 CAE 平台 微服务注册中心 使用自建 Nacos 注册中心 CAE 支持使用自建 Nacos 注册中心实现服务的注册与发现功能 运维管理 基础监控 CAE 对应用所运行设备的 CPU、负载、内存、网络和磁盘进行数据采集与分析,并以动态图的方式展示,方便实时、直观地了解应用所运行设备地状态 运维管理 应用监控 CAE 为多种语言和框架提供无侵入的应用监控能力 运维管理 一键启停 CAE 为应用提供了一键启停按钮,方便用户进行运维操作,同时还支持批量启停操作 运维管理 日志管理 日志管理提供应用实时日志查询功能。 弹性伸缩 手动扩缩 在应用的实例负载过高时以手动方式添加新应用实例,在应用闲置时减少应用实例,能够高效利用应用资源、降低成本 弹性伸缩 自动扩缩 在分布式应用管理中,弹性伸缩能够感知应用内各个实例的状态,并根据实例状态自动增加或减少实例数量,即扩容或缩容 应用访问 基于 ELB 实现应用公网及私网访问 在 CAE 中部署应用后,可以通过添加公网 ELB 实现公网访问应用,也可以添加私网 ELB 实现同 VPC 内私网访问应用 配置管理 配置项(ConfigMap) 配置项是一种存储应用所需配置信息地资源类型,它可以作为容器运行环境中的环境变量,便于应用部署后灵活变更容器配置,也可以通过挂载配置文件的方式向容器中注入配置信息 配置管理 保密字典(Secret) 保密字典是一种用于存储和管理密钥、证书等敏感信息的资源类型。为避免敏感数据暴露到镜像或应用与任务部署参数中,推荐您使用 CAE 命名空间级别的保密字典 高级设置 设置启动命令 CAE 会根据预设的启动参数来启动容器 高级设置 设置环境变量 应用在系统中运行更需要配置特定的环境变量 高级设置 设置 Hosts 绑定 CAE 支持应用级别的实例,通过绑定 Hosts 对主机名进行解析,方便应用实例通过主机名进行访问 高级设置 设置持久化日志 CAE 集成了云日志服务的日志收集功能,支持将业务文件日志(容器内日志文件)、容器标准输出日志(stdio)无限制行数地收集至 ALS,便于您聚合分析。 高级设置 设置 NAS 存储 将 NAS 挂载至 CAE 应用实例,可以有效解决应用数据地持久化存储需求,并实现应用实例之间地数据共享 高级设置 设置 OSS 存储 OSS 适用于读多写少地场景,例如挂载配置文件或者前端静态文件等 高级设置 设置应用生命周期管理 如果您精通 K8s,且需要在应用容器启动前或者关闭前执行相关操作,例如运行前部署资源或者停止前优雅下线应用,可以设置应用生命周期管理 高级设置 设置配置项 配置项能够将环境配置信息和容器镜像解耦,方便您修改应用配置 版本管理 版本回退 应用修改配置并部署后,会自动生成一个基于时间点的应用版本,您可以查看对应时间点应用版本的配置,也可以操作版本回退到指定时间点的应用版本
        来自:
        帮助文档
        云应用引擎
        产品介绍
        功能特性
      • Windows云主机配置文件共享和网络磁盘映射方法
        本文介绍在局域网内部,Windows云主机之间进行文件夹共享的方法。 约束限制 有些网络服务供应商可能会限制139、445端口的访问,这会导致外部网络无法访问共享文件夹。因此,建议将Windows云主机文件共享方案仅用于内部环境中。 注意安全组的设置,放行对应的端口号。 操作步骤 1. 确保两台需要共享文件夹的Windows云主机的设置是正确的,包括以下几个方面: 确认已开启名为“TCP/IP NetBIOS Helper”的服务。你可以通过打开命令提示符窗口(cmd)并输入 services.msc,然后在服务清单中找到“TCP/IP NetBIOS Helper”服务,检查该服务的运行状态。 图1 TCP/IP NetBIOS Helper 在网络适配器设置中开启TCP/IP上的NetBIOS功能。你可以通过以下步骤完成:右键点击任务栏中的网络图标并选择“打开网络和共享中心”;然后点击“更改适配器设置”;在适配器列表中选择你的以太网连接,右键点击并选择“属性”;双击“Internet协议版本4(TCP/IPv4)”项目;点击“高级”按钮,然后切换到“WINS”选项卡;在这里,选择“启用通过TCP/IP传输NetBIOS(N)”。 图2 启用TCP/IP上的NetBIOS服务 Windows云主机的防火墙已经设置了入站访问策略139和445端口。 2. 修改网络和共享中心。 进入网络和共享中心”,点击“更改高级共享设置”。 图3 更改高级共享设置 a. 确保两台Windows云主机所属的网络应一致,例如均为“公用”或均为“专用”的网络,并勾选“启用网络发现”、“启用共享,以便可以访问网络的用户可以读取和写入公用文件夹中的文件”。 图4 启动网络发现 图5 启用共享,以便可以访问网络的用户可以读取和写入公用文件夹中的文件。 如果无法启用网络发现功能,你可以通过打开“服务”管理器(运行 services.msc命令)来解决,启动“服务”管理器。请检查网络发现功能依赖的服务是否均已启用。网络发现功能依赖的服务包括: Function Discovery Resource Publication、SSDP Discovery Resource Publication、UPnP Device Host。 b. 在“服务”管理器中,开启Workstation服务。 c. 这个服务需要依赖其他部件的支持,开启workstation服务时,必须启动依赖组件Computer Browser和Remote Desktop Configuration。 图6 开启Workstation服务 3. 在需要允许磁盘共享访问的云主机上,进行磁盘共享的设置,点击鼠标右键磁盘,然后选择“属性”选项。切换到“共享”选项卡,接着点击“高级共享”按钮。 图7 设置磁盘共享 设置“共享名”,并单击“确定”。给共享文件夹自定义一个名称。 图8 设置共享文件夹名称 4. 使用位于相同地域的另一台云主机,通过内部网络访问共享文件夹。打开“运行”窗口。输入"内网IP地址share",并点击确定,即可打开共享文件夹. 图9 访问共享文件夹 5. (可选)为了更加方便的访问共享文件夹,您可以将共享路径文件,创建一个网络驱动器映射。 a. 选择共享的文件夹,右键单击“映射网络驱动器”。 b. 创建映射网络驱动器。 图10 映射网络驱动器 c. 点击选择要映射的网络驱动器名称,接着点击“创建快捷方式”并将其发送到桌面。这样,你就能通过双击桌面上的新快捷方式,方便快速地访问共享文件夹。 图11 创建快捷方式
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        操作系统类(Windows)
        Windows云主机配置文件共享和网络磁盘映射方法
      • 产品类
        分类 对象 使用限制 仪表盘 仪表盘 1个区域中最多可创建50个仪表盘。 1个资源集中最多可创建150个仪表盘。 仪表盘 仪表盘中的图表 1个仪表盘中最多可添加20个图表。 1个仪表盘中最多可添加30个图表。 仪表盘 仪表盘中图表可选资源、阈值规则、组件或主机的个数 1个曲线图中最多可添加100个资源,且资源可跨集群选择。 1个曲线图中最多可添加12个资源,且资源可跨集群选择。 1个数字图只能添加1个资源。 1个阈值状态图表最多可添加10个阈值规则。 1个主机状态图表最多可添加10个主机。 1个组件状态图表最多可添加10个组件。 指标 指标数据 指标数据在数据库中最多保存30天。 指标 指标总量 单租户总指标量不超过40W 小规格总指标量不超过10W 指标 指标项 资源(例如,集群、组件、主机等)被删除后,其关联的指标项在数据库中最多保存30天。 指标 维度 每个指标的维度最多为20个。 每个指标的维度最多为30个。 指标 指标查询接口 单次最大可同时查询20个指标。 指标 统计周期 最大统计周期为1小时。 指标 单次查询返回指标数据 单个指标单次查询最大返回1440个数据点。 指标 自定义指标 无限制。 指标 上报自定义指标 单次请求数据最大不能超过40KB,上报指标所带时间戳不能超前于标准UTC时间10分钟,不接收乱序指标,即有新指标上报后,旧指标上报将会失败。 指标 应用指标 每个主机的容器个数超过1000个时,ICAgent将停止采集该主机应用指标,并发送“ICAgent停止采集应用指标”告警(告警ID:34105)。 每个主机的容器个数缩减到1000个以内时,ICAgent将恢复该主机应用指标采集,并清除“ICAgent停止采集应用指标”告警。 指标 采集器资源消耗 采集器在采集基础指标时的资源消耗情况和容器、进程数等因素有关,在未运行任何业务的VM上,采集器将消耗30M内存、1% CPU。为保证采集可靠性,单节点上运行的容器个数应小于1000。 日志 单条日志大小 每条日志最大10KB,超出后ICAgent将不会采集该条日志,即该条日志会被丢弃。 日志 日志流量 每个租户在每个Region的日志流量不能超过10MB/s。如果超过10MB/s,则可能导致日志丢失。 日志 日志文件 只支持采集文本类型日志文件,不支持采集其他类型日志文件(例如二进制文件)。 日志 每个通过卷挂载日志的路径下,ICAgent最多采集20个日志文件。 日志 每个ICAgent最多采集1000个容器标准输出日志文件,容器标准输出日志只支持jsonfile类型。 日志 采集日志文件的资源消耗 日志文件采集时消耗的资源和日志量、文件个数及网络带宽、backend服务处理能力等多种因素强相关。 日志 日志丢失 采集器使用多种机制保证日志采集的可靠性,尽可能保证数据不丢失,但在如下场景可能导致日志丢失。 日志文件未使用CCE提供的logPolicy轮转策略。 日志文件轮转速度过快,如1秒轮转一次。 系统安全设置或syslog自身原因导致无法转发日志。 容器运行时间过短,例如小于30s。 单节点总日志产生速度过快,超过了单节点网络发送带宽或日志采集速度,建议单节点总日志产生速度<5M/s。 日志 日志丢弃 当单行日志长度超过10240字节时,此行会被丢弃。 日志 日志重复 当采集器被重启后,重启时间点附近可能会产生一定的数据重复。 告警 告警 您最多可查询最近15天的告警。 告警 事件 您最多可查询最近15天的事件。 应用发现规则 应用发现规则最多可创建100个。
        来自:
        帮助文档
        应用运维管理
        常见问题
        产品类
      • 管理自动备份
        本节主要介绍管理自动备份。 GeminiDB Influx支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 说明 GeminiDB Influx自动备份时,不会对 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 图1 开启备份策略 1.保留天数: 自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。对于系统中最近一个全量备份文件,如果在新的全量备份未超过保留天数前系统会一直保留,直至新的全量备份超过保留天数后才会删除。 增加保留天数,可提升数据可靠性,请根据需要设置。 减少保留天数,会针对已有的备份文件生效,即超出备份保留天数的已有备份文件(包括全量备份和增量备份)会被自动删除,但手动备份不会自动删除,请您谨慎选择。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如12:00~13:00 。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 假如保留天数设置为“2”,表示超过两天的全量备份和增量备份会被自动删除。即周一产生的备份会在周三删除,同理,周二产生的备份会在周四删除。 全量备份文件自动删除策略: 已有备份文件超出备份天数后会自动删除,考虑到数据完整性,自动删除时仍然会保留最近的一次超过保留天数的全量备份,保证在保留天数内的数据可正常恢复。 假如备份周期选择“周一”、“周二”,保留天数设置为“2”,备份文件的删除策略如下: 本周一产生的全量备份,会在本周四当天自动删除。原因如下: 本周二的全量备份在本周四当天超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即本周二的备份会被保留),因此周四当天删除本周一产生的全量备份文件。 本周二产生的全量备份,会在下周三当天自动删除。原因如下: 下周一产生的全量备份在下周三超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即下周一的备份会被保留),因此下周三当天删除本周二产生的全量备份。 2.备份周期: 默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 增备周期:系统默认自动将每隔15分钟的离散时间点上的增量数据进行备份。您也可以根据需要设置增量备份周期,目前支持设置为5分钟,10分钟,15分钟。增备周期目前为公测阶段,如需使用,请联系客服申请开通相应的操作权限。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        数据备份
        管理自动备份
      • 创建备份策略
        参数 说明 名称 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度为264字符。 是否启用 是否启用备份策略,默认为不启用。 备份时间 设置备份任务的执行时间。此处选择的时间是细粒度至天之后的整点执行时间,用户可在一天内选择多个整点时间进行备份执行。 建议您选择业务量较少或无业务的时间进行备份,比如凌晨时间,并分散时间点进行备份。 注意 设定的备份时间和控制台实际创建备份的时间可能存在差异。 如需要备份的资源总数据量较大,建议备份执行时间点不宜设置过于紧密。如果单个资源执行备份的时长超过两个备份执行时间间隔,则会跳过第二个备份时间点不进行备份。 例如:某主机的备份策略设置的备份时间点为:00:00,01:00,02:00。在00:00时,开始进行备份,由于此次备份增量数据较大,或者该时间段同时执行的备份任务较多,该次备份任务耗时90分钟,在01:30时完成备份。则01:00的备份时间点会跳过,在02:00时再执行备份,将只会产生两个备份。 若云主机备份策略、云硬盘自动快照策略和云硬盘备份策略的备份时间重叠,可能导致备份时间有重叠的备份任务失败而影响数据安全性。请您在设置时预留充足间隔,保障所有备份任务顺利执行。 备份周期 设置备份任务的执行日期。 按周指定备份策略在每周的周几进行备份,可以多选。 按天指定备份策略每隔几天进行一次备份,可设置1~30天。 注意 按天备份的备份时间是每个月的固定时间,例如"每3天"表示执行备份的日期为每月1日、4日、7日,以此类推。备份策略在创建当月生效。举例来说,在某月2日创建备份周期为“每3天”的备份策略,则第一次备份日期为当月4日。建议选择无业务或者业务量较少的时间对云主机进行备份。 全量备份配置 若不配置定期全量备份,默认在绑定的存储库的首次备份进行全量备份,后续进行永久增量备份。 若您开启了定期全量备份,则会按照配置频次执行全量备份。 注意 仅上线华东1、华北2资源池。 保留规则 设置备份产生后的保留规则,即哪些备份将被保留。共有三种规则,按时间、按数量、永久保存。 按时间:可选择1个月、3个月、6个月、1年的固定保留时长或根据需要自定义保留时长。取值范围为1~99999天,当到达规定时间,备份将被自动删除。 按数量:单个云硬盘执行备份策略保留的备份总份数。取值范围为1~99999个。 永久保存:备份产生后将会被永久保留,用户可以手动将其删除。 说明 当保留规则为按数量保留,保留的备份数超过预设保留数值时,系统会按照时间自动删除最早创建的备份。 当保留规则为按时间保留,保留的备份超过预设时间时,系统会自动删除所有过期的备份。删除的备份不会影响其他备份的数据恢复。 修改备份策略或将云硬盘绑定到新策略,备份副本会按照新策略的保留规则执行自动删除。 保留规则仅对备份策略自动调度生成的备份有效。手动执行备份策略生成的备份不会统计在内,且不会自动删除。如需删除,请在备份页签的备份列表中手动删除。 高级保留选项 日备份:保留指定周期内每天最新的一个备份副本。 周备份:保留指定周期内每周最新的一个备份副本。 月备份:保留指定周期内每月最新的一个备份副本。 年备份:保留指定周期内每年最新的一个备份副本。 设置高级保留选项后,指定周期内每日/周/月/年最新的一个备份副本不受保留规则的影响。例如,设置“日备份:保留3天内,每天最新的一个备份”。假设某月1日起开始执行该备份策略,在3日时,除按“保留规则”对备份副本进行保留外,1日和2日两天最后创建的备份副本不受“保留规则”的影响,不会被自动删除。 注意 仅上线华东1、华北2资源池。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。默认为default。
        来自:
        帮助文档
        云主机备份 CSBS
        用户指南
        策略管理
        创建备份策略
      • 支持的数据源
        数据源分类 源端数据源 对应的目的端数据源 说明 数据仓库 数据仓库服务( DWS ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 不支持DWS物理机纳管模式。 数据仓库 数据湖探索( DLI ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 无 Hadoop MRS HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop MRS HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop MRS Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop Apache HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X Hadoop Apache Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X Hadoop Apache HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X 对象存储 对象存储服务( OBS ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 对象存储服务之间的迁移,推荐使用对象存储迁移服务OMS。 文件系统 FTP 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 文件系统 SFTP 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 文件系统 HTTP Hadoop:MRS HDFS 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 关系型数据库 云数据库MySQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 云数据库PostgreSQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 云数据库SQL Server 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 MySQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 PostgreSQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 Microsoft SQL Server 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 Oracle 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 SAP HANA 数据仓库:数据湖探索(DLI) Hadoop:MRS Hive SAP HANA数据源存在如下约束:SAP HANA不支持作为目的端。 仅支持2.00.050.00.1592305219版本。 仅支持Generic Edition。不支持BW/4 FOR HANA。 仅支持英文字母的数据库名、表名与列名,不支持存在空格、符号等特殊字符。 仅支持日期、数字、布尔、字符(除SHORTTEXT) 类型的数据类型,不支持二进制类型等其他数据类型。 迁移时不支持目的端自动建表。 关系型数据库 分库 数据仓库:数据湖探索(DLI) Hadoop:MRS HBase,MRS Hive 搜索:Elasticsearch,云搜索服务(CSS) 对象存储:对象存储服务(OBS) 分库数据源不支持作为目的端。 NoSQL 分布式缓存服务(DCS) Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL Redis Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL 文档数据库服务(DDS) Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL MongoDB Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL 表格存储服务(CloudTable) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL Cassandra 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 消息系统 Apache Kafka 搜索:云搜索服务(CSS) 消息系统不支持作为目的端。 消息系统 DMS Kafka 搜索:云搜索服务(CSS) 消息系统不支持作为目的端。 消息系统 MRS Kafka 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) MRS Kafka不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。不支持ZK开启SSL场景。 搜索 Elasticsearch 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Elasticsearch仅支持非安全模式。 搜索 云搜索服务(CSS) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 导入数据到CSS推荐使用Logstash。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        支持的数据源
      • 创建桶
        参数 描述 复制桶配置 可选。单击“选择源桶”后,可以在桶列表中选择一个源桶。返回后页面会自动复制源桶的以下配置信息:区域 / 数据冗余策略 / 存储类别 / 桶策略 / 服务端加密 / 归档数据直读 / 企业项目 / 标签。 选择后您仍可以根据业务情况对复制的配置信息进行部分或全部更改。 区域 桶所属区域。请选择靠近您业务的区域,以降低网络时延,提高访问速度。桶创建成功后,不支持变更区域,请谨慎选择。 桶名称 桶的名称。需全局唯一,不能与已有的任何桶名称重复,包括其他用户创建的桶。桶创建成功后,不支持修改名称,创建时,请设置合适的桶名。OBS中桶按照DNS规范进行命名,DNS规范为全球通用规则, 其具体命名规则如下: 需全局唯一,不能与已有的任何桶名称重复,包括其他用户创建的桶。用户删除桶后,立即创建同名桶或并行文件系统会创建失败,需要等待30分钟才能创建。 长度范围为3到63个字符,支持小写字母、数字、中划线()、英文句号(.)。 禁止两个英文句号(.)相邻,禁止英文句号(.)和中划线()相邻,禁止以英文句号(.)和中划线()开头或结尾。 禁止使用IP地址。 说明 当用户使用虚拟主机方式通过HTTPS协议访问OBS时,如果桶名称中包含英文句号(.),会导致证书校验失败。所以该场景下,建议桶名称不要使用英文句号(.) 数据冗余存储策略 多AZ存储:数据冗余存储至多个可用区(AZ),可靠性更高。 单AZ存储:数据仅存储在单个可用区(AZ),成本更低。 注意 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略就确定了,后续无法更改。 默认存储类别 桶的存储类别。不同的存储类别可以满足客户业务对存储性能、成本的不同诉求。 标准存储:适用于有大量热点文件或小文件,且需要频繁访问(平均一个月多次)并快速获取数据的业务场景。 低频访问存储:适用于不频繁访问(平均一年少于12次),但需要快速获取数据的业务场景。 归档存储:适用于很少访问(平均一年一次),且对数据获取速率要求不高的业务场景。 桶策略 桶的读写权限控制。 私有:除桶ACL授权外的其他用户无桶的访问权限。 公共读:任何用户都可以对桶内对象进行读操作。 公共读写:任何用户都可以对桶内对象进行读/写/删除操作。 说明 公共读与公共读写权限可以使任何用户在不用身份认证的情况下直接读取或者读/写/删桶内的对象,为确保您的数据安全,不推荐此配置,建议您选择私有。禁止将天翼云服务用于存储和传播违法信息 归档数据直读 通过归档数据直读,您可以直接下载存储类别为归档存储的对象, 而无需提前恢复。 服务端加密 选择“SSEKMS”加密。加密密钥类型您可以选择“默认密钥”,您上传的对象将使用当前区域的默认密钥进行加密,如果您没有默认密钥,系统将会在首次上传对象时自动为您创建,您也可以选择“自定义密钥”,通过单击“创建KMS密钥”进入数据加密服务页面创建自定义密钥,然后通过KMS密钥的下拉框选中您创建的KMS密钥。若桶已开启了默认加密,上传对象可以继承桶的KMS加密特性。 WORM 开启WORM (一次写入多次读取) 功能后,当前桶支持配置保留策略,受保留策略保护的对象版本在指定时间段内不能被删除。WORM功能只能在创建桶时开启, 开启后无法关闭,当前桶默认开启多版本控制且不可关闭。 开启WORM后,需配置以下参数: 默认保留策略:可以选择在创建桶时配置WORM保留策略,也可以在桶创建后配置。 默认保留模式:默认保留策略选择“配置”时,需配置该参数。当前仅支持“合规模式”,即任何用户在保留期内都不能删除受保护的对象版本,或更改其保留模式。 默认保留期:默认保留策略选择“配置”时,需配置该参数。系统将阻止在保留期内删除受保护的对象版本。可按天或年配置,填写上限为100年。按年配置取值范围为1100,按天配置取值范围为136500。 企业项目 将桶加入到企业项目中统一管理。请先在企业项目界面完成企业项目的创建,默认为default企业项目。在企业项目界面创建企业项目,创建用户组并将用户加入到该用户组,然后将用户组添加到该企业项目。这时用户组内用户将获得用户组授权的该企业项目下的桶和对象的操作权限。 说明:仅企业帐号能够配置企业项目。 标签 可选。标签用于标识OBS中的桶,以此达到对OBS中的桶进行分类的目的。OBS以键值对的形式来描述标签,每个标签有且只有一对键值。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        管理桶
        创建桶
      • 创建Flink SQL作业
        本章节主要介绍创建Flink SQL作业 。 Flink SQL是一种由用户根据自己的逻辑需求编写作业的方式。用SQL表达业务逻辑,可以简便快捷的实现业务。目前Flink SQL作业支持两种Flink SQL语句编辑方式:SQL编辑器和可视化编辑器。本章节主要介绍使用SQL编辑器编写Flink SQL作业的方式。 前提条件 创建Flink SQL作业时,需要事先准备数据源以及数据输出通道,具体内容请参见准备Flink作业数据。 创建Flink SQL作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 1. 当前Flink作业支持访问的外部数据源详情请参考增强型跨源连接概述。 2. 创建跨源连接操作请参见增强型跨源连接。创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考测试地址连通性。 创建FLink SQL作业 1. 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入“Flink作业”页面。 2. 在“Flink作业”页面右上角单击“创建作业”,弹出“创建作业”对话框。 3. 配置作业信息。 详见下表:作业配置信息 参数 参数说明 类型 选择“Flink SQL”:用户通过编辑SQL语句来启动作业。 名称 作业名称,只能由字母、中文、数字、中划线和下划线组成,并且长度为1~57字节。 说明 作业名称必须是唯一的。 描述 作业的相关描述,长度为0~512字节。 模板名称 用户可以选择样例模板或自定义的作业模板。关于模板的详细信息,请参见Flink模板管理。 4. 单击“确定”,进入作业“编辑”页面。 5. 编辑SQL作业。 在SQL语句编辑区域,输入详细的SQL语句。相关SQL语句请参考《数据湖探索SQL语法参考》。 6. 单击“语义校验”,确保语义校验成功。 只有语义校验成功后,才可以执行“调试”或“启动”作业的操作。 如果校验成功,提示“SQL语义校验成功”。 如果校验失败,会在错误的SQL语句前面显示红色的“X”记号,鼠标移动到“X”号上可查看详细错误,请根据错误提示修改SQL语句。 7. 设置作业运行参数 参见下表:作业运行参数说明 参数 参数说明 所属队列 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 当所选择队列的剩余容量不能满足作业需求时,系统会自动扩容。当队列空闲时,系统也会自动缩容。 UDF Jar 选择“独享队列”时可配置该参数。 用户自定义UDF文件,在选择UDF Jar之前需要将对应的jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,具体操作请参考创建程序包。 用户可以在SQL中调用插入Jar包中的自定义函数。 CU数量 CU数量为DLI的计算单元数量和管理单元数量总和,1CU1核4G。 当前配置的CU数量为运行作业时所需的CU数,不能超过其绑定队列的CU数量。 管理单元 管理单元CU数量。 并行数 并行数是指同时运行Flink SQL作业的最大任务数。适度增加并行数会提高作业整体算力,但也须考虑线程增多带来的切换开销。 说明 最大并行数不能大于计算单元(CU数量管理单元)的4倍。 该界面并行数优先级低于代码中并行数设置。 TaskManager配置 用于设置TaskManager资源参数。 勾选后需配置下列参数: “单TM所占CU数”:每个TaskManager占用的资源数量。 “单TM Slot”:每个TaskManager包含的Slot数量。 OBS桶 选择OBS桶用于保存用户作业日志信息、checkpoint等信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 保存作业日志 设置是否将作业运行时的日志信息保存到OBS。日志信息的保存路径为:“桶名/jobs/logs/作业id开头的目录”。在作业列表中,单击对应的作业名称,在“运行日志”页签,可以单击页面提供的OBS链接跳转至对应的路径下。 注意 该参数建议勾选,否则作业运行完成后不会生成运行日志,后续如果作业运行异常则无法获取运行日志进行定位。 勾选后需配置下列参数: “OBS桶”:选择OBS桶用于保存用户作业日志信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 作业异常告警 设置是否将作业异常告警信息,如作业出现运行异常或者欠费情况,以SMN的方式通知用户。 勾选后需配置下列参数: “SMN主题”: 选择一个自定义的SMN主题。如何自定义SMN主题,请参见《消息通知服务用户指南》中“创建主题”章节。 开启Checkpoint 设置是否开启作业快照,开启后可基于Checkpoint(一致性检查点)恢复作业。 勾选后需配置下列参数: “Checkpoint间隔”:Checkpoint的时间间隔,单位为秒,输入范围1~999999,默认值为30s。 “Checkpoint模式”:支持如下两种模式: − At least once:事件至少被处理一次。 − Exactly once:事件仅被处理一次。 “OBS桶”:选择OBS桶用于保存用户Checkpoint。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 Checkpoint保存路径为:“桶名/jobs/checkpoint/作业id开头的目录”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 异常自动重启 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 勾选后需配置下列参数: “异常重试最大次数”:配置异常重试最大次数。单位为“次/小时”。 − 无限:无限次重试。 − 有限:自定义重试次数。 “从Checkpoint恢复”:需要同时勾选“开启Checkpoint”才可配置该参数。 空闲状态保留时长 用于清除GroupBy或Window经过最大保留时间后仍未更新的中间状态,默认设置为1小时。 脏数据策略 选择处理脏数据的策略。支持如下三种策略:“忽略”,“抛出异常”和“保存”。 说明 “保存”是指将脏数据保存到OBS桶中。 脏数据转储地址 “脏数据策略”选择“保存”时,配置该参数。单击地址框选择保存脏数据的OBS路径。 8. (可选)根据需要调试参数。作业调试功能只用于验证SQL逻辑,不会有数据写入操作。 具体操作请参见 调试Flink作业。 9. (可选)根据需要设置自定义配置。自定义配置为用户自定义。 10. 单击“保存”,保存作业和相关参数。 11. 单击“启动”,进入“启动Flink作业”页面,确认作业规格后,单击“立即启动”,启动作业。 启动作业后,系统将自动跳转到Flink作业管理页面,新创建的作业将显示在作业列表中,在“状态”列中可以查看作业状态。作业提交成功后,状态将由“提交中”变为“运行中”。运行完成后显示“已完成”。 如果作业状态为“提交失败”或“运行异常”,表示作业提交或运行失败。用户可以在作业列表中的“状态”列中,将鼠标移动到状态图标上查看错误信息,单击可以复制错误信息。根据错误信息解决故障后,重新提交。 说明 其他功能按钮说明如下: 另存为:将新建作业另存为一个新作业。 调试:对作业进行调试。具体操作请参见 格式化:对SQL语句进行格式化。 设为模板:将新创建的作业设置为作业模板。 主题设置:设置页面主题,可以设置字体大小,自动换行和页面风格。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink SQL作业
      • 如何通过JDBC连接TaurusDB数据库
        本节介绍了JDBC连接的问题与处理方法。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。TaurusDB新实例默认开启SSL数据加密,SSL连接实现了数据加密功能,但同时会增加网络连接响应时间和CPU消耗,请评估对业务的性能影响,根据需要进行设置。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解java编程语言。 了解JDBC基础知识。 使用SSL证书连接 使用SSL证书连接实例,即通过证书校验并连接数据库。 说明 以下提供的方式不适用于数据库用户的ssltype为x509的认证方式。 执行命令查看当前用户的ssltype值: select ssltype from mysql.user where user 'xxx'; 步骤 1 下载CA证书或捆绑包。 1. 在“实例管理”页面,单击实例名称进入“基本信息”页面。 2. 在“数据库信息”区域,单击“SSL”开关右侧的。 步骤 2 使用keytool工具通过CA证书生成truststore文件。 ./keytool.exe importcert alias ­file keystore storepass 表 变量说明 变量 说明 请替换为JDK或JRE安装路径的bin目录,例如C:Program Files (x86)Javajdk­11.0.7bin。 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为步骤1中下载解压后CA证书的名称,例如ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): Owner: CNMySQLServer8.0.22AutoGeneratedCACertificate Issuer: CNMySQLServer8.0.22AutoGeneratedCACertificate Serial number: 1 Valid from: Thu Feb 16 11:42:43 EST 2017 until: Sun Feb 14 11:42:43 EST 2027 Certificate fingerprints: MD5: 18:87:97:37:EA:CB:0B:5A:24:AB:27:76:45:A4:78:C1 SHA1: 2B:0D:D9:69:2C:99:BF:1E:2A:25:4E:8D:2D:38:B8:70:66:47:FA:ED SHA256:C3:29:67:1B:E5:37:06:F7:A9:93:DF:C7:B3:27:5E:09:C7:FD:EE:2D:18:86:F4:9C:40:D8:26:CB:DA:95: A0:24 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 1 Trust this certificate? [no]: y Certificate was added to keystore 步骤 3 通过JDBC连接TaurusDB数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 表 参数说明 参数 说明 请替换为TaurusDB实例的IP地址。 说明 如果通过弹性云主机连接,“instanceip”是实例的“读写内网地址”。您可以在该实例“基本信息”页面的“网络信息”区域查看。 如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”,即读写公网地址。您可以在该实例““基本信息”页面的“网络信息”区域查看。 请替换为实例的数据库端口,默认为3306。说明您可以在该实例“基本信息”页面的“网络信息”区域查看。 请替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。 取值如下: true:支持。 false:不支持。 说明 requireSSL与其他连接参数、sslMode之间的关系请参考下表。 useSSL的值,用于设置客户端是否使用SSL连接服务端。 取值如下: true:使用。 false:不使用。 说明 useSSL与其他连接参数、sslMode之间的关系请参考下表。 verifyServerCertificate的值,客户端是否校验服务端的证书。 取值如下: true:校验。 false:不校验。 说明 verifyServerCertificate与其他连接参数、sslMode之间的关系请参考下表。 请替换为步骤2中为truststore文件设置的存储路径。 password> 请替换为步骤2中为truststore文件设置的密码。 表 连接参数与SSL Mode的关系说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接TaurusDB数据库的java代码): import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCTest { static final String USER "xxx"; static final String PASS "xxx"; public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql:// : / ? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); conn DriverManager.getConnection(url, USER, PASS); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.print(rs.getMetaData().getColumnName(i)); System.out.print("t"); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.print(rs.getObject(i)); System.out.print("t"); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // release resource .... } } }
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        数据库连接类
        如何通过JDBC连接TaurusDB数据库
      • 通过JDBC连接MySQL实例
        本页介绍如何通过JDBC连接关系数据库MySQL版。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解JAVA编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。 1. 下载CA证书。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在网络 区域,单击SSL状态 参数右侧的下载证书。 2. 使用keytool工具通过CA证书生成truststore文件。 说明 Keytool是Java开发工具包中的一个命令行工具,可用于管理密钥和证书。 如果您的系统中安装了Java并配置了正确的环境变量,则可以直接使用keytool命令。 如果您的系统中没有安装Java,请先安装Java,然后配置环境变量再使用keytool命令。 java keytool.exe importcert alias file keystore storepass 变量 说明 : 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为下载的CA证书的名称,ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): java Owner: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Issuer: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Serial number: b0db70460527a4df Valid from: Tue Mar 21 15:40:12 CST 2023 until: Fri Mar 18 15:40:12 CST 2033 Certificate fingerprints: MD5: A6:9G:E5:5C:10:E4:F4:18:84:66:76:23:54:92:4C:8A SHA1: 23:66:FE:D4:83:24:58:69:B5:F6:28:04:8D:AA:FB:0E:B0:B9:F9:CB SHA256: 3F:C9:C7:EA:3F:8E:9F:6E:71:7E:5C:7A:81:44:0B:EA:51:CB:EA:7F:9C:00:3A:CF:6E:B8:64:9D:16:62:73:91 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 3 Extensions: Trust this certificate? [no]: y Certificate was added to keystore 3. 通过JDBC连接MySQL数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 参数 说明 请替换为实例的IP地址。 说明:如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例“基本信息”页面的“实例信息”区域查看连接地址。如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。 请替换为实例的数据库端口,默认为13049。 说明:您可以在该实例“连接管理”页面的“连接信息”区域查看。 替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。取值如下:true:支持。false:不支持。 useSSL的值,用于设置客户端是否使用SSL连接服务端。取值如下:true:使用。false:不使用。 verifyServerCertificate的值,客户端是否校验服务端的证书。取值如下:true:校验。false:不校验。 替换为truststore文件设置的存储路径。 替换为truststore文件设置的密码。 requireSSL参数应用说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCConnTest { public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql://instanceip:13049/dbname? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); String USER "xxx"; String PASSOWRD "xxx"; conn DriverManager.getConnection(url, USER, PASSOWRD ); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.println(rs.getMetaData().getColumnName(i)); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.println(rs.getObject(i)); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // 释放资源 } } }
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接MySQL实例
      • 备份集复制(1)
        本文为您介绍备份集复制的相关功能。 备份集复制是一种数据复制技术,它可以将备份集数据从一个存储单元复制到另一个存储单元,备份集复制页面支持备份集手动、级联复制。 手动复制:备份规则备份完成后可在备份集管理页面手动复制。 级联复制:需要提前创建备份集复制规则,备份规则中关联备份集复制规则,这样备份规则产生备份集后,可以按照备份集复制规则的时间窗口触发复制动作从而完成级联复制。 备份集复制的源和目标均可以为存储单元或存储单元组,采用备份集复制可以提升数据的安全性和可用性;可以优化恢复速度;可以将备份数据放在不同的地方,防止灾难或故障导致数据丢失;可以将备份集数据存放到不同的介质,以适应不同的存储需求和成本。 新建备份集复制 操作步骤 1. 点击左侧菜单栏 “数据定时灾备”,点击“备份集备份集复制”,进入备份集复制页面。 2. 点击“新建”按钮,进入备份集复制新建页面。 3. 基础设置各项配置如下: 名称:名称只能以英文字母开头,可包含数字,不能包含中文及特殊字符。 规则类型:支持复制、归档和跨域复制。 复制:备份至源存储单元的任务完成后且备份数据有效,此时触发备份集复制机制,备份集复制完成后,源存储单元上的备份集数据将不会被删除,直至过期删除。 归档:备份至源存储单元的任务完成后且备份数据有效,此时触发备份集归档机制,备份集归档完成后,源存储单元上的备份集数据将被过期删除,后台自动清理。 源存储单元(组):选择该备份集复制规则复制时的源存储单元(组)。 目标存储单元(组):选择该备份集复制规则复制时的目标存储单元(组)。 磁带池:目标存储单元(组)为磁带库类型时可以选择。 目标保留等级:选择该备份集复制规则在目标存储单元(组)上的保留等级(保留等级参数支持自定义修改)。 若保留等级选择和源备份集一致,则复制后的备份集过期时间源备份集的过期时间。 若保留等级选择其他保留等级,则复制后的备份集过期时间源备份集的备份完成时间+保留时间。 任务优先级:可选择任务执行的优先级,优先级越高的优先执行,默认为0,可以填0~99999。 下一次备份集复制策略:此处主要用于二级级联复制,点击选择框,将列出所有以“目标存储单元(组)”为源的备份集复制策略。如果选择多个备份集复制规则策略,Schedule Server可同时发起多个备份集复制任务。 失败重试:默认开启,指备份集复制任务失败后,若开启了重试开关,可在备份时间窗口内进行任务重试。重试次数默认为3次,重试间隔默认为30分钟,均可自定义。 禁用:默认不选用,禁用表示该规则不参与调度,不会被执行。 4. 传输设置页面各配置项如下: 传输压缩:启用传输压缩后,Client对准备传输的数据进行压缩处理,备份服务器接收数据进行解压写入备份服务器的本地存储。提供四个压缩类型选择:极速压缩,普通压缩,快速压缩,均衡压缩。此选项默认不压缩。 极速压缩:极速压缩采用lz4。压缩速度最快,压缩率比较低。 普通压缩:普通压缩采用zip,压缩速度最慢,压缩率一般情况下最高。 快速压缩:快速压缩采用snappy,压缩速度比极速压缩稍慢,但是压缩率一般比极速压缩要高。 均衡压缩:均衡压缩采用minilzo,压缩速度比极速压缩稍慢,但是压缩率一般比极速压缩要高。 注:压缩速度:极速压缩>普通压缩。压缩效果:普通压缩>极速压缩。综合考虑时间和效果,推荐使用极速压缩。 传输加密:Client在准备发送数据过程时使用加密算法加密数据,当备份服务器收到数据后将执行解密操作再写入备份服务器的本地存储。此选项默认不加密。 加密类型:提供AES、SM4加密算法。 传输链路:选择数据传输链路。 并行模式:备份集复制支持多数据流传输。 自动流数:采用默认的并行流数。 D2D、D2T默认1个并行流数。 T2D、T2T默认采用和备份相同的并行流数。 上限流数:动态指定并行流数,备份系统允许的最大并行流数,默认为4。 D2D,threadnum 页面配置下发的并行流数。 D2T,threadnum min(页面下发的并行流数,可用的目标驱动器数)。 T2D,threadnum min(页面下发的并行流数,源备份集的流数,可用的源驱动器数)。 T2T,threadnum min(页面下发的并行流数,源备份集的流数,可用的源驱动器数,可用的目标驱动器数)。 固定流数:固定指定并行流数,默认为4。 D2D,threadnum 页面配置下发的并行流数。 D2T,threadnum 页面下发的并行流数,如果目标驱动器数不足,则等待直至超时。 T2D,threadnum min(页面下发的并行流数,源备份集的流数)如果源驱动器数不足,则等待直至超时。 T2T,threadnum min(页面下发的并行流数,源备份集的流数)如果源或目标驱动器不足,则等待直至超时。 5. 备份时间窗口为备份集复制任务的时间窗口。即备份任务完成后,将根据此时间窗口进行备份集复制任务。 6. 带宽控制页面可保持默认或根据需求配置。 7. 完成配置后,点击确定完成规则新建。
        来自:
      • API列表
        平台提供了以下大模型API能力。 模型 模型简介 模型ID DeepSeekV3.2(旗舰版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 24625803b01f4f90b72abbe9d9cdf5cc GLM5(正式版) GLM5是智谱AI推出的最新一代旗舰级开源大模型,专为应对复杂系统工程和长周期智能体任务而设计。该模型坚持扩展(Scaling)路线,参数量从前代的 355B(激活 32B)扩展至744B(激活 40B),预训练数据量提升至 28.5Ttokens。GLM5集成了 DeepSeek 稀疏注意力(DSA)机制,并引入了全新的异步强化学习基础设施“slime”,在推理、编程和智能体任务上表现卓越。 5df2c9ff4ad347cb95ea42ad6e9e1729 Qwen3.5397BA17B(正式版) Qwen3.5397BA17B 是阿里通义千问团队研发的新一代旗舰级开源多模态 MoE(Mixture of Experts)模型。该模型拥有 3970 亿总参数,但在推理时仅激活 170 亿参数(A17B),实现了极致的性能与效率平衡。Qwen3.5 采用了创新的“门控 DeltaNet + MoE”混合架构,实现了视觉与语言的早期融合训练。它不仅在推理、编码和多语言理解上跨代际超越了前代。 fde2b0a897b140bda7909861ed734671 DoubaoSeed2.0pro DoubaoSeed2.0Pro 是字节跳动推出的最新一代旗舰级通用Agent大模型,隶属于豆包大模型2.0系列,专为应对大规模生产环境下的深度推理与长链路任务执行场景而设计,全面对标GPT 5.2与Gemini 3 Pro。该模型围绕真实世界复杂任务需求进行系统性优化,强化了多模态理解、复杂指令执行与长尾领域知识储备,在数学推理、视觉感知、长上下文处理等多个基准测试中达到业界顶尖水平。其token定价较同级海外模型降低约一个数量级,在保证卓越性能的同时大幅降低部署与使用成本,进一步缩小了与前沿闭源模型的差距,目前已在豆包App、电脑端、网页版及火山引擎API服务同步上线。 d4432662ebed421890bf8fe60e400439 Qwen3Max 千问3系列Max模型,相较preview版本在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求。 3d1c69eb6e1d40f186124b98141e64fd DoubaoSeed1.8 DoubaoSeed1.8是字节跳动自主研发的最新一代旗舰级多模态通用智能体(General Agent)大模型,于2025年12月18日在FORCE原动力大会上正式发布,专为应对真实场景中的复杂工作流、多模态交互及智能体执行任务而设计。该模型突破传统单一语言模型局限,实现从“回答问题”到“执行任务”的质变,融合视觉、语言、推理和行动能力于一体,优化了图片编码token数量与推理效率,在多模态理解、智能体操作、代码编写等领域表现卓越,跻身全球大模型第一梯队,其日均token使用量已突破50万亿,进一步缩小了与前沿闭源模型的差距,成为面向实际应用场景的高效实干型AI助手superscript:3。 87f80d930d3e4c478e50f7a121dfbb97 DoubaoSeed1.60615 DoubaoSeed1.60615是全新多模态深度思考模型,同时支持minimal/low/medium/high 四种reasoning effort。 更强模型效果,服务复杂任务和有挑战场景。 651c9b454b58458f9b604e67c03ab73f Doubao1.5pro32k Doubao1.5pro32k 是字节跳动自主研发的新一代旗舰级大模型,专为长文本处理、多场景适配及高精度任务需求而设计,是豆包1.5系列产品线的核心成员之一。该模型坚持高质量训练路线,在14.8万亿高质量tokens上完成预训练,并通过监督微调和强化学习进一步优化,相较于前代模型实现了知识、代码、推理等核心能力的全面跃升。Doubao1.5pro32k集成了稀疏MoE架构与高效上下文管理技术,坚持不使用任何其他模型生成的数据,凭借极低的幻觉率和优异的综合表现,在多项公开评测基准中达到全球领先水平,显著缩小了与前沿闭源模型(如GPT4 Turbo)的差距,可广泛适配个人、企业及专业领域的多样化需求。 3b4f6505923d48beb3d779a28c704a4e Qwen3CoderPlus Qwen3CoderPlus 是阿里通义千问团队研发的顶级代码专用大模型,在 Qwen3 通用模型基座上进行了大规模的代码专项继续预训练与指令微调。该模型熟练掌握 92 种编程语言,在代码生成、Bug 修复、代码解释及跨语言翻译等任务上表现卓越。Qwen3CoderPlus 引入了“仓库级(Repositorylevel)”代码理解技术,能够处理复杂的项目依赖关系,是程序员、数据科学家及自动化运维人员的理想开发助手。 f9089c3c29b24ac7a0148efad6c0650d Qwen3VLPlus Qwen3VLPlus 是阿里通义千问 Qwen3 家族中的增强型视觉语言模型(VisionLanguage Model),专为处理高难度的图像与视频理解任务而设计。相较于开源版本,Plus 版在视觉感知的清晰度、长视频时序分析及视觉智能体(Visual Agent)交互能力上进行了大幅强化。它采用了先进的“原生动态分辨率”技术,支持任意长宽比的图像输入,能够像人类一样精准识别密集文本、复杂图表及长达数小时的视频内容,是构建多模态应用的理想基座。 b0d79f4a19bb4fa8a71745fff38325a4 Qwen3.5397BA17B Qwen3.5397BA17B 是阿里通义千问团队研发的新一代旗舰级开源多模态 MoE(Mixture of Experts)模型。该模型拥有 3970 亿总参数,但在推理时仅激活 170 亿参数(A17B),实现了极致的性能与效率平衡。Qwen3.5 采用了创新的“门控 DeltaNet + MoE”混合架构,实现了视觉与语言的早期融合训练。它不仅在推理、编码和多语言理解上跨代际超越了前代 Qwen3,更在智能体(Agent)和视觉理解任务上表现卓越,原生支持“思考模式”,具备强大的现实世界适应能力。 06b788a9218d4a5b905e5681c2f4e721 GLM5 GLM5 是智谱 AI 推出的最新一代旗舰级开源大模型,专为应对复杂系统工程和长周期智能体(Agent)任务而设计。该模型坚持扩展(Scaling)路线,参数量从前代的 355B(激活 32B)扩展至 744B(激活 40B),预训练数据量提升至 28.5T tokens。GLM5 集成了 DeepSeek 稀疏注意力(DSA)机制,并引入了全新的异步强化学习基础设施“slime”,在推理、编程和智能体任务上表现卓越,是目前全球开源模型中的佼佼者,进一步缩小了与前沿闭源模型(如 GPT5.2)的差距。 6d3a57c3a6fb465e968b604783b89eda DeepSeekV3.2(正式版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 64badd7229504be5a44123367666a51f DeepSeekV3.2(体验版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 2656053fa69c4c2d89c5a691d9d737c3 Qwen3Coder480BA35BInstruct Qwen3Coder480BA35BInstruct是阿里通义千问开源的顶尖代码大模型,采用混合专家(MoE)架构,总参 4800 亿、激活 350 亿参数,实现性能与成本的平衡,能处理仓库级代码与跨文件依赖。 e8ffc9d7e2b34a7487b30d6682207376 Qwen3235BA22BInstruct2507 Qwen3235BA22BInstruct2507是阿里通义千问发布的开源 MoE 架构大模型,总参 2350 亿、激活 220 亿参数,在指令遵循、推理、编码等多领域性能突出,覆盖 100 多种语言与长尾知识。 aab61a64c8504336848e1720bd379ed4 KimiK2Instruct Kimi K2 是一款先进的混合专家(MoE)语言模型,激活参数为 320 亿,总参数为 1 万亿。通过 Muon 优化器进行训练,Kimi K2 在前沿知识、推理和编码任务上表现出色,同时精心优化了代理能力。 38a6a77904264b3dac4644aedb0e5ced Qwen330BA3B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 4efd64f3736d41a08f89db919dbe9c6b BGERerankerLarge BGERerankerLarge是北京智源人工智能研究院(BAAI)发布的一款基于深度学习的重排序模型,能够在中英文两种语言环境下,对检索结果进行优化,提高检索的准确性和相关性。与嵌入模型不同,Reranker使用question和document作为输入,直接输出相似度而不是嵌入。 0cb4c1ed8f374eadbe8bffe30bd039dc BaichuanM232B BaichuanM232B是百川 AI 的医疗增强推理模型,是百川发布的第二个医疗模型。该模型专为现实世界的医疗推理任务设计,在 Qwen2.532B的基础上引入了创新的大型验证系统。通过对真实医疗问题的领域特定微调,它在保持强大通用能力的同时实现了突破性的医疗性能。 9488c08cf627421aacdeb44bd9c2f95c DeepSeekV3.1 DeepSeekV3.1是一个支持思考模式和非思考模式的混合模型。是在 DeepSeekV3.1Base 的基础上进行后训练得到的,后者是通过两阶段长上下文扩展方法在原始 V3 基础检查点上构建的,遵循了原始 DeepSeekV3 报告中概述的方法。通过收集额外的长文档并大幅扩展两个训练阶段来扩大的数据集。 37d1d0f4183b4800a44a69abf9102dfa DeepSeekV30324 DeepSeekV30324是DeepSeek团队于2025年3月24日发布的DeepSeekV3语言模型的新版本。是一个专家混合(MoE)语言模型,总参数为6710亿个,每个Token激活了370亿个参数。0324版本开创了一种用于负载均衡的辅助无损策略,并设定了多令牌预测训练目标以提高性能。该模型版本在几个关键方面比其前身DeepSeekV3有了显著改进。 11bd888a35434486bf209066c7dad0ee DeepSeekR10528 DeepSeekR10528是DeepSeek团队推出的最新版模型。模型基于 DeepSeekV30324 训练,参数量达660B。该模型通过利用增加的计算资源并在后训练期间引入算法优化机制,显著提高了其推理和推理能力的深度。该模型在各种基准测试评估中表现出出色的性能,包括数学、编程和一般逻辑。它的整体性能现在接近 O3 和 Gemini 2.5 Pro 等领先机型。 ff3f5c450f3b459cbe5d04a5ea9b2511 DeepSeekR1 DeepSeekR1 是一款具有创新性的大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekV3 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10 BGEm3 BGEm3是智源发布的通用语义向量模型BGE家族新成员,支持超过100种语言,具备领先的多语言、跨语言检索能力,全面且高质量地支撑“句子”、“段落”、“篇章”、“文档”等不同粒度的输入文本,最大输入长度为8192,并且一站式集成了稠密检索、稀疏检索、多向量检索三种检索功能,在多个评测基准中达到最优水平。 46c1326f63044fbe80443af579466fe3 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 Qwen3235BA22B Qwen3235BA22B是Qwen3系列大型语言模型的旗舰模型。拥有2350多亿总参数和220多亿激活参数。在代码、数学、通用能力等基准测试中,与DeepSeekR1、o1、o3mini、Grok3和Gemini2.5Pro等顶级模型相比,表现出极具竞争力的结果。 35af69e0d4af492ca366cf2df03c3172 Qwen332B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen332B是参数量为32.8B的密集(Dense)模型。 3836b8d2ec5d46fc94cc7891064940aa Qwen314B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen314B是参数量为14.8B的密集(Dense)模型。 5873b698960f45c8ae36e72566f7f141 Qwen38B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen38B是参数量为82亿的密集(Dense)模型。 dceefe3233794dd385e3c2ab500dc6c8 Qwen34B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 8606056bfe0c49448d92587452d1f2fc QwQ32B QwQ32B是一款拥有 320 亿参数的推理模型,其性能可与具备 6710 亿参数(其中 370 亿被激活)的 DeepSeekR1 媲美。该模型集成了与Agent相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。 b9293363bfbf4db2bccb839ff4300d17 Qwen2.5VL72BInstruct Qwen2.5VL72BInstruct模型是阿里云通义千问开源的全新视觉模型,具有720亿参数规模,以满足高性能计算场景的需求。目前共推出3B、7B、32B和72B四个尺寸的版本。这是旗舰版Qwen2.5VL72B的指令微调模型,在13项权威评测中夺得视觉理解冠军,全面超越GPT40与Claude3.5。 88003ac1ca7a4e4e8efa7caee648323b
        来自:
        帮助文档
        模型推理服务
        API参考
        推理服务API
        API列表
      • 创建备份策略
        本文主要介绍如何创建物理机备份策略。 1. 登录管理控制台。 2. 选择“存储 > 云服务备份”。 进入“云服务备份控制台”。 3. 在左侧导航树选择“策略”,进入“备份策略”页签,单击右上角“创建策略”,创建自定义策略。 4. 设置备份策略信息。各参数说明如下表所示。 参数 说明 备注 策略名称 设置备份策略的名称。 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度小于等于64个字符。 backuppolicy 是否启用 设置备份策略的启用状态。 仅当启用备份策略后,系统才会自动备份所绑定的存储库的服务器和磁盘,并定期删除过期的备份。 备份周期 设置备份任务的执行日期。 按周 指定备份策略在每周的周几进行备份,可以多选。 按天 指定备份策略每隔几天进行一次备份,可设置130天。 每1天 当选择按天备份时,理论上第一次备份的时间为备份策略创建当天。如果当天备份策略创建的时间已经晚于设置的备份时间,那么将会等到第二个备份周期再进行第一次备份。 建议选择无业务或者业务量较少的时间进行备份。 备份时间 设置备份任务在一天之内的执行时间点。 只支持在整点进行备份,同时支持选择多个整点进行备份。 说明 设定的备份时间和控制台实际创建备份的时间可能存在差异。 如需要备份的资源总数据量较大,建议备份执行时间点不宜设置过于紧密。如果单个资源执行备份的时长超过两个备份执行时间间隔,则会跳过第二个备份时间点不进行备份。 例如:某磁盘的备份策略设置的备份时间点为00:00,01:00,02:00。在00:00时,磁盘开始进行备份,由于磁盘此次备份增量数据较大,或者该时间段同时执行的备份任务较多,该次备份任务耗时90分钟,在01:30时完成备份。则01:00的备份时间点会跳过,在02:00时再执行备份,将只会产生两个备份。 备份时间指的是客户端所在的本地时间,并不是指region所在的时区时间。 00:00,02:00 建议选择无业务或者业务量较少的时间进行备份。 备份的业务高峰期在0点到早上6点,建议客户评估业务类型,分散时间备份,如果指定的策略在业务高峰时段,可能会有一定的调度延迟。 全量备份 设置是否定期执行全量备份操作。 开启 开启全量备份可以进一步提高备份数据的安全性,全量备份所占用存储容量也会相应增加。 需要配置全量备份的备份频次,取值范围为0100。0表示每次执行备份均为全量备份。 不开启 备份策略执行增量备份。 说明 全量备份一般耗时较长,全量备份期间由于该资源处于备份中,如有针对该资源的策略或手动执行的备份任务,则会跳过,不会产生其他备份。建议您选择业务闲时再进行备份。 按数量保留备份时,全量备份配置个数需要小于保留的备份数才会进行全量备份,否则不会生成全量备份。 7次 保留规则 设置备份产生后的保留规则。 按数量 单个物理机执行备份策略保留的备份总份数。取值范围为199999个。 按时间 可选择1个月、3个月、6个月、1年的固定保留时长或根据需要自定义保留时长。取值范围为299999天。 高级配置 同时你还可以设置长期保留规则,且长期保留配置与按数量保留之间没有相互影响,共同有效: 保留日备份:取值范围为0100。 保留周备份:取值范围为0100。 保留月备份:取值范围为0100。 保留年备份:取值范围为0100。 例如:日备份,即系统会每天保留最新的一份备份。在本日内,对磁盘进行多次备份后,则只会取本日最后一个备份进行保留。如果选择保留5个日备份,则会选取最新的5个日备份进行保留。超过5个后,系统会自动删除最老的备份。同时设置日备份、周备份、月备份和年备份,则会取并集备份进行保留。即设置保留日备份为5份,周备份1份时,会保留5份备份。长期保留规则与按数量保留可以同时执行,不会产生冲突。 永久保留 说明 当保留的备份数超过设置的数值时,系统会自动删除最早创建的备份,当保留的备份超过设定的时间时,系统会自动删除所有过期的备份;系统默认每隔一天自动清理,删除的备份不会影响其他备份用于恢复。 保留的备份可能将不会在备份策略设置的时间点按时自动删除,将会存在一定的延迟。备份在到期时间后的12点至0点的时间段,进行分批删除。 保留规则仅对备份策略自动调度生成的备份有效。手动执行备份策略生成的备份不会统计在内,且不会自动删除。如需删除,请在备份页签的备份列表中手动删除。 周期性备份产生的失败的备份最多保留10个,保留时长1个月,可手动删除。 在已有某备份的情况下,若下一个备份任务正在进行中,此时删除前一个已有备份的操作将会被拦截,需要等待下一个备份任务结束后,再进行删除操作。 6个月 说明 物理机备份越频繁,保留的备份份数越多或时间越长,对数据的保护越充分,但是占用的存储库空间也越大。请根据数据的重要级别和业务量综合考虑选择,重要的数据采用较短的备份周期,且保留较多的备份份数或较长时间。 5. 设置完成后,单击“立即创建”,完成备份策略的创建。 备份策略列表中增加一条记录。
        来自:
      • 备份集复制
        本文为您介绍备份集复制的相关功能。 备份集复制是一种数据复制技术,它可以将备份集数据从一个存储单元复制到另一个存储单元,备份集复制页面支持备份集手动、级联复制。 手动复制:备份规则备份完成后可在备份集管理页面手动复制。 级联复制:需要提前创建备份集复制规则,备份规则中关联备份集复制规则,这样备份规则产生备份集后,可以按照备份集复制规则的时间窗口触发复制动作从而完成级联复制。 备份集复制的源和目标均可以为存储单元或存储单元组,采用备份集复制可以提升数据的安全性和可用性;可以优化恢复速度;可以将备份数据放在不同的地方,防止灾难或故障导致数据丢失;可以将备份集数据存放到不同的介质,以适应不同的存储需求和成本。 新建备份集复制 操作步骤 1. 点击左侧菜单栏 “数据定时灾备”,点击“备份集备份集复制”,进入备份集复制页面。 2. 点击“新建”按钮,进入备份集复制新建页面。 3. 基础设置各项配置如下: 名称:名称只能以英文字母开头,可包含数字,不能包含中文及特殊字符。 规则类型:支持复制、归档和跨域复制。 复制:备份至源存储单元的任务完成后且备份数据有效,此时触发备份集复制机制,备份集复制完成后,源存储单元上的备份集数据将不会被删除,直至过期删除。 归档:备份至源存储单元的任务完成后且备份数据有效,此时触发备份集归档机制,备份集归档完成后,源存储单元上的备份集数据将被过期删除,后台自动清理。 源存储单元(组):选择该备份集复制规则复制时的源存储单元(组)。 目标存储单元(组):选择该备份集复制规则复制时的目标存储单元(组)。 磁带池:目标存储单元(组)为磁带库类型时可以选择。 目标保留等级:选择该备份集复制规则在目标存储单元(组)上的保留等级(保留等级参数支持自定义修改)。 若保留等级选择和源备份集一致,则复制后的备份集过期时间源备份集的过期时间。 若保留等级选择其他保留等级,则复制后的备份集过期时间源备份集的备份完成时间+保留时间。 任务优先级:可选择任务执行的优先级,优先级越高的优先执行,默认为0,可以填0~99999。 下一次备份集复制策略:此处主要用于二级级联复制,点击选择框,将列出所有以“目标存储单元(组)”为源的备份集复制策略。如果选择多个备份集复制规则策略,Schedule Server可同时发起多个备份集复制任务。 失败重试:默认开启,指备份集复制任务失败后,若开启了重试开关,可在备份时间窗口内进行任务重试。重试次数默认为3次,重试间隔默认为30分钟,均可自定义。 禁用:默认不选用,禁用表示该规则不参与调度,不会被执行。 4. 传输设置页面各配置项如下: 传输压缩:启用传输压缩后,Client对准备传输的数据进行压缩处理,备份服务器接收数据进行解压写入备份服务器的本地存储。提供四个压缩类型选择:极速压缩,普通压缩,快速压缩,均衡压缩。此选项默认不压缩。 极速压缩:极速压缩采用lz4。压缩速度最快,压缩率比较低。 普通压缩:普通压缩采用zip,压缩速度最慢,压缩率一般情况下最高。 快速压缩:快速压缩采用snappy,压缩速度比极速压缩稍慢,但是压缩率一般比极速压缩要高。 均衡压缩:均衡压缩采用minilzo,压缩速度比极速压缩稍慢,但是压缩率一般比极速压缩要高。 注:压缩速度:极速压缩>普通压缩。压缩效果:普通压缩>极速压缩。综合考虑时间和效果,推荐使用极速压缩。 传输加密:Client在准备发送数据过程时使用加密算法加密数据,当备份服务器收到数据后将执行解密操作再写入备份服务器的本地存储。此选项默认不加密。 加密类型:提供AES、SM4加密算法。 传输链路:选择数据传输链路。 并行模式:备份集复制支持多数据流传输。 自动流数:采用默认的并行流数。 D2D、D2T默认1个并行流数。 T2D、T2T默认采用和备份相同的并行流数。 上限流数:动态指定并行流数,备份系统允许的最大并行流数,默认为4。 D2D,threadnum 页面配置下发的并行流数。 D2T,threadnum min(页面下发的并行流数,可用的目标驱动器数)。 T2D,threadnum min(页面下发的并行流数,源备份集的流数,可用的源驱动器数)。 T2T,threadnum min(页面下发的并行流数,源备份集的流数,可用的源驱动器数,可用的目标驱动器数)。 固定流数:固定指定并行流数,默认为4。 D2D,threadnum 页面配置下发的并行流数。 D2T,threadnum 页面下发的并行流数,如果目标驱动器数不足,则等待直至超时。 T2D,threadnum min(页面下发的并行流数,源备份集的流数)如果源驱动器数不足,则等待直至超时。 T2T,threadnum min(页面下发的并行流数,源备份集的流数)如果源或目标驱动器不足,则等待直至超时。 5. 备份时间窗口为备份集复制任务的时间窗口。即备份任务完成后,将根据此时间窗口进行备份集复制任务。 6. 带宽控制页面可保持默认或根据需求配置。 7. 完成配置后,点击确定完成规则新建。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据定时灾备
        备份集
        备份集复制
      • 通过数据复制服务迁移数据
        数据复制服务(Data Replication Service,简称DRS)支持在多种场景下,将源库数据迁移到目标文档数据库实例,最大限度允许迁移过程中业务继续对外提供使用,有效地将业务系统中断时间和业务影响最小化,完成数据库平滑迁移工作。 前提条件 使用数据复制服务进行数据迁移时,为了提高数据迁移的稳定性和安全性,请先阅读以确保数据库实例已满足迁移条件。 迁移场景 全量迁移 该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。选择 “全量迁移” 模式,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量迁移 该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将远端和目标端数据库保持数据持续一致。选择 “全量+增量” 迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 支持的源和目标数据库 表 支持的数据库 源数据库 目标数据库 本地自建Mongo数据库(3.2、3.4、4.0版本 ECS自建Mongo数据库(3.2、3.4、4.0版本 其他云上Mongo数据库(3.2、3.4、4.0版本,不支持腾讯云3.2版本) DDS实例(3.4、4.0版本) DDS实例(3.4、4.0、4.2版本) 说明:仅支持目标库版本等于或高于源库版本。 支持的迁移对象范围 在使用DRS进行迁移时,不同类型的迁移任务,支持的迁移对象范围不同,详细情况可参考下表。 DRS会根据用户选择,在“预检查”阶段对迁移对象进行自动检查 。 支持的迁移对象 类型名称 使用须知 迁移对象范围 迁移对象选择维度:支持选择表级、库级或实例级(全部迁移)。 支持的迁移对象 : 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 副本集:目前只支持集合(包括验证器,是否是固定集合),索引和视图的迁移。− 集群:目前只支持集合(包括验证器,是否是固定集合),分片键,索引和视图的迁移。 单节点:目前只支持集合(包括验证器,是否是固定集合),索引和视图的迁移。− 只支持迁移用户数据和源数据库的账号信息,不支持迁移系统库(如local、admin、config等)和系统集合,如果业务数据在系统库下,则需要先将业务数据移动到用户数据库下,可以使用renameCollection命令进行移出。 不支持视图的创建语句中有正则表达式。 不支持id字段没有索引的集合。 不支持BinData()的第一个参数为2。 不支持范围分片的情况下maxKey当主键。 支持迁移的对象有如下限制: 源数据库的库名不能包含/."和空格,集合名和视图名中不能包含字符或以system.开头。 数据库账号权限要求 在使用DRS进行迁移时,连接源库和目标库的数据库账号需要满足以下权限要求,才能启动实时迁移任务。不同类型的迁移任务,需要的账号权限也不同,详细可参考下表进行赋权。DRS会在“预检查”阶段对数据库账号权限进行自动检查,并给出处理建议。 建议创建单独用于DRS任务连接的数据库帐号,避免因为数据库帐号密码修改,导致的任务连接失败。 连接源和目标数据库的帐号密码修改后,请尽快修改DRS任务中的连接信息,避免任务连接失败后自动重试,导致数据库帐号被锁定影响使用。 表 数据库账号权限 类型名称 全量迁移 全量+增量迁移 源数据库连接账号 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限。 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限。 集群:连接源数据库的用户需要有admin库的readAnyDatabase权限,有config库的read权限。 果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 集群:连接源数据库mongos节点的用户需要有admin库的readAnyDatabase权限,有config库的read权限,连接源数据库分片节点的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 如果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 目标数据库连接账号 连接目标数据库的用户需要有admin库的dbAdminAnyDatabase权限,有目标数据库的readWrite权限。对于目标数据库是集群的实例,迁移账号还要有admin库的clusterManager权限。 连接目标数据库的用户需要有admin库的dbAdminAnyDatabase权限,有目标数据库的readWrite权限。对于目标数据库是集群的实例,迁移账号还要有admin库的clusterManager权限。 用户赋权参考语句:如连接源数据库的用户需要有admin库的readAnyDatabase权限和config库的read权限。 db.grantRolesToUser("用户名",[{role:"readAnyDatabase",db:"admin"}, {role:"read",db:"config"}]) 迁移操作 具体的迁移操作请参考《数据复制服务最佳实践》中“MongoDB数据库迁移”章节。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过数据复制服务迁移数据
      • 开启模型推理引擎
        配置项 配置说明 模型接口地址 说明 此处通常是/v1,但实际情况也可能有所不同。只需要去掉/chat/completions,前面全部保留即可。 API密钥 header 'Authorization: Bearer skXXXX':复制 skXXXX填入“API密钥”输入框。 说明 密钥不一定是 sk 开头,根据实际情况填写即可。 也可能没有密码,没有密码可不填。 模型名称 "model": "Qwen/Qwen2.532BInstruct":注意这里的模型名称要完全一致的填入 “模型名称” 输入框。
        来自:
        帮助文档
        智算安全专区
        最佳实践
        内容安全配置实践
        开启模型推理引擎
      • 抗 DDoS 配置
        参数 说明 开关 启用/禁用:控制是否启用抗DDoS功能 每分钟请求次数 限制每分钟的最大请求数 每小时请求次数 限制每小时的最大请求数 每天请求次数 限制每天的最大请求数
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        策略管理
        内容安全
        不上线
        抗 DDoS 配置
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • 日志转储后,LTS会删除转储的内容吗?
        不会删除。在云日志服务控制台,日志转储是把日志“另存”一份至OBS,转储后,单击“转储对象”列的OBS桶名称,可以跳转至OBS控制台,查看转储的日志文件。
        来自:
      • C#调用示例
        如附件所示 C调用示例.zip
        来自:
        帮助文档
        内容审核(文档停止维护)
        API参考
        如何调用API
        C#调用示例
      • 上云配置
        本文介绍了客户支持计划的上云配置。 提供量身定制的云上系统架构设计、系统架构与云产品的结合、系统的适应性改造设计、网络与系统交互规划、负载均衡与弹性伸缩的规划和云上的企业级系统解决方案等建议。
        来自:
        帮助文档
        客户支持计划
        产品简介
        服务内容
        上云配置
      • 1
      • ...
      • 299
      • 300
      • 301
      • 302
      • 303
      • ...
      • 308
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      模型推理服务

      推荐文档

      Microsoft SQL Server

      其他问题

      如何使用代金券?

      比较

      客户端下载安装

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号