云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      VPC终端节点_相关内容
      • 高级回源
        本文介绍高级回源功能及其配置说明。 功能介绍 当客户希望CDN基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。开启高级回源后,CDN节点在接收到客户端请求后,读取请求中对应信息进行判断并回源到不同源站。目前天翼云CDN支持的高级回源功能包括如下: 1. 支持区分IPV4/IPV6回源,详情请见:区分IPv4/IPv6回源。 2. 支持分区域分运营商回源,详情请见:分区域分运营商回源。 3. 支持分不同目录回源:例如可设置某加速域名下:/abc/a目录回源站A,/def/d目录回源站B。 4. 支持分不同文件后缀名回源:例如可设置某加速域名下:.apk文件回源站A,.mp4文件回源站B。 注意事项 1. 上述高级回源维度可以相互组合,例如可设置如下:/abc/a目录下的.apk文件回源站A,/abc/a目录下的.mp4文件回源站B。 2. 如客户同时在控制台配置回源URI改写功能,且其中涉及目录或文件后缀名的改写,可能会造成分目录回源和分文件后缀名回源效果与预期不符。 3. 高级回源功能支持在具体某个条件下设置多个源站,且支持多个源站之间设置主备、权重。 4. 高级回源功能必须搭配源站配置功能一起使用,在某个请求未匹配至所有高级回源条件时,将按照基础回源配置回源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        高级回源
      • 回源URI改写
        本文介绍回源URI改写功能的适用场景和配置说明。 功能介绍 回源URI改写可以实现在用户请求需要回源时进行URI改写, 配置回源URI改写功能后,CDN节点向源站发起回源请求时将使用改写后的URI。 适用场景 1. 源站服务器的资源所在路径发生了变化,而用户仍然使用原来的URI,此时可在CDN控制台配置回源URI改写功能,将原URI指向新的资源路径。 2. 源站内有同样的资源在多个地方复用,也可以通过回源URI改写将资源指向指定的资源路径。 注意事项 1. 回源URI改写功能只能针对请求URI进行改写,无法对URI后的参数进行改写,若要对URI后的参数进行改写,详情请见:回源参数改写。 2. URI改写会按照从上到下顺序执行规则列表,因此规则列表的顺序会影响改写结果。 3. 单个域名可配置的回源URI改写的规则上限是50条。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 在【回源URI改写】模块,单击【增加规则】。 6. 配置【改写模式】、【待改写PATH】、【改写后PATH】。 7. 单击【保存】,完成配置。 参数名 说明 改写模式 默认解码,对回源URI解码后改写,回源时再编码;选择编码,对回源URI原始编码改写,回源时不再编码。 待改写PATH 以/开头的URI,不含 改写后PATH 以/开头的URI,不含 操作 可删除配置。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源URI改写
      • 动态回源策略
        本文介绍如何选择合适的动态回源策略及注意事项等。 功能介绍 在介绍动态回源策略之前,我们先介绍如何区分动态请求和静态请求。天翼云全站加速产品根据您配置的缓存规则来区分动静态请求,有配置缓存规则的被当作静态请求处理,其他请求将被当作动态请求处理。 如果您的加速域名有多个源站,可以配置合适的回源策略来实现不同的效果。动态回源策略支持择优回源、按权重回源、保持登录三种回源方式;静态回源策略默认轮询回源,无需配置。 择优回源:顾名思义,即根据全站加速节点探测源站的结果,选择最快的源站回源。 按权重回源:根据每个源站配置的不同权重,轮询回源。 保持登录:基于客户端IP进行哈希,保证相同客户端IP的多次请求始终访问到相同的源站。 注意事项 动态回源策略仅对动态请求生效,静态请求默认轮询回源。 配置说明 新增域名,配置动态回源策略: 1. 登录客户控制台。 2. 进入【域名管理】【域名列表】页面,点击【添加域名】。 3. 选择【加速类型】为【全站加速】,这时弹出【源站设置】【动态回源策略】,根据需要选择合适的动态回源策略。 说明 当选择【加速类型】为【全站加速】后,页面才会弹出【源站设置】【动态回源策略】的选择框信息。 域名添加完成后,编辑源站信息: 1. 登录客户控制台。 2. 在【域名管理】【域名列表】页面,点击【编辑】目标域名。 3. 点击右侧【动态配置】,找到【动态回源策略】。 4. 重新选中您需要的动态回源策略后,点击【保存】。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        回源配置
        动态回源策略
      • 网络带宽利用率监控告警配置指导
        本章介绍Kafka的网络带宽利用率监控告警配置指导。 使用场景建议 Kafka存在持续业务,避免出现客户端批量断链场景。 间断性业务场景不建议使用,会存在误告警。 新创建实例不建议设置告警。 告警通知设置,告警对象、告警组设置 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择目标实例所在的区域。 3. 在管理控制台左上角单击,搜索CES服务进入“云监控服务”界面。 4. 选择“告警 >告警通知”,单击“通知对象 >创建通知对象”,填写要通知的对象以及相关联系方式,如果已存在则跳过该步骤,重复该步骤可创建多个通知对象。 5. 选择“通知组 >创建通知组”,把步骤4创建的告警对象都纳入当前组进行管理。 设置告警规则 1. 选择“告警 >告警规则 >创建告警规则”。 参数 说明 名称 自定义名称 描述 自定义描述 告警类型 指标 资源类型 分布式消息服务 维度 Kafka专享版 Broker节点 监控范围 指定资源 监控对象 选择指定kafka实例的所有broker,可选择多个kafka实例 触发规则 自定义创建 告警策略 若++网络带宽利用率++ 的++原始值连续3次<++xx则++每5分钟 告警一次++ ++根据实际情况设置xx的紧急、重要、次要等告警++ 发送通知 打开 通知方式 通知组 通知组 选择上一步创建的通知组 通知内容模板 都可以选择系统模版 生效时间 每日00:00 – 23:59 触发条件 出现告警恢复告警都选 2. 单击“立即创建”。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        网络带宽利用率监控告警配置指导
      • 管理实例组
        本章节主要介绍翼MapReduce的管理实例组操作。 操作场景 FusionInsight Manager支持对多个实例组的管理功能,即用户可以按照具有相同硬件配置的节点或者其他原则将同一角色内的多个实例进行分组。针对实例组进行的配置参数修改,将同时对组内所有的实例生效。 在大集群场景中,通过实例组将提升大集群下异构环境批量实例的管理能力,分配好实例组后,后续可反复配置,减少实例配置项的冗余,提升系统性能。 创建实例组 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务”。 3. 单击服务视图中待操作的服务名称。 4. 选择“实例组”。 单击,按照界面提示填写参数。 实例组配置参数 参数名 说明 组名称 实例组名称只能包含字母、数字、下划线()、中划线()和空格,仅以字母、数字、下划线()或中划线()开头,只能在中间包含空格,并且不能超过99个字符。 角色 表示实例组包含哪个角色的实例。 复制源 指从指定的实例组复制配置值到新组,若为空,则新组对应的各配置值为系统默认值。 描述 只可以包含汉字、英文字母、数字、中英文逗号、中英文句号、下划线()、空格和换行符,并且不能超过200个字符。 说明 每个实例必须且只能属于一个实例组,实例首次安装时默认属于的实例组为“ 角色名 DEFAULT”。 多余或者不再使用的实例组可以删除,删除前需要将组内的实例全部迁移至其他实例组,然后参照下方“删除实例组”对实例组进行删除,系统默认的实例组不可删除。 5. 单击“确定”完成创建实例组。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理实例
        实例组
        管理实例组
      • 查看或下载错误日志
        下载错误日志 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏单击“日志管理”,在“错误日志”页签下,选择“下载”页签,对状态为“准备完成”的日志文件,单击操作列中的“下载”,下载错误日志。 系统会自动加载下载准备任务,加载时长受日志文件大小及网络环境影响。 − 下载准备过程中,日志文件状态显示为“准备中...”。 − 下载准备完成,日志文件状态显示为“准备完成”。 − 下载准备工作失败,日志文件状态显示为“异常”。 “准备中...”和“异常”状态的日志文件不支持下载。 当需要下载的文件大于40MB时,需要通过客户端工具OBS Browser+进行下载。 下载链接有效期为5分钟。如果超时,提示用户下载链接已失效,是否重新下载。若需重新下载,单击“确定”,否则单击“取消”。 下载的日志仅包含主节点的日志。 结束 LTS错误日志配置 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏单击“日志管理”,在“错误日志”页签下,选择“日志明细”。 步骤 6 单击 ,配置日志记录上传LTS。 步骤 7 在下拉框分别选择LTS日志组和日志流,单击“确定”。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        日志管理
        查看或下载错误日志
      • RDS for MySQL 5.7版本升级到8.0
        约束限制 对于主备实例,复制延迟大于300秒无法升级大版本。 实例中存在异常节点,无法升级大版本。 MySQL 5.7及之后版本不再支持Sequence Engine,升级前请确认。 目前RDS for MySQL实例最大可支持50万张表(系统表+数据表),大于50万张表时,会导致大版本升级失败。 云数据库RDS for MySQL暂不支持已开启事件定时器功能的实例升级大版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 升级到8.0版本后,主实例和只读实例会共用SQL限流规则,为避免主实例SQL限流规则对只读业务造成影响,请在升级前审视调整主实例SQL限流规则、以及主实例和只读实例的SQL限流开关。 准备升级时,如果仍存在XA prepared状态的XA事务:请使用 XA recover; 语句排查后,将这些XA事务commit或者rollback,再进行升级;否则无法升级成功。 − XA recover语句只会显示XA prepare状态后的XA事务,其他阶段如XA start、XA end、XA commit、XA rollback后的XA事务都不会显示在其中。 − 如果要commit或者rollback处于XA prepare状态的XA事务,请在XA recover返回的结果中,找到data一列(如下图中的'xid1'),作为XA commit或者XA rollback的输入。 图 排查XA事务 以下场景不支持RDS for MySQL 5.7升级至8.0: − 不支持已绑定DRDS或已开通数据库代理的RDS for MySQL实例进行升级。 − 不支持单机进行升级。 − 主实例下的只读实例带有SQL限流规则时,不支持升级,请在升级前删除只读的限流规则。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        版本升级
        RDS for MySQL 5.7版本升级到8.0
      • 约束与限制
        功能 使用限制 数据库访问 如果关系型数据库实例没开通公网访问,则该实例必须与弹性云主机在同一个虚拟私有云内才能访问。 关系型数据库只读实例必须创建在与主实例相同的一个子网内。 弹性云主机必须处于目标关系型数据库实例所属安全组允许访问的范围内。 如果关系型数据库实例与弹性云主机处于不同的安全组,系统默认不能访问。需要在关系型数据库的安全组添加一条“入”的访问规则。 RDS for MySQL实例的默认端口为3306,需安全组放开后,才能访问其它端口。 部署 实例所部署的弹性云主机,对用户都不可见,即只允许应用程序通过IP地址和端口访问数据库。 数据库的root权限 创建实例页面只提供管理员root用户权限。 修改数据库参数设置 大部分数据库参数可以通过控制台进行修改。 RDS for MySQL存储引擎 MySQL数据库只有InnoDB存储引擎支持完整的备份、恢复等服务功能,因此RDS for MySQL推荐使用InnoDB引擎,不支持MyISAM引擎、FEDERATED引擎和Memory引擎。 搭建数据库复制 RDS for MySQL本身提供主备复制架构的双节点集群,无需用户手动搭建。其中主备复制架构集群的备实例不对用户开放,用户应用不可直接访问。 支持的表数量 RDS for MySQL支持表数量上限为50万。 大于50万张表时,会导致备份和小版本升级失败,影响数据库可用性。 重启RDS实例 无法通过命令行重启,必须通过关系型数据库服务的管理控制台操作重启实例。 创建只读实例 只有存储类型是极速型SSD的主备实例或者主实例才能创建存储类型是极速型SSD的只读实例。
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        约束与限制
      • 扫描并删除Redis实例的过期Key
        本节介绍了扫描并删除Redis实例的过期Key的相关内容。 在开源Redis的键空间中,有两种删除Key的方式。 使用DEL等命令直接对Key进行删除。 使用类似于EXPIRE等命令对Key设置过期时间,当达到过期时间时,Redis键空间中的Key将不可访问。对于设置了过期时间的Key,当达到过期时间时,Redis不会立即对Key进行删除。由于Redis当前主线程仍然为单线程,故Redis设计了几种机制对已经过期的Key进行内存释放: − 惰性删除:Redis的删除策略由主循环中的判断逻辑进行控制,所有Key读写命令执行之前都会调用函数对其进行检查,如果过期,则删除该键,然后返回Key不存在的结果;未过期则不做操作,继续执行原有的命令。 − 定期删除:由Redis的定时任务函数实现,该函数以一定的频率运行,每次运行时,都从键空间中随机取出一定数量的Key进行检查,并删除其中的过期Key。开源Redis不是每次定时任务都会检查所有的Key,而是随机检查一定数量的Key(默认一次从设置过期时间的Key中随机检查20个,每秒10次,通过activeexpirenum参数可调节随机检查数),该机制旨在防止阻塞Redis主进程太久而造成业务阻塞,所以会造成已过期的Key释放内存速度较慢。 基于开源Redis以上机制,分布式缓存服务提供了一种通用的“过期Key扫描”的方式,来定时释放所有已经过期Key占用的内存,通过自行配置定时任务,在任务执行期间,会对所有缓存实例的主节点进行扫描操作,扫描操作会遍历整个实例的键空间,触发Redis引擎中对Key过期的判断,从而释放已过期的Key。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        扫描并删除Redis实例的过期Key
      • 远程连接类
        Port 22”替换为“Port 2020”。 3. 执行如下命令,重启ssh服务。 service sshd restart 检查hosts配置文件 Linux 服务器通过设置 /etc/hosts.allow 和 /etc/hosts.deny 这个两个文件,可以限制或者允许某个或者某段IP地址远程SSH登录服务器。 1. 检查/etc/hosts.allow,允许192.168.1.3 这个IP地址ssh登录,添加如下行: sshd: 192.168.1.3 2. 检查/etc/hosts.deny,如果存在sshd:all:deny,请注释掉该行。 说明 hosts.allow 和hosts.deny 两个文件同时设置规则的时候,hosts.allow 文件中的规则优先级高。假设hosts.allow设置sshd: 192.168.1.3,hosts.deny设置了sshd:all:deny,那么云主机只允许192.168.1.3这个IP地址的SSH登录,其它的 IP 都会拒绝。 密钥对鉴权方式的Windows云主机无法获取密码怎么办? 问题描述 密钥对鉴权方式的Windows云主机,使用私钥文件获取登录密码失败。 可能原因 出现获取密码失败一般原因是Cloudbaseinit注入密码失败。 Cloudbaseinit注入密码失败原因有: 网络原因导致云主机器无法连接到Cloudbaseinit服务器。 镜像上Cloudbaseinit没有获取密码相关配置。 云主机上其他问题导致Cloudbaseinit注入密码失败。 处理方法 使用Cloudbaseinit特性的弹性云主机时,如果登录失败,可以从以下几个原因进行排查: 1. 检查创建云主机的镜像是否正常配置了Cloudbaseinit。 − 不安装CloudbaseInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 − 使用公共镜像创建的云主机,默认已经安装CloudbaseInit,不需要执行安装及配置操作。 − 使用外部镜像文件创建的云主机,请按照指导安装及配置CloudbaseInit。 详细操作请参考《镜像服务用户指南》“安装并配置CloudbaseInit工具”。 2. 判断登录弹性云主机时使用的密钥对是否正确。 检查获取密码使用的密钥文件是否为创建云主机时使用的密钥。 3. 弹性云主机使用的VPC网络DHCP不能禁用。 在管理控制台查看云主机所在子网是否启用了DHCP。 4. 弹性云主机需绑定弹性IP。 5. 查看安全组出方向规则,需确保80端口“出方向”和“入方向”均放通。 6. 通过查看日志检查原因,Cloudbaseinit日志查看步骤如下: a. 将无法获取密钥的弹性云主机关机后,将系统盘卸载。 b. 使用公共镜像创建一个临时Windows云主机,将6.a中卸载的卷挂载在此云主机上。 c. 登录临时创建的云主机,打开服务器管理器,选择“文件和存储服务 > 卷 > 磁盘”,单击鼠标右键选择“脱机”状态的磁盘,单击“联机”。 图 磁盘联机 d. 打开新联机的磁盘,查看“/Programe Files/Cloudbase Solution/CloudbaseInit/log”路径下的“cloudbaseinit”文件,通过日志查看原因。 图 查看cloudbaseinit文件
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        远程连接类
      • 安装一键式重置密码插件(Linux)
        前提条件 云主机的状态为“运行中”。 需保证根目录可写入,且剩余空间大于300MB。 使用SUSE 11 SP4镜像创建的云主机,内存需要大于等于4G时才能支持一键式重置密码功能。 云主机使用的VPC网络DHCP不能禁用。 云主机网络正常通行。 云主机安全组出方向规则满足如下要求: − 协议:TCP − 端口范围:80 − 远端地址:169.254.0.0/16 如果您使用的是默认安全组出方向规则,则已经包括了如上要求,可以正常初始化。默认安全组出方向规则为: − 协议:ALL − 端口范围:ALL − 远端地址:0.0.0.0/16 操作步骤 1. 检查云主机是否已安装密码重置插件CloudResetPwdAgent和CloudResetPwdUpdateAgent。 提供如下两种方法供您检查。 方法一:在管理控制台查询 a. 登录管理控制台。 b. 选择“计算 > 弹性云主机”。 c. 选中待检查的弹性云主机,并选择“重置密码”。 如果界面弹窗提示用户给云主机重置密码,表示已安装一键式重置密码插件,结束。 如果界面弹窗提示下载重置密码脚本并安装,表示未安装一键式重置密码插件,请继续执行步骤2进行安装。 方法二:登录弹性云主机查询 a. 以root用户登录弹性云主机。 b. 执行以下命令,查询是否已安装CloudResetPwdAgent和CloudResetPwdUpdateAgent。 ls lh /Cloud 查询是否已安装一键式重置密码插件 检查结果是否如上图所示。 是,表示已安装一键式重置密码插件,结束。 否,表示未安装一键式重置密码插件,请继续执行步骤2进行安装。 2. 下载一键式重置密码插件CloudResetPwdAgent。 说明: 弹性云主机需要绑定弹性公网IP才能自动更新一键式重置密码插件。 下载并解压软件包CloudResetPwdAgent.zip。 请参考获取一键式重置密码插件,下载对应的一键式重置密码插件CloudResetPwdAgent.zip并完成完整性校验。 安装一键式重置密码插件对插件的具体放置目录无特殊要求,请您自定义。 执行以下命令,解压软件包CloudResetPwdAgent.zip。 安装一键式重置密码插件对插件的解压目录无特殊要求,请您自定义。 unzip o d 插件解压目录 CloudResetPwdAgent.zip 示例: 假设插件解压的目录为/home/linux/test,则命令行如下: unzip o d /home/linux/test CloudResetPwdAgent.zip 3. 安装一键式重置密码插件。 a. 执行以下命令,进入文件CloudResetPwdUpdateAgent.Linux。 cd CloudResetPwdAgent/CloudResetPwdUpdateAgent.Linux b. 执行以下命令,添加文件setup.sh的运行权限。 chmod +x setup.sh c. 执行以下命令,安装插件。 sudo sh setup.sh d. 执行以下命令,检查密码重置插件是否安装成功。 service cloudResetPwdAgent status service cloudResetPwdUpdateAgent status 如果服务CloudResetPwdAgent和CoudResetPwdUpdateAgent的状态均不是“unrecognized service”,表示插件安装成功,否则安装失败。 说明: 您也可以根据步骤1,检查密码重置插件是否安装成功。 如果密码重置插件安装失败,请检查安装环境是否符合要求,并重试安装操作。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        安装一键式重置密码插件(Linux)
      • 操作类
        FunctionGraph和kafka必须在同一个子网内,才可以在FunctionGraph中配置Kafka触发器吗? 是必须的。在创建函数的时候会判断子网是否相同,不允许一个VPC的不同子网进行连接。 能否在函数代码中使用线程和进程? 用户可使用编程语言和操作系统的功能,在函数中创建额外的线程和进程。 FunctionGraph函数工程打包有哪些规范(限制)? 函数除了支持在线编辑代码,还支持上传ZIP、JAR、引入OBS文件等方式上传代码。 打包规范说明 函数除了支持在线编辑代码,还支持上传ZIP、JAR、引入OBS文件等方式上传代码,函数工程的打包规范说明如表下表所示。 函数工程打包规范 编程语言 JAR包 ZIP包 OBS文件 Node.js 不支持该方式 假如函数工程文件保存在“~/Code/”文件夹下,在打包的时候务必进入Code文件夹下选中所有工程文件进行打包,这样做的目的是:入口函数是程序执行的入口,确保解压后,入口函数所在的文件位于根目录。 如果函数工程引入了第三方依赖,可以将第三方依赖打成ZIP包,在函数代码界面设置外部依赖包;也可以将第三方依赖和函数工程文件一起打包。 将工程打成ZIP包,上传到OBS存储桶。 Python 2.7 不支持该方式 假如函数工程文件保存在“~/Code/”文件夹下,在打包的时候务必进入Code文件夹下选中所有工程文件进行打包,这样做的目的是:入口函数是程序执行的入口,确保解压后,入口函数所在的文件位于根目录。 如果函数工程引入了第三方依赖,可以将第三方依赖打成ZIP包,在函数代码界面设置外部依赖包;也可以将第三方依赖和函数工程文件一起打包。 将工程打成ZIP包,上传到OBS存储桶。 Python 3.6 不支持该方式 假如函数工程文件保存在“~/Code/”文件夹下,在打包的时候务必进入Code文件夹下选中所有工程文件进行打包,这样做的目的是:入口函数是程序执行的入口,确保解压后,入口函数所在的文件位于根目录。 如果函数工程引入了第三方依赖,可以将第三方依赖打成ZIP包,在函数代码界面设置外部依赖包;也可以将第三方依赖和函数工程文件一起打包。 将工程打成ZIP包,上传到OBS存储桶。 Java 8 如果函数没有引用第三方件, 可以直接将函数工程编译成Jar包。 如果函数引用第三方件,将函数工程编译成Jar包后,将所有依赖三方件和函数jar包打成ZIP包。 将工程打成ZIP包,上传到OBS存储桶。 Go 1.x 不支持该方式 必须在编译之后打zip包,编译后的二进制文件必须与执行函数入口保持一致,例如二进制名称为Handler,则执行入口为Handler。 将工程打成ZIP包,上传到OBS存储桶。
        来自:
        帮助文档
        函数工作流
        常见问题
        操作类
      • 查看策略
        本节介绍如何查看已有应急策略。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“风险预防> 策略管理”,进入策略管理页面后选择“策略视图”页签,进入应急策略策略管理页面。 5. 应急策略管理页面默认进入“策略视图”页面,查看任务下发成功的应急策略统计情况: 策略过期分布:以饼图形式呈现“自动过期”策略占比,并统计“有自动过期”和“无自动过期”的策略数量。 策略分布:以柱状图形式呈现各个防线类型的“阻断”和“加白”策略类型的策略数量。应急策略支持的防线类型请参考约束与限制说明。 阻断区域Top5:以条形图呈现策略对象所在的区域,仅统计Top5区域的应急策略数量分布情况。 应急策略列表:以列表形式呈现应急策略基本信息。策略列表参数说明如下: 参数名称 参数说明 策略对象 策略对象,一个策略对象单独呈现一行。 当“对象类型”是“IP”时:此处呈现IP地址。 当“对象类型”是“域名”时:此处呈现单个域名。 当“对象类型”是“账号”时:此处呈现云服务账号(IAM用户名)。 策略类型 策略类型:“阻断”或“白名单”。 “阻断”:阻断的策略对象将被禁止访问。 “白名单”:加入白名单的策略对象访问请求将被放行。 对象类型 策略的对象类型。 当“策略类型”是“阻断”时,对象类型可选范围有“IP”、“账号”、“域名”。 当“策略类型”是“白名单”时,对象类型可选范围有“IP”、“域名”。 防线类型 策略的防线类型。 应急策略支持的防线类型有CFW/WAF/VPC。 区域 策略中的操作连接对应的区域。 标签 策略的标签信息。 创建人 策略的创建人信息。 自动过期 显示策略自动过期时间与当前时间的间隔。 过期时间 策略的自动过期时间点。 描述 策略的描述信息,该参数默认隐藏。单击应急策略列表上方搜索框最右侧的设置按钮,支持对应急策略列表进行如下设置: “基础设置”: “表格内容折行”:启用此能力可让表格内容自动折行,禁用此功能可截断文本。 “操作列”:启用此能力可让操作列固定在最后一列永久可见。 “自定义显示列”:自定义应急策略列表参数显示列,勾选参数前的则该参数会在列表中显示,去勾选参数前的则对应参数不在列表中显示。 创建时间 策略的创建时间。 操作 对策略进行编辑、删除等操作。详细操作指导参考[编辑策略](
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        风险预防
        策略管理
        查看策略
      • 备份NameNode数据
        本章主要介绍翼MapReduce的备份NameNode数据功能。 操作场景 为了确保NameNode日常数据安全,或者系统管理员需要对NameNode进行重大操作(如升级或迁移等),需要对NameNode数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份NameNode任务。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。 操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 仅支持“每次都全量备份”。 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“NameNode”。 7.在“NameNode”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。默认保存目录为“ 数据存放路径 /LocalBackup/”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:备集群NameNode的业务平面IP地址。 “目的端路径”:备份文件存放的位置。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “目的端路径”:填写保存备份数据的OBS目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 说明 MRS 3.1.0及之后版本才支持备份数据到OBS。 8.单击“确定”保存。 9.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备份目录中为每个备份任务创建子目录,目录名为 “备份任务名任务创建时间 ”,用于保存数据源的备份文件。 备份文件的名称为“ 版本号数据源任务执行时间 .tar.gz”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份NameNode数据
      • 创建Topic
        本文主要介绍 创建Topic。 Topic,即消息主题。创建Kafka实例成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。如果实例开启了“Kafka自动创建Topic”,则该操作为可选。 “Kafka自动创建Topic”表示在生产或消费一个未创建的Topic时,会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 Kafka实例对Topic的总分区数设置了上限, 当Topic的总分区数达到上限后,用户就无法继续创建Topic 。不同规格配置的Topic总分区数不同,具体请参考Kafka产品规格说明。 本文主要介绍手动创建Topic的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式1:在控制台创建 方式2:在Kafka Manager创建 方式3:在Kafka客户端上创建 说明 实例节点出现故障的情况下,单副本Topic查询消息时可能会报“内部服务错误”,因此不建议使用单副本Topic。 方式1:在控制台创建 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,单击“创建Topic”。 弹出“创建Topic”对话框。 图 创建Topic 步骤 6 填写Topic名称和配置信息。 表 Topic参数说明 参考 说明 Topic名称 系统为您自动生成了Topic名称,您可以根据需要修改。 创建Topic后不能修改名称。 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。 该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。 取值范围:1~200 默认值:3 副本数 您可以为每个Topic设置副本的数量,Kafka会自动在每个副本上备份数据,当其中一个Broker故障时数据依然是可用的,副本数越大可靠性越高。 该参数设置为1时,表示只有一份数据。 默认值:3 说明 实例节点出现故障的情况下,单副本Topic查询消息时可能会报“内部服务错误”,因此不建议使用单副本Topic。 老化时间(小时) 消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。 取值范围:1~720 默认值:72 同步复制 指后端收到生产消息请求并复制给所有副本后,才返回客户端。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。 当副本数为1时,不能选择同步复制功能。 同步落盘 同步落盘是指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 消息时间戳类型 定义消息中的时间戳类型,取值如下: CreateTime:生产者创建消息的时间。 LogAppendTime:broker将消息写入日志的时间。 批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“max.message.bytes”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。 步骤 7 配置完成后,单击“确定”,完成创建Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        创建Topic
      • 实时同步
        本节主要介绍实时同步 DRS支持直接同步不同schema的表到同一个schema吗 DRS支持直接同步不同schema的表到同一个schema,表不可以冲突。 DRS实时同步支持使用Online DDL工具吗 DRS MySQL到MySQL的表级增量同步支持使用Online DDL工具进行加减列的操作,需注意以下几点: 因为DRS同步机制和工具的冲突,在同步任务的“设置同步”页面,选择对象同步范围时,不能勾选“增量DDL”项。 使用Online DDL工具进行加列操作时,需先在目标库执行,然后在源库执行。 使用Online DDL工具进行减列操作时,需先在源库执行,再在目标库执行。 常见Online DDL工具: ptonlineschemachange ghost 源库Oracle为RAC集群时,为什么建议使用SCAN IP连接 源库Oracle为RAC集群时,建议使用SCAN IP+ SERVICENAMES方式创建任务,因为SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 如果需要使用SCAN IP,需要保证SCAN IP与源库的所有VIP互通,否则无法通过测试连接检查。 若不使用SCAN IP,可以使用某一节点的VIP,其他节点异常不影响同步。 关于SCAN IP的说明,可参考Oracle官网文档。 源库Oracle补全日志检查方法 Oracle数据库在Physical Standby模式下,日志会从主库直接复制,而自身不产生任何日志。针对Oracle为源的增量同步链路,DRS需要用户提前手动在主库检查补全日志是否符合要求,以保证任务的正常运行。以下检查和设置方法中, 表级:针对指定表的设置。 库级:指整个数据库级别的设置。 PK/UI:每一行日志中除了记录变更的列以外,还额外记录了该行中主键和唯一键的值。 ALL:每一行日志中记录了该行所有列的值。 以下三项检查,满足其中一项即可符合DRS增量同步的基本要求。 表级补全日志PK/UI检查(最低要求) 针对用户选择的待同步的表级对象,检查补全日志是否满足要求。 步骤 1 在源库中执行以下sql语句。 select from ALLLOGGROUPS where (LOGGROUPTYPE'UNIQUE KEY LOGGING' or LOGGROUPTYPE'PRIMARY KEY LOGGING') and OWNER'大写SCHEMA名' and TABLENAME'大写表名'; 该表名在查询结果中能同时对应到LOGGROUPTYPE值为UNIQUE KEY LOGGING和PRIMARY KEY LOGGING的两条记录,即可满足DRS增量同步要求。 步骤 1 如果不满足要求,可执行以下sql语句开启表级PK/UI级别补全日志。 alter database add supplemental log data; alter table SCHEMA名.表名add supplemental log data(primary key,unique) columns; 表级补全日志ALL检查 针对用户选择的待同步的表级对象,检查补全日志是否满足要求。 步骤 2 在源库中执行以下sql语句。 select from ALLLOGGROUPS where LOGGROUPTYPE'ALL COLUMN LOGGING' and OWNER'大写SCHEMA名' and TABLENAME'大写表名'; 该表名在查询结果中有记录,即可满足DRS增量同步要求。 步骤 2 如果不满足要求,可执行以下sql语句开启表级ALL级别补全日志。 alter database add supplemental log data; alter table SCHEMA名.表名add supplemental log data(all) columns; 库级补全日志检查 针对待同步的库级对象,检查补全日志是否满足要求。 步骤 3 在源库执行以下sql语句。 select SUPPLEMENTALLOGDATAMIN MIN, SUPPLEMENTALLOGDATAPK PK, SUPPLEMENTALLOGDATAUI UI, SUPPLEMENTALLOGDATAALL ALLLOG from v$database; 步骤 3 满足以下其中一项要求即可。 PK和UI同时为YES,即可满足DRS增量同步要求。 如果不满足要求,可执行以下sql语句开启库级PK/UI级别补全日志。 alter database add supplemental log data(primary key, unique) columns; ALLLOG为YES,即可满足DRS增量同步要求。 如果不满足要求,可执行以下sql语句开启库级ALL级别补全日志。 alter database add supplemental log data(all) columns;
        来自:
        帮助文档
        数据库复制
        常见问题
        实时同步
      • 容器客户端上传镜像
        入门指引 容器镜像服务是一种支持容器镜像全生命周期管理的服务, 提供简单易用、安全可靠的镜像管理功能,帮助用户快速部署容器化服务。本文档将帮助您学习如何安装容器引擎以及如何使用容器引擎客户端上传镜像到容器镜像仓库。 说明 上传镜像仅适用于管理控制台操作。 图 入门流程图 准备工作 在使用容器镜像服务前,您需要完成天翼云注册并实名认证的准备工作。 本文以一个2048应用为例,讲述根据该应用编写Dockerfile文件构建镜像并上传至容器镜像服务的操作。您可以编写一个Dockerfile文件,以alpine:3.7为基础镜像,来构建一个2048容器镜像。 前提条件 已安装Docker 已获取2048应用,并将该镜像下载至本地。 构建镜像 步骤1: 使用root用户登录虚拟机。 步骤2: 创建2048demo目录。 mkdir 2048demo 步骤3 :下载2048源码至2048demo目录中。 该应用源码地址为: ,详细命令可参考< t 2048demo:v1:指定镜像的名称和版本。 .:指定Dockerfile所在目录,镜像构建命令会按照Dockerfile的内容构建镜像。 步骤7 :执行以下命令,可查看到已成功构建的2048demo镜像,版本为v1。 docker images grep 2048demo 查看已构建的2048demo镜像 创建组织 组织用于隔离镜像,并为租户下用户指定不同的权限(读取、编辑、管理)。 读取:只能下载镜像,不能上传。 编辑:下载镜像、上传镜像、编辑镜像属性以及创建触发器。 管理:下载镜像、上传镜像、删除镜像或版本、编辑镜像属性、添加授权、以及共享镜像。 步骤1 :登录容器镜像服务控制台。 步骤2 :在左侧菜单栏选择“组织管理”,单击右侧“创建组织”,在弹出的页面中填写“组织名称”,然后单击“确定”。 客户端上传镜像 docker客户端上传镜像,是指使用docker命令将镜像上传到容器镜像服务的镜像仓库。 本章节以2048demo:v1镜像为例,介绍如何上传镜像。上传成功后,在“我的镜像”中显示已上传成功的镜像。 注意 使用客户端上传镜像,镜像的每个layer大小不能超过10G。 上传镜像的Docker客户端版本必须为1.11.2及以上。 步骤1:连接容器镜像服务。 a. 登录容器镜像服务控制台。 b. 在左侧菜单栏选择“我的镜像”,单击右侧“客户端上传”,在弹出的页面中单击“生成临时docker login指令”,单击 复制docker login指令。docker login指令末尾的域名即为当前镜像仓库地址,记录该地址。 说明 此处获取的docker login指令有效期为24小时,若需要长期有效的docker login指令,请参见 获取了长期有效的登录指令后,在有效期内的临时登录指令仍然可以使用。 c.在安装Docker的机器中执行上一步复制的docker login指令。 登录成功会显示“login succeeded”。 步骤2:在安装docker的机器给2048demo:v1镜像打标签。 docker tag [镜像名称:版本名称] [镜像仓库地址]/[组织名称]/[镜像名称:版本名称] 说明 镜像名称不支持多级目录格式,例如:镜像名称可命名为“2048demo”,不可命名为“2048demo/test”。 样例如下: docker tag 2048demo:v1 {Public image address}/group/2048demo:v1 其中: {Public image address}为容器镜像服务的镜像仓库地址。获取该地址的方式:单击“我的镜像”,单击镜像列表中的镜像名称,在“Pull/Push指南”页签中的“1. 本镜像地址”下可以看到镜像仓库地址。 group为组织名称,如果该组织还没有创建,容器镜像服务会根据组织名称自动创建一个组织。 2048demo:v1 为镜像名称和版本号。 步骤3:上传镜像至镜像仓库。 docker push [镜像仓库地址]/[组织名称]/[镜像名称:版本名称] 样例如下: docker push {Public image address}/group/2048demo:v1 终端显示如下信息,表明push镜像成功。 6d6b9812c8ae: Pushed 695da0025de6: Pushed fe4c16cbf7a4: Pushed v1: digest: sha256:eb7e3bbd8e3040efa71d9c2cacfa12a8e39c6b2ccd15eac12bdc49e0b66cee63 size: 948 返回系统,在“我的镜像”页面,执行刷新操作后可查看到对应的镜像信息。
        来自:
        帮助文档
        容器镜像服务
        快速入门
        容器客户端上传镜像
      • 回源URI改写
        本文介绍回源URI改写功能的适用场景和配置说明。 功能介绍 回源URI改写可以实现在用户请求需要回源时进行URI改写, 配置回源URI改写功能后,全站加速节点向源站发起回源请求时将使用改写后的URI。 适用场景 1. 源站服务器的资源所在的路径发生了变化,而用户仍然使用原来的URI,此时可在客户控制台配置回源URI改写功能,将原URI指向新的资源路径。 2. 源站内有同样的资源在多个地方复用,也可以通过回源URI改写将资源指向指定的资源路径。 注意事项 1. 回源URI改写功能只能针对请求URI进行改写,无法对URI后的参数进行改写,若要对URI后的参数进行改写,详情请见:回源参数改写。 2. URI改写会按照从上到下顺序执行规则列表,因此规则列表的顺序会影响改写结果。 3. 单个域名可配置的回源URI改写的规则上限是50条。 配置说明 1. 登录客户控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 在【回源URI改写】模块,单击【增加规则】。 6. 配置【改写模式】、【待改写PATH】、【改写后PATH】。 7. 单击【保存】,完成配置。 参数名 说明 改写模式 默认解码,对回源URI解码后改写,回源时再编码;选择编码,对回源URI原始编码改写,回源时不再编码。 待改写PATH 以/开头的URI,不含 改写后PATH 以/开头的URI,不含 操作 可删除配置。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        回源配置
        回源URI改写
      • 按需转包周期
        介绍 分布式消息服务RocketMQ的按需转包周期 本节适用于南京3、重庆2、晋中、上海7、北京5、内蒙6、石家庄20 节点。 场景描述 RocketMQ的按需转包周期的场景描述如下: 在使用RocketMQ时,可能会遇到需要设置按需转包周期的场景,例如: 消息积压处理:当RocketMQ中的消息积压较多时,可能会导致消息的消费速度跟不上消息的生产速度,进而影响系统的性能和稳定性。为了解决这个问题,可以设置按需转包周期,即将一定数量的消息打包成一个批次进行消费,以提高消费的效率和吞吐量。 业务流量波动:在某些业务场景下,业务流量可能会出现波动,即某个时间段内的消息产生速度较快,而另一个时间段内的消息产生速度较慢。为了更好地适应业务流量的波动,可以设置按需转包周期,以根据实际的消息产生情况进行灵活的批量消费。 系统资源优化:当RocketMQ的消费者资源有限时,可以通过设置按需转包周期来优化系统的资源利用。通过将一定数量的消息打包成一个批次进行消费,可以减少消费者的竞争和上下文切换,提高系统的并发处理能力。 消息处理延迟优化:在某些场景下,对消息的实时性要求较低,可以通过设置按需转包周期来优化消息的处理延迟。将一定数量的消息打包成一个批次进行消费,可以减少消息的处理次数,从而降低消息的处理延迟。 需要注意的是,在设置按需转包周期时,应根据实际业务需求和系统情况进行调整。同时,应考虑消息的重要性、消费者的处理能力、系统的资源限制等因素,以确保系统的稳定性和性能。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        按需转包周期
      • 设置环境变量
        操作场景 环境变量是指容器运行环境中设定的一个变量,环境变量可以在工作负载部署后修改,为工作负载提供极大的灵活性。 CCE中设置的环境变量与Dockerfile中的“ENV”效果相同。 在CCE中,您可以通过三种方式来添加环境变量:手动添加、密钥导入、配置项导入。 须知: 容器启动后,容器中的内容不应修改。如果修改配置项(例如将容器应用的密码、证书、环境变量配置到容器中),当容器重启(例如节点异常重新调度pod)后,会导致配置丢失,业务异常。 配置信息应通过入参等方式导入容器中,以免重启后配置丢失。 手动添加 步骤 1 创建工作负载时,添加容器镜像后,展开“环境变量”,单击“添加环境变量”。 步骤 2 根据实际需求,设置如下参数。 类型:手动添加。 变量名称:自定义填写变量名称,如demo。 变量/变量引用:输入变量的值,如value。 密钥导入 步骤 1 您需要先创建密钥,详细步骤请参见创建密钥。 步骤 2 创建工作负载时,添加容器镜像后,展开“环境变量”,单击“添加环境变量”。 步骤 3 根据实际需求,设置如下参数。 类型: 密钥导入。 变量名称: 自定义填写变量名称。 变量/变量引用: 请选择对应的密钥名称和键。 密钥导入 配置项导入 步骤 1 您需要先创建配置项,详细步骤请参见创建配置项。 步骤 2 创建工作负载时,添加容器镜像后,展开“环境变量”,单击“添加环境变量”。 步骤 3 根据实际需求,设置如下参数。 类型: 配置项导入。 变量名称: 自定义填写变量名称。 变量/变量引用: 请选择对应的配置项名称和键。 配置项导入
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        设置环境变量
      • 创建工作负载弹性伸缩(CustomedHPA)
        本文主要介绍如何创建工作负载弹性伸缩(CustomedHPA)。 CustomedHPA策略是自研的弹性伸缩增强能力,能够基于指标(CPU利用率、内存利用率)或周期(每天、每周、每月或每年的具体时间点),对无状态工作负载进行弹性扩缩容。 主要功能如下: 支持按照当前实例数的百分比进行扩缩容。 支持设置一次扩缩容的最小步长。 支持按照实际指标值执行不同的扩缩容动作。 前提条件 使用CustomedHPA策略必须安装ccehpacontroller。若ccehpacontroller版本低于1.2.11,则必须安装prometheus插件;若版本大于或等于1.2.11,则需要安装能够提供Metrics API的插件,如kubeprometheusstack、metricsserver或Prometheus。 约束与限制 CustomedHPA策略:仅支持1.15及以上版本的集群创建。 每个工作负载只能创建一个策略,即如果您创建了一个HPA策略,则不能再对其创建CustomedHPA策略或其他HPA策略,您可以删除该HPA策略后再创建。 1.19.10以下版本的集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,当新Pod被调度到另一个节点时,会导致之前Pod不能正常读写。 1.19.10及以上版本集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,新Pod会因为无法挂载云硬盘导致无法成功启动。 ccehpacontroller插件的资源使用量主要受集群中总容器数量和伸缩策略数量影响,通常场景下建议每5000容器配置CPU 500m, 内存1000Mi资源,每1000伸缩策略CPU 100m,内存500Mi。 若ccehpacontroller插件版本低于1.2.11,不支持使用kubeprometheusstack插件提供Metrics API来实现工作负载弹性伸缩。
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        工作负载弹性伸缩
        创建工作负载弹性伸缩(CustomedHPA)
      • TeleDB管控服务安装部署
        单节点配置 eth0 10.218.14.144 22 idc1 teledb Car@87v5@K5 OssCenterMasterConfdbEtcd 这里是master 高可用三节点控制台的配置 eth0 10.218.14.144 22 idc1 teledb Car@87v5@K5 OssCenterMasterConfdbEtcd eth0 10.218.14.145 22 idc1 teledb Car@87v5@K5 OssCenterSlaveConfdbEtcd eth0 10.218.14.146 22 idc1 teledb Car@87v5@K5 OssCenterSlaveConfdbEtcd 高可用版本: 单机版本: 执行如下命令修改配置文件ossinit.conf plaintext vim ossinit.conf 这文件就改控制台安装目录这一个地方,其他不用动 cat ossinit.conf PGXZOSUSERteledbx PGXZOSPSWD'4MPhD%gKeNMy' PGXZOSHOME/app/teledbx 只修改这里的安装目录 if [ $(cat /etc/systemrelease grep i centos wc l) "1" ]; then PGXZOSNAMEcentos else PGXZOSNAMEctyunos fi PGXZOSBINDIR${PGXZOSHOME}/install PGXZOSDATADIR${PGXZOSHOME}/data CONFDBOSDATADIR${PGXZOSHOME}/confdb PGXZOSETHeth${PGXZOSUSER} PGXZYUMDIR$(cd ../teledbxmirror; pwd) PGXZYUMPORT8018 5. 安装控制台 执行如下命令安装控制台。 plaintext su teledb cd /app/teledbdeployx86centos/teledbxmgr/ sh teledbxmgr.sh install 安装过程中出现选项,输入Y即可。 当出现如下回显信息,表示安装成功。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        安装部署手册
        安装过程
        TeleDB管控服务安装部署
      • TeleDB管控服务安装部署
        单节点配置 eth0 10.218.14.144 22 idc1 teledb Car@87v5@K5 OssCenterMasterConfdbEtcd 这里是master 高可用三节点控制台的配置 eth0 10.218.14.144 22 idc1 teledb Car@87v5@K5 OssCenterMasterConfdbEtcd eth0 10.218.14.145 22 idc1 teledb Car@87v5@K5 OssCenterSlaveConfdbEtcd eth0 10.218.14.146 22 idc1 teledb Car@87v5@K5 OssCenterSlaveConfdbEtcd 高可用版本: 单击版本: 执行如下命令修改配置文件ossinit.conf plaintext vim ossinit.conf 这文件就改控制台安装目录这一个地方,其他不用动 cat ossinit.conf PGXZOSUSERteledbx PGXZOSPSWD'4MPhD%gKeNMy' PGXZOSHOME/app/teledbx 只修改这里的安装目录 if [ $(cat /etc/systemrelease grep i centos wc l) "1" ]; then PGXZOSNAMEcentos else PGXZOSNAMEctyunos fi PGXZOSBINDIR${PGXZOSHOME}/install PGXZOSDATADIR${PGXZOSHOME}/data CONFDBOSDATADIR${PGXZOSHOME}/confdb PGXZOSETHeth${PGXZOSUSER} PGXZYUMDIR$(cd ../teledbxmirror; pwd) PGXZYUMPORT8018 5. 安装控制台 执行如下命令安装控制台 plaintext su teledb cd /app/teledbdeployx86centos/teledbxmgr/ sh teledbxmgr.sh install 安装过程中出现选项,输入Y即可。 当出现如下回显信息,表示安装成功。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        安装部署手册
        安装过程
        TeleDB管控服务安装部署
      • 合规保留
        介绍配置合规保留的具体步骤。 适用场景 媒体存储提供合规保留(WORM)功能,开启合规保留后,处于合规保留期的对象均“不可删除、不可篡改”。 规则启用后,用户可以在Bucket中上传和读取文件(Object),但是在Object的保留时间到期之前,任何用户都不能修改、覆盖、删除处于合规保留期的对象;Object的保留时间到期后,才可以删除Object。 前提条件 登媒体存储控制台。 已完成新建Bucket操作,具体可参考 新建Bucket 。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 注意事项 规则生效: 一个Bucket支持添加一条WORM规则,WORM规则创建后,状态默认为【未启用】。用户需主动启用规则。 规则启用后,规则不可禁用、不可删除,且无法缩短保护时间,只可延长保护时间。 启用后的规则不可删除。 保留时间精确到秒,如对象A的最后更新时间为202171 12:00:00,保护周期1天,则A会在202172 12:00:01过合规保留期。 关于Bucket操作: 如当前Bucket有生效的WORM规则,且有处于合规保留期内的文件,则无法通过控制台、API、SDK删除Bucket。 如当前Bucket有生效的WORM规则,但没有处于合规保留期期的文件,或者Bucket为空,则可以删除Bucket,从而间接删除WORM规则。 对于对象的操作: 如对象处于保护周期,则无法通过控制台、API、SDK修改、覆盖、删除对象。 若设置了生命周期 删除文件的操作,需要等对象过了合规保留期后才可生效。
        来自:
        帮助文档
        媒体存储
        控制台指南
        对象存储
        数据安全
        合规保留
      • Teledb公共库安装部署
        该任务用于指导软件工程师安装部署teledb公共配置库。 前提条件 已初始化环境。 操作步骤 请您参照如下步骤安装teledb公共库。 1. 上传部署包 上传monitor 控制台安装包:teledbtelemonitor . tar到/app 目录下的teledb目录。 2. 解压部署包执行如下命令解压monitor控制台部署包 tar zxvf teledbtelemonitor .tar.gz C /app/teledb 3. 手动安装部署依赖(单节点只需初始化部署主机,高可用需要初始化每一台主机) 执行如下命令,进入package/envinit/x86目录。 cd package/envinit/x86 执行如下命令,解压部署包。 tar zxvf envInitx86.tar.gz 得到如下目录: envInit/ envInit/installjdk.sh envInit/jdk/ envInit/jdk/jdk8u201linuxx64.tar.gz envInit/sshpass1.062.el7.x8664.rpm envInit/pv1.4.61.el7.x8664.rpm envInit/lz41.7.53.el7.x8664.rpm envInit/libaio0.3.10913.el7.x8664.rpm 执行如下命令,安装jdk。 cd envInit/ sh installjdk.sh 出现如下回显信息,表示安装成功。 install and config java success. 安装成功后,执行如下命令更新环境变量。 source /etc/profile 执行如下命令安装部署依赖。 rpm ivh force nodeps nosignature libaio0.3.10913.el7.x8664.rpm rpm ivh force nodeps nosignature lz41.7.53.el7.x8664.rpm rpm ivh force nodeps nosignature pv1.4.61.el7.x8664.rpm rpm ivh force nodeps nosignature sshpass1.062.el7.x8664.rpm (可选)执行如下命令,检查perl是否安装。 yum install y perl 4. 部署monitor控制台 执行如下命令,进入目录 cd /app/teledb cd consoledeploy/conf/ Vi tele.ini 参考如下内容,修改tele.ini配置文件 ;package and directory info [package] ;cputype 填写范围 ,指预置区的芯片类型 x86、arm CPUTYPEx86 PACKAGEMAINDIR/app
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        Teledb公共库安装部署
      • 数据库使用
        DWS数据库设置主键后还需要设置分布键吗? 仅设置主键即可,默认会选择主键的第一列作为分布键。如果两个同时设置,主键必须包含分布键。 DWS是否兼容PostgreSQL的存储过程? 兼容。 DWS兼容PostgreSQL的存储过程,请参见《开发指南》的“存储过程”章节。 如何理解分区表、数据分区和分区键? 分区表:分区表是把逻辑上的一张表根据某种方案分成几张物理块进行存储。这张逻辑上的表称之为分区表,物理块称之为分区。分区表是一张逻辑表,不存储数据,数据实际是存储在分区上的。 数据分区:在DWS分布式系统中,数据分区是在一个节点内部按照用户指定的策略对数据做进一步的水平分表,将表按照指定范围划分为多个数据互不重叠的部分(Partition)。 分区键:分区键是一个或多个表列的有序集合。表分区键列中的值用来确定每个表行所属的数据分区。 分区表中指定了maxvalue分区时如何再添加新的分区 问题背景 用户在最初建表时指定了Maxvalue分区后,数据被写入该分区,如下图中的40001,当用户需要新建一个40000~50000的分区时报错:upper boundary of adding partition MUST overtop last existing partition. 根据报错提示,不能新增分区的原因是:分区的上边界必须大于最后一个现有分区的上边界。即若需要新增40000~50000的分区,需调整分区表分区中的上边界,若直接删除Maxvalue分区再新建分区可能会导致原有p8分区数据被删除。
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        数据库使用
      • ALM-29005 Impalad JDBC连接数超过阈值
        本章节主要介绍ALM29005 Impalad JDBC连接数超过阈值的告警。 告警解释 以30s为周期检测连接到该Impalad节点的客户端连接数,当检测到的连接数超过自定义阈值(默认60)时,系统产生此告警。 当系统检测到客户端连接数减少到阈值以下时,告警将自动解除。 告警属性 告警ID 告警级别 是否自动清除 29005 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称 服务名 产生告警的服务名称 角色名 产生告警的角色名称 主机名 产生告警的主机名 Trigger Condition 系统当前指标取值满足自定义的告警设置条件 对系统的影响 后续新建立客户端连接可能会阻塞甚至失败。 可能原因 该Impalad服务维护的客户端链接过多,或者阈值设定的太小。 处理步骤 1. 在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > Impala > 连接数 > 已经连接到Impalad进程的JDBC数量” ,检查设置的阈值大小。 2. 检查连接到当前Impalad的JDBC应用数,并关闭闲置的应用,观察告警是否自动清除。 是,处理完毕。 否,执行步骤3,修改并发客户端连接数。 3. 在FusionInsight Manager首页,选择“集群 > Impala > 配置 > 全部配置 > Impalad > 自定义”,增加自定义参数 feservicethreads,该参数默认值64,请按照需要修改该值,单击“保存”按钮保存配置。 4. 在所有客户端的查询任务都执行完成后,选择“实例”页签,勾选所有“Impalad”实例并重启。 5. 重启完成后告警将消失,请重新运行使用JDBC方式连接Impalad的应用。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-29005 Impalad JDBC连接数超过阈值
      • ALM-29006 Impalad ODBC连接数超过阈值
        本章节主要介绍ALM29006 Impalad ODBC连接数超过阈值的告警。 告警解释 以30s为周期检测连接到该Impalad节点的客户端连接数,当检测到的连接数超过自定义阈值(默认60)时,系统产生此告警。 当系统检测到客户端连接数减少到阈值以下时,告警将自动解除。 告警属性 告警ID 告警级别 是否自动清除 29006 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称 服务名 产生告警的服务名称 角色名 产生告警的角色名称 主机名 产生告警的主机名 Trigger Condition 系统当前指标取值满足自定义的告警设置条件 对系统的影响 后续新建立客户端连接可能会阻塞甚至失败。 可能原因 该Impalad服务维护的客户端连接过多,或者阈值设定的太小。 处理步骤 1. 在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > Impala > 连接数 > 已经连接到Impalad进程的ODBC数量" ,检查阈值大小。 2. 检查连接到当前Impalad进程的ODBC应用数,并关闭闲置的应用,观察告警是否自动清除。 是,处理完毕。 否,执行步骤3,修改并发Impalad支持的并发连接数。 3. 在FusionInsight Manager首页,选择“集群 > Impala > 配置 > 全部配置 > Impalad > 自定义”,增加自定义参数 feservicethreads,该参数默认值64,请按照需要修改该值,单击“保存”按钮保存配置。 4. 在所有客户端的查询任务都执行完成后,选择“实例”页签,勾选所有“Impalad”实例并重启。 5. 重启完成后告警将消失,请重新运行使用ODBC方式连接Impalad的应用。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-29006 Impalad ODBC连接数超过阈值
      • ALM-18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值
        本章节主要介绍ALM18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值的告警。 告警解释 系统每60秒周期性检测JobHistoryServer进程的垃圾回收(GC)占用时间,当检测到JobHistoryServer进程的垃圾回收(GC)时间超出阈值(默认12秒)时,产生该告警。 垃圾回收(GC)时间小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 18012 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 JobHistoryServer进程的垃圾回收时间过长,可能影响该JobHistoryServer进程正常提供服务。 可能原因 该节点JobHistoryServer实例堆内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > ALM18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值 > 定位信息”。查看告警上报的实例的IP地址。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > MapReduce > 实例 > JobHistoryServer(对应上报告警实例IP地址)”,单击图表区域右上角的下拉菜单,选择“定制 > 垃圾回收”,勾选“JobHistoryServer垃圾回收(GC)时间”。查看JobHistoryServer每分钟的垃圾回收时间统计情况。 3.查看JobHistoryServer每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Mapreduce > 配置 > 全部配置 > JobHistoryServer > 系统”。将“GCOPTS”参数根据实际情况调大。 说明 历史任务数10000和JobHistoryServer内存的对应关系如下: Xms30G Xmx30G XX:NewSize1G XX:MaxNewSize2G 5.保存配置,并重启JobHistoryServer实例。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值
      • ALM-16007 Hive GC 时间超出阈值
        本章节主要介绍ALM16007 Hive GC 时间超出阈值的告警。 告警解释 系统每60秒周期性检测Hive服务的GC时间,当检测到Hive服务的GC时间超出阈值(连续3次检测超过12秒)时产生该告警。用户可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Hive”修改阈值。当Hive GC时间小于或等于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 16007 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 GC时间超出阈值,会影响到Hive数据的读写。 可能原因 该节点Hive实例内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“16007”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 告警上报的角色是HiveServer,执行步骤2。 告警上报的角色是MetaStore,执行步骤3。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的HiveServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > GC”,勾选“HiveServer的GC时间” ,单击“确定”,查看GC时间是否大于12秒。 是,执行步骤4。 否,执行步骤7。 3.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的MetaStore,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > GC”,勾选“MetaStore的GC时间” ,单击“确定”,查看GC时间是否大于12秒。 是,执行步骤4。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16007 Hive GC 时间超出阈值
      • 备份Hive业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“Hive > Hive”。 7.在“Hive”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 8.在“最大恢复点个数”填写备份任务在本集群中备份可保留的快照数量。 9.在“备份内容”中,选择一个或多个需要备份的Hive表。 支持两种方式选择备份数据: 直接选择 单击导航中某个数据库的名称,将展开显示此数据库中的所有表,勾选指定的表。 正则表达式筛选 a. 单击“正则表达式输入”。 b. 根据界面提示,在第一个输入框填写Hive表所在的数据库,需要与当前存在的数据库完全匹配。例如“defalut”。 c. 在第二个输入框输入正则表达式,支持标准正则表达式。例如要筛选数据库中所有的表,输入“([sS] ?)”。例如要筛选命名规则为字母数字组合的表,如tb1可输入“tbd ”。 d. 单击“刷新”,在“目录名称”查看筛选的表。 e. 单击“同步”保存筛选结果。 说明 输入正则表达式时,可以使用和增加或删除一条表达式。 如果已选择的表或目录不正确,可以单击“清除选中节点”清除勾选。 10.单击“校验”查看备份任务的配置是否正确。 校验失败可能存在以下原因: 目的端NameNode IP地址不正确。 队列名称不正确。 待备份的数据文件所在HDFS路径的父目录或子目录存在HDFS快照。 待备份的目录或表不存在。 NameService名称不正确。 11.单击“确定”保存。 12.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备集群的备份路径中为每个备份任务创建子目录,目录名为 “备份任务名数据源任务创建时间” ,数据源每次备份的最新备份文件保存在此目录中。所有备份文件集保存在对应的快照目录中。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份Hive业务数据
      • 功能类
        数据库安全审计支持数据库部署在哪些操作系统上? 您需要在数据库端、应用端或代理端安装Agent,将添加的数据库连接到数据库安全审计实例。 数据库安全审计的Agent可运行在Linux64位和Windows64位操作系统上,安装节点的操作系统说明如下所示。 数据库安全审计的Agent支持的Linux系统版本如表所示。 系统名称 系统版本 CentOS CentOS 6.3 (64bit) CentOS 6.5 (64bit) CentOS 6.8 (64bit) CentOS 6.9 (64bit) CentOS 7.0 (64bit) CentOS 7.1 (64bit) CentOS 7.2 (64bit) CentOS 7.3 (64bit) CentOS 7.4 (64bit) CentOS 7.5 (64bit) CentOS 7.6 (64bit) Debian Debian 7.5.0 (64bit) Debian 8.2.0 (64bit) Debian 8.8.0 (64bit) Debian 9.0.0 (64bit) Fedora Fedora 24 (64bit) Fedora 25 (64bit) OpenSUSE SUSE 13 (64bit) SUSE 15 (64bit) SUSE 42 (64bit) SUSE SUSE 11 SP4 (64bit) SUSE 12 SP1 (64bit) SUSE 12 SP2 (64bit) Ubuntu Ubuntu 14.04 (64bit) Ubuntu 16.04 (64bit) Ubuntu 18.04 (64bit) Ubuntu 20.04 (64bit) EuerOS Euer 2.2 (64bit) Euer 2.3 (64bit) Euer 2.5 (64bit) OpenEuer OpenEuer 20.03 (64bit) Orace inux Orace inux 6.9 (64bit) Orace inux 7.4 (64bit) RedHat Red Hat Enterprise inux 7.4 (64bit) Red Hat Enterprise inux 7.6 (64bit) NeoKyin NeoKyin 7.0 (64bit) Kyin Kyin inux Advanced Server reease V10 (64bit) Uniontech OS Uniontech OS Server 20 Enterprise (64bit) 数据库安全审计的Agent支持的Windows系统版本如下所示: Windows Server 2008 R2(64bit) Windows Server 2012 R2(64bit) Windows Server 2016(64bit) Windows 7(64bit) Windows 10(64bit) DBSS Agent的运行依赖Npcap,如果安装过程中提示"Npcap not found,please install Npcap first",请安装Npcap后,再安装DBSS Agent。 Npcap下载链接:
        来自:
        帮助文档
        数据库安全
        常见问题
        功能类
      • 1
      • ...
      • 208
      • 209
      • 210
      • 211
      • 212
      • ...
      • 231
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      轻量型云主机

      弹性高性能计算 E-HPC

      训推服务

      应用托管

      科研助手

      一站式智算服务平台

      知识库问答

      人脸实名认证

      推荐文档

      常见问题

      玩转天翼云⑥:Windows主机开启2个远程终端

      基本概念

      分析指标历史数据并导出监控报告

      故障辅助定界

      产品退订

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号