云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      VPC终端节点_相关内容
      • 计费类
        section49bbf3dd441b752d)。 3880 39576 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0 SaaS版 标准版域名扩展包 1个域名扩展包支持10个域名,其中支持添加1个主域名(备案的域名)。 600 6120 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0 SaaS版 标准版业务扩展包 一个业务扩展包包含1000QPS/个,最多支持30个业务扩展包,每增加一个业务扩展包,可增加50Mbps带宽弹性上限,100Mbps带宽保护上限。 1000 10200 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0 SaaS版 标准版规则扩展包 一个规则扩展包包含50条防护规则/域名,当前仅适用IP黑白名单防护模块。 70 714 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0独享版 单机版(1节点/实例) 支持01Gbps的业务防护,默认业务请求峰值3000QPS(200Mbs),默认防护域名(不区分主域名、子域名)/IP(公网IP、私网IP)个数100个/实例,防护端口数最大支持65535个(常用端口除外),更多信息请参见[产品规格](
        来自:
        帮助文档
        云等保专区
        常见问题
        计费类
      • 功能特性
        本文带您了解分布式消息服务RocketMQ的功能特性。 消息生产 消息压缩:将较大的消息进行压缩后发送到服务端,有效利用带宽。 延迟消息:设计消费时延,消息发送到服务端后,过了预设时间才可以被消费。 事务消息:根据预设的事务,事务消息可保证分布式系统之间的数据最终一致。 消息消费 有序消费:支持普通有序消息和严格有序消息两种方式。 集群消费:一个主题可被一个或多个消费者组消费,消费者组中消费者实例可平均分摊消费信息。 消费位置设置:支持设置消费组首次启动消费的位置,包括队列头、队列尾及由客户端指定。 消息回溯:支持按时间回溯消费进度,将订阅组在某主题上的消费进度重置到过去或者未来。 完善的运维能力 应用用户管理:集群租户隔离,应用接入集群权限管理。 主题管理:支持对实例下的主题进行管理,执行创建删除等操作。 订阅组管理:支持对实例下的订阅组进行管理。 生产者和消费者管理:用户可查看当前实例下的生产者和消费者信息,并实时更新。 消息查询:按消息ID、消息逻辑偏移量、消息key。 完善的运维功能,节点状态检测、启停;实例状态检测、启停;SLA监控等。 顺序消息 顺序消息是指消费消息的顺序要同发送消息的顺序一致,在RocketMQ中,主要有两种有序消息:全局有序消息和局部有序消息(又称普通有序消息、分区有序消息)。 普通有序消息:在正常情况下可以保证完全的顺序消息,但是一旦发生通信异常造成Broker重启,队列总数发生变化,哈希取模后定位的队列会变化,因此会产生短暂的消息顺序不一致。如果业务能容忍在集群异常情况(如某个Broker宕机或者重启)下消息短暂的乱序,使用普通顺序方式比较合适。 严格有序消息:无论正常异常情况都能保证顺序,但是牺牲了分布式Failover特性,即Broker集群中只要有一台机器不可用,则整个集群都不可用(或者影响hash 值对应队列的使用),服务可用性大大降低。如果服务器部署为同步双写模式,此缺陷可通过备机自动切换为主避免,不过仍然会存在几分钟的服务不可用。
        来自:
      • 操作流程
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        其他云PostgreSQL迁移到RDS for PostgreSQL
        操作流程
      • 容器组
        本节介绍了容器组的用户指南。 基本概念 容器组(Pod)是Kubernetes中最小的可部署单元。一个Pod(容器组)包含了一个应用程序容器(某些情况下是多个容器)、存储资源、一个唯一的网络IP地址、以及一些确定容器该如何运行的选项。Pod容器组代表了Kubernetes中一个独立的应用程序运行实例,该实例可能由单个容器或者几个紧耦合在一起的容器组成。 操作场景 Kubernetes集群中的Pod存在如下两种使用途径: 一个Pod中只运行一个容器。"onecontainerperpod" 是Kubernetes中最常见的使用方式。此时,您可以认为Pod容器组是该容器的wrapper,Kubernetes通过Pod管理容器,而不是直接管理容器。 一个Pod中运行多个需要互相协作的容器。您可以将多个紧密耦合、共享资源且始终在一起运行的容器编排在同一个Pod中,可能的情况有: 1、Content management systems,file and data loaders, local cache managers等 2、log and checkpoint backup,compression, rotation, snapshotting等 3、data change watchers, logtailers, logging and monitoring adapters, event publishers等 4、proxies, bridges, adapters等 5、controllers, managers,configurators, and updaters 您可以在云容器引擎中方便的管理容器组(Pod),如查看YAML、远程登录、销毁重建等操作。 前提条件 您需要存在一个可用集群,若没有可用集群,请参照集群开通中内容创建。 操作步骤及说明 1、查看YAML 1)登录云容器引擎控制台,在左侧导航栏中选择“工作负载 > 容器组” 2)单击实例列表中后的“查看YAML” 2、销毁重建 1)登录云容器引擎控制台,在左侧导航栏中选择“工作负载 > 容器组” 2)单击实例列表中后的“销毁重建 请仔细阅读系统提示,删除操作无法恢复,请谨慎操作。 说明 若Pod所在节点不可用或者关机,负载无法删除时可以在详情页面实例列表选择强制删除。请确保要删除的存储没有被其他负载使用,导入和存在快照的存储只做解关联操作。 3、远程登录 1)登录云容器引擎控制台,在左侧导航栏中选择“工作负载 > 容器组” 2)单击实例列表中后的“远程登录” 3)在弹出的对话框中点击“登录”
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(旧版)
        容器组
      • 设置SSL数据加密
        本文为您介绍如何设置SSL数据加密,提升实例连接的安全性。 注意 仅V5.1.9.6020.2531及以后版本的实例,支持该功能。 前提条件 实例状态为运行中。 背景信息 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器。 加密数据以防止数据中途被窃取。 维护数据的完整性,确保数据在传输过程中不被改变。 开启SSL加密 在使用SSL加密功能前,您需要开启SSL加密,操作步骤如下: 注意 开启SSL后,您需要手动重启全部节点,才能生效。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录单击数据库安全 ,然后单击连接加密页签,进入SSL加密管理页面。 5. 单击SSL设置。 6. 在SSL设置 对话框中,打开SSL链路加密 开关,并配置验证模式。 标准模式:仅开启SSL加密但不使用SSL自带的二次验证,主要兼容历史应用系统配置。 CA模式:需要下载CA证书并上传客户端进行验证,CA证书存在有效期(默认为10年)需定期更换。 7. 单击提交。 如果您不再需要使用SSL加密,只需在SSL设置 对话框中,关闭SSL链路加密开关即可。 8. 如果您的SSL加密验证模式 为CA模式,则您还需要在控制台下载自动生成的SSL自签名证书包。 在SSL加密管理页面,单击CA证书 参数右侧的下载证书,系统自动下载证书包(包含ca、server和client证书),请妥善保存。 注意 证书默认有效期为10年,您可以根据实际情况,单击证书到期时间 参数右侧的重新生成证书,重新生成证书并下载到本地。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        数据库安全
        设置SSL数据加密
      • 文件解压缩
        介绍配置文件解压缩的具体步骤。 功能说明 媒体存储提供压缩文件自动解压功能,配置规则后,符合规则的压缩文件都会进行自动解压后上传到对象存储中。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 前提条件 已完成新建Bucket操作,具体可参考 新建Bucket 。 操作步骤 1. 登录媒体存储控制台,进入【对象存储Bucket列表】菜单。 2. 选择需要配置文件解压缩的存储桶,并点击【基础配置】页签。 3. 在【压缩包解压设置】模块,点击【添加规则】。 说明 一个Bucket可创建10条解压规则。 4. 在弹窗填写相关规则内容,并勾选“我知晓并同意授予天翼云媒体存储服务访问存储桶资源的权限”完成配置。 配置参数说明 参数 是否必填 说明 规则名称 是 规则名称需在当前桶唯一,不能超过255个字符。 前缀 是 填写触发解压规则的资源前缀。不支持首个字符为"/"或包含“//”。配置前缀后,上传带有该前缀的ZIP包会触发在线解压。 为避免触发循环执行,因此文件前缀为必填项。 后缀 否 如需要解压的文件后缀与解压格式不一致,则需填写此项。您可根据实际情况填写。 解压格式 是 支持zip、rar、tar,一条规则仅支持一种解压格式。上传的文件后缀与解压格式一样的,将优先解压。如后缀与解压格式不一致,您可通过“后缀”字段进行配置。 目标前缀 是 填写解压文件保存的目标前缀。 1.只能以字母或数字开头。 2.可用数字、中英文和可见字符的组合。 3.用 / 分割路径,可快速创建子目录。 4.不允许:连续 / ;以 / 开头; 以空格开头;包含 “..” 或 “+”。 5.不超过100个字符。 保留源文件 是 选择解压完成后,是否还保留源文件。 回调地址 否 如您需要接受解压完成的回调信息,可填写回调服务地址,包括协议头。 回调鉴权 是 根据业务情况选择回调地址是否需要鉴权,如需鉴权,选择【是】,并填写鉴权所需的Access Key和Secret access key信息。
        来自:
        帮助文档
        媒体存储
        控制台指南
        对象存储
        基础配置
        文件解压缩
      • 定时任务管理
        本页介绍天翼云TeleDB数据库定时任务管理。 操作场景 TeleDB支持对数据库实例执行定时任务,该功能主要通过内置如下函数对数据库实例执行定时任务管理。用户可自行调整对定时任务的执行频率以及查看执行记录。 TeleDB内置了如下函数,所有函数会根据执行频率自动执行任务。 collectdbstatistic:用于数据库实例更新统计信息。 pgcleantwophase:用于数据库实例清理两阶段残留事务。 pgunlockdeadlock:用于处理死锁。 deleteossstatistics:用于删除配置库存储过期的节点监控数据。 deleteslowquery:用于删除过期的慢日志数据。 deleteerrlog:用于删除过期的错误日志数据。 checkxlogbkp:用于检查备份的增量日志的连续性。 deleteaudit:用于删除管控配置库中过期的审计日志数据。 checkfgaaudit:用于检查细粒度审计是否采集到数据。 deletehighfrequencyquery:用于删除管控配置库中存储过期的高频SQL数据。 deletesnapshot:用于删除管控的实例配置库中存储过期的实例运行快照数据。 queryindexadvice:用于对慢sql查询生成相应的索引优化建议。 操作步骤 1. 切换至TeleDB控制台,在左侧导航单击实例列表。 2. 单击目标实例所在行的详情 ,进入实例详情页面。 3. 进入实例详情页面,单击定时任务 。 4. 您可通过控制定时任务开关管理是否定时执行该任务。 5. 单击实例详情操作列的配置 ,出现配置执行频率对话框。 6. 在配置执行频率对话框,输入频率 和周期 ,单击确定 ,完成执行频率的修改。 7. 单击历史记录可以查看以往执行该任务详情。 8. 单击立即执行 ,出现提示信息对话框。 9. 在提示对话框中,单击确定可立即执行定时任务。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        维护管理实例
        定时任务管理
      • 运维指导
        本章节主要介绍SQL作业相关问题中有关运维指导的问题。 SQL作业运行慢如何定位 作业运行慢可以通过以下步骤进行排查处理。 可能原因1:FullGC原因导致作业运行慢 判断当前作业运行慢是否是FullGC导致: 1.登录DLI控制台,单击“作业管理 > SQL作业”。 2.在SQL作业页面,在对应作业的“操作”列,单击“更多 > 归档日志”。 3.在OBS目录下,获取归档日志文件夹,详细如下。 −Spark SQL作业: 查看带有“driver”或者为“container xxx 000001”的日志文件夹则为需要查看的Driver日志目录。 −Spark Jar作业: Spark Jar作业的归档日志文件夹以“batch”开头。 4.进入归档日志文件目录,在归档日志文件目录下,下载“gc.log.”日志。 5.打开已下载的“gc.log.”日志,搜索“Full GC”关键字,查看日志中是否有时间连续,并且频繁出现“Full GC”的日志信息。 FullGC问题原因定位和解决: 原因1 小文件过多 :当一个表中的小文件过多时,可能会造成Driver内存FullGC。 1.登录DLI控制台,选择SQL编辑器,在SQL编辑器页面选择问题作业的队列和数据库。 2.执行以下语句,查看作业中表的文件数量。“ 表名 ”替换为具体问题作业中的表名称。 select count(distinct fn) FROM (select inputfilename() as fn from 表名) a 3.如果小文件过多,则可以参考SQL作业相关问题章节“作业开发如何合并小文件”来进行处理。 原因2 广播表 :广播也可能会造成Driver内存的FullGC。 1. 登录DLI控制台,单击“作业管理 > SQL作业”。 2. 在SQL作业页面,在对应作业所在行,单击按钮,查看作业详情,获取作业ID。 3. 在对应作业的“操作”列,单击“Spark UI”,进入“Spark UI”页面。 4. 在“Spark UI”页面,在上方菜单栏选择“SQL”。参考下图,根据作业ID,单击Description中的超链接。 5. 查看对应作业的DAG图,判断是否有BroadcastNestedLoopJoin节点。 作业的DAG图。 6. 如果存在广播,则参考下方“SQL作业中存在join操作,因为自动广播导致内存不足,作业一直运行中”处理。 可能原因2:数据倾斜
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        SQL作业相关问题
        运维指导
      • 设置三权分立
        本章节主要介绍设置三权分立 。 操作场景 默认情况下,创建DWS集群时指定的管理员用户属于数据库的系统管理员,能够创建其他用户和查看数据库的审计日志,即权限不分立,三权分立模式为关闭。 为了保护集群数据的安全,DWS支持对集群设置三权分立,使用不同类型的用户分别控制不同权限的模式。 默认的权限模型和开启三权分立后的权限模型,请参见《数据仓库服务用户开发指南》的“管理数据库安全 > 管理用户及权限 > 三权分立”章节。 对系统的影响 修改安全配置参数并保存生效可能需要重启集群,将导致集群暂时不可用。 前提条件 修改集群安全配置必须同时满足以下两个条件: 集群状态为“可用”或“非均衡”。 任务信息不能处于“创建快照中”、“节点扩容”、“配置中”或“重启中”。 操作步骤 1. 登录DWS 管理控制台。 2. 在左侧导航树中,单击“集群管理”。 3. 在集群列表中,单击指定集群的名称,然后单击“安全设置”。 默认显示“配置状态”为“已同步”,表示页面显示的是数据库当前最新结果。 4. 在“安全设置”页面,设置三权分立。 表示开启三权分立模式。开启“三权分立”后,分别设置“安全管理员”和“审计管理员”的用户名和密码,系统将会创建这两个用户。使用这两个用户可以连接数据库并执行数据库的相关操作。 表示关闭三权分立模式。默认为关闭状态。 详见下表:安全配置参数说明 参数名 参数解释 样例值 安全管理员 用户命名要求如下: 只能由小写字母、数字或下划线组成。 必须以小写字母或下划线开头。 长度为6~64个字符。 用户名不能为DWS数据库的关键字。 DWS数据库的关键字,具体请参见《数据仓库服务数据库开发指南》中“SQL参考>关键字”章节。 securityadmin 密码 密码复杂度要求如下: 密码长度为8~32个字符。 不能与用户名或倒序的用户名相同。 密码至少包含大写字母、小写字母、数字和特殊字符四类中的三类,其中可输入的特殊字符为:(~!?,.:;'"(){}[]/<>@
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群安全管理
        设置三权分立
      • ALM-14015 DataNode进程垃圾回收(GC)时间超过阈值
        本章节主要介绍 ALM14015 DataNode进程垃圾回收(GC)时间超过阈值的告警。 告警解释 系统每60秒周期性检测DataNode进程的垃圾回收(GC)占用时间,当检测到DataNode进程的垃圾回收(GC)时间超出阈值(默认12秒)时,产生该告警。 垃圾回收(GC)时间小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 14015 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 DataNode进程的垃圾回收时间过长,可能影响该DataNode进程正常提供服务。 可能原因 该节点DataNode实例堆内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,单击告警“ALM14015 DataNode进程垃圾回收(GC)时间超过阈值”所在行的下拉菜单,在“定位信息”中查看告警上报的角色名并确定实例的IP地址。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS > 实例 > DataNode(对应上报告警实例IP地址)”,单击图表区域右上角的下拉菜单,选择“定制 > 垃圾回收”,勾选“DataNode垃圾回收(GC)时间”。查看DataNode每分钟的垃圾回收时间统计情况。 3.查看DataNode每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS > 配置 > 全部配置 > DataNode > 系统”。将“GCOPTS”参数值根据实际情况调大。 说明 单个DataNode实例平均Block数量和DataNode内存的对应关系参考值如下: 单个DataNode实例平均Block数量达到2,000,000,DataNode的JVM参数参考值为:Xms6G Xmx6G XX:NewSize512M XX:MaxNewSize512M。 单个DataNode实例平均Block数量达到5,000,000,DataNode的JVM参数参考值为:Xms12G Xmx12G XX:NewSize1G XX:MaxNewSize1G。 5.保存配置,并重启该DataNode实例。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14015 DataNode进程垃圾回收(GC)时间超过阈值
      • 使用Yarn客户端
        本章节主要介绍使用Yarn客户端 。 操作场景 该任务指导用户在运维场景或业务场景中使用Yarn客户端。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由系统管理员根据业务需要创建。安全模式下,“机机”用户需要下载keytab文件。“人机”用户第一次登录时需修改密码。普通模式不需要下载keytab文件及修改密码操作。 使用Yarn客户端 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 5. 直接执行Yarn命令。例如: yarn application list 客户端常见使用问题 1. 当执行Yarn客户端命令时,客户端程序异常退出,报“java.lang.OutOfMemoryError”的错误。 这个问题是由于Yarn客户端运行时的所需的内存超过了Yarn客户端设置的内存上限(默认为128MB)。对于MRS 3.x后续版本集群,可以通过修改“ /HDFS/componentenv”中的“CLIENTGCOPTS”来修改Yarn客户端的内存上限。例如,需要设置该内存上限为1GB,则设置: export CLIENTGCOPTS"Xmx1G" 对于MRS 3.x之前版本集群,可以通过修改“ /HDFS/componentenv”中的“GCOPTSYARN”来修改Yarn客户端的内存上限。例如,需要设置该内存上限为1GB,则设置: export GCOPTSYARN"Xmx1G" 在修改完后,使用如下命令刷新客户端配置,使之生效: source /bigdataenv 2. 如何设置Yarn客户端运行时的日志级别? Yarn客户端运行时的日志是默认输出到Console控制台的,其级别默认是INFO级别。有的时候为了定位问题,需要开启DEBUG级别日志,可以通过导出一个环境变量来设置,命令如下: export YARNROOTLOGGERDEBUG,console 在执行完上面命令后,再执行Yarn Shell命令时,即可打印出DEBUG级别日志。 如果想恢复INFO级别日志,可执行如下命令: export YARNROOTLOGGERINFO,co
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Yarn客户端
      • 包周期实例转按需计费
        本节主要介绍包周期实例转按需计费 。 GeminiDB Influx支持将包周期(包年/包月)实例转为按需计费实例。对于到期后不再长期使用资源的包周期实例,可以选择转按需操作,到期后将转为按需计费实例。 使用须知 包周期实例状态为“正常”时才能转按需计费。 目前仅集群版本支持此功能,单节点暂不支持。 单个包周期实例转按需 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,选择目标实例,在操作列单击“转按需”,进入转按需页面。 图1 包周期转按需 4. 在转按需页面,核对实例信息无误后,单击“转按需”。包周期实例将在到期后转为按需计费实例。 注意 转按需成功后,自动续费将会被关闭,请谨慎操作。 5. 转按需申请提交后,在目标实例的“计费方式”列,会提示实例到期后转按需。 6. 如需取消转按需,您可以在费用中心的“续费管理”页签,在目标实例的“操作”列,选择“更多 > 取消转按需”。 7. 在弹出框中,单击“确定”,取消转按需申请。 包周期实例批量转按需 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,勾选目标实例,单击实例列表上方“转按需”。 图2 包周期批量转按需 4. 在弹出框中单击“是”,进入“包周期转按需”页面。 5. 在转按需页面,核对实例信息无误后,单击“转按需”。包周期实例将在到期后转为按需计费实例。 注意 转按需成功后,自动续费将会被关闭,请谨慎操作。 6. 转按需申请提交后,在目标实例的“计费方式”列,会提示实例到期后转按需。 7. 如需取消转按需,您可以在费用中心的“续费管理”页签,在目标实例的“操作”列,选择“更多 > 取消转按需”。 8. 在弹出框中,单击“确定”,取消转按需申请。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        计费管理
        包周期实例转按需计费
      • iptables与IPVS如何选择
        本文主要介绍 iptables与IPVS如何选择。 kubeproxy是Kubernetes集群的关键组件,负责Service和其后端容器Pod之间进行负载均衡转发。 CCE当前支持iptables和IPVS两种转发模式,各有优缺点。 IPVS: 吞吐更高,速度更快的转发模式。适用于集群规模较大或Service数量较多的场景。 iptables: 社区传统的kubeproxy模式。适用于Service数量较少或客户端会出现大量并发短链接的场景。 约束与限制 IPVS模式集群下,Ingress和Service使用相同ELB实例时,无法在集群内的节点和容器中访问Ingress,因为kubeproxy会在ipvs0的网桥上挂载LB类型的Service地址,Ingress对接的ELB的流量会被ipvs0网桥劫持。建议Ingress和Service使用不同ELB实例。 iptables iptables 是一个 Linux 内核功能,提供了大量的数据包处理和过滤方面的能力。它可以在核心数据包处理管线上用 Hook 挂接一系列的规则。iptables 模式中 kubeproxy 在 NAT prerouting Hook 中实现它的 NAT 和负载均衡功能。 kubeproxy 的用法是一种 O(n) 算法,其中的 n 随集群规模同步增长,这里的集群规模,更明确的说就是服务和后端 Pod 的数量。 IPVS IPVS(IP Virtual Server)是在Netfilter上层构建的,并作为Linux内核的一部分,实现传输层负载均衡。IPVS可以将基于TCP和UDP服务的请求定向到真实服务器,并使真实服务器的服务在单个IP地址上显示为虚拟服务。 IPVS 模式下,kubeproxy 使用 IPVS 负载均衡代替了 iptables。这种模式同样有效,IPVS 的设计就是用来为大量服务进行负载均衡的,它有一套优化过的 API,使用优化的查找算法,而不是简单的从列表中查找规则。 kubeproxy 在 IPVS 模式下,其连接过程的复杂度为 O(1)。换句话说,多数情况下,他的连接处理效率是和集群规模无关的。 IPVS 包含了多种不同的负载均衡算法,例如轮询、最短期望延迟、最少连接以及各种哈希方法等。而 iptables 就只有一种随机平等的选择算法。 IPVS相较于iptables的优势大致如下: 1. 为大型集群提供了更好的可扩展性和性能 2. 支持比iptables更好的负载均衡算法 3. 支持服务器健康检查和连接重试等功能
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        购买集群
        iptables与IPVS如何选择
      • 配置CNAME
        本文介绍如何配置CNAME。 要启用应用加速服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到应用加速节点上,达到加速效果。 1.在控制台【域名管理】的域名列表中复制加速域名对应的CNAME。 2.前往您的域名解析(DNS)服务商(如万网、阿里云解析、DNSPod、新网、腾讯云解析、route 53、godaddy等),添加该CNAME记录。配置CNAME完毕,CNAME配置生效后,应用加速服务也会立即生效。 注意 CNAME配置生效时间:新增CNAME记录会实时生效,而修改CNAME记录生效时间取决于客户设置的TTL时间。 添加时如遇添加冲突,可考虑换一个加速域名,或参考以下“解析记录互斥规则” 调整记录。 解析记录互斥规则如下: 在提示冲突的时候,说明已经有对应的记录,不允许重复添加或者说不能添加对应的记录,说明如下。在RR值相同的情况下,同一条线路下,在几种不同类型的解析中不能共存(X为不允许): X:在相同的RR值情况下,同一条线路下,不同类型的解析记录不允许共存。如:已经设置了example.ctyun.cn的A记录,则不允许再设置 example.ctyun.cn的CNAME记录.。 无限制:在相同的RR值情况下,同一条线路下,不同类型的解析记录可以共存。如:已经设置了example.ctyun.cn的A记录,则还可以再设置example.ctyun.cn的MX记录。 可重复: 指在同一类型下,同一条线路下,可设置相同的多条RR值。如:已经设置了example.ctyun.cn的A记录,还可以再设置example.ctyun.cn的A记录。 3.验证应用加速服务是否生效。 配置CNAME后,不同的服务商CNAME生效的时间也不同,一般新增的CNAME记录会立即生效,修改的CNAME记录生效时间取决于客户设置的TTL时间。 您可以ping或dig您所添加的加速域名,如果被指向.ctycdn.com,即表示CNAME配置已经生效,应用加速服务也已生效。
        来自:
        帮助文档
        应用加速(文档停止维护)
        快速入门
        配置CNAME
      • ALM-24001 Flume Agent异常
        本章节主要介绍ALM24001 Flume Agent异常的告警。 告警解释 Flume Agent监控模块对Flume Agent状态进行监控,当Flume Agent进程故障(每5秒检测一次)或Flume Agent启动失败时(即时上报告警),系统产生此告警。 当检测到Flume Agent进程故障恢复,Flume Agent启动成功,且告警处理完成时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 24001 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 AgentId 产生告警的Agent ID。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 可能原因 JAVAHOME目录不存在或JAVA权限异常。 Flume Agent目录权限异常。 Flume Agent启动失败。 处理步骤 检查JAVAHOME目录是否存在或JAVA权限是否正确 1.以root用户登录故障节点IP所在主机。 2.执行以下命令获取发生告警的Flume客户端安装目录。(AgentId可以在告警的“定位信息”中获取) ps efgrep AgentId grep v grep awk F 'conffile ' '{print $2}' awk F 'fusioninsight' '{print $1}' 3.使用“su Flume安装用户”命令切换到Flume安装用户,执行cd Flume 客户端安装目录 /fusioninsightflume1.9.0/conf/ 命令,进入Flume的配置目录。 4.执行cat ENVVARS grep JAVAHOME命令。 5.检查JAVAHOME目录是否存在,若步骤4执行结果返回不为空,且 ll $JAVAHOME/ 不为空,则JAVAHOME目录存在。 是,执行步骤7。 否,执行步骤6。 6.指定正确的JAVAHOME目录。 7.执行$JAVAHOME/bin/java version命令检查Flume Agent运行用户是否有JAVA可执行权限,若可以查到java版本,这说明JAVA权限满足,否则不满足。 是,执行步骤9。 否,执行步骤8。 说明 JAVAHOME为安装Flume客户端时export导出的环境变量,也可以进入到Flume 客户端安装目录 /fusioninsightflume1.9.0/conf目录下,执行cat ENVVARS grep JAVAHOME命令来查看变量的值。 8.执行chmod 750 $JAVAHOME/bin/java命令赋予Flume Agent运行用户JAVA可执行权限。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-24001 Flume Agent异常
      • 评估迁移时间与测试传输速度
        本文为您介绍如何评估迁移任务时间及测试传输速度。 介绍说明 迁移时长总数据量÷(带宽大小/8)1.25。 1.25为时间冗余量;由于云主机性能瓶颈、存在大文件改动多、小文件多等情况,可能存在无法跑满带宽与保持高速率传输,留存冗余,避免由于时间预估导致项目仓促;可根据情况自由调整误差系数。 说明 数据量与带宽单位需统一(GB/MB)。 数据量单位为Byte。 带宽单位(K/M/Gbps)。 iperf3测试结果bandwidth单位(Gbits/sec)等同于带宽Gbps,千兆比特每秒。 迁移带宽以迁移源出口带宽、目的端入口带宽、CMS平台中限制带宽中最小带宽为准。 操作步骤 若需要较为严格的时间预估建议通过软件进行测试: 1. 根据源端云主机的OS类型下载对应iperf版本。 2. 在源端云主机和目的端云主机(或者目的端云主机同一Region下的其他弹性云云主机)某一个目录下解压iperf工具。例如在Windows操作系统的iperf工具: 3. 在目的端云主机上,以命令行方式运行iperf(服务端模式运行,以Windows操作系统为例): 执行以下命令,进入iperf目录。 cd /d path 其中,path指步骤2中iperf工具解压后在目的端云主机中的路径。 执行以下命令,以服务端运行iperf。 iperf3 p port s 其中,port表示iperf工具的服务端监听端口,建议Windows操作系统使用8900端口(8900为目的端云主机使用的数据传输端口),Linux操作系统使用22端口(22为目的端云主机使用的数据传输端口)。您测试的时候也可以使用其他端口,但要保证目的端云主机安全组规则允许开放该TCP或者UDP端口。更多的参数使用说明,请使用iperf h查看。 以Windows操作系统使用8900端口为例,当回显信息为Server listening on 8900时,表明服务端已经运行就绪。 4. 在源端云主机上,以命令行方式运行iperf(客户端模式运行),测试TCP带宽和UDP的抖动、丢包率和带宽(以Windows操作系统为例)。 执行以下命令,进入iperf目录 cd /d path 其中,path指步骤2中iperf工具解压后在源端云主机中的路径。 执行以下命令,运行iperf工具,测试TCP带宽。 iperf3 c targetIP p port t time 其中,c是客户端模式运行。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会进行带宽(Bandwidth)测试,测试结束后查看结果即可: 执行以下命令,运行iper测试UDP的抖动、丢包率和带宽。 iperf3 c targetIP p port u t time 其中,u表示测试UDP的抖动、丢包率和带宽。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会测试UDP的抖动(Jitter)、丢包率(Lost/Total Datagrame)和带宽(Bandwidth),测试结束后查看结果即可。 若需要测试网络时延,可以使用ping命令。 ping targetiP targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 需要配置目的端云主机所在的VPC的安全组规则,允许ICMP协议报文通过。 5. 执行以下命令,获取更多的iperf的使用帮助。或者参照官网指导获取相应的使用帮助。 iperf3 h
        来自:
      • 通过内网连接MySQL实例
        说明:本章节会介绍如何通过弹性云主机通过内网连接数据库实例 提供两种连接方式通过MySQL客户端连接实例:普通连接和SSL连接。其中,SSL连接实现了数据加密功能,具有更高的安全性。 前提条件 登录弹性云服务器。 通过弹性云服务器连接关系型数据库实例,需要具备以下条件。 该弹性云服务器与目标实例必须处于同一VPC、子网内。 该弹性云服务器必须处于目标实例所属安全组允许访问的范围内。 如果目标实例所属安全组为默认安全组, 则无需设置安全组规则。 如果目标实例所属安全组非默认安全组,请查看安全组规则是否允许该弹性云服务器访问。具体操作请参考步骤二:设置安全组规则。 如果安全组规则允许弹性云服务器访问,即可连接实例。 如果安全组规则不允许弹性云服务器访问,则需添加安全组规则。该弹性云服务器必须处于目标实例所属安全组允许访问的范围内。 使用客户端连接实例。 您可以在Linux操作系统和Windows操作系统中,使用数据库客户端连接RDS实例。 在Linux操作系统中,您需要在可访问关系型数据库的设备上安装MySQL客户端。建议您下载的MySQL客户端版本应该高于已创建的RDS实例中数据库版本。 在Windows操作系统中,您可以使用任何通用的数据库客户端连接到RDS实例且连接方法类似。 使用MySQLFront连接实例 步骤 1 启动MySQLFront客户端。 步骤 2 在连接管理对话框中,单击“新建”。 图1 连接管理 步骤 2 输入需要连接的关系型数据库实例信息,然后单击“确定”。 图2 添加信息 表1 参数说明 参数 说明 名称 连接数据库的任务名称。若不填写,系统默认与Host一致。 主机 目标实例的内网地址。查看目标实例的内网地址及端口信息的步骤如下: 1. 登录关系型数据库服务的管理控制台。 2. 选择目标实例所在区域。 3. 单击目标实例名称,进入“基本信息”页面。 4. 在“连接信息”模块,可查看“内网地址”信息。 端口 输入RDS实例的内网端口。 用户 需要访问RDS实例的账号名称。默认root。 密码 要访问关系型数据库实例的帐号所对应的密码。 步骤 3 在“连接管理”窗口,选中步骤3创建的连接,单击“打开”,如下图所示。若连接信息无误,即会成功连接实例。 图3 打开登录信息 SSL连接 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称进入“基本信息”页面,单击“数据库信息”模块“SSL”处的,下载根证书或捆绑包。 步骤 5 将根证书导入弹性云服务器Linux操作系统。 关系型数据库服务在2017年4月提供了20年有效期的新根证书,该证书在实例重启后生效。请在原有根证书到期前及时更换正规机构颁发的证书,提高系统安全性。 关系型数据库服务还提供根证书捆绑包下载,其中包含2017年4月之后的新根证书和原有根证书。 步骤 6 连接关系型数据库实例。以Linux系统为例,执行如下命令。 mysql h P u p sslca 表2 参数说明 参数 说明 内网地址。在目标实例的“基本信息”页面,“连接信息”模块的“内网地址”。 数据库端口,默认3306。在目标实例的“基本信息”页面,“连接信息”模块的“数据库端口”。 用户名,即关系型数据库帐号(默认管理员帐号为root)。 相应的SSL证书文件名,该文件需放在执行该命令的路径下。 使用root用户SSL连接数据库实例,示例如下: mysql h 172.16.0.31 P 3306 u root p sslcaca.pem 出现如下提示时,输入数据库帐号对应的密码: Enter password:
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        快速入门
        通过内网连接MySQL实例
        通过内网连接MySQL实例
      • 数据订阅
        本节主要介绍数据订阅 AOM支持用户订阅指标或者告警信息,订阅后可以将数据转发到用户配置的kafka或DMS的Topic中,供消费者消费转发的订阅的信息。 说明 最多可创建10个数据订阅规则。 创建订阅规则 步骤 1 在左侧导航栏中选择“配置管理 > 数据订阅”。 步骤 2 单击“创建订阅规则”,设置相关参数后,单击“确定”。 您可根据实际需求,选择订阅目标类型为“自定义Kafka”或“分布式消息服务DMS”。 1、订阅目标类型为“自定义Kafka”。 数据订阅规则参数说明 参数 说明 示例 规则名称 订阅规则名称。 输入:aomkafkatest。 订阅内容 支持“指标”和“告警”。 选择:指标。 订阅目标类型 选择“自定义Kafka”或“分布式消息服务DMS”。 自定义Kafka 订阅目标连接地址 用户自己的kafka地址,需要打通网络。格式为逗号分割的ipv4:port。例如: 192.168.0.1:9092,192.168.0.2:9092 根据实际情况填写。 a.(可选)进入到“规则详情”,单击 ,配置Kafka SASLSSL,参数如下表所示。 说明 AOM当前仅支持Kafka SASLSSL安全认证配置,如果目前实例已经开启Kafka SASLSSL,请打开此开关。 配置Kafka SASLSSL参数 参数 说明 示例 用户名 SASL用户名用于实例访问认证。 demo 密码 SASL密码用于实例访问认证,请妥善管理密码,系统无法获取您设置的密码内容。 客户端证书 请采用.pem格式的客户端证书 b.单击“验证并保存自定义Kafka配置信息”,验证自定义Kafka实例连通性。 c.选择数据发送topic后,单击“确定”。 2、订阅目标类型选择“分布式消息服务DMS”,请参考下表配置参数。 数据订阅规则参数说明 参数 说明 示例 规则名称 订阅规则名称 输入:aomkafkatest。 订阅内容 支持“指标”和“告警”。 选择:指标。 订阅目标类型 选择“自定义Kafka”或“分布式消息服务DMS”。 分布式消息服务DMS 实例 选择DMS实例,如没有DMS实例,请单击“创建DMS实例”,创建DMS实例。 kafkaaom7160 a. 进入到“规则详情”,单击“创建网络连接通道”。 b. 验证DMS实例连通性。 您需要确保在安全组"入方向规则"中,放通9011端口,源地址为"198.19.128.0/20"的网络流量。设置安全组规则操作如下: i. 登录管理控制台。 ii. 在左侧导航栏,单击 ,选择“网络 > 虚拟私有云 VPC”。 iii. 在左侧导航栏单击“访问控制 > 安全组”,在使用DMS所在的安全组右侧,单击“配置规则”。 iv. 在“入方向规则”页签下,单击“添加规则”,放通9011端口、源地址为“198.19.128.0/20”的网络流量。 c. 单击“验证并保存DMS配置信息”。 d. 选择数据发送topic后,单击“确定”。 数据订阅格式说明 AOM格式的指标JSON格式代码片断 package metric type MetricDatas struct { Metrics []Metrics json:"metrics" ProjectId string json:"projectid" } type Metrics struct { Metric Metric json:"metric" Values []Value json:"values" CollectTime int64 json:"collecttime" } type Metric struct { Namespace string json:"namespace" Dimensions []Dimension json:"dimensions" } type Value struct { Value interface{} json:"value" Type string json:"type" Unit string json:"unit" StatisticValues string json:"statisticvalues" MetricName string json:"metricname" } type Dimension struct { Name string json:"name" Value string json:"value" } kafka消息示例 key:, value:{"metrics":[{"metric":{"namespace":"PAAS.NODE","dimensions":[{"name":"nodeName","value":"testvsscopmaster1"},{"name":"nodeIP","value":"1.1.1.1"},{"name":"hostID","value":"75d9711147344c6cae9ef6111111111"},{"name":"nameSpace","value":"default"},{"name":"clusterId","value":"46a7bc0d1d8b11ea9b04333333333333333"},{"name":"clusterName","value":"testvss111"},{"name":"diskDevice","value":"vda"},{"name":"master","value":"true"}]},"values":[{"value":0,"type":"","unit":"Kilobytes/Second","statisticvalues":"","metricname":"diskReadRate"},{"value":30.267,"type":"","unit":"Kilobytes/Second","statisticvalues":"","metricname":"diskWriteRate"}],"collecttime":1597821030037}],"projectid":"111111111111111111111"} 告警数据格式说明 示例: { "events": [{ "id": "4346299651651991683", "startsat": 1597822250194, "endsat": 0, "arrivesat": 1597822250194, "timeout": 300000, "resourcegroupid": "312313123112222222222232131312131", "metadata": { "kind": "Pod", "eventseverity": "Major", "resourcetype": "service", "clusterId": "6add4ef5135811eaa5bf111111111", "eventtype": "alarm", "clusterName": "cceief4516140c96ca4a5f8d851111111", "namespace": "PAAS.NODE", "name": "test15769793809553052f5557bd7fqnfkm", "eventname": "调度失败
        来自:
        帮助文档
        应用运维管理
        用户指南
        配置管理
        数据订阅
      • 新建MRS Hive连接
        参数 是否必选 说明 数据连接名称 是 数据连接的名称,只能包含英文字母、数字、下划线和中划线,且长度为1~50个字符。 标签 否 标识数据连接的属性。设置标签后,便于统一管理。 说明 标签的名称,只能包含中文、英文字母、数字和下划线,不能以下划线开头。且长度不能超过100个字符。 集群名 是 选择Hive所属的MRS集群。如果在下拉列表中无法显示MRS集群,请检查MRS集群与DataArts Studio实例是否网络互通。 需确保MRS集群和DataArts Studio实例之间网络互通,网络互通需满足如下条件: DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,MRS集群可以访问公网且防火墙规则已开放连接端口。 DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见 连接方式 是 选择所需的连接方式,推荐使用“通过代理连接”。 通过代理连接:通过Agent(即CDM集群)进行代理,以MRS集群的用户名和密码访问MRS集群。代理连接方式支持MRS所有版本的集群。 MRS API连接:以MRS API的方式访问MRS集群。MRS API连接仅支持2.X及更高版本的MRS集群。 选择MRS API连接时,有以下约束: 1. 无法查看表和字段。 2. 在SQL编辑器运行SQL时,只能以日志形式显示执行结果。 3. 数据治理(如数据架构、数据质量、数据目录等组件)功能无法使用MRS API连接。 说明 为保证数据架构、数据质量、数据目录、数据服务等组件能够使用此MRS连接,此处连接方式推荐配置为“通过代理连接”。 用户名 否 MRS集群的用户名,通过代理连接的时候,是必选项。如果使用新建的MRS用户进行连接,您需要先登录Manager页面,并更新初始密码。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以参考 说明 MRS 3.1.0及之后版本集群,所创建的用户至少需具备Managerviewer的角色权限才能在管理中心创建连接;如果需要对应组件的进行库、表、数据的操作,还需要添加对应组件的用户组权限。 MRS 3.1.0版本之前的集群,所创建的用户需要具备Manageradministrator或Systemadministrator权限,才能在管理中心创建连接。 仅具备Managertenant或Managerauditor权限,无法创建连接。 密码 否 MRS集群的访问密码,通过代理连接的时候,是必选项。 KMS密钥 否 KMS密钥名称。通过代理连接的时候,是必选项。 绑定Agent 否 通过代理连接的时候,是必选项。 MRS为非全托管服务,DataArts Studio无法直接与非全托管服务进行连接。CDM集群提供了DataArts Studio与非全托管服务通信的代理,所以创建MRS的数据连接时,请选择一个CDM集群。如果没有可用的CDM集群,请先通过数据集成增量包进行创建。 CDM集群作为网络代理,必须和MRS集群网络互通才可以成功创建MRS连接,为确保两者网络互通,CDM集群必须和MRS集群处于相同的区域、可用区、VPC和子网,安全组规则需允许两者网络互通。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        管理控制台
        使用教程
        新建MRS Hive连接
      • Manager日志清单
        日志类型 日志文件名 描述 Controller运行日志 controller.log 记录组件安装、升级、配置、监控、告警和日常运维操作日志。 Controller运行日志 controllerclient.log Rest接口运行日志。 Controller运行日志 acs.log Acs运行日志。 Controller运行日志 acsspnego.log acs中spnego用户日志 Controller运行日志 aos.log Aos运行日志。 Controller运行日志 plugin.log Aos插件日志 Controller运行日志 backupplugin.log 备份恢复进程运行日志 Controller运行日志 controllerconfig.log 配置运行日志 Controller运行日志 controllernodesetup.log Controller加载任务日志 Controller运行日志 controllerroot.log Controller进程系统日志 Controller运行日志 controllertrace.log Controller与NodeAgent之间RPC通信日志 Controller运行日志 controllermonitor.log 监控日志 Controller运行日志 controllerfsm.log 状态机日志 Controller运行日志 controlleralarm.log Controller发送告警日志 Controller运行日志 controllerbackup.log Controller备份恢复日志 Controller运行日志 install.log,restorepackage.log,installPack.log,distributeAdapterFiles.log,installosoptimization.log oms安装日志 Controller运行日志 omsctl.log oms启停日志 Controller运行日志 preInstallclient.log 客户端安装前预处理日志 Controller运行日志 installntp.log ntp安装日志 Controller运行日志 modifymanagerparam.log 修改Manager参数日志 Controller运行日志 backup.log OMS备份脚本运行日志 Controller运行日志 supressionAlarm.log 告警脚本运行日志 Controller运行日志 om.log 生成om证书日志 Controller运行日志 backuppluginctl.log 备份恢复插件进程启动日志 Controller运行日志 getLogs.log 采集日志脚本运行日志 Controller运行日志 backupAuditLogs.log 审计日志备份脚本运行日志 Controller运行日志 certStatus.log 证书定期检查日志 Controller运行日志 distribute.log 证书分发日志 Controller运行日志 ficertgenetrate.log 证书替换日志,包括生成二级证书、cas证书、httpd证书的日志。 Controller运行日志 genPwFile.log 生成证书密码文件日志 Controller运行日志 modifyproxyconf.log 修改HTTPD代理配置的日志 Controller运行日志 importTar.log 证书导入信任库日志 Httpd install.log Httpd安装日志 Httpd accesslog, errorlog Httpd运行日志 logman logman.log 日志打包工具日志。 NodeAgent install.log,installosoptimization.log NodeAgent安装日志 NodeAgent installntp.log ntp安装日志 NodeAgent startntp.log ntp启动日志 NodeAgent ntpChecker.log ntp检查日志 NodeAgent ntpMonitor.log ntp监控日志 NodeAgent heartbeattrace.log NodeAgent与Controller心跳日志 NodeAgent alarm.log 告警日志 NodeAgent monitor.log 监控日志 NodeAgent nodeagentctl.log,startagent.log NodeAgent启动日志 NodeAgent agent.log NodeAgent运行日志 NodeAgent cert.log 证书日志 NodeAgent agentplugin.log 监控agent侧插件运行日志 NodeAgent omaplugin.log OMA插件运行日志 NodeAgent diskhealth.log 磁盘健康检查日志 NodeAgent supressionAlarm.log 告警脚本运行日志 NodeAgent updateHostFile.log 更新主机列表日志 NodeAgent collectLog.log 节点日志采集脚本运行日志 NodeAgent hostmetriccollect.log 主机指标采集运行日志 NodeAgent checkfileconfig.log 文件权限配置检查运行日志 NodeAgent entropycheck.log 熵值检查运行日志 NodeAgent timer.log 节点定时调度日志 NodeAgent pluginmonitor.log 组件监控插件日志 NodeAgent agentalarmpy.log NodeAgent检查文件权限发送告警日志 okerberos addRealm.log,modifyKerberosRealm.log 切域日志 okerberos checkservicedetail.log Okerberos健康检查日志 okerberos genKeytab.log 生成keytab日志 okerberos KerberosAdmingenConfigDetail.log 启动kadmin进程时,生成kadmin.conf的运行日志 okerberos KerberosServergenConfigDetail.log 启动krb5kdc进程时,生成krb5kdc.conf的运行日志 okerberos omskadmind.log kadmin进程的运行日志 okerberos omskerberosinstall.log,postinstalldetail.log okerberos安装日志 okerberos omskrb5kdc.log krbkdc运行日志 okerberos startdetail.log okerberos启动日志 okerberos realmDataConfigProcess.log 切域失败,回滚日志 okerberos stopdetail.log okerberos停止日志 oldapserver ldapserverbackup.log Oldapserver备份日志 oldapserver ldapserverchkservice.log Oldapserver健康检查日志 oldapserver ldapserverinstall.log Oldapserver安装日志 oldapserver ldapserverstart.log Oldapserver启动日志 oldapserver ldapserverstatus.log Oldapserver进程状态检查日志。 oldapserver ldapserverstop.log Oldapserver停止日志 oldapserver ldapserverwrap.log Oldapserver服务管理日志。 oldapserver ldapserveruninstall.log Oldapserver卸载日志 oldapserver restartservice.log Oldapserver重启日志 oldapserver ldapserverunlockUser.log 记录解锁Ldap用户和管理帐户的日志 metricagent gc.log MetricAgent JAVA虚拟机gc日志 metricagent metricagent.log MetricAgent运行日志 metricagent metricagentqps.log MetricAgent内部队列长度及qps信息记录日志 metricagent metricagentroot.log MetricAgent所有运行日志 metricagent start.log MetricAgent启停信息日志 omm omsconfig.log OMS配置日志 omm checkomsheartbeat.log OMS心跳运行日志 omm monitor.log OMS监控日志 omm hamonitor.log HAMonitor操作日志 omm ha.log HA操作日志 omm fms.log 告警日志 omm fmsha.log 告警的HA监控日志 omm fmsscript.log 告警控制日志 omm config.log 告警配置日志 omm iam.log IAM日志 omm iamscript.log IAM控制日志 omm iamha.log IAM的HA监控日志 omm config.log IAM配置日志 omm operatelog.log IAM操作日志 omm heartbeatcheckha.log OMS心跳的HA监控日志 omm installoms.log OMS安装日志 omm pmsha.log 监控的HA监控日志 omm pmsscript.log 监控控制日志 omm config.log 监控配置日志 omm plugin.log 监控插件运行日志 omm pms.log 监控日志 omm ha.log HA运行日志 omm cepha.log CEP的HA监控日志 omm cepscript.log CEP控制日志 omm cep.log CEP日志 omm config.log CEP配置日志 omm ommgaussdba.log gaussdb的HA监控日志 omm gaussdb.log gaussdb运行日志 omm gsctl.log gaussdb控制日志的归档日志 omm gsctlcurrent.log gaussdb控制日志 omm gsguccurrent.log gaussdb操作日志 omm encrypt.log omm加密日志 omm ommagentctl.log OMA控制日志 omm omamonitor.log OMA监控日志 omm installoma.log OMA安装日志 omm configoma.log OMA配置日志 omm ommagent.log OMA运行日志 omm acs.log acs资源日志。 omm aos.log aos资源日志 omm controller.log controller资源日志 omm feedwatchdog.log feedwatchdog资源日志 omm floatip.log floatip资源日志 omm hantp.log ntp资源日志 omm httpd.log httpd资源日志 omm okerberos.log okerberos资源日志 omm oldap.log oldap资源日志 omm tomcat.log tomcat资源日志 omm sendalarm.log 管理节点HA告警发送脚本运行日志 timestamp restartstamp NodeAgent启动时间 tomcat cas.log,localhostaccesscaslog.log cas运行日志 tomcat catalina.log,catalina.out,hostmanager.log,localhost.log,manager.log tomcat运行日志 tomcat localhostaccessweblog.log 记录访问FusionInsight Manager系统REST接口的日志 tomcat web.log web进程运行日志 tomcat northboundftpsftp.log,snmp.log 北向日志 tomcat perfStats.log 性能数据统计日志 watchdog watchdog.log,feedwatchdog.log watchdog.log运行日志 updateservice ommupdserver.log updserver的运行日志 updateservice ommupdagent.log updagent的运行日志 updateservice updatemanager.log updmanager的运行日志 updateservice install.log 升级服务安装日志 updateservice uninstall.log 升级服务卸载日志 updateservice catalina.<时间>.log,catalina.out,hostmanager.<时间>.log,localhost.<时间>.log,manager.<时间>.log,manageraccesslog.<时间>.txt,webserviceaccesslog.<时间>.txt,catalina.log,gcupdateservice.log.0.current,updatemanager.controller,updatewebservice.controller,updatewebservice.log,commitrmdistributed.log ,commitrmuploadpackage.log,commonomagentoperator.log,forbidmonitor.log,initializepackageatoms.log,initializeunzippack.log,ommupd.log,registerpatchpack.log,resumemonitor.logrollbackclearpatch.log,unregisterpatchpack.log,updatercommupd.log,updatercupdatemanager.log,updateservice.log 升级服务运行日志 upgrade upgrade.log<时间> 升级OMS日志 upgrade rollback.log<时间> 回滚OMS日志 sudo sudo.log sudo脚本执行日志
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        日志管理
        Manager日志清单
      • 配置DWS目的端参数
        参数类型 参数名 说明 取值样例 基本参数 模式或表空间 待写入数据的数据库名称,支持自动创建Schema。单击输入框后面的按钮可选择模式或表空间。 schema 基本参数 自动创表 只有当源端为关系数据库时,才有该参数。表示写入表数据时,用户选择的操作: 不自动创建:不自动建表。 不存在时创建:当目的端的数据库没有“表名”参数中指定的表时,CDM会自动创建该表。如果“表名”参数配置的表已存在,则不创建,数据写入到已存在的表中。 先删除后创建:CDM先删除“表名”参数中指定的表,然后再重新创建该表。 当选择在DWS端自动创表时,DWS的表与源表的字段类型映射关系见在DWS端自动建表时的字段类型映射。 不自动创建 基本参数 表名 写入数据的目标表名,单击输入框后面的按钮可进入表的选择界面。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 table 基本参数 是否压缩 导入数据到DWS且选择自动创表时,用户可以指定是否压缩存储。 否 基本参数 存储模式 导入数据到DWS且选择自动创表时,用户可以指定存储模式: 行模式:表的数据将以行式存储,适用于点查询(返回记录少,基于索引的简单查询),或者增删改比较多的场景。 列模式:表的数据将以列式存储,适用于统计分析类查询(group、join多的场景),或者即席查询(查询条件不确定,行模式表扫描难以使用索引)的场景。 行模式 基本参数 导入模式 导入数据到DWS时,用户可以指定导入模式: COPY模式,源数据经过管理节点后,复制到DWS的DataNode节点。 UPSERT模式,数据发生主键或唯一约束冲突时,更新除了主键和唯一约束列的其他列数据。 COPY 基本参数 导入开始前 导入数据前,选择是否清除目的表的数据: 不清除:写入数据前不清除目标表中数据,数据追加写入。 清除全部数据:写入数据前会清除目标表中数据。 清除部分数据:需要配置“where条件”参数,CDM根据条件选择性删除目标表的数据。 清除部分数据 基本参数 where条件 “导入开始前”参数选择为“清除部分数据”时配置,配置后导入前根据where条件删除目的表的数据。 age > 18 and age < 60 基本参数 约束冲突处理 当迁移数据出现冲突时的处理方式。 insert into:当存在主键、唯一性索引冲突时,数据无法写入并将以脏数据的形式存在。 replace into:当存在主键、唯一性索引冲突时,会先删除原有行、再插入新行,替换原有行的所有字段。 on duplicate key update,当存在主键、唯一性索引冲突时,目的表中约束冲突的行除开唯一约束列的其他数据列将被更新。 insert into 基本参数 loader线程数 每个loader内部启动的线程数,可以提升写入并发数。 说明 不支持“约束冲突处理”策略为“replace into”或“on duplicate key update”的并发场景。 1 高级参数 先导入阶段表 如果选择“是”,则启用事务模式迁移,CDM会自动创建临时表,先将数据导入到该临时表,导入成功后再通过数据库的事务模式将数据迁移到目标表中,导入失败则将目的表回滚到作业开始之前的状态。 默认为“否”,CDM直接将数据导入到目的表。这种情况下如果作业执行失败,已经导入到目标表中的数据不会自动回滚。 说明 如果“导入开始前”选择“清除部分数据”或“清除全部数据”,CDM的事务模式不会回滚已经删除的数据。 否 高级参数 扩大字符字段长度 选择自动创表时,迁移过程中可将字符类型的字段长度扩大为原来的3倍,再写入到目的表中。如果源端数据库与目的端数据库字符编码不一样,但目的表字符类型字段与源表一样,在迁移数据时,可能会有出现长度不足的错误。 应用场景主要是将有中文内容的字符字段导入到DWS时,需要自动将字符长度放大3倍。 在导入中文内容的字符到DWS时,如果作业执行失败,且日志中出现类似“value too long for type character varying”的错误,则可以通过启用该功能解决。 说明 当启动该功能时,也会导致部分字段消耗用户相应的3倍存储空间。 否 高级参数 使用非空约束 当选择自动创建目的表时,如果选择使用非空约束,则目的表字段的是否非空约束,与原表具有相应非空约束的字段保持一致。 是 高级参数 导入前准备语句 执行任务之前率先执行的SQL语句。目前向导模式仅允许执行一条SQL语句。 create temp table 高级参数 导入后完成语句 执行任务之后执行的SQL语句,目前仅允许执行一条SQL语句。 merge into
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置DWS目的端参数
      • 购买类
        本小节介绍N100购买类常见问题。 哪些资源池可以支持开通N100? N100支持的资源池请以管理控制台为准。 开通流程:在选择资源池节点后,您可以登录天翼云官网,按照N100的开通流程进行操作。 影响面:开通N100可能会对您的网络拓扑结构产生一定的影响。在执行开通操作之前,建议您仔细规划,并在可能的情况下在非业务高峰期进行操作,以减少对正常业务的影响。 注意 在开通N100时,请仔细阅读相关的注意事项和配置要求。确保您的网络环境和业务需求符合产品的要求,以便最大程度地发挥防火墙的作用。 如何选择需要购买的产品规格和功能? 需要用户自行评估业务情况,可通过以下内容进行参考: 规格选择:计算通过N100安全产品的弹性IP总带宽值,不高于N100安全产品各规格限制值。 功能选择:有安全防护需求需开通扩展功能,如病毒过滤、URL过滤及C&C防护。 N100到期后是否可自行续订? 是的,您可以自行发起N100的续订申请,确保您的业务在产品到期后不受到中断。以下是相关的详细信息和操作指南: 续订申请发起:为了确保您的N100服务不中断,建议您在产品到期前至少提前3个工作日主动发起续订申请。续订申请可以通过我们的在线平台或与客户经理联系来完成。 申请时间:提前提交续订申请是至关重要的,这样我们的团队有足够的时间来处理您的请求,确保续订在产品到期之前得以完成。这有助于避免因产品过期而导致的业务中断。 在线平台操作:如果您选择通过在线平台进行续订申请,请登录您的云账户,点击N100产品的续订选项,并按照系统提示完成续订流程。确保在续订过程中提供准确的信息,以避免不必要的延误。 注意事项:在续订申请过程中,请仔细阅读相关条款和条件,确保您了解续订期间可能涉及的费用、服务升级选项等细节。如果有任何疑问,可以咨询客户经理或技术支持团队。 业务影响:请注意,如果未在到期前完成续订申请,可能会导致N100服务中断,影响业务转发。为了避免不必要的风险,请务必按时发起续订申请并遵循相应的操作流程。
        来自:
        帮助文档
        云防火墙(原生版)
        常见问题
        N100常见问题
        购买类
      • 计费项
        名称 服务阶段 主要服务项 过程文件及交付物 数据安全风险评估托管服务 风险评估范围圈定 基于企业数据治理结果,结合企业所在行业标准规范指南识别相关业务系统的敏感数据,通过对不同安全级别的数据类型进行确认,对选取的业务条线中敏感数据的范围进行划分,有助于后续针对敏感数据进行威胁发现。 《敏感数据清单》 数据安全风险评估托管服务 风险评估范围圈定 基于业务场景(调研业务流和数据流)的数据安全风险评估是通过综合分析评估后的资产信息、威胁信息、脆弱性信息、安全措施信息,最终生成风险信息。 《业务数据调研表》 数据安全风险评估托管服务 风险评估范围圈定 基于业务场景(调研业务流和数据流)的数据安全风险评估是通过综合分析评估后的资产信息、威胁信息、脆弱性信息、安全措施信息,最终生成风险信息。 《敏感数据流图》 数据安全风险评估托管服务 风险评估活动开展 安全威胁分析主要针对已识别的敏感数据资产,根据业务目标、模式、流程,信息系统基础架构、网络拓扑与边界等,基于威胁分析方法,从业务流、数据流等威胁来源,分析重要敏感数据资产面临的威胁,对威胁的严重性(影响)进行分级标识。 《数据安全风险评估报告》 (以选取的单一业务条线为单位) 数据安全风险评估托管服务 风险评估活动开展 通过工具监测、人工核查、技术测试、文档查阅等手段,分别分析管理以及技术层面在数据安全管理、系统运维管理、数据库、数据应用各模块具体内容的数据安全脆弱性节点,明确数据安全脆弱性分布。 《数据安全风险评估报告》 (以选取的单一业务条线为单位) 数据安全风险评估托管服务 风险评估总结应用 从安全管理和安全技术两方面着手,以敏感数据为中心、以数据生命周期为主线、以敏感数据场景为着力点,关注敏感数据场景、承载敏感数据的业务流程、敏感数据流转、相应业务活动中涉及的各类业务执行人员及权限,分析并评估相关业务处理活动中存在的权限提升、信息泄露、用户冒用、数据篡改,行为抵赖等数据安全威胁及风险。 《数据安全风险评估报告》 (以选取的单一业务条线为单位) 数据安全风险评估托管服务 风险评估总结应用 汇总形成基于业务场景的数据安全风险评估报告。 《数据安全风险评估报告》 (以选取的单一业务条线为单位)
        来自:
        帮助文档
        数据安全专区
        计费说明
        计费项
      • 默认权限信息一览
        类型 默认用户组 描述 集群默认用户组 hadoop 将用户加入此用户组,可获得所有Yarn队列的任务提交权限。 集群默认用户组 hadoopmanager 将用户加入此用户组,可获得HDFS和Yarn的组件运维管理员权限。对HDFS来说,运维管理员可以访问NameNode WebUI,还能进行手动主备倒换等操作。对Yarn来说,运维管理员可以执行Yarn集群的管理操作,例如访问ResourceManager WebUI,管理NodeManager节点,刷新队列,设置NodeLabel等,但不能提交任务。 集群默认用户组 hive 普通用户组。Hive用户必须属于该用户组。 集群默认用户组 hive1 普通用户组。Hive1用户必须属于该用户组。 集群默认用户组 hive2 普通用户组。Hive2用户必须属于该用户组。 集群默认用户组 hive3 普通用户组。Hive3用户必须属于该用户组。 集群默认用户组 hive4 普通用户组。Hive4用户必须属于该用户组。 集群默认用户组 kafka Kafka普通用户组。添加入本组的用户,需要被kafkaadmin组用户授予特定Topic的读写权限,才能访问对应Topic。 集群默认用户组 kafkaadmin Kafka管理员用户组。添加入本组的用户,拥有所有Topic的创建,删除,授权及读写权限。 集群默认用户组 kafkasuperuser Kafka的Topic读写用户组。添加入本组的用户,拥有所有Topic的读写权限。 集群默认用户组 storm Storm的普通用户组,属于该组的用户拥有提交拓扑和管理属于自己的拓扑的权限。 集群默认用户组 stormadmin Storm的管理员用户组,属于该组的用户拥有提交拓扑和管理所有拓扑的权限。 集群默认用户组 supergroup 这个用户组内的用户具有HBase,HDFS和Yarn的超级权限,并且可以使用Hive。 集群默认用户组 yarnviewgroup Yarn任务只读用户组。将用户加入此用户组,可获得Yarn和Mapreduce界面上任务的只读权限。 集群默认用户组 checksecldap 用于内部测试主LDAP是否工作正常。用户组随机存在,每次测试时创建,测试完成后自动删除。系统内部组,仅限组件间内部使用。 集群默认用户组 compcommon 系统内部组,用于访问集群公共资源。所有系统用户和系统运行用户默认加入此用户组。 操作系统默认用户组 wheel 系统内部运行用户“omm”的主组。 操作系统默认用户组 ficommon 系统公共组,对应“compcommon”,可以访问集群在操作系统中保存的公共资源文件。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全概述
        默认权限信息一览
      • 开始监控JAVA应用
        为部署在CCE容器中的JAVA应用安装Agent 前提条件 部署APM Agent时,必须确保接入APM的机器与APM服务网络连通,Agent才能正常工作。 可使用Telnet命令测试目标机器与APM服务器网络是否连通。 访问域名(Endpoint)列表,获取所在region的endpoint。 选择“系统管理 > 访问密钥”进入访问密钥页面,查看获取接入javaagent所需的AK/SK。 图 获取AK/SK 使用说明 目前只支持部署CCE的JAVA应用。相关参数说明参见下表。 表 性能管理配置参数列表 参数名称 参数说明 安装探针 选择安装探针。目前只支持“APM探针”。 探针类型 选择探针的版本类型。 探针升级策略 探针升级的方式、策略。默认为“重启自动升级”。 重启自动升级:每次都尝试重新下载镜像。 重启手动升级:如果本地有该镜像,则使用本地镜像,本地不存在时下载镜像。 APM环境 输入APM环境名称,该参数为选填。 APM业务 选择一个已有的APM应用。 子业务 输入APM子应用,该参数为选填。 接入密钥 将会自动获取APM服务的密钥信息。 操作步骤 步骤 1 登录CCE管理控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”或“工作负载 > 有状态负载 StatefulSet”,单击“创建无状态工作负载”或“创建有状态工作负载”。 步骤 2 在创建工作负载时,在“高级设置”中找到“性能管理配置”,在“安装探针”处勾选“APM探针”,将会启用应用性能管理服务并在节点上安装探针。 说明 安装探针会产生少量资源消耗,主要作用是可对java工作负载提供应用调用链、拓扑、SQL分析、堆栈追踪等监控能力。 步骤 3 填写探针相关参数。 监控组:输入监控组名称,如testapp。若已有监控组,可下拉选择。 探针版本:选择探针的版本。 “探针升级策略”,默认为“重启自动升级”。 重启自动升级:每次都尝试重新下载镜像。 手动升级:如果本地有该镜像,则使用本地镜像,本地不存在时下载镜像。 步骤 4 应用启动后,等待约3分钟,应用数据就会呈现在APM界面中,此时登录APM,您可以在APM上通过拓扑、调用链等进行应用性能优化。 为CodeArts Deploy应用安装Agent
        来自:
        帮助文档
        应用性能管理
        快速入门
        开始监控JAVA应用
      • 私有Bucket回源
        本文介绍私有Bucket回源功能的适用场景和配置说明。 功能介绍 天翼云AOne安全与加速的域名的回源地址可以使用客户自有源站或者天翼云媒体存储【即对象存储(融合版)】或天翼云对象存储。若客户使用媒体存储【即对象存储(融合版)】作为源站,在新建Bucket时,其权限属性支持以下三种模式: 【公共读】公共读权限可以通过匿名身份直接读取Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【公共读写】公共读写权限可以通过匿名身份直接读取/写/删除Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【私有】只有该Bucket的拥有者或被授权者可以对该存储空间内的文件进行读写操作。媒体存储/对象存储会校验Authorization请求头,只有鉴权通过的才允许访问。 当客户权限选择【私有】时,需要参考本文档配置私有Bucket回源功能。 适用场景 回源地址使用天翼云媒体存储/对象存储并且Bucket为私有模式的场景。 注意事项 1. 开启私有Buckt回源功能前,请确认您的私有Bucket内容是否适合作为AOne安全与加速的回源内容,如存在较为敏感的信息,请勿开启此功能,或单独为AOne安全与加速创建一个独立的AK/SK,仅授权AOne安全与加速必要目录的只读权限,避免源站敏感信息泄漏。 2. Bucket如为公有模式则无需配置私有Bucket回源,直接在源站配置中选择对的存储源站即可,详情请见:源站配置。 3. 开启私有Bucket回源功能后,边缘节点回源站时,会携带Authorization请求头,值为基于AK/SK及Bucket等生成的对应存储私有Bucket鉴权签名信息。 4. 私有Bucket回源功能生效的前提:在【添加域名新增源站】或 【编辑域名修改源站】时,需要选择源站类型为【媒体存储源站】或者【对象存储源站】。否则功能将无效。 5. 私有Bucket回源功能生效的前提:在【配置源站】时,需要选择源站类型为【媒体存储源站】。否则功能将无效。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        私有Bucket回源
      • 配置CNAME
        本文介绍如何配置边缘接入服务IP应用加速的CNAME。 成功添加边缘接入IP应用加速域名后,系统会为您分配一个CNAME。您需要将您的应用的DNS解析记录指向该CNAME,访问请求才能转发到IP应用加速节点上,实现IP应用加速。本文介绍如何配置CNAME。 1. 登录边缘安全加速控制台,进入边缘接入控制台的【域名】【IP应用加速接入】的页面列表中复制域名/实例对应的CNAME。 2. 前往您的域名解析(DNS)服务商(如万网、阿里云解析、DNSPod、新网、腾讯云解析、route 53、godaddy等),添加该CNAME记录。配置CNAME完毕,CNAME配置生效后,IP应用加速服务也会立即生效。 注意 CNAME配置生效时间:新增CNAME记录会实时生效,而修改CNAME记录生效时间取决于客户设置的TTL时间。 3. 添加时如遇添加冲突,可考虑换一个加速域名,或参考以下“解析记录互斥规则” 调整记录。 在提示冲突的时候,说明已经有对应的记录,不允许重复添加或者说不能添加对应的记录,说明如下。 在RR值相同的情况下,同一条线路下,在几种不同类型的解析中不能共存(X为不允许): X:在相同的RR值情况下,同一条线路下,不同类型的解析记录不允许共存。如:已经设置了www.ctyun.cn的A记录,则不允许再设置 www.ctyun.cn的CNAME记录。 无限制: 在相同的RR值情况下,同一条线路下,不同类型的解析记录可以共存。如:已经设置了www.ctyun.cn的A记录,则还可以再设置 www.ctyun.cn的MX记录。 可重复: 指在同一类型下,同一条线路下,可设置相同的多条RR值。如:已经设置了www.ctyun.cn的A记录,还可以再设置 www.ctyun.cn的A记录。 4. 验证边缘接入服务IP应用加速服务是否生效。 配置CNAME后,不同的服务商CNAME生效的时间也不同,一般新增的CNAME记录会立即生效,修改的CNAME记录生效时间取决于客户设置的TTL时间。 您可以ping或dig您所添加的加速域名,验证IP应用加速是否生效。
        来自:
        帮助文档
        边缘安全加速平台
        快速入门
        边缘接入服务
        配置CNAME
      • 表审计
        DRDS支持对指定表进行审计,即记录指定表的关键操作信息(包括连接表的IP地址、执行用户、执行时间和执行语句信息)。通过该功能,您可以对指定的关键表访问情况进行合规审计。 注意 该功能仅支持命令行。 仅V5.1.9.6020.2531及以后版本的实例支持该功能。 前提条件 已为DRDS实例创建表。 审计日志说明 开启表审计功能后,当用户对指定表进行如下操作时,将会被记录到审计日志中。您可以在udaloperationrecord.log文件中查看指定表的审计信息。 select explain dml(insert、delete、update) index操作:包括create/drop/alter index 字段操作:包括add/modify/change/drop rename truncate drop optimize 约束限制 开启/关闭表审计并指定库名.表名 时,库名.表名 必须加' ,否则解析器会将其识别为两个字段。 审计权限优先级从高到低:指定表审计权限 > 开启运维日志 > 按节点审计。 支持的表数量为20个,超过会报错,开启表审计针对表数量约束不做表名去重判断。 开启指定表审计功能时,会对表有效性进行检查,即实例中是否存在该表;关闭时不做表有效性检查。 操作步骤 1. 执行如下命令,为指定表开启表审计。 plaintext udal set global operationlog on [where audittableschema.table in (tablelist ...)] 示例1:为单个表开启审计功能 示例2:为多个表开启表审计功能 2. 执行如下命令,查看已开启审计功能的表信息。 plaintext udal show audittable 示例1: 示例2: 3. 执行DML、DDL或查询命令,在udaloperationrecord.log文件中查看表审计信息。 示例如下: 4. 如果您需要为指定表关闭表审计,只需执行如下命令: plaintext udal set global operationlog on/off [where audittableschema.table in (tablelist ...)] 注意 关闭表审计后,将不再记录该表的相关信息,您根据实际需要重新开启即可。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        数据库安全
        表审计
      • 计费类
        本文介绍GPU云主机计费类相关问题。 GPU云主机作为弹性云主机的一类实例规格,其计费规则与弹性云主机保持一致,本文仅罗列部分问题,更多计费类问题请参见弹性云主机(一类节点)帮助中心。 是否支持余额不足提醒? 用户可在费用中心总览页面自助设置可用额度预警,当您的余额低于预警阈值时,系统将发送短信提醒。 GPU云主机快过期了,我还想继续用,该怎么办? 您可以在GPU云主机列表页,选中一个或多个GPU云主机,单击列表上方“更多 > 续订”进行续订。详细请参见规则说明。 GPU云主机到期后忘记续费了,会出现什么后果? 如果您忘记续费,到期当天您的GPU云主机将无法操作。建议您尽快进行手动续费,否则商用订单到期15天后数据将被清除、试用订单到期2天后数据将被清除。 关于账户提现的说明 若客户账号下没有开通按量付费业务,允许在账户余额范围内任意提取。若客户账号下开通了按量付费业务,须保留100元不能提取,允许提现的金额为账户余额与100的差值。详细请参见余额提现。 同一台GPU云主机是否同时支持两种计费方式? 不可以。同一台GPU云主机只能选择一种计费方式,无法同时选择。 但是按量计费的GPU云主机可以转为包周期计费,包周期计费的GPU云主机到期后可以转为按量计费。 按量计费转换为包周期计费: 按量计费是后付费模式,按GPU云主机的实际使用时长计费,可以随时开通/删除GPU云主机。 如果您需要长期使用当前GPU云主机,可以将按量购买的GPU云主机转为包周期计费模式,节省开支。 包周期计费转换为按量计费: 包周期是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 如果您需要更灵活的计费方式,按照GPU云主机的实际使用时长计费,您可以将实例的计费方式转为按量计费。但是请注意包周期转换为按量计费,需包周期资费模式到期后,按量的资费模式才会生效。
        来自:
        帮助文档
        GPU云主机
        常见问题
        计费类
      • 设置容器启动命令
        操作场景 创建工作负载或任务时,通常通过镜像指定容器中运行的进程。 在默认情况下,镜像会运行默认命令,如果想运行特定命令或重写镜像默认值,需要用到以下设置: 工作目录:指定运行命令的工作目录。 若镜像中未指定工作目录,且在界面中也未指定,默认是“/”。 运行命令:控制镜像运行的实际命令。 运行参数:传递给运行命令的参数。 说明: 容器启动后,容器中的内容不应修改。如果修改配置项(例如将容器应用的密码、证书、环境变量配置到容器中),当容器重启(例如节点异常重新调度pod)后,会导致配置丢失,业务异常。 配置信息应通过入参等方式导入容器中,以免重启后配置丢失。 容器如何执行命令和参数 Docker的镜像拥有存储镜像信息的相关元数据,如果不设置生命周期命令和参数,容器运行时会运行镜像制作时提供的默认的命令和参数,Docker原生定义这两个字段为“Entrypoint”和"CMD"。 如果在创建工作负载时填写了容器的运行命令和参数,将会覆盖镜像构建时的默认命令"Entrypoint"、"CMD",规则如下: 容器执行命令和参数 镜像 Entrypoint 镜像CMD 容器运行命令 容器运行参数 最终执行 [touch] [/root/test] 未设置 未设置 [touch /root/test] [touch] [/root/test] [mkdir] 未设置 [mkdir] [touch] [/root/test] 未设置 [/opt/test] [touch /opt/test] [touch] [/root/test] [mkdir] [/opt/test] [mkdir /opt/test] 设置启动命令 步骤 1 登录CCE控制台,在创建工作负载或任务时,展开“生命周期”。 步骤 2 在启动命令后,输入运行命令和运行参数,如下表。 容器启动命令 命令方式 操作步骤 运行命令 输入可执行的命令,例如“/run/server”。 若运行命令有多个,多个命令之间用空格进行分隔。若命令本身带空格,则需要加引号("")。 说明 多命令时,运行命令建议用/bin/sh或其他的shell,其他全部命令作为参数来传入。 运行参数 输入控制容器运行命令参数,例如port8080。 若参数有多个,多个参数以换行分隔。 说明: 当前启动命令以字符串数组形式提供,对应于Docker的Entrypoint启动命令,格式为: ["executable", "param1", "param2",..]。Kubernetes的容器启动命令可参见[这里](
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        设置容器启动命令
      • 工作负载伸缩原理
        本文主要介绍工作负载伸缩原理。 CCE支持HPA策略和CustomedHPA策略两种工作负载伸缩方式。两种策略的对比如下: 表 HPA和CustomedHPA策略对比 伸缩策略 HPA策略 CustomedHPA策略 实现方式 Kubernetes中实现POD水平自动伸缩的功能, 即Horizontal Pod Autoscaling 自研的弹性伸缩增强能力 策略规则 基于指标 (CPU利用率、内存利用率), 对无状态工作负载进行弹性扩缩容。 基于指标 (CPU利用率、内存利用率) 或 周期 (每天、每周、每月或每年的具体时间点), 对无状态工作负载进行弹性扩缩容。 主要功能 在kubernetes社区HPA功能的基础上, 增加了应用级别的冷却时间窗和扩缩容阈值等功能。 指标触发 支持按照当前实例数的百分比进行扩缩容。 支持设置一次扩缩容的最小步长,可分步分级扩缩容。 支持按照实际指标值执行不同的扩缩容动作。 周期触发支持选择天、周、月或年的具体时间点或周期作为触发时间 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。 想要做到自动弹性伸缩,先决条件就是能感知到各种运行数据,例如集群节点、Pod、容器的CPU、内存使用率等等。而这些数据的监控能力Kubernetes也没有自己实现,而是通过其他项目来扩展Kubernetes的能力,CCE提供Prometheus和Metrics Server插件来实现该能力: Prometheus是一套开源的系统监控报警框架,能够采集丰富的Metrics(度量数据),目前已经基本是Kubernetes的标准监控方案。 Metrics Server是Kubernetes集群范围资源使用数据的聚合器。Metrics Server从kubelet公开的Summary API中采集度量数据,能够收集包括了Pod、Node、容器、Service等主要Kubernetes核心资源的度量数据,且对外提供一套标准的API。 使用HPA(Horizontal Pod Autoscaler)配合Metrics Server可以实现基于CPU和内存的自动弹性伸缩,再配合Prometheus还可以实现自定义监控指标的自动弹性伸缩。 图 HPA流程图
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        工作负载弹性伸缩
        工作负载伸缩原理
      • 状态码过期时间(源站优先)
        本文介绍状态码过期时间(源站优先)功能及其配置说明。 功能介绍 全站加速节点从源站获取资源时,源站会返回响应状态码。针对4xx、5xx特殊状态码,您可以在天翼云全站加速平台上配置状态码过期时间,当客户端再次请求相同资源时,未过期时间内将由全站加速直接响应状态码,不会触发回源,减轻源站压力。当状态码在全站加速平台上的缓存时长超过设置的过期时间,缓存的状态码会失效,此时针对同一资源的请求需要回源,详情请见:状态码过期时间。如您希望在源站响应特殊状态码并携带相关缓存头的情况下,源站相关缓存头优先级更高,无相关缓存头时才按全站加速设置的过期时间生效,则可以配置状态码过期时间(源站优先)功能。 配置状态码过期时间(源站优先)功能后,针对源站返回的4xx或5xx状态码,源站响应不同缓存头时的情况分别如下: 1. 源站响应Pragma:nocache、CacheControl:nocache/nostore/private等不缓存头时,配置状态码过期时间(源站优先)功能后,对应特殊状态码不缓存。 2. 源站响应CacheControl:maxagen时:若n大于0,则全站加速以源站响应的缓存过期时间为准,未过期时间内不再回源;若n等于0,则全站加速认为缓存过期,进行回源校验。 3. 源站响应Expires时:若Expires时间大于当前,则全站加速以源站响应的缓存过期时间为准,未过期时间内不再回源;若Expires小于或等于当前,则全站加速认为缓存过期,进行回源校验。 4. 如源站未返回以上任何缓存相关响应头,则以全站加速配置的缓存过期时间为准;例如配置5s,则在全站加速获取源站特殊状态码后的5s时间内,相同资源请求将不再回源,直接返回特殊状态码。 注意 如源站同时响应上述1、2、3头部,则优先级遵循如下:Pragma:nocache、CacheControl:nocache/nostore/private等不缓存头>CacheControl:maxagen > Expires。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        缓存配置
        状态码过期时间(源站优先)
      • 1
      • ...
      • 215
      • 216
      • 217
      • 218
      • 219
      • ...
      • 230
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      弹性伸缩服务 AS

      模型推理服务

      应用托管

      智算一体机

      人脸检测

      人脸属性识别

      动作活体识别

      推荐文档

      实名认证流程?

      CentOS 磁盘挂载教程

      云课堂 第十课:物理裸机配置如何转换为天翼云云主机配置

      管理员

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号