云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      VPC终端节点_相关内容
      • 调用链
        调用链搜索 调用链搜索主要是搜索span信息,就是一个节点的根event。一个调用链可能从多个环境下面搜索到。比如A调用B调用C的场景,对于同一个调用链路,从A、B、C可能都可以搜索到同一个调用链。 1、登录管理控制台。 2、单击左侧,选择“应用性能管理 APM”,进入APM服务页面。 3、在左侧导航栏选择“应用监控 > 调用链”,进入调用链界面。 4、输入如下查询条件查询具体的调用链列表,也可在界面下方新增自定义查询条件。 表 调用链查询条件 查询条件 具体含义 必填/选填 应用 调用链所在应用。 必填 区域 调用链所在区域。 必填 组件 调用链所在组件。 选填 环境 调用链所在环境。 选填 实例 调用链所在实例。 选填 URL 调用链的URL,分为Rest URL和Real URL两种搜索条件:Rest URL为restful风格的URL,URL中带有变量名称,如/apm/get/{id};Real URL为实际访问的URL。 选填 精确 对URL是否精确匹配,开启状态下为精确查询URL,不开启则进行模糊查询。 选填 调用方法 调用链的HttpMethod。 选填 状态码 调用链返回的HTTP状态码。 选填 响应时间 调用链的响应时间范围,可以填写最小响应时间和最大响应时间搜索调用链,两个值都可以为空。 选填 是否异常 调用链是否有异常。 选填 Trace ID 调用链的TraceID,填写该搜索条件后,其他搜索条件全部失效,只根据该TraceID搜索。 选填 自定义参数 已配置url监控项的拦截header指定key值、拦截url参数指定key值、拦截cookie指定key值参数后,在这里可以设置keyvalue进行搜索。 选填 全局Trace ID 调用链的全局TraceID,填写该搜索条件后,其他搜索条件全部失效,只根据该全局TraceID搜索。 选填 应用码 已配置url监控项的业务code采集长度限制、解析业务code的key、业务code的正确值参数后,会采集响应的应用码,这这里可以根据应用码进行搜索。 选填
        来自:
        帮助文档
        应用性能管理
        用户指南
        调用链
      • 传递用户IP回源
        本文简述传递用户IP回源功能的原理和配置方法。 功能介绍 使用边缘接入服务IP应用加速后,源站获取到的客户端IP会变为应用加速回源节点的IP。如果源站需要获取真实的客户端IP地址,有两种方式: proxyprotocol(简称PP),对内核无要求,需要源站进行修改,解析对应的文本字符串以获取真实的客户端IP。目前,Nginx和HAProxy已经支持,因此Nginx和HAProxy源站推荐使用该方式获取客户端IP。proxyprotocol的v1版本仅支持TCP协议,v2版本同时支持TCP和UDP协议。 tcpoption传递用户IP回源的方式,该方式仅适用于TCP协议。选择该方式时,Linux系统源站需要安装我们提供的toa内核模块来获取真实客户端地址,该方式无需源站进行修改即可获取到真实的客户端IP;Windows系统源站不支持tcpoption传递用户IP回源方式。 配置说明 新增域名,配置传递用户IP回源步骤: 1. 登录边缘安全加速控制台,选择【边缘接入】控制台。 2. 进入【域名】【IP应用加速接入】页面。 3. 点击左上角【新增接入】。 4. 找到传递用户IP回源模块,打开开关。 5. 选择传递用户IP回源方式,选择proxyprotocol方式时,还需要选择协议版本号;选择tcpoption时,您需要下载适配源站系统版本的toa模块,并安装到源站后才可正常使用该功能。 编辑域名,配置传递用户IP回源步骤: 1. 登录边缘安全加速控制台,选择【边缘接入】控制台。 2. 进入【域名】【IP应用加速接入】页面。 3. 在首页列表页面,点击详情,点击右下角编辑配置,编辑目标域名/实例。 4. 找到传递用户IP回源模块,打开或者关闭开关;打开时需选择传递用户IP回源方式,选择proxyprotocol方式时,还需要选择协议版本号;选择tcpoption时,您需要下载适配源站系统版本的toa模块,并安装到源站后才可正常使用该功能。
        来自:
        帮助文档
        边缘安全加速平台
        边缘接入
        域名
        IP应用加速配置
        传递用户IP回源
      • 使用在线迁移自建Redis
        场景描述 在源Redis和目标Redis网络互通的前提下,使用在线迁移功能,可将源Redis中的数据以全量同步或者全量同步+增量同步的方式迁移至目标Redis中。 说明 如果源Redis禁用了PSYNC命令,仅可进行全量同步,否则可进行全量同步+增量同步。 如果源Redis和目标Redis在相同db下存在相同的key数据,将按照迁移勾选的进行处理。 建议目标Redis内核版本不低于源Redis版本,否则可能出现命令不兼容问题,导致迁移中断。 对业务影响 在线迁移,相当于在源Redis增加一个slave节点进行数据同步,建议在业务低峰期进行迁移操作。 前提条件 在迁移之前,请先阅读迁移方案概览,了解当前场景的各类方案,并选择适合于自身场景的方案。 如果目标集群为Cluster原生集群,则源Redis的所有DB(0255)数据将自动合并至DB(0)中,发生key冲突时按照迁移勾选的 进行处理。 准备工作 获取源Redis的实例名称与实例ID、连接地址(IP:PORT)。 获取目标Redis的实例名称与实例ID。 发起在线迁移操作 1. 填写迁移信息 页面参数介绍: 参数 说明 实例名称 DCS中的实例名称,下拉列表选择(源Redis、目标Redis必须有一个是DCS实例)。 Cluster集群 当前集群是否是Cluster原生集群(不填写实例名称时填写)。 实例连接地址 IP:PORT(不填写实例名称时填写)。 实例账号/密码 Redis连接账号/密码,需有DBA管理权限。 key冲突模式 跳过目标key,继续执行/覆盖目标key,继续执行/中断迁移。 同步模式 全量同步+增量同步/全量同步(源Redis未放通PSYNC命令时,不支持增量同步)。 2. 连接检查 检查源Redis和目标Redis网络是否互通。 3. 创建迁移任务,同时启动数据迁移 迁移进度 数据迁移页面,可查询迁移进度。 说明 如果是增量迁移,会一直保持迁移中状态,需要手动停止迁移。 如需停止迁中的任务,点击记录右侧的”结束“,即可停止迁移。 如需重试中断的任务,点击记录右侧的”重试“,即可重试迁移操作。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用在线迁移自建Redis
      • 使用Elasticsearch搜索数据
        本文通过示范例子,向您介绍天翼云云搜索服务Elasticsearch实例可以提供的检索和分析服务。 这里,我们以一个示范的例子,向您简单介绍天翼云Elasticsearch实例可以提供的检索和分析服务,包括创建索引、数据导入、数据搜索、筛选排序等。 操作步骤 创建实例 1. 在“云搜索服务”产品页,单击“立即开通”。 2. 在云搜索服务实例创建页面选择实例类型为Elasticsearch、订购周期、当前区域(即资源池)、可用区、填写实例名称、节点规格等基础配置信息后,按页面提示并根据需要进行配置,然后点击下一步。 3. 按确认信息页面提示,勾选相关协议,完成订单付款,即可完成订购,等待资源开通完成,对应实例处于“运行中”状态,即为成功。 导入数据 Elasticsearch实例支持多种导入方式,常用的业务场景是把Logstash作为源接入搜索实例,在此,为了演示方便,我们以商品检索为例子,从Kibana的DevTools控制台里调用Rest API导入数据。 注意:Kibana需要预先链接公网使用,具体配置方法请参考实例公网访问。 1. 先在Kibana的左边栏里选择“Dev Tools“,进入控制台,其中左边屏幕为命令行调用API栏,右边屏幕为调用结果返回栏。 2. 首先,在console界面,我们创建索引productsfruits来定义存储数据的Schema。 具体语句如下: plaintext PUT /productsfruits { "mappings": { "properties": { "name": { "type": "text", "fields": { "keyword": { "type": "keyword", "ignoreabove": 256 } } }, "price": { "type": "long" } } }, "settings": { "numberofshards": "1", "numberofreplicas": "0" } } 3. 然后在console里执行bulk插入语句,来将数据导入到索引里。 返回结果里errors为false,表示数据全部导入,具体语句如下: plaintext PUT /productsfruits/bulk {"index":{"id":1}} {"name": "苹果", "price": 10} {"index":{"id":2}} {"name": "香蕉", "price": 20} {"index":{"id":3}} {"name": "菠萝", "price": 15} {"index":{"id":4}} {"name": "火龙果", "price": 25}
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用Elasticsearch搜索数据
      • 使用OpenSearch搜索数据
        本文通过示范例子,向您介绍天翼云云搜索服务OpenSearch实例可以提供的检索和分析服务。 这里,我们以几个示范的例子,向您简单介绍天翼云OpenSearch实例可以提供的检索和分析服务,包括创建索引、数据导入、数据搜索、筛选排序等。 操作步骤 创建实例 1. 在【云搜索服务】产品页,单击【立即开通】。 2. 在云搜索服务实例创建页面选择计费模式、订购周期、当前区域(即资源池)、可用区、实例类型、实例版本、实例名称、节点规格等基础配置信息后,按页面提示并根据需要进行配置,然后点击下一步。 3. 按确认信息页面提示,勾选相关协议,完成订单付款,即可完成订购,等待资源开通完成,对应实例处于“运行中”状态,即为成功。 导入数据 OpenSearch实例支持多种导入方式,常用的业务场景是把Logstash作为源接入搜索实例,在此,为了演示方便,我们以商品检索为例子,选择从Dashboards的DevTools控制台里调用Rest API导入数据。 注意:Dashboards需要预先链接公网使用,具体配置方法请参考实例公网访问。 1. 先在Dashboards的左边栏里选择“DevTools”,进入控制台。其中左边屏幕为命令行调用API栏,右边屏幕为调用结果返回栏。 2. 首先,在console界面,我们创建索引productsfruits来定义存储数据的Schema。 具体语句如下: plaintext PUT /productsfruits { "mappings": { "properties": { "name": { "type": "text", "fields": { "keyword": { "type": "keyword", "ignoreabove": 256 } } }, "price": { "type": "long" } } }, "settings": { "numberofshards": "1", "numberofreplicas": "0" } } 3. 然后我们,在console里执行bulk插入语句,来将数据导入到索引里。 返回结果里errors为false,表示数据全部导入,具体语句如下: plaintext PUT /productsfruits/bulk {"index":{"id":1}} {"name": "苹果", "price": 10} {"index":{"id":2}} {"name": "香蕉", "price": 20} {"index":{"id":3}} {"name": "菠萝", "price": 15} {"index":{"id":4}} {"name": "火龙果", "price": 25}
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用OpenSearch搜索数据
      • 告警管理
        介绍告警管理的操作步骤。 功能说明 媒体存储控制台支持告警规则管理包括添加告警规则,管理告警规则,查看告警消息等。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 添加告警规则 用户可参考以下说明,通过控制台完成告警规则配置。 操作步骤 1. 登录媒体存储控制台,进入【告警管理告警配置】菜单页面,点击【添加告警规则】。 2. 进入告警规则配置页面,具体参数说明可参考:配置参数说明。根据页面字段配置规则后,点击【立即创建】完成配置。 配置参数说明 监控维度支持选择资源池维度或Bucket维度,Bucket维度支持选择多个存储桶。 条件项:可选择2XX比例、3XX比例、4XX比例、403比例、404比例、408比例、499比例、其他4XX比例、5XX比例、读请求数、写请求数、公网上行带宽、公网下行带宽、内网上行带宽、内网下行带宽。 注:其他4XX比例:除403、404、408、499外的其他4XX请求。 时间范围:即统计周期,可选择5分钟周期、15分钟周期、30分钟周期、60分钟周期。 持续周期:可选择持续1个统计周期、持续3个统计周期、持续5个周期、持续10个周期。 通知间隔:即告警通知频次,触发告警阈值后,发送第一次告警信息,可选择仅通知一次、5分钟通知一次、10分钟通知一次、30分钟通知一次、1小时通知一次、24小时通知一次。xx分钟通知一次,表示在告警中的状态下,第N次告警发送时间 与 第N1次告警发送时间的时间差。 同一规则内,不可新增相同的指标。 通知配置:可选择告警回调、邮箱通知或短信通知。如选择告警回调,需填写公网可访问的URL,系统会将告警信息通过HTTP/HTTPS POST请求推送到该地址,告警信息以JSON形式放在body中。 管理告警规则 告警规则配置完成后立即生效,用户可通过控制台进行规则管理。
        来自:
        帮助文档
        媒体存储
        控制台指南
        对象存储
        数据监控
        告警管理
      • 状态码过期时间(源站优先)
        本文介绍状态码过期时间(源站优先)功能及其配置说明。 功能介绍 CDN节点从源站获取资源时,源站会返回响应状态码。针对4xx、5xx特殊状态码,您可以在天翼云CDN上配置状态码过期时间,当客户端再次请求相同资源时,未过期时间内将由CDN直接响应状态码,不会触发回源,减轻源站压力。当状态码在CDN上的缓存时长超过设置的过期时间,缓存的状态码会失效,此时针对同一资源的请求需要回源,详情请见:状态码过期时间。如您希望在源站响应特殊状态码并携带相关缓存头的情况下,源站相关缓存头优先级更高,无相关缓存头时才按CDN设置的过期时间生效,则可以配置状态码过期时间(源站优先)功能。 配置状态码过期时间(源站优先)功能后,针对源站返回的4xx或5xx状态码,源站响应不同缓存头时的情况分别如下: 1. 源站响应Pragma:nocache、CacheControl:nocache/nostore/private等不缓存头时,配置状态码过期时间(源站优先)功能后,对应特殊状态码不缓存。 2. 源站响应CacheControl:maxagen时:若n大于0,则CDN以源站响应的缓存过期时间为准,未过期时间内不再回源;若n等于0,则CDN认为缓存过期,进行回源校验。 3. 源站响应Expires时:若Expires时间大于当前,则CDN以源站响应的缓存过期时间为准,未过期时间内不再回源;若Expires小于或等于当前,则CDN认为缓存过期,进行回源校验。 4. 如源站未返回以上任何缓存相关响应头,则以CDN配置的缓存过期时间为准;例如配置5s,则在CDN获取源站特殊状态码后的5s时间内,相同资源请求将不再回源,直接返回特殊状态码。 注意 如源站同时响应上述1、2、3头部,则优先级遵循如下:Pragma:nocache、CacheControl:nocache/nostore/private等不缓存头>CacheControl:maxagen > Expires。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        缓存配置
        状态码过期时间(源站优先)
      • 如果同时使用了全站加速和天翼云其他产品,该如何计费
        本文介绍同时使用了全站加速和Web应用防火墙(边缘云版),如何计费;以及同时使用了全站加速和媒体存储【即对象存储(融合版)】,如何计费。 天翼云全站加速和天翼云其他产品搭配使用时,产生的流量各自分别计费,不支持互相抵扣,也不会重复计费,每个产品的计费和扣款规则详见各产品的计费说明。 以下举两个常见的产品搭配案例。 客户同时购买了全站加速按量计费和Web应用防火墙(边缘云版)。业务数据流向:客户端全站加速Web应用防火墙源站。 全站响应给客户端资源,从全站流出的带宽,由全站加速收取带宽费用,全站加速的相关计费项说明,详情请见:全站加速计费。 用户访问回源的动态请求均需要防护,因此这部分动态请求产生的回源带宽由Web应用防火墙(边缘云版)收取费用,详情请见:计费概述。 客户同时购买了全站加速按量计费和媒体存储【即对象存储(融合版)】。假设全站节点上无可用的缓存资源,需要从媒体存储【即对象存储(融合版)】上获取资源,则总计会产生两段流量费用: 全站从媒体存储【即对象存储(融合版)】获取资源,数据从媒体存储【即对象存储(融合版)】传输到天翼云全站所产生的回源流量,由媒体存储【即对象存储(融合版)】收取流量费用,全站加速不收费。媒体存储【即对象存储(融合版)】的相关计费项说明,详情请见:计费项。 全站响应给客户端资源,从全站流出的流量,由全站加速收取流量费用,媒体存储【即对象存储(融合版)】不收费。全站加速的相关计费项说明,详情请见:全站加速计费。 注意 天翼云的媒体存储【即对象存储(融合版)】仅支持中国内地区域使用,全站加速可从任何区域回源到中国内地区域的媒体存储【即对象存储(融合版)】源站,且回源产生费用。
        来自:
        帮助文档
        全站加速
        常见问题
        计费类
        如果同时使用了全站加速和天翼云其他产品,该如何计费
      • ALM-18011 NodeManager进程垃圾回收(GC)时间超过阈值
        本章节主要介绍ALM18011 NodeManager进程垃圾回收(GC)时间超过的告警。 告警解释 系统每60秒周期性检测NodeManager进程的垃圾回收(GC)占用时间,当检测到NodeManager进程的垃圾回收(GC)时间超出阈值(默认12秒)时,产生该告警。 垃圾回收(GC)时间小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 18011 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 NodeManager进程的垃圾回收时间过长,可能影响该NodeManager进程正常提供服务。 可能原因 该NodeManager节点实例堆内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > ALM18011 NodeManager进程垃圾回收(GC)时间超过阈值 > 定位信息”。查看告警上报的实例的IP地址。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Yarn > 实例 > NodeManager(对应上报告警实例IP地址)”,单击图表区域右上角的下拉菜单,选择“定制 > 垃圾回收”,勾选“NodeManager垃圾回收(GC)时间”。查看NodeManager每分钟的垃圾回收时间统计情况。 3.查看NodeManager每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Yarn > 配置 > 全部配置 > NodeManager > 系统”。将“GCOPTS”参数根据实际情况调大。 说明 集群中的NodeManager实例数量和NodeManager内存大小的对应关系参考如下: 集群中的NodeManager实例数据达到100,NodeManager实例的JVM参数建议配置为:Xms2G Xmx4G XX:NewSize512M XX:MaxNewSize1G。 集群中的NodeManager实例数据达到200,NodeManager实例的JVM参数建议配置为:Xms4G Xmx4G XX:NewSize512M XX:MaxNewSize1G。 集群中的NodeManager实例数据达到500以上,NodeManager实例的JVM参数建议配置为:Xms8G Xmx8G XX:NewSize1G XX:MaxNewSize2G。 5.保存配置,并重启NodeManager实例。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18011 NodeManager进程垃圾回收(GC)时间超过阈值
      • prometheus
        插件简介 Prometheus是一套开源的系统监控报警框架。它启发于Google的borgmon监控系统,由工作在SoundCloud的Google前员工在2012年创建,作为社区开源项目进行开发,并于2015年正式发布。2016年,Prometheus正式加入Cloud Native Computing Foundation,成为受欢迎度仅次于Kubernetes的项目。 在云容器引擎CCE中,支持以插件的方式快捷安装Prometheus。 插件官网: 开源社区地址: 插件特点 作为新一代的监控框架,Prometheus具有以下特点: 强大的多维度数据模型: a. 时间序列数据通过metric名和键值对来区分。 b. 所有的metrics都可以设置任意的多维标签。 c. 数据模型更随意,不需要刻意设置为以点分隔的字符串。 d. 可以对数据模型进行聚合,切割和切片操作。 e. 支持双精度浮点类型,标签可以设为全unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个metrics进行乘法、加法、连接、取分数位等操作。 易于管理:Prometheus server是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占 3.5 bytes,且一个Prometheus server可以处理数百万的metrics。 使用pull模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的metrics。 可以采用push gateway的方式把时间序列数据推送至Prometheus server端。 可以通过服务发现或者静态配置去获取监控的targets。 有多种可视化图形界面。 易于伸缩。 需要指出的是,由于数据采集可能会有丢失,所以Prometheus不适用对采集数据要100%准确的情形。但如果用于记录时间序列数据,Prometheus具有很大的查询优势,此外,Prometheus适用于微服务的体系架构。 约束与限制 1.11及以上版本的CCE集群支持此插件功能。 安装插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件市场”页签下,单击Prometheus下的“安装插件”按钮。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 在“规格配置”步骤中,配置以下参数: 表Prometheus配置参数说明 参数 参数说明 插件规格 根据业务需求,选择插件的规格,包含如下选项: 演示规格(100容器以内):适用于体验和功能演示环境,该规模下prometheus占用资源较少,但处理能力有限。建议在集群内容器数目不超过100时使用。 小规格(2000容器以内):建议在集群中的容器数目不超过2000时使用。 中规格(5000容器以内):建议在集群中的容器数目不超过5000时使用。 大规格(超过5000容器):建议集群中容器数目超过5000时使用此规格。 实例数 选择上方插件规格后,显示插件中的实例数,此处仅作显示。 容器 选择插件规格后,显示插件容器的CPU和内存配额,此处仅作显示。 监控数据保留期 自定义监控数据需要保留的天数,默认为15天。 存储 按照界面提示配置如下参数: 类型:支持云硬盘。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 子类型:支持普通IO、高IO和超高IO三种类型。 容量:请根据业务需要输入存储容量,默认10G。 说明: 若命名空间monitoring下已存在pvc,将使用此存储作为存储源。 步骤 4 单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 步骤 5 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”中,单击“Prometheus”进入详情页,可以查看插件实例的详细情况。 升级插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击“Prometheus”下的“ 升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作。 升级“Prometheus”插件时,会替换原先节点上的旧版本的“Prometheus”插件,安装最新版本的“Prometheus”插件以实现功能的快速升级。 步骤 2 在基本信息页面选择插件版本,单击“下一步”。 步骤 3 参考安装插件中参数说明配置参数后,单击“升级”即可升级“Prometheus”插件。 卸载插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”页签下,选择对应的集群,单击Prometheus下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。 参考资源 Prometheus概念及详细配置请参阅Prometheus 官方文档 Node exporter安装请参考nodeexporter github 仓库
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        prometheus
      • 请求身份认证
        本章节介绍请求身份认证 概述 请求身份认证(RequestAuthentication)定义了终端用户请求网格服务时候的身份认证策略;如果认证信息非法,请求将被拦截;默认情况下,如果不带身份认证信息,请求将被放过,可以配置特定授权策略要求请求的身份信息不能为空来拦截身份认证信息为空的请求。 请求身份认证配置粒度 请求身份认证策略支持三种,全局、命名空间和工作负载级;当策略的命名空间为系统命名空间时(默认为istiosystem),策略为全局生效;当策略命名空间不是系统命名空间,且没有选择工作负载,策略将只在当前命名空间生效并覆盖全局策略;当策略在非系统命名空间,且选择了工作负载,则只对指定工作负载生效。 下面的配置中RequestAuthentication定义了foo命名空间下匹配app: httpbin标签的工作负载使用的jwt认证策略,同时AuthorizationPolicy定义了对请求来源的匹配,要求认证信息不能为空。 apiVersion: security.istio.io/v1beta1 kind: RequestAuthentication metadata: name: httpbin namespace: foo spec: selector: matchLabels: app: httpbin jwtRules: issuer: "issuerfoo" jwksUri: apiVersion: security.istio.io/v1beta1 kind: AuthorizationPolicy metadata: name: httpbin namespace: foo spec: selector: matchLabels: app: httpbin rules: from: source: requestPrincipals: [""] 创建请求身份认证 1. 进入网格控制台,选择 网格安全中心 –> 请求身份认证菜单。 2. 选择命名空间,列表页会展示当前命名空间下的请求身份认证策略。 3. 点击创建按钮,进行请求身份认证的创建。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格安全中心
        请求身份认证
      • websocket概述
        websocket应用场景 场景一:弹幕 弹幕的流程是终端用户A在自己的客户端广播了一条信息,这条信息需要在与其他N个用户端发送的弹幕信息一并展示在A这边。它需要马上显示到屏幕上,对实时性要求极高。使用websocket可以在有新弹幕产生时,服务器能够迅速推送给所有用户端,保障弹幕实时性。 场景二:在线教育 在线教育跨越了时空的限制,学生与老师进行一对多/一对一的在线授课,老师在客户端内编写的笔记、大纲、白板信息等信息,需要实时推送至多个学生的客户端,同时在课堂上,通话、文字聊天、实时解题等交互的实时性要求非常高,需要通过websocket协议来完成。 场景三:金融产品实时信息查询 股票价格瞬息万变,如果显示数据不及时,很有可能会影响用户的收益。需要通过websocket协议流式更新数据变化,将价格实时推送至世界各地的客户端,方便交易员迅速做出交易判断。 场景四:体育实况更新 由于全世界体育爱好者数量众多,比赛实况成为他们最为关心的热点。websocket能够助力体育新闻类服务的用户降低延时,获得实时的更新。 场景五:视频会议和互动直播 尽管视频会议并不能代替和真人相见,但是应用场景众多。而互动直播和视频会议中的连麦的服务对低延时的要求非常高。试想主播或者你的主管说了一句话后,你要10秒后才能听到,那你们是根本无法进行正常交流的 。websocket可以帮助两端或多端接入会议/直播的用户实时传递信息。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        websocket加速
        websocket概述
      • 使用备份和恢复实现云搜索实例的跨区域迁移
        源端西南1资源池云搜索服务实例操作 1. Elasticsearch实例绑定公网访问:购买弹性IP,在“安全设置”中绑定Elasticsearch集群,安全组开放9200端口访问,具体操作参见“实例公网访问” 2. 创建索引和数据:通过公网ip+端口,在Elasticsearch中插入数据。 创建索引 cpp curl u admin: X PUT " H 'ContentType: application/json' d' { "mappings": { "properties": { "name": { "type": "text" }, "price": { "type": "float" } } } } ' 插入第一个产品 cpp curl u admin: X POST " H 'ContentType: application/json' d' { "name": "Laptop", "price": 899.99 } ' 插入第二个产品 cpp curl u admin: X POST " H 'ContentType: application/json' d' { "name": "Smartphone", "price": 499.99 } ' 3. 打开备份管理功能 开通ZOS服务,创建存储桶,在云搜索控制台开启备份能力,填写AK/SK。具体开通操作可参考“创建快照备份”。 4. 手动备份索引 点击手动备份,填写备份名称“backuptest”,选择存储桶,备份对象我们选择“索引”,填写索引名称“products”,确认。等待备份完成。 目的端华东1资源池云搜索实例操作 1. 开通云主机:在华东1资源池与云搜索实例同一个VPC下,开通一台云主机。 2. 下载安装ZOS数据迁移工具,根据系统下载如下工具包: unzip ZOSMigrationToollinuxamd64.zip chmod +x zsync 3. 打开备份管理功能 开通ZOS服务,创建存储桶,在云搜索控制台开启备份能力,填写AK/SK。具体操作可参考“创建快照备份”。 4. 配置ZOS数据迁移工具 根据实际情况配置migaration.conf文件。 注意 因为云主机在华东1,西南1需要配置外网地址,而华东1只需要配置内网地址。 如果是跨云迁移,例如友商云迁移到天翼云,需要填写不同的srcType。具体可参考ZOS数据迁移工具页面上的《ZOS数据迁移工具使用手册》.pdf文件。 迁移工具里的AKSK需要填ZOS对象存储的。其值可以从对应的对象存储页面获取。 srcUrl/destUrl的值可以从桶页面的概览页获取。 不同版本的迁移工具,配置项可能略有区别,根据实际情况调整即可。 示例配置如下: cpp { "srcType":"S3", "srcUrl":" "srcAccessKey":"", "srcSecretKey":"", "srcBucket":"bucket3cab", "srcMigrationType": "Bucket", "srcMigrateFolder": [], "srcMigrateFiles": [], "srcMigratePrefix": [], "destUrl":" "destAccessKey":"", "destSecretKey":"", "destBucket":"bucket5daa", "destPrefix":"", "multipartSize(megabytes)": 5, "enableConsistencyCheck":"False", "objectStorageClass":"", "objectAcl":"", "recordFailedObject": "True", "migrationAfterModified": "", "migrationBeforeModified": "", "conflictMode": "IGNORE", "logLevel":"DEBUG", "processNums":12, "threadNums":16, "failRetryMode": "False", "retryFailFiles": [] } 5. 启动迁移 迁移完成后,在华东1的对应的桶中,应该可以看到所有的快照信息。备份数据路径参考esearch/snapshots/manual/Elasticsearch。 6. 恢复索引 创建快照仓库: cpp curl u admin: X PUT "ip:9200/snapshot/remoterestoreonly?pretty" H 'ContentType: application/json' d' { "type": "s3", "settings": { "bucket": "bucket5daa", "basepath": "esearch/snapshots/manual/Elasticsearch", "protocol": "http", "endpoint": " } }' 恢复索引: cpp curl u admin: X POST "ip:9200/snapshot/remoterestoreonly/backuptest/restore?pretty" H 'ContentType: application/json' d' { "indices": "products" }' 注意,这里填写的快照名称要和创建时一致。 返回成功: cpp { "accepted" : true } restore完成后查看恢复情况: cpp curl u admin: X GET "192.168.0.24:9200/products/recovery?pretty" 等待索引恢复成功。 7. 迁移完成后清理 删除迁移用的快照: cpp curl u admin: X DELETE "ip:9200/snapshot/remoterestoreonly/backuptest" 删除迁移用的快照仓库: cpp curl u admin: X DELETE "ip:9200/snapshot/remoterestoreonly" 删除ZOS桶中的数据:路径参考:esearch/snapshots/manual/Elasticsearch。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        迁移集群
        使用备份和恢复实现云搜索实例的跨区域迁移
      • 将PostgreSQL迁移到PostgreSQL
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,如果逻辑解码器为decoderbufs,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
      • 操作流程
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        本地PostgreSQL迁移到RDS for PostgreSQL
        操作流程
      • 操作流程
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        其他云PostgreSQL迁移到RDS for PostgreSQL
        操作流程
      • 如何实现RabbitMQ的高性能
        本节介绍了如何实现RabbitMQ的高性能。 使用较小的队列长度 队列中存在大量消息时,会给内存使用带来沉重的负担,为了释放内存,RabbitMQ会将消息刷新到磁盘。这个过程通常需要时间,由于需要重建索引,重启包含大量消息的集群非常耗时。当刷盘的消息过多时,会阻塞队列处理消息,从而降低队列速度,对RabbitMQ节点的性能产生负面影响。 要获得最佳性能,应尽可能缩短队列。建议始终保持队列消息堆积的数量在0左右。 对于经常受到消息峰值影响的应用程序,和对吞吐量要求较高的应用程序,建议在队列上设置最大长度。这样可以通过丢弃队列头部的消息来保持队列长度,队列长度永远不会大于最大长度设置。 在队列声明时使用对应参数设置。 java //创建队列 HashMap map new HashMap<>(); //设置队列最大长度 map.put("xmaxlength",10 ); //设置队列溢出方式保留前10 map.put("xoverflow","rejectpublish" ); channel.queueDeclare(queueName,false,false,false,map); 当队列长度超过设置的最大长度时,RabbitMQ的默认做法是将队列头部的信息(队列中最老的消息)丢弃或变成死信。可以通过设置不同的overflow值来改变这种方式,如果overflow值设置为drophead,表示从队列前面丢弃或deadletter消息,保存后n条消息。如果overflow值设置为rejectpublish,表示最近发布的消息将被丢弃,即保存前n条消息。 自动删除不再使用的队列 客户端可能连接失败导致队列被残留,大量的残留队列会影响实例的性能。RabbitMQ提供三种自动删除队列的方法: 在队列中设置TTL策略:例如TTL策略设置为28天,当持续28天队列未被使用时,此队列将被删除。 使用autodelete队列:当最后一个消费者退出或通道/连接关闭(或与服务器的TCP连接丢失)时,autodelete队列会被删除。 使用exclusive queue:exclusive queue只能在创建它的连接中使用,当此连接关闭或消失时,exclusive queue会被删除。 设置方法如下: java boolean exclusive true; boolean autoDelete true; channel.queueDeclare(QUEUENAME, durable, exclusive, autoDelete, arguments);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        如何实现RabbitMQ的高性能
      • 资源包续订
        本文帮助您了解对象存储资源包续订的相关步骤。 资源包快到期时,您可以进行续订以延长资源包的有效期。 前提条件 已购买至少一个ZOS资源包。购买方法请参见资源包购买。 手动续订 1.点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2.在管理控制台上方点击图标,选择所需的资源池节点。 3.在系统首页,选择“存储>对象存储”。 4.在ZOS管理控制台点击右上角“资源包管理”,进入资源包管理页面。 5.选择所需要续订的资源包,点击“续订”。 6.选择需要续订的时长,点击“立即支付”。 7.确认信息无误,在支付页面完成付款。 自动续订 1.点击天翼云门户右上角“我的>费用中心”,点击左侧“订单管理”,点击“续订管理”,选择需要自动续订的资源包,点击“开通自动续订”。 2.对象存储包月资源包默认自动续订周期为1个月,包年资源包默认自动续订周期为1年,您可按需调整自动续订周期。 3.确认信息无误,点击“确定提交”,即可成功续订。 注意 已到期资源不支持设置/修改自动续订。 自动续订仅适于付费用户,不适用于非付费用户。 单次最多支持20个资源实例批量续订。 不关闭自动续订的情况下,只要预付费账户余额充足,或为后付费客户,系统将持续按设定的周期自动续订下去。 自动续订下单扣费时按当时的标准价自动续订,续订1年或以上可享受包年折扣。 0元、秒杀等特价促销活动产品订购后,自动续订下单扣费时将恢复标准价。 预付费用户暂不支持代金券支付,仅支持余额支付,用户需确保账户余额充足。 支付方式及支付时间:将在资源到期前10天或前7天进行自动续订下单及扣费。 自动续订订单出账后不可取消。客户如有问题,可发起退订,自动续订订单的退订与退订规则保持一致,退订的同时,该资源的自动续订自动关闭。
        来自:
        帮助文档
        对象存储 ZOS
        计费说明
        计费模式
        包年包月(资源包)计费
        资源包续订
      • 查看监控数据
        本文介绍云堡垒机(原生版)的监控指标以及如何查看云堡垒机(原生版)的监控数据。 为保证云堡垒机实例的可靠性、可用性和可观测性,对云堡垒机进行监控已经成为一种必要且重要的手段。天翼云控制平台提供的云堡垒机监控功能,可方便用户更快、更直观的了解云堡垒机的运行情况、使用情况及其他性能指标,同时可根据实时监控情况,执行告警通知等操作,帮助客户更好的管理云堡垒机实例。 当用户开通云堡垒机(原生版)服务后,即可通过云监控来查看监控指标。 说明 目前仅支持监控“一类节点”区域的实例。 云堡垒机(原生版)支持的区域请参见支持的区域。 实例支持的监控指标 监控指标 指标说明 单位 是否支持告警 监控周期 CPU利用率 该指标用于统计云堡垒机实例的CPU利用率。 % 是 5分钟 内存总大小 该指标用于统计云堡垒机实例的实际内存大小。 GB 是 5分钟 剩余内存大小 该指标用于统计云堡垒机实例的空闲的内存大小。 GB 是 5分钟 内存利用率 该指标用于统计云堡垒机实例的内存利用率。 内存利用率 100% (剩余内存大小/内存总大小) % 是 5分钟 系统盘大小 该指标用于统计云堡垒机实例的实际系统盘大小。 GB 是 5分钟 剩余系统盘大小 该指标用于统计云堡垒机实例的空闲的系统盘大小。 GB 是 5分钟 系统盘利用率 该指标用于统计云堡垒机实例的系统盘利用率。 系统盘利用率 100% (剩余系统盘大小/系统盘大小) % 是 5分钟 数据盘大小 该指标用于统计云堡垒机实例的实际数据盘大小。 GB 是 5分钟 剩余数据盘大小 该指标用于统计云堡垒机实例的空闲的数据盘大小。 GB 是 5分钟 数据盘利用率 该指标用于统计云堡垒机实例的数据盘利用率。 系统盘利用率 100% (剩余数据盘大小/数据盘大小) % 是 5分钟 异常登陆事件累计数 该指标用于统计云堡垒机实例异常登录事件的数量。 个 是 5分钟
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        实例管理
        使用云监控服务监控云堡垒机实例
        查看监控数据
      • 使用Flink客户端
        本节提供使用Flink运行wordcount作业的操作指导。 前提条件 翼MR集群中已安装Flink组件。 集群正常运行,已安装集群客户端,例如安装目录为“/user/local/flink”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Flink客户端 1. 安装客户端,具体请参考安装客户端章节。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/user/local/flink”。 plaintext cd /user/local/flink 4. 执行如下命令初始化环境变量。 plaintext source bigdataenv 5. 集群默认开启Kerberos认证,需要将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 同时,应配置安全认证。在“/usr/local/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 plaintext security.kerberos.login.useticketcache: true security.kerberos.login.keytab: security.kerberos.login.principal: user security.kerberossecurity.login.contexts: Client,KafkaClient 例如 plaintext security.kerberos.login.keytab: /etc/security/keytabs/hdfs.keytab security.kerberos.login.principal: hdfs 6. 运行wordcount作业。 1. 首先启动Flink集群。 plaintext /usr/local/flink/bin/startcluster.sh 2. Session模式:执行如下命令在session中提交作业。 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 plaintext yarnsession.sh nm "sessionname" detachedflink run /usr/local/flink/examples/streaming/WordCount.jar 3. PerJob模式:执行如下命令以PerJob方式提交作业。 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 plaintext flink run t yarnperjob detached /usr/local/flink/examples/streaming/WordCount.jar 4. Application模式:执行如下命令以Application方式提交作业。 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 plaintext flink runapplication t yarnapplication/usr/local/flink/examples/streaming/WordCount.jar
        来自:
      • MySQL 实例间的双向同步
        目标库要求 与源库要求保持一致。 约束限制 双向同步是在全量同步完成后才开始进行,全量同步完成之前,目标库只能读不能写,否则会导致源库与目标库数据不一致。待全量同步完成后,目标库可读可写。 为保障同步数据的一致性,您需要确保同一个主键或唯一键的记录只在双向同步的一个节点进行更新。如果同时更新则会按照您在数据同步作业中配置的主方向进行响应。 说明 详细信息请参考 操作步骤 1. 登录管理控制台。 2. 单击管理控制台左上角的位置图标,然后在下拉列表中选择目标区域和项目。 3. 选择“数据库 > 数据传输服务DTS”,进入数据传输服务DTS控制台。 4. 单击左侧菜单栏“数据同步”。 5. 点击“创建实例”按钮创建数据传输服务DTS同步实例。 6. 在“信息配置”栏,网络接入类型选择“公网EIP”,公网IP任意选择一个可用的公网IP即可。 说明 如果在天翼云已有可用的公网IP,则可以直接使用,否则需要先购买一个公网IP用于实现数据传输服务DTS实例的公网访问。 7. 在“信息配置”栏的“目标库实例”中,选择您需要同步的第一个数据库类型与实例。 8. 填写完信息后点击“下一步 > 立即创建”,开始创建数据传输服务DTS实例。 9. 回到数据传输服务DTS控制台,等待数据传输服务DTS实例创建成功后,找到对应实例,点击“实例配置”。 10. 填写源库的IP地址、端口号、数据库账号和密码,填写目标库的数据库账号和密码,点击“检测连通性并下一步”。 11. 在“同步拓扑”处选择“双向同步”。 12. 在“源库对象”处选择需要同步的第二个数据库,点击箭头移动到“已选择对象”。 13. 单击“下一步预检查”,等待预检查完成。 说明 如果预检查没有通过,可根据提示进行修改,然后重新执行预检查。 14. 预检查通过后,单击“启动同步”开始进行数据同步。 15. 回到数据传输服务DTS控制台,点击实例可以查看同步状态。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        双向同步
        MySQL 实例间的双向同步
      • GetRequests
        名称 描述 是否必须 Action GetRequests。 是 BeginDate 指定查询请求次数的起始时间,统计数据的起始时间(时区为:UTC+8)为开始日期的00:00。 类型:Time 取值:格式为yyyyMMdd。 是 EndDate EndDate 指定查询请求的结束时间,返回数据的时间为当天日期(时区为:UTC+8)的最后一个数据。 类型:Time 取值:格式为yyyyMMdd。EndDate不能早于BeginDate。 说明 Freqby5min,EndDate与BeginDate的间隔小于1天。 FreqbyHour,EndDate与BeginDate的间隔小于7天。 FreqbyDay,EndDate与BeginDate的间隔小于30天。 是 StorageClass 指定查询的存储类型。 类型:Enum 取值: ALL:所有存储类型。 STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认值为STANDARD。 否 Bucket 指定查询请求次数的Bucket名称。如果不指定Bucket名称,则表示查询账户下所有的Bucket的请求次数之和。 类型:字符串 取值:3~63个字符,只能由小写字母、数字、短横线()和点(.)组成。 否 Region 指定查询请求次数的数据位置。如果不指定数据位置,则查询账户名下所有数据位置的请求次数之和。 类型:字符串 取值: 对象存储网络:ZhengZhou、ShenYang、ChengDu、WuLuMuQi、LanZhou、QingDao、GuiYang、WuHu、WuHan、ShenZhen、SH2、SuZhou。 对象存储网络2:NeiMeng1、HangZhou1。 香港节点:HongKong。 否 InternetType 指定返回的请求次数网络类型互联网/非互联网。 类型:字符串 取值: all:指定返回互联网请求次数和非互联网请求次数。 internet:指定返回互联网的请求次数。 noninternet:指定返回非互联网的请求次数。 默认值为all。 否 RequestsType 指定返回的请求类型。 类型:字符串 取值: all:指定返回所有类型的请求次数。 get:指定返回get类型的请求次数。 head:指定返回head类型的请求次数。 put:指定返回put类型的请求次数。 post:指定返回post类型的请求次数。 delete:指定返回delete类型的请求次数。 others:指定返回除上述外的其他类型的请求次数。 默认值为all。 否 Freq 指定返回统计数据的采样粒度。 类型:Enum 取值: by5min:统计数据的采样粒度为5分钟。 byHour:统计数据的采样粒度为1小时。 byDay:统计数据的采样粒度为1天。 默认值为byHour。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        统计分析
        统计API
        GetRequests
      • STS角色管理
        介绍配置STS角色管理的具体步骤。 适用场景 媒体存储提供STS角色管理功能,无需向临时用户透露您的长期密钥,您可以为临时用户颁发一个自定义时效和权限的访问凭证,使您的资源访问更加安全。 注意 使用STS授权访问时,请务必按照业务情况,以最细粒度的权限原则进行授权,避免放大临时用户的权限,保证资源访问安全。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 前提条件 登录媒体存储控制台。 已完成新建Bucket操作,具体可参考 新建Bucket 。 通过控制台创建STS角色 操作步骤 1. 进入对象存储控制台,进入【角色管理】 菜单。 2. 点击【添加角色】,进行角色添加。 3. 在添加角色弹窗,填写角色名称、选择受信实体、存储区域、授权资源后,点击【确认】完成创建。 配置参数 参数 参数说明 角色名称 支持英文字母、数字以及短横线。 受信实体 受信任的实体账户,可以是本账号、本账号其下的子账号以及其他主账号。 存储区域 选择该角色的授权区域。 授权资源 根据授权区域,选择授权的资源,即存储桶,支持多选。 备注 根据需求填写备注字段,不超过50个字符。 获取角色ARN信息 1. 进入对象存储控制台,进入【角色管理】 菜单。 2. 找到对应的角色,点击角色名或操作列的【查看角色】按钮。 3. 进入角色详情页面,在基础信息里可获取对应的ARN信息,用以获取STS临时密钥。 修改授权范围 如需要修改角色对应的授权资源范围,可参考如下步骤操作: 1. 进入对象存储控制台,进入【角色管理】 菜单。 2. 找到对应的角色,点击角色名或操作列的【查看角色】按钮。 3. 在角色详情页【资源范围】栏的最右侧,点击【编辑】按钮。 4. 在弹窗需修改对应的授权资源,并点击【确定】完成操作。 实践应用 STS临时凭证的实践应用,可参考 移动应用使用临时凭证直传 。
        来自:
        帮助文档
        媒体存储
        控制台指南
        对象存储
        数据安全
        STS角色管理
      • 控制台简介
        天翼云网站安全监测控制台帮助您快速新增域名,并完成监测项任务配置操作,同时提供统计分析和报告下载等服务,帮助您对业务情况进行跟踪管理。 网站安全监测控制台概览页: 1、左侧栏导航 功能 概述 概览 可展示近1天、近7天最高3个月时间跨度数据,数据内容包括风险数、告警数、任务执行数、风险变化趋势、启用中域名数。同时展示风险和告警预览可一键跳转处理。计费详情展示产品订购情况。 配置管理 新增域名、管理删除已有域名,并可以对已新增的域名进行对应监测任务配置和管理,同时提供监测机节点IP列表供查询。 风险记录 查询告警记录和风险记录,管理风险记录进行相应加白、URL封禁等操作,风险日志详情有助于定位风险。 安全分析 查看5类监测项的在线看板并管理漏洞报告和网站安全评估报告。 扩展功能 包含封禁管理和态势感知大屏,风险日志操作封禁后可在封禁管理内操作解禁和重新封禁等,态势感知大屏实时一站式展示安全数据。 计费详情 展示基础套餐和扩展服务的订购详情及订购状态。 2、概览页筛选条件 筛选统计时间周期,作用域包含总览指标、风险变化趋势。默认选择7天的数据进行汇总统计显示,最长可选择3个月时间跨度。 3、概览页总览指标 以客户为维度,展示统计周期限定下,总计的风险数、告警次数和任务执行次数。 4、概览页风险变化趋势 以客户为维度,折线图形式,展示统计周期限定下,风险数变化的趋势。 5、概览页风险待处理列表 以客户为维度,时间倒序展示当前发现的风险原因、对应监测项、相关任务名和风险发现时间。 6、概览页域名统计/任务统计 以客户为维度,展示当前已启用服务的域名数总和,以及当前正开启中的任务数总和。 7、概览页最新告警内容 以客户为维度,时间倒序展示当前发生告警的域名和对应产生告警的监测项,可以一键跳转至告警中心查看详情。 8、概览页计费详情 展示主套餐和扩展服务状态。
        来自:
        帮助文档
        网站安全监测
        用户指南
        控制台简介
      • 配置CNAME
        本文通过介绍配置CNAME的实例,帮助客户直观地了解配置CNAME的过程和注意事项。 要启用CDN加速服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到CDN节点上,达到加速效果。 1. 在CDN控制台的【域名管理】【域名列表】页面,复制目标加速域名对应的CNAME值。 2. 前往您的域名解析(DNS)服务商(如万网、阿里云解析、DNSPod、新网、腾讯云解析、route 53、godaddy等),添加该CNAME记录。 3. 验证CDN加速服务是否生效。配置CNAME后,不同的服务商CNAME生效的时间也不同,一般新增的CNAME记录会立即生效,修改的CNAME记录需要较长时间生效。您可以ping或dig您所添加的加速域名,如果被指向.ctdns.cn,即表示CNAME配置已经生效,CDN加速服务也已生效。 注意 1. CNAME配置生效时间:新增CNAME记录会实时生效,而修改CNAME记录取决于客户设置的TTL时间。 2. 添加时如遇添加冲突,可考虑换一个加速域名,或参考“解析记录互斥规则”调整记录。 解析记录互斥规则: 在提示冲突的时候,说明已经有对应的记录,不允许重复添加或者说不能添加对应的记录,说明如下: 在RR值(Resource Records,资源记录)相同的情况下,同一条线路下,在几种不同类型的解析中不能共存(X为不允许): X:在相同的RR值情况下,同一条线路下,不同类型的解析记录不允许共存。如:已经设置了ctyun.cn的A记录,则不允许再设置ctyun.cn的CNAME记录。 无限制: 在相同的RR值情况下,同一条线路下,不同类型的解析记录可以共存。如:已经设置了ctyun.cn的A记录,则还可以再设置ctyun.cn的MX记录。 可重复: 指在同一类型下,同一条线路下,可设置相同的多条RR值。如:已经设置了ctyun.cn的A记录,还可以再设置ctyun.cn的A记录。
        来自:
        帮助文档
        CDN加速
        快速入门
        配置CNAME
      • 使用Hive客户端
        本章节主要介绍使用Hive客户端 。 操作场景 该任务指导用户在运维场景或业务场景中使用Hive客户端 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由系统管理员根据业务需要创建。安全模式下,“机机”用户需要下载keytab文件。“人机”用户第一次登录时需修改密码。 使用Hive客户端(MRS 3.x之前版本) 1.以客户端安装用户,登录安装客户端的节点。 2.执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3.执行以下命令配置环境变量。 source bigdataenv 4.根据集群认证模式,完成Hive客户端登录。 安全模式,则执行以下命令,完成用户认证并登录Hive客户端。 kinit 组件业务用户 beeline 普通模式,则执行以下命令,登录Hive客户端,如果不指定组件业务用户,则会以当前操作系统用户登录。 beeline n 组件业务用户 说明 进行beeline连接后,可以编写并提交HQL语句执行相关任务。如需执行Catalog客户端命令,需要先执行!q命令退出beeline环境。 5. 使用以下命令,执行HCatalog的客户端命令。 hcat e "cmd" 其中 "cmd" 必须为Hive DDL语句,如 hcat e "show tables" 。 说明 若要使用HCatalog客户端,必须从“组件管理”页面单击“下载客户端”,下载全部服务的客户端。Beeline客户端不受此限制。 由于权限模型不兼容,使用HCatalog客户端创建的表,在HiveServer客户端中不能访问,但可以使用WebHCat客户端访问。 在普通模式下使用HCatalog客户端,系统将以当前登录操作系统用户来执行DDL命令。 退出beeline客户端时请使用!q命令,不要使用“Ctrl + c”。否则会导致连接生成的临时文件无法删除,长期会累积产生大量的垃圾文件。 在使用beeline客户端时,如果需要在一行中输入多条语句,语句之间以“;”分隔,需要将“entireLineAsCommand”的值设置为“false”。 设置方法:如果未启动beeline,则执行beelineentireLineAsCommandfalse命令;如果已启动beeline,则在beeline中执行!set entireLineAsCommand false命令。 设置完成后,如果语句中含有不是表示语句结束的“;”,需要进行转义,例如 select concatws(';',collectset(col1)) from tbl 。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Hive客户端
      • 通过mongodump和mongorestore工具迁移数据
        本章节将介绍mongodump和mongorestore工具的使用方法 mongodump和mongorestore是MongoDB客户端自带的备份恢复工具。您可以在本地设备或ECS中安装MongoDB客户端,通过mongodump和mongorestore工具将自建MongoDB数据库或其他云数据库MongoDB迁移至天翼云DDS实例。 使用须知 mongodump和mongorestore工具仅支持全量数据迁移。为保障数据一致性,迁移操作开始前请停止源数据库的相关业务,并停止数据写入。 建议您尽量选择在业务低峰期迁移数据,避免在迁移过程中对业务造成影响。 不支持迁移系统库admin和local。 确保源库中系统库admin和local没有创建业务集合,如果已经有业务集合,必须在迁移前将这些业务集合从admin和local库中迁移出来。 导入数据之前,确保源端有必要的索引,即在迁移前删除不需要的索引,创建好必要的索引。 如果选择迁移分片集群,必须在目标库创建好要分片的集合,并配置数据分片。同时,迁移前必须要创建好索引。 如果使用mongodump工具备份失败(示例:备份进度至97%时报错),建议您尝试增大虚拟机磁盘空间,预留部分冗余空间,再重新执行备份。 客户侧使用的是rwuser帐号,仅支持操作客户业务库表。所以,在使用时建议指定库和表,仅对业务数据执行导入导出。不指定库表,全量进行导入导出,可能会遇到权限不足的问题。 前提条件 准备弹性云服务器或可访问DDS的设备。 − 通过内网连接文档数据库实例,需要创建并登录弹性云服务器,请参见创建弹性云服务器和登录弹性云服务器。 − 通过公网地址连接文档数据库实例,需具备以下条件。 为实例中的节点绑定公网地址,保证本地设备可以访问文档数据库绑定的公网地址。 在已准备的弹性云服务器或可访问DDS的设备上,安装数据迁移工具。 安装数据迁移工具,请参见如何安装MongoDB客户端。 说明 MongoDB客户端会自带mongodump和mongorestore工具。 MongoDB客户端版本须和实例相匹配,若版本不匹配则会有兼容性问题出现。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongodump和mongorestore工具迁移数据
      • 将PostgreSQL同步到PostgreSQL
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 检查hotstandbyfeedback参数配置 全量同步源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量同步时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量同步时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量同步时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量同步时,如果逻辑解码器为decoderbufs,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量同步时,检查待同步表中是否存在无主键的表。 无日志表存在性检查 勾选增量同步时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量同步时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将PostgreSQL同步到PostgreSQL
      • 计费类
        section49bbf3dd441b752d)。 3880 39576 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0 SaaS版 标准版域名扩展包 1个域名扩展包支持10个域名,其中支持添加1个主域名(备案的域名)。 600 6120 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0 SaaS版 标准版业务扩展包 一个业务扩展包包含1000QPS/个,最多支持30个业务扩展包,每增加一个业务扩展包,可增加50Mbps带宽弹性上限,100Mbps带宽保护上限。 1000 10200 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0 SaaS版 标准版规则扩展包 一个规则扩展包包含50条防护规则/域名,当前仅适用IP黑白名单防护模块。 70 714 包年订购折扣 针对一次性包年付费服务,包年优惠价格为1年8.5折,2年7折,3、4、5年5折。 优惠折扣 Web应用防火墙v2.0 SaaS版订购享受8折优惠。 说明 包年订购折扣与优惠折扣不能同享,取低者计算。 Web应用防火墙 v2.0独享版 单机版(1节点/实例) 支持01Gbps的业务防护,默认业务请求峰值3000QPS(200Mbs),默认防护域名(不区分主域名、子域名)/IP(公网IP、私网IP)个数100个/实例,防护端口数最大支持65535个(常用端口除外),更多信息请参见[产品规格](
        来自:
        帮助文档
        云等保专区
        常见问题
        计费类
      • 功能特性
        本文带您了解分布式消息服务RocketMQ的功能特性。 消息生产 消息压缩:将较大的消息进行压缩后发送到服务端,有效利用带宽。 延迟消息:设计消费时延,消息发送到服务端后,过了预设时间才可以被消费。 事务消息:根据预设的事务,事务消息可保证分布式系统之间的数据最终一致。 消息消费 有序消费:支持普通有序消息和严格有序消息两种方式。 集群消费:一个主题可被一个或多个消费者组消费,消费者组中消费者实例可平均分摊消费信息。 消费位置设置:支持设置消费组首次启动消费的位置,包括队列头、队列尾及由客户端指定。 消息回溯:支持按时间回溯消费进度,将订阅组在某主题上的消费进度重置到过去或者未来。 完善的运维能力 应用用户管理:集群租户隔离,应用接入集群权限管理。 主题管理:支持对实例下的主题进行管理,执行创建删除等操作。 订阅组管理:支持对实例下的订阅组进行管理。 生产者和消费者管理:用户可查看当前实例下的生产者和消费者信息,并实时更新。 消息查询:按消息ID、消息逻辑偏移量、消息key。 完善的运维功能,节点状态检测、启停;实例状态检测、启停;SLA监控等。 顺序消息 顺序消息是指消费消息的顺序要同发送消息的顺序一致,在RocketMQ中,主要有两种有序消息:全局有序消息和局部有序消息(又称普通有序消息、分区有序消息)。 普通有序消息:在正常情况下可以保证完全的顺序消息,但是一旦发生通信异常造成Broker重启,队列总数发生变化,哈希取模后定位的队列会变化,因此会产生短暂的消息顺序不一致。如果业务能容忍在集群异常情况(如某个Broker宕机或者重启)下消息短暂的乱序,使用普通顺序方式比较合适。 严格有序消息:无论正常异常情况都能保证顺序,但是牺牲了分布式Failover特性,即Broker集群中只要有一台机器不可用,则整个集群都不可用(或者影响hash 值对应队列的使用),服务可用性大大降低。如果服务器部署为同步双写模式,此缺陷可通过备机自动切换为主避免,不过仍然会存在几分钟的服务不可用。
        来自:
      • 容器组
        本节介绍了容器组的用户指南。 基本概念 容器组(Pod)是Kubernetes中最小的可部署单元。一个Pod(容器组)包含了一个应用程序容器(某些情况下是多个容器)、存储资源、一个唯一的网络IP地址、以及一些确定容器该如何运行的选项。Pod容器组代表了Kubernetes中一个独立的应用程序运行实例,该实例可能由单个容器或者几个紧耦合在一起的容器组成。 操作场景 Kubernetes集群中的Pod存在如下两种使用途径: 一个Pod中只运行一个容器。"onecontainerperpod" 是Kubernetes中最常见的使用方式。此时,您可以认为Pod容器组是该容器的wrapper,Kubernetes通过Pod管理容器,而不是直接管理容器。 一个Pod中运行多个需要互相协作的容器。您可以将多个紧密耦合、共享资源且始终在一起运行的容器编排在同一个Pod中,可能的情况有: 1、Content management systems,file and data loaders, local cache managers等 2、log and checkpoint backup,compression, rotation, snapshotting等 3、data change watchers, logtailers, logging and monitoring adapters, event publishers等 4、proxies, bridges, adapters等 5、controllers, managers,configurators, and updaters 您可以在云容器引擎中方便的管理容器组(Pod),如查看YAML、远程登录、销毁重建等操作。 前提条件 您需要存在一个可用集群,若没有可用集群,请参照集群开通中内容创建。 操作步骤及说明 1、查看YAML 1)登录云容器引擎控制台,在左侧导航栏中选择“工作负载 > 容器组” 2)单击实例列表中后的“查看YAML” 2、销毁重建 1)登录云容器引擎控制台,在左侧导航栏中选择“工作负载 > 容器组” 2)单击实例列表中后的“销毁重建 请仔细阅读系统提示,删除操作无法恢复,请谨慎操作。 说明 若Pod所在节点不可用或者关机,负载无法删除时可以在详情页面实例列表选择强制删除。请确保要删除的存储没有被其他负载使用,导入和存在快照的存储只做解关联操作。 3、远程登录 1)登录云容器引擎控制台,在左侧导航栏中选择“工作负载 > 容器组” 2)单击实例列表中后的“远程登录” 3)在弹出的对话框中点击“登录”
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(旧版)
        容器组
      • 设置SSL数据加密
        本文为您介绍如何设置SSL数据加密,提升实例连接的安全性。 注意 仅V5.1.9.6020.2531及以后版本的实例,支持该功能。 前提条件 实例状态为运行中。 背景信息 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器。 加密数据以防止数据中途被窃取。 维护数据的完整性,确保数据在传输过程中不被改变。 开启SSL加密 在使用SSL加密功能前,您需要开启SSL加密,操作步骤如下: 注意 开启SSL后,您需要手动重启全部节点,才能生效。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录单击数据库安全 ,然后单击连接加密页签,进入SSL加密管理页面。 5. 单击SSL设置。 6. 在SSL设置 对话框中,打开SSL链路加密 开关,并配置验证模式。 标准模式:仅开启SSL加密但不使用SSL自带的二次验证,主要兼容历史应用系统配置。 CA模式:需要下载CA证书并上传客户端进行验证,CA证书存在有效期(默认为10年)需定期更换。 7. 单击提交。 如果您不再需要使用SSL加密,只需在SSL设置 对话框中,关闭SSL链路加密开关即可。 8. 如果您的SSL加密验证模式 为CA模式,则您还需要在控制台下载自动生成的SSL自签名证书包。 在SSL加密管理页面,单击CA证书 参数右侧的下载证书,系统自动下载证书包(包含ca、server和client证书),请妥善保存。 注意 证书默认有效期为10年,您可以根据实际情况,单击证书到期时间 参数右侧的重新生成证书,重新生成证书并下载到本地。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        数据库安全
        设置SSL数据加密
      • 1
      • ...
      • 214
      • 215
      • 216
      • 217
      • 218
      • ...
      • 230
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      科研助手

      知识库问答

      人脸实名认证

      动作活体识别

      身份证识别

      推荐文档

      购买指南

      天翼云进阶之路⑤:修改Linux远程登录用户并授权,禁止roo

      产品优势

      产品定义

      启动即时会议

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号