活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      轻量型云主机_相关内容
      • 管理Logstash实例
        参数 描述 实例名称 加装时设置的实例名称,单击实例名称可以进入实例详情页。 实例状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在开通部署中的实例 处理中:处于重启等正常操作下的实例,该状态下部分功能不可使用 已冻结:包周期已到期的实例,可续费或退订销毁 释放中:实例正在进行清理和退订流程,结束后即已销毁。 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用状态 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 管道数量 实例内目前存在的管道数量 运行中的管道数量 实例中目前处于运行中的管道数量 节点数量 当前实例部署的云主机节点数 版本 Logstash部署的版本号 计费模式 包年包月 关联实例 加装当前Logstash实例的Elasticsearch实例或OpenSearch实例 到期时间 包年包月实例使用,表示包周期可使用的截止时间,Logstash随关联实例时间到期 创建时间 实例的加装时间 操作 展示实例可执行的操作入口,包含重启、续订等针对实例的操作,当前实例无法操作某项时,按钮将置灰。已经销毁的实例可以点击删除按钮,该实例不会在列表中展示。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Logstash实例的加装与使用
        管理Logstash实例
      • 查看参数修改历史记录
        本文介绍如何通过控制台查询SQL Server实例的参数修改历史。 注意事项 历史记录仅包括通过控制台修改参数历史和应用参数模板到实例的修改历史。 用户通过客户端执行SQL命令修改的参数,不会记录到修改历史页面中。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【参数设置】,进入可修改参数列表页面。 5. 单击【历史修改记录】,进入参数修改历史记录页面。 您可以在该页面查询参数修改历史记录。提示进行中,说明参数还在修改;提示已生效,说明参数修改成功;提示未生效,说明参数修改失败。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理参数
        查看参数修改历史记录
      • 修改账号权限
        本章节主要介绍了如何修改SQL Server实例账号的授权数据库及权限类型。 注意事项 高权限账号默认拥有所有数据库的权限,高权限账号不支持权限修改。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【账号管理】,可以看到实例已创建的账号列表。 5. 选择需要修改密码的账号,单击【操作】列的【修改权限】。 6. 在弹出的对话框中,单击【左移】或【右移】按钮可以添加或删除数据库权限。 7. 在【已授权数据库】框中可以分别修改各个库的权限类型。 8. 单击【确定】按钮完成权限的修改。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        账号与权限
        修改账号权限
      • 使用IPv6
        绑定IPv6带宽 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库PostgreSQL版】,进入关系数据库RDSPostgreSQL产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【PostgreSQL > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中选择目标实例,点击实例名称进入实例基本信息页。 4. 在【实例管理】找到IPv6连接地址,点击【绑定带宽】,打开【绑定IPv6带宽】页面。 5. 选择目标IPv6带宽,点击【确定】,完成IPv6带宽与IPv6连接地址的绑定,此时,您才可以通过IPv6连接地址公网访问RDSPostgreSQL实例。 解绑IPv6带宽 1. 在实例列表中选择目标实例,点击实例名称进入实例基本信息页。 2. 在【实例管理】找到IPv6连接地址,点击【解绑带宽】,点击【确认】,完成IPv6带宽与IPv6连接地址的解绑。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        连接管理
        使用IPv6
      • 容器引擎基础知识
        本文主要介绍 容器引擎基础知识 容器引擎(Docker)是一个开源的引擎,可以轻松的为任何应用创建一个轻量级、可移植的应用镜像。 安装前的准备工作 在安装容器引擎前,请了解容器引擎的基础知识,具体请参见Docker Documentation。 选择容器引擎的版本 容器引擎几乎支持在所有操作系统上安装,用户可以根据需要选择要安装的容器引擎版本,具体请参见 说明 由于SWR支持容器引擎1.11.2及以上版本上传镜像,建议下载对应版本。 安装容器引擎需要连接互联网,内网服务器需要绑定弹性公网IP后才能访问。 安装容器引擎 你可以根据自己的操作系统选择对应的安装步骤: Linux操作系统下安装 在Linux操作系统下,可以使用如下命令快速安装Docker的最新稳定版本。如果您想安装其他特定版本的Docker,可参考安装Docker。 curl fsSL get.docker.com o getdocker.sh sh getdocker.sh sudo systemctl daemonreload sudo systemctl restart docker EulerOS操作系统下安装 在EulerOS操作系统下,安装容器引擎的方法如下: a. 登录弹性云服务器。 b. 配置yum源。 如果您的机器上还没有配置yum源,首先配置本机的yum。 c. 安装并运行容器引擎。 i. 获取yum源里的dockerengine包。 yum search dockerengine ii. 使用yum install y命令安装上一步获取的dockerengine包,x86架构示例: yum install dockerengine.x8664 y iii. 设置开机启动Docker服务。 systemctl enable docker iv. 启动Docker。 systemctl start docker d. 检查安装结果。 docker version 回显如下类似信息,表示容器引擎安装成功。 Docker version 18.09.0, build 384e3e9
        来自:
        帮助文档
        容器镜像服务
        用户指南
        容器引擎基础知识
      • 购买了企业主机安全版本为什么没有生效?
        本章介绍购买企业主机安全版本没生效的原因。 购买了主机安全版本后您还需要做以下操作才可为目标主机开启防护: 1、安装Agent:为目标主机安装Agent,安装后可实现HSS对数据的监测以及告警的上报,若已安装可忽略此步骤。 2、绑定配额:将购买的版本配额绑定至需要防护的服务器,绑定后目标服务器才会开启对应版本支持的防护能力。 开启防护后建议开启告警通知确保在发现告警的第一时间收到通知,同时对服务器进行安全配置,进一步提升服务器的安全性。
        来自:
        帮助文档
        企业主机安全
        常见问题
        配额问题
        购买了企业主机安全版本为什么没有生效?
      • Linux操作系统云主机中buffer和cache占用内存怎么办
        本文介绍如何处理linux操作系统云主机中buffer和cache占用内存问题。 问题描述 系统长期运行后,free命令查看系统内存,发现剩余内存不足,大部分是buffers和cached。 问题分析 在Linux操作系统中,缓冲(buffer)和缓存(cache)占用了部分内存。这些是操作系统用于提高文件系统和磁盘访问性能的正常数据结构。然而,如果你发现内存占用过高,可能需要采取一些措施来优化系统。 在 Linux 的内存管理中,buffer是Linux内存中的Buffer cache。cache是Linux内存中的Page cache。 · Buffer cache:主要是当系统对块设备进行读写的时候,对块进行数据缓存的系统来使用,即对块的操作会使用buffer cache进行缓存。 例如:当对一个文件进行写操作的时候,page cache 的内容会被改变,而buffer cache则可以用来将page标记为不同的缓冲区,并记录是哪一个缓冲区被修改了。内核在后续执行脏数据的回写writeback时,就不用将整个page写回,而只需要写回修改的部分可。 · Page cache:主要用来作为文件系统上的文件数据的缓存来用,尤其是针对当进程文件有read/write操作的时候。Linux默认会将读取的文件内容缓存在内存中,方便后续使用。 Linux默认使用的是lazy模式,即内存如果还够用,则不会主动释放当前的占用的buffer和cache,如果需要内存,则会自动释放buffer和cache,所以正常情况下,cache占用高不会对系统造成影响。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        磁盘空间管理
        Linux操作系统云主机中buffer和cache占用内存怎么办
      • 云审计服务支持的DMS for Kafka操作列表
        本文主要介绍云审计服务支持的DMS for Kafka操作列表。 通过云审计服务,您可以记录与分布式消息服务Kafka相关的操作事件,便于日后的查询、审计和回溯。 表 云审计服务支持的DMS for Kafka操作列表 操作名称 资源类型 事件名称 创建DMS实例订单成功 kafka createDMSInstanceOrderSuccess 创建DMS实例任务执行成功 kafka createDMSInstanceTaskSuccess 创建DMS实例订单失败 kafka createDMSInstanceOrderFailure 创建DMS实例任务执行失败 kafka createDMSInstanceTaskFailure 删除创建失败的DMS实例成功 kafka deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 kafka deleteDMSCreateFailureInstancesFailure 删除DMS实例任务执行成功 kafka deleteDMSInstanceTaskSuccess 删除DMS实例任务执行失败 kafka deleteDMSInstanceTaskFailure 批量删除DMS实例任务 kafka batchDeleteDMSInstanceTask 提交批量删除DMS实例请求成功 kafka batchDeleteDMSInstanceSuccess 批量删除DMS实例任务执行成功 kafka batchDeleteDMSInstanceTaskSuccess 提交批量删除DMS实例请求失败 kafka batchDeleteDMSInstanceFailure 批量删除DMS实例任务执行失败 kafka batchDeleteDMSInstanceTaskFailure 提交修改DMS实例订单请求成功 kafka modifyDMSInstanceOrderSuccess 提交修改DMS实例订单请求失败 kafka modifyDMSInstanceOrderFailure 提交扩容实例请求成功 kafka extendDMSInstanceSuccess 扩容DMS实例任务执行成功 kafka extendDMSInstanceTaskSuccess 提交扩容实例请求失败 kafka extendDMSInstanceFailure 扩容DMS实例任务执行失败 kafka extendDMSInstanceTaskFailure 提交重置DMS实例密码请求成功 kafka resetDMSInstancePasswordSuccess 提交重置DMS实例密码请求失败 kafka resetDMSInstancePasswordFailure 提交重启DMS实例请求成功 kafka restartDMSInstanceSuccess 重启DMS实例任务执行成功 kafka restartDMSInstanceTaskSuccess 提交重启DMS实例请求失败 kafka restartDMSInstanceFailure 重启DMS实例任务执行失败 kafka restartDMSInstanceTaskFailure 提交批量重启DMS实例请求成功 kafka batchRestartDMSInstanceSuccess 批量重启DMS实例任务执行成功 kafka batchRestartDMSInstanceTaskSuccess 提交批量重启DMS实例请求失败 kafka batchRestartDMSInstanceFailure 批量重启DMS实例任务执行失败 kafka batchRestartDMSInstanceTaskFailure 提交修改DMS实例信息请求成功 kafka modifyDMSInstanceInfoSuccess 修改DMS实例信息任务执行成功 kafka modifyDMSInstanceInfoTaskSuccess 提交修改DMS实例信息请求失败 kafka modifyDMSInstanceInfoFailure 修改DMS实例信息任务执行失败 kafka modifyDMSInstanceInfoTaskFailure 删除后台任务成功 kafka deleteDMSBackendJobSuccess 删除后台任务失败 kafka deleteDMSBackendJobFailure 冻结DMS实例任务执行成功 kafka freezeDMSInstanceTaskSuccess 冻结DMS实例任务执行失败 kafka freezeDMSInstanceTaskFailure 解冻DMS实例任务执行成功 kafka unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务执行失败 kafka unfreezeDMSInstanceTaskFailure Kafka专享实例创建Topic成功 kafka KafkacreatetopicSuccess Kafka专享实例创建Topic失败 kafka KafkacreatetopicFailure Kafka专享实例删除Topic成功 kafka KafkadeletetopicsSuccess Kafka专享实例删除Topic失败 kafka KafkadeletetopicsFailure 开启自动创建Topic成功 kafka enableautotopicSuccess 开启自动创建Topic失败 kafka enableautotopicFailure 重置消费组偏移量成功 kafka KafkaresetconsumeroffsetSuccess 重置消费组偏移量失败 kafka KafkaresetconsumeroffsetFailure 创建用户成功 kafka createUserSuccess 创建用户失败 kafka createUserFailure 删除用户成功 kafka deleteUserSuccess 删除用户失败 kafka deleteUserFailure 更新用户策略成功 kafka updateUserPoliciesTaskSuccess 更新用户策略失败 kafka updateUserPoliciesTaskFailure
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的DMS for Kafka操作列表
      • 配置应用日志策略
        参数 参数说明 存储类型 选择存储类型。 “容器路径”:日志仅输出到容器路径,无需挂载主机路径。 主机路径 存储类型为“主机路径”时需要设置。 输入主机上的日志存储路径。 容器挂载 设置“挂载路径”:输入数据卷挂载到应用上的路径。 须知 请不要挂载在系统目录下,如“/”、“/var/run ” 等,会导致应用异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响应用启动的文件,否则文件会被替换,导致应用启动异常,应用创建失败。 挂载高危目录的情况下,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。设置“主机扩展路径”。 None:不配置拓展路径。 PodUID:Pod的ID。 PodName:Pod的名称。 PodUID/ContainerName:Pod的ID/容器名称。 PodName/ContainerName:Pod名称/容器名称。设置“老化周期”。 Hourly:每小时扫描一次日志文件。如文件超过20MB,会将其压缩到一个历史文件中并转储到日志所在目录下,并清空原文件。 Daily:每天扫描一次日志文件。如文件超过20MB,会将其压缩到一个历史文件中并转储到日志所在目录下,并清空原文件。 Weekly:每周扫描一次日志文件。如文件超过20MB,会将其压缩到一个历史文件中并转储到日志所在目录下,并清空原文件。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用运维
        配置应用日志策略
      • 翼MR集群版本对应的操作系统是什么?
        本章节主要介绍翼MapReduce集群版本适配的主机操作系统。 翼MR集群版本与主机操作系统对应的关系如下表: 翼MR集群版本 X86计算 翼MR2.16.0 CtyunOs 2.0.1
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        翼MR集群版本对应的操作系统是什么?
      • 精准访问控制
        本节介绍如何配置全局精准访问控制规则。 防护对象接入Web应用防火墙后,您可以选择开启全局精准访问控制功能,并配置精准访问控制规则。 全局精准访问控制支持对全局域名或单个域名生效。 全局精准访问控制允许自定义访问控制规则,通过对请求路径、请求URI、Cookie、请求参数、Header、referer、UserAgent等多个特征进行条件组合,对访问请求进行特征匹配实现管控,有针对性地阻断各类攻击行为。 前提条件 已购买WAF云SaaS型实例,且实例版本为标准版及以上版本。 网站已通过“域名接入”方式接入WAF进行防护。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 全局防护配置”,进入全局防护配置页面。 5. 定位到“精准访问控制”模块,可以选择开启/关闭防护。 6. 点击防护规则右侧的“前去配置”,进入全局精准访问控制页面。 7. 单击“新建防护规则”,配置全局精准访问控制规则。 参数说明如下: 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 企业项目 选择需要配置全局精准访问控制规则对象所在的企业项目。 接入对象 设置精准访问控制规则的作用对象,支持选择“全部防护对象”或选择“特定防护对象”。 说明 全局精准访问控制不支持独享版和监听器防护对象。 匹配条件 设置访问请求需要匹配的条件(即特征)。单击“新增条件”可以设置最多30个条件。存在多个条件时,多个条件必须同时满足才算命中。 关于匹配条件的配置描述,请参见匹配条件字段说明。 处置动作 定义触发规则后执行的动作,可选值: 观察 拦截 放行 验证码 JS验证 重定向 过期时间 规则配置后,规则状态开启即生效。可通过设置过期时间,为该规则定义生效时间段。过期时间可选: 永久生效 限定日期:自定义设置失效日期 优先级 代表该规则在精准访问控制模块中执行的优先级。 可输入1~100的整数,数字越大,代表这条规则的优先级越高。相同的优先级下,创建/更新时间越晚,优先级越高。 8. 单击“保存”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        全局防护配置
        精准访问控制
      • 会话保持(1)
        会话保持与不保持的区别? 会话保持和不保持是用于描述负载均衡器在请求分发时处理连接的两种不同方式。 会话保持:当负载均衡器配置为会话保持时,它将尝试将特定客户端的所有请求都发送到同一台后端主机。当客户端与后端主机建立连接后,负载均衡器将会话信息保存,并在后续的请求中使用该信息来识别并将请求发送到正确的后端云主机。这样可以确保在整个会话期间,由同一客户端发起的请求都被发送到相同的主机,从而保持会话状态的连续性。 不保持:当负载均衡器配置为不保持时,它会将每个请求独立地分发到后端主机,而不考虑之前的会话状态。负载均衡器每次都会根据负载均衡算法选择一台合适的后端主机来处理请求。这种方式适用于无状态应用,其中每个请求都是独立的,主机可以根据每个请求的内容来响应,而不依赖于之前的会话信息。 会话保持时间(分钟)默认时间是多少?能改大吗? 会话保持的时间,取值范围为1 86400,默认1000秒,并且可以修改。 如何使用Linux curl测试弹性负载均衡会话保持? 在使用Linux curl测试弹性负载均衡(ELB)会话保持时,你可以按照以下步骤进行操作: 1. 安装curl:如果你的Linux系统上没有安装curl,可以使用适合你的包管理器进行安装。例如,在Ubuntu上可以使用以下命令安装curl: sudo apt update sudo apt install curl 2. 准备测试网址:获取弹性负载均衡器(ELB)的URL或域名,确保ELB后面有多个可用的后端实例,确保ELB开启“会话保持”功能。 3. 使用curl发送请求:使用curl命令发送多个请求,并观察结果。你可以使用以下命令进行测试: curl c cookies.txt [弹性负载均衡器的URL] 4. 其中,c cookies.txt参数用于保存从主机接收到的cookie信息到cookies.txt文件中。 5. 多次运行curl命令:多次运行上述curl命令,以便发送多个请求。你可以使用循环来简化测试过程。以下是一个示例: for i in {1..5}; do curl b cookies.txt c cookies.txt [弹性负载均衡器的URL]; done 6. 在上述示例中,b cookies.txt参数用于在每次请求中携带之前收到的cookie信息来维持会话。 7. 检查请求的响应:检查每个请求的响应,并观察结果。如果会话保持正常,所有的请求应该被发送到相同的后端实例,从而保持会话状态的连续性。
        来自:
      • 配置应用发现
        自定义应用发现规则 步骤 1 在左侧导航栏中选择“配置管理 > 应用发现”。 步骤 2 单击“添加自定义应用发现规则”,配置应用发现规则。 步骤 3 选择预探测主机。 1. 自定义一个规则规则名称(例如,ruletest)。 2. 选择一个典型的主机(例如,hhhhhh27465),用于在应用发现规则配置过程中预验证规则的有效性,最终在哪些主机上执行本规则,将会在步骤6进行配置。完成后单击“下一步”。 步骤 4 设置应用发现规则。 1. 单击“添加检查项”,使满足检查项的进程能被AOM发现。 AOM将发现满足检查项的进程,例如,命令行参数包含“ovsvswitchd unix:”,且环境变量中包含“SUDOUSERpaas”的进程。 说明 为了能精准的探测到符合您预期的进程,建议您在添加检查项时,填写进程的独有特征,即填写更容易识别出预期进程的关键字作为检查项。 您至少要添加一条检查项,检查项您最多可添加5条。当有多条检查项时,所有检查项同时满足,AOM才能发现进程。 2. 添加检查项完成后,单击“开始探测”,查找符合的进程。 如果20s后未探测到符合条件的进程,您需要修改发现规则后继续探测;如果探测到符合的进程,将可进入下一步的操作,否则不能进入后续操作。 步骤 5 设置组件名称。 1. 设置组件名称。 在“组件名称设置”下单击“添加命名项”,为已发现的进程设置组件名。例如,添加固定文字"apptest"拼接起来作为组件名。 说明 若您未设置组件名,则组件名默认为unknownapplicationname。 当添加了多条命名项时,所有命名项将拼接在一起作为进程的组件名,同名组件的指标将被汇聚在一起。 2. 预览组件名称。 若不符合要求,您可在“组件名称预览”表中单击对其重新命名。 步骤 6 设置优先级和探测范围。 1. 设置优先级:优先级即当有多个规则时,优先使用哪个规则发现组件。您可输入1~9999,数字越小优先级越高,例如,1优先级最高,9999优先级最小。 2. 配置探测范围:选择可探测的主机,即已配置规则将会在哪个主机上执行。如果不选任何主机,规则将会在所有主机上执行,包含后续新增的主机。 步骤 7 单击“添加”,完成配置。AOM会采集进程的指标数据。 步骤 8 等待大约两分钟后,您可在左侧导航栏中选择“监控 > 组件监控”,在集群下拉列表框中选择主机(例如,hhhhhh27465),找到已被监控的组件(例如,/openvswitch/)。
        来自:
        帮助文档
        应用运维管理
        用户指南
        资源接入AOM
        配置应用发现
      • 用户权限
        IAM帐户权限异常该如何处理? 如果您需要使用主机监控功能,则用户组下子用户必须带有Security Administrator权限,若无Security Administrator权限会出现权限异常提示,请联系帐号管理员修改权限。 进入云监控服务提示权限不足? 此问题与权限配置有关,一般为IAM子帐号权限不足,需检查IAM配置的权限。 1. 管理员使用主账户登录管理控制台。 2. 在统一身份认证服务,左侧导航窗格中,单击“用户组”。 3. 展开子帐号所属的用户组的详情。 4. 为子帐号所属的用户组添加相应权限。
        来自:
        帮助文档
        云监控服务
        常见问题
        用户权限
      • 实例主机手动创建了teledb用户导致开通实例失败
        本文为您介绍实例主机手动创建了teledbx用户导致开通实例失败的问题原因和解决方案。 问题现象 创建实例开通失败。 原因分析 经过查看错误日志,发现其手动创建teledbx用户。由于在开通创建实例时,系统会自动创建teledbx用户,无需手动创建。 解决方案 1. 执行如下命令删除实例主机teledbx用户。 plaintext userdel teledbx 2. 在管控台中选择实例管理 > 工单管理 ,单击所创建实例行所在的操作列的重新施工即可。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        安装部署手册
        常见问题
        实例主机手动创建了teledb用户导致开通实例失败
      • 实例主机手动创建了teledb用户导致开通实例失败
        本文为您介绍实例主机手动创建了teledbx用户导致开通实例失败的问题原因和解决方案。 问题现象 创建实例开通失败。 原因分析 经过查看错误日志,发现其手动创建teledbx用户。由于在开通创建实例时,系统会自动创建teledbx用户,无需手动创建。 解决方案 1. 执行如下命令删除实例主机teledbx用户。 plaintext userdel teledbx 2. 在管控台中选择实例管理> 工单管理 ,单击所创建实例行所在的操作列的重新施工即可。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        安装部署手册
        常见问题
        实例主机手动创建了teledb用户导致开通实例失败
      • 实例主机手动创建了teledbx用户导致开通实例失败
        本文为您介绍实例主机手动创建了teledbx用户导致开通实例失败的问题原因和解决方案。 问题现象 创建实例开通失败。 原因分析 经过查看错误日志,发现其手动创建teledbx用户。由于在开通创建实例时,系统会自动创建teledbx用户,无需手动创建。 解决方案 1. 执行如下命令删除实例主机teledbx用户。 userdel teledbx 2. 在管控台中选择实例管理> 工单管理 ,单击所创建实例行所在的操作 列的重新施工即可。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        实例主机手动创建了teledbx用户导致开通实例失败
      • 保存病毒查杀配置
        接口功能介绍 保存病毒查杀配置 接口约束 无 URI POST /v1/virus/virusAndRealTimeConf 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String ContentType application/json 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 day 是 Integer 检测频率 1:每天 3:每3天 7:每7天 1 date 是 String 检测时间 00:00的意思是每day天的00:0000:30随机时间开始病毒查杀扫描 00:00 checkModel 是 Integer 检测模式,1:快速检测,2:全盘扫描,3:自定义扫描, 1 realTimeStatus 是 Integer 实时检测开关 开启:1 关闭:0 1 periodicConfStatus 是 Integer 定时检测开关 开启:1 关闭:0 1 localCheckStatus 是 Integer 本地检测开关 开启:1 关闭:0 1 periodicAgentGuidList 否 Array of Strings 定时检测的guid列表 [] realTimeAgentGuidList 否 Array of Strings 实时检测的guid列表 [] periodicEnableScope 是 String 定时检测作用范围 OPTIONAL自选主机 ALL所有主机 ALL realTimeEnableScope 是 String 实时检测作用范围 OPTIONAL自选主机 ALL所有主机 ALL
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        病毒查杀
        保存病毒查杀配置
      • 对主机扫描出的漏洞执行“忽略”操作有什么影响?
        本节介绍对主机扫描出的漏洞执行“忽略”操作有什么影响。 在扫描详情页面中,如果您确认扫描出的漏洞不会对主机造成危害,您可以在目标漏洞所在行的“操作”列,单击“忽略”,忽略该漏洞,后续执行扫描任务会扫描出该漏洞,但相应的漏洞统计结果将发生变化,扫描报告中也不会出现该漏洞。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        主机扫描类
        对主机扫描出的漏洞执行“忽略”操作有什么影响?
      • 风险总览Tab页
        本小节介绍服务器安全卫士风险总览Tab页,以图表形式从总体上预览系统风险项,直观感受到系统现存问题。 主要由以下 7 个模块组成: 风险概况:按照系统总体风险情况进行评估打分; 风险趋势:反映过去一段时间风险评分的变化趋势; 风险类别统计:反映不同类别的风险项的统计情况; 应用的风险项统计:反映不同“应用”的风险项的统计情况,这里的“应用”为泛 指,可能是软件应用,如Redis,MySQL 等等;软件包或依赖库的名称,如glibc,OpenSSL;补丁名称与系统相关的对象,如 kernel,Linux,bash 等等; 易受攻击主机列表:查看最易遭受攻击的主机; 危急风险项:展示风险最大,最应该被修复的风险项。最应该被修复的衡量标准为危险程度最高(危急),且影响的主机的资产等级高; 业务组的风险项统计:反映不同业务组的主机的风险项统计情况。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        风险发现
        风险总览
        风险总览Tab页
      • 应用场景
        存储容灾服务可为用户数据中心提供容灾上云以及云上容灾的服务。适用于异步复制、容灾演练以及主机迁移的场景。 异步复制 异步复制可为本地数据中心到天翼云的容灾提供秒级RPO主机级容灾保护,采用存储层异步复制技术提供可用区间的容灾保护,满足数据崩溃一致性。当生产站点因为不可抗力因素(比如火灾、地震)或者设备故障(软、硬件破坏)导致应用在短时间内无法恢复时,通过简单的配置,即可在容灾站点迅速恢复业务。 容灾演练 在不影响业务的情况下,通过容灾演练,模拟真实故障恢复场景,制定应急恢复预案,检验容灾方案的适用性、有效性。当真实故障发生时,通过预案快速恢复,提高业务连续性。 主机迁移 采用SDRS的整机数据复制能力,可以轻松将本地服务器迁移上云或者将云上主机迁移至其他可用区或者其他地域数据中心。
        来自:
        帮助文档
        存储容灾服务
        产品简介
        应用场景
      • Redis节点主机宕机
        本章节介绍Redis节点主机宕机故障演练。 背景介绍 Redis 高可用性依赖主备切换机制,以应对主节点突发故障。当承载主节点的物理机或虚拟机宕机(如硬件故障、电源中断)时,服务能否快速恢复取决于备用节点能否迅速升级为新主节点。本演练模拟主机宕机场景,检验 Redis 实例的自动高可用切换能力,并验证客户端应用在灾难情况下的韧性。 基本原理 通过关闭节点主机,模拟节点宕机。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择主机宕机动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        数据库
        分布式缓存服务Redis版
        Redis节点主机宕机
      • Redis节点主机宕机(1)
        本章节介绍Redis节点主机宕机故障演练。 背景介绍 Redis 高可用性依赖主备切换机制,以应对主节点突发故障。当承载主节点的物理机或虚拟机宕机(如硬件故障、电源中断)时,服务能否快速恢复取决于备用节点能否迅速升级为新主节点。本演练模拟主机宕机场景,检验 Redis 实例的自动高可用切换能力,并验证客户端应用在灾难情况下的韧性。 基本原理 通过关闭节点主机,模拟节点宕机。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择主机宕机动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。
        来自:
      • 配置Kafka实例的公网访问
        关闭IPv4公网访问(不支持修改SASL开关) 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例的名称,进入实例的“基本信息”页面。 5. 在“公网访问”后,单击,完成公网访问的关闭。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示操作成功。 关闭公网访问后,需要设置对应的安全组规则(请见表2),才能通过内网成功连接Kafka。 表2 Kafka实例安全组规则(内网访问) 方向 协议 类型 端口 源地址 说明 入方向 TCP IPv4 9092 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(关闭SSL加密)。 入方向 TCP IPv4 9093 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(开启SSL加密)。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问Kafka实例,无需添加表2的规则。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        配置Kafka实例的公网访问
      • 通过自定义脚本实现SAP HANA一致性备份
        本章节以SuSE 11 SP4 for SAP操作系统下HANA 2.0单机版为例,介绍如何通过自定义脚本来冻结、解冻HANA数据库,以实现对HANA数据库的数据库备份。 场景介绍 某企业购买了云主机,并在上面安装了HANA 2.0单机版数据库,用于存放业务数据,随着数据量的增加,之前的崩溃一致性保护已经满足不了RTO、RPO的要求,决定采用应用一致性备份,减小RTO与RPO。 数据准备 准备项 说明 示例 ::: HANA用户名 连接HANA SYSTEMDB数据库时使用的用户名 system HANA密码 连接HANA SYSTEMDB数据库时使用的密码 Example@123 HANA实例编号 连接HANA数据库时使用的实例编号 00 HANA SID 连接HANA数据库时使用的SID WXJ 详细步骤 步骤1、加密HANA用户密码,供自定义脚本使用。 1.登录HANA服务器,输入 cd /home/rdadmin/Agent/bin/ ,进入Agent目录。 2.执行 /home/rdadmin/Agent/bin/agentcli encpwd ,回显如下: Enter password: 输入HANA用户的密码,并按“Enter”,屏幕上就会打印出加密后的密码,将其拷贝到剪贴板中。 步骤2、执行 cd /home/rdadmin/Agent/bin/thirdparty/ebkuser ,进入自定义脚本目录,执行 vi hanafreeze.sh ,打开HANA示例冻结脚本。 步骤3、将下图所示的HANAUSER HANAPASSWORD INSTANCENUMBER DBSID修改为实际值,其中HANAPASSWORD为步骤1的屏幕输出。 也可以使用sed命令来直接进行修改: sed i 's/^HANAUSER./HANAUSER" XXX "/' hanafreeze.sh hanaunfreeze.sh ,其中XXX为数据库用户名。 sed i 's/^HANAPASSWORD./HANAPASSWORD" XXX "/' hanafreeze.sh hanaunfreeze.sh ,其中XXX为步骤1中打印出的密码。 sed i 's/^INSTANCENUMBER./INSTANCENUMBER" XXX "/' hanafreeze.sh hanaunfreeze.sh ,其中XXX为数据库实例编号。 sed i 's/^DBSID./DBSID" XXX "/' hanafreeze.sh hanaunfreeze.sh ,其中XXX为数据库SID。 此操作会同时修改冻结解冻脚本,所以无需再执行步骤3。 步骤4、执行 vi hanaunfreeze.sh ,打开HANA示例解冻脚本,修改此脚本中的用户名、密码、实例编号与SID hanafreeze.sh与hanaunfreeze.sh脚本实现了基本的数据库冻结与解冻操作,如果你在冻结、解冻时有其它额外步骤需要执行,可以自行在其中进行修改。 警告: 冻结SAP HANA数据库时,按照SAP官方建议,需要冻结Data卷的XFS文件系统,否则可能出现数据不一致的问题。在此示例脚本中,将会查询出HANA使用的Data卷挂载点,并用xfsfreeze 命令进行冻结。 如果HANA系统未按照SAP官方建议使用一个独立分区来存放Data卷数据,而是与系统卷共用一个分区,则请修改hanafreeze.sh脚本,注释掉xfsfreeze相关行,防止整个系统都被冻结,但此时可能出现备份数据不一致的问题。
        来自:
        帮助文档
        云服务备份
        最佳实践
        通过自定义脚本实现数据库备份
        通过自定义脚本实现SAP HANA一致性备份
      • 购买类
        本章节介绍人脸识别关于购买类的常见问题与解答。 人脸识别是否支持续订? 资源包是一次性产品,不支持标准续订操作,可通过连续购买资源包实现续订相同的功能。 当已订购的资源包订单即将到期或即将用完时,可通过订购新的资源包进行续订,按照资源包下单顺序抵扣额度。 资源包买错了可以退款吗? 退订说明:人脸识别产品服务开通后7天内如无调用接口支持退订,退订后即可关闭。 ● 退订地址:控制台—费用中心—订单管理—退订管理。 ● 另外,您可通过天翼云官网工单或者客服电话【4008109889】沟通申请退款,款项会原路退回。 资源包使用到一半可以退吗? 资源包一经售卖且产生正常调用抵扣,不允许进行退款。 资源包属于预付费产品,建议您在购买资源包的时候按实际调用情况预估调用量以免造成资源浪费。 人脸识别服务是否支持代金券付款? 操作方式:支持代金券付款,在卡券管理选择相应的代金券进行使用。 操作地址:我的—费用中心—卡券管理。
        来自:
        帮助文档
        人脸识别
        常见问题
        购买类
      • CDN节点响应4XX状态码时是否计费
        本文解答CDN节点响应4XX状态码时是否计费的问题。 4XX状态码一般为客户端访问错误造成的特殊状态码,最常见的是403和404。404是指客户源站没有请求的资源,而403是指服务端主动拒绝客户端请求,一般是因为客户域名有配置防盗链、防攻击等策略,而用户请求命中相应鉴权策略导致。例如,客户域名为避免恶意访问行为,通常情况下会选择在CDN开启如Referer防盗链、IP黑/白名单、UA黑/白名单、URL鉴权等访问控制功能。此时请求一旦命中相应的403鉴权规则,CDN服务器端即会返回403或其他自定义的特殊状态码。正常情况下,404和403的访问均较少,且响应内容仅包含响应头部,产生的流量也较小。但特殊情况下,客户域名遭受恶意刷量或攻击时,CDN节点会收到大量命中403鉴权规则或源站不存在资源的访问请求,造成CDN节点大量响应403或404,从而产生对应日志及计费数据。因CDN节点在对用户请求进行鉴权以及响应4XX状态码时,确实有产生CPU和带宽资源消耗,故客户需要自行承担此情况下产生的流量带宽费用及可能的请求数费用。
        来自:
        帮助文档
        CDN加速
        常见问题
        订购计费
        CDN节点响应4XX状态码时是否计费
      • 文件比较与同步(对象存储到对象存储)
        本文为您介绍文件比较与同步的相关内容。 概要 应用场景: 支持对象存储到对象存储之间的数据比较与同步,并且生成比较报告供一致性检查。此场景支持两种数据捕获方式: 方式1:调用对象存储接口对源、备存储同步路径下的所有对象进行扫描、比对,获得增量对象(新增/差异),并将增量对象同步到目标端对应路径下;在海量对象场景下扫描/比对的对象太多,导致这种方式同步增量数据效率过低; 方式2:通过某些方式获取到增量对象信息(如:对象存储自行监控、通过应用数据库表获取等),并将增量对象的信息以某种类型文件存放;DTO通过读取文件内容来获取增量对象信息,并直接将源端对应的增量对象直接同步到目标端;此方式避免了扫描、比对海量对象的时间,提高海量对象场景的增量数据同步效率。 要求:要有应用/组件(一般是对象存储)负责实现监控增量对象并将增量对象以固定格式导出成文件的一系列动作。 前置条件 文件比较与同步的环境要求如下: 1. DTO主机需要安装dto安装包。详见安装DTO。 2. 在MDR控制台中添加对象存储。详见资源管理·对象存储。 3. 在MDR控制台中添加DTO主机并处于在线状态。详见资源管理·DTO主机。 4. MDR控制台需具备有dto的许可,并且该dto许可剩余允许传输量不为0。 新建文件比较与同步 1. 点击左侧菜单栏“资源同步管理”“对象存储数据灾备”“文件比较和同步”,进入文件比较和同步列表页,点击“新建”按钮,进入新建页面。 2. 通用配置页面各配置项如下: 名称:任意指定,便于管理即可。 同步主机:下拉框中会列出已注册至MDR控制台的DTO同步主机供选用; 规则类型:包含三类规则:仅比较/文件比较与同步 / 文件清单同步,下文会分别介绍各类规则的作用和使用场景; 同步策略类型:“手动同步”“定期同步”和“间隔同步”。 手动同步:需手动启动规则。此选项为默认选项。 定期同步:可指定每个月的某几天或者每个星期的某几天中的某几个时间点开始同步,规则会在设置的时间自动开始运行。 间隔同步:指的是从上一次规则完成到下一次规则启动之间的间隔,最小间隔时间单位为秒。 定期同步策略:用户自行添加定期同步策略。可以设定多个不重叠的定时同步策略,彼此独立。 间隔同步策略:用户自行添加时间间隔同步策略。选择此规则开始时间,并设置间隔时间(单位为秒)。 源存储:用户自行选择要源端的存储数据用来做对比。 目标存储:用户自行选择对象存储数据作为目标存储对比。 同步路径映射:用户自行配置需要同步的数据路径。同步路径支持手动输入路径。 排除路径:用户自行选择将同步数据路径中的某些子路径设置为排除路径,排除路径中的数据不进行传输。 文件后缀名过滤:以后缀名为过滤条件,格式为“文件扩展名”,若多个过滤条件则用逗号隔开,如:“.txt”,“.doc”,“.rtf”。 排除:不同步源路径中该过滤项中定义的文件类型。 包含:只同步源路径中该过滤项中定义的文件类型。 文件日期过滤:通过正则表达式对同步路径下文件的日期进行筛选,文件日期符合正则表达式要求的文件被过滤出来。 排除:不同步源路径中符合筛选条件的文件。 包含:只同步源路径中符合筛选条件的文件。 3. 比较设置页面各配置项如下: 比较类型:重镜像时的校验方式。 文件大小:通过源、目标文件的大小进行比较。 对象智能比对:提交规则时会判断备端存储是否支持自定义META,不支持则不允许规则提交。智能比对即:通过比文件当前的修改时间戳,和上一次同步时文件的修改时间戳(记录在自定义属性META中)来判断文件是否一致(如果修改时间戳一致则认为文件相同,如果修改时间戳不同,则继续对比文件的MD5)。 MD5校验:通过源、目标文件的MD5值进行比较(本地需计算md5,对象存储直接采用Etag,对象存储将收到文件的MD5值放在返回结果的ETag中)。 说明:对象存储返回分片上传文件的MD5有可能为空或是最后一个分片的MD5,因此对象存储的MD5并不完全可靠。“文件大小”比对最快;当文件较大时“对象智能比对”比“MD5校验”快(大文件本地计算md5很慢);当文件较小时“MD5校验”比“对象智能比对”快(对象存储的文件修改时间需从META中获取,一个文件就是一次请求)。 忽略目标端存在文件:DTO不再扫描目标端存储,直接拿源端拆解过后的目录进行传输,传输之前check目标端文件是否存在,如果不存在,就同步,否则跳过该文件;这种类型,可以支持对象存储单一目录上千万的文件。 传输线程数量:可以指定线程个数。一个线程处理一个目录。此选项用于提高数据复制的速度,默认为“10”,数值越高,可用于数据复制的线程越多,但会消耗更多的CPU和内存资源,请根据用户环境适当选择。 对象存储扫描线程数量:可根据需要指定110个线程数。 备端扫描:默认开启,开启后支持孤儿文件处理。 孤儿文件处理方式: 不处理:不删除孤儿文件,存在在目标端。 确认后删除:将孤儿文件计入孤儿文件列表,可通过规则管理界面的“更多·孤儿文件”按钮来查看,以及选择是否要将目标端的孤儿文件删除。 直接删除:将孤儿文件自动从目标端删除。 说明:定期同步或间隔同步策略时不允许配置“确认后删除”;选择“忽略目标端存在的文件”比较类型时,或者开启归档时不允许配置“直接删除”和“确认后删除”。 对象文件路径名: 和源端保持不变:区分大小写,和源端大小写保持一致。 全部为大写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为大写存储在目标路径下。 全部为小写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为小写存储在目标路径下。 备端文件压缩:指的是在本地将文件进行压缩,压缩完后传输到对象存储。仅限于本地到对象存储的规则才支持压缩,压缩传输后,目标端文件名会被修改为:原文件名.i2.zip。 备端文件加密:将同步到目标端数据加密存储。 标准加密:通过设置的加密密钥对源端文件加密后存放到目标端。 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 COS服务端加密:通过对接COS对象存储API接口,上传到该对象存储桶的文件都自动加密,需额外选择加密密钥类型: 加密密钥类型:支持两种加密密钥类型: SSECOS:使用SSECOS加密密钥类型进行加密,无需额外配置; SSEC:使用SSEC加密密钥类型进行加密,需要额外填写加密密钥; 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 保留结果数量:设置“文件比较与同步→报告”中保留的记录条数。 记录流水:默认关闭,开启后会将规则同步的所有文件相关信息(大小、MD5/etag、传输耗时、修改/更新时间)记录在同步主机/usr/drbksoft/dto/data/db/ .db文件中(默认路径),可供审计查看。 4. 带宽设置页面各配置项如下: 全选:开启后,将会选择一周内的所有时间。此选项默认关闭。 时间范围:用户自行勾选具体的生效日。 选择带宽:根据用户需求选择需要执行限速的时间段,可以设定多个不重叠的限速规则,彼此独立,如果带宽设定为0,表示禁止传输。 5. 归档设置页面各配置项如下: 启用归档:不勾选的话不启用归档功能。 文件名转换:归档文件的名称转换,支持两种转换方式: 保持不变:归档文件名与原文件名保持一致。 增加时间后缀:在归档文件名后自动添加归档时间后缀。 归档条件: 时间归档:按照填入文件时间类型的时间点与执行本地到对象存储时的时间点的差值(单位天)。这里的时间选项有两个:文件创建时间、文件修改时间,这两种类型可以只选择某一个,也可以多选,并可以选择几种类型间的关系是与还是或。 命名特征:使用正则表达式进行针对文件名的过滤。 文件类型:通过填入文件类型的后缀名进行对文件类型的过滤(如.txt等),可以匹配多个文件类型,文件后缀名与后缀名之间用“逗号隔开”(如.txt,.exe,.zip)。 归档策略: 同步所有文件,并删除本地符合条件的文件:将源目录下的所有文件全部同步到目标存储的目标目录中,并删除本地符合归档条件的文件。 只同步并删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并删除本地符合归档条件的文件。 只同步但不删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并且不删除源端本地符合归档条件的文件。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        文件比较与同步(对象存储到对象存储)
      • 云容器集群Pod CPU高负载
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择CPU高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 CPU占用率:指定CPU负载百分比,取值范围为0100。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名称。 3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到CPU高负载 动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录云容器引擎控制台,进入目标实例节点的监控指标页,观测CPU使用率指标。 登录云容器引擎控制台,进入Pod实例资源页,观测CPU资源使用量。 2、业务应用验证: 观察运行在目标节点上的业务 Pod 是否出现响应变慢、处理失败率升高等现象。 如果为相关 Pod 配置了基于 CPU 的 HPA 策略,观察是否触发了自动扩容。 验证您的业务监控告警系统是否成功捕获到节点资源异常或应用性能劣化,并触发了相应告警。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod CPU高负载
      • 系统概览
        本章节主要介绍翼MapReduce的系统概览功能。 MRS Manager支持将集群中所有部署角色的节点,按管理节点、控制节点和数据节点进行分类,分别计算关键主机监控指标在每类节点上的变化趋势,并在报表中按用户自定义的周期显示分布曲线图。如果一个主机属于多类节点,那么对应的指标将被统计多次。 该任务指导用户了解MRS集群的概览、及在MRS Manager查看、自定义与导出节点监控指标报表。 操作步骤 登录MRS Manager,具体请参考访问MRS Manager(MRS 2.x及之前版本)。 1. 在MRS Manager选择“系统概览”。 2. 在“时间区间”选择需要查看监控数据的时间段。可供选择的选项如下: 实时 最近3小时 最近6小时 最近24小时 最近一周 最近一个月 最近三个 最近六个月 自定义:选择自定义时,在时间范围内自行选择需要查看的时间。 3. 单击“查看”可以查看相应时间区间的监控数据。 MRS Manager在“服务概览”显示各个服务的“健康状态”和“角色数”。 单击曲线图表上侧的图标,可显示具体的指标说明信息。 4. 自定义监控指标报表。 a.单击“定制”,勾选需要在MRS Manager显示的监控指标。 MRS Manager支持统计的指标共14个,界面最多显示12个定制的监控指标。 集群主机健康状态统计 集群网络读速率统计 主机网络读速率分布 主机网络写速率分布 集群磁盘写速率统计 集群磁盘占用率统计 集群磁盘信息 主机磁盘占用率分布 集群磁盘读速率统计 集群内存占用率统计 主机内存占用率分布 集群网络写速率统计 主机CPU占用率分布 集群CPU占用率统计 b.单击“确定”保存并显示所选指标。 说明 单击“清除”可批量取消全部选中的指标项。 5. 用户可以选择页面自动刷新间隔的设置,也可以单击马上刷新。 支持三种参数值: “每60秒刷新一次”:刷新间隔60秒。 “每120秒刷新一次”:刷新间隔120秒。 “停止刷新”:停止刷新。 说明 勾选“全屏”会将“系统概览”窗口最大化。 6. 导出监控指标报表。 a.选择报表的时间范围。可供选择的选项如下: 实时 最近3小时 最近6小时 最近24小时 最近一周 最近一个月 最近三个月 最近六个月 自定义:选择自定义时,自行选择需要导出报表的时间。 b.单击“导出”,Manager将生成指定时间范围内、已勾选的集群监控指标报表文件,请选择一个位置保存,并妥善保管该文件。 说明 如果需要查看指定时间范围的监控指标对应的分布曲线图,请单击“查看”,界面将显示用户自定义时间范围内选定指标的分布曲线图。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        监控管理
        系统概览
      • 使用ICAgent采集容器日志
        参数 参数说明 存储类型 主机路径:HostPath模式,将主机路径挂载到指定的容器路径(挂载路径)。用户可以在节点的主机路径中查看到容器输出在挂载路径中的日志信息。 容器路径:EmptyDir模式,将节点的临时路径挂载到指定的路径(挂载路径)。临时路径中存在的但暂未被采集器上报到AOM的日志数据在Pod实例删除后会消失。 主机路径 请输入主机的路径,如:/var/paas/sys/log/nginx 挂载路径 请输入数据存储要挂载到容器上的路径,如:/tmp 说明 请不要挂载到系统目录下,如“/”、“/var/run”等,否则会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 挂载高危目录的情况下 ,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。 AOM只采集最近修改过的前20个日志文件,且默认采集两级子目录。 AOM只采集挂载路径下的“.log”、“.trace”、“.out”文本日志文件。 容器中挂载点的权限设置方法,请参见为 主机扩展路径 仅“主机路径”类型需要填写 通过实例的ID或者容器的名称扩展主机路径,实现同一个主机路径下区分来自不同容器的挂载。 会在原先的“卷目录/子目录”中增加一个三级目录。使用户更方便获取单个Pod输出的文件。 None:不配置拓展路径。 PodUID:Pod的ID。 PodName:Pod的名称。 PodUID/ContainerName:Pod的ID/容器名称。 PodName/ContainerName:Pod名称/容器名称。 采集路径 设置采集路径可以更精确的指定采集内容,当前支持以下设置方式: 不设置则默认采集当前路径下.log .trace .out文件 设置 表示递归采集5层目录下的.log .trace .out文件 设置表示模糊匹配 例子: 采集路径为/tmp/ /test.log表示采集/tmp目录及其15层子目录下的全部以test开头的.log文件。 说明 使用采集路径功能请确认您的采集器ICAgent版本为5.12.22或以上版本。 日志转储 此处日志转储是指日志的本地绕接。 设置:AOM每分钟扫描一次日志文件,当某个日志文件超过50MB时,会立即对其转储(转储时会在该日志文件所在的目录下生成一个新的zip文件。对于一个日志文件,AOM只保留最近生成的20个zip文件,当zip文件超过20个时,时间较早的zip文件会被删除),转储完成后AOM会将该日志文件清空。 不设置:若您在下拉列表框中选择“不设置”,则AOM不会对日志文件进行转储。 说明 AOM的日志绕接能力是使用copytruncate方式实现的,如果选择了设置,请务必保证您写日志文件的方式是append(追加模式),否则可能出现文件空洞问题。 当前主流的日志组件例如Log4j、Logback等均已经具备日志文件的绕接能力,如果您的日志文件已经实现了绕接能力,则无需设置。否则可能出现冲突 建议您的业务自己实现绕接,可以更灵活的控制绕接文件的大小和个数。
        来自:
        帮助文档
        云容器引擎
        用户指南
        运维管理
        使用ICAgent采集容器日志
      • 如何配置客户端参数?
        本节介绍分布式消息服务Kafka客户端参数配置 根据实际业务场景,客户端参数配置适当的值,客户端参数列表及说明如下所示: 表1.生产者客户端 参数 说明 retries 消息发送失败时的重试次数。 retry.backoff.ms 消息发送失败时的重试间隔,建议设置为1000。单位:毫秒。 acks 发送消息的持久化机制。为了提升发送性能, 建议设置为acks1。acks0:无需服务端的Response,性能较高、丢数据风险较大。acks1:服务端主节点写成功即返回Response,性能中等、丢数据风险中等、主节点宕机可能导致数据丢失。acksall:服务端主节点写成功且备节点同步成功才返回Response,性能较差、数据较为安全、主节点和备节点都宕机才会导致数据丢失。 batch.size 发往每个分区的消息缓存量。达到设置的数值时,就会触发一次网络请求,然后Producer客户端把消息批量发往服务器。如果batch.size设置过小,有可能影响发送性能和稳定性。建议保持默认值16384。单位:字节。 linger.ms 每条消息在缓存中的最长时间。若超过这个时间,Producer客户端就会忽略batch.size的限制,立即把消息发往服务器。建议根据业务场景, 将linger.ms设置在100~1000之间。单位:毫秒。 partitioner.class 设置分区策略。建议采用粘性分区策略,可提升发送性能。发送客户端2.4及以上版本,默认采用粘性分区策略模式。 buffer.memory 发送的内存池大小。如果内存池设置过小,则有可能导致申请内存耗时过长,从而影响发送性能,甚至导致发送超时。建议buffer.memory ≧ batch.size 分区数 2。单位:字节。 表2.消费者客户端参数 参数 说明 fetch.min.bytes 消费者从服务端获取数据的最小字节数。设置该参数时请尽量评估消息发送端的消息量,若设置过大可能会导致消费端延迟增大,过小可能会导致消费端频繁拉取消息。单位:字节。 fetch.max.wait.ms 服务端等待的最大时间。单位:毫秒。如果使用Local存储引擎,配置了fetch.min.bytes参数,服务器会等待足够的数据才会返回。超过此时间即使没有足够数据也会返回。如果是云存储引擎,一旦有新数据发送进来, 服务器就会结束等待,不需要等待fetch.min.bytes的值。 max.partion.fetch.bytes 每个分区返回的最大字节数。单位:字节。 session.timeout.ms 消费端发送心跳的时间间隔,如果在心跳时间间隔内没有发送心跳,则服务端会认为消费者死亡,从而触发Rebalance,Rebalance期间客户端将会停止消费数据等待Rebalance完成。建议将此参数设置为3000060000。单位:毫秒。默认有效值:6000300000。 max.poll.records 每次Poll获取的最大消息数量,若此值设置过大则需要尽快处理业务逻辑,避免处理过慢影响下一次Poll数据,从而导致在session.timeout.ms时间内没有发送心跳引起Rebalance。建议该值小于 的值。重要 在Java Client 0.10.1及其以上版本有单独的线程发送心跳,小于此版本或者其他语言的客户端都需考虑处理数据时间和发送心跳的间隔,防止频繁Rebalance影响正常消费。 max.poll.interval.ms 最大的Poll间隔时间,仅在Java Client 0.10.1及其以上版本需配置该参数。如果在间隔时间内消费者没有发送Poll请求,即使在session.timeout.ms参数设置的时间内发送了心跳。服务端也会认为消费者死亡,从而触发Rebalance。因此需注意此值需要合理设置,建议该值大于 的值。通常使用默认值即可。单位:毫秒。默认值:300000。 enable.auto.commit 是否采用自动提交位点机制。true:默认采用自动提交机制。false:不采用自动提交机制。默认值:true。 auto.commit.interval.ms 自动提交位点时间间隔。默认值为1000,单位:毫秒。 auto.offset.reset 消费位点重置策略。latest:从最大位点开始消费。earliest:从最小位点开始消费。none:不做任何操作,即不重置。说明建议设置成latest,而不要设置成earliest,避免因位点非法时从头开始消费,从而造成大量重复。如果是您自己管理位点,可以设置为none。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        如何配置客户端参数?
      • 1
      • ...
      • 185
      • 186
      • 187
      • 188
      • 189
      • ...
      • 500
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      模型推理服务

      应用托管

      人脸检测

      人脸属性识别

      人脸活体检测

      人脸比对

      推荐文档

      产品功能

      Microsoft SQL Server

      产品优势

      客户端下载安装

      邀请参会方

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号