云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      视频监控_相关内容
      • 弹性伸缩使用流程
        本文将介绍弹性伸缩的具体使用流程。 弹性伸缩服务是根据您的业务需求,通过策略自动调整其弹性计算资源的一种管理服务。该服务能够根据预设规则自动调整伸缩组内的云主机数量,弹性伸缩服务的主要使用流程如下图: 1. 准备工作:首先进行准备工作,注册天翼云,确保账户余额,具体流程参见准备工作。 2. 创建伸缩组:创建弹性伸缩首先需要创建伸缩组,伸缩组是具有相同属性和应用场景的云主机实例和伸缩策略的集合。创建伸缩组的基本信息,包括配置最大实例数、最小实例数和关联的负载均衡服务等,具体操作请参见创建伸缩组。 3. 创建伸缩配置:在创建完伸缩组后,可以创建伸缩配置,伸缩配置即伸缩活动中添加的云主机的规格。通常为一个伸缩组内添加云主机实例规格的配置模板,包括云主机的类型、vCPU、内存等。一个伸缩组支持创建一个伸缩配置。具体操作请参见创建伸缩配置。 4. 确认伸缩启用状态:在创建伸缩策略之前,需要确认伸缩组是否处于启用状态,只有伸缩组启用状态为“已启用” 的伸缩组,系统才会监控该伸缩组的伸缩策略,才可能触发伸缩活动。伸缩组创建成功后,状态默认为“已启用”。仅当伸缩组状态为“已停用”才可以启用伸缩组。具体操作步骤请参见启用伸缩组。 5. 创建伸缩策略:确认伸缩组为启用状态,用户可以创建伸缩策略。天翼云弹性伸缩服务支持创建6种策略,分别为告警策略、定时策略、周期策略、目标追踪策略、智能预测策略、简单策略,可以根据业务实际需求来创建对应的策略。具体操作请参见创建伸缩策略。
        来自:
        帮助文档
        弹性伸缩服务 AS
        快速入门
        弹性伸缩使用流程
      • 弹性负载均衡的产品类型
        类型 独享型 共享型 部署模式 负载均衡实例资源独享,实例的性能不受其它实例的影响,您可根据业务需要选择不同规格的实例。 集群部署,同资源池实例 资源共享 ,实例的性能会受其它实例的影响。 实例规格 提供多种规格供选择,不同规格的实例提供差异化的性能指标。 不支持选择实例规格。 性能 当选择多个可用区后,对应的性能规格(新建连接数/并发连接数等)加倍。 例如:单实例最大支持2kw并发,那么双AZ就支持4kw并发。 不提供性能保障。 可用区 支持自定义可用区。 对于公网访问,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上,多个AZ的ELB性能加倍。 对于内网访问: 当从创建ELB的AZ发起访问时,流量将被分配到本AZ中的ELB上,当本AZ的ELB不可用时,容灾到创建的其他AZ的ELB上。 如果本AZ的ELB正常,但是本AZ的流量超过规格,业务也会受影响,内网场景要考虑客户端访问的均衡性。内网流量使用率建议通过AZ粒度监控观察是否超限。 当从未创建ELB的AZ访问时,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上。 对于云专线访问,流量优先分配到专线对接的AZ下部署的ELB,否则分配到其他AZ下的ELB。 对于客户端跨VPC访问,流量优先分配至源VPC子网所在AZ部署的ELB,否则分配到其他AZ下的ELB。 不涉及。 收费 按实例规格计费。 实例免费。 产品定位 具备强大的四层和七层处理能力,支持多种应用协议和高级转发策略。 基础的四层与七层处理能力。 推荐场景 大流量高并发的业务场景,如大型网站、云原生应用、车联网、多可用区容灾应用等。 流量负载较低的业务场景,如小型网站和普通应用。
        来自:
      • 创建镜像会话
        本文对创建镜像会话的操作步骤进行说明。 使用场景 通过创建镜像会话,可以将网络流量从一个网卡复制到另一个网卡,从而实现实时的网络监控和分析。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成筛选条件的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面。 4. 在左侧导航栏,选择“流量镜像镜像会话”选项。 5. 在镜像会话页面,点击右上角的“创建镜像会话”按钮。 6. 根据界面提示,配置名称、描述、VNI参数,然后单击“下一步”,具体配置参数如下: 参数 说明 名称 输入镜像会话的名称输入范围232位,支持大小写英文字母和数字,以英文字母开头。 描述 输入镜像会话的描述信息 VNI 指定一个VNI来区分不同的镜像流量,取值范围为1~16777215。支持自定义VNI的值。 1、对于地域资源池来说,同一用户同一资源池内不允许重复。 2、对于可用区资源池来说,同一用户同一资源池内允许重复。 7. 在关联筛选条件页面,列表展示所有筛选规则,选择一个筛选条件,然后单击“下一步”。 8. 在关联镜像源页面,列表展示所有网卡,选择需要镜像流量的网卡,然后单击“下一步”。 9. 在关联镜像目的页面,选择目标网卡作为镜像目的,单击“下一步”。 10. 对创建的信息进行确认,确认无误后点击“创建”。 11. 配置完成后,单击“返回”或静待几秒后即可回到镜像会话展示界面。 说明 同一个网卡不能即作为镜像源又作为镜像目的。
        来自:
        帮助文档
        虚拟私有云 VPC
        流量镜像
        创建镜像会话
      • 本地日志与日志备份
        MySQL的本地日志(Binlog)是一种二进制日志文件,记录MySQL数据库所有修改操作的日志文件,可用于自行搭建主从架构、订阅数据等。本文为您介绍如何管理关系数据库MySQL版实例的本地日志。 本地日志与日志备份 本地备份和日志备份有所区别,具体区别见下表。 对比项 本地日志 日志备份 使用场景 用于自行搭建主从架构、订阅数据等。 在备份策略中开启Binlog日志备份后,本地日志会实时上传(复制)到备份空间,形成日志备份。日志备份用于恢复数据到备份保留时间内的任意时间点。 开启/关闭 默认开启,无法关闭,支持按策略清理 默认开启,与数据备份保留天数一致,可关闭,关闭后影响恢复至任意时间点功能。 空间占用 占据实例存储空间 占据备份空间 费用说明 如存储空间无法满足业务需求,进行扩容,涉及费用。 开启日志备份不收费,备份有免费额度,当数据备份和日志备份总大小超过免费额度时,收取超过部分的备份空间费用。 备份类型为对象存储,下载日志备份将涉及流量费用。 查看本地日志大小 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到待查看本地日志的实例,单击操作 列的监控。 4. 单击数据库页签。 找到binlogsize 区域,即可查看您的本地日志大小。 说明 主节点和从节点的Binlog大小在正常情况下默认是一致的,但由于一些原因(例如,主从延迟、Binlog dump延迟、DTS迁移任务或从节点仍在读取应用日志等),可能会导致主、从节点的Binlog大小不一致。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        Binlog下载与清理
        本地日志与日志备份
      • 管理应用用户生产消费权限
        场景描述 Kafka管理应用用户生产消费权限的场景描述如下: 应用开发和测试:在应用开发和测试阶段,需要为开发人员和测试人员提供适当的生产和消费权限,以便他们能够读取和写入Kafka主题。这样可以确保他们能够有效地测试和验证应用程序的功能。 应用部署和运维:在将应用程序部署到生产环境中时,需要为运维团队提供适当的生产和消费权限。运维团队可以使用这些权限来监控和管理Kafka集群,并处理任何可能的故障或问题。 数据分析和报告:对于数据分析师和报告人员,他们可能需要从Kafka主题中读取数据进行分析和生成报告。为他们提供适当的消费权限可以帮助他们获取所需的数据,并进行相关的数据分析和报告工作。 数据集成和同步:在数据集成和同步的场景中,可能需要为特定的应用或系统提供生产和消费权限。这样可以确保数据的可靠传输和同步,以满足不同系统之间的数据需求。 多租户环境:在多租户环境中,需要管理不同租户之间的生产和消费权限。为每个租户分配独立的权限可以确保数据的隔离和安全性,同时满足不同租户的需求。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页的操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入用户管理界面,该页面展示用户列表。 (5)选择相应的用户,点击其右侧的”用户权限“按钮进行权限管理。 (6)生产权限。先点击”添加生产权限“按钮,在弹窗的左侧选择需要添加生产权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。 (7)消费权限。左上角切换消费权限,点击”添加消费权限“按钮,在弹窗的左侧选择需要添加消费权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        管理应用用户生产消费权限
      • 主子账号和IAM权限管理
        系统策略 Kafka默认提供三种系统策略供用户选择,策略仅包括管理控制台内的相关功能权限,涉及订单下单等非管理控制台的权限还需进行相应的权限配置。Kafka的三种默认策略分别是管理员策略(admin),使用者策略(user),浏览者策略(reviewer),三种策略的权限模型具体如下: 功能模块 权限名称 IAM角色 功能模块 权限名称 KAFKA admin KAFKA user KAFKA viewer 实例管理 实例列表 Y Y Y 实例管理 操作审计 Y Y Y 实例管理 集群迁移 Y Y 实例列表 创建实例 Y 实例列表 磁盘扩容 Y 实例列表 节点扩容 Y 实例列表 规格扩容 Y 实例列表 规格缩容 Y 实例列表 续订 Y 实例列表 退订 Y 实例列表 到期转按需 Y 实例列表 重启 Y 实例列表 设置公网IP Y 管理 实例详情 Y Y Y 管理 集群信息 Y Y Y 管理 主题管理 Y Y Y 管理 消费组管理 Y Y Y 管理 应用用户管理 Y Y Y 管理 命名空间管理 Y Y Y 管理 监控信息 Y Y Y 管理 消息查询 Y Y Y 管理 配置管理 Y Y Y 管理 告警管理 Y Y 主题管理 新建Topic Y Y 主题管理 删除Topic Y Y 主题管理 分区状态 Y Y Y 主题管理 生产拨测 Y Y 主题管理 删除消息 Y Y 主题管理 分区平衡 Y Y 主题管理 批量创建主题 Y Y 主题管理 修改 Y Y 消费组管理 新建消费组 Y Y 消费组管理 删除消费组 Y Y 消费组管理 消费拨测 Y Y 消费组管理 批量创建消费组 Y Y 消费组管理 添加主题 Y Y 消费组管理 批量订阅 Y Y 消费组管理 重置消费位置 Y Y 消费组管理 消息堆积 Y Y Y 命名空间管理 获取用户Token Y Y Y 命名空间管理 新建命名空间 Y Y 命名空间管理 修改命名空间 Y Y 应用用户管理 新建用户 Y Y 应用用户管理 删除用户 Y Y 应用用户管理 批量创建用户 Y Y 应用用户管理 添加消费者权限 Y Y 应用用户管理 添加生产者权限 Y Y 应用用户管理 修改用户 Y Y 实例管理 offset查询 Y Y Y 实例管理 时间戳查询 Y Y Y 配置管理 查询配置 Y Y Y 配置管理 修改配置 Y
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        主子账号和IAM权限管理
      • 与 MySQL 兼容性对比
        Performance schema 主要使用Prometheus 体系产品来存储及查询相关的性能监控指标,所以 Performance schema 部分表是空表。 查询计划 执行计划在输出格式、内容、权限设置方面与MySQL 有较大差别。 系统变量optimizerswitch 是只读的,对查询计划没有影响。 内建函数 支持常用的MySQL 内建函数,有部分函数并未支持。可通过执行 SHOW BUILTINS 语句查看可用的内建函数。 DDL 的限制 所有支持的DDL 变更操作都是在线执行的,且存在以下限制: 使用 ALTER TABLE 语句修改一个表的多个模式对象(如列、索引)时,不允许在多个更改中指定同一个模式对象。例如,ALTER TABLE t1 MODIFY COLUMN c1 INT, DROP COLUMN c1在两个更改中都指定了c1列,执行该语句会输出 Unsupported operate same column/index 的错误。 不支持使用单个 ALTER TABLE 语句同时修改多个特有的模式对象,包括TIFLASH REPLICA,SHARDROWIDBITS,AUTOIDCACHE 等。 ALTER TABLE 不支持少部分类型的变更。比如,不支持从 DECIMAL 到 DATE 的变更。当遇到不支持的类型变更时,将会报 Unsupported modify column: type %d not match origin %d 的错误。 ALGORITHM{INSTANT,INPLACE,COPY} 语法只作为一种指定,并不更改ALTER 算法。 不支持添加或删除 CLUSTERED 类型的主键。 不支持指定不同类型的索引 (HASHBTREERTREEFULLTEXT)。若指定了不同类型的索引,会解析并忽略这些索引。 分区表支持 HASH、RANGE、LIST 和 KEY 分区类型。KEY分区类型暂不支持分区字段列表为空的语句。对于不支持的分区类型,会报 Warning: Unsupported partition type %s, treat as normal table 错误,其中%s 为不支持的具体分区类型。 Range、Range COLUMNS、List、List COLUMNS 分区表支持 ADD、DROP、TRUNCATE、REORGANIZE 操作,其他分区操作会被忽略。 Hash 和 Key 分区表支持 ADD、COALESCE、TRUNCATE 操作,其他分区操作会被忽略。 不支持以下分区表语法: SUBPARTITION {CHECKOPTIMIZEREPAIRIMPORTDISCARDREBUILD} PARTITION
        来自:
        帮助文档
        分布式融合数据库HTAP
        产品介绍
        与 MySQL 兼容性对比
      • 修改自定义参数模板
        参数名 参数解释 取值范围 默认值 timeout 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。Proxy集群实例不支持该参数。 0~7200,单位:秒。 0 appendfsync 操作系统的fsync函数刷新缓冲区数据到磁盘,有些操作系统会真正刷新磁盘上的数据,其他一些操作系统只会尝试尽快完成。Redis支持三种不同的调用 fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。单机实例不支持该参数。 l nol alwaysl everysec no appendonly 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。有2个取值供选择:yes:开启。no:关闭。单机实例不支持该参数。 l yesl no yes clientoutputbufferlimitslavesoftseconds slave客户端outputbuffer超过clientoutputbufferslavesoftlimit设置的大小,并且持续时间超过此值(单位为秒),服务端会主动断开连接。单机实例不支持该参数。 0~60 60 clientoutputbufferslavehardlimit 对slave客户端outputbuffer的硬限制(单位为字节),如果slave客户端outputbuffer大于此值,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 clientoutputbufferslavesoftlimit 对slave客户端outputbuffer的软限制(单位为字节),如果outputbuffer大于此值并且持续时间超过clientoutputbufferlimitslavesoftseconds设置的时长,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 maxmemorypolicy 在达到内存上限(maxmemory)时DCS将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu:根据LFU算法删除设置了过期时间的键值。 allkeyslfu:根据LFU算法删除任一键值。 取值范围与实例的版本有关 默认值与实例的版本及类型有关 luatimelimit Lua脚本的最长执行时间,单位为毫秒。读写分离实例不支持设置该参数。 100~5,000 5,000 masterreadonly 设置实例为只读状态。设置只读后,所有写入命令将返回失败。Proxy集群、读写分离实例不支持该参数。 l yesl no no maxclients 最大同时连接的客户端个数。Proxy集群、读写分离实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 protomaxbulklen Redis协议中的最大的请求大小,单位为字节。读写分离实例不支持设置该参数。 1,048,576~536,870,912 536,870,912 replbacklogsize 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。单机实例不支持该参数。 16,384~1,073,741,824 1,048,576 replbacklogttl 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。单机实例不支持该参数。 0~604,800 3,600 repltimeout 主从同步超时时间,单位为秒。单机实例不支持该参数。 30~3,600 60 hashmaxziplistentries 当hash表中只有少量记录时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 512 hashmaxziplistvalue 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 64 setmaxintsetentries 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的数据结构对集合进行编码。 1~10000 512 zsetmaxziplistentries 当有序集合中只有少量记录时,使用有利于节约内存的数据结构对有序序列进行编码。 1~10000 128 zsetmaxziplistvalue 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的数据结构对有序集合进行编码。 1~10000 64 latencymonitorthreshold 延时监控的采样时间阈值(最小值),单位为毫秒。阈值设置为0:不做监控,也不采样;阈值设置为大于0:将记录执行耗时大于阈值的操作。可以通过LATENCY等命令获取统计数据和配置、执行采样监控。Proxy集群实例不支持该参数。 0~86400000,单位:毫秒。 0 notifykeyspaceevents notifykeyspaceevents选项的参数为空字符串时,功能关闭。另一方面,当参数不是空字符串时,功能开启。notifykeyspaceevents的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知: K:键空间通知,所有通知以keyspace@为前缀。 E:键事件通知,所有通知以keyevent@为前缀。 g:DEL、EXPIRE、RENAME等类型无关的通用命令的通知。 $ :字符串命令的通知。 l:列表命令的通知。 s:集合命令的通知。 h:哈希命令的通知。 z:有序集合命令的通知。 x:过期事件:每当有过期键被删除时发送。 e:驱逐(evict)事件:每当有键因为maxmemory政策而被删除时发送。 A:参数glshzxe的别名。输入的参数中至少有一个K或者E,A不能与g$lshzxe同时出现,不能出现相同字母。举个例子,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。将参数设为字符串"AKE"表示发送所有类型的通知。Proxy集群实例不支持该参数。 请参考该参数的描述。 Ex slowloglogslowerthan Redis慢查询会记录超过指定执行时间的命令。slowloglogslowerthan用于配置记录到慢查询的命令执行时间阈值,单位为微秒。 0~1,000,000 10,000 slowlogmaxlen 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 0~1,000 128 multidb 开启或关闭多DB特性。要求先清除已有数据。清除数据之前请先手动备份生成备份文件。若要恢复已清除的数据请通过数据迁移页面的备份导入功能进行数据恢复。有2个取值供选择:yes:开启。no:关闭。仅Redis 4.0及以上版本的Proxy集群实例支持该参数。 l yesl no no
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        参数模板
        修改自定义参数模板
      • 创建自定义参数模板
        参数名 参数解释 取值范围 默认值 timeout 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。Proxy集群实例不支持该参数。 0~7200,单位:秒。 0 appendfsync 操作系统的fsync函数刷新缓冲区数据到磁盘,有些操作系统会真正刷新磁盘上的数据,其他一些操作系统只会尝试尽快完成。Redis支持三种不同的调用 fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。单机实例不支持该参数。 l nol alwaysl everysec no appendonly 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。有2个取值供选择:yes:开启。no:关闭。单机实例不支持该参数。 l yesl no yes clientoutputbufferlimitslavesoftseconds slave客户端outputbuffer超过clientoutputbufferslavesoftlimit设置的大小,并且持续时间超过此值(单位为秒),服务端会主动断开连接。单机实例不支持该参数。 0~60 60 clientoutputbufferslavehardlimit 对slave客户端outputbuffer的硬限制(单位为字节),如果slave客户端outputbuffer大于此值,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 clientoutputbufferslavesoftlimit 对slave客户端outputbuffer的软限制(单位为字节),如果outputbuffer大于此值并且持续时间超过clientoutputbufferlimitslavesoftseconds设置的时长,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 maxmemorypolicy 在达到内存上限(maxmemory)时DCS将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu:根据LFU算法删除设置了过期时间的键值。 allkeyslfu:根据LFU算法删除任一键值。 取值范围与实例的版本有关 默认值与实例的版本及类型有关 luatimelimit Lua脚本的最长执行时间,单位为毫秒。读写分离实例不支持设置该参数。 100~5,000 5,000 masterreadonly 设置实例为只读状态。设置只读后,所有写入命令将返回失败。Proxy集群、读写分离实例不支持该参数。 l yesl no no maxclients 最大同时连接的客户端个数。Proxy集群、读写分离实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 protomaxbulklen Redis协议中的最大的请求大小,单位为字节。读写分离实例不支持设置该参数。 1,048,576~536,870,912 536,870,912 replbacklogsize 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。单机实例不支持该参数。 16,384~1,073,741,824 1,048,576 replbacklogttl 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。单机实例不支持该参数。 0~604,800 3,600 repltimeout 主从同步超时时间,单位为秒。单机实例不支持该参数。 30~3,600 60 hashmaxziplistentries 当hash表中只有少量记录时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 512 hashmaxziplistvalue 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 64 setmaxintsetentries 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的数据结构对集合进行编码。 1~10000 512 zsetmaxziplistentries 当有序集合中只有少量记录时,使用有利于节约内存的数据结构对有序序列进行编码。 1~10000 128 zsetmaxziplistvalue 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的数据结构对有序集合进行编码。 1~10000 64 latencymonitorthreshold 延时监控的采样时间阈值(最小值),单位为毫秒。阈值设置为0:不做监控,也不采样;阈值设置为大于0:将记录执行耗时大于阈值的操作。可以通过LATENCY等命令获取统计数据和配置、执行采样监控。Proxy集群实例不支持该参数。 0~86400000,单位:毫秒。 0 notifykeyspaceevents notifykeyspaceevents选项的参数为空字符串时,功能关闭。另一方面,当参数不是空字符串时,功能开启。notifykeyspaceevents的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知: K:键空间通知,所有通知以keyspace@为前缀。 E:键事件通知,所有通知以keyevent@为前缀。 g:DEL、EXPIRE、RENAME等类型无关的通用命令的通知。 $ :字符串命令的通知。 l:列表命令的通知。 s:集合命令的通知。 h:哈希命令的通知。 z:有序集合命令的通知。 x:过期事件:每当有过期键被删除时发送。 e:驱逐(evict)事件:每当有键因为maxmemory政策而被删除时发送。 A:参数glshzxe的别名。输入的参数中至少有一个K或者E,A不能与g$lshzxe同时出现,不能出现相同字母。举个例子,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。将参数设为字符串"AKE"表示发送所有类型的通知。Proxy集群实例不支持该参数。 请参考该参数的描述。 Ex slowloglogslowerthan Redis慢查询会记录超过指定执行时间的命令。slowloglogslowerthan用于配置记录到慢查询的命令执行时间阈值,单位为微秒。 0~1,000,000 10,000 slowlogmaxlen 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 0~1,000 128 multidb 开启或关闭多DB特性。要求先清除已有数据。清除数据之前请先手动备份生成备份文件。若要恢复已清除的数据请通过数据迁移页面的备份导入功能进行数据恢复。有2个取值供选择:yes:开启。no:关闭。仅Redis 4.0及以上版本的Proxy集群实例支持该参数。 l yesl no no
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        参数模板
        创建自定义参数模板
      • 以OpenTelemetry方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry Go SDK上报Go应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry Go SDK提供了Go语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1. 添加OpenTelemetry Go依赖。 plaintext package main import ( "context" "flag" "go.opentelemetry.io/contrib/instrumentation/net/http/httptrace/otelhttptrace" "go.opentelemetry.io/contrib/instrumentation/net/http/otelhttp" "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/baggage" "go.opentelemetry.io/otel/exporters/otlp/otlptrace" "go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp" "go.opentelemetry.io/otel/sdk/resource" sdktrace "go.opentelemetry.io/otel/sdk/trace" semconv "go.opentelemetry.io/otel/semconv/v1.17.0" "go.opentelemetry.io/otel/trace" "io" "log" "net/http" "net/http/httptrace" "time" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化OpenTelemetry Go SDK。 (注意需将token和endpoint替换成相应地域的接入点信息。) 注意 需将token和endpoint替换成相应地域的接入点信息。 方式1:使用HTTP协议上报数据。 plaintext func initProvider() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", // 替换成token信息 } path : flag.String("path", "/v1/traces", "path") traceClient : otlptracehttp.NewClient( otlptracehttp.WithEndpoint(" "), // 替换成otel http的上报地址。 otlptracehttp.WithURLPath(path), otlptracehttp.WithHeaders(auth), otlptracehttp.WithInsecure()) otlptracehttp.WithCompression(1) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemo"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 方式2:使用gRPC协议上报数据。 plaintext func initProviderGrpc() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", //接入流程里面获取token信息 } traceClient : otlptracegrpc.NewClient( otlptracegrpc.WithInsecure(), otlptracegrpc.WithEndpoint(" "), //替换成grpc接入信息 otlptracegrpc.WithHeaders(auth), otlptracegrpc.WithDialOption(grpc.WithBlock())) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemoprovider"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 4. client端上报例子。 plaintext func sendReq(url string, ctx context.Context) { // 构造一个trace client client : http.Client{ Transport: otelhttp.NewTransport( http.DefaultTransport, otelhttp.WithClientTrace(func(ctx context.Context) httptrace.ClientTrace { return otelhttptrace.NewClientTrace(ctx) }), ), } tr : otel.Tracer("example/client") err : func(ctx context.Context) error { ctx, span : tr.Start(ctx, "say hello", trace.WithAttributes(semconv.PeerService("ExampleService"))) defer span.End() ctx httptrace.WithClientTrace(ctx, otelhttptrace.NewClientTrace(ctx)) req, : http.NewRequestWithContext(ctx, "GET", url, nil) res, err : client.Do(req) if err ! nil { panic(err) } , err io.ReadAll(res.Body) res.Body.Close() return err }(ctx) if err ! nil { log.Fatal(err) } } func doClient(url string, ctx context.Context) { // 不断请求数据 for { sendReq(url, ctx) time.Sleep(3 time.Second) } } func main() { shutdown : initProvider() defer shutdown() url : flag.String("server", " "server url") flag.Parse() bag, : baggage.Parse("usernamexxx") ctx : baggage.ContextWithBaggage(context.Background(), bag) doClient(url, ctx) } 5. 服务端上报例子。 plaintext func handler() { uk : attribute.Key("username") //加点属性 helloHandler : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() //继续调用下一个服务最终效果是client》hello》hello1 sendReq(" ctx) } helloHandler1 : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() span : trace.SpanFromContext(ctx) bag : baggage.FromContext(ctx) span.AddEvent("handling this...", trace.WithAttributes(uk.String(bag.Member("username").Value()))) , io.WriteString(w, "Hello, world!n") } otelHandler : otelhttp.NewHandler(http.HandlerFunc(helloHandler), "Hello") otelHandler1 : otelhttp.NewHandler(http.HandlerFunc(helloHandler1), "Hello1") http.Handle("/hello", otelHandler) http.Handle("/hello1", otelHandler1) } func main() { flag.Parse() shutdown : initProvider() defer shutdown() handler() err : http.ListenAndServe(":" + serverPort, nil) //nolint:gosec // Ignoring G114: Use of net/http serve function that has no support for setting timeouts. if err ! nil { log.Fatal(err) } } 6. 通过以上步骤,最后就在APM控制台的应用列表页面选择目标应用,查看监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以OpenTelemetry方式接入
      • 一键播放
        本节主要介绍如何在智能视图服务控制台使用一键播放功能。 用户可使用【一键播放】自动将在线视频流按顺序填充至对应的分屏窗口中播放。 点击目录树上方的【一键播放根目录】:可以自动填充并播放根目录下流在线的设备。 点击子目录右侧的【一键播放】:可以自动填充并播放子目录下流在线的设备。 点击下级平台右侧的【一键播放】:可以自动填充并播放下级平台流在线的设备。 点击NVR设备右侧的【一键播放】:可以自动填充并播放NVR下流在线的通道。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        实时预览
        一键播放
      • 查询TOP_Referer排行
        参数 类型 是否必传 名称 描述 producttype list< string> 否 产品类型列表 不传默认名下所有产品,可多个产品类型,作为统计筛选项。支持:“001”(静态加速),“003”(下载加速),“004”(视频点播加速),“008”(CDN加速),“014”(下载加速闲时) domain list< string> 是 域名列表 可多个域名,作为统计筛选项 starttime int 是 开始时间戳 起始时间,时间戳(秒) endtime int 是 结束时间戳 结束时间,时间戳(秒) toprank int 是 倒序取toprank条数据 取值区间[1, 100] sorttype string 否 排序指标 flow或者request,作为统计筛选项,不传默认flow
        来自:
        帮助文档
        CDN加速
        API参考
        API
        统计分析
        查询TOP_Referer排行
      • 查询域名列表
        参数名 类型 是否必填 名称 说明 domain string 否 域名 域名,不填默认所有域名 productcode string 否 产品类型 支持产品类型,“001”(静态加速);“003”(下载加速);“004”(视频点播加速);“008”(cdn加速),“014”(下载加速闲时) status int 否 域名状态 1(审核中);2(审核成功),3(配置中);4(已启用);5(停止中);6(已停止);7(删除中);8(已删除);9(审核失败);10(配置失败);11(停止失败);12(删除失败),不填默认所有状态 areascope int 否 加速范围 1(国内);2(海外);3(全球)(数字类型),不填默认1 page int 否 页码 不填默认1 pagesize int 否 每页条数 不填默认50,最大100
        来自:
        帮助文档
        CDN加速
        API参考
        API
        域名管理
        查询域名列表
      • 产品使用限制
        正确使用弹性云主机,才能保证其正常运行,本文介绍弹性云主机及相关服务在产品功能和服务性能上的不同限制,以及如何申请更高配额。 限制概述 使用弹性云主机有以下限制: 弹性云主机不支持安装虚拟化软件和二次虚拟化。 不支持声卡应用。 不支持直接加载外接硬件设备(如硬件加密狗、U盘、外接硬盘、银行UKey等),您可以尝试软件加密狗或者动态口令二次验证等。 请勿卸载弹性云主机硬件的驱动程序。 请勿修改网卡的MAC地址。 部分软件或应用的许可证(License)需要与弹性云主机的硬件信息绑定。当云主机进行迁移操作时可能会引起硬件信息的变更,进而导致License失效。 由于物理机故障导致云主机发生迁移,迁移时可能会出现重启或关机现象,建议您在系统业务进程配置自动拉起和开机自启动,或者通过业务集群部署、主备部署等方式实现业务的高可用。 建议您为部署核心业务的云主机做好数据备份。 建议您为云主机上的业务指标做好监控配置。 资源限制 云主机使用限制 限制项 默认配额 创建弹性云主机的用户限制 实名认证 创建按量付费资源的限制 账户余额不得小于100元 一个账号在一个地域下可创建的弹性云主机限制 50台(提交工单可提升配额) 一个账号在一个地域下可创建实例的vCPU限制 200核(提交工单可提升配额) 一个账号在一个地域下可创建实例的内存限制 409600 GB(提交工单可提升配额) 一个账号在一个地域下可创建的私有镜像限制 10(提交工单可提升配额) 单台弹性云主机挂载磁盘限制 默认1块系统盘、8块数据盘(提交工单可提升配额) 单台弹性云主机的多网卡限制 默认1张主网卡、4张扩展网卡(提交工单可提升配额) 单次批量创建云主机最大数量 50台(提交工单可提升配额)
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品使用限制
      • 实例管理
        单节点重启 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池; 2. 在左侧导航栏,选择注册配置中心 > 实例列表; 3. 在实例列表页面,单击目标实例ID、实例名称或者目标行“管理”按钮均可跳转至实例基础信息页面; 4. 在下方实例节点部分,可以看到节点列表,点击目标节点对应行右侧的操作按钮,即可重启目标节点; 实例扩缩容 扩/缩容是指将实例资源进行升/降配以实现实例对业务容量支持能力的提升/降低。 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池; 2. 在左侧导航栏,选择注册配置中心 > 实例列表; 3. 在实例列表页面,单击目标实例所在行的“扩容”按钮可跳转到实例扩容页面,根据该页面的扩容选项可以进行扩容操作; 4. 进行扩缩容操作后,页面会跳转到实例列表页面,在实例列表页面该实例的状态为“扩容中”,点击状态旁边的小图标可以查看扩容流程细节; 续订 对于包年包月订购类型的实例,您可以点击续订按钮对实例进行续期。 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池; 2. 在左侧导航栏,选择注册配置中心 > 实例列表; 3. 在实例列表页面,单击目标实例所在行的“续订”按钮可跳转到实例扩容页面,根据该页面的续订时长选项进行续订操作; 实例名称修改 注册配置中心支持修改实例的名称,便于用户管理。在实例开通完毕后,您可以在控制台修改实例名称,对应监控指标告警信息都会同步调整。 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池; 2. 在左侧导航栏,选择注册配置中心 > 实例列表; 3. 在实例列表页面,单击目标实例ID、实例名称或者目标行"管理"按钮均可跳转至实例基础信息页面; 4. 在实例基础信息页面,点击实例名称后的编辑图标; 5. 在修改实例名称的弹框中,输入新实例名称并点击修改按钮;
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        实例管理
      • Fluid概述
        组件 说明 Dataset CRD 用于定义数据集的来源、访问模式及缓存策略。通过Dataset CRD,用户可以在Kubernetes中创建、更新、删除和监控数据集,便于高效的数据管理。 Runtime CRD 用于管理底层缓存引擎的生命周期(创建、扩缩容、预热),支持多种分布式缓存系统。 Dataset/Runtime Manager 负责数据集和支持数据集的运行时在Kubernetes中的调度和编排。负责数据集的调度,迁移和缓存运行时的弹性扩缩容;同时支持数据集的自动化运维操作,比如控制细粒度的数据预热,比如可以指定预热某个指定文件夹;控制元数据备份和恢复,提升对于海量小文件场景的数据访问性能;设置缓存数据的pin策略,避免数据驱逐导致的性能震荡。 Application Manager 负责使用数据集的应用Pod的调度和运行,分为两个核心组件:Scheduler和Webhook。 Scheduler: 结合从Runtime获取的缓存信息,对于Kubernetes集群中的Pod进行调度。将使用数据集的应用优先调度到含有数据缓存的节点; 无需用户指定缓存节点。 Sidecar Webhook: 对于无法运行csipluign的Kubernetes环境, Sidecar webhook会将自动的将PVC替换成 FUSE sidecar,并且控制Pod中容器启动顺序,保证FUSE容器先启动。 CSI Plugin 以容器的方式的方式启动存储客户端,与存储客户端完全解耦,做CSI Plugin升级不会影响到业务容器,同时支持多版本存储客户端部署在同一个Kubernetes集群中;将客户端独立在 pod 中运行也就使其在 Kubernetes 体系中,提供可观测性;设置客户端的计算资源配额。 Runtime Plugin 作为一种扩展性强的插件,能够支持多种数据访问引擎。Fluid通过抽象出一些通用的特征,如缓存的使用介质、配额、目录等,与不同的分布式缓存引擎实现技术具有可扩展性。比如AlluxioRuntime使用MasterSlave架构,而JuiceFSRuntime使用Worker P2P架构,都可以在Runtime的CRD中进行配置。该插件不仅支持Alluxio、JuiceFS等特定的Runtime,也支持通用的ThinRuntime,使用者无需开发即可实现对通用存储的访问。
        来自:
      • 实例指标
        您可以登录函数计算控制台,在左侧导航栏选择函数 进入函数详情页,然后切换到监控>实例指标 页签,查看实例指标情况。 实例指标项如下表所示。 指标类型 指标名称 单位 描述 并发请求数 最大并发请求数(FunctionMaxConcurrentRequests) 个 函数实例中并发执行的请求个数。按1分钟或1小时粒度统计求最大值。 并发请求数 平均并发请求数(FunctionAvgConcurrentRequests) 个 函数实例中并发执行的请求个数。按1分钟或1小时粒度统计求平均值。 vCPU使用情况(实例级别指标) 最大vCPU(FunctionMaxvCPUCores) vCPU 函数实际使用的vCPU数,其中1代表1vCPU,按1分钟或1小时粒度统计多个实例求最大值。 vCPU使用情况(实例级别指标) 平均vCPU(FunctionAvgvCPUCores) vCPU 函数实际使用的vCPU数,其中1代表1vCPU,按1分钟或1小时粒度统计多个实例求平均值。 vCPU利用率(实例级别指标) 最大利用率(FunctionMaxvCPUUtilization) % 函数实际使用的vCPU核数占vCPU配额的比例。按1分钟或1小时粒度统计多个实例求最大值。 vCPU利用率(实例级别指标) 平均利用率(FunctionAvgvCPUUtilization) % 函数实际使用的vCPU核数占vCPU配额的比例。按1分钟或1小时粒度统计多个实例求平均值。 网络流量(实例级别指标) 入网流量(FunctionRXBytesPerSec) Mbps 函数单位时间的入网流量。 网络流量(实例级别指标) 出网流量(FunctionTXBytesPerSec) Mbps 函数单位时间的出网流量。 内存使用情况(实例级别指标) 最大使用内存(FunctionMaxMemoryUsageMB) MB 函数实例实际使用的内存。按1分钟或1小时粒度统计求最大值。 内存使用情况(实例级别指标) 平均使用内存(FunctionAvgMemoryUsageMB) MB 函数实例实际使用的内存。按1分钟或1小时粒度统计求平均值。 内存使用率(实例级别指标) 最大使用率(FunctionMaxMemoryUtilization) % 函数实例实际使用的内存占内存配额的比例。按1分钟或1小时粒度统计多个实例求最大值。 内存使用率(实例级别指标) 平均使用率(FunctionAvgMemoryUtilization) % 函数实例实际使用的内存占内存配额的比例。按1分钟或1小时粒度统计多个实例求平均值。
        来自:
        帮助文档
        函数计算
        用户指南
        可观测性
        实例指标
      • 操作指导
        功能 描述 全面日志采集 全面支持Syslog、SNMP、OPSec、XML、FTP及本地文件等协议,可以覆盖主流硬件设备、主机及应用,保障日志信息的全面收集。 实现信息资产(网络设备、安全设备、主机、应用及数据库)的日志获取,并通过预置的解析规则实现日志的解析、过滤及聚合。 同时可将收集的日志通过转发功能转发到其它网管平台。 大规模安全存储 内置TB级别存储设备,可以选配各种RAID级别进行数据冗余和安全保障。系统拥有多项自主知识产权的存储加密机制和查询机制,十分适合等保、密保等行业的应用要求。 智能关联分析 实现全维度、跨设备、细粒度关联分析,内置众多的关联规则,支持网络安全攻防检测、合规性检测,可轻松实现各资产间的关联分析。 脆弱性管理 能够收集和管理来自各种Web漏洞扫描工具、主机漏洞扫描工具、网络漏洞扫描工具产生的扫描结果,并实时和用户资产收到的攻击危险进行风险三维关联分析。 数据挖掘和数据预测 支持对历史日志数据进行数据挖掘分析,发现日志和事件间的潜在关联关系,并对挖掘结果进行可视化展示。系统自带多种数据统计预测算法,可以根据历史数据的规律对未来的数据发生情况进行有效预测。 可视化展示 实现对信息资产的实时监控、信息资产与客户管理、解析规则与关联规则的定义与分发、日志信息的统计与报表、海量日志的存储与快速检索以及平台的管理。 通过各种事件的归化处理,实现高性能的海量事件存储和检索优化功能,提供高速的事件检索能力。 事后的合规性统计分析处理,可对数据进行二次挖掘分析。 分布式部署和管理 平台支持分布式部署,可以在中心平台管理规则、配置策略自动分发、远程自动升级等,极大地降低了分布式部署的难度,提高了可管理性。 灵活的可扩展性 提供多种定制接口,实现强大的二次开发能力以及与第三方平台对接和扩展的能力。
        来自:
        帮助文档
        云等保专区
        用户指南
        日志审计
        日志审计v1.0
        操作指导
      • 文档数据库服务设计规范
        分片设计规范 在文档数据库服务分片集群中,分片的设计规范是非常重要的,它可以影响集群的性能、可扩展性和可靠性。以下是一些常见的文档数据库服务分片设计规范: 分片键的选择:分片键是用于分片集合的字段或字段组合。应该选择具有高选择性(即有区分度)的字段作为分片键,例如访问频率较高的字段或具有高度唯一性的字段。应该避免使用随机值或低选择性的字段作为分片键,因为这会导致数据分布不均衡,影响集群性能和可扩展性。 分片键的数据类型:分片键的数据类型应该选择适合应用程序和数据的数据类型。例如,如果查询经常使用时间戳,则可以将时间戳作为分片键,并选择适合的日期时间数据类型。 分片键的范围:分片键的范围应该选择适当的范围,以便在数据分片时能够均匀分布。例如,如果使用范围查询,则应该选择具有大范围的分片键,以便在多个分片上均匀分布数据。 分片集群的节点数:分片集群的节点数应该根据数据量、负载和可扩展性需求来选择。通常建议将分片集群的节点数设置为2的幂次方,例如2、4、8、16等,以便更好地管理和维护集群。 避免 id 作为分片键 。id 通常是有序的,不太符合分布广泛的要求。并且经常使用 id 作为查询条件,不利于分片。 分片的备份和恢复:在使用文档数据库服务分片集群时,应该定期备份和恢复数据,以保证数据的安全性和可靠性。可以使用文档数据库服务提供的备份和恢复工具或第三方工具来完成这些操作。 需要留意的是,在设计文档数据库服务分片集群时,应该根据具体的应用程序和文档数据库服务环境来选择合适的分片设计规范。在分片集群的运维和维护过程中,应该遵循文档数据库服务的最佳实践和规范,例如合理管理数据、监控集群性能和故障等。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        文档数据库服务使用规范
        文档数据库服务设计规范
      • sidecar管理
        查看工作负载详情 列表中展示了该网格所管理的集群下所有已创建服务的工作负载,支持查看负载的名称、所属集群、服务,以及负载的sidecar信息,包括sidecar名称、sidecar版本、状态、CPU使用率、内存使用率等。操作方法如下: 步骤 1 在列表右上角搜索框,选择集群、命名空间,并输入工作负载名称搜索指定工作负载,查看负载的相关信息。 步骤 2 单击工作负载前的图标,查看负载的sidecar信息。 如果提示工作负载中无sidecar,是因为该负载所属命名空间还未注入sidecar,参考sidecar注入进行注入。 配置sidecar资源限制 支持为sidecar(即istioproxy容器)配置CPU和内存的资源上下限。同一个节点上部署的工作负载,对于未设置资源上下限的工作负载,如果其异常资源泄露会导致其他工作负载分配不到资源而异常。未设置资源上下限的工作负载,工作负载监控信息也会不准确。 默认的sidecar资源上下限为: CPU(Core):最小 0.1,最大 2 MEM(MiB):最小 128,最大 1024 如需更改,请参考以下操作: 单击工作负载操作列的“sidecar资源限制”,也可以勾选多个工作负载,在列表左上角单击“sidecar资源限制”进行批量配置。 CPU最小值:也称CPU请求,表示容器使用的最小CPU需求,作为容器调度时资源分配的判断依赖。只有当节点上可分配CPU总量 ≥ 容器CPU请求数时,才允许将容器调度到该节点。 CPU最大值:也称CPU限制,表示容器能使用的CPU最大值。 MEM最小值:也称内存请求,表示容器使用的最小内存需求,作为容器调度时资源分配的判断依赖。只有当节点上可分配内存总量 ≥ 容器内存请求数时,才允许将容器调度到该节点。 MEM最大值:也称内存限制,表示容器能使用的内存最大值。当内存使用率超出设置的内存限制值时,该实例可能会被重启进而影响工作负载的正常使用。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格配置
        sidecar管理
      • 带宽控制
        本文介绍带宽控制的适用场景和配置方法。 功能介绍 天翼云带宽控制功能可通过设置总带宽值来控制带宽总用量,避免因带宽突发带来更多的带宽费用。 带宽控制功能支持全网边缘总带宽限制,支持分时段控制,您可以根据自身带宽需求选择对应的限制策略。带宽超出设置值后,可选择对请求进行限速、拒绝或者重定向操作。 适用场景 1. 存在带宽突发场景,希望突发情况下CDN带宽费用可以进行有效控制。 2. 对带宽成本有严格把控需求时可选择使用带宽控制功能,超过设置带宽后,对用户设置合理限速。 注意事项 1. 可以针对多个域名合并进行总带宽控制,但是一个域名同时只能配置在一个控制任务中。 2. 不支持对泛域名配置带宽控制功能。 3. 由于域名带宽的监控数据存在一定延迟(大约10分钟),实际带宽达到阈值大约10分钟后生效。 4. 带宽控制功能开启后,如带宽超出限制值后采用限速或拒绝策略,可能会影响用户体验,请慎重开启该功能。 配置说明 该功能暂不支持客户自助配置,如需使用,请通过提交工单给天翼云客服,由其人工操作开启。 提交工单时,请附带如下信息: 参数 说明 限制带宽值 提供需要限制的总带宽大小。 限速时段 可选择全天生效或者固定时段生效。 限制策略 带宽超过限速值后处理方式,可选择单链接限速/拒绝/重定向。选择单链接限速时,所有用户的请求都会按该值来限速;选择拒绝时,超出带宽上限的部分用户请求会被拒绝;选择重定向时,超出带宽上限的部分用户请求会被302重定向至新的地址。 限制策略配置 1.限制策略选择单链接限速,则提供对应的限制值。 2.限制策略选择拒绝,默认拒绝响应403状态码,也可自定义。 3.限制策略选择重定向,则需提供重定向状态码及重定向地址。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        访问控制
        带宽控制
      • 采集常见错误类型
        本文主要介绍采集常见错误类型。 以下为常见的错误类型以及对应的解决方法说明,可供参考。 LTS 错误码 错误说明 英文说明 解决方法 LTS1400 数据包从产生到发送的过程中等待的时间较长 The waiting time for data packets from generation to transmission is relatively long 检查发送是否正常,或是否存在数据量超过默认配置、配额不足或网络存在问题。 LTS1401 无权限读取指定文件 No permission to read the specified file 检查lmtagent的启动账号,建议以root方式启动。 切要采集的日志目录具备读权限 LTS1402 行首正则与日志行首匹配失败,无法对日志做分行 Failed to match the beginning of the line with the log entry's starting pattern, unable to split the log into lines 检查行首正则正确性。 若是单行日志可以配置为.。 LTS1403 完整正则模式下,日志内容和正则表达式不匹配 No match found between log content and regular expression in full regex mode 查看错误详情,重新调整正则规则适配日志原文。 LTS1404 JSON、分隔符等模式下,由于日志格式不符合定义而解析失败 Parsing failed in JSON, delimiter, and other modes due to mismatched log format definitions 查看错误详情,重新调整规则适配日志原文。 LTS1405 采集配置不合法 The collection configuration is invalid 采集配置JSON格式有误,可以通过控制台重新编辑下发规则。 LTS1406 因超过服务器资源使用上限而崩溃 Crashed due to exceeding server resource limits 调整CPU/内存上限, 主机需要调整 /etc/systemd/system/lmtagent.service 里几个限额项 MemoryMax/MemoryLimit/CPUQuota ; 容器需要在ccse控制台调整日志插件的YAML文件中定义的限额项 resources.limit.cpu/resources.limit.memory。 LTS1407 在Linux系统中注册日志监听失败,可能由于没有文件夹权限或文件夹被删除 Failed to register the log listener in the Linux system, possibly due to lack of folder permissions or the folder being deleted 检查采集器是否有权限访问该文件夹,或者该文件夹是否被删除。 LTS1408 日志采集进度落后于日志产生进度 Log collection is lagging behind log generation 采集有部分延迟,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1409 日志采集进度落后于日志产生进度,且未处理的日志轮转超过20个,开始丢弃日志 Log collection is lagging behind log generation, and with over 20 unprocessed log rotations, logs are now being discarded 采集延迟较多,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1410 没有日志监控目录读取权限 No read permission for the log monitoring directory 检查日志监控目录是否存在。如果存在,请检查目录权限设置。 LTS1411 日志采集配置目录中的文件数超限 The number of files in the log collection configuration directory has exceeded the limit 检查采集的目录下是否有较多文件和子目录并合理设置监控目录最大深度。 LTS1412 进程退出时日志落盘到本地超时,此时会丢弃未落盘完成的日志 When the process exits, flushing logs to disk times out, and any unfinished logs will be discarded 该报错通常为采集严重阻塞导致,如果持续出现错误可以提工单反馈。 LTS1413 输入源采集异常 Input source collection exception 查看详细报错,根据具体错误信息进一步排查。 LTS1414 过滤器初始化异常 Filter initialization exception 一般由于过滤器的正则表达式非法导致,请根据提示修复。 LTS1415 向聚合队列中添加数据失败 Failed to add data to the aggregation queue 数据发送过快。若真实数据量很大,可忽略。 LTS1416 Checkpoint解析失败 Checkpoint parsing failed 查看详细报错,根据其中检查点内容(前1024个字节)以及具体错误信息进一步排查。 LTS1417 同时监听的目录数超出限制 The number of simultaneously monitored directories exceeds the limit 检查当前采集配置是否包含较多的目录数,合理设置监控目录最大深度。 LTS1418 执行命令添加Docker文件映射失败 Failed to add Docker file mapping when executing the command 查看详细报错,根据具体错误信息进一步排查。 LTS1419 无法在Docker容器中查找到指定文件 The specified file could not be located within the Docker container 查看详细报错,根据其中的容器信息以及查找的文件路径进一步排查。 LTS1420 servicedockerstdout插件错误,根据配置中的BeginLineRegex编译失败 Error in servicedockerstdout plugin: failed to compile BeginLineRegex from configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1421 同时打开的文件对象数量超过限制 The number of simultaneously open file objects has exceeded the limit 一般因为当前处于采集状态的文件数过多,请检查采集配置是否合理。 LTS1422 processorsplitlogregex以及 processorsplitlogstring插件错误,无法从日志中获取到配置中指定的SplitKey。 Error in processorsplitlogregex and processorsplitlogstring plugins: unable to extract the configured SplitKey from log data 查看详细报错,检查是否存在配置错误的情况。 LTS1423 执行LZ4压缩发生错误 Error occurred during LZ4 compression execution 查看详细报错,根据具体错误信息进一步排查。 LTS1424 已打开文件数量超过限制,无法打开新的文件 The number of open files has exceeded the limit, preventing new files from being opened 日志采集配置目录中的文件数超限 ,默认上限为100000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1425 打开文件出错 Error opening file 文件无法打开,需要查看文件是否损坏。 LTS1426 processorregex插件错误,编译配置中指定的Regex正则表达式失败 Error in processorregex plugin: failed to compile the Regex expression specified in the configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1427 日志解析速度过慢 Log parsing speed is too slow 查看详细报错,根据其中的日志数量、缓冲区大小、解析时间来确定是否正常。 如果不正常,检查是否有其他进程占用了过多的CPU资源或是存在效率较低的复杂正则表达式等不合理的解析配置。 LTS1428 processorregex插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in processorregex plugin: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1429 processorregex插件错误,匹配失败 Error in processorregex plugin: match failed 查看详细报错,报错根据内容分为如下类型,请根据具体的错误信息进行排查。 unmatch this log content...:日志无法匹配配置中的正则表达式 match result count less...:匹配的结果数量少于配置中指定的 Keys 数量。 LTS1430 splitchar以及splitstring插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in splitchar and splitstring plugins: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1431 processorsplitchar以及processorsplitstring插件错误,解析得到的字段数量与SplitKeys中指定的不相同 Error in processorsplitchar and processorsplitstring plugins: the number of parsed fields does not match the count specified in SplitKeys 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1432 解析日志时间失败 Failed to parse log timestamp 正则表达式提取的时间字段是否正确。 指定的时间字段内容是否匹配配置中的时间表达式。 LTS1433 checkpoint相关错误 Checkpointrelated error 读取checkpoint文件格式异常,需要确认文件是否被修改,可能导致重采,如果持续出现错误可以提工单反馈。 LTS1434 inotify监听超限 inotify watch limit exceeded 监听目录数超限 ,默认上限为3000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1435 采集器启动配置不存在或解析失败 Collector startup configuration does not exist or failed to parse 主机采集器启动配置格式有误,需要确认文件是否被修改,如果持续出现错误可以提工单反馈。 LTS1436 采集队列已满 The collection queue is full 网络中断等原因导致数据无法上报,反压队列满,会持续重试1h等待恢复,如果持续出现错误可以提工单反馈。 LTS1437 本地目录下配置过多 Too many configurations in the local directory 查看详细报错,根据具体错误信息进一步排查。 LTS1438 采集器上报插件初始化失败 Collector reporting plugin initialization failed 先确认VPCE私网域名是正常开通。如果持续出现错误可以提工单反馈。 LTS1439 采集器上报插件endpoint无法连接 Unable to connect to the endpoint of the collector reporting plugin 先确认VPCE私网域名是正常开通,以及本地DNS到VPCE域名是否能ping通。如果持续出现错误可以提工单反馈。 LTS1440 上报日志网关中出现错误 Error occurred in the log gateway during reporting token失效或者到日志网关的网络不通。如果是token失效需确认AK/SK是否有getToken权限。 LTS1441 上报日志网关后返回错误 The log gateway returned an error after reporting 查看详细报错,根据具体错误信息进一步排查。 LTS1442 获取token失败 Failed to retrieve token 用户指定的AK/SK 获取token失败,可能是未正确授权。查看详细报错,根据具体错误信息进一步排查。 LTS1443 采集内部错误 Internal collection error 未定义在上面详细错误码的都归在此类,需要查看详细报错,根据具体错误信息进一步排查。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        主机管理
        采集常见错误类型
      • 概述
        本文档提供了云监控API的描述、语法、参数说明及示例,可用资源池等内容。 云监控API不区分资源池,但因不同资源池上线云产品存在差异,您需要在确认相关产品已在该资源池上线,才可正常使用相关云监控API。
        来自:
        帮助文档
        云监控服务
        API参考
        调用前必知
        概述
      • 通过GPUStack部署模型推理平台
        什么是 GPUStack ? GPUStack云服务是基于开源GPUStack构建的托管式AI模型部署平台,让您无需管理基础设施,即可在高性能GPU集群上轻松部署和运行各类AI模型。 GPUStack具备以下核心能力: 资源管理:提供自动化GPU资源调度与集群管理,支持异构GPU设备统一纳管,实现资源利用率最大化与成本最优化; 模型部署:支持主流开源大模型一键部署,兼容Hugging Face、ModelScope等模型源,集成vLLM、SGLang和TensorRTLLM等高性能推理引擎,满足不同场景性能需求; 智能运维:内置自动扩缩容、故障转移与负载均衡机制,提供实时性能监控与告警,确保服务高可用性与稳定性; 安全管控:提供完善的认证授权体系与网络隔离策略,支持私有化部署与数据安全保障,满足企业级安全合规要求。 通过部署 GPUStack 应用,您可以可视化管理GPU资源调度,快速搭建专属模型推理集群,为AI应用提供专属模型推理服务。 使用 GPUStack 部署模型推理平台指南 步骤1:订购GPU资源并部署GPUStack平台 1. 登录天翼云官网,选择应用商城 公有云生态专区,点击立即选购,进入应用专区页。 在专区页,点击“立即选购”,进入应用选购页。 2. 在应用选购列表中,找到“GPUStack单机版”,点击“立即订购”。 3. 按提示订购“GPUstack 单机版”,点击“确认下单”。 支付成功后,在我的应用页,查看应用状态,当应用状态为运行中时,代表GPUStack平台部署完成。 4. 点击“查看应用”按钮,在应用详情页点击“立即使用”或在浏览器中输入复制的应用入口,即可访问GPUstack。
        来自:
        帮助文档
        轻量型云主机
        最佳实践
        通过GPUStack部署模型推理平台
      • 查看实例
        本节介绍了如何查看分布式消息服务RabbitMQ产品实例。 背景信息 RabbitMQ实例是指使用RabbitMQ消息队列的具体应用场景或示例。这些实例可以是各种不同的系统、应用或业务流程,通过使用RabbitMQ来实现消息的传递和处理。 例如,一个订单处理系统可以使用RabbitMQ来处理订单信息的传递和处理。当有新的订单生成时,订单信息可以被发送到RabbitMQ的消息队列中,然后由不同的消费者来处理这些订单信息,如库存管理、支付处理和物流跟踪等。 另一个例子是日志收集系统,通过使用RabbitMQ作为消息中间件,可以将分布式系统中的日志消息发送到消息队列中,然后由日志收集器消费者来处理和存储这些日志消息。这样可以实现日志的集中管理和分析,方便故障排查和系统性能监控。 其他常见的RabbitMQ实例包括异步任务处理、事件驱动架构、分布式系统通信等。通过使用RabbitMQ,这些实例可以实现系统组件之间的解耦、提高系统的可伸缩性和可靠性,从而更好地满足复杂应用场景的需求。 实例列表 1、进入控制台查看已购买的实例列表,若列表为空,可点击右上角【创建实例】进入购买页面,创建实例详情见具体操作步骤。 2、支持按照实例ID查询,输入查询内容,点击【查询】按钮即可展示需要的实例数据。 3、查看实例基本信息,包括实例ID、规格、VPC、计费模式、创建时间、到期时间、状态。其中状态说明见下文。 运行状态 (1)登录管理控制台。 (2)进入RabbitMQ管理控制台。 (3)当前页面会列出所购买的RabbitMQ实例,并查看状态,状态说明如下 状态 说明 运行中 RabbitMQ实例正常运行状态。在这个状态的实例可以运行您的业务。 已关闭 RabbitMQ实例处于故障的状态。 变更中 RabbitMQ实例正在进行规格变更操作。 变更失败 RabbitMQ实例处于规格变更失败状态。 暂停 RabbitMQ专享版实例处于已冻结状态,用户可以在“更多”中续费开启冻结的RabbitMQ实例。 注销 RabbitMQ实例已经过期并关闭,需要重新购买实例。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例管理
        查看实例
      • 零信任网络服务概述
        终端管理 AOne零信任网络提供终端管理能力,通过整合防病毒、漏洞修复、软件与外设管控、上网行为规范、AI安全检测等能力,依托智能中台实现统一策略管理,精准解决资产不可视、风险难追溯、处置效率低等核心痛点,打破安全与业务效率的对立僵局,成为企业数字化转型的一站式终端安全防护与提效平台。 高效防护 病毒防护为基础,以主动实时防御为核心,联动漏洞自修复引擎自动闭环高危风险,形成‘监测阻断修复’的一体化防御链路,助力企业缩减终端暴露面,提升威胁响应速度。 全面管控 终端、软件、U盘等资产看得清,员工上网行为、AI使用行为可管控,限制员工主动退出客户端行为,确保安全管控策略持续生效,保障终端系统及数据安全。 智能安全 实时监测新安装AI 应用,多视图检视AI 漏洞分布,自动生成修复建议,形成“发现 定位 处置”高效闭环管理,让AI更安全。 办公组网 深度融合“零信任安全架构”与CDN全球化网络能力,依托中国电信优质的节点资源,为企业提供安全高效的组网及加速一体化解决方案,满足企业分支互访、多云互联等多种场景。 高性能网络连接构建:基于优质边缘网络资源和应用安全加速能力,提供安全高性能网络连接服务,支持 TCP/UDP 协议及私有协议加速,满足企业多样化业务传输需求。在零信任网络架构下,组网过程充分考虑用户和设备身份,通过智能路由和安全防护技术,实现数据跨地域高速、稳定、安全传输,保障跨国企业分支机构与总部数据传输的准确及时,同时确保只有授权的用户和设备能够通过组网连接访问资源。​ 智能路由与流量优化:运用智能路由技术,实时监测网络状态和流量负载,自动选择最优路径传输数据,合理分配流量。结合零信任网络的流量控制策略,实时监控分析网络流量,及时发现解决拥塞问题,确保企业多分支机构同时访问总部资源时,各分支机构流量能快速转发,避免延迟和中断。同时,对异常流量进行精准识别和阻断,保障网络安全。​
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        零信任网络服务概述
      • 本地IDC通过主备专线入云
        步骤三:云企业路由器配置加载VPC 1、登录云间高速控制台,选择目标云间高速实例,在操作列中单击【管理】。 2、在云间高速实例云企业路由器管理页签,选择并单击目标云企业路由器名称。 3、在云间高速实例云企业路由器管理页签,选择目标云企业路由器,在操作列中单击【配置】。 4、在云企业路由器网络实例管理页签,单击【加载本地网络实例】,配置以下参数信息,然后单击【确定】。 配置 说明 云企业路由器 选择云企业路由器名称。 本文选择华北2创建的云企业路由器。 资源归属 本文选择本账号。 关联路由表 选择云企业路由器的路由表。 本文选择默认路由表。 实例类型 选择云企业路由器加载的实例类型。 本文选择虚拟私有云VPC。 网络实例 选择已创建的VPC。 本文选择VPC1. 子网 选择VPC的子网。 本文选择10.10.0.0/24。 高级配置(自动路由学习) 自动传播网络实例系统路由至云企业路由器路由表(默认开启)。 本文选择开启。 高级配置(自动路由同步) 自动同步本侧云企业路由器关联路由表中的路由 (默认开启)。 本文选择开启。 5、重复上述步骤,为云企业路由器加载VPC2。 步骤四:配置本地IDC侧路由及健康检查 1、配置本地IDC路由 以下示例仅供参考,具体配置请咨询设备厂商。 plaintext 配置去往天翼云侧的路由 ip route 10.10.0.0 255.255.255.0 10.250.0.1 preference 200 ip route 10.20.0.0 255.255.255.0 10.250.0.1 preference 200 ip route 10.10.0.0 255.255.255.0 10.250.0.5 preference 300 ip route 10.20.0.0 255.255.255.0 10.250.0.5 preference 300 2、配置本地IDC健康检查 建议通过双向转发检测协议(BFD,Bidirectional Forwarding Detection)实现本地与专线网关间的路由状态监控,相关设备的具体配置参数需联系设备厂商咨询。 3、关联健康检查和路由 请咨询设备厂商,并根据设备厂商建议进行配置。
        来自:
        帮助文档
        云专线 CDA
        最佳实践
        通过云企业路由器搭建跨AZ入云网络架构
        本地IDC通过主备专线入云
      • 本地IDC通过负载专线入云
        步骤三:云企业路由器配置加载VPC 1、登录云间高速控制台,选择目标云间高速实例,在操作列中单击【管理】。 2、在云间高速实例云企业路由器管理页签,选择并单击目标云企业路由器名称。 3、在云间高速实例云企业路由器管理页签,选择目标云企业路由器,在操作列中单击【配置】。 4、在云企业路由器网络实例管理页签,单击【加载本地网络实例】,配置以下参数信息,然后单击【确定】。 配置 说明 云企业路由器 选择云企业路由器名称。 本文选择华北2创建的云企业路由器。 资源归属 本文选择本账号。 关联路由表 选择云企业路由器的路由表。 本文选择默认路由表。 实例类型 选择云企业路由器加载的实例类型。 本文选择虚拟私有云VPC。 网络实例 选择已创建的VPC。 本文选择VPC1. 子网 选择VPC的子网。 本文选择10.10.0.0/24。 高级配置(自动路由学习) 自动传播网络实例系统路由至云企业路由器路由表(默认开启)。 本文选择开启。 高级配置(自动路由同步) 自动同步本侧云企业路由器关联路由表中的路由 (默认开启)。 本文选择开启。 5、重复上述步骤,为云企业路由器加载VPC2。 步骤四:配置本地IDC侧路由及健康检查 1、配置本地IDC路由 以下示例仅供参考,具体配置请咨询设备厂商。 plaintext 配置去往天翼云侧的路由 ip route 10.10.0.0 255.255.255.0 10.250.0.1 ip route 10.20.0.0 255.255.255.0 10.250.0.1 ip route 10.10.0.0 255.255.255.0 10.250.0.5 ip route 10.20.0.0 255.255.255.0 10.250.0.5 配置康健检查探测报文的回程路由 ip route 255.255.255.255 10.250.0.1 ip route 255.255.255.255 10.250.0.5 2、配置本地IDC健康检查 建议通过双向转发检测协议(BFD,Bidirectional Forwarding Detection)实现本地与专线网关间的路由状态监控,相关设备的具体配置参数需联系设备厂商咨询。 3、关联健康检查和路由 请咨询设备厂商,并根据设备厂商建议进行配置。
        来自:
        帮助文档
        云专线 CDA
        最佳实践
        通过云企业路由器搭建跨AZ入云网络架构
        本地IDC通过负载专线入云
      • 鉴权
        本节主要介绍如何在智能视图服务控制台使用鉴权功能。 点击左侧导航栏的【系统管理系统设置】,顶部选择【鉴权】进入该页面,支持用户使用推流鉴权和播放鉴权功能。 推流鉴权 为防止RTMP设备的推流地址被盗链,用户可开启推流鉴权,鉴权Key及有效时长将应用于RTMP设备在平台生成的推流地址,可在RTMP设备详情页获取推流地址,RTMP设备接入流程请参考【设备管理RTMP设备接入】。 推流地址仅在用户设置的有效时长内可用来推流,已经发起的推流行为不会因超出有效期而中止。 播放鉴权 为防止平台设备被盗链播放,用户可开启播放鉴权,通过加密后的地址进行监控流的实时观看,提供默认鉴权和自定义鉴权两种鉴权方式。 默认鉴权:鉴权服务在智能视图服务侧,用户可自定义设置鉴权Key及有效时长等,智能视图服务侧将会对播放请求进行鉴权。 自定义鉴权:鉴权服务由用户提供,用户可自定义设置鉴权服务器地址,智能视图服务侧会将播放请求转发至用户设置的鉴权服务器进行鉴权。 默认鉴权 平台将使用用户设置的播放鉴权Key生成加密的实时预览播放地址,实时预览播放地址仅在用户设置的有效时长内可用来播放,已经发起的播放行为不会因超出有效期而中止。 若用户开启URL展示配置,可在设备详情页获取设备的实时预览播放地址。 地址自动更新选项默认为开启状态,将自动获取最新地址(历史有效地址仍可正常使用);若用户关闭该选项,将固定展示当前有效地址(仅当该地址失效时才会自动返回最新地址),建议开启该选项。
        来自:
        帮助文档
        智能视图服务
        用户指南
        系统管理
        鉴权
      • OpenClaw(原Clawdbot)对接天翼云知识库问答
        本文介绍OpenClaw结合知识库问答的使用说明。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw、天翼云知识库问答与企业级即时通讯软件相结合,实现高效智能的办公体验,大幅提升企业办公效率与协作能力。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw是近期在开发者社区和AI领域广受关注的一款开源、自托管的个人AI助手。它以其独特的“本地优先”设计理念,将强大的大型语言模型能力与用户本地系统深度结合,实现了从“对话式AI”到“可执行实际任务的智能体”的跨越。与依赖云端服务的传统AI助手不同,OpenClaw将数据主权和隐私控制权完全交还给用户,所有数据和处理过程均在用户可控的环境中进行,被誉为“首个7×24小时永不下班的AI员工”。它的开源特性也吸引了大量开发者参与生态建设,形成了一个活跃的技能市场。该应用默认内置天翼云知识库问答技能和通讯软件(企业微信、飞书、钉钉)。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        OpenClaw(原Clawdbot)对接天翼云知识库问答
      • 办公组网介绍
        SRv6高性能网络 基于SRv6构建的可编程分级骨干网,结合实时探测及最短路径算法,打造高效、高性能的网络。POP点全球分布1800个节点,覆盖多运营商、主要区域省份和城市。使用精品IP网络CN2和163双平面承载,充分保障带宽的稳定性。 安全防护体系 基于零信任网关,允许用户安全访问网络的指定区域;身份鉴别、访问控制、权限管理、三层保障应用安全;多镜像中心、全运营商覆盖,确保服务高可用。 广域网传输优化 通过协议优化(TCP加速、前向纠错FEC)、数据分片封装等技术,大幅降低丢包影响;快速重路由(FRR)和防微环机制,确保网络故障时流量的稳定转发。 全栈可观测性 实时采集网络性能数据,形成闭环运维管理机制。帮助管理员快速定位问题调整策略,提升网络的稳定性和运维效率。 云端统一管理 提供全球网络拓扑可视化控制台,支持一键部署、策略统一下发、设备状态监控;集中配置安全规则、应用路由绑定,实现云端统一管理。 办公组网服务能力 功能 是否必要配置 描述 应用管理 必要 应用资源主要指您需要访问的地址,一般是企业内网应用系统。办公组网支持TCP四层所有协议,包括SSH、RDP等协议,以及UDP等相关协议应用。除了提供IP接入外,还提供域名接入管理,可以更精细化管理权限,并且避免业务IP频繁变更的问题。 网络管理 必要 通过连接器将企业的分支、总部、IDC 机房或者云服务就近接入AOne网络(POP 节点),进而实现企业分支网络的互联互通。 您可在此配置连接器集群或实例,以及进行组网管理。 身份管理 选配 用于管理企业员工信息、组织关系、用户组等。当您开启连接器身份鉴权后,连接器将校验企业员工身份,仅通过认证的用户可连接网络。 当前仅部分连接器支持开启连接器身份鉴权,了解详情可联系我们。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        办公组网介绍
      • 开启NAT网关流量防护
        步骤二:配置NAT网关 1. 配置SNAT规则。 1. 返回至企业路由器界面,在左侧导航栏中,选择“网络> NAT网关”,进入“公网NAT网关”页面。 2. 单击公网NAT网关的名称,进入“基本信息”页面,切换至“SNAT规则”页签。 3. 单击“添加SNAT规则”,参数详情如下表所示。 参数名称 参数说明 使用场景 SNAT规则使用的场景,选择“虚拟私有云”。 网段 选择“自定义”子网,使云服务器通过SNAT方式访问公网。 自定义:自定义一个网段或者填写某个VPC的地址。 说明 支持配置0.0.0.0/0的地址段,在多段地址配置时更方便。 可以配置32位主机地址,NAT网关只针对此地址起作用。 弹性公网IP 用来提供互联网访问的公网IP。 这里只能选择没有被绑定的弹性公网IP,或者被绑定在当前公网NAT网关中非“所有端口”类型DNAT规则上的弹性公网IP,或者被绑定到当前公网NAT网关中SNAT规则上的弹性公网IP。 可选择多条EIP添加在SNAT规则中。一条SNAT规则最多添加20个EIP。SNAT规则使用多个EIP时,业务运行时会随机选取其中的一个。 监控 为SNAT连接数设置告警。 可通过设置告警及时了解SNAT连接数运行状况,从而起到预警作用。 描述 SNAT规则信息描述。最大支持255个字符。 2. 配置是VPCNAT的路由表。 1. 在左侧导航栏中,选择“网络> 虚拟私有云 > 路由表”,进入“路由表”页面。 2. 在“名称”列,单击NAT网关对应VPC的路由表名称,进入路由表“基本信息”页面。 3. 单击“添加路由”,参数详情见下表。 参数 说明 目的地址类型 选择“IP地址”。 目的地址 目的地址网段,填写VPC1的IP地址。 说明 不能与已有路由和VPC下子网网段冲突。 下一跳类型 在下拉列表中,选择类型“企业路由器”。 下一跳 选择下一跳资源。 下拉列表中将展示您创建的企业路由器名称。 描述 路由的描述信息,非必填项。 说明 描述信息内容不能超过255个字符,且不能包含“ ”。
        来自:
        帮助文档
        云防火墙
        用户指南
        开启NAT网关流量防护
      • 1
      • ...
      • 101
      • 102
      • 103
      • 104
      • 105
      • ...
      • 122
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      弹性伸缩服务 AS

      训推服务

      应用托管

      一站式智算服务平台

      知识库问答

      人脸实名认证

      人脸活体检测

      推荐文档

      计费类

      MySQL

      价格

      概览

      配置老化周期

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号