云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      Web应用防火墙(边缘云版)_相关内容
      • 查询日志投递开始时间
        参数 是否必填 参数类型 说明 示例 下级对象 firewallId 是 String 防火墙ID saveTypes 是 Array of Strings 存储类型:AC:访问控制;IPS:入侵防御;FLOW:流量;AV:病毒检测
        来自:
        帮助文档
        云防火墙(原生版)
        API参考
        API
        2023-10-16
        日志管理
        查询日志投递开始时间
      • 集群升级/补丁
        本章节主要介绍操作类问题中有关集群升级/补丁的问题。 MRS集群版本如何进行升级? MRS普通版本集群 MRS普通版本集群无法实现低版本到高版本的平滑升级。如需体验新版本集群相关能力,建议重新创建一个新版本的集群,然后将老版本集群的数据迁移到新的集群。 MRS LTS版本集群 MRS LTS版集群支持版本升级能力,可从历史版本升级至目标LTS版本。如果需要使用版本升级能力,需联系运维人员确认支持的升级路径并购买相关专业服务进行升级。 MRS是否支持升级集群内组件的内核版本? MRS不支持单独升级集群内组件的内核版本,如需体验新版本MRS集群所支持组件的特性内容,建议删除当前集群之后重新创建集群。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        集群升级/补丁
      • 对象相关接口
        参数 类型 说明 是否必要 bucket String 执行本操作的桶名称 是 key String 上传文件到对象存储(融合版)服务后对应的key。PutObject操作支持将文件上传至文件夹,如需要将对象上传至"/folder"文件下,只需要设置Key"/folder/{exampleKey}"即可 是 file File 上传的本地文件 文件上传必须 inputStream InputStream 流式上传的Stream 流式上传必须 cannedAcl CannedAccessControlList 配置上传对象的预定义的标准ACL信息,详细说明见 设置对象访问权限 一节 否 storageClass StorageClass 配置上传对象的存储类型,包括标准类型STANDARD、低频类型STANDARDIA以及归档类型GLACIER 否 accessControlList AccessControlList 配置上传对象的详细ACL信息,详细说明见设置 对象访问权限 一节 是 objectMetadata ObjectMetadata 对象的元数据信息 否 tagging ObjectTagging 对象的标签信息 否
        来自:
        帮助文档
        媒体存储
        SDK参考
        Java SDK
        对象相关接口
      • CREATE VIEW
        创建物化视图 sql CREATE MATERIALIZED VIEW [IFNOTEXISTS] [db.]tablename [ON CLUSTER] [TO [db.]name] [ENGINEengine] [POPULATE] AS SELECT ... 物化视图存储由相应的SELECT管理。 创建不带 TO [db].[table]的物化视图时,必须指定 ENGINE – 用于存储数据的表引擎。 使用 TO [db].[table] 创建物化视图时,不得使用 POPULATE。 一个物化视图的实现是这样的:当向SELECT中指定的表插入数据时,插入数据的一部分被这个SELECT查询转换,结果插入到视图中。 云数据库ClickHouse中的物化视图更像是插入触发器。 如果视图查询中有一些聚合,则它仅应用于一批新插入的数据。 对源表现有数据的任何更改(如更新、删除、删除分区等)都不会更改物化视图。 如果指定 POPULATE,则在创建视图时将现有表数据插入到视图中,就像创建一个 CREATE TABLE ... AS SELECT ...一样。 否则,查询仅包含创建视图后插入表中的数据。 我们不建议使用POPULATE,因为在创建视图期间插入表中的数据不会插入其中。 SELECT 查询可以包含 DISTINCT、GROUP BY、ORDER BY、LIMIT……,相应的转换是在每个插入数据块上独立执行的。 例如,如果设置了 GROUP BY,则在插入期间聚合数据,但仅在插入数据的单个数据包内。 数据不会被进一步聚合。 例外情况是使用独立执行数据聚合的 ENGINE,例如 SummingMergeTree。 在物化视图上执行ALTER查询有局限性,因此可能不方便。 如果物化视图使用构造 TO [db.]name,你可以 DETACH视图,为目标表运行 ALTER,然后 ATTACH先前分离的(DETACH)视图。 物化视图受optimizeoninsert设置的影响, 在插入视图之前合并数据。 视图看起来与普通表相同。 例如,它们列在 SHOW TABLES查询的结果中。 删除视图,使用DROP VIEW. DROP TABLE也适用于视图。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        基本SQL语法
        CREATE VIEW
      • 创建普通任务(Job)
        本节介绍了创建普通任务(Job)的用户指南。 基本概念 普通任务:即kubernetes中的“Job”,普通任务是一次性运行的短任务,部署完成后即可执行。使用场景为在创建工作负载前,执行普通任务,将镜像上传至镜像仓库。 操作场景 普通任务是一次性运行的短任务,部署完成后即可执行。正常退出(exit 0)后,任务即执行完成。 普通任务是用来控制批处理型任务的资源对象。批处理业务与长期伺服业务(Deployment、Statefulset)的主要区别是: 批处理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。Job管理的Pod根据用户的设置把任务成功完成就自动退出了。成功完成的标志根据不同的spec.completions策略而不同,即: 单Pod型任务有一个Pod成功就标志完成。 定数成功型任务保证有N个任务全部成功。 工作队列型任务根据应用确认的全局成功而标志成功 前提条件 在创建任务前,您需要存在一个可用集群。若没有可用集群,请参照集群开通中内容创建。 操作步骤及说明 步骤 1 登录云容器引擎控制台。 步骤 2 单击集群名称进入集群,在左侧选择“工作负载”,选择“任务”,在右上角单击“创建任务”。 步骤 3 配置工作负载的信息。 基本信息 负载类型:选择普通任务Job。工作负载类型的介绍请参见工作负载概述。 负载名称:输入负载的名称,名称长度为1到63个字符,可以包含小写英文字母、数字和中划线(),并以小写英文字母开头,小写英文字母或数字结尾。 命名空间:选择工作负载的命名空间,默认为当前进入的命名空间。您可以单击后面的“创建命名空间”,命名空间的详细介绍请参见创建命名空间。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(新版)
        创建普通任务(Job)
      • Kubernetes 1.31版本说明
        本文介绍了:云容器引擎发布Kubernetes 1.31版本说明。 社区 Kubernetes 版本主要变更 Kubernetes 1.31 版本Changelog 1. StatefulSet 起始序号(GA),允许用户自定义 Pod 的起始序号(默认从 0 开始),例如设置为 100,适用于需要固定编号或特定顺序的应用场景(如分布式数据库)。 2. 弹性索引 Job(GA),支持在索引 Job 创建后动态调整 .spec.completions 和 .spec.parallelism 字段,实现任务弹性伸缩,无需重新创建 Job。 3. Pod 失效策略(GA),可根据 Pod 失效原因(如被抢占、节点删除、kubelet 终止等)分别配置处理逻辑(重试或忽略),避免不必要的 Pod 重启,降低运行成本。 4. Pod 干扰状况(GA),在 Pod 的 Condition 中新增 DisruptionTarget 类型,明确标记 Pod 失效原因(如被高优先级 Pod 抢占),结合 Job 的失效策略实现更精细的任务管理。 5. Job成功策略(Beta),JobSuccessPolicy特性进阶至Beta。该特性允许用户基于成功的Pod个数为Job配置成功策略。 6. 持久卷回收策略(Beta),确保 PV 的回收策略(如 Delete)在 PVC 删除后仍被强制执行,通过添加 Finalizer 防止存储资源泄漏,即使 PV 和 PVC 的删除顺序混乱也能保证一致性。 7. ServiceAccountTokenNodeBinding(Beta),创建绑定到特定节点的 Token,包含节点信息声明,并在 Token 使用时验证节点存在性。若节点被删除,Token 自动失效,降低凭证泄露风险。 8. 容器重启优化,当 Pod 配置变更但镜像未更新时,kubelet 不再强制重启容器,避免因非关键配置更新导致的不必要中断。 9. OCI 镜像卷(Alpha),允许将 OCI 镜像直接挂载为卷,简化 AI/ML 工作负载中模型和数据的访问,例如通过更换镜像快速更新模型权重。 更多信息请参考:Kubernetes 1.31 Changelog
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        Kubernetes版本发布记录
        Kubernetes 1.31版本说明
      • 用户使用手册
        天翼云应用编排服务用户指南.pdf
        来自:
        帮助文档
        应用编排服务
        文档下载
        用户使用手册
      • 推理监控
        本节介绍如何查看推理监控。 操作步骤 一、在AI应用列表,选择在线推理,点击要查看的推理服务 二、进入推理服务详情页,点击监控,查看推理应用监控详情(推理服务监控指标记录的是推理过程产生的指标,所以仅当有请求到达推理服务时会有监控指标)
        来自:
        帮助文档
        智算套件
        用户指南
        可观测
        推理监控
      • 标准快照功能概述(白名单开放)
        使用场景 快照功能可以帮助您实现以下需求: 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况。 快速恢复数据 应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云服务器A的系统盘A发生故障而无法正常开机时,由于系统盘A已经故障,因此也无法将快照数据回滚至系统盘A。此时您可以使用系统盘A已有的快照新创建一块云硬盘B并挂载至正常运行的云服务器B上,从而云服务器B能够通过云硬盘B读取原系统盘A的数据。 说明 当前通过快照回滚数据,只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。 快照原理 标准快照存储原理 标准快照是以数据块作为快照数据备份的最小粒度,快照分为全量快照和增量快照。为云硬盘创建的第一个快照为全量快照,全量快照包含创建快照时间点前云硬盘上的所有数据(数据块);后续创建的快照均为增量快照,增量快照仅存储较上一个快照有变化的数据块。 全量快照和增量快照的元数据文件中会记录快照创建时间点前的所有数据块信息,因此通过任何一个快照回滚数据至云硬盘时,均可以恢复创建快照时间点前的所有云硬盘数据。 根据数据块的来源区分,快照元数据文件中包含三类数据块:继承数据块(继承于上一个快照的数据块)、修改数据块(较上一个快照有修改的数据块)、新增数据块(较上一个快照新增的数据块)。 快照的数据文件中只会存储较上一个快照有变化的数据块(修改数据块、新增数据块)。 如图所示,假设云硬盘在9:30和10:30均有数据写入,为了备份数据,在9:00创建快照1,在10:00创建快照2,在11:00创建快照3,创建快照原理如下: 9:00首次创建快照,快照1中包含云硬盘的所有数据,其中的数据块有A、B、C,快照1为全量快照。快照1的元数据文件中会记录云硬盘全量的数据块A、B、C。 随后写入数据,修改数据块A为A1,修改数据块B为B1,新增数据块D,10:00创建快照2,仅存储较快照1有变化的数据块A1、B1、D,快照2为增量快照。快照2的元数据文件中会记录云硬盘全量的数据块A1、B1、C、D,其中数据块C继承于快照1。 随后写入数据,修改数据块A1为A2,修改数据块C为C1,新增数据块E,11:00创建快照3,仅存储较快照2有变化的数据块A2、C1、E,快照3为增量快照。快照3的元数据文件中会记录云硬盘全量的数据块A2、B1、C1、D、E,其中数据块B1、D继承于快照2。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        标准快照(白名单开放)
        标准快照功能概述(白名单开放)
      • 配置TCP资源
        本小节介绍SSL VPN的配置TCP资源最佳实践。 功能简述 “TCP 应用”主要用于定义各种类型的SSL VPN内网资源,以适应各种各样基于TCP协议的应用程序访问SSL VPN内网资源的需求。 准备工作 确认业务系统名称和对应的IP和TCP端口。 例如: 发布一个OA类型的资源,类型为HTTP,IP为192.168.1.66,端口是80。 发布一个ERP系统,类型为HTTP,IP为192.168.1.67,端口是8080。 发布一个RTX系统,类型是OTHER,IP为192.168.1.68,端口为165535(所有端口)。 配置思路 1. 在资源管理里创建相应的TCP应用。 2. 在角色里关联资源、关联用户。 配置方式 1. 在资源管理里创建相应的TCP应用。 然后新建TCP资源: OA: ERP: RTX: 2. 在角色里关联资源、关联用户。 新建角色授权关联资源给用户(配置完成后须点击“立即生效”按钮完成配置保存)。 3. 用户登录访问资源。
        来自:
        帮助文档
        SSL VPN
        最佳实践
        配置TCP资源
      • Kafka Broker节点CPU高负载
        本章节介绍Kafka Broker CPU高负载故障演练。 背景介绍 分布式系统中作为数据交换和异步解耦核心的 Kafka 集群,其 Broker 节点 CPU 易因高消息吞吐量、过多消费者组、数据复制同步及消息压缩解压缩等因素出现持续高负载,进而引发消息延迟、吞吐量下降等问题,本演练可有效测试系统的应对与恢复能力。 基本原理 指定或随机一个Broker节点启动自定义程序,空跑for循环来消耗CPU时间片。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式消息服务Kafka,然后单击添加资源。 3. 在弹出的对话框中,勾选目标分布式消息服务Kafka实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式消息服务Kafka。 添加实例 :单击添加实例 ,勾选上一步中添加的分布式消息服务Kafka实例。 添加故障动作 :单击立即添加 ,在列表中选择Broker CPU高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 CPU占用率:指定 CPU 负载百分比,取值在0 100之间
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        中间件
        分布式消息服务Kafka
        Kafka Broker节点CPU高负载
      • 购买节点
        操作场景 节点是指纳管到容器集群的计算资源,包括虚拟机、物理机等。用户需确保所在集群的节点资源充足,若节点资源不足,会导致创建工作负载等操作失败。 前提条件 已创建至少一个集群,请参见集群管理>购买混合集群。 您需要新建一个密钥对,用于远程登录节点时的身份认证。 说明: 若使用密码登录节点,请跳过此操作。 约束与限制 仅支持创建KVM虚拟化类型的节点,非KVM虚拟化类型的节点创建后无法正常使用。 集群中的节点一旦购买后不可变更可用区。 集群中通过“按需计费”模式购买的节点,在CCE“节点管理”中进行删除操作后将会直接被删除;通过“包年/包月”模式购买的节点不能直接删除,请通过页面右上角用户名称下的“我的订单”执行资源退订操作。 操作步骤 步骤 1 登录CCE控制台,可通过如下两种方式进入“购买节点”页面: 在左侧导航栏中选择“资源管理 > 节点管理”,选择节点所在的集群后,在节点列表页面单击上方的“购买节点”。 在左侧导航栏中选择“资源管理 > 集群管理”,在集群卡片上,单击“购买节点”。 步骤 2 计费模式:支持“按需计费”和“包年/包月”类型。本章以“按需计费”类型为例进行讲解。 步骤 3 选择区域和可用区。 当前区域:节点实例所在的物理位置。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高工作负载的高可靠性,建议您在创建集群后将云服务器部署在不同的可用区,购买集群时节点只能部署在一个可用区。 步骤 4 节点类型:选择“虚拟机节点”。配置以下参数。 节点名称:自定义节点名称。长度范围为156个字符,以小写字母开头,支持小写字母、数字、中划线(),不能以中划线()结尾。 节点规格:请根据业务需求选择相应的节点规格。 −通用型:该类型实例提供均衡的计算、存储以及网络配置,适用于大多数的使用场景。通用型实例可用于Web服务器、开发测试环境以及小型数据库工作负载等场景。 −GPU加速型:提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。P系列适合于深度学习,科学计算,CAE等;G系列适合于3D动画渲染,CAD等。 −高性能计算型:实例提供具有更稳定、超高性能计算性能的实例,可以用于超高性能计算能力、高吞吐量的工作负载场景,例如科学计算。 −通用计算增强型:该类型实例具有性能稳定且资源独享的特点,满足计算性能高且稳定的企业级工作负载诉求。 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件。详细请参见节点预留资源计算公式。 操作系统:请直接选择节点对应的操作系统。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32678GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与上方系统盘一致。 说明:若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 −数据盘空间分配:单击后方的“更改配置”,可以对数据盘中的“k8s空间”和“用户空间”占比进行自定义设置,开启LVM管理的数据盘将按照设置的比例进行统一分配。部分集群版本不支持此功能,具体以界面为准。 k8s空间:您可以自定义数据盘中Docker和Kubelet的资源占比。Docker资源包含Docker工作目录、Docker镜像数据以及镜像元数据;Kubelet资源包含Pod配置文件、密钥以及临时存储EmptyDir等挂载数据。 用户空间:定义本地盘中不分配给kubernetes使用的空间大小和用户空间挂载路径。 说明:请注意“挂载路径”不能设置为根目录“/”,否则将导致挂载失败。挂载路径一般设置为: /opt/xxxx(但不能为/opt/cloud) /mnt/xxxx(但不能为/mnt/paas) /tmp/xxx /var/xxx (但不能为/var/lib、/var/script、/var/paas等关键目录) /xxxx(但不能和系统目录冲突,例如bin、lib、home、root、boot、dev、etc、lost+found、mnt、proc、sbin、srv、tmp、var、media、opt、selinux、sys、usr等) 注意不能设置为/home/paas、/var/paas、/var/lib、/var/script、/mnt/paas、/opt/cloud,否则会导致系统或节点安装失败。 虚拟私有云:不可修改,仅用于展示当前集群所在的虚拟私有云。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 该参数仅在v1.13.10r0及以上版本的集群中显示,请务必确保子网下的 DNS 服务器可以解析对象存储服务域名,否则无法创建节点。 已有集群添加节点时,如果子网对应的VPC新增了扩展网段且子网是扩展网段,要在控制节点安全组(即集群名称ccecontrol随机数)中添加如下三条安全组规则,以保证集群添加的节点功能可用(新建集群时如果VPC已经新增了扩展网段则不涉及此场景): 弹性IP : 独立申请的公网IP地址,若节点有互联网访问的需求,请选择“暂不使用”或“使用已有”。集群开启 IPv6 时,不显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 暂不使用:若新增节点未绑定弹性IP,则在该节点上运行的工作负载将不能被外网访问,仅可作为私有网络中部署业务或者集群所需云服务器进行使用。 使用已有:请选择已有的弹性IP,将为当前节点分配已有弹性IP。 说明: CCE默认不启用VPC的SNAT。若VPC启用了SNAT,可以不使用EIP去访问外网。 共享带宽: 请选择“暂不使用”或“使用已有”。仅在集群开启 IPv6 时,显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:选择用于登录本节点的密钥对,支持选择共享密钥。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 说明: 如果子用户创建节点选择密钥对创建,这个密钥只对创建这个密钥的子用户有效,即使其他子用户在同一个组也无法选择,也无法使用。例如:A用户创建的密钥,B用户无法使用这个密钥对创建节点,并且Console也选不到。 云服务器高级设置: (可选),单击展开后可对节点进行如下高级功能配置: −安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 −安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 −新增数据盘:单击“新增数据盘”,选择云硬盘类型并输入数据盘规格。 −子网IP :可选择“自动分配IP地址”和“手动分配IP地址”,推荐使用“自动分配IP地址”。 Kubernetes 高级设置: (可选),单击展开后可对集群进行如下高级功能配置: −最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 节点购买数量: 此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示进行选择,单击后方的可查看影响能添加节点数的因素(取决于最小值)。 步骤 5 购买时长:若选择“包年包月”的计费模式购买节点时,请设置购买时长。 步骤 6 单击“下一步:配置确认”,确认订单无误后,单击“提交”。 若计费模式为“包年包月”,在确认订单无误后,请单击“去支付”,请根据界面提示进行付款。 系统将自动跳转到节点列表页面,待节点状态为“可用”,表示节点添加成功。添加节点预计需要810分钟左右,请耐心等待。 说明: 集群创建时自动创建的安全组以及安全组规则禁止删除,否则会导致集群异常。 步骤 7 单击“返回节点列表”,待状态为可用,表示节点创建成功。 说明: 可分配资源:可分配量按照实例请求值(request)计算,表示实例在该节点上可请求的资源上限,不代表节点实际可用资源。 计算公式为: 可分配CPU CPU总量 所有实例的CPU请求值 其他资源CPU预留值 可分配内存 内存总量 所有实例的内存请求值 其他资源内存预留值
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        购买节点
      • NVIDIA GPU 物理机常见问题处理指南
        问题现象 排查指令 操作建议 设备状态异常 ibstat mlx50 StateActive,Physical stateLinkUp 防火墙阻断 systemctl status firewalld 关闭防火墙或放行 UDP 409665535 端口 LID 通信失败 ibping L <对端LID> Loss%0 IP 通信失败 ping <对端IB IP> 网络可达(延迟 < 1ms)
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        NVIDIA GPU 物理机常见问题处理指南
      • vLLM GPU多机PD分离
        本节介绍如何创建vLLM GPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM GPU多机PD分离
      • vLLM GPU多机PD分离(1)
        本节介绍如何创建vLLM GPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 创建vLLM GPU多机PD分离任务(1)
        本节介绍如何创建vLLM GPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。
        来自:
      • 查看基本信息
        本文主要介绍如何查看天翼云账号的“基本信息”。 操作步骤 1、在天翼云官网首页点击“我的账号中心”进入账号中心的“基本信息”页面; 2、查看账号总览。 在“我的账号”区域,您可以查看天翼云账号的信息,如:“登录名”、“账号类型”、“注册时间”、“最近登录时间”等; 在“账号安全”区域,您可以查看天翼云账号安全的信息,如:“手机号”、“邮箱”等; 在“实名认证”区域,您可以查看天翼云账号实名认证的信息,如:“姓名”或“企业名称”等。 3、查看用户账号详细资料。 在“核心信息”区域,您可以查看使用天翼云账号时所需的信息,如:“会员身份”、“用户名”、“出生日期”等; 在“业务信息”区域,您可以查看使用天翼云业务时所需的信息,如:“应用行业”、“应用类型”、“应用场景”、“产品名称”、“企业网址”等; 在“联系信息”区域,您可以查看“国家地区”、“所在地”、“街道地址”、“联系电话”等信息。
        来自:
        帮助文档
        账号中心
        操作指南
        基本信息管理
        查看基本信息
      • Linux客户端在重启服务器之后,直接挂载云存储网关创建的LUN
        本节主要介绍Linux客户端怎么在重启服务器之后,直接挂载云存储网关创建的LUN。 应用场景 客户端已经挂载云存储网关创建的LUN,为实现服务器开机启动后自动挂载LUN。 前提条件 Linux客户端已经挂载云存储网关LUN。 具体操作 1. 在客户端使用命令lsblk f查看挂载设备的文件系统信息,找到文件系统对应的UUID。 [root@client ~] lsblk f NAME FSTYPE LABEL UUID MOUNTPOINT sda mpathmember └─mpatha └─mpatha1 ext4 7269eef6e401454aacb4503d33337f21 /mnt/diskmpatha sdb mpathmember └─mpatha └─mpatha1 ext4 7269eef6e401454aacb4503d33337f21 /mnt/diskmpatha vda ├─vda1 swap 9e33bd6fc68c41c795c8703f4fe8c3d4 [SWAP] └─vda2 xfs a83f4fdc2ea14feca1e2a42016ce0afe / vdb └─vdb1 ext4 74296a9e8cfd470889b108086f71175b vdc └─vdc1 ext4 a9fedea4391e4d2a8824c9a3a6853394 2. 在/etc/fstab文件中新增云存储网关创建的LUN挂载信息,下次开机启动时可以自动挂载该LUN。 UUID7269eef6e401454aacb4503d33337f21 /mnt/diskmpatha ext4 defaults,netdev 0 0
        来自:
        帮助文档
        云存储网关
        最佳实践
        Linux客户端在重启服务器之后,直接挂载云存储网关创建的LUN
      • 实例
        介绍实例相关操作。 通过实例页面您可以查看实例的相关信息,并且能对实例的Agent进行停止、启动和删除等操作。 查看实例列表 1. 登录管理控制台。 2. 单击左侧,选择“管理与部署 > 应用性能管理 APM”,进入APM服务页面。 3. 在左侧导航栏选择“应用监控 >指标”,进入应用指标页。 4. 在界面左侧树单击对应环境后的,进入实例监控页面。 5. 单击“实例”,查看实例列表。 在页面右上角搜索框设置搜索条件后,单击,查看满足搜索条件的实例列表。 在页面右上角,展示处于离线、正常以及停止的状态实例的数量。 表 实例列表参数说明 参数名称 说明 主机名称 主机名称。 IP 实例的IP地址。 实例名称 实例名称。 Agent状态 Agent的状态,包括:离线、正常以及停止。 默认情况下,Agent状态按照正常,停止,离线的顺序排列。 单击“Agent状态”列的,支持按照Agent状态过滤。 Agent版本 Agent版本号。 最后心跳时间 采集实例数据的最后时间。 单击“最后心跳时间”列的,可以按照最后心跳时间的升序或降序排列。 Agent启停 Agent启动、停止操作。 操作 实例的操作。 单击“操作”列的删除,可以删除实例。
        来自:
        帮助文档
        应用性能管理
        用户指南
        应用指标监控
        实例
      • 安装Linux版的CMS-Agent
        本节为您介绍Linux版CMSSMSAgent安装启动步骤指引。 1. 选择对应CPU处理器架构,点击复制按钮,将下载命令复制至剪贴板。 2. 使用root用户登录linux系统。 3. 在linux终端中粘贴命令并执行CMSSMSAgent下载。 下载完成后如下图: 您也可以使用ssh指令在本地终端远程登录迁移源端进行操作。 ssh root@IP 4. 在Linux终端中粘贴安装命令以执行CMSSMSAgent安装,安装过程中需要在源机终端输入对应用户AK/SK。 说明 源端输入AK/SK是在服务器迁移服务中迁移Agent页面下复制。 服务器迁移服务所提供的AK/SK,用于将源机迁移至所登录的天翼云账户下。 5. 安装成功后出现如下提示。 6. 使用命令启动CMSSMSAgent,启动成功后出现以下提示。 7. 可以在主机管理界面看到该迁移源。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        在源端安装Agent
        安装Linux版的CMS-Agent
      • 产品规格
        桶存储类型和文件存储类型 桶存储类型是应用于整个桶的属性,表示桶内所有对象的默认存储类型。根据数据的访问频率、可用性要求和成本因素,可以设置桶存储类型以满足特定的业务需求。 文件存储类型是应用于单个文件的属性,表示特定文件的存储类型。文件的存储类型可以继承桶的存储类型,也可以单独设置以满足个别需求。根据文件的重要性、访问频率等因素,您可以灵活地选择适当的存储类型。
        来自:
        帮助文档
        对象存储 ZOS
        产品简介
        产品规格
      • 基本概念
        图区域和可用区 如何选择区域 建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。 如何选择可用区 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。
        来自:
        帮助文档
        弹性IP EIP
        产品简介
        基本概念
      • 概述
        人脸识别是天翼云自研AI平台提供的产品之一,通过自主研发人脸识别算法模型,提供人脸系列API服务,包括人脸检测、人脸属性识别、人脸比对等能力。通过订购天翼云人脸识别产品,可将此服务快速高效的部署到您的应用中,为开发者和企业提供高性能的在线API服务和解决方案,针对图片进行分析,可应用于人脸识别和认证、安防考勤等各种场景。 本说明提供了人脸识别产品API的描述、语法、参数说明及示例等内容。
        来自:
        帮助文档
        人脸识别
        API参考
        调用前必知
        概述
      • 支持的数据库
        本页为您介绍天翼云数据传输服务DTS支持的数据库。 数据传输服务支持多种数据源之间的数据迁移和同步,不同数据库的支持情况如下所示。 数据迁移 源库类型及版本 目标库类型及版本 迁移类型 备注 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 RDS for MySQL 5.7/8.0 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持分区表。 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 RDS for PostgreSQL 9.6/10/11/12/13/14/15/16 结构迁移 全量迁移 增量迁移 整库迁移 仅支持表同步。 增量同步表必须有主键。 整库迁移不支持库表名映射。 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 云数据库ClickHouse 22.8.9.24 结构迁移 全量迁移 增量迁移 整库迁移 仅支持表同步。 增量同步表必须有主键。 若源库为空库(该库下未创建任何表),不支持作为待迁移对象。 RDS for PostgreSQL、自建PostgreSQL 9.6/10/11/12/13/14/15/16 RDS for PostgreSQL 9.6/10/11/12/13/14/15/16 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持分区表。 增量迁移表必须有主键。 整库迁移不支持库表名映射。 RDS for PostgreSQL 自建PostgreSQL 9.6/10/11/12/13/14/15/16 RDS MySQL5.7/8.0 结构迁移 全量迁移 增量迁移 整库迁移 支持表、部分索引、约束、comment迁移。 不支持pgtoast,pgtemp1,pgtoasttemp1,pgcatalog,informationschem等系统模式的迁移。 每次至多同步一个库(database),同步多个库需要创建多个DTS任务。 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(副本集) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(分片集群) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) DDS 3.4/4.0(分片集群) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 RDS for SQL Server 、自建SQL Server 2016 标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 RDS for SQL Server 2016 标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持数据库、模式、分区表、索引、约束(外键、唯一、排他)、视图、存储过程、函数、触发器的迁移。 每次至多迁移一个库(DATABASE),迁移多个库需要创建多个DTS任务。 分区表需要在迁移前提前到目标库建立存储目录以及文件,否则仅支持primary分区。 不支持系统模式、临时表、用户自定义列的迁移。 暂不支持名称映射。 注意 目前DTS的DDS/MongoDB迁移链路暂不支持分片集群到副本集的迁移。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        支持的数据库
      • VPC对等连接组网迁移方案概述
        本章节向您介绍VPC对等连接组网迁移方案概述。 应用场景 天翼云未上线企业路由器ER之前,客户通常使用VPC对等连接连通同一个区域内的不同虚拟私有云VPC。对等连接适用于简单的组网,因为每连通两个VPC,就需要创建一个对等连接。那么对于复杂的组网,大量的对等连接将会导致组网结构非常繁复冗余,不利于网络扩容,同时增加运维成本。 而企业路由器作为一个云上高性能集中路由器,可以同时接入多个VPC,实现同区域VPC互通。企业路由器连接VPC构成中心辐射性组网,网络结构简单明了,方便扩容和运维。 如果您的组网当前使用VPC对等连接构建,并且需要连通的VPC数量较多,那么推荐您将网络迁移到企业路由器上。 方案架构 VPCA、VPCB、VPCC位于区域A,通过对等连接连通三个VPC的网络,为了提升网络可扩展性、降低运维成本,现在需要将这三个VPC的网络迁移至企业路由器上。 迁移共分为迁移前、迁移中、迁移完成三个阶段,具体如下图所示。 1. 迁移前,VPCA、VPCB、VPCC,通过VPC对等连接连通网络。 2. 迁移中,VPCA、VPCB、VPCC将会同时接入对等连接和企业路由器中,通过大小网段确保对等连接和企业路由器的路由不冲突。 3. 迁移完成后,VPCA、VPCB、VPCC可以通过企业路由器实现网络互通,此时可以删除原有VPC对等连接资源。 方案优势 简化组网结构和扩展能力,降低运维成本。 如下图所示,通过VPC对等连接构建的组网复杂程度高于企业路由器,当您有6个VPC的时候,您需要创建15个对等连接,组网结构已经非常复杂。而使用企业路由器时,只需要将VPC分别接入ER即可,网络架构简洁明了,方便运维,同时具备较高的可扩展性。 约束与限制 如果您对等连接下的VPC属于不同的账号,那么迁移的时候,您可以使用企业路由器的共享功能,将不同账号下的VPC迁移至同一个企业路由器中构建组网。 由于网络组网的复杂程度不同,将VPC对等连接迁移至企业路由器时,可能会造成业务中断。 当业务VPC下存在共享型弹性负载均衡、VPC终端节点、私网NAT网关、分布式缓存服务、混合云DNS解析时,不建议直接将业务VPC接入ER。
        来自:
        帮助文档
        企业路由器
        最佳实践
        将VPC对等连接组网迁移至企业路由器
        VPC对等连接组网迁移方案概述
      • 步骤五:构建应用
        设置定时执行任务 为了防止问题代码进入生产环境,确保应用总是处于可部署的状态,团队建议对应用进行持续不断的验证。 通过以下设置,可实现 构建任务的定时执行。 步骤 1 在任务“phoenixsampleci”的详情页,单击页面右上角“编辑任务”。 步骤 2 选择“执行计划”页签。 步骤 3 打开“启用定时执行”开关,根据需要选择执行日与执行时间,保存任务。 本文档中勾选“全选”,执行时间为“12:00”。 步骤 4 验证配置结果:根据配置时间查看构建任务是否自动执行,本节不再赘述。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤五:构建应用
      • 应用场景
        此小节介绍AntiDDoS流量清洗的应用场景。 AntiDDoS对公网IP提供不超过5Gbps流量的DDoS攻击防护。 对大于5Gbps的流量,系统会进行自动限流措施(正常访问流量会丢失);对于正常业务流量超过5Gbps流量的应用,建议用户自主购买第三方清洗中心服务,从第三方获取报表。 AntiDDoS设备部署在机房出口处,网络拓扑架构如下图所示。 检测中心根据用户配置的安全策略,检测网络访问流量。当发生攻击时,将数据引流到清洗设备进行实时防御,清洗异常流量,转发正常流量。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        产品介绍
        应用场景
      • 常见问题
        Q:如果我的云电脑桌面处于离线状态,是否仍然可以正常使用? A:很抱歉,桌面处于离线状态时将无法正常接收和执行指令。请您先通过云电脑客户端或官网控制台将桌面开机并确认其处于在线运行状态后,再进行相关操作。 Q:通过 SDK 发送指令后,桌面没有任何响应,应如何排查? A:建议您按以下步骤逐一排查: 1. 确认 SDK 指令格式是否正确,参数是否完整; 2. 检查接口返回的消息体中,是否包含成功标志(successtrue); 3. 若上述检查均无异常,请进入目标桌面,打开「应用市场」,找到并重新安装以下两个插件:clinkagent 和 AiClientTool,安装完成后再重新发送指令。 如问题仍未解决,请联系我们的技术支持团队,并提供相关日志信息以便进一步协助排查。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        Aluse云电脑
        服务支持
        常见问题
      • 查看网站扫描详情
        本节指导用户通过漏洞扫描服务查看网站扫描结果,可以查看扫描项总览、业务风险列表、漏洞列表、端口列表、站点结构。 VSS暂不支持webCMS漏洞扫描功能。 前提条件 已获取管理控制台的登录帐号与密码。 已添加域名并已完成域名认证。 已执行扫描任务。 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务页面。 3. 在“资产列表 > 网站”页签,进入网站列表入口,如下图所示。 4. 查看网站资产列表,相关参数说明如下表所示。 参数 参数说明 域名信息 域名/IP地址 域名别称 认证状态 “已认证”:目标域名已完成域名认证。 “未认证”:目标域名未完成域名认证。单击“去认证”进行域名认证。 上次扫描时间 域名最近一次扫描任务的时间。 上一次扫描结果 域名最近一次扫描结果信息,包括得分和各等级的漏洞数量。单击得分或者“查看详情”,进入“扫描详情”界面查看扫描概况。 5. 在目标域名所在行的“上一次扫描结果”列,单击分数或者“查看详情”,查看扫描任务详情,如下图所示。 说明 扫描任务详情界面默认显示最近一次的扫描情况,如果您需要查看其他时间的扫描情况,在“历史扫描报告”下拉框中,选择扫描时间点。 单击“重新扫描”,可以重新执行扫描任务。 当扫描任务成功完成后,单击右上角的“生成报告”,生成网站扫描报告后,单击右上角的下载报告按钮,可以下载任务报告,目前只支持PDF格式。 6. 选择“扫描项总览”页签,查看扫描项的检测结果,如下图所示。 说明 如果检测结果存在漏洞或者风险,可在“检测结果”列,单击“查看详情”了解漏洞或者风险的详细情况。 7. 选择“漏洞列表”页签,查看漏洞信息,如下图所示。 说明 单击“查看更多”,可以查看详细的漏洞分析。 单击漏洞名称可以查看相应漏洞的“漏洞详情”、“漏洞简介”、“修复建议”。 如果您确认扫描出的漏洞不会对网站造成危害,请在目标漏洞所在行的“操作”列,单击“忽略”,忽略该漏洞,后续执行扫描任务会扫描出该漏洞,但扫描结果将不会统计忽略的漏洞。例如,如果您对2个低危漏洞执行了“忽略”操作,则再次执行扫描任务,扫描结果显示的低危漏洞个数将减少2。 如果想对已忽略的漏洞恢复为风险类型,在目标漏洞所在行的“操作”列,单击“取消忽略”,恢复检测此漏洞。 8. 选择“业务风险列表”页签,查看业务风险信息,如下图所示。 9. 选择“端口列表”页签,查看目标网站的端口信息,如下图所示。 10. 选择“站点结构”页签,查看目标网站的站点结构信息,如下图所示。 说明 站点结构显示的是目标任务的漏洞的具体站点位置,如果任务暂未扫描出漏洞,站点结构无数据显示。 显示目标网站的基本信息,包括: IP地址:目标网站的IP地址。 服务器:目标网站部署所使用的服务器名称(例如:Tomcat 、Apache httpd、 IIS等)。 语言:目标网站所使用的开发语言(例如:PHP、JAVA、C
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        网站漏洞扫描
        查看网站扫描详情
      • 查看消费者连接地址
        本文主要介绍查看消费者连接地址。 分布式消息服务Kafka支持通过以下两种方式查看消费者连接地址,您可以根据实际情况选择任意一种方式。 方法一:在管理控制台查看消费者连接地址 方法二:在Kafka Manager中查看消费者连接地址 说明 消费者处于连接Kafka实例时,才可以查看消费者连接地址。 Kafka Manager由于缓存原因,显示的消费者连接地址可能不是当前消费者连接地址,建议重启Kafka Manager解决。 方法一:在管理控制台查看消费者连接地址 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击待查看消费者连接地址的消费组名称,进入消费组详情页。 步骤 7 在“消费者列表”页签,查看消费者连接地址。 图 消费者列表 方法二:在Kafka Manager中查看消费者连接地址 步骤 1 登录Kafka Manager。 步骤 2 单击“kafkacluster”,进入集群详情页。 步骤 3 在顶部导航栏单击“Consumers”,进入消费组列表页面。 图 导航栏 步骤 4 单击待查看消费者连接地址的消费组名称,进入消费组订阅的Topic列表页面。 图 消费组列表页面 步骤 5 单击待查看消费者连接地址的Topic名称,进入Topic详情页。 图 消费组订阅的Topic列表页面 步骤 6 在“Consumer Instance Owner”中,查看消费者连接地址。 图Topic详情页
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        查看消费者连接地址
      • 修改分区平衡
        手动平衡 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 通过以下任意一种方法,修改分区平衡。 勾选待修改分区平衡Topic名称左侧的方框,单击信息栏左上侧的“一键平衡 > 手动平衡”。 在待修改分区平衡的Topic所在行,单击“更多 > 一键平衡 > 手动平衡”。 步骤 7 设置手动平衡参数。 在“手动平衡”对话框右上角,单击“减少副本”/“添加副本”,为Topic的每个分区减少/增加副本数。 在待修改分区平衡的副本名称下,单击Broker名称或,选择目标Broker的名称,副本即将迁移至目标Broker上。同一分区下的不同副本需要分配在不同的Broker上。 在“带宽限制”中,输入带宽大小,默认值为“1”,表示不限制带宽。如果实例负载较低,建议不设置带宽限制。如果需要设置带宽限制,建议该参数值不小于待分区平衡Topic的总生产带宽 待分区平衡Topic的最大副本数。带宽限制值的估算方法,请参考带宽限制值估算方法。 图 设置手动平衡参数 步骤 8 单击“确定”,自动跳转到Topic列表页面。 在Topic列表页面左上方单击“查看变更任务”,进入“后台任务管理”页面,查看分区平衡任务的状态。当“状态”为“成功”时,表示分区平衡完成。 说明 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改分区平衡
      • 查看实例
        本文主要介绍查看实例。 操作场景 本节介绍如何在分布式消息服务Kafka管理控制台查看Kafka实例的详细信息。例如,连接Kafka实例时,需要获取连接IP和端口。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 Kafka实例支持通过筛选来查询对应的Kafka实例。当前支持的筛选条件为标签、状态、名称、ID和连接地址。Kafka实例状态请参见下表。 表 Kafka实例状态说明 状态 说明 创建中 创建Kafka实例后,在Kafka实例状态进入运行中之前的状态。 运行中 Kafka实例正常运行状态。在这个状态的实例可以运行您的业务。 故障 Kafka实例处于故障状态。 启动中 Kafka实例从已冻结到运行中的中间状态。 重启中 Kafka实例正在进行重启操作。 变更中 Kafka实例正在进行规格变更、公网访问变更等操作。 变更失败 Kafka实例处于规格变更、公网访问变更等操作失败的状态。 已冻结 Kafka实例处于已冻结状态。 冻结中 Kafka实例从运行中到已冻结的中间状态。 升级中 Kafka实例正在进行升级操作。 回滚中 Kafka实例正在进行回滚操作。 步骤 5 单击Kafka实例的名称,进入该Kafka实例的基本信息页面,查看Kafka实例的详细信息。 下表为连接实例的相关参数,其他参数,请查看页面显示。 信息类型 参数 说明 ::: 连接信息 内网连接地址 未开启公网访问时,连接实例的地址。 显示的连接地址个数为实例代理个数。 连接信息 Manager内网访问地址 未开启公网访问时,连接Kafka Manager的地址。 连接信息 公网访问 是否开启公网访问开关。 连接信息 公网连接地址 开启公网访问后,连接实例的地址。 仅当开启了公网访问才显示该参数。 连接信息 Manager公网访问地址 开启公网访问后,连接Kafka Manager的地址。 仅当开启了公网访问才显示该参数。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        查看实例
      • 1
      • ...
      • 209
      • 210
      • 211
      • 212
      • 213
      • ...
      • 580
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      应用托管

      推荐文档

      创建

      手动备份

      云课堂 第十六课:天翼云语音听写AI云服务测试Demo(Pyth

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号