活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      弹性负载均衡_相关内容
      • 应用管理
        如何固定应用组件IP? 问题描述 在部署应用组件的过程中,如果不设置“TCP/UDP路由配置”,那么当容器重启时,应用的访问IP会发生变化。这种情况会为您的某些配置造成困扰。 解决方法 创建部署应用组件时或者部署应用组件后设置一下“TCP/UDP路由配置”即可。以下三种方式均可解决该问题: 集群内访问:应用暴露给同一集群内其他应用访问的方式,可以通过集群内部域名访问。 VPC内网访问:应用可以让同一VPC内其他应用程序访问,通过集群节点的IP或者私网弹性负载均衡ELB的服务地址访问。 公网访问:通过弹性IP从公网访问应用,一般用于系统中需要暴露到公网的服务。该访问方式需要给集群内任一节点绑定弹性IP,并设置一个映射在节点上的端口。 如何体验ServiceStage的源码部署功能? 如下表所示,ServiceStage基于GitHub提供了一些不同语言的demo。 您可以Fork特定语言的demo源码到自己的GitHub代码仓库中,参考部署组件去体验ServiceStage的源码部署功能。 表 ServiceStage提供的demo 源码及GitHub地址说明 demo名称 语言类型 GitHub代码仓库地址 ServiceCombSpringMVC Java ServiceCombJAXRS Java ServiceCombPOJO Java SpringBootWebService Java SpringBootWebappTomcat Java nodejsexpress Node.js nodejskoa Node.js phplaravel PHP phpslim PHP Gosimple Golang
        来自:
        帮助文档
        微服务云应用平台
        常见问题
        应用管理
      • gRPC协议治理
        前提条件 1. 已开通云容器引擎,至少有一个云容器引擎集群实例。产品入口:云容器引擎。 2. 开通天翼云服务网格实例。 操作步骤 gRPC是远程过程调用框架(RPC),有多语言的实现,底层采用HTTP2作为传输协议;由于HTTP2采用长连接机制,在负载均衡的场景下可能导致负载的不平衡,本文介绍负载不均衡的场景以及如何通过服务网格实现负载均衡。 部署gRPC server和client应用。 apiVersion: apps/v1 kind: Deployment metadata: name: grpcserverv1 labels: app: grpcserver version: v1 spec: replicas: 1 selector: matchLabels: app: grpcserver version: v1 template: metadata: labels: app: grpcserver version: v1 spec: containers: args: address0.0.0.0:8080 image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/grpcserver imagePullPolicy: Always name: grpcserver ports: containerPort: 8080 apiVersion: apps/v1 kind: Deployment metadata: name: grpcserverv2 labels: app: grpcserver version: v2 spec: replicas: 1 selector: matchLabels: app: grpcserver version: v2 template: metadata: labels: app: grpcserver version: v2 spec: containers: args: address0.0.0.0:8080 image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/grpcserver imagePullPolicy: Always name: grpcserver ports: containerPort: 8080 apiVersion: v1 kind: Service metadata: name: grpcserver labels: app: grpcserver spec: ports: name: grpcbackend port: 8080 protocol: TCP selector: app: grpcserver type: ClusterIP apiVersion: apps/v1 kind: Deployment metadata: name: grpcclient labels: app: grpcclient spec: replicas: 1 selector: matchLabels: app: grpcclient template: metadata: labels: app: grpcclient "sidecar.istio.io/inject": "true" spec: containers: image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/grpcclient imagePullPolicy: Always command: ["/bin/sleep", "3650d"] name: grpcclient 部署之后的pod列表(一个client,两个版本的server): 通过client访问server,可以看到总是访问服务端的同一个实例。 kubectl exec it grpcclientb7499b9c45d2s n grpc /bin/greeterclient insecuretrue addressgrpcserver:8080 repeat10 为grpc client注入sidecar(打上标签"sidecar.istio.io/inject": "true"),重新部署grpcclient之后可以看到pod列表如下: 再次通过grpcclient访问grpcserver可以看到请求交替访问两个版本的grpcserver: 部署流量治理策略使70%的流量访问v2版本的grpcserver,30%的流量访问v1版本的grpcserver。 apiVersion: networking.istio.io/v1alpha3 kind: DestinationRule metadata: name: drgrpcserver spec: host: grpcserver trafficPolicy: loadBalancer: simple: ROUNDROBIN subsets: name: v1 labels: version: "v1" name: v2 labels: version: "v2" apiVersion: networking.istio.io/v1alpha3 kind: VirtualService metadata: name: vsgrpcserver spec: hosts: "grpcserver" http: match: port: 8080 route: destination: host: grpcserver subset: v1 weight: 30 destination: host: grpcserver subset: v2 weight: 70 再次访问可以看到请求在grpcserver的两个版本之间不再是交替访问,而是大概按照7:3的比例访问:
        来自:
        帮助文档
        应用服务网格
        用户指南
        流量管理中心
        多协议治理
        gRPC协议治理
      • 节点类
        排查思路 以下排查思路根据原因的出现概率进行排序,建议您从高频率原因往低频率原因排查,从而帮助您快速找到问题的原因。 如果解决完某个可能原因仍未解决问题,请继续排查其他可能原因。 排查项一:节点负载过高 排查项二:弹性云服务器是否删除或故障 排查项三:弹性云服务器能否登录 排查项四:安全组是否被修改 排查项五:检查安全组规则中是否包含Master和Node互通的安全组策略 排查项六:检查磁盘是否异常 排查项七:内部组件是否正常 排查项八:DNS地址配置错误 排查项九:检查节点中的vdb盘是否被删除 排查项十:排查Docker服务是否正常 排查思路 排查项一:节点负载过高 问题描述: 集群中节点连接异常,多个节点报写入错误,业务未受影响。 问题定位: 步骤 1 登录CCE控制台,进入集群,在不可用节点所在行单击“监控”。 步骤 2 单击“监控”页签顶部的“查看更多”,前往运维管理页面查看历史监控记录。 当节点cpu和内存负载过高时,会导致节点网络时延过高,或系统OOM,最终展示为不可用。 解决方案: 1. 建议迁移业务,减少节点中的工作负载数量,并对工作负载设置资源上限,降低节点CPU或内存等资源负载。 2. 将集群中对应的cce节点进行数据清理。 3. 限制每个容器的CPU和内存限制配额值。 4. 对集群进行节点扩容。 5. 您也可以重启节点,请至ECS控制台对节点进行重启。 6. 增加节点,将高内存使用的业务容器分开部署。 7. 对负载过高的节点进行重置操作。 节点恢复为可用后,工作负载即可恢复正常。
        来自:
        帮助文档
        云容器引擎
        常见问题
        节点类
      • CCE容器弹性引擎
        本文主要介绍CCE容器弹性引擎。 CCE容器弹性引擎(ccehpacontroller)插件是一款CCE自研的插件,能够基于CPU利用率、内存利用率等指标,对无状态工作负载进行弹性扩缩容。 安装本插件后,可在“弹性伸缩”页面的“工作负载伸缩”页签下,创建CustomedHPA策略,具体请参见创建工作负载弹性伸缩(CustomedHPA)。 主要功能 支持按照当前实例数的百分比进行扩缩容。 支持设置一次扩缩容的最小步长。 支持按照实际指标值执行不同的扩缩容动作。 约束与限制 仅支持在v1.15及以上版本的CCE集群中安装本插件。 若ccehpacontroller版本低于1.2.11,则必须安装prometheus插件,若版本大于或等于1.2.11,则需要安装能够提供Metrics API的插件,如metricsserver和Prometheus。若使用Prometheus,需要将Prometheus注册为Metrics API的服务,详见提供资源指标。 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 ccehpacontroller ,单击“安装”。 步骤 2 该插件可配置“单实例”或“自定义”规格,选择后单击“安装”。 说明 单实例仅用于验证场景,商用场景请根据集群规格使用"自定义"资源配置,ccehpacontroller插件的规格大小主要受集群中总容器数量和伸缩策略数量影响,通常场景下建议每5000容器配置CPU 500m, 内存1000Mi资源,每1000伸缩策略CPU 100m,内存500Mi。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        CCE容器弹性引擎
      • 创建密钥
        参数 参数说明 名称 新建的密钥的名称,同一个命名空间内命名必须唯一。 命名空间 新建密钥所在的命名空间,默认为default。 描述 密钥的描述信息。 密钥类型 新建的密钥类型。 Opaque:一般密钥类型。 kubernetes.io/dockerconfigjson:存放拉取私有仓库镜像所需的认证信息。 IngressTLS:存放7层负载均衡服务所需的证书。 其他:若需要创建其他类型的密钥,请手动输入密钥类型。 密钥数据 工作负载密钥的数据可以在容器中使用。 当密钥为Opaque类型时,单击 ,在弹出的窗口中输入键值对,并且可以勾选“自动Base64转码”。 当密钥为kubernetes.io/dockerconfigjson类型时,输入私有镜像仓库的帐号和密码。 当密钥为IngressTLS类型时,上传证书文件和私钥文件。 说明 证书是自签名或CA签名过的凭据,用来进行身份认证。 证书请求是对签名的请求,需要使用私钥进行签名。 密钥标签 密钥的标签。键值对形式,输入键值对后单击“添加”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        配置中心
        创建密钥
      • 新建消费组
        介绍分布式消息服务Kafka的新建消费组功能操作介绍。 场景描述 Kafka新建消费组的场景如下: 多个应用程序需要独立消费同一个主题:如果有多个应用程序需要从同一个Kafka主题中独立消费消息,并且每个应用程序需要管理自己的消费进度和分区分配,那么可以为每个应用程序创建一个独立的消费组。 消费者需要实现消息的负载均衡:当有多个消费者需要消费同一个主题的消息时,可以将它们加入同一个消费组,Kafka会自动将主题的分区均匀地分配给消费组中的消费者,实现消息的负载均衡。 消费者需要实现消息的并行处理:如果需要将一个主题的消息并行地处理,可以创建多个消费者实例,并将它们加入同一个消费组。Kafka会将主题的分区分配给消费组中的消费者,每个消费者只消费自己被分配的分区,从而实现消息的并行处理。 消费者需要实现高可用性:为了提高消费者的可用性,可以创建一个消费组,并将多个消费者实例加入该组。当一个消费者实例发生故障时,Kafka会将该消费者的分区重新分配给其他健康的消费者,从而保证消息的连续消费。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)点击“创建消费组”后,输入消费组名称,点击创建。 说明 消费组业务应用接入使用时客户端也可自动创建。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        新建消费组
      • Logstash对接Kafka
        介绍Logstash对接Kafka具体内容。 应用场景 通过Logstash对接Kafka,可以实现以下功能: 1. 数据收集:Logstash可以从Kafka主题中消费数据,将数据从Kafka集群中获取到Logstash中进行处理和转发。这样可以方便地将分布式系统、应用程序、传感器数据等各种数据源的数据集中收集起来。 2. 数据处理和转换:Logstash提供了丰富的过滤器插件,可以对从Kafka中消费的数据进行各种处理和转换操作。例如,可以进行数据清洗、解析、分割、合并、字段映射等操作,以满足不同数据源和目标的数据格式要求。 3. 数据传输和转发:Logstash可以将处理后的数据发送到不同的目标位置,如Elasticsearch、MySQL、文件系统、消息队列等。通过配置适当的输出插件,可以将数据传输到目标系统,以便后续的数据分析、存储、可视化等操作。 4. 实时数据处理:Logstash与Kafka结合使用,可以实现实时的数据处理和传输。Kafka作为高吞吐量的消息队列,可以确保数据的高效传输和缓冲。而Logstash作为数据处理引擎,可以对从Kafka中消费的数据进行实时处理,满足实时数据分析和监控的需求。 5. 分布式部署和负载均衡:Logstash支持分布式部署,可以通过配置多个Logstash节点来实现高可用性和负载均衡。多个Logstash节点可以同时从Kafka主题中消费数据,并进行并行处理和转发,以提高整体系统的性能和吞吐量。 总之,通过Logstash对接Kafka,可以实现灵活、可扩展和高效的数据处理和传输。Logstash提供了丰富的插件和配置选项,可以根据实际需求进行定制化的数据处理流程。同时,Logstash还具有良好的可扩展性和可靠性,适用于各种规模和类型的数据处理场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Logstash对接Kafka
      • 部署高可靠Ingress Controller
        本文为您介绍如何部署高可靠Ingress Controller。 本文介绍如何部署一套高性能、高可靠的Ingress接入层。 背景信息 Nginx Ingress Controller 是一个用于 Kubernetes 环境的开源 Ingress 控制器,它基于 Nginx 服务器实现了负载均衡、SSL 终止和路由功能。通过使用 Nginx Ingress Controller,你可以轻松地在 Kubernetes 集群中管理入站流量,并将 HTTP 和 HTTPS 请求路由到不同的服务。它还支持基于规则的路由、TLS 终止和灵活的配置选项,使得在 Kubernetes 中管理和控制流量变得更加简单和高效。作为集群流量接入层,Ingress的高可用性显得尤为重要,为了达到生产级的阈值,我们必须要要配置ingress的高可用。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 确保kubectl工具已经连接目标集群。 实现原理 高可用首先要解决的就是单点故障问题,在Serverless集群中Nginx Ingress Controller 通常采用多副本部署的方式,同时由于Ingress作为集群流量接入口,可以在ingress前面使用ELB来统一代理ingresscontroller的服务,以负载均衡到不同的ingresscontroller pod。高可用架构图如下: 如上述部署架构图所示,由多个Ingresscontroller实例组成统一接入层来承载集群入口流量,同时可依据后端业务流量水平扩缩容Ingresscontroller pod。 您可以在容器服务控制台页面上,通过为应用创建不同的Ingress对象,来为不同的应用指定不同的域名。IngressController目前不支持配置HTTPS证书,后续会支持,所以该方案目前不支持HTTPS,只支持HTTP。
        来自:
        帮助文档
        云容器引擎 Serverless版
        最佳实践
        部署高可靠Ingress Controller
      • 通过CCE搭建IPv4/IPv6双栈集群
        本文主要介绍 通过CCE搭建IPv4/IPv6双栈集群。 本教程将指引您搭建一个IPv6网段的VPC,并在VPC中创建一个带有IPv6地址的集群和节点,使节点可以访问Internet上的IPv6服务。 简介 IPv6的使用,可以有效弥补IPv4网络地址资源有限的问题。如果当前集群中的工作节点(如ECS)使用IPv4,那么启用IPv6后,工作节点可在双栈模式下运行,即工作节点可以拥有两个不同版本的IP地址:IPv4地址和IPv6地址,这两个IP地址都可以进行内网/公网访问。 使用场景 如果您的应用需要为使用IPv6终端的用户提供访问服务,则您可使用:IPv6弹性公网IP或IPv6双栈。 如果您的应用既需要为使用IPv6终端的用户提供访问服务,又需要对这些访问来源进行数据分析处理,则您必须使用IPv6双栈。 如果您的应用系统与其他系统(例如:数据库系统)、应用系统之间需要使用IPv6进行内网访问,则您必须使用IPv6双栈。 使用IPv6双栈请参考IPv4/IPv6双栈网络、IPv6弹性公网IP。 约束与限制 支持双栈的集群: 集群类型:CCE集群 集群网络模型:容器隧道网络 集群版本:v1.15及以上 其它说明:于v1.23版本GA(Generally Available) Kubernetes内部Node和Master之间通信使用IPv4地址。 Service类型选择“负载均衡 ( LoadBalancer )”或“DNAT网关 ( DNAT )”时,仅支持对接IPv4。 同一个网卡上,只能绑定一个IPv6地址。 集群开启IPv4/IPv6双栈时,所选节点子网不允许开启DHCP无限租约。 使用双栈集群时,请勿在ELB控制台修改ELB的协议版本。 双栈集群ELB约束: 使用场景 独享型ELB 共享型ELB ELB型Ingress 支持ELB使用双栈。后端服务器不支持使用IPv6协议,仅支持IPv4协议。如您使用IPv6协议,将产生相关告警事件,请前往对应Ingress的“事件”查看。 仅支持IPv4协议。 Nginx型Ingress 不支持使用双栈。 不支持使用双栈。 LoadBalancer类型的Service 七层:不支持使用双栈。四层:支持使用双栈。 仅支持IPv4协议。
        来自:
        帮助文档
        云容器引擎
        最佳实践
        集群
        通过CCE搭建IPv4/IPv6双栈集群
      • 读写分离简介
        本章节会介绍MySQL读写分离的功能 读写分离是指通过一个读写分离的连接地址实现读写请求的自动转发。创建只读实例后,您可以开通读写分离功能,通过RDS的读写分离连接地址,写请求自动访问主实例,读请求按照读权重设置自动访问各个实例。 Proxy负载均衡基于负载的自动调度策略,实现多个只读节点间的负载均衡。 备注:目前支持的局点有华北、广州4、苏州、深圳。 功能限制 注意 由于开启读写分离时,系统会自动删除已有的帐户rdsProxy,然后自动创建新的rdsProxy帐户,关闭读写分离时,系统也会自动删除已有的帐户rdsProxy。因此,建议您不要创建rdsProxy帐户,防止被系统误删除。 开启读写分离功能,需要RDS for MySQL为主备实例,并且主实例规格大于或等于4U8GB。 读写分离地址都是内网地址,只能通过内网连接。 开通读写分离时必须保证至少有一个只读实例,且主实例和只读实例必须处于同一Region。 开启读写分离功能后,删除RDS for MySQL主实例,会同步删除只读实例,并关闭读写分离功能。 开启读写分离功能后,主实例和只读实例均不允许修改数据库端口、安全组和内网地址,建议先修改完端口或内网地址后再启用读写分离。 读写分离功能不支持SSL加密。 读写分离功能不支持压缩协议。 读写分离不支持事务隔离级别READUNCOMMITTED。 如果执行了MultiStatements,当前连接的后续请求会全部路由到主节点,需断开当前连接并重新连接才能恢复读写分离。 使用读写分离的连接地址时,事务请求都会路由到主实例,不保证非事务读的一致性,业务上有读一致性需求可以封装到事务中。 使用读写分离的连接地址时, LASTINSERTID() 函数仅支持在事务中使用。 使用读写分离的连接地址时,show processlist命令的执行结果不具有一致性。 使用读写分离的连接地址时,不支持使用show errors和show warnings命令。 使用读写分离的连接地址时,不支持用户自定义变量,如SET @variable语句。 使用读写分离的连接地址时,如果存储过程(procedure)和函数(function)中依赖了用户变量,即@variable,则运行结果可能不正确。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库代理(读写分离)
        读写分离简介
      • 退订/释放集群(包年/包月)
        集群退订 本节以计费模式为“包年/包月”且未超期的CCE集群为例,介绍如何退订集群。 步骤 1 登录CCE控制台,在左侧导航栏中选择“集群管理”。 步骤 2 单击待退订集群后的。 图 集群退订 步骤 3 在弹出的“退订”页面中,勾选要释放的资源。 删除集群下工作负载挂载的云存储 说明 删除集群中的存储卷声明和存储卷,存在如下约束: 底层存储依据指定的回收策略进行删除。 对象存储桶下存在大量文件(超过1000)时,请先手动清理桶内文件后再执行集群删除操作。 删除集群下负载均衡ELB等网络资源(仅删除自动创建的ELB资源) 步骤 4 单击“是”,开始退订集群。退订集群需要花费1~3分钟,请耐心等候。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        管理集群
        退订/释放集群(包年/包月)
      • 创建工作负载弹性伸缩(HPA)
        HPA策略即Horizontal Pod Autoscaling,是Kubernetes中实现POD水平自动伸缩的功能。该策略在kubernetes社区HPA功能的基础上,增加了应用级别的冷却时间窗和扩缩容阈值等功能。 前提条件 若使用系统指标,则需要安装metricsserver和prometheus插件: metricsserver:负责采集kubernetes集群中kubelet的公开指标项,包含CPU利用率、内存利用率。HPA弹性策略如基于CPU/MEM利用率,必须安装此插件。 prometheus:负责采集kubernetes集群中kubelet的公开指标项(CPU利用率、内存利用率)。 约束与限制 HPA策略:仅支持1.13及以上版本的集群创建。 每个工作负载只能创建一个策略,即如果您创建了一个HPA策略,则不能再对其创建工作负载弹性伸缩(CustomedHPA)或其他HPA策略,您可以删除该HPA策略后再创建。 操作步骤 步骤 1 在CCE控制台中,单击左侧导航栏的“弹性伸缩”,在“工作负载伸缩”页签下,单击“创建HPA策略”。 步骤 2 进入创建工作负载HPA策略页面,在“插件检测”步骤中: 若插件名称后方显示,请单击插件后方的“现在安装”,根据业务需求配置插件参数后单击“立即安装”,等待插件安装完成。 若插件名称后方显示,则说明插件已安装成功。 步骤 3 确认插件已安装成功后,单击“下一步:策略配置”。 说明: 如果插件已提前安装成功,单击“创建HPA策略”后,在“插件检测”步骤中经过短暂检测后将直接进入“策略配置”步骤。 步骤 4 在“策略配置”步骤中,参照下表设置策略参数。 表HPA策略参数配置 参数 参数说明 策略名称 新建策略的名称,请自定义。 集群名称 请选择工作负载所在的集群。 命名空间 请选择工作负载所在的命名空间。 关联工作负载 请选择要设置HPA策略的工作负载。 实例范围 请输入最小实例数和最大实例数。 策略触发时,工作负载实例将在此范围内伸缩。 冷却时间 请输入缩容和扩容的冷却时间,单位为分钟,缩容扩容冷却时间不能小于 1 分钟。 该设置仅在1.15 及以上版本的集群中显示,1.13 版本的集群不支持该设置。 策略成功触发后,在此缩容/扩容冷却时间内,不会再次触发缩容/扩容,目的是等待伸缩动作完成后在系统稳定且集群正常的情况下进行下一次策略匹配。 策略规则 策略规则可基于系统指标。 系统指标 指标:可选择“CPU利用率”或“内存利用率”。 说明 利用率 工作负载容器组(Pod)的实际使用量 / 申请量。 期望值:请输入期望资源平均利用率。 期望值表示所选指标的期望值,通过向上取整(当前指标值 / 期望值 × 当前实例数)来计算需要伸缩的实例数。 阈值:请输入缩容和扩容阈值。 当指标值大于缩容阈值且小于扩容阈值时,不会触发扩容或缩容。阈值仅在 1.15 及以上版本的集群中支持。 您可以单击“添加策略规则”,设置多条伸缩策略。 说明 HPA在计算扩容、缩容实例数时,会选择最近5分钟内的最大值。 步骤 5 设置完成后,单击“创建”,在“完成”步骤中若显示“创建工作负载策略提交成功”,可单击“返回工作负载伸缩策略”。 步骤 6 在“工作负载伸缩”页签下,可以看到刚刚创建的HPA策略。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        工作负载弹性伸缩
        创建工作负载弹性伸缩(HPA)
      • 容器隧道网络
        容器隧道网络(Overlay )基于底层VPC网络,另构建了独立的VXLAN隧道化容器网络,适用于一般场景。VXLAN是将以太网报文封装成UDP报文进行隧道传输。容器网络是承载于VPC网络之上的Overlay网络平面,具有付出少量隧道封装性能损耗,即可获得通用性强、互通性强、高级特性支持全面(例如Network Policy网络隔离)的优势,可以满足大多数应用需求。 容器隧道网络 说明如下: Overlay L2指的是容器跨节点以Overlay通信,所有节点上的容器IP都是2层可达的。如Canal支持的Overlay类型为vxlan,采用的vswitch为openvswitch。 Overlay L2特性支持的功能包括: 支持多平面通信和隔离。 支持Pod访问Service IP。 支持Pod应用和Host应用的访问。 Overlay L2通信的上行链路网卡设备需要预配置IP地址。 Overlay L2目前不支持与其他网络模式的混用。 ServiceIP不支持多平面,只支持默认平面。 Overaly L2逻辑网络掩码(大子网掩码)目前不支持配置为大于24的值。 Overlay L2逻辑网络分配给节点的小子网掩码默认为26,支持配置为24~30。另外当小子网掩码为配置为24时,大子网掩码不支持配置为24。 Overlay L2由于在每个节点上都是小子网,容器内网络的网关都是由Canal自动分配,不支持指定网关。 优缺点 优点:不受VPC配额规格、响应速度限制(路由条目数、弹性网卡数、创建速度限制)。 缺点:封装的额外开销,网络复杂性较高、性能较低,无法直接利用VPC提供的负载均衡、安全组等能力。 应用场景 适用于对网络时延、带宽要求不是特别高的一般容器业务场景。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        网络管理
        网络模型
        容器隧道网络
      • 计费类
        常见的计费类问题Q&A。 ECX的带宽支持什么计费方式? ECX支持按流量计费、固定带宽计费、带宽月95峰值计费、带宽月均日95峰值计费。95峰值计费方式仅对大客户开放,您可以向您的客户经理申请开通。 ECX的独享带宽和共享带宽资费区别是什么? ECX的独享带宽与共享带宽使用相同的资费标准。独享带宽和共享带宽只收取带宽或流量费用,具体资费请参考网络资源价格。 虚拟机关机后是否会继续计费? 如果用户采用按需计费购买,虚拟机关机后相应的CPU、内存、GPU资源会被临时释放,这部分资源将不会被计费,但虚拟机占用的系统盘、数据盘资源仍然会被计费。如果您关机的时间太长,您的虚拟机资源可能会因为边缘集群资源不足而重启失败,您可以稍后重试。 欠费冻结后如何计费? 用户欠费后,ECX实例占用的计算资源将进入1小时的保留期,1小时内若用户未充值则会进入冻结期。进入保留期时,资源可以正常使用并正常计费。 进入冻结期时: 虚拟机将不能使用,虚拟机的CPU、内存、GPU资源将会被释放,但系统盘和挂载的数据盘将会保留并按原价继续收费。 裸金属将不能使用,裸金属实例将会保留并按原价继续收费。 边缘存储实例将不能使用,实例资源及数据将会保留并按原价继续收费。 网络将无法访问。 冻结期内,若用户仍未充值,冻结期结束时系统会释放虚拟机、裸金属、边缘存储实例、弹性IP、NAT网关、负载均衡等资源,VPC、专线、路由表、SSL证书等资源会被保留。
        来自:
        帮助文档
        智能边缘云
        常见问题
        计费类
      • 查看健康检查详情
        参数 参数类型 说明 示例 下级对象 regionID String 区域ID 81f7728662dd11ec810800155d307d5b azName String 可用区名称 az1 projectID String 项目ID 0 ID String 健康检查ID hcxxx name String 健康检查名称 test description String 描述 desc protocol String 健康检查协议: TCP / UDP / HTTP TCP protocolPort Integer 健康检查端口 0 timeout Integer 健康检查响应的最大超时时间 3 interval Integer 负载均衡进行健康检查的时间间隔 1 maxRetry Integer 最大重试次数 1 httpMethod String HTTP请求的方法 GET httpUrlPath String HTTP请求url路径 // httpExpectedCodes String HTTP预期码 xxx status Integer 状态 1 表示 UP, 0 表示 DOWN 1 createTime String 创建时间,为UTC格式 20221003T09: 44: 22Z domainEnabled Integer 健康检查支持域名功能开关 0 domain String 域名 xxx customReqRespEnabled Integer 自定义请求响应功能开关 0 customRequest String 自定义请求 xxx customResponse String 自定义响应 xxx
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        健康检查
        查看健康检查详情
      • 基础网络防护
        安全组与网络 ACL 的协同防护 安全组与网络 ACL 作为云上网络安全的核心防护手段,二者协同配合,形成多层次访问控制体系: 安全组是一种网络安全防护机制,用于防止未经授权的访问和保护计算机网络免受恶意攻击。它是一种虚拟防火墙,用于限制入向和出向网络流量。安全组工作在网络层和传输层,它通过检查数据包的源地址、目标地址、协议类型和端口号等信息来决定是否允许通过。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 最小权限原则:建议安全组规则采用 “白名单” 机制,仅开放业务必需端口(如 Web 服务开放 80、443 端口),拒绝所有不必要的入方向流量。例如,数据库实例安全组仅允许应用实例所在安全组访问 3306 端口,禁止公网直接访问。更多信息请参考 ++安全组概述++ 网络ACL是一个子网级别的流量防护策略:用户可以自定义设置网络ACL规则,并将网络ACL与子网绑定,实现对子网中云服务器实例流量的访问控制。通过出方向/入方向规则控制出入子网的流量数据,可作为安全组的补充防护,在子网层面阻断异常流量。 防御外部攻击:可在网络 ACL 中配置规则,拦截常见攻击 IP 段或端口扫描行为,例如,拒绝来自已知恶意 IP 段的流量,减少实例被攻击风险。更多信息请参考++网络ACL概述++ 协同防护建议:安全组与网络 ACL 配合使用,形成 “实例 子网” 双层防护。例如,Web 子网的网络 ACL 仅允许 80、443 端口公网流量进入,Web 实例安全组进一步限制仅允许负载均衡实例 IP 访问,双重保障 Web 服务安全。
        来自:
        帮助文档
        弹性云主机 ECS
        安全合规
        网络安全
        基础网络防护
      • 分布式缓存服务Redis与原生RedisCluster有什么区别?
        本文介绍分布式缓存服务Redis版与原生RedisCluster区别 分布式缓存是一种兼容Redis协议的NoSQL内存数据库产品,具备高性能、高可用、可水平扩展的特性,支持分库、分表的内存管理,并提供了容灾、恢复、监控、迁移等能力,分布式缓存服务Redis实例在内核性能方面进行大量优化,包含但不限如下: 主从数据高可靠,主从数据采用半同步机制解决了原生集群因异步同步问题而产生数据丢失问题。 集群高可用,节点自愈,故障自动恢复。主机宕机后从节点秒级切换自动接管业务。 乐观锁机制,实现乐观锁事务,支持高性能的并发修改。 容灾速度更快,不会产生Gossip广播风暴问题。 简单易用,自研java客户端,自带软负载均衡,实现多种负载策略,降低架构复杂度,节约部署成本 自研快照+流水的内存备份技术减少磁盘写入量、控制IO流量,实现平滑备份、降低性能损耗 多维度的监控指标,包括时耗、错误率、流量等
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        功能类
        分布式缓存服务Redis与原生RedisCluster有什么区别?
      • 查看后端主机组详情
        参数 参数类型 说明 示例 下级对象 regionID String 区域ID 81f7728662dd11ec810800155d307d5b azName String 可用区名称 AZ1 projectID String 项目ID 0 ID String 后端主机组ID XXX name String 后端主机组名称 test description String 描述 dec vpcID String vpc ID vpcxxx healthCheckID String 健康检查ID hcxxx algorithm String 调度算法 wrr sessionSticky Object 会话保持配置 sessionSticky status String 状态: DOWN / ACTIVE DOWN createdTime String 创建时间,为UTC格式 20220928T07:37:38Z updatedTime String 更新时间,为UTC格式 20220928T07:37:38Z protocol String 协议类型 TCP allPortForward Integer 全端口转发开关 0 centerHealthCheckLoadBalancerId String 集中健康检查所绑定的负载均衡ID lbxxxx connectionDrainEnabled Integer 优雅中断功能开关 0 connectionDrainTimeout String 优雅中断功能超时时间 300 proxyProtocol Integer 获取客户端真实源IP功能开关 0 azAffinityEnabled Integer 主机组亲和性开关 0 表 sessionSticky
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        后端主机组
        查看后端主机组详情
      • 查看后端主机组列表
        参数 参数类型 说明 示例 下级对象 regionID String 区域ID 81f7728662dd11ec810800155d307d5b azName String 可用区名称 az1 projectID String 项目ID 0 ID String 后端主机组ID tgxxx name String 后端主机组名称 test description String 描述 desc vpcID String vpc ID vpcxxx healthCheckID String 健康检查ID hcxxx algorithm String 调度算法 wrr sessionSticky Object 会话保持配置 sessionSticky status String 状态: DOWN / ACTIVE DOWN createdTime String 创建时间,为UTC格式 20221003T09: 44: 22Z updatedTime String 更新时间,为UTC格式 20221003T09: 44: 22Z allPortForward Integer 全端口转发功能开关 0 centerHealthCheckLoadBalancerId String 集中式健康检查功能绑定的负载均衡ID lbxxxx connectionDrainEnabled Integer 优雅中断功能开关 0 connectionDrainTimeout Integer 优雅中断功能超时时间 300 protocol String 协议类型 TCP proxyProtocol Integer 获取客户端真实源IP功能开关 0 azAffinityEnabled Integer 主机组亲和性开关 0 表 sessionSticky
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        后端主机组
        查看后端主机组列表
      • 集群实例负载不均衡问题排查
        本节主要介绍负载不均衡的常见处理方法。 对于集群方式部署的实例,常见Shard间负载不均衡,一般有如下原因:没有做分片,片键选择不正确,不做chunk预置,shard间均衡速度低于数据插入速度等。 排查方法 步骤 1 通过客户端连接数据库。 步骤 2 执行如下命令,查看分片信息。 mongos> sh.status() Sharding Status sharding version: { "id" : 1, "minCompatibleVersion" : 5, "currentVersion" : 6, "clusterId" : ObjectId("60f9d67ad4876dd0fe01af84") } shards: { "id" : "shard1", "host" : "shard1/172.16.51.249:8637,172.16.63.156:8637", "state" : 1 } { "id" : "shard2", "host" : "shard2/172.16.12.98:8637,172.16.53.36:8637", "state" : 1 } active mongoses: "4.0.3" : 2 autosplit: Currently enabled: yes balancer: Currently enabled: yes Currently running: yes Collections with active migrations: test.coll started at Wed Jul 28 2021 11:40:41 GMT+0000 (UTC) Failed balancer rounds in last 5 attempts: 0 Migration Results for the last 24 hours: 300 : Success databases: { "id" : "test", "primary" : "shard2", "partitioned" : true, "version" : { "uuid" : UUID("d612d134a4994428ab21b53e8f866f67"), "lastMod" : 1 } } test.coll shard key: { "id" : "hashed" } unique: false balancing: true chunks: shard1 20 shard2 20 “databases”中列出的所有数据库都是通过enableSharding开放了分片的库。 “test.coll”表示开启分片的namespace信息,其中test为集合所在的库名,coll为开启分片的集合名。 “shard key”表示前面集合的分片键,分片方式“id : hashed”表示通过id进行哈希分片,如果是“id : 1”,则代表通过id的范围进行分片。 “chunks”代表分片的分布情况。 步骤 3 根据步骤2查询出的结果,分析分片信息。 1. 如果业务性能存在瓶颈的数据库和集合,在上述“databases”以及子项中不存在,则说明业务集合没有进行分片。对于集群来说这意味着业务只有一个Shard承载,没有应用DDS的水平扩展能力。 此场景下可以通过如下的命令开启分片,充分发挥实例的水平扩展能力。 mongos> sh.enableSharding(" ") mongos> use admin mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 2. 如果“shardKey”分片片键选择不合理,也会导致负载不均衡。典型场景有业务热点数据分布在某个范围内,而分片的片键选择范围分片的方式,那么可能会出现热点数据所在的chunk对应的Shard负载会明显的高于其他Shard,最终导致整体性能出现瓶颈。 此场景下可以通过重新设计片键的分布方式来达到目标,比如将范围分片修改为哈希分片。 mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 说明 一个集合选择了分片方式,则不能在原集合上随时修改。所在集合在设计阶段需要充分考虑分片方式。 更多关于设置数据分片的内容请参见 3. 如果存在集中大批量的插入数据的场景,数据量超过单shard承载能力的话,可能会出现Balance速度赶不上插入速度,导致主shard存储空间占用率过高。 此场景可以使用sar命令查看服务器网络连接情况,分析每个网卡的传输量和是否达到传输上限。 sar n DEV 1 //1为间隔时间 Average: IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s %ifutil Average: lo 1926.94 1926.94 25573.92 25573.92 0.00 0.00 0.00 0.00 Average: A10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A11 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: NIC0 5.17 1.48 0.44 0.92 0.00 0.00 0.00 0.00 Average: NIC1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A00 8173.06 92420.66 97102.22 133305.09 0.00 0.00 0.00 0.00 Average: A01 11431.37 9373.06 156950.45 494.40 0.00 0.00 0.00 0.00 Average: B30 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: B31 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 说明 “rxkB/s”为每秒接收的kB数。 “txkB/s”为每秒发送的kB数。 检查完后,按“Ctrl+Z”键退出查看。 对于网络过高的情况,建议对MQL语句进行分析,优化思路,降低带宽消耗,提升规格扩大网络吞吐能力。 建议排查业务是否存在分片集合的情况消息中未携带ShardKey的情况,此场景下请求消息会进行广播,增加带宽消耗。 控制客户端并发线程数,降低网络带宽流量。 以上操作无法解决问题时,请及时提升实例规格,高规格节点对应更高网络吞吐能力的虚拟机。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        集群实例负载不均衡问题排查
      • Service概述
        本文介绍Service概述。 创建服务 Kubernetes中每⼀个工作负载会有⼀个或多个实例(Pod),每个实例(Pod)的IP地址由网络插件动态随机分配(Pod重启后IP地址会改变)。为屏蔽这些后端实例的动态变化和对多实例的负载均衡,引入了服务(Service)这个资源对象。本文将介绍如何创建服务并对外发布应用。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 在本地使用命令之前,需要先通过kubectl连接Kubernetes集群。 通过命令创建应用 步骤一:创建Deplyoment 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群” 。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 5. 在无状态页面中单击左上角的“新增YAML” ,本次示例模板是一个Nginx的Deployment,具体内容如下所示: plaintext apiVersion: apps/v1 kind: Deployment metadata: name: nginxdeployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: name: nginx image: nginx:1.14.2 ports: containerPort: 80 6. 创建完成后可查看该应用。 1. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 2. 在无状态页面中可以查看所有已经创建的Deployment。 3. 在目标Deployment项选项卡单击创建好的应用名称 ,查看其详情。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service管理
        Service概述
      • Service概述
        本节介绍了如何Service管理。 创建服务 Kubernetes中每⼀个工作负载会有⼀个或多个实例(Pod),每个实例(Pod)的IP地址由网络插件动态随机分配(Pod重启后IP地址会改变)。为屏蔽这些后端实例的动态变化和对多实例的负载均衡,引入了服务(Service)这个资源对象。本文将介绍如何创建服务并对外发布应用。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 在本地使用命令之前,需要先通过kubectl连接Kubernetes集群。 通过命令创建应用 步骤一:创建Deplyoment 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群” 。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 5. 在无状态页面中单击左上角的“新增YAML” ,本次示例模板是一个Nginx的Deployment,具体内容如下所示: apiVersion: apps/v1 kind: Deployment metadata: name: nginxdeployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: name: nginx image: nginx:1.14.2 ports: containerPort: 80 6. 创建完成后可查看该应用。 1. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 2. 在无状态页面中可以查看所有已经创建的Deployment。 3. 在目标Deployment项选项卡单击创建好的应用名称 ,查看其详情。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service概述
      • Proxy集群主备
        本节介绍分布式缓存服务Redis Proxy集群主备 分布式缓存Redis Proxy集群主备在使用方式上实现了简化,采用与标准主备一致的连接模式。通过代理节点实现请求的智能路由转发,自动将客户端访问分发至对应的数据分片,同时支持热点数据缓存等增强功能,帮助用户构建更高效、稳定的业务系统。 说明 Proxy集群主备目前为白名单特性,如需要使用该特性,请联系技术支持开通后使用。 架构示意图 说明 负载均衡器:采用主备高可用方式,用于接收客户端请求,Redis集群实例提供访问的IP地址和域名,即为负载均衡器地址。 Proxy:Redis集群代理服务器,负责执行路由转发、故障转移等关键任务,从而保障集群内部高可用性,简化客户端的逻辑处理。 Redis数据分片:每个数据分片均为主备双节点架构,当主节点发生故障不可用,系统将自动进行秒级切换至备节点,以保证服务的连续性。 特点 兼容标准访问模式 采用与标准主备架构一致的连接方式,具备良好的兼容性。当业务规模扩大、超出标准架构承载能力时,可便捷地将数据迁移至 Proxy 集群,显著降低业务改造成本,保障系统平滑演进与业务的持续扩展。 路由转发 Proxy维护与后端数据分片的持久连接,承担着请求的均衡分配与路由的关键角色,确保请求的高效处理和系统的稳定运行。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        实例类型
        Proxy集群主备
      • 天翼云函数计算一键部署DeepSeek大模型
        大模型部署难点 大模型的部署面临诸多挑战,这些难点主要集中在硬件资源、数据处理、模型优化、安全性以及实际应用的适配等多个方面。个人用户想部署大模型主要有下列难点: 硬件资源成本大:大模型的训练和推理需要强大的硬件支持,通常需要高性能的 GPU/TPU 集群;例如推理时可能需要 A100、H100 等高端 GPU。即使是较小的模型(如1.5B参数),也需要至少4GB显存的GPU和16GB内存。 软件环境与配置难:部署需要搭建复杂的软件环境,涉及操作系统、AI 框架等,配置错误可能导致模型无法运行。部署过程中可能遇到依赖环境不兼容或缺失的问题,例如 Python、CUDA 版本不匹配。 缺乏中文支持:许多部署工具(如Ollama、Docker)不提供中文支持,进一步增加了模型部署门槛。 技术支持不足:本地部署需要掌握一定的专业支持,特别是故障排除和模型优化;依靠个人自查解决问题难度很大,且效率低下。 FAAS平台部署DeepSeek 接下来将分别从平台优势、部署架构、操作步骤等几个方面,为您详细展示如何通过天翼云 FAAS 平台快速部署 DeepSeek 大模型,构建私有的 AI 智能问答应用。 平台优势 免运维:FAAS 提供全托管 Serverless 计算服务,无需管理维护基础设施;用户只需要指定GPU资源规格,平台就会置备好计算资源即刻使用;同时 24h 服务的技术支持团队,随时为用户提供专业支持和答疑解惑。 低成本:FAAS 平台采用极低的按量计费模式,根据用户实际使用的资源量进行收费;用户不再需要承担高额的 GPU 硬件购买、租用、这就成本,甚至能够以最低的费用使用到最新的 GPU 卡。 开箱即用:FAAS 平台开箱即用,省去了复杂的软件环境、操作系统、框架配置等操作;提供多种 AI应用模板、GPU函数模板,帮助用户快速构建部署AI应用和大模型。 高弹性:FAAS 平台支持实时弹性伸缩和动态负载均衡,秒级扩缩容能力灵活调度计算资源;保障应用服务稳定高可用,相比于人工扩缩容提效显著。
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        函数计算:天翼云函数计算与DeepSeek大模型
        天翼云函数计算一键部署DeepSeek大模型
      • 通过API访问CCE最佳实践
        参数 配置说明 通道名称 填写负载通道名称,根据规划自定义。建议您按照一定的命名规则填写负载通道名称,方便您快速识别和查找。此处填写“VPCdemo”。 端口 填写已创建工作负载的容器端口,指工作负载中pod里业务直接对外开放的接口。此处填写“80”,80端口默认为http协议端口。 分发算法 此处选择“加权轮询”。通过分发算法确定请求被发送到哪台主机。结合弹性服务器权重值,将请求轮流转发到每一台服务器。 通道类型 此处选择“微服务”。
        来自:
        帮助文档
        API网关
        最佳实践
        APIG开放CCE云容器应用
        通过API访问CCE最佳实践
      • 开启WAF防护
        产品版本 接入方式 接入步骤 WAF SAAS版 域名接入 1. 进入云WAF产品控制台,在左侧导航栏选择“接入管理”,在接入管理页面选择“域名接入”页签。 2. WAF独享版 独享型接入 1. 进入云WAF产品控制台,在左侧导航栏选择“接入管理”,在接入管理页面选择“独享型接入”页签。 2. 添加防护对象:在列表上方点击“添加防护对象”,根据页面提示配置域名或IP、服务器协议、源站地址、代理情况、负载均衡策略等相关信息。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        快速入门
        开启WAF防护
      • 终端节点服务
        本章节主要介绍云搜索服务的终端节点服务。 云搜索服务提供了终端节点服务,用户开启了此服务后,可以通过内网域名访问集群。在开启终端节点服务时,系统会默认给用户创建一个终端节点。创建终端节点需要有相关的权限,请参考VPC终端节点。 注意 公网访问和终端节点服务功能使用的是同一个负载均衡。如果开启了公网访问白名单,由于白名单是作用在负载均衡上面,会同时限制公网访问集群和内网通过VPCEP访问集群的IP。此时需要在公网访问白名单中添加一个网络白名单198.19.128.0/20,该白名单用来放通经过VPCEP的流量。 创建集群时开启终端节点服务 1.登录云搜索服务管理控制台。 2.在创建集群页面,“高级配置”选择“自定义”后,开启终端节点服务。 “创建内网域名”:如果开启,系统将会自动为用户创建一个内网域名,可以通过内网域名访问集群。 “终端节点服务白名单”:您可以在“终端节点服务白名单”中添加需要授权的账号ID,只要其账号ID被添加到终端节点服务白名单中,就可以通过内网域名或者节点IP访问集群。 如果需要添加多个账号,可以通过单击进行添加。也可以通过单击“操作”列下面的“删除”,进行删除不允许访问的账号。 说明 授权账号ID配置成,则表示允许全部用户访问该集群。 需要授权的账号ID可在“我的凭证”中进行查看。 集群开启终端节点服务之后,终端节点将按需进行收费,终端节点的费用将由用户进行支付,详细的计费方式请参考终端节点计费说明。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        终端节点服务
      • 工作负载间的亲和性
        通过控制台设置 步骤 1 参照创建无状态负载(Deployment)或创建有状态负载(StatefulSet),在“高级设置”的“调度策略”下,单击“工作负载间的亲和性 > 与工作负载的亲和性”下的“添加”。 步骤 2 勾选希望部署到相同节点的工作负载,单击“确定”。 当前创建的工作负载会和已勾选的工作负载部署在相同节点上。 通过kubectl命令行设置 本节以nginx为例,说明kubectl命令创建工作负载的方法。 前提条件 请参见通过kubectl操作CCE集群配置kubectl命令,使弹性云主机连接集群。 操作步骤 参见通过kubectl命令行创建无状态工作负载.docx section155246177178 " ")或通过kubectl命令行创建有状态工作负载.docx section113441881214 " "),工作负载间亲和性的yaml示例如下: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: replicas: 1 selector: matchLabels: app: nginx strategy: type: RollingUpdate template: metadata: labels: app: nginx spec: containers: image: nginx imagePullPolicy: Always name: nginx imagePullSecrets: name: defaultsecret affinity: podAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: matchExpressions: key: app
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        亲和/反亲和性调度
        简易调度策略
        工作负载间的亲和性
      • 更新后端主机组配置
        参数 是否必填 参数类型 说明 示例 下级对象 protocol 是 String 健康检查协议。取值范围:TCP、UDP、HTTP timeout 是 Integer 健康检查响应的最大超时时间,取值范围:260秒,默认2秒 2 interval 是 Integer 负载均衡进行健康检查的时间间隔,取值范围:120940秒,默认5秒 5 maxRetry 是 Integer 最大重试次数,取值范围:110次,默认2次 2 httpMethod 否 String 仅当protocol为HTTP时必填且生效,HTTP请求的方法默认GET,{GET/HEAD} httpUrlPath 否 String 仅当protocol为HTTP时必填且生效,支持的最大字符长度:80 / httpExpectedCodes 否 String 仅当protocol为HTTP时必填且生效,最长支持64个字符,只能是三位数,可以以,分隔表示多个,或者以分割表示范围,默认200 200
        来自:
      • 计费类
        本文主要介绍计费类问题。 云容器引擎CCE如何定价/收费? 计费项 云容器引擎(CCE)本身不收取任何费用,但在使用过程中会创建相关资源(如节点、带宽等),您需要为您使用的这些资源付费。CCE相关资源的计费项分为如下两部分: 1. 集群: 控制节点资源费用,按照每个集群的类型(虚拟机或裸金属、控制节点数)、集群规模(最大支持的节点数)的差异收取不同的费用。 2. IaaS基础设施: 集群工作节点所使用的IaaS基础设施费用,包括集群创建使用过程中自动创建或手动加入的相关资源,如云服务器、云硬盘、弹性IP/带宽、负载均衡等,价格参照相应产品价格说明 计费模式 CCE支持按需计费、包年/包月两种计费模式,供您灵活选择。 按需计费: 一种先使用后付费的方式,从“开通”开启计费到“删除”结束计费,按实际购买时长计费。这种购买方式比较灵活,您可以按需取用资源,随时开启和释放,无需提前购买大量资源。 说明 关于CCE集群休眠或节点关机后的收费说明: 集群休眠:集群休眠后,控制节点资源费用将停止收费,集群所属的云硬盘、绑定的弹性IP、带宽等资源按各自的计费方式(“包年/包月”或“按需付费”)进行收费。 节点关机:集群休眠后,集群中的工作节点(即ECS)并不会自动关机,如需关机可勾选“关机集群下所有节点”选项。您也可以在集群休眠后自行登录ECS控制台将节点关机,具体请参见节点关机。 大部分节点关机后不再收费,特殊ECS实例(包含本地硬盘,如磁盘增强型,超高I/O型等)关机后仍然正常收费,具体请参见ECS计费模式。 包年/包月: 先购买再使用的方式。这种购买方式相对于按需计费能够提供更大的折扣,对于长期使用者,推荐该方式。用户在购买时,系统会根据用户所选的机型对用户云账户中的金额进行扣除。 计费模式更改:计费周期内暂不支持计费模式更改。 注意 以集群作为计费量纲,根据集群类型和规模大小,按阶梯计费。 天翼云提供给客户进行续费与充值的时间,当您的包周期资源到期未续订或按需资源欠费时提供宽限期和保留期。
        来自:
        帮助文档
        云容器引擎
        常见问题
        计费类
      • IPv6网段管理
        本节主要介绍子网开启IPv6网段和取消IPv6网段。 使用说明 若地域已做IPv6资源规划,则在创建子网时会同时分配IPv4和IPv6网段,此时子网默认开启IPv6。 若地域未做IPv6资源规划,则在创建子网时只会分配IPv4网段,若后续该地域做了IPv6资源规划,则已创建的子网按需开启IPv6。 子网的IPv6网段自动从系统分配,且为全球单播地址,默认分配/96子网掩码的地址。 在对应子网开启IPv6之后,在虚拟机详情页网卡页启用IPv6,使对应的虚拟机在双栈模式下运行,可同时拥有IPv4地址和IPv6地址,内网IPv4地址只支持内网访问,IPv6地址未绑定带宽实例时只支持内网访问,绑定带宽实例后支持公网访问。 子网开启IPv6网段后,可以按需取消IPv6网段。 使用IPv6服务,需要地域具备IPv6资源,部分地域暂无IPv6资源,请以实际开通结果为准。 开启IPv6网段 1. 登录ECX控制台。 2. 单击左侧导航栏的【边缘网络>虚拟私有云>VPC和子网】,选择对应的地域,查看创建的虚拟私有云和对应子网的信息,选择所要开启IPv6的子网,单击其IPv6网段栏的【启用】,在提示弹出框中单击【确认】执行开启。 3. 子网开启IPv6后,可在其IPv6网段栏中显示当前子网分配的IPv6网段地址。 取消IPv6网段 子网IPv6网段未被使用时支持取消启用IPv6网段。VPC IPv6网段内的IP地址可分配给虚拟机VPC网卡和IPv6类型的负载均衡,如已存在分配情况需要先回收已分配的IPv6地址才允许取消子网的IPv6网段,IPv6类型的负载均衡只有将实例删除才能回收已分配的IPv6地址,虚拟机取消IPv6地址可参考[虚拟机VPC网卡取消IPv6地址](
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        虚拟私有云
        IPv6网段管理
      • 工作负载和节点的亲和性
        通过控制台设置 步骤 1 参照创建无状态负载(Deployment)或创建有状态负载(StatefulSet),在“高级设置”的“调度策略”下,单击“工作负载和节点的亲和性 > 与节点的亲和性”下的“添加”。 步骤 2 勾选工作负载需要部署到的节点,单击“确定”。 若勾选多个节点,部署工作负载时会在这些勾选的节点中自动指定。 通过kubectl命令行设置 本节以nginx为例,说明kubectl命令创建工作负载的方法。 前提条件 请参见通过kubectl操作CCE集群配置kubectl命令,使弹性云主机连接集群。 操作步骤 参见通过kubectl命令行创建无状态工作负载或通过kubectl命令行创建有状态工作负载,工作负载和节点亲和性的yaml示例如下: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: replicas: 1 selector: matchLabels: app: nginx strategy: type: RollingUpdate template: metadata: labels: app: nginx spec: containers: image: nginx imagePullPolicy: Always name: nginx imagePullSecrets: name: defaultsecret affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: matchExpressions: key: nodeName node中lable 的key operator: In values: testnode1 node中对应key 的value 工作负载创建完成后设置 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”或“工作负载 > 有状态负载 StatefulSet”。 步骤 2 单击工作负载名称进入详情页,单击“调度策略 > 简易调度策略 > 添加亲和对象”。 步骤 3 对象类型选为“节点”,勾选工作负载希望部署到的节点,设置完成后当前工作负载会部署到已选择的节点上。 说明: 该方法可新增、编辑和删除调度策略。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        亲和/反亲和性调度
        简易调度策略
        工作负载和节点的亲和性
      • 1
      • ...
      • 22
      • 23
      • 24
      • 25
      • 26
      • ...
      • 176
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      模型推理服务

      应用托管

      推荐文档

      重启

      迁移

      编辑备份集

      配置日志存储时长

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号