活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      弹性IP_相关内容
      • ALM-12005 OKerberos资源异常
        本章节主要介绍 ALM12005 OKerberos资源异常 。 告警解释 告警模块对Manager中的Kerberos资源的状态按80秒周期进行监控,当连续6次监控到Kerberos资源异常时,系统产生此告警。 当Kerberos资源恢复时,且告警处理完成时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 12005 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 Manager中的Kerberos资源异常,组件WebUI认证服务不可用,无法对Web上层服务提供安全认证功能,可能引起无法登录FusionInsight Manager和组件的WebUI。 可能原因 Okerberos依赖的OLdap资源异常。 处理步骤 检查Manager中的OKerberos依赖的OLdap资源是否异常 1.以omm用户登录到集群中Manager所在节点主机。 通过登录FusionInsight Manager浮动IP节点,执行sh ${BIGDATAHOME}/omserver/om/sbin/statusoms.sh脚本来查看当前Manager的双机信息。 2.执行 sh ${BIGDATAHOME}/omserver/OMS/workspace0/ha/module/hacom/script/statusha.sh ,查询当前HA管理的OLdap资源状态是否正常(单机模式下面,OLdap资源为Activenormal状态;双机模式下,OLdap资源在主节点为Activenormal状态,在备节点为Standbynormal状态。)。 是,执行步骤4。 否,执行步骤3。 3.参考ALM12004OLdap资源异常的处理步骤进行处理,OLdap资源状态恢复后,观察当前OKerberos资源状态是否恢复正常。 是,操作结束。 否,执行步骤4。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12005 OKerberos资源异常
      • 错误码
        错误码 错误信息 HTTP状态码 语义 解决方案 APIG.0101 The API does not exist or has not been published in the environment. 404 API不存在或未发布到环境 检查调用API所使用的域名、请求方法、路径和注册的API是否一致;检查API是否发布,如果发布到非生产环境,检查请求XStage头是否为发布的环境名;检查调用API使用的域名是否已经绑定到API所在的分组。 APIG.0101 The API does not exist. 404 API请求方法不存在 检查API请求方法是否与API定义的方法相同 APIG.0103 The backend does not exist. 500 无法找到后端 联系技术支持 APIG.0104 The plugins do not exist. 500 无法找到插件配置 联系技术支持 APIG.0105 The backend configurations do not exist. 500 无法找到后端配置 联系技术支持 APIG.0106 Orchestration error. 400 编排错误 检查API配置的前后端参数是否合理 APIG.0201 API request error. 400 请求格式不合法 使用合法的请求 APIG.0201 Request entity too large. 413 请求body过大(大于12M) 减小请求body大小 APIG.0201 Request URI too large. 414 请求URI过大(大于32K) 减小请求URI大小 APIG.0201 Request headers too large. 494 请求头过大(单个请求头大于32K或所有请求头总长度大于128K) 减小请求头大小 APIG.0201 Backend unavailable. 502 后端不可用 检查API配置的后端地址是否可用 APIG.0201 Backend timeout. 504 后端超时 增大超时时间或缩小后端的处理时间 APIG.0201 An unexpected error occurred 500 内部错误 联系技术支持 APIG.0204 SSL protocol is not supported: TLSv1.1 400 SSL协议版本不支持 使用支持的SSL协议版本 APIG.0301 Incorrect IAM authentication information. 401 IAM认证信息错误 检查token是否正确 APIG.0302 The IAM user is not authorized to access the API. 403 IAM用户不允许访问API 检查用户是否被黑白名单限制 APIG.0303 Incorrect app authentication information. 401 APP认证信息错误 检查请求的方法、路径、查询参数、请求体和签名使用的方法、路径、查询参数、请求体是否一致;检查客户端机器时间是否正确。 APIG.0304 The app is not authorized to access the API. 403 APP不允许访问API 检查APP是否授权访问API APIG.0305 Incorrect authentication information. 401 认证信息错误 检查认证信息是否正确 APIG.0306 API access denied. 403 不允许访问API 检查是否授权访问API APIG.0307 The token must be updated. 401 token需要更新 重新从IAM获取token APIG.0308 The throttling threshold has been reached. 429 超出流控值限制 等待流控刷新后访问。如果触发子域名的单日请求数上限,请绑定独立域名。 APIG.0310 The project is unavailable. 403 project不可使用 使用其他project访问 APIG.0311 Incorrect debugging authentication information. 401 调试认证信息错误 联系技术支持 APIG.0401 Unknown client IP address. 403 无法识别客户端IP地址 联系技术支持 APIG.0402 The IP address is not authorized to access the API. 403 IP地址不允许访问 检查IP地址是否被黑白名单限制 APIG.0404 Access to the backend IP address has been denied. 403 后端IP不允许访问 后端IP地址或后端域名对应的IP地址不允许访问 APIG.0502 The app has been frozen. 405 APP被冻结 余额不足 APIG.0601 Internal server error. 500 内部错误 联系技术支持 APIG.0602 Bad request. 400 非法请求 检查请求是否合法 APIG.0605 Domain name resolution failed. 500 域名解析失败 检查域名拼写,以及域名是否绑定了正确的后端地址 APIG.0606 Failed to load the API configurations. 500 未加载API配置 联系技术支持 APIG.0607 The following protocol is supported: {xxx} 400 协议不被允许,允许的协议是 xxx。 注意:xxx以实际响应中的内容为准。 改用支持的协议(HTTP/HTTPS)访问 APIG.0608 Failed to obtain the admin token. 500 无法获取管理帐户 联系技术支持 APIG.0609 The VPC backend does not exist. 500 找不到vpc后端 联系技术支持 APIG.0610 No backend available. 502 没有可连接的后端 检查所有后端是否可用,如调用信息与实际配置是否一致。 APIG.0611 The backend port does not exist. 500 后端端口未找到 联系技术支持 APIG.0612 An API cannot call itself. 500 API调用自身 修改API后端配置,递归调用层数不能超过10层。 APIG.0613 The IAM service is currently unavailable. 503 IAM服务暂时不可用 联系技术支持 APIG.0705 Backend signature calculation failed. 500 计算后端签名失败 联系技术支持 APIG.0802 The IAM user is forbidden in the currently selected region 403 该IAM用户在当前region中被禁用 联系技术支持 APIG.1009 AppKey or AppSecret is invalid 400 AppKey或AppSecret不合法 检查请求的AppKey或AppSecret是否正确
        来自:
        帮助文档
        API网关
        调用API网关
        调用已发布的API
        错误码
      • 创建存储源
        本文介绍如何在科研助手中创建存储源。 1.概述 科研助手提供非持久化的存储,如果您需要持久化存储数据,需要接入存储源,创建数据集,并将数据集挂载到指定的路径,从而实现读写数据集数据。科研助手提供文件存储和对象存储两种存储源,具体创建说明如下: 2.创建存储源 1)登录科研助手管理控制台。 2)在控制台左侧导航栏中,选择【数据存储】。 3)在【数据存储】弹出的选项中,选择【存储源管理】。 4)在【存储源管理】页面,点击左上角的【创建存储源】按钮。 5)点击后会弹出【创建存储源 】抽屉,输入和选择相关信息后,点击【确认 】,完成存储源创建;点击【取消】,放弃存储源创建。 2.1文件存储 2.1.1通过平台提供的智能边缘云文件存储(SFS)创建存储源 弹性文件服务(Scalable File Service,SFS)是天翼云提供的一项存储服务,基于NFS协议,可支持大规模数据的存储和处理,具有高性能和低延迟的特点,以满足不同的业务场景。 在弹出的【创建存储源】页面中,选择存储类型为“文件存储 “,选择数据存储为"智能边缘文件存储”: 配置参数,具体如下表所示: 参数 说明 是否必选 名称 输入作业名称。要求如下:长度范围为4~53个字符。名称由小写字母、数字、中划线()和点(.)组成。以小写字母开头。以小写字母或数字结尾。 是 资源池 在选择资源池类型后,再选择资源池。 是 可用区 选择存储源建立在具体可用区,如福州6。 是 存储类型 文件存储 是 选择数据存储 智能边缘文件存储 是 选择文件系统 默认,自动申请,不可修改 否 存储规格 默认,通用类型,不可修改 否 协议 默认,NFS,不可修改 否 选择IO类型 选择磁盘类型。 是 容量大小 填写,具体的容量大小;最小为10G。 是
        来自:
        帮助文档
        科研助手
        用户指南
        数据存储
        存储源管理
        创建存储源
      • 云产品集成KMS加密概述
        本文为您介绍KMS集成云产品提供服务端加密能力详情。 密钥管理服务(KMS)与云硬盘、对象存储、弹性文件、关系型数据库MYSQL版等产品实现了服务端集成,在使用这些云服务时,可通过密钥管理服务实现对数据的加解密,并集中使用密钥管理服务(KMS)对密钥进行管理。 支持服务端加密的密钥类型 服务端加密支持选择默认密钥及用户自行创建的用户主密钥,具体可选择的密钥类型如下。 密钥创建者 密钥类型 密钥算法 云产品 默认密钥 AES256(默认) 用户自行创建 用户主密钥软件 AES256 用户自行创建 用户主密钥硬件 AES256 SM4 默认密钥 系统为云产品自动创建的用于服务端加密的默认密钥,默认密钥与云产品对应,每个天翼云账号下的每个云产品在每个资源池支持创建1个默认密钥。 默认密钥的别名定义为alias ,例如aliasecs。 默认密钥的密钥材料由KMS生成,不支持导入外部密钥材料,同时不支持自动轮转、启用/禁用、计划删除、自定义别名等操作。 用户主密钥 云产品加密时,可选用户在KMS服务中自建的用户主密钥,密钥类型为对称密钥,算法支持AES256、SM4,保护级别可选软件保护、硬件保护。 用户主密钥按照KMS服务标准资费进行计费,请您确保账户余额充足,避免因KMS服务冻结导致云产品无法正常调用KMS服务进行加解密操作,云产品可能会出现异常。 用户主密钥支持计划删除,操作计划删除前请确保该密钥非未被用于云产品加密,避免删除后导致云产品无法正常加解密而出现异常。为避免误删,您可以为密钥开启删除保护功能。 注意 当前云产品加密仅支持选择按需版本中的自建用户主密钥,当前包周期版本中的用户主密钥暂不支持做云产品加密使用。若您为2024年9月10日之后购买了KMS包周期服务,您可选择使用默认密钥进行云产品加密。
        来自:
        帮助文档
        密钥管理
        用户指南
        云产品服务端加密
        云产品集成KMS加密概述
      • 挂载已有数据的非共享云硬盘
        本文将为您介绍当非共享云硬盘已有数据时如何挂载至云主机。 操作场景 当非共享云硬盘的信息满足以下条件时,支持作为数据盘挂载至云主机: 属性 属性值 是否为共享盘 不共享(即非共享盘) 磁盘属性 数据盘 磁盘状态 “未挂载”状态 注意 已经初始化且已有数据的云硬盘挂载后不需要再进行初始化,初始化会丢失已有数据,请您谨慎操作。 约束与限制 非共享云硬盘仅支持挂载至1台云主机上。 云硬盘只能挂载至同一地域、同一可用区的云主机上。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 在云硬盘列表中,用户找到需要挂载的云硬盘所在行,单击此行中“操作>挂载”,弹出“挂载磁盘”窗口。 5. 在弹出的“挂载磁盘”窗口中,用户选择要挂载的弹性云主机,进行勾选,点击“确定”,自动返回云硬盘列表。 注意 此处挂载的云主机必须与云硬盘处于同一地域同一可用区。 6. 云硬盘列表中,此云硬盘的挂载状态从“未挂载”转换为“已挂载”,即说明已挂载成功。 7. 已经初始化且已有数据的云硬盘已包含分区及文件系统,重新挂载后无需执行初始化操作,但需要在操作系统下挂载文件系统才能正常使用。 Linux:需要使用mount命令将现有分区挂载至已有目录或新目录,并设置开机自动挂载。 1. (可选)执行命令 mkdir /mnt/sdc,新建挂载点。本示例中/mnt/sdc为挂载点。若已有挂载点,则无需执行此命令。 2. 执行命令 mount /dev/vdb1 /mnt/sdc,将分区/dev/vdb1挂载到挂载路径/mnt/sdc下。 3. 设置开机自动挂载磁盘。具体步骤可参考[设置开机自动挂载磁盘](
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        挂载已有数据的云硬盘
        挂载已有数据的非共享云硬盘
      • 产品定义
        本节介绍了什么是镜像服务、镜像与镜像服务、镜像类型、镜像服务的功能、访问方式。 镜像与镜像服务 镜像是一个包含了软件及必要配置的云主机或物理机模版,包含操作系统或业务数据,还可以包含应用软件(例如,数据库软件)和私有软件。镜像分为公共镜像、私有镜像、共享镜像。 镜像服务(CTIMS, Image Management Service)提供镜像的生命周期管理能力。用户可以灵活地使用公共镜像、私有镜像或共享镜像申请弹性云主机和物理机。同时,用户还能通过已有的云主机或使用外部镜像文件创建私有镜像,实现业务上云或云上迁移。 镜像类型 镜像分为公共镜像、私有镜像、共享镜像,公共镜像为系统默认提供的镜像,私有镜像为用户自己创建的镜像,共享镜像为其他用户共享的私有镜像。 镜像类型 说明 :: 公共镜像 常见的标准操作系统镜像,所有用户可见,包括操作系统以及预装的公共应用。公共镜像具有高度稳定性,皆为正版授权,请放心使用,您也可以根据实际需求自助配置应用环境或相关软件。 私有镜像 包含操作系统或业务数据、预装的公共应用以及用户的私有应用的镜像,仅用户个人可见。 私有镜像包括系统盘镜像、数据盘镜像、ISO 镜像和整机镜像,其中: ● 系统盘镜像:包含用户运行业务所需的操作系统、应用软件的镜像。系统盘镜像可以用于创建云主机,迁移用户业务到云。 ● 数据盘镜像:只包含用户业务数据的镜像。数据盘镜像可以用于创建云硬盘,将用户的业务数据迁移到云上。 ● ISO 镜像:将外部镜像的ISO文件注册到云平台的私有镜像。ISO镜像是特殊的镜像,只能发放用作临时过渡的云主机。 ● 整机镜像:也叫全镜像,包含用户运行业务所需的操作系统、应用软件和业务数据的镜像。整机镜像基于差量备份制作,相比同样磁盘容量的系统盘镜像和数据盘镜像,创建效率更高。 共享镜像 由其他用户共享而来的私有镜像。
        来自:
        帮助文档
        镜像服务 IMS
        产品简介
        产品定义
      • 使用 Windows GPU云主机搭建深度学习环境
        本文介绍如何使用 Windows GPU云主机搭建深度学习环境。 背景信息 实例环境如下表所示。 实例类型 pi2.2xlarge.4 操作系统 Windows Server 2019数据中心版 64位 中文版 CPU 8vCPU 内存 32GB GPU NVIDIA T4 1张 驱动及相关库、软件版本 CUDA11.3.0、Python 3.9、cuDNN8.2.1、PyTorch 1.11.0、TensorFlowgpu2.6.0 说明 如何选择对应版本请参见 操作步骤 步骤一: 创建GPU实例 请参见用户指南​>创建GPU云主机​>创建未配备驱动的GPU云主机,创建GPU云主机实例。 步骤二:安装显卡驱动 1. 登录已创建的GPU云主机,操作参见Windows弹性云主机登录方式概述。 2. 访问 NVIDIA 官网,选择显卡的驱动版本。单击“SEARCH”进入下载页面,单击进行下载。 3. 完成下载后,根据提示完成安装。 步骤三:安装CUDA 1. 访问英伟达官网 CUDA Toolkit Archive,选择对应版本。 2. 进入 CUDA Toolkit 11.3.0 Download 页面,选择对应系统配置。 3. 单击 “Download”,开始下载。 4. 下载完成后,请双击安装包,并根据提示进行安装。 请注意以下步骤: 在弹出的 CUDA Setup Package 窗口中,Extraction path 为暂时存放地址,无需修改,保持默认并单击 OK。 在许可协议步骤中,选择“自定义”并单击“下一步”。 根据实际需求选择安装组件,并单击“下一步”。 完成安装,根据提示重启云主机。
        来自:
        帮助文档
        GPU云主机
        最佳实践
        使用 Windows GPU云主机搭建深度学习环境
      • 产品定义
        本节主要介绍分布式消息服务Kafka的产品简介 分布式消息服务Kafka 是一个分布式、高吞吐量、高可用的消息队列服务,针对开源的 Kafka 提供全托管服务,解决开源产品长期以来的痛点,用户只需专注于业务开发,无需部署运维,低成本、更弹性、更可靠,广泛用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等大数据领域,是大数据生态中不可或缺的产品之一。 关于Kafka的帮助手册阅读指引 考虑到篇幅的限制,我们提供的Kafka用户手册主要描述了产品相关的信息,以及与开源社区版Kafka的差异,如天翼云Kafka的产品规格、控制台操作、API接口调用,以及客户端对接等方面。 如果您需要了解Kafka的基础入门知识或者消息的生产和消费等技术细节,请查阅Kafka官网资料。 产品架构 Broker:消息中间件处理结点,一个Kafka节点就是一个broker,多个broker可以组成一个Kafka集群。 Topic:主题 一类消息的集合。 Partition:分区,topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列。 Segment:partition物理上由多个segment组成。 offset:每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中。partition中的每个消息都有一个连续的序列号叫做offset,用于partition唯一标识一条消息。 Producer:消息和数据生成者,一般为应用调用API进行消息生产,并向Kafka的Topic发布消息。 Consumer:消息订阅者,也成为消息消费者,负责向 Kafka Broker 读取消息并进行消费。 Consumer Group:一类Consumer的集合名称,这类Consumer通常消费一类消息,且消费逻辑一致,Consumer Group 和 Topic 的关系是 N:N,同一个 Consumer Group 可以订阅多个 Topic,同一个 Topic 也可以被多个 Consumer Group 订阅。 更多信息请参见名词解释。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品定义
      • 云硬盘概述
        本节主要介绍了云硬盘概述、云硬盘类型及性能等。 云硬盘概述 云硬盘(Edge Cloud Disk,ECD)是一种为边缘虚拟机等边缘计算服务提供持久性块存储的服务,云硬盘是一种基于分布式架构的,可弹性扩展的虚拟块存储设备。通过数据冗余和缓存加速等多项技术,提供高可用性和持久性,以及稳定的低时延性能。用户可以对云硬盘做格式化、创建文件系统等操作,并对数据做持久化存储。数据的安全性高,扩展性好,支持三副本机制,数据可支持热迁移等等。 ECX由于边缘节点容量有限,云硬盘相对于云资源池的云硬盘容量要少得多,由于云硬盘多备份技术数据的可靠性相对本地硬盘更高,但如果您有关键数据需要安全存储请优先云资源池的云硬盘。 云硬盘类型及性能 云硬盘主要有三种类型:高IO、通用型SSD、超高IO,可购买的资源以实际展示的库存为准。详细性能如下: 参数 高IO 通用型SSD 超高IO 单个云硬盘的最大IOPS 5000 20000 35000 单个云硬盘的基线IOPS 1800 1800 1800 单个云硬盘IOPS公式 min (5000, 1800 + 8 × 容量) min(20000, 1800 + 12 × 容量) min (35000, 1800 + 50 × 容量) 最大吞吐量 200MB/s 250MB/s 350MB/s 吞吐量公式 min(200,130+0.1×容量) MB/s min(250, 120 + 0.3 × 容量) MB/s min (350, 120 + 0.5 × 容量) MB/s 最大性能云硬盘大小 max(400, 700) max(683, 433) max(664, 460) 典型应用场景 适用于主流的高性能、高可靠应用场景,例如大型开发测试、Web服务器日志以及企业应用。典型的企业应用有SAP、Microsoft Exchange 和 Microsoft SharePoint等。 各种主流的高性能、低延迟交互应用场景,企业办公,大型开发测试,转码类业务,Web服务器日志,容器等高性能系统盘。 适用于超高IO、超大带宽的读写密集型应用场景,例如高性能计算应用场景、分布式文件系统场景、I/O密集型应用场景、各类 NoSQL和关系型数据库部署等场景。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘存储
        云硬盘
        云硬盘概述
      • 通过Flink作业处理OBS数据
        本章节主要介绍通过Flink作业处理OBS数据的最佳实践。 应用场景 MRS支持在大数据存储容量大、计算资源需要弹性扩展的场景下,用户将数据存储在OBS服务中,使用MRS集群仅做数据计算处理的存算分离模式。 本文将向您介绍如何在MRS集群中运行Flink作业来处理OBS中存储的数据。 方案架构 Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。 Flink最适合的应用场景是低时延的数据处理(Data Processing)场景:高并发pipeline处理数据,时延毫秒级,且兼具可靠性。 在本示例中,我们使用MRS集群内置的Flink WordCount作业程序,来分析OBS文件系统中保存的源数据,以统计源数据中的单词出现次数。 操作流程 本示例操作流程如下: 创建MRS集群 创建并购买一个包含有Flink组件的MRS集群,详情请参见购买自定义集群。 说明 本文以购买的MRS 3.1.0版本的集群为例,集群未开启Kerberos认证。 在本示例中,由于我们要分析处理OBS文件系统中的数据,因此在集群的高级配置参数中要为MRS集群绑定IAM权限委托,使得集群内组件能够对接OBS并具有对应文件系统目录的操作权限。 您可以直接选择系统默认的“MRSECSDEFAULTAGENCY”,也可以自行创建其他具有OBS文件系统操作权限的自定义委托。 集群购买成功后,在MRS集群的任一节点内,使用omm用户安装集群客户端,具体操作可参考安装并使用集群客户端。 例如客户端安装目录为“/opt/client”。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        数据分析
        通过Flink作业处理OBS数据
      • 安装QEMU-Guest-Agent
        本文档为制作Linux系统私有镜像指导手册的步骤4,安装QEMUGuestAgent。 操作场景 QEMUGuestAgent(简称qga),是天翼云平台弹性云主机执行关键功能的依赖工具。包括: 云主机重置密码 创建云主机快照 安装QEMUGuestAgent 如果您已经参考步骤2完整安装了全量软件,则可以直接配置cloudinit。 如果您未安装cloudinit,请执行以下命令完成安装。 说明 以下命令均可直接全量复制到命令行执行。 Red Hat系列Linux操作系统使用如下命令 plaintext yum install y qemuguestagent Debian系列Linux操作系统使用如下命令 plaintext apt install y qemuguestagent 配置QEMUGuestAgent 1. 通过执行以下shell命令,完成对qemuga和qemuguestagent.service配置文件的修改。 plaintext 若 /etc/sysconfig/qemuga 文件存在,则确认 BLACKLISTRPC、FILTERRPCARGS 所在行已被注释。 qemugaconfig'/etc/sysconfig/qemuga' if [ f "$qemugaconfig" ]; then [ ! f "${qemugaconfig}.bak" ] && cp "$qemugaconfig" "${qemugaconfig}.bak" sed i '/^[[:space:]]BLACKLISTRPC/ s/^/ /' "$qemugaconfig" sed i '/^[[:space:]]FILTERRPCARGS/ s/^/ /' "$qemugaconfig" fi 自定义 qemuguestagent 服务配置。 if [ f '/lib/systemd/system/qemuguestagent.service' ] [ f '/usr/lib/systemd/system/qemuguestagent.service' ]; then qemugaservicedropindir'/etc/systemd/system/qemuguestagent.service.d/' mkdir p "$qemugaservicedropindir" cat <<'EOT' >"${qemugaservicedropindir}zzctims.conf" [Install] WantedBydevvirtiox2dportsorg.qemu.guestagent.0.device EOT systemctl daemonreload fi 2. 配置服务。 plaintext systemctl enable qemuguestagent 3. 检查服务状态。 plaintext systemctl status qemuguestagent
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        私有镜像
        创建私有镜像
        制作Linux系统盘镜像文件
        安装QEMU-Guest-Agent
      • 购买类
        本章节会介绍函数工作流的购买时常见问题。 在创建函数时创建失败,并提示“您当前的权限不足,请联系您的管理员为您开通相关权限”时该如何处理? 使用FunctionGraph是否需要开通计算、存储、网络等服务? 使用FunctionGraph开发程序之后是否需要部署? FunctionGraph函数支持哪些编程语言? FunctionGraph函数分配磁盘空间有多少? FunctionGraph函数是否支持版本控制? 在创建函数时创建失败,并提示“您当前的权限不足,请联系您的管理员为您开通相关权限”时该如何处理? 用户在未进行实名认证或者账号余额不足100元时,会弹出“您当前的权限不足,请联系您的管理员为您开通相关权限”的提示,且无法开通按需资源。请用户进行实名认证并保障账号余额大于100元。 使用FunctionGraph是否需要开通计算、存储、网络等服务? 用户使用FunctionGraph时,不需要开通或者预配置计算、存储、网络等服务,由FunctionGraph提供和管理底层计算资源,包括服务器CPU、内存、网络和其他配置/资源维护、代码部署、弹性伸缩、负载均衡、安全升级、资源运行情况监控等,用户只需要按照FunctionGraph支持的编程语言提供程序包,上传即可运行。 使用FunctionGraph开发程序之后是否需要部署? 用户在本地开发程序之后打包,必须是ZIP包(Java、Node.js、Python、Go)或者JAR包(Java),上传至FunctionGraph即可运行,无需其它的部署操作。 制作ZIP包的时候,单函数入口文件必须在根目录,保证解压后,直接出现函数执行入口文件,才能正常运行。 对于Go runtime,必须在编译之后打zip包,编译后的动态库文件名称必须与函数执行入口的插件名称保持一致,例如:动态库名称为testplugin.so,则“函数执行入口”命名为testplugin.Handler。
        来自:
        帮助文档
        函数工作流
        常见问题
        购买类
      • 产品咨询
        本页介绍了文档数据库服务产品咨询类相关常见问题。 文档数据库服务和社区版MongoDB有什么关系 文档数据库服务是天翼云基于社区版MongoDB提供的高性能NoSQL数据库服务,完全兼容MongoDB协议。文档数据库服务在容灾、备份、恢复、监控、报警等方面提供全套数据库解决方案。可降低管理维护成本,方便您专注于应用开发和业务发展。 使用文档数据库服务要注意什么 使用文档数据库服务需要综合考虑安全性、性能、可用性和数据一致性等方面,合理配置和管理数据库,确保应用程序能够高效稳定地使用文档数据库服务。 当您评估业务对服务可用性有较高的要求时,建议优先选择副本集与分片集群的架构,副本集与分片集群提供了更高的数据可靠性与服务可用性,当发生主节点宕机时,其他的节点可以接替主节点继续提供服务,不影响业务侧的读写。 实例侧的弹性云主机,对用户是不可见的,您只需参考实例基本信息页的连接串配置数据库连接进行数据库服务的访问即可。 在对数据库进行不熟悉的操作时,建议先对数据进行备份,方便数据回档。 您不需要进行数据库的基础运维,但是可以留意一下性能监控,比如机器的磁盘、内存使用率等情况,规格不足时可以进行扩容更好满足业务需求。 什么是文档数据库服务的可用性 文档数据库服务的可用性通常是指数据库系统在正常运行时可以对外提供服务的能力,以及系统在遇到故障或意外情况时能够保持部分或全部功能的可用性。文档数据库服务提供多节点副本集与分片集群的高可用架构。集群节点之间数据自动同步,提升了数据的高可靠性与服务的高可用性。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        咨询类
        产品咨询
      • 实例存储类型
        本文介绍了RDSPostgreSQL的实例存储类型详细说明。 数据库是应用系统最为重要基础组件,需频繁进行磁盘读写操作,对存储IO性能要求较高,天翼云提供多种类型的存储IO以满足不同性能要求,您可根据需要选择所需的存储类型。RDSPostgreSQL暂时不支持创建实例后变更存储类型。 存储类型说明 RDSPostgreSQL普通IO、高IO、通用型SSD、超高IO、极速型SSD、XSSD系列(XSSD0、XSSD1、XSSD2)六种存储类型,均为云盘存储,支持弹性扩容,可以满足不同的业务场景,具体如下: 普通IO:适用于数据量不大、查询和更新频率不高的个人测试、学习等场景。 高IO:适用于主流的高性能、高可靠应用场景,例如大型开发测试、Web服务器日志以及企业应用。典型的企业应用有SAP、Microsoft Exchange和Microsoft SharePoint等。 通用型SSD:适用于高吞吐量,低时延的企业级办公场景。 超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景,例如要求高性能计算的关系型数据库。 极速型SSD:适用于需要极低的延迟和高的I/O性能的应用场景,大型OLTP(Online Transaction Processing)数据库等。 XSSD系列(XSSD0、XSSD1、XSSD2):天翼云X系列云硬盘基于NVMe和RDMA技术,为您提供超高IOPS、超高吞吐量和超低时延的极致云硬盘。关于XSSD系列的性能介绍可参考X系列云硬盘。 注意 XSSD系列仅8代机支持选择该磁盘类型,同时仅部分资源池支持XSSD系列磁盘,后续会逐步加载其他资源池,请以实际订购界面展示为准。 云硬盘规格详情,请您参考云硬盘产品介绍产品规格磁盘类型及性能介绍。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        实例说明
        实例存储类型
      • 产品优势
        对比项 自建Kubernetes集群 云容器引擎 易用性 自建Kubernetes集群管理基础设施通常涉及安装、操作、扩展自己的集群管理软件、配置管理系统和监控解决方案,管理复杂。每次升级集群的过程都是巨大的调整,带来繁重的运维负担。 简化集群管理,简单易用 借助云容器引擎,您可以一键创建和升级Kubernetes容器集群,无需自行搭建Docker和Kubernetes集群。您可以通过云容器引擎自动化部署和一站式运维容器应用,使得应用的整个生命周期都在容器服务内高效完成。 您可以通过云容器引擎轻松使用深度集成的Helm标准模板,真正实现开箱即用。 您只需启动容器集群,并指定想要运行的任务,云容器引擎帮您完成所有的集群管理工作,让您可以集中精力开发容器化的应用程序。 可扩展性 自建Kubernetes集群需要根据业务流量情况和健康情况人工确定容器服务的部署,可扩展性差。 灵活集群托管,轻松实现扩缩容 云容器引擎可以根据资源使用情况轻松实现集群节点和工作负载的自动扩容和缩容,并可以自由组合多种弹性策略,以应对业务高峰期的突发流量浪涌。 可靠性 自建Kubernetes集群操作系统可能存在安全漏洞和配置错误,这可能导致未经授权的访问、数据泄露等安全问题。 企业级的安全可靠 云容器引擎提供容器优化的各类型操作系统镜像,在原生Kubernetes集群和运行时版本基础上提供额外的稳定测试和安全加固,减少管理成本和风险,并提高应用程序的可靠性和安全性。 高效性 自建Kubernetes集群需要自行搭建镜像仓库或使用第三方镜像仓库,镜像拉取方式多采用串行传输,效率低。 镜像快速部署 云容器引擎配合容器镜像服务,镜像拉取方式采用并行传输,确保高并发场景下能获得更快的下载速度,大幅提升容器交付效率。
        来自:
        帮助文档
        云容器引擎
        产品简介
        产品优势
      • 数据导入导出
        本章节主要介绍操作类问题中的数据导入导出问题。 外表与GDS外表支持的数据格式有什么区别? OBS与GDS外表支持格式文件区别如下: OBS支持的文件格式:CSV、TEXT、ORC、CARBONDATA,缺省值为TEXT GDS支持的文件格式:CSV、TEXT,缺省值为TEXT 数据如何存储到数据仓库服务? DWS支持多数据源高效入库,典型的入库方式如下所示。详细指导请参见《数据仓库服务数据库开发指南》中的“导入数据”章节。 从OBS导入数据 数据上传到OBS对象存储服务中,再从OBS中导入,支持CSV,TEXT格式数据。 通过INSERT语句直接插入数据 用户可以通过DWS提供的客户端工具(gsql)或者JDBC/ODBC驱动从上层应用向DWS写入数据。DWS支持完整的数据库事务级别的增删改(CRUD)操作。这是最简单的一种方式,这种方式适合数据写入量不太大, 并发度不太高的场景。 从MRS导入数据,将MRS作为ETL 通过COPY FROM STDIN方式导入数据。 通过COPY FROM STDIN命令写数据到一个表。 使用GDS从远端服务器导入数据到DWS 当用户需要将普通文件系统(例如,弹性云主机)中的数据文件导入到DWS时,可以使用DWS提供的GDS导入数据的功能。 数据仓库可以存储多少业务数据? 数据仓库集群每个节点默认能够支持1.49TB、2.98TB、4.47TB、160GB、1.68TB、13.41TB六种规格的存储容量,一个集群支持的节点数范围为3~256,集群总的存储容量随集群规模等比例扩充。 为增强可靠性,每个节点都有一个副本,副本会占用一半的存储空间,选择容量时副本容量会自动翻倍存储。 数据仓库系统会备份数据,生成索引、临时缓存文件、运行日志等内容,并占用存储容量。每个节点实际存储的数据,大致为总存储容量的一半。
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        数据导入导出
      • 与其他云服务关系
        本文为您介绍密钥管理服务与其他云服务的关系,以及对应密钥的区分。 KMS与其他云服务的加密关系 KMS集成天翼云产品提供服务端加密能力,实现云上原生数据提供加密保护,有效提升默认安全能力。在创建云产品资源时开启加密功能,您可以自定义加密密钥,支持选择默认密钥和您在KMS中自行创建的用户主密钥。 服务端加密优势 提升云产品内生安全性 加密过程中使用的密钥由用户自定义选择,集中托管在KMS服务中,KMS已通过国家密码管理局审查,获得商用密码产品认证,合规性得到有效保障。 降低研发成本 使用云产品服务端加密能力,您无需自行构建和维护密钥管理基础设施,无需考虑自研数据加密能力所涉及的密钥管理安全及合理性、加密算法的研发等一系列复杂的工程,大幅度降低开发成本。 加密过程透明无感知 服务端加密为您提供内嵌至云服务中的加密方案,您无需关注底层数据加密的细节,只需一键开启加密功能,即可实现数据加密。 支持服务端加密的云产品 云硬盘 对象存储 弹性文件 关系型数据库MySQL版 关系型数据库PostgreSQL版 文档数据库服务 功能详情详见云产品服务端加密。 KMS与云审计服务的关系 已对接天翼云云审计服务,可通过云审计服务查看资源操作的记录,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至日志审计等产品实现永久保存。 KMS与云监控服务的关系 已对接天翼云云监控服务,可通过云监控服务查看实例节点的相关监控指标,并可以设置相关指标的告警规则及通知策略。
        来自:
        帮助文档
        密钥管理
        产品介绍
        与其他云服务关系
      • 运行MapReduce作业
        通过后台提交作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.在“节点管理”页签中单击某一Master节点名称,进入弹性云主机管理控制台。 4.单击页面右上角的“远程登录”。 5.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 7.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 8.执行如下命令拷贝OBS文件系统中的程序到集群的Master节点。 hadoop fs Dfs.obs.access.keyAK Dfs.obs.secret.keySK copyToLocal sourcepath.jar targetpath.jar 例如:hadoop fs Dfs.obs.access.keyXXXXDfs.obs.secret.keyXXXX copyToLocal "obs://mrsword/program/hadoopmapreduceexamplesXXX.jar" "/home/omm/hadoopmapreduceexamplesXXX.jar" AK/SK可登录OBS控制台,请在集群控制台页面右上角的用户名下拉框中选择“我的凭证 > 访问密钥”页面获取。 9.执行如下命令提交wordcount作业,如需从OBS读取或向OBS输出数据,需要增加AK/SK参数。 source /opt/Bigdata/client/bigdataenv;hadoop jar executejar wordcount inputpath outputpath 例如:source /opt/Bigdata/client/bigdataenv;hadoop jar/home/omm/hadoopmapreduceexamplesXXX.jar wordcount Dfs.obs.access.keyXXXXDfs.obs.secret.keyXXXX "obs://mrsword/input/""obs://mrsword/output/" inputpath为OBS上存放作业输入文件的路径。outputpath为OBS上存放作业输出文件地址,请设置为一个不存在的目录。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行MapReduce作业
      • 用户管理
        本页介绍分布式融合数据库HTAP的用户管理功能。 用户管理简介 用户管理功能模块能够帮助用户可视化的去创建数据库用户、克隆用户、修改密码、修改权限以及删除用户。 前提条件 分布式融合数据库HTAP实例正常运行。故障、删除状态的实例,无法使用用户管理功能模块。当分布式融合数据库HTAP实例再次启动或恢复后,即可正常使用。 注意事项 密码长度必须在 8 到 20 个字符,且密码必须包含大写字母、小写字母、数字和特殊字符 ~!@%^+ 。 操作场景 用户管理是控制台提供的一组功能模块,可以对分布式融合数据库HTAP的数据库用户进行可视化管理。 创建用户 进入控制台,找到对应实例,点击操作 > 更多 > 用户管理,进入用户管理页面。点击创建用户,打开创建用户页面,输入用户名,主机,密码,备注,权限,点击确定,即可创建用户。创建用户的参数说明: 用户名:用户名长度必须在 1 到 16 个字符,由字母、数字和特殊字符组成,并且以字母开头, 字母或数字结尾。 主机:主机为该用户允许登录的客户端所在的主机IP,支持通配符 % 与 , % 代表任意个字符, 代表单个字符。 密码:密码长度必须在 8 到 20 个字符,且密码必须包含大写字母、小写字母、数字和特殊字符 ~!@%^+ 。 权限:权限包括了全局权限和数据库级别权限。 克隆用户 进入控制台,找到对应实例,点击操作 > 更多 > 用户管理,进入用户管理页面。选择需要克隆的用户,点击操作栏的更多 > 克隆,即可克隆该用户,克隆用户页面与创建用户页面相同,在克隆用户页面可修改新用户的用户名,主机,密码,权限后再提交。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        实例管理
        用户管理
      • 新增自建数据库
        如果您需要添加RDS和云数据库以外的自建数据库资产,可参考本章节进行操作。 添加自建数据库资产前,需要获取自建数据库的引擎、版本、主机等相关信息。 前提条件 已完成数据库资产委托授权,参考云资源委托授权/停止授权进行操作。 已获取自建数据库的引擎、版本、主机等相关信息,且自建数据库子网下含有可用的IP配额。 约束条件 只能添加数据安全中心支持的数据库类型及版本,DSC支持的数据库类型及版本如下表所示。 数据库类型 版本 MySQL 5.6、5.7、5.8、8.0 SQL Server 2017SE、2017EE、2017WEB 2016SE、2016EE、2016WEB 2014SE、2014EE 2012SE、2012EE、2012WEB 2008R2EE、2008R2WEB PostGreSQL 11、10、9.6、9.5、9.4、9.1 Oracle 10、12 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全 >数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中选择“资产列表”,并选择“数据库 > 未授权”,进入未授权数据库资产列表页面。 5. 在未授权数据库资产列表左上角,单击“添加自建数据库”。 6. 在弹出的“添加自建数据库”对话框中,参考下表配置数据库参数。 参数名称 参数说明 取值样例 资产名称 输入数据库对象名称。 区域 默认为当前帐号登录的区域。 ECS实例 在下拉框中选择已在ECS服务里创建的数据库实例。 安全组 选择对应的ECS实例所在的安全组名称。 default 数据库引擎 选择数据库引擎。可选择“MySQL”、“PostgreSQL”、“SQLServer”和“Oracle”。 MySQL 版本 选择数据库引擎对应的版本。 5.6 模式名 输入数据库模式名。 主机 输入数据库服务器IP地址。 端口 输入数据库服务器的端口号。 数据库名称 输入自建数据库名称。 用户名 输入访问数据库服务器的用户名。 密码 输入访问数据库服务器的密码。 7. 点击按钮“确定”,即可将数据库添加完成,并展示在已授权的数据库列表中。在数据库添加完成后,该数据库的“连通性”为“检查中”,此时,DSC会测试数据库的连通性。 数据安全中心DSC能正常访问已添加的数据库,该数据库的“连通性”状态为“成功”。 数据安全中心DSC不能正常访问已添加的数据库,该数据库的“连通性”状态为“失败”。单击“原因”查看失败的原因或者参照如何排查添加数据库连通性失败解决。
        来自:
        帮助文档
        数据安全中心
        用户指南
        资产管理
        资产中心
        数据库资产清单
        新增自建数据库
      • 节点滚动升级
        操作场景 用户在不删除现有节点的情况下,将工作负载迁移到新的节点上。迁移流程如下图所示。 约束与限制 现有节点和工作负载待迁移的节点必须在同一集群。 当前仅支持在Kubernetes v1.13.10及以后集群版本执行此操作。 默认节点池DefaultPool不支持修改配置。 原有节点在默认节点池 步骤 1 创建新的节点。 1. 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 2. 在集群选择框中,选择现有节点所属的集群。 3. 单击“创建节点池”,设置节点池如下参数,其他参数根据需要进行修改,参数说明请参见节点池管理>创建节点池。 a. 节点池名称:新建节点池的名称,例如nodepooldemo。 b. 节点购买数量:本例添加一个节点。 c. 节点规格:请根据业务需求选择相应的节点规格。 d. 操作系统:选择节点对应的操作系统。 e. 登录方式:支持密码和密钥对。 选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 4. 单击“下一步:配置确认”。确认节点池配置后,单击“提交”。 单击“返回节点池管理”返回节点池列表。在节点列表中可查看到新建节点池已创建,且状态为“正常”。 步骤 2 单击节点池名称,在节点列表中可查看到新建节点的IP地址。 步骤 3 安装配置kubectl。 1. 在左侧导航栏中选择“资源管理 > 集群管理”,单击现有节点所在集群下的“命令行工具 > kubectl”。 2. 在集群详情页中的“kubectl”页签下,请参照界面中的提示信息完成集群连接。 步骤 4 迁移工作负载。 1. 给需要迁移工作负载的节点打上Taint(污点)。 kubectl taint node [node] keyvalue:[effect] 其中,[node]为待迁移工作负载所在节点的IP;[effect]取值为NoSchedule、PreferNoSchedule或NoExecute,此处必须设置为NoSchedule。 − NoSchedule:一定不能被调度。 − PreferNoSchedule:尽量不要调度。 − NoExecute:不仅不会调度,还会驱逐Node上已有的Pod。 说明: 若需要重新设置污点时,可执行kubectl taint node [node] key:[effect]命令去除污点。 2. 安全驱逐节点上的工作负载。 kubectl drain [node] 其中,[node]为待转移工作负载所在节点的IP。 3. 在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。在工作负载列表中,待迁移工作负载的状态由“运行中”变为“未就绪”。工作负载状态再次变为“运行中”,表示迁移成功。 说明: 迁移工作负载时,若工作负载配置了节点亲和性,则工作负载会一直提示“未就绪”等异常情况。请单击工作负载名称进入到负载详情页,在选择“调度策略”页签,删除原节点的亲和性配置,并单击“简易调度策略”配置新的节点亲和性和反亲和性策略,详情请参见“亲和反亲和调度>简易调度策略”。 工作负载迁移成功后,在工作负载详情页的“实例列表”页签,可查看到工作负载状已迁移到步骤1中所创建的节点上。 步骤 5 删除原有节点。 工作负载迁移成功且运行正常后,即可在“资源管理 > 节点管理”中删除原有节点。 原有节点不在默认节点池 步骤 1 拷贝节点池并添加节点。 1. 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 2. 在集群选择框中,选择现有节点所属的集群。 在节点池列表中,查找到原有节点所在的节点池。 3. 单击该节点池名称后的“更多 > 拷贝”,在“创建节点池”页面下设置如下参数,其他参数根据需要进行修改,参数说明请参见“节点管理>创建节点池”。 − 节点池名称:新建节点池的名称,例如nodepooldemo。 − 节点购买数量:本例添加一个节点。 − 节点规格:请根据业务需求选择相应的节点规格。 − 操作系统:选择节点对应的操作系统。 − 登录方式:支持密码和密钥对。 选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 4. 单击“下一步:配置确认”。确认节点池配置后,单击“提交”。 单击“返回节点池管理”返回节点池列表。在节点列表中可查看到新建节点池已创建,且状态为“正常”。 步骤 2 单击节点池名称,在节点列表中可查看到新建节点的IP地址。 步骤 3 迁移工作负载。 1. 单击节点池nodepooldemo后的“编辑”配置Taints参数。 2. 单击“Add Taint”,输入Key和Value值,Effect选项有NoSchedule、PreferNoSchedule或NoExecute,此处必须选择“NoExecute”。 − NoSchedule:一定不能被调度。 − PreferNoSchedule:尽量不要调度。 − NoExecute:不仅不会调度,还会驱逐Node上已有的Pod。 说明: 若需要重新设置污点时,可执行kubectl taint node [node] key:[effect]命令去除污点。 3. 单击“保存”。 4. 在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。在工作负载列表中,待迁移工作负载的状态由“运行中”变为“未就绪”。工作负载状态再次变为“运行中”,表示迁移成功。 说明: 迁移工作负载时,若工作负载配置了节点亲和性,则工作负载会一直提示“未就绪”等异常情况。请单击工作负载名称进入到负载详情页,在选择“调度策略”页签,删除原节点的亲和性配置,并单击“简易调度策略”配置新的节点亲和性和反亲和性策略,详情请参见“亲和反亲和调度>简易调度策略”。 工作负载迁移成功后,在工作负载详情页的“Pods”页签,可查看到工作负载状已迁移到步骤1中所创建的节点上。 步骤 4 删除原有节点。 工作负载迁移成功且运行正常后,即可在“资源管理 > 节点池管理”中删除原有节点。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        节点滚动升级
      • 使用大模型学习机微调自己的文本生成模型
        2.2 原始文本数据(Raw text file) 原始文本数据直接将文章或对话的原文作为输入,没有格式转化的过程,框架自动进行切分和训练。 例如我们直接截取大模型学习机部署文档作为输入: 本文基于天翼云云主机,为您介绍通过镜像部署大模型学习机的具体操作。 购买云主机。 登录云主机控制台,选择创建云主机资源池,点击“创建云主机”按钮。 当前您可在重庆重庆2、宁夏中卫5购买GPU计算加速型云主机的Pi7规格;也可在重庆重庆2购买GPU计算加速型云主机的Pi2规格。 您需要将私有数据以utf8编码格式写入到文件中,并保存为[文件名].txt文件。例如xuexijidocdata.txt。 3. 数据上传到云主机 windows系统使用命令提示符, macos/linux系统使用终端,执行scp命令将数据文件上传到云主机的/root/textgenerationwebui/training/datasets目录下。 scp [本机文件路径] root@[ip]:/root/textgenerationwebui/training/datasets 如果您擅长使用linux系统,也可采用例如ftp,lrzsz等其他方式将数据从本地上传到云主机内。 4. 启动训练 4.1 加载基础大模型 由于小模型需要在基础大模型的基础上才能使用,因此在训练前也要先保证在Model页完成了基础大模型的加载。 1. Llama 27b模型在训练时,默认的fp16精度大约要消耗18G显存,入门款T4显卡机型无法支持。需要在加载基础模型时选择loadin8bit以降低内存占用。 2. 如果刚才进行过训练,则已加载进显存/内存的基础大模型也已经受到了训练的影响,需要先进行模型reload恢复初始状态。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        使用大模型学习机微调自己的文本生成模型
      • 产品咨询类
        数据传输服务DTS是否支持关系型数据库的HA实例迁移? 对于源数据库实例为MySQL的情况,DTS支持HA迁移。以下是一些条件和说明: GTID:源数据库实例需要开启GTID(Global Transaction Identifier)模式。GTID 为全局事务ID,用于保证提交的事务在主从复制中有唯一的ID。 HA实例的VIP:HA实例需要提供虚拟IP(VIP),以便在故障切换时可以自动切换到备用实例。 在满足上述条件的情况下,DTS可以实现MySQL数据库的HA实例迁移。当迁移过程中源数据库实例短暂断开连接时,DTS会尝试自动重连,并从断开连接前的位点接续之前的迁移任务。从而确保数据的连续性和一致性。 数据传输服务DTS对源数据库有什么要求? 目前数据传输服务支持MySQL到MySQL、PostgreSQL到PostgreSQL、SQL Server到SQL Server的数据迁移和数据同步。支持DDS/MongoDB>DDS/MongoDB的数据迁移。对源数据库的要求如下: MySQL到MySQL的数据迁移/数据同步:支持RDS for MySQL或自建 MySQL 5.6部分版本/5.7/8.0,且自建数据库的源数据库版本不得高于目标数据库版本。 PostgreSQL到PostgreSQL的数据迁移/数据同步:支持RDS for PostgreSQL或自建PostgreSQL 9.6/10/11/12/13/14/15,且源数据库版本不得高于目标数据库版本。 DDS/MongoDB到DDS/MongoDB的数据迁移:支持DDS 3.0/4.0(副本集)或自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集),目标库大版本号建议不低于源库。 SQL Server到SQL Server的数据迁移/数据同步:支持RDS for SQL Server 2016 标准版/2016 企业版或自建SQL Server 2016 标准版/2016 企业版,且源数据库版本不得高于目标数据库版本。
        来自:
        帮助文档
        数据传输服务DTS
        常见问题
        产品咨询类
      • 错误码列表
        本节主要介绍iSCSI Target管理的错误码。 HTTP status 错误码 错误信息 描述 400 CanNotMigrateTarget The target is not available to migrate. 该target无法进行迁移。 400 ExceedThreshold The number of operation cannot exceed value. 操作的数量超阈值。 400 InsufficientServers This method is not allowed because the number of available servers in the cluster is not enough. 集群中可用服务器数量不足,无法操作,请解决后重试。 400 InvalidArgumentConsist Value value at argument failed to satisfy the constraint: Argument must contain Format. 参数格式不符合要求。 400 InvalidArgumentFormat Value value at 'argument ' failed to satisfy constraint: Argument must conform to Format format. 参数格式不正确。 400 InvalidCHAPName Value value at 'chap name' failed to satisfy constraint: Argument can contain letters, digits, dots (.), colons (:), underscores () or hyphens (), and the length is between 3 and 64, must begin with a letter or digit. CHAP名字不合法。 400 InvalidCHAPPassword Valuevalue at 'password' failed to satisfy constraint: Argument must contain at least 2 of the following: uppercase letters, lowercase letters, digits, underscores (), and the length is between 12 and 16. 密码不合法:字符串形式,长度范围是12~16,必须包含大写字母、小写字母、数字、下划线()中的至少两种字符,字母区分大小写。 400 InvalidFile Failed to parse file filename. 文件格式不符合要求。 400 InvalidString Value '' at 'argument' failed to satisfy constraint: Argument must not be an empty string. 参数不能是空字符串。 400 InvalidTargetDest Invalid target destination server serverID. 目标服务器目前无法创建该target,请重新选择。 400 InvalidTargetName Value value at 'target name' failed to satisfy constraint: Argument must contain only lowercase letters, digits, dots (.) or hyphens (), and does not exceed 16 characters, must begin with a letter or digit. target名称不正确。 400 InvalidTargetSource Invalid target source server serverID. target的源服务器目前不能进行迁移操作,请稍后再试。 400 LessThanMinValue Value value at 'number' failed to satisfy constraint: Argument must be greater than or equal to value. 该参数必须大于或等于另一个参数。 400 MigrateTargetForcibly Force migrate should be used when migrating a target. When using this option, there may be a risk of data loss. 迁移target仅能使用强制迁移。请注意,强制移除,会产生数据丢失风险,请谨慎操作。 400 MissingAtLeastOneArgument Missing argument, at least one argument in 'argument1 , argument2 , argument3 ...' is needed. 至少选择一个参数。 400 MissingCHAPName Value null at 'chap name' failed to satisfy constraint: Argument must not be null when CHAP is enabled. 启用CHAP时,缺少CHAP名称。 400 MissingCHAPPassword Value null at 'password' failed to satisfy constraint: Argument must not be null when CHAP is enabled. 启用CHAP时,缺少密码。 400 MissingTargetSourceOrDest Target source and destination server ID must not be null. 迁移target时,源和目的服务器ID必须存在。 400 StandaloneModeNotAllowed 'operation' is not supported by standalone mode of HBlock. 单机版本HBlock不支持该操作。 400 TooManyServers The number of servers cannot exceed value. target对应的服务器数量不能超过value个。 400 TooManyTargets The number of target IQNs cannot exceed 32766. target IQN数量超过上限。 400 TooManyTargets The number of target IQNs cannot exceed 1. target数量超过上限。一次只能迁移1个target IQN。 404 NoSuchCHAP The target with name name has no CHAP. target下没有CHAP。 404 NoSuchConnection The connection does not exist. 连接不存在。 400 NoSuchIQN The IQN with nameIQNName does not exist. 指定的iqn不存在。 404 NoSuchTarget The target with name targetName does not exist. target不存在。 404 NoSuchTargetIP The target with IP targetIP does not exist. IP为该值的target不存在。 409 ConflictWithTargetMigrating Failed to operation because the target targetName is migrating. target正在迁移,操作失败。 409 ConnectionExists There are connections on target targetName. Please disconnect the connections and try again. target上有连接,请先断开所有连接后重试。 409 InvalidServerStatus The server serverId status is 'status', the request is invalid. 服务器当前的状态不正确,请求无效。 409 InvalidStorStatus The HBlock status is 'status', the request is invalid. HBlock当前的状态不正确,请求无效。 408 InvalidTargetStatus The target status is 'status', the request is invalid. target当前的状态不正确,请求无效。 409 LUNExists There are LUNs in this target. Please delete all LUNs and try again. target有关联的卷。 409 TargetAlreadyExists The target with name already exists. target已经存在。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        iSCSI target管理
        错误码列表
      • SFS容量型与SFS Turbo之间数据迁移
        本节主要介绍如何在SFS容量型与SFS Turbo之间进行数据迁移。 场景介绍 用户可以将SFS容量型文件系统中的数据迁移至SFS Turbo文件系统中,也可以将SFS Turbo文件系统中的数据迁移至SFS容量型文件系统中,进行云上业务拓展。 此方案通过创建一台Linux操作系统的云服务器,来连接SFS容量型文件系统和SFS Turbo文件系统的通信。 约束与限制 仅支持使用Linux系统的云服务器进行数据迁移。 Linux系统云服务器、SFS容量型文件系统和SFS Turbo文件系统需在同一VPC下。 前提条件 已创建一台操作系统为Linux的云服务器。 已创建SFS容量型和SFS Turbo文件系统,并获取到文件系统的挂载地址。 操作步骤 1. 登录弹性云服务器管理控制台。 2. 登录已创建好的Linux系统云服务器,用于同时访问SFS容量型文件系统和SFS Turbo文件系统。 3. 输入以下挂载命令,用于访问文件系统1。文件系统1可以是SFS容量型文件系统或SFS Turbo文件系统。 mount t nfs o vers3,timeo600,noresvport,nolock 文件系统1挂载地址 /mnt/src 4. 输入以下挂载命令,用于访问文件系统2。文件系统2可以是SFS容量型文件系统或SFS Turbo文件系统。 mount t nfs o vers3,timeo600,noresvport,nolock 文件系统2挂载地址 /mnt/dst 查看挂载信息: 5. 在Linux云服务器中执行以下命令安装rclone工具。 > wget nocheckcertificate > > unzip rclonev1.57.0linuxamd64.zip > > chmod 0755 ./rclone/rclone > > cp ./rclone/rclone /usr/bin/ > > rm rf ./rclone 6. 执行以下命令,进行数据同步。 rclone copy /mnt/src /mnt/dst P transfers 32 checkers 64 说明 参数说明如下,transfers和checkers数目可以根据系统规格自行配置: transfers:传输文件的并发数目。 checkers:扫描文件的并发数目。 P:数据拷贝进度。 等待数据完成同步后,可前往目标文件系统查看是否已成功迁移。
        来自:
        帮助文档
        弹性文件服务 SFS
        最佳实践
        SFS容量型与SFS Turbo之间数据迁移
      • 使用K8s Service配置应用服务访问(1)
        云应用引擎支持基于K8s ServiceName的多语言服务注册发现功能,通过ServiceName做服务间调用。您可以为应用配置一个云应用引擎集群内可以访问的固定域名,解决每次部署以后实例IP变化的问题。本文介绍如何通过云应用引擎控制台,为应用配置基于K8s ServiceName的服务访问。 功能入口 场景不同,操作入口也有所不同 创建应用 1. 登录云应用引擎控制台,在左侧导航栏选择应用管理>应用列表,然后选择单击创建应用 2. 在应用基本信息向导页面进行配置后,单击下一步:高级设置。 对正在运行的应用进行变更 1. 登录云应用引擎控制台,在左侧导航栏选择应用管理>应用列表,然后单击目标应用名称 2. 在目标应用的基础信息页面,单击部署应用 注意 重新部署应用后,该应用将会被重启。为避免业务中断等不可预知的错误,请在业务低峰期执行部署操作 对已停止的应用进行变更 1. 登录云应用引擎控制台,在左侧导航栏选择应用管理>应用列表,然后单击目标应用名称 2. 在目标应用的基础信息页面,单击部署应用 K8s Service Name配置指引 在高级设置配置页展开服务注册发现区域,打开启用基于K8s Service服务注册发现开关,配置相关信息。 配置项 说明 服务名称 自定义服务名称。必须保证同一用户地域内唯一,创建成功后不允许修改。 端口 在文本框输入端口,取值范围为[1,65535]。 协议 在下拉列表选择目标协议。支持协议如下: TCP、UDP 配置完成后,能够在应用信息的应用访问设置中查看
        来自:
      • 基本概念
        本文主要介绍云日志服务中数据加工的基本概念。 基本概念 ETL ETL是指将对业务系统的数据进行抽取、清洗、转换、加载的过程,从而整合零散、不标准、不统一的数据。云日志服务支持加载源日志单元数据,将数据转换后输出到目标日志单元。 事件、数据、日志 在数据加工功能中,事件、数据都表示日志,例如事件时间就是日志时间,丢弃事件字段函数edropfields就是用于丢弃特定日志字段的函数。 日志时间 日志时间指事件所发生的时间,也称事件时间。在云日志服务中的保留字段为time,一般由日志中的时间信息直接提取生成。数据类型为整数字符串,Unix标准时间格式,单位为秒,表示从197011 00:00:00 UTC计算起的秒数。 日志标签 日志存在标记,区别于其他字段,在数据加工中,标签字段以tag:作为前缀。包括: 用户自定义标签:用户通过API PutLogs写入数据时添加的标签。 系统标签:云日志服务为用户添加的标签,包括clientip和receivetime。 配置相关概念 源日志单元 数据加工中,从中读取数据再进行加工的日志单元是源日志单元。 一个加工任务仅支持一个源日志单元,但可以对一个源日志单元配置多个加工任务。 目标日志单元 数据加工中,数据写入的日志单元是目标日志单元。 一个加工任务可以配置多个目标日志单元,可以是静态配置,也可以是动态配置。具体配置方法,请参见多目标日志单元数据分发。 DSL DSL(Domain Specific Language)是云日志服务数据加工使用的一种Python兼容的脚本语言。DSL基于Python提供内置一百多个函数,简化常见的数据加工模式。也支持用户自定义的扩展Python脚本。
        来自:
        帮助文档
        云日志服务
        用户指南
        数据加工
        基本概念
      • CSI插件
        版本 发布日期 说明 适配的HBlock版本 1.6.1 2025年10月23日 1. 支持QoS策略。 2. 支持查询快照大小和快照对应的源卷大小。 3.53.10 1.5.1 2025年07月16日 1. 支持同一Kubernetes集群部署多套HBlock CSI插件。 3.53.9 1.5.0 2025年04月30日 1. 支持快照。 2. 支持创建克隆卷。 3.53.9 1.4 2025年03月03日 1. 支持卷的折叠副本数(仅HBlock集群版支持)。 2. 支持调整PV的服务端连接位置。 3.53.8 1.3.2 2024年12月11日 1. 支持Kubernetes service域名。 2. 支持指定HBlock创建LUN的等待时间。 3. 支持设置HBlock节点信息,用来控制卷的iqn所在区域。 3.53.7.2 1.3 2024年08月08日 1. 支持设置卷的存储池和缓存池。 2. 支持上云卷。 3. Target迁移后支持自动重连。 4. Block Volume模式支持RWX、ROX、RWO访问方式。 5. Filesystem模式支持RWO,同时静态PV场景下支持ROX。 3.53.7 1.2 2024年05月30日 1. 支持同时管理多个HBlock集群。 2. Block Volume支持RWX、ROX访问方式。 3. 支持Helm安装CSI插件。 4. 支持设置卷的最小副本数和Target最大连接数。 3.5 1.1 2023年11月15日 1. 新增Block Volume支持。 2. 创建Target时支持指定服务器个数,支持一主多备。 3. 创建卷时支持指定EC卷的切片大小。 3.5 1.0 2023年09月20日 第一次发布: 1. 支持静态PV和动态PV场景。 2. 支持MPIO,静态PV场景下支持一主多备。 3. 支持Target Portal IP。 3.4
        来自:
        帮助文档
        存储资源盘活系统
        文档下载
        CSI插件
      • 开启APIServer审计日志
        core group: "admissionregistration.k8s.io" group: "apps" group: "authentication.k8s.io" group: "authorization.k8s.io" group: "autoscaling" group: "batch" group: "certificates.k8s.io" group: "extensions" group: "networking.k8s.io" group: "policy" group: "rbac.authorization.k8s.io" group: "settings.k8s.io" group: "storage.k8s.io" 所有其他请求的默认级别。 level: Metadata 修改apiserver的pod的yaml文件 修改 /etc/kubernetes/manifests/kubeapiserver.yaml 文件,操作前可对原文件备份 ,当有问题时可以回退,增加以下yaml 由 " 增加的部分start " 及 " 增加的部分end " 括住的内容(共三处)。 plaintext apiVersion: v1 kind: Pod metadata: annotations: kubeadm.kubernetes.io/kubeapiserver.advertiseaddress.endpoint: xx.xx.xx.xx creationTimestamp: null labels: component: kubeapiserver tier: controlplane name: kubeapiserver namespace: kubesystem spec: containers: command: kubeapiserver advertiseaddressxx.xx.xx.xx allowprivilegedtrue authorizationmodeNode,RBAC clientcafile/etc/kubernetes/pki/ca.crt enableadmissionpluginsNodeRestriction enablebootstraptokenauthtrue etcdcafile/etc/kubernetes/pki/etcd/ca.crt etcdcertfile/etc/kubernetes/pki/apiserveretcdclient.crt etcdkeyfile/etc/kubernetes/pki/apiserveretcdclient.key etcdservers kubeletclientcertificate/etc/kubernetes/pki/apiserverkubeletclient.crt kubeletclientkey/etc/kubernetes/pki/apiserverkubeletclient.key kubeletpreferredaddresstypesInternalIP,ExternalIP,Hostname proxyclientcertfile/etc/kubernetes/pki/frontproxyclient.crt proxyclientkeyfile/etc/kubernetes/pki/frontproxyclient.key requestheaderallowednamesfrontproxyclient requestheaderclientcafile/etc/kubernetes/pki/frontproxyca.crt requestheaderextraheadersprefixXRemoteExtra requestheadergroupheadersXRemoteGroup requestheaderusernameheadersXRemoteUser secureport6443 serviceaccountissuer serviceaccountkeyfile/etc/kubernetes/pki/sa.pub serviceaccountsigningkeyfile/etc/kubernetes/pki/sa.key serviceclusteriprange10.96.0.0/12 tlscertfile/etc/kubernetes/pki/apiserver.crt tlsprivatekeyfile/etc/kubernetes/pki/apiserver.key
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        运维管理
        日志
        开启APIServer审计日志
      • 节点重置
        本节介绍了节点重置的用户指南。 节点重置是指将Kubernetes集群中的节点恢复到初始状态。这通常用于节点出现故障时的修复操作。在云容器引擎控制台节点功能中,您可以通过控制台来重置节点。 注意事项 重置节点将对节点操作系统进行重置安装,节点上已运行的工作负载业务将会中断,请在业务低峰期操作。 节点重置后系统盘,挂载kubelet、containerd的数据盘将会被清空,重置前请事先备份重要数据。 用户节点如果有自行挂载了数据盘,重置完后会清除挂载信息,请事先备份重要数据,重置完成后请重新执行挂载行为,数据不会丢失。 节点上的工作负载实例的IP会发生变化,但是不影响容器网络通信。 操作过程中,后台会把当前节点设置为不可调度状态。 节点重置会清除用户单独添加的 K8S 标签和污点(通过节点池编辑功能添加的标签、污点不会丢失),可能导致与节点有绑定关系的资源(本地存储,指定调度节点的负载等)无法正常使用。请谨慎操作,避免对运行中的业务造成影响。 重置节点会导致与节点关联的localpv类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用。重置节点时使用了本地持久存储卷的Pod会从重置的节点上驱逐,并重新创建Pod,Pod会一直处于pending状态,因为Pod使用的PVC带有节点标签,由于冲突无法调度成功。节点重置完成后,Pod可能调度到重置好的节点上,此时Pod会一直处于creating状态,因为PVC对应的底层逻辑卷已经不存在了。 重置节点使用的相关配置是节点所在节点池的最新配置。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        节点与节点池
        节点管理
        节点重置
      • 网络安全管理
        本页面主要介绍了MySQL在使用过程中如何保证网络安全相关的一些问题。 MySQL实例有哪些安全保障措施 网络 关系数据库MySQL版实例可以设置所属虚拟私有云,从而确保MySQL实例与其他业务实现网络安全隔离。 使用安全组确保访问源为可信的。 使用SSL通道,确保数据传输加密。 管理 通过统一身份认证,可以实现对MySQL实例的管理权限控制。 如何保障EIP数据传输安全 使用EIP连接数据库时,业务数据会在公网上进行传输,数据容易泄露,因此强烈建议您使用关系数据库MySQL版的SSL通道来对公网上传输的数据进行加密,防止数据泄露。您也可以借助云专线或虚拟专用网络来完成数据传输通道的加密。 如何防止任意源连接数据库 数据库开放EIP后,如果公网上的恶意人员获取到您的EIP DNS和数据库端口,那么便可尝试破解您的数据库并进行进一步破坏。因此,强烈建议您保护好EIP DNS、数据库端口、数据库帐号和密码等信息,并通过关系数据库MySQL版实例的安全组限定源IP,保障只允许可信源连接数据库。 为避免恶意人员轻易破解您的数据库密码,请按照关系数据库MySQL版实例的密码策略设置足够复杂度密码,并定期修改。 访问MySQL实例应该如何配置安全组 通过内网访问关系MySQL版实例时,设置安全组分为以下两种情况: ECS与关系MySQL版实例在相同安全组时,默认ECS与关系MySQL版实例互通,无需设置安全组规则。 ECS与关系MySQL版实例在不同安全组时,需要为关系MySQL版和ECS分别设置安全组规则。详细操作请参考设置安全组规则。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        其他类
        网络安全管理
      • 容器如何访问VPC内部网络
        本文主要介绍 容器如何访问VPC内部网络。 前面章节介绍了使用Service和Ingress访问容器,本节将介绍如何从容器访问内部网络( VPC内集群外 ),包括VPC内访问和跨VPC访问。 VPC内访问 根据集群容器网络模型不同,从容器访问内部网络有不同表现。 容器隧道网络 容器隧道网络在节点网络基础上通过隧道封装网络数据包,容器访问同VPC下其他资源时,只要节点能访问通,容器就能访问通。如果访问不通,需要确认对端资源的安全组配置是否能够允许容器所在节点访问。 VPC网络 VPC网络使用了VPC路由功能来转发容器的流量,容器网段与节点VPC不在同一个网段,容器访问同VPC下其他资源时, 需要对端资源的安全组能够允许容器网段访问 。 例如集群节点所在网段为192.168.10.0/24,容器网段为172.16.0.0/16。 VPC下(集群外)有一个地址为192.168.10.52的ECS,其安全组规则仅允许集群节点的IP网段访问。 此时如果从容器中ping 192.168.10.52,会发现无法ping通。 kubectl exec test016cbbf97b78krj6h it /bin/sh / ping 192.168.10.25 PING 192.168.10.25 (192.168.10.25): 56 data bytes ^C 192.168.10.25 ping statistics 104 packets transmitted, 0 packets received, 100% packet loss 在安全组放通容器网段172.16.0.0/16访问。 此时再从容器中ping 192.168.10.52,会发现可以ping通。 $ kubectl exec test016cbbf97b78krj6h it /bin/sh /
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        容器如何访问VPC内部网络
      • 1
      • ...
      • 194
      • 195
      • 196
      • 197
      • 198
      • ...
      • 236
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      AI Store

      一站式智算服务平台

      知识库问答

      人脸检测

      人脸实名认证

      推荐文档

      什么是服务器迁移

      iPhone端

      如何设置和修改绑定手机?

      关机

      入门教程①:centos7 新特性之systemctl

      重置

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号