活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云服务器_相关内容
      • DeepSeek安全防护最佳实践
        风险名称 风险描述 WAF应对方案 相关文档 Web UI漏洞 Open WebUI 0.1.105版本存在文件上传漏洞,ComfyUI多个插件存在安全漏洞。部署大模型过程中,通常会使用大模型自带的WebUI组件,开源的Web UI组件以及老旧的版本,为大模型的部署和应用带来了巨大的入侵风险。 开启WAF的Web攻击防护功能,为Web UI提供必要的安全防护能力。 企业敏感信息泄露 企业利用私有数据进行数据训练时,私有数据可能包含商业敏感信息,存在数据泄露风险。 根据企业机密信息内容,通过WAF精准访问控制功能,对敏感信息进行检测拦截,保障企业数据安全。 大模型输入输出内容违规 私有化大模型输入输出内容可能涉及政治、赌博、色情、违法犯罪等违规内容,影响企业声誉。 通过WAF敏感信息防泄漏功能,自动屏蔽违规内容,保障企业声誉安全。 应用层CC攻击及API互联网暴露风险 由于多用户同时使用或单用户对大模型API接口的频繁调度导致大模型token被大量占用,服务器繁忙无法为用户提供正常服务;大模型API接口的暴露,会为用户的API接口带来安全风险。 采用WAF的CC防护限速功能,保证大模型连续可用性;建设API安全监测与分析能力,降低因API漏洞造成的安全风险。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        最佳实践
        DeepSeek安全防护最佳实践
      • 工作负载概述
        本文主要介绍工作负载概述。 工作负载是在Kubernetes上运行的应用程序。无论您的工作负载是单个组件还是协同工作的多个组件,您都可以在Kubernetes上的一组Pod中运行它。在Kubernetes中,工作负载是对一组Pod的抽象模型,用于描述业务的运行载体,包括Deployment、Statefulset、Daemonset、Job、CronJob等多种类型。 云容器引擎CCE提供基于Kubernetes原生类型的容器部署和管理能力,支持容器工作负载部署、配置、监控、扩容、升级、卸载、服务发现及负载均衡等生命周期管理。 Pod Pod是Kubernetes创建或部署的最小单位。一个Pod封装一个或多个容器(container)、存储资源(volume)、一个独立的网络IP以及管理控制容器运行方式的策略选项。 Pod使用主要分为两种方式: Pod中运行一个容器。这是Kubernetes最常见的用法,您可以将Pod视为单个封装的容器,但是Kubernetes是直接管理Pod而不是容器。 Pod中运行多个需要耦合在一起工作、需要共享资源的容器。通常这种场景下应用包含一个主容器和几个辅助容器(SideCar Container),例如主容器为一个web服务器,从一个固定目录下对外提供文件服务,而辅助容器周期性的从外部下载文件存到这个固定目录下。 图 Pod 实际使用中很少直接创建Pod,而是使用Kubernetes中称为Controller的抽象层来管理Pod实例,例如Deployment和Job。Controller可以创建和管理多个Pod,提供副本管理、滚动升级和自愈能力。通常,Controller会使用Pod Template来创建相应的Pod。
        来自:
        帮助文档
        云容器引擎
        用户指南
        工作负载
        工作负载概述
      • 创建管道
        本文为您介绍如何通过配置管道信息,从指定数据源(input)迁移数据到目标目的端(output)。 Logstash实例通过配置管道定义数据处理方案,从指定的数据源(input)迁移数据到目标目的端(output)。 约束限制 创建的管道文件大小不能超过50KB。 前提条件 创建管道前,必须先获取数据源和目的端的服务器或集群信息,例如IP地址、用户名、密码等。 创建管道 1. 登录云搜索服务管理控制台。 2. 左侧导航栏选择“Logstash实例管理”,进入实例列表页面。 3. 在实例列表,单击实例名称,进入实例基本信息页面,在左侧导航栏选择“管道管理”,进入管道管理页面。 4. 单击右上角“新建管道”,进入新建管道页面,编辑管道文件&参数。 参数 说明 管道名称 自定义管道名称,实例内不可重复 管道描述 作业管道的描述信息,非必填 管道工作线程数 并行执行管道的Filters和Outputs阶段的工作线程数。 管道批处理大小 每个批次处理的最大事件数量 管道批处理延迟 当管道批处理大小不满足时,每个批次最大的等待时间,单位为毫秒 队列类型 用于事件缓冲的排队模型,可选值为: memory:基于内存的队列 persisted:基于磁盘的持久化队列 队列最大字节数 当选择 persisted 队列类型时,队列中可存放的最大字节数量,需确保该值小于实例单节点的磁盘容量 队列检查点写入数 当选择 persisted 队列类型时,在强制执行检查点时已写入的最大的事件数量,若设置为0,则表示无限制 编辑完成的管道需要单击保存或者保存并部署,部署后的管道才会生效。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Logstash实例的加装与使用
        Logstash管道管理
        创建管道
      • 应用场景
        本文主要介绍云搜索服务的应用场景。 日志检索分析 云搜索服务可以采集分析各类以文件形式存储的日志,包括不限于服务器、容器日志等。结合消息队列Kafka、Logstash对日志数据进行采集清洗,进入Elasticsearch或OpenSearch中存储检索分析,并通过Kibana或Dashboards进行可视化呈现。 高稳定:通过读写限流、查询熔断、集群监控等方式保障。 性能优化:通过支持压缩算法、内核增强节省存储空间,增强读写速率、降低响应延迟。 易用性:支持多种统计分析方法、划分维度,丰富的可视化查询,可对接BI实现拖拽式报表。 站内搜索 面对海量数据,提供分布式的信息检索工具,可根据网站内容进行关键字检索,也可搭建商品检索或推荐系统。 实时检索:支持模糊搜索,数据来源多样且持续写入,站内资料或商品信息更新数秒内即可被检索。 分类统计:检索同时可以将符合条件的结果进行排序或分类统计。 多场景适配:可用于网站、移动端应用搜索、企业内部应用等多种需要快速检索的场景。 数据分析 提供开箱即用的可视化、高聚合分析能力,便捷高效地对海量数据实时分析。更好地适配实时多维分析在线查询服务场景,满足高实时性,高查询QPS,低查询延迟的数据分析要求。 快速响应:支持海量的、数据源多样、字段不固定的数据高并发处理,毫秒级响应。 复杂查询:支持大批量模糊关键字搜索及一些聚合的复杂查询。 向量检索:基于向量特征相似度匹配,支持图文搜索、地理位置搜索。
        来自:
        帮助文档
        云搜索服务
        产品介绍
        应用场景
      • 接入日志、告警
        本节介绍如何接入安全产品的日志、告警。 开通云安全中心实例后,系统默认会接入部分日志数据并对用户进行初始化配置。您可以根据自己的业务特性修改初始化配置。 在云安全中心的集成配置页面,选择需要接入的日志类型。部分日志支持直接转告警,可以直接打开转告警开关,云安全中心会根据内置转告警规则进行转告警配置。 前提条件 已购买云安全中心实例,具体操作请参见购买云安全中心实例。 已购买天翼云上的安全服务“Web应用防火墙(原生版)、服务器安全卫士(原生版)、云等保专区、数据库审计、云堡垒机(原生版)企业版、云防火墙(原生版)”并部署在天翼云上。 操作步骤 1. 登录云安全中心控制台。 2. 在左侧导航栏,选择“设置 > 数据源监控”,打开数据源监控页面。 3. 在操作列点击“启用”,确保数据源监控处于启用状态。 4. 在左侧导航栏,选择“设置 > 集成配置”,打开数据集成配置页面。 5. 选择需要接入的日志,并打开日志接入开关。 6. 选择需要转告警的日志,并打开自动转告警的开关。 说明 系统默认会接入部分日志,用户如有需要,可以自行关闭。 需要先在数据源监控页面启用开关后,才可以在集成配置页面中开启日志和告警配置。 选择需要接入的日志时,只能针对您已经购买的云产品。 选择需要转告警的日志,只能针对已经选择接入的日志进行。
        来自:
        帮助文档
        云安全中心
        快速入门
        接入日志、告警
      • 将主机迁移至企业项目
        本章介绍主机迁移服务如何将主机迁移到具体的企业项目下。 背景 主机迁移服务支持将主机迁移到具体的企业项目下。了解企业项目管理,请参见什么是企业项目管理? 如果您的账号已经开通企业项目,在源端SMSAgent输入AK/SK启动时,Agent会查询有主机迁移权限的企业项目并罗列,供您选择。选择具体的企业项目后,主机迁移服务会将主机迁移到您指定的企业项目中。实现迁移时权限、资源和财务的隔离。 开通并创建企业项目 开通企业项目 请参考如何开通企业项目,申请开通企业项目。 创建企业项目 请参考企业管理快速入门,完成创建用户组“ TestEPS ”、创建IAM用户“ TestEPSUser ”、为用户组“ TestEPS ”添加IAM用户“ TestEPSUser ” 、 创建企业项目“ TestEPSProject ”等操作。 配置权限 请参考权限管理完成权限配置。 迁移实施 1. 安装对应操作系统版本的SMSAgent。 2. 启动SMSAgent,Agent会查询企业项目并罗列,选择您需要迁移到的企业项目。例如:“TestEPSProject”。 3. SMSAgent启动成功后,登录SMS控制台,可以看到企业项目“TestEPSProject”。 4. 后续迁移步骤与“default”企业项目相同,请参考设置迁移目的端,开始服务器复制并启动目的端,进行配置并迁移。
        来自:
        帮助文档
        主机迁移服务SMS
        最佳实践
        将主机迁移至企业项目
      • 与其他云服务的关系
        此小节介绍企业主机安全与其他云服务的关系。 使用企业主机安全服务,您将可以同时使用消息通知服务接收告警通知信息,使用统一身份认证服务管理用户权限,利用云审计服务审计用户行为。 弹性云主机 企业主机安全服务的Agent软件可安装在ECS服务器上。 关于弹性云主机的详细内容,请参见弹性云主机用户指南。 消息通知服务 消息通知服务(Simple Message Notification,简称SMN),是一个可拓展的高性能消息处理服务。 开启告警通知前,您需先配置“消息通知服务”。 开启消息通知服务后,当您的主机遭受攻击或被检测出有高危风险时,您将接收到企业主机安全服务发送的各项风险告警通知。 在“告警通知”界面,您可以根据运维计划选择“每日告警通知”和“实时告警通知”。 统一身份认证服务 统一身份认证服务(Identity and Access Management,简称IAM),是一个免费的身份管理服务。通过IAM服务,您可以根据用户的身份,对用户的权限进行精细化隔离和控制。IAM是权限管理的基础服务,无需付费即可使用。 关于IAM的详细内容,请参统一身份认证服务用户指南。 企业管理 企业中有多个项目,多个项目的资源需要分开结算,且分属不同人员进行管理。同时项目可以单独启动或停止,对其他项目没有影响。那么可以针对企业中的每个项目,分别建立企业项目,管理各自的资源,并且针对不同的企业项目,设置不同的人员进行管理。
        来自:
        帮助文档
        企业主机安全
        产品介绍
        与其他云服务的关系
      • Java应用实践
        本页主要介绍了 JDBC、连接池和数据库访问框架。 通常 Java 应用中和数据库相关的常用组件有: JDBC API 及实现:Java 应用通常使用 JDBC (Java Database Connectivity) 来访问数据库。JDBC 定义了访问数据库 API,而 JDBC 实现完成标准 API 到 MySQL 协议的转换,常见的 JDBC 实现是 MySQL Connector/J,此外有些用户可能使用 MariaDB Connector/J。 数据库连接池:为了避免每次创建连接,通常应用会选择使用数据库连接池来复用连接,JDBC DataSource 定义了连接池 API,开发者可根据实际需求选择使用某种开源连接池实现。 数据访问框架:应用通常选择通过数据访问框架 (MyBatis, Hibernate) 的封装来进一步简化和管理数据库访问操作。 JDBC 为避免重复解析和生成 SQL 执行计划的开销,注意选择使用 Prepare API,并且需要在 JDBC 连接参数中配置 useServerPrepStmts true。 对于批量插入更新,如果插入记录较多,可以选择使用 addBatch/executeBatch API。通过 addBatch 的方式将多条 SQL 的插入更新记录先缓存在客户端,然后在 executeBatch 时一起发送到数据库服务器,如果希望 Batch 网络发送,需要在 JDBC 连接参数中配置 rewriteBatchedStatements true。 在查询返回超大结果集的场景中,推荐设置 FetchSize为Integer.MINVALUE让客户端不缓存,客户端通过 StreamingResult 的方式从网络连接上流式读取执行结果。使用流式读取数据时,需要将resultset读取完成或 close 后,才能继续使用该语句进行下次查询,否则会报错。如果需要在resultset读取完成或 close 前进行查询避免报错,可在 URL 中添加配置参数clobberStreamingResultstrue,这样会自动 close resultset,但之前流式查询未被读取的结果集会丢失。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        Java应用实践
      • 开发规范
        多表关联查询规范 多表关联应该显式使用 join 子句,避免漏掉关联条件,造成笛卡尔积。 嵌套SQL语句应该为不同表指定不同别名。 高并发交易场景,单条语句关联表不超过两张,使用执行计划为 IndexJoin 的多表关联语句,外表建立了正确的条件过滤索引,内表建立了正确的关联和条件过滤索引。 低并发的分析场景,单条语句关联表不超过 10 张,其中亿级表不超过 2 张。 大事务处理规范 单个事务的总大小默认不超过 100 MB,最大支持 10 GB,实际的单个事务大小限制还取决于服务器剩余可用内存的大小,执行事务时计算节点进程的内存消耗大约是事务大小的 6 倍以上。 由于执行事务时计算节点进程的内存消耗大约是事务大小的 6 倍以上,事务设置过大,或者 Batch 过高,可能导致计算节点进程 OOM,需要评估好内存容量。 为了使性能达到最优,需要对大事务按某个业务维度进行拆分,每 100~500 行提交一个事务。 防范写入热点创建规范 对于写入量非常大的表,应当通过应用性能压测等方法在测试环境模拟表的热点情况。 通过以下三种手段进行配置,规避表的主键写入热点。 避免连续自增主键的设计,建议采用雪花算法生成 UUID 主键。 主键是非整数的表或者启用 altprimarykeytrue 配置后创建的所有表,使用 SHARDROWIDBITS 语法创建基于 rowid 的分片方案,例如:CREATE TABLE t (c int) SHARDROWIDBITS 4 或 ALTER TABLE t SHARDROWIDBITS 4。 创建按照 Hash 或 Range 分区表避免热点。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        开发规范
      • 本地网络速度正常但访问HTTPS网站速度慢
        本文介绍本地网络速度正常但访问HTTPS网站速度慢的问题原因及解决方案。 问题现象 域名接入CDN后,本地网络速度正常,但访问HTTPS网站速度慢。 问题原因 本地网络速度正常情况下,出现该问题,可能是因为HTTPS访问过程中TLS(SSL)建连慢造成。 解决方案 排查方法: 1. 使用HTTP访问,确认HTTP请求有无访问速度慢问题。 在浏览器访问HTTP请求,若页面请求响应快,则确认HTTP请求无访问慢问题。 说明 若HTTPS请求URL为 ,则对应HTTP请求URL为 。 2. 使用HTTPS访问,查看HTTPS请求的TLS(SSL)建连耗时。 步骤一:打开浏览器(以Chrome浏览器为例),按F12进入开发者模式,单击【Network】,在浏览器地址栏输入https访问地址,单击【Waterfall】查看各阶段响应时间: 步骤二:Waterfall中,有一项名为“SSL”的项,即为TLS(SSL)建连时间: 若TLS(SSL)建连时间长,则确认本地网络速度正常情况下,HTTPS慢是由于TLS建连慢导致(图中SSL即指TLS)。 该问题原因,很大可能是TLS握手过程中,客户端需要通过OCSP协议来验证服务器证书耗时过长导致。解决方案是开启OCSP装订功能,OCSP装订功能介绍以及开启,详情请见:OCSP装订。
        来自:
        帮助文档
        CDN加速
        故障排查
        本地网络速度正常但访问HTTPS网站速度慢
      • 续费
        包年/包月注册配置中心到期后会影响注册配置中心正常运行。如果您想继续使用,需要在指定的时间内为注册配置中心续费,否则注册配置中心将被删除,数据丢失且不可恢复。 续费操作仅适用于包年/包月注册配置中心,按需计费云服务器不需要续费,只需要保证账户余额充足即可。 注册配置中心在到期前续费成功,所有资源得以保留,且注册配置中心运行不受影响。 续费相关的功能 包年/包月注册配置中心续费相关的功能如下表所示。 功能 说明 手动续费 包年/包月注册配置中心从购买到被自动删除之前,您可以随时在费用中心为其续费,以延长注册配置中心的使用时间。 自动续费 开通自动续费后,注册配置中心会在每次到期前自动续费,避免因忘记手动续费而导致资源被自动删除。 在一个包年/包月注册配置中心生命周期的不同阶段,您可以根据需要选择一种方式进行续费。 注册配置中心从购买到到期前,处于正常运行阶段,资源状态为“使用中”。 到期后,资源状态变为“已过期”。 到期未续费时,注册配置中心首先会进入宽限期,宽限期到期后仍未续费,资源状态变为“已冻结”。 超过宽限期仍未续费将进入保留期,如果保留期内仍未续费,资源将被自动删除。 在注册配置中心到期前均可开通自动续费,到期前7日凌晨3:00首次尝试自动续费,如果扣款失败,每天凌晨3:00尝试一次,直至注册配置中心到期或者续费成功。到期前7日自动续费扣款是系统默认配置,您也可以根据需要修改此扣款日。
        来自:
        帮助文档
        微服务引擎
        计费说明
        注册配置中心
        续费
      • 主机漏洞
        主机漏洞扫描主要包含对应用服务、网络设备、安全设备等相关主机设备的漏扫扫描以及对应主机安全的相关服务和操作系统的漏洞进行扫描。本小节介绍安全专区主机漏洞。 漏洞数据来源 【资产管理】→【服务器】中,点击【扫描】,将漏洞数据同步到【主机漏洞】模块。 趋势分析图默认展示当前一周的数据,通过右上角可筛选不同的时间段查看趋势图: 安全管理中心 记录漏洞状态、漏洞所存在风险值,对时间段内所存在漏洞进行趋势分析。 1.点击【未处理漏洞数量】或者【风险项】(风险项颜色标注高、中、低风险)。 2.点击柱状图可筛选出相应的数据。 3.筛选出相应结果。 4.鼠标移至【趋势分析】中的曲线上,即可查看已处理漏洞、未处理漏洞、产生时间和处理时间。 5.点击【主机漏洞Top10】,查看详细漏洞分析、漏洞产生原因。 6.选择导出漏洞信息文件,确定保存即可。 7.对于某一个特定的风险终端进行精准定位,展示主机漏洞产生原因并记录扫描方案。 8.点击漏洞描述下的查看设置,展示风险的具体描述及其解决方案。
        来自:
        帮助文档
        安全专区
        用户指南
        风险分析
        主机漏洞
      • 系统盘(将扩容部分的容量增加到C盘)
        本文主要介绍系统盘(将扩容部分的容量增加到C盘) 系统盘原有容量为50GB,通过管理控制台将系统盘扩容22GB后,登录云主机将22GB新增容量增加到C盘中。操作完成后,C盘有72GB的空间可用作系统盘。 步骤1 在云主机桌面,选择“开始”,右键单击后在菜单列表中选择“计算机”,选择“管理”。 弹出“服务器管理”窗口。 步骤2 在左侧导航树中,选择“存储 > 磁盘管理”。 进入“磁盘管理”页面,如下图所示。 图 磁盘管理(系统盘) 说明 若此时无法看到扩容部分的容量,请选中“磁盘管理”,右键单击“刷新”后即可。 步骤3 在“磁盘管理”界面,选择需要扩大分区的磁盘,磁盘显示扩容前的容量大小。 步骤4 在所选磁盘上右键单击,选择“扩展卷”,如下图所示。 图 选择扩展卷 步骤5 在弹出的“扩展卷向导”界面中选择“下一步”,如下图所示。 图 扩展卷向导 步骤6 在弹出的“扩展卷向导”界面中的“选择空间量(MB)(E):”行中输入需要扩容的磁盘容量,单击“下一步”,如下图所示。 图 选择空间量 步骤7 单击“完成”,关闭向导。 扩容成功后显示磁盘的容量将大于扩容前磁盘的容量,如下图所示。 图 扩容成功
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        扩容磁盘
        Windows磁盘扩容后处理
        系统盘(将扩容部分的容量增加到C盘)
      • 数据盘(将扩容部分的容量增加到D盘)
        本文主要介绍 数据盘(将扩容部分的容量增加到D盘) 数据盘原有容量为100GB,通过管理控制台将数据盘扩容50GB后,登录云主机将50GB新增容量增加到D盘中。操作完成后,D盘有150GB的空间可用作数据盘。 步骤1 在云主机桌面,选择“开始”,右键单击后在菜单列表中选择“计算机”,选择“管理”。 弹出“服务器管理”窗口。 步骤2 在左侧导航树中,选择“存储 > 磁盘管理”。 进入“磁盘管理”页面,如下图所示。 图 磁盘管理(数据盘) 说明 若此时无法看到扩容部分的容量,请选中“磁盘管理”,右键单击“刷新”后即可。 步骤3 在“磁盘管理”界面,选择需要分配分区的磁盘,磁盘显示扩容前的容量大小。 步骤4 在所选磁盘上右键单击,选择“扩展卷”,如下图所示。 图 选择扩展卷(Windows 2008) 步骤5 在弹出的“扩展卷向导”界面中选择“下一步”,如下图所示。 图 扩展卷向导(Windows 2008) 步骤6 在弹出的“扩展卷向导”界面中的“选择空间量(MB)(E):”行中输入需要扩容的磁盘容量,单击“下一步”,如下图所示。 图 选择空间量(Windows 2008) 步骤7 单击“完成”完成向导。 扩容成功后显示磁盘的容量将大于扩容前磁盘的容量,如下图所示。 图 扩容成功(Windows 2008)
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        扩容磁盘
        Windows磁盘扩容后处理
        数据盘(将扩容部分的容量增加到D盘)
      • 增加SRV类型记录集
        操作场景 当您想要为域名增加一条SRV解析记录时,可以执行本操作添加记录集。支持为内网域名添加SRV类型记录集。 操作步骤 1. 登录管理控制台。 2. 选择“网络 > 内网DNS”。 进入内网DNS页面。 3. 在左侧树状导航栏,选择“内网域名”。 进入域名列表页面。 4. (可选)如果选择“内网域名”,请单击管理控制台左上角的,选择区域和项目。 5. 在待添加记录集的域名所在行,单击“名称”列的域名名称。 6. 单击“添加记录集”。 系统进入“添加记录集”页面。 7. 设置记录集参数,如下表所示。 表添加SRV类型记录集参数说明 参数 参数说明 取值样例 主机记录 填写主机通过哪种网络协议(如tcp、udp)提供了哪种通用网络服务(如ftp、ssh、sip)。格式为: 服务的名字 .协议的类型 ftp.tcp表示通过TCP协议提供FTP服务。 类型 记录集的类型,此处为SRV类型。 SRV – 记录提供特定服务的服务器 TTL(秒) 记录集的有效缓存时间,以秒为单位。 默认为“5min”,即300s。 值 格式为:优先级 权重 端口号 目标地址其中:优先级、权重、端口号均为数字,取值范围0~65535。系统优先比较优先级,优先级相同时,再比较权重。优先级:值越小,优先级越高。权重:值越大,权重越大。目标地址:目的主机的域名。请确保该主机可以解析。 2 1 2355 exampleserver.test.com 描述 可选配置,对SRV记录集的描述。 The description of SRV Server. 8. 单击“确定”,完成记录集的添加。 您可以在域名对应的记录集列表中查看添加的记录集。当记录集的状态显示为“正常”时,表示记录集添加成功。
        来自:
        帮助文档
        内网DNS
        用户指南
        增加记录集
        增加SRV类型记录集
      • 产品定义
        此小节介绍数据库安全服务的产品定义。 产品介绍 数据库安全服务,即DBSS(Database Security Service),提供旁路模式数据库安全审计服务功能,通过实时记录用户访问数据库行为,形成细粒度的审计报告,对风险行为和攻击行为进行实时告警。同时,数据库安全审计可以生成满足数据安全标准(例如SarbanesOxley)的合规报告,对数据库的内部违规和不正当操作进行定位追责,保障数据资产安全。 数据库类型 数据库安全审计可以为管理控制台上的以下数据库提供旁路模式的数据库审计功能: 关系型数据库(Relational Database Service,RDS) 弹性云主机(Elastic Cloud Server ,ECS)的自建数据库 裸金属服务器(Bare Metal Server,BMS)的自建数据库 云主机(Elastic Cloud Server ,ECS)的自建数据库 物理机(Bare Metal Server,BMS)的自建数据库 数据库安全审计支持的数据库类型和版本 数据库类型 版本 MySQL 5.0、5.1、5.5、5.6、5.7 8.0(8.0.11及以前的子版本) 8.0.23 Oracel (因Orace为闭源协议,适配版本复杂,如您需审计Orace数据库,请先联系客服人员) 11g 11.1.0.6.0、11.2.0.1.0、11.2.0.2.0、11.2.0.3.0、11.2.0.4.0 12c 12.1.0.2.0、12.2.0.1.0 19c PostgreSQL 7.4 8.0 8.0、8.1、8.2、8.3、8.4 9.0 9.0、9.1、9.2、9.3、9.4、9.5、9.6 10.0 10.0、10.1、10.2、10.3、10.4、10.5 11.0 12.0 13.0 SQL Server 2008、2008R2 2012 2014 2016 2017 DWS 1.5 SHENTONG V7.0 GBase 8a V8.5 GBase 8s V8.8 Gbase XDM Custer V8.0 Greenplum V6.0 HighGo V6.0 TAURUS MySQ 8.0 DAMENG DM8 KINGBASE V8 MongoDB V5.0
        来自:
        帮助文档
        数据库安全
        产品介绍
        产品定义
      • 系统基本信息配置
        本小节介绍SSL VPN的系统基本信息配置。 授权信息 在“系统设置 > 系统配置 > 授权信息”页面,可以查看设备当前的授权信息。 系统时间 “系统设置 > 系统配置 >日期与时间”用于设定系统时间。可以直接在界面上修改时间,也可以选择“自动与时间服务器同步”进行时间的同步。 注意 设备日志记录的时间与系统时间相关,请注意确保系统时间的准确性,手动获取本地时间和系统时间会重启设备,请勿在工作时间操作。 控制台配置 “系统设置 > 系统配置 > 控制台配置”用于设定SSL设备的设备名称、WEBUI管理页面端口、超时时间以及远程维护支持选项。 注意 为设备安全考虑,一般情况下建议禁用远程维护支持。 配置备份与恢复 “系统维护 > 配置备份/恢复”用于将设备已有的配置下载保存,或者是将已备份的配置文件恢复到设备中。 SSL的配置包含全局配置和SSL VPN配置,都是点击“下载当前配置”进行下载,两者的区别是: 全局配置:包含SSL设备系统配置、网络配置、SSL VPN设置、IPSec VPN配置以及防火墙设置等设备全部配置信息。导入全局配置时,设备需要重启。 SSL VPN配置:仅包含SSL VPN设置和SSL VPN选项的配置,导入SSL VPN配置时,设备仅重启SVPN相关服务。
        来自:
        帮助文档
        SSL VPN
        用户指南
        系统基本信息配置
      • 添加DNAT规则
        参数 说明 端口类型 分为具体端口和所有端口两种类型。 具体端口:属于端口映射方式。私网NAT网关会将以指定协议和端口访问该中转IP的请求转发到目标云主机实例的指定端口上。 所有端口:属于IP映射方式。此方式相当于为云主机配置了一个私网IP(中转IP),任何访问该中转IP的请求都将转发到目标云主机实例上。 支持协议 协议类型分为TCP和UDP两种类型。端口类型为所有端口时,此参数默认设置为All。端口类型为具体端口时,可配置此参数。 中转子网 选择中转VPC中创建的中转子网,非当前VPC的中转子网。 中转IP 通过该中转IP访问用户IDC或其他VPC。这里只能选择没有被绑定的中转IP,或者被绑定在当前私网NAT网关中非“所有端口”类型DNAT规则上的中转IP,或者被绑定到当前私网NAT网关中SNAT规则上的中转IP。 中转IP端口 中转IP对外提供服务的端口号。端口范围是1~65535。端口类型为具体端口时,需要配置此参数。 实例类型 选择对外部私网提供服务的实例类型。 云主机 虚拟IP地址 负载均衡器 自定义 网卡 服务器网卡。实例类型为云主机时,需要配置此参数。 IP地址 对外部私网提供服务的云主机IP地址。实例类型为自定义时,需要配置此参数。 业务端口 实例对外提供服务的协议端口号。端口范围是1~65535。端口类型为具体端口时,需要配置此参数。 描述 DNAT规则信息描述。最大支持255个字符。
        来自:
        帮助文档
        NAT网关
        用户指南
        私网NAT网关
        添加DNAT规则
      • 文档数据库服务与自建数据库的对比优势
        对比项 文档数据库服务 自建数据库 服务可用性 99.95% 自行保障,自行搭建主从复制,部署高可用环境等。 数据持久性 99.9999999% 自行保障,自行搭建主从复制,自建RAID等。 系统安全性 防DDoS攻击,及时自动修复各种数据库安全漏洞。 支持审计日志。 需要购买昂贵的硬件设备和软件服务,自行检测和修复安全漏洞等。 需要购买额外审计系统。 数据库备份 支持自动备份,根据业务运行周期设置自动备份策略。 支持随时手动备份数据,手动备份支持物理备份,备份效率提升3倍。 备份文件自动上传到对象存储服务(OBS)保存。 自行搭建设置和后期维护。 开源版本仅支持逻辑备份,备份效率低。 监控告警 已对接云监控服务(CES),监控可视化,可在CES上查看一段时间内的监控指标,以及设置阈值告警。 自行编写监控脚本和告警脚本,保存监控数据和绘制图表。 主机托管 无主机托管费用,即买即用。 自行购买3台服务器设备,托管费用昂贵。 维护成本 无额外运维成本,支持秒级性能监控和设置阈值告警、事件告警。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 快速部署,即开即用,支持弹性扩容,一键规格变更。 需要购买和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 日志转储 支持保留1个月的慢日志和错误日志。 自行转储日志文件,自行导出和查询日志信息。 高可用监控 具备高可用能力,支持秒级Switchover和Failover。 自行部署高可用监控,手工命令行执行主备切换,可能会有数据丢失。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        文档数据库服务与自建数据库的对比优势
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 产品功能
        一级分类 二级分类 功能点 功能点描述 核心功能 集群 一键快速部署 支持界面化订购,自动开通Kubernetes集群,兼容原生Kubernetes 核心功能 集群 节点管理 支持界面化进行扩缩容,支持节点标签、调度设置 核心功能 集群 命名空间 支持资源配额设置、支持网络隔离设置 核心功能 集群 运行时 支持Docker、Containerd 核心功能 工作负载 生命周期管理 支持应用创建、启停、扩缩容、注销等生命周期操作 核心功能 工作负载 工作负载 支持界面化发布有状态、无状态、守护进程、任务、定时任务等工作负载 核心功能 工作负载 多容器 支持一个Pod中发布多个容器,支持设置特权级容器 核心功能 工作负载 探针 支持界面化自定义策略检测应用的可用性 核心功能 工作负载 滚动升级 支持业务不中断平滑升级 核心功能 工作负载 亲和性/反亲和 支持主机及应用的亲和性与反亲和性调度 核心功能 工作负载 资源管控 支持容器级别的资源需求和限额设置,防止资源的浪费 核心功能 弹性调度 Pod弹性伸缩 支持自动伸缩规则设置,基于CPU/内存等资源自动伸缩应用,支持HPA、CronHPA和基于事件的弹性策略 核心功能 弹性调度 节点弹性伸缩 支持节点弹性伸缩 核心功能 弹性调度 负载感知调度 支持调度Pod时考虑节点的实际负载 核心功能 路由 多协议支持 支持TCP、UDP、HTTP以及HTTPS等协议 核心功能 路由 Service支持 支持NodePort、ClusterIP,LB等对外提供访问、支持无头服务 核心功能 路由 Ingress支持 支持Nginx Ingress 核心功能 路由 灰度/蓝绿发布 支持支持灰度/蓝绿发布,支持应用的多个版本在线运行 核心功能 配置管理 配置项 支持配置项 核心功能 配置管理 Secret 支持保密字典、凭证等 核心功能 网络 网络插件 支持高性能网络插件Calico 核心功能 网络 网络插件 支持自研网络插件CubeCNI实现容器与虚拟机网络直通 核心功能 网络 网络策略 支持容器访问策略和流控限制 核心功能 存储 多类型存储 支持Local、NFS、Ceph常见持久存储类;支持csi驱动程序,集成天翼云的云硬盘、弹性文件、对象存储等云存储 核心功能 存储 持久卷声明 支持界面化创建持久卷声明,支持监控存储使用量 核心功能 存储 持久卷 支持界面化创建持久卷,支持持久卷的动态生成 核心功能 日志管理 日志中心 支持容器日志的采集、存储和检索,支持集成三方开源日志解决方案 核心功能 监控与告警 监控中心 支持集群、节点、容器多级别的监控与告警配置,支持审计日志,支持集成三方开源监控解决方案 核心功能 系统管理 接入平台 作为平台组件对外提供服务,支持订单方式进行集群的开通、扩缩容、删除等 核心功能 系统管理 权限管理 多租户支持,租户资源隔离,用户角色授权,支持集群和命名空间的授权 高级功能 应用 插件市场 支持通过Chart对插件打包发布到插件市场,界面化一键部署监控等插件,通过插件与其他产品集成 高级功能 应用 模板市场 支持通过Chart对应用打包发布到模板市场,界面化安装部署等 高级功能 应用 有状态应用 支持挂载持久化存储,实现有状态应用容器化部署 高级功能 能力开放 OpenAPI 支持开放API,对接持续集成和私有部署系统 高级功能 高可用部署 Kubernetes高可用 支持Kubernetes高可用部署 容器镜像服务 镜像 镜像仓库 支持对接多镜像中心,支持界面化创建仓库 容器镜像服务 镜像 租户隔离 支持公开仓库的可见性及私有仓库的不可见性 容器镜像服务 镜像 镜像管理 支持管理海量镜像,支持多版本镜像 容器镜像服务 镜像 镜像收藏 支持快速检索镜像并收藏 容器安全 授权 权限管理 支持基于k8s RBAC授权 容器安全 配置安全 容器安全策略 支持SecurityContext配置
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        产品介绍
        产品功能
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • 集群创建
        本文介绍如何集群创建。 集群是计算资源的集合,包含一组节点资源,容器运行在节点上。在创建容器应用前,您需要存在一个可用集群。目前最多可以创建5个集群,请确保至少有一个可用的集群。如集群数量不够,可申请增加配额。 操作前提 能够确保账户中有充足的余额,否则将导致您的业务开通失败; 在【创建集群】之前,请确保已完成VPC、子网的创建及安全组的配置,若未创建可参考上一【环境设置】部分。 操作步骤 1. 登录天翼云; 2. 选择【控制台】>点击切换到具体资源池,如杭州2节点; 3. 在控制台中找到【容器服务】>点击【容器引擎】,进入容器服务界面; 4. 进入【总览】页面>单击【创建集群】按钮,进入集群创建界面; 5. 按照需要完成集群参数填写,集群创建参数详见下表,其中带“”的参数为必填参数。 参数 参数说明 基础配置 集群名称 新建集群的名称 Kubernetes版本 1.15/1.18 地域 根据最初选择的地域决定,集群创建过程中不可选 虚拟私有云 新建集群所在的虚拟私有云。若没有可选虚拟私有云,单击“创建虚拟私有云”进行创建 子网 节点虚拟机运行的子网环境。若没有可选子网,单击“创建子网”进行创建 系列 分为基础版、高级版(基础版集群将创建1个master节点和相应控制节点,worker节点配置由用户自由选择;高级版集群将创建3个master节点和相应控制节点,worker节点配置由用户自由选择。) 容器CIDR 默认是10.223.0.0/16,确定容器网段后,容器实例将在规划的网段内分配IP。不能与集群所选的VPC重复,当vpc和容器网段或者服务网段冲突提示:默认网段与所选虚拟私有云网段有冲突,请重新选择vpc 服务CIDR 默认是10.96.0.0/16,服务网段为kubernetes service ip网段,请根据业务需求选择该网段。不能与集群所选的VPC重复 企业项目 此项与主子账户权限有关,如果有主子账户权限分配要求,请提前规划企业项目 注: 如果您选择了IPv4/IPv6双栈的VPC和子网,那么要同时设置IPv4的容器CIDR和服务CIDR,以及IPv6的容器CIDR和服务CIDR,均不能与集群所选VPC重复。默认情况下,IPv6容器CIDR:fd03::/112;IPv6服务CIDR:fd05::/112。如有需要用户请根据个人需求进行修改。 worker 节点配置 规格 请根据业务需求选择相应的节点规格。 当前使用的是通用型S2类型云主机,可选规格以界面上显示为准 操作系统 请选择节点对应的操作系统 系统盘 默认为普通IO,50GB 数据盘 普通IO、高IO,规格为[50,2048]GB,默认50GB;范围502048GB;整数;填入小数自动四舍五入为整数,输入为空自动设置为50;步长为10 弹性IP 使用已有IP:使用已经创建出的弹性公网IP 创建后设置:不使用弹性公网IP(不使用弹性公网IP不能通过公网发送请求,可创建后绑定) 网络模型 容器隧道网络:基于底层 VPC 网络,构建独立的容器 VXLAN 隧道化的容器网络,与底层网络解耦,支持高扩展性,网络策略,多容器网络平面 worker节点数 默认最小值是1,只允许填入整数;步长为1;设置的节点数不能超过最大节点规模50;输入为空自动设置为1 购买时长 根据需求,设置购买时长 6. 确认右侧订单详情无误并确保已放开安全组6443、9080、9443、2379、2380端口后,单击【创建集群】,进入付费界面,完成费用支付; 7. 集群创建预计需要 610 分钟。请根据界面提示查看集群创建过程。创建完成后,点击【返回集群管理】链接; 8. 在导航栏单击【资源管理】>【集群管理】标签,进入集群列表界面,可查看创建的集群。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        集群
        集群创建
      • 设置应用组件实例伸缩策略
        手动伸缩 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”,可查看到所有应用。 2、单击应用名称,进入到应用“概览”页。 3、在“环境视图”页签,选择“环境”,可以看到已经部署在该环境下的应用组件。 4、单击应用组件名称,进入应用组件实例“概览”页。 5、单击“伸缩”,在“手动伸缩”策略下: 单击,修改“实例数”。 单击,实例伸缩操作即可生效。 单击“查看组件详情”,可查看到实例在“升级/回滚”中。待状态为“运行中”时,表示已成功完成实例伸缩操作。 弹性伸缩 说明 CCE集群,1.15及以上版本不支持弹性伸缩。 虚机部署不支持弹性伸缩。 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”,可查看到所有应用。 2、单击应用名称,进入应用“概览”页。 3、在“环境视图”页签,选择“环境”,可以看到已经部署在该环境下的应用组件。 4、单击应用组件名称,进入应用组件实例“概览”页,单击“伸缩”。 5、在“弹性伸缩”下,单击“编辑伸缩规则”: 根据业务实际需要设置“冷却时间”、“最大实例数”、“最小实例数”。 单击“保存”。 6、在“弹性伸缩”下,单击“添加伸缩策略”。 当前支持三种弹性伸缩策略: 告警策略:支持根据CPU/内存的设置,进行应用组件的自动伸缩。应用组件部署后即可设置,在CPU/内存超过或少于一定值时,自动增减实例。 表 添加告警策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“告警策略”。 指标 选择“指标”。指标是对资源性能的数据描述或状态描述。 CPU使用率:该指标用于统计测量对象的CPU使用率。应用实际使用的与申请的CPU核数量比率。 物理内存使用率:该指标用于统计测量对象已使用内存占申请物理内存总量的百分比。 磁盘读取速率:该指标用于统计每秒从磁盘读出的数据量。 物理内存总量:该指标用于统计测量对象申请的物理内存总量。 数据接收速率:该指标用于统计测量对象每秒钟接收的数据量。 磁盘写入速率:该指标用于统计每秒写入磁盘的数据量。 物理内存使用量:该指标用于统计测量对象实际已经使用的物理内存。 CPU内核总量:该指标用于统计测量对象申请的CPU核总量。 数据发送速率:该指标用于统计测量对象每秒钟发送的数据量。 容器错包个数:该指标用于统计测量对象收到错误包的数量。 CPU内核占用:该指标用于统计测量对象已经使用的CPU核个数。 触发条件 设置“触发条件”,在对应条件下触发伸缩策略。 监控周期 设置“监控周期”,触发指标周期统计。 比如设置为20秒,表示每20秒统计一次。 连续周期 设置“连续周期”。连续周期是指监控周期内连续触发阈值的次数。 比如设置为3,则表示指标数据连续三个监控周期达到了设定的阈值,则触发策略动作。 执行操作 选择“增加”或“减少”实例数,设置策略触发后执行的动作。 单击“收起预览”,可设置“触发条件”、“监控周期”、“连续周期”、“执行操作”参数值。 定时策略:支持在特定时间点进行应用的自动伸缩。适用于秒杀周年庆等活动,例如在秒杀这个时间点增加一定数量的实例个数。 表 添加定时策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“定时策略”。 触发时间 设置策略触发时间。 执行操作 选择“增加”、“减少”或“设置”实例数,设置策略触发后执行的动作。 周期策略:支持以天、周、月为周期的伸缩策略。适用于周期性的流量变化。 表 添加周期策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“周期策略”。 触发时间 设置策略触发时间。 执行操作 选择“增加”、“减少”或“设置”实例数,设置策略触发后执行的动作。 7、单击“确定”。 在弹性伸缩下,可看到策略已启动。待到满足触发条件时,弹性伸缩即会生效。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用运维
        设置应用组件实例伸缩策略
      • 入门实践
        实践 描述 漏洞修复 2020年4月15日,Git发布安全通告公布了一个导致Git用户凭证泄露的漏洞(CVE20205260)。Git使用凭证助手(credential helper)来帮助用户存储和检索凭证。当URL中包含经过编码的换行符(%0a)时,可能将非预期的值注入到credential helper的协议流中。受影响Git版本对恶意URL执行git clone命令时,会触发此漏洞,攻击者可利用恶意URL欺骗Git客户端发送主机凭据。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 Saltstack是基于python开发的一套C/S自动化运维工具,国外安全研究人员披露其中存在身份验证绕过漏洞(CVE202011651)和目录遍历漏洞(CVE202011652)漏洞,攻击者利用这些漏洞可实现远程命令执行、读取服务器上任意文件、获取敏感信息等。 本实践介绍通过HSS检测与修复这些漏洞的建议。 漏洞修复 OpenSSL安全公告称存在一个影响OpenSSL 1.1.1d、OpenSSL 1.1.1e、OpenSSL 1.1.1f的高危漏洞(CVE20201967),该漏洞可被用于发起DDoS攻击。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 当Windows Adobe Type Manager库未正确处理经特殊设计的多主机Adobe Type 1 PostScript格式字体时,Microsoft Windows中存在远程代码执行漏洞。对于除Windows 10之外的所有系统,成功利用此漏洞的攻击者可以远程执行代码。对于运行Windows 10的系统,成功利用此漏洞的攻击者可以利用受限的特权和功能在AppContainer沙盒上下文中执行代码。攻击者可随后安装程序;查看、更改或删除数据;或者创建拥有完全用户权限的新帐户。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 Windows内核处理内存中对象的方式中存在特权提升漏洞,成功利用此漏洞的攻击者可能会利用提升的特权执行代码。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 Windows CryptoAPI欺骗漏洞(CVE20200601)影响CryptoAPI椭圆曲线密码(ECC)证书检测机制,致使攻击者可以破坏Windows验证加密信任的过程,并可以导致远程代码执行。 本实践介绍通过HSS检测与修复该漏洞的建议。 勒索病毒防护 勒索病毒攻击已成为当今企业面临的最大安全挑战之一。攻击者利用勒索病毒加密锁定受害者的数据或资产设备,并要求受害者支付赎金后才解锁数据,也存在即使受害者支付赎金也无法赎回数据情况。 为了预防勒索病毒攻击,避免被勒索面临巨大的经济损失风险,您可以使用“HSS+CBR”组合为服务器做好“事前、事中、事后”的勒索病毒防护。
        来自:
        帮助文档
        企业主机安全
        快速入门
        入门实践
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 桶和对象相关
        本节主要介绍OBS桶和对象相关问题。 创建桶失败 若当前用户所创建的桶已达到上限100个,删除一些闲置的桶再创建。 若是当前桶名已存在,则更换桶名再创建。在OBS中,桶名必须是全局唯一的,即用户创建的桶不能与自己已创建的其他桶名称相同,也不能与其他用户创建的桶名称相同。 用户删除桶后,立即创建同名桶或并行文件系统会创建失败,需要等待30分钟才能创建。 检查帐号是否拥有权限,若无权限,请授予对应的操作权限。 检查帐号是否已欠费或余额不足。若欠费,请先续费。 检查本地与OBS的网络是否正常,若存在网络故障,解决网络故障,确保网络正常。 若以上都不是,请根据返回的错误码进一步判断。 上传对象失败 检查本地与OBS的网络是否正常,若存在网络故障,解决网络故障,确保网络正常。 上传对象时弹出“Service Unavailable”的错误提示,则可能是因为当前服务器繁忙,请稍后重试。 检查帐号是否已欠费或余额不足。若欠费,请先续费。 检查帐号是否拥有桶的上传对象权限,请综合IAM策略、桶策略和桶ACL共同检查。若无权限,请先授权。 对于OBS Browser+,数据库紊乱也会造成上传失败,您可以清空数据库后再次上传文件。在数据库路径下,删除所有文件。 对于OBS Browser+,您还要检查您的电脑系统是否使用了搜狗输入法,若是,请升级搜狗输入法到最新版本。 若以上都不是,请联系客服进一步解决。
        来自:
        帮助文档
        对象存储 OBS
        常见问题
        桶和对象相关
      • 推理加速型Pi3
        本节包含了推理加速型Pi3云主机的概述、规格。 概述 Pi3型弹性云主机采用专为AI推理打造的NVIDIA A30 GPU,能够提供超强的实时推理能力。单卡24GB显存,933GB/s带宽使得Pi3也同时可以支持一定的训练场景。其理论AI训练吞吐量三倍于NVIDA V100显卡,六倍于前代Pi2型服务器的T4显卡。Pi3型弹性云主机借助NVIDIA A30的运算器,能够提供最大330TOPS的INT8算力(开启稀疏性)。理论峰值单精度浮点性能:TF32:10.3TFLOPS,Tensor核心性能:TF32: 82TFLOPS 165TFLOPS(开启稀疏性)。 类型 CPU 基频/ 睿频 CPU型号 Pi3 2.6GHz/3.5GHz 6348 规格 表 Pi3弹性云主机的规格 规格名称 vCPU 内存 (GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力 (万PPS) 网卡多队列数 网卡个数上限 GPU 显存 (GiB) 本地盘 虚拟化类型 pi3.6xlarge.4 24 96 25/9 400 8 8 1 NVIDIA A30 24 KVM pi3.12xlarge.4 48 192 35/18 750 8 8 2 NVIDIA A30 48 KVM pi348u1g.12xlarge.4 48 192 35/18 750 16 8 1 NVIDIA A30 24 KVM pi348u1g.24xlarge.4 96 384 40/36 850 32 8 2 NVIDIA A30 48 KVM Pi3型弹性云主机功能如下: 处理器:第三代英特尔® 至强® 可扩展处理器 6348,主频2.6GHz,睿频3.5GHz。 支持NVIDIA A30 GPU卡NVLINK互联技术,单实例最大支持2张A30 GPU卡。 提供GPU硬件直通能力。 单GPU单精度计算能力最高10.3 TFLOPS。 单GPU INT8计算能力最高330 TOPS。 单GPU提供24GiB GDDR6显存,带宽933GiB/s。 内置1个OFA和1个NVJPEG和4个NVDEC。
        来自:
      • 镜像管理类
        本文主要介绍 镜像管理类问题 如何安装容器引擎? 容器引擎几乎支持在所有操作系统上安装,用户可以根据需要选择要安装的容器引擎版本。 说明 容器镜像服务支持使用容器引擎1.11.2 及以上版本上传镜像。 安装容器引擎需要连接互联网,内网服务器需要绑定弹性IP后才能访问。 另外,在Linux 操作系统下,可以使用如下命令快速安装容器引擎。 curl fsSL get.docker.com o getdocker.sh sh getdocker.sh 如何制作容器镜像? 自行制作容器镜像,主要有两种方法: 制作快照方式获得镜像(偶尔制作的镜像):在基础镜像上(比如Ubuntu),先登录镜像系统并安装容器引擎软件,然后整体制作快照。 Dockerfile方式构建镜像(经常更新的镜像):将软件安装的流程写成Dockerfile,使用docker build构建成容器镜像。 方法一:制作快照方式获得镜像 如果后续镜像没有变化,可采用方法一制作镜像。 具体操作如下: 找一台主机,安装容器引擎软件。 启动一个空白的基础容器,并进入容器。 例如:启动一个CentOS的容器。 docker run it centos 执行安装任务。 yum install XXX git clone cd bwa;make 说明 请预先安装好Git,并检查本机是否有ssh key设置。 输入exit退出容器。 制作快照。 docker commit m "xx" a "test" containerid test/image:tag a:提交的镜像作者。 containerid:步骤2中的容器id。可以使用docker ps a查询得到容器id。 m:提交时的说明文字。 test/image:tag:仓库名/镜像名:TAG名。 执行docker images可以查看到制作完成的容器镜像。
        来自:
        帮助文档
        容器镜像服务
        常见问题
        镜像管理类
      • 本地Linux主机使用SFTP上传文件到Linux云主机
        本节介绍了本地Linux主机使用SFTP上传文件到Linux云主机的操作场景、操作步骤。 操作场景 本节操作以CentOS操作系统为例,介绍配置SFTP、使用SFTP上传或下载文件、文件夹的操作步骤。 操作步骤 1. 以root用户登录云主机。 2. 执行以下命令查看ssh版本,OpenSSH版本大于等于4.8p1。 ssh V 回显信息如下所示: OpenSSH7.4p1, OpenSSL 1.0.2kfips 26 Jan 2017 3. 创建用户和组,以user1用户为例。 groupadd sftp useradd g sftp s /sbin/nologin user1 4. 设置用户密码。 passwd user1 图 设置用户密码 5. 设置目录权限。 chown root:sftp /home/user1 chmod 755 R /home/user1 mkdir /home/user1/upload chown R user1:sftp /home/user1/upload chmod R 755 /home/user1/upload 6. 执行以下命令,编辑sshdconfig文件。 vim /etc/ssh/sshdconfig 注释掉如下信息 Subsystem sftp /usr/libexec/openssh/sftpserver 补充如下内容: Subsystem sftp internalsftp Match Group sftp ChrootDirectory /home/%u ForceCommand internalsftp AllowTcpForwarding no X11Forwarding no 图 sshdconfig文件补充配置信息后 7. 重启云主机,或执行以下命令重启sshd服务。 service sshd restart 或 systemctl restart sshd 8. 执行以下命令,远程连接到服务器。 sftp root@IP地址 9. 连接成功后,您可以使用交互式的sftp命令。 10. 执行以下命令,上传或下载文件、文件夹。 上传文件:put r 下载文件:get r
        来自:
      • Windows弹性云主机变更规格后数据盘脱机怎么办?
        本节介绍了变更弹性云主机规格时的问题描述和处理流程。 操作场景 Windows弹性云主机变更规格后,可能会发生磁盘脱机,因此,变更规格后,需检查磁盘挂载状态是否正常。本节操作介绍变更规格后检查磁盘挂载状态的操作步骤。 操作步骤 1. 对比规格变更前、后,在“计算机”中查询的磁盘个数是否一致。 − 是,表示磁盘挂载状态正常,结束。 − 否,表示存在磁盘脱机,执行2。 示例: 以使用Windows 2008镜像的云主机为例,假设变更规格前,云主机挂载有1块系统盘、2块数据盘,如下图所示。 图 变更规格前磁盘挂载情况 变更规格后,查看磁盘挂载情况,如下图所示。 图 变更规格后磁盘挂载情况 只查询到1块系统盘,因此,变更规格前、后,显示的磁盘个数不一致,表示数据盘处于“脱机”状态。 2. 将磁盘设置为“联机”状态。 a. 选择“开始”菜单,右键单击“计算机”,并选择“管理”。 系统弹窗显示“服务器管理器”页面。 b. 在左侧导航栏,选择“存储 > 磁盘管理”。 进入“磁盘管理页面”。 c. 在左侧窗格中出现磁盘列表,分别右键单击脱机的磁盘,并选择“联机”,将脱机磁盘进行联机。 图 联机 3. 再次在“计算机”中查询磁盘的个数,检查与变更规格前是否一致。 − 是,结束。 − 否,请联系客服获取技术支持。 图 联机后磁盘挂载情况
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        云主机管理
        规格变更类
        Windows弹性云主机变更规格后数据盘脱机怎么办?
      • 设置网卡属性为DHCP(Windows)
        本节介绍了设置网卡属性为DHCP(Windows)的操作场景、前提条件、操作步骤。 操作场景 通过云主机或者外部镜像文件创建私有镜像时,如果云主机或镜像文件所在虚拟机的网络配置是静态IP地址时,您需要修改网卡属性为DHCP,以使私有镜像发放的新云主机可以动态获取IP地址。 本节以Windows Server 2008 R2操作系统为例。其他操作系统配置方法略有区别,请参考对应操作系统的相关资料进行操作,文档中不对此进行详细说明。 说明: 使用外部镜像文件创建私有镜像时,设置网卡属性操作需要在虚拟机内部完成,建议您在原平台的虚拟机实施修改后,再导出镜像。 前提条件 已登录创建Windows私有镜像所使用的云主机。 登录云主机的详细操作请参见《弹性云主机用户指南》。 操作步骤 1. 在云主机上选择“开始 > 控制面板”。 2. 单击“网络和Internet”。 3. 单击“网络和共享中心”,如下图所示。 网络和共享中心 4. 选择您已经设置为静态IP的连接。以单击“本地连接 2”为例,如下图所示。 本地连接 2状态 5. 单击“属性”,选择您配置的协议版本。 6. 在“常规”页签中勾选“自动获得IP地址”和“自动获得DNS服务器地址”,单击“确定”,如下图所示。 说明: 建议您记录原有网络信息,以便后续可以修改回原有配置。 配置网络获取IP方式 7. 系统会自动获取IP地址。建议您保存原有的地址信息,方便后续修改回原有配置。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Windows操作系统相关操作
        设置网卡属性为DHCP(Windows)
      • 1
      • ...
      • 309
      • 310
      • 311
      • 312
      • 313
      • ...
      • 341
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      模型推理服务

      一站式智算服务平台

      智算一体机

      人脸属性识别

      推荐文档

      云课堂 第三课:四大功能告诉你使用负载均衡的意义

      文档下载

      产品功能

      云课堂 第八课:通过IPv6隧道实现天翼云云主机IPv4和IPv

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号