活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      超融合服务-iStack_相关内容
      • 计费概述
        本文主要介绍分布式消息服务RabbitMQ的计费概述。 通过阅读本文,您可以快速了解分布式消息服务RabbitMQ的计费模式、计费项、产品价格等信息。 计费模式 分布式消息服务RabbitMQ提供包年/包月和按需计费两种计费模式,以满足不同场景下的用户需求。包年/包月是一种预付费模式,即先付费再使用,按照订单的购买周期进行结算,因此在购买之前,您必须确保账户余额充足。按需计费是一种后付费模式,即先使用再付费,按照RabbitMQ实例实际使用时长计费。关于两种计费模式的详细介绍请参见计费模式概述。 计费项 分布式消息服务RabbitMQ的计费项由实例费用和存储空间费用组成。了解每种计费项的计费因子、计费公式等信息,请参考计费项。 如需了解实际场景下的计费样例以及各计费项在不同计费模式下的费用计算过程,请参见计费样例。 产品价格 分布式消息服务RabbitMQ的产品价格,介绍了包年/包月和按需计费的价格明细。了解更多关于产品价格的信息,请参见产品价格。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        计费说明
        计费概述
      • 购买客户支持计划
        操作场景 当前客户支持计划等级为标准服务时,客户根据自身业务服务需求新购客户支持计划(轻量级、商业级、企业级),以享受更高级别的服务响应时间和专属服务权益。 操作步骤 1、访问"客户支持计划"页面,点击“立即订购”。 2、进入客户支持计划订购页面,选择购买的客户支持计划等级和购买时长,并勾选我已阅读并接受《天翼云客户支持计划服务协议》,点击“立即订购”。 3、进入支付页面,选择优惠券、代金券相关信息,点击“立即支付”。 4、在超级收银台页面,选择支付方式,点击“确认支付”,完成支付。 5、支付完成后,可在订单中心查看开通进度,开通完成即可享受当前购买的客户支持计划等级对应的专属服务权益。
        来自:
        帮助文档
        客户支持计划
        用户指南
        购买客户支持计划
      • 计费模式
        安全体检产品采用预付费模式,默认购买周期为一年。 计费模式 安全体检产品采用预付费。 计费周期 支持包月、包年订购,享受包年实付10个月折扣价。 用户可自订单生效之日起享受购买期限内的服务,当购买的服务到期后,服务自动停止。 计费项 服务为按照IP数量定价。 产品价格 单个互联网安全体检规格包含5个互联网IP授权,详细价格参考如下表格(本服务当前仅支持按年购买、不支持按月付费): 产品规格 产品描述 标准价格(元/月) 年付价格(元/年) 互联网安全体检 提供5个及以内互联网IP安全体检服务,发现IP风险暴露情况、漏洞开放情况,推送安全体检报告。 280 2800 试用版 试用授权IP数量5个,试用次数为1次。 免费 免费 说明 试用仅对未开通过商用资源的用户有权限,若您已经购买过安全体检付费版本,无论商用资源是否还在有效期内,均无试用权限。试用结束后,您仍然可以通过产品控制台预览、下载体检报告。如您希望继续使用本产品,请您及时完成订购。
        来自:
        帮助文档
        安全体检
        计费说明
        计费模式
      • 使用须知
        本节说明了客户在使用智能边缘云需要明确注意的事项 节点资源差异 不同的边缘节点存在资源差异,包括但不限于云硬盘、本地盘、本地裸盘的资源服务能力,GPU卡的资源服务能力,裸金属的资源服务能力。 本地硬盘可提供的规格大小根据宿主机型号不同而不同,不同资源节点宿主机型号也可能存在差异。 不同资源节点可提供的虚拟机、裸金属规格可能存在差异。 节点可用性 ECX的服务可用性(SLA)不低于99.9%,详情请参见[[服务等级协议]](/portal/protocol/10012558)。 以下原因所导致的服务不可用时间,不在计算范围内: 中国电信预先通知客户后进行系统维护所引起的,包括割接、维修、升级和模拟故障演练。 任何中国电信所属设备以外的网络、设备故障或配置调整引起的。 客户的应用程序受到黑客攻击而引起的。 客户维护不当或保密不当致使数据、口令、密码等丢失或泄漏所引起的。 客户的疏忽或由客户授权的操作所引起的。 客户未遵循中国电信产品使用文档或使用建议引起的。 不可抗力引起的。
        来自:
        帮助文档
        智能边缘云
        产品简介
        使用须知
      • 使用类
        数据库专家服务对行业有限制吗? 数据库专家服务没有行业限制。 我们的专家团队深耕数据库领域,拥有电信、政务、物联网、新能源、医疗等不同行业的丰富经验,能帮助用户解决各种数据库问题,给用户提供业内优秀的解决方案和经验。 数据库专家服务仅限于使用云数据库的用户吗? 数据库专家服务不限于使用云数据库的用户。 不管您是否使用云数据库,我们都可以为您提供服务,使用云服务器自建数据库、私有云环境自建数据库等各类场景均适用。 实施数据库专家服务会影响到生产业务吗? 大多数服务不会影响生产业务,实施服务前我们会和您充分沟通可能的各类风险。 如果在实施数据库专家服务的过程中确实会影响到生产业务,专家团队会在实施服务前为您提供相应的建议和解决方案。 数据库专家服务完成后,会留下哪些技术资料? 我们会在知识转移的过程中向用户提供不涉及版权的工具和双方约定的相关文档、资料。 例如:安装部署报告、健康巡检报告、性能分析报告、数据库架构设计文档、数据库上云方案、升级扩容方案、迁移方案、数据备份恢复方案、容灾方案等等。
        来自:
        帮助文档
        数据库专家服务
        常见问题
        使用类
      • 云审计
        本文介绍关系数据库SQL Server版在天翼云云审计中支持的相关功能。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 创建实例、恢复到新实例 重启实例 删除实例 节点扩容 磁盘扩容 规格变更 数据备份、删除备份 数据恢复 参数修改 主备切换 绑定公网IP 解绑公网IP 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表中,选择事件来源为“数据库”,资源类型选择“关系数据库SQL Server版”,上方时间选择需要筛选的时间段。点击查询即可。 4. 在审计事件右侧点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        云审计
      • Web页面访问类
        修改开源组件Web页面的超时时间 1.进入服务全部配置界面。 MRS 3.x之前版本集群:在集群详情页面,选择“组件管理 > meta > 服务配置”。 MRS 3.x及之后版本集群:登录FusionInsight Manager,选择“集群 > 服务 > meta”,单击“配置”,选择“全部配置”。 2.根据需要修改“meta”下的“http.server.session.timeout.secs”值,单位为秒。 3.保存配置,不勾选“重新启动受影响的服务或实例”并单击“确定”。 重启会影响业务,建议在业务空闲时执行重启操作。 4.可选)若需要使用Spark的Web页面,则需要Spark“全部配置”页面,搜索并修改配置项“spark.session.maxAge”为合适的值,单位为秒。 保存配置,不勾选“重新启动受影响的服务或实例”并单击“确定”。 5.重启meta服务及需要使用Web界面的服务,或者在业务空闲时重启集群。 重启会影响业务,建议在业务空闲时执行重启操作,或使用滚动重启功能,在不影响业务的情况下重启服务。 说明 不支持修改Flink组件Web页面的超时时间。 MRS租户管理中的动态资源计划页面无法刷新怎么办? 以root用户分别登录Master1和Master2节点。 1.执行ps ef grep aos命令检查aos进程号。 2.执行kill 9 aos 进程号 结束aos进程。 3.等待aos进程自动重启成功,可通过ps ef grep aos命令查询进程是否存在,若存在则重启成功,若不存在请稍后再查询。 Kafka Topic监控页签在Manager页面不显示怎么办? 分别登录集群Master节点,并切换用户为omm。 1.进入目录“/opt/Bigdata/apachetomcat7.0.78/webapps/web/WEBINF/lib/components/Kafka/”。 2.拷贝zookeeper包到该目录“cp /opt/share/zookeeper3.5.1mrs2.0/zookeeper3.5.1mrs2.0.jar ./”。 3.重启Tomcat。 sh /opt/Bigdata/apachetomcat7.0.78/bin/shutdown.sh sh /opt/Bigdata/apachetomcat7.0.78/bin/startup.sh
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        Web页面访问类
      • ALM-16003 Background线程使用率超过阈值
        本章节主要介绍ALM16003 Background线程使用率超过阈值的告警。 告警解释 系统每30秒周期性检测Background线程使用率情况,默认阈值为90%。如果Hive使用的background线程池使用率超过阈值,则发出告警。 说明 MRS 3.X支持Hive多实例,若集群启用了多实例功能且安装了多个Hive服务,请根据“定位信息”的“服务名”值来确定具体产生告警的Hive服务。例如Hive1服务不可用,则“定位信息”中显示服务名Hive1,处理步骤中的操作对象也应由Hive调整为Hive1。 告警属性 告警ID 告警级别 是否自动清除 16003 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 后台Background线程数过多,导致新提交的任务无法及时运行。 可能原因 Hive后台的background线程池使用率过大。 HiveServer后台的background线程池执行的任务过多。 HiveServer后台的background线程池的容量过小。 处理步骤 检查HiveServer background线程池执行任务数量 1.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 具体的HiveServer实例 ”,找到“Background线程数”与“Background线程使用率”监控信息。 2.在Background线程数监控中,线程数目最近半小时时间内是否有异常偏高(默认队列数值为100,偏高数值>90)。 是,执行步骤3。 否,执行步骤5。 3.调整提交到background线程池的任务数(比如,取消一些后台性能低,耗时长的任务)。 4.“Background线程数”和“Background线程数使用率”是否下降。 是,执行步骤7。 否,执行步骤5。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16003 Background线程使用率超过阈值
      • 轻量型云主机关机后还会继续计费吗?
        轻量型云主机关机不会继续进行计费。 轻量型云主机目前仅支持包年包月类型的计费方式,用户购买轻量型云主机(包含套餐内资源在内的服务,如云盘、弹性IP、带宽等),将会在用户下单时一次性扣除,并不会按时间进行计费。 故用户对主机进行开关机,并不会影响您服务使用的费用。 当您使用服务时间快到期时,服务将自动停止,无法被使用,若用户想继续使用,需要进行续订操作,此时需要扣除新一次得使用费用。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        计费类
        轻量型云主机关机后还会继续计费吗?
      • 组件设置
        组件设置包括关联日志服务。 操作日志 1. 登录管理控制台。 2. 单击左侧,选择“管理与部署 > 应用性能管理 APM”,进入APM服务页面。 3. 在左侧导航栏选择“应用监控 >指标”,进入应用指标页。 4. 在界面左侧树单击对应环境后的,进入实例监控页面。 5. 单击“组件设置”,进入组件配置页。 6. 单击“批量复制到其它组件”,弹出“复用到其它组件”选择框。 7. 在“复用到其他组件”选择框中,选择一个或多个组件,单击“复用到其他组件”。则当前“关联日志服务”的配置,成功的复制到被选择的组件中。 “复用到其它组件”以及“批量复制到其它组件”功能中,所选组件必须包含“环境”,否则“复用到其它组件”或者“批量复制到其它组件”按钮置灰,不支持复制。 关联日志服务 应用性能管理(APM)与云日志服务(LTS)关联,您可以在 LTS中关联调用链的TraceID 信息,当应用出现故障时,可以通过调用链的TraceID 快速关联到业务日志,及时定位分析并解决问题。 “打印TraceID至业务日志中”开关 1. 如果需要将TraceID打印到业务日志中,则需要在日志中打印线程名。在日志中打印线程名方法如下图,在logback.xml中添加 “%thread”字段即可。 1. 开启后业务日志中会自动生成调用链的TraceId。 2. 关闭后关联日志服务的设置不生效。 关联业务日志支持Log4j/Log4j2/Logback日志组件。 自定义设置只支持java类型。 步骤1、进入组件配置页,在“关联日志服务”表单中填写相关信息。 表 关联日志服务参数说明 参数 说明 项目 在下拉菜单中选择项目。 日志组 日志组(LogGroup)是云日志服务进行日志管理的基本单位,可以创建日志流以及设置日志存储时间,每个账号下可以创建100个日志组。 日志流 日志流(LogStream)是日志读写的基本单位,日志组中可以创建日志流,将不同类型的日志分类存储,方便对日志进一步分类管理。 步骤2、单击“保存”,弹出“关联日志服务”提示框。 步骤3、单击“确认”,关联成功。 步骤4、其它操作。 复用到其他组件 1. 单击“复用到其他组件”,弹出“复用到其他组件”选择框。 2. 选择一个或多个组件,单击“复用到其他组件”,则当前“关联日志服务”的配置,成功的复制到被选择的组件中。 “复用到其它组件”功能中,所选组件必须包含“环境”,否则“复用到其它组件”按钮置灰,不支持复制。
        来自:
        帮助文档
        应用性能管理
        用户指南
        应用指标监控
        组件设置
      • Kafka Broker节点主机宕机
        本章节介绍Kafka Broker节点主机宕机故障演练。 背景介绍 高性能高可靠的分布式消息服务 Kafka 在复杂分布式环境中仍可能因 Broker 节点宕机引发数据丢失、集群可用性下降、请求延迟升高、副本同步滞后等严重问题,本演练可测试业务系统应对此类核心组件故障的响应能力、高可用切换机制及数据一致性保障效果。 基本原理 指定或随机一个Broker节点进行关机。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式消息服务Kafka,然后单击添加资源。 3. 在弹出的对话框中,勾选目标分布式消息服务Kafka实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式消息服务Kafka。 添加实例 :单击添加实例 ,勾选上一步中添加的分布式消息服务Kafka实例。 添加故障动作 :单击立即添加 ,在列表中选择Broker宕机动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点:可选择随机一个节点或者特定的节点。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        中间件
        分布式消息服务Kafka
        Kafka Broker节点主机宕机
      • 迁移方案概览
        本页介绍了关于文档数据库服务迁移方案概览。 文档数据库服务的数据迁移通常涉及从一个实例(源)向另一个实例(目标)复制或迁移数据。以下是一些常用的文档数据库服务数据迁移方案: 备份和还原:使用mongodump工具从源数据库创建备份,然后使用mongorestore工具将备份数据恢复到目标数据库。这种方式适用于小规模的数据迁移,并且不会中断生产环境。但对于大规模或实时生产系统,备份和还原可能会造成数据迁移时间较长和停机时间较长的问题。 基于副本集的数据迁移:如果你使用文档数据库服务的副本集,可以通过添加新的目标节点(Secondary节点)来实现数据迁移。在副本集中,数据会自动复制到Secondary节点上,这样你可以逐步将数据迁移到新的目标节点上。一旦所有数据都复制到新节点,可以将其升级为Primary节点,完成数据迁移。 基于Sharding的数据迁移:如果你使用文档数据库服务的分片集群(Sharding),可以通过添加新的Shard来实现数据迁移。在分片集群中,可以先添加一个空的Shard,然后逐步将数据迁移到新的Shard上。一旦所有数据都迁移到新Shard上,可以逐步移除原来的Shard,完成数据迁移。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        迁移方案概览
      • 产品定义
        本文主要介绍存储容灾服务的产品定义。 存储容灾服务简介 存储容灾服务(Storage Disaster Recovery Service)是为用户数据中心提供容灾上云以及云上容灾的服务。当用户本地数据中心或者云上数据中心发生故障不能对外提供服务时,可以将业务快速切换到天翼云容灾中心。当生产数据中心故障修复后,可以将业务切回到生产数据中心。可有效提高企业业务连续性,保障关键数据安全可靠。 容灾和备份 容灾主要针对火灾、地震等重大自然灾害,因此生产站点和容灾站点之间必须保证一定的安全距离;备份主要针对人为误操作、病毒感染、逻辑错误等因素,用于业务系统的数据恢复,数据备份一般是在同一数据中心进行。 容灾系统不仅保护数据,更重要的目的在于保证业务的连续性;而数据备份系统只保护不同时间点版本数据的可恢复。一般首次备份为全量备份,所需的备份时间会比较长,而后续增量备份则在较短时间内就可完成。 容灾的最高等级可实现RPO0;备份可设置一天最多24个不同时间点的自动备份策略,后续可将数据恢复至不同的备份点。 故障情况下(例如地震、火灾),容灾系统的切换时间可降低至几分钟;而备份系统的恢复时间可能几小时到几十小时。
        来自:
        帮助文档
        存储容灾服务
        产品简介
        产品定义
      • 配置存算分离集群(AKSK方式)
        Hive访问OBS 1.登录服务配置页面。 针对MRS 3.x之前版本,登录集群详情页面,选择“组件管理 > Hive > 服务配置”。 针对MRS 3.x及之后版本,登录FusionInsight Manager页面,具体请参见访问FusionInsight Manager(MRS 3.x及之后版本),选择“集群 > 服务 > Hive > 配置”。 2.将“基础配置”切换为“全部配置”。 3.搜索“fs.obs.access.key”和“fs.obs.secret.key”参数,并分别配置为OBS的AK和SK。 若当前集群中搜索不到如上两个参数,请在左侧导航选择“Hive > 自定义”,在自定义参数“core.site.customized.configs”中增加如上两个参数。 4.单击“保存配置”,并勾选“重新启动受影响的服务或实例。”重启Hive服务。 5.在beeline中直接使用obs的目录进行访问。例如,执行如下命令创建Hive表并指定数据存储在testbucket文件系统的testobs目录中。 createtable testobs(a int, b string) row format delimited fields terminated by "," stored as textfile location"obs://testbucket/testobs"; Spark访问OBS 说明 由于SparkSQL依赖Hive,所以在Spark上配置OBS时,需要同时修改Hive访问OBS的OBS配置。 sparkbeeline和sparksql 可以通过在shell中增加如下OBS的属性实现访问OBS。 set fs.obs.endpointxxx set fs.obs.access.keyxxx set fs.obs.secret.keyxxx sparkbeeline sparkbeeline也可以通过在Manager中配置服务参数实现访问OBS。操作如下: 1.登录服务配置页面。 针对MRS 3.x之前版本,登录集群详情页面,选择“组件管理 > Spark服务配置”。 针对MRS 3.x及之后版本,登录FusionInsight Manager页面,具体请参见访问FusionInsightManager(MRS3.x及之后版本),选择“集群 > 服务 > Spark2x > 配置”。 2.将“基础配置”切换为“全部配置”。 3.选择“JDBCServer > OBS”配置fs.obs.access.key、fs.obs.secret.key参数。 若当前集群中没有如上两个参数,请在左侧导航选择“JDBCServer > 自定义”,在自定义参数“spark.coresite.customized.configs”中增加如上两个参数。 详见下图: 自定义添加OBS参数 4.单击“保存配置”,并勾选“重新启动受影响的服务或实例。”重启Spark服务。 5.在sparkbeeline中访问OBS,例如访问obs://obsdemoinput/table/目录: create table test(id int) location 'obs://obsdemoinput/table/'; sparksql和sparksubmit sparksql也可以通过修改coresite.xml配置文件实现访问OBS。 使用sparksql和使用sparksubmit提交任务访问OBS时,配置文件修改方法一致。 修改MRS客户端中Spark配置文件夹($clienthome/Spark/spark/conf)中的coresite.xml,增加如下内容: fs.obs.access.key ak fs.obs.secret.key sk fs.obs.endpoint obs endpoint
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置存算分离
        配置存算分离集群(AKSK方式)
      • 基于事件流实现RocketMQ消息路由
        本文介绍如何应用事件总线EventBridge的事件流功能实现分布式消息服务RocketMQ的消息路由。 前提条件 开通事件总线EventBridge并授权。 开通分布式消息服务RocketMQ并创建最少两个主题。 背景信息 事件流作为更轻量、实时端到端的流式事件通道,提供轻量级的流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步。源端分布式消息服务RocketMQ生产的消息可以通过事件流这个通道被路由到目标端的分布式消息服务RocketMQ。 步骤一:创建事件流 1. 登录事件总线EventBridge控制台。 2. 在左侧导航栏,单击事件流。 3. 在事件流页面,单击创建事件流。 4. 在创建事件流面板,设置任务名称和描述,配置以下参数,然后单击保存。 a.在Source(源)配置向导,选择数据提供方为分布式消息服务RocketMQ,设置以下参数,然后单击下一步。 参数 说明 示例 实例名称 前提条件中已创建的分布式消息服务RocketMQ版实例。 xxx Topic 当前实例中的Topic。 topic1 Group 消费组名。 快速创建:自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有:选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。 最新位点:从最新位点开始消费。 最新位点 Tag 用于过滤消息的Tag值,非必填。 tag1 b.在Filtering(过滤)配置向导,设置事件过滤规则,单击下一步。 c.在Sink(目标)配置向导,选择服务类型为分布式消息服务RocketMQ,配置以下参数,单击保存,如图1所示。 参数 说明 示例 实例 选择分布式消息服务RocketMQ实例。 instancexxx Topic 选择RocketMQ实例的Topic。 topic1 消息体 选择消息体(Body)的内容,更多参考“事件内容转换”。 完整事件 自定义属性 选择自定义属性(Properties)的内容,更多参考“事件内容转换”。 空 索引 选择索引(Keys)的内容,更多参考“事件内容转换”。 空 标签 选择标签(Tags)的内容,更多参考“事件内容转换”。 空 图1 创建事件流时选择服务类型为分布式消息服务RocketMQ的事件目标 5. 创建事件流后,会有30秒~60秒的延迟时间,您可以在事件流页面的状态栏查看启动进度。
        来自:
        帮助文档
        事件总线
        最佳实践
        基于事件流实现消息路由
        基于事件流实现RocketMQ消息路由
      • 弹性云主机服务等级协议
        本节包含了弹性云主机的服务等级协议。 弹性云主机服务等级协议(SLA)生效,详情请参见这里。
        来自:
      • 如何调用API
        本文为您介绍推理服务API调用说明。 终端节点 主要作用:用户信息的发送和接收,信令信息的控制处理、安全保护等作用。 终端节点: 接口构造 请求域名 终端请求地址: 通信协议 接口通过 HTTPS 进行通信,保护用户数据的机密性和完整性,确保网络通信的安全性。 版本管理 为区分接口版本,在http请求路径中加入版本信息,目前版本为v1,因而请求的url前缀为: 请求鉴权 请求header中需要填入Authorization鉴权信息,Authorization对应值应为Bearer + 平台上获取的服务组App Key AppKey获取方法:登录平台门户,一站式智算服务平台>模型服务>服务接入>创建服务组>绑定服务>获取appKey 为避免被安全护栏拦截,建议在http请求header中填入UserAgent信息 浏览器或客户端标识:Chrome/58.0.3029.110、Mozilla/5.0、AppleWebKit/537.36、Safari/537.36、Windows NT 10.0、PostmanRuntimeApipostRuntime/1.1.0等 请求示例 plaintext 请求路径: 为具体的功能路径,如/chat/completions 请求方式:POST 请求header必填项: Authorization: Bearer AppKey ContentType: application/json 其他header: UserAgent: PostmanRuntimeApipostRuntime/1.1.0
        来自:
        帮助文档
        模型推理服务
        API参考
        推理服务API
        如何调用API
      • 操作类
        本文向您介绍模型推理服务操作类常见问题。 平台已预置的模型有哪些? 进入模型服务模块,选择在线服务,点击【预置服务】,可以看到平台预置的模型,平台预置了多款等基础大模型,包括DeepSeek、通义千问、Llama、ChatGLM 等系列,可以直接使用。不同的基础模型的参数和能力不同,我们将持续推出不同能力方向的模型。 使用第三方工具对接API访问报错404:请求路径错误怎么解决? 修改配置的请求路径配置到/v1,不同工具的具体配置请参考最佳实践文档。 模型回答内容重复如何处理? 请求模型的重复惩罚度参数设置过高,会导致重复输出概率增大。建议将重复惩罚度参数设置为0。 API接口调用错误(错误码:500001)怎么解决? 大概率为客户端主动断开连接问题,请检查客户端设置的超时时间是否过短或者存在主动断开情况。
        来自:
        帮助文档
        模型推理服务
        常见问题
        操作类
      • 天翼云云主机内网 NTP 时间同步配置指南(1)
        Debian 系操作系统配置(systemdtimesyncd) Debian/Ubuntu 系统默认自带 systemdtimesyncd 轻量级时间同步服务,无需额外安装,配置步骤如下: 1. 备份原始配置文件(便于异常回滚) plaintext cp /etc/systemd/timesyncd.conf /etc/systemd/timesyncd.conf.bak 2. 写入天翼云内网 NTP 配置 plaintext sed i "s/^?NTP./NTP169.254.169.254/g" /etc/systemd/timesyncd.conf 3. 重启服务并启用系统 NTP 同步 plaintext systemctl restart systemdtimesyncd timedatectl setntp true systemctl enable now systemdtimesyncd 四、配置验证 配置完成后,可通过以下命令验证时间同步状态: 1. 红帽系系统验证 查看chronyd服务运行状态 plaintext systemctl status chronyd 查看时间同步详情 plaintext chronyc tracking 2. Debian 系系统验证 查看timesyncd服务运行状态 plaintext systemctl status systemdtimesyncd 查看时间同步详情 plaintext timedatectl timesyncstatus 说明 若输出结果中显示同步源为169.254.169.254,系统时间偏差在毫秒级,即为配置成功。
        来自:
      • 编辑/删除预案阶段
        使用条件 预案阶段状态为草稿或已停用状态,可进行删除预案阶段操作。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段删除。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表操作列中的“删除”按钮,弹出删除预案阶段弹窗。 7. 确认删除该预案阶段后,点击“确定”按钮。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        编辑/删除预案阶段
      • 删除应用
        本文为您介绍删除已接入的应用的具体操作。 操作场景 在您将应用接入容灾管理中心后,可以通过多活容灾服务控制台删除您接入的应用。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“应用管理”,进入应用管理页面,点击应用列表中的“删除”按钮,弹出移除应用弹窗。 5. 确认知晓移除应用会同时解绑应用的网络、数据库、存储等产品,应用高可用性能会降低后,勾选“我已知晓并确认移除应用”,点击“确定”按钮。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        应用管理
        删除应用
      • 告警模板:创建
        参数 参数类型 是否必填 示例 说明 下级对象 name String 是 xsZSu 告警模板名称 ser String 是 ecs 本参数表示告警服务。取值范围:ecs:云主机。evs:云硬盘。pms:物理机。...详见“告警规则:获取告警服务列表”接口返回。 dim String 是 ecs 本参数表示告警维度。取值范围:ecs:云主机。disk:磁盘。pms:物理机。...详见“告警规则:获取告警服务维度关系”接口返回。 desc String 否 test 告警模板描述 rules Array of Objects 是 告警规则 rule
        来自:
        帮助文档
        云监控服务
        API参考
        API
        告警服务
        告警模板
        告警模板:创建
      • 告警模板:更新
        参数 参数类型 是否必填 示例 说明 下级对象 name String 是 xsZSu 告警模板名称 ser String 是 ecs 本参数表示告警服务。取值范围:ecs:云主机。evs:云硬盘。pms:物理机。...详见“告警规则:获取告警服务列表”接口返回。 dim String 是 ecs 本参数表示告警维度。取值范围:ecs:云主机。disk:磁盘。pms:物理机。...详见“告警规则:获取告警服务维度关系”接口返回。 desc String 否 test 告警模板描述 rules Array of Objects 是 告警规则 rule
        来自:
        帮助文档
        云监控服务
        API参考
        API
        告警服务
        告警模板
        告警模板:更新
      • 约束与限制
        使用主机迁移服务时,需要注意本章介绍的约束与限制。 使用主机迁移服务时,对于源端服务器的约束与限制请参见下表。 表 源端服务器的约束和限制 项目 约束和限制 服务器规格 迁移Windows服务器要求源端和目的端规格大于1U1G。 迁移Linux服务器要求源端和目的端规格大于等于1U1G。 源端服务器数量 单个用户源端服务器限制1000台,如果有超过1000台的情况,请在服务器列表页面删除已完成迁移的服务器。 操作系统 支持迁移的Windows操作系统参见Windows兼容性列表。 支持迁移的Linux操作系统参见Linux兼容性列表。 不支持迁移多操作系统。 磁盘可用空间大小 Windows:当分区大于等于600MB,该分区的可用空间小于320MB时不能迁移;当分区小于600MB,该分区的空间小于40MB时不能迁移。 Linux:根分区可用空间小于200MB时不能迁移。 文件系统 Windows:只支持NTFS类型文件系统。 Linux:只支持ext2、ext3、ext4、vfat、xfs、btrfs文件系统。 共享文件系统 只支持迁移本地磁盘上的文件,不支持迁移共享文件系统。 例如:NFS(Network File System)、Common Internet File System、NAS(Network Attached Storage)等中的文件。 服务器外挂存储 不支持迁移服务器挂载的外部存储。 加密文件 不支持含有受保护文件夹、加密卷的系统。 多节点数据库和活动目录域(AD DS)服务器 主机迁移服务不支持AD和多节点数据库的服务器迁移。 数据库应用数据和域控制器应用数据 主机迁移服务只用于系统迁移,不支持数据库、域控制器等应用数据迁移。 应用与硬件绑定 不支持含有与硬件绑定的应用的系统。 动态磁盘 在Windows系统中,动态磁盘会当做基本磁盘来迁移,迁移完成后,目的端服务器不会有动态磁盘。 加入域的主机 迁移加入域主机时,在迁移完成后,目的端服务器需要重新加入域。 系统卷不在第一块磁盘的服务器 不支持迁移系统卷不在第一块磁盘上的服务器。 LVM精简卷(LV带pool标签) 不支持迁移服务器中的LVM精简卷(LV带pool标签)。 磁盘列阵(RAID) 不支持迁移磁盘列阵(RAID)场景。 大数据集群、容器集群 主机迁移服务只适用于系统迁移,不适用于包括但不限于容器集群、大数据集群等集群迁移。
        来自:
        帮助文档
        主机迁移服务SMS
        产品介绍
        约束与限制
      • 使用限制
        产品使用限制介绍,请您在购买本产品前,详细阅读本节内容。 全流量分析服务使用限制 需订购基础版、企业版或护航版后,才能使用全流量分析服务。
        来自:
        帮助文档
        托管检测与响应服务(原生版)
        产品介绍
        使用限制
      • 分布式消息服务Kafka服务等级协议(新)
        自2021年11月11日起,新版分布式消息服务Kafka服务等级协议(SLA)生效。详情请参见这里。
        来自:
        帮助文档
        分布式消息服务Kafka
        相关协议
        分布式消息服务Kafka服务等级协议(新)
      • 事件告警规则:创建(1)
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b name 是 String 规则名 ctyunrule desc 否 String 描述 demo service 是 String 本参数表示服务。取值范围: ecs:云主机。 evs:云硬盘。 pms:物理机。 ... 云监控服务,具体服务参见 ecs dimension 是 String 本参数表示告警维度。取值范围: ecs:云主机。 disk:磁盘。 pms:物理机。 ... 云监控服务,具体服务参见 ecs repeatTimes 否 Integer 重复告警通知次数,默认为0,当repeatTimes值为1,代表无限重复。 0 silenceTime 否 Integer 告警接收策略静默时间,多久重复通知一次,单位为秒 300 recoverNotify 否 Integer 本参数表示恢复是否通知。默认值0。取值范围: 0:否。 1:是。 根据以上范围取值。 0 notifyType 否 Array of Strings 本参数表示告警接收策略。取值范围: email:邮件告警。 sms:短信告警。 根据以上范围取值。 ['email','sms'] contactGroupList 否 Array of Strings 告警联系人组 ['000f03221f4d8cc8bb2e1c30fb751ccc'] notifyWeekdays 否 Array of Integers 本参数表示通知周期。默认值[0,1,2,3,4,5,6]。取值范围: 0:周日。 1:周一。 2:周二。 3:周三。 4:周四。 5:周五。 6:周六。 根据以上范围取值。 [0,1,2,3,4,5,6] notifyStart 否 String 通知起始时段,默认为00:00:00 00:00:00 notifyEnd 否 String 通知结束时段,默认为23:59:59 23:59:59 webhookUrl 否 Array of Strings webhook消息推送url地址 [' projectID 否 String 项目ID 0 conditions 是 Array of Objects 具体匹配策略 condition resources 是 Array of Objects 资源信息列表 resources resourceScope 否 Integer 规则的资源范围,默认值0,取值范围: 0:实例资源类型。 1:资源分组类型。 2:全部资源类型 。 根据以上范围取值。 0 defaultContact 否 Integer 是否使用天翼云默认联系人接收通知,默认值0,取值范围: 0:否。 1:是。 根据以上范围取值。 0
        来自:
      • 天翼云弹性负载均衡服务等级协议
        天翼云为您提供弹性负载均衡服务等级协议,请您点击查看。 天翼云弹性负载均衡服务等级协议
        来自:
        帮助文档
        弹性负载均衡 ELB
        相关协议
        天翼云弹性负载均衡服务等级协议
      • 服务流程
        本小节介绍渗透测试的服务流程,帮助您了解服务开展过程。 渗透测试服务以人工服务为主,我们的渗透测试人员在取得您的授权后,将对目标系统进行全面的渗透测试工作,总体流程如下: 1. 客户订购与需求匹配的服务规格并下单付款。 2. 客户经理会与您取得联系,协助您完成《业务需求单》及《渗透测试授权书》的填写,您需要如实填写以下内容: 域名备案信息比对,必须为真实、合法信息。 被检测的IP主机信息。 如您为天翼云托管用户,需要提供域名清单,解析后必须为天翼云主机IP,才可提供渗透测试服务。 您所提供的应用URL描述须写明功能是什么或用途是什么。 业务接口人联系方式,您需提供一个具有对渗透测试方案及渗透测试过程中出现的问题有决定权的业务接口人联系人。 如您有安全防护设备,应在渗透测试开始阶段将渗透测试所用的公网IP加入安全防护设备白名单,避免因渗透测试工作带来的告警。(如在渗透测试开始阶段客户未将渗透测试所用的公网IP加入安全防护设备白名单,由此产生的告警及对渗透测试结果的影响,我方不承担责任。) 您需签订渗透测试授权书。 3. 我们会根据您提供的信息,与您进行沟通,编写渗透测试方案,并与您确认测试细节,双方确认无误后,将进入渗透测试环境,渗透测试工作主要包含如下步骤: 明确目标:确定渗透测试的范围,如IP、域名、内外网、整站或部分模块,确定规则,如能渗透到什么程度,是发现漏洞为止还是继续利用漏洞,确定需求,如Web应用的漏洞,业务逻辑漏洞,人员权限管理漏洞。 信息收集:在信息收集阶段要尽量收集关于项目软件的各种信息,例如,对于一个Web应用程序,要收集脚本类型、服务器类型、数据库类型以及项目所用到的框架、开源软件等。 漏洞探测:进行漏洞探测,包括手动和自动探测。 漏洞验证:对探测出的漏洞进行验证,确定其真实存在。 信息分析:对收集到的信息进行分析,尝试利用漏洞获取数据。 利用漏洞获取数据:如果能够利用漏洞获取数据,则进行数据获取。 信息整理:对获取到的数据进行整理,方便后续分析。 形成报告:根据渗透测试的实际情况,形成详细、专业的报告。 4. 形成报告后,我们会将报告发送给您,您可以根据报告内容,发现系统漏洞,及时加固完善。 以上为渗透测试的基本服务流程,如您在服务过程中有任何问题,请您与客户经理联系并反馈,我们会尽快为您处理。
        来自:
        帮助文档
        渗透测试
        用户指南
        服务流程
      • 配置升级-服务配置修改建议
        本章节主要介绍配置升级后的服务配置修改建议。 操作场景 当节点组内ECS实例的规格(vCPU和内存)无法满足您的业务需求时,您可以使用配置升级功能提升ECS实例规格。升级配置后需要手动修改HDFS、YARN和Spark等服务的配置信息。本文为您介绍如何在翼MR Manager的“配置管理”页面修改配置项。 前提条件 已创建集群。 操作步骤 1. 在翼MR Manager中,单击“运维与配置”。 2. 单击“配置管理”。 3. 选择“所选集群服务”,点击查询,即可在当前页面修改配置信息。 配置修改建议说明 1. Doris:Doris所在节点配置升级后,Doris FE建议使用节点一半内存。 2. Elasticsearch:一个Elasticsearch节点,内存建议不超过64G。Elasticsearch所在节点配置升级后,Elasticsearch会自动根据节点情况设置内存值,一般无须用户手动修改,但需要重启集群。如果想手动设置,可以修改jvm.options文件配置Xms30g、Xmx30g参数,并重启集群。 3. HBase:HBase所在节点配置升级后,修改建议如下: hbasesite.xml:hbase.regionserver.handler.count 说明 :一般跟CPU核数相同。 hbaseenv.sh:export HBASEMASTEROPTS :"Xmsg Xmxg" 说明 :master不消耗很多内存,一般默认不添加或者分配2~8G左右。 hbaseenv.sh:export HBASEREGIONSERVEROPTS:"Xmsg Xmxg " 说明 :regionserver需要较多内存,一般配置内存配额的一半或更多。 4. HDFS:HDFS所在节点配置升级后,可以根据hadoopenv.sh 参数配置进行,通过调整服务的内存大小调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。NameNode 建议文件、目录、数据块之和1亿,配置50G。 5. Hive:Hive所在节点配置升级后,可以通过hiveenv.sh统一参数配置来进行,也可以在作业提交时使用额外参数指定来进行。通过调整服务的内存大小调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。内存大小可以根据机器的总内存而定,建议初始值为总内存大小的10%,后续根据性能需求调整。 6. Kafka:Kafka所在节点配置升级后,建议配置如下: kafkaenv.sh设置jvm配置参数:调整jvm堆大小,通过调整参数:export KAFKAHEAPOPTS"Xmx20G Xms20G Xmn4g"设置堆大小。 server.properties文件建议修改的配置项: num.io.threads:修改写磁盘的线程数,建议配置为CPU核数的50%; num.replica.fetchers:修改副本拉取线程数,建议配置为CPU核数50%的1/3; num.network.threads:修改数据传输线程数,建议配置为CPU核数的50%的2/3; replica.fetch.max.bytes:副本拉取数据量的大小。内存增加,可以适当加大该值; socket.send.buffer.bytes:调整socket发送的数据量。内存增加,可以适当加大该值; socket.receive.buffer.bytes:调整socke接受的数据量。内存增加,可以适当加大该值; socket.request.max.bytes:socket请求的数据量。内存增加,可以适当加大该值。 7. Kerberos:建议保持默认值,无需修改配置。 8. Kibana:Kibana是一个基于NodeJS的单页web应用,一般情况下,对内存CPU占用很少,无须修改内存、CPU等配置。 9. Kyuubi:Kyuubi一般情况下,对内存CPU占用很少,无须修改内存、CPU等配置。 10. OpenLDAP:建议保持默认值,无需修改配置。 11. Ranger:Ranger所在节点配置升级后,修改建议如下: rangeradmin通过{installdir}/ews/rangeradminservices.sh中变量 rangeradminmaxheapsize的值修改JMX,JAVAOPTS修改Xmx、Xmn等JVM参数,一般设置18g,1K policy建议设置为1G,1W policy建议设置为8G。 rangerusersync通过/{installdir}/rangerusersyncservices.sh中变量rangerusersyncmaxheapsize 的值修改JMX,JAVAOPTS修改Xmx Xmn等JVM参数,一般设置18g,1K policy建议设置为1G,1W policy建议设置为8G。 12. Spark:Spark所在节点配置升级后,修改建议如下: spark.history.kerberos.principal和spark.history.kerberos.keytab为spark读写eventLog的租户,用户如有特殊需求自行更改。 spark.yarn.historyServer.address:说明了history server的地址,用户如有特殊需求自行更改。 spark.dynamicAllocation.enabled 和 spark.dynamicAllocation.maxExecutors 分别控制动态和动态开启下能使用的最大资源,用户如有特殊需求自行更改。 spark.executor.cores 和 spark.executor.memory 确保spark.executor的每一个core分配到2~4g内存,标准是4g,具体视情况而定,设置core的memory设置过小executor容易oom。 13. Trino:Trino的服务包括coordinator和worker。Trino所在节点配置升级后,可以根据jvm.config参数配置进行,通过调整服务的内存大小调整服务的性能,如Xmx128g Xms128g,然后重启服务。 14. YARN:YARN所在节点配置升级后,可以根据yarnenv.sh 参数配置进行,通过调整服务的内存大小来调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。NM用于集群中作业的内存和CPU,需要修改NM节点的yarnsite.xml中的yarn.nodemanager.resource.memorymb的值,该值用于所有作业的最多可用内存;以及yarn.nodemanager.resource.cpuvcores的值,该值用于所有作业的最多可用虚拟CPU核数。 15. ZooKeeper:ZooKeeper所在节点配置升级后,可通过配置java.env文件,在其中添加:export ZKSERVERHEAP2048(这里设置的单位默认是MB)。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        配置升级-服务配置修改建议
      • 远程桌面连接Windows云主机报错:没有远程登录的权限
        本文主要介绍远程桌面连接Windows云主机报错:没有远程登录的权限怎么操作。 问题描述 远程桌面连接时提示需要具有通过远程桌面服务进行登录的权限。 图 缺失远程登录权限 处理方法 1.打开cmd运行窗口,并输入“gpedit.msc”。 2.单击“确定”,打开“本地组策略编辑器”。 3.选择“计算机配置 > Windows设置 > 安全设置 > 本地策略 > 用户权限分配”。 a.查找并双击“允许通过远程桌面服务登录”。确保已添加“Administrators”和“Remote desktop users”。 图 允许通过远程桌面服务登录 b.查找并双击“拒绝通过远程桌面服务登录”。如果里面有Administrator账号,请删除。 图 拒绝通过远程桌面服务登录
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        Windows远程登录报错类
        远程桌面连接Windows云主机报错:没有远程登录的权限
      • 解绑弹性IP
        前提条件 只有已绑定云资源的弹性IP地址才可以进行解绑操作。 操作须知 绑定云资源的弹性IP,有些需要到对应的云资源页面进行解绑。 弹性IP解绑后不会暂停收费。 操作步骤 1. 登录控制台,在服务列表中点击“弹性IP”按钮。 2. 在弹性IP列表找到待解绑的弹性IP地址,单击操作列中的“解绑”按钮。 3. 在弹出的提示框中单击“确定”完成解绑。 如果您要从物理机服务解绑弹性IP地址,操作步骤如下: 1. 进入控制台,在服务列表点击“物理机服务”按钮。 2. 在物理机服务列表找到要解绑弹性IP的物理机,点击实例名称,进入到该物理机详情页。 3. 找到弹性IP,点击操作列的“解绑”按钮,在弹出的提示框中选择“确定”即可完成解绑。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        网络
        弹性IP
        解绑弹性IP
      • 1
      • ...
      • 69
      • 70
      • 71
      • 72
      • 73
      • ...
      • 520
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      一站式智算服务平台

      知识库问答

      人脸属性识别

      推荐文档

      专属云到期提醒

      应用场景

      重置操作系统

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号