云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼企云_相关内容
      • 阿里云OSS数据迁移到OOS
        本节主要介绍如何将数据从阿里云OSS迁移到OOS中。 应用场景 将数据从阿里云OSS的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从阿里云OSS迁移到OOS的文件,仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问阿里云OSS资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:OSS,代表阿里云。 srcEndpoint为阿里云Bucket的Endpoint,您可在阿里云控制台Bucket概览中进行查看。 OSS AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"OSS", 从阿里云迁移文件 "srcEndpoint":"osscnhangzhou.aliyuncs.com", 阿里云的Endpoint,请根据实际填写 "srcAccessKey":"your oss accessKey",阿里云的AccessKey "srcSecretKey":"your oss secretKey", 阿里云的SecretKey "srcBucket":"ossbucket", 阿里云的Bucket "srcPrefix":"logs/", 阿里云上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", 阿里云上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        阿里云OSS数据迁移到OOS
      • 查看云服务监控指标
        云监控服务基于云服务自身的服务属性,已经内置了详细全面的监控指标。当您在云平台上开通云服务后,系统会根据服务类型自动关联该服务的监控指标,帮助您实时掌握云服务的各项性能指标,精确掌握云服务的运行情况。 本章节指导用户如何查看云服务资源的监控数据,若发现有异常时可以及时处理。 操作步骤 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 单击页面左侧的“云服务监控 > 云服务名称 ”。 进入“云服务监控”页面。 4. 选择待查看的云服务资源所在行的“查看监控指标”。 进入“监控指标”页面。 您可以选择页面左上方的时间范围按钮,查看该云服务资源“近1小时”、“近3小时”、“近12小时”、“近24小时”和“近7天”的监控原始数据曲线图,同时监控指标视图右上角会动态显示对应时段内监控指标的最大值与最小值。您也可以打开自动刷新开关来查看每分钟刷新的实时数据。 说明 监控图表中单位为字节和字节每秒的指标支持单位切换。单位切换时,当最大值小于10^(5)时,会出现最大值和最小值同时为0的情况,并且监控图表数据全为0。 打开“自动刷新”开关,可每分钟自动刷新一次数据。 通过搜索框,您可以查找特定指标。 部分服务支持查看资源详情,您可以通过单击页面上方的“查看资源详情”按钮来查看被监控资源的详细信息。 5. 鼠标滑动到对应指标后,单击指标视图右上角的图标。 进入监控详情页面。 监控详情页面提供更长时间范围的指标情况。您可以查看“近1小时”、“近3小时”、“近12小时”、“近24小时”、“近7天”和“近30天”6个固定时长的监控周期,同时也支持以通过“自定义时间段”选择查看近六个月内任意时间段的历史监控数据。 说明 “近1小时”、“近3小时”、“近12小时”、“近24小时”的监控数据:系统默认显示原始数据。您可以选单击页面左上方的“设置”,对监控数据的聚合方法进行更改。 “近7天”、“近30天”的监控数据:系统默认显示聚合后的数据。您可以选单击页面左上方的“设置”,对监控数据的聚合方法进行更改。 6. 在监控视图右上角,单击 ,可创建针对该指标的告警规则。 7. 若需要导出数据,可在云服务监控页面单击“导出监控数据”,跟据界面提示选择参数后单击“导出”完成导出数据。
        来自:
        帮助文档
        云监控服务
        快速入门
        查看云服务监控指标
      • 内网访问
        本节介绍了内网访问的用户指南。 背景 为了优化用户体验,容器镜像服务现已支持内网访问功能。通过此功能,您可以在指定的虚拟私有云 (VPC) 内建立一条内网访问通道,实现从该 VPC 内网直接访问容器镜像服务。 启用内网访问后,将在您选择的 VPC 中自动完成以下配置: 创建 VPC 终端节点 (VPCE): 用于建立 VPC 与容器镜像服务公共 VPC 服务之间的内网连接。 配置内网DNS解析:确保 VPC 内的实例能够通过容器镜像服务的内网域名正确解析到VPCE地址。 操作步骤 1. 登录容器镜像服务控制台。 2. 在左侧导航栏,点击内网访问。 首次使用授权:如果您是第一次使用内网访问功能,系统会提示您进行授权委托。这是为了允许容器镜像服务在您的 VPC 内创建必要的网络资源。请仔细阅读授权内容,确认并完成授权。授权成功后,系统将为您创建一个名为 CtyunAssumeRoleForCRS 的服务委托。 3. 选择需要接入的 VPC。 您可以根据实际需求选择以下方式接入 VPC: 单个 VPC 接入: 在 VPC 列表中,找到您需要开通内网访问的 VPC,点击该 VPC 所在行的接入按钮。默认选择该VPC的第一个子网创建VPCE,如需指定子网创建VPCE,可下拉子网列表进行选择。 批量 VPC 接入: 如果您需要为多个 VPC 同时开通内网访问,可以勾选多个 VPC,然后点击列表上方的 批量接入按钮。默认选择每个VPC的第一个子网创建VPCE,如需指定子网创建VPCE,可下拉子网列表进行选择。 4. 取消 VPC 接入 (可选): 如果您需要取消某个已接入内网访问的 VPC,可以找到该 VPC,点击其所在行的取消接入按钮。 注意 由于创建 VPC 终端节点需要一定时间,接入过程可能需要稍作等待。如果遇到提示 “VPCE 创建中,请稍后重试发起请求,以继续创建内网 DNS 记录” 的报错信息,请稍等片刻后点击 批量重试 按钮,系统将继续为您完成接入操作。
        来自:
      • 流量治理
        本章节介绍网关治理中的流量治理功能 标签路由 标签路由是将每个服务打上一个标签,通过标签将标签相同的服务分为同一个分组,然后约束流量在同一个分组内流转,以此实现灰度发布、金丝雀发布、蓝绿发布等功能。 版本限制 框架 限制 详情 Spring Cloud Spring Cloud Edgware及以上版本 客户端:Feign、RestTemplate 负载均衡:Ribbon、LoadBalancer Dubbo 2.5.3~2.7.8 支持Alibaba Dubbo、Apache Dubbo 注册中心 Nacos、Eureka、Zookeeper jdk版本 1.8+ 应用场景 A/B测试 在营销活动中,经常会有A/B测试,A/B测试是为了测试不同的规则对业务的影响,所以一个应用会有多个版本同时运行,可以通过标签的方式区分不同的版本,对不同版本的应用进行流量隔离,将特殊用户的流量路由到特殊版本,从而实现A/B测试。 开通标签路由 步骤1:应用设置标签。 为云容器引擎集群应用设置标签,为应用容器添加环境变量MSESERVICETAGgray。 为ECS应用设置标签,在启动应用时,添加JVM启动参数Dctgcloud.service.taggray。 步骤2:在微服务治理中心控制台创建标签路由。 登录微服务治理中心控制台。 在左侧导航栏选择 微服务治理中心 >网关治理。 在网关治理页面单击目标应用卡片。 在网关页面左侧导航栏选择流量治理 标签路由,查看服务标签。 在标签路由页点击流量分配,为标签按比例分配流量。 在标签路由页的流量规则栏新增流量规则。 流量规则参数说明: 参数 说明 路由名称 路由规则的名称。 应用 所选的应用。 标签 设置的标签名。 应用实例 设置了该标签的实例ip。 是否链路传递 代表开启全链路流控。 框架类型 Spring Cloud Dubbo。 Path SpringCloud为path路径,Dubbo为接口。 条件模式 满足一个条件,或者满足所有条件。 条件列表 可以设置Header、Cookie、Parameter和Body Content四种参数类型。 是否开启流量规则 流量规则开关。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        网关治理
        流量治理
      • 产品定义
        本章节介绍应用容灾多活的产品定义。 产品定义 应用容灾多活包含架构加管控的解决方案,提供引导式的应用架构改造接入和一站式的云产品协同管理,实现应用异地集群间日常态的流量分发多活以及容灾态的数据一致性保障,助力企业的容灾稳定性建设,提升客户应用的业务连续性。 容灾的不同等级 容灾的基本方式,是在生产站点以外建立冗余站点,灾难发生后,冗余站点可以接管用户正常的业务,达到业务不间断的目的。按照容灾系统对应用系统的保护程度可以分为数据级容灾、应用级容灾和业务级容灾。 数据级容灾:仅将生产中心的数据复制到容灾中心,在生产中心出现故障时,仅能实现存储系统的接管或数据的恢复。基于数据级容灾实现业务恢复的速度较慢,需要在容灾站点恢复数据实例和部署应用,通常情况下RTO在天级别。 应用级容灾:在数据级容灾的基础上,增加对生产中心系统的基本复制,容灾中心建立起一套和本地生产环境相当的备份环境,包括主机、网络、应用等资源。当生产系统发生灾难时,异地系统可以提供完全可用的生产环境,应用级容灾的RTO通常在小时级别。 业务级容灾:容灾中心具备业务系统的完全复制,生产中心与容灾中心对业务请求同时进行处理,故障时只需切换业务流量,能够确保业务持续可用。采用这种方式,业务恢复过程的自动化程度高,RTO可以做到分钟级别。 灾备容灾建立在数据级和应用级容灾基础之上,在异地冗余一套应用系统的部分或全部备份,平时不对外提供服务,根据备份时效和颗粒度不同,业务在灾难发生时按照约定的时间和版本恢复运行。 多活容灾是业务级容灾,应用系统分布在多个站点同时对外提供服务,与灾备模式相比拥有更高的资源利用率和系统扩展性,当灾难发生时,多活系统可以实现分钟级业务流量切换,用户甚至感受不到灾难发生。
        来自:
        帮助文档
        应用高可用
        产品简介
        应用容灾多活
        产品定义
      • 管理集群访问域名
        创建公网域名 创建集群时默认不绑定弹性IP,即不启用公网访问集群。集群创建成功后,如果用户想通过公网访问集群,可以先为集群绑定弹性IP再创建公网域名。 说明 默认情况下,只有云帐号或拥有Security Administrator权限的用户才具备查询委托和创建委托的权限。帐号中的IAM用户,默认没有查询委托和创建委托的权限,在使用弹性IP绑定功能时页面会屏蔽绑定按钮,此时需联系有“DWS Administrator”权限的用户在当前页面完成对DWS的委托授权。 创建公网域名的操作步骤如下: 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“集群管理”。 3.在集群列表中找到所需要的集群,然后单击集群名称,进入“集群详情”页面。 4.在“连接信息”区域下,“公网域名”和“公网IP”显示为空,单击“绑定弹性IP”为集群绑定弹性IP。 5.在“绑定弹性IP”弹出窗的下拉框中,选择一个弹性IP。 如果下拉框中没有可用的弹性IP,可以单击“查看弹性IP”进入弹性公网IP页面创建一个满足需要的弹性IP。新的弹性IP创建成功后,单击下拉框旁边的刷新图标按钮,“弹性IP地址”下拉框中就会出现新创建的弹性IP。 弹性IP绑定成功后,在“连接信息”区域下显示具体的公网IP。 6.在“连接信息”区域下,单击“公网域名”旁边的“创建”为集群创建公网域名。 7.在“申请公网域名”弹出窗口中,输入目标域名,单击“确定”。 公网域名由字母、数字和中划线组成,以大小写字母开头,长度为4~63个字符。 公网域名创建成功后,在“连接信息”区域下显示具体的公网域名。单击复制按钮,可以复制公网域名。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        管理集群访问域名
      • 相关术语解释
        本文介绍实时云渲染的相关专业术语。 区域 区域( Cluster Zone ):区域是一个或多个物理数据中心的集合,有独立的风火水电,逻辑上将计算、网络、存储等资源划分成多个集群。 目前,云渲染已在全国多个地域开放云渲染服务,您可以根据业务集中访问范围选择开通指定区域。 云渲染 通过实时渲染技术将应用内容的图形数据(顶点,颜色,纹理等)进行实时计算及输出。 资产 通过UE、Unity等渲染引擎打包输出的ZIP/RAR文件,是您3D、XR应用运行的应用包体。 渲染实例 渲染实例代表着一系列虚拟计算资源的集合,包含CPU、带宽、磁盘、GPU,云渲染平台发布的应用将会在云渲染GPU实例上运行,云渲染支持按需、包年包月两种方式开通使用渲染实例。 终端 终端是与计算机系统相连的一种输入输出设备,具备文件传输、远程计算功能,如手机、VR头盔、PC设备等等,用户可通过不同终端设备远程访问云端应用。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        产品简介
        相关术语解释
      • 云服务监控简介
        应用场景 云服务监控可收集云服务内置监控指标的数据,您可以通过监控这些指标来跟踪对应云服务状态。除了查看监控数据,您还可以在云服务监控页面创建告警规则和导出原始监控数据。 功能特性 查看监控指标:在监控指标页面上,您可以查看基于 1h、3h 、12h和 24h 收集的原始数据的图表。您可以自定义选择要查看的监控指标,数据可实现自动刷新。 创建告警规则:用户对云服务的核心监控指标设置告警规则,当监控指标触发用户设置的告警条件时,支持以邮箱、短信、等方式通知用户,让用户在第一时间得知云服务发生异常,迅速处理故障,避免因资源问题造成业务损失。 导出监控数据:云服务监控支持您在所选的区间和周期内最多同时导出10个监控项,导出的监控报告中包含用户名、Region名称、服务名称、实例名称、实例ID、指标名称、指标数据、时间、时间戳,查询和筛选更加方便。
        来自:
        帮助文档
        云监控服务
        用户指南
        云服务监控
        云服务监控简介
      • 简介
        本节介绍天翼云电脑大屏客户端支持的系统、浏览器版本,以及下载地址。 前言 欢迎广大用户下载安装天翼云电脑全新视觉客户端,当前文档适用于新版的Windows客户端,Mac客户端,Ubuntu瘦终端,安卓瘦终端,国产化终端(银河麒麟/统信UOS)的使用帮助。旧版客户端则使用旧版本帮助手册。 客户端支持的最低系统版本 天翼云电脑客户端支持Windows,MacOS 10.14,Android7.0,iOS10、Ubuntu18,UOS V20,Kylin V10等以上系统版本。 Web客户端接入的最低浏览器版本 支持Chrome70+、Firefox72+、edge、UOS 5.2.1200+、奇安信1.0.1365+等浏览器接入。Web客户端访问地址:< 下载云电脑 请前往天翼云电脑下载页,下载安装云电脑客户端。 注意 如需体验Linux系统的云电脑客户端,请发送邮件至clouddesktop@chinatelecom.cn进行申请。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南
        简介
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 产品优势
        本节介绍天翼云电脑(公众版)的产品优势。 自主领先,畅游云端 自研的CLINK安全传输协议,低延时、高画质、带宽占用少,弱网环境下也可畅快使用。 随时随地,便捷访问 用户通过终端云电脑应用即可快速访问调取云端资源,随时随地享受数据共享、移动办公、休闲娱乐等功能。 即开即用,灵活易用 无需配置,开通即可立即使用,弹性使用云电脑资源,满足日常办公、重度使用等使用场景需要。 说明 关于天翼云电脑(公众版)的产品规格说明,请参考 关于天翼云电脑(公众版)的产品功能说明,请参考 关于天翼云电脑(公众版)的客户端下载,请前往
        来自:
        帮助文档
        天翼云电脑(公众版)
        产品介绍
        产品优势
      • 修改ACL规则
        本文帮助您快速熟悉ACL规则的修改操作流程。 使用场景 当您的应用场景发生变化时,可以修改ACL规则帮助您更好地控制网络访问,您需谨慎修改规则,确保修改后的规则能够满足实际需求并提高网络的安全性和可控性。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成网络ACL的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面。 4. 在左侧导航栏,选择“访问控制ACL”选项。 5. 在“ACL”界面,找到目标网络ACL,单击网络ACL的名称。 6. 进入“ACL”详情页面,点击操作列的“修改”按钮。 7. 根据页面相关提示可以对ACL规则的配置信息进行修改。 8. 具体参数配置如下: 参数 说明 优先级 网络ACL规则的优先级,优先级的数值越小,表示优先级越高。为默认的规则,优先级最低。默认规则仅多可用区资源池适用。 策略 选择入方向规则的授权策略:允许:允许访问子网中云服务器。拒绝:拒绝访问子网中云服务器。 协议 选择协议类型,支持以下几种协议:ALL:所有协议。ICMP:网络控制报文协议。TCP:传输控制协议。UDP:用户数据报协议。 源地址 此方向允许的源地址,默认值为0.0.0.0/0,代表支持所有的IP地址。 目的地址 此方向允许的目的地址,默认值为0.0.0.0/0,代表支持所有的IP地址。 源端口范围 源端口范围,取值范围是1~65535的数字。选择TCP或UDP协议时必须填写。 目的端口范围 目的端口范围,取值范围是介于1~65535的数字。选择TCP或UDP协议时必须填写。 描述 网络ACL规则的描述信息,非必填项。 注意 1. 对于地域资源池来说,创建ACL时需要指定子网与ACL的关联关系。修改规则时,入方向规则不支持自定义目的地址,出方向规则不支持自定义源地址。 2. 对于可用区资源池来说,修改规则时,出/入方向均支持自定义源/目的端口。
        来自:
        帮助文档
        虚拟私有云 VPC
        网络ACL
        修改ACL规则
      • 工单申请
        本小节主要介绍如何创建工单。 当运维用户不具备某些资源访问控制权限时,可主动提交工单,申请相应资源访问控制权限。 约束条件 已被纳入审批规则的用户名单内。 创建工单 1. 使用运维用户登录云堡垒机。 2. 在左侧导航栏选择“工单管理 > 工单申请”,进入工单申请页面。 3. 单击左上角的“新增”按钮,弹出“工单申请”对话框。 4. 在弹出的对话框中输入相关信息,具体填写参数可以参考下表,填写完成后单击“提交”。 参数 说明 基本信息 工单名称 输入您待提交工单的名称。 基本信息 工单类型 选择需要授权的工单类型,根据业务需求选择如下四种类型: 资产访问授权 字符命令授权 文件传输授权 数据库命令授权 资产 资产 选择您需要访问的资产或者命令,可多选。 资产 资产组 选择您需要访问的资产组,可多选。 账号 资产账号 选择您需要授权的资产账号。 注意 若选择授权的资产账号为二次登录账号(例如root),需同时授权二次登录的源账号(例如添加root资产账号时配置的二次登录源账号testuser),否则将无法完成二次登录。 协议 服务 (仅工单类型选择“资产访问授权”时需要配置)默认全部服务,也支持选择单个服务。 敏感命令 提示符正则 (仅工单类型选择“字符命令授权”时需要配置)输入待授权命令的提示符正则式。 敏感命令 命令正则式 (仅工单类型选择“字符命令授权”时需要配置)输入待授权命令的正则式。 敏感命令 文件传输 (仅工单类型选择“文件传输授权”时需要配置)选择需要授权的文件传输操作,包括上传、下载、删除等。 敏感命令 文件或目录 (仅工单类型选择“文件传输授权”时需要配置)配置策略生效的文件或目录的正则表达式,可配置多个,多个以回车进行分隔。 敏感命令 sql命令类型 (仅工单类型选择“数据库命令授权”时需要配置)选择需要授权的SQL命令类型。 授权时间 生/失效日期 配置权限生效的起始和截止日期。 支持选择1天、3天、7天、15天、长期有效,或者自定义选择日期。 授权时间 生/失效时间 配置权限生效的具体时间点。 支持选择全天、闲时(0点6点),或者自定义时间。 其他 描述 填写申请工单的相关描述。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        运维使用手册
        工单管理
        工单申请
      • 创建LoadBalance类型Service
        本文介绍如何创建LoadBalance类型Service。 Serverless集群支持将Service通过负载均衡ELB向外暴露, Serverless集群内置CCM(Cloud Controller Manager)插件,当Service的类型为LoadBalancer时,CCM插件会为Service配置负载均衡,并根据Service信息配置好负载均衡的后端服务器组、健康检查和监听规则等,使得用户可以通过负载均衡访问该Service。以下是使用负载均衡的步骤指引。 使用已有负载均衡暴露服务 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 在本地使用命令之前,需要先通过kubectl连接Kubernetes集群。 您已提前在负载均衡控制台创建ELB实例,ELB实例需要与Service所在的Serverless集群在同一个VPC网络下。 注意事项 不同Service可以同时复用同一个负载均衡实例,复用同一个负载均衡实例需要避免不同Service使用相同的服务端口,否则存在监听配置被覆盖的情况。 不能复用由CCM自动创建的或集群ApiServer使用的负载均衡实例。 当Service删除时,使用已有的负载均衡不会被删除。 操作步骤 1. 登录云容器引擎控制台,点击进入想要操作的Serverless集群,在左侧菜单选择“网络”>“服务”。 2. 点击“创建服务”按钮新建服务,按照参数说明配置相关的参数: 1. 类型:选择负载均衡。 2. 负载均衡:可根据业务需要选择私网访问或公网访问,集群内或同一VPC内访问建议选择私网访问即可;选择“使用已有负载均衡”;负载均衡实例列表会根据选择的私网/公网访问方式显示出对应的实例,选择想要使用的负载均衡实例即可。 3. 标签:根据需要可以为服务配置标签。 4. 注解:根据需要可以为服务配置注解。 5. 外部流量策略:Cluster或Local。默认Cluster即可。 6. 健康检查:根据需要可以配置全局或自定义检查,默认不启用。 7. 端口映射:配置好协议、容器端口及服务端口,其中容器端口为应用本身暴露的端口,服务端口则会作为负载均衡实例的监听端口。 8. 工作负载绑定:选择服务要关联的工作负载,也可以配置自定义标签关联。 3. 创建服务后,在服务列表可以看到该服务,通过服务的集群外访问地址即可以访问该服务。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service管理
        创建LoadBalance类型Service
      • 电源与时间策略管理
        删除电源策略 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“策略管理”,点击“电源策略管理”,在电源策略管理列表中,点击【删除】按钮,弹出确认框,点击【确定】按钮。 如果策略已被AI云电脑绑定,系统会提示“当前电源策略被AI云电脑或AI云电脑池使用,不允许删除”。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        策略管理
        电源与时间策略管理
      • 电源与时间策略管理(1)
        删除电源策略 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“策略管理”,点击“电源策略管理”,在电源策略管理列表中,点击【删除】按钮,弹出确认框,点击【确定】按钮。 如果策略已被AI云电脑绑定,系统会提示“当前电源策略被AI云电脑或AI云电脑池使用,不允许删除”。
        来自:
      • 控制台总览
        本节介绍天翼云电脑(政企版)管理台的总览情况。 开通AI云电脑服务后,在“总览”页面,可查看我的资源概览,以及登录状态:在线AI云电脑,AI云电脑总数,在线用户数,用户总数,今日活跃排行,最新公告等信息。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        控制台总览
      • 创建告警规则
        您可以根据需要设置并行文件的告警,本文帮助您了解HPFS的监控告警相关操作。 操作场景 通过使用云监控的告警功能,用户可以对并行文件服务的核心监控指标设置告警规则,当监控指标触发用户设置的告警条件时,支持以邮箱、短信等方式通知用户,让用户在第一时间得知云服务发生异常,迅速处理故障,避免因资源问题造成业务损失。更多信息,请参考使用告警功能云监控服务用户指南。 操作步骤 方式一:通过云监控服务控制台创建告警规则 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 单击“管理与部署>云监控服务”,进入云监控控制台页面。 3. 单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面。 4. 可通过以下三个入口,创建告警规则: 入口一:您可以选择在“云服务监控>并行文件监控”页,在目标文件系统的“操作”栏下点击“创建告警规则”,选择需要告警服务的监控指标创建规则,包括监控阈值、通知频率、通知方式等。 入口二:在“云服务监控>并行文件监控”页面,在目标文件系统的“操作”栏下点击“查看监控图表”,进入文件系统的监控详情页,目标监控项图表右上方,点击“+”创建此监控项的告警规则。 入口三:单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面,页面右上方点击“创建告警规则”,选择“监控服务:并行文件”,然后选择文件系统名称、监控维度、实例、指标等参数,创建相应的告警规则。 5. 根据界面提示,选择了并行文件系统为监控对象后,配置告警规则的相关指标,配置参数参见[创建告警规则](
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        监控告警
        创建告警规则
      • ELB权限
        本文主要介绍ELB的权限。 如果您需要对云上创建的弹性负载均衡资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云上资源的访问。详请请参见统一身份认证。 通过IAM,您可以在云帐号中给员工创建IAM用户,并使用策略来控制他们对云上资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有ELB的使用权限,但是不希望他们拥有删除负载均衡器等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用负载均衡器,但是不允许删除负载均衡器的权限策略,控制他们对ELB资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用ELB服务的其它功能。 ELB权限 默认情况下,帐号管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 ELB部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该策略仅对此项目生效,如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问ELB时,需要先切换至授权区域。 根据授权精度程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云上各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 ELB系统权限表 系统角色/策略名称 描述 类型 ELB FullAccess 操作权限:对弹性负载均衡服务的所有执行权限。作用范围:项目级服务。 系统策略 ELB ReadOnlyAccess 操作权限:对弹性负载均衡服务的只读权限。作用范围:项目级服务。 系统策略 常用操作与系统策略的关系 操作 ELB FullAccess ELB ReadOnlyAccess 创建负载均衡器 √ × 查询负载均衡器 √ √ 查询负载均衡器状态树 √ √ 查询负载均衡器列表 √ √ 更新负载均衡器 √ × 删除负载均衡器 √ × 创建监听器 √ × 查询监听器 √ √ 修改监听器 √ × 删除监听器 √ × 创建后端主机组 √ × 查询后端主机组 √ √ 修改后端主机组 √ × 删除后端主机组 √ × 创建后端主机 √ × 查询后端主机 √ √ 修改后端主机 √ × 删除后端主机 √ × 创建健康检查 √ × 查询健康检查 √ √ 修改健康检查 √ × 关闭健康检查 √ × 创建弹性公网IP × × 绑定弹性公网IP × × 查询弹性公网IP √ √ 解绑弹性公网IP × × 查看监控指标 × × 查看访问日志 × ×
        来自:
        帮助文档
        弹性负载均衡 ELB
        权限管理
        ELB权限
      • 运行Kafka作业
        本章节主要介绍如何运行Kafka作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在Kafka主题中产生和消费消息。 暂不支持通过界面提交Kafka作业,请通过后台功能来提交作业。 通过后台提交作业 先查询ZooKeeper和Kafka的实例地址,再运行Kafka作业。 查询实例地址(3.x版本) 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.请参考访问FusionInsight Manager(MRS 3.x及之后版本),跳转至FusionInsight Manager页面。然后选择“服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 4.选择“服务 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 查询实例地址(3.x之前版本) a. 登录MRS管理控制台。 b. 选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 c. 在MRS集群详情页面,选择“组件管理 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 d. 选择“组件管理 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 运行Kafka作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.在集群信息页面的“节点管理”页签中单击Master2节点名称,进入弹性云主机管理控制台。 2.单击页面右上角的“远程登录”。 3.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 4.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 5.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 6.执行如下命令,创建kafka topic。 kafkatopics.sh create zookeeper ZooKeeper角色实例IP:2181/kafkapartitions 2 replicationfactor 2 topic 7.在topic test中产生消息。 首先执行命令kafkaconsoleproducer.sh brokerlist Kafka角色实例IP:9092 topic producer.config /opt/Bigdata/client/Kafka/kafka/config/producer.properties 。 然后输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 8.消费topic test中的消息。 kafkaconsoleconsumer.sh topic bootstrapserver Kafka角色实例IP:9092 consumer.config/opt/Bigdata/client/Kafka/kafka/config/consumer.properties 说明 如果集群开启Kerberos认证,则执行如上两个命令时请修改端口号9092为21007,详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 订购资源包
        天翼云电脑(政企版)可以通过资源包订购方式。 操作场景 AI云电脑服务开通之后,管理员可先订购包括AI云电脑计算、存储和网络配额的资源包,然后再通过使用资源包为终端用户分配AI云电脑实例、配置数据盘及上网带宽。 操作步骤 1. 进入“AI云电脑(政企版)”控制台; 2. 点击“资源包管理”,进入“资源包管理”页面; 3. 点击“订购资源包”,进入“订购资源包”页面; 4. 根据实际情况选择需购买的资源包配置信息,包括计算包,存储包,网络包及购买时长; 计算包:每个计算包包括10vCPU+20GB内存+80G高IO系统盘每AI云电脑的资源总和,如用户需要开通100台2vCPU4GB内存的AI云电脑,则此处需配置20个计算包,以此类推; 存储包:订购资源包可使用的AI云电脑数据盘的总量,100GB起订,步长100GB,最大10000TB; 网络包:订购资源包可使用的网络带宽总量,0~4096Mbps; 5. 选择购买时长:订购资源包可使用的有效时长; 6. 确认信息和配置费用,点击“立即购买”。支付成功后,即可完成资源包的订购。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        订购资源包
      • 管理员账号
        本节介绍云智助手管理员账号的使用说明。 云智助手企业版的企业管理功能,需要绑定管理员子账号的AI云电脑账号才有管理权限,企业管理包括专属智库申请开通、品牌设置、自定义功能菜单、自有大模型服务。 获取管理员的AI云电脑账号方式有两种 1.使用已有AI云电脑用户账号绑定管理员子账号 如果您已有AI云电脑用户账号,可直接将其与管理员子账号进行绑定,实现快速关联。 2.直接创建管理员子账号生成AI云电脑用户账号 在控制台创建管理员子账号时,系统将自动生成对应的AI云电脑用户账号。 使用已有AI云电脑用户账号绑定管理员子账号 【操作步骤】: 1.登录并进入“AI云电脑(政企版)”管理控制台; 2.点击“组织管理”,选择“用户管理”,进入“用户管理”页面; 3.在需要绑定子账号的用户所在行,点击“更多”,在下拉菜单中点击“绑定子账号”; 4.输入子账号邮箱(天翼云用户账号邮箱); 5.点击“确定”,完成子账号绑定邀请; 6.邀请后,子账号邮箱将会接收到邀请邮件,点击通过即可; 7.接受邀请后,该AI云电脑用户账号可用于登录云智助手,进行企业管理操作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        管理员指南
        管理员账号
      • 版本说明
        本节介绍天翼云电脑(政企版)产品版本的功能说明。 天翼AI云电脑(政企版)产品版本具体功能如下: 能力项 天翼AI云电脑(政企版) 目标客群 企业群体 管理台功能 是否有管理台 有 管理台功能 自定义组网 支持企业灵活组网,对接企业内部应用系统,更安全 管理台功能 账户体系 1. 支持企业管理员创建并分配账号,该账号无需二次激活自动开通; 管理台功能 账户体系 2. 支持企业普通用户邮箱激活账号、手机激活账号 管理台功能 账户层级管理 1. 支持主子账号管理能力 管理台功能 账户层级管理 2. 支持按部门管理、角色管理、用户管理 实例订购方式 实例订购方式 资源包、单实例 实例订购方式 实例时长限制 不限时长 实例订购方式 带宽提供方式 需单独开通带宽,管理员统一分配带宽 镜像能力 标准镜像 Windows Server 2019 镜像能力 标准镜像 Windows Server 2016 镜像能力 标准镜像 Windows Server 2008 镜像能力 标准镜像 Centos 7.6 镜像能力 标准镜像 Ubuntu 18.04 镜像能力 标准镜像 UOS V20 镜像能力 自定义镜像 支持 增值功能 应用分发,文件加密,备份等增值服务 AI云电脑使用 终端支持能力 1. 移动端(手机/iPad):默认支持 AI云电脑使用 终端支持能力 2. PC端(Windows/MAC):默认支持 AI云电脑使用 终端支持能力 3. 瘦终端(Android/Windows/Linux):默认支持 AI云电脑使用 App 提供天翼AI云电脑App,用户登录后可看到名下所有AI云电脑实例
        来自:
        帮助文档
        天翼云电脑(政企版)
        产品介绍
        版本说明
      • 查看监控指标
        本文介绍如何查看WAF监控指标。 您可以通过管理控制台,查看WAF的相关指标,及时了解WAF防护状况,并通过指标设置防护策略。 前提条件 WAF已对接云监控,即已在云监控页面设置监控告警规则。有关设置监控告警规则的详细操作,请参见设置监控告警规则。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台顶部的区域选择框,选择区域。 3. 单击页面左上方的“服务列表”,选择“管理与部署> 云监控服务”。 4. 在左侧导航树栏,选择“云服务监控> Web应用防火墙”,进入“云服务监控”页面。 5. 在目标独享引起实例或防护域名所在行的“操作”列中,单击“查看监控指标”,查看对象的指标详情。 说明 在“网站设置”列表中,目标域名所在行的“操作”列,单击“云监控”,可直接查看单个网站的监控信息。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        监控与审计
        监控
        查看监控指标
      • 创建开发机
        本文介绍如何在科研助手中创建开发环境。 概述 开发机,以云原生的资源使用和开发工具链的集成,为不同类型开发、探索、教学用户,提供更好云化开发体验,适用于高校或科研机构等进行科研计算等场合。 操作步骤 1.登录科研助手管理控制台科研版。 2.在控制台左侧导航栏中,选择【开发机】。 3.在【开发机 】页面中,单击左上角的【创建开发机】。 4.在【创建开发机】页面中,填写配置相关参数数据。 5.点击【选择框架版本】,选择具体框架版本,点击【确定】选择框架版本。 【基础信息】 参数 描述 说明 可用区 选择所需的可用区 放开可用区的区域 【资源配置】 参数 描述 说明 GPU型号 GPU型号类型 可筛选不同类型GPU型号所对应的主机规格。 主机规格 主机资源规格 根据选定GPU型号选择不同规格的开发机主机规格。 目前的规格如果不满足您的要求,可通过工单申请或联系客户经理进行调整。 【存储配置】 参数 描述 说明 添加 添加目前已建的数据集 如果还未创建数据集,请先点击”创建数据集“,详见数据集管理。 添加 添加目前已建的科研文件 如果还未创建科研文件,请先点击”创建科研文件“,详见科研文件管理。 【框架版本】 参数 描述 说明 框架版本 选择开发机框架版本 点击选择“选择框架版本”,分为: 公共框架、自定义镜像、社区镜像、共享镜像。 公共框架 由发布的公共框架版本 公共框架版本说明: 1.名称:例如“vncubuntu20.04”; 2.标签:例如:”VNC“、“ubuntu:20.04”、“Vscode”等 自定义镜像 保存的镜像 保存的镜像涉及的组织、镜像名称、版本。 社区镜像 社区热门的镜像 发布的社区镜像,包括:名称、框架、镜像大小、镜像版本、镜像描述 共享镜像 由其他人分享给您的镜像 数据分享人邮箱,显示镜像名称、版本、分享用户。 5.确认无误后,点击【确认 】,完成开发机创建;点击【取消】,放弃开发机创建。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        开发机
        创建开发机
      • Baichuan2-7B
        声明与协议 声明 百川智能的开发团队并未基于 Baichuan 2 模型开发任何应用,无论是在 iOS、Android、网页或任何其他平台。强烈呼吁所有使用者,不要利用 Baichuan 2 模型进行任何危害国家社会安全或违法的活动。另外,百川智能也要求使用者不要将 Baichuan 2 模型用于未经适当安全审查和备案的互联网服务。希望所有的使用者都能遵守这个原则,确保科技的发展能在规范和合法的环境下进行。 百川智能已经尽可能确保模型训练过程中使用的数据的合规性。但由于模型和数据的复杂性,仍有可能存在一些无法预见的问题。因此,如果由于使用 Baichuan 2 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,百川智能不承担任何责任。 协议 使用 Baichuan 2 模型需要遵循 Apache 2.0 和《Baichuan 2 模型社区许可协议》。Baichuan 2 模型支持商业用途,如果您计划将 Baichuan 2 模型或其衍生品用于商业目的,请您确认您的主体符合以下情况: 您或您的关联方的服务或产品的日均用户活跃量(DAU)低于100万。 您或您的关联方不是软件服务提供商、云服务提供商。 您或您的关联方不存在将授予您的商用许可,未经百川许可二次授权给其他第三方的可能。 在符合以上条件的前提下,您需要通过以下联系邮箱 opensource@baichuaninc.com,提交《Baichuan 2 模型社区许可协议》要求的申请材料。审核通过后,百川将特此授予您一个非排他性、全球性、不可转让、不可再许可、可撤销的商用版权许可。 免责声明 Baichuan27B模型来源于第三方,本平台不保证其合规性,请您在使用前慎重考虑,确保合法合规使用并遵守第三方的要求。
        来自:
        帮助文档
        训推服务
        模型简介
        Baichuan2-7B
      • 深信服防火墙配置
        本文为您介绍深信服防火墙如何在本地站点中加载VPN配置。 使用IPsec VPN建立站点到站点的连接时,在配置完天翼云VPN网关后,您还需在本地站点的网关设备中进行VPN配置。 前提条件 已经在天翼云VPC内创建了IPsec连接。 已经下载了IPsec连接的配置。 IPsec协议信息 配置 示例值 IKE 认证算法 SHA1 IKE 加密算法 AES128 IKE DH分组 Group5 IKE IKE版本 IKEv1 IKE 生命周期 86400 IKE 协商模式 main IKE PSK ctSang4 IPsec 认证算法 SHA1 IPsec 加密算法 AES128 IPsec PFS DH group5 IPsec 生命周期 3600 网络配置信息 配置项 示例值 VPC 待和本地IDC互通的私网网段。 VPN网关 天翼云VPN网关的公网IP地址。 本地IDC 待和天翼云VPC互通的私网网段。 本地IDC 本地网关设备的公网IP地址。 操作步骤 1. 登录深信服防火墙的Web管理页面,单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第一阶段 ,单击列表上方的“新增”按钮,根据天翼云IPsec连接的IKE协议信息配置防火墙的第一阶段配置。 2. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第二阶段 ,单击“入站策略”列表上方的“新增”按钮,根据天翼云IPsec连接的网络信息,配置防火墙的第二阶段入站策略。 3. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第二阶段 ,单击“出站策略”列表上方的“新增”按钮,根据天翼云IPsec连接的网络信息,配置防火墙的第二阶段出站策略。 4. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 安全选项 ,查看是否有与天翼云IPsec连接配置相同的认证算法与加密算法组合;如果没有,请单击列表下方的“新增”按钮添加一个算法组合,或单击列表后面的“编辑”进行修改,使算法与天翼云IPsec连接中的配置相同。 5. 测试连通性。 您可以利用您的云主机和数据中心的主机进行连通性测试。
        来自:
        帮助文档
        VPN连接
        用户指南
        配置IPsec VPN
        本地网关配置
        深信服防火墙配置
      • 日志备份下载与清理
        合并下载 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,进入基础备份列表页签。 5. 单击日志合并下载页签。 您可以在合并任务列表中,查看已经合并的任务和文件。 6. 单击创建合并任务 ,配置合并时间段 ,然后单击确定。 在合并任务列表中,您可以看到正在初始化的合并任务。等待任务完成后,单击合并任务名称左侧的下拉框,查看并下载已合并的日志文件。 注意 合并的日志文件会占用空间,因此产生费用,您可在下载后手动进行删除,如未删除系统将会在24小时后将清理合并后的Binlog文件,故请及时下载所需的文件。 如选择内网下载,则将链接复制,使用wget ' 公网下载方式的临时下载地址链接有效时间为1小时。 日志备份清理 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 找到备份空间使用量一栏,点击日志备份清理按钮。 5. 根据可清理时间段,选择待清理的时间节点,单击确定。 系统将会删除您所选择时间节点之前的所有Binlog文件。 注意 删除Binlog文件可释放部分备份空间,但同时会影响您恢复至任意时间点的功能,建议通过备份空间扩容来满足备份空间不足的需求。 删除Binlog操作为异步任务,单击确定进行删除操作后,您在几分钟后刷新界面,即可看到相关文件已被清理,时间和清理的文件大小有关。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        Binlog下载与清理
        日志备份下载与清理
      • 网站接入WAF
        前提条件 网站以“独享模式”成功接入WAF。 回源到ECS 如果您的源站服务器直接部署在ECS上,请参考以下操作步骤设置安全组规则,放行独享模式回源IP。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角,选择区域。 步骤 3 单击页面左上方,选择“安全 >Web应用防火墙 (独享版)”。 步骤 4 在左侧导航树中,选择“独享引擎”,进入“独享引擎”页面。 步骤 5 在独享引擎列表的“IP地址”栏,获取所有创建的独享引擎对应的子网IP地址。 步骤 6 单击页面左上方,选择“计算 > 弹性云主机”。 步骤 7 在目标ECS所在行的“名称/ID”列中,单击目标ECS实例名称,进入ECS实例的详情页面。 步骤 8 选择“安全组”页签,单击“更改安全组”。 步骤 9 在“更改安全组”对话框中,选择目标安全组或新建安全组并单击“确定”。 步骤 10 单击安全组ID,进入安全组基本信息页面。 步骤 11 选择“入方向规则”页签,单击“添加规则”,进入“添加入方向规则”页面,参数配置说明如表所示。 参数 配置说明 协议端口 安全组规则作用的协议和端口。选择“自定义TCP”后,在TCP框下方输入源站的端口。 源地址 逐一添加步骤5中获取的所有独享引擎实例的子网IP地址。 说明 一条规则配置一个IP。单击“增加1条规则”,可配置多条规则,最多支持添加10条规则。 步骤 12 单击“确定”,安全组规则添加完成。 成功添加安全组规则后,安全组规则将允许独享引擎回源IP地址的所有入方向流量。 您可以使用Telnet工具测试已接入WAF防护的源站IP对应的业务端口是否能成功建立连接验证配置是否生效。 例如,执行以下命令,测试已接入WAF防护的源站IP对外开放的443端口是否能成功建立连接。如果显示端口无法直接连通,但网站业务仍可正常访问,则表示安全组规则配置成功。 Telnet 源站IP 443
        来自:
        帮助文档
        Web应用防火墙(独享版)
        网站设置
        网站接入WAF
      • 查看Topic日志
        本章节主要介绍如何查看Kafka实例的Topic日志。 Topic日志记录Topic分区选举Leader的详情,包括选举Leader时间、选举Leader的Topic分区和Leader的选举次数等。本章节介绍如何在控制台查看Topic日志。 Topic日志存储在云日志服务中,由LTS提供查询功能。 约束与限制 老实例不支持Topic日志功能,具体以控制台为准。 Topic日志默认存储时间为七天,如果需要延长保留天数,可以在LTS控制台修改日志组的存储时间。 Topic日志开启后会在LTS控制台创建对应的日志组、日志流和仪表盘。使用期间按照日志量收费,收费标准请参照LTS价格详情。 频繁产生Topic日志,可能会影响实例性能。 不同Kafka实例使用相同的日志组和日志流保存Topic日志时,在每个Kafka实例中都能看到使用同一个日志组和日志流的所有Kafka实例的Topic日志。 前提条件 开启Topic日志需要您的账号拥有LTS服务的创建日志组和日志流的权限。 Kafka实例处于“运行中”时,才能开启/关闭Topic日志。 开启Topic日志 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务Kafka”,进入Kafka总览页面。 4. 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 5. 单击Kafka实例的名称,进入实例详情页面。 6. 在左侧导航栏选择“日志管理 > Topic日志”,进入“Topic日志”页面。 7. 单击“开启日志”,弹出“开启日志”对话框。 8. 单击“确定”,弹出“日志配置”对话框。 9. 根据实际情况决定是否开启日志配置,单击“确定”。自动跳转到“后台任务管理”页面,开启日志的任务状态为“成功”时,表示开启Topic日志成功 不开启:LTS后台会自动创建一个日志组以及对应的日志流。 开启:选择存储日志文件“topic.log”的日志组和日志流。您还可以单击右侧的“查看日志组”,跳转到LTS控制台,查看或创建日志组和日志流。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic日志
      • 路由设置
        本文向您介绍企业版VPN中路由设置的常见问题。 如何理解VPN连接中的对端网关和对端子网? 对端网关和对端子网是两个相对的概念,在建立VPN连接时,从云的角度出发,VPC网络就是本地子网,创建的VPN网关就是本地网关,与之对接的用户侧网络就是对端子网,用户侧的网关就是对端网关。 对端网关IP就是用户侧网关的公网IP,对端子网指需要和VPC子网互联的子网。 Console界面在哪添加VPN远端路由? 云端在VPN连接创建时会自动下发到达远端子网的路由,无需手动配置。 ECS主机多网卡是否需要添加去往线下网络的路由? 如果客户使用主网卡与线下网络建立了VPN,不需要添加路由。 如果客户使用非主网卡与线下网络建立了VPN,需要添加去往线下网段的路由指向非主网卡的网关。 什么是NQA 什么是NQA 网络质量分析(Network Quality Analysis,NQA)是一种实时的网络性能探测和统计技术,可以对响应时间、网络抖动、丢包率等网络指标进行统计。NQA能够实时监视网络服务质量,在网络发生故障时进行有效的故障诊断和定位。 为什么需要NQA 随着运营商增值业务的开展,用户和运营商对QoS(Quality of Service)的相关要求越来越高,特别是在传统的IP网络承载语音和视频业务后,运营商与客户之间签订SLA(Service Level Agreement)成为普遍现象。 为了让用户看到承诺的带宽是否达到需求,运营商需要提供相关的时延、抖动、丢包率等相关的统计参数,以及时了解网络的性能状况。传统的网络性能分析方法(如Ping、Tracert等)已经不能满足用户对业务多样性和监测实时性的要求。NQA可以实现对网络运行状况的准确测试,输出统计信息。NQA可以监测网络上运行的多种协议的性能,使网络运营商能够实时采集到各种网络运行指标,例如:HTTP的总时延、TCP连接时延、DNS解析时延、文件传输速率、FTP连接时延、DNS解析错误率等。通过对这些指标进行控制,网络运营商可以为用户提供不同等级的网络服务。同时,NQA也是网络故障诊断和定位的有效工具。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        路由设置
      • 操作类
        本章节会介绍关系型数据库在使用和操作时遇到的常见问题。 可以通过创建模板的方式创建实例吗 目前不支持实例模板。可通过备份恢复功能将备份文件恢复到新实例上。 云数据库如何进行主备切换 关系型数据库(Relational Database Service,简称RDS)服务提供高可用类型,推荐您选择主备模式。 故障切换 也叫计划外的切换。当主机出现故障时,系统会在1~5分钟内自动切换到备机,主备实例的连接IP不变,整个过程无需人工干预。切换过程中不可访问,需要您设置好程序跟关系型数据库服务的自动重连,避免因为切换导致服务不可用。 手动切换 也叫计划内的切换。当实例运行正常时,用户可以自主手动触发主备切换,以满足业务需求。 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4 在“实例管理”页面,选择指定的主备实例,单击实例名称,进入实例的“基本信息”页面。 步骤5 在“基本信息”页面中“数据库信息”模块的“实例类型”处,单击“主备切换”。 您也可以在“基本信息”页面,单击“实例拓扑图”模块的。进行主备切换。 注意 主备切换可能会造成几秒或几分钟的服务闪断(闪断时间与复制时延有关),并有可能在主备同步时延过大的情况下,导致少量数据丢失。 主备切换后,请注意对业务进行预热,避免业务高峰期出现阻塞。 在“主备切换”弹框,单击“是”进行主备实例的切换。 在“复制状态”为“正常”的情况下,复制时延大于300s,主备切换任务无法下发。 主备切换成功后,单击“返回实例列表”,用户可以在“实例管理”页面对其进行查看和管理。 切换过程中,状态显示为“主备切换中”。 在实例列表的右上角,单击刷新列表,可查看到主备切换完成后,实例状态显示为“正常”。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        操作类
      • 1
      • ...
      • 290
      • 291
      • 292
      • 293
      • 294
      • ...
      • 435
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      模型推理服务

      应用托管

      科研助手

      推荐文档

      账单

      云课堂 第十五课:解析天翼云IPsec VPN和SSL VPN的

      天翼云最佳实践⑦:Win Server php-asp 环境使用

      导入数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号