活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云电脑版网页_相关内容
      • 删除Vhost
        本章节主要介绍如何删除Vhost。 操作场景 本章节主要介绍删除Vhost的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式一:在控制台删除 方式二:使用RabbitMQ WebUI删除 方式三:调用API删除 方式一:在控制台删除 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击实例名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“Vhost列表”,进入Vhost列表页面。 步骤 6 通过以下任意一种方法,删除Vhost。 勾选Vhost名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除Vhost”。 在待删除的Vhost所在行,单击“删除”。 步骤 7 在弹出的确认删除对话框中,单击“是”。 方式二:使用RabbitMQ WebUI删除 步骤 1 登录RabbitMQ WebUI。 步骤 2 在顶部导航栏选择“Admin”,进入Admin页面。 步骤 3 在右侧导航栏选择“Virtual Hosts”,进入Virtual Hosts页面。 图1 Virtual Hosts页面 步骤 4 单击待删除的Vhost名称,进入Vhost详情页。 图2 待删除的Vhost 步骤 5 在“Delete this vhost”区域,单击“Delete this virtual host”,弹出确认删除对话框。 图3 删除Vhost 步骤 6 单击“确定”,完成Vhost的删除。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        Vhost管理
        删除Vhost
      • 查询消息
        本文主要介绍查询消息。 操作场景 您可以查看指定Topic不同分区的偏移量、消息大小、创建时间以及消息正文。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 选择“消息查询”页签,在消息页签页面,设置查询的Topic名称、分区以及查询方式。 如果未设置具体分区,查询结果显示Topic所有分区的消息。 查询方式支持以下两种方式: 按创建时间查询:即按生产该消息的时间。 按偏移量查询:即记录消息的位置。 说明 当Topic中的数据量比较大时,单副本Topic查询消息可能会报“内部服务错误”,建议根据数据量适当减小查询时间范围。 步骤 6 单击“搜索”,查询消息。 查询结果如下: 图 查询Topic消息 消息的参数说明如下: Topic名称:消息所在的Topic名称。 分区:消息所在的分区。 偏移量:消息在分区中的位置。 消息大小:消息存入磁盘的大小,单位为B。 创建时间:消息的创建时间。创建时间由生产客户端在生产消息时通过CreateTime指定的,如果生产消息时没有设置此参数,创建时间会默认为1970。 步骤 7 单击“查看消息正文”,弹出“查看消息正文”对话框,查看消息的内容,包括Topic名称、分区、偏移量、创建时间和消息正文。 步骤 8 (可选)如果需要恢复默认设置,单击“重置”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息管理
        查询消息
      • 服务条款
        本文主要介绍了天翼云分布式关系型数据库服务协议(新)。 自2021年8月23日起,新版天翼云分布式关系型数据库服务协议生效。详情请参见天翼云分布式关系型数据库服务协议。
        来自:
        帮助文档
        分布式关系型数据库
        相关协议
        服务条款
      • 数据迁移工具适用场景
        本文介绍数据迁移工具适用场景。 媒体存储为客户提供在线迁移服务,客户可以通过在线迁移服务实现以下数据迁移场景: 将同个账号的媒体存储的某个Bucket数据迁移至另一个Bucket。 跨不同的天翼云账号迁移媒体存储间的数据。 将第三方数据,如阿里云、AWS等数据迁移到媒体存储。 目前在线迁移服务为内测能力,如有需要,可联系您的专属客户经理开通试用。
        来自:
        帮助文档
        媒体存储
        常见问题
        数据迁移
        数据迁移工具适用场景
      • 使用Elasticsearch搜索数据
        本文通过示范例子,向您介绍天翼云云搜索服务Elasticsearch实例可以提供的检索和分析服务。 这里,我们以一个示范的例子,向您简单介绍天翼云Elasticsearch实例可以提供的检索和分析服务,包括创建索引、数据导入、数据搜索、筛选排序等。 操作步骤 创建实例 1. 在“云搜索服务”产品页,单击“立即开通”。 2. 在云搜索服务实例创建页面选择实例类型为Elasticsearch、订购周期、当前区域(即资源池)、可用区、填写实例名称、节点规格等基础配置信息后,按页面提示并根据需要进行配置,然后点击下一步。 3. 按确认信息页面提示,勾选相关协议,完成订单付款,即可完成订购,等待资源开通完成,对应实例处于“运行中”状态,即为成功。 导入数据 Elasticsearch实例支持多种导入方式,常用的业务场景是把Logstash作为源接入搜索实例,在此,为了演示方便,我们以商品检索为例子,从Kibana的DevTools控制台里调用Rest API导入数据。 注意:Kibana需要预先链接公网使用,具体配置方法请参考实例公网访问。 1. 先在Kibana的左边栏里选择“Dev Tools“,进入控制台,其中左边屏幕为命令行调用API栏,右边屏幕为调用结果返回栏。 2. 首先,在console界面,我们创建索引productsfruits来定义存储数据的Schema。 具体语句如下: plaintext PUT /productsfruits { "mappings": { "properties": { "name": { "type": "text", "fields": { "keyword": { "type": "keyword", "ignoreabove": 256 } } }, "price": { "type": "long" } } }, "settings": { "numberofshards": "1", "numberofreplicas": "0" } } 3. 然后在console里执行bulk插入语句,来将数据导入到索引里。 返回结果里errors为false,表示数据全部导入,具体语句如下: plaintext PUT /productsfruits/bulk {"index":{"id":1}} {"name": "苹果", "price": 10} {"index":{"id":2}} {"name": "香蕉", "price": 20} {"index":{"id":3}} {"name": "菠萝", "price": 15} {"index":{"id":4}} {"name": "火龙果", "price": 25}
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用Elasticsearch搜索数据
      • 使用OpenSearch搜索数据
        本文通过示范例子,向您介绍天翼云云搜索服务OpenSearch实例可以提供的检索和分析服务。 这里,我们以几个示范的例子,向您简单介绍天翼云OpenSearch实例可以提供的检索和分析服务,包括创建索引、数据导入、数据搜索、筛选排序等。 操作步骤 创建实例 1. 在【云搜索服务】产品页,单击【立即开通】。 2. 在云搜索服务实例创建页面选择计费模式、订购周期、当前区域(即资源池)、可用区、实例类型、实例版本、实例名称、节点规格等基础配置信息后,按页面提示并根据需要进行配置,然后点击下一步。 3. 按确认信息页面提示,勾选相关协议,完成订单付款,即可完成订购,等待资源开通完成,对应实例处于“运行中”状态,即为成功。 导入数据 OpenSearch实例支持多种导入方式,常用的业务场景是把Logstash作为源接入搜索实例,在此,为了演示方便,我们以商品检索为例子,选择从Dashboards的DevTools控制台里调用Rest API导入数据。 注意:Dashboards需要预先链接公网使用,具体配置方法请参考实例公网访问。 1. 先在Dashboards的左边栏里选择“DevTools”,进入控制台。其中左边屏幕为命令行调用API栏,右边屏幕为调用结果返回栏。 2. 首先,在console界面,我们创建索引productsfruits来定义存储数据的Schema。 具体语句如下: plaintext PUT /productsfruits { "mappings": { "properties": { "name": { "type": "text", "fields": { "keyword": { "type": "keyword", "ignoreabove": 256 } } }, "price": { "type": "long" } } }, "settings": { "numberofshards": "1", "numberofreplicas": "0" } } 3. 然后我们,在console里执行bulk插入语句,来将数据导入到索引里。 返回结果里errors为false,表示数据全部导入,具体语句如下: plaintext PUT /productsfruits/bulk {"index":{"id":1}} {"name": "苹果", "price": 10} {"index":{"id":2}} {"name": "香蕉", "price": 20} {"index":{"id":3}} {"name": "菠萝", "price": 15} {"index":{"id":4}} {"name": "火龙果", "price": 25}
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用OpenSearch搜索数据
      • 下一代防火墙v1.0
        本节介绍云等保专区产品的下一代防火墙配置类问题。 下一代防火墙如何进行接入策略设置? 首先明确资源池区域,如果资源池为:南宁23、华东1、上海36、武汉41、青岛20、华北2、长沙42、西南1、南昌5,进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 完成弹性IP绑定工作后需要进行子网路由绑定,进入到天翼云控制台,选择“网络 > 虚拟私有云”进入配置页面。 3. 选择“路由表 > 创建路由表”,进行路由表创建。填写路由名称,以及需要防护的VPC之后,在关联资源类型处选择“子网”。 4. 创建完成后,根据刚才创建的名称选择刚才创建的路由,点击名称进入子网路由配置页面,点击“创建”按钮,进行子网路由创建操作。 5. 在路由规则创建处填写对应的IP地址,在云主机选择是选择下一代防火墙的云主机。 6. 进行子网关联设置,点击“关联子网”模块,选择需要关联的子网,点击“确定”按钮即可。 7. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 8. 点击“新建”创建新的一体化策略。 其余资源池进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 确认需要防护的资产在子网内的IP地址。 3. 完成弹性IP绑定操作之后,点击进入下一代防火墙配置,进入下一代防火墙配置页面,点击“NTA策略”“策略”“新建”,进入NAT配置新建一条DNAT规则。 4. 建立防火墙上端口到资产业务端口的端口映射(以防火墙开放10022端口映射到资产22端口为例)。 5. 配置完毕点击右上角保存按钮保存。 6. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 7. 点击 创建新的一体化策略。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        下一代防火墙
        下一代防火墙v1.0
      • 修改ACL规则
        本文帮助您快速熟悉ACL规则的修改操作流程。 使用场景 当您的应用场景发生变化时,可以修改ACL规则帮助您更好地控制网络访问,您需谨慎修改规则,确保修改后的规则能够满足实际需求并提高网络的安全性和可控性。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成网络ACL的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面。 4. 在左侧导航栏,选择“访问控制ACL”选项。 5. 在“ACL”界面,找到目标网络ACL,单击网络ACL的名称。 6. 进入“ACL”详情页面,点击操作列的“修改”按钮。 7. 根据页面相关提示可以对ACL规则的配置信息进行修改。 8. 具体参数配置如下: 参数 说明 优先级 网络ACL规则的优先级,优先级的数值越小,表示优先级越高。为默认的规则,优先级最低。默认规则仅多可用区资源池适用。 策略 选择入方向规则的授权策略:允许:允许访问子网中云服务器。拒绝:拒绝访问子网中云服务器。 协议 选择协议类型,支持以下几种协议:ALL:所有协议。ICMP:网络控制报文协议。TCP:传输控制协议。UDP:用户数据报协议。 源地址 此方向允许的源地址,默认值为0.0.0.0/0,代表支持所有的IP地址。 目的地址 此方向允许的目的地址,默认值为0.0.0.0/0,代表支持所有的IP地址。 源端口范围 源端口范围,取值范围是1~65535的数字。选择TCP或UDP协议时必须填写。 目的端口范围 目的端口范围,取值范围是介于1~65535的数字。选择TCP或UDP协议时必须填写。 描述 网络ACL规则的描述信息,非必填项。 注意 1. 对于地域资源池来说,创建ACL时需要指定子网与ACL的关联关系。修改规则时,入方向规则不支持自定义目的地址,出方向规则不支持自定义源地址。 2. 对于可用区资源池来说,修改规则时,出/入方向均支持自定义源/目的端口。
        来自:
        帮助文档
        虚拟私有云 VPC
        网络ACL
        修改ACL规则
      • 敏感实例
        本文介绍敏感实例的相关功能,包括添加受保护实例、查看敏感实例列表、配置识别任务、敏感列管理、查看敏感实例元数据、查看识别任务详情、脱敏授权和关闭保护。 前提条件 用户需要具有进入敏感数据保护页面的菜单权限,菜单权限参考权限说明。 敏感数据保护为企业版功能,请切换到DMS企业版后使用该功能,切换步骤及实例注意事项详见版本说明。 当前仅支持MySQL、PostgreSQL、SQL Server、DRDS数据库。 操作步骤 1. 登录数据管理服务DMS系统。 2. 在左侧菜单栏依次点击数据资产 > 敏感数据保护。 3. 在敏感数据保护页面中,选择敏感实例页签。 注意事项 组织版本由基础版切换为企业版时,需要超级管理员补充托管的账密。 功能介绍 添加受保护实例 用户需要对敏感数据进行保护时,首先需要将实例添加为敏感实例。 1. 登录数据管理服务。 2. 在左侧菜单栏中,选择数据资产 > 敏感数据保护,进入敏感数据保护页面。 3. 在顶部菜单栏中,选择敏感实例页签,进入敏感实例页面。 4. 在敏感实例页面,点击左上角的添加受保护实例按钮,打开添加受保护实例弹窗。 5. 在选择实例下拉框中选择指定实例,点击确定按钮后,即可将该实例添加为敏感实例。 6. 在选择实例后,可以点击配置识别任务 按钮,同时配置识别任务并提交,具体配置步骤参考配置识别任务章节。当前仅支持MySQL、PostgreSQL、SQL Server、DRDS数据库配置识别任务。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        敏感数据保护
        敏感实例
      • 如何报告可能的安全漏洞或安全缺陷
        本页介绍天翼云TeleDB数据库如何报告可能的安全漏洞或安全缺陷。 天翼云数据库团队欢迎您通过工单或邮件(teledb@chinatelecom.cn)向我们报告数据库产品可能存在的安全漏洞或安全缺陷,我们将第一时间处理并向您反馈结论。 为提高确认安全漏洞的效率,欢迎您在相关报告中明确发现产品或组件版本,复现问题的具体方法。相关安全漏洞在未经天翼云确认前,请勿向互联网或第三方公开。 天翼云数据库团队漏洞处理的大概流程: 报告者将可能的安全漏洞报告给天翼云数据库团队; 团队记录并第一时间安排专家复现验证,分析原因; 与报告者私下沟通确认更多漏洞细节; 无论是否确认为安全漏洞,均答复报告者具体原因和后续方案; 若为超危、高危安全漏洞的且无法短时间修复的,将先输出临时解决方案,再进行完整修复; 若为新增安全漏洞的,将按照国家相关规定,向国内相关漏洞收录组织报告; 修复完成后,通过合适手段向天翼云数据库用户公开漏洞信息和修复方案。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        政策及其它
        如何报告可能的安全漏洞或安全缺陷
      • 实践准备工作
        本章主要介绍实践准备工作 为了让您能更好的完成并体验HE2E项目在软件开发生产线上的端到端实施,在进行具体的任务操作前,您需要完成以下准备工作。 购买软件开发生产线 在使用软件开发生产线前,需完成软件开发生产线的购买。 软件开发生产线提供三种版本:基础版、专业版、铂金版。本文档中选择开通基础版。购买操作请参考“《软件开发生产线用户指南》>购买软件开发生产线”。 创建项目 在开展项目实践前,由产品负责人Sarah创建项目。 步骤 1 登录软件开发生产线首页。 步骤 2 单击“新建项目”。 步骤 3 选择“DevOps全流程样例项目”。 步骤 4 输入项目名称“凤凰商城”,单击“确定”,完成项目创建。 添加项目成员 由产品负责人Sarah为团队成员创建帐号,并添加项目中。 本样例项目涉及四个项目角色,为了方便介绍,本文档中每个角色对应一个人,如下表所示。 项目角色列表 项目成员 项目角色 工作职责 样例项目中对应操作 Sarah 产品负责人(项目创建者) 负责产品整体规划与产品团队的组建。 创建项目 添加项目成员 管理需求规划 Maggie 项目经理 负责管理项目交付计划。 管理迭代规划 监控和跟踪项目状态 管理项目配置 跟踪测试计划进展 Chris 开发人员 负责项目代码的开发、编译、部署及验证。 开发代码 检查代码 构建应用 部署应用 配置流水线 Billy 测试人员 负责编写测试用例并执行。 创建迭代测试计划 执行测试计划 步骤 1 进入“凤凰商城”项目,进入“设置 > 通用设置 > 成员管理”页面。 步骤 2 单击项目成员列表上方“添加成员 > 从本企业用户”。 步骤 3 在弹框中单击“创建用户”,跳转至“用户”页面。 添加成员 步骤 4 单击“创建用户”,依次创建三个用户“Maggie”、“Chris”、“Billy”。 步骤 5 返回软件开发生产线页面,刷新浏览器,重新单击项目成员列表上方“添加成员 > 从本企业用户”,勾选成员“Maggie”、“Chris”、“Billy”,单击“下一步”。 步骤 6 单击每一行的“项目角色”下拉列表,为成员Maggie选择角色“项目经理”、Chris选择角色“开发人员”、Billy选择角色“测试人员”,单击“保存”。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        实践准备工作
      • 保密数据集最佳实践
        功能介绍 对于某些行业客户,在大模型训练时会涉及到保密数据的处理问题,比如需要避免用户下载到本地造成数据泄漏。针对这一问题,平台推出了特色的数据保密功能,以应对用户下载或拷贝保密数据的行为。 平台主要从数据集限制+操作审计两方面进行限制: 数据集限制:保密数据相关的实现依赖平台数据集功能,将需要保密的数据集打上保密标签,对此数据集进行限制。 容器外,根据用户身份严格限制平台的数据操作权限; 容器内,创造断外网的沙箱环境防止下载到本地,并严格限制读写,任务执行者仅可写入到管理员可控的安全存储中。 云审计:将用户的所有命令操作记录到云审计,并对可能涉及拷贝的敏感操作进行标识,给到客户主管人审核确认。 前置条件 1. 存储准备:已在天翼云开通对象存储或HPFS,并在本平台完成委托授权。 2. 其他限制:您是管理员用户(包括主账号、IAM管理员、工作空间管理员)。 操作说明 1. 创建仅管理员可控的安全存储 保密数据集可工作的一个重要前提是限制写操作仅写入到保密输出路径中,这就要求输出路径是智算平台管理员完全可控的存储。 管理员(需有存储控制台相应权限)首先登录存储控制台,根据所使用的存储类型(ZOS或HPFS),创建保密数据集与保密输出路径。保密数据集是指您含有保密信息的数据集;保密输出路径是指当用户使用保密数据时,您指定的写入路径,建议您创建一个空文件夹专用于输出,并对不同的任务创建不同的输出路径。 注意:主账号天然是各产品的管理员,拥有所有权限。但对于子账号,在本平台拥有管理员权限不代表在存储控制台拥有管理员权限,子账号如需存储控制台权限,需要主账号进入IAM授予相应的权限。建议您只给信任的用户授予存储控制台的操作权限,否则可能造成数据泄漏等事故。
        来自:
        帮助文档
        训推服务
        最佳实践
        保密数据集最佳实践
      • 基础概念类
        资源编排ROS和 Terraform 有什么关系? 资源编排ROS基于 Terraform 引擎进行封装,用户可以通过控制台或 API 使用 Terraform 语法(HCL)来描述云上资源。服务负责资源创建、更新、销毁的生命周期管理,无需用户本地安装 Terraform。 资源编排如何收费 资源编排ROS本身不收取服务费。但是,通过本服务创建和管理的一切天翼云资源(如ECS、EIP、CCSE、Mysql等),都会按照各自产品的标准计费规则进行收费。 服务支持的 Terraform 版本是多少? 当前支持的Terraform版本号是1.5.7 使用资源编排ROS需要哪些权限? 用户需具备对应云资源的创建、查询、删除权限,以及对资源编排ROS本身的访问权限(例如:模板管理、资源栈管理)。 Terraform Provider 的 AK/SK 是如何管理的? 对于AK/SK:控制台会自动使用您当前登录的账号权限,生成委托ak/sk, 以您的权限进行资源的开通,无需在模板中指定。 我的Terraform状态文件存储在哪里? 状态文件由资源编排ROS后端统一托管。您无需关心其存储位置和备份问题。这种机制保证了状态文件的安全性和多用户协作时的一致性。 如何将天翼云上已经存在的资源纳入到资源栈中进行管理? 当前版本暂时不支持,我们正在抓紧迭代中。
        来自:
        帮助文档
        资源编排ROS
        常见问题
        基础概念类
      • 场景一:多个VPC灵活互通和隔离
        本章节为您介绍企业路由器的应用场景。 企业客户业务上云,多个业务网络之间需要互相访问或者隔离,并且业务网络需要和线下IDC互通。比如X企业的业务部署在天翼云,业务A、业务B、业务C相互独立,因此三个业务所在的VPC网络隔离。同时,业务A、业务B、业务C均需要访问VPC4内的公共业务以及线下IDC。 客户痛点 VPC之间的网络互通和隔离,通过VPC对等连接来实现。点对点的连接导致网络拓扑复杂,路由配置繁多,管理难度大。 公共服务VPC和每个业务VPC互通,需要配置大量的对等连接和路由,对服务规格要求高。VPC对等连接的规格不适用大规模组网,具体如下: 一个租户在一个区域最多可以配置50个对等连接数量。 VPC的一个路由表最多支持200条路由。 VPC访问线下IDC,通过云专线DC,需要为每个VPC都需要配置专线,成本高。 企业路由器价值 通过将VPC关联至企业路由器中不同的路由表,灵活实现VPC之间的互通和隔离,网络拓扑简洁,配置简单易管理。 企业路由器可以在所有VPC之间路由流量,无需配置大量对等连接,同时企业路由器支持大规格路由条目,适合企业复杂组网场景。
        来自:
        帮助文档
        企业路由器
        产品介绍
        应用场景
        场景一:多个VPC灵活互通和隔离
      • 验证域名归属权
        本文通过对DNS解析验证、文件验证两种验证方式的详细操作说明,方便客户做域名归属权验证。 背景说明 客户在天翼云客户控制台新增域名时,需通过域名归属权验证。具体可根据如下方法一、方法二,任意选择一种方式进行操作验证即可。 方法一:DNS解析验证 以加速域名www.ctcdn.cn为例,为您介绍如何通过DNS解析验证来验证域名归属权。 1. 客户需在自己的域名解析服务商(例如:腾讯云、新网等),操作本次要新增域名的【主域名】解析记录,添加天翼云客户控制台返回的TXT记录值(如下记录值仅为示例)。 说明 主域名:一级域名,例如:www.ctcdn.cn的主域名为:ctcdn.cn(具体值以添加域名时控制台或API返回的主域名或domainzone值为准)。 主机记录:为固定值:dnsverify。 TXT记录值为根据域名随机生成: 记录类型 主机记录 记录值 TXT dnsverify 202207060000002jar4fb2hc79iwjq5cdid87t7rci1sgp33exuyvez4kwonobxt 2. 域名解析操作完成后,等待(建议10分钟)DNS解析生效后即可进行解析验证。 Linux系统解析命令:dig dnsverify.ctcdn.cn txt。 3. 如解析出来的txt值和天翼云控制台返回的TXT记录值一致,则表示配置正确。 确认配置正确后,可前往天翼云客户控制台,在【域名管理】【域名列表】【添加域名】界面,在【加速域名】输入待验证的域名后,单击【进入验证环节】,验证通过就可以正常操作添加域名。
        来自:
        帮助文档
        全站加速
        快速入门
        验证域名归属权
      • 功能清单
        功能名称 功能描述 发布区域 当前云硬盘提供了三类API,分别为云硬盘API、云硬盘快照API、云硬盘自动快照API。 详细的提供了API的描述、语法、参数说明及示例等内容。 云硬盘API:全部 云硬盘快照API:华东1/华北2 云硬盘自动快照API:华东1/华北2 云硬盘支持多种配置规格,可挂载至云主机用作数据盘和系统盘,根据性能将其分为XSSD3、XSSD2、XSSD1、XSSD0、极速型SSD、超高IO、通用型SSD、高IO、普通IO几种规格。 您可以在实际使用中可以选择符合业务需求与成本预算的规格进行购买。 不同地域支持的磁盘类型不同,您可以通过 云硬盘的磁盘模式分为三种,分别是: VBD(Virtual Block Device):虚拟块存储设备。 SCSI (Small Computer System Interface):小型计算机系统接口。 FCSAN(Fibre Channel SAN):光纤通道协议的SAN网络。 VBD:全部 SCSI: HDD类型:拉萨3/北京9/西宁2/庆阳2/呼和浩特3 SSD类型:华北2/郑州5/上海36/西南1/西宁2/庆阳2/呼和浩特3/沈阳8/华东1 FCSAN:上海7 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 全部 创建云硬盘后,需要将云硬盘挂载给云主机或物理机,供云主机或物理机作为数据盘使用。 挂载云硬盘通常分为两种,一种是挂载非共享云硬盘,另一种为挂载共享云硬盘。 全部 当卸载数据盘时,支持离线卸载或在线卸载,即可在挂载该数据盘的云主机处于“运行中”或“关机”状态时进行卸载。 只有数据盘支持卸载操作,系统盘不支持卸载。 全部 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 全部 当云硬盘空间不足时,您可以扩大云硬盘的容量,也就是云硬盘扩容。云硬盘扩容可以有如下两种处理方式: 申请一块新的云硬盘,并挂载给云主机。 扩容原有云硬盘空间。系统盘和数据盘均支持扩容。 全部 当您不再使用包年/包月的云硬盘时,可以退订云硬盘以释放存储空间资源。退订云硬盘后,将停止对云硬盘收取费用。 当云硬盘被退订后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 当您不再使用按量付费的云硬盘时,可以删除云硬盘以释放存储空间资源。 删除云硬盘后,将停止对云硬盘收取费用。当云硬盘被删除后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 云硬盘快照是云硬盘数据在特定时间点的完整副本或镜像。作为一种主要的灾难恢复方法,您可以使用快照将数据完全恢复到创建快照时的时间点。 您可以通过管理控制台或者API接口创建云硬盘快照。 华东1/华北2 天翼云云硬盘支持自动快照功能,您可以通过自动快照策略周期性地为云硬盘创建快照,可同时适用于系统盘和数据盘。 自动快照服务便于您灵活设置快照创建任务,提高数据安全和操作容错率。 华东1/华北2 天翼云云硬盘回收站支持将删除的云硬盘资源保存至回收站中,是一种数据保护的方式。在一定时间内,您可以在回收站内恢复云硬盘数据,以防止误删除导致的云硬盘数据丢失。 回收站功能默认为关闭状态,如需使用,需要您手动开启,保留时间最多为7天。 华东1/南宁23/上海36/青岛20/武汉41/华北2/长沙42/西南1/南昌5/西安7/太原4/郑州5/西南2贵州/华南2/杭州7/庆阳2/呼和浩特3/佛山7 云硬盘备份是指将云硬盘中的数据备份到其他存储介质或位置的操作。 云硬盘备份是一种数据保护措施,旨在应对数据损坏、误删除、恶意操作或主存储系统故障等风险,以确保数据的可靠性和可恢复性。 芜湖4/合肥2/芜湖2/北京5/重庆2/厦门3/福州3/福州4/福州25/兰州2/庆阳2/佛山3/广州6/南宁23/南宁2/贵州3/海口2/石家庄20/郑州5/华北2/华东1/华南2/武汉3/武汉4/武汉41/郴州2/长沙3/长沙42/南京2/南京4/南京3/南京5/九江/南昌5/沈阳8/辽阳1/呼和浩特3/内蒙6/中卫5/中卫2/西宁2/西安7/西安4/西安5/西安3/青岛20/上海15/上海7/上海36/太原4/晋中/成都4/西南1/西南2贵州/乌鲁木齐7/乌鲁木齐27/拉萨3/昆明2/杭州7/杭州2 当您的业务因为等保合规或安全要求等原因,需要对存储在云硬盘上的数据进行加密保护时,您可以在创建云硬盘时勾选加密选项,即可对新创建的云硬盘进行加密。 南宁23/华东1/南昌5/华南2/西安7/太原4/华北2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/芜湖4/西南1/上海36/上海15/北京9/上海17/佛山7/长春3/宁波2 共享云硬盘允许多个云主机并发访问同一个云硬盘,实现多个实例之间的数据共享和协作。对云硬盘的共享访问通常应用于数据集群应用系统、分布式文件系统和高可用性架构等场景。 一块共享云硬盘支持同时挂载到最多16台云主机,其中云主机包括弹性云主机和物理机两种,目前共享云硬盘只支持共享数据盘,不支持共享系统盘。 重庆2/南宁2/成都4/芜湖2/九江/西宁2/拉萨3/海口2/佛山3/贵州3/福州3/上海7/杭州2/北京5/南京3/南京4/西安4/内蒙6/晋中/郴州2/武汉4/福州4/昆明2/西安5/南京5/华东1/南宁23/上海36/石家庄20/辽阳1/青岛20/武汉41/福州25/乌鲁木齐27/华北2/西南1/长沙42/中卫5/南昌5/华南2/西安7/太原4/郑州5/西南2贵州/杭州7/西安3/庆阳2/乌鲁木齐7/中卫2/厦门3/乌鲁木齐4/上海15/芜湖4/北京9/上海17/呼和浩特3/沈阳8/上海20/佛山7/广州9/长春3/宁波2 当您开通云硬盘服务后,即可通过云监控来查看云硬盘的性能指标。 云硬盘支持的监控指标包括:磁盘读速率、磁盘写速率、磁盘读请求速率、磁盘写请求速率、平均写操作大小、平均读操作大小、平均写操作耗时、平均读操作耗时 。 全部 包年包月采用包周期预付费的计费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 如果您需要更灵活的计费方式,按照云硬盘的实际使用时长计费,您可以将云硬盘的计费方式转为按需付费。 全部 天翼云提供多种云硬盘类型,满足不同场景的存储性能和价格需求,您可以根据业务需求变更云硬盘的类型。 例如,创建云硬盘时选择了通用型SSD,但后期需要更高的IOPS,则可以将该盘变配为超高IO型云硬盘。 普通IO、高IO、通用型SSD、超高IO:南宁23/上海36/青岛20/武汉41/华北2/西南1/南昌5/西安7/太原4/华南2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/乌鲁木齐7/华东1/上海15/佛山7 X系列:已上线的地域, 除华北2均支持修改磁盘类型,已上线区域请参见 针对按需计费云硬盘,您可以手动释放云硬盘,也可以设置随实例释放云硬盘(如果云硬盘开启了随实例释放,则在释放云主机实例时云硬盘会自动一起释放)。 云硬盘的快照默认不随云硬盘自动释放,如果您不再需要某些云硬盘快照,可以将其手动释放。您还可以通过设置云硬盘释放策略,选择在释放云硬盘的同时释放该盘的全部快照。 随实例释放按需计费云硬盘:华东1/华北2 随云硬盘释放快照:华东1/华北2
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能清单
      • 服务等级协议
        本文主要介绍新版天翼云分布式关系型数据库服务等级协议。 自2021年8月23日起,新版天翼云分布式关系型数据库服务等级协议(SLA)生效。详情请参见天翼云分布式关系型数据库服务等级协议。
        来自:
        帮助文档
        分布式关系型数据库
        相关协议
        服务等级协议
      • 执行Spark任务报内存不足告警如何处理?
        本章节主要介绍翼MapReduce组件Spark使用时的常见问题。 Spark 任务内存不足情况需要根据具体问题进行具体分析。 首先spark统一内存模型将内存分为offheap和heap两部分内存,每一个部分都可能发生内存不足的情况。 offheap内存不足的情况 offheap内存作用 为了进一步优化内存的使用以及提高 Shuffle 时排序的效率,Spark 引入了堆外(Offheap)内存,使之可以直接在工作节点的系统内存中开辟空间,存储经过序列化的二进制数据。 利用JDK Unsafe API(从 Spark 2.0 开始,在管理堆外的存储内存时不再基于 Tachyon,而是与堆外的执行内存一样,基于 JDK Unsafe API 实现),Spark 可以直接操作系统堆外内存,减少了不必要的内存开销,以及频繁的 GC 扫描和回收,提升了处理性能。堆外内存可以被精确地申请和释放,而且序列化的数据占用的空间可以被精确计算,所以相比堆内内存来说降低了管理的难度,也降低了误差。 offheap参数和动态扩展机制 Spark堆外内存的大小可以由spark.memory.offHeap.size控制,spark offheap空间只分为 execution 和 storage 1:1两部分,两部分可以动态扩展。 offheap不足 目前常用的offheap常见是 executor端,map task侧 shuffle时候,由于ShuffleExternalSorter占用内存过大,导致内存不足。 此外,在spark native场景中,spark将更多的使用 spark offheap内存取代heap内存,因此spark offheap在非shuffle场景下也会占用很多offheap内存。 如果存在offheap 内存不足警告,可以酌情添加spark.memory.offHeap.size 或者 降低shuffle 内存缓冲区大小。 heap内存不足的情况 spark将heap内存做如下分割 每一个部分超出使用上线都可能产生内存不足的情况。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        大数据业务开发
        执行Spark任务报内存不足告警如何处理?
      • 修改服务自定义配置参数
        本章节主要介绍翼MapReduce的修改服务自定义配置参数操作。 操作场景 MRS集群各个组件支持开源的所有参数,其中部分关键使用场景的参数支持在FusionInsight Manager界面进行修改,且部分组件的客户端可能不包含开源特性的所有参数。如果需要修改其他Manager未直接支持的组件参数,管理员可以在Manager通过自定义配置项功能为组件添加新参数。添加的新参数最终将保存在组件的配置文件中并在重启后生效。 对系统的影响 配置服务属性后,如果服务状态为“配置过期”,则需要重启此服务,重启期间该服务不可用。 修改服务配置参数并重启生效后,需要重新下载并安装客户端,或者下载配置文件刷新客户端。 前提条件 管理员已充分了解需要新添加的参数意义、生效的配置文件以及对组件的影响。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务”。 3. 单击服务视图中指定的服务名称。 4. 选择“配置 > 全部配置”。 5. 在左侧导航栏定位到某个一级节点,并选择“自定义”,Manager将显示当前组件的自定义参数。 “参数文件”显示保存管理员新添加的自定义参数的配置文件。每个配置文件中可能支持相同名称的开源参数,设置不同参数值后生效结果由组件加载配置文件的顺序决定。自定义参数支持服务级别与角色级别,请根据业务实际需要选择。不支持单个角色实例添加自定义参数。 6. 在对应参数项所在行“名称”列输入组件支持的参数名,在“值”列输入此参数的参数值。 支持单击“+”或“-”增加或删除一条自定义参数。 7. 单击“保存”,在弹出的“保存配置”窗口中确认修改参数,单击“确定”。界面提示“操作成功。”,单击“完成”,配置保存成功。 保存完成后请重新启动配置过期的服务或实例以使配置生效。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        服务配置
        修改服务自定义配置参数
      • 管理客户端
        本章节主要介绍翼MapReduce的管理客户端操作。 操作场景 FusionInsight Manager支持统一管理集群的客户端安装信息,用户下载并安装客户端后,界面可自动记录已安装(注册)客户端的信息,方便查询管理。同时系统支持手动添加、修改未自动注册的客户端信息(如历史版本已安装的客户端)。 操作步骤 查看客户端信息 1. 登录FusionInsight Manager。 2. 选择“集群 >待操作集群的名称 > 客户端管理”,即可查看当前集群已安装的客户端信息。 用户可查看客户端所在节点的IP地址、安装路径、组件列表、注册时间及安装用户等信息。 在当前最新版本集群下载并安装客户端时,客户端信息会自动注册。 添加客户端信息 3. 如需手动添加已安装好的客户端信息,单击“添加”,根据界面提示手动添加客户端的IP地址、安装路径、用户、平台信息、注册信息等内容。 4. 配置好客户端信息,单击“确定”,添加成功。 修改客户端信息 5. 手动注册的客户端信息可以手动修改。 在“客户端管理”界面选择待修改的客户端,单击“修改”。修改信息后,单击“确定”完成修改。 删除客户端信息 6. 在“客户端管理”界面选择待删除的客户端,单击“删除”,在弹出的窗口中单击“确定”,即可删除客户端信息。 如需删除多个客户端信息,勾选待删除的客户端,单击“批量删除”,在弹出的窗口中单击“确定”,即可删除客户端信息。 导出客户端信息 7. 在“客户端管理”界面选择待操作的客户端,单击“导出全部”可导出所有已注册的客户端信息到本地。 说明 客户端管理界面上组件列表栏只展示有真实客户端的组件,因此部分没有客户端的组件和客户端特殊的组件不会显示在组件列表栏。 不显示的组件有: LdapServer、KrbServer、DBService、Hue、Mapreduce、Flume。 不显示的组件有: LdapServer、KrbServer、DBService、Hue、Mapreduce、Flume。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理集群
        客户端管理
        管理客户端
      • 多租户管理页面概述
        本章节主要介绍翼MapReduce的多租户管理页面概述操作。 统一的多租户管理 登录FusionInsight Manager,选择“租户资源 > 租户资源管理”,可以查看到FusionInsight Manager作为统一的多租户管理平台,集成了租户生命周期管理、租户资源配置、租户服务关联和租户资源使用统计等功能,为企业提供了成熟的多租户管理模型,实现集中式的租户和业务管理。 图形化的操作界面 FusionInsight Manager实现全图形化的多租户管理界面:通过树形结构实现多级租户的管理和操作,将当前租户的基本信息和资源配额集成在一个界面中,方便运维和管理,如下图所示多租户管理。 层级式的租户管理 FusionInsight Manager支持层级式的租户管理,可以为租户进一步添加子租户,实现资源的再次配置。一级租户下一级的子租户属于二级租户,以此类推。为企业提供了成熟的多租户管理模型,实现集中式的租户和业务管理。 简化的权限管理 FusionInsight Manager对普通用户封闭了租户内部的权限管理细节,对管理员简化了权限管理的操作方法,提升了租户权限管理的易用性和用户体验。 使用RBAC方式,在多租户管理时,可根据业务场景为各用户分别配置不同权限。 租户的管理员,具有租户的管理权限,包括:查看当前租户的资源和服务、在当前租户中添加/删除子租户并管理子租户资源的权限。支持定义单个租户的管理员,可以将租户的管理权限委托给系统管理员之外的其他用户。 租户对应的角色,具有租户的计算资源和存储资源的全部权限。创建租户时,系统自动创建租户对应的角色,可以添加用户并绑定该角色为其他用户授权,以使用该租户的资源。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        技术原理
        多租户管理页面概述
      • 修改OMS服务配置参数
        本章节主要介绍翼MapReduce的修改OMS服务配置参数操作。 操作场景 根据用户环境的安全要求,管理员可以在FusionInsight Manager修改OMS中Kerberos与LDAP配置。 对系统的影响 修改OMS的服务配置参数后,需要重启对应的OMS模块,此时FusionInsight Manager将无法正常使用。 操作步骤 修改okerberos配置 1. 登录FusionInsight Manager,选择“系统 > OMS”。 2. 在okerberos所在行,单击“修改配置”。 3. 根据下表所示的说明修改参数。 okerberos参数配置一览表 参数名 说明 连接KDC最大时延(毫秒) 应用连接到Kerberos的超时时间,单位为毫秒,请填写整数值。 最大尝试次数 应用连接到Kerberos的最大重试次数,请填写整数值。 操作Ldap最大时延(毫秒) Kerberos连接LDAP的超时时间,单位为毫秒。 搜索Ldap最大时延(毫秒) Kerberos在LDAP查询用户信息的超时时间,单位为毫秒。 Kadmin监听端口 kadmin服务的端口。 KDC监听端口 kinit服务的端口。 Kpasswd监听端口 kpasswd服务的端口。 4. 单击“确定”。 在弹出窗口输入当前登录用户密码验证身份,单击“确定”,在确认重启的对话框中单击“确定”。 修改oldap配置 5. 在oldap所在行,单击“修改配置”。 6. 根据下表所示的说明修改参数。 oldap参数配置一览表 参数名 说明 Ldap服务监听端口 LDAP服务端口号。 7. 单击“确定”。 在弹出窗口输入当前登录用户密码验证身份,单击“确定”,在确认重启的对话框中单击“确定”。 说明 如果重置LDAP帐户口令需要重启ACS,操作步骤如下: 使用PuTTY,以omm用户登录主管理节点,执行以下命令更新域配置: sh ${BIGDATAHOME}/omserver/om/sbin/restartRealmConfig.sh复制 提示以下信息表示命令执行成功: Modify realm successfully. Use the new password to log into FusionInsight again.复制 执行 sh $CONTROLLERHOME/sbin/acscmd.sh stop ,停止ACS。 执行 sh $CONTROLLERHOME/sbin/acscmd.sh start ,启动ACS。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        OMS管理
        修改OMS服务配置参数
      • 解锁系统内部用户
        本章主要介绍翼MapReduce的解锁系统内部用功能。 操作场景 若服务出现异常状态,有可能是系统内部用户被锁定,请及时解锁,否则会影响集群正常运行。系统内部用户列表请参见用户帐号一览表。系统内部用户无法使用FusionInsight Manager解锁。 前提条件 根据用户帐号一览表获取LDAP管理员“cnroot,dchadoop,dccom”的默认密码。 操作步骤 1.使用以下方法确认系统内部用户是否被锁定: a.查询oldap端口: 登录FusionInsight Manager,选择“系统 > OMS > oldap > 修改配置”。 “Ldap服务监听端口”参数值即为oldap端口。 b.查询域名方法: 登录FusionInsight Manager,选择“系统 > 权限 > 域和互信”。 “本端域”参数即为域名。 例如当前系统域名为“9427068F6EFA4833B43E60CB641E5B6C.COM”。 c.在集群内节点上以omm用户执行以下命令查询密码认证失败次数: ldapsearch H ldaps://OMS浮动IP地址:OLdap端口 LLL x D cnroot,dchadoop,dccom b krbPrincipalName系统内部用户名@当前域名,cn当前域名,cnkrbcontainer,dchadoop,dccom w LDAP管理员密码 e ppolicy grep krbLoginFailedCount 例如,查看oms/manager用户认证失败次数: ldapsearch H ldaps://10.5.146.118:21750 LLL x D cnroot,dchadoop,dccom b krbPrincipalNameoms/manager@9427068F6EFA4833B43E60CB641E5B6C.COM,cn9427068F6EFA4833B43E60CB641E5B6C.COM,cnkrbcontainer,dchadoop,dccom w cnroot,dchadoop,dccom 用户密码 e ppolicy grep krbLoginFailedCount krbLoginFailedCount: 5 d.登录FusionInsight Manager,选择“系统 > 权限 > 安全策略 > 密码策略”。 e.查看“密码连续错误次数”参数值,若小于等于“krbLoginFailedCount”参数值,则用户已被锁定。 说明 查看运行日志,也可以确认系统内部用户是否被锁定。 2.以omm用户登录主管理节点,执行以下命令解锁。 sh ${BIGDATAHOME}/omserver/om/share/om/acs/config/unlockuser.sh userName 系统内部用户名 例如, sh ${BIGDATAHOME}/omserver/om/share/om/acs/config/unlockuser.sh userName oms/manager
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        帐户安全设置
        解锁系统内部用户
      • 入服与退服实例
        本章节主要介绍翼MapReduce的入服与退服实例操作。 操作场景 部分角色实例以分布式并行工作的方式对外部业务提供服务,服务会单独保存每个实例是否可以使用的信息,所以需要使用FusionInsight Manager为这些实例执行入服或退服的操作,变更实例的业务可用状态方式。 不支持该此功能的实例,默认无法执行任务。 说明 当前支持退服和入服操作的角色有:HDFS的DataNode、Yarn的NodeManager、HBase的RegionServer。 当DataNode数量少于或等于HDFS的副本数时,不能执行退服操作。若HDFS副本数为3时,则系统中少于4个DataNode,将无法执行退服,Manager在执行退服操作时会等待30分钟后报错并退出执行。 由于Mapreduce任务执行时,会生成一些副本数为10的文件,此时若DataNode实例数少于10时,将无法进行退服操作。 如果退服前,DataNode节点的机架数(机架数由各DataNode节点所配置的“机架”的名称数量决定)大于1;而退服部分DataNode后,剩余的DataNode节点的机架数变为1,则此次退服将会失败。所以需要在退服前评估退服操作对机架数的影响,以调整退服的DataNode节点。 在退服多个DataNode时,如果每个DataNode存储的数据量较大,如果执行选择多个DataNode同时退服,则很有可能会因超时而退服失败。为了避免这种情况,建议每次退服仅退服1个DataNode,进行多次退服操作。 操作步骤 1. DataNode节点退服前需要进行健康检查,步骤如下: 使用客户端用户登录客户端安装节点,并切换到客户端安装目录。 如果是安全集群,需要使用hdfs用户进行权限认证。 source bigdataenv
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理实例
        入服与退服实例
      • 跨账号授权
        本节为您介绍如何跨账号授权。 操作场景 天翼云SDWAN支持跨账号授权,向对方账号授权智能网关实例资源后,对方账号SDWAN网络中可添加您的智能网关,需要谨慎操作,一个智能网关只能授权给一个用户。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成SDWAN实例、智能网关实例的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本节我们选择华东1。 3. 依次选择“网络”,单击“天翼云SDWAN”,进入天翼云SDWAN总览页面。 4. 选择“跨账号授权”,单击“已授权网络实例”页签,单击“授权”按钮。 5. 在“授权网络实例”的弹框中,根据提示配置参数,具体参数配置如下: 参数 说明 智能网关 请选择当前账号下的智能网关。 对方账号ID 请输入需要授权的对方账号ID。 对方SDWAN 实例ID 请输入需要授权的对方SDWAN实例ID。 描述 添加描述,可选。 6. 单击“确认”按钮。 7. 单击“被授权网络实例”页签,可以查看授权SDWAN的名称、被授权网络资源、授权资源账号等内容。
        来自:
        帮助文档
        天翼云SD-WAN
        智能网关通用配置
        跨账号授权
      • 天翼云函数工作流服务协议
        本文主要介绍天翼云函数工作流服务协议。 天翼云函数工作流服务协议详情请参见这里
        来自:
        帮助文档
        函数工作流
        相关协议
        天翼云函数工作流服务协议
      • 在科研助手使用DeepSeek进行科研服务
        本文介绍了如何在科研助手中使用预置好的DeepSeekR1 7B模型服务。 概述 DeepSeekR1 是幻方量化旗下 AI 公司深度求索(DeepSeek)研发的一款高性能推理模型。该模型使用强化学习技术进行后训练,专注于提升在数学、代码和自然语言推理等复杂任务上的表现。 DeepSeekR1 在需要逻辑推理、思维链推理和实时决策的任务中表现出色,如解决高级数学问题、生成复杂代码、解析复杂科学问题等。在类似Codeforces的挑战场景中获得了2029 Elo评分;在复杂推理基准测试中,表现与OpenAI的o1模型相当。尽管总共有6710亿的庞大参数,但每次前向传递时仅激活370亿个参数,比大多数大模型更加高效的利用资源。 当前在科研助手的社区镜像中,我们已经为您提前部署好了完整的服务,方便您即刻体验,开箱即用。 准备环境 1. 进入科研助手控制台,点击左上角,切换“科研版”。 2. 进入“科研版”总览页,点击快捷入口【找应用】,进入应用商城。 3. 在“应用商城”中,找到名为“DeepSeekR1:7B模型”的镜像,点击【使用此镜像】,进入开发机创建界面。 4. 在购买页面中,【基础信息】【主机规格】一栏,用户可以按照如下配置选择。 配置 算力型号 可用区 ::: 最低配置 GPU.gn3.m1 厦门4、扬州7 推荐配置 GPU.gn4.2xl1 贵阳2 高端配置 NVIDIA A100 40G 中卫4 这里以NVIDIAA10040G为例,框架版本已默认选好【社区镜像】的“openwebuideepseekr1cuda11.3”。 5. 点击【确认订单】,完成开发机创建并启动。
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用DeepSeek进行科研服务
      • 下线/删除API
        本章节主要介绍下线/删除API。 操作场景 已发布的API因为其他原因需要停止对外提供服务,可以将API从相关环境中下线,相关操作请参见下线API。 下线后的API如果要继续使用,需要重新进行发布操作,但需注意下线API不会保留原有的授权信息。 下线后的API如果确认不再提供服务,可以将API删除,相关操作请参见删除API。 说明 下线API不会保留原有的授权信息。 下线将导致此API在指定的时间无法被访问,请确保已经告知使用此API的用户。 删除API导致此API无法恢复,请确认后谨慎操作。 前提条件 已创建API。 API已发布到该环境。 下线API 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.单击“开发API > API管理”,进入到API管理信息页面。 4.在待下线的API所在行,单击“更多 >下线”,弹出“下线API”对话框。 5.选择API需要下线的时间,单击“确定”,完成API定时下线。 删除API 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.在左侧选择“API目录”,进入API列表页,勾选需要删除的API,单击“删除”。 4.单击“确定”,完成API删除。 说明 如果需要批量删除API,则勾选待删除的API,单击“删除”。最多同时删除1000个API。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        管理API
        下线/删除API
      • 流量控制
        绑定API 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.单击“运营管理 > 流控策略”,进入到流量控制信息页面。 4.通过以下任意一种方法,进入“绑定API”页面。 −在待绑定的流量控制策略所在行,单击“绑定API”。 −单击策略名称,进入策略详情页面。在“绑定的API列表”页签中单击“绑定API”。 5.选择“API分组”和“API名称”,筛选所需的API。 6.勾选API,单击“绑定”,完成API绑定策略。 说明 在流控策略绑定API后,如果API不需要调用此策略,单击“解除”,解除绑定。如果需要批量解绑API,则勾选待解绑的API,单击“解除”。最多同时解绑1000个API。 删除流控策略 当已创建的流控策略不再提供服务时,可以将此流控策略删除。 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.单击“运营管理 > 流控策略”,进入到流量控制信息页面。 4.在待删除的流控策略所在行,单击“删除”。 说明 仅在流控策略未绑定任何API时,支持删除,否则请先解绑API。 如果需要批量删除流控策略,则勾选待删除的流控策略,单击“删除”。最多同时删除1000个流控策略。 5.单击“确定”,完成流控策略的删除。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        流量控制
      • 全量导出/导出/导入API
        导出API 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.单击“开发API > API管理”页面,进入API管理页面。 4.勾选待导出的API所在行,在API列表上方,选择“更多 > 导出”,弹出导出窗口。 5.在导出窗口中确认待导出的API,点击确认即可以Excel文件的形式导出API。 详见下图: 导出API 6.打开下载到本地的Excel文件,可以查看导出的API。不同类型的API会分别导出到文件页签中, 点击下方页签可以切换查看并编辑。 详见下图: Excel文件样式 导入API 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.单击“开发API > API管理”页面,进入API管理页面。 4.在API列表上方,选择“更多>导入”,进入导入API窗口。 5.在导入窗口中点击“选择Excel文件”,选择后点击导入,导入结果中可以展示导入状态。 说明 待导入的API文件可以是从其他项目直接导出的API文件,也可以是通过模板填写的Excel文件,需要确保符合模板规范要求。 详见下图: 导入API 6.导入成功后,即可在API列表中查看导入的API。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        管理API
        全量导出/导出/导入API
      • 修改Topic老化时间
        本文主要介绍 修改Topic老化时间。 老化时间即消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。 创建Topic成功之后,您可以根据业务需要修改Topic的老化时间。修改老化时间,不会影响业务。Topic老化时间,默认为72小时。 修改老化时间可以通过以下方式实现: 在“Topic管理”中,修改老化时间。 在“配置参数”中,修改“log.retention.hours”参数值,具体步骤请参考修改配置参数。 说明 如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。例如:Topic01设置的老化时间为60小时,“配置参数”中的log.retention.hours值为72小时,此时Topic01实际的老化时间为60小时。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改Topic老化时间。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改老化时间的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,输入老化时间,单击“确定”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic老化时间
      • 添加DNAT
        配置DNAT可使您的内部网络对外提供服务,本节为您介绍如何添加DNAT。 操作场景 配置DNAT规则后,用户可以通过Internet访问内部网络,从而使内部网络可对外提供服务。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已完成智能网关的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本节我们选择华东1。 3. 依次选择“网络”,单击“天翼云SDWAN”,进入天翼云SDWAN总览页面。 4. 选择“智能网关”,单击目标智能网关实例名称,进入智能网关实例详情页。 5. 单击“NAT配置”页签,单击“添加DNAT规则”,进入配置DNAT规则界面。 6. 在配置DNAT规则页面,根据页面提示配置参数,参数信息如下: 参数 描述 DNAT类型 公网DNAT。 连接类型 所有端口 将任何访问外网IP地址的请求转发到内网目标地址上。 具体端口 对外服务端口:内网地址对外映射后服务端口。取值范围:165535。 内网端口:内网地址提供服务真实端口。取值范围:165535。 协议类型:智能网关支持的协议类型请以控制台为准。 本端私网IP DNAT转换后的IP地址。 7. 点击“确认”按钮。
        来自:
        帮助文档
        天翼云SD-WAN
        智能网关(硬件版)
        云上网络配置
        添加DNAT
      • 1
      • ...
      • 193
      • 194
      • 195
      • 196
      • 197
      • ...
      • 596
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      科研助手

      推荐文档

      RDP/VNC访问

      价格

      FTP访问

      权限管理

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号