活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      网站ipv6升级服务_相关内容
      • 下载备份
        本页介绍了文档数据库服务下载备份文件操作。 文档数据库服务产品支持对可用实例进行备份文件下载操作,步骤如下: 方式一: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 点击实例状态是“运行中”实例的实例名称,进入到该实例详情页。 4. 点击选择“备份恢复”页,在“操作”列点击“下载”按钮,复制生成的下载链接或者点击下载箭头,即可直接下载备份文件。 方式二: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“备份管理”,进入到“备份管理”菜单页。 3. 点击选择“数据库同区域备份”标签页,点击“备份记录”子页,可见所有备份记录。 4. 选中需要下载的备份记录,在“操作”列点击“下载”按钮,复制生成的下载链接或者点击下载箭头,即可直接下载备份文件。 注意 备份下载链接有效期为5分钟。 仅备份空间类型为“对象存储”的实例支持备份下载功能。 集群版实例备份下载内容为shard节点、config节点全量及增量备份内容。 单机版、副本集实例备份下载内容为实例节点全量备份内容。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        备份管理
        下载备份
      • 查看监控数据
        本文主要介绍查看监控数据。 操作场景 云监控对Kafka实例的运行状态进行日常监控,可以通过控制台直观的查看Kafka实例各项监控指标。 前提条件 已创建Kafka实例,且实例中有可消费的消息。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,查看监控数据。 在Kafka实例名称后,单击。跳转到云监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。 单击Kafka实例名称,进入实例详情页。在左侧导航栏单击“监控”,进入监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        查看监控数据
      • 文档数据库服务版本与社区版本的对应关系说明
        文档数据库服务DDS是兼容MongoDB协议的云数据库服务,DDS的大版本会选择社区未EOL并且有新的重大功能的版本作为候选版本进行兼容。DDS的版本号并不是与社区版本号一一对应。为了便于理解DDS与兼容社区版本之间的对应关系,DDS采用了与之兼容的社区版本号进行命名,详情请参见图1。 图1 DDS版本与社区版本的关系图 DDS 3.4和4.0版本分别以社区对应的版本为基线进行开发,相同的接口实现方案与社区一致。相比社区版本的DDS具有更高的安全性、更加丰富的操作维护功能,因此更能满足商业应用需求。 DDS 4.0版本在2018年10月16日之后,继续以社区4.0.3版本为基线,独立开发新特性并自主演进。 DDS 4.2以及后续高版本,是以社区4.0.3版本为基线,独立开发新特性并自主演进,同时将存储引擎切换为RocksDB,提供更好的体验。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        文档数据库服务版本与社区版本的对应关系说明
      • 申请和修改内网域名
        修改内网域名 对于创建完成的实例,支持更改内网域名。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称,进入实例基本信息页面。 步骤 5 在“基本信息”页“节点信息”模块“操作”列,单击“更多 > 修改内网域名”。 您也可以在左侧导航栏,单击“连接管理”,在“内网连接”页面中,在“基本信息”模块下方“操作”列,单击“更多 > 修改内网域名”。 步骤 6 在“修改内网域名”弹出框中进行修改。单击“确定”,保存修改内容。内网域名修改完成后,大约5分钟生效。 说明 内网域名只允许修改前缀部分。 内网域名前缀部分长度为8~56个字符,包含字母或数字。 新的内网域名不可与当前已存在的有效域名重复。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        连接管理
        申请和修改内网域名
      • 错误处理
        本文是一些常见的错误情形及示例。 请求处理过程中出现异常时,服务会对外抛出非200的http状态码,表明当前请求无法正常完成。 对于异常的请求响应,请求体中会返回error结构,error中返回具体的错误信息。 特殊地,在流式请求中: 如果在流式请求接收处理之前发生了异常,如鉴权、参数校验等问题,与普通的非流式一样返回http code,并带有error结构。 如果在流式请求已经接收,会先对外返回流式请求连接建立的信息,此时http code为200,而在后续模型流式返回过程中发生了异常,会在流失返回的chunk返回error结构,并终止当前的流式请求。 错误error结构 字段名称 二级字段 类型 必选 描述 error object 是 错误信息 code string 是 平台错误码 type string 是 平台错误类型 message string 是 平台错误详情 错误结果示例 plaintext { "error":{ "code":"500001", "type":"INVOKEMODELERROR", "message":"服务接口异常,请联系管理员" } } 错误码 HTTP状态码 错误码 错误信息 错误描述 500 INVOKEMODELERROR 服务接口异常,请联系管理员 推理接口异常 400 PARAMERROR 参数不正确,请联系管理员 参数校验失败 500 SYSTEMERROR 系统错误, 请联系管理员 系统内部错误 401 INCORRECTAPIKEYPROVIDED AppKey不正确,请使用正确的AppKey 鉴权信息错误 400 INVOKETEXTAUDITERROR 调用审查服务接口发生异常,请联系管理员 内容审核失败 400 TEXTAUDITQUESTIONNOTPASS 很抱歉,关于这个问题我无法提供相应的信息。如果您有其他问题,我将很愿意为您回答。 问题未通过内容审核 400 TEXTAUDITANSWERNOTPASS 很抱歉,关于这个问题我无法提供相应的信息。如果您有其他问题,我将很愿意为您回答。 答案未通过内容审核 429 RESOURCESTIPS 免费额度已用完或已到期,或账户金额不足。请开通付费 免费试用限制 429 USERRPMRATELIMITING 用户请求RPM超限,请稍后重试 RPM(Requests Per Minute)针对用户每分钟允许的请求次数超过限制 429 USERTPMRATELIMITING 用户请求TPM超限,请减少tokens后重试 TPM(Tokens Per Minute)针对用户每分钟消耗的token超出限制 429 AKBANNED 您的请求AK已被封禁,请更换AK或联系后台人员解封后重试 App Key被封禁 429 MODELRPMRATELIMITING 模型请求RPM超限,请稍后重试 RPM(Requests Per Minute)针对模型侧每分钟允许的请求次数超过限制 429 MODELTPMRATELIMITING 模型请求TPM超限,请减少tokens后重试 TPM(Tokens Per Minute)针对模型侧的每分钟消耗的token超出限制
        来自:
        帮助文档
        一站式智算服务平台
        推理服务API
        错误处理
      • 收发顺序消息
        顺序消息是分布式消息服务RocketMQ版提供的一种严格按照顺序来发布和消费的消息类型。 顺序消息分为全局顺序消息和分区顺序消息: 全局顺序消息:对于指定的一个Topic,将队列数量设置为1,这个队列内所有消息按照严格的先入先出FIFO(First In First Out)的顺序进行发布和订阅。 分区顺序消息:对于指定的一个Topic,同一个队列内的消息按照严格的FIFO顺序进行发布和订阅。生产者指定分区选择算法,保证需要按顺序消费的消息被分配到同一个队列。 全局顺序消息和分区顺序消息的区别仅为队列数量不同,代码没有区别。 收发消息前,请参考收集连接信息收集RocketMQ所需的连接信息。 准备环境 开源的Java客户端支持连接分布式消息服务RocketMQ版,推荐使用的客户端版本为4.9.7。 通过以下任意一种方式引入依赖: 1. 使用Maven方式引入依赖。 org.apache.rocketmq rocketmqclient 4.9.7 org.apache.rocketmq rocketmqacl 4.9.7 2. 点击下载依赖JAR包:rocketmqall4.9.7binrelease.zip 发送顺序消息 参考如下示例代码 import org.apache.rocketmq.acl.common.AclClientRPCHook; import org.apache.rocketmq.acl.common.SessionCredentials; import org.apache.rocketmq.client.producer.DefaultMQProducer; import org.apache.rocketmq.client.producer.SendResult; import org.apache.rocketmq.common.message.Message; import org.apache.rocketmq.remoting.RPCHook; import org.apache.rocketmq.remoting.common.RemotingHelper; public class ProducerFifoExample { private static RPCHook getAclRPCHook() { return new AclClientRPCHook(new SessionCredentials( "accessKey", // 分布式消息服务RocketMQ控制台用户管理菜单中创建的用户ID "accessSecret" // 分布式消息服务RocketMQ控制台用户管理菜单中创建的密钥 )); } public static void main(String[] args) throws Exception { / 创建Producer,如果想开启消息轨迹,可以按照如下方式创建: DefaultMQProducer producer new DefaultMQProducer("YOUR GROUP ID", getAclRPCHook(), true, null); / DefaultMQProducer producer new DefaultMQProducer("YOUR GROUP ID", getAclRPCHook()); // 填入控制台NAMESRV接入点地址 producer.setNamesrvAddr("XXX:xxx"); ; // 如果需要开启SSL,请增加此行代码 producer.start(); for (int i 0; i { // 选择适合自己的分区选择算法,保证同一个参数得到的结果相同。 Integer id (Integer) arg; int index id % mqs.size(); return mqs.get(index); }, orderId); System.out.printf("%s%n", sendResult); } catch (Exception e) { e.printStackTrace(); } } producer.shutdown(); } } 注意 上述代码中,相同id的消息需要保证顺序,不同id的消息不需要保证顺序,所以在分区选择算法中以“id/队列个数的余数”作为消息发送的队列。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        开发指南
        Java
        收发顺序消息
      • 数据库参数
        本页介绍了文档数据库服务参数。 能否调整实例的时区设定 鉴于无法调整文档数据库服务的时区设置,您可以通过在应用程序中获取当前时间并将其插入到表中的方式来处理。 用户需要关注实例的哪些参数 storage.engine 这个参数用于指定 MongoDB 使用的存储引擎,默认为 WiredTiger。可以根据需求选择其他存储引擎,如 InMemory 引擎或 MMAPv1 引擎。 storage.wiredTiger.engineConfig.cacheSizeGB 对于使用 WiredTiger 存储引擎的 MongoDB,这个参数用于配置缓存大小,即存储引擎使用的内存量。根据数据量和可用内存设置合适的值。 net.maxIncomingConnections 这个参数限制 MongoDB 实例可以同时处理的连接数。通过适当设置这个参数,可以控制 MongoDB 的并发连接数量。 security.authorization 使用这个参数可以启用或禁用 MongoDB 的访问控制功能。设置为 true 时,需要进行身份验证才能访问 MongoDB。 MapReduce提示不支持JavaScript MapReduce是一种用于对大型数据集进行处理和分析的功能强大的工具。然而,从安全性和性能方面考虑,在某些情况下可能会限制使用JavaScript代码,包括在MapReduce中执行JavaScript代码。 这种限制的目的是为了减少潜在的安全风险,避免不当的代码执行以及提高执行效率。JavaScript代码的执行可能会引起一些潜在的问题,例如代码注入攻击和性能下降。 为了安全考虑,mongodb默认限制了JavaScript脚本的执行。 文档数据库服务数据一致性策略:writeConcern与readConcern的运用与限制 MongoDB的写入和读取是数据库操作中重要的两个方面。为了确保数据的可靠性和一致性,MongoDB提供了writeConcern和readConcern这两个机制。 当我们谈论writeConcern时,实际上是在谈论写入操作的策略。通过配置writeConcern,我们可以控制数据写入的行为。例如,当我们将writeConcern设置为"majority"级别时,MongoDB会确保数据被写入到大多数节点上,从而降低了数据丢失的风险。这意味着,即使部分节点发生故障,大多数节点仍然保存着相同的数据,保障了数据的可靠性。 而readConcern则是与读取操作相关的策略。当我们设置readConcern为"majority"级别时,MongoDB会确保所读取的数据已经被写入到了大多数节点上。这就消除了因为读取操作而引起的脏读问题,因为我们可以确信读取到的数据已经经过大多数节点的确认。 然而,需要注意的是,目前文档数据库服务并不直接支持设置readConcern为"majority"级别。但这并不妨碍我们保障数据的一致性。通过设置writeConcern为"majority",我们可以将数据写入到大多数节点,从而实现了大多数节点数据的一致性。随后,通过读取单个节点的数据,仍然可以保证读取到的内容是已经经过多数节点确认的,避免了脏读的问题。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库参数
      • 自定义插件管理
        本文介绍天翼云云搜索Elasticsearch实例自定义插件的安装方式。 当您需要使用自定义插件或系统默认插件中不包含的开源插件时,可通过云搜索服务的自定义插件上传与安装功能,在实例中上传并安装对应插件。本文介绍具体的操作方法。 前提条件 1. 准备待上传的插件,并确保插件的可用性和安全性。 2. 建议在上传插件前,先在本地自建Elasticsearch实例(与实例相同版本)上进行测试,成功后再进行上传。 3. 开通与云搜索实例同地域的对象存储服务,并上传好需要安装的插件至对象存储的桶中。 使用限制 1. 不支持安装与默认插件一样的插件,包括默认插件的其他版本。 2. 不支持同时安装/卸载两个以上的插件。 3. 云搜索服务不保留用户插件的安装文件,请您自行备份。 4. 插件文件后缀需要为.zip。 5. 不支持上传安装带权限属性的插件。 6. 目前云搜索已关闭该功能,仅版本号<1.5.0的实例可以使用。 注意 安装自定义插件操作会触发实例重启插件本身可能影响实例的稳定性,请务必保证自定义插件的可用性和安全性,建议在业务低峰期进行操作。 操作步骤 1. 登录云搜索服务控制台,进入实例管理列表页,选择需要设置的实例点击名称进入详情页。 2. 在实例详情页选择“插件管理”—“自定义插件”,单击上传插件按钮。 3. 在弹出的页面上填写: 1. 插件名称,仅支持字母、数字和字符,请和插件包名称保持一致。插件名称查询路径:插件包内properties文件中找到pluginName。 2. 插件版本:插件目前的版本,格式为数字和点组合,如:7.10或2.19.1.0等,非必填。 3. 插件描述:用于帮助用户识别插件功能,非必填。 4. 插件地址:填写天翼云对象存储同地域资源池下的地址,获取路径为:对象存储控制台——点击对应桶名称进入详情——点击文件管理,找到对应的插件,点击右侧更多——复制URL。 注意 需要开启对应文件的可读权限。 填写完毕后点击安装并重启,插件会先在实例安装,安装完毕后实例将自动进行重启。期间请勿对实例进行其他操作。 4. 当实例重启完成,插件状态变成“已安装”则表示插件已经安装完毕。若插件处于“未安装”状态,则说明安装失败,您可根据提示调整填写内容再次重试或通过工单联系我们协助处理。您也可以删除该插件信息。 5. 已经安装完毕的插件,如果您不再使用,可单击插件右侧的卸载,卸载此插件。卸载插件如需再次安装,请参照前述步骤执行。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        插件管理
        自定义插件管理
      • 云审计服务支持的DMS for Kafka操作列表
        本文主要介绍云审计服务支持的DMS for Kafka操作列表。 通过云审计服务,您可以记录与分布式消息服务Kafka相关的操作事件,便于日后的查询、审计和回溯。 表 云审计服务支持的DMS for Kafka操作列表 操作名称 资源类型 事件名称 创建DMS实例订单成功 kafka createDMSInstanceOrderSuccess 创建DMS实例任务执行成功 kafka createDMSInstanceTaskSuccess 创建DMS实例订单失败 kafka createDMSInstanceOrderFailure 创建DMS实例任务执行失败 kafka createDMSInstanceTaskFailure 删除创建失败的DMS实例成功 kafka deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 kafka deleteDMSCreateFailureInstancesFailure 删除DMS实例任务执行成功 kafka deleteDMSInstanceTaskSuccess 删除DMS实例任务执行失败 kafka deleteDMSInstanceTaskFailure 批量删除DMS实例任务 kafka batchDeleteDMSInstanceTask 提交批量删除DMS实例请求成功 kafka batchDeleteDMSInstanceSuccess 批量删除DMS实例任务执行成功 kafka batchDeleteDMSInstanceTaskSuccess 提交批量删除DMS实例请求失败 kafka batchDeleteDMSInstanceFailure 批量删除DMS实例任务执行失败 kafka batchDeleteDMSInstanceTaskFailure 提交修改DMS实例订单请求成功 kafka modifyDMSInstanceOrderSuccess 提交修改DMS实例订单请求失败 kafka modifyDMSInstanceOrderFailure 提交扩容实例请求成功 kafka extendDMSInstanceSuccess 扩容DMS实例任务执行成功 kafka extendDMSInstanceTaskSuccess 提交扩容实例请求失败 kafka extendDMSInstanceFailure 扩容DMS实例任务执行失败 kafka extendDMSInstanceTaskFailure 提交重置DMS实例密码请求成功 kafka resetDMSInstancePasswordSuccess 提交重置DMS实例密码请求失败 kafka resetDMSInstancePasswordFailure 提交重启DMS实例请求成功 kafka restartDMSInstanceSuccess 重启DMS实例任务执行成功 kafka restartDMSInstanceTaskSuccess 提交重启DMS实例请求失败 kafka restartDMSInstanceFailure 重启DMS实例任务执行失败 kafka restartDMSInstanceTaskFailure 提交批量重启DMS实例请求成功 kafka batchRestartDMSInstanceSuccess 批量重启DMS实例任务执行成功 kafka batchRestartDMSInstanceTaskSuccess 提交批量重启DMS实例请求失败 kafka batchRestartDMSInstanceFailure 批量重启DMS实例任务执行失败 kafka batchRestartDMSInstanceTaskFailure 提交修改DMS实例信息请求成功 kafka modifyDMSInstanceInfoSuccess 修改DMS实例信息任务执行成功 kafka modifyDMSInstanceInfoTaskSuccess 提交修改DMS实例信息请求失败 kafka modifyDMSInstanceInfoFailure 修改DMS实例信息任务执行失败 kafka modifyDMSInstanceInfoTaskFailure 删除后台任务成功 kafka deleteDMSBackendJobSuccess 删除后台任务失败 kafka deleteDMSBackendJobFailure 冻结DMS实例任务执行成功 kafka freezeDMSInstanceTaskSuccess 冻结DMS实例任务执行失败 kafka freezeDMSInstanceTaskFailure 解冻DMS实例任务执行成功 kafka unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务执行失败 kafka unfreezeDMSInstanceTaskFailure Kafka专享实例创建Topic成功 kafka KafkacreatetopicSuccess Kafka专享实例创建Topic失败 kafka KafkacreatetopicFailure Kafka专享实例删除Topic成功 kafka KafkadeletetopicsSuccess Kafka专享实例删除Topic失败 kafka KafkadeletetopicsFailure 开启自动创建Topic成功 kafka enableautotopicSuccess 开启自动创建Topic失败 kafka enableautotopicFailure 重置消费组偏移量成功 kafka KafkaresetconsumeroffsetSuccess 重置消费组偏移量失败 kafka KafkaresetconsumeroffsetFailure 创建用户成功 kafka createUserSuccess 创建用户失败 kafka createUserFailure 删除用户成功 kafka deleteUserSuccess 删除用户失败 kafka deleteUserFailure 更新用户策略成功 kafka updateUserPoliciesTaskSuccess 更新用户策略失败 kafka updateUserPoliciesTaskFailure
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的DMS for Kafka操作列表
      • 准备工作
        本文介绍模型推理服务使用前的准备工作。 注册天翼云账号 在开通和使用模型推理服务平台之前,您需要先注册天翼云账号。 1. 注册账号,请参考账号中心注册账号 2. 如需实名认证,请参考账号中心实名认证。 充值主账户 使用息壤模型推理服务平台之前,请保证您的账户有充足的余额,账户余额需要大于100元。 请前往费用充值为账户充值。 平台支持按卡时后计费、包周期预付费和按tokens用量计费。
        来自:
        帮助文档
        模型推理服务
        快速入门
        准备工作
      • 错误处理
        本文是一些常见的错误情形及示例。 ● 请求处理过程中出现异常时,服务会对外抛出非200的http状态码,表明当前请求无法正常完成。 ● 对于异常的请求响应,请求体中会返回error结构,error中返回具体的错误信息。 ● 特殊地,在流式请求中: 如果在流式请求接收处理之前发生了异常,如鉴权、参数校验等问题,与普通的非流式一样返回http code,并带有error结构。 ○ 如果在流式请求已经接收,会先对外返回流式请求连接建立的信息,此时http code为200,而在后续模型流式返回过程中发生了异常,会在流失返回的chunk返回error结构,并终止当前的流式请求。 错误error结构 字段名称 二级字段 类型 必选 描述 error object 是 错误信息 code string 是 慧聚平台错误码 type string 是 慧聚平台错误类型 message string 是 慧聚平台错误详情 错误结果示例 xml { "error" : { "code" : "500001", "type" : "INVOKEMODELERROR", "message" : "服务接口异常,请联系管理员" } }
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        错误处理
      • Redis使用规范
        规范 规范说明 等级 备注 使用连接池+长连接 短连接性能差,建议使用连接池+长连接,可以有效控制连接,同时提高效率 建议 推荐使用JedisPool或者JedisCluster连接实例。 避免使用Lettuce客户端 Jedis客户端在面对连接异常,网络抖动等场景下的异常处理和检测能力明显强于Lettuce,可靠性更强 建议 建议使用Jedis 客户端需要对可能的故障和慢请求做容错处理 由于Redis服务可能因网络波动或基础设置故障的影响,引发主备切换、命令超时或慢请求等现象,需要在客户端内设计合理的容错重试机制 强制 合理设置重试时间和次数 根据业务要求合理设置容错处理的重试时间和次数,避免不合适的设置导致对服务的可用性收到影响 强制 如果超时重试时间设置的非常短,可能引发重试风暴,极易引发业务层雪崩 如果重试时间设置得较长或者重试次数设置得较大,则可能导致在主备倒换情况下业务恢复较慢
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        Redis使用规范
      • 视图库接入
        本节主要介绍如何在智能视图服务控制台接入下级视图库。 说明 下级视图库接入相关功能暂未开放,如您需使用,请联系客户经理。 添加下级视图库 在设备管理页面点击【添加设备】,设备分类下拉选择【Platform】,接入方式选择【视图】,在视图接入信息部分,接入类型选择【视图库】,下拉选择GA1400凭证(GA1400凭证的详细操作说明可参考【GA1400凭证】),并填写下级平台视图编码、下级平台IP和端口信息。 创建完下级视图库后,可在设备详情页接入信息模块获取下级视图编码,在视图库信息模块获取本级视图编码。 添加订阅 下级视图库平台添加成功后,点击左侧菜单栏【视图服务订阅通知】,在【发出的订阅】页面点击【添加订阅】,支持用户对下级视图平台发起订阅并接收通知内容。
        来自:
        帮助文档
        智能视图服务
        用户指南
        视图服务
        视图库接入
      • 云容器集群Pod网络包乱序
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络包乱序动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务平均响应时间指标。 2、业务应用验证: 观察运行在目标节点上的业务 Pod 与其他 Pod 或外部服务通信时,是否出现性能下降、卡顿或功能异常。 某些对数据包顺序敏感的应用层协议可能会出现解析错误或连接中断。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod网络包乱序
      • 如何创建资源
        本文为您介绍云迁移服务CMS中如何资源创建。 介绍说明 当您使用云迁移服务CMS平台完成资源任务管理、迁移组、迁移计划的创建,您需选择迁移计划在资源明细中配置参数信息。 操作步骤 1. 在[资源创建]界面,平台会弹出迁移计划的选择,选择需要创建资源迁移计划。 2. 在资源清单中选中需要创建的资源,点击【参数编辑】按钮。 3. 进入[参数编辑]界面,点击【配置】按钮。 4. 根据需要填写基本配置信息。 5. 点击【下一步】按钮,配置网络参数。 6. 点击【资源确认】按钮,完成对资源的创建。
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        云迁移服务模块
        如何创建资源
      • 告警规则:查询列表v4.1
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b service 是 String 本参数表示服务。取值范围:ecs:云主机。evs:云硬盘。pms:物理机。...详见“ ecs alarmStatus 否 Integer 本参数表示告警规则是否告警。取值范围:0:未触发告警。1:触发告警。2:无数据。根据以上范围取值。 1 status 否 Integer 本参数表示告警规则状态。取值范围:0:启用。1:停用。根据以上范围取值。 1 name 否 String 规则名称(模糊查询) 告警规则名称 contactGroupName 否 String 告警联系组名(模糊查询) 联系组 instanceName 否 String 监控对象名称(模糊查询) vpcvpc2913 sortKey 否 String 排序字段 updateTime sortType 否 String 排序类型。取值范围:ASC:升序。DESC:降序。根据以上范围取值。 ASC pageNo 否 Integer 页码,默认值:1 1 pageSize 否 Integer 页大小,默认值:20 10 resGroupID 否 String 资源分组ID eec4a76a35ba57b891c6c4fd923351d6
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        告警服务
        告警规则
        告警规则:查询列表v4.1
      • 准备实例依赖资源
        创建安全组 说明 仅Redis 3.0实例需要安全组。 步骤 1 登录虚拟私有云管理控制台。 步骤 2在左侧导航选择“访问控制 > 安全组”,单击“创建安全组”。根据界面提示创建安全组。如无特殊需求,界面参数均可保持默认。 创建安全组时,“模板”选择“自定义”。 安全组创建后,请保留系统默认添加的入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则。 使用DCS服务要求必须添加下表所示安全组规则,其他规则请根据实际需要添加。 表 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 6379 0.0.0.0/0 通过内网访问Redis 3.0。 结束 申请弹性公网IP(可选) 说明 仅创建Redis 3.0实例,且需要通过公网访问DCS时,需要申请弹性公网IP,否则不需要申请弹性公网IP。 步骤 1 登录管理控制台。 步骤 2 单击页面上方的“服务列表”,选择“网络 > 弹性公网IP”。 步骤 3 单击“购买弹性IP”。 结束
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        创建实例
        准备实例依赖资源
      • 安全认证原理和认证机制
        本章节主要介绍安全认证原理和认证机制。 功能 开启了 Kerberos认证的安全模式集群,进行应用开发时需要进行安全认证。 Kerberos这一名词来源于希腊神话“三个头的狗——地狱之门守护者”,后来沿用作为安全认证的概念,使用Kerberos的系统在设计上采用“客户端/服务器”结构与AES等加密技术,并且能够进行相互认证(即客户端和服务器端均可对对方进行身份认证)。可以用于防止窃听、防止replay攻击、保护数据完整性等场合,是一种应用对称密钥体制进行密钥管理的系统。 原理 Kerberos的原理架构和各模块的说明如下图所示: 原理架构 模块说明 App Client:应用客户端,通常是需要提交任务(或者作业)的应用程序。 App Server:应用服务端,通常是应用客户端需要访问的应用程序。 Key Distribution Center(KDC):提供安全认证的服务。 Database:存储Principal数据。 Authentication Server(AS):认证服务器,认证客户端身份,发放客户访问TGS的票据授权票据(TGT)。 Ticket Granting Server(TGS):票据授予服务器,发放应用客户端访问应用服务端所需的服务票据(ST)。 步骤原理说明 应用客户端(App Client)可以是集群内某个服务,也可以是客户二次开发的一个应用程序,应用程序可以向应用服务提交任务或者作业。 1. ASREQ:App Client在提交任务或者作业前,需要向AS申请TGT,用于建立和TGS的安全会话。 2. ASREP:AS在收到TGT请求后,会解析其中的参数来生成对应的TGT,使用App Client指定的用户名的密钥进行加密响应消息。 3. TGSREQ:App Client收到TGT响应消息后,解析获取TGT,此时,再由App Client(通常是RPC底层)向TGS获取应用服务端的ST。 4. TGSREP:TGS在收到ST请求后,校验其中的TGT合法后,生成对应的App Server的ST,再使用App Server密钥将响应消息进行加密处理。 5. APREQ:App Client收到ST响应消息后,将ST打包到发给App Server的消息里面传输给对应的App Server。 6. APREP:App Server端收到请求后,使用App Server对应的密钥解析其中的ST,并校验成功后,本次请求合法通过。 说明 1. Kerberos认证时需要配置Kerberos认证所需要的文件参数,主要包含keytab路径,Kerberos认证的principal,Kerberos认证所需要的客户端配置krb5.conf文件。 2. 方法login()为调用的UserGroupInformation的方法执行Kerberos认证,生成TGT票据。 3. 方法doSth()调用hadoop的接口访问文件系统,此时底层RPC会自动携带TGT去Kerberos认证,生成ST票据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        安全性说明
        安全认证原理和认证机制
      • 退订说明
        本章介绍并行文件服务HPFS的退订说明。 并行文件目前只有按需计费的资源,如果您有退订文件系统的需求,可以直接删除文件系统,操作流程可参考删除并行文件系统。
        来自:
        帮助文档
        并行文件服务 HPFS
        计费说明
        退订说明
      • 同步DN信息
        前提条件 成功登录分布式关系型数据库服务控制台。 应用场景 在数据节点相关信息变化时(如增删只读实例,变更连接地址、端口号、安全组、实例规格,删除数据库实例,以及将数据库从一个企业项目迁移到另一个企业项目等变更),需要用户主动下发“同步DN信息”,将数据节点变化的信息同步到DRDS,才能正常使用。 操作步骤 1、在分布式关系型数据库服务,实例管理列表页面,选择目标实例。 2、在左侧导航栏,选择“DN管理”页签,单击“同步DN信息”。 同步DN信息 3、系统自动弹出同步DN信息命令下发成功。 同步DN信息下发成功提示
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        DN管理
        同步DN信息
      • 配置追踪器
        本章节介绍如何配置追踪器。 操作场景 云审计服务管理控制台支持对已创建的数据类追踪器增加OBS转储、LTS转储等相关配置。 用户可以选择是否将已记录的事件发送到OBS桶永久保存。 配置追踪器完成后,系统立即以新的规则开始记录操作。 本节介绍如何配置数据类事件追踪器。 前提条件 已开通云审计服务,且已创建一个数据类事件追踪器。 配置数据类事件追踪器 1. 登录管理控制台。 2. 在管理控制台右上角单击图标,选择区域和项目。 3. 单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务详情页面。 4. 单击左侧导航树的“追踪器”,进入追踪器信息页面。 5. 在数据类追踪器信息右侧,单击操作下的“配置”。 6. 在选择追踪对象页面,设置相关参数,参数详情见表 选择转储事件参数表,单击“下一步”。 7. 在配置转储页面可以修改该追踪器的转储信息。用户通过云审计控制台只能查询最近7天的操作记录,如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或配置转储到云日志服务(LTS)。具体参数说明参见表 配置转储到OBS参数列表和表 配置转储到LTS参数列表。 8. 单击“下一步 > 配置”,完成配置数据类事件追踪器。 追踪器配置成功后,您可以在追踪器信息页面查看配置的追踪器的详细信息。 说明 因为CTS所存储的事件是周期性转储到OBS桶的,因此当您配置了追踪器所对应的OBS桶后,当前转储周期内(通常为数分钟)已收到事件会转储到配置后的OBS桶中。例如当前转储周期为12:00~12:05,用户在12:02分修改了当前追踪器对应的OBS桶,那么12:00~12:02分之间收到的事件会在12:05分时转储到新配置的OBS桶中。 9. (可选)在追踪器页面,单击标签列下的,可以为该追踪器添加标签。 标签以键值对的形式表示,用于标识追踪器,便于对追踪器进行分类和搜索。此处的标签仅用于追踪器的过滤和管理。一个追踪器最多添加20个标签。 如果您的组织已经设定云审计服务的相关标签策略,则需按照标签策略规则为追踪器添加标签。详情参考表 标签说明。 表 选择转储事件参数表 参数名称 参数说明 数据事件来源 数据事件的存储容器,默认为OBS桶。 OBS桶名称 默认为您创建数据类追踪器时设置的OBS桶名称,不可以修改。 事件操作类型 数据操作类型分为“读操作”和“写操作”,读操作指的是从OBS桶中获取或下载对象数据,写操作指的是向OBS桶中上传或写入对象数据。 勾选“读操作”后,CTS只会记录读操作类型的数据事件。 勾选“写操作”后,CTS只会记录写操作类型的数据事件。 您可以在OBS服务的页面的“表2 云审计服务支持的OBS数据事件操作列表”中,查看当前支持云审计的全部OBS操作数据事件,以及查看具体有哪些读操作类型事件和写操作类型事件。 表 配置转储到OBS参数列表 参数名称 参数说明 转储到OBS 当“转储到OBS”开关打开时,您可以选择已存在的OBS桶,并配置事件文件前缀。 如果“转储到OBS”开关关闭时,则无需配置相应参数。 选择OBS 选择已有OBS桶:选择当前区域已创建的OBS桶。 OBS桶名称 当“选择OBS”选择“新建OBS桶”时,直接新建OBS桶名称。OBS桶名称不能为空,仅支持小写字母、数字、“”和“.”,且长度范围为363个字符。禁止两个“.”相邻(如“my..bucket”),禁止“.”和“”相邻(如“my.bucket”和“my.bucket”),禁止使用ip为桶名称。 当“选择OBS”选择“选择已有OBS桶”时,可以选择已存在的OBS桶。 保存周期 转储至OBS桶中日志的保存周期。该配置会修改被选择桶的桶策略,影响范围为桶内的所有文件。不同类型、不同级别的合规认证标准对审计日志的保存时间有不同的要求,建议设置保存周期不低于180天。 数据类事件追踪器:保存周期支持设置为30天、60天、90天、180天、三年和沿用OBS配置。 事件文件名前缀 用于标识被转储的事件文件,该字段支持用户自定义,会自动添加在转储事件文件的文件名前端,方便用户快速进行筛选。事件文件名前缀只能由英文字母、数字、下划线()、中划线()和小数点(.)组成,且长度范围为064个字符。 表 配置转储到LTS参数列表 参数名称 参数说明 转储到LTS 当“转储到LTS”开关打开时,表示操作事件将转储到日志流中。 日志组名称 当“转储到LTS”开关打开时,日志组名称默认为“CTS”。如果“转储到LTS”开关关闭时,则无需配置该参数。 表 标签说明 参数 说明 举例 标签键 输入标签的键,同一个追踪器标签的键不能重复。键可以自定义,也可以选择预先在标签服务(TMS)创建好的标签的键。 键命名规则如下: 长度范围为1到128个字符。 可以包含任意语种字母、数字、空格和.:+@,但首尾不能含有空格,不能以sys开头。 Key0001 标签值 输入标签的值,标签的值可以重复,并且可以为空。 标签值的命名规则如下: 长度范围为0到255个字符。 可以包含任意语种字母、数字、空格和.:/+@。 Value0001
        来自:
        帮助文档
        云审计
        用户指南
        数据类事件追踪器
        配置追踪器
      • 创建并运行数据库脱敏任务
        本章节将介绍如何创建数据库脱敏任务。 您可以在创建数据库脱敏任务后,对指定数据库的敏感信息进行脱敏。 前提要求 已在“资产列表”中完成了云资源委托授权。 已添加数据库资产,具体请参见添加RDS数据库章节。 已在“敏感数据识别”中完成了敏感数据识别,具体操作请参见创建敏感数据识别任务章节。 新建数据库脱敏 1. 单击左上角的,选择区域或项目。 2. 在左侧导航树中,单击,选择“安全>数据安全中心”,进入数据安全中心总览界面。 3. 在左侧导航树中选择“数据脱敏”,进入“数据库脱敏”页面。 4. 在“数据库脱敏”页签中,将“数据库脱敏”设置为,开启数据库脱敏。 5. 单击“新建任务”,进入“数据源配置”页面,如下图所示,具体参数说明如下表所示。 参数名称 参数说明 任务名称 您可以自定义脱敏任务的名称。 任务名称需要满足以下要求: 1~255个字符。 字符可由中文、英文字母、数字、下划线或中划线组成。 数据源选择 选择数据来源。可选择“SQLServer”、“MySQL”、“PostgreSQL”。 数据源 说明 如果没有可使用的云数据库,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加云数据库。 数据库实例:选择脱敏数据所在的数据库实例。 数据源 说明 如果没有可使用的云数据库,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加云数据库。 数据库名:选择脱敏数据所在的数据库名称。 数据源 说明 如果没有可使用的云数据库,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加云数据库。 模式:当“数据源选择”选择“SQLServer”和“PostgreSQL”时,显示该参数。 数据源 说明 如果没有可使用的云数据库,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加云数据库。 数据表名:选择脱敏数据所在的数据表名称。 数据源 说明 如果没有可使用的云数据库,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加云数据库。 数据类型:勾选后将该列数据拷贝到目标数据库。 此处还显示数据列的“目标数据类型”,“风险等级”。 6. 单击“下一步”,进入“脱敏算法配置”页面。 1. 勾选需要脱敏的数据列。 2. 选择脱敏算法。脱敏算法详细信息请参见配置脱敏规则章节。 7. 单击“下一步”,进入“脱敏周期”页面,配置脱敏周期。 选择并设置脱敏任务的执行周期: 手动:由用户自行启动的,且基于脱敏规则执行脱敏任务。 每小时:每几个小时执行一次脱敏任务。 示例:如果需要每2小时执行一次脱敏任务,则此处设置为:02:00 每天:每天几点几分执行一次脱敏任务。 示例:如果需要每天12:00执行一次脱敏任务,则此处设置为:12:00:00 每周:每周几的几点几分执行一次脱敏任务。 示例:如果需要每周一的12:00执行一次脱敏任务,则此处设置为:每周一12:00:00 每月:每月几日几时执行一次脱敏任务。 示例:如果需要每月12日的12:00执行一次脱敏任务,则此处设置为:每月12日12:00:00 说明 如果设置每月31日执行一次脱敏任务,在当月日期少于31日的情况下,系统自动在当月最后一日执行任务。 8. 单击“下一步”,进入“数据目标配置”页面。 1. 选择数据库实例、数据库名,并输入数据表名。 如果输入的数据表名已存在,系统将刷新目标数据库中该数据表中的数据。 如果输入的数据表名不存在,系统将自动在目标数据库中新建该名称的数据表。 注意 如果需要填写已有的数据表,请勿选择业务数据表,以免影响业务。 2. 设置数据目标列名。 系统默认将生产与数据源列相同的名称,您可以保持默认名称,也可以根据需要进行修改。 9. 单击“完成”,完成数据库脱敏任务的创建。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据隐私保护
        数据脱敏
        静态脱敏
        创建数据脱敏任务
        创建并运行数据库脱敏任务
      • 基于事件流实现消息路由至函数计算
        本文介绍如何应用事件总线EventBridge的事件流功能实现消息路由至函数计算。 前提条件 开通事件总线EventBridge并授权。 开通函数计算并创建对应函数。 开通分布式消息服务Kafka并创建最少两个主题。 背景信息 事件流作为更轻量、实时端到端的流式事件通道,提供轻量级的流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步。源端分布式消息服务Kafka生产的消息可以通过事件流这个通道被路由到目标端的函数计算,并触发函数。 步骤一:创建事件流 1. 登录事件总线EventBridge控制台。 2. 在左侧导航栏,单击事件流。 3. 在事件流页面,单击创建事件流。 4. 在创建事件流面板,设置任务名称和描述,配置以下参数,然后单击保存。 a.在Source(源)配置向导,选择数据提供方为分布式消息服务Kafka ,设置以下参数,然后单击下一步。 参数 说明 示例 Kafka实例 选择Kafka实例。 instancexxx Kafka Topic 选择Kafka topic。 topicxxx Group 选择消费组。 快速创建 消费位点 选择消费位点。 最新位点 b.在Filtering(过滤)配置向导,设置事件过滤规则,单击下一步。 c.在Sink(目标)配置向导,选择服务类型为函数计算,配置以下参数,单击保存。 参数 说明 示例 函数 选择函数。 funxxx 函数版本或别名 选择函数版本或别名。 版本/LATEST 执行方式 选择执行函数的方式:同步或异步。 同步 事件 选择调用到函数的事件内容,更多内容请参考事件内容转换。 完整事件 5. 创建事件流后,会有30秒~60秒的延迟时间,您可以在事件流页面的状态栏查看启动进度。
        来自:
        帮助文档
        事件总线
        最佳实践
        基于事件流实现消息路由
        基于事件流实现消息路由至函数计算
      • 集群管理类
        如何在MRS集群中手动添加组件? 已经创建的MRS 3.1.0及之前版本集群不支持安装新的组件。如果需要使用当前集群未安装的组件,则需要重新创建一个集群,并且选择所需要的组件。 MRS 3.1.2LTS.3及之后版本的自定义类型集群支持手动添加组件。 MRS集群中安装的组件能否删除? 不可以删除。 已经创建的MRS 3.1.0及之前版本集群中的组件不可以删除,如果不使用的话可以登录Manager页面在服务管理中找到对应的组件将其停止。 MRS是否支持变更MRS集群节点? MRS管理控制台不支持变更集群节点,也不建议用户在ECS管理控制台直接修改MRS集群节点。如果手动在ECS管理控制台对集群节点执行停止ECS、删除ECS、修改或重装ECS操作系统,以及修改ECS规格的操作,可能影响集群稳定运行。 如果您对MRS集群节点进行了上述操作,MRS会自动识别并直接删除发生变更的集群节点。您可以登录MRS管理控制台,通过扩容恢复已经删除的节点。请勿在扩容过程中对正在扩容的节点进行操作。 如何取消集群风险告警的消息通知? 1.登录MRS服务控制台。 2.单击集群名称进入集群详情页面。 3.选择“告警管理 > 消息订阅规则”。 4.在待修改的规则所在行的“操作”列单击“编辑”,在“订阅规则”中取消对应风险告警。 5.单击“确定”完成修改。 为什么MRS集群显示的资源池内存小于实际集群内存? 在MRS集群中,MRS默认为Yarn服务分配集群内存的50%,用户从逻辑上对Yarn服务的节点按照资源池进行分区管理,所以集群中显示的资源池总内存仅有集群总内存的50%。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        集群管理类
      • 计费项
        计费项 资费项 计费项 含义 适用的计费模式 :::: 存储容灾服务 保护实例使用的时长 按保护实例实际使用的时长收费,以小时为单位,按每小时整点结算,不设最低消费标准。 按需计费
        来自:
        帮助文档
        存储容灾服务
        计费说明
        计费项
      • 创建专享版集群
        参数项 说明 增量包类型 选择数据服务专享集群增量包。 工作空间 选择需要使用数据服务专享集群增量包的工作空间。例如需要在DataArts Studio实例的工作空间A中使用数据服务专享版,则此处工作空间应选择为A。集群创建成功后,即可通过在工作空间A查看到创建好的数据服务专享集群。 可用区 第一次创建DataArts Studio实例或批增量包时,可用区无要求。 再次创建DataArts Studio实例或增量包时,是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 集群名称 集群描述 可以自定义对当前数据服务专享版集群的描述。 版本 当前数据服务专享版的集群版本。 集群规格 不同实例规格,对API请求的并发支持能力不同。 公网入口 开启“公网入口”,即允许外部服务通过公网地址,调用专享版实例创建的API。 带宽大小 可配置公网带宽范围。 虚拟私有云 VPC即虚拟私有云,是通过逻辑方式进行网络隔离,提供安全、隔离的网络环境。 在相同虚拟私有云中的云服务资源(如ECS),可以使用数据服务专享版实例的私有地址调用API。 建议将专享版实例和您的其他关联业务配置一个相同的虚拟私有云,确保网络安全的同时,方便网络配置。 说明 目前DLM实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 建议将专享版实例和您的其他关联业务配置相同的虚拟私有云下相同的子网,确保网络安全的同时,方便网络配置。 说明 目前DLM实例创建完成后不支持切换子网,请谨慎选择所属子网。 安全组 安全组用于设置端口访问规则,定义哪些端口允许被外部访问,以及允许访问外部哪些地址与端口。 例如,后端服务部署在外部网络,则需要设置相应的安全组规则,允许访问后端服务的地址及其监听端口。 说明 1. 如果开启公网入口,安全组入方向需要放开80(HTTP)和443(HTTPS)端口的访问权限。 2. 目前DLM实例创建完成后不支持切换安全组,请谨慎选择所属安全组。 企业项目 DataArts Studio专享版集群关联的企业项目。企业项目管理是一种按企业项目管理云资源的方式,具体请参见
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        准备工作
        创建专享版集群
      • 通过对象存储导入日志
        本文主要介绍如何通过对象存储导入日志 本文主要介绍如何将天翼云对象存储的数据导入到云日志服务,实现数据的查询分析、加工等操作。 注意 当前功能为白名单试用阶段,仅在华北2资源池开放。 创建数据导入任务 1. 登录云日志服务控制台。 2. 左侧菜单栏点击“日志接入”,进入接入管理页面 3. 在“数据导入”模块中,点击“对象存储ZOS数据导入” 4. 选择目标日志项目和日志单元,单击下一步。 5. 设置接入配置,配置如下参数,确认无误后,单击下一步。 参数 说明 接入配置名称 导入任务的唯一标识 ZOS存储桶 待导入的文件所在的存储桶 文件路径前缀过滤 可通过文件路径前缀过滤对象存储文件,用于准确定位待导入的文件。比如待导入的文件都在nginx/目录下,则可以指定前缀为nginx/。 如果不设置该参数,则遍历整个对象存储的存储桶。 文件路径正则过滤 通过文件路径的正则表达式过滤对象存储文件,用于准确定位待导入的文件。当对象存储的文件名(包含文件路径)匹配该正则表达式的文件才会导入到日志服务中。默认为空,表示不过滤。 文件修改时间过滤 通过文件修改时间过滤对象存储文件,用于准确定位待导入的文件。 所有:表示将导入所有符合条件的文件 某时间开始:只导入某个时间点后修改过的文件 特定时间范围:只导入某个时间范围内修改过的文件 压缩格式 待导入的对象存储文件的压缩格式,云日志服务根据对应格式进行解压,并读取数据。 检查新文件周期 若目标对象存储中的文件路径中有新文件持续不断产生,可以设置检查新文件周期。设置后,导入任务会一直在后台运行,自动周期性地发现并读取新文件。 若目标对象存储文件路径中不再产生新文件,可设置为永不检查,即导入任务读取完所有符合条件的文件后,将自动退出。 文件编码 选择待导入的对象存储文件的编码格式,仅支持UTF8和GBK。 数据格式 设置日志文件的解析格式: 单行文本:将对象存储文件中的每一行解析为一条日志。 跨行文本:多行模式,需要设置行首正则表达式解析日志。 单行JSON:将逐行读取对象存储文件,并将每一行作为一个JSON对象进行解析。解析后,JSON中的各个字段将映射为日志的各个字段。 6. 创建索引。默认开启全文索引,您也可以根据需要手动创建字段索引用于字段查询。 7. 点击完成,即可完成导入任务创建。等待1分钟左右,在查询日志界面能查询到日志,则说明导入成功。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        通过对象存储导入日志
      • VPN用户服务查看
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID b342b77ef26b11ecb0ac0242ac110002 queryContent 否 String Query Content模糊查询 ipsec111 projectID 否 String project ID 0 ipsecServiceName 否 String IPSCE 服务名称 ipsec111 ipsecServiceID 否 String vpn用户服务ID 35d5fa99c0404bb0806a8be317cc4d89 pageSize 否 Integer 每页行数 1 pageNo 否 Integer 页码 1
        来自:
        帮助文档
        VPN连接
        API参考
        API
        集群模式资源池VPN用户服务功能
        VPN用户服务查看
      • 概述
        序号 主要功能 1 边缘服务 2 虚拟机管理 3 虚拟私有云网络管理 4 子网管理 5 SSH密钥管理 6 存储管理 7 弹性公网IP管理 8 网关管理 9 安全组管理 10 负载均衡管理 11 负载均衡监听器管理 12 负载均衡后端服务器组管理 13 用户配额管理 14 SSL证书管理
        来自:
        帮助文档
        智能边缘云
        API参考
        API概览
        概述
      • 续订
        本节介绍如何续订网页防篡改(原生版)。 您可对已订购的网页防篡改(原生版)配额进行续费,需要此配额此时的状态为未到期、已到期。 操作步骤 1. 登录网页防篡改(原生版)控制台。 2. 在左侧导航栏,选择“网页防篡改(原生版) > 防护配额”,进入防护配额页面。 3. 在页面下方配额列表中,对需要续订的配额,单击操作列的“续订”。 4. 在“续订”页面选择该配额需续订的时长。 5. 阅读《天翼云网页防篡改(原生版)服务协议》,并勾选“我已阅读并同意相关协议《天翼云网页防篡改(原生版)服务协议》“,单击“立即购买”。 6. 进入“付款”页面,完成付款。
        来自:
        帮助文档
        网页防篡改(原生版)
        计费说明
        续订
      • 怎样配置Linux分析工具:atop和kdump
        CTyunOS 、CentOS 7、EulerOS、Anolis、KylinOS系列操作系统atop配置方法 1. 通过远程登录或本地登录的方式登录弹性云主机。 2. 下载atop安装包。 wget 3. 执行以下命令安装atop。 rpm ivh atop2.6.01.el7.x8664.rpm nodeps 4. 编辑配置文件,修改采样周期,atop配置文件为/etc/default/atop。 vi /etc/default/atop 可以根据自己的实际需求修改如下配置参数,修改后保存并退出。 LOGINTERVAL15 LOGGENERATIONS7 LOGPATH/var/log/atop/ 参数说明: LOGINTERVAL:监控周期,单位为秒,默认600s采集一次数据,建议修改为15s。 LOGGENERATIONS:日志保留时间,单位为天,默认保留时间为28天,建议修改为7天,避免大量占用磁盘空间。 LOGPATH:日志保存路径。默认路径为/var/log/atop/。 5. 重启atop服务。 systemctl restart atop 6. 可以设置atop服务自启动(根据实际情况设置)。 systemctl enable atop 7. 检查是否启动成功,active(running)表示运行正常。 systemctl status atop 使用源码方式安装(适用于Fedora、Debian、Ubuntu等系列操作系统) 1. 下载atop源码。 wget 2. 执行以下命令解压源码atop。 tar zxvf atop2.6.0.tar.gz 3. 执行以下命令查看systemctl版本。 systemctl –version 如果版本大于等于220,直接进行下一步。 否则需要修改atop的Makefile文件,删除now参数。 vi atop2.6.0/Makefile 删除systemctl命令后的now参数。 4. 安装编译atop依赖软件包。 Fedora系列操作系统执行以下命令安装: yum install make gcc zlibdevel ncursesdevel y Debian9、Debian10、Ubuntu系列操作系统执行以下命令安装: apt install make gcc zlib1gdev libncurses5dev libncursesw5dev –y 5. 执行以下命令编译并安装atop。 cd atop2.6.0 make systemdinstall 6. 编辑配置文件,修改采样周期,atop配置文件为/etc/default/atop。 vi /etc/default/atop 可以根据自己的实际需求修改如下配置参数,修改后保存并退出。 LOGINTERVAL15 LOGGENERATIONS7 LOGPATH/var/log/atop/ 7. 重启atop服务。 systemctl restart atop 8. 可以设置atop服务自启动(根据实际情况设置)。 systemctl enable atop 9. 检查是否启动成功,active(running)表示运行正常。 systemctl status atop
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        操作系统类(Linux)
        怎样配置Linux分析工具:atop和kdump
      • 并行文件概述
        本节介绍了用户指南: 并行文件概述。 云容器引擎支持使用天翼云并行文件存储卷。cstorcsi插件支持使用并行文件动态存储卷和静态存储卷,通过将并行文件存储卷挂载到容器指定目录,可满足数据持久化需求。 并行文件服务提供高性能并行文件存储,支持全NVMe闪存与RDMA技术,最高可实现百万级IOPS和百GBps吞吐量,同时保障亚毫秒级延迟。该服务具备高性能、高可靠性和高可扩展性特点,能够充分满足影视渲染、AI训练及自动驾驶等数据密集型场景的需求。 使用限制 插件版本 使用并行文件存储功能,需要cstorcsi插件版本 >3.3.2 容器集群 当前并行文件服务功能仅智算集群可见 文件协议 当前cstorcsi插件仅支持HPFSPOSIX协议 容量 单个文件系统最小容量为512GB 可用区 协议类型为hpfs时,不支持跨可用区挂载。 使用并行文件存储PVC的Pod将会被强制调度到该PVC创建时指定的的可用区内 其他限制 参见 并行文件使用限制 产品优势 共享访问 1. 支持上千台客户端挂载同一文件系统,实现共享访问。 2. 支持 NFS、HPFSPOSIX 协议类型,用户能够在创建文件系统时指定协议类型,通过标准 POSIX 接口访问数据,无缝适配主流应用程序进行数据读写。 3. 支持 MPII/O 并行计算接口,满足多客户端并行计算场景。 弹性扩展 1. 采用可扩展的元数据架构,单个文件系统可支持几十亿级别的文件数量,在海量文件场景下,仍然保持稳定持续的高效访问性能。 2. 分钟级别快速扩容,用户可根据实际需要对文件系统进行在线扩容,扩容过程 IO 不中断,保障业务连续性。 安全可信 1. 支持使用 VPC 用户隔离、权限组等安全管理功能进行访问权限控制,保障数据安全可靠。 2. 使用多种 EC 方式、热备盘备份保证数据的可靠性。 3. 支持 HA,故障时自动切换,服务可用性在99.90%及以上。 性能优越 1. 可支持高性能100GE 以太网、IB、RoCE 网络。 2. 带宽、IOPS 性能可以随文件系统容量线性提升,最高提供百万 IOPS 和百 GBps 吞吐,同时保证亚毫秒级时延,使得数据访问更加高效。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        并行文件(CT-HPFS)
        并行文件概述
      • 1
      • ...
      • 239
      • 240
      • 241
      • 242
      • 243
      • ...
      • 505
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      推荐文档

      MySQL

      产品价格

      玩转天翼云①:如何获得管理员权限的方法

      域名实名认证

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号