云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      时序数据库Influx版_相关内容
      • 恢复configsvr副本集
        本节主要介绍恢复configsvr副本集 准备目录 rm rf /compile/clusterrestore/cfg mkdir p /compile/clusterrestore/cfg1/data/db mkdir p /compile/clusterrestore/cfg1/log mkdir p /compile/clusterrestore/cfg2/data/db mkdir p /compile/clusterrestore/cfg2/log mkdir p /compile/clusterrestore/cfg3/data/db mkdir p /compile/clusterrestore/cfg3/log 操作步骤 步骤 1 准备单节点配置文件和数据目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsingle.log} 准备数据,将解压后的configsvr文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein0241c8a32fb10245899708dea453a8c5c9no02/ /compile/clusterrestore/cfg1/data/db/ 启动进程。 ./mongod f restoreconfig/single40303.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40303 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40303'; cf['members'][1]['host']'127.0.0.1:40304'; cf['members'][2]['host']'127.0.0.1:40305'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新mongos和shard信息。 db.getSiblingDB('config').mongos.remove({}); 先查询config.shards表中的多个shard的id信息,用于下面语句的id的查询条件。逐个更新每条记录。 db.getSiblingDB('config').shards.update({'id' : 'shard1'},{$set: {'host': 'shard1/127.0.0.1:40306,127.0.0.1:40307,127.0.0.1:40308'}}) db.getSiblingDB('config').shards.update({'id' : 'shard2'},{$set: {'host': 'shard2/127.0.0.1:40309,127.0.0.1:40310,127.0.0.1:40311'}}) db.getSiblingDB('config').mongos.find({}); db.getSiblingDB('config').shards.find({}); 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建configsvr副本集。 准备副本集配置文件和目录,将configsvr1节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg2/data/db/ cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg3/data/db/ 修改configsvr1节点配置文件,增加副本集配置属性(restoreconfig/configsvr40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40303.yaml 修改configsvr2节点配置文件,增加副本集配置属性(restoreconfig/configsvr40304.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程 ./mongod f restoreconfig/configsvr40304.yaml 修改configsvr3节点配置文件,增加副本集配置属性(restoreconfig/configsvr40305.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40305.yaml 步骤 4 等待选主成功。 ./mongo host 127.0.0.1 port 40303 执行命令rs.status(),查看是否已存在主节点Primary。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复configsvr副本集
      • 恢复mongos节点
        本文主要介绍恢复mongos节点 步骤 1 准备mongos节点的配置文件和目录。 rm rf /compile/clusterrestore/mgs mkdir p /compile/clusterrestore/mgs1/log mkdir p /compile/clusterrestore/mgs2/log 步骤 2 配置文件(restoreconfig/mongos40301.yaml)。 net: bindIp: 127.0.0.1 port: 40301 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/mgs1/mongos.pid} sharding: {configDB: 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/mgs1/log/mongos.log} 步骤 3 配置文件(restoreconfig/mongos40302.yaml)。 net: bindIp: 127.0.0.1 port: 40302 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/mgs2/mongos.pid} sharding: {configDB: 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/mgs2/log/mongos.log} 步骤 4 启动mongo节点。 ./mongos f restoreconfig/mongos40301.yaml ./mongos f restoreconfig/mongos40302.yaml
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复mongos节点
      • 查看操作事件
        本节介绍如何在云审计服务管理控制台查看最近7天的操作记录。 在您开通了云审计服务后,系统开始记录云服务资源的操作。云审计服务管理控制台保存最近7天的操作记录。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 单击“服务列表”,选择“管理与部署 > 云审计服务”,进入云审计服务信息页面。 步骤 4 在左侧导航树,单击“事件列表”,进入事件列表信息页面。 步骤 5 事件列表支持通过筛选来查询对应的操作事件。当前事件列表支持四个维度的组合查询,详细信息如下: 事件来源、资源类型和筛选类型。 在下拉框中选择查询条件。 其中,筛选类型选择“按事件名称”时,还需选择某个具体的事件名称。 选择“按资源ID”时,还需选择或者手动输入某个具体的资源ID。 选择“按资源名称”时,还需选择或手动输入某个具体的资源名称。 操作用户:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 事件级别:可选项为“所有事件级别”、“normal”、“warning”、“incident”,只可选择其中一项。 起始时间、结束时间:可通过选择时间段查询操作事件。 步骤 6 在需要查看的记录左侧,单击展开该记录的详细信息。 步骤 7 在需要查看的记录右侧,单击“查看事件”,在弹出框中显示该操作事件结构的详细信息。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        审计
        查看操作事件
      • 目录及配置说明
        恢复步骤 命令运行目录:/compile/mongodb/mongodbsrc4.0.3
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        目录及配置说明
      • 计费类
        本文主要介绍计费类问题 在哪里查询不同规格实例的价格? 不同区域、不同规格的实例价格有所差异,您可以在产品价格详情查询价格 预付费和后付费是什么意思?如何选择? 预付费:一般为包年包月的购买形式,先购买再使用,系统根据用户选择的规格计算购买金额,对用户帐户金额进行扣除。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        计费类
      • 通过云日志服务查看审计日志
        本文主要介绍通过云日志服务查看审计日志 通过云日志服务进行分析日志、搜索日志、日志可视化、下载日志和查看实时日志等操作。 查看LTS审计日志 说明 实例已经配置了访问日志,操作详情请参见日志配置管理—新增 步骤 1 在页面左上角单击,选择“管理与监管 > 云日志服务”,进入云服务日志页面。 步骤 2 在“日志组列表”区域,选择目标日志组,单击日志组名称。 查看日志详情 下载LTS日志文件 说明 如果实例已经配置了访问日志,操作详情请参见 步骤 1 在页面左上角单击,选择“管理与监管 > 云日志服务”,进入云服务日志页面。 步骤 2 在“日志组列表”区域,选择目标日志组,单击日志组名称。 下载日志 步骤 3 单击“”。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        日志管理
        审计日志
        通过云日志服务查看审计日志
      • 恢复shardsvr2副本集
        本节主要介绍恢复shardsvr2副本集 准备目录 rm rf /compile/clusterrestore/shd2 mkdir p /compile/clusterrestore/shd21/data/db mkdir p /compile/clusterrestore/shd21/log mkdir p /compile/clusterrestore/shd22/data/db mkdir p /compile/clusterrestore/shd22/log mkdir p /compile/clusterrestore/shd23/data/db mkdir p /compile/clusterrestore/shd23/log 操作步骤 步骤 1 准备单节点配置文件和目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40309.yaml)。 net: bindIp: 127.0.0.1 port: 40309 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd21/mongod.pid} storage: dbPath: /compile/clusterrestore/shd21/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd21/log/mongod.log} 准备数据,将解压后的shardsvr2文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein0292b196d2401041a7af869a2a3cab7079no02/ /compile/clusterrestore/shd21/data/db/ 启动进程。 ./mongod f restoreconfig/single40309.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40309 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40309'; cf['members'][1]['host']'127.0.0.1:40310'; cf['members'][2]['host']'127.0.0.1:40311'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新configsvr信息。 var vs db.getSiblingDB('admin').system.version.find(); while (vs.hasNext()) { var curr vs.next(); if (curr.hasOwnProperty('configsvrConnectionString')) { db.getSiblingDB('admin').system.version.update({'id' : curr.id}, {$set: {'configsvrConnectionString': 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'}}); } } 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建shardsvr2副本集。 准备副本集配置文件和目录,将shardsvr2节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/shd21/data/db/ /compile/clusterrestore/shd22/data/db/ cp aR /compile/clusterrestore/shd21/data/db/ /compile/clusterrestore/shd23/data/db/ 修改shardsvr21节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40309.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40309 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd21/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd21/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd21/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40309.yaml 修改shardsvr22节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40310.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40310 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd22/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd22/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd22/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40310.yaml 修改shardsvr23节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40311.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40311 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd23/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd23/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd23/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40311.yaml 步骤 4 等待选主成功。 ./mongo host 127.0.0.1 port 40309 执行命令rs.status(),查看是否已存在主节点Primary。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复shardsvr2副本集
      • 集群
        本文介绍DDS集群架构的组成。 DDS集群由mongos、config、shard组成,节点架构示意图如下: 图 分片集群示意图 mongos mongos负责查询与数据写入的路由,是实例访问的统一入口。 每个实例有2~32个mongos,数量由用户自定义。 用户可直接连接mongos,mongos从config读取配置信息,将读写请求分发到shard。 config config负责存储实例的配置信息,由1个副本集组成。 config可用是部署一个实例或者修改实例元信息的前提。 用户不能直接连接config。 shard 集群实例的shard,负责存储用户的数据。 每个集群实例有2~32个shard,数量由用户自定义。 每个shard由1个副本集组成,副本集为每个shard的数据提供了冗余和高可靠性。 用户不能直接连接shard。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        常用概念
        集群
      • 使用Redis-cli迁移自建Redis(AOF文件)
        本文介绍使用Rediscli迁移自建Redis(AOF文件) 迁移介绍 Rediscli 是 Redis 自带的命令行客户端工具,它允许用户通过命令行与 Redis 服务器进行交互。 在本章节中,我们将重点介绍如何使用 Rediscli 工具以 AOF 文件的方式,将自建的 Redis 数据迁移到 DCS 缓存实例。 说明 进行迁移操作前,建议暂停相关业务,以避免数据丢失或不完整。 建议业务空闲时间进行迁移操作。 步骤1:生成AOF文件 使用以下命令来开启缓存持久化并生成 AOF 持久化文件: ./rediscli h {redisaddress} p {redisport} a {password} config set appendonly yes 如果 AOF 文件的大小不再变化,说明AOF文件为全量缓存数据。 说明 使用 Rediscli 工具登录 Redis 实例,输入命令“config get dir”可以查找生成的AOF文件保存路径。 如果没有进行特殊指定,该文件的文件名默认为 appendonly.aof。 如果需要关闭同步,可以使用 Rediscli 工具登录 Redis 实例,并输入命令 “config set appendonly no” 来关闭同步。 步骤2:上传AOF文件至天翼云ECS 为节省传输时间,请先压缩AOF文件再传输。 将压缩文件(如以SFTP/SCP等方式)上传到天翼云ECS。 说明 ECS需保证有足够的磁盘空间,供数据文件存储,同时需要与缓存实例网络互通,通常要求相同VPC和相同子网,且安全组规则不限制访问端口。 步骤3:导入数据 ./rediscli h {redisaddress} p {redisport} a {password} pipe < appendonly.aof 步骤4:迁移后验证 数据导入成功后,连接DCS缓存实例,通过dbsize命令,确认数据是否导入成功 如果导入不成功,需要分析原因,修正导入语句,然后使用flushall或者flushdb命令清理实例中的缓存数据,并重新导入。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用Redis-cli迁移自建Redis(AOF文件)
      • 查询日志配置管理列表
        参数 参数类型 说明 示例 下级对象 status Byte 日志配置状态:1:未配置,0:安装中,1:运行中,2:安装失败,4:删除失败 1 logType String 日志类型:pgslowlog:慢日志,pgerrorlog:错误日志,3:pgconsolelog日志 pgslow projectId String 日志项目Id e2190dh129d2h1 projectName String 日志项目名 test unitId String 日志单元Id 1908dh109hd1j unitName String 日志单元名 pgerror
        来自:
      • 查询日志配置管理列表
        参数 是否必填 参数类型 说明 示例 下级对象 ProjectId 否 String 企业项目id,若不传入则查询默认的企业项目,默认的企业项目id为0 0 regionId 是 String 资源池id,比如实例在资源池A,则需要填写A资源池的id 81f7728662dd11ec810800155d307d5b
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        2022-06-30
        II类资源池
        日志配置管理
        查询日志配置管理列表
      • 认证设置
        AD认证配置 参数 参数说明 服务器地址 输入AD认证服务器地址。 域名 输入AD认证服务器域名。 端口 端口默认两个选择: 关闭SSL,默认为389端口。 开启SSL,默认为636端口。 支持自定义端口号。 BaseDN 填写AD认证服务器中设置的用户目录节点。 服务器账号名 填写AD认证服务器账号名称,默认为administrator。 账号密码 填写AD认证服务器账号密码。 过滤器 符合过滤条件的用户将被同步至云堡垒机。 例如:(&(objectClassperson)) AD同步配置 参数 参数说明 自动同步 开启后,将按“自动同步周期”将AD认证服务器上的用户自动同步到堡垒机用户列表中。 如果需要手动导入,详情请参见新增单个用户或AD认证用户导入。 自动同步周期 选择自动同步的时间周期,取值范围4~168小时。 同步内容 支持同步登录名 、姓名 、手机号 、邮箱,登录名为必选同步项。 同步策略 同步策略内容: 同步新建用户:如果当次同步AD用户,发现有AD认证服务器上的用户不在堡垒机用户列表中,则在堡垒机新建这个用户,认证方式为“跟随系统”。 覆盖已有用户: 如果登录名重复,则刷新用户信息,如已有本地认证,保持本地密码不变。 如果登录名不重复,但手机号重复,则导入为新的用户、更新手机号等信息,同时将原来用户的手机号置为空。 同步删除用户:如果当次同步AD用户,发现有堡垒机内的AD用户不在AD认证服务器中,则在堡垒机将这个用户事件记为“AD用户源已删除”、用户状态置为“锁定”。 默认角色 同步用户后,为同步至堡垒机的用户添加角色,默认为“访问角色”。 默认用户组 同步用户后,为同步至堡垒机的用户添加用户组,默认为空。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        系统管理
        认证设置
      • 管理员指南
        创建打印机 点击“创建”按钮,根据实际情况输入或选择,打印机名称、是否显示名称后缀、打印机IP地址、打印机port端口;即可完成对网络打印机的添加。 分配打印机 创建打印机之后,可点击“分配”按钮,按照实际情况以桌面、桌面池、用户、部门的不同维度进行分配,管理打印机的使用权限。 更多设置 默认情况下,添加并分配完成后即可直接使用。 更多功能中支持指定驱动、解绑指定驱动、驱动模式编辑、删除的操作。 USB打印机管理 1. USB打印机默认可直接接入使用; 2. 如需要进行对应“权限控制”和“更多功能”设置时,可参照【网络打印机管理】页面,进行对应设置。 相关资料: 更多详细信息的配置指引,您可以继续参考《++天翼AI云电脑外设使用指南++》
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼打印
        管理员指南
      • 纳管节点
        操作步骤 1.检查待纳管的云主机是否具备独立数据盘,且首块数据盘未被分区或格式化。独立数据盘非强制要求,但若缺失,容器数据将默认存储于系统盘。 2.若首块数据盘已被分区或格式化,可先备份数据,再使用以下命令擦除磁盘: plaintext wipefs a 3.登录云容器引擎控制台,进入要纳管节点的集。 4.在集群控制台左侧导航栏中选择“节点 ”,切换至“节点”页签并点击“纳管节点”。 5.点击选择“已有的服务器 ”,选择待纳管的云服务器,点击"确定"。 6. 选择“操作系统 ”,填写“登录密码 ”以及“确认密码 ”,再根据需要填写高级配置:节点标签 、节点污点 、部署前/后执行脚本. 7. 单击“下一步 ”,并单击“提交”。 重复纳管 出于数据安全考虑,节点纳管时会跳过已格式化或分区的磁盘。当对主机执行"纳管移除再次纳管"操作时,容器数据将直接存储于系统盘,而非数据盘。 可通过以下步骤使容器数据落于数据盘。 1.登录云主机控制台访问云主机。 2.定位云容器引擎使用的数据盘: 若主机仅有一块数据盘,直接执行步骤3。 若有多块磁盘,容器引擎一般会选择位于系统盘之上(即倒数第二块)的磁盘作为容器数据盘,或通过磁盘类型、容量信息定位磁盘的盘符。 云盘列表中显示的是云盘的名称和id,云盘挂载到os时会自动分配磁盘设备名称,可以使用云盘id前缀查找到云盘的设备名称。 登录到操作系统,可通过如下指令查到云盘在os中的设备名称。 3.检查云盘是否已经被格式化。 可以使用步骤2找到的磁盘设备名称,使用blkid指令检查结果。 plaintext blkid grep nvme1n1 若发现磁盘已经被格式化,则执行wipefs a指令擦除。 4.在云容器引擎控制台执行节点纳管操作。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        节点与节点池
        节点管理
        纳管节点
      • 创建并行计算
        本文介绍了如何在科研助手中创建并行计算任务。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【并行计算】。 3. 在【并行计算】页面中,单击【作业管理】下方的【创建计算任务】。 4. 在【创建计算任务】页面中,配置参数,具体如下表所示。 参数 说明 企业项目 可将计算任务挂载在不同企业项目下。 作业名称 输入作业名称。要求如下:长度范围为4~25个字符。名称由小写字母、数字、中划线()组成。以小写字母开头。 以小写字母或数字结尾。 并行框架 选择所需要使用的并行框架。支持MPI、Pytorch、Tensorflow、Paddle。 镜像地址 输入作业所需要使用的镜像URL地址,可以手动填写第三方镜像,也可以选择存储在天翼云的镜像。 启动命令 作业第一个实例启动时执行的命令内容,指令执行完成视为作业运行结束。例如"mpirun np 8 myapp.run"。 环境变量 为所有实例预置环境变量,输入形式为key+value。 可用区 选择所需的可用区。 实例规格 实例规格可选择通用计算型和GPU加速型,为作业的实例选择合适的实例规格。 数量 作业将创建的实例数量。输入范围1~99。 存储挂载 可将科研文件挂载到所有实例中,可设置实例中挂载的路径。 5. 所有参数填写完毕后,点击【确认订单】,作业将会创建和下发计算任务。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        并行计算
        创建并行计算
      • 移除服务器(集群版适用)
        本节主要介绍移除服务器。 在“服务器管理”页面,选择要移除的服务,点击“操作”>“移除”,移除服务器。 注意 如果移除已损毁或者宕机的服务器,需要使用强制移除。强制移除服务器,会产生数据丢失风险,请谨慎操作。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是ActiveStandby,移除服务器时,业务不会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是Disabled,移除服务器时,业务会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。但服务器移除时,会有数据丢失风险。 如果执行日志采集后,产生的日志保存在服务器安装目录下,在服务器移除之后,该日志将被删除。如果产生的日志保存在HBlock的数据目录内,并且移除服务器时删除服务器HBlock数据目录中的数据,该日志也将被删除。 有服务器正在移除时,不能再移除其他服务器。如果必须移除,请使用强制移除,但有丢数据风险。 该节点的所有数据目录不属于任何存储池,允许移除该服务器。否则不能移除,如果必须移除,请使用强制移除,但有丢数据风险。 如果要移除服务器的某个数据目录属于基础存储池,且是基础存储池中仅剩的一个可用故障域中的节点,不允许移除。 如果服务器上有基础服务,不允许移除。 图1 移除服务器
        来自:
      • 查看并行计算
        本文介绍了如何查看科研助手的并行计算作业。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【并行计算】。 3. 在【并行计算】列表中,点击对应并行计算名称即可进入详情页。 4. 进入【作业详情】页面,可在当前页面中查看作业的基础信息、详情信息、实例详情等,也可以操作作业的启动、停止、删除。 5. 点击【展开全部】可查看作业详情信息。 6. 在【实例详情】中,我们可以选择具体的实例,查看对应实例的日志内容。 7. 点击【实例终端】,可以在实例运行中时,进入到对应实例的Linux终端命令行中。如实例不在运行状态中,则无法连接。 8. 点击【运行】监控,可以查看资源的利用率情况: 9. 点击【实例事件】,可以查看实例运行过程中的相关事件。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        并行计算
        查看并行计算
      • 查看开发机详情
        本文介绍如何在科研助手中查看开发机详情。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【开发机】。 3. 在开发机列表中定位到想要查看的开发机,点击“开发机的名称”,例如“devenvhv0izd”。进入详情页。 可对开发机进行操作,如打开、启动、停止、保存镜像、变更规格、变更镜像、删除,同时可查看开发机存储和开发机事件。 4. 开发机详情展示以下参数: 【基础信息】 参数 说明 名称 开发机名称,支持设置开发机别名、复制名称 状态 开发机目前所处状态。状态有: 1.待创建。 2.启动中。包括资源调度、拉取镜像、启动容器等流程。 3.运行中。在线IDE实例正常运行中,可以进行“打开”和“停止”。 4.停止。在线IDE实例处于不可用状态,可点击"启动“重新开启在线IDE。 5.运行失败。因某种原因开发机无法运行。 6.运行结束。在线IDE实例在自动停止时长到期后自动停止,并处于不可用状态。 规格 计算资源规格: • 通用计算型。包括CPU(核),内存(GB) • GPU加速型。包括CPU(核),内存(GB),显卡数量(块) 计费方式 按需计费 包周期 企业项目 购买开发机时所选的企业项目 创建时间 开发机的创建时间 更新时间 上一次更改开发机的时间,如变更镜像、变更规格等 自动停止 是否开启自动停止。 运行时长 开发机已运行时长,分钟 【资源配置】 参数 说明 可用区 所选择的可用 框架版本 开发机框架版本。显示开发机类型 类型计算资源类型: • GPU加速型 • 通用计算型 【存储】 参数 说明 挂载类型 文件存储或对象存储 挂载数据集 挂载数据集名称 容器挂载路径 容器挂载路径 【开发机事件】 展示开发机操作的事件详情。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        开发机
        查看开发机详情
      • 存储池(集群版适用)
        本节主要介绍存储池监控信息。 在“监控”页面点击“存储池”,可以查看对应存储池的实时监控信息:数据目录(总量/已用/使用率)、容量配额(总量/已用/使用率)、带宽(总/读/写)。 说明 可以根据存储池名称,选择查看对应存储池的实时监控信息。 图1 存储池实时监控信息 项目 描述 存储池名称 存储池名称。 数据目录(总量/已用/使用率) 存储池中所有数据目录所在磁盘的总容量、已用容量、使用率的平均值。 容量配额(总量/已用/使用率) 存储池中所有数据目录的HBlock容量配额总量、已用容量配额、容量配额使用率的平均值。 带宽(总/读/写) 客户端与服务器之间的总带宽、读带宽、写带宽。 在“监控”>“存储池”页面,点击对应存储池名称,可以查看存储池内HBlock指定时间内的监控信息:数据目录使用率、容量配额使用率、数据目录使用量、数据目录总容量、配额使用量、配额、读带宽、写带宽、总带宽、读IOPS、写IOPS、总IOPS、读时延、写时延、总时延。 图1 存储监控信息 项目 描述 存储池名称 存储池名称,可以通过下拉框选择存储池。 时间范围 可以选择相对时间: 近2小时 近6小时 近1天 近7天 近1年 自定义时间段,选择开始日期和结束日期,精确到天。 注意 起始时间必须早于结束时间,且起始时间不能早于服务器当前时间一年。 数据目录使用率 存储池中所有数据目录所在磁盘使用率的平均值。 容量配额使用率 存储池中HBlock所有数据目录容量配额使用率的平均值。 数据目录使用量 存储池中所有数据目录所在磁盘使用量的总和。 数据目录总容量 存储池中所有数据目录所在磁盘容量的总和。 配额使用量 存储池中HBlock已使用容量配额。 配额 存储池中HBlock容量配额总和。 客户端 HBlock 当前存储池中,客户端与HBlock之间的数据传输情况。 读带宽 客户端从HBlock存储池读取数据的带宽。 写带宽 客户端向HBlock存储池写入数据的带宽。 总带宽 客户端与HBlock存储池之间的总带宽。 读IOPS 客户端从HBlock存储池读取数据的IOPS。 写IOPS 客户端向HBlock存储池写入数据的IOPS。 总IOPS 客户端与HBlock存储池之间的总IOPS。 读时延 客户端从HBlock存储池读取数据的时延。采集周期内,服务器关联卷的读时延平均值。 写时延 客户端向HBlock存储池写入数据的时延。采集周期内,服务器关联卷的写时延平均值。 总时延 客户端与HBlock存储池之间的总时延。采集周期内,服务器关联卷的读写时延平均值。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        监控
        存储池(集群版适用)
      • 变更父节点(集群版适用)
        本节主要介绍变更服务器的父节点。 在“服务器管理”页面,选择需要修改父节点的服务器,点击“操作”>“重映射”,变更服务器的父节点。 图1 变更父节点 项目 描述 父节点名称 在下拉框中选择父节点。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        服务器
        变更父节点(集群版适用)
      • 主备切换(集群版适用)
        本节主要介绍卷的主备切换。 在“卷管理”页面,选择需要主备切换的卷,点击“操作”>“主备切换”,可以触发卷对应的iSCSI目标主备切换。 说明 执行此操作后,客户端不需要进行任何操作。 图1 触发卷的主备切换
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        卷操作
        主备切换(集群版适用)
      • 设置卷主备优先级或自动切换(集群版适用)
        参数 描述 n LUNNAME 或 name LUNNAME 指定卷名称。可以指定一个或者多个卷,以英文逗号分开。 说明 如果不指定卷名称,表示设置所有卷。 priority SERVERID &<1n> 指定卷主备分布优先级的服务器ID,系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 例如 :lun1对应target1,其IQN分布在hblock1、hblock2和hblock4上。指定lun1卷主备分布优先级的服务器ID,如 priority hblock1,hblock3,hblock4 ,表示优先使用hblock1对应的 target1 IQN作为lun1的主IQN,hblock3对应的target1 IQN作为备用IQN。若hblock1故障,系统将自动切换至hblock3对应的target1 IQN作为主IQN,hblock4对应的target1 IQN作为备IQN。当hblock1故障恢复: 如果 autofailback 设置为Enabled,系统将自动恢复为设定的优先级顺序,Active target IQN、Standby target IQN、Cold target IQN切换至hblock1、hblock3、hblock4。 如果autofailback 的设置为Disabled,系统保持当前状态不变;如果恢复为设定的优先级顺序,可以执行命令 ./stor lun Sn LUNNAME 命令手动切换。 注意 如果指定卷主备分布优先级的服务器ID,必须且只能指定一个卷名称。 priority RANDOM 系统随机选择卷的主备IQN。即当卷对应target IQN所在的服务器故障后,系统随机切换卷的主备IQN。 priority CUSTOM 根据卷的当前主备target IQN(Active target IQN、Standby target IQN、Cold target IQN)所在服务器,进行优先级设置。设置完成后,根据autofailback来确定是否需要自动调整。 例如 :lun1对应target1,其Active target、Standby target、Cold target分别对应hblock1、hblock2和hblock4上。若hblock1故障,系统将自动切换至hblock2对应的target1 IQN作为主IQN,hblock4对应的target1 IQN作为备IQN。当hblock1故障恢复: 如果 autofailback 设置为Enabled,系统将自动恢复为设定的优先级顺序,Active target IQN、Standby target IQN、Cold target IQN切换为hblock1、hblock2和hblock4。 如果 autofailback 的设置为Disabled,系统保持当前状态不变;如果恢复为设定的优先级顺序,可以执行命令 ./stor lun Sn LUNNAME 命令手动切换。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换,即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        设置卷主备优先级或自动切换(集群版适用)
      • 查询存储池
        ./stor storagepool ls n pool2 Storage Pool Name: default Pool Status: Normal Fault Domain: path Base Pool: true Total Capacity: 278.57 GiB Used Capacity: 23.98 GiB Created Time: 20260112 17:34:40 LUN: LUN for CachePool: lun05a LUN for Pool: lun02,lun02a,lun03a,lun01a,lun01b,lun01aC1 status: 7 total, 1.33 TiB (cache mode:1 total, 210 GiB; storage mode:1 total, 310 GiB; local mode:5 total, 841 GiB) Data Health: 100% normal, 0% low redundancy, 0% error Topology: Node Name: default:room1:rack1:hblock2:/mnt/stor01 Node Type: path Status: Healthy Disk Path(s): ++++++++ No. Path Used Capacity Total Capacity Used Capacity Quota Capacity Quota Health Status Health Detail ++++++++ 1. default:room1:rack1:hblock2:/mnt/stor01 8.4 GiB 92.86 GiB 1000.26 MiB 90 GiB Healthy ++++++++ Node Name: default:room1:hblock3:/mnt/stor01 Node Type: path Status: Healthy Disk Path(s): ++++++++ No. Path Used Capacity Total Capacity Used Capacity Quota Capacity Quota Health Status Health Detail ++++++++ 1. default:room1:hblock3:/mnt/stor01 7.82 GiB 92.86 GiB 984.27 MiB 90 GiB Healthy ++++++++ Node Name: default:hblock1:/mnt/stor02 Node Type: path Status: Healthy Disk Path(s): ++++++++ No. Path Used Capacity Total Capacity Used Capacity Quota Capacity Quota Health Status Health Detail ++++++++ 1. default:hblock1:/mnt/stor02 7.76 GiB 92.86 GiB 1004.29 MiB 90 GiB Healthy ++++++++ 查询指定存储池信息的描述 项目 描述 Storage Pool Name 存储池名称。 Pool Status 存储池状态: Normal:正常。 Deleting:删除中。 Fault Domain 存储池故障域级别: path:数据目录级别。 server:服务器级别。 rack:机架级别。 room:机房级别。 Base Pool 是否是基础存储池: true:是基础存储池。 false:不是基础存储池。 Total Capacity 存储池总容量。 Used Capacity 存储池已用容量。 Created Time 存储池创建时间。 Description 存储池描述信息。 LUN 卷相关信息,包含LUN for CachePool、LUN for Pool、status。 LUN LUN for CachePool 缓存存储池卷列表。 LUN LUN for Pool 存储池卷列表。 LUN status 卷的状态信息,包括卷的总数、总容量,以及各类型卷的个数及容量。 Data Health 存储池的数据健康度,包括:正常数据的比例(normal)、降级数据的比例(low redundancy)、错误数据的比例(error)。如果存在降级状态的数据,会给出数据重建进度(low redundancy reconstruction progress)。 Topology 存储池拓扑图,包括:Node Name、Node Type、Status、Disk Path(s)、Removing Details。 Topology Node Name 节点名称。 Topology Node Type 节点类型: path:数据目录。 server:服务器。 rack:机架。 room:机房。 Topology Status 节点健康状态: Healthy:节点处于健康状态,可正常读写。 Warning:节点处于警告状态,可读。 Error:节点处于错误状态,无法访问。 Topology Disk Path(s) 数据目录信息: No.:编号。 Path:数据目录。 Used Capacity:HBlock数据目录对应分区的已用容量。 Total Capacity:HBlock数据目录对应分区的总容量。 Used Capacity Quota:已用数据目录容量配额。 Capacity Quota:数据目录容量配额,当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 Health Status:数据目录的健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 Health Detail:数据目录健康状态详情。 如果健康状态为Healthy,此列为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。 Topology Removing Details 被移除节点的详细信息: No.:编号。 Path:节点的具体数据目录。 Stage:移除节点所处的阶段: Reconfiguration:重置中。 CheckingData:检查数据。 Executing:执行移除节点。 Details:详细数据: FaultDomains:故障域详情,包括:healthy(健康个数),warning(告警个数),error(错误个数)。 Data:safe(安全数据百分比),await reconstruction(需要重建的数据百分比),await more faultdomains(需要额外故障域才能够重建的数据百分比),singlecopy(单副本数据百分比),corrupted(已经损坏的数据百分比)。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        存储池操作(集群版)
        查询存储池
      • 集群拓扑(集群版)
        本节主要介绍集群拓扑。 点击导航栏中的“系统”>“集群拓扑”,进入“集群拓扑”,可以查看HBlock的集群拓扑图。 集群拓扑对集群物理资源实际部署方式的可视化逻辑展示。 图1 集群拓扑 名称 描述 根节点 根节点名称默认为default。点击右键,可以选择“添加子节点”或“编辑”节点。 根节点 添加子节点 父节点类型。 根节点 添加子节点 父节点名称。 根节点 添加子节点 子节点类型,可以选择: room:机房。选择room时,可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 描述:节点描述,取值:1~50位字符串。 rack:机架。选择rack时,可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 描述:节点描述,取值:1~50位字符串。 server:服务器。选择server,添加服务器。添加服务器时,待添加的服务器安装HBlock后,才可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 服务器IP:指定需要添加的服务器IP,支持IPv4和IPv6地址。 端口号:指定API端口号。取值范围是[1, 65535],默认值是1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录:包括数据目录、容量配额、操作。 数据目录:服务器中,用于存储用户数据的绝对路径。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。点击“添加”,可以添加数据目录。 描述:节点描述,取值:1~50位字符串。 根节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 根节点 编辑 描述:节点描述,取值:1~50位字符串。 room类型节点 机房类型的节点。将鼠标放至节点名称处,可以显示节点名称、类型及描述信息。点击右键,可以选择添加子节点、移除或编辑节点。 room类型节点 添加子节点 父节点类型。 room类型节点 添加子节点 父节点名称。 room类型节点 添加子节点 子节点类型,可以选择: rack:机架。选择rack时,可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 描述:节点描述,取值:1~50位字符串。 server:服务器。选择server,添加服务器。添加服务器时,待添加的服务器安装HBlock后,才可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 服务器IP:指定需要添加的服务器IP,支持IPv4和IPv6地址。 端口号:指定API端口号。取值范围是[1, 65535],默认值是1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录:包括数据目录、容量配额、操作。 数据目录:服务器中,用于存储用户数据的绝对路径。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。点击“添加”,可以添加数据目录。 描述:节点描述,取值:1~50位字符串。 room类型节点 移除 当room节点没有子节点时,可以点击移除按钮,删除该节点。 room类型节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 room类型节点 编辑 描述:节点描述,取值:1~50位字符串。 rack类型节点 机房类型的节点。将鼠标放至节点名称处,可以显示节点名称、类型及描述信息。点击右键,可以选择添加子节点、移除节点、编辑节点或重映射。 rack类型节点 添加子节点 父节点类型。 rack类型节点 添加子节点 父节点名称。 rack类型节点 添加子节点 子节点类型,可以选择server,添加服务器。添加服务器时,待添加的服务器安装HBlock后,才可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 服务器IP:指定需要添加的服务器IP,支持IPv4和IPv6地址。 端口号:指定API端口号。取值范围是[1, 65535],默认值是1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录:包括数据目录、容量配合、操作。 数据目录:服务器中,用于存储用户数据的绝对路径。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。 描述:节点描述,取值:1~50位字符串。 rack类型节点 移除 当rack节点没有子节点时,可以点击“移除”按钮,删除该节点。 rack类型节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 rack类型节点 编辑 描述:节点描述,取值:1~50位字符串。 rack类型节点 重映射 变更父节点。通过下拉框,重新选择父节点名称。 server类型节点 服务器类型的节点。 将鼠标放至节点名称处,可以显示节点名称、类型、服务器ID、业务IP、集群IP、数据目录容量、数据目录已用容量、服务器状态及描述信息。 点击右键,可以选择添加子节点、移除节点、编辑节点或重映射。 server类型节点 添加子节点 父节点类型。 server类型节点 添加子节点 父节点名称。 server类型节点 添加子节点 子节点类型,可以选择path,添加数据目录。 数据目录:服务器中,用于存储用户数据的绝对路径,一次可以添加多个数据目录,数据目录以英文逗号(,)分开。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。点击“添加”,可以添加数据目录。 server类型节点 移除 点击“移除”按钮,可以移除服务器。 注意 如果移除已损毁或者宕机的服务器,需要使用强制移除。强制移除服务器,会产生数据丢失风险,请谨慎操作。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是ActiveStandby,移除服务器时,业务不会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是Disabled,移除服务器时,业务会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。但服务器移除时,会有数据丢失风险。 如果执行日志采集后,产生的日志保存在服务器安装目录下,在服务器移除之后,该日志将被删除。如果产生的日志保存在HBlock的数据目录内,并且移除服务器时删除服务器HBlock数据目录中的数据,该日志也将被删除。 有服务器正在移除时,不能再移除其他服务器。如果必须移除,请使用强制移除,但有丢数据风险。 该节点的所有数据目录不属于任何存储池,允许移除该服务器。否则不能移除,如果必须移除,请使用强制移除,但有丢数据风险。 如果要移除服务器的某个数据目录属于基础存储池,且是基础存储池中仅剩的一个可用故障域中的节点,不允许移除。 server类型节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 server类型节点 编辑 描述:节点描述,取值:1~50位字符串。 server类型节点 重映射 变更父节点。通过下拉框,重新选择父节点名称。 path类型节点 数据目录类型的节点。 将鼠标放至节点名称处,可以显示节点名称、类型、数据目录容量、数据目录已用容量、容量配额、已用容量配额、健康状态、健康详情、存储池。 点击右键,可以移除数据目录。 注意 强制移除数据目录,有产生数据丢失风险。 如果执行日志采集后,产生的日志保存在HBlock的数据目录内,移除数据目录时删除数据目录上的HBlock数据,该日志将被删除。 有数据目录正在移除时,不能再移除其他数据目录。如果必须移除,请使用强制移除,但有丢数据风险。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        集群拓扑(集群版)
      • 下载备份数据
        本节主要介绍如何下载备份数据 Redis 管理控制台支持备份数据下载。 备份完成后,您可根据需求获取公网或内网下载地址进行下载。 前提条件 只有当缓存实例处于“运行中”状态,才能执行此操作。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台右上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 左侧菜单点击备份与恢复,进入备份管理操作页面。 5. 点击【下载】按钮,弹框展示公网和内网下载地址,根据需求获取下载地址。 6. 访问下载地址,获取备份文件。 说明 仅当备份成功后,方可下载备份数据。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例备份恢复管理
        下载备份数据
      • 连接约束
        本节主要介绍分布式缓存Redis的连接约束 分布式缓存服务Redis实例可以被兼容Redis协议的任何客户端访问。您可以根据自己的应用需求选择适合的Redis客户端。有关Redis支持的客户端列表,请参考Redis官网,有关各客户端的连接方式,请参考通过客户端连接方式。 使用分布式缓存Redis实例前,请注意以下约束条件: 1.Redis默认安全组未配置规则时,禁止所有入站流量。如需允许同VPC内云主机访问,必须显式添加允许Redis服务端口(6379)的入站规则。 2.在您的弹性云主机安装客户端后,必须要与需要连接的Redis实例处于同一虚拟私有云(VPC)内,并配置相同的安全组。如果使用不同的安全组,则您需设置安全组连通规则,以确保弹性云主机与Redis实例之间的网络连接正常。目前暂不支持弹性云主机与Redis实例跨VPC访问。 3.当使用公网访问Redis实例时,Redis缓存实例配置了正确的安全组规则,其安全组入方向规则,必须允许外部地址访问实例端口。具体配置请参考常见问题网络与连接如何配置安全组。
        来自:
      • 开启扩展模块
        分布式缓存提供实例开启扩展模块功能(Redis Module),目前支持以下几种扩展模块 RedisJSON:对JSON类型的原生支持 RediSearch:一个功能齐全的搜索引擎 说明 扩展模块功能目前为白名单特性,如需要使用该特性,请联系技术支持开通后使用。 注意 RedisJSON、RediSearch等模块均包含有自定义数据类型,开启后不能被卸载,且有可能会影响离线全量key分析功能。 前提条件 只有当分布式缓存Redis缓存实例处于“运行中”状态且副本数不小于2时,才能执行此操作。 约束条件 经典集群、Proxy集群、读写分离实例类型不支持。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 左侧菜单点击RedisModule菜单,进入RedisModule界面,即可展示和管理当前实例的扩展模块。 界面自动展示当前实例可加载的扩展模块种类。 点击选定扩展模块开关可开启加载选定的扩展模块。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        开启扩展模块
      • 变更镜像
        本文介绍如何在科研助手中变更镜像。 前提条件 开发机实例状态必须为“停止”才可以进行变更镜像。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【开发机】。 3. 在开发机列表中定位到想要保存为镜像的开发机实例,点击右侧操作栏【变更镜像】,进入变更镜像对话框。 4. 在变更镜像对话框中,选择【公共框架 】、【社区镜像 】、【自定义镜像】或 【共享镜像】具体的镜像,点击【确认 】完成变更镜像,点击【取消】放弃变更镜像。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        开发机
        变更镜像
      • 打开开发机
        本文介绍如何在科研助手中打开开发机。 前提条件 开发机实例状态必须为“运行中”才可以打开。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【开发机】。 3. 在开发机列表中定位到目标开发机并单击【打开】。浏览器自动创建一个标签页,并在标签页内显示开发机界面。开发机界面加载过程需要一定的时间。 不同的镜像会提供不同的接入方式,目前科研助手提供Jupyter、Vscode、VNC等接入方式: (1)JupyterLab接入: 多语言多内核JupyterLab界面: 切换到开发机标签页,可以进行代码编写和调试。 (2)VNC接入: 点击开发机【打开】按钮后即可进入到VNC开发机当中。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        开发机
        打开开发机
      • 删除并行计算
        本文介绍了如何删除科研助手的并行计算作业。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【并行计算】。 3. 在【并行计算】页面中,在需要停止作业的操作栏中,点击【删除】。 4. 点击后将弹出二次确认窗口。确认无误后,点击【确认删除】,将执行删除作业操作。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        并行计算
        删除并行计算
      • 变更开发机规格
        本文介绍如何在科研助手中变更开发机规格。 前提条件 开发机实例状态必须为“停止”才可以变更规格。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【开发机】。 3. 在开发机列表中定位到想要变更规格的开发机,点击【变更规格】。 4. 在变更规格弹窗重选择目标规格,点击【确认 】完成规格变更,点击【取消】,放弃规格变更。 5. 变更规格将改变计算资源规格,具有以下参数: 参数 说明 类型 计算资源类型。可选: · GPU加速型。使用GPU加速。 · 通用计算型。仅使用CPU。 规格 计算资源规格。 · 通用计算型。包括CPU(核),内存(GB)。 · GPU加速型。包括CPU(核),内存(GB),显卡数量(块)
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        开发机
        变更开发机规格
      • 网盘数据集
        本文介绍科研助手提供百度网盘进行数据给本地盘供训练使用。 概述 科研助手支持从百度网盘同步数据,供本地盘训练使用。 操作步骤 1.登录科研助手管理控制台。 2.在控制台左侧导航栏中,选择【数据存储】选项的【数据集管理】。 3.选中具体的数据集文件,进入【文件管理】,点击【网盘同步】。 4.点击【更新授权】,点击【获取授权码】。 进入百度账号页面,登陆后复制授权码,填写至【更新授权】中,确认无误点击【授权】。 5.授权完成后,点击【浏览文件】,可浏览查看网盘的相关文件集数据信息。 7.勾选数据并点击【确认】,进行下载给本地盘。 8.等待数据同步完成,即可完成百度网盘数据同步。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        数据存储
        数据集管理
        网盘数据集
      • 1
      • ...
      • 266
      • 267
      • 268
      • 269
      • 270
      • ...
      • 319
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      策略管理

      《非经营性互联网信息服务备案管理办法》(信息产业部令第33号)

      Microsoft SQL Server

      文档下载

      计费类

      VPN删除

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号