活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云好会计_相关内容
      • 定时扩展云主机
        本文将为您介绍如何通过弹性伸缩来定时扩展云主机。 可以使用弹性伸缩创建低成本业务集群,根据业务流量的波动周期来自动扩缩容业务集群内的计算资源,减少成本浪费。方案详解如下: 针对日常业务流量,创建伸缩组并设置最小实例数量已满足基础业务需求; 为伸缩组创建定时/周期策略来应对周期性的流量波动。 创建伸缩组 为周期性规律变化的业务集群创建伸缩组,设置最小实例数为1,期望实例数为2,最大实例数为5来满足业务的日常访问需求。 1. 登录控制中心。 2. 单击控制中心左上角的,选择弹性伸缩组所在地域。 3. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 4. 在“弹性伸缩组”页签中,点击右上角“创建弹性伸缩组”,进入“创建弹性伸缩组>伸缩参数”配置页面。 5. 在配置页面完成伸缩组的配置,具体参数配置可参见创建伸缩组。 注意 通过弹性伸缩组创建的实例仅支持按需计费。 根据业务需求创建伸缩策略 为已创建好的伸缩组设置伸缩策略,来满足突发的业务流量变化,确保业务的稳定运行。 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 4. 点击通过“创建伸缩组”操作中创建好的伸缩组名称,进入到伸缩组详情页面。 5. 在详情页面的下方,单击“伸缩策略”进入伸缩策略页签,单击“创建策略”按钮,进入到“创建伸缩策略”页面。 6. 在“创建伸缩策略”页面中完成策略的配置,在本实践中需要添加两个周期策略,一个扩容策略,一个缩容策略。具体操作步骤可参见创建伸缩策略。 1)策略类型选择周期策略。 2) 时区保持默认GMT +8:00。 3) 触发时间设置为业务高峰期到来前5分钟,例如每天晚上20:00是高峰期起始时间,则周期设置为按天,6月1日至6月30日期间,触发时间设置为每晚19:55。 4)执行动作设置为增加1个实例。 7. 完成以上配置之后单击“确认”,即可成功创建定时扩容策略。 8. 继续创建缩容策略,以下为本实践中缩容策略专有的属性值设置说明: 1)策略类型选择周期策略。 2)时区保持默认GMT +8:00。 3)触发时间设置为业务高峰期结束后5分钟,例如每天晚上22:00是高峰期结束时间,则周期设置为按天,6月1日至6月30日期间,触发时间设置为每晚22:05。 4) 执行动作设置为减少1个实例。 9. 完成以上配置之后单击“确认”,即可成功创建缩容策略。
        来自:
        帮助文档
        弹性伸缩服务 AS
        快速入门
        定时扩展云主机
      • 网络性能测试的最佳实践
        测试4线程TCP吞吐量,如果没有指定发送方式,iperf客户端只会使用单线程。 $ iperf3 c 172.16.0.9 i 1 P 4 t 60 p 10000 结果说明: Interval表示时间间隔。 Transfer表示时间间隔里面转输的数据量。 Bitrate是时间间隔里的传输速率。 测试UDP吞吐量 带宽测试通常采用UDP模式,因为能测出极限带宽、时延抖动、丢包率。在进行测试时,首先以链路理论带宽作为数据发送速率进行测试,例如,从客户端到服务器之间的链路的理论带宽为100Mbps,先用b 100M进行测试,然后根据测试结果(包括实际带宽,时延抖动和丢包率),再以实际带宽作为数据发送速率进行测试,会发现时延抖动和丢包率比第一次好很多,重复测试几次,就能得出稳定的实际带宽。 Server端开启iperf的服务器模式,指定UDP端口: [root@ssdaliu2 ~] iperf3 s i 1 p 10001 Server listening on 10001 Client端启动iperf的客户端模式,连接服务端 [root@ssdaliu1 ~] iperf3 u c 192.168.0.15 b 100m t 60 p 10001 Connecting to host 172.16.0.9, port 10001 [ 4] local 172.16.0.2 port 46011 connected to 172.16.0.9 port 10001 [ ID] Interval Transfer Bandwidth Total Datagrams [ 4] 0.001.00 sec 10.8 MBytes 90.3 Mbits/sec 7799 ... [ 4] 58.0059.00 sec 11.9 MBytes 100 Mbits/sec 8640 [ 4] 59.0060.00 sec 11.9 MBytes 99.9 Mbits/sec 8625 [ ID] Interval Transfer Bitrate Jitter Lost/Total Datagrams [ 4] 0.0060.00 sec 714 MBytes 99.8 Mbits/sec 0.001 ms 133914/517118 (26%) [ 4] Sent 517118 datagrams iperf Done.
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        网络相关最佳实践
        网络性能测试的最佳实践
      • 后台写入器相关参数
        本页介绍天翼云TeleDB数据库后台写入器相关参数。 有一个独立的服务器进程,叫做后台写入器,它的功能就是发出写“脏”(新的或修改过的)共享缓冲区的命令。它写出共享缓冲区,这样让处理用户查询的服务器进程很少或者永不等待写动作的发生。不过,后台写入器确实会增加 I/O 的总负荷,因为虽然在每个检查点间隔中一个重复弄脏的页面可能只会写出一次,但在同一个间隔中后台写入器可能会把它写出好几次。在这一小节讨论的参数可以被用于调节本地需求的行为。 bgwriterdelay (integer) 指定后台写入器活动轮次之间的延迟。在每个轮次中,写入器都会为一定数量的脏缓冲区发出写操作(可以用下面的参数控制)。然后它就休眠bgwriterdelay毫秒, 然后重复动作。 但是,当缓冲池中没有脏缓冲区时,无视bgwriterdelay设置,它都会进入更长的睡眠时间。 默认值是 200 毫秒(200ms)。注意在许多系统上,休眠延迟的有效解析度是 10 毫秒;因此,为bgwriterdelay设置一个不是 10 的倍数的值与把它设置为下一个更高的 10 的倍数是一样的效果。这个选项只能在服务器命令行上或者在postgresql.conf文件中设置。 bgwriterlrumaxpages (integer) 在每个轮次中,不超过这么多个缓冲区将被后台写入器写出。把这个参数设置为零可禁用后台写出(注意被一个独立、专用辅助进程管理的检查点不受影响)。默认值是100 个缓冲区。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        资源消耗相关参数
        后台写入器相关参数
      • 创建告警规则
        本文介绍如何针对弹性文件服务创建告警规则。 概述 通过使用云监控的告警功能,用户可以对弹性文件服务的核心监控指标设置告警规则,当监控指标触发用户设置的告警条件时,支持以邮箱、短信等方式通知用户,让用户在第一时间得知云服务发生异常,迅速处理故障,避免因资源问题造成业务损失。更多信息,请参考使用告警功能云监控服务用户指南。 操作步骤 方式一:通过云监控服务控制台创建告警规则 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 单击“管理与部署>云监控服务”,进入云监控控制台页面。 3. 单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面 4. 可通过以下三个入口,创建告警规则: 入口一:您可以选择在“云服务监控>弹性文件监控”页,在目标文件系统的“操作”栏下点击“创建告警规则”,选择需要告警服务的监控指标创建规则,包括监控阈值、通知频率、通知方式等。 入口二:在“云服务监控>弹性文件监控”页面,在目标文件系统的“操作”栏下点击“查看监控图表”,进入文件系统的监控详情页,目标监控项图表右上方,点击“+”创建此监控项的告警规则。 入口三:单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面,页面右上方点击“创建告警规则”,选择监控服务:弹性文件及文件系统名称、监控维度、实例、指标等参数,创建相应的告警规则。 5. 根据界面提示,配置告警规则的相关指标,配置参数如表所示: 参数 参数说明 选择类型 可选择从模板导入或自定义创建。 从模板导入:在下拉框中选择已有的模板,参考告警模板云监控服务用户指南。 自定义创建:需进行配置参数选择。 监控指标 详细内容参见监控指标。 策略 支持的聚合值:原始值、平均值、最大值、最小值支持的策略:≥,>,≤,<,=值:填写设定的值数。 聚合周期 可以选择:1分钟、5分钟、20分钟、1小时、4小时、12小时和24小时,根据告警规则需求选择。 出现次数 选择达成策略值出现的次数。 发送通知 关闭,无需配置后续通知规则;开启,需配置下列相关参数,选择通知发送的模式。 选择告警联系组 在下拉框中选择告警联系组,如果没有,需添加告警联系人/组。 告警重复 可以选择不重复、1次、2次、3次。 触发场景 出现告警,恢复正常。 通知周期 选择可接收到通知的时间,根据需求勾选星期一、星期二、星期三、星期四、星期五、星期六、星期日。例如未勾选星期一,则星期一不会收到通知信息。 通知时段 选择通知的具体时间段,如6:30:007:30:00。 通知方式 邮件、短信。 告警回调 请填写具体URL。 规则名称 填写告警规则名称。 企业项目 选择告警规则所属企业项目。 描述 填写告警规则的信息描述,限制100字以内。 6. 设置好对应参数后,点击“确定”,等待告警规则创建完成。 7. 弹性文件服务告警规则设置完成后,当符合规则的告警产生时,系统会自动进行通知。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        监控告警
        创建告警规则
      • 用户使用流程
        子账号使用流程 前置条件 子账号为IAM普通用户角色且已登录到一站式智算平台 主账号使用流程 若子账号为IAM管理员角色,则其拥有全部操作权限,操作流程和主账号别无二致,故角色为IAM管理员的子账号使用流程参见主账号使用流程章节;角色为IAM普通用户的子账号,使用流程如下: 子账号的使用流程主要是为了进行任务作业,具体步骤如下: 流程 子任务 说明 详细指导 数据集准备与处理 创建基础数据集 可上传基础数据集到ZOS或HPFS 基础数据集 数据集准备与处理 创建标注数据集 创建标注数据集,可对数据集进行标注,并发布为新的数据集 标注数据集 数据集准备与处理 数据清洗 可以对数据 数据处理 镜像准备 预置镜像 预置镜像即平台预先设置的完整镜像,可直接用于创建任务时使用 预置镜像 镜像准备 自定义镜像 可以通过开发机自主制作镜像或通过天翼云容器镜像服务将镜像服务内的容器共享给一体化智算平台 自定义镜像 镜像准备 他人分享镜像 可将自己的镜像分享给他人使用 镜像分享 代码准备 导入代码包 将代码上传到平台 我的代码包 模型准备 导入模型 可将用户自己的模型或在平台训练、精调好的模型导入到平台进行版本管理、评估及部署 我的模型 AI作业 模型开发 可通过启动和管理在线JupyterLab或VSCode集成开发环境在线编程进行模型开发 开发机 AI作业 模型训练 创建自定义创建训练任务,支持单机和多机分布式训练 训练任务 AI作业 模型精调 零代码快速创建和管理精调任务,提供全参微调和lora微调两种精调方式。基于平台的基础大模型,选择训练数据集和算力即可快速启动精调任务。 模型精调 AI作业 模型评估 可对模型进行评估,自动评估打分,生成评估报告 模型评估 AI作业 模型压缩 不减少模型效果的前提下压缩模型大小,进而提升模型在推理调用时的性能 模型压缩 AI作业 模型部署 部署模型,提供推理服务 模型服务 AI作业 体验模型 可以对预置模型和自己部署的模型进行体验 体验中心 综合管理 工作空间管理 查看工作空间相关信息,若是工作空间的管理员可以进行相关操作 工作空间 综合管理 操作审计 对平台操作事件进行跟踪 操作审计
        来自:
        帮助文档
        一站式智算服务平台
        快速入门
        用户使用流程
      • Slowdetect
        自写训练一个step对应的代码 endtime profiler.gettime() profiler.updatestep(starttime, endtime, iteration) iteration + 1 ... ... · 安装ctcclprofilernet 下载合适版本的ctcclprofiler whl安装包,使用以下命令安装: pip install ctcclprofilernetxxx.whl 通过pip show可以查看安装包的位置,并配置环境变量: pip show ctcclprofilernet export PATH"/usr/local/python3/bin:$PATH" 启动命令: ctcclprofilernet loglevelinfo 下载地址 组件 下载地址 ctccm ctcclprofilercomm ctcclprofilernet 使用流程 1. ctccm启动 在和所有训练任务节点网络互通的节点上,部署1个ctccm服务,并配置好环境变量。使用以下启动命令拉起ctccm服务,根据训练任务节点数实际和需要配置nodes和port。 ctccm nodes “nnodes” port “ctccmslowdetectport” 2. 提前配置ctcclprofiler所需环境变量 配置以下环境变量: export CTCCLQPTIMEREPORT1, export CTCCLSLOWDETECTSERVERADDR“ export CTCCLPROFILERNETADDR“ 3. 启动训练任务和ctcclprofiler 在同一目录下启动ctcclprofilernet服务和执行训练任务。 ctcclprofilernet loglevelinfo bash runllama27bmorenode.sh
        来自:
      • Cluster单机
        Redis Cluster集群实例,为直连集群版,兼容开源Redis的Cluster,基于去中心化集群部署架构,Cluster中每一个节点存储一部分数据。 Redis Cluster集群实例的特点如下: 支持智能客户端JedisCluster的使用方式。 对比单机规格,整体性能与Redis分片数近乎线性增长。 架构示意图 Cluster集群的去中心化架构中,数据存储和处理负载不再由单一中心节点来管理,而是由多个节点共同参与。这种架构设计旨在提高系统的可伸缩性、可用性和容错性。 数据分布在多个节点上,从而实现更好的性能和可靠性。 数据分片 在Cluster集群中,数据分片是指将整个数据集划分为多个片段,并分别存储在不同的节点上。这种分片机制带来了一系列好处,包括横向扩展性、负载均衡和提高系统性能。Cluster会预先分配16384个slot,每个Redis的server存储所有slot与redis server的映射关系。 适用场景 数据量较大 可以支持单个Redis分片规格164G自由选择,Redis分片数量从364G可选,最大可支持4TB规格,可有效满足业务扩展要求。 QPS压力较大的场景 采用多节点部署,突破Redis单线程的性能瓶颈,可较好支撑QPS较大的场景。 吞吐密集型应用场景 提供高性能、高可用性和横向扩展性,适用于需要处理大量读写请求的需求场景。 对Redis协议兼容性要求较高的场景 兼容Redis社区原生Cluster集群,各业务可实现平滑迁移。 缓存数据无高可用场景 由于Cluster单机实例采用单副本集群部署架构,不具备高可用性与服务连续性,若使用请务必确认风险。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        实例类型
        Cluster单机
      • Agent管理
        使用Windows系统安装Agent 1. 在左侧菜单栏选择“系统管理 > Agent管理”进入“Agent管理”页面,选择“Agent安装”页签,点击下载对应版本的Agent安装包。 注意 下载的Agent默认会将流量转发给当前的天翼云数据库审计实例。如需转发到其他天翼云数据库审计实例,请在解压后的Agent路径下agent.ini配置文件中找到serviceIp选项进行地址修改。 无论是Linux版本安装包、AIX版本安装包还是Windows版本安装包,文件夹中均有“ReadMe”文档,文档内包含使用说明、文件说明、注意事项、运行环境说明、配置文件说明。在安装前请仔细阅读该文档并严格按照要求进行操作。 2. 安装包下载完成之后,将Agent安装包上传到Windows服务器上。 3. 解压压缩包到指定运行目录。在Agent的安装目录以管理员身份运行“dbAgentsetup.exe”进入安装向导,单击“下一步”。 4. 单击“下一步”之后显示“Install winpcap”和“Install npcap”两个选项,根据实际需求选择完成后单击“下一步”。 说明 如果没有本地审计的需求请选择“Install winpcap”; 如果需要部署本地审计,则选择“Install npcap”。 默认推荐使用“Install winpcap”安装方式,对于Windows操作系统的兼容性较好。 “Data encrypted transmission”仅需要配置agent数据传输加密情况下才需要勾选。 5. 单击“安装”。 6. 点击“I Agree”同意安装协议后,之后按照提示进行操作。 说明 由于第四步选择的差异,“Wincap”和“Npcap”安装操作选项会有些许差别。 “Wincap”插件根据默认选择安装即可。 “Npcap”插件需要选择Legacy loopback support for Nmap 7,80 and older , Not needed for Wireshark. 和 Install Npcap in WinPcap APIcompatible Mode. 两个选项。 7. 安装完成后点击“完成”退出安装向导。
        来自:
        帮助文档
        数据库审计
        用户指南
        Agent管理
      • 使用限制
        本章节主要介绍与约束与限制 Nacos引擎版本兼容性说明 Nacos引擎很好地兼容社区版本,且向下兼容。例如:微服务使用开源Nacos 1.x.x版本,也可以使用Nacos引擎。 配置中心兼容Nacos1.0起所有的客户端版本,服务发现兼容Nacos 1.2起的所有客户端版本, 因此建议使用Nacos 1.2.0之后客户端版本。 Nacos 2.x.x版本新增了长连接功能,需要使用长连接能力请升级至2.x.x版本。 Nacos 2.1.0版本后,默认关闭了双写能力,因此无法支持从Nacos 1.x版本平滑升级到2.1.0+的能力,如需要使用平滑升级能力,从Nacos 1.x直接升级到Nacos 2.1.0+版本,需要在application.properties文件中配置参数nacos.core.support.upgrade.from.1xtrue。 Nacos引擎与微服务框架版本关系 Spring Cloud Alibaba版本 Spring Cloud版本 Spring Boot版本 2022.0.0.0RC Spring Cloud 2022.0.0 3.0.0 2021.0.4.0 Spring Cloud 2021.0.4 2.6.11 2021.0.1.0 Spring Cloud 2021.0.1 2.6.3 2021.1 Spring Cloud 2020.0.1 2.4.2 2.2.10RC1 Spring Cloud Hoxton.SR12 2.3.12.RELEASE 2.2.9.RELEASE Spring Cloud Hoxton.SR12 2.3.12.RELEASE 2.2.8.RELEASE Spring Cloud Hoxton.SR12 2.3.12.RELEASE 2.2.7.RELEASE Spring Cloud Hoxton.SR12 2.3.12.RELEASE 2.2.6.RELEASE Spring Cloud Hoxton.SR9 2.3.2.RELEASE 2.2.1.RELEASE Spring Cloud Hoxton.SR3 2.2.5.RELEASE 2.2.0.RELEASE Spring Cloud Hoxton.RELEASE 2.2.X.RELEASE 2.1.4.RELEASE Spring Cloud Greenwich.SR6 2.1.13.RELEASE 2.1.2.RELEASE Spring Cloud Greenwich 2.1.X.RELEASE 2.0.4.RELEASE(停止维护,建议升级) Spring Cloud Finchley 2.0.X.RELEASE 1.5.1.RELEASE(停止维护,建议升级) Spring Cloud Edgware 1.5.X.RELEASE
        来自:
        帮助文档
        微服务引擎
        产品简介
        使用限制
      • 初始化系统用户密码
        本章节主要介绍初始化系统用户密码 。 操作场景 该任务指导管理员在用户遗忘密码或公共帐号密码需要定期修改时,通过MRS Manager初始化密码。初始化密码后用户首次使用需要修改密码。 对系统的影响 初始化MRS集群用户密码后,如果以前下载过用户认证文件,则需要重新下载并获取keytab文件。 初始化“人机”用户密码 在MRS Manager,单击“系统设置”。 1. 在“权限配置”区域,单击“用户管理”。 2. 在要初始化密码用户所在行,单击“更多 > 初始化密码”,按界面提示信息修改用户密码。 在弹出窗口中输入当前登录的管理员密码确认管理员身份,单击“确定”,然后在“初始化密码”单击“确定”。 集群中,默认的密码复杂度要求: 密码字符长度为8~32位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符'~!@ $%^&()+[{}];:'", /?中的3种类型字符。 不能与用户名或倒序的用户名相同。 初始化“机机”用户密码 根据业务情况,准备好客户端,并登录安装客户端的节点。 1. 执行以下命令切换用户。 sudo su omm 2. 执行以下命令,切换到客户端目录,例如“/opt/client”。 cd /opt/client 3. 执行以下命令,配置环境变量。 source bigdataenv 4. 执行以下命令,使用kadmin/admin登录控制台。 kadmin p kadmin/admin 说明 kadmin/admin的默认密码为“KAdmin@123”,首次登录后会提示该密码过期,请按照提示修改密码并妥善保存。 5. 执行以下命令,重置组件运行用户密码。此操作对所有服务器生效。 cpw 组件运行用户名 例如:cpw oms/manager 集群中,默认的密码复杂度要求: 密码字符长度为8~32位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符'~!@
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        权限管理
        初始化系统用户密码
      • 备份HDFS业务数据
        本章主要介绍翼MapReduce的备份HDFS业务数据功能。 操作场景 为了确保HDFS日常用户的业务数据安全,或者系统管理员需要对HDFS进行重大操作(如升级或迁移等),需要对HDFS数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份HDFS任务并备份数据。支持创建任务自动或手动备份数据。 说明 加密目录不支持备份恢复。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份任务的类型、周期、备份对象、备份目录和备份任务需要使用的Yarn队列等策略规格。 检查备集群HDFS是否有充足的空间,备份文件保存的目录建议使用用户自定义的目录。 使用HDFS客户端,以“hdfs”用户执行hdfs lsSnapshottableDir检查当前集群中已创建HDFS快照的目录清单,确保待备份的数据文件所在HDFS路径的父目录或子目录不存在HDFS快照,否则无法创建备份任务。 如果数据要备份至NAS中,需要提前部署好NAS服务端。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份HDFS业务数据
      • 容量大于2TB,初始化Windows数据盘(Windows 2012)
        操作场景 本示例以“Windows Server 2012标准版64位中文版”操作系统为例,介绍数据盘容量大于2TB时在Windows中的数据盘初始化操作,当容量大于2TB时,需要使用GPT分区进行磁盘划分。 说明 物理机的不同操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 前提条件 挂载至物理机的云盘数据盘或者物理机的本地数据盘还没有被初始化。 操作步骤 当数据盘的容量大于2TB,初始化Windows数据盘的操作共分为两步,具体步骤如下: 登录物理机。 初始化磁盘:根据界面提示完成磁盘初始化,当数据盘的容量大于2TB时,分区形式请选择GPT(GUID分区表)。 登录物理机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择内蒙6。 3. 单击选择“计算>物理机服务”,进入物理机列表页面。 4. 单击需要初始化数据盘的物理机所在列的“操作>远程登录”,登录此台物理机,具体操作可参见登录Windows物理机。 初始化磁盘(GPT分区) 1. 登录成功之后,单击开始图标,在弹出菜单中选择 “服务器管理器”。跳转至“服务器管理器>仪表板”窗口。 2. 在此页面中,单击右上角的“工具”,在下拉菜单栏中选择“计算机管理”。 3. 在“计算机管理”页面左侧导航栏中,选择“存储>磁盘管理”,进入“磁盘管理”页面。 在磁盘区域,当前有两个磁盘,一个为磁盘0,一个为磁盘1,磁盘1的容量为3000GB,大于2TB,且磁盘1的状态为脱机状态,用户可以右键单击后在菜单列表中选择“联机”,进行联机,联机后,磁盘的状态就由 “脱机”变为“没有初始化”。 4. 右键单击磁盘1区域,在弹出来的菜单列表中选择“初始化磁盘”直接开始磁盘的初始化。 5. 在“初始化磁盘”对话框中会有已挂载好需要初始化的磁盘,即磁盘1,勾选 “GPT(GUID分区表)”,单击“确定”,如下图所示。 6. 在磁盘1的未分配区域右键单击,选择“新建简单卷”,如图: 7. 在弹出的“新建简单卷向导”窗口,根据界面提示,点击“下一步”。 8. 用户根据需要指定卷大小(建议用户在初始化之前就计算好磁盘分区的容量),默认为最大值,单击“下一步”。 9. 进入“分配驱动器号和路径”页面,勾选分配驱动器号,单击“下一步”。 10. 进入“格式化分区”窗口,勾选“按下列设置格式化这个卷”,并根据实际情况设置参数,格式化新分区,这里保持默认值,单击“下一步”窗口跳转至完成页面。 11. 单击“完成”,等待片刻让系统完成初始化操作,当卷状态为“状态良好”时,表示初始化磁盘成功。 12. 验证初始化,可以回到桌面,点击下方任务栏中文件管理器的图标打开文件资源管理器查看“E卷”是否创建成功,如图所示,当有E卷时,证明初始化磁盘已成功。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        磁盘
        初始化数据盘
        容量大于2TB,初始化Windows数据盘(Windows 2012)
      • 创建MRS Hive连接器
        本章节主要介绍创建MRS Hive连接器。 MRS Hive连接适用于MapReduce服务,本教程为您介绍如何创建MRS Hive连接器。 前提条件 已创建CDM集群。 已获取MRS集群的Manager IP、管理员账号和密码,且该账号拥有数据导入、导出的操作权限。 MRS集群和CDM集群之间网络互通,网络互通需满足如下条件: −CDM集群与云上服务处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,数据源所在的主机可以访问公网且防火墙规则已开放连接端口。 −CDM集群与云上服务同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但是子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见《虚拟私有云》帮助文档中的“添加路由信息”章节,配置安全组规则请参见《虚拟私有云》帮助文档中的“安全组 > 添加安全组规则”章节。 −此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相同,如果不同,需要修改工作空间的企业项目。 新建MRS hive连接 1. 在CDM集群管理界面,单击集群后的“作业管理”,选择“连接管理 > 新建连接”,进入连接器类型的选择界面,如下图所示。 图 选择连接器类型 2. 连接器类型选择“MRS Hive”后单击“下一步”,配置MRS Hive连接的参数,如下图所示。 图 创建MRS Hive连接 3. 单击“显示高级属性”可查看更多可选参数。这里保持默认,必填参数如下表所示。 表 MRS Hive连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mrslink Manager IP MRS Manager的浮动IP地址,可以单击输入框后的“选择”来选定已创建的MRS集群,CDM会自动填充下面的鉴权参数。 127.0.0.1 认证类型 访问MRS的认证类型: SIMPLE:非安全模式选择Simple鉴权。 KERBEROS:安全模式选择Kerberos鉴权。 SIMPLE Hive版本 Hive的版本。根据服务端Hive版本设置。 HIVE3X 用户名 选择KERBEROS鉴权时,需要配置MRS Manager的用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置的用户需要HDFS系统的管理员权限。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以创建一个新的MRS用户,然后在创建MRS数据连接时,“用户名”和“密码”填写为新建的MRS用户及其密码。 说明 如果CDM集群为2.9.0版本及之后版本,且MRS集群为3.1.0及之后版本,则所创建的用户至少需具备Managerviewer的角色权限才能在CDM创建连接;如果需要对MRS组件的库、表、列进行操作,还需要参考MRS文档添加对应组件的库、表、列操作权限。 如果CDM集群为2.9.0之前的版本,或MRS集群为3.1.0之前的版本,则所创建的用户需要具备Manageradministrator或Systemadministrator权限,才能在CDM创建连接。 仅具备Managertenant或Managerauditor权限,无法创建连接。 cdm 密码 访问MRS Manager的用户密码。 OBS支持 需服务端支持OBS存储。在创建Hive表时,您可以指定将表存储在OBS中。 否 运行模式 “HIVE3X”版本支持该参数。支持以下模式: EMBEDDED:连接实例与CDM运行在一起,该模式性能较好。 STANDALONE:连接实例运行在独立进程。如果CDM需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式。 说明 STANDALONE模式主要是用来解决版本冲突问题的运行模式。当同一种数据连接的源端或者目的端连接器的版本不一致时,存在jar包冲突的情况,这时需要将源端或目的端放在STANDALONE进程里,防止冲突导致迁移失败。 EMBEDDED 检查Hive JDBC连通性 是否需要测试Hive JDBC连通性。 否 是否使用集群配置 用户可以在“连接管理”处创建集群配置,用于简化Hadoop连接参数配置。 否 属性配置 其他Hive客户端配置属性。 说明 单击“显示高级属性”,然后单击“添加”,您可以添加客户端的配置属性。所添加的每个属性需配置属性名称和值。对于不再需要的属性,可单击属性后的“删除”按钮进行删除。 4. 单击“保存”回到连接管理界面,完成MRS Hive连接器的配置。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        创建MRS Hive连接器
      • 高优先级应用的CPU独占与隔离
        本节介绍高优先级应用的CPU独占与隔离的用户指南。 为高优先级应用(LSE优先级)配置CPU独占与隔离,可以确保关键业务应用获得独占的CPU资源,避免与其他应用争抢资源,从而保证应用性能的稳定性和可预测性。 适用场景 需要为关键业务应用提供独占CPU资源,确保性能稳定 需要避免高优先级应用与低优先级应用之间的CPU资源争抢 需要验证CPU独占与隔离配置是否生效 功能概览 CPU核级独占:为高优先级应用分配独占的CPU核心 资源隔离:通过cgroup cpuset确保其他应用不会使用已分配的CPU核心 优先级保障:与混部优先级系统集成,支持LSE(LatencySensitiveExclusive)优先级 操作指南 环境准备 确保集群中已安装并配置好koordruntimeproxy组件,并已正确配置kubelet使用该runtime proxy。 1、检查节点状态 plaintext kubectl get node o wide 确认目标节点状态为Ready,并记录节点名称。 2、检查 DaemonSet 状态 plaintext kubectl n koordinatorsystem get ds koordruntimeproxy koordruntimeproxyarm64 确保DaemonSet状态正常。 创建高优先级应用 1、LSE优先级绑定 无需手动创建 ColocationProfile;请参照在离线应用优先级管理文档中的步骤,将应用与 LSE 优先级配置进行绑定。 2、创建高优先级应用 创建以下YAML文件并应用,部署一个高优先级应用: plaintext apiVersion: apps/v1kind: Deploymentmetadata: name: nginx namespace: defaultspec: replicas: 2 selector: matchLabels: app: nginx version: v1 template: metadata: labels: app: nginx version: v1 koordinator.sh/colocationprofile: highest spec: nodeSelector: ccse.ctyun.cn/hostcode: amd643559d 替换为实际节点名称 containers: image: registryhuadong1.crsinternal.ctyun.cn/opensource/nginx:1.26alpineslim name: container1 resources: limits: cpu: "1" memory: 512Mi requests: cpu: "1" memory: 512Mi
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        调度
        在离线混部
        高优先级应用的CPU独占与隔离
      • 通过Helm v3客户端部署应用
        本文以Helm v3.3.0为例进行演示。 前提条件 在CCE中创建的Kubernetes集群已对接kubectl,具体请参见使用kubectl连接集群。 安装Helm v3 本文以Helm v3.3.0为例进行演示。 如需选择其他合适的版本,请访问 步骤 1 在连接集群的虚拟机上下载Helm客户端。 wget 步骤 2 解压Helm包。 tar xzvf helmv3.3.0linuxamd64.tar.gz 步骤 3 将Helm拷贝到系统path路径下,以下为/usr/local/bin/helm。 mv linuxamd64/helm /usr/local/bin/helm 步骤 4 查看Helm版本。 helm version version.BuildInfo{Version:"v3.3.0", GitCommit:"e29ce2a54e96cd02ccfce88bee4f58bb6e2a28b6", GitTreeState:"clean", GoVersion:"go1.13.4"} 安装Helm模板chart包 CCE提供的模板不能满足要求时,可下载模板的chart包进行安装。 在 1. 下载并解压已获取的chart包,一般chart包格式为.zip。 unzip chart.zip 2. 安装Helm模板。 helm install aerospike/ generatename 3. 安装完成后,执行helm list查看已经安装的模板实例状态。 常见问题 执行Helm version时,提示如下错误信息: Client: &version.Version{SemVer:"v3.3.0", GitCommit:"012cb0ac1a1b2f888144ef5a67b8dab6c2d45be6", GitTreeState:"clean"} E0718 11:46:10.132102 7023 portforward.go:332] an error occurred forwarding 41458 > 44134: error forwarding port 44134 to pod d566b78f997eea6c4b1c0322b34ce8052c6c2001e8edff243647748464cd7919, uid : unable to do port forwarding: socat not found. Error: cannot connect to Tiller 出现上述问题,说明未安装socat,请执行如下命令安装socat。 yum install socat y socat已安装,执行Helm version时,提示如下错误信息: $ helm version Client: &version.Version{SemVer:"v3.3.0", GitCommit:"021cb0ac1a1b2f888144ef5a67b8dab6c2d45be6", GitTreeState:"clean"} Error: cannot connect to Tiller Helm模板从“.Kube/config”中读取配置证书和kubernetes进行通讯,出现上述错误信息说明kubectl配置有误,请重新对接kubectl,具体请参见使用kubectl连接集群。 对接云存储后,存储未创建成功。 出现上述问题可能是创建的pvc中annotation字段导致的,请修改模板名称后再次进行安装。 如果kubectl没有配置好,helm install时会出现如下报错:
        来自:
        帮助文档
        云容器引擎
        用户指南
        模板管理(helm)
        通过Helm v3客户端部署应用
      • 基于昇腾通用推理镜像的自定义部署BGE模型
        本最佳实践文档旨在为用户提供一个全面、高效的基于升腾通用推理镜像的自定义部署样例。 一、引言 本文围绕昇腾通用推理镜像的自定义部署展开最佳实践梳理,旨在从模型准备、环境配置、部署流程等关键维度,提供一套可复用的最佳实践。通过标准化的操作指南,帮助开发者快速掌握昇腾推理镜像的自定义部署方法。 二、模型准备 1.开发机完成推理代码开发和调试 1.1创建vscode开发机 1.2启动vscode开发机 1.3打开vscode开发机 1.4在vscode开发机/work/cache目录下,创建code和model目录 1.5准备代码包,把app.tar.gz文件复制到/work/cache/code 1.6右击鼠标,打开Terminal 1.7 解压代码包到/work/cache/code目录下 plaintext cd /work/cache/code tar xzvf app.tar.gz 1.8.下载权重文件 plaintext cd/work/cache/model wget tar xvf bgem3.tar stripcomponents1 rmbgem3.tar 启动bge服务 plaintext cd /work/cache/code/app pip install r requirements.txt i exportMODELPATH/work/cache/model mkdir/logger python teleservice.py 1.9 耐心等几分钟,看到下面日志即代表启动完成 1.10 点加号,进入新的Terminal界面 验证服务是否正常 plaintext curl X POST H "ContentType: application/json" d '{ "input": ["近日天翼云科技有限公司总经理胡志强在世界电信日期间接受新华网记者采访。"], "model": "bgem3", "encodingformat": "float" }' 发现有向量数据返回及代表成功
        来自:
        帮助文档
        训推服务
        最佳实践
        基于昇腾通用推理镜像的自定义部署BGE模型
      • 数据迁移任务
        本页介绍天翼云TeleDB数据库数据迁移任务相关操作。 功能概览 数据传输服务支持多种数据源之间的数据迁移,不同数据库的支持情况如下: 源库类型及版本 目标库类型及版本 迁移类型 MYSQL 5.7, 8.0 TELEDB 结构迁移 全量迁移 增量迁移 POSTGRESQL 12, 13, 14, 15 TELEDB 结构迁移 全量迁移 增量迁移 Oracle 12c, 19c, 21c TELEDB 结构迁移 全量迁移 增量迁移 模块架构 管理服务:用户在DCP平台开通DTS实例后,可通过DTS的管理服务来配置一个数据迁移任务,并进行数据迁移任务管理。 核心配置集群:存储迁移任务的核心状态、监控信息。 元数据库:存储配置好的数据迁移任务的元数据信息,例如源库连接地址、目标库连接地址等。 执行模块+迁移模块(工作节点):用户配置好迁移任务后,由执行模块进行具体的数据迁移工作。数据迁移完成后,由稽核模块进行数据校验。一个管理服务可以管理多个工作节点。 DTS数据迁移提供多种迁移类型:结构对象迁移、全量数据迁移及增量数据迁移。如果需要实现不停服务迁移,需要选择结构对象迁移、全量数据迁移和增量数据迁移。 全量数据迁移过程持续较久,在这个过程中,源实例不断有业务写入,为保证迁移数据的一致性,在全量数据迁移之前,会记录当前源实例的日志位点,存储在本地数据库中。 当全量数据迁移完成后,DTS会启动增量日志回放模块,增量日志回放模块会从增量日志读取模块中获取增量数据,经过反解析、过滤、封装后迁移到目标实例,从而实现增量数据迁移。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        数据迁移任务
      • 设置容器健康检查
        本节介绍了设置容器健康检查的用户指南。 健康检查是一项关键功能,它允许系统根据预设标准定期检查容器的运行状态。若未配置健康检查,即使容器内部的应用程序发生故障,Pod也可能无法察觉,从而导致服务中断,尽管Pod的状态仍显示为正常。 Kubernetes提供了三种类型的健康检查探针,以应对不同的监控需求: 存活探针(livenessProbe):类似于执行系统级的进程检查(如ps命令),用于确定容器是否仍在正常运行。若存活检查失败,Kubernetes将重启该容器。 就绪探针(readinessProbe):用于评估容器是否已准备好接收流量。对于启动时间较长或依赖外部服务的容器,此探针尤为重要。若就绪检查失败,Kubernetes将阻止流量流向该容器。 启动探针(startupProbe):在容器启动阶段使用,以确保在存活和就绪检查之前,应用程序有足够的时间完成初始化。这有助于避免因启动缓慢而导致的误判重启。 检查机制 HTTP请求检查:适用于提供HTTP/HTTPS服务的容器。Kubernetes将定期发送GET请求至指定路径和端口,若响应码在200至399之间,则视为检查成功。 TCP端口检查:针对提供TCP服务的容器,Kubernetes将尝试建立TCP连接。若连接成功,则检查通过。 执行命令检查:用户可指定容器内的命令,Kubernetes将定期执行该命令。若命令返回0,则检查成功。 注意 执行命令时,需确保所需程序已包含在容器镜像中,且对于shell脚本,需指定脚本解析器。 GRPC检查(仅在特定版本及以上支持):无需暴露HTTP端点或可执行文件,Kubernetes可通过GRPC连接查询应用状态。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(新版)
        设置容器健康检查
      • 多字段索引
        explain select from tmulidx where f11 or f22 or f33 ; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn001, dn002 > Seq Scan on tmulidx (cost0.00..12966.87 rows3 width16) Filter: ((f1 1) OR (f2 2) OR (f3 3)) (4 rows) Time: 3.153 ms 如果返回字段全部在索引文件中,则只需要扫描索引,IO 开销会更少。 teledb explain select f1,f2,f3 from tmulidx where f11 ; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn01 > Index Only Scan using tmulidxidx on tmulidx (cost0.42..8.44 rows1 width12) Index Cond: (f1 1) (4 rows) Time: 2.630 ms 更新性能比单字段多索引文件要好。 多字段 teledb truncate table tmulidx; TRUNCATE TABLE Time: 44.930 ms teledb insert into tmulidx select t,t,t,t from generateseries(1,1000000) as t; INSERT 0 1000000 Time: 1985.901 ms (00:01.986) 单字段 teledb create table tsimpleidx (f1 int,f2 int,f3 int,f4 int); CREATE TABLE teledb create index tsimpleidxidx on tsimpleidx(f1); CREATE INDEX teledb create index tsimpleidxidx1 on tsimpleidx(f2); CREATE INDEX teledb create index tsimpleidxidx2 on tsimpleidx(f3); CREATE INDEX teledb insert into tsimpleidx select t,t,t,t from generateseries(1,1000000) as t; INSERT 0 1000000 Time: 4186.401 ms (00:04.186) 多字段索引走非第一字段查询时性能比独立的单字段差。 多字段 teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        索引管理
        多字段索引
      • 对象迁移工具
        推荐配置 说明 迁移工具并发数如何配置:建议配置文件migration.conf中,进程数processNums设置不超过服务器CPU的核心数的1.5倍。每个进程内的并发线程数threadNums,建议不超过10。 网络稳定性的影响:部署工具的设备与源端的网络连通性会影响迁移的稳定性、部署工具的设备与目的端ZOS的网络连通性也会影响迁移的稳定性,建议迁移前检查网络连通性。 迁移前测试的重要性:工具的并发数配置与您提供的带宽都会影响迁移,造成对象迁移失败的情况(这种情况您可进行失败对象重试),建议您进行迁移前的测试。 我们建议按照如下配置进行部署。以下推荐方案在确定硬件配置与并发参数配置的情况下,已经帮您计算好所需的网络带宽。 服务器硬件配置 工具并发数配置(该部分参数在工具配置文件中进行配置) 网络带宽要求 8核心16GB内存 (系统盘40GB以上) processNums参数为12; threadNums参数为8; 60Mbps以上 4核心8GB内存 (系统盘40GB以上) processNums参数为6; threadNums参数为8; 30Mbps以上 注意 若您无法提供如上表的推荐配置,例如迁移主机配置为4核心8GB内存,工具与源端,或工具与目的端的带宽仅有10Mbps时,建议配置processNums参数不高于2,threadNums参数不高于8,避免导致频繁出现对象迁移失败的情况。 若您提供的配置,特别是迁移的网络带宽较高(例如带宽为1Gbps以上),您可以进行迁移前的测试,通过提供更多核心和内存的服务器设备,按并发数调优方式进行并发数配置,来实现更好的迁移效果。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        对象迁移工具
      • 开启HTTP2.0
        本文带您快速熟悉开启HTTP2.0的操作。 操作场景 HTTPS监听器支持开启HTTP2.0功能。HTTP2.0即位超文本传输协议2.0,它可以支持多路复用并且相对于HTTP1.1更安全。 使用限制 仅HTTPS监听器支持HTTP/2功能。 HTTP2.0功能目前仅在集群模式资源池上线。主备、集群模式资源池列表见产品简介​>产品类型和规格​>按资源池区分, 实际情况以控制台展现为准。 目前不支持HTTP2.0修改功能。 注意 HTTP2.0是客户端至ELB段开启,ELB至后端主机仍为HTTP 1.x。 操作步骤 在添加添加监听器时,选择HTTPS协议,通过开关控制开启或关闭HTTP2.0功能。 1. 登录弹性负载均衡弹性负载均衡控制台。 2. 在顶部右侧选择弹性负载均衡所属区域,本文选择华东华东1。 3. 打开监听器配置向导,在协议&监听器页面,选择HTTPS协议并输入端口。 4. 在HTTPS监听器添加步骤中,选择开启“HTTP2.0”控制开关。 5. 配置好相关参数后,点击“下一步”配置负载方式和健康检查,完成相关操作。 修改监听器时,可通过开关控制开启或关闭HTTP2.0功能。 1. 登录天翼云控制中心。 2. 选择“网络>弹性负载均衡>负载均衡器”。 3. 单击已创建的负载均衡器实例名称; 4. 在该负载均衡界面的“监听器”区域,单击监听器所在行的“修改”选项。 5. 在监听器修改页面可开启或关闭开启或关闭HTTP2.0功能; 6. 点击“确定”,完成相关操作。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        开启HTTP2.0
      • Oracle Grid集群管理软件安装
        本节为Oracle RAC搭建最佳实践的Grid集群管理软件进行说明。 静默安装 本安装示例中,使用response文件进行静默安装,省去了Linux桌面机器的配置,如需通过GUI界面的方式安装,请参考Oracle RAC的安装手册。 Oracle Grid的默认静默安装配置文件位于 /u01/app/gridhome/install/response/gridsetup.rsp ,需要 Oracle DBA修改其中的配置项,一些关键的配置项如: loracle.install.crs.config.clusterNodesracnode01:racnode01vip,racnode02:rac node02vip :设定集群节点。 oracle.install.crs.config.networkInterfaceListens2:192.168.100.0:5,ens5:192.168.0. 0:1 :设定PUBLIC 和ASM&PRIVATE网络使用的网卡。 oracle.install.asm.diskGroup.disks/dev/vdc,/dev/vdd,/dev/vde :设定仲裁盘。 静默安装的配置文件准备好之后,可先进行依次尝试安装(切换到grid用户,并切换到 /u01/app/gridhome/ 目录): [grid@racnode01 gridhome]$ ./gridSetup.sh silent responseFile install/response/gridsetup.rsp 尝试安装如果失败,需要提示的报错日志,依次排查报错项,处理完错误问题或确认遗留问题可忽略,则可以通过添加ignorePrereqFailure参数跳过依赖报错问题。 [grid@racnode01 gridhome]$ ./gridSetup.sh silent ignorePrereqFailure responseFile install/response/gridsetup.rsp 安装后执行脚本 安装完成之后,执行输出会提示需要以root账号执行脚本,分别在各个节点上执行: [root@racnode01 ~] /u01/app/oraInventory/orainstRoot.sh [root@racnode01 ~] /u01/app/gridhome/root.sh 安装后检查 注意 由于心跳线haip功能暂时无法使用,心跳通信受阻,OCR disk group会显示未正常挂载。没有心跳线负载均衡需求的用户,可以通过禁用haip功能,将集群状态恢复。 [root@racnode01 ~]
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        弹性裸金属ORACLE RAC搭建最佳实践
        Oracle软件配置安装
        Oracle Grid集群管理软件安装
      • 创建Topic
        本节主要介绍分布式消息服务Kafka的创建Topic说明 背景信息 Kafka的主题(Topic)是对消息进行分类和组织的概念。主题是Kafka中最基本的逻辑单元,用于区分不同类型的消息。 每个主题可以有多个分区(Partition),每个分区都是一个有序的消息日志。分区允许消息在集群中进行并行处理,提高了吞吐量和并发性能。 主题的特点包括: 逻辑分类:主题可以根据业务需求或数据类型进行逻辑分类,例如订单主题、日志主题、用户行为主题等。 多分区:主题可以被分成多个分区,每个分区都有自己的消息顺序。分区可以在不同的节点上进行存储和处理,实现了水平扩展和负载均衡。 副本复制:每个分区可以有多个副本(Replica),副本用于提供高可用性和容错性。副本可以分布在不同的节点上,当节点故障时可以自动进行故障转移。 持久化存储:主题中的消息被持久化存储在磁盘上,确保消息的可靠性和持久性。消费者可以随时消费主题中的历史消息,而不仅仅是最新的消息。 通过使用主题,Kafka能够有效地组织和管理大规模的消息流。主题的分区和副本机制提供了高可用性和容错性,使得Kafka成为处理大规模实时数据流的理想选择。 前提条件 已购买并部署分布式消息服务Kafka 操作步骤 创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后、点击“创建Topic”。 (5)点击“创建Topic”后,输入Topic名称、分区数等参数。 (6)创建好Topic后,可以点击“更多”按钮中的“生产消息”来测试其是否正常。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建Topic
      • 访问控制
        本节介绍翼甲控制台的访问控制操作介绍。 网络规则 SNAT规则 通过设置SNAT规则,可对从翼甲卫士出去的业务流量做源地址映射。 (1)规则添加:点击“添加规则”按键,可添加新的SNAT规则,添加规则所需字段包括:描述,源IP,源端口,目的IP,目的端口,协议(支持ICMP,TCP,UDP三种协议),是否开启NAT转换,启用状态。 NAT转换说明:不做NAT转换,符合特定条件的报文不做NAT地址转换;开启NAT转换,报文的源地址将会自动替换成外网口的IP地址,如果外网有多个IP地址,将会随机自动选择一个。 (2)规则删除:在规则列表首列点选规则,点击“批量删除”,可完成对规则的批量删除;在单条规则的最右侧操作列,点击“删除”,可完成对单条规则的删除。 (3)规则编辑:在已创建规则的最右侧操作列,点击“编辑”,可对单条规则的内容配置及启用状态进行编辑。 (4)规则复制:在已创建规则的最右侧操作列,点击“复制”,将会弹出“复制规则”确认框,用户可基于当前规则的字段进行二次编辑,点击确认后可创建规则。 (5)优先级调整:在已创建规则的最右侧操作列,点击“移动”,可对规则的优先级进行调整,1为最高优先级,按序数递增,优先级递减。 (6)规则导出:点击“导出”,可导出规则信息的JSON文件。 (7)规则导入:将规则以JSON文件的格式编辑好后(可参照导出文件的模板),点击“导入”即可完成规则批量导入。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼甲卫士
        翼甲控制台
        访问控制
      • 安全管理
        本实践介绍通过IAM增强用户安全性的常见方法。 应用场景 通过配置子用户相关设置,实现访问控制管理,提升账号和数据安全。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体方法 创建独立的IAM子用户 一个账户可以建立多个子用户,您可以通过IAM为不同的操作人员创建独立的IAM子用户。根据操作人员的职能范围,授予相应的管理权限。同时建议您也为根用户创建子用户,并授予该子用户管理权限,使用该用户进行日常管理工作,保护账户安全。 控制台登录用户与编程用户分离 建议通过控制台登录用户与编程用户分离,以便更好的分配权限: 控制台登录用户:通过控制台登录的用户,只需设置控制台登录密码。 编程用户:通过API访问的用户,只需创建访问密钥。 分组进行授权 账户有多个用户时,通过用户组将用户进行分类,同类权限的用户分到一组。通过为用户组授权,使组内用户获取用户组具有的权限。 授予最小权限 建议您为IAM用户授予最小权限,您可以使用IAM用户制定策略,给IAM用户仅授予完成工作所需的权限,通过授予最小权限,可以帮您安全的控制IAM用户对OOS的管理。 为IAM用户配置强密码策略 通过IAM可以为控制台登录的用户设置强密码策略。例如密码最小长度、密码中必须包含元素、密码不与历史密码相同、强制定期更换密码等,确保用户使用复杂度高的强密码。 开启MFA认证 为IAM用户开启多因子认证(Multifactor authentication,MFA),提高账号的安全性,在用户名和密码之外再增加一层安全保护。
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        IAM最佳实践
        安全管理
      • 高并发写入实践
        本页主要介绍了高并发场景写入的热点问题与解决方法。 高并发写入最佳实践 分布式融合数据库HTAP支持线性扩展,通过均衡调度可以尽可能将业务的写负载均匀地分布到不同的计算或存储节点上,更好地利用上整体系统资源,以满足业务高并发写入场景下的数据存储需求。然而,在某些场景下,仍然可能会出现部分业务写负载不能被很好地分散,导致某些节点负载过高,引发性能瓶颈或不均衡的情况,无法发挥出分布式架构的优势,从而影响了整体的性能,这种情况通常称为写热点问题。 下文阐述了分布式融合数据库HTAP的数据分布原理,高并发写入场景下热点产生的原因,以及如何规避或者优化写热点问题。 数据分布原理 数据分片 分布式融合数据库HTAP采用 KeyValue 模型作为数据的存储模型,数据按范围分片存储,每个数据分片负责存储一段 Key 范围(从 StartKey 到 EndKey 的左闭右开区间)的数据,每个行存节点会负责多个数据分片。当一个分片持续写入数据,导致分片数据过大,超过一定阈值,系统会将该数据分片分裂为两个数据分片。相反的,如果相邻的两个数据分片过小,系统则会自动触发将它们合并成一个数据分片。 数据采用多副本存储,通过 MultiRaft 协议实现数据强一致性,确保少数副本发生故障时不影响可用性。每个分片对应一个Raft Group,由 Raft Leader 负责处理数据的读写。分布式融合数据库HTAP的管理节点会动态地将分片 Raft Leader 调度到不同的存储节点上,实现负载均衡。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        高并发写入实践
      • 开发规范
        多表关联查询规范 多表关联应该显式使用 join 子句,避免漏掉关联条件,造成笛卡尔积。 嵌套SQL语句应该为不同表指定不同别名。 高并发交易场景,单条语句关联表不超过两张,使用执行计划为 IndexJoin 的多表关联语句,外表建立了正确的条件过滤索引,内表建立了正确的关联和条件过滤索引。 低并发的分析场景,单条语句关联表不超过 10 张,其中亿级表不超过 2 张。 大事务处理规范 单个事务的总大小默认不超过 100 MB,最大支持 10 GB,实际的单个事务大小限制还取决于服务器剩余可用内存的大小,执行事务时计算节点进程的内存消耗大约是事务大小的 6 倍以上。 由于执行事务时计算节点进程的内存消耗大约是事务大小的 6 倍以上,事务设置过大,或者 Batch 过高,可能导致计算节点进程 OOM,需要评估好内存容量。 为了使性能达到最优,需要对大事务按某个业务维度进行拆分,每 100~500 行提交一个事务。 防范写入热点创建规范 对于写入量非常大的表,应当通过应用性能压测等方法在测试环境模拟表的热点情况。 通过以下三种手段进行配置,规避表的主键写入热点。 避免连续自增主键的设计,建议采用雪花算法生成 UUID 主键。 主键是非整数的表或者启用 altprimarykeytrue 配置后创建的所有表,使用 SHARDROWIDBITS 语法创建基于 rowid 的分片方案,例如:CREATE TABLE t (c int) SHARDROWIDBITS 4 或 ALTER TABLE t SHARDROWIDBITS 4。 创建按照 Hash 或 Range 分区表避免热点。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        开发规范
      • 通过引导操作安装第三方软件
        本章节主要介绍如何通过引导操作安装第三方软件。 该操作适用于MRS 3.x之前版本集群。 MRS 3.x版本暂不支持在创建集群时添加引导操作。 前提条件 已准备好引导操作脚本,详情请参见准备引导操作脚本。 在创建集群时添加引导操作 1.登录MRS管理控制台。 2.单击“创建集群”,进入“创建集群”页面。 3.在创建集群页面,选择“自定义创建”。 4.参考创建自定义集群配置集群软件配置和硬件配置信息。 5.在“高级配置”区域的引导操作栏,单击“添加”。 参数描述 参数 说明 名称 引导操作脚本的名称。 只能由数字、英文字符、空格、中划线和下划线组成,且不能以空格开头。 可输入的字符串长度为1~64个字符。 说明 同一集群内,不允许配置相同的名称。不同集群之间,可以配置相同的名称。 脚本路径 脚本的路径。路径可以是OBS文件系统的路径或虚拟机本地的路径。 OBS文件系统的路径,必须以s3a://开头,以.sh结尾。例如:s3a://mrssamples/xxx.sh l 虚拟机本地的路径,脚本所在的路径必须以‘/’开头,以.sh结尾。 说明 同一集群内,不允许配置相同的路径。不同集群之间,可以配置相同的路径。 参数 引导操作脚本参数。 执行节点 选择引导操作脚本所执行的节点类型。 执行时机 选择引导操作脚本执行的时间。 组件首次启动前 组件首次启动后 失败操作 该脚本执行失败后,是否继续执行后续脚本和创建集群。 说明 建议您设置为“继续”,无论此引导操作是否执行成功,则集群都能继续创建。 6.单击“确定”。 添加成功后,可以通过“操作”列进行编辑、克隆和删除。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        通过引导操作安装第三方软件
      • 多字段索引
        explain select from tmulidx where f11 or f22 or f33 ; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn001, dn002 > Seq Scan on tmulidx (cost0.00..12966.87 rows3 width16) Filter: ((f1 1) OR (f2 2) OR (f3 3)) (4 rows) 如果返回字段全部在索引文件中,则只需要扫描索引,IO 开销会更少。 plaintext teledb explain select f1,f2,f3 from tmulidx where f11 ; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn01 > Index Only Scan using tmulidxidx on tmulidx (cost0.42..8.44 rows1 width12) Index Cond: (f1 1) (4 rows) Time: 2.630 ms 更新性能比单字段多索引文件要好。 多字段 plaintext teledb truncate table tmulidx; TRUNCATE TABLE Time: 44.930 ms teledb insert into tmulidx select t,t,t,t from generateseries(1,1000000) as t; INSERT 0 1000000 Time: 1985.901 ms (00:01.986) 单字段 plaintext teledb create table tsimpleidx (f1 int,f2 int,f3 int,f4 int); CREATE TABLE teledb create index tsimpleidxidx on tsimpleidx(f1); CREATE INDEX teledb create index tsimpleidxidx1 on tsimpleidx(f2); CREATE INDEX teledb create index tsimpleidxidx2 on tsimpleidx(f3); CREATE INDEX teledb insert into tsimpleidx select t,t,t,t from generateseries(1,1000000) as t; INSERT 0 1000000 Time: 4186.401 ms (00:04.186) 多字段索引走非第一字段查询时性能比独立的单字段差。 多字段 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        索引管理
        多字段索引
      • 签约主体变更的影响有哪些
        本文主要介绍了签约主体变更的影响。 自2021年11月11日(“变更日”)起,天翼云官网中原由中国电信股份有限公司云计算分公司(“云计算分公司”)向客户(又称“您”)提供的服务,将变更为天翼云科技有限公司(“天翼云科技公司”)向客户提供。经营主体(“签约主体”)变更将对您提现、开发票、合同申请等事项有所影响,敬请关注。 账户充值 在线支付 签约主体变更后,原有充值方式不受影响。 对公充值 签约主体变更后,对公充值账号也会相应变更,客户如需进行对公充值,请使用新的对公账号信息,操作流程请参考 汇款认领。天翼云对公账号信息变更如下: 变更前: 户名:中国电信股份有限公司云计算分公司 账号: 110060776018170076087 开户行:交通银行北京西单支行 行号:301100000162 变更后: 户名:天翼云科技有限公司 账号: 110060149013001879960 开户行:交通银行股份有限公司北京市分行营业部 行号:301100000023 申请提现 原路提现 签约主体变更后申请提现,系统会原路退回到相应的支付宝、微信、翼支付等充值账户。 银行卡提现 签约主体变更后申请提现,系统统一使用天翼云科技公司的银行账户退款,有可能出现收退款账户不一致问题。 举例:您向天翼云(云计算分公司)的银行账户充值10万元,实际消费8万元,剩余2万元。签约主体变更后,您申请银行卡提现2万元,天翼云使用新的银行账户(天翼云科技公司的银行账户)向您退款,收退款账户不一致。 开具发票
        来自:
        帮助文档
        费用中心
        常见问题
        签约主体变更的影响有哪些
      • 路由级熔断
        验证慢调用脚本 !/bin/sh for i in {1..10}; do curl H "host: bookinfo.com" " done curl H "host: bookinfo.com" " grep 'hello, break!' curl H "host: bookinfo.com" " sv echo "sleep for 10 second to try if recover" sleep 10 curl H "host: bookinfo.com" " sv 验证前需要删除headermatch条件,该脚本只模拟后端返回超时,不设置请求header。这个脚本通过发起10次delay 1s的调用,使得熔断器打开,此处的delay时间和次数,可以通过slowrequestrt maxslowrequests来控制,脚本内容中的1也可以换成0.5之类的非整数delay间隔。 后续验证是否在请求会返回hello,break,以及sleep 10s后是否恢复正常。 验证header过滤条件脚本 !/bin/sh for i in {1..10}; do curl H "host: bookinfo.com" H "key1: value1" H "key2: value2" " done curl H "host: bookinfo.com" H "key1: value1" H "key2: value2" " grep 'hello, break!' echo "try productpage to see if blocked" curl H "host: bookinfo.com" H "key1: value1" H "key2: value2" " sv echo "sleep for 10 second to try if recover" sleep 10 curl H "host: bookinfo.com" H "key1: value1" H "key2: value2" " sv 验证前需要设置好headermatch条件。调整脚本中的H参数改写key和value值,同时调整headermatch字段,验证httpbin是否熔断,也验证一下productpage是否没有熔断。sleep 10s后验证是否恢复。
        来自:
        帮助文档
        应用服务网格
        用户指南
        流量管理中心
        路由级熔断
      • 在科研助手使用SD-Trainer进行模型微调
        使用SDTrainer 1.在【WD 1.4标签器】分页上传要训练的图片或者使用镜像内预置的图片: 1. 在Jupyter启动页【其他】下点击【终端】,在终端输入命令ls ./train/aki/8lora 检测预置图片。图片要求:准备要训练的人物图像,最少8张,最好12张以上。需要不同角度,正面,侧面,背面,俯视图等。裁剪成要训练的大小,如512x512。文件夹命名要求如8lora,8表示张数,lora表示名称。 2. 在【图片文件夹路径】输入预置图片文件夹路径,如./train/aki/8lora,可以在【附加提示词】中输入对图片的提示词,如lucky。 3. 点击启动开始标准。 4. 在【终端】 反复输入ls ./train/aki/8lora检查,直到文件夹下出现.txt的文件,说明标注完成,检查.txt文件内容,除了自动标注的提示词外,还有“lucky”自定义的提示词。 2.在【LoRA】分页上开始预训练: 1. 选择【新手】分页,如果图片在./train/aki目录下,使用默认参数,点击【开始训练】。 2. 在【终端】上输入tail f /var/log/SDTrainer.log 命令查看训练进度日志。 3. 当训练进度完成到100%时,在终端输入命令ls output 查看训练好的的模型,文件夹下出现aki.safetensors模型文件。 2.使用预训练模型推理: 1. 将aki.safetensors模型文件放入stablediffusionwebui > models > lora文件夹。 2. 在stablediffusionwebui选择相应lora模型,输入“lucky”等提示词,可以生产解决训练图片风格的新图片。
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用SD-Trainer进行模型微调
      • 1
      • ...
      • 25
      • 26
      • 27
      • 28
      • 29
      • ...
      • 416
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      模型推理服务

      科研助手

      知识库问答

      人脸活体检测

      人脸比对

      营业执照识别

      推荐文档

      入门教程②:windows磁盘挂载流程

      如何修改发票抬头

      关于天翼云

      重启实例

      FTP访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号