活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对等连接_相关内容
      • 创建文件系统
        海量文件系统是天翼云文件存储的产品之一,本文为您介绍创建文件系统的步骤。 操作场景 文件系统支持挂载至多台云主机、物理机等计算服务,从而实现文件系统的共享访问。本文介绍如何创建文件系统实例,包含包年包月和按量付费两种计费模式。 说明 本服务当前在华东1支持创建按实际使用量付费的文件系统实例,您可以提交工单申请白名单试用,具体参考按实际用量付费计费说明。 前提条件 创建文件系统之前,请确认该地域已创建VPC,具体操作请参考创建VPC、子网搭建私有网络。 文件系统和云主机须归属于相同VPC,才能保证网络互通,实现文件的挂载访问。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>海量文件服务 OceanFS”,进入OceanFS文件系统列表页面。 3. 点击“创建OceanFS实例”,进入创建文件系统页面。 4. 根据界面提示配置参数,参数说明如表所示: 参数 说明 计费方式 支持包年包月和按量付费。预付费用户选择按量计费请保证账户余额超过100元。 地域 从地理位置和网络时延维度划分,同一个地域内共享弹性计算、弹性文件服务、VPC网络、弹性公网IP、镜像等公共服务。 企业项目 选择归属的企业项目,默认为default,只能选择已创建的企业项目。启用企业项目管理功能后可进行企业项目迁移。 可用区 同一地域内,电力和网络互相独立的地理区域。文件系统可被同一地域不同可用区的云主机挂载访问。 名称 系统自动生成名称,支持用户自定义修改,不可重复。文件系统名称只能由数字、“”、字母组成,不能以数字和“”开头、且不能以“”结尾,2~255字符。 存储类型 支持OceanFS容量型。 协议类型 支持CIFS协议、NFS协议。NFS协议仅支持Linux,CIFS协议仅支持Windows。 说明 不同资源池覆盖情况不同,以订购页面实际展示为准。各资源池能力情况可参考产品能力地图。 选择网络 选择虚拟私有云(VPC),若当前地域没有虚拟私有云,点击“创建虚拟私有云”,创建完成后刷新可选择新建的虚拟私有云。 注意 文件系统须与计算服务同属一个VPC,才能挂载成功。 终端节点 默认关闭。开启后,创建开启后本服务将为您创建免费的终端节点(VPCE),自动连接OceanFS文件存储服务。若挂载物理机必须通过终端节点访问OceanFS文件系统,其它计算服务如云主机、容器为非必须。创建VPCE后将返回该VPC专属的挂载地址,通常需要1~3分钟。 注意 为您创建的VPC终端节点(VPCE)为免费服务 ,可以在“网络VPC终端节点”控制台查看到,请务必不要删除或修改“VPCEoceanfs”开头的VPCE,否则可能导致客户端与文件系统断开连接,影响业务进行。 若系统检测到您选用的VPC中已有VPC终端节点,将复用该VPC终端节点。 IP地址类型 选择创建VPC终端节点后需要选择子网。目前仅支持IPv4类型的VPC终端节点,VPC终端节点将占用VPC子网中的一个IP,您可以选择对应的子网,方便进行网络规划。 容量 100GB起步,步长1GB。可以选择按GB或TB 自定义容量。默认单文件系统最大支持1PB,可提交工单申请更大容量,最大可申请至4PB。 说明 单用户默认总配额为500TB,若需要创建500TB以上的文件系统实例,请先提交工单申请提高用户总容量配额。 按量付费是根据订购时配置容量按小时计费,不是按实际使用量计费,开通后即开始计费。华东1可申请白名单试用按实际用量付费的文件系统实例。 购买时长 可选择1个月3年。选择按年订购可享受包年一次性折扣,参考包年包月计费说明。 自动续订,是否启动自动续订。按月购买:自动续订周期为1个月;按年购买:自动续订周期为1年。 数量 同一订单创建相同配置文件系统的数量,受用户配额约束。 同时创建多个实例时,系统将自动在名称末尾增加数字编号后缀进行区分。例如数量为2时,名称为“oceanfs36d8001、oceanfs 36d8002"。 5. 配置完成后,点击“下一步”,进入购买界面,确定相关规格配置,阅读天翼云海量文件服务协议。 6. 确认无误,勾选“我已阅读并同意相关协议”,单击“立即购买”,包年/包月模式下完成支付,即完成文件系统的购买。 7. 返回OceanFS控制台,等待文件系统的状态变为“可用”,表示文件系统创建成功。
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        创建文件系统
      • 集群实例负载不均衡问题排查
        本节主要介绍负载不均衡的常见处理方法。 对于集群方式部署的实例,常见Shard间负载不均衡,一般有如下原因:没有做分片,片键选择不正确,不做chunk预置,shard间均衡速度低于数据插入速度等。 排查方法 步骤 1 通过客户端连接数据库。 步骤 2 执行如下命令,查看分片信息。 mongos> sh.status() Sharding Status sharding version: { "id" : 1, "minCompatibleVersion" : 5, "currentVersion" : 6, "clusterId" : ObjectId("60f9d67ad4876dd0fe01af84") } shards: { "id" : "shard1", "host" : "shard1/172.16.51.249:8637,172.16.63.156:8637", "state" : 1 } { "id" : "shard2", "host" : "shard2/172.16.12.98:8637,172.16.53.36:8637", "state" : 1 } active mongoses: "4.0.3" : 2 autosplit: Currently enabled: yes balancer: Currently enabled: yes Currently running: yes Collections with active migrations: test.coll started at Wed Jul 28 2021 11:40:41 GMT+0000 (UTC) Failed balancer rounds in last 5 attempts: 0 Migration Results for the last 24 hours: 300 : Success databases: { "id" : "test", "primary" : "shard2", "partitioned" : true, "version" : { "uuid" : UUID("d612d134a4994428ab21b53e8f866f67"), "lastMod" : 1 } } test.coll shard key: { "id" : "hashed" } unique: false balancing: true chunks: shard1 20 shard2 20 “databases”中列出的所有数据库都是通过enableSharding开放了分片的库。 “test.coll”表示开启分片的namespace信息,其中test为集合所在的库名,coll为开启分片的集合名。 “shard key”表示前面集合的分片键,分片方式“id : hashed”表示通过id进行哈希分片,如果是“id : 1”,则代表通过id的范围进行分片。 “chunks”代表分片的分布情况。 步骤 3 根据步骤2查询出的结果,分析分片信息。 1. 如果业务性能存在瓶颈的数据库和集合,在上述“databases”以及子项中不存在,则说明业务集合没有进行分片。对于集群来说这意味着业务只有一个Shard承载,没有应用DDS的水平扩展能力。 此场景下可以通过如下的命令开启分片,充分发挥实例的水平扩展能力。 mongos> sh.enableSharding(" ") mongos> use admin mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 2. 如果“shardKey”分片片键选择不合理,也会导致负载不均衡。典型场景有业务热点数据分布在某个范围内,而分片的片键选择范围分片的方式,那么可能会出现热点数据所在的chunk对应的Shard负载会明显的高于其他Shard,最终导致整体性能出现瓶颈。 此场景下可以通过重新设计片键的分布方式来达到目标,比如将范围分片修改为哈希分片。 mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 说明 一个集合选择了分片方式,则不能在原集合上随时修改。所在集合在设计阶段需要充分考虑分片方式。 更多关于设置数据分片的内容请参见 3. 如果存在集中大批量的插入数据的场景,数据量超过单shard承载能力的话,可能会出现Balance速度赶不上插入速度,导致主shard存储空间占用率过高。 此场景可以使用sar命令查看服务器网络连接情况,分析每个网卡的传输量和是否达到传输上限。 sar n DEV 1 //1为间隔时间 Average: IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s %ifutil Average: lo 1926.94 1926.94 25573.92 25573.92 0.00 0.00 0.00 0.00 Average: A10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A11 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: NIC0 5.17 1.48 0.44 0.92 0.00 0.00 0.00 0.00 Average: NIC1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A00 8173.06 92420.66 97102.22 133305.09 0.00 0.00 0.00 0.00 Average: A01 11431.37 9373.06 156950.45 494.40 0.00 0.00 0.00 0.00 Average: B30 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: B31 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 说明 “rxkB/s”为每秒接收的kB数。 “txkB/s”为每秒发送的kB数。 检查完后,按“Ctrl+Z”键退出查看。 对于网络过高的情况,建议对MQL语句进行分析,优化思路,降低带宽消耗,提升规格扩大网络吞吐能力。 建议排查业务是否存在分片集合的情况消息中未携带ShardKey的情况,此场景下请求消息会进行广播,增加带宽消耗。 控制客户端并发线程数,降低网络带宽流量。 以上操作无法解决问题时,请及时提升实例规格,高规格节点对应更高网络吞吐能力的虚拟机。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        集群实例负载不均衡问题排查
      • VPN网关订购询价
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID, 例:100054c0416811e9a6690242ac110002 bandwidth 是 Integer 带宽,单位为Mbps,最大值为1000 connectionLimit 是 Integer VPN网关连接数限制,最大值为100 onDemand 否 Boolean 是否按需下单,默认为false cycleType 是 String 本参数表示包周期类型。 取值范围: YEAR MONTH onDemand为false时,必须指定。 cycleCount 是 Integer 包周期数。onDemand为false时必须指定。周期最大长度不能超过60个月 count 是 Integer 批量下单数量,最大值10
        来自:
        帮助文档
        VPN连接
        API参考
        API
        询价功能
        VPN网关订购询价
      • 按告警类型统计告警中心告警数据
        参数 参数类型 说明 示例 下级对象 processAbnomalBehavior Integer 进程异常行为 11 maliciousSofaware Integer 恶意软件 11 userAbnomalBehavior Integer 用户异常行为 11 maliciousNetworkConnection Integer 恶意网络连接 11 other Integer 其他告警数量 11
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        告警中心
        按告警类型统计告警中心告警数据
      • 概述
        模块 Python语法 标准模式 自定义函数def或lambda 不支持。 导入与使用Python标准库 不支持。 线程与进程创建 不支持。 导入第三方库 不支持。 外部网络连接或命令调用 不支持。
        来自:
        帮助文档
        云日志服务
        用户指南
        数据加工
        数据加工语法
        概述
      • 安全组配置示例
        通过本地服务器远程登录云主机 安全组默认拒绝所有来自外部的请求,如果您需要通过本地服务器远程登录安全组内的云主机,那么需要根据您的云主机操作系统类型,在安全组入方向添加对应的规则。 通过SSH远程登录Linux云主机,需要放通SSH(22)端口。 通过RDP远程登录Windows云主机,需要放通RDP(3389)端口。 操作系统类型 方向 优先级 策略 类型 协议端口 源地址 Linux 入方向 1 允许 IPv4 自定义TCP:22 IP地址:0.0.0.0/0 Windows 入方向 1 允许 IPv4 自定义TCP:3389 IP地址:0.0.0.0/0 注意 源地址设置为0.0.0.0/0表示允许所有外部IP地址远程登录云主机,如果将当前端口暴露到公网,可能存在网络安全风险,建议您将源IP设置为已知的IP地址,配置实例请参考下表。 云主机类型 方向 优先级 策略 类型 协议端口 源地址 Linux 入方向 1 允许 IPv4 自定义TCP: 22 IP地址:192.168.0.0/24 Windows 入方向 1 允许 IPv4 自定义TCP: 3389 IP地址:10.10.0.0/24 在本地服务器远程连接云主机上传或者下载文件 安全组默认拒绝所有来自外部的请求,如果您需要在本地服务器远程连接云主机上传或者下载文件,那么您需要开通FTP(20、21)端口。 方向 优先级 策略 类型 协议端口 源地址 入方向 1 允许 IPv4 自定义TCP:2021 IP地址:0.0.0.0/0 注意 源地址设置为0.0.0.0/0表示允许所有外部IP地址远程连接云主机上传或者下载文件,如果将当前端口暴露到公网,可能存在网络安全风险,建议您将源IP设置为已知的IP地址,配置示例请参见下表。 您需要在弹性云主机上先安装FTP服务器程序,再查看20、21端口是否正常工作。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        安全组
        安全组配置示例
      • PostgreSQL数据库用户管理
        本文介绍如何管理PostgreSQL数据库账号或者建库等权限。 前提条件 用户已登录数据管理服务。 在数据管理服务DMS中录入目标实例,数据库类型为PostgreSQL。 登录实例的数据库用户具有管理数据库用户密码的权限。 操作步骤 1. 点击左侧菜单栏 数据资产 > 实例管理 进入实例列表页面。 2. 选择目标实例,点击操作菜单栏 登录 按钮。 3. 输入数据库的用户名和密码,完成该实例的登录。 4. 登录实例后,点击 更多 > 数据库用户管理按钮。 功能介绍 数据库用户管理支持查看当前实例所有数据库账号、新建账号、删除账号、编辑账号。 账号列表 显示实例下所有账号信息,包括账号名、权限、密码到期时间、注释等,支持按账号名模糊搜索。 新建账号 1. 登录数据管理服务。 2. 从 数据资产 > 实例管理 进入实例列表页面。 3. 在实例列表页面点击 更多 >数据库用户管理按钮进入管理页面。 4. 点击创建账号按钮,输入账号名、密码等必填信息。 5. 点击 确定 按钮,生成创建账号的DDL语句。 6. 在DDL预览弹窗中,点击 执行 按钮即可完成账号的创建。 7. 可以为账号设置全局权限和对象权限,以及密码到期时间、连接数限制、注释等选项。连接数默认为1,表示不限制。 编辑账号 1. 登录数据管理服务。 2. 从 数据资产 > 实例管理 进入实例列表页面。 3. 在实例列表页面点击 更多 > 数据库用户管理 按钮进入管理页面。 4. 点击列表操作菜单的 编辑 按钮,进入编辑页面。 5. 按需修改所需要的属性内容。 6. 点击 确定 按钮,生成修改账号的DDL语句。 7. 在DDL预览弹窗中,点击 执行 按钮即可完成账号的修改。 8. 可以编辑修改账号的账密、全局权限、对象权限,以及密码到期时间、连接数限制、注释等选项。 注意 注意不支持修改用户名。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        数据库用户管理
        PostgreSQL数据库用户管理
      • Logstash对接Kafka
        约束与限制 在将Logstash与Kafka对接时,需要注意以下约束和限制: 1. 版本兼容性:确保Logstash和Kafka的版本兼容性。不同版本的Logstash和Kafka可能存在API差异或不兼容的情况,因此需要根据官方文档或社区支持信息确认版本兼容性。 2. 配置参数:正确配置Logstash和Kafka的参数是非常重要的。需要确保Logstash的配置文件中的Kafka输入插件和输出插件的参数设置正确,包括Kafka集群的地址、主题名称、消费者组等。 3. 网络连接:确保Logstash和Kafka集群之间的网络连接正常。Logstash需要能够访问Kafka集群的地址和端口,以便进行数据的消费和传输。同时,也需要确保网络的稳定性和可靠性,以避免数据传输中断或丢失。 4. 性能和吞吐量:Logstash和Kafka的性能和吞吐量可能会受到限制。Logstash的性能取决于所使用的硬件资源和配置参数,而Kafka的性能取决于集群的配置和负载情况。因此,在设计和配置Logstash与Kafka对接方案时,需要考虑系统的性能需求和资源限制。 5. 数据一致性:在Logstash与Kafka对接的过程中,需要确保数据的一致性和完整性。由于Logstash和Kafka是分布式系统,可能会存在数据丢失或重复消费的情况。可以通过配置Kafka的消息确认机制和Logstash的事务机制来确保数据的可靠传输和处理。 6. 监控和故障排查:在使用Logstash对接Kafka时,需要建立监控机制和故障排查方案。可以使用监控工具对Logstash和Kafka进行监控,收集关键指标和日志,并设置警报机制。此外,还可以使用Logstash的调试模式和日志输出功能,帮助排查故障和调试配置。 综上所述,Logstash与Kafka对接需要注意版本兼容性、正确配置参数、确保网络连接稳定、考虑性能和吞吐量限制、确保数据一致性,并建立监控和故障排查机制。遵循这些约束和限制,可以实现高效、可靠的数据处理和传输。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Logstash对接Kafka
      • PostgreSQL9.6测试结果
        本章节介绍通过测试工具测得PostgreSQL9.6的测试结果。 以下结果为测试环境的测试数据,仅供参考,不作为SLA承诺。 表 CPU:内存1:2 : CPU(core) 内存(GB) 最大连接数(压力测试值) TPS QPS IOPS 1 2 300 150 3086 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 2 4 500 263 5257 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 4 8 1200 578 11554 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 60 128 12000 1398 27965 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 表 CPU:内存1:4 : CPU(core) 内存(GB) 最大连接数(压力测试值) TPS QPS IOPS 1 4 500 166 3312 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 2 8 1200 517 10340 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 4 16 2500 705 14093 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 8 32 5000 821 16421 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 16 64 10000 880 17590 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 32 128 12000 1392 27832 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 60 256 20000 2017 40336 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 表 CPU:内存1:8 : CPU(core) 内存(GB) 最大连接数(压力测试值) TPS QPS IOPS 2 16 2500 554 11099 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 4 32 5000 781 15614 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 8 64 5000 931 18613 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        性能白皮书
        PostgreSQL9.6测试结果
      • 重置Linux云主机密码(未安装重置密码插件)
        本节介绍了重置Linux云主机密码(未安装重置密码插件)的操作场景、前提条件、操作步骤。 操作场景 如果Linux操作系统弹性云主机未安装密码重置插件,可以参见本节内容重新设置密码。 本节操作重置的是root用户的密码,您可以重置完root密码后登录云主机后再更换密钥或重置非root用户的密码。 Windows操作系统请参见重置Windows云主机密码(未安装重置密码插件)。 说明 如果弹性云主机提前安装了密码重置插件,请参见 公共镜像创建的弹性云主机默认已安装一键重置密码插件。请参考 本节操作的方法需要卸载系统盘,为了避免造成系统盘数据丢失,建议您在操作前先备份系统盘。 前提条件 已经准备一台Linux操作系统的临时弹性云主机,且该临时弹性云主机与待重置密码的弹性云主机位于同一个可用区。 说明 您可以选择符合要求的已有云主机作为临时弹性云主机,也可以重新购买一台临时弹性云主机。 重新购买的弹性云主机在重置密码后,建议释放,以免继续收费。 临时弹性云主机已经绑定弹性IP。 操作步骤 1. 下载重置密码的脚本,并上传至临时弹性云主机。 请联系客服获取重置密码脚本,在本地通过WinSCP等连接工具,将获取的changepasswd.sh脚本上传到临时云主机。 WinSCP下载地址: 2. 关闭原弹性云主机,卸载其系统盘,并将系统盘挂载到临时弹性云主机。 a. 原弹性云主机关机,进入详情页,并选择“云硬盘”页签。 b. 单击系统盘所在行的“卸载”,卸载该系统盘。 c. 展开临时弹性云主机的详情页,并选择“云硬盘”页签。 d. 单击“挂载磁盘”,在“挂载磁盘”对话框中,选择2.b中卸载的系统盘,将其挂载到临时弹性云主机上。 说明 原弹性云主机关机时,请勿执行强制关机操作,否则可能引起重置密码操作失败。 3. 远程登录临时弹性云主机,并重置密码。 a. 在临时弹性云主机的“操作”列下,单击“远程登录”。 b. 执行以下命令,查看原弹性云主机上卸载的系统盘在临时弹性云主机上的目录。 fdisk l c. 在脚本所在目录执行以下命令,运行重置密码脚本。 chmod +x changepasswd.sh ./changepasswd.sh 运行重置密码脚本时,如果系统提示没有lv相关的命令(如no lvs commmand),则需要在临时弹性云主机安装lvm(Logical Volume Manager)工具,推荐使用lvm2,您可以执行命令yum install lvm2进行安装。 说明 如果原弹性云主机和临时弹性云主机的操作系统均为centos7,运行脚本过程中可能会出现挂载失败。请将脚本中的内容“mount $dev $mountPath”修改为“mount o nouuid $dev $mountPath”,避免脚本运行失败。 d. 根据系统提示输入新设置的密码和3.b中获取到的目录信息。 系统显示如下回显信息时,说明密码设置成功。 set password success. 4. 如果是非root用户,请执行如下操作打开root登录权限。 vi /etc/ssh/sshdconfig 修改如下配置项: − 把PasswordAuthentication no 改为 PasswordAuthentication yes 或去掉PasswordAuthentication yes 前面的
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        密码与密钥对
        密码类
        重置Linux云主机密码(未安装重置密码插件)
      • 设置Windows操作系统首选语言
        本文以公共镜像中的Windows Server 2016数据中心版操作系统为例,介绍如何为弹性云主机实例更换首选语言。 前提条件 已经注册并登录天翼云账号,未完成的可参见注册天翼云账号。 已经在天翼云上购买了弹性云主机,且购买过程中镜像选择为Windows 2016 数据中心版操作系统。 背景信息 天翼云云服务器ECS目前仅提供中文版的Windows Server公共镜像。如果您因工作需求而需要使用其他的语言版本,例如英文,那么您可以参考本章节为弹性云主机实例设置新的首选语言。 操作步骤 1. 登录控制中心。 2. 选择区域华东华东1。 3. 单击“计算>弹性云主机”,进入弹性云主机页面。 4. 参考登录Windows弹性云主机,远程登录待设置操作系统首选语言的Windows弹性云主机实例。 5. 打开PowerShell模块。 6. 在操作之前首先需要临时禁用掉WSUS(Windows Server Update Services)更新源,请您运行以下命令: plaintext SetItemProperty Path 'HKLM:SOFTWAREPoliciesMicrosoftWindowsWindowsUpdateAU' Name UseWUServer Value 0 RestartService Name wuauserv 7. 找到控制面板,单击“语言” >“添加语言”。 8. 在“添加语言”对话框中,选择一种语言,例如English(英语) ,单击下方的“打开”。 9. 进入跳转窗口后,选择具体的英语区域,选择English(United kingdom),点击“添加”。 10. 添加之后,此语言会更新到语言列表。 11. 选中新增的English,单击“上移”更改语言优先级,下图为已经上移之后的状态: 12. 单击所选语言右侧的“选项”按键,进入语言选项页面,单击“下载并安装语言包”,若没有此链接,请再等待三分钟进行更新。 13. 用户此时可以等待下载并安装完成。 14. 在弹性云主机管理控制台中将此台云主机进行重启,具体如下图: 15. 再次连接Windows实例。显示语言更改为英语。 16. 打开Windows PowerShell,运行以下命令重新启用WSUS。 plaintext SetItemProperty Path 'HKLM:SOFTWAREPoliciesMicrosoftWindowsWindowsUpdateAU' Name UseWUServer Value 1 RestartService Name wuauserv
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        Windows基础最佳实践
        设置Windows操作系统首选语言
      • 将本地日志迁移到云日志服务
        本文主要介绍如何将本地日志迁移到云日志服务。 操作场景 应用程序通常首先直接将运行日志输出到本地的文件中。当运维人员需要查询日志时,登录服务器,通过操作系统的文件查看工具,比如more,vim,grep等查询需要关注的日志内容。这种场景下,由于日志分布在各个服务器上,命令行操作易出错、服务器权限等限制因素造成日志查找效率低下。 利用云日志服务,可以获得以下优势: 数据集中存储,无需登录多台服务器查询,这在微服务架构下尤为重要; 快速检索日志,告别繁琐的命令行操作,提升故障处理效率; 实时检测异常日志,设置告警,提升故障响应时效。 前置条件 开通云日志服务; 应用服务部署在天翼云的云主机上。 接入步骤 1. 登录云日志服务控制台。 2. 左侧点击【日志接入】菜单,进入日志接入页面。选择云主机文本日志。 3. 选择日志单元。 1. 点击“所属日志项目”后的目标框,在下拉列表中选择具体的日志项目,若没有所需的日志项目,点击“所属日志项目”目标框后的“新建”,在弹出的创建日志项目页面创建新的日志项目。 2. 点击“所属日志单元”后的目标框,在下拉列表中选择具体的日志单元,若没有所需的日志单元,点击“所属日志单元”目标框后的“新建”,在弹出的创建日志单元页面创建新的日志单元。 4. 选择主机组。在主机组列表中选择一个或多个需要采集日志的主机组。 若没有所需的主机组,单击列表上方“新建主机组”,输入主机组名称,在已开通云主机列表中,选择您需要采集日志的目标云主机,点击下一步,选中的云主机将打包作为主机组。 5. 安装采集器。 1. Step1:创建终端节点。安装采集器前,您需要在云主机所在的VPC中创建终端节点,以建立与日志服务的连接通道。 您需要在当前页面检查云主机所在的VPC是否已创建终端节点。若终端节点状态为“未创建”,请点击页面中的【创建终端节点】按钮,并根据页面指引进行开通。 若终端节点状态为“已创建”,您可跳过该步骤。 2. Step2:安装采集器。 1. 首先获取您的AK和SK。如何获取AK/SK? 2. 复制页面中的命令,并使用获取的AK、SK手动替换命令中的 {inputyourak} 和 {inputyoursk}。填写值时不需要添加 {}。 3. 以root用户登录待安装采集器的云主机,执行上述命令。当显示“Installed lmtagent successfully”时表示安装成功。 3. Step3:检查采集器状态。 点击【检测】按钮,稍等片刻后查看采集器状态,确保所有目标云主机的采集器状态均为已连通。若多次重试后仍无法连通,请查看常见问题中的“云主机采集器无法连通”进行问题排查。 4. 点击下一步。 6. 配置采集规则。 对日志采集设置具体的采集规则。具体请参考[采集配置](
        来自:
        帮助文档
        云日志服务
        最佳实践
        将本地日志迁移到云日志服务
      • 回源配置概述
        功能 说明 回源配置模块支持客户自定义源站。支持IP或域名,支持配置多个源站地址,多源站场景下,支持设置源站的主备优先级和权重,实现负载均衡。 回源协议指边缘加速节点回源站请求资源时使用的协议。配置该功能后,边缘加速节点将根据指定的协议回源。边缘加速支持HTTP回源协议、HTTPS回源协议、跟随客户端请求使用的协议回源三种回源协议。 源站端口,是指源站接收用户请求时所用的端口,一般http协议和https协议使用不同的源站端口。 当源站同时服务多个站点,且回源站点与加速域名不同时,您需要配置回源HOST,天翼云边缘加速产品在回源时会根据配置的回源HOST信息去访问对应站点。 如果一个源站IP地址绑定多个域名,且边缘加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源URI改写可以实现在用户请求回源时对回源URI进行改写,配置回源URI改写功能后,边缘加速节点向源站发起回源请求时将使用改写后的URI。 回源参数改写功能可改写回源请求URL中的查询参数,即问号后的参数值。可支持参数的新增、删除、修改,以及保留或忽略所有参数。 配置301/302跟随回源功能后,边缘加速节点会代替用户去处理源站响应的301/302状态码内容,即边缘加速节点会直接跳转到源站301/302响应中的Location地址请求资源,不会把源站响应的301/302跳转地址直接返回给用户,让用户自己去请求跳转地址的资源。 回源超时时间 回源请求超时时间是指在代理服务器向上游服务器(源服务器)发起请求时,等待接收上游服务器的响应所允许的最长时间,这个超时时间的设置对于应对上游服务器响应慢、连接问题或者其他异常情况至关重要。 加速域名的回源地址可以使用客户自有源站或者天翼云
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源配置概述
      • 访问控制策略
        后续管理 双人授权配置成功后,该策略授权用户再次登录资源时,则会弹出双人授权确认窗口。 需选择一位授权人,并输入授权人帐号密码。验证通过后,才能登录资源。 查询和修改访问控制策略 若运维人员有变动,或授权资源权限有变化,可查看和修改已创建的策略配置,包括修改基本权限、修改关联用户或用户组、修改关联资源账户或帐户组、修改双人授权配置等。 修改策略配置,且策略状态为“已启用”时,策略规则才生效。 修改策略配置后,若关联用户已登录资源,需退出登录重新连接,相关策略规则在下一次运维操作时才会生效。 前提条件 已获取“访问控制策略”模块操作权限。 查看和修改策略配置 1. 登录云堡垒机系统。 2. 选择“策略 > 访问控制策略”,进入访问控制策略列表页面。 3. 查询访问控制策略。 快速查询:在搜索框中输入关键字,根据策略名称、用户、资源名称、主机地址、资源账户、时间限制、IP限制等快速查询策略。 高级搜索:在相应属性搜索框中分别关键字,精确查询策略。 4. 单击目标策略名称,或者单击“管理”,进入策略详情页面。 5. 查看和修改策略基本信息。 在“基本信息”区域,单击“编辑”,弹出基本信息编辑窗口,即可修改策略的基本信息。 可修改信息包括“策略名称”、“有效期”、“文件传输”、“文件管理”、“上行剪切板”、“下行剪切板”、“登录时段限制”和“IP限制”等。 查看策略基本信息 6. 查看和修改策略关联的用户。 在“用户”区域,单击“编辑”,弹出关联用户窗口,可立即添加或移除关联的用户。 在相应用户行,单击“移除”,可立即删除该关联用户,取消授权。 查看关联用户 7. 查看和修改策略关联的用户组。 在“用户组”区域,单击“编辑”,弹出关联用户组窗口,可立即添加或移除关联的用户组。 在相应用户组行,单击“移除”,可立即删除该关联用户组,取消授权。 查看关联用户组 8. 查看和修改策略关联的资源账户。 在“资源账户”区域,单击“编辑”,弹出关联资源账户窗口,可立即添加或移除关联的资源账户。 在相应资源账户行,单击“移除”,可立即删除该资源账户,取消授权。 查看关联资源账户 9. 查看和修改策略关联的帐户组。 在“帐户组”区域,单击“编辑”,弹出关联帐户组窗口,可立即添加或移除关联的帐户组。 在相应帐户组行,单击“移除”,可立即删除该帐户组,取消授权。 查看关联帐户组 10. 查看和修改双人授权。 在“双人授权候选人”区域,单击“编辑”,弹出多人授权候选人窗口,可立即添加或移除关联的授权候选人。 在相应候选人行,单击“移除”,可立即删除该授权候选人,取消该候选人。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统策略
        访问控制策略
      • 基本概念
        关键词 说明 集群 集群指容器运行所需要的云资源组合,关联了若干服务器节点、负载均衡、专有网络等云资源。 专有版集群:需要创建1个Master(非高可用),或者3/5个Master(高可用)节点,以及若干Worker节点,可对集群基础设施进行更细粒度的控制,需要自行规划、维护、升级服务器集群。 托管版集群:只需创建Worker节点,Master节点由CCSE创建并托管,具备操作简单、低成本无需运维等特点。 节点 一台服务器(可以是虚拟机实例或者物理服务器)已经安装了Docker Engine,可以用于部署和管理容器。容器的Agent程序会被安装到节点上并注册到一个集群上。 专有网络VPC 专有网络VPC是您自己独有的云上私有网络。您可以完全掌控自己的专有网络,例如选择IP地址范围、配置路由表和网关等,您可以在自己定义的专有网络中使用天翼云资源如云服务器、云数据库和负载均衡等。 安全组 安全组是一种虚拟防火墙,具备状态检测和数据包过滤能力,用于在云端划分安全域。安全组是一个逻辑上的分组,由同一地域内具有相同安全保护需求并相互信任的实例组成。 应用目录 应用目录功能集成了Helm,提供了Helm的相关功能,并进行了相关功能扩展,例如提供图形化界面。 编排模板 编排模板是一种保存Kubernetes YAML格式编排文件的方式。 Kubernetes Kubernetes是一个开源平台,具有可移植性和可扩展性,用于管理容器化的工作负载和服务,简化了声明式配置和自动化。 容器(Container) 打包应用及其运行依赖环境的技术,一个节点可运行多个容器。 镜像(Image) 容器镜像是容器应用打包的标准格式,封装了应用程序及其所有软件依赖的二进制数据。 镜像仓库(Image Registry) 容器镜像仓库是一种存储库,用于存储Kubernetes和基于容器应用开发的容器镜像。 管理节点(Master Node) 管理节点是Kubernetes集群的管理者,运行着的服务包括kubeapiserver、kubescheduler、kubecontrollermanager、etcd组件,和容器网络相关的组件。 工作节点(Worker Node) 工作节点是Kubernetes集群中承担工作负载的节点,可以是虚拟机也可以是物理机。工作节点承担实际的Pod调度以及与管理节点的通信等。一个工作节点上的服务包括Docker运行时环境、kubelet、KubeProxy以及其它一些可选的组件。 命名空间(Namespace) 命名空间为Kubernetes集群提供虚拟的隔离作用。Kubernetes集群初始有3个命名空间,分别是默认命名空间default、系统命名空间kubesystem和kubepublic,除此以外,管理员可以创建新的命名空间以满足需求。 容器组(Pod) Pod是Kubernetes部署应用或服务的最小的基本单位。一个Pod封装多个应用容器(也可以只有一个容器)、存储资源、一个独立的网络IP以及管理控制容器运行方式的策略选项。 副本控制器(ReplicationController,RC) RC确保任何时候Kubernetes集群中有指定数量的Pod副本在运行。通过监控运行中的Pod来保证集群中运行指定数目的Pod副本。指定的数目可以是多个也可以是1个;少于指定数目,RC就会启动运行新的Pod副本;多于指定数目,RC就会终止多余的Pod副本。 副本集(ReplicaSet,RS) ReplicaSet(RS)是RC的升级版本,唯一区别是对选择器的支持,RS能支持更多种类的匹配模式。副本集对象一般不单独使用,而是作为Deployment的理想状态参数使用。 工作负载(Workload) 工作负载是在Kubernetes上运行的应用程序。 标签(Label) Labels的实质是附着在资源对象上的一系列Key/Value键值对,用于指定对用户有意义的对象的属性,标签对内核系统是没有直接意义的。标签可以在创建一个对象的时候直接赋予,也可以在后期随时修改,每一个对象可以拥有多个标签,但key值必须唯一。 服务(Service) Service是Kubernetes的基本操作单元,是真实应用服务的抽象,每一个服务后面都有很多对应的容器来提供支持,通过KubeProxy的ports和服务selector决定服务请求传递给后端的容器,对外表现为一个单一访问接口。 路由(Ingress) Ingress是授权入站连接到达集群服务的规则集合。您可以通过Ingress配置提供外部可访问的URL、负载均衡、SSL、基于名称的虚拟主机等。通过POST Ingress资源到API Server的方式来请求Ingress。Ingress Controller负责实现Ingress,通常使用负载均衡器,它还可以配置边界路由和其他前端,这有助于以高可用的方式处理流量。 配置项(ConfigMap) 配置项可用于存储细粒度信息如单个属性,或粗粒度信息如整个配置文件或JSON对象。您可以使用配置项保存不需要加密的配置信息和配置文件。 保密字典(Secret) 保密字典用于存储在Kubernetes集群中使用一些敏感的配置,例如密码、证书等信息。 卷(Volume) 和Docker的存储卷有些类似,Docker的存储卷作用范围为一个容器,而Kubernetes的存储卷的生命周期和作用范围是一个Pod。每个Pod中声明的存储卷由Pod中的所有容器共享。 存储卷(Persistent Volume,PV) PV是集群内的存储资源,类似节点是集群资源一样。PV独立于Pod的生命周期,可根据不同的StorageClass类型创建不同类型的PV。 存储卷声明(Persistent VolumeClaim,PVC) PVC是资源的使用者。类似Pod消耗节点资源一样,而PVC消耗PV资源。 存储类(StorageClass) 存储类可以实现动态供应存储卷。通过动态存储卷,Kubernetes将能够按照用户的需要,自动创建其所需的存储。 弹性伸缩(Autoscaling) 弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU的训练与推理、定时周期性负载变化等。 可观测性(Observability) Kubernetes可观测性体系包含监控和日志两部分,监控可以帮助开发者查看系统的运行状态,而日志可以协助问题的排查和诊断。 Helm Helm是Kubernetes包管理平台。Helm将一个应用的相关资源组织成为Charts,然后通过Charts管理程序包。 节点亲和性(nodeAffinity) 节点亲和性指通过Worker节点的Label标签控制Pod部署在特定的节点上。 污点(Taints) 污点和节点亲和性相反,它使节点能够排斥一类特定的Pod。 容忍(Tolerations) 应用于Pod上,允许(但并不要求)Pod调度到带有与之匹配的污点的节点上。 应用亲和性(podAffinity) 应用亲和性决定应用Pod可以和特定Pod部署在同一拓扑域。例如,对于相互通信的服务,可通过应用亲和性调度,将其部署到同一拓扑域(例如同一个主机)中,以减少它们之间的网络延迟。 应用反亲和性(podAntiAffinity) 应用反亲和性决定应用Pod不与特性Pod部署在同一拓扑域。例如,将一个服务的Pod分散部署到不同的拓扑域(例如不同主机)中,以提高服务本身的稳定性。 服务网格(Istio) Istio是一个提供连接、保护、控制以及观测服务的开放平台,兼容社区Istio开源服务网格,用于简化服务的治理,包括服务调用之间的流量路由与拆分管理、服务间通信的认证安全以及网格可观测性能力。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        产品介绍
        基本概念
      • 配置FTP/SFTP源端参数
        本章节主要介绍配置FTP/SFTP源端参数。 作业中源连接为配置FTP/SFTP连接时,源端作业参数如下表所示。 高级属性里的参数为可选参数,默认隐藏,单击界面上的“显示高级属性”后显示。 表 FTP/SFTP作为源端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 源目录或文件 待迁移数据的目录或单个文件路径。文件路径支持输入多个文件(最多50个),默认以“l"分隔,也可以自定义文件分隔符。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 /ftp/a.csvl/ftp/b.txt 基本参数 文件格式 指CDM以哪种格式解析数据,可选择以下格式: CSV格式:以CSV格式解析源文件,用于迁移文件到数据表的场景。 二进制格式:选择“二进制格式”时不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件到文件的原样复制。 JSON格式:以JSON格式解析源文件,一般都是用于迁移文件到数据表的场景。 CSV格式 基本参数 JSON类型 当“文件格式”选择为“JSON格式”时,才有该参数。JSON文件中存储的JSON对象的类型,可以选择“JSON对象”或“JSON数组”。 JSON对象 基本参数 记录节点 当“文件格式”选择为“JSON格式”并且“JSON类型”为“JSON对象”时,才有该参数。对该JSON节点下的数据进行解析,如果该节点对应的数据为JSON数组,那么系统会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分割。 data.list 高级属性 换行符 文件中的换行符,默认自动识别“n”、“r”或“rn”。当“文件格式”选择为“CSV格式”时,才有该参数。 n 高级属性 字段分隔符 文件中的字段分隔符,使用Tab键作为分隔符请输入“t”。当“文件格式”选择为“CSV格式”时,才有该参数。 , 高级属性 使用包围符 选择“是”时,包围符内的字段分隔符会被视为字符串值的一部分,目前CDM默认的包围符为:"。 否 高级属性 使用正则表达式分隔字段 选择是否使用正则表达式分隔字段,当选择“是”时,“字段分隔符”参数无效。当“文件格式”选择为“CSV格式”时,才有该参数。 是 高级属性 正则表达式 分隔字段的正则表达式。 ^(d.d) (w ) [(.)] ([w.] ) (w.). 高级属性 首行为标题行 “文件格式”选择“CSV格式”时才有该参数。在迁移CSV文件到表时,CDM默认是全部写入,如果该参数选择“是”,CDM会将CSV文件的第一行数据作为标题行,不写入目的端的表。 是 高级属性 编码类型 文件编码类型,例如:“UTF8”或“GBK”。只有文本文件可以设置编码类型,当“文件格式”选择为“二进制格式”时,该参数值无效。 UTF8 高级属性 压缩格式 当“文件格式”为“CSV格式”或“JSON格式”时该参数才显示。选择对应压缩格式的源文件: 无:表示传输所有格式的文件。 GZIP:表示只传输GZIP格式的文件。 ZIP:表示只传输ZIP格式的文件。 TAR.GZ:表示只传输TAR.GZ格式的文件。 无 高级属性 压缩文件后缀 压缩格式非无时,显示该参数。 该参数需要解压缩的文件后缀名。当一批文件中以该值为后缀时,才会执行解压缩操作,否则则保持原样传输。当输入或为空时,所有文件都会被解压。 高级属性 源文件处理方式 作业执行成功后对源端文件的处理方式: 不处理。 重命名:作业执行成功后将源文件重命名,添加用户名和时间戳的后缀。 删除:作业执行成功后将源文件删除。 不处理 高级属性 启动作业标识文件 选择是否开启作业标识文件的功能。当源端路径下存在启动作业的标识文件时才启动作业,否则会挂起等待一段时间,等待时长在下方“等待时间”中配置。 是 高级属性 标识文件名 选择开启作业标识文件的功能时,需要指定启动作业的标识文件名。指定文件后,只有在源端路径下存在该文件的情况下才会运行任务。该文件本身不会被迁移。 ok.txt 高级属性 等待时间 选择开启作业标识文件的功能时,如果源路径下不存在启动作业的标识文件,作业挂机等待的时长,当超时后任务会失败。 等待时间设置为0时,当源端路径下不存在标识文件,任务会立即失败。 单位:秒。 10 高级属性 文件分隔符 “源目录或文件”参数中如果输入的是多个文件路径,CDM使用这里配置的文件分隔符来区分各个文件,默认为 。 高级属性 过滤类型 满足过滤条件的路径或文件会被传输,该参数有“无”、“通配符”和“正则表达式”三种选择。 无 高级属性 目录过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录,符合过滤器规则的目录,允许进行迁移。支持配置多个路径,中间使用“,”分隔。 input,out 高级属性 文件过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录下的文件,符合过滤器规则的文件,允许进行迁移。支持配置多个文件,中间使用“,”分隔。 .csv 高级属性 时间过滤 选择“是”时,可以根据文件的修改时间,选择性的传输文件。 是 高级属性 起始时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间大于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss,90,DAY))}表示:只迁移最近90天内的文件。 20190701 00:00:00 高级属性 终止时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间小于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss))} 表示:只迁移修改时间为当前时间以前的文件。 20190730 00:00:00 高级属性 加密方式 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法: 无:不解密,直接导出。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 AES256GCM 高级属性 忽略不存在原路径/文件 如果将其设为是,那么作业在源路径不存在的情况下也能成功执行。 否 高级属性 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成,且必须与加密时配置的“数据加密密钥”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 高级属性 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成,且必须与加密时配置的“初始化向量”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F 高级属性 MD5文件名后缀 “文件格式”选择“二进制格式”时,该参数才显示。 校验CDM抽取的文件,是否与源文件一致。 .md5
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置FTP/SFTP源端参数
      • 配置存算分离集群(委托方式)
        为已有集群配置存算分离功能 : 1. 登录MRS控制台,在导航栏选择“集群列表 > 现有集群”。 2. 单击集群名称,进入集群详情页面。 3. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 4. 在集群详情页的“概览”页签,单击委托右侧的“管理委托”选择需要绑定的委托并单击“确定”进行绑定,或单击“新建委托”进入IAM控制台进行创建后再在此处进行绑定。 3.创建OBS文件系统用于存放数据 说明 大数据存算分离场景,请务必使用OBS并行文件系统,使用普通对象桶会对集群性能产生较大影响。 1. 登录OBS控制台。 2. 单击“并行文件系统 > 创建并行文件系统”。 3. 填写文件系统名称,例如“mrsword001”。 其他参数请根据需要填写。 4. 单击“立即创建”。 5. 在OBS控制台并行文件系统列表中,单击文件系统名称进入详情页面。 6. 在左侧导航栏选择“文件”,新建program、input文件夹。 program:请上传程序包到该文件夹。 input:请上传输入数据到该文件夹。 4.访问OBS文件系统 1. 用root用户登录集群Master节点,具体请参见登录集群节点。 2. 配置环境变量。 MRS 3.x之前版本请执行:source /opt/client/bigdataenv MRS 3.x及之后版本请执行:source /opt/Bigdata/client/bigdataenv 3. 验证Hadoop访问OBS。 a. 查看文件系统mrsword001下面的文件列表。 hadoop fs ls obs://mrsword001/ b. 返回文件列表即表示访问OBS成功。 详见下图: Hadoop验证返回文件列表 4. 验证Hive访问OBS。 a. 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建Hive表的权限,具体请参见创建角色配置拥有对应权限的角色,参考创建用户创建用户并为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MR集群用户 例如,kinit hiveuser b. 执行Hive组件的客户端命令。 beeline c. 在beeline中直接使用obs的目录进行访问。例如,执行如下命令创建Hive表并指定数据存储在mrsword001文件系统的testobs目录中。 create table testobs(a int, b string) row format delimited fieldsterminated by "," stored as textfile location "obs://mrsword001/testobs"; d. 执行如下命令查询所有表,返回结果中存在表testobs,即表示访问OBS成功。 show tables; 详见下图: Hive验证返回已创建的表名 e. 使用“Ctrl + C”退出hive beeline。 5. 验证Spark访问OBS。 a. 执行Spark组件的客户端命令。 sparkbeeline b. 在sparkbeeline中访问OBS,例如在obs://mrsword001/table/目录中创建表test。 create table test(id int) location 'obs://mrsword001/table/'; c. 执行如下命令查询所有表,返回结果中存在表test,即表示访问OBS成功。 show tables; 详见下图: Spark验证返回已创建的表名 d. 使用“Ctrl + C”退出退出spark beeline。 6. 验证Presto访问OBS。 −未开启Kerberos认证的普通集群 i.执行如下命令连接客户端。 prestocli.sh ii. 在Presto客户端中执行语句创建schema,指定location为OBS路径,例如: CREATE SCHEMA hive.demo01 WITH (location 'obs://mrsword001/prestodemo002/'); iii. 在该schema中建表,该表的数据即存储在OBS文件系统内,例如: CREATE TABLE hive.demo.demotable WITH (format 'ORC') AS SELECT FROM tpch.sf1.customer; 详见下图:普通集群Presto验证返回结果 iv. 执行exit退出客户端。 −开启Kerberos认证的安全集群 i.登录MRS Manager创建一个拥有“Hive Admin Privilege”权限的角色,例如prestorole,创建角色请参考创建角色。 ii.创建一个属于“Presto”和“Hive”组的用户,同时为该用户绑定中创建的角色,例如presto001,创建用户请参考创建用户。 iii. 认证当前用户。 kinit presto001 iv. 下载用户凭证。 1)针对MRS 3.x之前版本集群,在MRS Manager页面,选择“系统设置 > 用户管理 ”,单击新增用户所在行的“更多 > 下载认证凭据”。 详见下图: 下载Presto用户认证凭据 2)针对MRS 3.x及之后版本,在FusionInsight Manager页面,选择“系统 > 权限 > 用户”,单击新增用户所在行的“更多 > 下载认证凭据”。 详见下图:下载Presto用户认证凭据 v. 解压下载的用户凭证文件,得到“krb5.conf”和“user.keytab”两个文件并放入客户端目录,例如“/opt/Bigdata/client/Presto/”。 vi.执行如下命令获取用户principal。 klist kt /opt/Bigdata/client/Presto/user.keytab vii. 启用Kerberos认证的集群,执行以下命令连接本集群的Presto Server。 prestocli.sh krb5configpath {krb5.conf 文件路径} krb5principal { 用户principal} krb5keytabpath {user.keytab文件路径} user {presto用户名} krb5.conf文件路径:请替换为6.v中设置的文件存放路径,例如“/opt/Bigdata/client/Presto/krb5.conf” user.keytab文件路径:请替换为6.v中设置的文件存放路径,例如“/opt/Bigdata/client/Presto/user.keytab” 用户principal:请替换为6.vi中返回的结果 presto用户名:请替换为6.ii中创建的用户名,例如“presto001” 例如:prestocli.sh krb5configpath /opt/Bigdata/client/Presto/krb5.conf krb5principal prest001@xxxxxxxxxxxx.1COM krb5keytabpath /opt/Bigdata/client/Presto/user.keytab user presto001 viii. 在Presto客户端中执行语句创建schema,指定location为OBS路径,例如: CREATE SCHEMA hive.demo01 WITH (location 'obs://mrsword001/prestodemo002/'); ix. 在该schema中建表,该表的数据即存储在OBS文件系统内,例如: CREATE TABLE hive.demo01.demotable WITH (format 'ORC') AS SELECT FROM tpch.sf1.customer; 详见下图:安全集群Presto验证返回结果 x. 执行exit退出客户端。 7. 验证Flink访问OBS。 a. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 b. 用户同步完成后,在集群详情页选择“作业管理 > 添加”提交Flink作业,在“执行程序参数”中按照“input output ”格式填写,其中作业输入路径选择OBS,输出路径请手动输入一个不存在的目录,例如obs://mrsword001/output/,如下图所示。 详见下图: 添加Flink作业 c. 在OBS控制台,进入提交作业时选择的输出路径,即可查看到输出目录已经自动创建并存放着作业执行结果,表示访问OBS成功。 详见下图:Flink作业执行结果
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置存算分离
        配置存算分离集群(委托方式)
      • 编辑并发桌面池策略v3
        参数 是否必填 参数类型 说明 示例 下级对象 desktopPoolOid 是 String 并发桌面池ID dpurmb31l1two2so9us14ro keepDuration 否 Integer 用户断开连接后,云电脑所占并发额度的保留时长(单位:分钟),至少是3 33
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        并发桌面池
        编辑并发桌面池策略v3
      • 支持的监控指标
        本文主要介绍 支持的监控指标。 功能说明 本章节定义了分布式消息服务Kafka上报云监控服务的监控指标的命名空间,监控指标列表和维度定义,您可以通过云监控服务的管理控制台或API接口来检索Kafka实例产生的监控指标和告警信息,也可以通过分布式消息服务Kafka控制台提供的“监控”页面来检索Kafka实例产生的监控指标。 命名空间 SYS.DMS 实例监控指标 表 实例支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。单位:Count 0~1800 Kafka实例 1分钟 currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。单位:Count 0~1800 Kafka实例 1分钟 groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。单位:Count 0~1000000000 Kafka实例 1分钟 节点监控指标 表 节点支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) brokerdatasize 节点数据容量 该指标用于统计节点当前的消息数据大小。单位:Byte、KB、MB、GB、TB、PB 0~5000000000000 Kafka实例节点 1分钟 brokermessagesinrate 消息生产速率 该指标用于统计每秒生产的消息数量。单位:Count/s 0~500000 Kafka实例节点 1分钟 brokerbytesoutrate 消费流量 该指标用于统计每秒消费的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerbytesinrate 生产流量 该指标用于统计每秒生产的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesinrate 公网入流量 统计Broker节点每秒公网访问流入流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesoutrate 公网出流量 统计Broker节点每秒公网访问流出流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerfetchmean 消费请求平均处理时长 统计Broker节点处理消费请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokerproducemean 生产请求平均处理时长 统计Broker节点处理生产请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokercpucoreload CPU核均负载 该指标为从Kafka节点虚拟机层面采集的CPU每个核的平均负载。单位:% 0~20 Kafka实例节点 1分钟 brokerdiskusage 磁盘容量使用率 该指标为从Kafka节点虚拟机层面采集的磁盘容量使用率。单位:% 0~100% Kafka实例节点 1分钟 brokermemoryusage 内存使用率 该指标为Kafka节点虚拟机层面采集的内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerheapusage Kafka进程JVM堆内存使用率 该指标从Kafka节点Kafka进程JVM中采集的堆内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokeralive 节点存活状态 表示Kafka节点是否存活。 1:存活 0:离线 Kafka实例节点 1分钟 brokerconnections 连接数 统计Kafka节点当前所有TCP连接数量。单位:Count 0~65535 Kafka实例节点 1分钟 brokercpuusage CPU使用率 统计Kafka节点虚拟机的CPU使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerdiskreadawait 磁盘平均读操作耗时 该指标用于统计磁盘在测量周期内平均每个读IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokerdiskwriteawait 磁盘平均写操作耗时 该指标用于统计磁盘在测量周期内平均每个写IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokertotalbytesinrate 网络入流量 统计Broker节点每秒网络访问流入流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokertotalbytesoutrate 网络出流量 统计Broker节点每秒网络访问流出流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokerdiskreadrate 磁盘读流量 磁盘读操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟 brokerdiskwriterate 磁盘写流量 磁盘写操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        支持的监控指标
      • 告警模版
        本页介绍天翼云TeleDB数据库如何设置告警模版。 操作步骤 1. 以用户名和密码登录TeleDBDCP数据库管理平台,在左侧导航树单击告警中心 > 告警模版 ,进入告警模版页面。 2. 创建告警模版。 1. 在告警模版页面,单击新建模版 ,弹出新建模版对话框。 2. 在新建模版对话框,根据以下内容填写基本信息 和告警规则。 告警对象选择实例TELEDBX。 阈值告警包括:节点连接数、节点CPU占用率、节点内存占用大小、节点磁盘占用量、节点wal日志占用空间、节点QPS、主备xlog同步差异、节点剩余xid数量、集群总请求数、集群读请求数、集群写请求数、集群其他请求数、集群总连接数。 事件告警包括:实例状态、全局事务管理器状态、协调节点状态、数据节点状态。 3. 单击确定 完成新建模版。 3. 告警模版管理 1. 单击已创建的告警模版所在行的操作列的编辑 可修改告警模版。 2. 单击已创建的告警模版所在行的操作列的删除 可删除告警模版。 3. 也可勾选多条告警模版,单击批量删除 ,同时删除多条告警模版。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        实例告警
        告警模版
      • 查询池化桌面池列表v3
        参数 参数类型 说明 示例 下级对象 keepDuration Integer 用户断开连接后,云电脑的保留时长(单位:分钟) 3 afterReleaseAction String 云电脑释放后操作(rebuild还原;stop关机) rebuild rebuildAfterStopOrReboot String 关机或重启后还原系统(on开启;off关闭) on
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        池化桌面池
        查询池化桌面池列表v3
      • MySQL 5.7测试结果
        实例规格 单表数据量 表数量 最大连接数 TPS QPS 2核4GB(S2型) 80000 32 1000 517 10343 2核8GB(S2型) 80000 32 2000 571 11428 4核8GB(S2型) 80000 32 2000 1064 21296
        来自:
        帮助文档
        关系数据库MySQL版
        性能白皮书
        MySQL 5.7测试结果
      • 设置监控频率
        监控指标 含义 running 当前活跃线程数 connected 当前连接线程数 cached 当前缓存线程数 qps 计算公式:Queries / Uptime tps 计算公式:(commitrollback) / Uptime innodbnumopenfiles InnoDB打开文件数 opentables 打开表数 openfiles 打开的文件数 mysql.selectscan 执行全表搜索查询的数量 mdllocksession MDL锁阻塞的连接数 innodbrowlockwaits InnoDB表总等待row locks次数 Innodbrowlocktime 从系统启动到现在锁定的总时间 innodbrowlocktimeavg InnoDB表平均等待row locks时间 mysql.slaveiorunning 读取源二进制日志的I/O线程是否正在运行 mysql.slavesqlrunning 执行中继日志中事件的SQL线程是否正在运行 usr 用户CPU使用率 sys 系统CPU使用率 wait 等待I/O CPU使用率 memusage 统计测量对象的内存使用率。 datadiskawait 数据盘平均每次设备I/O操作的等待时间 recv 接收字节数 send 发送字节数
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        设置监控频率
      • 告警模板
        本页介绍天翼云TeleDB数据库告警模板相关操作。 操作步骤 1. 以用户名和密码登录TeleDBDCP数据库管理平台,在左侧导航树单击告警中心 > 告警模版 ,进入告警模版页面。 2. 创建告警模版。 1. 在告警模版页面,单击 新建模版 ,弹出新建模版对话框。 2. 在新建模版对话框,根据以下内容填写基本信息 和 告警规则 。 告警对象选择 实例TELEDBX 。 阈值告警包括:节点连接数、节点CPU占用率、节点内存占用大小、节点磁盘占用量、节点wal日志占用空间、节点QPS、主备xlog同步差异、节点剩余xid数量、集群总请求数、集群读请求数、集群写请求数、集群其他请求数、集群总连接数。 事件告警包括:实例状态、全局事务管理器状态、协调节点状态、数据节点状态。 3. 单击确定完成新建模版。 3. 告警模版管理 1. 单击已创建的告警模版所在行的操作列的编辑可修改告警模版。 2. 单击已创建的告警模版所在行的操作列的删除可删除告警模版。 3. 也可勾选多条告警模版,单击 批量删除 ,同时删除多条告警模版。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        实例告警
        告警模板
      • ALM-19006 HBase容灾同步失败
        检查主备集群RegionServer之间的网络连接 14.登录主集群FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 15.在告警列表中单击该告警,从完整的告警信息中“定位信息”处获得“主机名”。 16.以omm用户通过步骤15获取的IP地址登录故障RegionServer节点。 17.执行ping命令,查看故障RegionServer节点和备集群RegionServer所在主机的网络连接是否正常。 是,执行步骤20。 否,执行步骤18。 18.联系网络管理员恢复网络。 19.网络恢复后,在告警列表中,查看本告警是否清除。 是,处理完毕。 否,执行步骤20。 收集故障信息 20.在主备集群的FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 21.在“服务”中勾选待操作集群的“HBase”。 22.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 23.请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19006 HBase容灾同步失败
      • 创建目标
        项目 描述 目标名称 iSCSI目标名称。 字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 注意 一个iSCSI目标可以关联多个卷,但是一个卷只能关联一个iSCSI目标。 最大会话数 iSCSI目标下每个IQN允许建立的最大会话数。 取值:[0, 1024],默认值为1。0表示客户端无法发现该target。 注意 如果多个客户端连接同一target IQN,客户端可以同时读,但不能同时写。 CHAP验证 是否开启CHAP认证。如果启用CHAP验证,需要填写CHAP名称和CHAP密码。 默认禁用。 CHAP名称 客户端CHAP认证名称。 字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 CHAP密码 客户端CHAP认证密码。 字符串形式,长度范围是12~16,必须包含大写字母、小写字母、数字、下划线()中的至少两种字符,字母区分大小写。 服务器数量 target所在的服务器数量(仅集群版支持)。 服务器ID iSCSI目标对应的服务器ID(仅集群版支持)。 回收策略 指定iSCSI目标的回收策略。 取值: 删除:当iSCSI目标关联的卷全部删除后,iSCSI目标自动删除。 保留:当iSCSI目标关联的卷全部删除后,iSCSI目标仍然保留。 默认值为保留。 说明 如果创建卷时指定不存在的iSCSI目标,那么同时创建iSCSI目标,新创建iSCSI目标的回收策略默认为删除。 允许访问列表 设置允许访问列表: 说明 关闭状态表示允许所有访问。 发起方:设置发起方(initiator)的允许访问列表,可以在发起方设置下列访问权限: 允许所有访问。 禁止所有访问。 设置允许访问列表:指定iSCSI发起方允许访问列表。可以设置多组发起方允许访问列表,各组允许访问列表之间为“或”的关系。每组允许访问列表可以同时指定IP和initiator名称,二者为“与”的关系。 IPs:根据initiator IP地址设置iSCSI发起方的允许访问列表,支持IPv4、IPv6、CIDR子网,可以设置多个,以英文逗号分隔。 注意 IP不能为localhost。 名称:根据initiator名称设置iSCSI发起方的允许访问列表。取值:字符串形式,长度范围是1~223,只能由字母、数字、句点( . )、短横线( )、冒号( : )组成,字母区分大小写。支持通配符和?。可以设置多个,以英文逗号分隔。 目标:设置目标端(target)的允许访问列表,可以在目标端设置下列访问权限: 允许所有访问。 禁止所有访问。 设置允许访问列表:指定目标端(target)的允许访问列表。可以设置多组target允许访问列表,各组允许访问列表之间为“或”的关系。每组允许访问列表可以同时指定IP和网路设备(NIC)名称,二者为“与”的关系。 IPs:通过target端IP进行设置target允许访问列表,表示只允许通过target端的指定IP访问target。支持IPv4、IPv6、CIDR子网,可以设置多个,以英文逗号分隔。 注意 IP不能为localhost。 网卡名称:通过target端的网卡名称设置target允许访问列表,表示只允许通过target端的指定网卡访问target。取值:target端的网卡名称,可包含字母、数字、句点(.)、短横线()和下划线(),最多100个字符。支持通配符和?。可以设置多个,以英文逗号分隔。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        iSCSI目标
        创建目标
      • 天翼云AOne个人信息采集清单
        业务场景 收集目的 处理方式 信息类型 账号注册 登录认证、双因子认证、重置密码、验证码校验、应用访问权限申请和审批、员工账号管理 用户输入 手机号、电子邮箱、用户名 账号登录 登录认证 用户输入 注册用户登录账号、注册用户登录密码、验证码 设备管理 进行移动设备管理 APP收集 账号、设备ID、设备名称、设备系统 信息统计故障诊断 使用故障诊断、信息统计、服务稳定性改进、响应使用异常帮助请求 APP收集 设备名称、品牌、型号、操作系统、设备设置、IDFV(仅iOS)、IP地址、个人信息(头像) 企业/组织控制台数据配置 企业组织管理、应用范围管理、日常办公安全管理 企业管理员配置 隶属部门、办公邮箱账号、办公电话、企业账号信息、访问企业应用/资产名称、访问企业应用/资产的时长、访问过程中流量的大小 VPN服务 访问企业内部应用、产品功能正常运行 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 应用资源访问 网络日志保存、安全审计 APP收集 访问的应用名、访问的目的地址、目的端口、设备网络类型、客户端IP地址、客户端端口、访问日期和时间 AI应用中心智能对话 意图识别、关键词拆分、信息检索、提供精准搜索结果和总结性回答 用户输入 与AI应用中心交互过程中输入的内容(语音、文本、图片、文件)、对话记录(输入信息、App生成内容、对话主题) AI应用中心文件上传 智能搜索、交互服务、精准理解用户需求、提供准确搜索结果和智能推荐 用户上传 用户上传的文件内容 日程服务 日程提醒、日程安排管理 用户输入 日程安排、事件通知 消息服务 信息传输与交互、设备同步 用户输入 聊天信息(文本消息、图片消息、文件、通信录信息) 空间服务在线文档 文档管理、协作记录 用户输入 文档及文档信息(文档类型、大小、文档权限、存放位置)、参与编辑的记录、分享/创建副本/下载/浏览/变更权限设置的操作记录 空间服务搜索 搜索结果展示 用户输入 搜索关键字信息 企业微信账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 飞书账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构、设备信息与日志信息(操作系统版本号、服务日志)、个人常用设备信息 钉钉账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 音视频会议发言 音视频流传输 APP收集 音频信息、视频信息 音视频会议粘贴会议号 会议号鉴别、提升入会效率 APP收集 剪贴板中的会议号 音视频会议蓝牙连接 蓝牙设备会议交流 APP收集 蓝牙设备信息 共享屏幕 在其他应用上层显示 APP收集 悬浮窗权限、共享屏幕信息 会议记录 会议信息管理、后期查看 APP收集 会议主题、会议号、会议密码、会议创建人、参会人、会议开始和结束时间、最近入会时间及参会时长 云录制 会议内容保存、回放观看 APP收集 音频信息、视频信息、会议纪要文本数据 会议纪要生成 生成会议纪要(按主题、按章节、按发言人总结) APP收集 会议音频信息、会议主题、参会人昵称信息 全球加速 加速访问公网应用 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 生物识别登录 账号登录验证 本地验证 指纹信息/人脸信息(不采集原始图像,仅保存在用户设备上) 待办工单 工单管理 用户输入 待办工单信息 邮件服务 邮件收发 用户输入 电子邮箱地址、图片、文字、文件
        来自:
        帮助文档
        边缘安全加速平台
        相关协议
        天翼云AOne个人信息采集清单
      • 天翼云AOne个人信息采集清单(1)
        业务场景 收集目的 处理方式 信息类型 账号注册 登录认证、双因子认证、重置密码、验证码校验、应用访问权限申请和审批、员工账号管理 用户输入 手机号、电子邮箱、用户名 账号登录 登录认证 用户输入 注册用户登录账号、注册用户登录密码、验证码 设备管理 进行移动设备管理 APP收集 账号、设备ID、设备名称、设备系统 信息统计故障诊断 使用故障诊断、信息统计、服务稳定性改进、响应使用异常帮助请求 APP收集 设备名称、品牌、型号、操作系统、设备设置、IDFV(仅iOS)、IP地址、个人信息(头像) 企业/组织控制台数据配置 企业组织管理、应用范围管理、日常办公安全管理 企业管理员配置 隶属部门、办公邮箱账号、办公电话、企业账号信息、访问企业应用/资产名称、访问企业应用/资产的时长、访问过程中流量的大小 VPN服务 访问企业内部应用、产品功能正常运行 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 应用资源访问 网络日志保存、安全审计 APP收集 访问的应用名、访问的目的地址、目的端口、设备网络类型、客户端IP地址、客户端端口、访问日期和时间 AI应用中心智能对话 意图识别、关键词拆分、信息检索、提供精准搜索结果和总结性回答 用户输入 与AI应用中心交互过程中输入的内容(语音、文本、图片、文件)、对话记录(输入信息、App生成内容、对话主题) AI应用中心文件上传 智能搜索、交互服务、精准理解用户需求、提供准确搜索结果和智能推荐 用户上传 用户上传的文件内容 日程服务 日程提醒、日程安排管理 用户输入 日程安排、事件通知 消息服务 信息传输与交互、设备同步 用户输入 聊天信息(文本消息、图片消息、文件、通信录信息) 空间服务在线文档 文档管理、协作记录 用户输入 文档及文档信息(文档类型、大小、文档权限、存放位置)、参与编辑的记录、分享/创建副本/下载/浏览/变更权限设置的操作记录 空间服务搜索 搜索结果展示 用户输入 搜索关键字信息 企业微信账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 飞书账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构、设备信息与日志信息(操作系统版本号、服务日志)、个人常用设备信息 钉钉账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 音视频会议发言 音视频流传输 APP收集 音频信息、视频信息 音视频会议粘贴会议号 会议号鉴别、提升入会效率 APP收集 剪贴板中的会议号 音视频会议蓝牙连接 蓝牙设备会议交流 APP收集 蓝牙设备信息 共享屏幕 在其他应用上层显示 APP收集 悬浮窗权限、共享屏幕信息 会议记录 会议信息管理、后期查看 APP收集 会议主题、会议号、会议密码、会议创建人、参会人、会议开始和结束时间、最近入会时间及参会时长 云录制 会议内容保存、回放观看 APP收集 音频信息、视频信息、会议纪要文本数据 会议纪要生成 生成会议纪要(按主题、按章节、按发言人总结) APP收集 会议音频信息、会议主题、参会人昵称信息 全球加速 加速访问公网应用 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 生物识别登录 账号登录验证 本地验证 指纹信息/人脸信息(不采集原始图像,仅保存在用户设备上) 待办工单 工单管理 用户输入 待办工单信息 邮件服务 邮件收发 用户输入 电子邮箱地址、图片、文字、文件
        来自:
      • gRPC协议治理
        前提条件 1. 已开通云容器引擎,至少有一个云容器引擎集群实例。产品入口:云容器引擎。 2. 开通天翼云服务网格实例。 操作步骤 gRPC是远程过程调用框架(RPC),有多语言的实现,底层采用HTTP2作为传输协议;由于HTTP2采用长连接机制,在负载均衡的场景下可能导致负载的不平衡,本文介绍负载不均衡的场景以及如何通过服务网格实现负载均衡。 部署gRPC server和client应用。 apiVersion: apps/v1 kind: Deployment metadata: name: grpcserverv1 labels: app: grpcserver version: v1 spec: replicas: 1 selector: matchLabels: app: grpcserver version: v1 template: metadata: labels: app: grpcserver version: v1 spec: containers: args: address0.0.0.0:8080 image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/grpcserver imagePullPolicy: Always name: grpcserver ports: containerPort: 8080 apiVersion: apps/v1 kind: Deployment metadata: name: grpcserverv2 labels: app: grpcserver version: v2 spec: replicas: 1 selector: matchLabels: app: grpcserver version: v2 template: metadata: labels: app: grpcserver version: v2 spec: containers: args: address0.0.0.0:8080 image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/grpcserver imagePullPolicy: Always name: grpcserver ports: containerPort: 8080 apiVersion: v1 kind: Service metadata: name: grpcserver labels: app: grpcserver spec: ports: name: grpcbackend port: 8080 protocol: TCP selector: app: grpcserver type: ClusterIP apiVersion: apps/v1 kind: Deployment metadata: name: grpcclient labels: app: grpcclient spec: replicas: 1 selector: matchLabels: app: grpcclient template: metadata: labels: app: grpcclient "sidecar.istio.io/inject": "true" spec: containers: image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/grpcclient imagePullPolicy: Always command: ["/bin/sleep", "3650d"] name: grpcclient 部署之后的pod列表(一个client,两个版本的server): 通过client访问server,可以看到总是访问服务端的同一个实例。 kubectl exec it grpcclientb7499b9c45d2s n grpc /bin/greeterclient insecuretrue addressgrpcserver:8080 repeat10 为grpc client注入sidecar(打上标签"sidecar.istio.io/inject": "true"),重新部署grpcclient之后可以看到pod列表如下: 再次通过grpcclient访问grpcserver可以看到请求交替访问两个版本的grpcserver: 部署流量治理策略使70%的流量访问v2版本的grpcserver,30%的流量访问v1版本的grpcserver。 apiVersion: networking.istio.io/v1alpha3 kind: DestinationRule metadata: name: drgrpcserver spec: host: grpcserver trafficPolicy: loadBalancer: simple: ROUNDROBIN subsets: name: v1 labels: version: "v1" name: v2 labels: version: "v2" apiVersion: networking.istio.io/v1alpha3 kind: VirtualService metadata: name: vsgrpcserver spec: hosts: "grpcserver" http: match: port: 8080 route: destination: host: grpcserver subset: v1 weight: 30 destination: host: grpcserver subset: v2 weight: 70 再次访问可以看到请求在grpcserver的两个版本之间不再是交替访问,而是大概按照7:3的比例访问:
        来自:
        帮助文档
        应用服务网格
        用户指南
        流量管理中心
        多协议治理
        gRPC协议治理
      • 同账号不同资源池间的数据迁移
        本文主要介绍基于天翼云海量文件服务,如何在不同资源池之间实现海量文件系统之间的数据迁移。 应用场景 本文适用于在不同地域(资源池)不同VPC的海量文件系统之间的数据迁移。例如当您需要将业务从A省迁移至B省的资源池,以提高访问效率。 前提条件 已拥有两个NFS协议的海量文件系统。两个资源池的海量文件系统分别作为源文件系统和目标文件系统,源文件系统指含业务数据的源文件系统,目标文件系统指即将投入使用的新文件系统。 准备一台与源文件系统在同一VPC网络下的弹性云主机和一台与目标文件系统在同一VPC网络下的弹性云主机,并为这两台弹性云主机配置弹性IP,以实现基于公网的数据迁移。 准备工作 在两个资源池分别创建一个海量文件系统和一台弹性云主机,具体操作请参考创建海量文件系统、创建弹性云主机。 将文件系统分别挂载海量文件系统至弹性云主机,具体操作请参考使用弹性云主机挂载海量文件系统。 操作步骤 不同资源池的两个海量文件系统之间的数据迁移可以分为几个关键步骤: 挂载文件系统 > 安装迁移工具 >迁移存量数据> 迁移增量数据源> 迁移结果检查 。具体操作步骤如下: 1. 将两个资源池的海量文件系统分别挂载到对应云主机。 将海量文件系统挂载至云主机中,这里设定资源池1为源文件系统,将其挂载到同一资源池弹性云主机的“/mnt/localpath/”目录上,资源池2为目标文件系统,同样将其挂载到同一资源池的弹性云主机的 “/mnt/localpath/”目录上。 2. 安装迁移工具。 执行以下命令安装rsync命令工具: plaintext yum install y rsync 3. 迁移存量数据。 执行以下命令,将资源池1海量文件系统中的数据迁移到资源池2中: plaintext rsync avP /mnt/localpath/ root@IP:/mnt/localpath/ 我们还可以利用rsync并发拷贝迁移数据,由于并发操作,每个ssh连接操作均要求输入密码,因此在并发迁移数据过程中会要求多次输入密码,这里我们配置无需密码通过ssh执行rsync来迁移文件。在资源池1中的弹性云主机中执行 sshkeygen命令生成密钥,之后使用sshcopyid将公钥拷贝至资源池2的弹性云主机,执行以下命令: plaintext sshkeygensshcopyid i ~/.ssh/idrsa.pub IP 执行以下命令,实现并发数据迁移: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 4. 迁移增量数据。 执行以下命令,实现增量数据的迁移: plaintext rsync avP delete /mnt/localpath/ root@IP:/mnt/localpath/ 5. 检查迁移结果。 在完成数据迁移后,执行以下命令: plaintext rsync rvn /mnt/localpath/ root@IP:/mnt/localpath/ 如果源文件系统与目标文件系统数据一致,则应显示上面信息,中间不包含任何文件路径。
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        数据迁移
        同账号不同资源池间的数据迁移
      • 节点访问(NodePort)
        操作场景 节点访问 ( NodePort )是指在每个节点的IP上开放一个静态端口,通过静态端口对外暴露服务。节点访问 ( NodePort )会路由到ClusterIP服务,这个ClusterIP服务会自动创建。通过请求 : ,可以从集群的外部访问一个NodePort服务。 约束与限制 “节点访问 ( NodePort )”默认为VPC内网访问,如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 创建service后,如果服务亲和从集群级别切换为节点级别,连接跟踪表将不会被清理,建议用户创建service后不要修改服务亲和属性,如需修改请重新创建servcie。 同一个节点内的容器不支持访问externalTrafficPolicy为local的service。 工作负载创建时设置 您可以在创建工作负载时通过控制台设置Service访问方式,本节以nginx为例进行说明。 步骤 1 参考创建无状态负载(Deployment)、创建有状态负载(StatefulSet)或创建守护进程集(DaemonSet),在“工作负载访问设置”步骤,单击“添加服务”。 访问类型:选择“节点访问 ( NodePort )”。 说明: 如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 Service 名称:自定义服务名称,可与工作负载名称保持一致。 服务亲和: − 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 − 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 端口配置: − 协议:请根据业务的协议类型选择。 − 容器端口:容器镜像中工作负载实际监听的端口,取值范围为165535。 − 访问端口:容器端口映射到节点私有IP上的端口,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 步骤 2 完成配置后,单击“确定”。 步骤 3 单击“下一步:高级设置”进入高级设置页面,直接单击“创建”。 步骤 4 单击“查看工作负载详情”,在访问方式页签下获取访问地址,例如“192.168.0.160:30358”。 工作负载创建完成后设置 您可以在工作负载创建完成后对Service进行配置,此配置对工作负载状态无影响,且实时生效。具体操作如下: 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”,在工作负载列表页单击要设置Service的工作负载名称。 说明: 如果当前Service被关联到Ingress,则更新Service的端口信息后Ingress将不可用,需要删除重建。 步骤 2 在“Service”页签,单击“添加Service”。 步骤 3 在“添加Service”页面,访问类型选择“节点访问 ( NodePort )”。 说明: 如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 步骤 4 设置节点访问参数: Service 名称:自定义服务名称,可与工作负载名称保持一致。 集群名称:工作负载所在集群的名称,此处不可修改。 命名空间:工作负载所在命名空间,此处不可修改。 关联工作 负载:要添加Service的工作负载,此处不可修改。 服务亲和: − 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 − 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 端口配置: − 协议:请根据业务的协议类型选择。 − 容器端口:容器镜像中工作负载程序实际监听的端口,需用户确定。nginx程序实际监听的端口为80。 − 访问端口:容器端口映射到节点私有IP上的端口,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 步骤 5 单击“创建”。工作负载已添加“节点访问 ( NodePort )”的服务。 验证访问方式 步骤 1 在管理控制台首页,单击“计算 > 弹性云主机”。 步骤 2 在弹性云主机页面,找到同一VPC内任意一台云服务器,并确认连接到访问地址中IP与端口的安全组是开放的。 步骤 3 单击“远程登录”,弹出登录页面,输入用户密码登录。 步骤 4 使用curl命令访问工作负载验证工作负载是否可以正常访问。 说明: 节点访问(NodePort)会在集群内节点上分配一个虚拟IP,即可以在集群内部通过虚拟IP的验证方式验证。其中,虚拟IP访问端口默认与容器端口一致。 如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 curl 192.168.0.160:30358 其中“192.168.0.160:30358”为步骤4中获取到的访问地址,即节点虚拟IP+访问端口。 回显如下表示访问成功。 Welcome to nginx! body { width: 35em; margin: 0 auto; fontfamily: Tahoma, Verdana, Arial, sansserif; } Welcome to nginx! If you see this page, the nginx web server is successfully installed and working. Further configuration is required. For online documentation and support please refer to Thank you for using nginx. 更新Service 您可以在添加完Service后,更新此Service的端口配置,操作步骤如下: 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 网络管理”,在Service页签下,选择对应的集群和命名空间,单击需要更新端口配置的Service后的“更新”。 步骤 2 在更新Service页面,访问类型选择“节点访问 ( NodePort )”。 步骤 3 更新节点访问参数: Service 名称:您创建的Service名称,此处不可修改。 集群名称:工作负载所在集群的名称,此处不可修改。 命名空间:工作负载所在命名空间,此处不可修改。 关联工作负载:要添加Service的工作负载,此处不可修改。 服务亲和: − 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 − 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 端口配置: − 协议:请根据业务的协议类型选择。 − 容器端口:容器镜像中工作负载程序实际监听的端口,需用户确定。nginx程序实际监听的端口为80。 − 访问端口:容器端口映射到节点私有IP上的端口,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 步骤 4 单击“更新”。工作负载已更新Service。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        网络管理
        Service
        节点访问(NodePort)
      • 基本概念
        条带 也叫分片,指Redis集群的一个管理组,对应一个redisserver进程。一个Redis集群由若干条带组成,每个条带负责若干个slot(槽),数据分布式存储在slot中。Redis集群通过条带化分区,实现超大容量存储以及并发连接数提升。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        基本概念
      • 1
      • ...
      • 120
      • 121
      • 122
      • 123
      • 124
      • ...
      • 139
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      公共算力服务

      模型推理服务

      应用托管

      知识库问答

      人脸检测

      推荐文档

      系统必备组件安装

      消费者生产者

      产品功能

      批量登录主机

      产品定义

      天翼云最佳实践⑤:linux搭建pureftp

      加入会议

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号