活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容审核_相关内容
      • 操作系统类
        本章节主要介绍物理机的操作系统类的问题。 物理机操作系统是否有图形界面? 当前提供的Linux操作系统是命令行界面,用户如果需要可以自己设置图形管理。或者订制专属物理机镜像。 物理机操作系统自带上传工具吗? 物理机操作系统没有自带的上传工具,需要用户自行安装和配置,例如FTP。 如何设置物理机的静态主机名? 问题描述 Linux物理机的静态主机名来源于创建物理机时,通过控制台注入的用户自定义名称。可以使用控制台或hostname命令更改物理机的主机名,但如果重启物理机,将自动还原为控制台上注入的用户自定义名称。 使用hostname命令修改Linux物理机的主机名后,如果您希望修改后的主机名在物理机关机、重启后仍然生效,需要将其写入相应的配置文件中,使之永久生效。 假设使用hostname 命令修改后的主机名为 newhostname 。 步骤 1 修改配置文件“/etc/hostname”。 1.执行以下命令,编辑配置文件“/etc/hostname”。 sudo vim /etc/hostname 2.将配置文件中的主机名替换为修改后的主机名newhostname。 3.执行以下命令,保存并退出文件。 :wq 步骤 2 对于RHEL/CentOS/Fedora 6操作系统,需要修改配置文件“/etc/sysconfig/network”。 1.执行以下命令,编辑配置文件“/etc/sysconfig/network”。 sudo vim /etc/sysconfig/network 2.修改涉及“HOSTNAME”的参数值,将其设置为修改后的主机名newhostname。 HOSTNAMEnewhostname 3.执行以下命令,保存并退出文件。 :wq 步骤 3 修改配置文件“/etc/cloud/cloud.cfg”。 1.执行以下命令,编辑配置文件“/etc/cloud/cloud.cfg”。 sudo vim /etc/cloud/cloud.cfg 2.按需选择如下两种方法,修改配置文件。 方法一 :修改或添加“preservehostname”参数项。 如果文件“/etc/cloud/cloud.cfg”中已有参数项“preservehostname: false”,将其修改为“preservehostname: true”即可。 如果文件“/etc/cloud/cloud.cfg”中没有该参数项,需要在“cloudinitmodules”模块前,添加语句preservehostname: true。 方法二 :删除或者注释如下语句。 updatehostname 3.执行以下命令,保存并退出文件。 :wq 步骤 4 修改物理机网络配置脚本“bmsnetworkconfig.conf”。 “bmsnetworkconfig.conf”的配置参数“enablepreservehostname”默认为False,表示每次单板复位自动刷新主机名。将其修改为True即可关闭该功能。 1.编辑网络配置脚本“bmsnetworkconfig.conf”,将参数项“enablepreservehostname”设置为True。 首先进入配置文件目录: cd /opt/huaw/networkconfig sed i 's/enablepreservehostname./enablepreservehostname True/g' bmsnetworkconfig.conf 步骤 5 对于SUSE系列操作系统,还需要修改配置文件“/etc/sysconfig/network/dhcp”。 1.执行以下命令,编辑配置文件“/etc/sysconfig/network/dhcp”。 sudo vim /etc/sysconfig/network/dhcp 2.将参数项“DHCLIENTSETHOSTNAME”设置为no,保证每次dhcp服务不会自动分配主机名。 DHCLIENTSETHOSTNAME"no" 3.执行以下命令,保存并退出文件。 :wq 步骤 6 执行以下命令,重启物理机。 sudo reboot 步骤 7 执行以下命令,验证静态主机名的修改是否永久生效。 sudo hostname 如果回显的内容是修改后的主机名newhostname,表示主机名修改成功,永久生效。
        来自:
        帮助文档
        物理机 DPS
        常见问题
        操作系统类
      • 组播概述
        组播的定义 组播(Multicast)是一种网络通信模式,适用于需要将相同的数据从一个主机同时传送给多个接收者的应用。组播技术能够有效地解决单点发送、多点接收的问题,从而实现了网络中点到多点的高效数据传送,能够节约大量网络带宽、降低网络负载。利用组播技术可以方便地提供一些新的增值业务,包括在线直播、网络电视、远程教育、远程医疗、网络电台、实时视频会议等对带宽和数据交互的实时性要求较高的信息服务。 组播的优势 在点对多点的网络通信场景中,相对于单播和广播通信模式,组播通信模式可以帮助您减轻服务器负载并提高带宽的利用率。 单播方式的信息传输: 单播通信模式中,信息源要为每个需要信息的主机都发送一份独立的信息拷贝。采用单播方式时,网络中传输的信息量与需要该信息的用户量成正比,因此当需要该信息的用户数量较大时,信息源需要将多份内容相同的信息发送给不同的用户,这对信息源以及网络带宽都将造成巨大的压力。如下图1所示。 图1:单播方式的信息传输 从单播方式的信息传播过程可以看出,该传输方式不利于信息的批量发送。 广播方式的信息传输: 广播通信模式中,信息源将把信息传送给该网段中的所有主机,而不管其是否需要该信息。若将该信息在网段中进行广播,则原本不需要信息的主机也将收到该信息,这样不仅信息的安全性得不到保障,而且会造成同一网段中信息的泛滥。如下图2所示。 图2:广播方式的信息传输 从广播方式的信息传播过程可以看出,广播不利于与特定对象进行数据交互,并且还浪费了大量的带宽。 组播方式的信息传输: 在组播通信模式下,组播源仅需发送一份信息,借助组播路由协议建立组播分发树。在传输过程中,组播网关也只需要转发一份组播报文,在转发组播报文过程中,只需要依据客户端的位置,在客户端临近的组播网关上复制转发组播报文即可,有效减轻服务器负载,节省带宽。如下图3所示。 图3:组播方式的信息传输 综上所述,组播的优势归纳如下: 相比单播来说,组播的优势在于:由于被传递的信息在距信息源尽可能远的网络节点才开始被复制和分发,所以用户的增加不会导致信息源负载的加重以及网络资源消耗的显著增加。 相比广播来说,组播的优势在于:由于被传递的信息只会发送给需要该信息的接收者,所以不会造成网络资源的浪费,并能提高信息传输的安全性;另外,广播只能在同一网段中进行,而组播可以实现跨网段的传输。
        来自:
        帮助文档
        虚拟私有云 VPC
        组播
        组播概述
      • 磁盘增强型D6
        本节包含磁盘增强型弹性云主机D6的概述、使用须知、使用场景等内容。 概述 D6搭载第二代英特尔® 至强® 可扩展处理器,计算性能强劲稳定,提供1:4的vCPU和内存比实例。配套自研25GE智能高速网卡,提供超高网络带宽和PPS收发包能力;配套有本地SATA盘,单盘提升到3600GiB,最大支持36 × 3600GiB本地盘容量。 使用须知 1.当前支持如下版本的操作系统(最终以控制台展示的信息为准): CentOS 6.3/6.4/6.5/6.6/6.7/6.8/6.9/6.10/7.0/7.1/7.2/7.3/7.4/7.5/7.6/8.0 64bit SUSE Enterprise Linux Server 11 SP3/SP4 64bit SUSE Enterprise Linux Server 12 SP1/SP2/SP3/SP4 64bit Red Hat Enterprise Linux 6.4/6.5/6.6/6.7/6.8/6.9/6.10/7.0/7.1/7.2/7.3/7.4/7.5/7.6/8.0 64bit Windows Server 2008 R2 Enterprise 64bit Windows Server 2012 R2 Standard 64bit Windows Server 2016 Standard 64bit Debian 8.1.0/8.2.0/8.4.0/8.5.0/8.6.0/8.7.0/8.8.0/9.0.0 64bit EulerOS 2.2/2.3/2.5/2.9 64bit Fedora 22/23/24/25/26/27/28 64bit OpenSUSE 13.2/15.0/15.1/42.2/42.3 64bit 2.D6型弹性云主机所在的物理机发生故障时,不支持弹性云主机的迁移。部分宿主机硬件故障或亚健康场景,需要用户配合关闭ECS完成宿主机硬件维修动作。 因系统维护或硬件故障等,HA重新部署ECS实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。 3.不支持规格变更。 4.不支持本地盘的快照和备份。 5.可使用本地盘和云硬盘两类磁盘存储数据,通过挂载云硬盘,可以提供更大的存储空间。关于本地盘和云硬盘的使用,有如下约束与限制: 系统盘只能部署在云硬盘上,不可以部署在本地盘上。 数据盘可以部署在云硬盘和本地盘上。 最多可以挂载60块盘(包括VBD盘+SCSI盘+本地盘),其中,SCSI盘最多只能挂载30块,VBD盘最多只能挂载24块(含系统盘),详情请参见一台弹性云主机可以挂载多块磁盘吗。 说明 对于已创建的D6型云主机,最多可以挂载的磁盘数保持原配额。 6.您可以通过配置fstab文件,设置云主机系统启动时自动挂载磁盘分区。具体操作请参见设置开机自动挂载磁盘分区。 7.D6型弹性云主机的本地磁盘数据有丢失的风险(比如宿主机宕机或本地磁盘损坏时),如果您的应用不能做到数据可靠性的架构,我们强烈建议您使用云盘搭建您的弹性云主机。 8.删除D6型弹性云主机时,本地盘中的数据会被自动清除,请提前做好数据备份。删除本地盘数据的时间较长,因此,资源释放的时间较之常规云主机略长。 9.请勿在本地磁盘上存储需要长期保存的业务数据,并及时做好数据备份和采用高可用架构。如需长期保存,建议将数据存储在云硬盘上。 10.您不能单独购买本地盘,本地盘的数量和容量由您选择的弹性云主机规格决定,只能在创建D6型弹性云主机的同时购买本地盘。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        磁盘增强型
        磁盘增强型D6
      • 使用软件开发生产线快速搭建项目(CCE篇)(1)
        部署镜像 通过在部署服务中创建应用,将镜像部署自动化。 步骤 1 返回软件开发生产线页面,单击导航栏“持续交付 > 部署”,进入部署服务。 1. 单击“新建应用”,输入应用名称(本文中为“webdemok8s”),单击“下一步”。 步骤 2 选择“空白模板”,单击“确定”。 步骤 3 在步骤列表中搜索并添加步骤“Kubernetes快速部署(CCE集群)”,参考下表完成步骤配置。 表 配置部署步骤 配置项 配置建议 区域 选择集群所在的区域。 集群名称 选择准备工作中购买的集群名称。 命名空间名称 本文中选择“default”。 工作负载名称 选择“webdemo”。 容器名称 选择创建负载时,容器配置部分的容器名称。 步骤 4 单击“保存并部署”。 当页面显示时,表示测试通过。若部署失败,请参照《部署用户指南》排查。 配置流水线实现自动化更新镜像部署 通过配置流水线,将代码仓库、构建、部署串联起来,当代码仓库中发生代码提交动作时,可以自动触发流水线的执行,实现持续交付。 步骤 1 单击导航栏“持续交付 > 流水线”,进入流水线服务。 步骤 2 单击“新建流水线”,配置流水线信息。 1. 选择流水线源:配置以下信息,单击“下一步”。 表 流水线基本信息 配置项 配置建议 流水线源 选择“Repo”。 代码库名称 选择“phoenixsample”。 默认分支 选择“master”。 2. 选择模板:选择“空白模板”,单击“确定”。 步骤 3 选择“基本信息”页签,输入流水线名称“pipelinewebdemo”。 步骤 4 选择“工作流”页签,配置工作流。 1. 单击“构建和检查”阶段中的的“添加任务”。在右侧滑出框中配置构建任务,单击“保存”。 表 构建任务配置 配置项 配置建议 类型 选择“构建”。 名称 输入自定义名称。 请选择需要调用的任务 选择“WebDemodocker”。 仓库 选择“WebDemo”。 2. 单击“构建和检查”阶段后的,添加一个阶段。 图 添加阶段 3. 单击新增阶段名称后的,在右侧滑出框中输入名称“部署”,单击“保存”。 4. 参照步骤4.1,在部署阶段中添加应用“webdemok8s”,关联构建任务选择“WebDemodocker”。 步骤 5 选择“执行计划”页签,单击“持续集成”下的仓库名称,打开“代码提交时触发”开关,在分支过滤下拉列表中勾选分支“master”,单击“保存”。 步骤 6 进入代码仓库,搜索并打开文件“TestController.java”。 单击,将“hello world”修改为“hello world again”,输入提交信息后单击“确定”。 图 修改代码 步骤 7 返回流水线页面,可看到流水线正在运行中。 当页面显示时,重新访问页面“ 若任务执行失败,请于执行失败处检查失败原因,或参照《流水线常见问题》排查处理。 图 流水线执行结果
        来自:
      • 回源配置概述
        功能 说明 回源配置模块支持客户自定义源站。支持IP或域名,支持配置多个源站地址,多源站场景下,支持设置源站的主备优先级和权重,实现负载均衡。 回源协议指边缘加速节点回源站请求资源时使用的协议。配置该功能后,边缘加速节点将根据指定的协议回源。边缘加速支持HTTP回源协议、HTTPS回源协议、跟随客户端请求使用的协议回源三种回源协议。 源站端口,是指源站接收用户请求时所用的端口,一般http协议和https协议使用不同的源站端口。 当源站同时服务多个站点,且回源站点与加速域名不同时,您需要配置回源HOST,天翼云边缘加速产品在回源时会根据配置的回源HOST信息去访问对应站点。 如果一个源站IP地址绑定多个域名,且边缘加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源URI改写可以实现在用户请求回源时对回源URI进行改写,配置回源URI改写功能后,边缘加速节点向源站发起回源请求时将使用改写后的URI。 回源参数改写功能可改写回源请求URL中的查询参数,即问号后的参数值。可支持参数的新增、删除、修改,以及保留或忽略所有参数。 配置301/302跟随回源功能后,边缘加速节点会代替用户去处理源站响应的301/302状态码内容,即边缘加速节点会直接跳转到源站301/302响应中的Location地址请求资源,不会把源站响应的301/302跳转地址直接返回给用户,让用户自己去请求跳转地址的资源。 回源超时时间 回源请求超时时间是指在代理服务器向上游服务器(源服务器)发起请求时,等待接收上游服务器的响应所允许的最长时间,这个超时时间的设置对于应对上游服务器响应慢、连接问题或者其他异常情况至关重要。 加速域名的回源地址可以使用客户自有源站或者天翼云
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源配置概述
      • DRDS
        慢日志存储 开启DAS收集慢日志开关后,DAS会将SQL的文本内容存储到OBS中,以便进行分析。 删除慢日志 在慢SQL页面,您可以选择全部删除或者自定义删除指定时间段的慢日志信息。 说明 慢日志删除后无法恢复,请谨慎操作。 全量SQL洞察 在实例开启DAS收集全量SQL的前提下,该模块基于全量SQL数据进行分析,并提供多维度的分析、搜索、过滤的能力,帮助用户全面洞察SQL,TOP SQL快速定位异常原因,保障数据库稳定运行。 全量SQL洞察功能在对实例性能影响极小(5%以内)的情况下,记录了全量SQL,提供了访问最频繁、更新最频繁的表,锁等待时间最长的SQL等多维度的分析、搜索、过滤能力。 使用须知 关闭DAS收集全量SQL后,DAS将不再采集您新产生的SQL,已经收集的SQL也会被删除,请您谨慎操作。 TOP SQL执行耗时分布 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“全量SQL洞察”,进入全量SQL洞察页面。 单击“开启DAS收集全量SQL”,可获取当前实例所执行过的SQL信息。 说明 DAS收集全量SQL功能开启后立即生效。 在“TOP SQL”页签中,查看TOP SQL执行耗时分布情况。 您可以根据需要设置时间段,选择“近1小时”、“近3小时”、“近6小时”,查看当前时间段内的TOP SQL执行耗时分布。也可以选择上述以外时间段进行查看,间隔不得超过一天。 执行耗时分布展示了选定时间范围内所有SQL的执行耗时分布,共分为以下4个区间。 l 1s:执行耗时>1s的SQL执行次数 上述4个区间内的SQL执行次数是根据用户选择的时间段来计算的。 如果用户选择1小时以内(包括1小时)的时间段,执行耗时分布每10秒计算一次。 如果用户选择6小时以内(包括6小时)的时间段,执行耗时分布1分钟计算一次。 如果用户选择大于6小时的时间段,执行耗时分布每5分钟计算一次。 查看TOP SQL列表,获取执行耗时信息。例如平均执行耗时、总耗时、 平均锁等待耗时、平均扫描行数等。 单击执行耗时分布图上的某个点,查看该时间点的TOP SQL列表。 在执行耗时分布图上用鼠标选择一段时间,查看该段时间的Top SQL列表。 单击“导出”可导出当前列表里显示的TOP SQL信息。此功能仅限付费实例使用,免费实例暂不支持导出功能。 单击操作栏的“详情”按钮,可以查看该执行SQL的详细执行信息。例如总执行次数、平均扫描行数、平均执行耗时等信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        DRDS
      • 登录数据库实例
        本节介绍了登录数据库实例的相关内容。 本文介绍如何在数据管理服务中登录数据库。 数据库实例创建成功后,数据管理服务会自动创建一条管理员账号的实例登录信息,输入密码即可登录数据库实例。 如果您想使用其他非管理员账号登录该数据库实例,您需要先新建一条数据库实例登录信息。具体操作请参见新增数据库实例登录信息。 使用须知 支持的数据库实例为:RDS for MySQL、RDS for PostgreSQL、RDS for SQL Server、DDS、TaurusDB、GaussDB、DRDS。 创建的数据库实例需要和数据管理服务在同一个Region下。 支持通过ipv6地址连接和管理数据库实例。 登录数据库实例 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 单击页面左上角的 ,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 步骤 4 在左侧导航栏中,单击“开发工具”,进入开发工具页面。 步骤 5 选择需要登录的数据库实例,单击操作列表中的“登录”。 首次登录时需要输入密码,如果首次登录时勾选了记住密码,后续登录不需要重复输入密码。 结束 新增数据库实例登录信息 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 单击页面左上角的 ,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 步骤 4 在左侧导航栏中,单击“开发工具”,进入开发工具页面。 步骤 5 在“由我创建的数据库实例连接”页面,单击“新增数据库实例连接”,打开新增数据库登录窗口。 步骤 6 设置数据库实例连接信息。 表 参数说明 参数名称 说明 示例 数据库引擎 选择需要新增登录信息的数据库引擎。 MySQL 数据来源 数据来源取决于您所选的数据库引擎类型。 当您选择数据来源后,页面会自动显示该账号下的所有当前类型下的实例,您可以在数据库实例列表中选择需要新增登录信息的实例。 目前支持如下数据来源。 RDS DDS DRDS RDS 登录用户名 登录数据库的用户名。 该用户需要具有允许DAS的IP连接数据库的权限。 root 密码 登录数据库的用户密码。 您可以勾选记住密码,后续登录时不用重复输入密码。 描述 非必填项。 SQL执行记录 开启SQL执行记录后,允许DAS将您在SQL窗口中执行的SQL语句保存下来。 建议您开启SQL执行记录,开启后,便于在“SQL操作 > SQL执行记录”中查看,并可再次执行,无需重复输入。 开启 步骤 7 数据库实例信息设置完成后,单击密码右侧的“测试连接”。  如果测试连接成功,继续进行步骤8。  如果测试连接失败,将提示连接失败原因,您需要根据提示信息修改,修改完成后,继续进行步骤8。 步骤 8 测试连接成功后,单击“确定”。 步骤 9 在“由我创建的数据库实例连接”页面可以查看新建数据库实例连接信息。 您还可以单击操作列的“修改”来修改实例登录信息,或者单击“删除”来删除不需要的实例登录信息。 结束
        来自:
        帮助文档
        数据管理服务
        用户指南
        登录数据库实例
        登录数据库实例
      • 负载均衡(LoadBalancer)
        ELB转发说明 LoadBalancer类型Service创建完后,可以在ELB控制台查看ELB实例的监听器转发规则,如下所示。 图 ELB转发说明 可以看到这个ELB实例创建了一个监听器,其后端服务器地址是Pod的IP地址,业务端口是容器端口。这是因为Pod使用了ENI或SubENI,ELB会直通Pod,当有流量通过ELB请求时,会直接转发给Pod,从而访问到Pod,这跟操作场景中所述是一致的。 ELB直通容器场景(CCE Turbo + 独享型ELB实例)下,LoadBalancer类型Service创建完后,可以在ELB控制台查看ELB实例的监听器转发规则,如下所示。 图 ELB转发说明 Service使用HTTP 说明 Service使用HTTP仅v1.19.16及以上版本集群支持。 CCE控制台当前仅支持自动创建4层独享型ELB实例,此种情况下无法使用HTTP能力,在控制台创建Service使用HTTP时请选择对接已有独享型ELB实例。 请勿将Ingress与使用HTTP的Service对接同一个ELB下的同一个监听器,否则将产生端口冲突。 Service支持使用ELB的7层能力,共享型和独享型ELB都支持对接。 独享型ELB实例有如下限制: 对接已有的独享型ELB实例,需要 独享型ELB实例同时支持4层和7层的flavor ,否则会功能不可用。 使用自动创建的ELB实例,注意 同时使用独享型ELB实例的4层和7层能力 ,需要在kubernetes.io/elb.autocreate的annotation中指定4层和7层flavor。 使用ELB的7层能力时,需要添加如下annotation kubernetes.io/elb.protocolport : "https:443,http:80" protocolport的取值需要和service的spec.ports字段中的端口对应,格式为protocol:port,port中的端口会匹配service.spec.ports中端口,并将该端口发布成对应的protocol协议。 kubernetes.io/elb.certid : "17e3b4f4bc40471c86741dc3aa211379" certid内容为ELB证书管理的证书ID,当protocolport指定了https协议,ELB监听器的证书会设置为certid证书,当发布多个HTTPS的服务,会使用同一份证书。 配置示例如下,其中spec.ports中两个端口与kubernetes.io/elb.protocolport中对应,443端口、80端口分别发布成HTTPS、HTTP协议。 apiVersion: v1 kind: Service metadata: annotations: kubernetes.io/elb.autocreate: ' { "type": "public", "bandwidthname": "ccebandwidth1634816602057", "bandwidthchargemode": "bandwidth", "bandwidthsize": 5, "bandwidthsharetype": "PER", "eiptype": "5bgp", "availablezone": [ "cnnorth4b" ], "l7flavorname": "L7flavor.elb.s2.small", "l4flavorname": "L4flavor.elb.s1.medium" }' kubernetes.io/elb.class: performance kubernetes.io/elb.protocolport: "https:443,http:80" kubernetes.io/elb.certid: "17e3b4f4bc40471c86741dc3aa211379" labels: app: nginx name: test name: test namespace: default spec: ports: name: cceservice0 port: 443 protocol: TCP targetPort: 80 name: cceservice1 port: 80 protocol: TCP targetPort: 80 selector: app: nginx version: v1 sessionAffinity: None type: LoadBalancer 使用上面的示例创建Service,在新建的ELB实例中可以看到创建了443端口和80端口的监听器。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        Service
        负载均衡(LoadBalancer)
      • 网络概述
        本文主要介绍 网络概述。. 关于集群的网络,可以从如下两个角度进行了解: 集群网络是什么样的:集群由多个节点构成,集群中又运行着Pod(容器),每个Pod都需要访问,节点与节点、节点与Pod、Pod与Pod都需要访问。那集群中包含有哪些网络,各自的用处是什么,具体请参见集群网络构成。 集群中的Pod是如何访问的:访问Pod就是访问容器,也就是访问用户的业务,Kubernetes提供Service和Ingress来解决Pod的访问问题。本章节根据用户使用场景总结了常见的网络访问场景,让您能够在不同使用场景下选择合适的使用方法。 集群网络构成 集群中节点都位于VPC中,节点使用VPC的网络,容器的网络是使用专门的网络插件来管理。 节点网络 节点网络为集群内主机(节点,图中的Node)分配IP地址,您需要选择VPC中的子网用于CCE集群的节点网络。子网的可用IP数量决定了集群中可以创建节点数量的上限(包括Master节点和Node节点),集群中可创建节点数量还受容器网络的影响,在容器网络模型中会进一步说明。 容器网络 为集群内容器分配IP地址。CCE继承Kubernetes的IPPerPodPerNetwork的容器网络模型,即每个Pod在每个网络平面下都拥有一个独立的IP地址,Pod内所有容器共享同一个网络命名空间,集群内所有Pod都在一个直接连通的扁平网络中,无需NAT可直接通过Pod的IP地址访问。Kubernetes只提供了如何为Pod提供网络的机制,并不直接负责配置Pod网络;Pod网络的具体配置操作交由具体的容器网络插件实现。容器网络插件负责为Pod配置网络并管理容器IP地址。 当前CCE支持如下容器网络模型。 容器隧道网络:容器隧道网络在节点网络基础上通过隧道封装另构建的独立于节点网络平面的容器网络平面,CCE集群容器隧道网络使用的封装协议为VXLAN,后端虚拟交换机采用的是openvswitch,VXLAN是将以太网报文封装成UDP报文进行隧道传输。 VPC网络:VPC网络采用VPC路由方式与底层网络深度整合,适用于高性能场景,节点数量受限于虚拟私有云VPC的路由配额。每个节点将会被分配固定大小的IP地址段。VPC网络由于没有隧道封装的消耗,容器网络性能相对于容器隧道网络有一定优势。VPC网络集群由于VPC路由中配置有容器网段与节点IP的路由,可以支持集群外直接访问容器实例等特殊场景。 不同容器网络模型,容器网络的性能、组网规模、适用场景各不相同,在容器网络模型对比章节,将会详细介绍不同容器网络模型的功能特性,了解这些有助于您选择容器网络模型。 服务网络 服务(Service)是Kubernetes内的概念,每个Service都有一个固定的IP地址,在CCE上创建集群时,可以指定Service的地址段(即服务网段)。服务网段不能和节点网段、容器网段重叠。服务网段只在集群内使用,不能在集群外使用。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        网络概述
      • 自主访问权限控制
        本页介绍天翼云TeleDB数据库自主访问权限控制。 权限管理 TeleDB采用三权分立体系,将数据库系统角色分为安全员、审计员和管理员。每个角色都被赋予不同的权限,三个角色相互独立、相互制约,从而消除系统中的超级权限,从系统角色设计上保障数据安全。 安全员 负责独立完成安全策略制定,包括强制访问、脱敏和加密策略。 审计员 负责独立完成审计策略制定,所有操作都可以被审计,包括审计员操作记录。 管理员 具备自主访问控制权限、运维权限,但不可干预安全员和审计员的操作。 TeleDB管控台用户账号密码管理 TeleDB支持对管控台账号进行定期检查,检查内容包括: 兼容四位版本解析。 账号名命名的规范性。 离职用户账号、临时账号是否有及时删除或禁止。 角色权限设置是否合理。 导出近3个月控制台日志,查阅是否有未预估的操作。 独立设置账号权限的,权限范围。 密码设置要求:禁止使用弱密码,密码必须超过8个字符,包含大小写英文字母、数字、特殊字符,其中特殊字符至少3个。 说明 安装完成后,为了确保数据库安全,建议删除管理系统和内核初始账号或修改初始密码。 TeleDB管控台角色管理 您可通过如下操作对角色权限进行管理。 1. 以用户名和密码登录TeleDBDCP数据库管理平台。 2. 在左侧导航树选择安全中心 > 角色管理 ,进入角色管理页面 3. 创建角色 (1) 在角色管理页面,单击创建角色,出现创建角色弹框。 (2) 在创建角色弹框,输入角色名称,权限类型选择TeleDB,勾选对应的权限,单击确定,完成权限的添加。 4. 编辑角色 单击目标角色所在的编辑按钮,修改对应的权限。 5. 删除角色 单击目标角色所在行的删除按钮,即可删除对应的权限。 6. 查看角色详情 单击目标角色所对应的详情,即可查看该角色所对应的具体权限。 7. 查看角色列表。 您可根据权限名称和角色进行搜索。 说明 权限包括超级管理员、租户管理员、操作员、管理员、只读和自定义。 数据库账号密码管理 账户和密码是连接数据库实例的凭证,客户端凭据账户和密码连接数据库实例时,服务器会判断用户身份,并分发对应的权限给客户端,与管控的账号和密码没有必然联系。 为保证连接实例的账户和密码安全性,有如下安全限制: 账号最多16个字符长度,建议由字母、数字、下划线组成,字母开头,字母或数字结尾。 如设置账号为临时账号,支持设置账号的过期时间,支持限制周期1天、7天、31天、90天以及永不过期。 密码应由864个字符组成,必须包含大小写英文字母、数字、特殊字符,其中特殊字符至少3个。 密码用password()函数转换成长度为40的字符串后存入系统表中,使用安全Hash算法。 系统根据规则提供随机密码。支持切换为弱密码模式,弱密码模式为不存在上述限制要求,该模式开启后存在安全风险,不建议开启。 密码最长使用期限不超过90天,建议每3个月更换一次账号密码。 限制客户端的IP连接方式,支持 IP、IP 段、%三种形式。 限制账户的最大并发连接数,0代表无限制。 限制账号读写方式,根据业务场景选择正常账号、只读账号、DCN读写分离账号。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        访问控制
        自主访问权限控制
      • 日志存储
        本章节为媒体存储日志存储概述。 使用场景 媒体存储日志存储功能支持自动把桶的各类访问请求记录日志,并存储到某一存储桶中,适合对请求有分析或审计等需求的用户使用。 日志文件存放位置需要在开启桶日志存储功能时指定,仅支持在源存储桶所属区域中选择存储桶,也包括开启日志功能的桶本身。 日志记录设置成功后,大约5~10分钟后可在日志存储桶中查看到桶的操作日志。 为了更有效的管理日志,建议您将日志存放到不同的桶中。 日志文件记录的是通过API或SDK方式进行的S3协议操作。 生成的日志文件会保存在指定的存储桶,占用存储空间,因此会产生存储费用。如需定时清理,可通过生命周期相关配置实现,具体可参考:生命周期。 日志文件生成规则: 日志文件存储路径:日志存储位置 /日志文件前缀(如无设置则省略)/YYYY MM DD HHmmssUniqueStiring 。 生成周期:启用规则后开始生成,并且以5分钟为单位保存至日志存储位置中。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 日志文件参数 以下所示为生成的桶访问日志文件记录: gdoss.xstore.ctyun.cn [$serveraddr] [$remoteaddr] [$timelocal] "$requestmethod" "$host" "$requesturi" $status $bodybytessent $contentlength "$httpreferer" $requesttime "$httpuseragent" "$httpxforwardedfor" "$scheme" "$opname" "$httptransferencoding" "$httpctyunnetworktype" "$varUser" "$upstreamresponsetime" 访问日志主要包含如下信息: 参数 说明 gdoss.xstore.ctyun.cn 资源池域名,用来标记资源池。 $serveraddr 当前服务器地址,一般是内网IP。 $remoteaddr 连接的对端服务器地址。 $timelocal 日志时间。 $requestmethod HTTP Method,如PUT、GET、DELETE、POST、HEAD等。 $host HTTP请求里面的header字段:host。 $requesturi HTTP请求里面的URI。 $status HTTP状态码。如200、204、206、403、404等。 $bodybytessent 服务端发送给客户端的消息body长度。 $contentlength 服务端收到的消息的请求的长度。 $httpreferer HTTP请求里面的referer字段。 $requesttime 请求持续时间。包含从服务端建立连接完成到完成响应这段时间。 $httpuseragent HTTP请求里面的useragent字段。 $httpxforwardedfor HTTP请求里面的xforwardedfor字段。 $scheme 区分HTTP还是HTTPS请求。 $opname API接口名称。如GetObject、ListBuckets等等。 $httptransferencoding HTTP请求里面的transferencoding。 $httpctyunnetworktype 表示请求来源的网络类型:public(公网)、private(内网)。 $varUser 用户标记,表示这个请求对应的用户。 $upstreamresponsetime 请求在资源池内部的处理时间。 日志文件内容根据开通的区域不同,格式会有一定出入,请以实际为准。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        日志存储
      • 转储至OBS
        参数名称 说明 样例 字段是否可删除 日志组名称 选择已创建的日志组。 是 日志流名称 选择已创建的日志流。 是 转储方式 选择转储的云服务。 OBS 是 OBS桶 选择已创建的OBS桶。− 如果没有可选择的OBS桶,单击“查看OBS”,进入对象存储服务管理控制台,创建OBS桶。− 如果OBS桶为加密桶,则需要选择“密钥名称”,并勾选下方的“我同意在KMS创建授权给LTS账号,对转储日志加解密”。LTS目前仅支持存储类别为“标准存储”的OBS桶。 是 密钥名称 对于加密的OBS桶,选择密钥名称。如果没有可选择的密钥,单击“创建密钥并授权”,进入数据加密控制台,创建密钥。 是 自定义转储路径 开启:将日志转储至自定义路径中,用于区分不同日志流之间的转储日志文件。格式为:/LogTanks/RegionName/ 自定义转储路径 。自定义转储路径默认为lts/%Y/%m/%d,其中%Y代表年,%m代表月,%d代表日,格式需要符合如下规范:− “/LogTanks/RegionName”为系统默认路径,不可以修改。− 名称只能由英文字母、数字及特殊字符“&”“$”“@”“;”“:”“,”“”“+”“?”“”“.”“”“/”和“%”组成,且“%”后只可跟Y(年)、m(月)、d(日)、H(时)、M(分),在%Y、%m、%d、%H和%M前后可以添加任意长度字符,并且可对其先后顺序进行调换。− 自定义转储路径名称不允许为空,长度限制为1~128个字符。 示例: 1. 输入LTStest/%Y/%m/%done/%H/%m,则日志转储路径为:LogTanks/RegionName/LTStest/Y/m/done/H/m/ 日志文件名称。 2. 输入LTStest/%d/%H/%m/%Y,则日志转储路径为: LogTanks/RegionName/LTStest/d/H/m/Y/ 日志文件名称。 不开启:将日志转储至系统默认路径中。系统默认路径为:LogTanks/RegionName/ 2019/01/01/日志组/日志流/ 日志文件名称 。 LTStest/%Y/%m/%done/%H/%m 否 日志文件前缀 转储至OBS桶中的日志文件前缀。日志文件前缀需符合如下规范:l 名称长度限制为0~64个字符。 名称只能由英文大小写字母、数字、中划线“”、下划线“”和小数点“.”组成。 示例:输入LTSlog,则日志文件名称为:LTSlog日志文件名称。 LTSlog 否 转储格式 用于配置日志的转储格式,可选择“原始日志格式”和“Json格式”。原始日志格式示例:云日志服务控制台展示的日志内容的格式为原始日志格式。Sep 30 07:30:01 ecsbd70 CRON[3459]: (root) CMD (/opt/oss/servicemgr/ICAgent/bin/manual/mstart.sh > /dev/null 2>&1) JSON格式示例:{"hostname":"ecsbd70","ip":"192.168.0.54","lineno":249,"message":"Sep 30 14:40:01 ecsbd70 CRON[4363]: (root) CMD (/opt/oss/servicemgr/ICAgent/bin/manual/mstart.sh > /dev/null 2>&1)n","path":"/var/log/syslog","time":1569825602303} Json 否 是否开启转储 选择开启转储到OBS。 开启 否 转储周期 日志自动转储至OBS桶的时间间隔,支持2分钟、5分钟、30分钟、1小时、3小时、6小时、12小时。 3小时 否 文件名时区 日志自动转储至OBS桶时,按照UTC时间生成转储目录及文件名称。 (UTC)协调世界时间 否 GAUSSDBREDIS慢日志 根据GAUSSDBREDIS资料中提供的日志字段被定义。 否 否 自定义模板 用户自定义。 是 是
        来自:
        帮助文档
        云日志服务
        用户指南
        日志转储
        转储至OBS
      • 管理单个作业
        本章节主要介绍管理单个作业。 已存在的CDM作业支持查看、修改、删除、启动、停止等操作,这里主要介绍作业的查看和修改。 查看 查看作业状态 作业状态有New,Pending,Booting,Running,Failed,Succeeded。 其中“Pending”表示正在等待系统调度该作业,“Booting”表示正在分析待迁移的数据。 查看历史记录 查看作业的历史执行记录、读取和写入的统计数据,在历史记录界面还可查看作业执行的日志信息。 查看作业日志 在历史记录界面可查看作业所有的日志。 也可以在作业列表界面,选择“更多 > 日志”来查看该作业最近的一次日志。 查看作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置 源目的统计查询 可对已经配置好的数据库类作业打开预览窗口,预览最多1000条数据内容。可对比源和目的端的数据,也可以通过对比记录数来看迁移结果是否成功、数据是否丢失。 查看历史作业 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 修改 修改作业参数 可重新配置作业参数,但是不能重新选择源连接和目的连接。 编辑作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置。 操作步骤 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择集群后的“作业管理”。 2.单击“历史作业”可以查看最近1个月所有执行过的历史作业。 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 3.单击“表/文件迁移”显示作业列表,可对单个作业执行如下操作: 修改作业参数:单击作业操作列的“编辑”可修改作业参数。 运行作业:单击作业操作列的“运行”可手动启动作业。 查看历史记录:单击作业操作列的“历史记录”进入历史记录界面,可查看该作业的历史执行记录、读取和写入的统计数据。在历史记录界面单击“日志”,可查看作业执行的日志信息。 删除作业:选择作业操作列的“更多 > 删除”可删除作业。 停止作业:选择作业操作列的“更多 > 停止”可停止作业。 查看作业JSON:选择作业操作列的“更多>查看作业JSON”,可查看该作业的JSON定义。 l编辑作业JSON:选择作业操作列的“更多>编辑作业JSON”,可直接编辑该作业的JSON文件,作用等同于修改作业的参数配置。 配置定时任务:选择作业操作列的“更多 > 配置定时任务”,可选择在有效期内周期性启动作业,具体请参考 配置定时任务。 4.修改完成后单击“保存”或“保存并运行”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        管理单个作业
      • MySQL数据迁移到OBS
        创建OBS连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 详见下图:选择连接器类型 2.连接器类型选择“对象存储服务(OBS)”后,单击“下一步”配置OBS连接参数。 名称:用户自定义连接名称,例如“obslink”。 OBS服务器、端口:配置为OBS实际的地址信息。 访问标识(AK)、密钥(SK):登录OBS的AK、SK。 3.单击“保存”回到连接管理界面。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到OBS的任务。 详见下图: 创建MySQL到OBS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建MySQL连接中的“mysqllink”。 −使用SQL语句:否。 −模式或表空间:待抽取数据的模式或表空间名称。 −表名:要抽取的表名。 −其他可选参数一般情况下保持默认即可,详细说明请参见配置常见关系数据库源端参数。 目的端作业配置 −目的连接名称:选择创建OBS连接中的“obslink”。 −桶名:待迁移数据的桶。 −写入目录:写入数据到OBS服务器的目录。 −文件格式:迁移数据表到文件时,文件格式选择“CSV格式”。 −高级属性里的可选参数一般情况下保持默认既可,详细说明请参见 配置OBS目的端参数。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段,如下图“表到文件的字段映射”所示。 如果字段映射顺序不匹配,可通过拖拽字段调整。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。CDM支持并发抽取MySQL数据,如果源表配置了索引,可调大抽取并发数提升迁移速率。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入脏数据前需要先配置好OBS连接。针对文件到表类迁移的数据,建议配置写入脏数据。 作业运行完是否删除:这里保持默认值“不删除”。根据使用场景,也可配置为“删除”,防止迁移作业堆积。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MySQL数据迁移到OBS
      • 通过Flink作业处理OBS数据
        准备测试数据 在创建Flink作业进行数据分析前,我们需要在提前准备待分析的测试数据,并将该数据上传至OBS文件系统中。 1. 本地创建一个“mrsflinktest.txt”文件,例如文件内容如下: This is a test demo for MRS Flink. Flink is a unified computing framework that supports both batch processing and stream processing. It provides a stream data processing engine that supports data distribution and parallel computing. 2. 在云服务列表中选择“存储 > 对象存储服务”,登录OBS管理控制台。 3. 单击“并行文件系统”,创建一个并行文件系统,并上传测试数据文件。 详见下图:创建并行文件系统 例如创建的文件系统名称为“mrsdemodata”,单击系统名称,在“文件”页面中,新建一个文件夹“flink”,上传测试数据至该目录中。 则本示例的测试数据完整路径为“obs://mrsdemodata/flink/mrsflinktest.txt”。 详见下图:上传测试数据 4. (可选)上传数据分析应用程序。 使用管理台界面直接提交作业时,将已开发好的Flink应用程序jar文件也可以上传至OBS文件系统中,或者MRS集群内的HDFS文件系统中。 本示例中我们使用MRS集群内置的Flink WordCount样例程序,可从MRS集群的客户端安装目录中获取,即“/opt/client/Flink/flink/examples/batch/WordCount.jar”。 将“WordCount.jar”上传至“mrsdemodata/program”目录下。 创建并运行Flink作业 方式 1 :在控制台界面在线提交作业。 1. 登录MRS管理控制台,单击MRS集群名称,进入集群详情页面。 2. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“单击同步”进行IAM用户同步。 3. 单击“作业管理”,进入“作业管理”页签。 4. 单击“添加”,添加一个Flink作业。 作业类型:Flink 作业名称:自定义,例如flinkobstest。 执行程序路径:本示例使用Flink客户端的WordCount程序为例。 运行程序参数:使用默认值。 执行程序参数:设置应用程序的输入参数,“input”为待分析的测试数据,“output”为结果输出文件。 例如本示例中,我们设置为“input obs://mrsdemodata/flink/mrsflinktest.txt output obs://mrsdemodata/flink/output”。 服务配置参数:使用默认值即可,如需手动配置作业相关参数,可参考运行Flink作业。 5. 确认作业配置信息后,单击“确定”,完成作业的新增,并等待运行完成。 方式 2 :通过集群客户端提交作业。 1. 使用root用户登录集群客户端节点,进入客户端安装目录。 su omm cd /opt/client source bigdataenv 2. 执行以下命令验证集群是否可以访问OBS。 hdfs dfs ls obs://mrsdemodata/flink 3. 提交Flink作业,指定源文件数据进行消费。 flink run m yarncluster /opt/client/Flink/flink/examples/batch/WordCount.jar input obs://mrsdemodata/flink/mrsflinktest.txt output obs://mrsdemo/data/flink/output2 ... Cluster started: Yarn cluster with application id application16546723745620011 Job has been submitted with JobID a89b561de5d0298cb2ba01fbc30338bc Program execution finished Job with JobID a89b561de5d0298cb2ba01fbc30338bc has finished. Job Runtime: 1200 ms
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        数据分析
        通过Flink作业处理OBS数据
      • 公网NAT网关
        参数 参数说明 目的地址 目的地址网段。 下一跳类型 下一跳资源类型选择“NAT网关”。 下一跳 下一跳资源选择创建的公网NAT网关。 描述 路由的描述信息,非必填项。描述信息内容不能超过255个字符,且不能包含“<”和“>”。
        来自:
        帮助文档
        NAT网关
        常见问题
        公网NAT网关
      • 天翼云AOne SDK儿童个人信息保护政策及监护人须知
        本文提供天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK 儿童个人信息保护政策及监护人须知 儿童个人信息保护政策及监护人须知发布日期:【2025年5月13日】 本须知仅适用于由天翼云科技有限公司提供的天翼云边缘安全加速平台零信任服务天翼云AOne SDK服务。 版本生效日期:【2025年5月13日】 如果您有任何疑问、意见或建议,请通过以下联系方式与我们联系: 电子邮件:service@chinatelecom.cn;ctpip.ctyun@chinatelecom.cn 电话:4008109889 天翼云门户:管理中心新建工单;智能客服 为了更好地在您使用我们服务的过程中保障您的个人信息,我们对《 天翼云AOne SDK儿童个人信息保护政策及监护人须知 》进行了更新,此版本主要更新内容包括: 1、更新天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK产品由天翼云科技有限公司(“天翼云”)运营,是一款为移动应用开发者(以下简称“开发者”)提供调用零信任内网连接等能力服务的软件开发工具包(SDK)。我们致力于保护儿童个人信息,本须知中的“儿童”,是指满14周岁的未成年人。为此,我们专门制定了《天翼云AOne SDK儿童个人信息保护政策及监护人须知》(简称“本须知”),向您说明我们处理儿童个人信息的规则。您作为儿童的父母或其他监护人(统称“监护人”),请在您或您所监护的儿童(简称“被监护人”)使用本应用前务必仔细阅读并充分理解本须知,特别是以粗体标识的条款应重点阅读,在确认充分理解并同意全部条款后再开始使用或允许您的孩子使用。 本须知为在《天翼云AOne SDK隐私和信息处理规则》基础上制定的特别规则,除另有约定外,本须知所用术语和缩略词与《天翼云AOne SDK隐私和信息处理规则》中的术语和缩略词具有相同的涵义;与《天翼云AOne SDK隐私和信息处理规则》如有不一致之处,以本须知为准;本须知未载明之处,适用《天翼云AOne SDK隐私和信息处理规则》。为了维护儿童的合法权益,儿童应当在其监护人的指导下使用我们的服务。 《天翼云AOne SDK隐私和信息处理规则》详见天翼云AOne SDK隐私和信息处理规则 监护人特别说明: 您的理解和配合对我们保护被监护人的个人信息和隐私安全非常必要,为了维护被监护人的合法权益,我们希望您可以协助我们,确保被监护人在您的同意和指导下使用本应用和向我们提交个人信息。我们将根据本须知采取特殊措施保护我们获得的被监护人的个人信息。请您仔细阅读和选择是否同意本声明。如果您不同意本须知的内容,请您要求被监护人立即停止访问/使用我们的产品及服务。 儿童特别说明: 任何儿童参加网上活动都应事先取得监护人的同意。如果您是儿童,请务必通知您的监护人共同阅读本须知,并在您使用我们的产品及服务、提交个人信息之前,寻求您的监护人的同意和指导。 我们严格按照《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》 《 电信和互联网用户个人信息保护规定》(工业和信息化部令第 24 号)《儿童个人信息网络保护规定》等法律法规的相关要求,在业务活动中处理儿童的个人信息。 本部分向您告知以下内容: 一、我们如何收集和使用儿童的个人信息 二、我们如何共享、转让和公开披露儿童的个人信息 三、我们如何存储儿童的个人信息 四、我们如何保护儿童的个人信息 五、我们如何管理儿童的个人信息 六、本须知的适用 七、本须知的修订 八、如何联系我们 一、我们如何收集和使用儿童的个人信息 1.1 在儿童使用我们的产品及服务过程中,我们会严格履行法律法规规定的儿童个人信息保护义务与责任,遵循正当必要、知情同意、目的明确、安全保障、依法利用的原则,在征得监护人的同意后收集和使用儿童个人信息。具体请查阅《天翼云AOne SDK隐私和信息处理规则》“各业务功能中的用户信息收集使用规则”章节,详细了解我们收集和使用的儿童个人信息。 1.2 此外,我们也会通过Cookie等同类技术自动收集您或被监护人的个人信息,具体请您查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何使用 Cookie和同类技术”章节进行详细了解。 1.3 我们提供的与儿童有关的服务是不断发展的。如我们需要超出上述收集范围收集您或被监护人的个人信息,我们将再次告知您,并征得您的同意。 1.4 根据相关法律法规规定,以下情形中收集儿童的信息无需征得儿童监护人的授权同意: (1)与我们履行法律法规规定的义务相关的; (2)与国家安全、国防安全、公共安全、公共卫生、重大公共利益有关的; (3)与犯罪侦查、起诉、审判和判决执行等有关的; (4)出于维护儿童的生命、财产等重大合法权益但又很难得到监护人同意的; (5)所收集的信息是儿童或监护人自行向社会公众公开的; (6)从合法公开披露的信息中收集信息的,如合法的新闻报道、政府信息公开等渠道; (7)根据与您或被监护人签订和履行相关协议或其他书面文件所必需的; (8)法律法规规定的其他情形。 请您理解,您可以选择是否填写或向我们提供特定的信息,但您如果不填写或提供某些特定的信息,将可能导致我们的产品及服务无法正常运行,或者无法达到我们拟达到的服务效果,您和被监护人可能无法正常使用我们的产品、服务或相关的具体业务功能。 二、我们如何共享、转让和公开披露儿童的个人信息 我们承诺对儿童个人信息进行严格保密,我们遵照法律法规的规定,严格限制共享、转让、披露儿童个人信息的情形,仅在《天翼云AOne SDK隐私和信息处理规则》约定和您明确授权同意的情况下对外提供儿童信息。 除了《天翼云AOne SDK隐私和信息处理规则》“我们如何共享、转让、公开披露您的个人信息”章节部分所述的内容外,对于儿童个人信息,我们还将会采取如下措施来保护儿童个人信息在共享、转让和公开披露过程中的安全: 2.1 如果为了本须知所述目的而需要将儿童信息共享至第三方,我们将评估该第三方收集儿童个人信息的合法性、正当性、必要性,并采用加密、匿名化、去标识化处理等手段保障您和被监护人的信息安全。 2.2 我们将要求第三方对儿童个人信息采取保护措施,并且严格遵守相关法律法规与监管要求。我们会要求接收儿童个人信息的第三方遵守严格的保密义务及采取有效的保密措施,禁止其将这些儿童个人信息用于未经儿童及其监护人授权的用途,并要求受托公司依法履行以下义务: (1)按照法律、行政法规的规定和我们的要求处理儿童个人信息; (2)协助我们回应儿童监护人提出的申请; (3)采取措施保障信息安全,并在发生儿童个人信息泄露安全事件时,及时向我们反馈; (4)委托关系解除时及时删除儿童个人信息; (5)不得转委托; (6)其他依法应当履行的儿童个人信息保护义务。 2.3 另外,我们会按照法律法规的要求征得您的同意,或确认第三方已经征得您同意。 三、我们如何储存儿童的个人信息 3.1 我们在中华人民共和国境内运营中收集和产生的儿童个人信息,将存储在中国境内(为本须知之目的,不含香港、澳门、台湾地区)。 3.2 我们会采取合理可行的措施,尽力避免收集和处理无关的儿童的个人信息。我们只会在达成本须知所述目的所需的期限内保留儿童的个人信息,除非法律有强制的留存要求。关于我们如何确定儿童个人信息存储期限请参见《天翼云AOne SDK隐私和信息处理规则》“我们如何保存您的个人信息或关联组织信息”章节。如我们终止服务或运营,我们将及时停止继续收集儿童个人信息的活动,同时会遵守相关法律法规要求提前向您通知,并在终止服务或运营后对儿童的个人信息进行删除或匿名化处理,但法律法规或监管部门另有规定的除外。 四、我们如何保护儿童的个人信息 我们非常重视儿童的隐私安全,并采取一切合理可行的措施保护儿童个人信息: 4.1 我们会严格控制儿童个人信息的访问权限,对可能接触到儿童个人信息的工作人员采取最小够用授权原则,并采取技术措施对处理儿童个人信息的行为进行记录和管控,避免违法复制、下载儿童个人信息。 4.2 我们会定期组织内部相关人员进行培训,使其掌握岗位职责和应急处置策略和规程。在不幸发生儿童个人信息安全事件后,我们将按照法律法规的要求,及时向您告知:安全事件的基本情况和可能的影响、我们已采取或将要采取的处置措施、您及被监护人可自主防范和降低风险的建议、对您及被监护人的补救措施等。我们将及时将事件相关情况以APP推送通知、发送邮件/短消息等方式告知您。难以逐一告知时,我们会采取合理、有效的方式发布相关警示信息。同时,我们还将按照监管部门要求,主动上报儿童个人信息安全事件的处置情况。若被监护人的合法权益受损,我们将承担相应的法律责任。 4.3 如您希望了解更多,请查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何保护您的个人信息或关联组织信息”章节,详细了解上述措施外,我们还采取了哪些措施保护儿童个人信息。 五、我们如何管理儿童的个人信息 5.1 为了您或被监护人在使用我们的产品及服务期间可以更加便捷地访问和管理被监护人的个人信息,同时保障注销账户的权利,我们在产品及服务中为您和被监护人提供了相应的操作设置,您和被监护人可以按照《天翼云AOne SDK隐私和信息处理规则》中的“您的权利及如何管理您的个人信息”章节指引进行操作。 5.2 如存在以下情况,您和被监护人可以请求我们删除收集、使用和处理的儿童个人信息。我们会在完成身份验证后,及时采取措施予以删除。 (1)若我们违反法律、行政法规的规定或者本须知的约定收集、存储、使用、转让、披露儿童个人信息; (2)若我们超出本须知目的范围或者必要期限收集、存储、使用、转让、披露儿童个人信息; (3)您撤回同意; (4)您或被监护人通过注销等方式终止使用产品或者服务的。 但请注意,若您和被监护人要求我们删除特定儿童个人信息,可能导致被监护人无法继续使用我们的产品和服务或产品和服务中的某些具体业务功能。 如您发现在未事先征得您同意的情况下收集了被监护人的个人信息,请及时联系我们,我们会设法尽快删除相关数据。 六、本须知的适用 绝大多数情形下我们无法识别且不会判断收集和处理的个人信息是否属于儿童个人信息,我们将按照《天翼云AOne SDK隐私和信息处理规则》收集和处理用户的个人信息。 七、本须知的修订 我们可能会根据我们的产品及服务的更新情况及法律法规的相关要求适时修改本须知的条款,该等修改构成本须知的一部分,我们会在专门页面上展示最新修改版本。当本须知的条款发生变更时,我们会以APP弹窗方式进行提示并再次取得您的同意,详见《天翼云AOne SDK隐私和信息处理规则》“本隐私和信息处理规则如何更新”章节的规定。 八、如何联系我们 8.1 如您对本隐私和信息处理规则或您信息的相关事宜有任何问题、意见、建议或申诉,您可以通过天翼云提交工单、联系智能客服、或拨打我们的客服电话4008109889与我们取得联系,您还可通过发送邮件至service@chinatelecom.cn或ctpip.ctyun@chinatelecom.cn,与天翼云边缘安全加速平台零信任服务的个人信息保护负责人进一步沟通。 8.2 一般情况下,我们将会在3个工作日内回复,特殊情形下,最长将在不超过15个工作日做出答复。 8.3 如果您对我们的回复不满意,特别是我们的信息处理行为损害了您的合法权益,您还可以通过以下外部途径寻求解决方案:向被告所在地有管辖权的人民法院提起诉讼。
        来自:
        帮助文档
        边缘安全加速平台
        相关协议
        天翼云AOne SDK儿童个人信息保护政策及监护人须知
      • 计算型
        本文为您介绍计算型云主机的特点、规格等内容。 计算型云主机独享宿主机的CPU资源,实例间无CPU争抢,没有进行资源超配,提供更接近物理服务器的性能。适用于对实例性能有一定要求的计算密集型业务场景。 在售规格:c8a、c8e、c8、c7、c6、c3 适用场景 计算型云主机适用于计算密集型业务等场景: 大型网站 电商营销 计算型弹性云主机特点 规格名称 计算 磁盘类型 网络 计算型c8a 1.CPU/内存配比:1:2/1:4 2.vCPU数量范围:2192 3.处理器:AMD EPYC™ Genoa处理器 4.基频/睿频:2.6GHz/3.7GHz 1.普通IO 2.高IO 3.通用型SSD 4.超高IO 5.极速型SSD 6.XSSD0、XSSD1、XSSD2 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:1800万PPS 4.最大内网带宽:100Gbps 计算型c8e 1.CPU/内存配比:1:2/1:4 2.vCPU数量范围:2192 3.处理器:第五代英特尔®至强®可扩展处理器 4.基频/睿频:2.6GHz/3.1GHz 1.普通IO 2.高IO 3.通用型SSD 4.超高IO 5.极速型SSD 6.XSSD0、XSSD1、XSSD2 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:1400万PPS 4.最大内网带宽:40Gbps 计算型c8 1. CPU/内存配比:1:2/1:4 2.vCPU数量范围:2128 3.处理器:第三代英特尔®至强®可扩展处理器 4.基频/睿频:2.8GHz/3.5GHz 1.普通IO 2.高IO 3.通用型SSD 4.超高IO 5.极速型SSD 6.XSSD0、XSSD1、XSSD2 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:3000万PPS 4.最大内网带宽:100Gbps 计算型c7 1.CPU/内存配比:1:2/1:4 2.vCPU数量范围:296 3.处理器:第三代英特尔®至强®可扩展处理器 4.基频/睿频:2.8GHz/3.5GHz 1.普通IO 2.高IO 3.通用型SSD 4.超高IO 5.极速型SSD 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:1100万PPS 4.最大内网带宽:40Gbps 计算型c6 1.CPU/内存配比:1:2/1:4 2.vCPU数量范围:264 3.处理器:第二代英特尔®至强®可扩展处理器 4.基频/睿频:3.0GHz/4.0GHz 1.普通IO 2.高IO 3.通用型SSD 4.超高IO 5.极速型SSD 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:1000万PPS 4.最大内网带宽:40Gbps 计算型c3 1.CPU/内存配比:1:2/1:4 2.vCPU数量范围:232 3.处理器:英特尔®至强®可扩展处理器 4.基频/睿频:2.12.3GHz/ 3.24.0GHz 1.普通IO 2.高IO 3.通用型SSD 4.超高IO 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:260万PPS 4.最大内网带宽:15Gbps
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        通用云主机
        计算型
      • 负载均衡概述
        负载均衡的组件 负载均衡实例 负载均衡实例是承载负载均衡业务的实体,通过在负载均衡实例中添加监听器和后端服务器组后才能使用负载均衡提供的服务。 外网负载均衡实例 : 负责处理来自公网的访问请求,其会绑定弹性公网IP地址。 内网负载均衡实例 : 负责处理来自与负载均衡属于同个VPC的访问请求,其服务地址为VPC内一个随机分配的内网地址。 监听器 监听器负责监听负载均衡上接收的请求,并根据转发策略把请求分发到后端服务器组进行处理。监听器支持四层(TCP或者UDP协议)和七层(HTTP或者HTTPS协议)协议,根据业务需求配置监听器对应的协议以及端口。 监听器类型说明: 协议类型 说明 适用场景 TCP 面向连接的、可靠的数据传输协议。 适用于对数据传输的准确性和可靠性较高的使用场景,如远程登录、web服务、文件传输等。 UDP 其为无连接的、可靠性低的传输协议。 适用于传输速度快、实时性要求高,但对数据准确性要求不高的使用场景,如视频会议、在线游戏等。 HTTP 应用层协议,其支持基于Cookie的会话保持功能以及基于URL的转发。 适用于对请求的数据内容进行识别的应用的使用场景,如web应用、APP等。 HTTPS 加密的应用层协议,可以防止未授权的数据访问。 需要加密传输的web应用。 转发策略 在负载均衡中监听器协议为HTTP和HTTPS时,支持在已有监听器转发的基础上添加转发策略,转发策略通过URL或域名匹配规则来把请求转发至相应的后端服务器组,便于灵活的分流业务和合理的分配资源。URL匹配规则支持精确匹配、正则匹配和前缀匹配。 后端服务器组 在对应的负载均衡中配置监听器或者对应七层监听器的转发策略时需要配置对应的后端服务器组,后端服务器组包括一个或者多个后端服务器,用于承载从监听器转发的流量请求,可以通过在后端服务器组中添加后端服务器来扩展负载均衡的处理能力。后端服务器组可以按需开启健康检查,其通过健康检查的结果来判断后端服务器的状态是否正常,监听器只会把请求转发给结果为正常的后端服务器。同时后端服务器组中还可以根据每个后端服务器的不同处理能力来设置不同的权重,确保后端服务器得到最大的资源利用。 后端服务器组支持以下的分配策略: 分配策略 说明 轮询算法 根据后端服务器不同的处理能力,按需为不同的后端服务器设置不同的权重,监听器根据权重的高低以及轮询的方式把请求转发给后端服务器。 最小连接算法 通过当前每台后端服务器的活跃连接数来估算对应的负载情况,同时再根据服务器的负载情况不同以及处理能力的不同,给后端服务器动态的分配权重。 源算法 首先通过一致性Hash算法对所有后端服务器进行编号,对请求中的源IP地址通过一致性Hash算法,根据得到的结果把请求分发到对应编号的服务器。其可以确保把长连接的请求发送到同一个后端服务器,确保业务的连续性。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        网络
        弹性负载均衡
        负载均衡概述
      • 查看迁移任务详情
        本文为您介绍如何查看迁移任务的详细信息。 操作场景 您要查看已创建的迁移任务的详细信息。 前提条件 迁移任务列表中,您要查看的迁移任务已经成功创建。 操作指导 1.登录控制中心,点击控制中心左上角的,选择地域(服务入口目前仅开放“华东1”地域)。 2.单击“对象存储>对象存储迁移服务>迁移任务”进入迁移服务的迁移任务控制台。您可以通过迁移任务列表来查看和管理您创建的迁移任务。迁移任务列表展示的信息如下: 信息 说明 : 任务名称 任务的自定义名称。 源端 展示任务的源端。 目的端 展示任务的目的端,即天翼云对象存储ZOS。 迁移模式 展示任务的迁移模式 任务状态 展示任务的状态,全托管模式与半托管模式的任务状态有所区别。 说明 全托管模式的任务状态说明: 已创建:任务已经创建完成。 排队中:任务创建成功在排队等待自动执行。 迁移中:任务正在执行迁移,该状态同时会展示已迁移的对象个数。 暂停:任务暂停。 任务中断:迁移任务执行发生中断。 任务结束:迁移任务迁移结束,无失败对象。 任务结束 存在失败对象:迁移任务迁移结束,且存在失败对象。 半托管模式的任务状态说明: 创建中:任务正在创建中。 已创建:任务已经创建完成。 创建失败 请重新创建任务:任务创建失败,需要重新创建任务。 排队中:任务创建成功在排队等待自动执行。 迁移中:任务正在执行迁移,该状态同时会展示已迁移的对象个数。 暂停中:任务正在暂停中。 暂停:任务暂停。 恢复中:任务正在恢复中。 任务中断:迁移任务执行发生中断。 任务结束:迁移任务迁移结束,无失败对象。 任务结束 存在失败对象:迁移任务迁移结束,且存在失败对象。 代理已失联:执行本任务的代理与服务端失去连接。 重试中:任务正在重试中。 删除中:任务正在删除中。 任务创建时间 展示任务创建的时间。 任务完成时间 展示任务完成的时间。 3.在迁移列表中,点击您想查看的迁移任务的名称,即可跳转进入“ 迁移任务详情 ”页面,查看迁移任务的配置详情、任务进度等信息。 详细信息的内容说明如下: 参数 说明 配置详情 任务名称 任务的自定义名称。 配置详情 任务ID 迁移服务中每个任务都有唯一的任务ID。 配置详情 迁移模式 任务的迁移模式信息。 配置详情 源端信息 展示任务的源端信息,包括:源端、EndPoint、存储桶、迁移方式等信息。 配置详情 目的端信息 展示任务的目的端信息,包括:源端、EndPoint、存储桶、目的端指定前缀、存储类型、ACL配置等信息。 配置详情 高级选项 展示高级选项的配置信息,包括:同名文件是否覆盖。 任务进度 任务状态 展示当前迁移任务的状态。 任务进度 任务指定的对象总数 展示按任务配置所列举的对象总数,或是您指定的具体对象数量。若您执行重试,则表示任务指定的失败对象总数。 任务进度 已迁移对象数 展示任务已经迁移的对象数量。 任务进度 忽略对象数 展示任务忽略的对象数量。 任务进度 失败对象数 展示迁移失败的对象数量。 迁移失败对象列表 对象名称 展示失败对象的名称。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        迁移任务教程
        查看迁移任务详情
      • 相关术语解释
        本节主要介绍OBS涉及到的相关术语。 对象 对象(Object)是OBS中数据存储的基本单位,一个对象实际是一个文件的数据与其相关属性信息(元数据)的集合体。用户上传至OBS的数据都以对象的形式保存在桶中。 对象包括了Key,Metadata,Data三部分: Key:键值,即对象的名称,为经过UTF8编码的长度大于0且不超过1024的字符序列。一个桶里的每个对象必须拥有唯一的对象键值。 Metadata:元数据,即对象的描述信息,包括系统元数据和用户元数据,这些元数据以键值对(KeyValue)的形式被上传到OBS中。 系统元数据由OBS自动产生,在处理对象数据时使用,包括Date,Contentlength,Lastmodify,ContentMD5等。 用户元数据由用户在上传对象时指定,是用户自定义的对象描述信息。 Data:数据,即文件的数据内容。 通常,我们将对象等同于文件来进行管理,但是由于OBS是一种对象存储服务,并没有文件系统中的文件和文件夹概念。为了使用户更方便进行管理数据,OBS提供了一种方式模拟文件夹。通过在对象的名称中增加“/”,例如“test/123.jpg”。此时,“test”就被模拟成了一个文件夹,“123.jpg”则模拟成“test”文件夹下的文件名了,而实际上,对象名称(Key)仍然是“test/123.jpg”。 上传对象时,可以指定对象的存储类别,若不指定,默认与桶的存储类别一致。上传后,对象的存储类别可以修改。 在OBS管理控制台和客户端中,用户均可直接使用文件夹的功能,符合文件系统下的操作习惯。 桶 桶(Bucket)是OBS中存储对象的容器。对象存储提供了基于桶和对象的扁平化存储方式,桶中的所有对象都处于同一逻辑层级,去除了文件系统中的多层级树形目录结构。 每个桶都有自己的存储类别、访问权限、所属区域等属性,用户可以在不同区域创建不同存储类别和访问权限的桶,并配置更多高级属性来满足不同场景的存储诉求。 对象存储服务设置有三类桶存储类别,分别为:标准存储、低频访问存储、归档存储,从而满足客户业务对存储性能、成本的不同诉求。创建桶时可以指定桶的存储类别,桶的存储类别可以修改。 在OBS中,桶名必须是全局唯一的且不能修改,即用户创建的桶不能与自己已创建的其他桶名称相同,也不能与其他用户创建的桶名称相同。桶所属的区域在创建后也不能修改。每个桶在创建时都会生成默认的桶ACL(Access Control List),桶ACL列表的每项包含了对被授权用户授予什么样的权限,如读取权限、写入权限等。用户只有对桶有相应的权限,才可以对桶进行操作,如创建、删除、显示、设置桶ACL等。 一个账号可创建100个桶。每个桶中存放的对象的数量和大小总和没有限制,用户不需要考虑数据的可扩展性。 由于OBS是基于REST风格HTTP和HTTPS协议的服务,您可以通过URL(Uniform Resource Locator)来定位资源。 OBS中桶和对象的关系如图所示:
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        相关术语解释
      • 容器镜像按需加速
        本文介绍了容器镜像按需加速的用户指南。 传统容器运行需要将全量镜像数据下载后再解包,然而容器启动可能仅使用其中部分的内容,导致容器启动耗时长。通过容器镜像服务企业版的按需加载功能,您可以在业务部署中使用加速镜像版本,实现镜像数据免全量下载和在线解压,大幅提升应用分发效率,享受极致的弹性体验。本文介绍如何按需加载容器镜像。 前置条件 已开通企业版镜像服务 已开通云容器引擎集群 背景信息 通过按需加速功能,您可以在部署业务工作负载时使用加速镜像,实现镜像数据免全量下载和在线解压,大幅度提升应用分发效率,缩短容器启动时间,减少容器镜像所消耗的存储空间。加速效果与镜像大小以及网络等因素有关。 注意 在创建容器实例时,选用Containerd作为容器运行时的集群支持使用镜像加速,而对于选用Docker作为运行时的实例则不支持使用。 转换加速镜像 通过在镜像仓库或者在命名空间级别启用自动转换加速镜像,在上传镜像后会自动转换成加速镜像。镜像转换时间取决于镜像大小,对原始镜像不做任何变更改动。 转换后的加速镜像与原始镜像所在的命名空间及镜像仓库保持一致,仅镜像版本(即镜像的Tag)比原始镜像多增加了“accelerated”后缀。 注意 1.在已有命名空间或镜像仓库中开启镜像加速自动转换,所覆盖的命名空间或镜像仓库下的存量镜像则不会自动转换; 2.加速镜像会增加对象存储Bucket的使用量; 3.因加速镜像转换需要一定耗时,建议提前提前上传镜像,预留足够的转化时长,以免影响业务的发布时间,例如,转换 40GiB 的镜像大约耗时 30 分钟; 4.随着镜像容量增加,除了增加转换时长,同样也会增加转换失败的风险,建议转的镜像容量控制在60GiB以内。 1. 登录容器镜像控制台。 2. 在顶部菜单栏,选择所需资源池。 3. 在实例页面中选择指定的企业版实例。 4. 在命名空间中开启镜像加速:在企业版实例管理页面的左侧菜单上选择 "容器镜像" "命名空间"。在命名空间创建时,打开开启镜像加速开关,其余信息点填写完成后点击创建按钮。对于现存的命名空间,在命名空间列表中的开启镜像加速开关列中,打开开关。 5. 在镜像仓库中开启镜像加速:在企业版实例管理页面的左侧菜单上选择 "容器镜像" "镜像仓库"。在未开启镜像加速的命名空间下创建镜像仓库时,打开开启镜像加速开关,其余信息点填写完成后点击创建。对于现存的镜像仓库,在镜像仓库列表中,选择未开启镜像加速的命名空间下的镜像仓库,点击编辑,在编辑页面中打开开启镜像加速开关,然后点击更新按钮。 6. 在启用镜像加速的命名空间或者镜像仓库中上传镜像,稍等片刻后,在镜像仓库的版本列表页中查看到已经转换完成的带“accelerated”后缀的加速镜像,转换时间受镜像自身大小影响。
        来自:
        帮助文档
        容器镜像服务
        用户指南
        分发交付
        容器镜像按需加速
      • 软件开发生产线使用流程
        本章主要介绍软件开发生产线使用流程 图:基本操作流程 前提条件 1. 拥有天翼云帐号。若没有,请先注册天翼云帐号。 2. 已购买软件开发生产线。 3. 若需要向主机中部署应用,则需要准备一台具有弹性IP的主机,可以使用已有主机,也可以购买云主机。 配置项目 需求管理服务是使用软件开发生产线各服务的基础,首先需要创建项目、添加项目成员,然后可以根据项目规划添加工作项。 步骤 1 创建项目。 1. 进入软件开发生产线首页,单击“新建项目”。 2. 单击“Scrum”,输入项目名称,单击“确定”。 步骤 2 添加项目成员。 1. 进入已创建的项目,单击导航栏“设置 > 通用设置 > 成员管理”。 在页面右上角选择“添加成员”,或者“通过链接邀请”。 其中,添加成员有包括以下三种选择,请根据实际情况选择。 从本企业用户 从其他项目导入用户 邀请其他企业用户 图:添加项目成员 步骤 3 创建工作项。 1. 进入已创建的项目,单击导航栏“工作”,选择“工作项”页签。 2. 单击“新建”,选择工作项类型,根据实际情况输入工作项标题、优先级、处理人等信息。 配置代码仓库 代码仓库用于项目代码的版本管理,与本地的交互基于Git,因此在使用代码仓库之前需要在本地安装Git客户端。 步骤 1 安装并配置Git客户端。 1. 通过Git官网下载安装包,并使用默认配置安装Git客户端到本地电脑。 2. 运行Git Bash,Git Bash中输入以下命令行配置用户名和邮箱。 git config global user.name " 您的名字 " git config global user.email " 您的邮箱 " 3. 输入以下命令行,生成一对SSH密钥。生成的密钥通常保存在“~/.ssh/idrsa.pub”中。 sshkeygen t rsa C " 您的邮箱 " 4. 输入以下命令可显示密钥内容。 cat ~/.ssh/idrsa.pub 步骤 2 创建代码仓库。 1. 进入已创建的项目,单击导航栏“代码 > 代码托管”。 2. 根据需要选择普通新建、按模板新建或导入外部仓库,按照页面提示输入仓库名称等基本信息,单击“确定”。 图:创建代码仓库 3. 代码仓库创建成功后,在仓库里列表页面单击仓库名称,可查看仓库内的文件。 步骤 3 克隆/推送代码。 1. 单击页面右上角用户名,在下拉列表中选择“个人设置”。 2. 单击导航“代码托管 > SSH密钥管理”。 3. 单击“添加SSH密钥”,输入标题,将负责安装并配置Git客户端中生成的密钥粘贴到文本框中,单击“确定”。 4. 返回代码托管服务页面,单击待克隆的仓库名称,进入仓库。 5. 单击“克隆/下载”,复制仓库SSH下载链接。 6. 运行Git Bash,输入以下命令行,克隆云端仓库到本地。 git clone 您仓库的SSH下载链接 7. 在本地完成代码的编辑后,在Git Bash中依次输入以下命令行,保存代码并推送到代码仓库。 git add . git commit m " 您对本次提交备注的信息 " git push origin master 8. 返回代码仓库,即可查看更新后的文件。 代码托管服务更多操作请参见《代码托管用户指南》。
        来自:
        帮助文档
        软件开发生产线CodeArts
        快速入门
        软件开发生产线使用流程
      • 开发HTTP函数示例
        本章介绍开发HTTP函数的示例。 概述 使用自定义镜像开发HTTP函数时,用户需要在镜像中实现一个http server,并监听8000端口接收请求。 说明 HTTP函数只支持APIG触发器。 步骤一:准备环境 本章节所有操作均默认具有操作权限,请确保您登录的用户已有“FunctionGraph Administrator”权限,即FunctionGraph服务管理员权限。 步骤二:制作镜像 以在linux x86 64位系统上制作镜像为例。 1. 创建一个空文件夹 mkdir customcontainerhttpexample && cd customcontainerhttpexample 2. 以Nodejs语言为例,实现一个Http Server,创建一个main.js文件,引入express框架,接收POST请求,打印请求Body到标准输出并返回Hello FunctionGraph, method POST给客户端。 const express require('express'); const PORT 8000; const app express(); app.use(express.json()); app.post('/', (req, res) > { console.log('receive', req.body); res.send('Hello FunctionGraph, method POST'); }); app.listen(PORT, () > { console.log(Listening on }); 3. 创建一个package.json文件,此文件用于向npm提供信息,使其能够识别项目以及处理项目的依赖关系。 { "name": "customcontainerhttpexample", "version": "1.0.0", "description": "An example of a custom container http function", "main": "main.js", "scripts": {}, "keywords": [], "author": "", "license": "ISC", "dependencies": { "express": "^4.17.1" } } name:值为项目名。 version:值为项目版本。 main:列举文件为库的主入口。 dependencies:列出npm上可用的项目的所有依赖项。 4. 创建Dockerfile文件 FROM node:12.10.0 ENV HOME/home/customcontainer GROUPID1003 GROUPNAMEcustomcontainer USERID1003 USERNAMEcustomcontainer RUN mkdir m 550 ${HOME} && groupadd g ${GROUPID} ${GROUPNAME} && useradd u ${USERID} g ${GROUPID} ${USERNAME} COPY chown${USERID}:${GROUPID} main.js ${HOME} COPY chown${USERID}:${GROUPID} package.json ${HOME} RUN cd ${HOME} && npm install RUN chown R ${USERID}:${GROUPID} ${HOME} RUN find ${HOME} type d xargs chmod 500 && find ${HOME} type f xargs chmod 500 USER ${USERNAME} WORKDIR ${HOME} EXPOSE 8000 ENTRYPOINT ["node", "main.js"] FROM:指定基础镜像为node:12.10.0,基础镜像必须设置,值可修改。 ENV:设置环境变量,设置HOME环境变量为/home/customcontainer,设置GROUPNAME和USERNAME为customcontainer,USERID和GROUPID为1003,这些环境变量必须设置,值可修改。 RUN:格式为RUN ,例如RUN mkdir m 550 {HOME}表示构建容器时创建{USERNAME}用户的home目录。 USER:切换${USERNAME}用户。 WORKDIR:切换工作目录到${USERNAME}用户的home目录下。 COPY:将main.js和package.json拷贝到容器的${USERNAME}用户的home目录下。 EXPOSE:暴露容器的8000端口,请勿修改。 ENTRYPOINT:使用node main.js命令启动容器,请勿修改。 说明 1. 可以使用任意基础镜像。 2. 在云上环境会默认使用uid 1003,gid 1003 启动容器。uid、gid可以在函数页面的设置 > 常规设置 >容器镜像覆盖板块中修改,但不可以是root或其他保留id。 5. 构建镜像 指定镜像的名称为customcontainerhttpexample,版本为latest,“.”指定Dockerfile所在目录,镜像构建命令将该路径下所有的内容打包给容器引擎帮助构建镜像。 docker build t customcontainerhttpexample:latest .
        来自:
        帮助文档
        函数工作流
        快速入门
        使用容器镜像部署函数
        开发HTTP函数示例
      • 启用边缘接入服务
        进入客户控制台 成功开通AOne边缘接入服务后,您可以通过以下方式进入AOne边缘安全加速控制台。 官网页面进入控制台:进入边缘安全加速平台产品详情页,点击管理控制台。 通过控制中心进入控制台:进入天翼云控制中心,在CDN与视频分类下,点击边缘安全加速平台。 通过控制台链接直接进入。 添加域名/实例 进入客户控制台后,就可以添加域名/实例。步骤详见:添加域名/实例。域名/实例创建成功的标志是:在首页列表中,可以查到新建域名/实例,以及CNAME地址。 模拟访问验收 在客户控制台成功添加加速域名/实例后,为保证DNS解析顺利切换而不影响现有业务,建议先模拟访问进行功能验收,验收无误后,再切换DNS解析。具体流程如下: 1. 在天翼云客户控制台的IP应用加速的首页列表中,复制域名/实例对应的CNAME记录值。 2. 通过ping(Windows)或dig(MAC) CNAME记录的方式,如ping .ctdns.cn 获取该CNAME解析出来的天翼云已为您分配的某个节点IP,即为可测试验证功能的线上节点IP。 3. 用户修改本地电脑“C:WindowsSystem32Driversetc”的hosts文件,添加一条记录,让本地电脑访问加速域名时,强制绑定解析到该节点IP,由该节点IP进行服务,从而可以通过本地电脑来验证加速域名对应的相关业务功能和场景;如遇到修改后的host文件无法访问,可参考如下步骤: Hosts文件无法保存解决方法: Hosts文件无法修改可能是因为没有管理员权限所致的,完成以下的设置后,当我们修改了Hosts文件后就可以顺利保存了。 打开“计算机”,依次进入“C:WindowsSystem32Driversetc”(不同系统不同版本下,该文件的位置可能不同,仅供参考),找到hosts文件。 先选择“hosts”文件,打开其“属性”。 切换到“安全”选项卡,点击“高级”。 在“权限”下,点击“更改权限”。 点击“添加”,增添一个新权限。 点击“高级”进入高级设置。 选择“立即查找”,并在下方选择当前的系统账户,点击“确定”将其打开。 将“完全控制”勾上允许,并点击“确定”。 此时弹出一个安全警告窗口,点击“是”即可。 4. 验证内容: 成功绑定hosts文件后,您可以打开浏览器,在本地电脑访问加速域名进行连通性测试,测试结果可通过浏览器自带的开发者工具(F12)查看。如果浏览器访问到的IP和您在hosts文件中绑定的IP一致,表示配置正确。如果访问到的IP和您在hosts文件中绑定的IP不一致,表示配置不正确,您需要检查hosts文件中绑定的IP地址是否正确,确保该IP地址是CNAME地址的IP。 在电脑本地成功访问加速域名绑定的IP后,您可以基于自己的测试用例,或者必要的核验步骤,验证相关功能的准确性,如果功能验证不如预期,请提工单联系运维处理。
        来自:
        帮助文档
        边缘安全加速平台
        快速入门
        边缘接入服务
        启用边缘接入服务
      • 步骤一:管理项目规划
        本章主要介绍 步骤一:管理项目规划 需求管理服务提供简单高效的团队协作服务,包含多项目管理、敏捷迭代、任务管理等功能。 “凤凰商城”样例项目采用Scrum模式进行迭代开发,每个迭代周期为两周,前3个迭代已经完成凤凰商城版本的开发,当前正在进行迭代4的规划。 按照项目规划,迭代4要完成的功能为:限时打折管理、团购活动管理。 由于业务与市场的变化,临时新增一个紧急需求:门店网络查询功能,因此迭代4的规划中增加此功能的开发。 通过本章节,您将了解产品负责人Sarah与项目经理Maggie如何进行项目规划的管理,包括管理需求规划与迭代规划、跟踪项目进度。 管理需求规划 使用思维导图的形式管理项目需求规划,将工作项的层级结构“Epic>Feature>Story>Task”展示出来,各层级工作项类型代表的含义如下表所示。 工作项类型说明 工作项类型 说明 Epic 通常是公司重要战略举措,比如本样例项目中的“凤凰商城”,对于公司是一个与企业生存攸关的关键战略措施。 Feature 通常是对客户有价值的功能,可以通过使用特性满足客户的需求。比如凤凰商城中的“门店网络查询功能”,特性通常会通过多个迭代持续交付。 Story 通常是对一个功能进行用户场景细分,并且能在一个迭代内完成。 Task 通常是用户故事的细分,准备环境、准备测试用例等都可以是完成Story的细分任务。 由于“门店网络查询”功能是新增需求,因此产品负责人需要将此功能添加到思维导图中。 步骤 1 为新需求创建工作项。 由于门店网络查询功能是新增的需求,因此产品负责人Sarah要将它加入需求规划视图中。 1.进入“凤凰商城”项目,单击导航“工作”,在页面中选择“规划”页签。 2.单击,在下拉列表中选择“思维导图规划”。 在弹框中输入名称“需求规划”,单击“确定”,页面跳转至思维导图详情。 3.单击“添加Epic”,在弹框中勾选“凤凰商城”,单击“确定”。 4.新建Feature“门店网络”。 在Epic“凤凰商城”下方单击图标。 输入标题“门店网络”,回车保存。 新建Feature 5.按照同样的方式,为Feature“门店网络”添加Story“作为用户应该可以查询所有门店网络”。 步骤 2 编辑Story。 1. 单击Story“作为用户应该可以查询所有门店网络”,参照下表编辑Story信息。 Story配置 配置项 配置建议 描述信息 输入“作为用户,我想要查询所有门店,以便于挑选合适的门店获取服务”。 优先级 选择“高”。 重要程度 选择“关键”。 2.为了便于开发人员理解,在本地准备一个“门店网络列表”文件(本文档中为excel表,表格内容参照下表)。 门店网络列表 分店名称 分店地址 A分店 E机场1号航站楼出发层靠右直行123米右侧。 B分店 F区G路456号。 C分店 H区J街789号。 D分店 K区L大道K大楼西侧。 3.返回Story编辑页面,单击“点击添加附件或拖拽文件到此处上传”,选择“本地上传”,将列表文件上传至工作项中作为附件。 4.单击“保存”,完成Story详情的编辑。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤一:管理项目规划
      • 步骤七:管理项目测试
        执行测试计划 当开发人员完成Story的代码开发、并将应用部署到测试环境后(即完成步骤六:部署应用(CCE篇)或步骤六:部署应用(ECS篇)),可将Story的状态设置为“已解决”,并将Story的处理人设置为测试人员。 此时测试人员即可开始执行Story对应的测试用例。 本节以门店网络查询功能为例,介绍如何执行测试用例、以及测试用例执行失败如何反馈Bug信息。 步骤 1 在“凤凰商城”项目中,单击导航“工作 > 迭代”。 在迭代4中找到Story“作为用户应该可以查询所有门店网络”,将Story的状态修改为“测试中”。 步骤 2 进入“测试 > 测试用例”页面,在页面上方选择“迭代4”。 步骤 3 在列表中单击用例“门店网络查询”,将状态修改为“测试中”,单击“保存”。 步骤 4 选择“手工测试”页签,单击用例“门店网络查询”所在行的,页面右侧滑出“执行”窗口。 步骤 5 在测试环境中,按照测试步骤进行逐步操作(进入凤凰商城首页方法请参考验证部署结果)。 执行成功,跳转至步骤6继续操作。 执行失败,例如:执行第二步时页面跳转失败,页面显示404,跳转至步骤7继续操作。 页面显示失败 步骤 6 返回测试用例执行窗口,记录执行结果。 1. 在表格中,设置所有步骤的实际结果为“成功”。 2. 在表格上方,设置测试用例的结果为“成功”。 3. 勾选“同时将用例状态设为已完成”。 4. 单击页面右上角“保存”。 测试用例执行成功 此时测试用例的状态将自动变更为“完成”。跳转至步骤13继续操作。 步骤 7 返回测试用例执行窗口,记录执行结果。 1. 在表格中,设置步骤1的实际结果为“成功”。 2. 在表格中,设置步骤2的实际结果为“失败”,并输入实际显示内容“跳转失败,页面显示404”。 3. 在表格上方,设置测试用例的结果为“失败”。 4. 单击页面右上角“保存”。 测试用例执行失败 步骤 8 单击页面右上角,选择“新建缺陷”,页面将跳转至新建缺陷(新建工作项)页面。 步骤 9 在页面左下方的文本框的最后,可以看到自动填充缺陷的重现步骤。 参照下表编辑缺陷详情,单击“保存”,页面将跳转到工作项列表页面。 缺陷详情配置 配置项 配置建议 标题 输入“门店网络页面显示404”。 处理人 选择“Chris”。 迭代 选择“迭代4”。 步骤 10 在列表中找到Bug“门店网络页面显示404”,单击名称,选择“关联”页签,在“关联用例”下可看到测试用例“门店网络查询”。 步骤 11 单击关联用例的编号,可跳转到用例详情页。 选择“缺陷列表”页签,可看到一条缺陷记录,即在步骤9中创建的缺陷。 步骤 12 当开发人员修复缺陷后并验证成功后,参考步骤6设置用例结果,并将对应的缺陷状态设置为“已关闭”。 步骤 13 执行其它测试用例。 步骤 14 当所有用例的状态均为“完成”时,单击导航“测试 > 测试计划”,返回测试计划列表,在列表中可看到测试计划“迭代4”的状态为“完成”。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤七:管理项目测试
      • 组件监控
        本节主要介绍组件监控 组件即您部署的服务,包括容器和普通进程。例如,云容器引擎(CCE)服务中的工作负载(workload)可以是一个组件,同时直接在虚机上运行的tomcat也可以是一个组件。 组件列表展示了每个组件的类型、CPU占用、内存占用和告警状态等信息,您可直观了解每个组件的运行状态。单击组件名称,可了解更多组件状态。AOM支持从组件下钻到实例,从实例下钻到容器。通过各层状态,您可完成对组件的立体监控。 操作步骤 步骤 1 在AOM左侧导航栏中选择“监控 > 组件监控”,查看组件列表。 组件列表中对组件名称、状态、所属应用、部署方式等参数进行展示。 为了方便您查看组件列表,您可以单击右上角图标对组件列表进行过滤显示,实现隐藏系统组件。 步骤 2 您可根据需要选择是否对组件执行如下操作: 添加别名 当组件名称比较复杂,不便于识别时,您可为该组件增加一个便于识别的别名。 单击“操作”列下的“增加别名”进行增加。 添加标签 标签是组件的标识,通过标签您可区分系统组件和非系统组件,AOM默认为系统组件(系统组件包括icagent、cssdefender、nvidiadriverinstaller、nvidiagpudeviceplugin、kubedns、org.tanukisoftware.wrapper.WrapperSimpleApp、evsdriver, obsdriver、sfsdriver, icwatchdog、sh等)打上“System Component”标签,您可单击右上角的,通过选中或取消选中“隐藏系统组件”前的复选框,自定义系统组件的展示与隐藏。同时AOM支持您自定义标签,方便您对组件进行管理。 在组件列表中,单击组件所在行“操作”列的“增加标签”,单击,输入标签后,单击,再单击“确定”。标签添加成功后,您还可在页面右上角的搜索框中输入标签关键字,使用标签快速搜索组件。 说明 组件列表的“标签”列默认隐藏,您可单击右上角的设置按钮,通过选中或取消选中“标签”前的复选框,自定义其展示与隐藏。在“标签”列中,多个标签间用英文双引号分隔,在使用标签搜索组件时输入双引号里的内容即可。 组件列表的“数据源”列说明: SysRule:说明组件由AOM内置应用发现规则“SysRule”自动发现,详见内置发现规则。 DefaultRule:说明组件由AOM内置应用发现规则“DefaultRule”自动发现,详见内置发现规则。 自定义应用发现规则:规则名称无固定值,规则名称是您手动配置的应用发现规则名称,说明应用由您自定义的发现规则发现。 步骤 3 设置搜索条件搜索要查看的组件。 步骤 4 单击名称,进入“组件详情”页面。 在“实例列表”页签,可查看该组件所有实例的概况。 说明 单击实例名称,可监控业务进程或组件pod的资源占用与健康状态。 在“主机列表”页签,可查看该组件所在的主机概况。 在“告警分析”页签,可查看该组件的告警情况。 单击“监控视图”页签,可监控该组件的各种指标。
        来自:
        帮助文档
        应用运维管理
        用户指南
        资源监控
        组件监控
      • 新建表/文件迁移作业
        源端类型 说明 参数配置 OBS 支持以CSV、JSON或二进制格式抽取数据,其中二进制方式不解析文件内容,性能快,适合文件迁移。 参见 MRS HDFs FusionInsight HDFS Apache HDFS 支持以CSV、Parquet或二进制格式抽取HDFS数据,支持多种压缩格式。 参见 MRS HBase FusionInsight HBase Apache HBase CloudTable 支持从MRS、FusionInsight HD、开源Apache Hadoop的HBase,或CloudTable服务导出数据,用户需要知道HBase表的所有列族和字段名。 参见 MRS Hive FusionInsight Hive Apache Hive 支持从Hive导出数据,使用JDBC接口抽取数据。 Hive作为数据源,CDM自动使用Hive数据分片文件进行数据分区。 参见 DLI 支持从DLI导出数据。 参见 FTP SFTP 支持以CSV、JSON或二进制格式抽取FTP/SFTP的数据。 参见 HTTP 用于读取一个公网HTTP/HTTPS URL的文件,包括第三方对象存储的公共读取场景和网盘场景。 当前只支持从HTTP URL导出数据,不支持导入。 参见 数据仓库DWS 云数据库MySQL 云数据库SQL Server 云数据库PostgreSQL 支持从云端的数据库服务导出数据。 从这些数据源导出数据时,CDM使用JDBC接口抽取数据,源端作业参数相同,详细请 参见 FusionInsight LibrA 支持从FusionInsight LibrA导出数据。 从这些数据源导出数据时,CDM使用JDBC接口抽取数据,源端作业参数相同,详细请 参见 MySQL PostgreSQL Oracle Microsoft SQL Server SAP HANA MYCAT 分库 这些非云服务的数据库,既可以是用户在本地数据中心自建的数据库,也可以是用户在ECS上部署的,还可以是第三方云上的数据库服务。 从这些数据源导出数据时,CDM使用JDBC接口抽取数据,源端作业参数相同,详细请 参见 MongoDB 文档数据库服务(DDS) 支持从MongoDB或DDS导出数据。 参见 Redis 支持从开源Redis导出数据。 参见 Apache Kafka DMS Kafka MRS Kafka 仅支持导出数据到云搜索服务。 参见 。 云搜索服务 Elasticsearch 支持从云搜索服务或Elasticsearch导出数据。 参见
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        新建表/文件迁移作业
      • 磁盘模式及使用方法
        本文主要介绍 磁盘模式及使用方法 什么是磁盘模式 根据是否支持高级的SCSI命令来划分磁盘模式,分为VBD(虚拟块存储设备 , Virtual Block Device)类型和SCSI (小型计算机系统接口, Small Computer System Interface) 类型。 VBD类型:磁盘模式默认为VBD类型。VBD类型的磁盘只支持简单的SCSI读写命令。 SCSI类型:SCSI类型的磁盘支持SCSI指令透传,允许云主机操作系统直接访问底层存储介质。除了简单的SCSI读写命令,SCSI类型的磁盘还可以支持更高级的SCSI命令。 磁盘模式在购买磁盘时配置,购买完成后无法修改。 SCSI磁盘的常见使用场景和建议 SCSI磁盘:物理机仅支持使用SCSI磁盘,用作系统盘和数据盘。 SCSI共享盘:当您使用共享盘时,需要结合分布式文件系统或者集群软件使用。由于多数常见集群需要使用SCSI锁,例如Windows MSCS集群、Veritas VCS集群和CFS集群,因此建议您结合SCSI使用共享盘。 如果将SCSI共享盘挂载至ECS时,需要结合云主机组的反亲和性一同使用,SCSI锁才会生效,关于更多共享盘的内容,请参见共享磁盘及使用方法。 使用SCSI类型磁盘需要安装驱动吗 使用SCSI的磁盘时,需要为某些云主机操作系统安装驱动,具体如下: DPS(物理机) 物理机的Windows和Linux镜像操作系统中已经预安装了使用SCSI磁盘所需的驱动,即SDI卡驱动,因此无需再安装。 KVM ECS 当您使用SCSI磁盘时,推荐您配合虚拟化类型为KVM的ECS一同使用。因为KVM ECS的Linux操作系统内核中已经包含了驱动,Windows操作系统中也包含了驱动,无需您再额外安装驱动,使用便捷。 说明 ECS的虚拟化类型分为KVM和XEN,想了解您所使用的ECS虚拟化类型,请参见“弹性云主机用户指南 > 产品介绍 > 实例规格(X86)”。 XEN ECS 由于驱动和操作系统支持的限制,不建议您一同使用SCSI磁盘与虚拟化类型为XEN的ECS。 然而,当前有一部分Windows和Linux操作系统支持SCSI磁盘,详情请参见下表。 说明 当XEN ECS的操作系统已满足SCSI磁盘的要求时,需要根据以下情况判断是否安装SCSI驱动。 Windows公共镜像的操作系统中已经预安装Paravirtual SCSI (PVSCSI) 驱动,无需再安装。 Windows私有镜像的操作系统中未安装PVSCSI驱动,请您自行下载并安装驱动。 具体方法请参见“镜像服务用户指南”中的“快速入门优化私有镜像(Windows)”小节。 Linux操作系统中未安装PVSCSI驱动,请在 表 SCSI磁盘支持的操作系统 虚拟机化类型 操作系统 XEN Windows 请参见“公共镜像”中的Window操作系统。 查看方法:登录管理控制台,选择“镜像服务 > 公共镜像 > ECS镜像 > Windows”,即可查看操作系统列表。 XEN Linux SUSE Linux Enterprise Server 11 SP4 64bit (内核版本号为3.0.10168default or 3.0.10180default) SUSE Linux Enterprise Server 12 64bit (内核版本号为3.12.5152.31default) SUSE Linux Enterprise Server 12 SP1 64bit (内核版本号为3.12.6760.64.24default) SUSE Linux Enterprise Server 12 SP2 64bit (内核版本号为4.4.7492.35.1default)
        来自:
        帮助文档
        专属云(存储独享型)
        产品介绍
        磁盘模式及使用方法
      • 添加租户
        本章节主要介绍添加租户。 操作场景 当租户需要根据业务需求指定资源使用情况时,可以在MRS Manager创建租户。 前提条件 根据业务需求规划租户的名称,不得与当前集群中已有的角色或者Yarn队列重名。 如果租户需要使用存储资源,则提前根据业务需要规划好存储路径,分配的完整存储路径在HDFS目录中不存在。 规划当前租户可分配的资源,确保每一级别父租户下,直接子租户的资源百分比之和不能超过100%。 操作步骤 在MRS Manager,单击“租户管理”。 1. 单击“添加租户”,打开添加租户的配置页面,参见以下表格内容为租户配置属性。 租户参数一览表 参数名 描述 “名称” 指定当前租户的名称,长度为1到20,可包含数字、字母和下划线。 “租户类型” 可选参数值为“叶子租户”和“非叶子租户”。当选中“叶子租户”时表示当前租户为叶子租户,无法再添加子租户。当选中“非叶子租户”时表示当前租户可以再添加子租户。 “动态资源” 为当前租户选择动态计算资源。系统将自动在Yarn中以租户名称创建任务队列。动态资源不选择“Yarn”时,系统不会自动创建任务队列。 “默认资源池容量(%)” 配置当前租户在“default”资源池中使用的计算资源百分比。 “默认资源池最大容量(%)” 配置当前租户在“default”资源池中使用的最大计算资源百分比。 “储存资源” 为当前租户选择存储资源。系统将自动在“/tenant”目录中以租户名称创建文件夹。第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。存储资源不选择“HDFS”时,系统不会在HDFS中创建存储目录。 “存储空间配额(MB)” 配置当前租户使用的HDFS存储空间配额。取值范围为“1”到“8796093022208”。单位为MB。此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 说明 为了保证数据的可靠性,HDFS中每保存一个文件则自动生成1个备份文件,即默认共2个副本。HDFS存储空间表示所有副本文件在HDFS中占用的磁盘空间大小总和。例如“存储空间配额”设置为“500”,则实际只能保存约500/2250MB大小的文件。 “存储路径” 配置租户在HDFS中的存储目录。系统默认将自动在“/tenant”目录中以租户名称创建文件夹。例如租户“ta1”,默认HDFS存储目录为“tenant/ta1”。第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。支持自定义存储路径。 “服务” 配置当前租户关联使用的其他服务资源,支持HBase。单击“关联服务”,在“服务”选择“HBase”。在“关联类型”选择“独占”表示独占服务资源,选择“共享”表示共享服务资源。 “描述” 配置当前租户的描述信息。 2. 单击“确定”保存,完成租户添加。 保存配置需要等待一段时间,界面右上角弹出提示“租户创建成功。”,租户成功添加。 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“角色管理”进行手动管理。 使用此租户时,请创建一个系统用户,并分配Managertenant角色以及租户对应的角色。具体操作请参见创建用户。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        租户管理
        添加租户
      • 导入导出数据
        本章节主要介绍翼MapReduce服务如何导入导出数据。 用户通过“文件管理”页面可以在分析集群进行文件夹创建、删除,文件导入、导出、删除操作,暂不支持文件创建功能。流式集群暂不支持在界面使用“文件管理”功能。开启Kerberos认证的集群中,根目录下的文件夹有权限限制,如需对其进行读写,请参考创建角色内容添加拥有对应文件夹权限的角色,再请参考相关任务修改提交作业用户所属的用户组,将新增的组件角色加入到该用户组中。 背景信息 MRS集群处理的数据源来源于OBS或HDFS,HDFS是Hadoop分布式文件系统(Hadoop Distributed File System),OBS即对象存储服务,是一个基于对象的海量存储服务,为客户提供海量、安全、高可靠、低成本的数据存储能力。MRS可以直接处理OBS中的数据,客户可以基于管理控制台Web界面和OBS客户端对数据进行浏览、管理和使用,同时可以通过REST API接口方式单独或集成到业务程序进行管理和访问数据。 用户创建作业前需要将本地数据上传至OBS系统,MRS使用OBS中的数据进行计算分析。当然MRS也支持将OBS中的数据导入至HDFS中,使用HDFS中的数据进行计算分析。数据完成处理和分析后,您可以将数据存储在HDFS中,也可以将集群中的数据导出至OBS系统。需要注意,HDFS和OBS也支持存储压缩格式的数据,目前支持存储bz2、gz压缩格式的数据。 导入数据 MRS目前只支持将OBS上的数据导入至HDFS中。上传文件速率会随着文件大小的增大而变慢,适合数据量小的场景下使用。 支持导入文件和目录,操作方法如下: 1. 登录MRS管理控制台。 2. 选择“集群列表 > 现有集群”,选中一集群并单击集群名进入集群信息页面。 3. 单击“文件管理”,进入“文件管理”页面。 4. 选择“HDFS文件列表”。 5. 进入数据存储目录,如“bdapp1”。 “bdapp1”目录仅为示例,可以是界面上的任何目录,也可以通过“新建”创建新的文件夹。 新建文件夹时需要满足以下要求: 文件夹名称小于等于255字符。 不允许为空。 不能包含 : /:?"<>;&,'!{}[]$%+特殊字符。 不能以“.”开头或结尾。 开头和末尾的空格会被忽略。 6. 单击“导入数据”,正确配置HDFS和OBS路径。配置OBS或者HDFS路径时,单击“浏览”并选择文件目录,然后单击“是”。 OBS路径 必须以“obs://”开头。 不支持导入KMS加密的文件或程序。 不支持导入空的文件夹。 目录和文件名称可以包含中文、字母、数字、中划线和下划线,但不能包含;&>, ,<'$?:特殊字符。 目录和文件名称不能以空格开头或结尾,中间可以包含空格。 HDFS全路径长度小于等于255字符。 7. 单击“确定”。 文件上传进度可在“文件操作记录”中查看。MRS将数据导入操作当做Distcp作业处理,也可在“作业管理”中查看Distcp作业是否执行成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群运维
        导入导出数据
      • 1
      • ...
      • 133
      • 134
      • 135
      • 136
      • 137
      • ...
      • 148
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      推荐文档

      密码找回

      集群信息

      产品优势

      消息中心

      如何激活代金券?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号