活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云文件储存_相关内容
      • ALM-14029 单副本的块数超过阈值
        本章节主要介绍ALM14029 单副本的块数超过阈值的告警。 告警解释 系统每4个小时周期性检测单副本块的数量,并把当前单副本的块数和阈值相比较。单副本的块数量指标默认提供一个阈值范围。当检测到单副本的块数量超出阈值范围时产生该告警。 待补齐的块数量小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 14029 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 NameService名 产生告警的NameService名称。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 单副本的数据在节点故障时容易丢失,单副本的文件过多会对HDFS文件系统的安全性造成影响。 可能原因 DataNode节点故障。 磁盘故障。 单副本写入文件。 处理步骤 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”查看是否存在告警“ALM14003 丢失的HDFS块数量超过阈值”。 是,执行步骤2。 否,执行步骤3。 2.按照“ALM14003 丢失的HDFS块数量超过阈值”的处理方法处理,然后等待下个检测周期,检查告警是否清除。 是,结束。 否,执行步骤3。 3.排查业务中是否写入过的单副本的文件。 是,执行步骤4。 否,执行步骤7。 4.以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行如下命令: 安全模式: cd 客户端安装目录 source bigdataenv kinit hdfs 普通模式: su omm cd 客户端安装目录 source bigdataenv 5.在客户端节点执行如下命令,增大单副本文件的副本数。 hdfs dfs setrep w 文件副本数文件名或文件路径 6.等待下个检测周期,查看告警是否消除。 是,结束。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14029 单副本的块数超过阈值
      • 配置网络
        在函数计算服务中,新创建的函数实例默认情况下具备访问公网的能力,但无法访问VPC(虚拟私有云)内的资源。如果您的业务场景需要函数能够与VPC内的资源进行交互,或者仅允许来自特定VPC的函数调用请求,您需要对函数进行网络配置,本文介绍如何通过函数计算控制台为函数配置网络。 网络访问类型 在函数计算中,通过网络地址进行的访问操作会产生不同类型的流量。这些流量根据其目的地可以分为两大类: 公网流量:这指的是函数实例访问公网地址所产生的流量,例如访问天翼云官网产生的流量即公网流量。 VPC内网流量:这是指函数实例访问用户VPC内资源所产生的流量。例如访问天翼云关系型数据库服务、分布式缓存服务、对象存储以及VPC中其他弹性云主机的内网地址。 函数的网络配置 根据函数的网络配置,您可以为函数实例设定不同的网络访问能力,以满足您的业务需求: 函数出流量:这是指函数实例发起的对外流量,包括访问公网资源和VPC内资源。对于出流量的配置,您可以设置函数是否能够访问VPC内的资源,以及是否允许函数访问公网。 网络配置 配置含义 仅允许函数访问公网 仅允许函数访问公网,所需的网络配置如下:设置允许访问 VPC 为否 。设置允许函数默认网卡访问公网 为是。 仅允许函数访问VPC 仅允许函数访问VPC,所需的网络配置如下:设置允许访问 VPC 为是 ,并配置具体的VPC信息。设置允许函数默认网卡访问公网 为否。 允许函数访问公网和VPC 允许函数访问公网和VPC,所需的网络配置如下:设置允许访问 VPC 为是 ,并配置具体的VPC信息。设置允许函数默认网卡访问公网 为是。 禁止函数访问公网和VPC 禁止函数访问公网和VPC,所需的网络配置如下:设置允许访问 VPC 为否 。设置允许函数默认网卡访问公网 为否。 函数入流量:这是指外部访问函数实例的流量,包括公网和VPC。对于入流量的配置,您可以设置公网是否可以访问函数,以及VPC是否可以访问函数。 网络配置 配置含义 允许公网和VPC访问函数 允许公网和VPC访问函数,所需的网络配置如下:设置仅允许指定 VPC 调用函数 为否。 仅允许指定VPC访问函数 仅允许指定VPC访问函数,所需的网络配置如下:设置仅允许指定 VPC 调用函数 为是,并配置具体的VPC信息。
        来自:
        帮助文档
        函数计算
        用户指南
        函数配置
        配置网络
      • 物理机网络介绍
        本章节主要介绍天翼云物理机的物理网络。 物理机有四种网络类型,分别是VPC网络、高速网络(HB)、自定义vlan网络(QINQ)和IB网络,四种网络之间相互隔离不互通。其中,VPC网络接口和高速网络接口是基于系统维护vlan网卡组建bond后创建的vlan子接口。自定义vlan网络网卡和IB网络网卡由用户进行自定义管理配置。 说明 图中的ToR表示服务器机柜的布线方式,接入交换机放在机架顶部,服务器放在下方。HB表示高速网络。QinQ表示802.1Q隧道。 VPC网络接口和HB高速网络接口由系统生成,租户不可修改。这两个网络接口属于同一个网卡Bond。 弹性云主机和物理机之间可以通过VPC网络通信,只有VPC网络支持安全组、弹性IP和弹性负载均衡能力。 对于高速网络和自定义vlan网络,同一网络中的物理机实例之间仅提供2层连接。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        网络
        物理机网络介绍
      • 查看应用详情
        本文为您介绍如何查看接入容灾管理中心的应用详情。 操作场景 在您接入应用后,可以通过多活容灾服务控制台查看您接入的应用的详细信息。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“应用管理”,进入应用管理页面,点击应用列表中的应用名称,进入应用详情页。 5. 在基础信息部分,可以查看应用名称、应用端口、绑定的容灾管理中心、绑定的云主机、健康检查等信息。 6. 在数据库信息部分,可以查看数据库类型、数据库实例名、连接地址。 7. 在存储库信息部分,可以查看Bucket名称、Bucket内网域名、Bucket外网域名等信息。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        应用管理
        查看应用详情
      • 查看企业项目资源
        本节主要介绍查看企业项目资源 您可以选择查看某个企业项目下的全部资源,方便您快速了解该企业项目所拥有的资源情况。 操作步骤 步骤 1 企业管理员登录天翼云网门户,单击天翼云首页顶部右侧“控制台”。 步骤 2 在控制台首页顶部右侧,单击您的用户名后弹出下拉菜单,单击“企业管理”。 步骤 3 在企业项目管理页面,选择待查看的企业项目,单击操作列“查看资源”。 系统进入企业项目详情页面,在“资源”页签下可查看该企业项目内资源信息。默认展示全部区域及全部产品类型的资源信息,可按以下步骤进行资源筛选。 步骤 4 (可选)设置资源搜索条件。 1. 选择搜索区域。系统默认选中“全部”。 2. 选择服务类型。 3. 选择资源类型。 页面下方列表展示筛选后的所有资源。 说明 当服务选择为“EIP”时,支持查看已绑定实例。已绑定实例目前仅支持查看资源为:弹性云主机、负载均衡器(目前仅支持增强型)、物理机、虚拟IP地址。
        来自:
        帮助文档
        企业项目管理
        用户指南
        企业项目资源管理
        查看企业项目资源
      • 备份空间扩容
        本小节主要介绍对RDSPostgreSQL实例进行备份空间扩容。 操作场景 RDSPostgreSQL实例支持备份类型为云硬盘的备份空间进行扩容操作。若原先的数据库实例的备份磁盘空间不足,您可以根据数据库业务的实际需求进行备份空间扩容。 约束限制 用户账户余额需大于0元,方可进行备份磁盘空间扩容。 备份磁盘扩容后的磁盘空间不能小于实例磁盘容量。 扩容次数没有限制。 备份磁盘容量只允许扩容,不允许缩容。 备份类型为云硬盘类型。 操作步骤 Ⅰ类资源池操作步骤 1. 登录天翼云门户。 2. 点击【控制中心】,选择对应资源池,例如“上海7”。 3. 选择【关系数据库PostgreSQL版】,点击进入组件控制台管理页面。 4. 在实例管理页面,选择需要备份空间扩容的实例,点击"操作"列的"更多"选项。 5. 在"更多"选项中点击选择"备份空间扩容",跳转到"备份空间扩容"页面。 6. 在"备份空间扩容"界面,您只需要选择当前备份空间需要扩容到的"存储空间"。确认最新备份磁盘容量大小无误后,点击"提交"。 7. 跳转到"订单支付详情"界面,请您确认订单信息无误后,点击"立即支付"。 8. 再次跳转到"订单支付详情"页面后,请您二次确认订单信息无误后,点击"立即支付"按钮。 9. 订单支付完成后,系统开始执行备份空间扩容操作,您可以在控制台的"实例管理"中查看对应的"实例状态"为"扩容中"。当备份空间扩容完成后刷新页面,"实例状态"显示"运行中"。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        实例操作
        备份空间扩容
      • 主题设计
        导入主题设计信息 1.在数据架构控制台,单击左侧导航树中的“主题设计”,进入主题设计页面。 2.单击左上方的“导入”按钮,弹出导入主题对话框。 3.在“导入主题”对话框中,根据页面提示配置如下参数,然后先单击“添加文件”后,再单击“上传文件”。 下表为导入配置参数说明 参数名 说明 更新已有数据 在导入时是否更新已有的主题信息(主题域分组、主题域或业务对象)。在导入时,系统将按编码判断将要导入的主题信息在系统中是否已存在。 不更新:当主题信息已存在时,将直接跳过,不更新。 更新:当主题信息已存在时,更新已有的主题信息。 在导入主题信息时,只有创建或更新操作,不会删除已有的主题信息。 上传模板 选择所需导入的主题设计文件。 所需导入的主题设计文件,可以通过以下两种方式获得。 下载主题导入模板并填写模板 在“导入配置”页签内,单击“下载主题导入模板”下载模板,然后根据业务需求填写好模板中的相关参数并保存。模板参数的详细描述请参见下表。 导出的主题设计信息 您可以将某个DataArts Studio实例的数据架构中已建立的主题设计信息导出到Excel文件中。导出后的文件可用于导入。关于导出主题设计的更多信息,请参见下方“导出主题设计信息”章节。 下载的主题导入模板参数如下表所示,其中名称前带“ ”的参数为必填参数,名称前未带“ ”的参数为可选参数。一个主题对象需要填写一行信息。 参数名 说明 上级主题 上层主题的编码路径,以/分隔。 名称 中文名称。只允许除/、、 以外的字符。 编码 英文名称。只允许英文字母、数字、空格、下划线、中划线、左右括号以及&符号。 别名 主题对象的别名。 描述 主题对象的描述信息。 对于最低层级主题,此项参数为必选。您在导入文件中应补充最低层级主题的描述信息。 数据owner部门 数据的拥有者所在部门。 对于最低层级主题,此项参数为必选。您在导入文件中应补充最低层级主题的数据owner部门信息。 数据owner人员 数据的拥有者,支持填写多个,中间以逗号分隔。 4.导入结果会在“上次导入”页面中显示。如果导入成功,单击“关闭”完成导入。如果导入失败,您可以查看失败原因,将模板文件修改正确后,再重新上传。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据调研
        主题设计
      • 取得视频文件信息
        通过本接口获取媒体库的视频条目的特定文件信息。 接口功能介绍 用户可通过本接口获取媒体库的视频条目的特定文件信息。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI POST /video/file/get 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 fileId 是 String 文件id。 34c71dbaf2804f5ea05ff4daed837fef/100001.m3u8 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码。 0 message 是 String 错误文本信息,创建成功时,为空字符串。 "" data 是 Object 返回数据。 data 表 data 参数 是否必填 参数类型 说明 示例 下级对象 videoId 是 String 视频id 34c71dbaf2804f5ea05ff4daed837fef type 是 String 视频类型,包含 ORIGINAL(源视频)/MASTERM3U8(自适应的主m3u8文件)/TRANSCODED(转码后视频)。 TRANSCODED transcodeTemplateId 否 Long 转码模板id,当视频为原视频时,不返回该字段。 100000000003 fileId 是 String 文件id 34c71dbaf2804f5ea05ff4daed837fef/100000000003.m3u8 url 是 String 视频播放的url,返回数据库中当前的url,如果没有调用 签名接口 签名,返回的是无签名的 url,如果有调用则是上一次签名的 url。
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        取得视频文件信息
      • 查询直播录制任务
        参数名 类型 名称 code int 状态码,成功时为100000 message string 描述信息,成功时为success TaskList list 任务信息列表,目前只支持返回单个任务信息,详细说明如下 TaskList[].TaskID string 任务ID TaskList[].TaskType string 任务类型,含义分别为: liverecord:直播录制 livesnapshot:直播截图 liveextredirect:直播转推 TaskList[].UniqName string 客户标识 TaskList[].DomainName string 域名 TaskList[].App string 频道名 TaskList[].Stream string 流名称 TaskList[].Params object 转码参数,当taskType等于liverecord或livesnapshot时存在 TaskList[].Params.Output object array 输出参数 TaskList[ ].Params.Output[ ].Format string 输出文件的封装格式 TaskList[ ].Params.Output[ ].SegmentTime string 录制文件分段时长,按固定文件时长输出,单位秒 TaskList[ ].Params.Output[ ].ResetTimestamps int 录制起始时间戳,仅仅针对mp4,flv.aac有效 取值范围为0和1,默认为1,分别表示: 0:分段文件起始时间戳不重置为0 1:分段文件起始时间戳重置为0 TaskList[].Params.OutTimeLink string 续录的超时时长,单位秒 TaskList[].Params.XOSAccessKey string XOS存储的访问密钥 TaskList[].Params.XOSSecretKey string XOS存储的访问密钥 TaskList[].Params.XOSBucket string XOS存储的Bucket名称 TaskList[].Params.XOSRegion string XOS存储的Region名称 TaskList[].Params.XOSEndpoint string XOS存储的服务地址 TaskList[].Params.RecordNotifyUrl string 录制文件回调通知URL TaskList[].CreateTime string 任务创建时间,格式yyyyMMdd HH:mm:ss TaskList[].UpdateTime string 任务更新时间,格式yyyyMMdd HH:mm:ss TaskList[].TaskStatus string 任务执行状态,有三种,分别是 “running” :任务运行中 “finished” :任务正常结束 “failed” :任务失败 TaskList[].ErrMsg string 任务具体错误信息
        来自:
        帮助文档
        视频直播
        API参考
        API
        直播媒体处理
        查询直播录制任务
      • 配置HDFS连接
        参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 hadoophdfslink URI 表示NameNode URI地址。可以填写为:hdfs:// namenode 实例的ip :8020。 hdfs:// IP :8020 认证类型 访问集群的认证类型: SIMPLE:非安全模式选择Simple鉴权。 KERBEROS:安全模式选择Kerberos鉴权。 KERBEROS Principal 认证类型为“KERBEROS”时,需要填写Principal。Principal即Kerberos安全模式下的用户名,可以联系Hadoop管理员获取。此处填写的Principal需要与Keytab文件保持一致。 Keytab文件 认证类型为“KERBEROS”时,需要上传Keytab文件。Keytab文件为认证凭据文件,可以联系Hadoop管理员获取。获取Keytab文件前,需要在集群上至少修改过一次此用户的密码,否则下载获取的keytab文件可能无法使用。另外,修改用户密码后,之前导出的keytab将失效,需要重新导出。 运行模式 选择HDFS连接的运行模式: EMBEDDED:连接实例与CDM运行在一起,该模式性能较好。 STANDALONE:连接实例运行在独立进程。如果CDM需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式或者配置不同的Agent。 说明 STANDALONE模式主要是用来解决版本冲突问题的运行模式。当同一种数据连接的源端或者目的端连接器的版本不一致时,存在jar包冲突的情况,这时需要将源端或目的端放在STANDALONE进程里,防止冲突导致迁移失败。 Agent:连接实例运行在Agent上。 STANDALONE IP与主机名映射 运行模式选择“EMBEDDED”、“STANDALONE”时,该参数有效。 如果HDFS配置文件使用主机名,需要配置IP与主机的映射。格式:IP与主机名之间使用空格分隔,多对映射使用分号或回车换行分隔。 10.1.6.9 hostname01 10.2.7.9 hostname02 Agent 运行模式选择“Agent”时,单击“选择”,选择连接Agent中已创建的Agent。 是否使用集群配置 您可以通过使用集群配置,简化Hadoop连接参数配置。 否 集群配置名 仅当“是否使用集群配置”为“是”时,此参数有效。此参数用于选择用户已经创建好的集群配置。 hdfs01
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置HDFS连接
      • 创建密钥
        Secret资源文件配置说明 本章节主要介绍Secret类型的资源描述文件的配置示例。 例如现在有一个工作负载需要获取帐号密码,可以通过Secret来实现: yaml文件格式 定义的Secret文件secret.yaml内容如下。其中Value需要用Base64,Base64编码方法请参见如何进行Base64编码。 apiVersion: v1 kind: Secret metadata: name: mysecret secret的名称 namespace: default 命名空间,默认为default data: username: 需要用Base64编码 password: 需要用Base64编码 type: Opaque type建议不要做修改 如何进行Base64编码 对字符串进行Base64编码,可以直接使用“echo n 要编码的内容 base64”命令即可,示例如下: root@ubuntu:~ echo n "待编码内容" base64
        来自:
        帮助文档
        云容器引擎
        用户指南
        配置中心
        创建密钥
      • 数据投递概述
        前提条件 仅态势感知(专业版)标准版或专业版支持,态势感知(专业版)基础版不支持该功能。 云服务日志已接入态势感知(专业版),态势感知(专业版)的数据管道中已有数据。如需接入云服务日志请参见接入日志数据。 如需投递到OBS中,需要已有一个桶策略为私有、公共读或公共读写的可用的桶(暂不支持并行文件桶)。 如需投递到LTS中,需要已有可用的日志组和日志流。 约束与限制 跨账号投递仅支持投递到其他账号管道中,不支持投递到其他云服务。 如果新增的数据投递为跨账号投递,则需要登录目的账号进行授权操作。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        数据投递
        数据投递概述
      • Zookeeper持久化数据的迁移
        本章节介绍Zookeeper持久化数据迁移方案 数据迁移功能是利用ZooKeeper的快照(Snapshot)进行持久化数据的迁移。 前提条件 已创建MSE ZooKeeper集群。具体操作,请参考创建ZooKeeper引擎。 使用限制 1. 迁移前确保源ZooKeeper停止同步服务,并且有生成最新的快照文件。 2. 该方式不支持同步分布式锁、临时节点数据。 迁移步骤 步骤一:导出源ZooKeeper快照 1. 在源ZooKeeper部署机器上,查看zoo.cfg配置文件,获取dataDir配置目录。 2. 进入dataDir目录后,进入version2/目录找到最新的快照文件进行下载保存。 3. 在MSE ZooKeeper实例详情页面中,进入数据管理>Znode管理>点击数据导入。 4. 点击上传文件,选中刚刚下载保存的快照文件,点击确定,等待集群重启完毕即可,预计需要等待25分钟。 5. 验证数据迁移结果,可以在Znode管理中查看相应的节点数据验证。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        注册配置中心
        应用迁移
        Zookeeper持久化数据的迁移
      • 事件告警规则:查询列表(1)
        参数 参数类型 说明 示例 下级对象 alarmRuleID String 告警规则ID 2c2472dff6335b4bbe459609fc9f8154 regionID String ctyun资源池ID 81f7728662dd11ec810800155d307d5b name String 规则名 ctyunrule desc String 描述 demo service String 本参数表示服务。取值范围: ecs:云主机。 evs:云硬盘。 pms:物理机。 ... 详见" ecs dimension String 本参数表示告警维度。取值范围: ecs:云主机。 disk:磁盘。 pms:物理机。 ... 详见" ecs repeatTimes Integer 重复告警通知次数 0 silenceTime Integer 告警接收策略静默时间,多久重复通知一次,单位为秒 300 recoverNotify Integer 本参数表示恢复是否通知。取值范围: 0:否。 1:是。 根据以上范围取值。 0 notifyType Array of Strings 本参数表示告警接收策略。取值范围: email:邮件告警。 sms:短信告警。 根据以上范围取值。 ['email','sms'] contactGroupList Array of Objects 告警联系人组 contactGroup notifyWeekdays Array of Integers 本参数表示通知周期。取值范围: 0:周日。 1:周一。 2:周二。 3:周三。 4:周四。 5:周五。 6:周六。 根据以上范围取值。 [0,1,2,3,4,5,6] notifyStart String 通知起始时段,默认为00:00:00 00:00:00 notifyEnd String 通知结束时段,默认为23:59:59 23:59:59 webhookUrl Array of Strings webhook消息推送url地址 [' status Integer 本参数表示告警规则启用状态。取值范围: 0:启用。 1:停用。 根据以上范围取值。 0 alarmStatus Integer 本参数表示告警规则告警状态。取值范围: 0:正常。 1:正在告警。 根据以上范围取值。 0 createTime Integer 创建时间,毫秒级时间戳。 1689580180000 updateTime Integer 更新时间,毫秒级时间戳。 1689580180000 projectID String 项目ID 0 conditions Array of Objects 具体匹配策略 condition resources Array of Objects 资源信息列表 resources resourceScope Integer 规则的资源范围,取值范围: 0:实例资源类型。 1:资源分组类型。 2:全部资源类型 。 根据以上范围取值。 0 defaultContact Integer 是否使用天翼云默认联系人接收通知,取值范围: 0:否。 1:是。 根据以上范围取值。 0
        来自:
      • 事件告警规则:查询列表
        参数 参数类型 说明 示例 下级对象 alarmRuleID String 告警规则ID 2c2472dff6335b4bbe459609fc9f8154 regionID String ctyun资源池ID 81f7728662dd11ec810800155d307d5b name String 规则名 ctyunrule desc String 描述 demo service String 本参数表示服务。取值范围: ecs:云主机。 evs:云硬盘。 pms:物理机。 ... 详见" ecs dimension String 本参数表示告警维度。取值范围: ecs:云主机。 disk:磁盘。 pms:物理机。 ... 详见" ecs repeatTimes Integer 重复告警通知次数 0 silenceTime Integer 告警接收策略静默时间,多久重复通知一次,单位为秒 300 recoverNotify Integer 本参数表示恢复是否通知。取值范围: 0:否。 1:是。 根据以上范围取值。 0 notifyType Array of Strings 本参数表示告警接收策略。取值范围: email:邮件告警。 sms:短信告警。 根据以上范围取值。 ['email','sms'] contactGroupList Array of Objects 告警联系人组 contactGroup notifyWeekdays Array of Integers 本参数表示通知周期。取值范围: 0:周日。 1:周一。 2:周二。 3:周三。 4:周四。 5:周五。 6:周六。 根据以上范围取值。 [0,1,2,3,4,5,6] notifyStart String 通知起始时段,默认为00:00:00 00:00:00 notifyEnd String 通知结束时段,默认为23:59:59 23:59:59 webhookUrl Array of Strings webhook消息推送url地址 [' status Integer 本参数表示告警规则启用状态。取值范围: 0:启用。 1:停用。 根据以上范围取值。 0 alarmStatus Integer 本参数表示告警规则告警状态。取值范围: 0:正常。 1:正在告警。 根据以上范围取值。 0 createTime Integer 创建时间,毫秒级时间戳。 1689580180000 updateTime Integer 更新时间,毫秒级时间戳。 1689580180000 projectID String 项目ID 0 conditions Array of Objects 具体匹配策略 condition resources Array of Objects 资源信息列表 resources resourceScope Integer 规则的资源范围,取值范围: 0:实例资源类型。 1:资源分组类型。 2:全部资源类型 。 根据以上范围取值。 0 defaultContact Integer 是否使用天翼云默认联系人接收通知,取值范围: 0:否。 1:是。 根据以上范围取值。 0
        来自:
        帮助文档
        云监控服务
        API参考
        API
        2022-09-09
        事件监控
        系统事件
        事件告警规则
        事件告警规则:查询列表
      • 云硬盘备份操作
        本节主要介绍云硬盘备份注意事项、创建云硬盘备份、云硬盘备份恢复、删除云硬盘备份等操作。 创建云硬盘备份 1. 登录ECX控制台。 2. 点击左侧导航栏【边缘存储>快照】,点击快照列表操作栏【更多>备份】。 3. 创建好备份后,点击左侧导航栏【边缘存储>备份】,在云硬盘备份页可以查看刚刚创建好备份文件信息。 状态限制: 成功状态的快照才能创建备份。 快照所属的云盘处于冻结状态时,无法创建备份。 云硬盘备份恢复 1. 登录ECX控制台。 2. 点击左侧导航栏【边缘存储>备份】,点击云硬盘备份列表操作栏【恢复】。 3. 执行恢复后,点击备份页【云硬盘备份恢复任务】tab,可以查看刚刚执行备份恢复任务的进度信息。 状态限制: 云盘处于冻结状态时,无法操作备份恢复。 云盘正在执行其他的快照 或备份操作时,需要等待操作完成后才能操作备份恢复。 云盘已经挂载到虚拟机上时,需要将虚拟机关机后才能操作备份恢复。 删除云硬盘备份 1. 登录ECX控制台。 2. 点击左侧导航栏【边缘存储>备份】,点击云硬盘备份列表操作栏【删除】。 3. 弹窗二次确认,输入“DELETE”,点击【确认】,即可完成备份删除。 注意 不是所有集群均支持备份能力,如发现有集群不支持备份,可联系客户经理确认。 云硬盘处于可挂载或正在使用状态才可进行备份,每个云硬盘默认最多支持备份5个。 不支持备份和恢复本地盘。 全量备份如果被删除后,依赖其的增量备份将失效,故请谨慎删除全量备份。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘存储
        备份
        云硬盘备份操作
      • 创建日志节点
        在使用全局日志Binlog前,您需要先创建全局日志节点,本文为您介绍具体的操作步骤。 前提条件 已创建DRDS实例。具体操作,请参见步骤一:购买DRDS实例。 约束限制 仅支持创建1个日志节点。 开启日志节点后,当您续订或删除DRDS实例时,会同步续订或删除日志节点。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录树,单击日志节点管理,进入全局Binlog日志节点管理界面。 5. 单击创建日志节点 ,然后在变更后配置区域,配置日志节点相关参数。 参数 描述 可用区 日志节点所在的可用区。 性能规格 日志节点的vCPU和内存配置。 存储类型 日志节点的存储类型。 注意 极速型SSD云硬盘仅支持挂载至vCPU数量至少为16且为6代以上的计算增强型和内存优化型云主机。 存储空间 日志节点的存储空间,取值范围:100GB32768GB。 账号 日志节点的账号,长度为232字符,由字母、数字或下划线组成,以字母开头,字母或数字结尾。 密码 日志节点的密码,密码长度为826位,需为字母、数字和特殊字符~!@
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        日志管理
        全局Binlog日志管理
        创建日志节点
      • 跨账号授权
        本文帮助您了解如何操作跨账号网络实例授权。 使用说明 账号 A(授权方) 1. 在授权前,请从账号 B 处获取以下两项信息: 账号 B 的 唯一账号 ID 账号 B 的 云间高速 ID 2. 执行授权:将 VPC1 与 云专线 授权给账号B。 账号 B(被授权方) 1. 等待授权:确认账号A已完成授权。 2. 加载实例:在区域A的云企业路由器中加载网络实例,务必选择 “资源归属”为“跨账号”,然后加载已授权的VPC1和云专线。 操作步骤 1. 登录控制中心。 2. 登录云间高速(标准版)管理控制台,并在左侧菜单列表中选择“跨账号授权管理”,进入“跨账号授权管理”页面。 3. 在“已授权网络实例 ”页签中,点击“授权 ”按钮,进入“跨账号网络实例授权”页面。 4. 在“跨账号网络实例授权 ”页面,根据页面提示填写对应参数,单击“确定”,完成授权。 参数 说明 您的账号ID 当前登录账号的唯一标识符,用于授权查询与身份验证。 区域 需授权网络资源所在的区域(资源池)。 网络类型 需授权的网络资源类型。 网络实例 需要授权的网络实例,一次只能授权一个。 对方账号ID 被授权方的账号标识符,需对方登录天翼云,并在云间高速跨账号授权管理页面确认。 对方云间高速实例ID 被授权方需先创建的云间高速ID,用于组网授权与连接建立。 备注 输入关于授权资源的说明或备注信息。
        来自:
        帮助文档
        云间高速(标准版)EC
        用户指南
        跨账号授权管理
        跨账号授权
      • 接入LLM应用
        本文主要介绍如何接入LLM应用 LLM应用接入 支持接入 Ollama 框架。 前提条件 完成 vpce 接入 要求 Python 3.9及以上版本 建议使用 8C16G 以上规格的云主机 接入步骤 1、安装相关依赖 plaintext pip install traceloopsdk pip install ollama 2、部署模型 (1)在云主机安装部署 Ollama,并启动。 (2)通过 Ollama 拉取 deepseekr1:1.5b 模型,并启动模型 3、查看接入点信息 在应用性能监控控制台的 “应用监控” “应用列表” 页面,点击 “接入应用” 按钮,找到 “Python” “OpenTelemetry” 下面的指引步骤 “查看接入点信息”,指引会根据您所在资源池提供 “通过 gRPC 上报数据” 的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 4、示例代码 请将代码中的token和endpoint替换成第3步中获取的接入点信息。 plaintext from traceloop.sdk import Traceloop from opentelemetry.sdk.trace.export import BatchSpanProcessor from opentelemetry.exporter.otlp.proto.grpc.traceexporter import OTLPSpanExporter from opentelemetry.baggage.propagation import W3CBaggagePropagator from opentelemetry.sdk.resources import Traceloop.init( appname" ", resourceattributes{ TELEMETRYSDKLANGUAGE: "python", "host.name": " " }, propagatorW3CBaggagePropagator(), processorBatchSpanProcessor( OTLPSpanExporter( endpoint" ", headers[("xctgauthorization", " ")] ) ) ) from ollama import chat from ollama import ChatResponse def ollamachat(): response: ChatResponse chat(model'deepseekr1:1.5b', messages[ { 'role': 'user', 'content': 'Tell a joke of OpenTelemetry', }, ]) print(response.message.content) if name "main": ollamachat() 5、接入验证 完成接入工作后,启动 LLM 应用,应用就会向 APM 上报链路数据,在LLM应用监控将展示接入的应用。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入LLM应用
      • DELETE Object
        本节主要介绍DELETE Object。 此操作用来移除指定的文件,要求用户要对文件所在的Bucket拥有写权限。 请求语法 DELETE /ObjectName HTTP/1.1 Host: BucketName.ooscn.ctyunapi.cn Date: date ContentLength: length Authorization: SignatureValue 请求示例 删除一个叫myimage.jpg的图片文件。 DELETE /myimage.jpg HTTP/1.1 Host: examplebucket.ooscn.ctyunapi.cn Date: Mon, 03 Sep 2012 17:50:00 GMT Authorization: SignatureValue ContentType: application/xml; charsetutf8 响应示例 HTTP/1.1 204 No Content xamzrequestid: 5d5becc10cdd4f25047e8077797f3e40443436383a3c3e4042 Date: Mon, 03 Sep 2012 17:50:00 GMT Server: CTYUN
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Object的操作
        DELETE Object
      • 创建并提交Spark SQL作业
        本章节主要介绍数据湖探索创建并提交Spark SQL作业。 操作场景 DLI可以查询存储在OBS中的数据,本节操作介绍使用DLI提交Spark SQL作业查询OBS数据的操作步骤。 操作流程 使用DLI提交Spark SQL作业查询数据。基本流程如下: 1.上传数据至OBS 2.创建队列 3.创建数据库 4.创建表 5.查询数据 上传数据至OBS 使用DLI查询数据前,需要将数据文件上传至OBS中。 1.登录管理控制台。 2.在服务列表中,单击“存储”中的“对象存储服务OBS”,进入OBS管理控制台页面。 3.创建桶,本例桶名以“obs1”为例。 a. 单击页面右上角“创建桶”。 b. 进入“创建桶”页面,输入“桶名称”。其他参数保持默认值或根据需要选择。 创建OBS桶时,需要选择与DLI管理控制台相同的区域,不可跨区域执行操作。 c. 单击“立即创建”。 4.单击所建桶“obs1”,进入“对象”页面。 5.勾选左侧列表中的“对象”,选择“上传对象”,将需要上传的文件“sampledata.csv”上传到指定目录,单击“上传”。 “sampledata.csv”样例文件可以通过新建“sampledata.txt”,复制如下英文逗号分隔的文本内容,再另存为“sampledata.csv”。 12,test 文件上传成功后,待分析的文件路径为“obs://obs1/sampledata.csv”。 说明 关于OBS管理控制台更多操作请参考《 OBS上传文件指导,请参见《 针对大文件场景,由于OBS管理控制台对文件大小和数量限制较多,所以推荐使用OBS工具上传大文件,如OBS Browser+上传。 OBS Browser+是一个比较常用的图形化工具,支持完善的桶管理和对象管理操作。推荐使用此工具创建桶或上传对象。
        来自:
        帮助文档
        数据湖探索
        快速入门
        创建并提交Spark SQL作业
      • 购买
        本页为您介绍数据库专家服务的购买流程。 开通数据库专家服务,需要先注册天翼云账户并确保已完成实名认证 1. 注册并登录天翼云官网 2. 未实名认证的用户请按提示完成实名认证才能开通数据库专家服务,实名认证指南请参见账号中心操作指南实名认证。 数据库专家服务支持按次计费和按周期计费两种方式 按次计费产品购买流程 1. 购买数据库专家服务按次/天计费产品之前请确保您的账户余额大于本次购买服务的费用。 2. 进入数据库专家服务产品详情页快速了解产品,之后单击【立即开通】。 3. 在购买页面选择服务类型为基础服务(或保驾护航服务),并选择服务内容,填写用户信息,填写购买数量,勾选并阅读服务协议,确认无误后点击【立即订购】。 4. 购买成功后,3个工作日内专家会联系并完成评估,评估通过即可进入服务实施阶段。 按周期计费产品购买流程 1. 购买数据库专家服务按周期计费产品之前请确保您的账户余额大于本次购买服务的费用。 2. 进入数据库专家服务产品详情页快速了解产品,并建议咨询客服确认天翼云能否按您的需要提供相应的服务内容,如确认能,则单击【立即开通】。 3. 在购买页面选择服务类型为数据库增值服务包,填写用户信息,填写购买时长和数量,勾选并阅读服务协议,确认无误后点击【立即订购】。 4. 购买成功后,天翼云完成评估,与客户确认后进入服务实施阶段。
        来自:
        帮助文档
        数据库专家服务
        购买指南
        购买
      • ECI Pod概述
        ECI能为Kubernetes提供基础的容器Pod运行环境,每个ECI实例相当于一个Pod。本文介绍ECI Pod的配置和创建方式。 基本配置 基于Kubernetes社区的Virtual Kubelet技术,ECI支持以虚拟节点(VK)的形式接入到Kubernetes集群中。一个ECI实例相当于一个Pod,包含以下几部分配置: 实例规格 一个ECI实例主要包括vCPU和内存规格。创建实例时,可以指定ECI规格(直接指定vCPU和内存),也可以指定ECS规格来满足GPU、增强网络能力等特殊需求。 容器镜像 一个ECI实例由一个或者多个容器组成,部署容器应用时,需要准备好容器镜像。容器镜像包含容器应用运行所需的程序、库文件、配置等。拉取镜像时,需要保证网络畅通,推荐您使用镜像缓存功能来节约实例的启动耗时。 网络 一个ECI实例将占用所属VPC下的子网的一个弹性网卡资源,默认具备一个内网IP地址。如果需要连接公网,例如需要拉取公网镜像。则需要为ECI实例绑定EIP,或者为所属VPC绑定NAT网关。 存储 一个ECI实例默认有40 GiB的临时存储空间,您可以根据需要增加临时存储空间。如果想要保留存储的文件,建议使用外挂数据卷,支持挂载云盘、弹性文件和对象存储等天翼云存储数据卷。 创建方式 根据业务场景和使用场景,ECI支持两种实例的定义方式: 1. 指定vCPU和内存:您创建ECI实例时可以按需指定vCPU和内存。 2. 指定ECS规格:您创建ECI实例时可以按需指定ECI实例底层使用ECS规格族,来获取相应规格族的指定能力。
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过云容器引擎集群使用ECI
        ECI Pod
        ECI Pod概述
      • 使用告警规则
        本文带您了解如何使用告警规则。 操作场景 您可以根据需要灵活创建告警规则,既可以使用我们提供的默认告警模板为云服务创建告警规则,也可以对具体监控指标进行自定义告警规则的设置。 当资源的监控指标达到告警条件,云监控将向您发送告警消息,报告异常监控数据,帮助您及时掌握异常状态并处理,保证业务顺畅进行。 注意 系统事件不支持告警规则配置,仅支持事件通知,入口:云监控服务>系统事件>事件订阅。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击!,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击“告警服务”下拉菜单,单击“告警规则”,进入告警规则详情页面。 5. 在“告警规则”界面,单击“创建告警规则”按钮。 6. 在“创建告警规则”页面,根据界面提示配置参数,配置参数如下: 模块 参数 参数说明 配置示例 备注 选择监控对象 规则类型 选择规则的类型,指标监控(包括站点监控)。 指标监控 自定义监控、自定义事件目前仅支持部分资源池 选择监控对象 服务 配置告警规则监控的云服务资源类型。 云主机 选择监控对象 维度 用于指定告警规则对应指标的维度名称。 云主机 选择监控对象 监控对象类型 具体实例/资源分组 具体实例 选择监控对象 监控对象 用来配置该告警规则针对的具体资源,可以是一个或多个。 定义告警策略 选择类型 自定义创建/从模板导入。 自定义创建 定义告警策略 策略 满足全部/任一策略,策略信息包括:指标、数据类型(原始值、最大值、最小值、平均值)、判断条件(>、≥、 0%,连续发生一次 同一告警规则下,告警条件最多支持添加20条 配置告警通知 发送通知 配置是否发送邮件通知用户,可以选择“是” (推荐选择)或者“否”。 是 配置告警通知 告警联系组 配置发生告警通知的用户组。 配置告警通知 触发场景 触发告警邮件的场景,可在告警及恢复时发送提醒信息。 出现告警 配置告警通知 通知方式 配置告警通知的通知方式,支持邮箱及短信。 邮箱 配置告警通知 重复告警 指告警发生后如果未恢复正常,将重复发送告警通知次数。 不重复 配置告警通知 通知周期 配置告警通知的周期时间。 星期天、星期一、星期二、星期三、星期四、星期五、星期六 配置告警通知 通知时段 配置告警通知的时间段。 00:00:0023:59:59 配置告警通知 告警回调 配置告警通知webhook地址。 规则信息 名称 该告警规则的自定义名称。 规则信息 企业项目 选择告警规则适用的企业项目。 规则信息 描述 添加对该告警规则描述(此参数非必填项)。 说明 创建/启用/修改/删除告警规则等操作,参见告警规则。 7. 配置的告警规则状态变化及操作逻辑说明如下: 逻辑/状态变化 告警规则(已启用) 告警规则(已停用) 正在告警(告警中) 正在告警(无数据) 历史告警(已恢复) 历史告警(已过期) 历史告警(已失效) (指标类)判断监控无数据 × × 正在告警(无数据) × × × × 停用告警规则 告警规则(已停用) / 历史告警(已失效) 历史告警(已失效) × × × 启用告警规则 / 告警规则(已启用) / × × × × 修改已启用告警规则 × × 历史告警(已失效) × × × × 修改已停用告警规则 × × × × × × × 删除已启用告警规则 / / 历史告警(已失效) 历史告警(已失效) × × × 删除已停用告警规则 / / / / × × × (指标类)监控无数据再次上报且触发告警 × × × 正在告警(告警中) × × × (指标类)监控无数据再次上报且未触发告警(恢复) × × × 历史告警(已恢复) × × × (事件类)超过7天无新数据 × × 历史告警(已过期) / / × / 说明 /为不存在该场景,x为状态无变化。 未标记指标类/事件类,则为通用场景。
        来自:
        帮助文档
        云监控服务
        快速入门
        使用告警规则
      • 卸载数据盘
        本节介绍了卸载数据盘的相关内容。 操作场景 当卸载数据盘时,支持离线或者在线卸载,即可在挂载该数据盘的云主机处于“关机”或“运行中”状态进行卸载。 弹性云主机 在线卸载磁盘,详细信息请参见《弹性云主机用户指南》中的“存储 > 在线卸载磁盘”。 物理机 当前支持将SCSI类型磁盘挂载至物理机用作数据盘,数据盘可在物理机处于“关机”或“运行中”状态进行卸载。 挂载至云主机的数据盘,磁盘属性为“数据盘”,磁盘状态为“正在使用”。当数据盘从云主机上卸载后,此时数据盘的磁盘属性仍为“数据盘”,非共享盘的磁盘状态变为“可用”,共享盘只有从所有云主机上卸载后,磁盘状态才会变为“可用”。 前提条件 对于Windows弹性云主机,在线卸载云硬盘前,请确保没有程序正在对该云硬盘进行读写操作。否则,将造成数据丢失。 对于Linux弹性云主机,在线卸载云硬盘前,客户需要先登录弹性云主机,执行umount命令,取消待卸载云硬盘与文件系统之间的关联,并确保没有程序正在对该云硬盘进行读写操作。否则,卸载云硬盘将失败。 卸载非共享云硬盘 步骤 1 登录管理控制台。 步骤 2 选择“存储 > 云硬盘”。 进入“云硬盘”页面。 步骤 3 卸载云硬盘之前是否要先查看云硬盘挂载的云主机信息。 是,执行以下操作。 在云硬盘列表中,单击待卸载的云硬盘名称。进入云硬盘详情页面。 在“云主机”页签下,您可以查看当前云硬盘挂载的云主机。 选择云主机,单击“卸载”。弹出“卸载”对话框。 单击“确定”,卸载云硬盘。 否,执行以下操作。 在云硬盘列表中,单击待卸载云硬盘所在行“操作”列下的“更多卸载”。弹出“卸载”对话框。 单击“确定”,卸载云硬盘。 返回云硬盘列表,此时云硬盘状态为“正在卸载”,表示云硬盘处于正在从云主机卸载的过程中。 当云硬盘状态为“可用”时,表示卸载成功。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        卸载云硬盘
        卸载数据盘
      • 创建/复制/编辑分类映射
        本节介绍如何创建、编辑、复制分类映射。 操作场景 分类和映射是对云服务告警进行类型匹配和字段映射。 创建分类映射 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“安全编排 > 运营对象”,进入运营对象的数据类页面后,选择“分类&映射”页签,进入分类映射管理页面。 5. 在分类映射管理页面中,单击“创建”,进入创建分类映射页面。 6. 在创建分类映射页面中,配置分类映射参数信息。 1. 在左侧“基本信息配置”栏中,配置分类映射的基本信息,参数说明如下表所示。 参数名称 参数说明 名称 自定义分类映射名称。 数据类 选择对应的数据类。 描述 自定义分类映射描述信息。 2. 选择左侧“数据源”栏中,选择分类映射的数据源。 当“数据源”选择“上传JSON文件”时,需要单击“上传JSON文件”,并上传JSON文件。 3. 在右侧“分类”页签中,选择分类方式,并配置对应参数。 4. 完成分类配置后,单击页面右上角,保存配置。 5. 在右侧“映射”页签中,选择映射方式,并配置对应参数。 6. 完成分类映射后,单击页面右上角,保存配置。 7. 在右侧“预处理”页签中,设置预处理映射参数参数。 8. 完成预处理配置后,单击页面右上角,保存配置。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        安全编排
        运营对象管理
        管理分类&映射
        创建/复制/编辑分类映射
      • 用户管理
        IAM用户组 包含用户 策略说明 访问方式 保密数据权限组 主管A和主管B 查看secretBucket内的保密数据,但不可以更改。 控制台访问 IAM管理组 主管A 可以进行IAM的相关管理操作。 控制台访问 操作跟踪管理组 主管B 可以进行操作跟踪的相关管理操作,查看操作跟踪Bucket中的数据。 控制台访问 查看文件组 员工C和员工D 查看上传文件权限。 控制台访问 上传文件组 编程用户 通过API可以向指定的Bucket内写入数据。 编程访问
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        IAM最佳实践
        用户管理
      • 是否支持自定义修改存储路径
        本文简述修改录制文件存储路径的方法。 您可以通过直播控制台或OpenAPI自助修改录制文件的存储路径。 通过直播控制台修改 详细操作如下: 1. 登录直播控制台。 2. 单击【功能配置】下方的【直播录制】。 3. 选择对应模板,修改【文件存储路径】并保存。 通过OpenAPI修改 详细操作请参见更新媒体处理模板。 说明 修改后的新路径只针对新推上来的流生效。
        来自:
        帮助文档
        视频直播
        常见问题
        直播录制类
        是否支持自定义修改存储路径
      • 应用场景
        Kafka作为一款热门的消息队列中间件,具备高效可靠的消息异步传递机制,主要用于不同系统间的数据交流和传递,在企业解决方案、金融支付、电信、电子商务、社交、即时通信、视频、物联网、车联网等众多领域都有广泛应用。 异步通信 将业务中属于非核心或不重要的流程部分,使用消息异步通知的方式发给目标系统,这样主业务流程无需同步等待其他系统的处理结果,从而达到系统快速响应的目的。 如网站的用户注册场景,在用户注册成功后,还需要发送注册邮件与注册短信,这两个流程使用Kafka消息服务通知邮件发送系统与短信发送系统,从而提升注册流程的响应速度。 图 串行发送注册邮件与短信流程 图 借助消息队列异步发送注册邮件与短信流程 错峰流控与流量削峰 在电子商务系统或大型网站中,上下游系统处理能力存在差异,处理能力高的上游系统的突发流量可能会对处理能力低的某些下游系统造成冲击,需要提高系统的可用性的同时降低系统实现的复杂性。电商大促销等流量洪流突然来袭时,可以通过队列服务堆积缓存订单等信息,在下游系统有能力处理消息的时候再处理,避免下游订阅系统因突发流量崩溃。消息队列提供亿级消息堆积能力,3天的默认保留时长,消息消费系统可以错峰进行消息处理。 另外,在商品秒杀、抢购等流量短时间内暴增场景中,为了防止后端应用被压垮,可在前后端系统间使用Kafka消息队列传递请求。 图 消息队列应对秒杀大流量场景 日志同步 在大型业务系统设计中,为了快速定位问题,全链路追踪日志,以及故障及时预警监控,通常需要将各系统应用的日志集中分析处理。 Kafka设计初衷就是为了应对大量日志传输场景,应用通过可靠异步方式将日志消息同步到消息服务,再通过其他组件对日志做实时或离线分析,也可用于关键日志信息收集进行应用监控。 日志同步主要有三个关键部分:日志采集客户端,Kafka消息队列以及后端的日志处理应用。 1. 日志采集客户端,负责用户各类应用服务的日志数据采集,以消息方式将日志“批量”“异步”发送Kafka客户端。 Kafka客户端批量提交和压缩消息,对应用服务的性能影响非常小。 2. Kafka将日志存储在消息文件中,提供持久化。 3. 日志处理应用,如Logstash,订阅并消费Kafka中的日志消息,最终供文件搜索服务检索日志,或者由Kafka将消息传递给Hadoop等其他大数据应用系统化存储与分析。 图 日志同步示意图 上图中Logstash、ElasticSearch分别为日志分析和检索的开源工具,Hadoop表示大数据分析系统。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        应用场景
      • 云硬盘性能问题
        Linux CentOS 6.5等较老版本的操作系统用fdisk创建分区时,默认为非4KiB对齐选择初始磁柱编号,对性能有较大的影响,建议针对该类操作系统,在创建分区时4KiB对齐选取初始磁柱编号。 本文以“CentOS 7.2 64位”操作系统为例,不同操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 测试性能前请先安装fio性能测试工具。 步骤 1 登录云主机并切换为root用户。 步骤 2 进行性能测试之前,请执行以下步骤,确认磁盘分区的初始磁柱编号是否已经4KiB对齐。 fdisk lu 回显类似如下信息: [root@ecscentos sdc] fdisk lu Disk /dev/xvda: 10.7 GiB, 10737418240 bytes, 20971520 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x7db77aa5 Device Boot Start End Blocks Id System /dev/xvda1 2048 20968919 10483436 83 Linux Disk /dev/xvdb: 10.7 GiB, 10737418240 bytes, 20971520 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/xvdc: 53.7 GiB, 53687091200 bytes, 104857600 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x3cf3265c Device Boot Start End Blocks Id System /dev/xvdc1 2048 41943039 20970496 83 Linux 若start对应的初始磁柱编号能被8整除,则表示4KiB对齐,请执行步骤3进行性能测试。 若start对应的初始磁柱编号不能被8整除,则表示未4KiB对齐,如需继续测试请删除原有分区,重新按照4KiB对齐选择初始磁柱编号。 注意 删除分区并重新按照4KiB对齐选取初始磁柱编号会导致磁盘原有数据的丢失,请谨慎操作。 步骤 3 执行以下命令,使用fio工具测试磁盘性能。 测试随机写IOPS:fio direct 1 iodepth 128 rw randwrite ioengine libaio bs 4k size 10G numjobs 1 runtime 600 groupreporting filename /opt/fiotest/fiotest.txt name RandWriteIOPSTest 测试随机读IOPS: fio direct 1 iodepth 128 rw randread ioengine libaio bs 4k size 10G numjobs 1 runtime 600 groupreporting filename /opt/fiotest/fiotest.txt name RandReadIOPSTest 测试写吞吐量: fio direct 1 iodepth 32 rw write ioengine libaio bs 1024k size 10G numjobs 1 runtime 600 groupreporting filename /opt/fiotest/fiotest.txt name WriteBandWidthTest 测试读吞吐量: fio direct 1 iodepth 32 rw read ioengine libaio bs 1024k size 10G numjobs 1 runtime 600 groupreporting filename /opt/fiotest/fiotest.txt name ReadBandWidthTest 测试单队列随机读时延: fio direct 1 iodepth 1 rw randread ioengine libaio bs 4k size 10G numjobs 1 runtime 60 groupreporting filename /opt/fiotest/fiotest.txt name RandReadLATETest 注意 使用fio工具进行裸盘性能测试时,不能在已创建文件系统的磁盘上测试,因为fio性能测试会破坏文件系统,导致磁盘变为只读,需要删除后重新购买。 请尽量不要在保存业务数据的磁盘上进行测试。如果需要,请按照以下建议操作: 在测试开始前对磁盘数据进行备份,防止误操作造成数据丢失。 在测试命令中指定filename参数为某个文件,例如 filename/opt/fiotest/fiotest.txt 。 测试fio相关参数说明如下表所示。 表: 参数说明 参数 说明 direct 定义是否使用direct IO,可选值如下: 值为0,表示使用buffered IO 值为1,表示使用direct IO iodepth 定义测试时的IO队列深度。此处定义的队列深度是指每个线程的队列深度,如果有多个线程测试,意味着每个线程都是此处定义的队列深度。fio总的IO并发数iodepth numjobs。 例如: 单线程,且iodepth32,则该线程的IO队列深度为32,fio总的IO并发数32132。 多线程(3个线程),且iodepth32,则3个线程的IO队列深度均为32,fio总的IO并发数32396。 rw 定义测试时的读写策略,可选值如下: 随机读:randread 随机写:randwrite 顺序读:read 顺序写:write 混合随机读写:randrw ioengine 定义fio如何下发IO请求,通常有同步IO和异步IO: 同步IO一次只能发出一个IO请求,等待内核完成后才返回。这样对于单个线程IO队列深度总是小于1,但是可以透过多个线程并发执行来解决。通常会用16~32个线程同时工作把IO队列深度塞满。 异步IO则通常使用libaio这样的方式一次提交一批IO请求,然后等待一批的完成,减少交互的次数,会更有效率。 bs 定义IO的块大小(block size),单位是k、K、m和M等,默认IO块大小为4 KB。 size 定义测试IO操作的数据量,若未指定runtime这类参数,fio会将指定大小的数据量全部读/写完成,然后才停止测试。该参数的值,可以是带单位的数字,比如size10G,表示读/写的数据量为10GiB;也可是百分数,比如size20%,表示读/写的数据量占该设备总文件的20%的空间。 numjobs 定义测试的并发线程数。 runtime 定义测试时间。如果未配置,则持续将size指定的文件大小,以每次bs值为分块大小读/写完。 groupreporting 定义测试结果显示模式,groupreporting表示汇总每个进程的统计信息,而非以不同job汇总展示信息。 filename 定义测试文件(设备)的名称。 此处选择文件,则代表测试文件系统的性能。例如:filename/opt/fiotest/fiotest.txt l 此处选择设备名称,则代表测试裸盘的性能。例:filename/dev/vdb 须知 如果在已经分区、并创建文件系统,且已写入数据的磁盘上进行性能测试,请注意filename选择指定文件,以避免覆盖文件系统和原有数据。 name 定义测试任务名称。
        来自:
        帮助文档
        云硬盘 EVS
        常见问题
        云硬盘性能问题
      • 安装Agent
        此小节介绍如何安装Agent。 指导您在console对目标服务器安装Agent,Agent安装后HSS才能对服务器进行正常检测和防护。 约束限制 未开启防护不支持安装与配置相关操作。 安装须知 您的云服务器安全组出方向的设置允许访问100.125.0.0/16网段的10180端口(默认允许访问,如做了改动请修正)。 安装成功后,需要等待5~10分钟左右才会刷新Agent状态。请前往“资产管理>主机管理>云服务器”界面查看。 如果您的主机安全未设置过告警通知,初次安装agent后还需进行告警通知设置才能及时接收告警信息。 Linux安装Agent需远程登录服务器通过目标Agent命令执行下载安装。 Windows安装Agent需要通过浏览器打开目标链接下载,对下载包进行解压后再执行安装。 公网无法下载,下载前需配置内网DNS地址。 由于主机的性能差异,其他云的主机与主机安全服务的兼容性可能较差,为使您获得良好的服务体验,建议您使用天翼云弹性云主机。 安装Agent时,请暂时清理主机中可能干扰主机安装的应用进程和配置信息,防止Agent安装失败。 单服务器安装Agent 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 4、在左侧导航树选择“安装与配置 > Agent 管理”,进入Agent管理页面。 5、选择“Agent不在线(X)”,查看Agent未安装或离线的服务器列表,详情请参见表。 查看Agent不在线列表 Agent列表参数说明 参数名称 参数说明 服务器名称/ID 服务器的名称和ID。 IP地址 目标服务器所属的公网IP或私网IP。 操作系统 目标服务器的操作系统。 linux windows Agent状态 目标服务器的Agent状态。 离线 未安装 安装失败 6、单击目标服务器“操作”列的“离线原因”,查看目标服务器Agent离线原因。 7、单击目标服务器“操作”列的“安装Agent”,选择不同架构以及不同系统的链接进行下载安装,linux系统安装详情请参见Linux版本,windows系统安装详情请参见Windows版本。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安装与配置
        安装Agent
      • 弹性防护相关问题
        本文介绍DDoS高防(边缘云版)弹性防护相关问题。 弹性防护该如何选购? 最大防护能力套餐内防护能力+弹性防护能力。防护能力需要考虑防护带宽峰值(单位:Gbps)及CC防护能力(单位:QPS)。 需要根据您自身业务希望防护的最高防护带宽来评估。弹性防护是按天按需进行收费,数据统计标准为每天的0:0024:00期间遭受的最大弹性峰值,具体计费表可参考计费模式。 例如:比如您希望防护100Gbps带宽、100000QPS的CC攻击;选购的基础套餐版本为DDOSM4,包含20Gbps防护带宽和80000QPS的CC防护能力,则弹性防护可选择购买80Gbps弹性防护,同时还能弹性支持320000QPS的CC防护能力。 若您遭受的攻击频繁超出基础套餐的防护带宽,建议升级为更大的套餐,若您仅是偶尔被攻击且攻击量不确定,可以购买弹性防护作为保险。 弹性防护如何出账? 购买时选定弹性防护最高防护峰值,若攻击超出套餐防护规格,则超出部分按照弹性防护阶梯按日收费。 每日计费值以当天(0:00~24:00)攻击的最大攻击峰值为计费标准。 弹性防护当日最大DDoS攻击峰值套餐保底防护带宽,超出CC防护攻击值当日最大CC攻击峰值套餐内CC防护能力,再找到超出防护带宽、超出CC防护值在弹性防护计费列表中对应的计费区间,二者取其高,即可算出弹性防护超出费用。 例如:基础套餐购买的版本为DDOSM3,包含10Gbps、50000QPS,弹性防护购买20Gbps 、80000QPS。以下仅以带宽部分超出的情况为例: 若当前遭受攻击为10Gbps以内(如8Gbps)不进行额外收费; 若当前遭受攻击为超过10Gbps(如15Gbps),超出的部分为5Gbps,参考弹性防护计费标准,落在第一阶梯[010Gbps]以内,按照860元/天收费。 若当前遭受攻击为25Gbps,则超出的部分为15Gbps,落在第二阶梯[1020Gbps]以内,按照1760元/天收费。 若当前遭受攻击为35Gbps,则超出的部分为25Gbps,但最高弹性防护仅购买20Gbps,则不进行防护,直接解析回源,2小时后再恢复服务,不产生任何弹性防护费用。 弹性防护计费具体计费表可参考计费模式。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        常见问题
        计费类
        弹性防护相关问题
      • 1
      • ...
      • 176
      • 177
      • 178
      • 179
      • 180
      • ...
      • 560
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      管理只读实例

      重启

      7天无理由退款如何操作?

      卸载

      购买License

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号