云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云大数据paas服务_相关内容
      • 节点概述
        简介 节点是容器集群组成的基本元素。节点取决于业务,既可以是虚拟机,也可以是物理机。每个节点都包含运行Pod所需要的基本组件,包括Kubelet、Kubeproxy 、Container Runtime等。 说明:CCE创建的Kubernetes集群包含master节点和node节点,本章讲述的节点特指node节点,node节点是集群的计算节点,即运行容器化应用的节点。 在云容器引擎CCE中,主要采用高性能的弹性云主机作为节点来构建高可用的Kubernetes集群。 注意事项 为了保证节点的稳定性,CCE集群节点上会根据节点的规格预留一部分资源给Kubernetes的相关组件(kubelet、kubeproxy以及docker等)和Kubernetes系统资源,使该节点可作为您的集群的一部分。 因此,您的节点资源总量与节点在Kubernetes中的可分配资源之间会存在差异。节点的规格越大,在节点上部署的容器可能会越多,所以Kubernetes自身需预留更多的资源。 节点的网络(如虚机网络、容器网络等)均被CCE接管,不允许用户自行添加网卡或改变路由,若自行修改,CCE不保证服务可用。 节点购买后如需对其进行升级或降低规格等操作,请将节点关机后进行变更,也可以重新购买节点后,将老节点删除。 节点生命周期 生命周期是指节点从创建到删除(或释放)历经的各种状态。 状态 状态属性 说明 可用 稳定状态 节点正常运行状态,并连接上集群。 在这个状态的节点可以运行您的业务。 不可用 稳定状态 节点运行异常状态。 在这个状态下的实例,不能对外提供业务,需要重置节点或联系管理员进行处理。 创建中 中间状态 创建节点实例后,在节点状态进入运行中之前的状态。 安装中 中间状态 节点处于安装Kubernetes软件的过程中。 删除中 中间状态 节点处于正在被删除的状态。 如果长时间处于该状态,则说明出现异常,需要联系管理员处理。 关机 稳定状态 节点被正常停止。 在这个状态下的实例,不能对外提供业务,您可以在弹性云主机列表页对其进行开机操作。 错误 稳定状态 节点处于异常状态。 在这个状态下的实例,不能对外提供业务,需要重置节点或联系管理员进行处理。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        节点概述
      • API
        字段 说明 API基本信息 关联服务 为该API选择一个关联的服务,该API会新增在对应服务目录下。 说明 API需要关联到具体的服务,如何创建服务请参考:服务章节。 API名称 填写API路由名称,不允许重复。 描述 填写API路由的描述。 发布 发布的API允许访问。 协议 HTTP:允许客户端使用 HTTP 协议访问网关,系统默认访问使用 HTTP 协议,若取消勾选则只允许 HTTPS。 HTTPS:允许客户端配置证书后使用 HTTPS 请求访问网关。 API版本 填写API路由版本,管理不同版本的API,使得新旧版本可以并行存在且互不影响,方便客户端平滑升级。 匹配条件 路径 HTTP请求路径,如/foo/index.html;支持请求路径前缀/foo/、/ 代表所有路径,支持添加多条 HTTP方法 匹配指定的HTTP方法 优先级 默认0,数字越大,优先级越高 高级匹配条件 高级匹配条件 参数位置:支持选择 HTTP请求头 、 请求参数 、 POST请求参数 、 Cookie 、 内置参数 。 参数名称:自定义参数名称。 非(!):开启是否取反。 运算符:选择运算符。 参数值:填写参数值,具体请根据您选择的参数位置决定。
        来自:
        帮助文档
        数据安全专区
        用户指南
        API安全网关操作指导
        资源
        API
      • 并行文件概述
        本节介绍了用户指南: 并行文件概述。 云容器引擎支持使用天翼云并行文件存储卷。cstorcsi插件支持使用并行文件动态存储卷和静态存储卷,通过将并行文件存储卷挂载到容器指定目录,可满足数据持久化需求。 并行文件服务提供高性能并行文件存储,支持全NVMe闪存与RDMA技术,最高可实现百万级IOPS和百GBps吞吐量,同时保障亚毫秒级延迟。该服务具备高性能、高可靠性和高可扩展性特点,能够充分满足影视渲染、AI训练及自动驾驶等数据密集型场景的需求。 使用限制 插件版本 使用并行文件存储功能,需要cstorcsi插件版本 >3.3.2 容器集群 当前并行文件服务功能仅智算集群可见 文件协议 当前cstorcsi插件仅支持HPFSPOSIX协议 容量 单个文件系统最小容量为512GB 可用区 协议类型为hpfs时,不支持跨可用区挂载。 使用并行文件存储PVC的Pod将会被强制调度到该PVC创建时指定的的可用区内 其他限制 参见 并行文件使用限制 产品优势 共享访问 1. 支持上千台客户端挂载同一文件系统,实现共享访问。 2. 支持 NFS、HPFSPOSIX 协议类型,用户能够在创建文件系统时指定协议类型,通过标准 POSIX 接口访问数据,无缝适配主流应用程序进行数据读写。 3. 支持 MPII/O 并行计算接口,满足多客户端并行计算场景。 弹性扩展 1. 采用可扩展的元数据架构,单个文件系统可支持几十亿级别的文件数量,在海量文件场景下,仍然保持稳定持续的高效访问性能。 2. 分钟级别快速扩容,用户可根据实际需要对文件系统进行在线扩容,扩容过程 IO 不中断,保障业务连续性。 安全可信 1. 支持使用 VPC 用户隔离、权限组等安全管理功能进行访问权限控制,保障数据安全可靠。 2. 使用多种 EC 方式、热备盘备份保证数据的可靠性。 3. 支持 HA,故障时自动切换,服务可用性在99.90%及以上。 性能优越 1. 可支持高性能100GE 以太网、IB、RoCE 网络。 2. 带宽、IOPS 性能可以随文件系统容量线性提升,最高提供百万 IOPS 和百 GBps 吞吐,同时保证亚毫秒级时延,使得数据访问更加高效。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        并行文件(CT-HPFS)
        并行文件概述
      • 告警规则:查询列表v4.1
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b service 是 String 本参数表示服务。取值范围:ecs:云主机。evs:云硬盘。pms:物理机。...详见“ ecs alarmStatus 否 Integer 本参数表示告警规则是否告警。取值范围:0:未触发告警。1:触发告警。2:无数据。根据以上范围取值。 1 status 否 Integer 本参数表示告警规则状态。取值范围:0:启用。1:停用。根据以上范围取值。 1 name 否 String 规则名称(模糊查询) 告警规则名称 contactGroupName 否 String 告警联系组名(模糊查询) 联系组 instanceName 否 String 监控对象名称(模糊查询) vpcvpc2913 sortKey 否 String 排序字段 updateTime sortType 否 String 排序类型。取值范围:ASC:升序。DESC:降序。根据以上范围取值。 ASC pageNo 否 Integer 页码,默认值:1 1 pageSize 否 Integer 页大小,默认值:20 10 resGroupID 否 String 资源分组ID eec4a76a35ba57b891c6c4fd923351d6
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        告警服务
        告警规则
        告警规则:查询列表v4.1
      • 设置ICAgent日志采集开关
        介绍如何设置ICAgent日志采集开关。 在“ICAgent采集开关”页签,支持设置ICAgent采集开关(控制ICAgent是否对日志数据进行采集)、采集Syslog日志到AOM、采集容器标准输出到AOM。 设置采集开关 1、登录管理控制台,选择“管理与部署 > 云日志服务 LTS”,进入“日志管理”页面。 2、左侧导航选择“配置中心”,单击“ICAgent采集开关”。 3、ICAgent采集开关是用来控制ICAgent是否对日志数据进行采集。 “ICAgent采集开关”默认打开,当您不需要采集日志时,通过关闭“ICAgent采集开关”停止日志采集,以减少资源占用。 “ICAgent采集开关”关闭后,ICAgent会停止采集日志,且在应用运维管理AOM控制台的“日志采集开关”也会同步关闭。 4、采集Syslog日志到AOM用来控制ICAgent是否采集Syslog日志到AOM1.0。开关关闭后,ICAgent将不会采集Syslog日志到AOM1.0,此功能仅支持5.12.182以上版本的ICAgent。 5、采集容器标准输出到AOM。选择CCE集群,开启或关闭应用到该集群。开关关闭后,ICAgent将不会采集标准输出日志到AOM,此功能仅支持5.12.133以上版本的ICAgent。建议使用云容器引擎CCE应用日志接入LTS直接采集容器标准输出到LTS,不推荐采集到AOM。
        来自:
        帮助文档
        云日志服务
        用户指南
        LTS配置中心管理
        设置ICAgent日志采集开关
      • 初始化Linux数据盘(parted)
        本文为您介绍使用parted分区工具初始化Linux数据盘的操作步骤。 操作场景 本文以“CentOS 7.6 64位”操作系统为例,介绍如何使用parted分区工具为数据盘设置分区,操作回显仅供参考。 前提条件 已挂载数据盘至云主机或物理机,且数据盘还没有被初始化。 操作步骤 当新增云硬盘的容量小于2TB,使用parted工具进行Linux数据盘初始化共分为五步,具体步骤如下: 登录弹性云主机。 查看新增数据盘:查看新增数据盘是否已成功挂载至此台云主机,并查看其容量。 创建GPT分区:为新增数据盘创建独立的逻辑分区,以便更好地组织和管理数据。 创建文件系统并挂载:为新建分区创建文件系统,可以使用独立的文件系统来存储数据。 设置开机自动挂载磁盘:云主机系统启动时可自动挂载磁盘。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Linux弹性云主机。 查看新增数据盘 执行命令 fdisk l,查看新增数据盘。回显如下: 当前的云主机有两块磁盘,“/dev/vda”是默认的系统盘,“/dev/vdb”是本次新增需要初始化的数据盘,容量为30G。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Linux数据盘(parted)
      • 初始化Linux数据盘(fdisk)
        本文为您介绍初始化Linux数据盘的操作步骤。 操作场景 本文以“CentOS 7.6 64位”操作系统为例,介绍如何使用fdisk分区工具为数据盘设置分区,操作回显仅供参考。 前提条件 已挂载数据盘至云主机或物理机,且数据盘还没有被初始化。 操作步骤 当新增云硬盘的容量小于2TB,使用fdisk工具进行Linux数据盘初始化共分为五步,具体步骤如下: 登录弹性云主机。 查看新增数据盘:查看新增数据盘是否已成功挂载至此台云主机,并查看其容量。 创建MBR分区:为新增数据盘创建独立的逻辑分区,以便更好地组织和管理数据。 创建文件系统并挂载:为新建分区创建文件系统,可以使用独立的文件系统来存储数据。 设置开机自动挂载磁盘:云主机系统启动时可自动挂载磁盘。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Linux弹性云主机。 查看新增数据盘 执行命令 fdisk l,查看新增数据盘。回显如下: 当前的云主机有两块磁盘,/dev/vda是默认的系统盘,且已经拥有了一个分区/dev/vda1,/dev/vdb是本次新增需要初始化的数据盘,容量为40G。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 云监控相关产品文档
        本文为您引用云监控服务的产品文档,供您使用时参考。 本产品的的监控能力依托于天翼云云监控服务,该服务功能丰富确也比较复杂,本文为您引用其相关的帮助文档,供您使用时参考。 云监控服务最佳实践 ++通过企业微信群接收告警通知++ ++使用API查询云监控数据++ ++使用监控面板可视化展示多个实例监控数据++ ++通过告警模板设置应用分组的告警规则++ ++使用告警联系组设置告警通知对象++ 云监控服务常见问题 ++概念类++ ++操作类++ ++购买类++ 其它文档 产品基本概念 快速入门
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        监控告警
        云监控相关产品文档
      • 审计运维日志
        操作回放视频支持下载吗? 支持下载mp4格式视频文件,并可在多种播放器上播放。 默认情况下,不生成可下载视频文件,需手动“生成视频”。下载视频后请及时删除,以免占用过多存储空间。 步骤 1 登录云堡垒机系统。 步骤 2 选择“审计 > 历史会话”。 步骤 3 单击“操作”列中的“更多 > 生成视频”。 步骤 4 生成视频后,单击“操作”列的“下载”,将视频保存到本地。 步骤 5 下载视频后,可将系统缓存的视频文件删除,可以单击“操作”列中的“更多删除视频”,或选中多条记录单击左下角批量“删除视频”。 说明 因登出时间和操作时间不同,下载后的视频文件的总时长与可播放时长可能不一致。“总时长”是指从登录资源到登出资源的时间段,“可播放时长”是指从登录资源到最后一次会话操作的时间段。 可以删除某一天的云堡垒机运维数据吗? 不可以。 云堡垒机系统支持“自动删除”和“手动删除”系统中运维数据。 “自动删除”:当云堡垒机系统空间使用率达到90%时,或数据在云堡垒机系统存储超过180天(默认180天),系统自动清理数据。 “手动删除”:手动选择日期,删除选择日期之前的数据。不能删除具体某一天的数据。 说明 没有备份的数据删除后不能恢复,建议您对重要的数据进行备份,具体的操作请参见备份系统配置。 系统审计日志支持备份到OBS桶吗? 支持。 目前不仅支持通过FTP/SFTP备份到同一个VPC网络内的服务器中,还支持将数据备份到同一个VPC网络内的OBS桶中
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        审计运维日志
      • 退订和删除类
        本文汇总了云硬盘在退订和删除过程中常见的问题。 误删除的云硬盘数据可以找回吗? 请尝试通过云硬盘快照或云硬盘备份找回云硬盘误删除的数据。 通过此方法恢复数据时,用户需要确认该云硬盘是否有对应的云硬盘快照或备份,如果有,则可通过快照/备份将数据完整的恢复到快照/备份时间点,详情请参见快照回滚和云硬盘备份与恢复。如果没有快照/备份,则无法找回数据。 需要注意的是,如果丢失的数据创建时间晚于最近一次快照/备份时间点,同样无法通过快照或备份找回已丢失数据。因此请对云硬盘数据定期进行快照或备份。 如何开启回收站功能? 云硬盘回收站是云硬盘一种重要的数据保护方式,用户可以通过开启回收站来恢复云硬盘,避免因误删除而丢失云硬盘数据。云硬盘回收站默认为关闭状态,用户可在云硬盘列表页选择回收站页签,开启回收站。 详细步骤请参见开启回收站。 为什么无法删除云硬盘? 云硬盘有两种计费模式,按需与包年包月。按需计费云硬盘可以删除,包年包月计费云硬盘无法删除,用户只能对其进行退订操作。 删除按需计费云硬盘,有以下限制: 系统盘不能删除,只有数据盘支持删除。 当云硬盘状态为“未挂载”时,才可以被删除。 在删除云硬盘之前,您需要先删除该云硬盘的所有快照。
        来自:
        帮助文档
        云硬盘 EVS
        常见问题
        退订和删除类
      • VPC对等连接组网迁移实施步骤
        本章节向您介绍VPC对等连接组网迁移实施步骤。 步骤一:创建云服务资源 1. 创建迁移过程中验证ER和VPC通信情况的子网。在每个待迁移的VPC内,各创建一个新的子网。 2. 在迁移验证子网内,创建ECS。在每个待迁移的子网内,各创建一个ECS。 3. 创建1个企业路由器。本示例中,对等连接两端的VPC网段不重叠,因此创建企业路由器时,同时开启“默认路由表关联”和“默认路由表传播”。 注意 如果VPC对等连接两端的VPC网段存在重叠,则不能开启企业路由器的“默认路由表传播”功能。由于该功能是将整个VPC网段学习到ER路由表中用作目的地址,那么VPC网段重叠时,会导致ER路由表内路由冲突。此时,您需要手动在ER路由表中添加指向VPC连接的路由。 步骤二:在企业路由器中添加VPC连接及路由 1. 将3个待迁移的VPC分别接入企业路由器中。添加连接时,不开启“配置连接侧路由”功能,添加“虚拟私有云(VPC)”连接。 2. 检查ER路由表中指向VPC的路由。本示例中,ER开启了“默认路由表关联”和“默认路由表传播功能”功能,那么在ER中添加“虚拟私有云(VPC)”连接时,系统会自动添加ER指向VPC的路由,无需手动添加,只需要检查即可。 说明 开启“配置连接侧路由”功能后,会自动VPC路由表中自动添加指向ER的路由,目的地址固定为10.0.0.0/8,172.16.0.0/12,192.168.0.0/16。迁移时,需要手动在VPC路由表中添加规划的大网段路由,不能使用自动添加的路由。 如果您未开启“默认路由表传播”功能,则需要手动在ER路由表中添加指向VPC的路由。 步骤三:验证VPC和ER之间的网络通信情况 1. 在接入ER的VPC的路由表中,添加指向ER的迁移验证路由。 2. 在弹性云主机的远程登录窗口,执行以下步骤,验证VPC和ER的网络通信情况。 登录ecsA02,验证vpcA与vpcB是否可以通过ER通信。 登录ecsA02,验证vpcA与vpcC是否可以通过ER通信。 登录ecsB02,验证vpcB与vpcC是否可以通过ER通信。 3. 验证完成后,删除迁移验证相关的路由、ECS和子网。 步骤四:在VPC路由表中添加路由 在VPCA、VPCB和VPCC的路由表中,依次添加路由。 1. 添加指向任意VPC对等连接的临时通信路由。此路由确保迁移过程中,删除原有VPC对等连接路由时流量不中断。 在vpcA的路由表中,添加1.1.1.1/32路由。 在vpcB的路由表中,添加1.1.1.2/32路由。 在vpcC的路由表中,添加1.1.1.3/32路由。 2. 添加指向ER的大网段路由。该路由的目的地址即需要覆盖待迁移的所有VPC网段,又不能被其他业务占用。 在vpcA的路由表中,添加172.16.0.0/14路由。 在vpcB的路由表中,添加172.16.0.0/14路由。 在vpcC的路由表中,添加172.16.0.0/14路由。
        来自:
        帮助文档
        企业路由器
        最佳实践
        将VPC对等连接组网迁移至企业路由器
        VPC对等连接组网迁移实施步骤
      • 资源冻结/解冻/释放/删除/退订
        本文主要介绍云数据库GaussDB 购买类常见问题 按需计费实例不用时也会计费吗? 按需计费实例是从“创建成功”开启计费,到“删除”结束计费。即使中间不使用实例,但实例也仍会占用资源,所以仍然会按实际购买时长计费。 资源为什么被释放了? 客户购买产品后,如果没有及时的进行续费或充值,将进入宽限期。如宽限期满仍未续费或充值,将进入保留期。在保留期内资源将停止服务。保留期满仍未续费或充值,存储在云服务中的数据将被删除、云服务资源将被释放。 资源为什么被冻结了? 资源冻结的类型有多种,最常见类型为欠费冻结。 实例被冻结了,还可以备份数据吗? 不支持,如果是欠费冻结,需要您先续费解冻实例后才能备份数据。 怎样将资源解冻? 欠费冻结:用户可通过续费或充值来解冻资源,恢复实例正常使用。欠费冻结的实例允许续费、释放或删除;已经到期的包周期实例不能发起退订,未到期的包周期实例可以退订。 冻结、解冻、释放资源时对业务的影响 资源冻结时: − 资源将被限制访问和使用,会导致您的业务中断。例如实例被冻结时,会使得用户无法再连接至数据库。 − 包周期资源被冻结后,将被限制进行变更操作。 − 资源被冻结后,可以手动进行退订/删除。 资源解冻时:资源将被解除限制,用户可以连接至数据库。 资源释放时:资源将被释放,实例将被删除,删除前将依据用户策略决定是否执行“回收站”章节。
        来自:
        帮助文档
        云数据库GaussDB
        常见问题
        购买类
        资源冻结/解冻/释放/删除/退订
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 业务数据不均衡最佳实践
        本文介绍Kafka业务数据不均衡最佳实践 方案概述 Kafka将Topic划分为多个分区,所有消息分布式存储在各个分区上。每个分区有一个或多个副本,分布在不同的Broker节点上,每个副本存储一份全量数据,副本之间的消息数据保持同步。Kafka的Topic、分区、副本和代理的关系如下图所示: 在实际业务过程中可能会遇到各节点间或分区之间业务数据不均衡的情况,业务数据不均衡会降低Kafka集群的性能,降低资源使用率。 业务数据不均衡原因: 业务中部分Topic的流量远大于其他Topic,会导致节点间的数据不均衡。 生产者发送消息时指定了分区,未指定的分区没有消息,会导致分区间的数据不均衡。 生产者发送消息时指定了消息Key,按照对应的Key发送消息至对应的分区,会导致分区间的数据不均衡。 系统重新实现了分区分配策略,但策略逻辑有问题,会导致分区间的数据不均衡。 Kafka扩容了Broker节点,新增的节点没有分配分区,会导致节点间的数据不均衡。 业务使用过程中随着集群状态的变化,多少会发生一些Leader副本的切换或迁移,会导致个别Broker节点上的数据更多,从而导致节点间的数据不均衡。 实施步骤 业务数据不均衡的处理措施: 优化业务中Topic的设计,对于数据量特别大的Topic,可对业务数据做进一步的细分,并分配到不同的Topic上。 生产者生产消息时,尽量把消息均衡发送到不同的分区上,确保分区间的数据均衡。 创建Topic时,使分区的Leader副本分散到各个Broker节点中,以保障整体的数据均衡。 Kafka提供了分区重平衡的功能,可以把分区的副本重新分配到不同的Broker节点上,解决节点间负载不均衡的问题。具体分区重平衡的操作请参考修改分区平衡。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务数据不均衡最佳实践
      • CC防护配置
        本节介绍了DDoS高防(边缘云版)如何配置CC防护功能。 使用场景 CC攻击(Challenge Collapsar)是DDoS(分布式拒绝服务)的一种。CC攻击是目前应用层攻击的主要手段之一,借助代理服务器生成指向目标系统的合法请求,如模拟多个正常用户不停地访问需要大量数据操作的动态页面,造成服务器资源的浪费,CPU长时间处于满载,网络拥塞,正常访问被中止。CC防护根据访问者的URL,频率、行为等访问特征,智能识别CC攻击,迅速识别CC攻击并进行拦截,在大规模CC攻击时可以避免源站资源耗尽,保证企业网站的正常访问。 前提条件 已开通DDoS高防(边缘云版)。 域名状态为“已启用”。 使用说明 1.登录DDoS高防(边缘云版)控制台。 2.进入【业务接入】【域名接入】页面。 3.选择需要配置的域名,在操作栏点击【防护配置】按钮,进入【CC防护配置】页面。 4.CC防护配置项说明: 配置项 说明 防护开关 控制CC防护功能是否生效。 防护模式 阈值:域名访问达到防护条件时进行防护校验。 永久:域名每次访问都进行防护校验。 检测条件 设置检测条件,当触发检测条件后,对请求进行防护。该配置在阈值模式下才可进行配置。 防护时长 达到检测条件后持续对应时间内都进行防护校验。该配置在阈值模式下才可进行配置。 跨域请求防护 若您所防护的域名存在跨域访问场景(即被其他域名网站引用访问),建议关闭跨域请求防护,以免被CC防护算法拦截。 5.完成配置点击右上角【保存】按钮。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        用户指南
        业务接入
        域名接入
        防护配置
        CC防护配置
      • 管理类
        如何保证消息发布的可靠性? 如果acks0,生产者在成功写入消息之前是不会等待任何的来自服务器的响应。可靠性最低、性能最优。 如果acks1,只要集群的首领节点收到消息,生产者就会收到来自服务器成功的响应。 如果acksall / 1,只有在集群所有的跟随副本都接收到消息后,生产者才会受到一个来自服务器的成功响应。可靠性最高,性能最差。 如何保证消息的顺序? Kafka 每个 Partition 都是相互独立的,Kafka 只能保证单个 Partition 下的有序。 局部有序:当我们所需要的有序其实是针对单个用户的有序,而不要求全局有序。我们可以以用户的 ID 作为 key , 确保单个用户一定会被分配到某个固定的 Partition 上(可能会引起数据倾斜问题),这样我们就能够实现单个用户维度的有序了。 如果一定要全局的有序,所有消息都使用同一个 key ,这样他们一定会被分配到同一个 Partition 上,这种做法适用于临时性且数据量不大的小需求,消息量大了会有性能压力。 如何选择 Partiton 的数量? 在创建 Topic 的时候可以指定 Partiton 数量,也可以在创建完后手动修改。但 Partiton 数量只能增加不能减少。中途增加 Partiton 会导致各个 Partiton 之间数据量的不平等。 Partition 的数量直接决定了该 Topic 的并发处理能力。但也并不是越多越好。Partition 的数量对消息延迟性会产生影响。 一般建议选择 Broker Num Consumer Num ,这样平均每个 Consumer 会同时读取 Broker 数目个 Partition , 这些 Partition 压力可以平摊到每台 Broker 上。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        管理类
      • SQL类
        解决方案 MySQL机制约束,建议修改索引或字段长度。 delete大表数据后,再查询同一张表时出现慢SQL 场景描述 一次性删除多条宽列数据(每条记录数据长度在1GB左右),再次对同一张表进行增删改查时均执行缓慢,20分钟左右后恢复正常。 场景案例 1. 假定maxallowedpacket参数大小为1073741824。 2. 创建表。 CREATE TABLE IF NOT EXISTS zstest1 ( id int PRIMARY KEY not null, clongtext LONGTEXT ); 3. 向表中插入数据。 insert into zstest1 values(1, repeat('a', 1073741800)); insert into zstest1 values(2, repeat('a', 1073741800)); insert into zstest1 values(3, repeat('a', 1073741800)); insert into zstest1 values(4, repeat('a', 1073741800)); insert into zstest1 values(5, repeat('a', 1073741800)); insert into zstest1 values(6, repeat('a', 1073741800)); insert into zstest1 values(7, repeat('a', 1073741800)); insert into zstest1 values(8, repeat('a', 1073741800)); insert into zstest1 values(9, repeat('a', 1073741800)); insert into zstest1 values(10, repeat('a', 1073741800)); 4. 删除数据。 delete from zstest1; 5. 执行查询语句。 select id from zstest1; //执行缓慢 原因分析 执行完delete操作后,后台purge线程会去清理标记为delete mark的记录。由于当前删除的数据量较大,purge遍历释放page的过程中会去获取page所在索引根节点的SX锁,导致select语句无法获取到根节点page的rwlock,一直在等待。
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        SQL类
      • 编辑容灾保护组
        接口介绍 编辑云容灾保护组信息 接口约束 1、编辑的云容灾保护组需要存在 2、生产与容灾中心名称用户自定义,长度为 260 字,只能由英文、数字和特殊字符"",且只能以英文开头,以英文或数字结尾 URI POST /v4/disaster/updatepairdisaster 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 参考请求示例 pairID 是 String 保护组ID 参考请求示例 protectedName 是 String 生产中心名称 参考请求示例 drillName 是 String 容灾中心名称 参考请求示例 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 :: statusCode 是 Integer 返回状态码(800为成功,900为失败) 参考响应示例 message 是 String 成功或失败时的描述,一般为英文描述 参考响应示例 description 是 String 成功或失败时的描述,一般为中文描述 参考响应示例 returnObj 否 Object 成功时返回对象 returnObj 表 errorCode 否 String 业务细分码,为product.module.code三段式码 参考状态码 error 否 String 业务细分码,为product.module.code三段式大驼峰码 参考状态码 表 returnObj 参数 是否必填 参数类型 说明 示例 下级对象 status 是 String 编辑云容灾保护组成功 参考响应示例 msg 是 String 编辑云容灾保护组成功描述 参考响应示例
        来自:
        帮助文档
        云容灾 CDR
        API参考
        API(公测中)
        管理容灾保护组
        编辑容灾保护组
      • 场景说明
        本章节介绍云硬盘备份的场景说明,包含一次性备份和周期性备份。 云硬盘备份提供两种配置方式,一次性备份和周期性备份。一次性备份是指用户手动创建的一次性备份任务。周期性备份是指用户通过创建备份策略并绑定云硬盘的方式创建的周期性备份任务。 云硬盘备份的两种配置方式对比如下表,可根据实际情况选择适合的配置方式。 对比项 一次性备份 周期性备份 备份策略 不需要 需要 备份次数 手动执行一次性备份 根据备份策略进行周期性备份 单次可备份的云硬盘数目 1个 无限制由服务器性能决定 备份名称 支持自定义 系统自动生成 建议使用场景 云主机进行操作系统补丁安装、升级,应用升级等操作之前,以便安装或者升级失败之后,能够快速恢复到变更之前的状态。 云主机的日常备份保护,以便发生不可预见的故障而造成数据丢失时,能够使用邻近的备份进行恢复。 另外,用户也可以根据业务情况将两种方式混合使用。例如,根据云硬盘中存放数据的重要程度不同,可以将所有的云硬盘加入到一个备份策略中进行日常备份保护。其中个别保存有非常重要的数据的云硬盘,根据需要不定期的执行一次性备份,保证数据的安全性。
        来自:
        帮助文档
        云硬盘备份 VBS
        快速入门
        场景说明
      • 静态服务资源
        本章节主要介绍翼MapReduce的静态服务资源操作。 简介 集群分配给各个服务的资源是静态服务资源,这些服务包括Flume、HBase、HDFS和Yarn。每个服务的计算资源总量固定,不与其他服务共享,是静态的。租户通过独占或共享一个服务来获取这个服务运行时需要的资源。 静态服务池 静态服务池用来指定服务资源的配置。 在服务级别上,静态服务池对各服务可使用的资源进行统一管理: 限制服务使用的资源总量,支持配置Flume、HBase、HDFS和Yarn在部署节点可使用的CPU、I/O和内存总量。 实现服务级别的资源隔离,可将集群中的服务与其他服务隔离,使一个服务上的负载对其他服务产生的影响有限。 调度机制 静态服务资源支持基于时间的动态调度机制,可以在不同时间段为服务配置不同的资源量,优化客户业务运行环境,提高集群的效率。 在一个复杂的集群环境中,多种服务共享使用集群资源,但是各服务的资源使用周期可能会有比较大的区别。 例如以下业务场景,对于一个银行客户: 在白天HBase查询服务的业务多。 在晚上查询服务的业务少而Hive分析服务业务多。 如果只给每个服务设置固定的资源可能会导致: 白天查询服务的资源不够用,分析服务的资源空闲。 晚上分析服务的资源不够用,查询服务的资源空闲。 集群资源利用率不高,而且服务能力也打了折扣。因此: 白天多配置HBase服务资源。 晚上多配置Hive服务资源。 这种基于时间的动态调度机制可以更高效的利用资源,运行任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理集群
        静态服务池
        静态服务资源
      • 上报日志
        功能介绍 该接口用于上报日志数据至云日志服务中。 URI POST /v1/lts/api/{logProject}/{logUnit}/putlogs Path参数 参数名 类型 描述 endpoint sting 访问地址,请查看访问地址(Endpoint) logProject sting 日志项目ID logUnit string 日志单元ID 参数(Endpoint) 获取方式 各资源池地址请查看访问地址(Endpoint)。 参数(logProject、logUnit)获取方式 logProject、logUnit代表了日志上传的目标日志项目与目标日志单元。要获取这两个参数的前提是您已经成功开通了云日志服务,并创建了日志项目和日志单元,详情参考创建日志项目与日志单元。 创建完成后,您可在云日志服务控制台日志管理日志项目与日志单元列表中获取,将鼠标悬浮在日志项目、日志单元名称上,即可获取项目/单元ID 注意 日志项目和日志单元编码所属区域要和访问地址endpoint相对应,例如日志项目和日志单元开通在华东1区域内,则也需要使用华东1的endpoint。 Header 参数名 说明 token 通过CTAPI获取的临时凭证token值,有限期为30分钟 accesskey 租户的ak ContentType application/json Body 参数名 类型 描述 是否必须 logitems Array[logitem] 参考对象logitem 一个logitme指一条日志 是
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        API接入
        上报日志
      • 上报日志
        功能介绍 该接口用于上报日志数据至云日志服务中。 URI POST /v1/lts/api/{logProject}/{logUnit}/putlogs Path参数 参数名 类型 描述 endpoint sting 访问地址,请查看访问地址(Endpoint) logProject sting 日志项目ID logUnit string 日志单元ID 参数(Endpoint) 获取方式 各资源池地址请查看访问地址(Endpoint)。 参数(logProject、logUnit)获取方式 logProject、logUnit代表了日志上传的目标日志项目与目标日志单元。要获取这两个参数的前提是您已经成功开通了云日志服务,并创建了日志项目和日志单元,详情参考创建日志项目与日志单元。 创建完成后,您可在云日志服务控制台日志管理日志项目与日志单元列表中获取,将鼠标悬浮在日志项目、日志单元名称上,即可获取项目/单元ID 注意 日志项目和日志单元编码所属区域要和访问地址endpoint相对应,例如日志项目和日志单元开通在华东1区域内,则也需要使用华东1的endpoint。 Header 参数名 说明 token 通过CTAPI获取的临时凭证token值,有限期为30分钟 accesskey 租户的ak ContentType application/json Body 参数名 类型 描述 是否必须 logitems Array[logitem] 参考对象logitem 一个logitme指一条日志 是
        来自:
      • 支持云审计的关键操作
        本章节主要介绍支持云审计的关键操作。 云审计服务(Cloud Trace Service,简称CTS)为用户提供了云账户下资源的操作记录,可以帮您记录云数据迁移相关的操作事件,便于日后的查询、审计和回溯。 表 云审计服务支持的CDM操作列表 操作名称 资源类型 事件名称 创建集群 cluster createCluster 删除集群 cluster deleteCluster 修改集群配置 cluster modifyCluster 开机 cluster startCluster 重启 cluster startStopCluster 导入作业 cluster clusterImportJob 绑定弹性IP cluster bindEip 解绑弹性IP cluster unbindEip 创建连接 link createLink 修改连接 link modifyLink 删除连接 link deleteLink 创建任务 job createJob 修改任务 job modifyJob 删除任务 job deleteJob 启动任务 job startJob 停止任务 job stopJob
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        审计
        支持云审计的关键操作
      • 高维向量相似度搜索(vector)
        本小节主要介绍RDSPostgreSQL的vector插件使用方法。 操作场景 RDSPostgreSQL支持 vector插件,提供了一个新的数据类型,能够存储向量类型数据,并实现向量相似度匹配,为AI产品提供底层数据支持。 前提条件 请确保您的实例内核大版本满足,本插件所支持的内核版本,请参考支持的版本插件列表。 插件使用 安装插件 sql CREATE EXTENSION IF NOT EXISTS vector; 卸载插件 sql DROP EXTENSION IF EXISTS vector; 使用示例 数据存储&查询 创建具有3维的向量列 sql CREATE TABLE items (id bigserial PRIMARY KEY, embedding vector(3)); 插入向量 sql INSERT INTO items (embedding) VALUES ('[1,2,3]'), ('[4,5,6]'); 通过L2距离得到最近邻 sql SELECT FROM items ORDER BY embedding '[3,1,2]'; 通过余弦距离得到最近邻 sql SELECT FROM items ORDER BY embedding '[3,1,2]'; 通过内积得到最近邻, 返回的是负内积,因为Postgres只支持运算符上的ASC顺序索引扫描 sql SELECT FROM items ORDER BY embedding '[3,1,2]'; 距离计算 sql SELECT embedding '[3,1,2]' AS distance FROM items; SELECT (embedding '[3,1,2]') 1 AS innerproduct FROM items; SELECT 1 (embedding '[3,1,2]') AS cosinesimilarity FROM items;
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        插件管理
        高维向量相似度搜索(vector)
      • 关系数据库MySQL
        本文主要介绍如何接入Mysql日志。 关系数据库MySQL版日志配置管理可以将MySQL错误日志和慢日志的采集配置纳入管理,将其采集到云日志服务中,满足用户日志处理需求。云日志服务(CTLTS,Log Tank Service)提供一站式日志采集、秒级搜索、海量存储、结构化处理、转储等功能,满足应用运维、网络日志分析、等保合规和运营分析等应用场景。 日志配置管理操作 授权操作 授权访问日志服务操作 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL >实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 点击列表页上方按钮“日志配置管理”。 4. 单击需要配置日志管理的实例记录对应的配置访问日志。 5. 单击授权访问日志服务,完成授权操作。 管理日志项目 1. 点击"查看日志项目"进入“云日志服务”,选择需要操作的“资源池”。 2. 创建“日志项目”,在对应日志项目下,点击项目名称下拉三角符号,并“创建单元”。 配置慢日志或错误日志 1. 进入Mysql控制台,点击"日志配置管理"进入日志配置管理列表界面。 2. 点击需要配置日志管理的实例记录对应的“配置访问日志”按钮。 3. 选择日志类型“慢日志”或“错误日志”。 4. 下拉选择“日志项目”,然后选择“日志单元”。 5. 点击“确认”,等待配置下发完成(约1~2分钟)。 6. 当日志配置管理列表对应实例的”LTS慢日志配置“或”LTS错误日志配置“状态为“运行中”,表示日志配置成功。 注意:如果没有“日志项目”或“日志单元”,先点击"查看日志项目"进入“云日志服务”,创建“日志项目”和“日志单元”。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        关系数据库MySQL
      • 表膨胀问题和应对建议
        本页介绍天翼云TeleDB数据库中表膨胀问题和应对建议。 由于TeleDB的MVCC实现机制原因,表数据的历史版本是保存在当前数据文件中的,通过VACUUM标识和回收一定时间之前的历史版本。对于增、删、改频率很高的表,由于VACUUM回收需要一定的时间,且回收与长事务有关,长事务会导致VACUUM不能及时标识回收历史版本,而频繁的新增、更新操作会写更多的新的页(数据块),导致表数据文件不断膨胀。 表膨胀会带来一些性能影响,如占用了更多的空间,全表扫描时需要扫描更多的的页(数据块)、更耗I/O、更耗时、索引扫描效率也会降低;VACUUM FREEZE时因需要全表扫描,同样效率更低。这和Oracle数据库频繁增、删、改导致的高水位表现一样。 应对表膨胀的建议有几点: 定期清理长事务,避免因长事务导致VACUUM回收失效。 大事务尽量拆成小事务。 设置合理的AUTOVACUUM,尽量能及时回收空间。 配置更好的硬件资源,提高SQL执行效率,提升VACUUM回收效率。 定期监测表膨胀情况,必要时在维护窗口、业务低峰期进行手动回收,或重建表。 用其它方案代替高频增删改的表,例如加入缓存层,高频操作在缓存层实时操作,然后定时同步到数据库。 评估是否可以设计为分区表,通过定期清理历史分区的方式加快数据回收。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        运维最佳实践
        表膨胀问题和应对建议
      • 安全相关
        本章节介绍人脸识别安全相关的常见问题与解答。 是否可以设置IP白名单呢? 人脸识别是API服务,暂不支持白名单设置,您可以在自己的服务器上调用我们的服务。 调用过程中如遇到问题,可通过天翼云官网工单或者客服电话【4008109889】沟通。 人脸识别传输的数据是否经过加密呢? 天翼云人脸识别采用天翼云官网标准EOP网关,在整个数据传输过程中,从源端到目的端,都采取了一系列的安全措施,包括身份验证、加密技术和授权机制、数据完整性保护机制和数据恢复机制等,这些措施可以确保数据传输的安全性和可靠性,提高系统的安全性。 若您的数据比较敏感、安全保密性要求高的话,可考虑使用私有化部署。 使用人脸识别服务,图片数据是否会存储? 天翼云一直注重保护客户隐私,图片数据不会存储。 同时因相关规定限制,人脸识别公有云服务数据不落盘,用户的原始图片和识别数据均不作保留,使用人脸识别服务后,图片数据就会立即释放,不会存储。
        来自:
        帮助文档
        人脸识别
        常见问题
        安全相关
      • 安全相关
        本章节介绍内容审核安全相关的常见问题与解答。 是否可以设置IP白名单呢? 内容识别产品提供API服务,暂不支持白名单设置,您可以在自己的服务器上调用我们的服务。 调用过程中如遇到问题,可通过天翼云官网工单或者客服电话【4008109889】沟通。 内容审核传输的数据是否经过加密呢? 天翼云内容审核采用天翼云官网标准EOP网关,在整个数据传输过程中,从源端到目的端,都采取了一系列的安全措施,包括身份验证、加密技术和授权机制、数据完整性保护机制和数据恢复机制等,这些措施可以确保数据传输的安全性和可靠性,提高系统的安全性。 若您的数据比较敏感、安全保密性要求高的话,可考虑使用私有化部署。 使用内容审核服务,图片数据是否会存储? 天翼云一直注重保护客户隐私,图片数据不会存储。 同时因相关规定限制,内容审核公有云服务数据不落盘,用户的原始图片和识别数据均不作保留,使用内容审核服务后,图片数据就会立即释放,不会存储。
        来自:
        帮助文档
        内容审核(文档停止维护)
        常见问题
        安全相关
      • 使用云监控对ECI实例进行监控
        本文介绍如何使用云监控对ECI实例进行监控。 您可以在云监控控制台查看ECI实例的监控图表,了解ECI实例运行状况,也可以设置报警规则,以便及时得知异常监控数据,并进行处理。 监控指标说明: 天翼云云监控服务是一项可对云产品资源实时监控和告警的服务。使您全面了解云上的资源使用情况、业务的运行状况,并及时收到异常告警做出反应,保证业务顺畅运行。云监控支持以下ECI实例监控指标: 指标名称 介绍 单位 containermemoryworkingsetbytes 容器当前工作集 Byte machinememorybytes 机器上安装的内存量 Byte containercpuusagesecondstotal 容器累计 CPU 时间消耗 s machinecpucores 逻辑 CPU 核心数 containerfsusagebytes 容器文件系统上容器消耗的字节数 Byte containerfslimitbytes 容器文件系统上可消耗的字节数 Byte containernetworkreceivebytestotal 容器接收字节的累计数量 Byte containernetworktransmitbytestotal 容器传输字节的累计数量 Byte ecimemoryusage ECI内存使用率 % ecicpuusage ECI CPU使用率 % ecifilesystemusage ECI文件系统使用率 % ecinetworkinrate ECI网络接受速率 Byte/s ecinetworkoutrate ECI网络发送速率 Byte/s 查看监控数据 1. 登录[++云监控控制台++](
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过ECI控制台使用ECI
        监控
        使用云监控对ECI实例进行监控
      • 迁移任务中如何自定义分区
        本文为您介绍如何在配置迁移任务时自定义分区,并完成该迁移。 介绍说明 您在使用云迁移服务迁移云主机时,可能需要对某个磁盘按需分区。本文以Windows云主机迁移为例,在迁移任务配置中自定义分区后完成本次迁移,该主机存在系统盘C和数据盘E。如图1所示,天翼云ECS由系统盘和数据盘组成,分别为单独的磁盘。 图1:天翼云ECS面板 图2:云主机 操作步骤 1. 在迁移源端云主机上下载CMSAgent,并使用账号下云迁移服务AK/SK安装CMSAgent,具体步骤请参见在源端安装迁移Agent。 2. 迁移Agent启动成功后,登录云迁移控制中心。在“主机管理”页面查看源端云主机信息,迁移状态为“未绑定目标机“。 3. 此时单击“开始迁移”会提示绑定目标机,按指引跳转到目标机绑定界面。 4. 在“云主机选择弹窗”,选择目标机进行绑定。 5. 创建并启动迁移任务,具体步骤请参见创建目标机,检测目标机和绑定目标机。 6. 进入“配置迁移任务”页面,按需对“是否启用增量”、“网络测试”、“压缩率”进行配置,具体步骤请参考公共任务配置。 7. 按迁移源机和目标机盘符情况,对迁移盘符和目的盘符进行配置。如本例迁移源C盘配置: 8. 开始迁移前需要对目标机分区进行确认,单击“重置目标机分区”进行配置。 9. 可以看到目标机磁盘大小及默认分区请况。 10. 如需根据特殊情况调整,可点击目标机物理磁盘进行自定义分区配置。 11. 完成配置后,单击“确认分区”进行保存。 12. 完成以上配置后,可以单击“开始迁移”。 13. 可以看到迁移状态处于“准备阶段”,并可看到迁移任务进度。 14. 您可单击迁移状态以进入“任务追踪”查看任务进度。 15. 迁移任务启动后进入全量迁移。 16. 全量迁移完成后, 若任务配置勾选增量选项,则会自动进入增量迁移状态。 17. 停止迁移源机应用后,单击“引导修复”进行应用切换操作。 目标机开始恢复。 18. 片刻后引导修复完成,完成迁移任务。 19. 迁移任务完成后,目的端ECS会有一个单独系统盘和数据盘。此时完成自定义分区迁移。
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        服务器迁移服务模块
        迁移任务中如何自定义分区
      • 作业开发类
        问题现象 管控面提交Flink任务时launcherjob因heap size不足被Yarn终止如何处理? 解决方法 调大launcherjob的heap size值。 1.使用omm用户登录主OMS节点。 2.修改“/opt/executor/webapps/executor/WEBINF/classes/servicebroker.xml”中参数“job.launcher.resource.memory.mb”的值为“2048”。 3.使用sh /opt/executor/bin/restartexecutor.sh重启executor进程。 提交Flink作业时报错slot request timeout如何处理? 问题现象 Flink作业提交时,jobmanager启动成功,但taskmanager一直是启动中直到超时,报错如下: org.apache.flink.runtime.jobmanager.scheduler.NoResourceAvailableException: Could not allocate the required slot within slot request timeout. Please make sure that the cluster has enough resources 可能原因 1.Yarn队列中资源不足,导致创建taskmanager启动不成功。 2.用户的Jar包与环境中的Jar包冲突导致,可以通过执行wordcount程序是否成功来判断。 3.若集群为安全集群,可能是Flink的SSL证书配置错误,或者证书过期。 解决方法 1.增加队列的资源。 2.排除用户Jar包中的Flink和Hadoop依赖,依靠环境中的Jar包。 3.重新配置Flink的SSL证书。 DistCP作业导入导出数据常见问题 DistCP类型作业导入导出数据时,是否会对比数据的一致性? 不会。 DistCP类型作业导入导出数据时不会对比数据的一致性,只是对数据进行拷贝,不会修改数据。 DistCP类型作业在导出时,遇到OBS里已经存在的文件是如何处理的? 覆盖原始文件。 DistCP类型作业在导出时,遇到OBS里已经存在的文件时会覆盖原始文件。 如何通过Yarn WebUI查看Hive作业对应的SQL语句? 以业务用户登录FusionInsight Manager。 1.选择“集群 > 服务 > Yarn”,单击“ResourceManager WebUI”后的“ResourceManager(xxx,主) ”超链接,进入Yarn WebUI界面。 2.单击待查看的作业ID。 3.单击“Tracking URL”后的“ApplicationMaster”或“History”。 4.单击左侧导航栏的“Configuration”,在右上角搜索“hive.query.string”参数,即可查询出对应的HiveSQL。 如何查看指定Yarn任务的日志? 以root用户登录主Master节点。 1.执行如下命令初始化环境变量。 source 客户端安装目录/bigdataenv 2.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS集群用户 3.执行以下命令获取指定任务的日志信息。 yarn logs applicationId 待查看作业的applicationID
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        作业开发类
      • 1
      • ...
      • 86
      • 87
      • 88
      • 89
      • 90
      • ...
      • 706
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      弹性伸缩服务 AS

      训推服务

      公共算力服务

      应用托管

      一站式智算服务平台

      智算一体机

      人脸实名认证

      推荐文档

      入门教程③:远程桌面无法复制粘贴问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号