活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云日志审计_相关内容
      • 删除桶
        本文帮助您了解对象存储删除桶的操作步骤。 操作场景 当您不再需要使用一个桶时,可以通过ZOS控制台将其删除,这样可以释放桶所占用的数量配额,以便您可以创建更多的桶。存储桶数量配额说明请见产品使用限制。 约束与限制 若桶中有对象和碎片,需先彻底删除对象和碎片后,再删除桶。 若桶已绑定自定义域名,需先解绑后,再删除桶。 若桶作为了日志存储目标桶,请取消后再删除桶。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表,选择Bucket名称,点击“删除”。 5. 单击“确定”,完成桶删除。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        入门操作
        删除桶
      • Oracle数据库初始化
        本节为Oracle RAC搭建最佳实践的Oracle数据库初始化进行说明。 静默安装 与grid和database安装相同,预先准备response文件,然后以静默安装的方式进行Oracle数据库的配置。 response文件位于:/u01/app/oraclehome/assistants/dbca/dbca.rsp 。 切换到oracle用户,并切换到 /u01/app/oraclehome ,执行dbca命令: [oracle@racnode01 oraclehome]$ dbca silent createDatabase responseFile assistants/dbca/dbca.rsp 以上安装命令可能会失败,需要检查执行日志文件,处理失败项,然后跳过非关键问题后继续执行: [oracle@racnode01 oraclehome]$ dbca silent ignorePrereqFailure createDatabase responseFile assistants/dbca/dbca.rsp 检查状态 检查配置的ora.racdb.db是否正常 ONLINE 。 [root@racnode01 ~] crsctl stat res t ... ora.racdb.db 1 ONLINE ONLINE racnode01 Open,HOME/u01/app/o raclehome,STABLE 2 ONLINE ONLINE racnode02 Open,HOME/u01/app/o raclehome,STABLE 安装完成之后,可以通过Oracle相关测试工具(如 swingbench ),进行功能、性能、稳定性测试。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        弹性裸金属ORACLE RAC搭建最佳实践
        Oracle软件配置安装
        Oracle数据库初始化
      • 分布式消息产品选型
        特性 Kafka RabbitMQ RocketMQ 功能 支持功能较少,不支持延迟发送,消息重试等功能 功能丰富,支持多个队列种类(优先级队列、延迟队列、死信队列镜像队列等),提供丰富的策略分配 功能完善,支持事务消息、定时消息、事务消息等 单机吞吐量 十万级 万级 几万级 稳定性 队列/分区多时性能不稳定 消息堆积时,性能不稳定 队列较多、消息堆积时性能保持稳定 可用性 非常高(分布式)具有主备故障自动切换 较高,基于主从架构实现高可用性 非常高(分布式)具有主备故障自动切换 选型建议 性能要求高,数据量大,适合产生大量数据的互联网服务的数据收集业务,如日志采集处理、需对接大数据应用等,kafka是首选。 数据量少,吞吐量需求不大;数据可靠性要求较高,对功能丰富性极高 可靠性要求很高且性能要求较高的场景以及业务削峰场景,如电商、订单处理等。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        分布式消息产品选型
      • 更新历史
        更新日期 更新内容 20220430 第一次正式发布。 本次更新说明如下: 官网正式上线API文档,包含:域名管理、证书管理、刷新预热、统计分析、屏蔽解封、日志下载、辅助工具等类别的API。 20220831 第二次正式发布。 本次更新说明如下: 上线账单服务API,包含:查询计费账单、查询资源包、查询开通服务基本信息、域名计费值查询。 20220930 第三次正式发布。 本次更新说明如下: 上线标签管理API,包含:新增标签、查看标签、删除标签、标签关联域名。 20221031 第四次正式发布。 本次更新说明如下: 上线报表管理API,包含:新增报表订阅、更新报表订阅、查询报表订阅详情、删除报表订阅。 20221130 第五次正式发布。 本次更新说明如下: 上线边缘脚本API,包含:创建或修改预部署环境脚本、查询预部署环境的编译结果、获取预部署节点VIP、查询预部署环境的边缘脚本配置、预部署环境配置转生产、预部署环境配置回滚、删除脚本配置、查询预部署环境异常运行情况。
        来自:
        帮助文档
        全站加速
        API参考
        更新历史
      • 修改配置参数
        参数 参数说明 参数范围 默认值 connections.max.idle.ms 此参数用来指定在多少毫秒之后,关闭空闲的连接。 5000 ~ 600000 600000 log.retention.hours 日志文件最大保存时间。单位为小时。如果Topic已经设置了老化时间,则此参数对此Topic不生效。仅在Topic未设置老化时间时,此参数才对此Topic生效。 1 ~ 168 72 group.max.session.timeout.ms consumer允许的最大会话超时时间,单位为ms。超时时间越长,consumer就能在心跳探测周期内有更多时间处理消息,但也会使故障检测花费更长时间。 6000 ~ 1800000 1800000 default.replication.factor 自动创建Topic时的默认副本个数。 1 ~ 3 3 num.partitions 自动创建Topic时的默认分区数。 1 ~ 100 3 group.min.session.timeout.ms consumer允许的最小会话超时时间,单位为ms。超时时间越短,consumer的心跳探测越频繁,可以使故障检测更快,但会导致broker被抢占更多的资源。 6000 ~ 300000 6000
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        修改配置参数
      • 产品定义
        本文主要介绍 产品定义。 Kafka是一个拥有高吞吐、可持久化、可水平扩展,支持流式数据处理等多种特性的分布式消息流处理中间件,采用分布式消息发布与订阅机制,在日志收集、流式数据传输、在线/离线系统分析、实时监控等领域有广泛的应用。 分布式消息服务Kafka是一款基于开源社区版Kafka提供的消息队列服务,向用户提供计算、存储和带宽资源独占式的Kafka专享实例。使用分布式消息服务Kafka,资源按需申请,即买即用,您将有更多精力专注于业务快速开发,不用考虑部署和运维。 关于Kafka的帮助手册阅读指引 受限于篇幅,我们提供的Kafka帮助手册重点描述产品相关的内容,以及与开源社区版Kafka的差异部分,例如Kafka的产品规格、控制台操作、客户端对接等。 如果您需要了解Kafka入门知识或消息生产、消费等方面的技术细节,请查阅Kafka官网资料。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品定义
      • PUT Bucket Lifecycle
        本节主要介绍PUT Bucket Lifecycle。 此操作用来设置Bucket生命周期规则。只有根用户和具有PUT Bucket Lifecycle权限的子用户才能执行此操作。 通过设置存储桶的生命周期规则,可以: 删除与生命周期规则匹配的文件:当文件的生命周期到期时,OOS会异步删除它们。生命周期中配置的到期时间和实际删除时间之间可能会有一段延迟。但文件到期被删除后,用户将不需要为到期的文件付费。OOS删除到期文件后,会在Bucket log中记录一条日志,操作项是"OOS.EXPIRE.OBJECT"。 将与生命周期规则匹配的文件由标准存储转换为低频访问存储:可以根据需要设置生命周期规则从文件最后一次修改时间生效,还是从文件最后一次访问时间生效。OOS转换存储类型为低频访问存储后,会在Bucket log中记录一条日志,操作项是"OOS.TRANSITIONSIA.OBJECT"。 注意 如果文件的生命周期规则设置的是到期后删除,文件到期后将被永久删除,无法恢复。 如果Bucket内的生命周期规则正在执行时被修改配置,则修改后的配置并不立即生效,需等原生命周期规则执行完成后才能生效。 如果Bucket没有配置过生命周期规则,执行该操作将创建新的生命周期规则。如果Bucket已存在生命周期规则,则执行此操作将覆盖原有规则。 每个Bucket最多创建1000条生命周期规则。 同一Bucket,同一类型(到期删除或者到期转成低频访问存储)的生命周期规则不能存在叠加前缀,例如已创建到期删除文件的生命周期规则的前缀是ABC,则无法再创建前缀为ABCD或AB或A的到期删除文件的生命周期规则。 当用户为Bucket设置了生命周期规则,这些规则将同时应用于已有文件和后续新创建的文件。例如,用户今天增加了一个生命周期,指定某些前缀的文件30天后过期,那么OOS将会将满足条件的30天前创建的文件都加入到待删除队列中。 OOS通过将文件的最后一次修改时间或最后一次访问时间,加上生命周期时间来计算到期时间,并且将时间近似到下一天的GMT零点时间。例如基于创建时间设置生命周期:一个文件于GMT 2016年1月15日10:30创建,生命周期为3天,那么文件的到期时间是GMT 2016年1月19日00:00。当重写一个文件时,OOS将以最后更新时间为准,来重新计算该文件的到期时间。 可以通过GET Object、HEAD Object查询文件的到期时间。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        PUT Bucket Lifecycle
      • MySQL数据迁移到MRS Hive分区表
        创建迁移作业 1. 选择“表/文件迁移 > 新建作业”,开始创建数据迁移任务,如下图“创建MySQL到Hive的迁移任务”所示。 说明 “导入前清空数据”选“是”,这样每次导入前,会将之前已经导入到Hive表的数据清空。 2. 作业参数配置完成后,单击“下一步”,进入字段映射界面,如下图“Hive字段映射”所示。 映射MySQL表和Hive表字段,Hive表比MySQL表多三个字段y、ym、ymd,即是Hive的分区字段。由于没有源表字段直接对应,需要配置表达式从源表的StartDate字段抽取。 3. 单击 进入转换器列表界面,再选择“新建转换器 > 表达式转换”,如下图“配置表达式”所示。 y、ym、ymd字段的表达式分别配置如下: DateUtils.format(DateUtils.parseDate(row[2],"yyyyMMdd HH:mm:ss.SSS"),"yyyy") DateUtils.format(DateUtils.parseDate(row[2],"yyyyMMdd HH:mm:ss.SSS"),"yyyyMM") DateUtils.format(DateUtils.parseDate(row[2],"yyyyMMdd HH:mm:ss.SSS"),"yyyyMMdd") 说明 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 4. 单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。这里保持默认值“1”。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入脏数据前需要先配置好OBS连接。这里保持默认值“否”即可,不记录脏数据。 作业运行完是否删除:这里保持默认值“不删除”。 5. 单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 6. 作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MySQL数据迁移到MRS Hive分区表
      • 升级内核小版本
        本章节会介绍如何升级内核小版本。 操作场景 云数据库MySQL支持自动或手动升级内核小版本,内核小版本的升级涉及性能提升、新功能或问题修复等。 有新的内核小版本发布时,您可以在“实例管理”页面“数据库引擎版本”列看到内核小版本升级提示,单击“补丁升级”跳转到小版本升级页面。 内核小版本功能详情请参见MySQL内核版本说明。根据升级时间不同,升级内核小版本可以分为以下两种方式。 立即升级:您可以根据实际业务情况,在目标实例的“基本信息”页面手动升级内核小版本。 可维护时间段内升级:您可以在您设置的可维护时间段内进行升级,详情参见设置可维护时间段。 注意事项 当有对应的小版本更新时(定期同步开源社区问题、漏洞修复),请及时升级小版本。 升级数据库内核小版本会重启MySQL实例,服务可能会出现闪断,请您尽量在业务低峰期执行该操作,或确保您的应用有自动重连机制。 升级内核小版本期间,除了主备切换时的网络闪断外,由于主备之间默认是半同步复制,升级过程中会有两次单条SQL持续最长十秒的更新及写入等待,用户可通过修改主备间的复制模式为异步来规避此场景。 如果主备实例在同一个AZ,升级内核小版本会触发一次主备倒换;如果主备实例在不同AZ,则会触发两次主备倒换。 升级主实例小版本时,如有只读实例,也会同步升级只读实例的小版本,升级完成会重启实例,请您选择合适的时间升级(不支持单独升级只读实例的小版本)。 升级内核小版本时,如果RDS实例为DRS任务的源端,DRS可能会拉取不到RDS实例的日志;如果RDS实例为DRS任务的目标端,DRS可能会写不进目标库。 建议您在升级内核小版本前先确认RDS实例Binlog的保留时间: − 如果Binlog在保留时间内,待内核小版本升级完成后,DRS任务会自动重启。 − 如果Binlog不在保留时间内,您需要重新配置或创建DRS任务。 升级内核小版本后,实例会升级到新的内核小版本,无法降级。如果升级失败,将会自动回退到原版本。 升级小版本前建议先做一次全量备份。 升级内核小版本一般是分钟级完成。 小版本升级过程中禁止event的ddl操作,如create event、drop event和alter event。 如果小版本升级时,界面提示主节点存在DDL操作,可通过如下方式处理: − 将实例STATUS为SLAVESIDEDISABLED状态的event,更改为ENABLED或者DISABLED状态后再进行升级。 − 删除SLAVESIDEDISABLED状态的event后再进行升级。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        升级内核小版本
      • 在科研助手使用ComfyUI进行复杂图像生成
        启动推理: 1. 上面步骤下载模型完成后,在ComfyUI页面点击【Queue Prompt】 2. 第一次推理需要加载模型,要等待一段时间,可以在终端查看程序日志,在Jupyter启动页【其他】下点击"终端"跳转到终端页面 3. 终端输入命令:tail f log.txt 4. 推理完成后会根据CLIP框的提示词在右侧生产图片 更换workflow并生成图片: 1. 在ComfyUI页面点击按快捷键CTRL+O,选择controllnetworkflow.json 2. 在Load Image控件点击【choose file to upload】选择文件inputscribbleexample.png 3. 在ComfyUI页面点击【Queue Prompt】 4. 推理完成后会根据CLIP框的提示词在右侧生产图片
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用ComfyUI进行复杂图像生成
      • 分布式消息产品选型
        介绍分布式消息产品选型对比项。 特性 Kafka RabbitMQ RocketMQ 功能 支持功能较少,不支持延迟发送,消息重试等功能 功能丰富,支持多个队列种类(优先级队列、延迟队列、死信队列镜像队列等),提供丰富的策略分配 功能完善,支持事务消息、定时消息、事务消息等 单机吞吐量 十万级 万级 几万级 稳定性 队列/分区多时性能不稳定 消息堆积时,性能不稳定 队列较多、消息堆积时性能保持稳定 可用性 非常高(分布式)具有主备故障自动切换 较高,基于主从架构实现高可用性 非常高(分布式)具有主备故障自动切换 选型建议 性能要求高,数据量大,适合产生大量数据的互联网服务的数据收集业务,如日志采集处理、需对接大数据应用等,kafka是首选 数据量少,吞吐量需求不大;数据可靠性要求较高,对功能丰富性极高 可靠性要求很高且性能要求较高的场景以及业务削峰场景,如电商、订单处理等
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        分布式消息产品选型
      • 操作类
        本文介绍应用托管的操作类问题。 如何部署应用? 方式1:通过应用市场或MCP市场浏览选择所需的应用,一键部署应用,支持为部署的应用提供公网访问能力。 方式2:通过应用实例菜单,创建自定义应用,自定义部署参数后完成应用部署。 如何管理应用? 通过应用实例管理已部署的应用,支持应用的访问、启停、更新、扩缩容等操作,支持资源实例的终端登录,支持查看日志、事件和监控。 购买算力时,资源已经售罄怎么办? 如果在部署应用时,所需算力资源时遇到资源售罄,建议您根据需要调整需求: 更换可用区 更换算力规格 平台会视情况补充资源,如没有合适的算力可联系您的客户经理,或者提交客服工单,亦或直接拨打客服热线。 为什么我能查询到的算力比较少? 算力规格和资源池未针对用户全网开放,如没有合适的算力请联系您的客户经理,或者提交客服工单,亦或直接拨打客服热线。
        来自:
        帮助文档
        应用托管
        常见问题
        操作类
      • 设置特殊字符访问拦截
        配置项 说明 防护模式 关闭:不开启特殊字符访问检测。 拦截:对请求URI中的特殊字符进行检测,若触发防护条件,则对请求进行拦截。 告警:对请求URI中的特殊字符进行检测,若触发防护条件,产生攻击日志,不进行拦截。 特殊字符 定义需要检测的特殊字符,支持添加多个,支持删除。 防护范围 防护粒度:支持选择PATH和URI,多个防护粒度为且关系,满足所有条件时,才触发处理动作。 逻辑符号:等于/不等于。 匹配内容:不同的粒度支持输入不同的匹配内容。一般支持输入多条,多条内容用英文符号;分隔。 防护条件 统计粒度为URI,当“检测字符数”或"检测字符类型数"达到配置值时,将触发处理动作。 检测字符数”、"检测字符类型数"两个配置条件为或关系。 检测字符数建议为5,检测字符类型数建议为3。 检测最大长度 检测的最大原始字符串长度(未解码前),若不填写默认检测前100个字符。 最大可配置2028。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        访问控制/限流
        设置特殊字符访问拦截
      • 产品优势
        本节介绍智算套件产品优势。 高效管理 控制面全托管,统一纳管GPU、NPU、RDMA等异构智算资源,提供完善的监控、运维能力,解决企业在异构算力管理、资源效率、成本控制等方面的核心痛点。 智能调度 支持共享GPU、算力切分、拓扑感知、故障感知、优先级等调度策略,满足不同场景下客户对算力的细粒度把控。 断点续训 CheckPoint 秒级读写,主动感知故障事件和潜在风险,自动重调度和优雅容错,解决传统系统 “故障恢复慢、数据易丢失、人工干预成本高” 的痛点。 弹性伸缩 工作节点弹性伸缩,支持集群HPA与VPA,轻松应对业务负载波动,避免资源闲置,提升集群资源的利用率及调度能力。 推理加速 通过AI网关优化流量分配、KVCache减少重复计算、PD分离匹配阶段特性,大幅提升推理效率。 可观测 可视化GPU资源监控大盘,一键集群巡检,全链路日志监测,724告警策略,为AI业务的持续运营提供“全天候、无死角”的保障。
        来自:
        帮助文档
        智算套件
        产品介绍
        产品优势
      • 零基础如何使用CDN
        深入认识CDN 说明 本专题按域名管理、证书管理、统计分析、刷新预取、日志下载、计费详情等模块化主题,非常详尽地介绍天翼云CDN已支持的功能和服务,帮助客户深入理解CDN功能,指导客户与自己的业务相结合,获得优质的加速效果的同时,利用CDN平台的数据辅助业务决策,实现高收益。 通过将客户最关心的使用场景,进行针对性分析和总结,得出最佳实践案例,从而辅助有同类场景的客户更快上手。 通过归纳和总结,把客户咨询频率比较高的问题梳理成故障排查案例,提高客户问题排查的能力。
        来自:
        帮助文档
        CDN加速
        快速入门
        零基础如何使用CDN
      • 将PostgreSQL迁移到TeleDB
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将PostgreSQL迁移到TeleDB
      • 将DDS/MongoDB分片集群迁移到DDS/MongoDB分片集群
        迁移规则须知 暂不支持同步包含TTL(Time To Live)索引的集合。若待同步的数据库中包含TTL索引,则可能会由于源库和目标库时区、时钟等的不一致,导致数据不一致。 不保留事务信息,即源库中的事务同步到目标库时会转变为单条的记录。 源端的分片信息会作为目标端分片的依据进行分片键的处理。 用户手动配置的任务为主任务,DTS会自动为源端每个分片建立独立的迁移子任务,在主任务详情中可以通过主子任务列表查询每个分片的迁移子任务信息。 操作须知 源库须开启Oplog日志。 源端、目标端实例的运行状态、复制状态必须正常。 在迁移时,如果源库、目标库进行主备切换,将会导致任务异常。 选择表级对象迁移时,增量迁移过程中不允许对表进行重命名操作。 如迁移对象为表级别,则单次迁移任务仅支持迁移最多1000张表。当超出数量限制,任务可能会报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 在DTS迁移期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 在磁盘空间允许的情况下,建议源数据库oplog保存大小或时间越大越好。否则DTS在增量迁移时可能因无法获取oplog而导致任务失败。如果由于您所设置的oplog日志保存策略低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 全量初始化会并发执行INSERT操作,导致目标数据库的集合产生碎片,因此全量初始化完成后目标实例的集合空间比源实例的集合空间大。建议目标库的存储空间比源库大10%以上。 建议源和目标库的MongoDB的数据库版本保持一致,或者从低版本同步到高版本以保障兼容性。如为高版本同步至低版本,可能存在数据库兼容性问题。 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移,否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将DDS/MongoDB分片集群迁移到DDS/MongoDB分片集群
      • 云容器集群Pod Java方法抛自定义异常
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到JAVA类方法抛自定义异常动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的HTTP请求错误数、HTTP状态码统计,HTT响应时间等指标。 2、业务应用验证: 观察运行在目标节点上的业务 Pod,确认业务请求是否受影响。 评估此重定向对业务功能造成的具体影响,例如页面无法访问、API调用失败或延迟响应。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod Java方法抛自定义异常
      • 云容器集群Pod DNS篡改
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到DNS篡改动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的HTTP请求错误数、HTTP状态码统计指标。 2、业务应用验证: 观察运行在目标节点上的业务 Pod,确认访问被篡改域名的流量是否已被重定向。 评估此重定向对业务功能造成的具体影响,例如页面无法访问、API调用失败或连接到错误的服务。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod DNS篡改
      • 云容器集群Pod Java方法抛自定义异常(1)
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到JAVA类方法抛自定义异常动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的HTTP请求错误数、HTTP状态码统计,HTT响应时间等指标。 2、业务应用验证: 观察运行在目标节点上的业务 Pod,确认业务请求是否受影响。 评估此重定向对业务功能造成的具体影响,例如页面无法访问、API调用失败或延迟响应。
        来自:
      • 云容器集群Pod DNS篡改(1)
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到DNS篡改动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的HTTP请求错误数、HTTP状态码统计指标。 2、业务应用验证: 观察运行在目标节点上的业务 Pod,确认访问被篡改域名的流量是否已被重定向。 评估此重定向对业务功能造成的具体影响,例如页面无法访问、API调用失败或连接到错误的服务。
        来自:
      • 创建Topic
        本节主要介绍分布式消息服务Kafka的创建Topic说明 背景信息 Kafka的主题(Topic)是对消息进行分类和组织的概念。主题是Kafka中最基本的逻辑单元,用于区分不同类型的消息。 每个主题可以有多个分区(Partition),每个分区都是一个有序的消息日志。分区允许消息在集群中进行并行处理,提高了吞吐量和并发性能。 主题的特点包括: 逻辑分类:主题可以根据业务需求或数据类型进行逻辑分类,例如订单主题、日志主题、用户行为主题等。 多分区:主题可以被分成多个分区,每个分区都有自己的消息顺序。分区可以在不同的节点上进行存储和处理,实现了水平扩展和负载均衡。 副本复制:每个分区可以有多个副本(Replica),副本用于提供高可用性和容错性。副本可以分布在不同的节点上,当节点故障时可以自动进行故障转移。 持久化存储:主题中的消息被持久化存储在磁盘上,确保消息的可靠性和持久性。消费者可以随时消费主题中的历史消息,而不仅仅是最新的消息。 通过使用主题,Kafka能够有效地组织和管理大规模的消息流。主题的分区和副本机制提供了高可用性和容错性,使得Kafka成为处理大规模实时数据流的理想选择。 前提条件 已购买并部署分布式消息服务Kafka 操作步骤 创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后、点击“创建Topic”。 (5)点击“创建Topic”后,输入Topic名称、分区数等参数。 (6)创建好Topic后,可以点击“更多”按钮中的“生产消息”来测试其是否正常。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建Topic
      • 产品能力地图
        资源池名称 标准存储 低频存储 归档存储 多AZ规格 公共资源池 碎片管理 防盗链 跨域设置 桶ACL 生命周期 版本管理 日志转存 服务端加密 对象存储迁移 用户配额 桶清单 图片处理进阶版 跨区域复制 合规保留 自定义域名 数据回源 桶策略基础版 桶策略进阶版 双端固定 专线接入对象存储 对象存储监控 软链接 STS临时授权 桶配额 归档直读 通过VPCE访问对象存储 合肥2 √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ ◎ 北京5 √ √ √ √ √ √ √ √ √ √ √ √ ◎ √ 重庆2 √ √ √ √ √ √ √ √ 福州25 √ √ √ √ √ √ √ √ √ √ ◎ ◎ 厦门3 √ √ √ √ √ √ √ √ √ 贵州3 √ √ √ √ √ √ √ √ √ √ ◎ 广州6 √ √ √ √ √ √ √ √ √ √ √ √ ◎ 南宁23 √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ √ 兰州2 √ √ √ √ √ √ √ √ √ 郑州5 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ √ √ 武汉4 √ √ √ √ √ √ √ √ √ 武汉41 √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ ◎ √ 华东1 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ √ ◎ ◎ √ ◎ ◎ ◎ √ 华南2 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ ◎ √ 石家庄20 √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ 长沙42 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ ◎ ◎ √ 郴州2 √ √ √ √ √ √ √ √ √ 海口2 √ √ √ √ √ √ √ √ √ √ √ ◎ 华北2 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ √ ◎ ◎ √ ◎ ◎ √ 南京3 √ √ √ √ √ √ √ √ √ 南京5 √ √ √ √ √ √ √ √ √ √ ◎ 九江 √ √ √ √ √ √ √ √ √ √ ◎ 南昌5 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ √ 辽阳1 √ √ √ √ √ √ √ √ √ √ 中卫5 √ √ √ √ √ √ √ √ √ √ ◎ 内蒙6 √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ 西宁2 √ √ √ √ √ √ √ √ √ 青岛20 √ √ √ √ √ √ √ √ √ √ √ ◎ √ ◎ √ 成都4 √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ 西安5 √ √ √ √ √ √ √ √ √ √ ◎ √ 西安7 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ √ 上海7 √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ ◎ ◎ ◎ ◎ 上海15 √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ √ 上海36 √ √ √ √ √ √ √ √ √ √ ◎ √ ◎ ◎ ◎ ◎ ◎ ◎ √ 晋中 √ √ √ √ √ √ √ √ 太原4 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ 乌鲁木齐27 √ √ √ √ √ √ √ √ √ √ ◎ ◎ 拉萨3 √ √ √ √ √ √ √ √ √ √ 西南1 √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ √ ◎ √ √ ◎ ◎ √ √ 西南2贵州 √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ √ √ 昆明2 √ √ √ √ √ √ √ √ √ √ ◎ 杭州2 √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ 杭州7 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ ◎ ◎ √ 呼和浩特3 √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ 芜湖4 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ 庆阳2 √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ ◎ 乌鲁木齐7 √ √ √ √ √ √ √ √ √ √ √ √ √ √ ◎ ◎ 沈阳8 √ √ √ √ √ √ √ √ √
        来自:
        帮助文档
        对象存储 ZOS
        产品简介
        产品能力地图
      • 如何在MSE上为Spring Cloud应用构建服务注册中心?
        config center config: username: ${NAOCSUSERNAME} password: ${NAOCSPASSWORD} serveraddr: ${NACOSSERVERADDRESS} namespace: ${NACOSCONFIGNAMESPACE} group: ${NACOSCONFIGGROUP} prefix: 其中 namespace 默认值为空,也就是public命名空间,group 默认值为DEFAULTGROUP, prefix属性为非必要属性,可以按照需要决定是否配置。配置文件中的值既可以配置真实值,也可以配置为从环境变量中获取。 为了方便获取和使用配置,可以自定义配置类。在自定义属性类上需要增加注解,否则远程配置更新是客户端的配置不会自动更新。如下所示,定义了一个前缀为user的属性类,自动绑定user前缀的属性。 @RefreshScope @ConfigurationProperties(prefix "user") public class User implements InitializingBean, DisposableBean { private String name; private int age; public String getName() { return name; } public void setName(String name) { this.name name; } public int getAge() { return age; } public void setAge(int age) { this.age age; } @Override public String toString() { return "User{" + "name'" + name + ''' + ", age" + age + '}'; } } 配置完成后,启动应用。在启动应用后查看启动日志,会发现在一般情况下,应用监听三个配置文件而不论这三个远程配置文件是否存在。 [fixedprodIP47588] [subscribe] +paasdefault+prod [fixedprodIP47588] [addlistener] ok, tenantprod, dataId, grouppaasdefault, cnt1 [Nacos Config] Listening config: dataId, grouppaasdefault [fixedprodIP47588] [subscribe] prod.properties+paasdefault+prod [fixedprodIP47588] [addlistener] ok, tenantprod, dataIdprod.properties, grouppaasdefault, cnt1 [Nacos Config] Listening config: dataIdprod.properties, grouppaasdefault [fixedprodIP47588] [subscribe] .properties+paasdefault+prod [fixedprodIP47588] [addlistener] ok, tenantprod, dataId.properties, grouppaasdefault, cnt1 [Nacos Config] Listening config: dataId.properties, grouppaasdefault 默认情况下,监听的配置文件的dataId{prefix}prefix−{spring.profile.active}.${fileextension}。 其中profix默认为${spring.application.name}。 fileextension表示配置的类型,默认为properties。 如果没有指定spring.profile.active,那么dataId就变成了profix.{profix}.profix.{fileextension}。 启动时会发现启动日志中会打出多个: ${prefix} ${prefix}−{spring.profile.active} ${prefix}−{spring.profile.active}.${fileextension} 说明其实是可以匹配配置中心中配置的多条配置名称。匹配优先级是:3>2>1,精确匹配。 通过 控制台更新配置,在应用端可以接收到更新的推送。如果服务端同时存在多个监听的配置,则当更新高优先级的配置时,客户端才会接收到更新。 客户端接收到更新推送,变更为最新的值。至此,说明接入配置中心成功,配置可以动态更新了。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        注册配置中心
        应用开发
        如何在MSE上为Spring Cloud应用构建服务注册中心?
      • 请求处理程序(Handler)
        本文介绍如何使用Python请求处理程序响应接收到的事件并执行相应的业务逻辑。 请求处理程序 请求处理程序 是您提供的一个方法。当您的函数被调用时,函数计算会运行该方法处理请求。 您可以通过函数计算控制台页面 配置请求处理程序 ,对于Python语言的函数,请求处理程序需配置为 [文件名].[方法名]。例如,您的文件名为index.py,方法名为handler,则请求处理程序可配置为 index.handler。 事件请求处理程序的方法签名定义如下: def handler(event, context): return 'Hello Python!' 方法名 您可以自定义方法名称。 event入参 您调用函数时传入的参数。 context入参 context参数中包含一些函数的运行时信息(例如RequestId、临时AccessKey等)。 HTTP请求处理程序的方法签名定义如下: coding: utf8 HELLOWORLD b'Hello world!n' def handler(environ, startresponse): status '200 OK' responseheaders [('Contenttype', 'text/plain')] startresponse(status, responseheaders) return [HELLOWORLD] 方法名 您可以自定义方法名称。 environ入参 用于存放所有HTTP请求的信息。 startresponse入参 发送 HTTP 响应的函数,包含两个参数:HTTP状态码、一组Python list对象组成的HTTP Headers。 示例:获取JSON中的字段 coding: utf8 import json def handler(event, context): person json.loads(event) name person["name"] address person["address"] return f"Input name is: {name}, address is: {address}" 示例二:使用HTTP触发器调用函数 import json import logging 配置日志 logger logging.getLogger() logger.setLevel(logging.INFO) def handler(environ, startresponse): 获取请求路径、URI和客户端IP requestpath environ.get('FCREQUESTPATH', '') requesturi environ.get('FCREQUESTURI', '') requestclientip environ.get('FCREQUESTCLIENTIP', '') 记录日志 logger.info("hello") print("print hello") 获取请求体数据 try: 读取请求体 requestbodysize int(environ.get('CONTENTLENGTH', 0)) except (ValueError): requestbodysize 0 requestbody environ['wsgi.input'].read(requestbodysize) 解析JSON请求体 try: if requestbody: jsondata json.loads(requestbody.decode('utf8')) logger.info(f"body: {json.dumps(jsondata)}") else: jsondata {} logger.info("body: empty") except json.JSONDecodeError as e: logger.error(f"JSON解析错误: {e}") jsondata {} 构建响应内容 responsecontent f"Path: {requestpath}nUri: {requesturi}nIP: {requestclientip}n" 设置响应状态和头部 status '200 OK' responseheaders [ ('header1', 'value1'), ('header2', 'value2'), ('ContentType', 'text/plain') ] startresponse(status, responseheaders) 返回响应内容 return [responsecontent.encode('utf8')]
        来自:
        帮助文档
        函数计算
        用户指南
        代码开发
        Python
        请求处理程序(Handler)
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 1. 先准备好介质独立部署,为方便快速部署,TelePG从1.5.3版本开始支持独立部署功能。前期准备好介质,部署好zk,部署好mysql,借助TelePG控制台进行部署。 2. 通过集团云翼平台直接订购开通部署。 3. 流复制是PostgreSQL 9.0 之后提供的新的传递 WAL 日志的方法。通过流复制,备库不断的从主库同步相应的数据,并在备库应用每个 WAL 文件 。主备模式推荐采用同步及潜在同步至少三节点的方式。 4. 暂不支持自动建立database,需用户手动建立database;支持自动建schema,用户可不用手动建立schema。 内存分配 1.shared buffer pool,共享内存区域:供 PostgreSQL 服务器的所有进程使用。查看 sharedbuffers 参数可以得到其设置值,建议设为内存的四分之一。 2.WAL buffer,预写日志缓冲区:WAL 数据在写入持久存储之前的缓冲区,实例初始化时自动计算。 3.commit log,提交日志:所有事务的状态日志,每个事务占用 2bit,最大512MB。 4.tempbuffers,临时表缓冲区。 5.workmem,工作内存:执行器在执行 sort、distinct 使用该区域对元组做排序,以及存储 merge join、hash join 多表连接的数据,受最大连接数 maxconnections 参数影响,建议用户 session 级别进行设置,不要全局设置。 6.maintenanceworkmem,维护内存:某些类型的维护操作使用该区域(如vacuum、reindex)。 注意 按照小系统上云oltp应用保守设置,如果是大数据、数据仓库,需要再此基础按照测试重新优化调整较大参数值。 最大内存估算可参考如下表: 项目 值(MB) 备注 maxconnections 100 默认值为100 workmem 4 默认值为4,最小值64KB tempbuffers 8 默认值为8,最小值800KB sharedbuffers 128 默认值为8,最小值128KB autovacuummaxworkers 3 默认值为3 maintenanceworkmem 64 默认值为64MB,最小值为1MB。 commit log 48 每个事务2bits,autovacuumfreezemaxage,默认为2亿。 maxconnectionsworkmem+maxconnectionstempbuffers+sharedbuffers+(autovacuummaxworkersmaintenanceworkmem)+clog 1568 wal buffers1 autovacuumworkmem1 操作系统配置规范: 关闭 CPU 的节能模式。 关闭 NUMA。 建议使用 UTF8。 设置时间时区,建议主机工程师设置时间同步服务。 关闭其他服务: systemctl stop tuned.service ktune.service systemctl stop firewalld.service systemctl stop postfix.service systemctl stop avahidaemon.socket systemctl stop avahidaemon.service systemctl stop atd.service systemctl stop bluetooth.service systemctl stop wpasupplicant.service systemctl stop accountsdaemon.service systemctl stop atd.service cups.service systemctl stop postfix.service systemctl stop ModemManager.service systemctl stop debugshell.service systemctl stop rtkitdaemon.service systemctl stop rpcbind.service systemctl stop rngd.service systemctl stop upower.service systemctl stop rhsmcertd.service systemctl stop rtkitdaemon.service systemctl stop ModemManager.service systemctl stop mcelog.service systemctl stop colord.service systemctl stop gdm.service systemctl stop libstoragemgmt.service systemctl stop ksmtuned.service systemctl stop brltty.service systemctl stop avahidnsconfd.service 数据库高可用telePG 数据库高可用telePG组件服务器,bios层需要关闭numa,关闭电源保护模式设置CPU为最大性能模式,让其不降频,cat /proc/cpuinfo grep E "model nameMHz"CPU型号、频率一致。 参数类型 配置项 说明 操作系统内核参数配置 sysctl vm.swappiness5 5~10可选,但不可能阻止使用swap空间 操作系统内核参数配置 vm.minfreekbytes1024000 保证系统空闲内存维持在一定水平,同时保障内存管理low和min水位之间有足够间隔 操作系统内核参数配置 fs.aiomaxnr40960000 aiomaxnr no of process per DB no of databases 4096 操作系统内核参数配置 vm.dirtyratio20 vm.dirtybackgroundratio5 vm.dirtywritebackcentisecs100 vm.dirtyexpirecentisecs500 可选,这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存 操作系统内核参数配置 vm.vfscachepressure150 vm.swappiness10 vm.minfreekbytes524288">> /etc/sysctl.d/99sysctl.conf && sysctl system 可选,该参数表示内核回收用于directory和inode cache内存的倾向。缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;降低该值低于100,将导致内核倾向于保留directory和inode cache;增加该值超过100,将导致内核倾向于回收directory和inode cache 操作系统内核参数配置 fs.filemax 76724200 该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量 操作系统内核参数配置 net.core.rmemmax 4194304 最大的TCP数据接收缓冲 操作系统内核参数配置 net.core.wmemmax 2097152 最大的TCP数据发送缓冲 操作系统内核参数配置 net.core.wmemdefault 262144 表示接收套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.core.rmemdefault 262144 表示发送套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.ipv4.tcpsyncookies 1 当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。 操作系统内核参数配置 net.ipv4.tcptwreuse 1 允许将TIMEWAIT sockets重新用于新的TCP连接,默认为0,表示关闭 操作系统内核参数配置 net.ipv4.tcptwrecycle 1 TCP连接中TIMEWAIT sockets的快速回收,默认为0,表示关闭,注意如果是natnat网络,并与net.ipv4.tcptimestamps 1组合使用,则会出现时断时续的情况 操作系统内核参数配置 net.ipv4.tcpfintimeout 30 修改系統默认的TIMEOUT 时间,避免服务器被大量的TIMEWAIT拖死 操作系统内核参数配置 net.ipv4.iplocalportrange 9000 65000 如果连接数本身就很多,可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力,默认值是32768到61000 操作系统内核参数配置 net.ipv4.tcpmaxsynbacklog 8192 SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数 操作系统内核参数配置 net.ipv4.tcpmaxtwbuckets 5000 系统同时保持TIMEWAIT的最大数量,如果超过这个数字,TIMEWAIT将立刻被清除并打印警告信息,默认为180000 操作系统内核参数配置 net.ipv4.conf.all.rpfilter 0 net.ipv4.conf.all.arpfilter 0 net.ipv4.conf.default.rpfilter 0 net.ipv4.conf.default.arpfilter 0 net.ipv4.conf.lo.rpfilter 0 net.ipv4.conf.lo.arpfilter 0 net.ipv4.conf.em1.rpfilter 0 net.ipv4.conf.em1.arpfilter 0 net.ipv4.conf.em2.rpfilter 0 net.ipv4.conf.em2.arpfilter 0 网卡的设置 操作系统内核参数配置 kernel.shmmni 4096 这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是4096 。通常不需要更改kernel.sem 250 32000 100 142 操作系统内核参数配置 kernel.shmall 1073741824 该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值是2097152,可根据kernel.shmmax大小进行调整(kernel.shmmax/41024或者kernel.shmmax/81024) 操作系统内核参数配置 kernel.shmmax 4398046511104 该参数定义了共享内存段的最大尺寸(以字节为单位),此值默认为物理内存的一半 操作系统内核参数配置 kernel.sysrq 0 如无需调试系统排查问题,这个必须为0 telepg的 limits.conf配置 telepg soft nofile1048576 telepg的 limits.conf配置 telepg soft memlock 1 telepg的 limits.conf配置 telepg hard memlock 1 telepg的 limits.conf配置 telepg hard memlock 128849018880 telepg的 limits.conf配置 telepg soft memlock 128849018880 telepg的 limits.conf配置 telepg soft core6291456 telepg的 limits.conf配置 telepg hard core6291456 telepg的 limits.conf配置 telepg hard nproc131072 telepg的 limits.conf配置 telepg soft nproc131072 telepg的 limits.conf配置 telepg hard nofile 1048576 telepg的 limits.conf配置 telepg hard stack 32768 telepg的 limits.conf配置 telepg soft stack 10240 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/enabled 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/defrag 网络连通性 确保组件和集群内的网络联通。 确保与相关联组件的网络连通。 确保防火墙关闭。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 告警模版
        本页介绍天翼云TeleDB数据库如何设置告警模版。 操作步骤 1. 以用户名和密码登录TeleDBDCP数据库管理平台,在左侧导航树单击告警中心 > 告警模版 ,进入告警模版页面。 2. 创建告警模版。 1. 在告警模版页面,单击新建模版 ,弹出新建模版对话框。 2. 在新建模版对话框,根据以下内容填写基本信息 和告警规则。 告警对象选择实例TELEDBX。 阈值告警包括:节点连接数、节点CPU占用率、节点内存占用大小、节点磁盘占用量、节点wal日志占用空间、节点QPS、主备xlog同步差异、节点剩余xid数量、集群总请求数、集群读请求数、集群写请求数、集群其他请求数、集群总连接数。 事件告警包括:实例状态、全局事务管理器状态、协调节点状态、数据节点状态。 3. 单击确定 完成新建模版。 3. 告警模版管理 1. 单击已创建的告警模版所在行的操作列的编辑 可修改告警模版。 2. 单击已创建的告警模版所在行的操作列的删除 可删除告警模版。 3. 也可勾选多条告警模版,单击批量删除 ,同时删除多条告警模版。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        实例告警
        告警模版
      • 前置审批
        前置类型 关键词 模板下载 电子商务 第一类增值电信业务,第二类增值电信业务。单位名称包含商贸、百货,上传商贸类网站承诺书 教育 教育咨询、教育咨询服务、校外培训 广播电视电影 电影电视剧、影视、电视综艺、网络影视剧、电视栏目的制作 网约车 网约车 新闻 互联网新闻信息服务、新闻、互联网新闻发布 人力资源 人力资源、劳务派遣 药品医疗器械 药品、医疗器械、一、二、三类医疗器械 文化 直播、互联网直播服务、网络文化 游戏 游戏
        来自:
        帮助文档
        ICP备案
        规则与资料
        前置审批
      • 请求费用
        API请求 对应操作 Create Bucket 创建桶 Put Object 上传对象 Put Object Copy 复制对象 Put Symlink 设置软链接 Put Bucket ACL 设置桶ACL Put Object ACL 设置对象ACL Put Bucket Lifecycle 设置桶的生命周期 Put Object Tagging 设置对象标签 Put Bucket Tagging 设置桶标签 Put Bucket Logging 设置桶的日志转存 Put Bucket Encrytion 设置桶加密 Put Bucket Versioning 设置桶的版本控制 Put Bucket Website 设置桶的静态网站托管 Put Bucket Inventory Configuration 设置桶清单 Put Bucket CORS 设置桶的跨域资源共享权限配置 Create Multipart Upload 初始化分片上传任务 Upload Part 上传分段 UploadPartCopy 采用分段方式复制指定的对象 Complete Multipart Upload 完成分片上传任务 Abort Multipart Upload 舍弃一个分块上传并删除已上传的块 Put Bucket Object Lock Configuration 设置桶的对象锁定配置 Put Object Retention 设置对象合规保留 Put Object Legal Hold 设置对象依法保留 Restore Object 解冻对象 Put Bucket Policy 设置桶策略
        来自:
        帮助文档
        对象存储 ZOS
        计费说明
        计费项
        请求费用
      • 配置环境变量
        示例 使用环境变量设置以下信息:安装文件的目录、存储输出的位置、存储连接和日志记录设置等。这些设置与应用程序逻辑解耦,在需要变更设置时,无需更新函数代码。 在如下函数代码片段中,参数“obsoutputbucket”为图片处理后存储地址。 def handler(event, context): srcBucket, srcObjName getObsObjInfo4OBSTrigger(event) obsaddress context.getUserData('obsaddress') outputBucket context.getUserData('obsoutputbucket') if obsaddress is None: obsaddress '{obsaddressip}' if outputBucket is None: outputBucket 'casebucketout' ak context.getAccessKey() sk context.getSecretKey() download file uploaded by user from obs GetObject(obsaddress, srcBucket, srcObjName, ak, sk) outFile watermarkimage(srcObjName) 将转换后的文件上传到新的obs桶中 PostObject (obsaddress, outputBucket, outFile, ak, sk) return 'OK' 通过设置环境变量obsoutputbucket,可以灵活设置存储输出图片的OBS桶。 环境变量
        来自:
        帮助文档
        函数工作流
        用户指南
        配置函数
        配置环境变量
      • 删除桶
        本文帮助您了解对象存储删除桶相关的操作步骤。 操作场景 当您不再需要使用一个桶时,可以通过ZOS控制台将其删除,这样可以释放桶所占用的数量配额,以便您可以创建更多的桶,帮助您管理和优化存储资源,确保资源的有效使用。 注意 桶删除后无法恢复,请谨慎操作。 约束与限制 若桶中有对象和碎片,需先彻底删除对象和碎片后,再删除桶。 若桶已绑定自定义域名,需先解绑后,再删除桶。 若桶作为了日志存储目标桶,请取消后再删除桶。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表中,选择要删除的桶,点击“删除”。 5. 在弹出的页面点击“确定”,完成桶删除。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        桶管理
        删除桶
      • 文件备份与恢复
        参数 配置说明 目录和文件 支持选择要备份的目录和文件及不要备份的目录和文件。 注意:选择文件备份目录时,需选择非结构化数据(如视频、图片、附件、日志等)文件产生的数据路径。若选择"/"或包含系统文件的系统整盘、系统盘整个分区(如C盘),任务状态会变为停止。如需有系统盘整盘、整个分区的备份需求可选择整机备份方式实现。 镜像设置 校验方式:启用增量备份或差异备份时,当前备份数据与上次备份数据差异比对方式。 错误处理方式 如果源路径包含系统目录和文件,drnode程序可能无法访问某些特定的系统文件。对于这种情况,给出两种解决办法。此选项默认为“遇到错误,立即停止”。 文件打开方式 在镜像阶段,源端打开文件的方式,该选项只适用于Windows平台的工作机。在增量复制阶段,drnode程序不会读取文件内容。 文件安全属性 用户选择是否同步备份文件权限、用户属性等。此选项默认为同步。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据定时灾备
        文件备份与恢复
      • 1
      • ...
      • 107
      • 108
      • 109
      • 110
      • 111
      • ...
      • 455
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      科研助手

      推荐文档

      导入数据

      管理只读实例

      重置操作系统

      开票月账单金额与消费记录金额不一致怎么办?

      授权文件导入

      提现规则

      大事记

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号