爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      Shell脚本实现日志老化管理:七天打包归档与三十天自动清除

      首页 知识中心 服务器 文章详情页

      Shell脚本实现日志老化管理:七天打包归档与三十天自动清除

      2025-03-21 06:56:46 阅读次数:9

      tar,备份,打包,文件,日志,目录,脚本

      在现代系统管理中,日志文件的处理与管理是确保系统稳定性和高效运维的重要任务之一。尤其是在多容器环境下,由于日志文件结构的不统一和数量庞大,如何有效进行日志的老化处理、备份和清理成为了一个亟待解决的问题。本文介绍了一个名为 clearlogs.sh 的脚本,旨在自动化处理和清理指定目录下的日志文件。脚本通过定期备份超过七天未修改的日志文件,打包存档并管理其生命周期,同时确保备份文件不超过一个月,避免日志文件占用过多存储空间。此外,脚本还提供了针对日志清理的详细操作,帮助运维人员有效控制系统存储,确保日志管理的高效性与安全性。

      Shell脚本实现日志老化管理:七天打包归档与三十天自动清除

      一、功能介绍

      将某一目录下的所有日志进行老化处理,这些日志是来自于其他容器的外挂日志,由于各个容器内的日志安排不同,所以结构不统一.

      (一)具体案例背景

      Shell脚本实现日志老化管理:七天打包归档与三十天自动清除

      1. 所有容器下的日志会外挂到/home/log下,我们处理这个目录下的日志就可以;
      2. /home/log下的结构按外挂容器名和具体日志有如下结构,只是举例,列举部分容器的外挂

      (二)具体要求说明

      现在要求日志老化,具体要求如下:

      1. 将以上具体某个日志下的日志已保留了七天的统一打包到一个目录下,该目录的名称和原来的目录名称基本对应,以保证在看其备份日志时,可以方便查找;
      2. 上面打包以后采用直接move操作来转移到新目录下;
      3. 在新的统一目录下,要求所有的tar包都只保留一个月,一个月后自动清除。

      二、部分注意指令

      (一)find 目录 -maxdepth 1 -ctime +7 -type f

      功能:查找指定目录下超过7天未修改的文件。

      详解:find 命令用于搜索文件系统中符合特定条件的文件和目录。这条命令通过 -maxdepth 1 限制查找深度为当前目录,-ctime +7 指定文件的修改时间超过7天,-type f 表示查找的是普通文件而非目录或其他类型的文件。

      (二)复杂判断思考

      if [[ " "x != ${NOT_INCLUDE}x ]] && [[ -n "find ${targetdir} -maxdepth 1 -type f | grep -v 'gz$'" ]]:

      功能:在复杂判断条件中使用改进的条件语句以避免兼容性问题。

      详解:[[ ... ]] 是 Bash shell 中的条件判断语句," "x != ${NOT_INCLUDE}x 判断变量 ${NOT_INCLUDE} 是否为空,避免了字符串比较时可能出现的问题。第二个条件是判断目标目录 ${targetdir} 中是否存在非以 .gz 结尾的普通文件,通过 find 结合 grep -v 'gz$' 实现。

      (三)tar --warning=no-file-changed

      功能:在使用 tar 命令打包时,禁止出现常见的文件未改变的警告。

      详解:--warning=no-file-changed 参数告诉 tar 命令在打包时忽略任何文件未改变的警告信息,这通常用于在自动化备份和脚本执行中避免不必要的干扰和输出。

       (四)tar --exclude=文件

      功能:使用 tar 命令排除指定文件或目录,避免备份中包含不需要的内容。

      详解:正确使用 --exclude=文件 参数可以确保 tar 命令在打包时排除指定的文件或目录,而不会因为语法问题造成兼容性错误。

      (五)tar --zpcP

      功能:

      • -p:保留备份数据的原本权限和属性,适用于需要完整保留文件权限的场景,如重要的配置文件备份。
      • -P:保留绝对路径,允许备份数据中含有根目录存在之意,适用于需要保持文件层次结构完整性的情况。

      详解:这些选项在 tar 命令中控制备份文件时的权限和路径行为,确保备份和恢复的准确性和完整性。合理选择 -p 或 -P 可根据具体需求保证备份数据的恢复效果符合预期。

      通过了解和正确使用这些指令和参数,可以有效提高系统管理和数据备份的效率和安全性,避免常见的兼容性问题和错误用法带来的风险。

      三、具体代码和说明

      (一)代码展示

      #!/bin/bash
      #Program:
      #History: 2018.11.20 zyf
      
      #Common constant
      NOWTIME=`date +"%Y%m%d%H%M%S"`
      LOG_PATH=/home/log
      LOG_BACKUP_PATH=/home/backuplog
      LOG_TEMPFILE_PATH=/home/logtemp
      LOG_TEMPFILE1=${LOG_TEMPFILE_PATH}/temp.dat
      LOG_TEMPFILE2=${LOG_TEMPFILE_PATH}/clearlog-${NOWTIME}.dat
      LOG_TEMPFILE3=${LOG_TEMPFILE_PATH}/firsttarfiles.dat
      
      #print timestamp
      getTimeStamp()
      {
          echo `date +"%Y-%m-%d %H:%M:%S"` 
      }
      
      mkdir_clearlog()
      {
          if [ ! -f "${LOG_TEMPFILE2}" ]; then
              log "mkdir_clearlog touch ${LOG_TEMPFILE2}..."
              touch ${LOG_TEMPFILE2}
          fi
      }
      
      #print log for analyzing
      log()
      {
          echo " $1"
          echo "`getTimeStamp` : $1" >> ${LOG_TEMPFILE2}
      }
      
      errlog()
      {
        echo "[ERROR:] $1"
        echo "`getTimeStamp` : [ERROR:] $1" >> ${LOG_TEMPFILE2}
      }
      
      abnormalexit()
      {   
      
        errlog "@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@"
        errlog "@@@@@@@@        !!! FAILED !!!       @@@@@@@"
        errlog "@@@@@    CLEARLOGS OPERATE FAILED!!   @@@@@@"
        errlog "@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@"
            
        exit 1
      }
      
      function cmdlog()
      {
         cmd=$1
         log "$cmd"
         `$cmd`
         if [ $? -ne 0 ]
         then
            errlog "$cmd"
            abnormalexit
         fi
      }
      
      #scan all subdirectories of the current directory 
      #and make the corresponding directories in the specified directory,
      #then mv required files in sourcedir to targetdir and make new tar
      mkdir_and_deallog()
      {       
          if [ ! -d ${LOG_TEMPFILE_PATH} ]; then
              mkdir -p ${LOG_TEMPFILE_PATH}
          elif [ ! -f "${LOG_TEMPFILE1}" ]; then
              log "mkdir_and_deallog() touch LOG_TEMPFILE1..."
              touch ${LOG_TEMPFILE1}
          else
              cat /dev/null > ${LOG_TEMPFILE1}
          fi
      
          find ${LOG_PATH} -maxdepth 15 -type d >> ${LOG_TEMPFILE1}
          for line in `cat ${LOG_TEMPFILE1}`
          do
              CURRENT_DIR=`echo ${line} | cut -d '/' -f 4-`
              if [ -n "${CURRENT_DIR}" ]; then
                  CORRESPOND_DIR=${LOG_BACKUP_PATH}/${CURRENT_DIR}
                  if [ ! -d ${CORRESPOND_DIR} ]; then
                      log "mkdir_and_deallog mkdir -p ${CORRESPOND_DIR}"
                      mkdir -p ${CORRESPOND_DIR}
                  fi
                  deal_required_logs "${CORRESPOND_DIR}" "${LOG_PATH}/${CURRENT_DIR}"
              fi        
          done
      }
      
      #mv required files in sourcedir to targetdir and make new tar
      deal_required_logs()
      {
          targetdir=$1
          sourcedir=$2
          
          #view sourcedir log files and mv
          log "=========================================================="
          log "deal_required_logs start, and now executing in ${sourcedir}..."
          log "=========================================================="
          for file in `find ${sourcedir} -maxdepth 1 -ctime +7 -type f`
          do
              log "deal_required_logs ${file} in ${sourcedir} created over 7 days"
              if [ -n "${file}" ] && [ ! -n "`lsof ${file}`" ]; then
                  cmdlog "cp ${file} ${targetdir}"            
              fi
          done
      
          #tar targetdir
          log "=========================================================="
          log "cp-execute end, and now executing in ${targetdir}..."
          log "=========================================================="
          NOT_INCLUDE=" "
          for file in `find ${targetdir} -maxdepth 1 -type f | grep 'gz$'`
          do
              if [ -n "${file}" ]; then   
                  NOT_INCLUDE=${NOT_INCLUDE}"  --exclude="${file}" "        
              fi
          done
          
          log "deal_required_logs() set files that not-including, NOT_INCLUDE=${NOT_INCLUDE}......"
          if [[ " "x == ${NOT_INCLUDE}x ]]; then
      		log "start firsttarfile_targetdir : firsttarfile_targetdir ${targetdir}"
      		firsttarfile_targetdir ${targetdir}
      	elif [[ " "x != ${NOT_INCLUDE}x ]] && [[ -n "`find ${targetdir} -maxdepth 1 -type f | grep -v 'gz$'`" ]]; then
      		log "tar --zpcP -f ${targetdir}/${NOWTIME}.tar.gz ${NOT_INCLUDE}  ${targetdir}"
      		tar --warning=no-file-changed -zpcP -f ${targetdir}/${NOWTIME}.tar.gz ${NOT_INCLUDE} ${targetdir}
      	fi	    
      }
      
      firsttarfile_targetdir()
      {
      	targetdir=$1
      	if [ ! -f "${LOG_TEMPFILE3}" ]; then
      		log "firsttarfile_targetdir() touch LOG_TEMPFILE3..."
      		touch ${LOG_TEMPFILE3}
      	fi
      	
      	find ${targetdir} -maxdepth 1 -type f >> ${LOG_TEMPFILE3}
      	FIRST_TAR_FILES=" "
      	for line in `cat ${LOG_TEMPFILE3}`
      	do
      		if [[ " "x != ${line}x ]]; then
      			FIRST_TAR_FILES=${FIRST_TAR_FILES}" "${line}	
              fi			
      	done
      	
      	log "firsttarfile_targetdir : FIRST_TAR_FILES=${FIRST_TAR_FILES}"
      	if [[ " "x != ${FIRST_TAR_FILES}x ]]; then
      		log "tar --warning=no-file-changed -zpcP -f ${targetdir}/${NOWTIME}0.tar.gz ${FIRST_TAR_FILES}"
      		tar --warning=no-file-changed -zpcP -f ${targetdir}/${NOWTIME}0.tar.gz ${FIRST_TAR_FILES}	
          fi	
      
          rm 	${LOG_TEMPFILE3}
      }
      
      clear_overtime_files()
      {
          log "clear_overtime_files rm tar.gz that save more than 30 days......"
          find ${LOG_BACKUP_PATH} -mtime +30 -name "*.tar.gz" -exec rm -rf {} \;
          
          log "clear_overtime_files rm temp files that save more than 2 days......"
          find ${LOG_TEMPFILE_PATH} -mtime +2 -name "*.log" -exec rm -rf {} \;
          
          log "clear_overtime_files rm extra files in /home/backuplog......"
          find /home/backuplog -type f -not -name '*gz' -print0 | xargs -0 -I {} rm -v {} 
      }
      
      ###############main##############
      cd ${LOG_PATH}
      mkdir_clearlog
      
      log "clearlogs.sh start..."
      mkdir_and_deallog
      clear_overtime_files
      log "clearlogs.sh end..."
      log "[~CLEARLOGS OPERATE SUCCESS~]" 

      (二)具体功能说明

      脚本 clearlogs.sh 主要用于日志文件的管理和清理:

      1. getTimeStamp():获取当前时间戳的函数,用于日志记录。
      2. mkdir_clearlog():创建临时文件和目录,确保后续操作正常进行。
      3. log() 和 errlog():记录普通日志和错误日志,并将其输出到指定的日志文件 ${LOG_TEMPFILE2}。
      4. abnormalexit():异常退出函数,用于在操作失败时记录错误信息并终止脚本执行。
      5. cmdlog():执行命令并记录执行日志,如果命令执行失败则调用 errlog() 记录错误并异常退出。
      6. mkdir_and_deallog():扫描指定目录下的子目录,创建对应的备份目录并处理需要备份的日志文件。
      7. deal_required_logs():移动超过7天未修改的日志文件到指定目录,并将其打包成 tar.gz 文件。
      8. firsttarfile_targetdir():对目标目录下的文件进行首次打包处理,以保证备份的完整性和准确性。
      9. clear_overtime_files():清理超过一定时间的备份文件和临时文件,确保系统空间的有效管理。

      整个脚本通过多个函数实现了日志文件的备份和清理,保证了系统资源的有效利用和日志数据的安全性。

      四、总结

      通过本文的介绍,我们了解了如何使用 clearlogs.sh 脚本来高效管理和清理日志文件。脚本通过多种功能实现了对日志文件的老化处理、打包存档和清理,确保了系统存储的有效利用。具体来说,脚本能够:

      1. 自动扫描指定目录下的日志文件,并对超过七天未修改的文件进行备份处理。
      2. 对备份的日志文件进行打包存档,且每月自动清理过期的备份文件,避免磁盘空间被长期占用。
      3. 在处理日志文件时,脚本能够记录详细的操作日志,确保操作的透明性和可追溯性。
      4. 采用条件判断和错误处理机制,确保在遇到问题时能够及时发现并中止操作,避免系统出现不可预期的错误。

      这个脚本在多容器环境下尤其有用,它能够统一处理各个容器的日志文件,并通过自动化的方式减轻运维人员的工作负担。通过合理配置和使用该脚本,能够大大提高日志文件管理的效率,降低系统资源浪费,为企业或开发团队的系统运维提供了坚实的保障。

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://zyfcodes.blog.csdn.net/article/details/84936252,作者:张彦峰ZYF,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:dell服务器配置双网卡

      下一篇:网络爬虫入门及准备工作(爬虫及数据可视化)

      相关文章

      2025-05-19 09:05:01

      项目更新到公网服务器的操作步骤

      项目更新到公网服务器的操作步骤

      2025-05-19 09:05:01
      公网 , 数据库 , 文件 , 更新 , 服务器
      2025-05-19 09:05:01

      【Linux】HDP集群日志配置和日志删除脚本

      HDP 集群 默认安装的,日志放在数据盘,但是 namenode和snamenode的数据盘本身不大只有 500G,在不经意间 数据盘被日志装满,首先从集群配置着手。

      2025-05-19 09:05:01
      log4j , 日志 , 集群
      2025-05-19 09:04:38

      DataGuard GAP 修复3-- 归档日志不存在

      DataGuard GAP 修复3-- 归档日志不存在

      2025-05-19 09:04:38
      归档 , 日志
      2025-05-19 09:04:38

      js本地上传图片后实现预览与删除功能

      js本地上传图片后实现预览与删除功能

      2025-05-19 09:04:38
      js , 上传 , 删除 , 文件
      2025-05-19 09:04:30

      判断dmp文件的导出方式是exp or expdp

      判断dmp文件的导出方式是exp or expdp

      2025-05-19 09:04:30
      expdp , 导出 , 文件
      2025-05-16 09:15:17

      Linux系统基础-文件系统

      Linux系统基础-文件系统

      2025-05-16 09:15:17
      hello , 写入 , 文件 , 输出
      2025-05-14 10:33:25

      webpack5基础--01_基本使用

      webpack5基础--01_基本使用

      2025-05-14 10:33:25
      json , main , package , Webpack , 打包 , 文件 , 编译
      2025-05-14 10:33:25

      webpack5基础--02_基本配置( 5 大核心概念)

      webpack5基础--02_基本配置( 5 大核心概念)

      2025-05-14 10:33:25
      config , loader , webpack , Webpack , 文件 , 模式 , 配置文件
      2025-05-14 10:33:16

      30天拿下Python之文件操作

      Python是一种高级编程语言,它提供了许多内置函数和模块来处理文件操作,主要包括:打开文件、读取文件、写入文件、关闭文件、获取目录列表等。

      2025-05-14 10:33:16
      Python , 使用 , 函数 , 文件 , 权限 , 目录
      2025-05-14 10:07:38

      30天拿下Rust之箱、包和模块

      Rust语言使用模块系统来组织工程和代码。模块系统允许我们将相关的函数、类型、常量等组织在一起,形成一个逻辑上的单元。通过模块系统,我们可以隐藏实现细节,只暴露必要的接口,从而提高代码的可读性和可维护性。

      2025-05-14 10:07:38
      Rust , 关键字 , 文件 , 模块 , 访问
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5222840

      查看更多

      最新文章

      【Linux】HDP集群日志配置和日志删除脚本

      2025-05-19 09:05:01

      项目更新到公网服务器的操作步骤

      2025-05-19 09:05:01

      DataGuard GAP 修复3-- 归档日志不存在

      2025-05-19 09:04:38

      Linux系统基础-文件系统

      2025-05-16 09:15:17

      webpack5基础--02_基本配置( 5 大核心概念)

      2025-05-14 10:33:25

      SQL Server 事务日志体系结构1--基本术语

      2025-05-14 10:02:48

      查看更多

      热门文章

      小型自动化运维--expect脚本V2版

      2023-05-16 09:38:32

      日志显示TypeError: Failed to fetch报错与TypeError: NetworkError when attempting to fetch resource报错

      2023-04-19 09:35:28

      MySQL二进制日志

      2023-03-21 10:28:05

      Linux 系统备份与恢复的几种方式简单分析

      2023-05-06 08:59:50

      《MySQL高级篇》十二、MySQL事务日志

      2023-06-06 05:57:32

      Git(文件状态)

      2023-05-17 06:38:14

      查看更多

      热门标签

      服务器 linux 虚拟机 Linux 数据库 运维 网络 日志 数据恢复 java python 配置 nginx centos mysql
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Linux命令之移动文件与目录或重命名

      javaweb项目启动报错“Invalid url-pattern uploadServlet in servlet mapping”

      Linux journalctl命令使用教程

      ELK分析nginx日志(2)

      Linux的文件系统组成

      oracle如何开启日志归档

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号