爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      秘籍第六式 logrotate

      首页 知识中心 服务器 文章详情页

      秘籍第六式 logrotate

      2024-11-26 09:47:29 阅读次数:27

      logrotate,切割,日志

      一、简述

      在linux上logrotate是一个日志文件管理工具。用于分割日志文件,删除旧的日志文件,并创建新的日志文件,起到“转储”作用,它是默认随linux一起被安装的。

      Linux系统默认安装logrotate工具,它默认的配置文件在:
      /etc/logrotate.conf
      /etc/logrotate.d/
      logroate的状态文件目录是
      /var/lib/lograotate.status
      在这个目录下,会记录上次文件的运行状态。

      logrotate.conf 才主要的配置文件,这个文件是logroate的默认配置文件。
      logrotate.d 是一个目录,在这个目录下,我们可以将自己的需要滚动的日志配置放在这个下面。该目录里的所有文件都会被主动的读入/etc/logrotate.conf中执行。
      另外,如果 /etc/logrotate.d/ 里面的文件中没有设定一些细节,则会以/etc/logrotate.conf这个文件的设定来作为默认值。

      Logrotate是基于CRON来运行的,其脚本是/etc/cron.daily/logrotate,日志轮转是系统自动完成的。
      cat /etc/cron.daily/logrotate
      #!/bin/sh
      /usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1
      EXITVALUE=$?
      if [ $EXITVALUE != 0 ]; then
      /usr/bin/logger -t logrotate "ALERT exited abnormally with [$EXITVALUE]"
      fi
      exit 0

      实际运行时,Logrotate会调用配置文件/etc/logrotate.conf。
      可以在/etc/logrotate.d目录里放置自定义好的配置文件,用来覆盖Logrotate的缺省值。
      如果等不及cron自动执行日志轮转,想手动强制切割日志,需要加-f参数;
      # /usr/sbin/logrotate -f /etc/logrotate.d/nginx
      不过正式执行前最好通过Debug选项来验证一下(-d参数),这对调试也很重要
      # /usr/sbin/logrotate -d -f /etc/logrotate.d/nginx

      logrotate命令格式:
      logrotate [OPTION...] <configfile>
      -d, --debug :debug模式,测试配置文件是否有错误。
      -f, --force :强制转储文件。
      -m, --mail=command :压缩日志后,发送日志到指定邮箱。
      -s, --state=statefile :使用指定的状态文件。
      -v, --verbose :显示转储过程。

      根据日志切割设置进行操作,并显示详细信息
      /usr/sbin/logrotate -v /etc/logrotate.conf
      /usr/sbin/logrotate -v /etc/logrotate.d/php

      根据日志切割设置进行执行,并显示详细信息,但是不进行具体操作,debug模式
      /usr/sbin/logrotate -d /etc/logrotate.conf
      /usr/sbin/logrotate -d /etc/logrotate.d/nginx

      查看各log文件的具体执行情况,这里记录的是上一次的执行状态
      cat /var/lib/logrotate.status

      二、切割介绍

      1、logrotate.conf配置

      比如以系统日志/var/log/message做切割来简单说明下:
      第一次执行完rotate(轮转)之后,原本的messages会变成messages.1,而且会制造一个空的messages给系统来储存日志;
      第二次执行之后,messages.1会变成messages.2,而messages会变成messages.1,又造成一个空的messages来储存日志!
      如果仅设定保留三个日志(即轮转3次)的话,那么执行第三次时,则 messages.3这个档案就会被删除,并由后面的较新的保存日志所取代!也就是会保存最新的几个日志。
      日志究竟轮换几次,这个是根据配置文件中的rotate参数来判定的。

      看下logrotate.conf配置:
      # cat /etc/logrotate.conf
      # 底下的设定是 "logrotate 的默认值" ,如果別的文件设定了其他的值,
      # 就会以其它文件的设定为主
      weekly //默认每一周执行一次rotate轮转工作
      rotate 4 //保留多少个日志文件(轮转几次).默认保留四个.就是指定日志文件删除之前轮转的次数,0 指没有备份
      create //自动创建新的日志文件,新的日志文件具有和原来的文件相同的权限;因为日志被改名,因此要创建一个新的来继续存储之前的日志
      dateext //这个参数很重要!就是切割后的日志文件以当前日期为格式结尾,如xxx.log-20131216这样,如果注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式
      compress //是否通过gzip压缩转储以后的日志文件,如xxx.log-20131216.gz ;如果不需要压缩,注释掉就行
      include /etc/logrotate.d
      # 将 /etc/logrotate.d/ 目录中的所有文件都加载进来

      /var/log/wtmp { //仅针对 /var/log/wtmp 所设定的参数
      monthly //每月一次切割,取代默认的一周
      minsize 1M //文件大小超过 1M 后才会切割,要和monthly同时满足才行
      create 0664 root utmp //指定新建的日志文件权限以及所属用户和组
      rotate 1 //只保留一个日志.
      }

      # 这个 wtmp 可记录用户登录系统及系统重启的时间
      # 因为有 minsize 的参数,因此不见得每个月一定会执行一次喔.要看文件大小。

      由这个文件的设定可以知道/etc/logrotate.d其实就是由/etc/logrotate.conf 所规划出来的目录,虽然可以将所有的配置都写入/etc/logrotate.conf ,
      但是这样一来这个文件就实在是太复杂了,尤其是当使用很多的服务在系统上面时, 每个服务都要去修改/etc/logrotate.conf的设定也似乎不太合理了。
      所以,如果独立出来一个目录,那么每个要切割日志的服务, 就可以独自成为一个文件,并且放置到 /etc/logrotate.d/ 当中

      2、其他重要参数说明

      compress            通过gzip 压缩转储以后的日志
      nocompress 不做gzip压缩处理
      copytruncate 用于还在打开中的日志文件,把当前日志备份并截断;是先拷贝再清空的方式,拷贝和清空之间有一个时间差,可能会丢失部分日志数据。
      nocopytruncate 备份日志文件不过不截断
      create mode owner group 轮转时指定创建新文件的属性,如create 0777 nobody nobody
      nocreate 不建立新的日志文件
      delaycompress 和compress 一起使用时,转储的日志文件到下一次转储时才压缩
      nodelaycompress 覆盖 delaycompress 选项,转储同时压缩。
      missingok 如果日志丢失,不报错继续滚动下一个日志
      errors address 专储时的错误信息发送到指定的Email 地址
      ifempty 即使日志文件为空文件也做轮转,这个是logrotate的缺省选项。
      notifempty 当日志文件为空时,不进行轮转
      mail address 把转储的日志文件发送到指定的E-mail 地址
      nomail 转储时不发送日志文件
      olddir directory 转储后的日志文件放入指定的目录,必须和当前日志文件在同一个文件系统
      noolddir 转储后的日志文件和当前日志文件放在同一个目录下
      sharedscripts 运行postrotate脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会执行一次脚本
      prerotate 在logrotate转储之前需要执行的指令,例如修改文件的属性等动作;必须独立成行
      postrotate 在logrotate转储之后需要执行的指令,例如重新启动 (kill -HUP) 某个服务!必须独立成行
      daily 指定转储周期为每天
      weekly 指定转储周期为每周
      monthly 指定转储周期为每月
      rotate count 指定日志文件删除之前转储的次数,0 指没有备份,5 指保留5 个备份
      dateext 使用当期日期作为命名格式,格式为access.log-20221129 年月日这种格式
      dateformat -%Y%m%d%H.%s 配合dateext使用,紧跟在下一行出现,定义文件切割后的文件名,必须配合dateext使用,只支持%Y %m %d %H %s参数
      size(或minsize) log-size 当日志文件到达指定的大小时才转储,log-size能指定bytes(缺省)及KB (sizek)或MB(sizem).
      当日志文件 >= log-size 的时候就转储。 以下为合法格式:(其他格式的单位大小写没有试过)
      size = 5 或 size 5 (>= 5 个字节就转储)
      size = 100k 或 size 100k
      size = 100M 或 size 100M
      minsizi 两个条件都满足 ,大小到了,并且执行了日志切割命令 (周期内执行0、1次)
      #logrotate --force /etc/logrotate.d/nginx 如果使用--force,即使大小不满足也会转储
      #notifempty空文件优先级比force高,执行force,空文件也不会转储
      maxsizi 任一条件 (周期内执行1、n次)
      sizi 大小到了就执行 ,但是要设置每分钟执行日志切割命令(设置后,周期参数自动失效)(无周期概念)

      1)sharedscripts的作用是什么?
      如上配置中,通过通配符 '*' 指定了多个日志文件,例如 access.log、error.log ,这时会在所有的日志文件都执行完成之后,再统一执行一次脚本;
      如果没有这条命令,则每个日志文件执行完成后都会执行一次脚本。
      2)rotate和maxage的区别是什么?
      都是用来控制保存多少日志文件的,区别在于 rotate 是以个数为单位的,而 maxage 是以天数为单位的。如果是以天来轮转日志,那么二者的差别就不大。

      切割nginx日志的配置
      vim /etc/logrotate.d/nginx
      /usr/local/nginx/logs/*.log {
      daily
      rotate 7
      missingok
      notifempty
      dateext
      sharedscripts
      postrotate
      if [ -f /usr/local/nginx/logs/nginx.pid ]; then
      kill -USR1 `cat /usr/local/nginx/logs/nginx.pid`
      fi
      endscript
      }

      3、日志处理

      首先,介绍下在 Linux 系统中是如何处理文件的。
      进程每打开一个文件,系统会分配一个新的文件描述符给这个文件;这个文件描述符中保存了文件的状态信息、当前文件位置以及文件的 inode 信息。
      对文件的操作是通过文件描述符完成,所以文件路径发生改变不会影响文件操作。
      测试:
      #!/bin/python
      import time
      with open("/tmp/foobar.txt", "w") as file:
      while 1:
      file.write("test\n")
      file.flush()
      time.sleep(1)
      当通过 mv /tmp/foobar.txt /tmp/test.txt 移动文件之后,可以看到 test.txt 文件仍然在写入。原因如上所述,Linux 在执行 mv 操作时,文件描述符是不变的,只修改了文件名。
      其中 logrotate 提供了两种方式,分别为 create 和 copytruncate 。
      1)create:
      这也就是默认的方案,可以通过 create 命令配置文件的权限和属组设置;这个方案的思路是重命名原日志文件,创建新的日志文件。详细步骤如下:
      重命名正在输出日志文件,因为重命名只修改目录以及文件的名称,而进程操作文件使用的是 inode,所以并不影响原程序继续输出日志。
      创建新的日志文件,文件名和原日志文件一样,注意,此时只是文件名称一样,而 inode 编号不同,原程序输出的日志还是往原日志文件输出。
      最后通过某些方式通知程序,重新打开日志文件;由于重新打开日志文件会用到文件路径而非 inode 编号,所以打开的是新的日志文件。
      如上也就是 logrotate 的默认操作方式,也就是 mv+create 执行完之后,通知应用重新在新文件写入即可。mv+create 成本都比较低,几乎是原
      子操作,如果应用支持重新打开日志文件,如 syslog, nginx, mysql 等,那么这是最好的方式。
      不过,有些程序并不支持这种方式,压根没有提供重新打开日志的接口;而如果重启应用程序,必然会降低可用性,为此引入了如下方式。

      2)copytruncate:
      该方案是把正在输出的日志拷 (copy) 一份出来,再清空 (trucate) 原来的日志;详细步骤如下:
      将当前正在输出的日志文件复制为目标文件,此时程序仍然将日志输出到原来文件中,此时,原文件名也没有变。
      清空日志文件,原程序仍然还是输出到预案日志文件中,因为清空文件只把文件的内容删除了,而 inode 并没改变,后续日志的输出仍然写入该文件中。
      如上所述,对于 copytruncate 也就是先复制一份文件,然后清空原有文件。
      通常来说,清空操作比较快,但是如果日志文件太大,那么复制就会比较耗时,从而可能导致部分日志丢失。不过这种方式不需要应用程序的支持即可。

      4、logrotate默认自动切割生效时间

      Logrotate是基于CRON来运行的,其脚本是/etc/cron.daily/logrotate,实际运行时,Logrotate会调用配置文件/etc/logrotate.conf。
      [root@test ~]# cat /etc/cron.daily/logrotate
      #!/bin/sh
      /usr/sbin/logrotate /etc/logrotate.conf
      EXITVALUE=$?
      if [ $EXITVALUE != 0 ]; then
      /usr/bin/logger -t logrotate "ALERT exited abnormally with [$EXITVALUE]"
      fi
      exit 0
      Logrotate是基于CRON运行的,所以这个时间是由CRON控制的,具体可以查询CRON的配置文件/etc/anacrontab(老版本的文件是/etc/crontab)
      [root@test ~]# cat /etc/anacrontab
      # /etc/anacrontab: configuration file for anacron
      # See anacron(8) and anacrontab(5) for details.
      SHELL=/bin/sh
      PATH=/sbin:/bin:/usr/sbin:/usr/bin
      MAILTO=root
      # the maximal random delay added to the base delay of the jobs
      RANDOM_DELAY=45 //这个是随机的延迟时间,表示最大45分钟
      # the jobs will be started during the following hours only
      START_HOURS_RANGE=3-22 //这个是开始时间
      #period in days delay in minutes job-identifier command
      1 5 cron.daily nice run-parts /etc/cron.daily
      7 25 cron.weekly nice run-parts /etc/cron.weekly
      @monthly 45 cron.monthly nice run-parts /etc/cron.monthly
      第一个是Recurrence period
      第二个是延迟时间
      所以cron.daily会在3-22+(5,45)这个时间段执行,/etc/cron.daily是个文件夹
      通过默认/etc/anacrontab文件配置,会发现logrotate自动切割日志文件的默认时间是凌晨3点多。
      +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
      现在需要将切割时间调整到每天的晚上12点,即每天切割的日志是前一天的0-24点之间的内容。
      操作如下:
      mv /etc/anacrontab /etc/anacrontab.bak //取消日志自动轮转的设置
      [root@G6-bs02 logrotate.d]# cat nstc_nohup.out
      /data/nstc/nohup.out {
      rotate 30
      dateext
      daily
      copytruncate
      compress
      notifempty
      missingok
      }
      [root@G6-bs02 logrotate.d]# cat syslog
      /var/log/cron
      /var/log/maillog
      /var/log/messages
      /var/log/secure
      /var/log/history
      {
      sharedscripts
      compress
      rotate 30
      daily
      dateext
      postrotate
      /bin/kill -HUP `cat /var/run/syslogd.pid 2> /dev/null` 2> /dev/null || true
      endscript
      }

      结合crontab进行自定义的定时轮转操作

      [root@kevin ~]# crontab -l
      #log logrotate
      59 23 * * * /usr/sbin/logrotate -f /etc/logrotate.d/syslog >/dev/null 2>&1
      59 23 * * * /usr/sbin/logrotate -f /etc/logrotate.d/nstc_nohup.out >/dev/null 2>&1
      ll /data/nstc/nohup.out*

      三、例子

      1、nginx01

      /var/log/nginx/*.log /var/log/tomcat/*log {   # 可以指定多个路径
      daily # 日志轮询周期,weekly,monthly,yearly
      rotate 30 # 保存30天数据,超过的则删除
      size +100M # 超过100M时分割,单位K,M,G,优先级高于daily
      compress # 切割后压缩,也可以为nocompress
      delaycompress # 切割时对上次的日志文件进行压缩
      dateext # 日志文件切割时添加日期后缀
      missingok # 如果没有日志文件也不报错
      notifempty # 日志为空时不进行切换,默认为ifempty
      create 640 nginx nginx # 使用该模式创建日志文件
      sharedscripts # 所有的文件切割之后只执行一次下面脚本
      postrotate
      if [ -f /var/run/nginx.pid ]; then
      kill -USR1 `cat /var/run/nginx.pid`
      fi
      endscript
      }

      当配置完成后,可以通过如下方式进行测试。
      ----- 可直接手动执行
      $ logrotate --force /etc/logrotate.d/nginx
      ----- 显示详细的信息;而且--debug/-d实际上不会操作具体文件(Dry Run)
      $ logrotate --debug --verbose --force /etc/logrotate.d/nginx

      2、抄录nginx

      1)logrotate日志分割配置:
      vim /etc/logrotate.d/nginx
      /data/nginx_logs/*.access_log
      {
      nocompress
      daily
      copytruncate
      create
      ifempty
      olddir /data/nginx_logs/days
      rotate 0
      }

      2)日志分割脚本
      vim /usr/local/sbin/logrotate-nginx.sh
      #!/bin/bash
      #创建转储日志压缩存放目录
      mkdir -p /data/nginx_logs/days
      #手工对nginx日志进行切割转换
      /usr/sbin/logrotate -vf /etc/logrotate.d/nginx
      #当前时间
      time=$(date -d "yesterday" +"%Y-%m-%d")
      #进入转储日志存放目录
      cd /data/nginx_logs/days
      #对目录中的转储日志文件的文件名进行统一转换
      for i in $(ls ./ | grep "^\(.*\)\.[[:digit:]]$")
      do
      mv ${i} ./$(echo ${i}|sed -n 's/^\(.*\)\.\([[:digit:]]\)$/\1/p')-$(echo $time)
      done
      #对转储的日志文件进行压缩存放,并删除原有转储的日志文件,只保存压缩后的日志文件。以节约存储空间
      for i in $(ls ./ | grep "^\(.*\)\-\([[:digit:]-]\+\)$")
      do
      tar jcvf ${i}.bz2 ./${i}
      rm -rf ./${i}
      done
      #只保留最近7天的压缩转储日志文件
      find /data/nginx_logs/days/* -name "*.bz2" -mtime 7 -type f -exec rm -rf {} \;

      3)crontab定时执行
      crontab -e
      #logrotate
      0 0 * * * /bin/bash -x /usr/local/sbin/logrotate-nginx.sh > /dev/null 2>&1
      手动执行脚本,测试下看看:
      /bin/bash -x /usr/local/sbin/logrotate-nginx.sh
      cd /data/nginx_logs/days
      ls

      4)尝试解决logrotate无法自动轮询日志的办法
      现象说明:
      使用logrotate轮询nginx日志,配置好之后,发现nginx日志连续两天没被切割,这是为什么呢??
      然后开始检查日志切割的配置文件是否有问题,检查后确定配置文件一切正常。
      于是怀疑是logrotate预定的cron没执行,查看了cron的日志,发现有一条Dec 7 04:02:01 www crond[18959]: (root) CMD (run-parts /etc/cron.daily)这样的日志,证明cron在04:02分时已经执行/etc/cron.daily目录下的程序。
      接着查看/etc /cron.daily/logrotate(这是logrotate自动轮转的脚本)的内容:
      cat /etc/cron.daily/logrotate
      #!/bin/sh
      /usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1
      EXITVALUE=$?
      if [ $EXITVALUE != 0 ]; then
      /usr/bin/logger -t logrotate "ALERT exited abnormally with [$EXITVALUE]"
      fi
      exit 0

      没有发现异常,配置好的日志轮转操作都是由这个脚本完成的,一切运行正常,脚本应该就没问题。
      直接执行命令:
      [root@huanqiu_test ~]# /usr/sbin/logrotate /etc/logrotate.conf
      这些系统日志是正常轮询了,但nginx日志却还是没轮询
      接着强行启动记录文件维护操作,纵使logrotate指令认为没有需要,应该有可能是logroate认为nginx日志太小,不进行轮询。
      故需要强制轮询,即在/etc/cron.daily/logrotate脚本中将 -t 参数替换成 -f 参数
      cat /etc/cron.daily/logrotate
      #!/bin/sh
      /usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1
      EXITVALUE=$?
      if [ $EXITVALUE != 0 ]; then
      /usr/bin/logger -f logrotate "ALERT exited abnormally with [$EXITVALUE]"
      fi
      exit 0
      最后最后重启下cron服务:
      /etc/init.d/crond restart

      四、附录

      1、Python脚本实现日志切割

      实例1:对jumpserver日志进行切割
      [root@test-vm01 mnt]# cat log_rotate.py
      #!/usr/bin/env python
      import datetime,os,sys,shutil
      log_path = '/opt/jumpserver/logs/'
      log_file = 'jumpserver.log'
      yesterday = (datetime.datetime.now() - datetime.timedelta(days = 1))
      try:
      os.makedirs(log_path + yesterday.strftime('%Y') + os.sep + \
      yesterday.strftime('%m'))
      except OSError,e:
      print
      print e
      sys.exit()
      shutil.move(log_path + log_file,log_path \
      + yesterday.strftime('%Y') + os.sep \
      + yesterday.strftime('%m') + os.sep \
      + log_file + '_' + yesterday.strftime('%Y%m%d') + '.log')
      os.popen("sudo /opt/jumpserver/service.sh restart")
      手动执行这个脚本:
      [root@test-vm01 mnt]# chmod 755 log_rotate.py
      [root@test-vm01 mnt]# python log_rotate.py
      查看日志切割后的效果:
      [root@test-vm01 mnt]# ls /opt/jumpserver/logs/
      2017 jumpserver.log
      [root@test-vm01 mnt]# ls /opt/jumpserver/logs/2017/
      09
      [root@test-vm01 mnt]# ls /opt/jumpserver/logs/2017/09/
      jumpserver.log_20170916.log
      然后做每日的定时切割任务:
      [root@test-vm01 mnt]# crontab -e
      30 1 * * * /usr/bin/python /mnt/log_rotate.py > /dev/null 2>&1

      实例2:对nginx日志进行切割
      [root@test-vm01 mnt]# vim log_rotate.py
      #!/usr/bin/env python
      import datetime,os,sys,shutil
      log_path = '/app/nginx/logs/'
      log_file = 'www_access.log'
      yesterday = (datetime.datetime.now() - datetime.timedelta(days = 1))
      try:
      os.makedirs(log_path + yesterday.strftime('%Y') + os.sep + \
      yesterday.strftime('%m'))
      except OSError,e:
      print
      print e
      sys.exit()
      shutil.move(log_path + log_file,log_path \
      + yesterday.strftime('%Y') + os.sep \
      + yesterday.strftime('%m') + os.sep \
      + log_file + '_' + yesterday.strftime('%Y%m%d') + '.log')
      os.popen("sudo kill -USR1 `cat /app/nginx/logs/nginx.pid`")

      2、shell脚本实现日志切割

      [root@qd-vpc-op-consumer01 ~]# cat /app/script/log_rotate.sh
      #!/bin/sh
      function rotate() {
      logs_path=$1
      echo Rotating Log: $1
      cp ${logs_path} ${logs_path}.$(date -d "yesterday" +"%Y%m%d")
      > ${logs_path}
      rm -f ${logs_path}.$(date -d "7 days ago" +"%Y%m%d")
      }
      for i in $*
      do
      rotate $i
      done

      对python的一个业务/data/log/xcspam/下的日志进行切割,0K的日志不进行切割):
      [root@qd-vpc-op-consumer01 ~]# crontab -e
      #xcspam 日志切割
      30 0 * * * find /data/log/xcspam/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
      手动执行切割:
      [root@qd-vpc-op-consumer01 ~]# find /data/log/xcspam/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
      切割后的日志效果:
      [root@qd-vpc-op-consumer01 ~]# ls /data/log/xcspam/
      xcspam_error.log xcspam_error.log-20170926

      比如对maridb日志进行切割
      [root@qd-vpc-op-consumer01 ~]# crontab -e
      #xcspam 日志切割
      30 0 * * * find /var/log/mariadb/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
      [root@qd-vpc-op-consumer01 ~]# find /var/log/mariadb/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
      [root@qd-vpc-op-consumer01 ~]# ll /var/log/mariadb/
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/u_13236892/5457548,作者:哭泣的馒头,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:Oracle 数据库安装和配置指南

      下一篇:系统架构设计师 - 模拟题 - 论文题(三)

      相关文章

      2025-05-19 09:05:01

      【Linux】HDP集群日志配置和日志删除脚本

      HDP 集群 默认安装的,日志放在数据盘,但是 namenode和snamenode的数据盘本身不大只有 500G,在不经意间 数据盘被日志装满,首先从集群配置着手。

      2025-05-19 09:05:01
      log4j , 日志 , 集群
      2025-05-19 09:04:38

      DataGuard GAP 修复3-- 归档日志不存在

      DataGuard GAP 修复3-- 归档日志不存在

      2025-05-19 09:04:38
      归档 , 日志
      2025-05-14 10:03:13

      【Mybatis】-防止SQL注入

      【Mybatis】-防止SQL注入

      2025-05-14 10:03:13
      SQL , 执行 , 日志 , 注入 , 缓存 , 编译 , 语句
      2025-05-14 10:02:48

      SQL Server 事务日志体系结构1--基本术语

      事务包括对数据库的一次更改或一系列更改。它有一个明确开始和明确结束。开始时使用BEGIN TRANSACTION语句,或者SQL Server会自动为您开始一个事务。

      2025-05-14 10:02:48
      Server , SQL , 事务 , 数据库 , 日志 , 磁盘
      2025-05-13 09:51:17

      rac dg节点2在修改完alert_oracle_sid.log文件名,主库切换日志后备库节点2不产生新的日志文件

      rac dg节点2在修改完alert_oracle_sid.log文件名,主库切换日志后备库节点2不产生新的日志文件

      2025-05-13 09:51:17
      dg , rac , 日志 , 节点
      2025-05-13 09:51:17

      搭建ogg时无法启动目标端复制进程,告警日志报错OGG-02091

      搭建ogg时无法启动目标端复制进程,告警日志报错OGG-02091

      2025-05-13 09:51:17
      ogg , OGG , 报错 , 日志
      2025-05-09 08:51:09

      RestTemplate请求UnknownContentTypeException:no suitable HttpMessageConverter异常

      RestTemplate请求UnknownContentTypeException:no suitable HttpMessageConverter异常

      2025-05-09 08:51:09
      html , RestTemplate , text , 日志 , 格式
      2025-05-08 09:04:49

      MySQL-备份+日志:介质故障与数据库恢复

      MySQL-备份+日志:介质故障与数据库恢复

      2025-05-08 09:04:49
      mysql , MySQL , 备份 , 恢复 , 数据库 , 文件 , 日志
      2025-05-07 09:09:52

      SpringBoot3基础用法

      SpringBoot3基础用法

      2025-05-07 09:09:52
      依赖 , 日志 , 版本
      2025-05-07 09:09:26

      【Windows】系统日志不会查?一文教你用 `wevtutil` 命令

      在 Windows 系统中,系统日志记录了操作系统和应用程序的运行状态,是故障排查和安全监控的重要工具。通过 wevtutil 命令,你可以轻松查询、导出和管理系统日志,快速定位问题。

      2025-05-07 09:09:26
      导出 , 日志 , 查询
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5250215

      查看更多

      最新文章

      【Linux】HDP集群日志配置和日志删除脚本

      2025-05-19 09:05:01

      DataGuard GAP 修复3-- 归档日志不存在

      2025-05-19 09:04:38

      SQL Server 事务日志体系结构1--基本术语

      2025-05-14 10:02:48

      rac dg节点2在修改完alert_oracle_sid.log文件名,主库切换日志后备库节点2不产生新的日志文件

      2025-05-13 09:51:17

      搭建ogg时无法启动目标端复制进程,告警日志报错OGG-02091

      2025-05-13 09:51:17

      MySQL-备份+日志:介质故障与数据库恢复

      2025-05-08 09:04:49

      查看更多

      热门文章

      日志显示TypeError: Failed to fetch报错与TypeError: NetworkError when attempting to fetch resource报错

      2023-04-19 09:35:28

      MySQL二进制日志

      2023-03-21 10:28:05

      《MySQL高级篇》十二、MySQL事务日志

      2023-06-06 05:57:32

      Git(文件状态)

      2023-05-17 06:38:14

      QtApplets-MyLog

      2023-05-29 10:48:16

      看mybatis日志模块时涉及的动态代理

      2023-04-27 08:03:05

      查看更多

      热门标签

      服务器 linux 虚拟机 Linux 数据库 运维 网络 日志 数据恢复 java python 配置 nginx centos mysql
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      MySQL/MariaDB的日志

      db2 日志

      gitlab个别服务无法启动可能原因

      MySQL打印死锁日志

      Yarn聚合日志

      Mysql 慢日志处理

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号