unix文件系统被塞满的清理策略

2023-11-12 01:30

本文主要是介绍unix文件系统被塞满的清理策略,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

unix 文件系统被塞满的清理策略
作者:田逸( [email]sery@163.com[/email] )from:[url]http://os.51cto.com/art/200705/47120.htm[/url]
 
尽管现在的磁盘容量越来越大,但它终究有被塞满的可能,如果遇上粗枝大叶的系统管理员,磁盘被塞满的时间将变得更短。一个unix/linux运行环境,一旦遇到某个分区(也称文件系统)被塞满,后果也许会十分糟糕我曾有过在凌晨2点起来干活的经历分区/tmp满了,导致某个守护进程不能写入磁盘而异常终止。想必其他人也有类似的情况,怎样处理和避免这样的麻烦呢?这里有些意见供大家参考。
先谈非技术方面的因素,简单的讲就是规章制度。Linux/unix大多是公共服务器,应该禁止上传与工作无关的私人数据。某君买了一个NAS(网络附属存储)设备,473G的硬盘,本来打算做web的后台数据存储,但是,但是….后来据我所知,这个大容量磁盘不到2个月所剩空间不到20G,私下浏览,嘿!大部分数据是他私人的,他本来就有收藏废品的嗜好,难怪呢。因此在这个方面,制度应该严厉一些,避免同事放垃圾数据在公共空间。
磁盘上的数据可能随时增长,任何人不可能24小时盯着它,因此实现自动化监控手段是十分必要的,对于更大规模的网络环境,这也许是唯一的途径。下面是一个用perl写的监控磁盘容量的脚本(大宇对此有贡献):
#!/usr/bin/perl -w
# this program will check disk capacity $full and send the warning message
# to $email_address
# (set the threshold to 90 and check it in the daytime so no paging
#  is needed)
my $email_address = '[email]sa@yourcom.com[/email]';
my $hostname = `/sbin/ifconfig -a|grep inet|head -1|cut -f2 -d":"|cut -f1 -d" "`;
my $dmesg = `dmesg`;
chomp(my $now = `date +"%x %X"`);
my $full = 90; # the threshold to send the warning
my $warn = 95;
my $count = 0;
my ($dev,$total,$used);
my @df_messages = `df|grep -v proc`;
print @df_messages;
shift(@df_messages);
foreach $message (@df_messages) {
chomp($message);
($dev, $total, $used, $available, $capacity, $mount) = split(/\s+/, $message);
$capacity =~ s/(\d+)\%/$1/;
if ($capacity > $full) {
$available[$count] = $available;
$capacity[$count] = $capacity;
$mount[$count] = $mount;
++$count;
$email_address = '[email]sa@yourcom.com[/email]' if ($capacity > $warn);
}
}
if ($count > 0) {
open(MAIL, "|/usr/sbin/sendmail -t");
print MAIL "To: $email_address \n";
print MAIL "Subject: Disk almost full on $hostname ($now)\n";
print MAIL "\n";
for ($i = 0; $i < $count; ++$i) {
print MAIL "There are only $available[$i] KB ($capacity[$i]\% full) left on $mount[$i] \n";
}
}
if ( $dmesg =~ m/ERROR/ )
{
open(EMAIL, "|/usr/sbin/sendmail -t") or die "Can't fork for sendmail: $!\n";
print EMAIL  <<_EOF_ ;
To: $email_address
subject: HARDWARE error on $hostname!!!
$hostname needs to be checked right now!
.
_EOF_
close("EMAIL");
}
把这个脚本放在定时任务crontab里即可实现自动监控,只要某个分区的容量达到脚本中阀值,系统就会发送报警邮件到管理员信箱,更进一步还可设定发送手机短信报警。
知道某个分区快要被塞满的情况后,接下来的事情就是清理它了。登陆系统,然后使用命令df –h察看具体的磁盘使用情况(老一点版本的solaris不支持选项-h,请用-k这个选项),
磁盘的利用率是以百分比的方式显示的,非常直观。找到快要被塞满的分区之后,应该先着手查找占用空间大的最大的文件,然后处理这个占用空间最大的文件。这里我用一个实例(根分区/root)来演示这个过程。
1、   进入目录/root,执行命令 du –h | sort –n 就把当前目录下目录以及文件所占的大小按顺序排列出来了,一屏显示不完的话再用加一个管道 du –h | sort –n | more 就好了。
-bash-3.00# du -h | sort -n| more
1K   ./.dt/appmanager
1K   ./.dt/help
1K   ./.dt/icons
1K   ./.dt/tmp
……….( 省略若干行 )
914K   ./mysql-5.0.37/zlib
933K   ./mysql-5.0.37/ndb/src/kernel/blocks/dblqh
938K   ./mysql-5.0.37/scripts
 945M   .    // 这个东西占太大的空间
957K   ./mysql-5.0.37/extra/yassl/taocrypt
959K   ./vsftpd-2.0.5
1002K   ./mysql-5.0.37/ndb/src/common
-bash-3.00#         
有上面的输出,我们可以知道在当前目录里有大文件,但是看不出是哪个文件。
2、   再执行命令 ls –al | grep ^- |more 就可以看见每个文件的大小。
-bash-3.00#         ls -al | grep ^-|more
-rw-------   1 root     root         810 Apr 29 09:59 .ICEauthority
-rw-------   1 root     root          98 Apr 29 09:59 .Xauthority
-rw-------   1 root     root         730 Apr 30 07:52 .bash_history
-rwxr-xr-x   1 root     root        5111 Apr 29 08:30 .dtprofile
-rw-r--r--   1 root     root          81 Apr 29 08:30 .gtkrc-1.2-gnome2
-rw-------   1 root     root           0 Apr 29 08:30 .recently-used
-rw-r--r--   1 root     root     681090961 Feb 28 12:29 10202_database_solx
86.zip
………. (省略若干)
-rw-r--r--   1 root     root     3069440 Apr 29 11:31 tar-1.16-sol10-x86-lo
cal
-rw-r--r--   1 root     root     10895360 Oct 22  2006 tar-1.16.tar
-rw-r--r--   1 root     root      155985 Jul  3  2006 vsftpd-2.0.5.tar.gz
-bash-3.00#  
字体为红色的哪行就是最大文件的信息,它的文件名是10202_database_solx86.zip,再用命令du –h 10202_database_solx86.zip可直接显示它的大小为650M
-bash-3.00#   du -h 10202_database_solx86.zip
650M   10202_database_solx86.zip
3、移走或删除占用空间的大文件。
大家看一看,找大文件是不是很简单?!当然如果使用awk这样的工具写shell脚本更是方便的法门,还有一个方法是用find加选项 –size,请大家自己去试验。

















本文转自sery51CTO博客,原文链接:http://blog.51cto.com/sery/26141 ,如需转载请自行联系原作者

这篇关于unix文件系统被塞满的清理策略的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/394169

相关文章

Python自动化批量重命名与整理文件系统

《Python自动化批量重命名与整理文件系统》这篇文章主要为大家详细介绍了如何使用Python实现一个强大的文件批量重命名与整理工具,帮助开发者自动化这一繁琐过程,有需要的小伙伴可以了解下... 目录简介环境准备项目功能概述代码详细解析1. 导入必要的库2. 配置参数设置3. 创建日志系统4. 安全文件名处

SpringBoot中4种数据水平分片策略

《SpringBoot中4种数据水平分片策略》数据水平分片作为一种水平扩展策略,通过将数据分散到多个物理节点上,有效解决了存储容量和性能瓶颈问题,下面小编就来和大家分享4种数据分片策略吧... 目录一、前言二、哈希分片2.1 原理2.2 SpringBoot实现2.3 优缺点分析2.4 适用场景三、范围分片

如何在Mac上彻底删除Edge账户? 手动卸载Edge浏览器并清理残留文件技巧

《如何在Mac上彻底删除Edge账户?手动卸载Edge浏览器并清理残留文件技巧》Mac上的Edge账户里存了不少网站密码和个人信息,结果同事一不小心打开了,简直尴尬到爆炸,想要卸载edge浏览器并清... 如果你遇到 Microsoft Edge 浏览器运行迟缓、频繁崩溃或网页加载异常等问题,可以尝试多种方

Redis过期删除机制与内存淘汰策略的解析指南

《Redis过期删除机制与内存淘汰策略的解析指南》在使用Redis构建缓存系统时,很多开发者只设置了EXPIRE但却忽略了背后Redis的过期删除机制与内存淘汰策略,下面小编就来和大家详细介绍一下... 目录1、简述2、Redis http://www.chinasem.cn的过期删除策略(Key Expir

使用Python实现Windows系统垃圾清理

《使用Python实现Windows系统垃圾清理》Windows自带的磁盘清理工具功能有限,无法深度清理各类垃圾文件,所以本文为大家介绍了如何使用Python+PyQt5开发一个Windows系统垃圾... 目录一、开发背景与工具概述1.1 为什么需要专业清理工具1.2 工具设计理念二、工具核心功能解析2.

Nacos日志与Raft的数据清理指南

《Nacos日志与Raft的数据清理指南》随着运行时间的增长,Nacos的日志文件(logs/)和Raft持久化数据(data/protocol/raft/)可能会占用大量磁盘空间,影响系统稳定性,本... 目录引言1. Nacos 日志文件(logs/ 目录)清理1.1 日志文件的作用1.2 是否可以删除

如何清理MySQL中的binlog问题

《如何清理MySQL中的binlog问题》:本文主要介绍清理MySQL中的binlog问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目http://www.chinasem.cn录清理mysql中的binlog1.查看binlog过期时间2. 修改binlog过期

利用Python实现时间序列动量策略

《利用Python实现时间序列动量策略》时间序列动量策略作为量化交易领域中最为持久且被深入研究的策略类型之一,其核心理念相对简明:对于显示上升趋势的资产建立多头头寸,对于呈现下降趋势的资产建立空头头寸... 目录引言传统策略面临的风险管理挑战波动率调整机制:实现风险标准化策略实施的技术细节波动率调整的战略价

什么是ReFS 文件系统? ntfs和refs的优缺点区别介绍

《什么是ReFS文件系统?ntfs和refs的优缺点区别介绍》最近有用户在Win11Insider的安装界面中发现,可以使用ReFS来格式化硬盘,这是不是意味着,ReFS有望在未来成为W... 数十年以来,Windows 系统一直将 NTFS 作为「内置硬盘」的默认文件系统。不过近些年来,微软还在研发一款名

Redis中6种缓存更新策略详解

《Redis中6种缓存更新策略详解》Redis作为一款高性能的内存数据库,已经成为缓存层的首选解决方案,然而,使用缓存时最大的挑战在于保证缓存数据与底层数据源的一致性,本文将介绍Redis中6种缓存更... 目录引言策略一:Cache-Aside(旁路缓存)策略工作原理代码示例优缺点分析适用场景策略二:Re