プロが教えるわが家の防犯対策術!

(チェック)回目のmount時に自動で fsck を実行する・・・という設定の記述を見るのに以下を実行すると、
Maximum mount count: の値がマイナスになっていました。

# tune2fs -l /dev/sda1 | grep -i "mount count"
Mount count: 31
Maximum mount count: -1

普通、例えば
Mount count: 31
Maximum mount count: 60

だと、これまでに31回 mountしていて、いざ60回 mountしたあかつきには
自動で fsckが実行されるんだと思いますが、Maximum mount countの値が
マイナスとは、どういう意味になるでしょうか。

どなたかご存じの方ぜひご教授ください。

A 回答 (2件)

まず「この値の初期値は追加したHDDに関してはlinuxが勝手に決めてくれることは無いのでしょうか」の答えは簡単で, 「Linux が勝手に決める」ことはありません. この値は mkfs のときに設定されるので, 初期値は


・mkfs のときにユーザーが指定すればその値
・指定しなければ「mkfs (が呼び出す『実際にファイルシステムを作る』コマンド」の既定値
となります. 決めるのは mkfs であって「Linux」と呼ばれるカーネルではありません.

tunefs (ぼそっ)
    • good
    • 0

Maximum mount count: -1


はマウント回数に応じた起動時のfsckを行わないということです。
60に変更すれば60回マウントするごとにfsckしてくれます。

というか、HDDになんの問題もなくても、ディスクのマウント回数が一定数越えると強制的にディスクチェックがかかる設定なんて、ちょっとおかしいと思いませんか?
最近のLinuxはディストリは-1がデフォルトだと思いますよ。

この回答への補足

>HDDになんの問題もなくても、ディスクのマウント回数が一定数越えると強制的にディスクチェックがかかる設定なんて、ちょっとおかしいと思いませんか?

そう思いますね。今回、サーバーに後で追加していた2台目のHDDが
max mount 30 となっており、rebootで勝手にfcskが走りました。
この値の初期値は追加したHDDに関してはlinuxが勝手に決めてくれることは無いのでしょうか。もともとそのHDDに設定されているのでしょうか。

補足日時:2011/04/15 17:23
    • good
    • 0

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!