パーティション操作
PCサーバを作るとき、CPU/メモリ/ディスクのサイズや規模を決めて購入したり、仮想マシンとして作成する。
CPUとメモリは扱いたいソフトウェアの規模によって決める。
excelやwordだけなら4コア程度、DBサーバなら16GBぐらいを目安に設定。
ディスク作成するとき、バックアップの取り方やリカバリポイントも考慮に入れる。
今はほとんどssdで動かすから、バックアップ先はhddにしてる。
自分はhddにもいったん入れるけど、クラウドのディスクに入れるから暗号化zipして1つのファイルにして月に1回保管してる。
パーティション操作が発生するのは、当初の予定と違うソフトウェアを入れることになったとか、保管データの容量が大きくなりすぎたとか。
そもそもフラグメント発生するwindowsのntfsを使うことも減ったし、ext4/xfsでlinuxのsamba動かしてたらほとんどデータをntfsに置くことがなくなったからパーティション操作することがほとんどなくなった。
ただ、昔やってたPC管理の考え方は以下のとおり。
パーティションを変更するのは何のため
サーバを選んだり、PCを用意するとき、用途に応じてディスクのサイズを考える。
スタンドアロンで持ち運び重視のノートPCだったらこんな感じでシステムドライブのこと考えてた。
用途 | windows | linux | solaris(unix) |
---|---|---|---|
システムパーティション | Cドライブ:140GB | ルート(/):30GB | ルート(/):100GB |
長期間使ってwindows updateするとだんだんディスク利用率が上がっていくし、レジストリも汚れていく。
linuxとsolarisは今は置いといて、windows10だけで考えると、OS以外に業務利用のソフトウェア(office365とか)入れて、40GB程度は必要。
windows updateすると、半期に1回のOS更新で5GBぐらいは増えてた。
5年使うとして、システムパーティションに必要な量の予測は、
初期容量40GB + ((半期windows update 5GB x 2) x 5年) ≒ 90GB
途中でアプリ増やしたくなることもあるので、1.5倍で考えると135GBぐらいあればいいことになる。
5年経過しても利用率70%程度におさえることを目指すと、
135GB / 0.7 ≒ 192GB
そういうわけで、windowsでは200GBあればシステムパーティションは足りるはず。
予測が不安な時は1.5倍じゃなく2倍とかそれ以上で掛け算しておけばいい。
さらにMyDocumentにデータを保存する癖があるなら、その保管量を上乗せすればいい。
この予測が外れたり、利用用途変更があったときにパーティションを変更したくなる。
windowsでパーティションを変更しなくてすむ方法
たとえばexcelやpower pointで資料作るために使ってたPCを、画像処理やsteamみたいなゲーム利用に用途変更したら、ディスクの使われ方が変わってくる。
画像処理はテンポラリファイルも書き出しがあるし、ゲームは数十GB単位で本体の容量を食う。
音楽や動画、画像なんかはすぐにMyDocumentのフォルダあたりがパンパンになるから、ドライブ接続した場所に保管する癖をつければいい。
長期間使ってwindows updateしていったり、ソフトウェアをインストール・アンインストールするとレジストリは汚れていくし、不要なフォルダがたくさんできる。
やっかいなのはAppdataあたりに残る残骸。
いつ何のために作られたフォルダなのかすごくわかりにくいから、手動削除やりにくいフォルダやデータがけっこう入ってる。
windows updateでソフトウェアが動くなるのが怖い場合は仕方ないけど、windows updateをアンインストールしないでおくとディスク消費が大きい。インストールのときのログも含めて、以前のwindows状態に戻す必要が少ないなら、バックワードするためのデータは削除したほうがいい。
これでも対処できないときのために、自分の仮想マシンは2世代のバックアップを取ってる。1つはメジャーアップデートの直後のバックアップ。もう1つは毎月のバックアップ。ほぼこれで問題は出ない。
Cドライブを右クリックしてプロパティを開き、全般タブからディスクのクリーンアップを選んで、システムファイルのクリーンアップをやると、削除の目安が出てくる。
システムファイルのクリーンアップに加えて、月に1回ぐらいはglary utilitiesみたいなクリーナーを使うと肥大したドライブをある程度はダイエットしてくれるしレジストリもきれいにしてくれる。
ディスク操作の今まで
hdd使い始めの頃でフロッピーディスクがまだ現役のとき、プログラムを書いてビルドするときにhdd使うとメチャ速くて感動した。
たしかscsiの外付けディスクのサイズは40MBぐらいだったと思う。
今手元で使うファイルサーバは6TB。
容量は格段に大きくなった。
ディスクの管理領域の取り扱いビット数の都合だったと思うけど、それから何年かおきに、容量の壁に出会う。
hddで137GBの壁の頃は、linuxとデュアルブートしたくて、windowsXPの起動パーティションを後ろのほうにしたとき起動できないなんてこともあった(linux/windowsじゃなくwindows/linuxの順に入れなきゃね)。
いつの時代も壁を乗り越えてPCの利用環境は進化してきた。2TBの次は16TBの壁がある。
「そんないっぱいディスクがあってどうすんねん」って思うこともあるけど、hdd40MBが普通と思ってた時代から今の6TBは思いもよらない数字。
人の欲は果てしないのと同じで、ディスクの消費量もそうなんじゃないか。fdiskじゃなくpartedが標準になっていくんじゃないかな。
ssdをメインに使うようになって10年以上が経つ。
windowsではCドライブがシステムドライブ。
文字を使ってドライブを表現する。
なんで文字なのか。
大昔、職業プログラマをやり始めたころ、Aドライブはフロッピーのプログラムディスク、Bドライブに業務用のデータを入れ、Cドライブから後はscsi接続の外付けディスクを数珠繋ぎ(ディジーチェーンだっけか)して使ってたように思う。
そのうちフロッピーディスクは使われなくなって、Cドライブがbiosの読み出し開始ドライブになったから、Cドライブから始まってる。
windowsをサーバとして利用すると、ディスクの回転数がデータ読み出し速度に比例しているので、みんなで使う高性能なものを求めたら家庭用の5400回転ディスクじゃ足りないので、15000回転ディスクを使うようになってた。
15000回転って近くに置くとめっちゃうるさい。
評価用だったり、調整依頼なんかで自席の横に置くと「キーン」って音が出続ける。
日常業務やるにはうるさすぎるので、早めに片づけて返却したくなるし、業務上でディスク操作をするのは楽じゃなかったと思う。
それに比べたらssd使える現在は、静かでいいなと思う。
ただ、新しめのマザーボードに2つssdつけたら、1つ目は3500MB/sぐらいディスク性能が出てくれるのに、2つ目は500MB/sぐらいしか出ない。とほほ。
Cドライブは高いI/O性能出るけど、dドライブはそれほどでもないから、500GBのssd2本買うなら、1TBのssd1本つけたほうがいい。
マシン作成するとき、店員のアドバイスでレーンが足りないからどうのこうの・・・、って言ってた覚えがある。より高性能なマザーボードを買えってことなのか、今の仕様がそこまでで限界なのかわからなかった。