プロが教えるわが家の防犯対策術!

SSDはデフラグしてはいけないと思ってる情弱の多さは異常、SSDもデフラグしないと速度落ちるし寿命縮む : SIerブログ
http://sierblog.com/archives/1529672.html

SSD120GBを取り付けようと思ってますが・・・ - その他(PCパーツ・周辺機器) - 教えて!goo
http://oshiete.goo.ne.jp/qa/7538887.html #3

どちらが正しいのですか。
Diskeeperの製品版は持っています。

A 回答 (6件)

結論から言うと、使用条件によっては、速度低下を避けるために特殊なデフラグのような操作が必要になります。


普通のデフラグはやっても意味がありません。

またSSDとOSとデバイスドライバがtrimに対応しているなら、速度低下を避けるために余計なことをする必要はありません。

速度低下が起こる原因は、未消去の空きブロックが増えてしまい、そこへ書き込むときに消去動作が必要になり非常に時間がかかるようになることです。

trimに対応した環境ならば、ブロックが解放された時には消去が行われるため、このような問題は起こりません。
なお、最新の一部の機種では、trimに対応していない環境でも速度低下が起こりにくいものもあります。

trimに対応していない環境の代表例は、SSDドライブがSATA I/F以外の物、SATA接続であってもIDEモードで使用している場合、XPなどの古いOSの場合です。

実際私も複数のPCで極端な速度低下を経験しました。
これを修復できるツールに、Defragglerなどがあります。
http://www.filehippo.com/jp/download_defraggler
アクション→拡張→空き領域のデフラグ で速度低下を修復できます。

寿命については今のSSDはウェアレベリングによってかなりの長寿命になっているので、多少デフラグしまくっても大丈夫です。
    • good
    • 2

今のところの定説では、SSDはデフラグ不要ですしむしろしてしまうと寿命を縮める結果になるとか…


デフラグは再配列ですから、大量のデータを読み書きしなおすわけですから書き込み回数に限界があるSSDにそれをするのは致命的とされております。
    • good
    • 4

SSDの仕組みを知っている人間なら、デフラグなどしない。


細かい説明は面倒。
    • good
    • 5

250GBのSSDのうち、100GBほどを使用している状況で



「コンピュータ」-「ローカルディスク」(右クリック)-「プロパティ」-「ツール」タグ-「最適化」で、「デフラグツール」を立ち上げて断片化のチェックをしてみました。
結果は断片化3%とのことでした。

Windows7なのでOSレベルでSSDに対応しているので、まあ間違いはないと思います。
OSレベルで断片化と認識していないってことです。

いろいろと耐久試験をしている方もいらっしゃるので、このようなHPも参考にしてください。
http://botchyworld.iinaa.net/ssd.htm
    • good
    • 1

機械的にHDDは動作します、SSDは電気的に動作します。


理論的には同じですけど少し違うと思います。HDDにはレコード針の様なものあります。
SSDには無いけどその代わり一定の法則はあります。デフラグはすれば良いと思います。
けど、SSDのデフラグはやっても意味無いかもしれません。改良されてる分そのままでも使える筈です。
    • good
    • 1

SSDにデフラグは不要です。



その理由は、ウェアレベリングと呼ばれる技術が搭載されているためです。

ウェアレベリングとは、データの書き換え時に利用率の低いセルに均一に書き込むために、意図的に書き込みブロックを変更、制御して均一化を図るという手法です。すなわち、セル1に書き込んだデータを書き換えるときには、セル1を消去し、次は使用率の低いセル6に書き込むといった手法が使われるのです。その情報を仮想アドレステーブルで管理します。

言ってみれば、そもそも順番通りには記録しない仕組みなのです。

なぜか?
その理由は、SSDやSDカード、USBメモリなどのNANDフラッシュデバイスは、書き込みの回数に1000回から1万回ほどというほかのメディアに比べて比較的少ない回数で、上限を迎えるためです。
データの書き換えでは、たいていの場合、同じ場所のデータが書き換わることが多いのです。
たとえば、文書作成、決まった文書を何度も書き換えることはありませんか?
プログラムのアップデートでも決まったEXEに脆弱性があり、その都度置き換わるケースもあります。

すなわち、フラッシュメディア全体が均一に1000回~1万回の上限に達しだめになるのではなく、どこか決まったセルが電荷を保持できなくなり、ビット抜けが起き、データが化ける故障の方が圧倒的に多いのです。

そこで、NANDではウェアレベリングを用いて、データの書き込みを書き込み率の低いセルに独自のアルゴリズム(メーカーによって異なる。この技術はトップレベルの守秘です)で拡散するのです。これによって、ディスクの空き容量が大きければ大きいほど、1つのセルが何度も書き換わるリスクが減り、寿命が延びるということになります。
すなわち、そもそも最適化してもウェアレベリングによってディスクのセクターが偽装されていますので、連続アクセスできるブロックにあるわけではありません。

また、フラッシュメディアは、その特性上円盤ディスクとは違い、シーケンシャルとランダムアクセスでの速度差がほとんど発生しません。その理由は、ハードディスクの場合は、ヘッドアームの移動によって、シークタイムに差が生じますが、メモリーデバイスでは、データのあるアドレス情報を参照して、全体のブロックから、その場所から読み取るだけですから、データのパス速度としては、ハードディスクのように最内周と最外周で3割も速度が変わるといったこともありませんし、そもそもヘッドの動きを待つ時間もありません。差は、目に見えるほどは生じないのです。

強いて言えば、マルチチャンネルで記録している場合は、単位ビットずつを別々のチャンネルにあるフラッシュに記録しなければ、速度が遅くなることがあるぐらいです。

ということになります。

いかがでしょうか?
基本的には、する必要はありませんし、たいていの媒体ではしても意味がありません。
効果が出た場合は、たまたま運が良かったぐらいに思った方がいいでしょう。
そもそも、製品としての寿命品質を低下させる危険があるため、できればしない方がいいのです。
    • good
    • 5

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!