重要なお知らせ

「教えて! goo」は2025年9月17日(水)をもちまして、サービスを終了いたします。詳細はこちら>

電子書籍の厳選無料作品が豊富!

Postgresql8.1を使って、
100万件の本の検索するシステムを
作ろうかと考えています。

いままで、100万件をあつかったことがないから、
パフォーマンス、データ量が心配です。

だれかいい事例があったら、教えてください。

ちなみに、サーバは、
CPU:PentiumD 3G
HDD:73GB
メモリ:1G
です。

A 回答 (2件)

今のハードスペックなら PostgreSQL で 100 万件を扱うことはたやすいことです。

デフォルト設定のままでもそれなりの性能は出ます。ただし、#1の方が指摘されているようにチューニングするに越したことはありません。

あと、データベースのチューニングというと、メモリ面だけに目がいきがちですが、テーブル設計や SQL、さらには CPU やディスク I/O にも注目する必要があります。

テーブル設計については、どういう構造にするかとか、どの列に索引を設定するのか、SQL についてはテーブル設計した成果をいかに引き出せるように記述できるか、CPU についてはソースコードからコンパイルする場合の最適化オプションをどう設定するか、ディスク I/O についてはディスクの回転数などが影響してきます。

これらについては、適材適所にボトルネックとなっている箇所を見つけ出して逐次チューニングしていく必要があります。

CPU のところの例で挙げたコンパイル時の最適化オプションについては、GCC の場合、最低でも CFLAGS="-O2 -mcpu=i686" を指定してください。
    • good
    • 0

どれだけそのハードウェア上(パソコンの性能)で最大限の性能をだせるかですね。


テーブルを作るときにインデックスを作り、実際にSQL文(SELECT等)を送るときにそのインデックスをうまく利用できるようになっているか。
それと、PostgreSQLそのものをインストール時のデフォルト設定のままではなく最大限の性能が出せるように設定を変えることも必要です。

要はデータベースを扱う人に掛かっていたりします。
地道に実験してみるというのが近道かもしれません。

参考URL:http://www.thinkit.co.jp/free/tech/10/1/1.html
    • good
    • 0

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!