dポイントプレゼントキャンペーン実施中!

例えば極端な例ですが、5000万人の会員のデータがmemberテーブルに入っていた場合
5000万行の中から特定の会員のレコードを探すのは時間が掛かると思うので
select * from member where user_id = $user_id;

50万人ごとにテーブルを新たに作ってデータを格納した方がクエリの実行時間も早くなり負荷軽減に繋がるといえますでしょうか?

user_idが1~50万は
テーブルmember_1
$table = member_1;

user_idが50万~100万は
テーブルmember_2
$table = member_2;

select * from $table where user_id = $user_id;

大手会員制サイトは、膨大な会員データをどのように格納しているのでしょうか。

ご教示頂けると幸いです。
宜しくお願い致します。

A 回答 (2件)

エンジンをMyISAMにしてインデックスをはればidからヒットさせるだけの


単純な検索なら気になる遅さにはならないと思います
複雑で速さが必要ならオラクルなど商用のDBをつかってください
    • good
    • 0
この回答へのお礼

ありがとうございました。参考になりました。

お礼日時:2012/06/19 14:55

設計上Indexを元に検索するようにしますので、データが多くてもこの手の検索は一瞬です。

    • good
    • 0
この回答へのお礼

ありがとうございました。参考になりました。

お礼日時:2012/06/19 14:54

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!