[pgsql-jp: 30967] 大容量データの更新方法

GT perl @ getpresent.com
2003年 9月 6日 (土) 17:59:36 JST


GTと申します。

今まで過去ログを拝見させて頂いておりましたが
本日こちらのMLに登録させて頂きました
PostgreSQLは昨日さわり始めたばかりで
わからないことだらけですのでよろしくお願いします。

早速質問をさせてください。

下記のようなテーブルがあり、

品番   品名   価格   説明   取扱.....など
0001   hoge   120
0002   foo    100

データは数百万件登録されていると仮定してください。
このデータは毎日価格が変化したり、
取り扱わなくなったため不要になるラインが発生するため
毎日更新をしたいと考えていたのですが
過去ログを拝見したところ、このような大量のデータに対し
変更や削除を同時に行うことはかなりの時間が掛かる
と言うようなことが投稿されておりました。

そこで質問なのですが
現在のデータをとりあえずそのままにしておき
毎日新しいデータを作り、できあがった時点で新しいデータを現在のデータに
入れ換える。と言うことは可能なのでしょうか?

参考までに...更新するタイミングはライン単位ではなく
全てを同時に行いたいと考えております。
(瞬時にと言う意味ではありません)

古いデータは削除するか過去のデータとして保存しておくかは考え中ですが...
たぶんサイズが大きくなるので削除すると思います。

もっといい方法があり、「そんなやり方は普通しない!!」
と言ったこともあるのでしょうか?

こういう場合の基本的な処理の仕方(順番?)や
お勧めの方法を教えていただければ幸いです。

よろしくお願いします。





pgsql-jp メーリングリストの案内