[pgsql-jp: 32638] Re: 大量データのインポート

TANIDA Yutaka tanida @ sra.co.jp
2004年 4月 1日 (木) 16:20:02 JST


谷田です。

On Thu, 01 Apr 2004 16:01:59 +0900
maeda @ motion.ne.jp wrote:

> Postgresで数千万レコードを高速にインポートする方法はありますでしょうか?
> COPYだとかなり時間がかかってしまうようです。(数時間)

いわゆるbulk loaderはないですが、COPYを高速化するためには以下のようなポ
イントに気を付けるといいでしょう。

* indexがあれば外しておく(制約によって自動的に設定される物については、
alter tableで)と有利です。
* 最近誰も言わないようになりましたが、postgresql.conf の fsync=false 設
定が有効なんじゃないかと思います。ただし、これを設定中に落ちるとデータが
飛ぶので注意する必要がありますが。

-- 
TANIDA Yutaka <tanida @ sra.co.jp>




pgsql-jp メーリングリストの案内