[pgsql-jp: 32638] Re: 大量データのインポート
TANIDA Yutaka
tanida @ sra.co.jp
2004年 4月 1日 (木) 16:20:02 JST
谷田です。
On Thu, 01 Apr 2004 16:01:59 +0900
maeda @ motion.ne.jp wrote:
> Postgresで数千万レコードを高速にインポートする方法はありますでしょうか?
> COPYだとかなり時間がかかってしまうようです。(数時間)
いわゆるbulk loaderはないですが、COPYを高速化するためには以下のようなポ
イントに気を付けるといいでしょう。
* indexがあれば外しておく(制約によって自動的に設定される物については、
alter tableで)と有利です。
* 最近誰も言わないようになりましたが、postgresql.conf の fsync=false 設
定が有効なんじゃないかと思います。ただし、これを設定中に落ちるとデータが
飛ぶので注意する必要がありますが。
--
TANIDA Yutaka <tanida @ sra.co.jp>
pgsql-jp メーリングリストの案内