[pgsql-jp: 29714] Re: pg_dumpでout of memoryエラー

acdc @ livedoor.com acdc @ livedoor.com
2003年 4月 24日 (木) 18:44:54 JST


a-kiです。

早速試してみました。
とりあえず、max_locks_per_transaction を64から128にしたところ
問題なくできました。(このままではまずいですけど・・・)

もう少しこのへんのオプションを調査してみます。

ありがとうございました。

>石井です.
>
>> 現在、Postgresql7.3.2の検証を行っているのですが、3000テーブル
>> ほど保持しているDBにpg_dumpを実行すると、
>> 
>> pg_dump: WARNING:  ShmemAlloc: out of memory
>> pg_dump: Attempt to lock table "テーブル名" failed.  ERROR:  
>> LockAcquire: holder table out of memory
>> 
>> と出力され、正常に終了しません。
>> psqlなどでこの現象が発生したテーブルを見ても問題なく参照できます。
>> また、現象が出るDB以外は同じようなテーブル数を保持しているのですが、
>> 問題なくpg_dumpは動作します。
>> 
>> 実行環境は、RedHatLinux7.1 Memory 512M
>> でfreeコマンドで使用量を見ながらやっても特にメモリやswapを食いつぶして
>> しまっているようには見えないのですが・・・。
>> postgresql.confはlog部分とtcpip_socket = true以外はデフォルトです。
>> 
>> なにか回避方法はないのでしょうか?
>
>さっとソースを見た限りでは,postgresql.confの
>
>	max_locks_per_transaction = 64
>
>を増やしてpostmasterを再起動するといいのかな,という気がします.
>あまり自信はないのですが...
>--
>Tatsuo Ishii
>


フレッツ始めるなら今 !キャンペーン実施中!
               http://www.livedoor.com/flets/





pgsql-jp メーリングリストの案内