[pgsql-jp: 39657] Re: データの断片化

ichikawa kenji ichikawa @ fancs.com
2008年 11月 19日 (水) 14:51:25 JST


市川 健児 です。

お返事、ありがとうございます。

肥大化しやすいテーブルを15分ごとに vacuum、
データベース全体を毎朝4時に vacuum + analyze しているため、
analyze は一日一回です。

analyze も 15分ごとの vacuum と重ならないように、
実行してみます。



On Wed, 19 Nov 2008 14:11:48 +0900
Norio Suzuki <suzuki @ tricorn.co.jp> wrote:

> 鈴木です。
> 
> At Wed, 19 Nov 2008 12:37:56 +0900,
> ichikawa kenji wrote:
> > 
> > analyze は、一日一度の vacuum で実行しております。
> 
> 一日一度よりも頻度を上げた方が効果が出る場合があります。
> VACUUM と同時に実行すると重そうなら、ANALYZE 単体で実行する手もあります。
> 
> # ANALYZE 単体なら軽い処理ですし、処理内容によっては効果的です。
> # 市川さんの案件でも効くかどうかは定かではありませんが。。。
> 
> 
> > > > 統計情報はANALYZEによって収集されます。 
> > > > 【中略】
> > > > 領域復旧のためのバキューム処理と同様、頻繁な統計情報の更新は、滅多に
> > > > 更新されないテーブルよりも更新の激しいテーブルにとってより有益です。
> 
> 「【頻繁な】統計情報の更新」というのが、「一日一度よりも頻度を上げる」
> というところへのヒントだと思っています :-)
> 
> ;; ---------------------------------------------------------
> ;; 鈴木則夫 <suzuki @ tricorn.co.jp>
> ;; トライコーン株式会社 http://www.tricorn.co.jp/
> ;; 160-0015 東京都新宿区大京町24 住友外苑ビル5F
> ;; Tel 03-5919-0041 Fax 03-5919-0042

------------------------------
ichikawa kenji
mailto:ichikawa @ fancs.com
http://www.fancs.com/




pgsql-jp メーリングリストの案内