[pgsql-jp: 39657] Re: データの断片化
ichikawa kenji
ichikawa @ fancs.com
2008年 11月 19日 (水) 14:51:25 JST
市川 健児 です。
お返事、ありがとうございます。
肥大化しやすいテーブルを15分ごとに vacuum、
データベース全体を毎朝4時に vacuum + analyze しているため、
analyze は一日一回です。
analyze も 15分ごとの vacuum と重ならないように、
実行してみます。
On Wed, 19 Nov 2008 14:11:48 +0900
Norio Suzuki <suzuki @ tricorn.co.jp> wrote:
> 鈴木です。
>
> At Wed, 19 Nov 2008 12:37:56 +0900,
> ichikawa kenji wrote:
> >
> > analyze は、一日一度の vacuum で実行しております。
>
> 一日一度よりも頻度を上げた方が効果が出る場合があります。
> VACUUM と同時に実行すると重そうなら、ANALYZE 単体で実行する手もあります。
>
> # ANALYZE 単体なら軽い処理ですし、処理内容によっては効果的です。
> # 市川さんの案件でも効くかどうかは定かではありませんが。。。
>
>
> > > > 統計情報はANALYZEによって収集されます。
> > > > 【中略】
> > > > 領域復旧のためのバキューム処理と同様、頻繁な統計情報の更新は、滅多に
> > > > 更新されないテーブルよりも更新の激しいテーブルにとってより有益です。
>
> 「【頻繁な】統計情報の更新」というのが、「一日一度よりも頻度を上げる」
> というところへのヒントだと思っています :-)
>
> ;; ---------------------------------------------------------
> ;; 鈴木則夫 <suzuki @ tricorn.co.jp>
> ;; トライコーン株式会社 http://www.tricorn.co.jp/
> ;; 160-0015 東京都新宿区大京町24 住友外苑ビル5F
> ;; Tel 03-5919-0041 Fax 03-5919-0042
------------------------------
ichikawa kenji
mailto:ichikawa @ fancs.com
http://www.fancs.com/
pgsql-jp メーリングリストの案内