[pgsql-jp: 32328] Re: 数万アクセスに対する対処について
Kenji Ono
ono @ fjct.fujitsu.com
2004年 2月 20日 (金) 11:19:34 JST
小野です。
> こんにちは。加澤と申します。
>
> PHP については全然知らないんですが、何らかの ConnectionPool 的なものを使
> わない限り、(特に DB サーバが Solaris である場合) ほとんど性能が出ないの
> ではないかと思います。
他にも書いたのですが、そんなにSolarisはパフォーマンスが上がらな
いのでしょう。
それとも、オープンソースの製品がLinux用に最適化されているとか。
> ちなみに ConnectionPool を用い、IO 分散して最適な Connection 数や共有メ
> モリ量などの設定をチューニングした後の PostgreSQL 7.4.1 (Xeon 3G×2、
> 4Gbytes メモリ、RHEL3) で、ほぼ単純 insert のみのアプリならば 1000
> insert/sec 以上出ています。
ConnectionPoolですか・・・
やはり異句同音に皆さんが提案するあたりはこの方式にいくしかないか
な。
> // チューニング時に参考になったページ。
> // http://www.varlena.com/varlena/GeneralBits/Tidbits/perf.html
> // 共有メモリを増やし過ぎるとダメなんですよね…。
僕もSolarisでは増やし過ぎて、うんともすんとも言わなくなってえら
く難儀した思いがあります。
> なお、この ML でこれを書くのは反則かもしれないんですが、
> ・どうしても接続&切断を繰り返す必要がある。
> ・データは多少失われても問題ない。
> という条件ならば、MySQL も検討する価値があるかもしれません。flush なしの
> MyISAM テーブルでは 10000 insert/sec を越すことも可能でした (ただし
> ConnectionPool 使用)。
PostgreSQLに特化したSQLもあったり、いまからMySQL検証は厳しいっす。
pgsql-jp メーリングリストの案内