■ 新春特別企画「雪だるま作戦」liveサーバの飛躍なるか!?
巨大Live専用サーバの構築
live系のサーバは台数投入したところで、ほとんど遊んでいる
サーバ + 一台の負荷が高くてアクセスできないサーバという
悲惨な状況になっちゃうので、複数のサーバを巨大な一台と見立てて
なんとかならんものなのかを模索するー。
【Step1】四台のbananaサーバで 現 live8/live16/live18 を全部収容する。
探検
■新春特別企画「雪だるま作戦」liveサーバの飛躍なるか!? Part1
■ このスレッドは過去ログ倉庫に格納されています
1FOX ★
05/01/07 03:19:00ID:???72/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
05/01/07 17:36:11ID:8sspz10K >>70-71
ここまでの方針を見る限りは、bbs.cgiの分散化というよりは
ディスクへの書き込みをいかにして均すかということでしょう。
bbs.cgiのコストの最たる部分ですし。
そのうえで受付をふやせればいうことなし。
ここまでの方針を見る限りは、bbs.cgiの分散化というよりは
ディスクへの書き込みをいかにして均すかということでしょう。
bbs.cgiのコストの最たる部分ですし。
そのうえで受付をふやせればいうことなし。
73root▲ ★
05/01/07 17:51:30ID:???74ひろゆき@どうやら管理人 ★
NGNG たんにsquidの透過プロキシーでした。
ネットワーク周りの負荷をとりもって、
本体はbbs.cgiの処理に集中って感じでした。
ネットワーク周りの負荷をとりもって、
本体はbbs.cgiの処理に集中って感じでした。
05/01/07 18:27:33ID:taUVfEqj
以前話が出ていたことがあるけど、
bbs.cgiから.dat,subject.txt,subback.htmlにアクセスする部分を別サーバーにして
.datの読み書きをバックエンドにしつつ、subject.txtは
オンメモリで保持するのが良いかと思ってたりします。
で、同じサーバーでread.cgiのバックエンドも動かして、キャッシュを持つと。
フロントではbbs.cgiの処理として
index.htmlや書き込みログやBBxの対処を担当して
実際の書き込みはバックエンドが行うと。
フロント側では、.dat/read.cgi/subject.txt/subback.htmlに対するリクエストは
そのままバックエンド側に回す。
バックエンドでは、bbs.cgiの求める書き込みが妥当かどうかをチェックして
実際に書き込み、フロント側の求めに応じて.datのイメージ等を渡すみたいな。
必要なら、1スレッドでキューに入れながらの非同期書き込みも視野に入れて。
bbs.cgiから.dat,subject.txt,subback.htmlにアクセスする部分を別サーバーにして
.datの読み書きをバックエンドにしつつ、subject.txtは
オンメモリで保持するのが良いかと思ってたりします。
で、同じサーバーでread.cgiのバックエンドも動かして、キャッシュを持つと。
フロントではbbs.cgiの処理として
index.htmlや書き込みログやBBxの対処を担当して
実際の書き込みはバックエンドが行うと。
フロント側では、.dat/read.cgi/subject.txt/subback.htmlに対するリクエストは
そのままバックエンド側に回す。
バックエンドでは、bbs.cgiの求める書き込みが妥当かどうかをチェックして
実際に書き込み、フロント側の求めに応じて.datのイメージ等を渡すみたいな。
必要なら、1スレッドでキューに入れながらの非同期書き込みも視野に入れて。
76root▲ ★
05/01/07 18:37:52ID:???NGNG
む、、、この作戦が成功すると
地震板がまともに機能するようになるのかな?
地震板がまともに機能するようになるのかな?
05/01/07 20:06:47ID:cQJBfLAp
臨時板がまともを期待してはいけません(す
05/01/07 20:23:46ID:pqmq0YTE
82あぼーん
NGNGあぼーん
83桃太郎 ★
05/01/08 00:12:40ID:??? 地震板、電話の輻輳みたく、「お掛けになった方面の鯖は、ただ今大変込み合ってつながりにくくなっています」
なんてメッセージ画面表示したら、起こられるんだろうな・・・
なんてメッセージ画面表示したら、起こられるんだろうな・・・
05/01/08 00:34:09ID:P9MZ8Rfx
85む P061198142013.ppp.prin.ne.jp
05/01/08 00:39:09ID:FPGcP1MY それって、一昔前にあった、お茶飲め規制なんすよね。
つまり、掲示板みたいなメディアだと、あんまり効果なかったりするです。
つまり、掲示板みたいなメディアだと、あんまり効果なかったりするです。
86root▲ ★
05/01/08 07:16:04ID:??? banana227 概ねセットアップ完了。
FreeBSD 5.3R-p4に更新済み。
カーネル的にNFS関連有効に設定。実際の設定はまだ。
ディスクI/O重視セッティング。
・/homeはccdを利用し、ソフトウェアでストライピング(ad0とad1)
・/homeのnewfsパラメータは newfs -U -b 65536 -f 8192 /dev/ccd0
・/homeはnoatime有効(以前から)
ネットワーク周りは、とりあえず携帯フロントエンドサーバ並みのチューニング。
FreeBSD 5.3R-p4に更新済み。
カーネル的にNFS関連有効に設定。実際の設定はまだ。
ディスクI/O重視セッティング。
・/homeはccdを利用し、ソフトウェアでストライピング(ad0とad1)
・/homeのnewfsパラメータは newfs -U -b 65536 -f 8192 /dev/ccd0
・/homeはnoatime有効(以前から)
ネットワーク周りは、とりあえず携帯フロントエンドサーバ並みのチューニング。
89root▲ ★
05/01/08 07:56:24ID:??? ということで、作業はとりあえずここまで。
ネットワーク帯域どうしましょうか。
現状のMAX10Mbpsだと、
今回の用途からして、キャパ的にどきどきかも。
ネットワーク帯域どうしましょうか。
現状のMAX10Mbpsだと、
今回の用途からして、キャパ的にどきどきかも。
90動け動けウゴウゴ2ちゃんねる
05/01/09 19:04:22ID:pgorbTHJ 1Gbps
91root▲ ★
05/01/09 21:23:29ID:??? なお dso を使用するため、httpd そのものを ch2b1 権限で動くようにしてあります。
それに伴い、SuExecもなし。
それに伴い、SuExecもなし。
05/01/10 20:24:35ID:VFBoVca8
D言語お勧め
05/01/31 11:31:26ID:1Pqyrpe70
なんか進展ないのかな・・・
94FOX ★
05/01/31 11:33:29ID:???0 もう少し暖かくなってからかも、
05/01/31 13:07:41ID:ZrtyVVcK0
暖かくなったら溶けませんか? > 雪だるま
05/01/31 13:22:06ID:9jxffk/E0
雪だるまが溶けないうちに雪だるま作戦はあらかた完了しなければならないと思われ、
05/01/31 14:41:26ID:RzOb5kYE0
雪なんて4月になっても残ってるわけだが
05/02/03 00:01:27ID:xt3Py2g/0
冷凍庫に保存してあるから大丈夫
05/02/03 00:15:49ID:5z25kMKc0
溶けた雪だるまをどうするかって問題じゃなかった?w
→dat(3の倍数)+レス書き込み
----→delegate-------→dat(3の倍数+1)+レス書き込み
(逆プロキシ) →dat(3の倍数+2)+レス書き込み
→subject+スレ立て
(振り分け)
下記の2点だけ出来れば動きそう
subjectサーバからdatサーバにスレ立てたら通知
datサーバからsubjectサーバにageの通知
→dat(3の倍数)+レス書き込み
----→delegate-------→dat(3の倍数+1)+レス書き込み
(逆プロキシ) →dat(3の倍数+2)+レス書き込み
→subject+スレ立て
(振り分け)
下記の2点だけ出来れば動きそう
subjectサーバからdatサーバにスレ立てたら通知
datサーバからsubjectサーバにageの通知
05/02/03 00:16:04ID:5z25kMKc0
ずれまくりorz
>>99
どれどれ
どれどれ
05/02/05 14:22:38ID:QIngC8On0
札幌ではそろそろ雪だるま祭りの始まる頃か
103root▲ ★
05/02/16 21:31:42ID:???0 さて、そろそろこれを動かさないとなぁ。
と、とりあえず宣言だけしとこう。
まずは、どうやるかの戦略というか、骨子を
と、とりあえず宣言だけしとこう。
まずは、どうやるかの戦略というか、骨子を
104root▲ ★
05/02/16 21:32:00ID:???0 ありゃ。暴発。
骨子をぼちぼちと。
骨子をぼちぼちと。
05/02/17 00:31:29ID:qJ/os/360
NGNG
漏れ的には、特番板とか作ってみたらとか。。。
05/02/17 18:32:20ID:sd53QL7W0
やっと始動ですか?(・∀・)
109root▲ ★
05/03/05 02:08:32ID:???0 東京に雪が降ったから、そろそろこのスレを動かすか。
まずは、live8にある板をliveb1でも「読める」ようにしようかと。
さて、NFSでやるか、squidとかを使うか。
FreeBSDのNFSがちゃんと動くんなら、NFSのほうがよさげかもと思っていたりするけど、
どうなんだろうか。
まずは、live8にある板をliveb1でも「読める」ようにしようかと。
さて、NFSでやるか、squidとかを使うか。
FreeBSDのNFSがちゃんと動くんなら、NFSのほうがよさげかもと思っていたりするけど、
どうなんだろうか。
110root▲ ★
05/03/05 04:04:56ID:???0 あ、あとApacheのmod_proxyというのもあるかな。
05/03/05 06:19:48ID:/n3o7jvO0
始まりますか(・∀・)ワクワク
05/03/05 09:48:42ID:iemQ7OUQ0
>>109
FreeBSDのNFSってLinuxのそれよりいいと聞いてますけど
FreeBSDのNFSってLinuxのそれよりいいと聞いてますけど
113動け動けウゴウゴ2ちゃんねる
05/03/05 10:30:22ID:QpK6zgyU0 NFSなんておとろしいので、mod_proxy で reverse proxy設定がよいかと。
05/03/05 11:07:31ID:U7AvG2Q50
sendfile効かないからNFSにはしないなぁ。
まぁベンチ取らないとなんともいえないんだけど。
まぁベンチ取らないとなんともいえないんだけど。
05/03/05 11:34:04ID:iemQ7OUQ0
まあ確かに用途を考えると
あまりすすめられたもんじゃないですね>NFS
Solaris同士ならいけたかもですが。
いっそ10をいれてじっけんじっけん!てのもありかもw
あまりすすめられたもんじゃないですね>NFS
Solaris同士ならいけたかもですが。
いっそ10をいれてじっけんじっけん!てのもありかもw
05/03/05 11:40:40ID:RUlzb90X0
read.cgiの処理能力について、
昔書いたhttp://2ch-tool.net/mirror/mod_readcgi.zipをベースに(大幅に手を入れて)
「各レスを名前/本文等に分割したものをキャッシュする」から
「各レスを出力するHTMLになおしたものをキャッシュする」に変えたものが
ようやく動くようになったので、
軽くベンチを取ってみました。
(本来ならば現行のCGIDSO版をベースにすべきでしょうが
ソースが手元にないし、一度似たようなものを作っているので)
環境は、Athlon64-3000+ (2.0G, 512K DDR400single) MEM1G @Win2K
対象は、ある時期(1ヶ月程前)の、operate板の全dat
計116ファイル、9,456,984byte、総レス数は39585。
これを、全ての.datに対して
一通りread.cgiの出力イメージを作成するのにかかる時間(ms)です。
最初に空読みして、OSのディスクキャッシュに載せた後、
複数回測定したおよその数字です。
以下、「キャッシュなし」は初回及び保持数が少ない時にかかる時間
「キャッシュあり」は、キャッシュの保持数を充分にして、2回目以降にかかる時間です。
キャッシュなしの数字には、.datをapr_mmapしてそこから内部バッファにコピーする時間と
その.datをparseして各レスのHTMLを作成する時間が含まれます。
また、圧縮は、zlibの標準圧縮率での測定です。
昔書いたhttp://2ch-tool.net/mirror/mod_readcgi.zipをベースに(大幅に手を入れて)
「各レスを名前/本文等に分割したものをキャッシュする」から
「各レスを出力するHTMLになおしたものをキャッシュする」に変えたものが
ようやく動くようになったので、
軽くベンチを取ってみました。
(本来ならば現行のCGIDSO版をベースにすべきでしょうが
ソースが手元にないし、一度似たようなものを作っているので)
環境は、Athlon64-3000+ (2.0G, 512K DDR400single) MEM1G @Win2K
対象は、ある時期(1ヶ月程前)の、operate板の全dat
計116ファイル、9,456,984byte、総レス数は39585。
これを、全ての.datに対して
一通りread.cgiの出力イメージを作成するのにかかる時間(ms)です。
最初に空読みして、OSのディスクキャッシュに載せた後、
複数回測定したおよその数字です。
以下、「キャッシュなし」は初回及び保持数が少ない時にかかる時間
「キャッシュあり」は、キャッシュの保持数を充分にして、2回目以降にかかる時間です。
キャッシュなしの数字には、.datをapr_mmapしてそこから内部バッファにコピーする時間と
その.datをparseして各レスのHTMLを作成する時間が含まれます。
また、圧縮は、zlibの標準圧縮率での測定です。
05/03/05 11:42:21ID:RUlzb90X0
「レスを全部読む」非圧縮
キャッシュ無し 680
キャッシュあり 290
「レスを全部読む」圧縮
キャッシュ無し 1660
キャッシュあり 1220
「最新50」非圧縮
キャッシュ無し 138
キャッシュあり 46
「最新50」圧縮
キャッシュ無し 282
キャッシュあり 184
「1-100」非圧縮
キャッシュ無し 210
キャッシュあり 85
「1-100」圧縮
キャッシュ無し 460
キャッシュあり 313
カーネルのネットワーク/スレッド、.dat読みや書き込みに割かれる分がありますが
Op246Dualの総合的処理能力が約2倍程度だろうと考えると
read.cgi処理に使えるCPU資源はK8単体と同程度以上はあると思われます。
その上で、(「全部読む」「新着」や>>リンククリックを含めた)平均的なread.cgi出力を
l50程度の長さだと仮定すると、read.cgiの処理自体は
ピーク毎秒400リクエスト以上は平気でこなせる、ということになります。
.dat転送も含めれば、(プロセッサ能力だけなら)毎秒1000近く捌けるはずです。
キャッシュ無し 680
キャッシュあり 290
「レスを全部読む」圧縮
キャッシュ無し 1660
キャッシュあり 1220
「最新50」非圧縮
キャッシュ無し 138
キャッシュあり 46
「最新50」圧縮
キャッシュ無し 282
キャッシュあり 184
「1-100」非圧縮
キャッシュ無し 210
キャッシュあり 85
「1-100」圧縮
キャッシュ無し 460
キャッシュあり 313
カーネルのネットワーク/スレッド、.dat読みや書き込みに割かれる分がありますが
Op246Dualの総合的処理能力が約2倍程度だろうと考えると
read.cgi処理に使えるCPU資源はK8単体と同程度以上はあると思われます。
その上で、(「全部読む」「新着」や>>リンククリックを含めた)平均的なread.cgi出力を
l50程度の長さだと仮定すると、read.cgiの処理自体は
ピーク毎秒400リクエスト以上は平気でこなせる、ということになります。
.dat転送も含めれば、(プロセッサ能力だけなら)毎秒1000近く捌けるはずです。
05/03/05 11:44:34ID:RUlzb90X0
ところで、書き込み処理の方はどの程度まで可能かというと
こちらはHDDの能力に依存するでしょう。
仮に、シーク4ms、15000rpmのディスクに書き込むとします。
平均シークは4msですが、局所性も考えて
シーク+回転待ちで、5ms程度とみると
HDDの能力的には、毎秒200ブロックに対して書き込みが可能なはずです。
(データの書き込みにかかる時間は、64K程度の書き込みでも1ms以下です)
仮に、open,write,closeの3つの合計で
ディスクの10箇所に書き込むとすると
ピークで最大20ファイルに対して書き込みが出来るわけです。
ただし、プラッタもヘッドも1つではないし
ディスク自体も内部キャッシュを持っていることを考えると
ピーク30ファイルは書き込めると思われます。
(ディスクの動作モード等にも依存するかもしれません)
# 実際、体感的にはWin2K+Raptor(遅い方)RAID0でも
# 毎秒100ファイル程度は書き込めているという印象があります。
# まあ、データ本体は非同期書き込みなので、あまり参考にはなりませんが。
こちらはHDDの能力に依存するでしょう。
仮に、シーク4ms、15000rpmのディスクに書き込むとします。
平均シークは4msですが、局所性も考えて
シーク+回転待ちで、5ms程度とみると
HDDの能力的には、毎秒200ブロックに対して書き込みが可能なはずです。
(データの書き込みにかかる時間は、64K程度の書き込みでも1ms以下です)
仮に、open,write,closeの3つの合計で
ディスクの10箇所に書き込むとすると
ピークで最大20ファイルに対して書き込みが出来るわけです。
ただし、プラッタもヘッドも1つではないし
ディスク自体も内部キャッシュを持っていることを考えると
ピーク30ファイルは書き込めると思われます。
(ディスクの動作モード等にも依存するかもしれません)
# 実際、体感的にはWin2K+Raptor(遅い方)RAID0でも
# 毎秒100ファイル程度は書き込めているという印象があります。
# まあ、データ本体は非同期書き込みなので、あまり参考にはなりませんが。
05/03/05 11:47:19ID:RUlzb90X0
以上、読み込みと書き込みの両方の要素から
peko鯖単体の処理能力の限界を求めると
ピーク時に毎秒30書き込みが可能で、
読み出しリクエストがその20-30倍程度と考えると
毎秒600-800程度、内read.cgi呼び出しが300-400程度、
といったところでしょうか。
ピークが1日平均の1/3-1/5程度と考えると、1台のバックエンドで(peko鯖ならば)
毎秒平均6-10書き込み、1日平均50万-80万書き込み程度が
処理できる計算になります。
これは、2chの全書き込みの1/4-1/3程度に相当します。
# 本来、このスレでの話題は「live鯖をどうするか」であって
# 2ch全体の構成を変えることは考えてないでしょうが
# 私自身はlive系には全く縁も興味もないので・・・。
以上、(書き込み能力からの)理論上の目標数値のようなものは出ていますが
実際にここまで実現できるかというと、問題は山ほどあります。
で、とりあえず、バックエンドをどういう形態で動かすのか
(シングルプロセスapacheのモジュールにするのか、さらに別daemonにするのか)
という問題があります。
peko鯖単体の処理能力の限界を求めると
ピーク時に毎秒30書き込みが可能で、
読み出しリクエストがその20-30倍程度と考えると
毎秒600-800程度、内read.cgi呼び出しが300-400程度、
といったところでしょうか。
ピークが1日平均の1/3-1/5程度と考えると、1台のバックエンドで(peko鯖ならば)
毎秒平均6-10書き込み、1日平均50万-80万書き込み程度が
処理できる計算になります。
これは、2chの全書き込みの1/4-1/3程度に相当します。
# 本来、このスレでの話題は「live鯖をどうするか」であって
# 2ch全体の構成を変えることは考えてないでしょうが
# 私自身はlive系には全く縁も興味もないので・・・。
以上、(書き込み能力からの)理論上の目標数値のようなものは出ていますが
実際にここまで実現できるかというと、問題は山ほどあります。
で、とりあえず、バックエンドをどういう形態で動かすのか
(シングルプロセスapacheのモジュールにするのか、さらに別daemonにするのか)
という問題があります。
05/03/05 11:48:13ID:RUlzb90X0
まず、apacheに載せる場合、(特にFreeBSDなら)workerが動くのか
もしうまく動かないならsolarisやlinuxは視野に入っているのか等や
そもそも1000ものスレッドを作れるのか
(例えばlinux2.4でpthreadをデフォルト使うと、各スレッドでスタックを10M取るため
32bit環境では4Gしかないアドレス空間が全然足りません)
デフォルトで作れないなら、worker.cに手を加えるのか、
仮に作れてもまともに動くのか、等です。
そしてバックエンドを別daemonにするなら
(daemon自体はselect系を使った少数スレッドによる実行形態が望ましい)
それとの通信はどうするのか
(マルチスレッドapacheに交信モジュールを追加して
コネクションプールと各プロセスからの同時接続数制限をしたい)
とかですね。
# 一応今作っているものは、apacheのhttpd依存部とそれ以外(aprには依存しますが)には
# 分離可能なようには努力しています。
# まだ.datの詳細データの読み出しと保存、subject/subbackの作成、及び
# 前述の基本的なread.cgi出力部のみですが。
もちろん、毎秒最大1000ものconnect/close要求(KeepAliveOffの場合)を
こなせるのかというのも大きな問題です。
(少数のコネクションに対してリクエストが合計1000来るというだけなら
DB等で実現しているように、問題なくこなせるはずです)
で、何らかの理由で「毎秒1000」が1台でこなせない場合の対案等は
後ほど(気が向いたら)書き込みます。
もしうまく動かないならsolarisやlinuxは視野に入っているのか等や
そもそも1000ものスレッドを作れるのか
(例えばlinux2.4でpthreadをデフォルト使うと、各スレッドでスタックを10M取るため
32bit環境では4Gしかないアドレス空間が全然足りません)
デフォルトで作れないなら、worker.cに手を加えるのか、
仮に作れてもまともに動くのか、等です。
そしてバックエンドを別daemonにするなら
(daemon自体はselect系を使った少数スレッドによる実行形態が望ましい)
それとの通信はどうするのか
(マルチスレッドapacheに交信モジュールを追加して
コネクションプールと各プロセスからの同時接続数制限をしたい)
とかですね。
# 一応今作っているものは、apacheのhttpd依存部とそれ以外(aprには依存しますが)には
# 分離可能なようには努力しています。
# まだ.datの詳細データの読み出しと保存、subject/subbackの作成、及び
# 前述の基本的なread.cgi出力部のみですが。
もちろん、毎秒最大1000ものconnect/close要求(KeepAliveOffの場合)を
こなせるのかというのも大きな問題です。
(少数のコネクションに対してリクエストが合計1000来るというだけなら
DB等で実現しているように、問題なくこなせるはずです)
で、何らかの理由で「毎秒1000」が1台でこなせない場合の対案等は
後ほど(気が向いたら)書き込みます。
05/03/05 15:54:58ID:U7AvG2Q50
まぁ排他処理とかキャッシュみたいなややこしいアクロバチックなことを1台のサーバーとソフトでするよりも。
Keep It Simple & Stupidでバカ端末を複数ぶらさげるほうがスケールするんだけどね。
Keep It Simple & Stupidでバカ端末を複数ぶらさげるほうがスケールするんだけどね。
122root▲ ★
05/03/06 02:16:46ID:???0 http://liveb1.2ch.net/livetbs/
とりあえず、単につないでみただけ。
リファラとかいろいろあるからもちろん書き込めないし、
いろんなところにlive8ってハードコーディングされてるということが改めてわかった。
とりあえず、単につないでみただけ。
リファラとかいろいろあるからもちろん書き込めないし、
いろんなところにlive8ってハードコーディングされてるということが改めてわかった。
123root▲ ★
05/03/06 02:24:52ID:???0 で、いろいろレス。
>>113
やっぱ、Apacheかsquidかなってことで、とりあえずsquidでやってみたです。
設定のフレキシビリティ考えると、Apacheかも。
>>115
それは、すぐにはできにくいすからね。
>>116-119
緻密な調査、ありがとうございます。
非常に参考になります。
100ファイル/secがそのまま「bbs.cgiを秒間100回」にできるわけではないですが、
私の感覚やいろんな統計などとも結構一致しているかんじがします。
cgidsoとspeedycgiにしてから、「読み」と「書き」を別ホストにできると、
実は相当いけるんじゃないだろうかというのが、これのそもそものきっかけなんで。
で、>>119 にある「2ちゃんねるの全書き込みの1/3-1/4を1台で処理できるパフォーマンスが
出せる可能性があるのかもしれない」というのが、なかなかですね。
>>120
workerで動かせるか、というのは、前からある課題ですね。
mod_proxyでリバースプロキシするなら、フロント側でworker使ってみる意味はあるかもしれないかも、
とか思ったり。
>>121
そですね。
banana大量横並べモデルって、じつはそれに近い気が、しないでもなかったり。
>>113
やっぱ、Apacheかsquidかなってことで、とりあえずsquidでやってみたです。
設定のフレキシビリティ考えると、Apacheかも。
>>115
それは、すぐにはできにくいすからね。
>>116-119
緻密な調査、ありがとうございます。
非常に参考になります。
100ファイル/secがそのまま「bbs.cgiを秒間100回」にできるわけではないですが、
私の感覚やいろんな統計などとも結構一致しているかんじがします。
cgidsoとspeedycgiにしてから、「読み」と「書き」を別ホストにできると、
実は相当いけるんじゃないだろうかというのが、これのそもそものきっかけなんで。
で、>>119 にある「2ちゃんねるの全書き込みの1/3-1/4を1台で処理できるパフォーマンスが
出せる可能性があるのかもしれない」というのが、なかなかですね。
>>120
workerで動かせるか、というのは、前からある課題ですね。
mod_proxyでリバースプロキシするなら、フロント側でworker使ってみる意味はあるかもしれないかも、
とか思ったり。
>>121
そですね。
banana大量横並べモデルって、じつはそれに近い気が、しないでもなかったり。
124root▲ ★
05/03/06 03:16:58ID:???0 …ということで、もうちょっと微調整するんで、
いったんつなげたやつを落とします。
いったんつなげたやつを落とします。
125root▲ ★
05/03/06 03:29:30ID:???0 再度上げた。
今日はこんなとこか。
今日はこんなとこか。
Apache の mod_cache / mod_proxy 周りは現行の 2.0 より 2.1 / 2.2 の方が
いろいろ手が入って改良されてるようです.まだ alpha バージョンですけど,
実験と割り切るなら使ってみるのも一興かな,と.
live 系鯖のように板当たりのスレ数が少なく,かつ特定のスレに人が集中する
ような状況なら,read.cgi 出力のキャッシュは結構有効だろうと思います.
あとは,それを read.cgi 自前でやるのがいいのか,それとも mod_mem_cache に
お任せするのがいいのか,というところですが.
マルチスレッド MPM の選択肢としては worker 以外にも,バーチャルホスト単位で
別ユーザ権限で httpd を動かせて perchild より安定している Metux MPMとか,
Keep Alive 時の負荷軽減を図った Event MPM とか,もありますね.
いろいろ手が入って改良されてるようです.まだ alpha バージョンですけど,
実験と割り切るなら使ってみるのも一興かな,と.
live 系鯖のように板当たりのスレ数が少なく,かつ特定のスレに人が集中する
ような状況なら,read.cgi 出力のキャッシュは結構有効だろうと思います.
あとは,それを read.cgi 自前でやるのがいいのか,それとも mod_mem_cache に
お任せするのがいいのか,というところですが.
マルチスレッド MPM の選択肢としては worker 以外にも,バーチャルホスト単位で
別ユーザ権限で httpd を動かせて perchild より安定している Metux MPMとか,
Keep Alive 時の負荷軽減を図った Event MPM とか,もありますね.
05/03/08 05:03:43ID:mDJH+l/N0
【実験】ミニ雪だるま作戦―ex7で3/8 3:10あたりから実験はじめます
http://qb5.2ch.net/test/read.cgi/operate/1110218877/
http://qb5.2ch.net/test/read.cgi/operate/1110218877/
128FOX ★
05/03/08 12:28:22ID:???0 私もちと基礎実験するかな @live15
その前に知識をむさぼらなければ・・・・・
ということで 質問だらだらでーす
今 live15 は read.cgi が止まっています、つまり俗に言う「人大杉」状態。
この状態で 別サーバで read.cgi をサービスするという事を考えてみようかと、
もしかしたら root★さんがやっているのがそれなのかしら?
live15x.2ch.net で read.cgi を提供するとしたら dat@live15 を取得するのは
どうしたらいいだろう・・・
その前に知識をむさぼらなければ・・・・・
ということで 質問だらだらでーす
今 live15 は read.cgi が止まっています、つまり俗に言う「人大杉」状態。
この状態で 別サーバで read.cgi をサービスするという事を考えてみようかと、
もしかしたら root★さんがやっているのがそれなのかしら?
live15x.2ch.net で read.cgi を提供するとしたら dat@live15 を取得するのは
どうしたらいいだろう・・・
129FOX ★
05/03/08 12:30:29ID:???0 1) 直接 live15 から持ってくる、 (front end を増やすのが簡単じゃないかも)
2) 専用の black goat 経由で持ってくる、(スケールとの兼ね合いで高コスト?)
3) あと どうやるの?
もしかして root ★さんは 1) をやろうとしているのかしら?
2) 専用の black goat 経由で持ってくる、(スケールとの兼ね合いで高コスト?)
3) あと どうやるの?
もしかして root ★さんは 1) をやろうとしているのかしら?
130root▲ ★
05/03/08 12:34:36ID:???0 おぉ、、、。
めしの後で、レスします。
めしの後で、レスします。
131root▲ ★
05/03/08 14:00:26ID:???0 read.cgiを別ホストで動かそうとする場合、何らかの形でdatにアクセスできる必要があります。
その方法ですが、1) 2) 3) だと混乱するんで、a) b) c)で、、、
a) NFSを使う
NFSを使ってlive15のdatディレクトリをlive15xにmountし、まるごと見えるようにします。
これだと、ローカルにあるファイルと同じようにopen()とかread()とかできるので、
read.cgiの改変は基本的に少なくてすみます。
でもmmap()とか使っていると、変えないといけない予感。
あと、FreeBSDのNFSの実装がどのくらい枯れているのかという点で、やや不安です。
私ののおすすめ度: ★
b) read.cgiをいじって、ローカルにdatを持ってくることにする
>>129 の 1) とか 2) の手法です。
で、専用のblackgat入れるのいまいちなので、ローカルにキャッシュ持って、
そこに入れることにするのはどうか、と考えています。
もちろんこのキャッシュで、dat直読みも対応させると。
で、フロントエンドはバックエンドにせいぜい3台、多くても5台ぐらいぶらさげれば
いいところじゃないかと思っているので、1)でいいんじゃないかなぁと(これは、甘く見てるかも)。
私のおすすめ度: ★★
その方法ですが、1) 2) 3) だと混乱するんで、a) b) c)で、、、
a) NFSを使う
NFSを使ってlive15のdatディレクトリをlive15xにmountし、まるごと見えるようにします。
これだと、ローカルにあるファイルと同じようにopen()とかread()とかできるので、
read.cgiの改変は基本的に少なくてすみます。
でもmmap()とか使っていると、変えないといけない予感。
あと、FreeBSDのNFSの実装がどのくらい枯れているのかという点で、やや不安です。
私ののおすすめ度: ★
b) read.cgiをいじって、ローカルにdatを持ってくることにする
>>129 の 1) とか 2) の手法です。
で、専用のblackgat入れるのいまいちなので、ローカルにキャッシュ持って、
そこに入れることにするのはどうか、と考えています。
もちろんこのキャッシュで、dat直読みも対応させると。
で、フロントエンドはバックエンドにせいぜい3台、多くても5台ぐらいぶらさげれば
いいところじゃないかと思っているので、1)でいいんじゃないかなぁと(これは、甘く見てるかも)。
私のおすすめ度: ★★
132root▲ ★
05/03/08 14:04:38ID:???0 で、キャッシュを持つ実験として、ミニ雪だるまを動かしています。
ex7でディレイなし、read.cgiはノーキャッシュの状況で、
30%ぐらいキャッシュからヒットしています。
つまりその分のアクセスはフロントエンドのsquidがよきにはからってくれていて、
ex7のhttpdはdatの中身をsquid側に運ばないで済んでいます。
この状態でsquidを別マシンで動かすことを考えています。
で、別マシンで動くread.cgiはこのsquidに対して、datをリクエストすると。
ex7でディレイなし、read.cgiはノーキャッシュの状況で、
30%ぐらいキャッシュからヒットしています。
つまりその分のアクセスはフロントエンドのsquidがよきにはからってくれていて、
ex7のhttpdはdatの中身をsquid側に運ばないで済んでいます。
この状態でsquidを別マシンで動かすことを考えています。
で、別マシンで動くread.cgiはこのsquidに対して、datをリクエストすると。
133FOX ★
05/03/08 14:07:33ID:???0 混乱しないように ex7 で話しをすすめることにしよう。。。
(b)の場合 その squid というのは ex7 側にあるんですよね?
つまりその負荷はex7に負わせるということですが、
それの占有率ってどれくらいなんだろう・・・
(b)の場合 その squid というのは ex7 側にあるんですよね?
つまりその負荷はex7に負わせるということですが、
それの占有率ってどれくらいなんだろう・・・
134root▲ ★
05/03/08 14:20:10ID:???0 簡単な図にすると、今まではこんなかんじで、
ユーザPC = datリクエスト => httpd at 206.223.150.110
これを、今ex7ではこうやっています。
ユーザPC = datリクエスト => squidローカルキャッシュ[ datキャッシュ ] at 206.223.150.110 = datリクエスト => httpd at 127.0.0.1
で、次の段階では、squidとhttpdを別のマシンで動かすことを考えると。
で、今のsquidの負荷占有率は、それほど高くないです。
topだと、0点台です。
squidの非同期I/O機能が効いている模様。
だた、メモリは食ってますね。ex7のやつが今90Mぐらい。
そもそもsquidには「httpアクセラレーション機能」というのがあって、
それも、ある程度効果を発揮している模様です。
Apacheはpreforkだと1つのhttpdで同時に一人しか相手できないので、スロットいっぱいになってしまうと
身動きがとれなくなりますが、squidだと1つのsquidで同時に何百人を相手できるので、
その部分での効果も、期待できます。
マツケンサンバやバルス攻撃だと読み人が死ぬほど来てスロットをさらっていくので、
それも、ついでになんとかしてしまおうという目論見で。
ユーザPC = datリクエスト => httpd at 206.223.150.110
これを、今ex7ではこうやっています。
ユーザPC = datリクエスト => squidローカルキャッシュ[ datキャッシュ ] at 206.223.150.110 = datリクエスト => httpd at 127.0.0.1
で、次の段階では、squidとhttpdを別のマシンで動かすことを考えると。
で、今のsquidの負荷占有率は、それほど高くないです。
topだと、0点台です。
squidの非同期I/O機能が効いている模様。
だた、メモリは食ってますね。ex7のやつが今90Mぐらい。
そもそもsquidには「httpアクセラレーション機能」というのがあって、
それも、ある程度効果を発揮している模様です。
Apacheはpreforkだと1つのhttpdで同時に一人しか相手できないので、スロットいっぱいになってしまうと
身動きがとれなくなりますが、squidだと1つのsquidで同時に何百人を相手できるので、
その部分での効果も、期待できます。
マツケンサンバやバルス攻撃だと読み人が死ぬほど来てスロットをさらっていくので、
それも、ついでになんとかしてしまおうという目論見で。
135root▲ ★
05/03/08 14:21:05ID:???0 topだと、0点台です。=> CPU1%以下、という意味です。
136root▲ ★
05/03/08 14:30:24ID:???0 補足をひとつ:
リモートホストの情報は、squid => httpdの際に渡るようになっています。
つまり、IPアドレスやリモートホスト名で規制する部分は、従来どおりです。
(mod_rpaf というApacheモジュールを使用)
リモートホストの情報は、squid => httpdの際に渡るようになっています。
つまり、IPアドレスやリモートホスト名で規制する部分は、従来どおりです。
(mod_rpaf というApacheモジュールを使用)
137FOX ★
05/03/08 15:18:31ID:???0 つまり squid を独立した別サーバで動かすと
それはまさに black goat であるということですかねぇ
それはまさに black goat であるということですかねぇ
05/03/08 16:17:01ID:/dAiNWW40
BSD Magazineで小飼弾さんがSquidリバースプロクシの記事を書いていたなぁ。
お昼にワイドスクランブルに出演してたのを見て吹いたけど。
お昼にワイドスクランブルに出演してたのを見て吹いたけど。
140root▲ ★
05/03/08 16:25:48ID:???0141root▲ ★
05/03/09 02:58:59ID:???0 で、subject.txtの304が増えることと、それは果たして負荷軽減なのか、
っていう話を、書いておこうかと。
通常の場合
2ちゃんねるビューワは、ユーザからのsubject.txtの再読み込み要求を受け付けると、
サーバにとりにいきます。
しかし、たいていのビューワはかしこくできていて、サーバ側にリクエストを出すときに、
自分が持っているsubject.txtのタイムスタンプはこれだから、それより更新されていた場合だけ
subject.txtを送ってちょうだい、というリクエストを出します。
サーバはsubject.txtのタイムスタンプを調べて(ここではsubject.txtの本体は読まない = 重要)、
ビューワから送られてきたタイムスタンプと比較して新しかったら、
サーバははじめてsubject.txt本体を読んで、ビューワ側に送ります。
もし更新されてなかったら「304 Not modified」(更新されていませんでした)だけを送って、
subject.txtの本体は読まないし、送りません。
つまりこのように「更新チェックつきりクエスト」を出すことで、もしsubject.txtが更新されていなかった場合、
・subject.txt本体を読むコスト
・subject.txtをビューワに送るコスト
・その分のネットワーク転送量コスト
が、削減できることになります。
っていう話を、書いておこうかと。
通常の場合
2ちゃんねるビューワは、ユーザからのsubject.txtの再読み込み要求を受け付けると、
サーバにとりにいきます。
しかし、たいていのビューワはかしこくできていて、サーバ側にリクエストを出すときに、
自分が持っているsubject.txtのタイムスタンプはこれだから、それより更新されていた場合だけ
subject.txtを送ってちょうだい、というリクエストを出します。
サーバはsubject.txtのタイムスタンプを調べて(ここではsubject.txtの本体は読まない = 重要)、
ビューワから送られてきたタイムスタンプと比較して新しかったら、
サーバははじめてsubject.txt本体を読んで、ビューワ側に送ります。
もし更新されてなかったら「304 Not modified」(更新されていませんでした)だけを送って、
subject.txtの本体は読まないし、送りません。
つまりこのように「更新チェックつきりクエスト」を出すことで、もしsubject.txtが更新されていなかった場合、
・subject.txt本体を読むコスト
・subject.txtをビューワに送るコスト
・その分のネットワーク転送量コスト
が、削減できることになります。
142FOX ★
05/03/09 03:02:06ID:???0 それは squid を入れたからなるんですか?
そうじゃないと思うんですが、
そうじゃないと思うんですが、
143root▲ ★
05/03/09 03:09:45ID:???0 で、今回、ビューワとサーバ(httpd)の間に、squidを入れました。
squidはオンメモリとかディスク上とかに、他の人に送ったsubject.txtをたくわえています。
ここでは、現在の設定に従って、オンメモリで考えます。
ビューワからは、squidがリクエストを受け付けます。
squidは自分が持っているsubject.txtが更新されていないか、httpdに聞きます。
聞き方は、ビューワがやるときと同じ手法で、
私の手持ちはこれだから、それより更新されていたら、送ってね、
という聞き方をしているはずです。
ただしこの時、
squid => httpdの問い合わせの際に、何か「うまいこと」が起きているようなのです。
なぜか squid 出すリクエストに対して、httpd は 304 を多く返している。
なぜなのかは、よく調べないとわかりません。
でも、現象として起こっているように思えるので、再度、
実験してなかったときのログ、一昨日の19時台あたり
実験していたときのログ、昨日の19時台あたり
を、確認してみます。
# 謎のままにしたくないなぁ。
squidはオンメモリとかディスク上とかに、他の人に送ったsubject.txtをたくわえています。
ここでは、現在の設定に従って、オンメモリで考えます。
ビューワからは、squidがリクエストを受け付けます。
squidは自分が持っているsubject.txtが更新されていないか、httpdに聞きます。
聞き方は、ビューワがやるときと同じ手法で、
私の手持ちはこれだから、それより更新されていたら、送ってね、
という聞き方をしているはずです。
ただしこの時、
squid => httpdの問い合わせの際に、何か「うまいこと」が起きているようなのです。
なぜか squid 出すリクエストに対して、httpd は 304 を多く返している。
なぜなのかは、よく調べないとわかりません。
でも、現象として起こっているように思えるので、再度、
実験してなかったときのログ、一昨日の19時台あたり
実験していたときのログ、昨日の19時台あたり
を、確認してみます。
# 謎のままにしたくないなぁ。
144FOX ★
05/03/09 03:13:01ID:???0 >他の人に送ったsubject.txt
これなのかな?
これなのかな?
145root▲ ★
05/03/09 03:14:04ID:???0146FOX ★
05/03/09 03:14:40ID:???0 別の話しですが
でも subject.txt って
ex7はジンギスカン仕様だから 元々 on memory のはずなんですが
open close 分だけ節約できるというはなしですか?
でも subject.txt って
ex7はジンギスカン仕様だから 元々 on memory のはずなんですが
open close 分だけ節約できるというはなしですか?
147root▲ ★
05/03/09 03:16:14ID:???0 open send close ですね。sendはジンギスカンでも節約できないです。
148FOX ★
05/03/09 03:16:44ID:???0 >>145
squid => httpd のリクエストはでるでしょ
それの回答が 403 なだけで
クライアント => aquid の回答は 403 じゃないと思うけど
つまり今までと変わらないのでは?
squid => httpd のリクエストはでるでしょ
それの回答が 403 なだけで
クライアント => aquid の回答は 403 じゃないと思うけど
つまり今までと変わらないのでは?
149FOX ★
05/03/09 03:19:01ID:???0 squid => httpd の回答は send じゃないんですか?
150root▲ ★
05/03/09 03:19:50ID:???0 19:00-19:59 JST
3/7 実験なし
3/8 実験あり
のサンプルをとりました。
あぁ、そういう意味ですか。>>148
コストの着眼点が、違うかも。
私は本丸のhttpdのコストが下がるのが、ポイントだと思ったわけです。
squidを別のマシンで動かすことを考えた場合に。
3/7 実験なし
3/8 実験あり
のサンプルをとりました。
あぁ、そういう意味ですか。>>148
コストの着眼点が、違うかも。
私は本丸のhttpdのコストが下がるのが、ポイントだと思ったわけです。
squidを別のマシンで動かすことを考えた場合に。
152root▲ ★
05/03/09 03:22:50ID:???0 これは、squidが何をクライアントに返しているかは、別にとらないとだめですね。
304 なのか、本体をずるずる返している(ないと思うけど)のか。
304 なのか、本体をずるずる返している(ないと思うけど)のか。
153FOX ★
05/03/09 03:24:09ID:???0 403 だったら、 memory disk でも send が起らないと思うんですが、
>>150
そんなこんなで先日の質問だったわけですが・・・
今さがしていまーす、どこで書いたか忘れちまった
このすれだと思ったんだけど、
>>150
そんなこんなで先日の質問だったわけですが・・・
今さがしていまーす、どこで書いたか忘れちまった
このすれだと思ったんだけど、
154root▲ ★
05/03/09 03:27:04ID:???0155FOX ★
05/03/09 03:27:51ID:???0156FOX ★
05/03/09 03:28:34ID:???0157root▲ ★
05/03/09 03:29:04ID:???0 総数 >>154 のうち、
%grep " 304 " 0307 | wc -l
70960
%grep " 304 " 0308 | wc -l
132584
となっていました。倍ぐらい304が多いかんじ。
うち、subject.txt は、
%grep " 304 " 0307 | grep subject.txt | wc -l
98
%grep " 304 " 0308 | grep subject.txt | wc -l
10687
%grep " 304 " 0307 | wc -l
70960
%grep " 304 " 0308 | wc -l
132584
となっていました。倍ぐらい304が多いかんじ。
うち、subject.txt は、
%grep " 304 " 0307 | grep subject.txt | wc -l
98
%grep " 304 " 0308 | grep subject.txt | wc -l
10687
158root▲ ★
05/03/09 03:33:46ID:???0 >>156
ふむ。
後ろには、データのファイルだけを入れるってかんじですか。
bbs.cgiも、データを書くところ以外は前に持ってくると。
そういえば、そんなことをどこかでも言っていたような。
で、今私がやってる実験の話を、別のレスで。
ふむ。
後ろには、データのファイルだけを入れるってかんじですか。
bbs.cgiも、データを書くところ以外は前に持ってくると。
そういえば、そんなことをどこかでも言っていたような。
で、今私がやってる実験の話を、別のレスで。
159root▲ ★
05/03/09 03:44:03ID:???0 ということで私がいまやっているのは、
目的1が、httpdの直前にキャッシュを入れて、dat直読みとsubject.txtの処理にかかるhttpdの仕事を軽くする、
目的2が、squidの機能(一人でたくさんの相手を処理できる)を使ってhttpdの空きを確保する、になります。
深夜の実況は、よくのびます。あと、読み手が少ない時も。
でも、とても人気のある番組では、伸びがわるいです。
その原因のひとつとして、大量の読み手がhttpdを占有してしまい、
そのためにhttpdの空きが少なくなってしまい、アクセスそのものが困難になる、というのがあります。
売り切れ状態というやつ。
マツケンサンバとかの時は、ログインするとサーバは反応ある(結構軽い)のに
売り切れ状態となり、アクセスはそのものができなくなってしまいます。
これは、大量の読み手がhttpdをふさいでしまうせいです。
httpdを増やせればいいのですが、httpdは1つのプロセスで1つのリクエストしかさばけないので、
限界があります。
そこでこれを解決するために、目的2をやったと。
目的1については、別レスで。
目的1が、httpdの直前にキャッシュを入れて、dat直読みとsubject.txtの処理にかかるhttpdの仕事を軽くする、
目的2が、squidの機能(一人でたくさんの相手を処理できる)を使ってhttpdの空きを確保する、になります。
深夜の実況は、よくのびます。あと、読み手が少ない時も。
でも、とても人気のある番組では、伸びがわるいです。
その原因のひとつとして、大量の読み手がhttpdを占有してしまい、
そのためにhttpdの空きが少なくなってしまい、アクセスそのものが困難になる、というのがあります。
売り切れ状態というやつ。
マツケンサンバとかの時は、ログインするとサーバは反応ある(結構軽い)のに
売り切れ状態となり、アクセスはそのものができなくなってしまいます。
これは、大量の読み手がhttpdをふさいでしまうせいです。
httpdを増やせればいいのですが、httpdは1つのプロセスで1つのリクエストしかさばけないので、
限界があります。
そこでこれを解決するために、目的2をやったと。
目的1については、別レスで。
160FOX ★
05/03/09 03:45:11ID:???0 達成したいこと
live16(tiger) + live8(cobra) + live15(banana) それぞれジンギスカン
を一つの大きなサーバとして運用したい。
出来上がり品は 今の倍のキャパにしたい。
Front1 , Front2 , Front3 ,,, Front10
↓↑
black goat
↓↑
live8 , live15 , live16
この構成で 今の倍以上をこなしたい
私の目論見では二倍だったら black goat なし Front 三台で
こなせると思っております
そして Front が逼迫した場合は Front は横並びで増設
back end が逼迫したら black goat 追加、
これで五倍〜10倍いくような予感、なんちゃって
ちなみに back end の読み出しは dat , txt 読み(cgi経由なし)
書き込みは 専用のDSO(written in C)
live16(tiger) + live8(cobra) + live15(banana) それぞれジンギスカン
を一つの大きなサーバとして運用したい。
出来上がり品は 今の倍のキャパにしたい。
Front1 , Front2 , Front3 ,,, Front10
↓↑
black goat
↓↑
live8 , live15 , live16
この構成で 今の倍以上をこなしたい
私の目論見では二倍だったら black goat なし Front 三台で
こなせると思っております
そして Front が逼迫した場合は Front は横並びで増設
back end が逼迫したら black goat 追加、
これで五倍〜10倍いくような予感、なんちゃって
ちなみに back end の読み出しは dat , txt 読み(cgi経由なし)
書き込みは 専用のDSO(written in C)
161FOX ★
05/03/09 03:47:32ID:???0 Front end は単純な ろびんちゃん
162root▲ ★
05/03/09 03:49:49ID:???0 目的1について
これは、主にdat直読みとsubject.txt読み込みの負荷軽減の模索です。
ex7ではヒット率3割ぐらいのようなので、その分httpdの仕事が少なくてすみます。
squidはもちろんその分仕事します。
で、squidの部分を別のマシンに持ってくることで、分散できるんじゃないかと考えていたりしました。
…とここまで書きましたが、私のはは現状のものをあまり変えずに「皮をかぶせる」アイディアですね。
これでも、かなりいけると踏んでいますが、んじゃread.cgiはどうすんのとか、bbs.cgiは結局スルーか、
とか、そういうふうに考えると、ドラスティックには効果を期待できないのかも、しんないですね。
たぶんせいぜい、倍ぐらいにしかならない。
もっとスケールするようにするには、>>156 のほうが、本筋な気がしてきました。
しかしそれには、開発が必要ですね。でもそれは、必要な開発なのかなと。
これは、主にdat直読みとsubject.txt読み込みの負荷軽減の模索です。
ex7ではヒット率3割ぐらいのようなので、その分httpdの仕事が少なくてすみます。
squidはもちろんその分仕事します。
で、squidの部分を別のマシンに持ってくることで、分散できるんじゃないかと考えていたりしました。
…とここまで書きましたが、私のはは現状のものをあまり変えずに「皮をかぶせる」アイディアですね。
これでも、かなりいけると踏んでいますが、んじゃread.cgiはどうすんのとか、bbs.cgiは結局スルーか、
とか、そういうふうに考えると、ドラスティックには効果を期待できないのかも、しんないですね。
たぶんせいぜい、倍ぐらいにしかならない。
もっとスケールするようにするには、>>156 のほうが、本筋な気がしてきました。
しかしそれには、開発が必要ですね。でもそれは、必要な開発なのかなと。
163root▲ ★
05/03/09 03:51:45ID:???0 >私の目論見では二倍だったら black goat なし Front 三台で
>こなせると思っております
うわ、結婚したかも。
>こなせると思っております
うわ、結婚したかも。
164root▲ ★
05/03/09 03:55:33ID:???0 今のex7での実験は「現状を延命させる」実験としてかなり面白いので続けようと思いますが、
(ヒット率3割も出ると思わなかった)
改めて >>160 の図面見ると、Front 1〜Front 10に、
squidの部分がそのまま使えそうな気がするですよ(オンメモリモードで)。
(ヒット率3割も出ると思わなかった)
改めて >>160 の図面見ると、Front 1〜Front 10に、
squidの部分がそのまま使えそうな気がするですよ(オンメモリモードで)。
165FOX ★
05/03/09 03:56:11ID:???0 開発といっても
front で bbs.cgi も read.cgi も請け負う
front end に置く bbs.cgi の実際にdat に書くという処理の部分を
back end の所定のサーバの cgi(dso) を呼ぶに変えるだけかと、
(そうでもないか? やってみて変なとこちょこちょこ修正ですむような気が)
実況サーバですから timeclose 等はまぁがまんするとか
スレ立て規制はバーボンがあるし、
index.html subject.txt .dat(rea.cgi) を何時どうやって構成するかも問題ですが
最初は back end で構成したものをそのまま呼んできて渡してもよいような
実験の結果 304 が沢山発生したんですからかなり back end は楽になると思う
front で bbs.cgi も read.cgi も請け負う
front end に置く bbs.cgi の実際にdat に書くという処理の部分を
back end の所定のサーバの cgi(dso) を呼ぶに変えるだけかと、
(そうでもないか? やってみて変なとこちょこちょこ修正ですむような気が)
実況サーバですから timeclose 等はまぁがまんするとか
スレ立て規制はバーボンがあるし、
index.html subject.txt .dat(rea.cgi) を何時どうやって構成するかも問題ですが
最初は back end で構成したものをそのまま呼んできて渡してもよいような
実験の結果 304 が沢山発生したんですからかなり back end は楽になると思う
166root▲ ★
05/03/09 04:01:56ID:???0171FOX ★
05/03/09 04:08:00ID:???0 んで live15 で実験しませんか?
なぜなら あいている banana があるわけで、
front1 , front2
↓↑
live15
がすぐ組めるような、
これで live15 系として banana 一台の何倍のキャパになるかが知りたかったり、、
なぜなら あいている banana があるわけで、
front1 , front2
↓↑
live15
がすぐ組めるような、
これで live15 系として banana 一台の何倍のキャパになるかが知りたかったり、、
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【広末涼子容疑者】「ワタシはーーー!ヒロスエーー!!」 ★4 [combatt★]
- 【国際】米が14か国の食料支援打ち切り、マスク氏率いる政府効率化省の指示か…WFP「数百万人への死刑宣告」 [ぐれ★]
- 【岐阜】田んぼに落とされたり、失禁するまで殴られ… 小学校で“いじめ”認定 男子児童はPTSDの診断 神戸町 [牛乳トースト★]
- 【芸能】広末涼子容疑者はなぜ逮捕されたのか? 元刑事が背景を推測「薬物検査の結果次第… 釈放か再逮捕か」 [冬月記者★]
- 【万博】吉村知事「自然換気すれば対応できる」テストランの最中に万博会場で基準値超えのメタンガス検出 [牛乳トースト★]
- 万博会場の夢洲駅で『ダイナマイトを爆破させる』と投稿し業務妨害した疑い 男子大学生を逮捕…容疑認める [少考さん★]
- 【実況】博衣こよりのえちえちポケポケ10先勝負🧪🌃★3
- 【画像】新山千春(44)「私と娘(18)、どっち選ぶ?」 [126042664]
- ▶白上フブキのマリオメーカー2見ようぜ
- お前らって何区に住んでるの?
- 🏡😅🏡
- 【速報】ロングセラー文学トップ20が発表。嫌儲民が好きな本は? [373226912]