2ch特化型サーバ・ロケーション構築作戦のスレッドです。
・2ちゃんねるのサーバロケーション、PIEに関する関連作業・調整事項
・DNS登録・変更まわりの関連作業・調整事項
・2ちゃんねるのサーバで採用しているOS、FreeBSDに関する情報・調整事項
・各種作戦・プロジェクトとの連携、プロジェクト間の連携
等を取り扱います。
現在、複数サーバによる連携により、
サーバ能力のさらなるスケールアップをめざすための「雪だるま作戦」が進行中です。
また、次世代の携帯アクセス環境をめざした「べっかんこ作戦」も稼動しはじめました。
「2ちゃんねる証券取引所」や、「Be」の機能強化等、
2ちゃんねるは今日も変化し続けています。
前スレ:
2ch特化型サーバ・ロケーション構築作戦 Part19
http://qb5.2ch.net/test/read.cgi/operate/1121886018/
2ch特化型サーバ・ロケーション構築作戦 Part20
■ このスレッドは過去ログ倉庫に格納されています
1root▲ ★
NGNG694root▲ ★
NGNG httpd / bbsd の再起動装置を止めた。 @ live22
697root▲ ★
NGNG ファイルは全部 mfs 上なので、mfs の設定をチューニングすればいいのかな。
/sbin/mdmfs -M -s ${_MDSIZE} -i 2048 -o noatime md /md
現在こんなかんじ。
/dev/md0 on /md (ufs, local, noatime, soft-updates)
softupdate なしの async にする(前に1度負けてますが)とか、そのへんか。
/sbin/mdmfs -M -s ${_MDSIZE} -i 2048 -o noatime md /md
現在こんなかんじ。
/dev/md0 on /md (ufs, local, noatime, soft-updates)
softupdate なしの async にする(前に1度負けてますが)とか、そのへんか。
>>698 read.cgi の方はライブ dat のやり方を流用すればいいのでそんなに難しくはないでしょうね.
問題は offlaw.cgi ですが......
問題は offlaw.cgi ですが......
700root▲ ★
NGNG offlaw.cgi は、元ソースがどこにあるかすら知らなかったり。
702root▲ ★
NGNG 寝落ちしてました、、、。
em1: RX overrun
というのが3回ほど。
em1: RX overrun
というのが3回ほど。
703root▲ ★
NGNG news18 は LA=15-20 ぐらいだけど、何とかなりそうな感じ。
前に入れた自動Saborinが働いているかな。
ex13 ex14 は特に問題なしで。
で、live22 ははじめて、「今の限界まで正しく使われた」感じです。
それはそれで問題だが。
前に入れた自動Saborinが働いているかな。
ex13 ex14 は特に問題なしで。
で、live22 ははじめて、「今の限界まで正しく使われた」感じです。
それはそれで問題だが。
704root▲ ★
NGNG 次の大きなステップ(フロント増設・バックcobra稼動)に進むためには、
サーバの移動とかをたんたんとすすめるってかんじですね。
サーバの移動とかをたんたんとすすめるってかんじですね。
705root▲ ★
NGNG で、ソフトウェア設定的に大きな器にする(>>701 など)のは、
ようやく別途すすめられる状態にあいなったと。
というわけで、虫はとれたっぽい。
が、課題はまだたくさんある、といったところかなと。
live22関係は、今日はこんなところで。
ようやく別途すすめられる状態にあいなったと。
というわけで、虫はとれたっぽい。
が、課題はまだたくさんある、といったところかなと。
live22関係は、今日はこんなところで。
2006/03/19(日) 17:56:58ID:FpAWTOrI0
もうやってるかもしれませんがシステムのチューニングだと
sysctl kern.ipc.somaxconn
の設定も有効でした。ただ、今の状況だと、効果あるかわかりませんが。。
あと
>>462-463の修正はほとんどRELENG_6に入ったし、emドライバの修正もあるんで、
6.1-PREPRELEASEにあげるのも良いかも?
sysctl kern.ipc.somaxconn
の設定も有効でした。ただ、今の状況だと、効果あるかわかりませんが。。
あと
>>462-463の修正はほとんどRELENG_6に入ったし、emドライバの修正もあるんで、
6.1-PREPRELEASEにあげるのも良いかも?
2006/03/19(日) 18:00:31ID:FpAWTOrI0
× 6.1-PREPRELEASE
○ 6.1-PRERELEASE
○ 6.1-PRERELEASE
708root▲ ★
NGNG やっぱり目が覚めちゃう件について。
>>706-707
RELENG_6_1 が切られたら、さっそくというかんじですね。
で、今の live22 の kern.ipc.somaxconn の値。
# increase listen queue
kern.ipc.somaxconn=8192
kern.ipc.maxsockbuf=2097152
>>706-707
RELENG_6_1 が切られたら、さっそくというかんじですね。
で、今の live22 の kern.ipc.somaxconn の値。
# increase listen queue
kern.ipc.somaxconn=8192
kern.ipc.maxsockbuf=2097152
709root▲ ★
NGNG MacOS X (Darwin)の例ですが。
http://www.tech-arts.co.jp/macosx/macosx-jp/htdocs/16500/16582.html
> というわけで、小さなファイルをたくさん抱えて何回もアクセスするような処理を
> 行っており、それら全部載るくらいのメモリを持っている場合は、
> maxvnodes の値を見直してみる価値はあるのではないでしょうか。
本家は、
11.13 Tuning Kernel Limits
http://www.freebsd.org/doc/en/books/handbook/configtuning-kernel-limits.html
ここにも、vnode 関係の記述があるですね。
今は頭がぼーとしてるんで、あとでこのへん読んでじっくりと。
live22は今、
kern.maxvnodes: 100000
の模様(デフォルト)。
http://www.tech-arts.co.jp/macosx/macosx-jp/htdocs/16500/16582.html
> というわけで、小さなファイルをたくさん抱えて何回もアクセスするような処理を
> 行っており、それら全部載るくらいのメモリを持っている場合は、
> maxvnodes の値を見直してみる価値はあるのではないでしょうか。
本家は、
11.13 Tuning Kernel Limits
http://www.freebsd.org/doc/en/books/handbook/configtuning-kernel-limits.html
ここにも、vnode 関係の記述があるですね。
今は頭がぼーとしてるんで、あとでこのへん読んでじっくりと。
live22は今、
kern.maxvnodes: 100000
の模様(デフォルト)。
2006/03/19(日) 19:19:16ID:FpAWTOrI0
>>708
やはり、基本的な設定はされているんですね。
8192もあれば、普通なら問題ないと思います。。
個人的に、vmstatの b のところが、2000とか3000とかいってるのが気になるというか、
正直、そんな値初めて見ました。
リソース待ちなわけですが、何を待ってるんだろう。。
ってpage faultも多いですね。うーん。。
やはり、基本的な設定はされているんですね。
8192もあれば、普通なら問題ないと思います。。
個人的に、vmstatの b のところが、2000とか3000とかいってるのが気になるというか、
正直、そんな値初めて見ました。
リソース待ちなわけですが、何を待ってるんだろう。。
ってpage faultも多いですね。うーん。。
711root▲ ★
2006/03/19(日) 19:21:02ID:???0 日曜(現地)も仕事入っていたりしますが、
合間を見て、管理人ではない「西村さん」の案件をやろうかなと。
長い、しかし有意義な1日だった。
合間を見て、管理人ではない「西村さん」の案件をやろうかなと。
長い、しかし有意義な1日だった。
712root▲ ★
2006/03/19(日) 19:23:44ID:???0 >>710
「リソース待ち」っぽいのは、この症状が出たころ(昨年末)から感じていて、
このスレの過去スレにも書いたですね。
page fault 多いですか。
vm 関係も微妙にチューニングの必要ありかもと。
今日はほんとにありがとうございました。
PREEMPTIONの件で、ここ数ヶ月止まっていたことが
一つ前に進んだ気がします。
そんでは、もうひとねいり。
「リソース待ち」っぽいのは、この症状が出たころ(昨年末)から感じていて、
このスレの過去スレにも書いたですね。
page fault 多いですか。
vm 関係も微妙にチューニングの必要ありかもと。
今日はほんとにありがとうございました。
PREEMPTIONの件で、ここ数ヶ月止まっていたことが
一つ前に進んだ気がします。
そんでは、もうひとねいり。
2006/03/19(日) 19:45:00ID:M/Cfljrg0
YOUどうせならcurrent 使っちゃいなYO
2006/03/19(日) 23:08:32ID:JvDTJEGU0
無茶言うな
2006/03/20(月) 00:21:51ID:iuDJLqcCO
俺も複数チンポシーン好きだけど、本番ないのが惜しかったなパー穴
パー穴の複数チンポとデミパの本番のいいとこどりなやつキボン
ぶっちゃけ林間が見たい
あの下品なテイストのままで。
パー穴の複数チンポとデミパの本番のいいとこどりなやつキボン
ぶっちゃけ林間が見たい
あの下品なテイストのままで。
2006/03/20(月) 00:38:27ID:d1aOtDjn0
いいからVIPに帰れよ貴様はw
そういえば......matd の方は WBC の時どんな感じだったんでしょうね.
限界近いぐらいか,それともまだ余力十分か......
限界近いぐらいか,それともまだ余力十分か......
719root▲ ★
NGNG2006/03/20(月) 12:52:12ID:iUUzAkXUO
西村さんの意見かぁ。
だんだんひろゆきさんがホリエモンみたくイメージキャラクター化しているように感じるのは俺だけ?
だんだんひろゆきさんがホリエモンみたくイメージキャラクター化しているように感じるのは俺だけ?
722どくどくさぼてん
2006/03/20(月) 14:00:34ID:Nsn+9yOI0 「管理人ではない」とわざわざ書いてあったりするのに
管理人にされてしまう西村さんテラカワイソス
管理人にされてしまう西村さんテラカワイソス
723root▲ ★
NGNG bbs.cgi再開発プロジェクト7
http://qb5.2ch.net/test/read.cgi/operate/1130918407/488
qb5 サーバに携帯用ブラウザ対応版 bbs.cgi を入れました。
というわけで、書き込みテストをよろしくお願いいたします。
テストはこちらでやっていただけますと助かります。
[test] 書き込みテスト 専用スレッド 59 [テスト]
http://qb5.2ch.net/test/read.cgi/operate/1140966906/
なお今回の bbs.cgi 内の対応は「一般的に」行ったので
(ブラウザ依存の取得ルーチンの追加だけで対応可能)、
仮に同様の情報を提供いただける、他の携帯用ブラウザがあれば、
それらへの対応も、技術的には可能になったはず。
http://qb5.2ch.net/test/read.cgi/operate/1130918407/488
qb5 サーバに携帯用ブラウザ対応版 bbs.cgi を入れました。
というわけで、書き込みテストをよろしくお願いいたします。
テストはこちらでやっていただけますと助かります。
[test] 書き込みテスト 専用スレッド 59 [テスト]
http://qb5.2ch.net/test/read.cgi/operate/1140966906/
なお今回の bbs.cgi 内の対応は「一般的に」行ったので
(ブラウザ依存の取得ルーチンの追加だけで対応可能)、
仮に同様の情報を提供いただける、他の携帯用ブラウザがあれば、
それらへの対応も、技術的には可能になったはず。
2006/03/20(月) 15:16:21ID:4l/kRRnp0
726root▲ ★
NGNG 経由で => 経由でも
申し訳ありませんでした。
>>723
http://qb5.2ch.net/test/read.cgi/operate/1140966906/944
にて、正常に送信できたことを報告いたします。
----------
携帯用ブラウザからの情報を正しく取得できませんでした。
と出ました。
弊社側のサーバがそちらに対応していないようです。
対応いたします。
>>723
http://qb5.2ch.net/test/read.cgi/operate/1140966906/944
にて、正常に送信できたことを報告いたします。
----------
携帯用ブラウザからの情報を正しく取得できませんでした。
と出ました。
弊社側のサーバがそちらに対応していないようです。
対応いたします。
2006/03/20(月) 15:29:55ID:4l/kRRnp0
>>728
> 一度書けたのに、どうしたのでしょう。
action属性の値を厳密化(../test/bbs.cgi)しすぎていたため、c.2ch.net に書き込めませんでした。
c.2ch.net 経由でも書き込めたことを
http://qb5.2ch.net/test/read.cgi/operate/1140966906/947
にて報告いたします。
> 一度書けたのに、どうしたのでしょう。
action属性の値を厳密化(../test/bbs.cgi)しすぎていたため、c.2ch.net に書き込めませんでした。
c.2ch.net 経由でも書き込めたことを
http://qb5.2ch.net/test/read.cgi/operate/1140966906/947
にて報告いたします。
730root▲ ★
NGNG >>729
了解です。そういうことでしたか。
あともうひとつ(実はこれがさきほどの質問の意図でしたが)、
ibisBrowser 経由ではなく、同じ携帯で直接iモードからc.2ch.net経由で
同じスレッドに書き込んでいただけると助かります。
それで、その書き込みのIDの末尾だけがQからOに変わればすべて解決になります。
(つまり、素で携帯から書いたものと同じIDになってほしい)
よろしくお願いします。
了解です。そういうことでしたか。
あともうひとつ(実はこれがさきほどの質問の意図でしたが)、
ibisBrowser 経由ではなく、同じ携帯で直接iモードからc.2ch.net経由で
同じスレッドに書き込んでいただけると助かります。
それで、その書き込みのIDの末尾だけがQからOに変わればすべて解決になります。
(つまり、素で携帯から書いたものと同じIDになってほしい)
よろしくお願いします。
>>730
iModeブラウザから書き込みました。
http://qb5.2ch.net/test/read.cgi/operate/1140966906/950
末尾のみが違うことを確認できました。
iModeブラウザから書き込みました。
http://qb5.2ch.net/test/read.cgi/operate/1140966906/950
末尾のみが違うことを確認できました。
732root▲ ★
NGNG 向こうで確認しました。うまくいっているようですね。
それでは、全サーバにこのbbs.cgiを配布するということで。
それでは、全サーバにこのbbs.cgiを配布するということで。
734root▲ ★
NGNG 配布しました。
10分程度で全サーバ有効になるはず。
以降の不具合報告等についてはここではなく、
こちらのスレを使っていただけると助かります。
bbs.cgi再開発プロジェクト7
http://qb5.2ch.net/test/read.cgi/operate/1130918407/
IPアドレスの追加・変更やUAの仕様変更、
あるいはDoCoMo以外の機種への対応があった場合には、
これまで通り、こちらのスレで報告をお願いします。
ということで、よろしくお願いします。
10分程度で全サーバ有効になるはず。
以降の不具合報告等についてはここではなく、
こちらのスレを使っていただけると助かります。
bbs.cgi再開発プロジェクト7
http://qb5.2ch.net/test/read.cgi/operate/1130918407/
IPアドレスの追加・変更やUAの仕様変更、
あるいはDoCoMo以外の機種への対応があった場合には、
これまで通り、こちらのスレで報告をお願いします。
ということで、よろしくお願いします。
2006/03/20(月) 19:14:24ID:6DJajcET0
sage
2006/03/20(月) 19:36:44ID:v9vJz1+40
昨日PREEMPTIONなしをお薦めした者ですが、
PREEMPTIONとDEVICE_POLLINGについて簡単なベンチマークを行ってみました。
ベンチマークには自作のApacheモジュールを使用しました。
そのモジュールは、/var/tmp/bbs.txtというファイルを開いた後にファイルをロックし、
そのファイルにHello, world!!!という文字列を50回書き込んで、
クライアントにtest OK!という文字列を返すという簡単なものです。
abを使用して、同時1000接続、合計1000000リクエストでテストしました。
<テスト結果>
PREEMPTIONあり + DEVICE_POLLINGなし:
Requests per second: 1999.76 [#/sec]
PREEMPTIONあり + DEVICE_POLLINGあり:
Requests per second: 1836.68 [#/sec]
PREEMPTIONなし + DEVICE_POLLINGなし:
Requests per second: 5005.48 [#/sec]
PREEMPTIONなし + DEVICE_POLLINGあり:
Requests per second: 6528.52 [#/sec]
良かったら御参考に。
PREEMPTIONとDEVICE_POLLINGについて簡単なベンチマークを行ってみました。
ベンチマークには自作のApacheモジュールを使用しました。
そのモジュールは、/var/tmp/bbs.txtというファイルを開いた後にファイルをロックし、
そのファイルにHello, world!!!という文字列を50回書き込んで、
クライアントにtest OK!という文字列を返すという簡単なものです。
abを使用して、同時1000接続、合計1000000リクエストでテストしました。
<テスト結果>
PREEMPTIONあり + DEVICE_POLLINGなし:
Requests per second: 1999.76 [#/sec]
PREEMPTIONあり + DEVICE_POLLINGあり:
Requests per second: 1836.68 [#/sec]
PREEMPTIONなし + DEVICE_POLLINGなし:
Requests per second: 5005.48 [#/sec]
PREEMPTIONなし + DEVICE_POLLINGあり:
Requests per second: 6528.52 [#/sec]
良かったら御参考に。
738root▲ ★
2006/03/20(月) 19:44:31ID:???0 今日も目が覚めてしまった件。
>>737
どうもです。DEVICE_POLLING ですか。
前に一度、matd の時に挙動不審になって負けた経験がありますが、
あれはPREEMPTIONあり + DEVICE_POLLING ありだった時(下記で一番悪い)なので、
別途やってみる意味はありますね。
live22は幸運にもリモートコンソールでアクセスできるので、
最悪ネットワークがしくっても、なんとかできるので。
また、あとで挑戦ということで。
>>737
どうもです。DEVICE_POLLING ですか。
前に一度、matd の時に挙動不審になって負けた経験がありますが、
あれはPREEMPTIONあり + DEVICE_POLLING ありだった時(下記で一番悪い)なので、
別途やってみる意味はありますね。
live22は幸運にもリモートコンソールでアクセスできるので、
最悪ネットワークがしくっても、なんとかできるので。
また、あとで挑戦ということで。
2006/03/20(月) 19:53:38ID:v9vJz1+40
あ、あと、最後の「PREEMPTIONなし + DEVICE_POLLINGあり」では、
・vmstatで見たとき、run queueに2桁しかたまらない
・vmstatで見たとき、cpu idleが0ではない
という特徴がありました。他のものはrun queueは3桁でidleは0でした。
…それにしても、リソース待ちの状況が作り出せないです。
どうやったらそうなるのか、個人的に興味があるんですが。
・vmstatで見たとき、run queueに2桁しかたまらない
・vmstatで見たとき、cpu idleが0ではない
という特徴がありました。他のものはrun queueは3桁でidleは0でした。
…それにしても、リソース待ちの状況が作り出せないです。
どうやったらそうなるのか、個人的に興味があるんですが。
2006/03/20(月) 19:58:27ID:3AhPRBbd0
>> 709
現在のlive22xの過去ログの数を数えたら、167315個ぐらいあるようなきがする...
rsyncって配下のファイル全部なめたりしませんよね。
とりあえず、 sysctl vfs.numvnodes の値を見た方がよいのかも。
現在のlive22xの過去ログの数を数えたら、167315個ぐらいあるようなきがする...
rsyncって配下のファイル全部なめたりしませんよね。
とりあえず、 sysctl vfs.numvnodes の値を見た方がよいのかも。
2006/03/20(月) 20:18:07ID:JBGtAjYz0
>rsyncって配下のファイル全部なめたりしませんよね。
ファイルリストを作るために舐める気がした。
ファイルリストを作るために舐める気がした。
rsync が負担になってるとすると......長期的には offlaw.cgi 改造で
rsync を使わずに済む形に持っていくとして,今できる対策ということでは,
例えば LA が上がるなど忙しい時には一時的に rsync を止めてしまって,
ゆとりができてから rsync を再開させるようにするとか.
rsync を使わずに済む形に持っていくとして,今できる対策ということでは,
例えば LA が上がるなど忙しい時には一時的に rsync を止めてしまって,
ゆとりができてから rsync を再開させるようにするとか.
743root▲ ★
2006/03/20(月) 23:35:52ID:???02006/03/20(月) 23:43:08ID:4MqdJb6z0
鯖に関して外部との共同作業ってのは、初めてかもしれないな
2006/03/21(火) 01:11:05ID:+mO7md5D0
系統を分けるんなら負荷の低いときには早めに同期するとかしてほしいなあ
いつの間にか出てたようです。
squid-2.5.STABLE13
ttp://www.squid-cache.org/Versions/v2/2.5/squid-2.5.STABLE13-RELEASENOTES.html
squid-2.5.STABLE13
ttp://www.squid-cache.org/Versions/v2/2.5/squid-2.5.STABLE13-RELEASENOTES.html
2006/03/21(火) 10:51:03ID:8MeS4SLs0
740なこといいましたが、本当にrsyncのファイルアクセスのせいかわからないので、
メモリに余裕があるのなら、まずは、 kern.maxvnodes=200000ぐらいにして
リソース待ちが発生しないかためしてみるのがよいのかも。
メモリに余裕があるのなら、まずは、 kern.maxvnodes=200000ぐらいにして
リソース待ちが発生しないかためしてみるのがよいのかも。
748root▲ ★
NGNG rsync がいなくてもリソース待ちが起こったのを確認しました。
で、これが効くといいかなと。
【団子】負荷監視所_20060319
http://live14.2ch.net/test/read.cgi/liveplus/1142750659/168
168 名前: ◆MUMUMUhnYI [sage] 投稿日:2006/03/21(火) 11:51:03.36 ID:iMM5RZdi0 ?#
>>163 >>166
Apache status を見ると、L が死ぬほどありました。
つまり、ログを書くところで詰まりまくり。
Scoreboard Key:
"_" Waiting for Connection, "S" Starting up, "R" Reading Request,
"W" Sending Reply, "K" Keepalive (read), "D" DNS Lookup,
"C" Closing connection, "L" Logging, "G" Gracefully finishing,
"I" Idle cleanup of worker, "." Open slot with no current process
TransferLogしているのも原因かも。
いずれにせよlive22でPVとる必要も意味もないので、
この部分コメントにしたです。
で、これが効くといいかなと。
【団子】負荷監視所_20060319
http://live14.2ch.net/test/read.cgi/liveplus/1142750659/168
168 名前: ◆MUMUMUhnYI [sage] 投稿日:2006/03/21(火) 11:51:03.36 ID:iMM5RZdi0 ?#
>>163 >>166
Apache status を見ると、L が死ぬほどありました。
つまり、ログを書くところで詰まりまくり。
Scoreboard Key:
"_" Waiting for Connection, "S" Starting up, "R" Reading Request,
"W" Sending Reply, "K" Keepalive (read), "D" DNS Lookup,
"C" Closing connection, "L" Logging, "G" Gracefully finishing,
"I" Idle cleanup of worker, "." Open slot with no current process
TransferLogしているのも原因かも。
いずれにせよlive22でPVとる必要も意味もないので、
この部分コメントにしたです。
2006/03/21(火) 12:42:59ID:8MeS4SLs0
752root▲ ★
NGNG live22x1 でも、
em1: RX overrun
が。
で、live22 は httpd が signal 10 でダウンしたりした模様。
フロントもPREEMPTIONなし、DEVICE_POLLINGありにするかんじかなと。
あと、ex14も。
em1: RX overrun
が。
で、live22 は httpd が signal 10 でダウンしたりした模様。
フロントもPREEMPTIONなし、DEVICE_POLLINGありにするかんじかなと。
あと、ex14も。
753root▲ ★
NGNG で、Apache status のログをあとで観察してみる。
754root▲ ★
NGNG http://mumumu.mu/mrtgc/mrtg-rrd.cgi/traffic/blackgoat3-privatetraf.html
また、32bitカウンタがあふれたです。< BG3
2分に1回だから、携帯系のフロント <=> バックの間300Mbpsぐらい出たのか。
なんかみんなすごいな。
また、32bitカウンタがあふれたです。< BG3
2分に1回だから、携帯系のフロント <=> バックの間300Mbpsぐらい出たのか。
なんかみんなすごいな。
756root▲ ★
NGNG >>754-755
ヒット率が落ちなかったので、まだBG3/4は生き延びられるのかな。
http://mumumu.mu/mrtgc/mrtg-rrd.cgi/loveaffair/blackgoat3-hits.html
しかし、次の瞬間には・・・。
ヒット率が落ちなかったので、まだBG3/4は生き延びられるのかな。
http://mumumu.mu/mrtgc/mrtg-rrd.cgi/loveaffair/blackgoat3-hits.html
しかし、次の瞬間には・・・。
2006/03/21(火) 17:14:06ID:POrVUVF+0
あれ、VIP落ちてませんか?
http://ch2.ath.cx/load/ex14.html
http://ch2.ath.cx/load/ex14.html
2006/03/21(火) 17:17:54ID:EX/sKDGu0
寿命です
760root▲ ★
NGNG761root▲ ★
NGNG で、ロケーション系では、
・game10 news19 hobby7 BBQ 移動手配
・その後フロント、バック増設
あと、フロント増設時に1台を過去ログ専用にして、
過去ログのrsyncはそこだけにして、他はmod_proxyでとばしてみるとか。
・game10 news19 hobby7 BBQ 移動手配
・その後フロント、バック増設
あと、フロント増設時に1台を過去ログ専用にして、
過去ログのrsyncはそこだけにして、他はmod_proxyでとばしてみるとか。
黒やぎさんのhttpdを触っている?・・・ってないですよね?
httpだけお返事がないみたいです。。。
ttp://sv2ch.baila6.jp/server.cgi?server=blackgoat4.2ch.net
httpだけお返事がないみたいです。。。
ttp://sv2ch.baila6.jp/server.cgi?server=blackgoat4.2ch.net
2006/03/22(水) 12:24:12ID:7LE2Hpw30
764root▲ ★
2006/03/22(水) 21:09:50ID:???0 BG4はカーネルパニックか。
%cat info.1
Dump header from device /dev/da0s1b
Architecture: i386
Architecture Version: 2
Dump Length: 2146500608B (2047 MB)
Blocksize: 512
Dumptime: Tue Mar 21 06:31:02 2006
Hostname: tiger512.maido3.com
Magic: FreeBSD Kernel Dump
Version String: FreeBSD 6.0-RELEASE-p2 #0: Fri Jan 13 10:22:04 PST 2006
root@tiger512.maido3.com:/var/src/sys/i386/compile/I386_TIGER_60_BLACKGOAT
Panic String: page fault
Dump Parity: 52599871
Bounds: 1
Dump Status: good
%kgdb /boot/kernel/kernel vmcore.1
[GDB will not be able to debug user-mode threads: /usr/lib/libthread_db.so: Undefined symbol "ps_pglobal_lookup"]
GNU gdb 6.1.1 [FreeBSD]
Copyright 2004 Free Software Foundation, Inc.
GDB is free software, covered by the GNU General Public License, and you are
welcome to change it and/or distribute copies of it under certain conditions.
Type "show copying" to see the conditions.
There is absolutely no warranty for GDB. Type "show warranty" for details.
This GDB was configured as "i386-marcel-freebsd".
(no debugging symbols found)...Attempt to extract a component of a value that is not a structure pointer.
(kgdb) where
#0 0xc0505f3e in doadump ()
#1 0xc06f9f60 in buf.0 ()
#2 0xf15f1b8c in ?? ()
#3 0xc0506429 in boot ()
Previous frame inner to this frame (corrupt stack?)
(kgdb) quit
%cat info.1
Dump header from device /dev/da0s1b
Architecture: i386
Architecture Version: 2
Dump Length: 2146500608B (2047 MB)
Blocksize: 512
Dumptime: Tue Mar 21 06:31:02 2006
Hostname: tiger512.maido3.com
Magic: FreeBSD Kernel Dump
Version String: FreeBSD 6.0-RELEASE-p2 #0: Fri Jan 13 10:22:04 PST 2006
root@tiger512.maido3.com:/var/src/sys/i386/compile/I386_TIGER_60_BLACKGOAT
Panic String: page fault
Dump Parity: 52599871
Bounds: 1
Dump Status: good
%kgdb /boot/kernel/kernel vmcore.1
[GDB will not be able to debug user-mode threads: /usr/lib/libthread_db.so: Undefined symbol "ps_pglobal_lookup"]
GNU gdb 6.1.1 [FreeBSD]
Copyright 2004 Free Software Foundation, Inc.
GDB is free software, covered by the GNU General Public License, and you are
welcome to change it and/or distribute copies of it under certain conditions.
Type "show copying" to see the conditions.
There is absolutely no warranty for GDB. Type "show warranty" for details.
This GDB was configured as "i386-marcel-freebsd".
(no debugging symbols found)...Attempt to extract a component of a value that is not a structure pointer.
(kgdb) where
#0 0xc0505f3e in doadump ()
#1 0xc06f9f60 in buf.0 ()
#2 0xf15f1b8c in ?? ()
#3 0xc0506429 in boot ()
Previous frame inner to this frame (corrupt stack?)
(kgdb) quit
765root▲ ★
2006/03/22(水) 21:11:43ID:???0767● ◆ANGLERlqvM
NGNG Security Advisoryが3件出ますた。
ftp://ftp.freebsd.org/pub/FreeBSD/CERT/advisories/FreeBSD-SA-06:11.ipsec.asc
ftp://ftp.freebsd.org/pub/FreeBSD/CERT/advisories/FreeBSD-SA-06:12.opie.asc
ftp://ftp.freebsd.org/pub/FreeBSD/CERT/advisories/FreeBSD-SA-06:13.sendmail.asc
ftp://ftp.freebsd.org/pub/FreeBSD/CERT/advisories/FreeBSD-SA-06:11.ipsec.asc
ftp://ftp.freebsd.org/pub/FreeBSD/CERT/advisories/FreeBSD-SA-06:12.opie.asc
ftp://ftp.freebsd.org/pub/FreeBSD/CERT/advisories/FreeBSD-SA-06:13.sendmail.asc
2006/03/23(木) 11:15:09ID:xWxnCIui0
769動け動けウゴウゴ2ちゃんねる
2006/03/23(木) 18:07:32ID:ixynDoQk0 保守age
770root▲ ★
NGNG 2chの動作報告はここで。 パート19
http://qb5.2ch.net/test/read.cgi/operate/1140600013/
ということで、特定のIPアドレスからの特定CGIの過激な起動を検知して、
例えば 403 エラーとか特定の URI とかを返すようなよい Apache モジュールって、
何があるのかしら。
http://qb5.2ch.net/test/read.cgi/operate/1140600013/
ということで、特定のIPアドレスからの特定CGIの過激な起動を検知して、
例えば 403 エラーとか特定の URI とかを返すようなよい Apache モジュールって、
何があるのかしら。
771root▲ ★
NGNG …昔一時的に使ったdosなんちゃら(evasiveだっけ)とかかな。
772root▲ ★
NGNG773root▲ ★
NGNG 記憶をたどっていますが、
前にみた時には、<Files bbs.cgi> </Files> とかで囲むことができないから
いまいちだなぁって話を、確かしたですね。
【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part15
http://qb5.2ch.net/operate/kako/1093/10930/1093068260.html
前にみた時には、<Files bbs.cgi> </Files> とかで囲むことができないから
いまいちだなぁって話を、確かしたですね。
【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part15
http://qb5.2ch.net/operate/kako/1093/10930/1093068260.html
774root▲ ★
NGNG2006/03/25(土) 10:57:09ID:hGMEs7kM0
今更ですが、>>655 >>659 について調べたので、一応報告しておきます。
結論から言いますと、apacheのソースを見る限り、workerにてkillでプロセスが終了しないのは正しい動きです。
workerの場合、1プロセスにつき、
main thread x 1
listener thread x 1
worker thread x ThreadsPerChild
というように、ThreadsPerChild + 2個のスレッドが立ち上がるのですが、
killコマンドでプロセスにSIGTERMを送信した場合、そのシグナルは main thread で受け取ります。
main thread は、親プロセスからのプロセス終了指令が来るまでひたすら待機しており、
SIGTERMを受信した時は、一時的に待機を中断するんですが、すぐまた元の待機状態に戻ります。
シグナルハンドラは、デフォルトのものから何もしない関数に変更されているので、終了はしません。
結論から言いますと、apacheのソースを見る限り、workerにてkillでプロセスが終了しないのは正しい動きです。
workerの場合、1プロセスにつき、
main thread x 1
listener thread x 1
worker thread x ThreadsPerChild
というように、ThreadsPerChild + 2個のスレッドが立ち上がるのですが、
killコマンドでプロセスにSIGTERMを送信した場合、そのシグナルは main thread で受け取ります。
main thread は、親プロセスからのプロセス終了指令が来るまでひたすら待機しており、
SIGTERMを受信した時は、一時的に待機を中断するんですが、すぐまた元の待機状態に戻ります。
シグナルハンドラは、デフォルトのものから何もしない関数に変更されているので、終了はしません。
776root▲ ★
NGNG 2006/03/25 18:00:01 LA= 6:00PM up 6 days, 4:31, 0 users, load averages: 209.71, 406.11, 460.26
LAがすごいことになってたのね。
>>775
なるほど、おつです。
LAがすごいことになってたのね。
>>775
なるほど、おつです。
777root▲ ★
NGNG logbuffer を通さない形でのログとりを復活させよう。
これだと、何が起きたのかもわからないし、
仮に外から DoS られたりしても、何もわからない。
これだと、何が起きたのかもわからないし、
仮に外から DoS られたりしても、何もわからない。
779root▲ ★
NGNG あと、live22 はもうひとつ問題があって、
%df /home
Filesystem 1K-blocks Used Avail Capacity Mounted on
/dev/da1s1f 29633058 11180958 16081456 41% /home
既に HDD を4割以上、使っています。
どんどん書き込まれるから、ペースが速い。
遠からずいわゆる「リフレッシュ工事」が必要な状態に。
どうするのがいいのかなと。
%df /home
Filesystem 1K-blocks Used Avail Capacity Mounted on
/dev/da1s1f 29633058 11180958 16081456 41% /home
既に HDD を4割以上、使っています。
どんどん書き込まれるから、ペースが速い。
遠からずいわゆる「リフレッシュ工事」が必要な状態に。
どうするのがいいのかなと。
780root▲ ★
NGNG 今見たら、ex14もなかなかですね。
旧 ex10 の内容は消したのに(一度リフレッシュ工事している)、
もう7割以上か。
%df /home
Filesystem 1K-blocks Used Avail Capacity Mounted on
/dev/da1s1d 34710178 22568858 9364506 71% /home
旧 ex10 の内容は消したのに(一度リフレッシュ工事している)、
もう7割以上か。
%df /home
Filesystem 1K-blocks Used Avail Capacity Mounted on
/dev/da1s1d 34710178 22568858 9364506 71% /home
782root▲ ★
NGNG Mar 25 19:41:45 <12.3> tiger511 ntpd[552]: sendto(216.218.192.202): No route to host
Mar 25 19:42:13 <12.3> tiger511 ntpd[552]: sendto(209.51.161.238): No route to host
Mar 25 19:49:42 <12.3> tiger511 ntpd[552]: sendto(216.218.254.202): No route to host
Mar 25 19:58:48 <12.3> tiger511 ntpd[552]: sendto(216.218.192.202): No route to host
Mar 25 19:59:17 <12.3> tiger511 ntpd[552]: sendto(209.51.161.238): No route to host
...
ううむ、ネットワークカード(em)が虫を踏んだっぽい。< BG3
トラフィックが多いプライベート側はこけたら起き上がる仕掛けいれてあるけど、
パブリック側にも必要なのかも。
Mar 25 19:42:13 <12.3> tiger511 ntpd[552]: sendto(209.51.161.238): No route to host
Mar 25 19:49:42 <12.3> tiger511 ntpd[552]: sendto(216.218.254.202): No route to host
Mar 25 19:58:48 <12.3> tiger511 ntpd[552]: sendto(216.218.192.202): No route to host
Mar 25 19:59:17 <12.3> tiger511 ntpd[552]: sendto(209.51.161.238): No route to host
...
ううむ、ネットワークカード(em)が虫を踏んだっぽい。< BG3
トラフィックが多いプライベート側はこけたら起き上がる仕掛けいれてあるけど、
パブリック側にも必要なのかも。
783root▲ ★
NGNG784root▲ ★
NGNG >>782
プライベート側*も*、ダウンしていた模様。 < BG3
仕掛け(ifconfig downしてifconfig upする)が
動きまくった(けど復活しなかった)メールが、たくさんたくさん。
ううむ。
プライベート側*も*、ダウンしていた模様。 < BG3
仕掛け(ifconfig downしてifconfig upする)が
動きまくった(けど復活しなかった)メールが、たくさんたくさん。
ううむ。
785reffi@報告人 ★
2006/03/26(日) 22:44:34ID:???0 >783
沈静化したと思ったんですがまだ広がる気配があるのですか・・・
大量でしたら通報コースにしましょうか?
前回と違ってプロバイダも対応してくれると思います。
沈静化したと思ったんですがまだ広がる気配があるのですか・・・
大量でしたら通報コースにしましょうか?
前回と違ってプロバイダも対応してくれると思います。
786水色@飛行石 ★
2006/03/26(日) 22:46:33ID:???0 >>785
私もそう思いますー。
とゆーか、感染しちゃう人は、別亜種もやっぱり拾って
感染しちゃうんじゃないですかねー。
作る方は、作って流すだけですからねー。
感染パソコンに何も出来ないって状態を打破しないと
駄目なんじゃないかなーと。
私もそう思いますー。
とゆーか、感染しちゃう人は、別亜種もやっぱり拾って
感染しちゃうんじゃないですかねー。
作る方は、作って流すだけですからねー。
感染パソコンに何も出来ないって状態を打破しないと
駄目なんじゃないかなーと。
787reffi@報告人 ★
2006/03/26(日) 22:48:27ID:???0 >785補足
通報対象を過剰にbbs.cgiをつついてる人に絞ればapacheのログ添付すればいい
ので簡単に作業できると思います。
(IPごとにログ抽出しないと行けないんですが)
通報対象を過剰にbbs.cgiをつついてる人に絞ればapacheのログ添付すればいい
ので簡単に作業できると思います。
(IPごとにログ抽出しないと行けないんですが)
788root▲ ★
2006/03/26(日) 23:40:38ID:???0 >>785-787
ふむ。
今回、超高頻度なアクセス*そのもの*が問題になっています。
ようは、DoS攻撃を発生させるウイルスということになりますね。
単に通報案件にした場合、
地道なというか長丁場というか、永久に通報し続けなければならない予感がします。
つまりなんというか、その路線では幸せになれないような。
何とか、根本的な手だてはないものかなと。
ふむ。
今回、超高頻度なアクセス*そのもの*が問題になっています。
ようは、DoS攻撃を発生させるウイルスということになりますね。
単に通報案件にした場合、
地道なというか長丁場というか、永久に通報し続けなければならない予感がします。
つまりなんというか、その路線では幸せになれないような。
何とか、根本的な手だてはないものかなと。
789root▲ ★
NGNG 今ざっとtmp6のアクセスログを見てみましたが、
22:00-23:00 の間のこのウイルスっぽいアクセスがあるIPアドレスは、
121 IPアドレスあった模様。
騒ぎが始まったときは 37 個(だったかな)だから、もう4倍近くに。
で、そのうちいちばんひどい一つからは、1時間で2万回近くのアクセスがあったと。
で、そういうのがそれこそ何十と。
そんなわけでtmp6は、今2ちゃんねるで最もアクセスされているサーバに。
http://sabo2.kakiko.com/pageview/daydata.cgi?date=20060325
22:00-23:00 の間のこのウイルスっぽいアクセスがあるIPアドレスは、
121 IPアドレスあった模様。
騒ぎが始まったときは 37 個(だったかな)だから、もう4倍近くに。
で、そのうちいちばんひどい一つからは、1時間で2万回近くのアクセスがあったと。
で、そういうのがそれこそ何十と。
そんなわけでtmp6は、今2ちゃんねるで最もアクセスされているサーバに。
http://sabo2.kakiko.com/pageview/daydata.cgi?date=20060325
790水色@飛行石 ★
2006/03/27(月) 01:21:53ID:???0 >>788
>単に通報案件にした場合、
>地道なというか長丁場というか、永久に通報し続けなければならない予感がします。
えーと、その地道なものがやりにくいとゆーか、やれる仕組みがないなーと。
多分、鯖側の対応でも、永遠にやることになると思いますよー。
すでにもう半年以上戦ってるわけでー。
今回はDos攻撃みたいだから対応してくれてますがー、亜種はゴロゴロ
あるんですよねー。そちらは対応されてませんよねー。
すでにそれらはイタチごっこしてますー。
地道に焼くしかないんですがー、Rockすら出来ないと焼くことも
出来ないわけですよねー。
少なくとも今回のは、Rock&BBQでは対処不可能ですー。
>単に通報案件にした場合、
>地道なというか長丁場というか、永久に通報し続けなければならない予感がします。
えーと、その地道なものがやりにくいとゆーか、やれる仕組みがないなーと。
多分、鯖側の対応でも、永遠にやることになると思いますよー。
すでにもう半年以上戦ってるわけでー。
今回はDos攻撃みたいだから対応してくれてますがー、亜種はゴロゴロ
あるんですよねー。そちらは対応されてませんよねー。
すでにそれらはイタチごっこしてますー。
地道に焼くしかないんですがー、Rockすら出来ないと焼くことも
出来ないわけですよねー。
少なくとも今回のは、Rock&BBQでは対処不可能ですー。
791root▲ ★
2006/03/27(月) 01:56:11ID:???0 >>790
うーむ、、、。
> 少なくとも今回のは、Rock&BBQでは対処不可能ですー。
ですね。
それはつまり、既存の仕組みではもはや対応できないと。
で、結局、
> えーと、その地道なものがやりにくいとゆーか、やれる仕組みがないなーと。
これなわけで。
つまりだとすると、この「仕組み」は、どうすれば作れるのかなと。
そこにポイントがあるような気がします。
これまで、Boo80/Samba24/BBQ/BBM/Rock54 etc. といった「しくみ」を
作ってきたわけで、新たな何かが必要になった、ということなのかなと。
うーむ、、、。
> 少なくとも今回のは、Rock&BBQでは対処不可能ですー。
ですね。
それはつまり、既存の仕組みではもはや対応できないと。
で、結局、
> えーと、その地道なものがやりにくいとゆーか、やれる仕組みがないなーと。
これなわけで。
つまりだとすると、この「仕組み」は、どうすれば作れるのかなと。
そこにポイントがあるような気がします。
これまで、Boo80/Samba24/BBQ/BBM/Rock54 etc. といった「しくみ」を
作ってきたわけで、新たな何かが必要になった、ということなのかなと。
792root▲ ★
2006/03/27(月) 02:02:43ID:???0 新たな何か、か。
さて、どうするのがいいのか。
例えば、これかもなぁ、とか。
http://sunos.saita.ma/mod_authz_iplist.html
とりあえず明日以降に備えて、今日のところはここまでかなと。
さて、どうするのがいいのか。
例えば、これかもなぁ、とか。
http://sunos.saita.ma/mod_authz_iplist.html
とりあえず明日以降に備えて、今日のところはここまでかなと。
>>792 乙です.mod_authz_iplist は DoS を自動検出する機能はないんで,
例えばバーボンで拒否ホスト数が増えた場合に使うとかなら有効かと.
例えばバーボンで拒否ホスト数が増えた場合に使うとかなら有効かと.
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 米バイデン大統領、日本製鉄のUSスチール買収阻止を決定 ワシントン・ポスト報道 ★2 [ぐれ★]
- 伊藤沙莉、紅白衣装で「チマチョゴリは着てません!」ネット情報を否定 実際はイタリアブランドの「ドルチェ&ガッバーナ」 [muffin★]
- 【箱根駅伝】「どけっ!」城西大・斎藤将也「言いました」 前日5区でオートバイ接近、丁寧に説明 [THE FURYφ★]
- 【芸能】タイミー、中居正広が出演するCM動画を削除… TBSの2番組は放送中止、フジは未定、日テレ『仰天ニュース』のみ放送予定 [冬月記者★]
- ラーメン店で妻が「お腹すいてないから、2人で1杯でいいよ」…何と返すのが正解? (石原壮一郎コラムニスト) ★4 [少考さん★]
- アフリカ出身のフィフィ、箱根駅伝…に私見をつづる [少考さん★]
- 【三賀日恒例】!omikuji丼!damaで豚丼380円を出すスレ
- 【豚】丼【380円】と【尊師】を出すスレ ★118
- おちんちんランド🏡
- 大阪万博チケット。 売れなさ過ぎて 20万枚購入済みの大阪電力、15万枚購入済みの大阪ガスが それぞれ追加で5万枚買わされる事に [485983549]
- 【豚】丼【380円】と【尊師】を出すスレ ★53くらい
- 【実況】博衣こよりのえちえち街🧪 ★9