2ch特化型サーバ・ロケーション構築作戦のスレッドです。
・2ちゃんねるのサーバロケーション、PIEに関する関連作業・調整事項
・DNS登録・変更関連の各種作業や調整事項
・2ちゃんねるのサーバで採用しているOS、FreeBSDに関する情報・調整事項
・各種作戦・プロジェクトとの連携、プロジェクト間の連携
等を取り扱います。
前スレ:2ch特化型サーバ・ロケーション構築作戦 Part52
http://qb5.2ch.net/test/read.cgi/operate/1277651499/
2ch特化型サーバ・ロケーション構築作戦 Part53
■ このスレッドは過去ログ倉庫に格納されています
NGNG
2010/07/02(金) 18:35:15ID:HkRu6ab+0
サーバーとサーバーをかけたシャレだろ〜
おもしろいかどうかはともかく。
おもしろいかどうかはともかく。
2010/07/02(金) 18:36:24ID:Mz/3PSo40
夜間監視用新型社内サーバー「NESCAFE Barista」
なんかカッコいい(´∀`*)ポッ
なんかカッコいい(´∀`*)ポッ
おいしいアイスカプチーノを入れたいんじゃなかろうかと
2010/07/02(金) 18:39:56ID:r7AmHJqb0
よし、次のサーバーはこの辺でヨロ。みたいなー。
http://www.nippoh-kiko.co.jp/catalog/type04/02.html
http://www.nippoh-kiko.co.jp/catalog/type04/02.html
2010/07/02(金) 18:45:55ID:Xch+dKqH0
7/2(金) 21:00 〜 22:54
金曜ロードショー「紅の豚」
7/2(金) 22:50 〜 23:55 〜 01:00
NHK教育→NHK総合
2010FIFAワールドカップ・準々決勝
「オランダ×ブラジル」
金曜ロードショー「紅の豚」
7/2(金) 22:50 〜 23:55 〜 01:00
NHK教育→NHK総合
2010FIFAワールドカップ・準々決勝
「オランダ×ブラジル」
2010/07/02(金) 18:51:55ID:5XEQY2+F0
当社のコーヒーメーカーを買えば
継続的な豆の購入の特典として 書き込み権限が付いて来ます。
継続的な豆の購入の特典として 書き込み権限が付いて来ます。
2010/07/02(金) 19:40:12ID:7xvbQ8Kx0
>>303
そのうち ビア・サーバー入れそうな希ガス
そのうち ビア・サーバー入れそうな希ガス
2010/07/02(金) 19:56:52ID:leoObiob0
当社のビアサーバーを買えば
継続的な生ビールの購入の特典として 2ちゃんねるの過去ログが読み放題です。
継続的な生ビールの購入の特典として 2ちゃんねるの過去ログが読み放題です。
2010/07/02(金) 20:18:16ID:l/3hKTEx0
>>310
あとは綺麗なおねーちゃんも入れれば完璧ですね、わかります
あとは綺麗なおねーちゃんも入れれば完璧ですね、わかります
2010/07/02(金) 20:23:02ID:qxUClT9F0
またワクワクする週末がやってきた
頑張ってねん
頑張ってねん
2010/07/02(金) 20:53:20ID:tNI4eMdT0
紅の豚が来るぞー!
@日テレ 21:00〜
@日テレ 21:00〜
2010/07/02(金) 21:01:18ID:Mz/3PSo40
2ちゃん名物の鯖落ちがなくなるってなると寂しいな
2010/07/02(金) 21:27:41ID:ESuPeVFBP
今じゃ鯖落ちを名物と思ってない人も増えてるからなあ
2010/07/02(金) 21:33:44ID:irFMOOjC0
名言来ましたがぜんぜん大丈夫そうですね
2010/07/02(金) 21:44:53ID:5gojn9VW0
>>316
鯖落ちを楽しめない人が増えているんですよ。
鯖落ちを楽しめない人が増えているんですよ。
2010/07/02(金) 21:45:49ID:fgylWR9z0
世の中ピリピリしすぎなんだよなあ
バルスなんか鯖落ちするのが名物なのに
バルスなんか鯖落ちするのが名物なのに
2010/07/02(金) 21:48:55ID:pue5kkpG0
落ちない実況なんて…
バルス!の時は手動で落とせよ
約束だからな
バルス!の時は手動で落とせよ
約束だからな
2010/07/02(金) 21:53:18ID:netM3zQe0
>>314
11時に向けてのウォーミングアップにもなってない(´・ω・`)
11時に向けてのウォーミングアップにもなってない(´・ω・`)
2010/07/02(金) 21:56:53ID:5XEQY2+F0
豚好きは大人が多いからだろw
2010/07/02(金) 22:03:24ID:ccWVJGED0
豚はそこまで破壊力ないからなぁ
興味ないって人も少なからず居るかと
興味ないって人も少なからず居るかと
2010/07/02(金) 22:18:37ID:2aiygc6H0
2ちゃんユーザーの高齢化 10代や20代という若い世代にとって、『2ちゃんねる』という言葉を口にすること自体が恥ずかしい
http://newtou.info/entry/3454/
http://newtou.info/entry/3454/
2010/07/02(金) 22:19:35ID:5NSx6MCz0
日本戦に比べたらジブリなんて微々たるもの
326動け動けウゴウゴ2ちゃんねる
2010/07/02(金) 22:43:16ID:q7jZPBuS0 盛り上がらないねえ
2010/07/02(金) 23:06:09ID:mI7zFSSh0
328動け動けウゴウゴ2ちゃんねる
2010/07/02(金) 23:07:51ID:duSO8qlz0 2010/07/02(金) 23:07:06
NHK総合の勢い: 67res/分 22:55〜23:50 参議院比例代表選挙政見放送
NHK教育の勢い: 165res/分 22:50〜23:55 2010FIFAワールドカップ・準々決勝
日本テレビの勢い: 70res/分 23:00〜23:30 アナザースカイ
TBSテレビの勢い: 18res/分 23:00〜23:30 A−Studio
フジテレビの勢い: 8res/分 23:00〜23:30 恋するTVすごキュン
テレビ朝日の勢い: 58res/分 23:10〜23:15 世界の車窓から
テレビ東京の勢い: 19res/分 22:54〜23:58 ワールドビジネスサテライト
やっぱETVじゃダメか
NHK総合の勢い: 67res/分 22:55〜23:50 参議院比例代表選挙政見放送
NHK教育の勢い: 165res/分 22:50〜23:55 2010FIFAワールドカップ・準々決勝
日本テレビの勢い: 70res/分 23:00〜23:30 アナザースカイ
TBSテレビの勢い: 18res/分 23:00〜23:30 A−Studio
フジテレビの勢い: 8res/分 23:00〜23:30 恋するTVすごキュン
テレビ朝日の勢い: 58res/分 23:10〜23:15 世界の車窓から
テレビ東京の勢い: 19res/分 22:54〜23:58 ワールドビジネスサテライト
やっぱETVじゃダメか
2010/07/02(金) 23:10:39ID:duSO8qlz0
ブラジル先制
2010/07/02(金) 23:15:07ID:dhyeok0l0
もうサッカーも盛り上がらないんかね
331動け動けウゴウゴ2ちゃんねる
2010/07/02(金) 23:17:41ID:q7jZPBuS0 サッカーファン以外のニッポン応援ファンが離れちゃったからね
332動け動けウゴウゴ2ちゃんねる
2010/07/02(金) 23:22:52ID:ApcPXGw70 日本審判団の晴れの舞台なのにね(´・ω・`)
2010/07/02(金) 23:24:51ID:kNBsxeBb0
ニッポンのレフェリーは世界レベルなのに先週は…
334動け動けウゴウゴ2ちゃんねる
2010/07/02(金) 23:37:35ID:xfypZDES0 アタック?
やたら受信が増えてるけど
やたら受信が増えてるけど
2010/07/02(金) 23:58:07ID:PBuM/2wU0
たまに、アタックらしき痕跡が報告されるよね
密かに対処されてるのか、放置されてるのか分からないけど
密かに対処されてるのか、放置されてるのか分からないけど
336動け動けウゴウゴ2ちゃんねる
2010/07/03(土) 00:02:29ID:6mjOnkpU0 ティウンティウン
ティウンティウン
◎ ◎
◎ ◎
◎ ◎
Γ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
∧∧◎ ∧∧∧∧∧∧∧∧◎∧∧∧│
三三三三三三三三三三三三三三三 │
◎ ◎
◎ ◎
ティウンティウン
◎ ◎
◎ ◎
◎ ◎
Γ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
∧∧◎ ∧∧∧∧∧∧∧∧◎∧∧∧│
三三三三三三三三三三三三三三三 │
◎ ◎
◎ ◎
2010/07/03(土) 00:09:05ID:3lbY5lBcO
>>266
Apache httpd+CGI だと、ログ出力=レスポンス完了時=CGIプログラム終了時となるのがふつう。
つまり、ログに書けないことが原因でdatに書けないということはない。
もちろん、あくまでもふつうのケースなので、意識して先にログ出力することは出来ると思うが、
ログ出力されたことを確認してからdat書き込みなんてコストのかかることはやってないと推測。
Apache httpd+CGI だと、ログ出力=レスポンス完了時=CGIプログラム終了時となるのがふつう。
つまり、ログに書けないことが原因でdatに書けないということはない。
もちろん、あくまでもふつうのケースなので、意識して先にログ出力することは出来ると思うが、
ログ出力されたことを確認してからdat書き込みなんてコストのかかることはやってないと推測。
338root▲▲ ★
2010/07/03(土) 00:26:13ID:???0 きたく。
それなりに盛り上がってはいるのか。
2xx 3xx 4xx 5xx URL
2843 55 0 0*/livenhk/dat/1278083982.dat
1143 30 0 0 /livefoot/dat/1278083598.dat
443 0 0 0 /livenhk/subject.txt
373 0 0 0 /test/bbs.cgi
372 15 0 0 /livefoot/dat/1278084267.dat
330 34 0 0 /liveanb/dat/1278078434.dat
289 23 0 0 /livenhk/dat/1278084004.dat
262 0 0 0 /test/read.cgi/livenhk/1278083982/l50
220 9 0 0 /livejupiter/dat/1278084109.dat
195 44 0 0 /livevenus/dat/1278078310.dat
193 32 0 0 /livewowow/dat/1278081145.dat
186 7 0 0 /livefoot/dat/1278083007.dat
それなりに盛り上がってはいるのか。
2xx 3xx 4xx 5xx URL
2843 55 0 0*/livenhk/dat/1278083982.dat
1143 30 0 0 /livefoot/dat/1278083598.dat
443 0 0 0 /livenhk/subject.txt
373 0 0 0 /test/bbs.cgi
372 15 0 0 /livefoot/dat/1278084267.dat
330 34 0 0 /liveanb/dat/1278078434.dat
289 23 0 0 /livenhk/dat/1278084004.dat
262 0 0 0 /test/read.cgi/livenhk/1278083982/l50
220 9 0 0 /livejupiter/dat/1278084109.dat
195 44 0 0 /livevenus/dat/1278078310.dat
193 32 0 0 /livewowow/dat/1278081145.dat
186 7 0 0 /livefoot/dat/1278083007.dat
339root▲▲ ★
2010/07/03(土) 00:31:16ID:???0 2xx 3xx 4xx 5xx URL
2647 118 0 0*/livenhk/dat/1278084347.dat
1096 2 0 0 /livenhk/subject.txt
852 11 0 0 /livefoot/dat/1278084374.dat
594 0 0 0 /livefoot/subject.txt
510 3 0 0 /livenhk/dat/1278076963.dat
498 0 0 0 /test/bbs.cgi
462 11 0 0 /livefoot/dat/1278084267.dat
439 4 0 0 /livefoot/dat/1278083007.dat
325 7 0 0 /livenhk/dat/1278084004.dat
270 21 0 0 /livejupiter/dat/1278084109.dat
248 0 0 0 /test/read.cgi/livenhk/1278084347/l50
220 1 0 0 /livenhk/
2647 118 0 0*/livenhk/dat/1278084347.dat
1096 2 0 0 /livenhk/subject.txt
852 11 0 0 /livefoot/dat/1278084374.dat
594 0 0 0 /livefoot/subject.txt
510 3 0 0 /livenhk/dat/1278076963.dat
498 0 0 0 /test/bbs.cgi
462 11 0 0 /livefoot/dat/1278084267.dat
439 4 0 0 /livefoot/dat/1278083007.dat
325 7 0 0 /livenhk/dat/1278084004.dat
270 21 0 0 /livejupiter/dat/1278084109.dat
248 0 0 0 /test/read.cgi/livenhk/1278084347/l50
220 1 0 0 /livenhk/
340root▲▲ ★
2010/07/03(土) 00:32:58ID:???0 2xx 3xx 4xx 5xx URL
2538 36 0 0*/livenhk/dat/1278084356.dat
1129 17 0 0 /livefoot/dat/1278084374.dat
619 1 0 0 /livenhk/subject.txt
596 23 0 0 /livenhk/dat/1278083641.dat
485 12 0 0 /livefoot/dat/1278084267.dat
427 3 0 0 /livefoot/dat/1278083007.dat
419 2 0 0 /liveanb/dat/1278078434.dat
393 12 0 0 /livenhk/dat/1278084004.dat
340 0 0 0 /test/read.cgi/livenhk/1278084356/l50
337 0 0 0 /test/bbs.cgi
303 4 0 0 /livenhk/
2538 36 0 0*/livenhk/dat/1278084356.dat
1129 17 0 0 /livefoot/dat/1278084374.dat
619 1 0 0 /livenhk/subject.txt
596 23 0 0 /livenhk/dat/1278083641.dat
485 12 0 0 /livefoot/dat/1278084267.dat
427 3 0 0 /livefoot/dat/1278083007.dat
419 2 0 0 /liveanb/dat/1278078434.dat
393 12 0 0 /livenhk/dat/1278084004.dat
340 0 0 0 /test/read.cgi/livenhk/1278084356/l50
337 0 0 0 /test/bbs.cgi
303 4 0 0 /livenhk/
2010/07/03(土) 00:33:00ID:zpguVy4V0
ブラジル先制→オランダ逆転でちょっと盛り上がっているようです
342root▲▲ ★
2010/07/03(土) 00:33:23ID:???0 logbuffer の刷毛がすごくよくなった。
httpdが詰まらなくなった。
httpdが詰まらなくなった。
343root▲▲ ★
2010/07/03(土) 00:33:46ID:???0 2xx 3xx 4xx 5xx URL
3627 31 2 0*/livenhk/dat/1278084356.dat
1511 13 0 0 /livefoot/dat/1278084374.dat
749 15 0 0 /livenhk/dat/1278083641.dat
716 7 0 0 /livefoot/dat/1278083007.dat
702 0 0 0 /livenhk/subject.txt
670 6 0 0 /livefoot/dat/1278084267.dat
559 3 0 0 /liveanb/dat/1278078434.dat
543 0 0 0 /test/bbs.cgi
498 14 0 0 /livenhk/dat/1278084004.dat
486 7 0 0 /livenhk/dat/1278084666.dat
333 7 0 0 /livejupiter/dat/1278084109.dat
309 1 0 0 /livenhk/
3627 31 2 0*/livenhk/dat/1278084356.dat
1511 13 0 0 /livefoot/dat/1278084374.dat
749 15 0 0 /livenhk/dat/1278083641.dat
716 7 0 0 /livefoot/dat/1278083007.dat
702 0 0 0 /livenhk/subject.txt
670 6 0 0 /livefoot/dat/1278084267.dat
559 3 0 0 /liveanb/dat/1278078434.dat
543 0 0 0 /test/bbs.cgi
498 14 0 0 /livenhk/dat/1278084004.dat
486 7 0 0 /livenhk/dat/1278084666.dat
333 7 0 0 /livejupiter/dat/1278084109.dat
309 1 0 0 /livenhk/
2010/07/03(土) 00:36:06ID:bl6Xl3vU0
してで73M
345root▲▲ ★
2010/07/03(土) 00:40:49ID:???0 今どうでした?
私のPCがおかしくなってここに書けなかった。
(2chとは別の理由)
logbufferの挙動が一瞬おかしくなって、
LAがすごくあがった。LA=1000近くいったかも。
私のPCがおかしくなってここに書けなかった。
(2chとは別の理由)
logbufferの挙動が一瞬おかしくなって、
LAがすごくあがった。LA=1000近くいったかも。
2010/07/03(土) 00:41:08ID:V/YOFk6r0
30分あたり軽くドーンでしたね
347root▲▲ ★
2010/07/03(土) 00:42:10ID:???0 ちょうどhayabusaの様子がおかしかった時、
自分のPCで別ソフトの更新プログラムが動いていて、
何もできなかった。ちと悲しい。
自分のPCで別ソフトの更新プログラムが動いていて、
何もできなかった。ちと悲しい。
348root▲▲ ★
2010/07/03(土) 00:42:46ID:???0 logbuffer が突然、いなくなった。
で、どばどばどばっとプロセスが詰まって、LAが急上昇した。
で、どばどばどばっとプロセスが詰まって、LAが急上昇した。
349root▲▲ ★
2010/07/03(土) 00:44:46ID:???0350root▲▲ ★
2010/07/03(土) 00:45:38ID:???02010/07/03(土) 00:46:45ID:BxPSv0bc0
logbufferの消失
LAえらいことになってますね
LAえらいことになってますね
352root▲▲ ★
2010/07/03(土) 00:51:04ID:???0 top で一番上にlogbufferがはりついて、
きちんと今までよりも多く、CPUを使ってくれてたんですよね。
で、いいかんじじゃん、って思ってたら、
突然 top から logbuffer が消えてなくなって、
LA がみるみる急上昇していき、speedy_backend がどばどばと詰まり始めた。
この間、画面を見るだけで、キーボードでの操作ができなかった。
みるみるうちにLA=1000近くにまでなった。
で、ようやく触れるようになってすかさず ps で探すと、
R 状態になった logbuffer がいた。
(このときtopのWindowでやったので、topは見れず)
しかし、logbufferの通産CPU処理時間が異常に少なくなっていたので、
logbuffer 自体が終了してしまっていたんだと思う。
で、次にtopを動かすと、logbufferが一番上に復活してて、
既に正常に戻りはじめていた。
きちんと今までよりも多く、CPUを使ってくれてたんですよね。
で、いいかんじじゃん、って思ってたら、
突然 top から logbuffer が消えてなくなって、
LA がみるみる急上昇していき、speedy_backend がどばどばと詰まり始めた。
この間、画面を見るだけで、キーボードでの操作ができなかった。
みるみるうちにLA=1000近くにまでなった。
で、ようやく触れるようになってすかさず ps で探すと、
R 状態になった logbuffer がいた。
(このときtopのWindowでやったので、topは見れず)
しかし、logbufferの通産CPU処理時間が異常に少なくなっていたので、
logbuffer 自体が終了してしまっていたんだと思う。
で、次にtopを動かすと、logbufferが一番上に復活してて、
既に正常に戻りはじめていた。
353root▲▲ ★
2010/07/03(土) 00:51:59ID:???0 %ls -l /logbuffer.core
-rw------- 1 root wheel 3813376 Jun 29 09:51 /logbuffer.core
これ保管しておこう。
-rw------- 1 root wheel 3813376 Jun 29 09:51 /logbuffer.core
これ保管しておこう。
2010/07/03(土) 00:52:00ID:ve+/oe9d0
そしてオランダは逆転勝ちです
2010/07/03(土) 00:52:14ID:bl6Xl3vU0
>>349
してがカレーとキムチ間違えて出しそうになったとき・・・かな?
してがカレーとキムチ間違えて出しそうになったとき・・・かな?
356root▲▲ ★
2010/07/03(土) 00:53:33ID:???0 というか、mode 600 か。自分ではとれないな。
中の人にこの core ファイルを私あてに送ってもらうように、
お願いしておこう。
と言っても、明日と明後日は会社の行事で私はおでかけ&オフラインの予定。
中の人にこの core ファイルを私あてに送ってもらうように、
お願いしておこう。
と言っても、明日と明後日は会社の行事で私はおでかけ&オフラインの予定。
357root▲▲ ★
2010/07/03(土) 00:54:35ID:???0 でも、core ができるような落ち方したので、
デバッグは可能な予感がするです。
デバッグは可能な予感がするです。
2010/07/03(土) 00:54:40ID:EtUTnjpA0
>>349
BS11でテロキターの辺りかな?
BS11でテロキターの辺りかな?
2010/07/03(土) 00:55:03ID:ve+/oe9d0
タイミング的にブラジル選手に一発レッドカードのときでしょうか。
2010/07/03(土) 00:56:50ID:EtUTnjpA0
361root▲▲ ★
2010/07/03(土) 00:58:24ID:???0 0時37分〜0時38分JSTあたりの挙動が、
変だったようです。
あ、、、でも今見たら、このlogbufferのcoreは、
今回のやつじゃないな。
だから意味なさげ。
%env TZ=JST-9 ls -l /logbuffer.core
-rw------- 1 root wheel 3813376 Jun 30 01:51 /logbuffer.core
変だったようです。
あ、、、でも今見たら、このlogbufferのcoreは、
今回のやつじゃないな。
だから意味なさげ。
%env TZ=JST-9 ls -l /logbuffer.core
-rw------- 1 root wheel 3813376 Jun 30 01:51 /logbuffer.core
362root▲▲ ★
2010/07/03(土) 01:03:27ID:???0 >>352
> で、ようやく触れるようになってすかさず ps で探すと、
> R 状態になった logbuffer がいた。
ターミナルのスクロールバッファに残ってた。
今見ると D (ディスクI/O待ち)もあるな。
%ps axww | grep logbuffer
32562 ?? D 0:00.06 /usr/local/sbin/logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.06 /usr/local/sbin/logbuffer
32577 p1 R+ 0:00.02 grep logbuffer
%ps axww | grep logbuffer
32562 ?? D 0:00.07 /usr/local/sbin/logbuffer
32580 p1 R+ 0:00.00 grep logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.07 /usr/local/sbin/logbuffer
32582 p1 R+ 0:00.00 grep logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.07 /usr/local/sbin/logbuffer
32584 p1 R+ 0:00.00 grep logbuffer
%ps axww | grep logbuffer
32562 ?? D 0:00.07 /usr/local/sbin/logbuffer
32586 p1 R+ 0:00.01 grep logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.07 /usr/local/sbin/logbuffer
32588 p1 R+ 0:00.00 grep logbuffer
%!ps
ps axww | grep logbuffer
32562 ?? R 0:00.13 /usr/local/sbin/logbuffer
32615 p1 R+ 0:00.00 grep logbuffer
%!ps
ps axww | grep logbuffer
32562 ?? R 0:00.24 /usr/local/sbin/logbuffer
32619 p1 L+ 0:00.01 grep logbuffer
> で、ようやく触れるようになってすかさず ps で探すと、
> R 状態になった logbuffer がいた。
ターミナルのスクロールバッファに残ってた。
今見ると D (ディスクI/O待ち)もあるな。
%ps axww | grep logbuffer
32562 ?? D 0:00.06 /usr/local/sbin/logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.06 /usr/local/sbin/logbuffer
32577 p1 R+ 0:00.02 grep logbuffer
%ps axww | grep logbuffer
32562 ?? D 0:00.07 /usr/local/sbin/logbuffer
32580 p1 R+ 0:00.00 grep logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.07 /usr/local/sbin/logbuffer
32582 p1 R+ 0:00.00 grep logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.07 /usr/local/sbin/logbuffer
32584 p1 R+ 0:00.00 grep logbuffer
%ps axww | grep logbuffer
32562 ?? D 0:00.07 /usr/local/sbin/logbuffer
32586 p1 R+ 0:00.01 grep logbuffer
%ps axww | grep logbuffer
32562 ?? R 0:00.07 /usr/local/sbin/logbuffer
32588 p1 R+ 0:00.00 grep logbuffer
%!ps
ps axww | grep logbuffer
32562 ?? R 0:00.13 /usr/local/sbin/logbuffer
32615 p1 R+ 0:00.00 grep logbuffer
%!ps
ps axww | grep logbuffer
32562 ?? R 0:00.24 /usr/local/sbin/logbuffer
32619 p1 L+ 0:00.01 grep logbuffer
363root▲▲ ★
2010/07/03(土) 01:04:44ID:???0 top の出力ではそのおかしくなっていた間、
"Lock" なプロセスがたくさんいたようだ。
"Lock" なプロセスがたくさんいたようだ。
364root▲▲ ★
2010/07/03(土) 01:07:04ID:???0 さて、どうするのがいいのか。しかし情報量不足は否めないな。
ちなみにlogbufferが該当時間 core 吐いた、というsyslogはなかった。
ちなみにlogbufferが該当時間 core 吐いた、というsyslogはなかった。
2010/07/03(土) 01:12:07ID:+djtaS2E0
実況鯖、そのぐらいの時間帯に繋がりにくくなったけど、ログを見る限り
連続して流れてる。不思議。
連続して流れてる。不思議。
2010/07/03(土) 01:13:33ID:4xHf/awQ0
一瞬重くなったけど落ちなかったな
2010/07/03(土) 01:15:47ID:R1fkNw1X0
root さんの監視信号が狂わせた。と思う。
2010/07/03(土) 01:20:28ID:EtUTnjpA0
そういやうちの会社、リバースプロキシの処理速度あげたら何故か詰まるようになって、
何事かと思ったら裏側が早くなりすぎてhttpdのバッファがあふれるようになったというオチだった。
という日記。
何事かと思ったら裏側が早くなりすぎてhttpdのバッファがあふれるようになったというオチだった。
という日記。
369root▲▲ ★
2010/07/03(土) 01:25:35ID:???0 状況証拠的には、
・高負荷時にlogbufferが突然、いなくなり、
・ログを渡す先がいなくなったhttpdがばたばたと詰まり始め、LAが急上昇し、
・それからしばらく後に、logbufferが復活し、
・httpdが元に戻った
ように見えますた。
・高負荷時にlogbufferが突然、いなくなり、
・ログを渡す先がいなくなったhttpdがばたばたと詰まり始め、LAが急上昇し、
・それからしばらく後に、logbufferが復活し、
・httpdが元に戻った
ように見えますた。
370root▲▲ ★
2010/07/03(土) 01:31:42ID:???0 で、今日はもうここまで負荷がかかるのはなさげ?
2010/07/03(土) 01:32:32ID:+djtaS2E0
>>370
次の試合は午前3時半からウルグアイ×ガーナなのでそれほど観客いないかと
次の試合は午前3時半からウルグアイ×ガーナなのでそれほど観客いないかと
372root▲▲ ★
2010/07/03(土) 01:35:07ID:???02010/07/03(土) 01:39:50ID:IJcl8une0
ウルグアイ×ガーナかわいそう
2010/07/03(土) 01:44:02ID:OtT/5/Ho0
7/3(土) 22:00 〜 01:10 TBS
2010FIFAワールドカップ・準々決勝「アルゼンチン×ドイツ」
7/3(土) 22:05 〜 00:00 NHK総合
ウィンブルドンテニス2010 「女子シングルス・決勝」
7/4(日) 03:00 〜 05:40 日本テレビ
2010FIFAワールドカップ・準々決勝「パラグアイ×スペイン」
2010FIFAワールドカップ・準々決勝「アルゼンチン×ドイツ」
7/3(土) 22:05 〜 00:00 NHK総合
ウィンブルドンテニス2010 「女子シングルス・決勝」
7/4(日) 03:00 〜 05:40 日本テレビ
2010FIFAワールドカップ・準々決勝「パラグアイ×スペイン」
375root▲▲ ★
2010/07/03(土) 01:44:24ID:???0 その時間帯(0:00JST台)のhttpdアクセスログを消えないところに保管しておこう。
(ログは古くなると消えてしまう)
後で何かわかるかもしれない。
(ログは古くなると消えてしまう)
後で何かわかるかもしれない。
376root▲▲ ★
2010/07/03(土) 01:46:11ID:???0 とりあえず hayabusa のホームにコピーしておいた。>>375
2010/07/03(土) 01:48:34ID:ve+/oe9d0
でもまあ自然復活するのであれば、運用上それほどの痛手でもないような。とりあえずは
378root▲▲ ★
2010/07/03(土) 01:50:04ID:???0 ということで、logbufferの挙動不審の原因が知りたいところ。
1) logbufferプログラムの問題
2) FreeBSDのaio(4)のチューニングが不十分
3) FreeBSDのaio(4)に虫がいる
4) 他の何か
1) logbufferプログラムの問題
2) FreeBSDのaio(4)のチューニングが不十分
3) FreeBSDのaio(4)に虫がいる
4) 他の何か
379root▲▲ ★
2010/07/03(土) 01:57:05ID:???0 別件の話ではあるけど、こんなのが。
http://www.ruby-forum.com/topic/194043
> If kernel AIO queue overflows then nginx fall back to synchronous IO.
つまり、カーネルの AIO queue は、あふれることもあると。
http://www.ruby-forum.com/topic/194043
> If kernel AIO queue overflows then nginx fall back to synchronous IO.
つまり、カーネルの AIO queue は、あふれることもあると。
380root▲▲ ★
2010/07/03(土) 01:59:41ID:???0 で、こいつらをチューニングしれ、ということの模様。
vfs.aio.max_aio_queue (default) 1024
vfs.aio.max_aio_queue_per_proc 256
vfs.aio.max_aio_per_proc 32
vfs.aio.max_aio_procs 32
今の hayabusa では、
vfs.aio.max_aio_queue_per_proc を 256 から 1024 にしてある
(SunOSさんのプログラムでは実際には512らしいですが >>140)
以外は、すべてデフォルトのまま。
vfs.aio.max_aio_queue (default) 1024
vfs.aio.max_aio_queue_per_proc 256
vfs.aio.max_aio_per_proc 32
vfs.aio.max_aio_procs 32
今の hayabusa では、
vfs.aio.max_aio_queue_per_proc を 256 から 1024 にしてある
(SunOSさんのプログラムでは実際には512らしいですが >>140)
以外は、すべてデフォルトのまま。
381root▲▲ ★
2010/07/03(土) 02:01:09ID:???0 直感では、
> vfs.aio.max_aio_queue (default) 1024
これっぽいかな。
per_proc の増やしぶりに合わせるとしたら、
1024 → 4096 かな。
でもソースさらっと当たらないと、ちょっと不安だな。
> vfs.aio.max_aio_queue (default) 1024
これっぽいかな。
per_proc の増やしぶりに合わせるとしたら、
1024 → 4096 かな。
でもソースさらっと当たらないと、ちょっと不安だな。
382root▲▲ ★
2010/07/03(土) 02:06:12ID:???0 まずは基本のこれやって、と。
%sysctl -d vfs.aio
vfs.aio: Async IO management
vfs.aio.max_buf_aio: Maximum buf aio requests per process (stored in the process)
vfs.aio.max_aio_queue_per_proc: Maximum queued aio requests per process (stored in the process)
vfs.aio.max_aio_per_proc: Maximum active aio requests per process (stored in the process)
vfs.aio.unloadable: Allow unload of aio (not recommended)
vfs.aio.aiod_lifetime: Maximum lifetime for idle aiod
vfs.aio.aiod_timeout: Timeout value for synchronous aio operations
vfs.aio.num_buf_aio: Number of aio requests presently handled by the buf subsystem
vfs.aio.num_queue_count: Number of queued aio requests
vfs.aio.max_aio_queue: Maximum number of aio requests to queue, globally
vfs.aio.target_aio_procs: Preferred number of ready kernel threads for async IO
vfs.aio.num_aio_procs: Number of presently active kernel threads for async IO
vfs.aio.max_aio_procs: Maximum number of kernel threads to use for handling async IO
%sysctl -d vfs.aio
vfs.aio: Async IO management
vfs.aio.max_buf_aio: Maximum buf aio requests per process (stored in the process)
vfs.aio.max_aio_queue_per_proc: Maximum queued aio requests per process (stored in the process)
vfs.aio.max_aio_per_proc: Maximum active aio requests per process (stored in the process)
vfs.aio.unloadable: Allow unload of aio (not recommended)
vfs.aio.aiod_lifetime: Maximum lifetime for idle aiod
vfs.aio.aiod_timeout: Timeout value for synchronous aio operations
vfs.aio.num_buf_aio: Number of aio requests presently handled by the buf subsystem
vfs.aio.num_queue_count: Number of queued aio requests
vfs.aio.max_aio_queue: Maximum number of aio requests to queue, globally
vfs.aio.target_aio_procs: Preferred number of ready kernel threads for async IO
vfs.aio.num_aio_procs: Number of presently active kernel threads for async IO
vfs.aio.max_aio_procs: Maximum number of kernel threads to use for handling async IO
383root▲▲ ★
2010/07/03(土) 02:07:34ID:???0 で、これか。
%sysctl vfs.aio
vfs.aio.max_buf_aio: 16
vfs.aio.max_aio_queue_per_proc: 1024 # 256から増やし済
vfs.aio.max_aio_per_proc: 32
vfs.aio.unloadable: 0
vfs.aio.aiod_lifetime: 30000
vfs.aio.aiod_timeout: 10000
vfs.aio.num_buf_aio: 0
vfs.aio.num_queue_count: 513
vfs.aio.max_aio_queue: 1024
vfs.aio.target_aio_procs: 4
vfs.aio.num_aio_procs: 4
vfs.aio.max_aio_procs: 32
%sysctl vfs.aio
vfs.aio.max_buf_aio: 16
vfs.aio.max_aio_queue_per_proc: 1024 # 256から増やし済
vfs.aio.max_aio_per_proc: 32
vfs.aio.unloadable: 0
vfs.aio.aiod_lifetime: 30000
vfs.aio.aiod_timeout: 10000
vfs.aio.num_buf_aio: 0
vfs.aio.num_queue_count: 513
vfs.aio.max_aio_queue: 1024
vfs.aio.target_aio_procs: 4
vfs.aio.num_aio_procs: 4
vfs.aio.max_aio_procs: 32
384root▲▲ ★
2010/07/03(土) 02:21:58ID:???0 あとはとりあえず、明日以降かな。
>>381 の、
vfs.aio.max_aio_queue=4096
を www2.2ch.net でやってみて、まずは問題なさげなのを確認。
/etc/sysctl.conf @ www2 にも追加してみた。
# tuning for aio(4)
vfs.aio.max_aio_queue_per_proc=1024
vfs.aio.max_aio_queue=4096
今日のところは、こんなかんじで。
日曜夕方までは、あまりアクセスできない見込み。
>>381 の、
vfs.aio.max_aio_queue=4096
を www2.2ch.net でやってみて、まずは問題なさげなのを確認。
/etc/sysctl.conf @ www2 にも追加してみた。
# tuning for aio(4)
vfs.aio.max_aio_queue_per_proc=1024
vfs.aio.max_aio_queue=4096
今日のところは、こんなかんじで。
日曜夕方までは、あまりアクセスできない見込み。
2010/07/03(土) 02:43:17ID:Yzdnskw40
2010/07/03(土) 03:15:33ID:OCXmAGIh0
vfs.aio.num_queue_count: 513 って現在値なのかな
すでに513も居る?
すでに513も居る?
387root▲▲ ★
2010/07/03(土) 03:38:52ID:???0 >>337
ここでいうログって芋ログのことだと思ってたんだけど違うのかな?
レスはあるけどその芋ログがないとかが起きないように、芋ログ出力の成功を経てdatへの書き出しを行っているのかなと。
まぁそんな面倒な処理にはなってない感じだけどね。
ここでいうログって芋ログのことだと思ってたんだけど違うのかな?
レスはあるけどその芋ログがないとかが起きないように、芋ログ出力の成功を経てdatへの書き出しを行っているのかなと。
まぁそんな面倒な処理にはなってない感じだけどね。
2010/07/03(土) 06:26:10ID:VevvXy2+0
ウルグアイvsガーナ 神試合だったけど伸びてないな
http://hayabusa-1gbpsgraph.maido3.com/hayabusa/
http://mumumu.mu/bremen/hayabusa.html
http://hayabusa-1gbpsgraph.maido3.com/hayabusa/
http://mumumu.mu/bremen/hayabusa.html
2010/07/03(土) 06:29:10ID:lTWs/S0Y0
面白かった、今の試合。
今日の試合で負荷実験は終わりでしょうな。
今日の試合で負荷実験は終わりでしょうな。
う〜む,何が起きてたんでしょうねぇ......<logbuffer
core は aio_write() 入れる前のやつのようですが,
いずれにせよ何かが起きてたらしいと.
>>386-387 とにかく logbuffer を詰まらせないのを目標に,
aio の並列実行数を思い切った数値にしてる感じです.
core は aio_write() 入れる前のやつのようですが,
いずれにせよ何かが起きてたらしいと.
>>386-387 とにかく logbuffer を詰まらせないのを目標に,
aio の並列実行数を思い切った数値にしてる感じです.
2010/07/03(土) 11:29:47ID:d31Bs+9e0
昨夜23時30分に変なトラフィックが来てる。
攻撃?
banana3244
http://traffic.maido3.com/IQ1Z/9xoI/G2b5/
banana3260
http://traffic.maido3.com/hEnJ/6kEK/QD9x/
攻撃?
banana3244
http://traffic.maido3.com/IQ1Z/9xoI/G2b5/
banana3260
http://traffic.maido3.com/hEnJ/6kEK/QD9x/
393外出先 ◆MUMUMUhnYI
2010/07/03(土) 11:38:25ID:RBXpFVLG0394外出先 ◆MUMUMUhnYI
2010/07/03(土) 11:54:35ID:rpUqgRi30 >>393 をkamomeとhayabusaに設定するのをお願いした。
挙動は変わると思うけど、プログラムで個別にaioに対応するより、
asyncでディスクをマウントして、sysctlのvfs.*dirty*あたりをいじるっていうのも手じゃないのかなと。
SSDとの相性は知らないけど…
asyncでディスクをマウントして、sysctlのvfs.*dirty*あたりをいじるっていうのも手じゃないのかなと。
SSDとの相性は知らないけど…
396外出先 ◆MUMUMUhnYI
2010/07/03(土) 11:59:15ID:1XjTD4BD0 >>396
聞きかじりですが、gjournaは2chのような重いサーバーには不向きかもしれません…
聞きかじりですが、gjournaは2chのような重いサーバーには不向きかもしれません…
398外出先 ◆MUMUMUhnYI
2010/07/03(土) 12:14:20ID:DB47VKZ/0 >>397
そのへん、kwskききたいです。
そのへん、kwskききたいです。
2010/07/03(土) 12:36:35ID:iHHmT97X0
rootさんの移動っぷりは異常
まさか外国行ってるとはw
まさか外国行ってるとはw
>>398
実際に試してみた人から聞いたのですが、「負荷がかかると応答しなくなる」とのことでした。
1年ぐらい前の話なので、それ以来改良されているかどうかわかりませんが…
個人的にはSoftupdate Journalingでしたっけ、あれに期待してます。
さすがに何TBでfsckはもうごめんなので…
実際に試してみた人から聞いたのですが、「負荷がかかると応答しなくなる」とのことでした。
1年ぐらい前の話なので、それ以来改良されているかどうかわかりませんが…
個人的にはSoftupdate Journalingでしたっけ、あれに期待してます。
さすがに何TBでfsckはもうごめんなので…
2010/07/03(土) 12:48:03ID:/Lw+YYGi0
末尾iが末尾0になったという報告が
帯域が変わったのかな
【news】ニュース速報運用情報591【ν】
http://qb5.2ch.net/test/read.cgi/operate/1277836049/857
857 名前:pw126228031224.24.tik.panda-world.ne.jp(126.228.31.224)[sage] 投稿日:2010/07/03(土) 05:29:00 ID:NLa/0/P00
こうだっけ
2〜3日前まではiだったんだけど
Monazilla/1.00 BB2C/1.0
帯域が変わったのかな
【news】ニュース速報運用情報591【ν】
http://qb5.2ch.net/test/read.cgi/operate/1277836049/857
857 名前:pw126228031224.24.tik.panda-world.ne.jp(126.228.31.224)[sage] 投稿日:2010/07/03(土) 05:29:00 ID:NLa/0/P00
こうだっけ
2〜3日前まではiだったんだけど
Monazilla/1.00 BB2C/1.0
2010/07/03(土) 12:51:50ID:CoFD2h/E0
■ このスレッドは過去ログ倉庫に格納されています