peko作戦について語るスレです。
サーバロケーションPIEに関する話題もこちらで。
現在の主要なテーマはpeko/cobraおよびtigerサーバが
特定条件下における突然死の原因究明です。
9月にrootさんが現地へ渡米して作業するそうです。
<関連サイト>
レンタルサーバー maido3.com 2ちゃんねるの転送量: http://server.maido3.com/pie/
MRTGによる統計情報: http://mumumu.mu/mrtg/
2ちゃんねる/PINKちゃんねる 稼動中のサーバ一覧: http://mumumu.mu/serverlist.html
<運営板PINKちゃんねる関係>
【Project ama】PINKちゃんねる特化型サーバ構築作戦 Part2
http://qb5.2ch.net/test/read.cgi/operate/1082721809/l50
【PINKちゃんねる】新サーバ獲得会議☆3
http://qb5.2ch.net/test/read.cgi/operate/1080295660/l50
<携帯電話特化型サーバ構築作戦関係>
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2
http://qb5.2ch.net/test/read.cgi/operate/1088657713/l50
<前スレ>
【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part14
http://qb5.2ch.net/test/read.cgi/operate/1087666806/l50
【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part15
■ このスレッドは過去ログ倉庫に格納されています
1▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/08/21 15:04ID:hJLR4nfQ274root▲ ★
04/10/21 14:49:21ID:???275動け動けウゴウゴ2ちゃんねる
04/10/21 15:36:20ID:6qgbkk9U276root▲ ★
04/10/21 16:36:03ID:??? 新生live8、その実力は。
実はあの日のように、わくわくしていたりして。
あのときは確か、ロード・オブ・ザ・リングをやった日だっけか。
実はあの日のように、わくわくしていたりして。
あのときは確か、ロード・オブ・ザ・リングをやった日だっけか。
04/10/21 18:40:26ID:KG7MrgN/
04/10/21 19:42:47ID:njt9GaV6
http://oyster243.peko.2ch.net/~ch2hack72/
279▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/22 10:38:53ID:1Zj1mtbU280root▲ ★
04/10/22 15:10:53ID:??? コンパイルはさくっととおりました。
【実況板】 live15/16/17 鯖 Part1
http://qb5.2ch.net/test/read.cgi/operate/1097931665/116
116 名前:root▲ ★[sage] 投稿日:04/10/22 15:08:58 ID:???
live8のbbs.cgiをperlcc版に切り替えた。
Perl5.8.5ベースになったためか、バイナリの大きさが前の半分ぐらいに。
%ls -l bbs.cgi
-rwxr-xr-x 1 ch2live8 ch2 536536 Oct 21 23:06 bbs.cgi
【実況板】 live15/16/17 鯖 Part1
http://qb5.2ch.net/test/read.cgi/operate/1097931665/116
116 名前:root▲ ★[sage] 投稿日:04/10/22 15:08:58 ID:???
live8のbbs.cgiをperlcc版に切り替えた。
Perl5.8.5ベースになったためか、バイナリの大きさが前の半分ぐらいに。
%ls -l bbs.cgi
-rwxr-xr-x 1 ch2live8 ch2 536536 Oct 21 23:06 bbs.cgi
04/10/23 16:19:00ID:i5LnjkdJ
rootさん、こんばんはーヾ('-')ノ
04/10/23 18:47:17ID:X5hX6HgJ
見事にlive8避けられたな
04/10/23 18:53:37ID:wTQO6Odm
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
04/10/23 19:02:28ID:ejfd13Jj
>283
アニメ中断の・・・
アニメ中断の・・・
04/10/23 19:21:05ID:NbLEHLUc
シャア専はex5だっけ?
04/10/23 19:23:47ID:wTQO6Odm
04/10/23 19:25:16ID:voEcPMmk
283 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 18:53:37 ID:wTQO6Odm
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
284 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 19:02:28 ID:ejfd13Jj
>283
アニメ中断の・・・
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
284 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 19:02:28 ID:ejfd13Jj
>283
アニメ中断の・・・
04/10/23 19:28:00ID:voEcPMmk
誤爆スマソ
289ヾ(゚パ)ノ ◆f0.zuburi6
04/10/23 19:33:19ID:qwDmcLj3 (・∀・)ニヤニヤ
290root▲ ★
04/10/23 21:21:32ID:??? live8よりも、ex7でいい負荷試験ができたのかも。
04/10/24 22:28:05ID:yX9Kk8js
正式版来たんならlive16,17でも実験キボン
293動け動けウゴウゴ2ちゃんねる
04/10/24 22:59:07ID:NXVGMWzP 902ってどのような状況なんでしょか?
294留守番 ★
04/10/24 22:59:38ID:??? 902ってどのような状況なんでしょか?
04/10/24 23:02:07ID:JvyM8gxQ
296南アルプス ◆98YENoslbU
04/10/24 23:02:24ID:PlDS+h7o297留守番 ★
04/10/24 23:04:30ID:??? どもども
代わりに banana では代用できないんですかね?
代わりに banana では代用できないんですかね?
298じじぃ その4 ◆HETAREzfq.
04/10/24 23:13:04ID:DvlSaBWP299root▲ ★
04/10/24 23:34:51ID:???300留守番 ★
04/10/24 23:38:07ID:???301root▲ ★
04/10/24 23:47:33ID:??? >>300
なるほど、SumaはFCだから1台にステーションを2台接続できるかもしれないですね。
FCのSCSIカードとbananaサーバ1台っていうかんじですか。
FCのカードは今の902のやつと同じもの(QLogic 2300)でいける気がします。
なるほど、SumaはFCだから1台にステーションを2台接続できるかもしれないですね。
FCのSCSIカードとbananaサーバ1台っていうかんじですか。
FCのカードは今の902のやつと同じもの(QLogic 2300)でいける気がします。
GENERICからoption SMPがなくなりました。
SMPを使う場合は、
make buildkernel KERNCONF=SMP
make installkernel KERNCONF=SMP
とする必要があるみたいですね。
SMPを使う場合は、
make buildkernel KERNCONF=SMP
make installkernel KERNCONF=SMP
とする必要があるみたいですね。
303root▲ ★
04/10/25 00:08:10ID:??? live8でCVSup。
ex7は、、今重いからなぁ。
>>302
あ、もう書かれちゃった。
確かに、SMPがデフォルトではなくなってますね。
まあ、安全側に振ったということでしょう。
# おぐらけい、若いな。それよりゲストの若さに驚いたかも。
ex7は、、今重いからなぁ。
>>302
あ、もう書かれちゃった。
確かに、SMPがデフォルトではなくなってますね。
まあ、安全側に振ったということでしょう。
# おぐらけい、若いな。それよりゲストの若さに驚いたかも。
305じじぃ その4 ◆HETAREzfq.
04/10/25 00:14:27ID:9FARC6xf306root▲ ★
04/10/25 00:15:46ID:???308留守番 ★
04/10/25 00:20:34ID:??? >>306
ちと Jim さんに接続の方法を聞いてみたりしてみます
週明けになると思いますが、
root ★さんも JIm さんを捕まえたら
手配しちゃってくださいー
技術検証、まぁちっとは役に立つかも計画ですが、
ちと Jim さんに接続の方法を聞いてみたりしてみます
週明けになると思いますが、
root ★さんも JIm さんを捕まえたら
手配しちゃってくださいー
技術検証、まぁちっとは役に立つかも計画ですが、
311留守番 ★
04/10/25 00:34:05ID:??? うおっ
久しぶりにメールを見てみたら
10/21 にこんなメールが
Oyster902 is back on the rack.
It ran for 1 day at polywell with no errors.
It has had one extra fan installed. (Now 7 fans in it.)
and a new adaptec raid 1 card. lets see how it does for a few days.
Jim
久しぶりにメールを見てみたら
10/21 にこんなメールが
Oyster902 is back on the rack.
It ran for 1 day at polywell with no errors.
It has had one extra fan installed. (Now 7 fans in it.)
and a new adaptec raid 1 card. lets see how it does for a few days.
Jim
313外野ァァン
04/10/25 00:37:04ID:MCdBN7O3 さて問題です
今日は何日でしょう?
今日は何日でしょう?
04/10/25 00:38:47ID:x5S1WW9n
Jimさんが泣いています
315じじぃ その4 ◆HETAREzfq.
04/10/25 00:39:21ID:9FARC6xf316root▲ ★
04/10/25 00:45:29ID:??? Jimさんと連絡とれました。
今日午前中にPIEに行って(現地時間)チェックしてみるとのこと。
HWに問題がなければ、今日のうちには上がるでしょう。
Me (12:42 AM) :
Ok, wakatta. I will wait for 902 is back again.
Jim (12:42 AM) :
it will be back up today.
Me (12:43 AM) :
Ok, thank you.
Jim (12:43 AM) :
dou itashi mashite
今日午前中にPIEに行って(現地時間)チェックしてみるとのこと。
HWに問題がなければ、今日のうちには上がるでしょう。
Me (12:42 AM) :
Ok, wakatta. I will wait for 902 is back again.
Jim (12:42 AM) :
it will be back up today.
Me (12:43 AM) :
Ok, thank you.
Jim (12:43 AM) :
dou itashi mashite
FreeBSD 219.113.242.220 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Mon Oct 25 00:14:28 JST 2004 root@219.113.242.220:/usr/obj/usr/src/sys/SMP amd64
一足お先に、5.3R導入
一足お先に、5.3R導入
320じじぃ その4 ◆HETAREzfq.
04/10/25 00:49:00ID:9FARC6xf321root▲ ★
04/10/25 01:55:08ID:??? oyster901 = live8 を5.3Rに更新した。
%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Sun Oct 24 09:22:11 PDT 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Sun Oct 24 09:22:11 PDT 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
322●
04/10/25 03:13:25ID:7+NLUN0J 902クル━━━━━(゚∀゚)━━━━━!?
323root▲ ★
04/10/25 03:24:42ID:??? tiger503 = ex7 も更新した。
他のサーバの更新は明日以降。
FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #1: Sun Oct 24 11:01:59 PDT 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
他のサーバの更新は明日以降。
FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #1: Sun Oct 24 11:01:59 PDT 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
324留守番 ★
04/10/25 14:56:55ID:??? 902 動いているようで、
bananaを一台追加予定、
だめだったら tiger を考えていたり、
bananaを一台追加予定、
だめだったら tiger を考えていたり、
04/10/25 15:52:17ID:ozAoMJCP
326留守番 ★
04/10/25 15:55:59ID:??? memoriesのバックアップ用 でーす
どのような方法があるのかわからないけど
902 が落ちたときに補完になれば、
どのような方法があるのかわからないけど
902 が落ちたときに補完になれば、
327▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/25 15:57:28ID:0PgI1yTk328▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/25 16:15:30ID:0PgI1yTk >>326
方法としてはc={c1/c2}同様にDNSラウンドロビンという手でいくのが妥当かと思います。
ただしこの方法だと902が落ちたときに相方のbananaに負荷が集中して結局落ちる可能性がありえます。
そんなんではバックアップの意味が無いわけで。。。。
他にいい方法ないでしょうかねぇ
方法としてはc={c1/c2}同様にDNSラウンドロビンという手でいくのが妥当かと思います。
ただしこの方法だと902が落ちたときに相方のbananaに負荷が集中して結局落ちる可能性がありえます。
そんなんではバックアップの意味が無いわけで。。。。
他にいい方法ないでしょうかねぇ
329root▲ ★
04/10/25 16:30:16ID:??? 902、RAID 1で構成したシステムディスクが片肺飛行状態になっているかも。
21日からネットワークに接続されていない状態で動いていた模様。
↓1行目はこないだのエラー。
Oct 18 02:48:08 <0.2> oyster902 kernel: aac0: **Monitor** NMI ISR: NMI_MEMORY_CONTROLLER_ERROR
Oct 21 03:14:03 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 1 more times>
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 21 03:14:51 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 4 more times>
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:1:0 returning error
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x28] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x2a] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Alarm Adapter Event -- turning Alarm On!
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Container 0 Drive 0:1:0 Failure
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 2 more times>
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 24 00:45:47 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Failover Container 0 no failover assigned
21日からネットワークに接続されていない状態で動いていた模様。
↓1行目はこないだのエラー。
Oct 18 02:48:08 <0.2> oyster902 kernel: aac0: **Monitor** NMI ISR: NMI_MEMORY_CONTROLLER_ERROR
Oct 21 03:14:03 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 1 more times>
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 21 03:14:51 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 4 more times>
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:1:0 returning error
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x28] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x2a] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Alarm Adapter Event -- turning Alarm On!
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Container 0 Drive 0:1:0 Failure
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 2 more times>
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 24 00:45:47 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Failover Container 0 no failover assigned
330▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/25 17:18:24ID:0PgI1yTk331root▲ ★
04/10/25 22:25:04ID:??? httpdのスロット数は増やしたいけど、
bbs.cgiの起動数は例えば同時に100個とかまでにしたい、とかいうのって、
設定で何とかならないんだろか。
bbs.cgiの起動数は例えば同時に100個とかまでにしたい、とかいうのって、
設定で何とかならないんだろか。
332▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/26 08:27:30ID:dLeygjNi >>331
mod_cgidsoが実装されれば容易に調整できそうなものですが。
mod_cgidsoが実装されれば容易に調整できそうなものですが。
333root▲ ★
04/10/26 10:38:09ID:??? live8が上がっていたのでhttpdの起動数にリミッターを入れました。(一時的に1024に上げていた)
live8 512
ex7 384
に設定。
また風邪を引いてしまったらしく症状がひどいため、今日はたぶんあまり見られないです。すまぬ。
live8 512
ex7 384
に設定。
また風邪を引いてしまったらしく症状がひどいため、今日はたぶんあまり見られないです。すまぬ。
04/10/26 11:05:45ID:dLeygjNi
04/10/26 11:23:09ID:S5v+kppX
04/10/26 12:45:45ID:3rTLsqu7
337root▲ ★
04/10/27 11:58:29ID:???04/10/27 13:07:34ID:sEaFoF8v
\ ショボーン /( ^∀^)ゲラゲラ
ショボーン \ (´・ω・`) /
(´・ω・`) \∧∧∧∧/∀`)=◯<´・ω・`>◯=(・
( つ旦O < な シ > ( )ショボーン
と_)_) < ョ > ∪∪
──────────< 悪 ボ >───────────
| |/( ´_ゝ`)\< │ > ( ´・ω・`)フー
| |. ∩∩ < 寒 ン > / 人
|ショボーン ̄ ̄ ̄ ̄/∨∨∨∨\ / \ \⌒i
(´・ω・`) /2人でショボーン \ | /\  ̄))
(∩∩)─── /(´・ω・`)人(´・ω・`\/ /| ̄|
/| ̄ ̄| カタカタ / ( ∩∩) (∩∩ )\/ ゝ__)
ショボーン \ (´・ω・`) /
(´・ω・`) \∧∧∧∧/∀`)=◯<´・ω・`>◯=(・
( つ旦O < な シ > ( )ショボーン
と_)_) < ョ > ∪∪
──────────< 悪 ボ >───────────
| |/( ´_ゝ`)\< │ > ( ´・ω・`)フー
| |. ∩∩ < 寒 ン > / 人
|ショボーン ̄ ̄ ̄ ̄/∨∨∨∨\ / \ \⌒i
(´・ω・`) /2人でショボーン \ | /\  ̄))
(∩∩)─── /(´・ω・`)人(´・ω・`\/ /| ̄|
/| ̄ ̄| カタカタ / ( ∩∩) (∩∩ )\/ ゝ__)
339root▲ ★
04/10/27 15:47:13ID:??? ex7を実験台に、KeepAliveありの設定を実験中。
同じ人がリロードするのには、このほうが負荷が低いかもしれないので。
同じ人がリロードするのには、このほうが負荷が低いかもしれないので。
04/10/27 16:45:55ID:eRmO9BsU
HTTP/1.1をまともに実装しているクライアントからは、
KeepAliveONのほうが、かける負荷はずっと少なくなります。
connect要求300回が、3回で済むようになる上、
apache側は、同一connectionでのリクエストは
同じプロセスそのまま再利用して処理するので。
で、クライアント側の待ち時間も、数倍違いが出ます(巡回時)。
正直なところ、個人的には全鯖KeepAliveON(タイムアウトは短くても)にして欲しいところです。
問題は、connectしたまま放置するクライアントの存在ですね。
IEは、force-no-varyに引っかかるので、必ず切断されますが
昔、比較的メジャーなクライアントの実装で
「リクエスト毎にHTTP/1.1コネクションを作成し、そのまま」
というのがあった気がします。
KeepAliveONのほうが、かける負荷はずっと少なくなります。
connect要求300回が、3回で済むようになる上、
apache側は、同一connectionでのリクエストは
同じプロセスそのまま再利用して処理するので。
で、クライアント側の待ち時間も、数倍違いが出ます(巡回時)。
正直なところ、個人的には全鯖KeepAliveON(タイムアウトは短くても)にして欲しいところです。
問題は、connectしたまま放置するクライアントの存在ですね。
IEは、force-no-varyに引っかかるので、必ず切断されますが
昔、比較的メジャーなクライアントの実装で
「リクエスト毎にHTTP/1.1コネクションを作成し、そのまま」
というのがあった気がします。
341root▲ ★
04/10/27 17:09:33ID:??? >>340
そうなんですよね。そんな気がして。
live8での実験の最中にKeepAliveをOffにしたわけですが、
少なくとも通常サーバでは、Onのほうがいい気がしたのです。
今はこうですね。このへんのパラメータチューンもしたほうがよさそう。
どうやるのがいいのかな。
KeepAlive On
MaxKeepAliveRequests 100
KeepAliveTimeout 10
ただ、携帯系では切ったほうがいいかも。
こんなかんじでいいんだっけか。
BrowserMatch "DoCoMo" nokeepalive
BrowserMatch "UP.Browser" nokeepalive
BrowserMatch "J-PHONE" nokeepalive
BrowserMatch "DDIPOCKET" nokeepalive
そうなんですよね。そんな気がして。
live8での実験の最中にKeepAliveをOffにしたわけですが、
少なくとも通常サーバでは、Onのほうがいい気がしたのです。
今はこうですね。このへんのパラメータチューンもしたほうがよさそう。
どうやるのがいいのかな。
KeepAlive On
MaxKeepAliveRequests 100
KeepAliveTimeout 10
ただ、携帯系では切ったほうがいいかも。
こんなかんじでいいんだっけか。
BrowserMatch "DoCoMo" nokeepalive
BrowserMatch "UP.Browser" nokeepalive
BrowserMatch "J-PHONE" nokeepalive
BrowserMatch "DDIPOCKET" nokeepalive
342root▲ ★
04/10/27 17:15:43ID:??? live8もKeepAliveありにしてみた。
343未承諾広告※ ◆TWARamEjuA
04/10/27 21:01:33ID:3tgsObzU >>341
http://httpd.apache.org/docs-2.0/mod/mod_setenvif.html#browsermatch
BrowserMatch regex [!]env-variable[=value] [[!]env-variable[=value]] ...
書式がかなり違うような(苦笑)
ひとまず、携帯機種には環境変数を設定して、Header を出力すると良いのかな?
BrowserMatch "DoCoMo|UP\.Browser|J-PHONE|DDIPOCKET" Mobile
Header onsuccess set Keep-Alive off Mobile
かなり自信なし(苦笑)
http://httpd.apache.org/docs-2.0/mod/mod_headers.html#header
http://httpd.apache.org/docs-2.0/mod/mod_setenvif.html#browsermatch
BrowserMatch regex [!]env-variable[=value] [[!]env-variable[=value]] ...
書式がかなり違うような(苦笑)
ひとまず、携帯機種には環境変数を設定して、Header を出力すると良いのかな?
BrowserMatch "DoCoMo|UP\.Browser|J-PHONE|DDIPOCKET" Mobile
Header onsuccess set Keep-Alive off Mobile
かなり自信なし(苦笑)
http://httpd.apache.org/docs-2.0/mod/mod_headers.html#header
344未承諾広告※ ◆TWARamEjuA
04/10/27 21:05:16ID:3tgsObzU >>343
あ、クライアントに Keep-Alive: off の返事をするだけはダメですよねm(_ _)m
物理的に切断を指示するのは、VirtualHost ごとなのでかなり難解かも、、、> Keepalive ディレクティブ
あ、クライアントに Keep-Alive: off の返事をするだけはダメですよねm(_ _)m
物理的に切断を指示するのは、VirtualHost ごとなのでかなり難解かも、、、> Keepalive ディレクティブ
なんかスケジュールが巻き戻ってリリース日がかなり伸びてますねぇ
FreeBSD 5.3 Press Release 5 Nov 2004
FreeBSD 5.3 Press Release 5 Nov 2004
346root▲ ★
04/10/31 01:38:00ID:???347root▲ ★
04/10/31 01:38:49ID:??? read.cgiにもこの制限当たってきちゃうわけだけど、
まぁ200なら、今のところこんなもんじゃないかなぁと。
まぁ200なら、今のところこんなもんじゃないかなぁと。
04/10/31 01:51:07ID:YSeeOoJh
夜遅くに乙です。
349root▲ ★
04/10/31 17:52:14ID:??? 出先から帰宅。
ex7、天皇賞の後重かった?
ex7、天皇賞の後重かった?
350桶屋
04/10/31 17:53:53ID:aYem5RJV 馬は見ていないからわからないですが、この辺にはなにもありません。
重い重い重い重い重い重い重い×25@運用情報
http://qb5.2ch.net/test/read.cgi/operate/1093497512/
ex7が重い重い重い重い重い重い重いtiger503
http://qb5.2ch.net/test/read.cgi/operate/1096837151/
重い重い重い重い重い重い重い×25@運用情報
http://qb5.2ch.net/test/read.cgi/operate/1093497512/
ex7が重い重い重い重い重い重い重いtiger503
http://qb5.2ch.net/test/read.cgi/operate/1096837151/
351root▲ ★
04/10/31 18:03:43ID:??? >>350
どうもです。
システム観察的には、LA=80ぐらいになったみたい。 (http://ch2.ath.cx/load/ex7.html)
しかし、内部でとってるApacheのステータスログを見る限り、
システムはまだ余裕たっぷりだったように見えます。
なかなか、たのもしいなと。
どうもです。
システム観察的には、LA=80ぐらいになったみたい。 (http://ch2.ath.cx/load/ex7.html)
しかし、内部でとってるApacheのステータスログを見る限り、
システムはまだ余裕たっぷりだったように見えます。
なかなか、たのもしいなと。
352root▲ ★
04/10/31 18:09:13ID:??? http://sv2ch.baila6.jp/server.cgi?server=ex7.2ch.net
負荷量的には昨日のうp祭り @ news4vipの方が多かったと(頂上は同じぐらいか)。
つまり、女神降臨 > 天皇賞 だったということかぁ。
でも、両方同時には来ないでほしいなと。
負荷量的には昨日のうp祭り @ news4vipの方が多かったと(頂上は同じぐらいか)。
つまり、女神降臨 > 天皇賞 だったということかぁ。
でも、両方同時には来ないでほしいなと。
353▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/31 18:14:40ID:JM2oKVyC354桶屋
04/10/31 18:14:55ID:aYem5RJV >でも、両方同時には来ないでほしいなと。
心情的には理解できますけど、
確率的に考えてもそこは想定しない。もしあったら、潔く落ちましょう。という割り切りでいいんじゃないでしょうか?
気を楽にー、気を楽にー♪
心情的には理解できますけど、
確率的に考えてもそこは想定しない。もしあったら、潔く落ちましょう。という割り切りでいいんじゃないでしょうか?
気を楽にー、気を楽にー♪
355root▲ ★
04/10/31 18:16:16ID:??? 死亡確定 @ newsplusは200超えかぁ。
http://sv2ch.baila6.jp/server.cgi?server=news19.2ch.net
http://sv2ch.baila6.jp/server.cgi?server=news19.2ch.net
356root▲ ★
04/10/31 18:19:08ID:??? >>354
どもです。気楽にやってるですよ。
両方来たらキタで、それもまたイベントかと。
ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、
つまり上モノ(システムやApacheの調整とか板セッティングとか)を遠慮なくいろいろといじれそうで、
相当わくわくしていたりして。
どもです。気楽にやってるですよ。
両方来たらキタで、それもまたイベントかと。
ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、
つまり上モノ(システムやApacheの調整とか板セッティングとか)を遠慮なくいろいろといじれそうで、
相当わくわくしていたりして。
357桶屋
04/11/01 01:19:48ID:VlZ0obMn >両方来たらキタで、それもまたイベントかと。
さすがに慣れているというか……。(;^ ^
実社会でもそうですけど、これくらいポジティブシンキングできれば、ストレスも減らせて楽しんで活動できます。
>ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、(ry
ネットワーク周りはPIE移転プロジェクトでほぼ解決して、今度5.3RによってOSが安定して、、、
下位のレイヤーが固まってきていますね。しばらくいじって来なかったところに、メスを入れられそうですね。
さすがに慣れているというか……。(;^ ^
実社会でもそうですけど、これくらいポジティブシンキングできれば、ストレスも減らせて楽しんで活動できます。
>ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、(ry
ネットワーク周りはPIE移転プロジェクトでほぼ解決して、今度5.3RによってOSが安定して、、、
下位のレイヤーが固まってきていますね。しばらくいじって来なかったところに、メスを入れられそうですね。
04/11/01 01:21:55ID:jhJvkW84
地雷が埋っていませんように(‐人‐)
04/11/01 03:47:42ID:pmh58mtv
それ以前に
女神スレって削除対象でないの?( ;´Д`)
女神スレって削除対象でないの?( ;´Д`)
04/11/01 03:57:31ID:hGkrmlU7
うむbbspinkでやるべきだね
04/11/01 06:52:21ID:Z+9bN7k/
362root▲ ★
04/11/01 16:28:27ID:??? live8/ex7を5.3-RC2に更新。
%uname -a
FreeBSD oyster901.maido3.com 5.3-RC2 FreeBSD 5.3-RC2 #1: Sun Oct 31 09:27:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
というわけでこれの効果が出ると、うれしいなと。
Merge tcp_output:1.104 from HEAD to RELENG_5_3:
date: 2004/10/30 12:02:50; author: rwatson; state: Exp; lines: +2 -2
Correct a bug in TCP SACK that could result in wedging of the TCP stack
under high load: only set function state to loop and continuing sending
if there is no data left to send.
RELENG_5_3 candidate.
Feet provided: Peter Losher <Peter underscore Losher at isc dot org>
Diagnosed by: Aniel Hartmeier <daniel at benzedrine dot cx>
Submitted by: mohan <mohans at yahoo-inc dot com>
Approved by:re (kensmith)
%uname -a
FreeBSD oyster901.maido3.com 5.3-RC2 FreeBSD 5.3-RC2 #1: Sun Oct 31 09:27:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
というわけでこれの効果が出ると、うれしいなと。
Merge tcp_output:1.104 from HEAD to RELENG_5_3:
date: 2004/10/30 12:02:50; author: rwatson; state: Exp; lines: +2 -2
Correct a bug in TCP SACK that could result in wedging of the TCP stack
under high load: only set function state to loop and continuing sending
if there is no data left to send.
RELENG_5_3 candidate.
Feet provided: Peter Losher <Peter underscore Losher at isc dot org>
Diagnosed by: Aniel Hartmeier <daniel at benzedrine dot cx>
Submitted by: mohan <mohans at yahoo-inc dot com>
Approved by:re (kensmith)
363root▲ ★
04/11/01 16:46:27ID:??? AMD64ではlibcも更新した。
http://www.freebsd.org/cgi/cvsweb.cgi/src/lib/libc/amd64/sys/brk.S
Revision 1.12.8.1 / (download) - annotate - [select for diffs], Sat Oct 30 00:08:46 2004 UTC (2 days, 7 hours ago) by peter
Branch: RELENG_5_3
CVS Tags: RELENG_5_3_0_RELEASE
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored) next main 1.13 (colored)
MFC: rev 1.13 fix brk(3) on amd64
(I believe there will be a tag slide for this)
Approved by: re (kensmith)
(中略)
Revision 1.13 / (download) - annotate - [select for diffs], Wed Oct 27 17:11:43 2004 UTC (4 days, 14 hours ago) by peter
Branch: MAIN
CVS Tags: HEAD
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored)
Fix brk(3). The stack was unbalanced when we jumped to cerror. Oops!
This causes nasty things like SEGV or a cpu spin when we return.
Submitted by: "James R. Van Artsalen" <james@jrv.org>
http://www.freebsd.org/cgi/cvsweb.cgi/src/lib/libc/amd64/sys/brk.S
Revision 1.12.8.1 / (download) - annotate - [select for diffs], Sat Oct 30 00:08:46 2004 UTC (2 days, 7 hours ago) by peter
Branch: RELENG_5_3
CVS Tags: RELENG_5_3_0_RELEASE
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored) next main 1.13 (colored)
MFC: rev 1.13 fix brk(3) on amd64
(I believe there will be a tag slide for this)
Approved by: re (kensmith)
(中略)
Revision 1.13 / (download) - annotate - [select for diffs], Wed Oct 27 17:11:43 2004 UTC (4 days, 14 hours ago) by peter
Branch: MAIN
CVS Tags: HEAD
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored)
Fix brk(3). The stack was unbalanced when we jumped to cerror. Oops!
This causes nasty things like SEGV or a cpu spin when we return.
Submitted by: "James R. Van Artsalen" <james@jrv.org>
04/11/01 23:48:50ID:paSHEJ1f
root氏お疲れ様です。お体のほうはもう大丈夫なのかな?
365root▲ ★
04/11/02 01:06:38ID:??? >>364
ぼちぼちすね。
今週末からまた1週間ばかり※国方面に出張です。
この後ちょっぴり修○すると、無事に50,000ポイントということで。
# ex7はバージョンアップ早々いきなり負荷試験だったようで。
ぼちぼちすね。
今週末からまた1週間ばかり※国方面に出張です。
この後ちょっぴり修○すると、無事に50,000ポイントということで。
# ex7はバージョンアップ早々いきなり負荷試験だったようで。
366▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/11/02 09:39:43ID:f6etdzvO367root▲ ★
04/11/03 22:08:12ID:??? RLimitNPROC を 200 から 150 にしてみた。< live8, ex7
超高負荷時に瀕死になる比率が下がるといいなと。
超高負荷時に瀕死になる比率が下がるといいなと。
368root▲ ★
04/11/05 11:49:48ID:??? きたのかな。
http://www.freebsd.org/cgi/cvsweb.cgi/src/sys/conf/newvers.sh.diff?r1=1.62.2.15.2.4&r2=1.62.2.15.2.5
===================================================================
RCS file: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v
retrieving revision 1.62.2.15.2.4
retrieving revision 1.62.2.15.2.5
diff -u -p -r1.62.2.15.2.4 -r1.62.2.15.2.5
--- src/sys/conf/newvers.sh2004/10/30 22:07:061.62.2.15.2.4
+++ src/sys/conf/newvers.sh2004/11/04 18:51:301.62.2.15.2.5
@@ -28,11 +28,11 @@
# SUCH DAMAGE.
#
#@(#)newvers.sh8.1 (Berkeley) 4/20/94
-# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.4 2004/10/30 22:07:06 kensmith Exp $
+# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.5 2004/11/04 18:51:30 scottl Exp $
TYPE="FreeBSD"
REVISION="5.3"
-BRANCH="RC2"
+BRANCH="RELEASE"
RELEASE="${REVISION}-${BRANCH}"
VERSION="${TYPE} ${RELEASE}"
http://www.freebsd.org/cgi/cvsweb.cgi/src/sys/conf/newvers.sh.diff?r1=1.62.2.15.2.4&r2=1.62.2.15.2.5
===================================================================
RCS file: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v
retrieving revision 1.62.2.15.2.4
retrieving revision 1.62.2.15.2.5
diff -u -p -r1.62.2.15.2.4 -r1.62.2.15.2.5
--- src/sys/conf/newvers.sh2004/10/30 22:07:061.62.2.15.2.4
+++ src/sys/conf/newvers.sh2004/11/04 18:51:301.62.2.15.2.5
@@ -28,11 +28,11 @@
# SUCH DAMAGE.
#
#@(#)newvers.sh8.1 (Berkeley) 4/20/94
-# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.4 2004/10/30 22:07:06 kensmith Exp $
+# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.5 2004/11/04 18:51:30 scottl Exp $
TYPE="FreeBSD"
REVISION="5.3"
-BRANCH="RC2"
+BRANCH="RELEASE"
RELEASE="${REVISION}-${BRANCH}"
VERSION="${TYPE} ${RELEASE}"
04/11/05 12:32:07ID:0hLvehPf
reicha.netの#FreeBSDによると来たらしい。
370root▲ ★
04/11/05 13:57:55ID:??? live8とex7で、make buildworldとmake buildkernelぐらいしておくかな。
371root▲ ★
04/11/07 10:02:33ID:??? http://lists.freebsd.org/pipermail/freebsd-announce/2004-November/000964.html
━(゚∀゚)━( ゚∀)━( ゚)━( )━( )━(゚ )━(∀゚ )━(゚∀゚)━━
━(゚∀゚)━( ゚∀)━( ゚)━( )━( )━(゚ )━(∀゚ )━(゚∀゚)━━
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- ナイナイ岡村隆史「一般人、オンラインカジノと不倫めっちゃやってると思うで」芸能人はつらいよ [ネギうどん★]
- 《スクープ》令和ロマン・高比良くるま、突然の活動自粛の裏に「既婚女性との不倫」1年以上にわたる交際が発覚 直撃の翌日に自粛発表 [Ailuropoda melanoleuca★]
- 「トランプ大統領はゼレンスキー大統領に非常にいら立っている」米政府高官が言及 [Hitzeschleier★]
- ヒカキン、生配信中に頼んでいない大量のマックデリバリーが届く 開示請求を宣言「震えて眠れや」「事務所総出」 [ネギうどん★]
- 【芸能】ヒコロヒー、天ぷらをおごった後輩の言動にイラッ 「天ぷらに塩をつけて食う後輩!『おまえナメてんのか!』って」 [冬月記者★]
- 「非正規制度つくった人たちを一生恨む」 図書館職員たちから悲痛な声、関係団体が待遇改善を要求 ★2 [おっさん友の会★]
- 【画像】日本各地のスーパー「助けて!“赤いきつね”しか売れないの!緑のたぬきは売れ残ってるのに」極端すぎるだろジャップ… [931948549]
- 近々 横浜に 核ミサイルが落ちて 銀座も崩壊する(画像あり)
- 岡村隆史、正論「一般人の方が不倫もオンカジもやりまくってるのに、芸能人がこんなに叩かれるのはおかしい」 [614372401]
- 令和ロマンくるま、不倫も発覚。相手を離婚させた後に違う女に乗り換え「すみません…すみません…」 [523957489]
- お昼休みなので>>2のキャラをかいてあそぶ
- 【悲報】令和ロマン・高比良くるま、不倫