X



【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part15

■ このスレッドは過去ログ倉庫に格納されています
1▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
垢版 |
04/08/21 15:04ID:hJLR4nfQ
peko作戦について語るスレです。
サーバロケーションPIEに関する話題もこちらで。
現在の主要なテーマはpeko/cobraおよびtigerサーバが
特定条件下における突然死の原因究明です。
9月にrootさんが現地へ渡米して作業するそうです。

<関連サイト>
レンタルサーバー maido3.com 2ちゃんねるの転送量: http://server.maido3.com/pie/
MRTGによる統計情報: http://mumumu.mu/mrtg/
2ちゃんねる/PINKちゃんねる 稼動中のサーバ一覧: http://mumumu.mu/serverlist.html

<運営板PINKちゃんねる関係>
【Project ama】PINKちゃんねる特化型サーバ構築作戦 Part2
http://qb5.2ch.net/test/read.cgi/operate/1082721809/l50
【PINKちゃんねる】新サーバ獲得会議☆3
http://qb5.2ch.net/test/read.cgi/operate/1080295660/l50

<携帯電話特化型サーバ構築作戦関係>
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2
http://qb5.2ch.net/test/read.cgi/operate/1088657713/l50

<前スレ>
【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part14
http://qb5.2ch.net/test/read.cgi/operate/1087666806/l50
04/10/23 18:53:37ID:wTQO6Odm
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。

あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
04/10/23 19:02:28ID:ejfd13Jj
>283
アニメ中断の・・・
04/10/23 19:21:05ID:NbLEHLUc
シャア専はex5だっけ?
04/10/23 19:23:47ID:wTQO6Odm
>>284
あっなるほど(^^;;
ん〜まぁそのうち復活するかな。

そういえば、oyster902はいつごろ復活するんでしょう?
もうすこしかかるのかな。
04/10/23 19:25:16ID:voEcPMmk
283 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 18:53:37 ID:wTQO6Odm
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。

あとなんでcomic5とgame8が負荷が高いんだろう(^^;;

284 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 19:02:28 ID:ejfd13Jj
>283
アニメ中断の・・・
04/10/23 19:28:00ID:voEcPMmk
誤爆スマソ
04/10/23 19:33:19ID:qwDmcLj3
(・∀・)ニヤニヤ
290root▲ ★
垢版 |
04/10/23 21:21:32ID:???
live8よりも、ex7でいい負荷試験ができたのかも。
04/10/24 21:33:18ID:jE7Y8E6o
FreeBSD 5.3 release キター
04/10/24 22:28:05ID:yX9Kk8js
正式版来たんならlive16,17でも実験キボン
293動け動けウゴウゴ2ちゃんねる
垢版 |
04/10/24 22:59:07ID:NXVGMWzP
902ってどのような状況なんでしょか?
294留守番 ★
垢版 |
04/10/24 22:59:38ID:???
902ってどのような状況なんでしょか?
04/10/24 23:02:07ID:JvyM8gxQ
>>294
>>234-264
04/10/24 23:02:24ID:PlDS+h7o
http://qb5.2ch.net/test/read.cgi/operate/1080237257/206

こういうことらしいです。>294
297留守番 ★
垢版 |
04/10/24 23:04:30ID:???
どもども

代わりに banana では代用できないんですかね?
04/10/24 23:13:04ID:DvlSaBWP
>>297
PCIなFCカードがJimさんの手元にあれば意外と簡単に出来るんじゃないかのう。

Sumaとの接続はFCだで。
299root▲ ★
垢版 |
04/10/24 23:34:51ID:???
>>291 >>292
ようやく、か。
まずは ex7 と live8 を正式版に更新からかな。
次は live 系あたりから、順次更新していこうと。

>>297 >>298
物理的には刺さるかもしれないですが、
64bit PCIカードじゃないとI/Oが苦しい気がするので、
bananaではFCカードのパフォーマンス的に無理だと思います。

常時、相当数のアクセスがあったので。
300留守番 ★
垢版 |
04/10/24 23:38:07ID:???
>>299
常に二台(902,banana) を接続しておいて
902だ駄目なときはbananaが稼動っていうのじゃだめですかね?
まったく見られないよりは良いかと思いまして、
301root▲ ★
垢版 |
04/10/24 23:47:33ID:???
>>300
なるほど、SumaはFCだから1台にステーションを2台接続できるかもしれないですね。
FCのSCSIカードとbananaサーバ1台っていうかんじですか。

FCのカードは今の902のやつと同じもの(QLogic 2300)でいける気がします。
04/10/24 23:58:55ID:jE7Y8E6o
GENERICからoption SMPがなくなりました。
SMPを使う場合は、

make buildkernel KERNCONF=SMP
make installkernel KERNCONF=SMP

とする必要があるみたいですね。
303root▲ ★
垢版 |
04/10/25 00:08:10ID:???
live8でCVSup。
ex7は、、今重いからなぁ。

>>302
あ、もう書かれちゃった。
確かに、SMPがデフォルトではなくなってますね。
まあ、安全側に振ったということでしょう。

# おぐらけい、若いな。それよりゲストの若さに驚いたかも。
04/10/25 00:13:55ID:42sAbSWW
# 実況は実況板で
04/10/25 00:14:27ID:9FARC6xf
>>301
Strage共有にスイッチは不要でしたかの?
ちと不明なのでそのへんを訊いてみる。。

確かにSumaに穴は二つあるようじゃが、
306root▲ ★
垢版 |
04/10/25 00:15:46ID:???
>>305
穴(I/F)を入れられる場所は2つありますが、今は1つしか入ってないです。

FC-ALなので、リング状に接続すればいいんではないかと思っていたり。
307root▲ ★
垢版 |
04/10/25 00:17:31ID:???
あ、>>306 は「I/Fカードが今のSumaには1枚しか入ってない(今のSumaなら1枚しか要らないから)」
という意味です。
308留守番 ★
垢版 |
04/10/25 00:20:34ID:???
>>306
ちと Jim さんに接続の方法を聞いてみたりしてみます
週明けになると思いますが、

root ★さんも JIm さんを捕まえたら
手配しちゃってくださいー

技術検証、まぁちっとは役に立つかも計画ですが、
04/10/25 00:20:38ID:P/z8Rw1Z
>>303
ためしに、GENERIC入れたら、やっぱり非SMPでしたw

いま、CPUひとつでSMPをbuildkernel中
310root▲ ★
垢版 |
04/10/25 00:22:24ID:???
>>308
了解です。
もしつかまったら、902のステータスも聞いてみてくださいです。
退院してくるなら、それがいちばんよいので。
311留守番 ★
垢版 |
04/10/25 00:34:05ID:???
うおっ
久しぶりにメールを見てみたら

10/21 にこんなメールが

Oyster902 is back on the rack.
It ran for 1 day at polywell with no errors.
It has had one extra fan installed. (Now 7 fans in it.)
and a new adaptec raid 1 card. lets see how it does for a few days.

Jim
312root▲ ★
垢版 |
04/10/25 00:37:00ID:???
>>311
お、状況再現せず、負荷による温度上昇かもと疑いファンを増設して、SCSIカードも換えたと。
04/10/25 00:37:04ID:MCdBN7O3
さて問題です
今日は何日でしょう?
04/10/25 00:38:47ID:x5S1WW9n
Jimさんが泣いています
04/10/25 00:39:21ID:9FARC6xf
>>306
ひょっとしてわっかにしたらわっかのどこかが落ちたりして欠けたらアレなんじゃ。。。。

>>311
おー
316root▲ ★
垢版 |
04/10/25 00:45:29ID:???
Jimさんと連絡とれました。
今日午前中にPIEに行って(現地時間)チェックしてみるとのこと。
HWに問題がなければ、今日のうちには上がるでしょう。

Me (12:42 AM) :
Ok, wakatta. I will wait for 902 is back again.
Jim (12:42 AM) :
it will be back up today.
Me (12:43 AM) :
Ok, thank you.
Jim (12:43 AM) :
dou itashi mashite
04/10/25 00:45:36ID:P/z8Rw1Z
FreeBSD 219.113.242.220 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Mon Oct 25 00:14:28 JST 2004 root@219.113.242.220:/usr/obj/usr/src/sys/SMP amd64
一足お先に、5.3R導入
318root▲ ★
垢版 |
04/10/25 00:45:59ID:???
>>315
リングにするから、1台落ちても大丈夫なわけで。
319root▲ ★
垢版 |
04/10/25 00:46:51ID:???
>>317
お、はやいな。
04/10/25 00:49:00ID:9FARC6xf
>>318
あ、わっかといっても三角にするだけだから
どっかが落ちても経路が潰れるわけじゃないのかー
321root▲ ★
垢版 |
04/10/25 01:55:08ID:???
oyster901 = live8 を5.3Rに更新した。

%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Sun Oct 24 09:22:11 PDT 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
322
垢版 |
04/10/25 03:13:25ID:7+NLUN0J
902クル━━━━━(゚∀゚)━━━━━!?
323root▲ ★
垢版 |
04/10/25 03:24:42ID:???
tiger503 = ex7 も更新した。
他のサーバの更新は明日以降。

FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #1: Sun Oct 24 11:01:59 PDT 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
324留守番 ★
垢版 |
04/10/25 14:56:55ID:???
902 動いているようで、
bananaを一台追加予定、
だめだったら tiger を考えていたり、
04/10/25 15:52:17ID:ozAoMJCP
>>324

それは掲示板に使ってよいものですか?
memoriesのバックアップ用?
326留守番 ★
垢版 |
04/10/25 15:55:59ID:???
memoriesのバックアップ用 でーす

どのような方法があるのかわからないけど
902 が落ちたときに補完になれば、
04/10/25 15:57:28ID:0PgI1yTk
>>325
仮に後者目的に使うのであればセカンダリ=バックアップでしょーな。
ただbananaでは少々つらいかも。
>>299の懸念を902+bananaコンビのデュプレックスだけでは払拭でき無そうですし。
peko2台(1台は902)ではオーバースペックだろうし。
# 将来的には必要かもしれませんがね
04/10/25 16:15:30ID:0PgI1yTk
>>326
方法としてはc={c1/c2}同様にDNSラウンドロビンという手でいくのが妥当かと思います。
ただしこの方法だと902が落ちたときに相方のbananaに負荷が集中して結局落ちる可能性がありえます。
そんなんではバックアップの意味が無いわけで。。。。

他にいい方法ないでしょうかねぇ
329root▲ ★
垢版 |
04/10/25 16:30:16ID:???
902、RAID 1で構成したシステムディスクが片肺飛行状態になっているかも。

21日からネットワークに接続されていない状態で動いていた模様。
↓1行目はこないだのエラー。

Oct 18 02:48:08 <0.2> oyster902 kernel: aac0: **Monitor** NMI ISR: NMI_MEMORY_CONTROLLER_ERROR
Oct 21 03:14:03 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 1 more times>
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 21 03:14:51 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 4 more times>
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:1:0 returning error
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x28] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x2a] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Alarm Adapter Event -- turning Alarm On!
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Container 0 Drive 0:1:0 Failure
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 2 more times>
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 24 00:45:47 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Failover Container 0 no failover assigned
04/10/25 17:18:24ID:0PgI1yTk
>>329
5.3にあげるつもりがあるのでしたら>>324のときに再構築したほうがいいかもですね。
331root▲ ★
垢版 |
04/10/25 22:25:04ID:???
httpdのスロット数は増やしたいけど、
bbs.cgiの起動数は例えば同時に100個とかまでにしたい、とかいうのって、
設定で何とかならないんだろか。
04/10/26 08:27:30ID:dLeygjNi
>>331
mod_cgidsoが実装されれば容易に調整できそうなものですが。
333root▲ ★
垢版 |
04/10/26 10:38:09ID:???
live8が上がっていたのでhttpdの起動数にリミッターを入れました。(一時的に1024に上げていた)

live8 512
ex7 384

に設定。

また風邪を引いてしまったらしく症状がひどいため、今日はたぶんあまり見られないです。すまぬ。
04/10/26 11:05:45ID:dLeygjNi
>>333
たぶんどころかみちゃだめです。鯖のお守りより自分のお守りをしてください。。。

とりあえず24時間寝ることを薦めます
04/10/26 11:23:09ID:S5v+kppX
>>333
ぶっちゃけ、一週間くらい2ちゃんが落ちても、そんなに困る人は居ない。
けど、あんだが一週間寝込んだら困る人、居るでしょ?奥さんとか。ご自愛下され。
04/10/26 12:45:45ID:3rTLsqu7
>>333
ゆっくり休んでくださいー

(ry
337root▲ ★
垢版 |
04/10/27 11:58:29ID:???
RC1に逆戻り。

http://www.freebsd.org/cgi/cvsweb.cgi/src/sys/conf/newvers.sh.diff?r1=1.62.2.15.2.2&r2=1.62.2.15.2.3
04/10/27 13:07:34ID:sEaFoF8v
            \   ショボーン     /( ^∀^)ゲラゲラ
ショボーン         \  (´・ω・`)   /
  (´・ω・`)        \∧∧∧∧/∀`)=◯<´・ω・`>◯=(・
  ( つ旦O        < な シ >      (   )ショボーン
  と_)_)           <    ョ >       ∪∪
──────────< 悪 ボ >───────────
      |  |/( ´_ゝ`)\<   │ >    ( ´・ω・`)フー
      |  |.   ∩∩  < 寒 ン >   /   人
      |ショボーン ̄ ̄ ̄ ̄/∨∨∨∨\  / \ \⌒i
   (´・ω・`)      /2人でショボーン \ |  /\  ̄))
    (∩∩)─── /(´・ω・`)人(´・ω・`\/  /| ̄|
  /| ̄ ̄| カタカタ / (  ∩∩) (∩∩  )\/  ゝ__)
339root▲ ★
垢版 |
04/10/27 15:47:13ID:???
ex7を実験台に、KeepAliveありの設定を実験中。
同じ人がリロードするのには、このほうが負荷が低いかもしれないので。
04/10/27 16:45:55ID:eRmO9BsU
HTTP/1.1をまともに実装しているクライアントからは、
KeepAliveONのほうが、かける負荷はずっと少なくなります。
connect要求300回が、3回で済むようになる上、
apache側は、同一connectionでのリクエストは
同じプロセスそのまま再利用して処理するので。

で、クライアント側の待ち時間も、数倍違いが出ます(巡回時)。
正直なところ、個人的には全鯖KeepAliveON(タイムアウトは短くても)にして欲しいところです。

問題は、connectしたまま放置するクライアントの存在ですね。
IEは、force-no-varyに引っかかるので、必ず切断されますが
昔、比較的メジャーなクライアントの実装で
「リクエスト毎にHTTP/1.1コネクションを作成し、そのまま」
というのがあった気がします。
341root▲ ★
垢版 |
04/10/27 17:09:33ID:???
>>340
そうなんですよね。そんな気がして。
live8での実験の最中にKeepAliveをOffにしたわけですが、
少なくとも通常サーバでは、Onのほうがいい気がしたのです。

今はこうですね。このへんのパラメータチューンもしたほうがよさそう。
どうやるのがいいのかな。

KeepAlive On
MaxKeepAliveRequests 100
KeepAliveTimeout 10

ただ、携帯系では切ったほうがいいかも。
こんなかんじでいいんだっけか。

BrowserMatch "DoCoMo" nokeepalive
BrowserMatch "UP.Browser" nokeepalive
BrowserMatch "J-PHONE" nokeepalive
BrowserMatch "DDIPOCKET" nokeepalive
342root▲ ★
垢版 |
04/10/27 17:15:43ID:???
live8もKeepAliveありにしてみた。
04/10/27 21:01:33ID:3tgsObzU
>>341
http://httpd.apache.org/docs-2.0/mod/mod_setenvif.html#browsermatch
BrowserMatch regex [!]env-variable[=value] [[!]env-variable[=value]] ...

書式がかなり違うような(苦笑)
ひとまず、携帯機種には環境変数を設定して、Header を出力すると良いのかな?

BrowserMatch "DoCoMo|UP\.Browser|J-PHONE|DDIPOCKET" Mobile
Header onsuccess set Keep-Alive off Mobile

かなり自信なし(苦笑)
http://httpd.apache.org/docs-2.0/mod/mod_headers.html#header
04/10/27 21:05:16ID:3tgsObzU
>>343
あ、クライアントに Keep-Alive: off の返事をするだけはダメですよねm(_ _)m
物理的に切断を指示するのは、VirtualHost ごとなのでかなり難解かも、、、> Keepalive ディレクティブ
04/10/28 03:06:45ID:2GGki0EW
なんかスケジュールが巻き戻ってリリース日がかなり伸びてますねぇ

FreeBSD 5.3 Press Release 5 Nov 2004
346root▲ ★
垢版 |
04/10/31 01:38:00ID:???
>>331 続報

さきほどとりあえず ex7 と live8 で、

RLimitNPROC 200

にしてみた。もっと少なくてもいいのかな。
347root▲ ★
垢版 |
04/10/31 01:38:49ID:???
read.cgiにもこの制限当たってきちゃうわけだけど、
まぁ200なら、今のところこんなもんじゃないかなぁと。
04/10/31 01:51:07ID:YSeeOoJh
夜遅くに乙です。
349root▲ ★
垢版 |
04/10/31 17:52:14ID:???
出先から帰宅。

ex7、天皇賞の後重かった?
350桶屋
垢版 |
04/10/31 17:53:53ID:aYem5RJV
馬は見ていないからわからないですが、この辺にはなにもありません。

重い重い重い重い重い重い重い×25@運用情報
http://qb5.2ch.net/test/read.cgi/operate/1093497512/

ex7が重い重い重い重い重い重い重いtiger503
http://qb5.2ch.net/test/read.cgi/operate/1096837151/
351root▲ ★
垢版 |
04/10/31 18:03:43ID:???
>>350
どうもです。

システム観察的には、LA=80ぐらいになったみたい。 (http://ch2.ath.cx/load/ex7.html)

しかし、内部でとってるApacheのステータスログを見る限り、
システムはまだ余裕たっぷりだったように見えます。
なかなか、たのもしいなと。
352root▲ ★
垢版 |
04/10/31 18:09:13ID:???
http://sv2ch.baila6.jp/server.cgi?server=ex7.2ch.net

負荷量的には昨日のうp祭り @ news4vipの方が多かったと(頂上は同じぐらいか)。
つまり、女神降臨 > 天皇賞 だったということかぁ。

でも、両方同時には来ないでほしいなと。
04/10/31 18:14:40ID:JM2oKVyC
>>352
とりあえず、当面の目標は5.3Rで片肺状態の解消、でしょうなぁ

今度は巻き戻されないことを祈りませう 南無南無
354桶屋
垢版 |
04/10/31 18:14:55ID:aYem5RJV
>でも、両方同時には来ないでほしいなと。
心情的には理解できますけど、
確率的に考えてもそこは想定しない。もしあったら、潔く落ちましょう。という割り切りでいいんじゃないでしょうか?

気を楽にー、気を楽にー♪
355root▲ ★
垢版 |
04/10/31 18:16:16ID:???
死亡確定 @ newsplusは200超えかぁ。
http://sv2ch.baila6.jp/server.cgi?server=news19.2ch.net
356root▲ ★
垢版 |
04/10/31 18:19:08ID:???
>>354
どもです。気楽にやってるですよ。
両方来たらキタで、それもまたイベントかと。

ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、
つまり上モノ(システムやApacheの調整とか板セッティングとか)を遠慮なくいろいろといじれそうで、
相当わくわくしていたりして。
357桶屋
垢版 |
04/11/01 01:19:48ID:VlZ0obMn
>両方来たらキタで、それもまたイベントかと。
さすがに慣れているというか……。(;^ ^
実社会でもそうですけど、これくらいポジティブシンキングできれば、ストレスも減らせて楽しんで活動できます。


>ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、(ry
ネットワーク周りはPIE移転プロジェクトでほぼ解決して、今度5.3RによってOSが安定して、、、
下位のレイヤーが固まってきていますね。しばらくいじって来なかったところに、メスを入れられそうですね。
04/11/01 01:21:55ID:jhJvkW84
地雷が埋っていませんように(‐人‐)
04/11/01 03:47:42ID:pmh58mtv
それ以前に
女神スレって削除対象でないの?( ;´Д`)
04/11/01 03:57:31ID:hGkrmlU7
うむbbspinkでやるべきだね
04/11/01 06:52:21ID:Z+9bN7k/
>>358

われわれが発掘できれば、立派な社会貢献かと。
362root▲ ★
垢版 |
04/11/01 16:28:27ID:???
live8/ex7を5.3-RC2に更新。

%uname -a
FreeBSD oyster901.maido3.com 5.3-RC2 FreeBSD 5.3-RC2 #1: Sun Oct 31 09:27:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64

というわけでこれの効果が出ると、うれしいなと。

Merge tcp_output:1.104 from HEAD to RELENG_5_3:

date: 2004/10/30 12:02:50; author: rwatson; state: Exp; lines: +2 -2
Correct a bug in TCP SACK that could result in wedging of the TCP stack
under high load: only set function state to loop and continuing sending
if there is no data left to send.

RELENG_5_3 candidate.

Feet provided: Peter Losher <Peter underscore Losher at isc dot org>
Diagnosed by: Aniel Hartmeier <daniel at benzedrine dot cx>
Submitted by: mohan <mohans at yahoo-inc dot com>

Approved by:re (kensmith)
363root▲ ★
垢版 |
04/11/01 16:46:27ID:???
AMD64ではlibcも更新した。
http://www.freebsd.org/cgi/cvsweb.cgi/src/lib/libc/amd64/sys/brk.S

Revision 1.12.8.1 / (download) - annotate - [select for diffs], Sat Oct 30 00:08:46 2004 UTC (2 days, 7 hours ago) by peter
Branch: RELENG_5_3
CVS Tags: RELENG_5_3_0_RELEASE
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored) next main 1.13 (colored)

MFC: rev 1.13 fix brk(3) on amd64
(I believe there will be a tag slide for this)

Approved by: re (kensmith)
(中略)
Revision 1.13 / (download) - annotate - [select for diffs], Wed Oct 27 17:11:43 2004 UTC (4 days, 14 hours ago) by peter
Branch: MAIN
CVS Tags: HEAD
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored)

Fix brk(3). The stack was unbalanced when we jumped to cerror. Oops!
This causes nasty things like SEGV or a cpu spin when we return.

Submitted by: "James R. Van Artsalen" <james@jrv.org>
04/11/01 23:48:50ID:paSHEJ1f
root氏お疲れ様です。お体のほうはもう大丈夫なのかな?
365root▲ ★
垢版 |
04/11/02 01:06:38ID:???
>>364
ぼちぼちすね。

今週末からまた1週間ばかり※国方面に出張です。
この後ちょっぴり修○すると、無事に50,000ポイントということで。

# ex7はバージョンアップ早々いきなり負荷試験だったようで。
04/11/02 09:39:43ID:f6etdzvO
>>365
※イ*ージでつか>5万

そーなると5.3Rへのupは帰国後あるいは直前ぐらい?
367root▲ ★
垢版 |
04/11/03 22:08:12ID:???
RLimitNPROC を 200 から 150 にしてみた。< live8, ex7
超高負荷時に瀕死になる比率が下がるといいなと。
368root▲ ★
垢版 |
04/11/05 11:49:48ID:???
きたのかな。

http://www.freebsd.org/cgi/cvsweb.cgi/src/sys/conf/newvers.sh.diff?r1=1.62.2.15.2.4&r2=1.62.2.15.2.5

===================================================================
RCS file: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v
retrieving revision 1.62.2.15.2.4
retrieving revision 1.62.2.15.2.5
diff -u -p -r1.62.2.15.2.4 -r1.62.2.15.2.5
--- src/sys/conf/newvers.sh2004/10/30 22:07:061.62.2.15.2.4
+++ src/sys/conf/newvers.sh2004/11/04 18:51:301.62.2.15.2.5
@@ -28,11 +28,11 @@
# SUCH DAMAGE.
#
#@(#)newvers.sh8.1 (Berkeley) 4/20/94
-# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.4 2004/10/30 22:07:06 kensmith Exp $
+# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.5 2004/11/04 18:51:30 scottl Exp $

TYPE="FreeBSD"
REVISION="5.3"
-BRANCH="RC2"
+BRANCH="RELEASE"
RELEASE="${REVISION}-${BRANCH}"
VERSION="${TYPE} ${RELEASE}"
04/11/05 12:32:07ID:0hLvehPf
reicha.netの#FreeBSDによると来たらしい。
370root▲ ★
垢版 |
04/11/05 13:57:55ID:???
live8とex7で、make buildworldとmake buildkernelぐらいしておくかな。
371root▲ ★
垢版 |
04/11/07 10:02:33ID:???
http://lists.freebsd.org/pipermail/freebsd-announce/2004-November/000964.html
━(゚∀゚)━( ゚∀)━(  ゚)━(  )━(  )━(゚  )━(∀゚ )━(゚∀゚)━━
04/11/07 10:53:49ID:fXlLH1zO
>>371
お、遂に来ましたか。
04/11/07 11:44:18ID:kfx8iaFp
オープニャ(゚∀゚)!!
04/11/07 12:01:25ID:TSCkRvvd
>>371
では早速ex7とlive8を人柱にしてみませう
375root▲ ★
垢版 |
04/11/07 14:46:44ID:???
live8/ex7 バージョンアップ完了。
これで問題なければ、他のサーバにも徐々にってかんじで。

live8
%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #2: Thu Nov 4 21:52:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64

ex7
%uname -a
FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #3: Thu Nov 4 21:51:36 PST 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
04/11/08 16:47:39ID:WD2hE2cd
今週末ぐらいまで問題発生しなければぼちぼちいけますかね

(ただし見習いさんあたりの号令次第で早まるかも知れんけど)
04/11/08 16:48:32ID:25mwJCWq
ごーれー ごれごれごれー♪
04/11/08 16:50:52ID:VVWNDBAU
早まりましたな。
379root▲ ★
垢版 |
04/11/09 02:21:10ID:???
何か「どーん」と来ると、仮死状態になるですね。< live8
こんなメッセージとともに。

ex7でも前に起きた(西部警察の時)し。
5.3-BETA2にして以降出ているので、、基本的に同じ癖を持っているみたい。

Limiting icmp unreach response from 667 to 200 packets/sec
Limiting icmp unreach response from 430 to 200 packets/sec
Limiting icmp unreach response from 307 to 200 packets/sec
Limiting icmp unreach response from 485 to 200 packets/sec
Limiting icmp unreach response from 237 to 200 packets/sec
Limiting icmp unreach response from 804 to 200 packets/sec
Limiting icmp unreach response from 667 to 200 packets/sec
Limiting icmp unreach response from 483 to 200 packets/sec
Limiting icmp unreach response from 249 to 200 packets/sec
Limiting icmp unreach response from 228 to 200 packets/sec
Limiting icmp unreach response from 236 to 200 packets/sec
Limiting icmp unreach response from 655 to 200 packets/sec
Limiting icmp unreach response from 1198 to 200 packets/sec
380root▲ ★
垢版 |
04/11/09 02:27:21ID:???
うーん。

2004/11/08 21:30:01 LA= 9:30PM up 1 day, 7:03, 0 users, load averages: 2.67, 2.73, 2.18
2004/11/08 21:40:00 LA= 9:40PM up 1 day, 7:13, 0 users, load averages: 54.95, 69.39, 37.19
2004/11/08 22:00:01 LA=10:00PM up 1 day, 7:33, 0 users, load averages: 1.12, 38.73, 58.44
2004/11/08 22:10:00 LA=10:10PM up 1 day, 7:43, 0 users, load averages: 0.93, 5.89, 29.24
2004/11/08 22:20:01 LA=10:20PM up 1 day, 7:53, 0 users, load averages: 0.61, 1.34, 14.70
2004/11/08 22:30:01 LA=10:30PM up 1 day, 8:03, 0 users, load averages: 8.22, 3.99, 8.94
2004/11/08 23:00:01 LA=11:00PM up 1 day, 8:33, 0 users, load averages: 662.45, 887.33, 840.68
2004/11/08 23:10:01 LA=11:10PM up 1 day, 8:43, 0 users, load averages: 0.66, 125.81, 423.08
2004/11/08 23:20:01 LA=11:20PM up 1 day, 8:53, 0 users, load averages: 0.39, 17.82, 211.69
2004/11/08 23:30:00 LA=11:30PM up 1 day, 9:03, 0 users, load averages: 2.36, 3.58, 104.58
2004/11/08 23:40:01 LA=11:40PM up 1 day, 9:13, 0 users, load averages: 2.52, 2.13, 52.17
2004/11/08 23:50:00 LA=11:50PM up 1 day, 9:23, 0 users, load averages: 0.48, 0.89, 26.29
381root▲ ★
垢版 |
04/11/09 02:35:22ID:???
LAがすごい勢いで上がる(600を超える)
システムが重くなり、無反応になる
そのまま数分〜10分ぐらい、戻ってこない

という状況になりますね。

ちゃんと、

maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).

と出ているので、プロセス数のリミッター(150)は、効いているはずだと思うんだけど。
382動け動けウゴウゴ2ちゃんねる
垢版 |
04/11/09 06:48:51ID:oON81fYG
>>381
live18,飛んでますがね・・・・
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況