peko作戦について語るスレです。
サーバロケーションPIEに関する話題もこちらで。
現在の主要なテーマはpeko/cobraおよびtigerサーバが
特定条件下における突然死の原因究明です。
9月にrootさんが現地へ渡米して作業するそうです。
<関連サイト>
レンタルサーバー maido3.com 2ちゃんねるの転送量: http://server.maido3.com/pie/
MRTGによる統計情報: http://mumumu.mu/mrtg/
2ちゃんねる/PINKちゃんねる 稼動中のサーバ一覧: http://mumumu.mu/serverlist.html
<運営板PINKちゃんねる関係>
【Project ama】PINKちゃんねる特化型サーバ構築作戦 Part2
http://qb5.2ch.net/test/read.cgi/operate/1082721809/l50
【PINKちゃんねる】新サーバ獲得会議☆3
http://qb5.2ch.net/test/read.cgi/operate/1080295660/l50
<携帯電話特化型サーバ構築作戦関係>
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2
http://qb5.2ch.net/test/read.cgi/operate/1088657713/l50
<前スレ>
【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part14
http://qb5.2ch.net/test/read.cgi/operate/1087666806/l50
【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part15
■ このスレッドは過去ログ倉庫に格納されています
1▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/08/21 15:04ID:hJLR4nfQ04/10/23 18:53:37ID:wTQO6Odm
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
04/10/23 19:02:28ID:ejfd13Jj
>283
アニメ中断の・・・
アニメ中断の・・・
04/10/23 19:21:05ID:NbLEHLUc
シャア専はex5だっけ?
04/10/23 19:23:47ID:wTQO6Odm
04/10/23 19:25:16ID:voEcPMmk
283 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 18:53:37 ID:wTQO6Odm
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
284 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 19:02:28 ID:ejfd13Jj
>283
アニメ中断の・・・
ん〜やっぱり突発的な実況には耐えられないか・・・>live18
ほかはボチボチ分散しているようです。
んが、live8はいつもどおりだなw
なんでも実況Jが出来たの知らないのかな。
あとなんでcomic5とgame8が負荷が高いんだろう(^^;;
284 動け動けウゴウゴ2ちゃんねる sage New! 04/10/23 19:02:28 ID:ejfd13Jj
>283
アニメ中断の・・・
04/10/23 19:28:00ID:voEcPMmk
誤爆スマソ
289ヾ(゚パ)ノ ◆f0.zuburi6
04/10/23 19:33:19ID:qwDmcLj3 (・∀・)ニヤニヤ
290root▲ ★
04/10/23 21:21:32ID:??? live8よりも、ex7でいい負荷試験ができたのかも。
04/10/24 22:28:05ID:yX9Kk8js
正式版来たんならlive16,17でも実験キボン
293動け動けウゴウゴ2ちゃんねる
04/10/24 22:59:07ID:NXVGMWzP 902ってどのような状況なんでしょか?
294留守番 ★
04/10/24 22:59:38ID:??? 902ってどのような状況なんでしょか?
04/10/24 23:02:07ID:JvyM8gxQ
296南アルプス ◆98YENoslbU
04/10/24 23:02:24ID:PlDS+h7o297留守番 ★
04/10/24 23:04:30ID:??? どもども
代わりに banana では代用できないんですかね?
代わりに banana では代用できないんですかね?
298じじぃ その4 ◆HETAREzfq.
04/10/24 23:13:04ID:DvlSaBWP299root▲ ★
04/10/24 23:34:51ID:???300留守番 ★
04/10/24 23:38:07ID:???301root▲ ★
04/10/24 23:47:33ID:??? >>300
なるほど、SumaはFCだから1台にステーションを2台接続できるかもしれないですね。
FCのSCSIカードとbananaサーバ1台っていうかんじですか。
FCのカードは今の902のやつと同じもの(QLogic 2300)でいける気がします。
なるほど、SumaはFCだから1台にステーションを2台接続できるかもしれないですね。
FCのSCSIカードとbananaサーバ1台っていうかんじですか。
FCのカードは今の902のやつと同じもの(QLogic 2300)でいける気がします。
GENERICからoption SMPがなくなりました。
SMPを使う場合は、
make buildkernel KERNCONF=SMP
make installkernel KERNCONF=SMP
とする必要があるみたいですね。
SMPを使う場合は、
make buildkernel KERNCONF=SMP
make installkernel KERNCONF=SMP
とする必要があるみたいですね。
303root▲ ★
04/10/25 00:08:10ID:??? live8でCVSup。
ex7は、、今重いからなぁ。
>>302
あ、もう書かれちゃった。
確かに、SMPがデフォルトではなくなってますね。
まあ、安全側に振ったということでしょう。
# おぐらけい、若いな。それよりゲストの若さに驚いたかも。
ex7は、、今重いからなぁ。
>>302
あ、もう書かれちゃった。
確かに、SMPがデフォルトではなくなってますね。
まあ、安全側に振ったということでしょう。
# おぐらけい、若いな。それよりゲストの若さに驚いたかも。
305じじぃ その4 ◆HETAREzfq.
04/10/25 00:14:27ID:9FARC6xf306root▲ ★
04/10/25 00:15:46ID:???308留守番 ★
04/10/25 00:20:34ID:??? >>306
ちと Jim さんに接続の方法を聞いてみたりしてみます
週明けになると思いますが、
root ★さんも JIm さんを捕まえたら
手配しちゃってくださいー
技術検証、まぁちっとは役に立つかも計画ですが、
ちと Jim さんに接続の方法を聞いてみたりしてみます
週明けになると思いますが、
root ★さんも JIm さんを捕まえたら
手配しちゃってくださいー
技術検証、まぁちっとは役に立つかも計画ですが、
311留守番 ★
04/10/25 00:34:05ID:??? うおっ
久しぶりにメールを見てみたら
10/21 にこんなメールが
Oyster902 is back on the rack.
It ran for 1 day at polywell with no errors.
It has had one extra fan installed. (Now 7 fans in it.)
and a new adaptec raid 1 card. lets see how it does for a few days.
Jim
久しぶりにメールを見てみたら
10/21 にこんなメールが
Oyster902 is back on the rack.
It ran for 1 day at polywell with no errors.
It has had one extra fan installed. (Now 7 fans in it.)
and a new adaptec raid 1 card. lets see how it does for a few days.
Jim
313外野ァァン
04/10/25 00:37:04ID:MCdBN7O3 さて問題です
今日は何日でしょう?
今日は何日でしょう?
04/10/25 00:38:47ID:x5S1WW9n
Jimさんが泣いています
315じじぃ その4 ◆HETAREzfq.
04/10/25 00:39:21ID:9FARC6xf316root▲ ★
04/10/25 00:45:29ID:??? Jimさんと連絡とれました。
今日午前中にPIEに行って(現地時間)チェックしてみるとのこと。
HWに問題がなければ、今日のうちには上がるでしょう。
Me (12:42 AM) :
Ok, wakatta. I will wait for 902 is back again.
Jim (12:42 AM) :
it will be back up today.
Me (12:43 AM) :
Ok, thank you.
Jim (12:43 AM) :
dou itashi mashite
今日午前中にPIEに行って(現地時間)チェックしてみるとのこと。
HWに問題がなければ、今日のうちには上がるでしょう。
Me (12:42 AM) :
Ok, wakatta. I will wait for 902 is back again.
Jim (12:42 AM) :
it will be back up today.
Me (12:43 AM) :
Ok, thank you.
Jim (12:43 AM) :
dou itashi mashite
FreeBSD 219.113.242.220 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Mon Oct 25 00:14:28 JST 2004 root@219.113.242.220:/usr/obj/usr/src/sys/SMP amd64
一足お先に、5.3R導入
一足お先に、5.3R導入
320じじぃ その4 ◆HETAREzfq.
04/10/25 00:49:00ID:9FARC6xf321root▲ ★
04/10/25 01:55:08ID:??? oyster901 = live8 を5.3Rに更新した。
%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Sun Oct 24 09:22:11 PDT 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #0: Sun Oct 24 09:22:11 PDT 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
322●
04/10/25 03:13:25ID:7+NLUN0J 902クル━━━━━(゚∀゚)━━━━━!?
323root▲ ★
04/10/25 03:24:42ID:??? tiger503 = ex7 も更新した。
他のサーバの更新は明日以降。
FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #1: Sun Oct 24 11:01:59 PDT 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
他のサーバの更新は明日以降。
FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #1: Sun Oct 24 11:01:59 PDT 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
324留守番 ★
04/10/25 14:56:55ID:??? 902 動いているようで、
bananaを一台追加予定、
だめだったら tiger を考えていたり、
bananaを一台追加予定、
だめだったら tiger を考えていたり、
04/10/25 15:52:17ID:ozAoMJCP
326留守番 ★
04/10/25 15:55:59ID:??? memoriesのバックアップ用 でーす
どのような方法があるのかわからないけど
902 が落ちたときに補完になれば、
どのような方法があるのかわからないけど
902 が落ちたときに補完になれば、
327▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/25 15:57:28ID:0PgI1yTk328▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/25 16:15:30ID:0PgI1yTk >>326
方法としてはc={c1/c2}同様にDNSラウンドロビンという手でいくのが妥当かと思います。
ただしこの方法だと902が落ちたときに相方のbananaに負荷が集中して結局落ちる可能性がありえます。
そんなんではバックアップの意味が無いわけで。。。。
他にいい方法ないでしょうかねぇ
方法としてはc={c1/c2}同様にDNSラウンドロビンという手でいくのが妥当かと思います。
ただしこの方法だと902が落ちたときに相方のbananaに負荷が集中して結局落ちる可能性がありえます。
そんなんではバックアップの意味が無いわけで。。。。
他にいい方法ないでしょうかねぇ
329root▲ ★
04/10/25 16:30:16ID:??? 902、RAID 1で構成したシステムディスクが片肺飛行状態になっているかも。
21日からネットワークに接続されていない状態で動いていた模様。
↓1行目はこないだのエラー。
Oct 18 02:48:08 <0.2> oyster902 kernel: aac0: **Monitor** NMI ISR: NMI_MEMORY_CONTROLLER_ERROR
Oct 21 03:14:03 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 1 more times>
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 21 03:14:51 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 4 more times>
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:1:0 returning error
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x28] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x2a] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Alarm Adapter Event -- turning Alarm On!
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Container 0 Drive 0:1:0 Failure
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 2 more times>
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 24 00:45:47 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Failover Container 0 no failover assigned
21日からネットワークに接続されていない状態で動いていた模様。
↓1行目はこないだのエラー。
Oct 18 02:48:08 <0.2> oyster902 kernel: aac0: **Monitor** NMI ISR: NMI_MEMORY_CONTROLLER_ERROR
Oct 21 03:14:03 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 1 more times>
Oct 21 03:14:30 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 21 03:14:51 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:30 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 4 more times>
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:1:0 returning error
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** SCSI bus reset issued on channel 0
Oct 24 00:45:32 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x28] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** ID(0:01:0) - Cmd[0x2a] failed (retries exhausted)
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Alarm Adapter Event -- turning Alarm On!
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Container 0 Drive 0:1:0 Failure
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** <...repeats 2 more times>
Oct 24 00:45:37 <0.2> oyster902 kernel: aac0: **Monitor** Drive 0:0:0 online on container 0:
Oct 24 00:45:47 <0.2> oyster902 kernel: aac0: **Monitor** Mirror Failover Container 0 no failover assigned
330▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/25 17:18:24ID:0PgI1yTk331root▲ ★
04/10/25 22:25:04ID:??? httpdのスロット数は増やしたいけど、
bbs.cgiの起動数は例えば同時に100個とかまでにしたい、とかいうのって、
設定で何とかならないんだろか。
bbs.cgiの起動数は例えば同時に100個とかまでにしたい、とかいうのって、
設定で何とかならないんだろか。
332▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/26 08:27:30ID:dLeygjNi >>331
mod_cgidsoが実装されれば容易に調整できそうなものですが。
mod_cgidsoが実装されれば容易に調整できそうなものですが。
333root▲ ★
04/10/26 10:38:09ID:??? live8が上がっていたのでhttpdの起動数にリミッターを入れました。(一時的に1024に上げていた)
live8 512
ex7 384
に設定。
また風邪を引いてしまったらしく症状がひどいため、今日はたぶんあまり見られないです。すまぬ。
live8 512
ex7 384
に設定。
また風邪を引いてしまったらしく症状がひどいため、今日はたぶんあまり見られないです。すまぬ。
04/10/26 11:05:45ID:dLeygjNi
04/10/26 11:23:09ID:S5v+kppX
04/10/26 12:45:45ID:3rTLsqu7
337root▲ ★
04/10/27 11:58:29ID:???04/10/27 13:07:34ID:sEaFoF8v
\ ショボーン /( ^∀^)ゲラゲラ
ショボーン \ (´・ω・`) /
(´・ω・`) \∧∧∧∧/∀`)=◯<´・ω・`>◯=(・
( つ旦O < な シ > ( )ショボーン
と_)_) < ョ > ∪∪
──────────< 悪 ボ >───────────
| |/( ´_ゝ`)\< │ > ( ´・ω・`)フー
| |. ∩∩ < 寒 ン > / 人
|ショボーン ̄ ̄ ̄ ̄/∨∨∨∨\ / \ \⌒i
(´・ω・`) /2人でショボーン \ | /\  ̄))
(∩∩)─── /(´・ω・`)人(´・ω・`\/ /| ̄|
/| ̄ ̄| カタカタ / ( ∩∩) (∩∩ )\/ ゝ__)
ショボーン \ (´・ω・`) /
(´・ω・`) \∧∧∧∧/∀`)=◯<´・ω・`>◯=(・
( つ旦O < な シ > ( )ショボーン
と_)_) < ョ > ∪∪
──────────< 悪 ボ >───────────
| |/( ´_ゝ`)\< │ > ( ´・ω・`)フー
| |. ∩∩ < 寒 ン > / 人
|ショボーン ̄ ̄ ̄ ̄/∨∨∨∨\ / \ \⌒i
(´・ω・`) /2人でショボーン \ | /\  ̄))
(∩∩)─── /(´・ω・`)人(´・ω・`\/ /| ̄|
/| ̄ ̄| カタカタ / ( ∩∩) (∩∩ )\/ ゝ__)
339root▲ ★
04/10/27 15:47:13ID:??? ex7を実験台に、KeepAliveありの設定を実験中。
同じ人がリロードするのには、このほうが負荷が低いかもしれないので。
同じ人がリロードするのには、このほうが負荷が低いかもしれないので。
04/10/27 16:45:55ID:eRmO9BsU
HTTP/1.1をまともに実装しているクライアントからは、
KeepAliveONのほうが、かける負荷はずっと少なくなります。
connect要求300回が、3回で済むようになる上、
apache側は、同一connectionでのリクエストは
同じプロセスそのまま再利用して処理するので。
で、クライアント側の待ち時間も、数倍違いが出ます(巡回時)。
正直なところ、個人的には全鯖KeepAliveON(タイムアウトは短くても)にして欲しいところです。
問題は、connectしたまま放置するクライアントの存在ですね。
IEは、force-no-varyに引っかかるので、必ず切断されますが
昔、比較的メジャーなクライアントの実装で
「リクエスト毎にHTTP/1.1コネクションを作成し、そのまま」
というのがあった気がします。
KeepAliveONのほうが、かける負荷はずっと少なくなります。
connect要求300回が、3回で済むようになる上、
apache側は、同一connectionでのリクエストは
同じプロセスそのまま再利用して処理するので。
で、クライアント側の待ち時間も、数倍違いが出ます(巡回時)。
正直なところ、個人的には全鯖KeepAliveON(タイムアウトは短くても)にして欲しいところです。
問題は、connectしたまま放置するクライアントの存在ですね。
IEは、force-no-varyに引っかかるので、必ず切断されますが
昔、比較的メジャーなクライアントの実装で
「リクエスト毎にHTTP/1.1コネクションを作成し、そのまま」
というのがあった気がします。
341root▲ ★
04/10/27 17:09:33ID:??? >>340
そうなんですよね。そんな気がして。
live8での実験の最中にKeepAliveをOffにしたわけですが、
少なくとも通常サーバでは、Onのほうがいい気がしたのです。
今はこうですね。このへんのパラメータチューンもしたほうがよさそう。
どうやるのがいいのかな。
KeepAlive On
MaxKeepAliveRequests 100
KeepAliveTimeout 10
ただ、携帯系では切ったほうがいいかも。
こんなかんじでいいんだっけか。
BrowserMatch "DoCoMo" nokeepalive
BrowserMatch "UP.Browser" nokeepalive
BrowserMatch "J-PHONE" nokeepalive
BrowserMatch "DDIPOCKET" nokeepalive
そうなんですよね。そんな気がして。
live8での実験の最中にKeepAliveをOffにしたわけですが、
少なくとも通常サーバでは、Onのほうがいい気がしたのです。
今はこうですね。このへんのパラメータチューンもしたほうがよさそう。
どうやるのがいいのかな。
KeepAlive On
MaxKeepAliveRequests 100
KeepAliveTimeout 10
ただ、携帯系では切ったほうがいいかも。
こんなかんじでいいんだっけか。
BrowserMatch "DoCoMo" nokeepalive
BrowserMatch "UP.Browser" nokeepalive
BrowserMatch "J-PHONE" nokeepalive
BrowserMatch "DDIPOCKET" nokeepalive
342root▲ ★
04/10/27 17:15:43ID:??? live8もKeepAliveありにしてみた。
343未承諾広告※ ◆TWARamEjuA
04/10/27 21:01:33ID:3tgsObzU >>341
http://httpd.apache.org/docs-2.0/mod/mod_setenvif.html#browsermatch
BrowserMatch regex [!]env-variable[=value] [[!]env-variable[=value]] ...
書式がかなり違うような(苦笑)
ひとまず、携帯機種には環境変数を設定して、Header を出力すると良いのかな?
BrowserMatch "DoCoMo|UP\.Browser|J-PHONE|DDIPOCKET" Mobile
Header onsuccess set Keep-Alive off Mobile
かなり自信なし(苦笑)
http://httpd.apache.org/docs-2.0/mod/mod_headers.html#header
http://httpd.apache.org/docs-2.0/mod/mod_setenvif.html#browsermatch
BrowserMatch regex [!]env-variable[=value] [[!]env-variable[=value]] ...
書式がかなり違うような(苦笑)
ひとまず、携帯機種には環境変数を設定して、Header を出力すると良いのかな?
BrowserMatch "DoCoMo|UP\.Browser|J-PHONE|DDIPOCKET" Mobile
Header onsuccess set Keep-Alive off Mobile
かなり自信なし(苦笑)
http://httpd.apache.org/docs-2.0/mod/mod_headers.html#header
344未承諾広告※ ◆TWARamEjuA
04/10/27 21:05:16ID:3tgsObzU >>343
あ、クライアントに Keep-Alive: off の返事をするだけはダメですよねm(_ _)m
物理的に切断を指示するのは、VirtualHost ごとなのでかなり難解かも、、、> Keepalive ディレクティブ
あ、クライアントに Keep-Alive: off の返事をするだけはダメですよねm(_ _)m
物理的に切断を指示するのは、VirtualHost ごとなのでかなり難解かも、、、> Keepalive ディレクティブ
なんかスケジュールが巻き戻ってリリース日がかなり伸びてますねぇ
FreeBSD 5.3 Press Release 5 Nov 2004
FreeBSD 5.3 Press Release 5 Nov 2004
346root▲ ★
04/10/31 01:38:00ID:???347root▲ ★
04/10/31 01:38:49ID:??? read.cgiにもこの制限当たってきちゃうわけだけど、
まぁ200なら、今のところこんなもんじゃないかなぁと。
まぁ200なら、今のところこんなもんじゃないかなぁと。
04/10/31 01:51:07ID:YSeeOoJh
夜遅くに乙です。
349root▲ ★
04/10/31 17:52:14ID:??? 出先から帰宅。
ex7、天皇賞の後重かった?
ex7、天皇賞の後重かった?
350桶屋
04/10/31 17:53:53ID:aYem5RJV 馬は見ていないからわからないですが、この辺にはなにもありません。
重い重い重い重い重い重い重い×25@運用情報
http://qb5.2ch.net/test/read.cgi/operate/1093497512/
ex7が重い重い重い重い重い重い重いtiger503
http://qb5.2ch.net/test/read.cgi/operate/1096837151/
重い重い重い重い重い重い重い×25@運用情報
http://qb5.2ch.net/test/read.cgi/operate/1093497512/
ex7が重い重い重い重い重い重い重いtiger503
http://qb5.2ch.net/test/read.cgi/operate/1096837151/
351root▲ ★
04/10/31 18:03:43ID:??? >>350
どうもです。
システム観察的には、LA=80ぐらいになったみたい。 (http://ch2.ath.cx/load/ex7.html)
しかし、内部でとってるApacheのステータスログを見る限り、
システムはまだ余裕たっぷりだったように見えます。
なかなか、たのもしいなと。
どうもです。
システム観察的には、LA=80ぐらいになったみたい。 (http://ch2.ath.cx/load/ex7.html)
しかし、内部でとってるApacheのステータスログを見る限り、
システムはまだ余裕たっぷりだったように見えます。
なかなか、たのもしいなと。
352root▲ ★
04/10/31 18:09:13ID:??? http://sv2ch.baila6.jp/server.cgi?server=ex7.2ch.net
負荷量的には昨日のうp祭り @ news4vipの方が多かったと(頂上は同じぐらいか)。
つまり、女神降臨 > 天皇賞 だったということかぁ。
でも、両方同時には来ないでほしいなと。
負荷量的には昨日のうp祭り @ news4vipの方が多かったと(頂上は同じぐらいか)。
つまり、女神降臨 > 天皇賞 だったということかぁ。
でも、両方同時には来ないでほしいなと。
353▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/10/31 18:14:40ID:JM2oKVyC354桶屋
04/10/31 18:14:55ID:aYem5RJV >でも、両方同時には来ないでほしいなと。
心情的には理解できますけど、
確率的に考えてもそこは想定しない。もしあったら、潔く落ちましょう。という割り切りでいいんじゃないでしょうか?
気を楽にー、気を楽にー♪
心情的には理解できますけど、
確率的に考えてもそこは想定しない。もしあったら、潔く落ちましょう。という割り切りでいいんじゃないでしょうか?
気を楽にー、気を楽にー♪
355root▲ ★
04/10/31 18:16:16ID:??? 死亡確定 @ newsplusは200超えかぁ。
http://sv2ch.baila6.jp/server.cgi?server=news19.2ch.net
http://sv2ch.baila6.jp/server.cgi?server=news19.2ch.net
356root▲ ★
04/10/31 18:19:08ID:??? >>354
どもです。気楽にやってるですよ。
両方来たらキタで、それもまたイベントかと。
ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、
つまり上モノ(システムやApacheの調整とか板セッティングとか)を遠慮なくいろいろといじれそうで、
相当わくわくしていたりして。
どもです。気楽にやってるですよ。
両方来たらキタで、それもまたイベントかと。
ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、
つまり上モノ(システムやApacheの調整とか板セッティングとか)を遠慮なくいろいろといじれそうで、
相当わくわくしていたりして。
357桶屋
04/11/01 01:19:48ID:VlZ0obMn >両方来たらキタで、それもまたイベントかと。
さすがに慣れているというか……。(;^ ^
実社会でもそうですけど、これくらいポジティブシンキングできれば、ストレスも減らせて楽しんで活動できます。
>ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、(ry
ネットワーク周りはPIE移転プロジェクトでほぼ解決して、今度5.3RによってOSが安定して、、、
下位のレイヤーが固まってきていますね。しばらくいじって来なかったところに、メスを入れられそうですね。
さすがに慣れているというか……。(;^ ^
実社会でもそうですけど、これくらいポジティブシンキングできれば、ストレスも減らせて楽しんで活動できます。
>ようやく腰下(OS)が安定になりそう = 気兼ねなく遊べそうになって、(ry
ネットワーク周りはPIE移転プロジェクトでほぼ解決して、今度5.3RによってOSが安定して、、、
下位のレイヤーが固まってきていますね。しばらくいじって来なかったところに、メスを入れられそうですね。
04/11/01 01:21:55ID:jhJvkW84
地雷が埋っていませんように(‐人‐)
04/11/01 03:47:42ID:pmh58mtv
それ以前に
女神スレって削除対象でないの?( ;´Д`)
女神スレって削除対象でないの?( ;´Д`)
04/11/01 03:57:31ID:hGkrmlU7
うむbbspinkでやるべきだね
04/11/01 06:52:21ID:Z+9bN7k/
362root▲ ★
04/11/01 16:28:27ID:??? live8/ex7を5.3-RC2に更新。
%uname -a
FreeBSD oyster901.maido3.com 5.3-RC2 FreeBSD 5.3-RC2 #1: Sun Oct 31 09:27:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
というわけでこれの効果が出ると、うれしいなと。
Merge tcp_output:1.104 from HEAD to RELENG_5_3:
date: 2004/10/30 12:02:50; author: rwatson; state: Exp; lines: +2 -2
Correct a bug in TCP SACK that could result in wedging of the TCP stack
under high load: only set function state to loop and continuing sending
if there is no data left to send.
RELENG_5_3 candidate.
Feet provided: Peter Losher <Peter underscore Losher at isc dot org>
Diagnosed by: Aniel Hartmeier <daniel at benzedrine dot cx>
Submitted by: mohan <mohans at yahoo-inc dot com>
Approved by:re (kensmith)
%uname -a
FreeBSD oyster901.maido3.com 5.3-RC2 FreeBSD 5.3-RC2 #1: Sun Oct 31 09:27:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
というわけでこれの効果が出ると、うれしいなと。
Merge tcp_output:1.104 from HEAD to RELENG_5_3:
date: 2004/10/30 12:02:50; author: rwatson; state: Exp; lines: +2 -2
Correct a bug in TCP SACK that could result in wedging of the TCP stack
under high load: only set function state to loop and continuing sending
if there is no data left to send.
RELENG_5_3 candidate.
Feet provided: Peter Losher <Peter underscore Losher at isc dot org>
Diagnosed by: Aniel Hartmeier <daniel at benzedrine dot cx>
Submitted by: mohan <mohans at yahoo-inc dot com>
Approved by:re (kensmith)
363root▲ ★
04/11/01 16:46:27ID:??? AMD64ではlibcも更新した。
http://www.freebsd.org/cgi/cvsweb.cgi/src/lib/libc/amd64/sys/brk.S
Revision 1.12.8.1 / (download) - annotate - [select for diffs], Sat Oct 30 00:08:46 2004 UTC (2 days, 7 hours ago) by peter
Branch: RELENG_5_3
CVS Tags: RELENG_5_3_0_RELEASE
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored) next main 1.13 (colored)
MFC: rev 1.13 fix brk(3) on amd64
(I believe there will be a tag slide for this)
Approved by: re (kensmith)
(中略)
Revision 1.13 / (download) - annotate - [select for diffs], Wed Oct 27 17:11:43 2004 UTC (4 days, 14 hours ago) by peter
Branch: MAIN
CVS Tags: HEAD
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored)
Fix brk(3). The stack was unbalanced when we jumped to cerror. Oops!
This causes nasty things like SEGV or a cpu spin when we return.
Submitted by: "James R. Van Artsalen" <james@jrv.org>
http://www.freebsd.org/cgi/cvsweb.cgi/src/lib/libc/amd64/sys/brk.S
Revision 1.12.8.1 / (download) - annotate - [select for diffs], Sat Oct 30 00:08:46 2004 UTC (2 days, 7 hours ago) by peter
Branch: RELENG_5_3
CVS Tags: RELENG_5_3_0_RELEASE
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored) next main 1.13 (colored)
MFC: rev 1.13 fix brk(3) on amd64
(I believe there will be a tag slide for this)
Approved by: re (kensmith)
(中略)
Revision 1.13 / (download) - annotate - [select for diffs], Wed Oct 27 17:11:43 2004 UTC (4 days, 14 hours ago) by peter
Branch: MAIN
CVS Tags: HEAD
Changes since 1.12: +1 -0 lines
Diff to previous 1.12 (colored)
Fix brk(3). The stack was unbalanced when we jumped to cerror. Oops!
This causes nasty things like SEGV or a cpu spin when we return.
Submitted by: "James R. Van Artsalen" <james@jrv.org>
04/11/01 23:48:50ID:paSHEJ1f
root氏お疲れ様です。お体のほうはもう大丈夫なのかな?
365root▲ ★
04/11/02 01:06:38ID:??? >>364
ぼちぼちすね。
今週末からまた1週間ばかり※国方面に出張です。
この後ちょっぴり修○すると、無事に50,000ポイントということで。
# ex7はバージョンアップ早々いきなり負荷試験だったようで。
ぼちぼちすね。
今週末からまた1週間ばかり※国方面に出張です。
この後ちょっぴり修○すると、無事に50,000ポイントということで。
# ex7はバージョンアップ早々いきなり負荷試験だったようで。
366▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/11/02 09:39:43ID:f6etdzvO367root▲ ★
04/11/03 22:08:12ID:??? RLimitNPROC を 200 から 150 にしてみた。< live8, ex7
超高負荷時に瀕死になる比率が下がるといいなと。
超高負荷時に瀕死になる比率が下がるといいなと。
368root▲ ★
04/11/05 11:49:48ID:??? きたのかな。
http://www.freebsd.org/cgi/cvsweb.cgi/src/sys/conf/newvers.sh.diff?r1=1.62.2.15.2.4&r2=1.62.2.15.2.5
===================================================================
RCS file: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v
retrieving revision 1.62.2.15.2.4
retrieving revision 1.62.2.15.2.5
diff -u -p -r1.62.2.15.2.4 -r1.62.2.15.2.5
--- src/sys/conf/newvers.sh2004/10/30 22:07:061.62.2.15.2.4
+++ src/sys/conf/newvers.sh2004/11/04 18:51:301.62.2.15.2.5
@@ -28,11 +28,11 @@
# SUCH DAMAGE.
#
#@(#)newvers.sh8.1 (Berkeley) 4/20/94
-# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.4 2004/10/30 22:07:06 kensmith Exp $
+# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.5 2004/11/04 18:51:30 scottl Exp $
TYPE="FreeBSD"
REVISION="5.3"
-BRANCH="RC2"
+BRANCH="RELEASE"
RELEASE="${REVISION}-${BRANCH}"
VERSION="${TYPE} ${RELEASE}"
http://www.freebsd.org/cgi/cvsweb.cgi/src/sys/conf/newvers.sh.diff?r1=1.62.2.15.2.4&r2=1.62.2.15.2.5
===================================================================
RCS file: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v
retrieving revision 1.62.2.15.2.4
retrieving revision 1.62.2.15.2.5
diff -u -p -r1.62.2.15.2.4 -r1.62.2.15.2.5
--- src/sys/conf/newvers.sh2004/10/30 22:07:061.62.2.15.2.4
+++ src/sys/conf/newvers.sh2004/11/04 18:51:301.62.2.15.2.5
@@ -28,11 +28,11 @@
# SUCH DAMAGE.
#
#@(#)newvers.sh8.1 (Berkeley) 4/20/94
-# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.4 2004/10/30 22:07:06 kensmith Exp $
+# $FreeBSD: /usr/local/www/cvsroot/FreeBSD/src/sys/conf/newvers.sh,v 1.62.2.15.2.5 2004/11/04 18:51:30 scottl Exp $
TYPE="FreeBSD"
REVISION="5.3"
-BRANCH="RC2"
+BRANCH="RELEASE"
RELEASE="${REVISION}-${BRANCH}"
VERSION="${TYPE} ${RELEASE}"
04/11/05 12:32:07ID:0hLvehPf
reicha.netの#FreeBSDによると来たらしい。
370root▲ ★
04/11/05 13:57:55ID:??? live8とex7で、make buildworldとmake buildkernelぐらいしておくかな。
371root▲ ★
04/11/07 10:02:33ID:??? http://lists.freebsd.org/pipermail/freebsd-announce/2004-November/000964.html
━(゚∀゚)━( ゚∀)━( ゚)━( )━( )━(゚ )━(∀゚ )━(゚∀゚)━━
━(゚∀゚)━( ゚∀)━( ゚)━( )━( )━(゚ )━(∀゚ )━(゚∀゚)━━
04/11/07 11:44:18ID:kfx8iaFp
オープニャ(゚∀゚)!!
374▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/11/07 12:01:25ID:TSCkRvvd >>371
では早速ex7とlive8を人柱にしてみませう
では早速ex7とlive8を人柱にしてみませう
375root▲ ★
04/11/07 14:46:44ID:??? live8/ex7 バージョンアップ完了。
これで問題なければ、他のサーバにも徐々にってかんじで。
live8
%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #2: Thu Nov 4 21:52:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
ex7
%uname -a
FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #3: Thu Nov 4 21:51:36 PST 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
これで問題なければ、他のサーバにも徐々にってかんじで。
live8
%uname -a
FreeBSD oyster901.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #2: Thu Nov 4 21:52:19 PST 2004 root@oyster901.maido3.com:/usr/obj/usr/src/sys/AMD64_COBRA_53 amd64
ex7
%uname -a
FreeBSD tiger503.maido3.com 5.3-RELEASE FreeBSD 5.3-RELEASE #3: Thu Nov 4 21:51:36 PST 2004 root@tiger503.maido3.com:/usr/obj/var/src/sys/I386_TIGER_53 i386
376▲:/usr/local/bin/ch2 -o i686 ◆P8fXJj6wwo
04/11/08 16:47:39ID:WD2hE2cd 今週末ぐらいまで問題発生しなければぼちぼちいけますかね
(ただし見習いさんあたりの号令次第で早まるかも知れんけど)
(ただし見習いさんあたりの号令次第で早まるかも知れんけど)
04/11/08 16:50:52ID:VVWNDBAU
早まりましたな。
379root▲ ★
04/11/09 02:21:10ID:??? 何か「どーん」と来ると、仮死状態になるですね。< live8
こんなメッセージとともに。
ex7でも前に起きた(西部警察の時)し。
5.3-BETA2にして以降出ているので、、基本的に同じ癖を持っているみたい。
Limiting icmp unreach response from 667 to 200 packets/sec
Limiting icmp unreach response from 430 to 200 packets/sec
Limiting icmp unreach response from 307 to 200 packets/sec
Limiting icmp unreach response from 485 to 200 packets/sec
Limiting icmp unreach response from 237 to 200 packets/sec
Limiting icmp unreach response from 804 to 200 packets/sec
Limiting icmp unreach response from 667 to 200 packets/sec
Limiting icmp unreach response from 483 to 200 packets/sec
Limiting icmp unreach response from 249 to 200 packets/sec
Limiting icmp unreach response from 228 to 200 packets/sec
Limiting icmp unreach response from 236 to 200 packets/sec
Limiting icmp unreach response from 655 to 200 packets/sec
Limiting icmp unreach response from 1198 to 200 packets/sec
こんなメッセージとともに。
ex7でも前に起きた(西部警察の時)し。
5.3-BETA2にして以降出ているので、、基本的に同じ癖を持っているみたい。
Limiting icmp unreach response from 667 to 200 packets/sec
Limiting icmp unreach response from 430 to 200 packets/sec
Limiting icmp unreach response from 307 to 200 packets/sec
Limiting icmp unreach response from 485 to 200 packets/sec
Limiting icmp unreach response from 237 to 200 packets/sec
Limiting icmp unreach response from 804 to 200 packets/sec
Limiting icmp unreach response from 667 to 200 packets/sec
Limiting icmp unreach response from 483 to 200 packets/sec
Limiting icmp unreach response from 249 to 200 packets/sec
Limiting icmp unreach response from 228 to 200 packets/sec
Limiting icmp unreach response from 236 to 200 packets/sec
Limiting icmp unreach response from 655 to 200 packets/sec
Limiting icmp unreach response from 1198 to 200 packets/sec
380root▲ ★
04/11/09 02:27:21ID:??? うーん。
2004/11/08 21:30:01 LA= 9:30PM up 1 day, 7:03, 0 users, load averages: 2.67, 2.73, 2.18
2004/11/08 21:40:00 LA= 9:40PM up 1 day, 7:13, 0 users, load averages: 54.95, 69.39, 37.19
2004/11/08 22:00:01 LA=10:00PM up 1 day, 7:33, 0 users, load averages: 1.12, 38.73, 58.44
2004/11/08 22:10:00 LA=10:10PM up 1 day, 7:43, 0 users, load averages: 0.93, 5.89, 29.24
2004/11/08 22:20:01 LA=10:20PM up 1 day, 7:53, 0 users, load averages: 0.61, 1.34, 14.70
2004/11/08 22:30:01 LA=10:30PM up 1 day, 8:03, 0 users, load averages: 8.22, 3.99, 8.94
2004/11/08 23:00:01 LA=11:00PM up 1 day, 8:33, 0 users, load averages: 662.45, 887.33, 840.68
2004/11/08 23:10:01 LA=11:10PM up 1 day, 8:43, 0 users, load averages: 0.66, 125.81, 423.08
2004/11/08 23:20:01 LA=11:20PM up 1 day, 8:53, 0 users, load averages: 0.39, 17.82, 211.69
2004/11/08 23:30:00 LA=11:30PM up 1 day, 9:03, 0 users, load averages: 2.36, 3.58, 104.58
2004/11/08 23:40:01 LA=11:40PM up 1 day, 9:13, 0 users, load averages: 2.52, 2.13, 52.17
2004/11/08 23:50:00 LA=11:50PM up 1 day, 9:23, 0 users, load averages: 0.48, 0.89, 26.29
2004/11/08 21:30:01 LA= 9:30PM up 1 day, 7:03, 0 users, load averages: 2.67, 2.73, 2.18
2004/11/08 21:40:00 LA= 9:40PM up 1 day, 7:13, 0 users, load averages: 54.95, 69.39, 37.19
2004/11/08 22:00:01 LA=10:00PM up 1 day, 7:33, 0 users, load averages: 1.12, 38.73, 58.44
2004/11/08 22:10:00 LA=10:10PM up 1 day, 7:43, 0 users, load averages: 0.93, 5.89, 29.24
2004/11/08 22:20:01 LA=10:20PM up 1 day, 7:53, 0 users, load averages: 0.61, 1.34, 14.70
2004/11/08 22:30:01 LA=10:30PM up 1 day, 8:03, 0 users, load averages: 8.22, 3.99, 8.94
2004/11/08 23:00:01 LA=11:00PM up 1 day, 8:33, 0 users, load averages: 662.45, 887.33, 840.68
2004/11/08 23:10:01 LA=11:10PM up 1 day, 8:43, 0 users, load averages: 0.66, 125.81, 423.08
2004/11/08 23:20:01 LA=11:20PM up 1 day, 8:53, 0 users, load averages: 0.39, 17.82, 211.69
2004/11/08 23:30:00 LA=11:30PM up 1 day, 9:03, 0 users, load averages: 2.36, 3.58, 104.58
2004/11/08 23:40:01 LA=11:40PM up 1 day, 9:13, 0 users, load averages: 2.52, 2.13, 52.17
2004/11/08 23:50:00 LA=11:50PM up 1 day, 9:23, 0 users, load averages: 0.48, 0.89, 26.29
381root▲ ★
04/11/09 02:35:22ID:??? LAがすごい勢いで上がる(600を超える)
システムが重くなり、無反応になる
そのまま数分〜10分ぐらい、戻ってこない
という状況になりますね。
ちゃんと、
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
と出ているので、プロセス数のリミッター(150)は、効いているはずだと思うんだけど。
システムが重くなり、無反応になる
そのまま数分〜10分ぐらい、戻ってこない
という状況になりますね。
ちゃんと、
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
maxproc limit exceeded by uid 2001, please see tuning(7) and login.conf(5).
と出ているので、プロセス数のリミッター(150)は、効いているはずだと思うんだけど。
382動け動けウゴウゴ2ちゃんねる
04/11/09 06:48:51ID:oON81fYG >>381
live18,飛んでますがね・・・・
live18,飛んでますがね・・・・
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【文春】石橋貴明がフジ女性社員を下半身露出で襲った!《第三者委の調査を拒否》★3 [Ailuropoda melanoleuca★]
- 【文春】石橋貴明がフジ女性社員を下半身露出で襲った!《第三者委の調査を拒否》★4 [Ailuropoda melanoleuca★]
- トランプ政権「AppleはiPhoneを米国内で製造できる」 ★3 [Hitzeschleier★]
- トランプ関税対応で自公内に大型給付求める動き…一律3万円案浮上、減税求める声も ★2 [ぐれ★]
- 広末涼子容疑者、ローキック数発を女性看護師に 逮捕時は「暴れることなく応じていた」 [ネギうどん★]
- 日経平均1600円超安 中国に104%関税、ファナック直撃 [蚤の市★]
- トランプ政権さん、外国政府が所有する米国債の没収を検討 より低金利の国債と交換へ [175344491]
- 【国際】トランプ米大統領「関税政策は政治的な勝利だ。これで中間選挙にも勝つる」 [354616885]
- トランプ、米国株保有の外国人に課税かwww [469534301]
- ▶シンプルにセックスしたいホロメンは?
- 【緊急】今すぐNISA損切りしろ!!!!!!!!!!!!!!!!!!!!! [458340425]
- Microsoft、中国企業の「Office365」を一斉停止、エクセルやパワポやTeamsなど使えなくなりパニックに [422186189]