日増しに増加する携帯からのアクセス。
かつて、羨ブラが生まれたように何かが生まれないと
ならない気がする。
たぶん解決策は、時間を売って空間を買うだと思うけど
いろいろ考察して、次の一手を決めようかと、
Love Affair 作戦。
Part2 大黒埠頭
前スレ
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part1
http://qb5.2ch.net/test/read.cgi/operate/1075887465/
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2
■ このスレッドは過去ログ倉庫に格納されています
1FOX ★
04/07/01 13:55ID:??? 将来的に/i/index.htmlは消すのかな?そうだと>>622は無意味か。
04/07/23 21:45ID:KDqYm/az
>>612の質問は徹底的に無視ですか、、、
04/07/23 21:58ID:U79hXkKH
まさにその話をしているような?
04/07/23 22:03ID:KDqYm/az
大変失礼しました
04/07/23 22:05ID:99RfAXCw
既にr.i再開してますよ、この板。
630動け動けウゴウゴ2ちゃんねる
04/07/23 22:54ID:99RfAXCw c-docomo不思議な挙動しますね。120delayがうまく機能してないような。
・立ったばかりのスレで2get等のカキコはdelay無視で即反映
・カキコが少ないスレは120以上のdelayがある。
subject.txtの不釣り合いはどうしようもないところか。
・立ったばかりのスレで2get等のカキコはdelay無視で即反映
・カキコが少ないスレは120以上のdelayがある。
subject.txtの不釣り合いはどうしようもないところか。
631root ★
04/07/24 00:11ID:??? squidのキャッシュヒット率が下がってるみたい。
設定の問題か。ちょっとblackgoatの様子をみてこよう。
設定の問題か。ちょっとblackgoatの様子をみてこよう。
632root ★
04/07/24 00:21ID:??? ディスクキャッシュを少し増やしてみた。
04/07/24 00:29ID:ViNqpLra
そういえばリバースプロクシのsquid.confの設定ってどうなってます?
自分は
cache_replacement_policy heap GDSF
memory_replacement_policy heap LFUDA
cache_dir null /tmp
とかにしてる。
自分は
cache_replacement_policy heap GDSF
memory_replacement_policy heap LFUDA
cache_dir null /tmp
とかにしてる。
634root ★
04/07/24 00:31ID:??? squidの設定はあんまりまじめに詰めてないです。見てみるか。
635root ★
04/07/24 00:38ID:??? blackgoatのsquidはリバースじゃなくて普通のだから、cachr_dir nullはちょっと。
cache_replacement_policy と memory_replacement_policy はデフォルトです。
squidのリバースプロキシ機能は今のところ使ってないすね。
ロードバランシングはpoundを使用。
担当を3つに分けてからはそれなりにうまくいってるみたい。
cache_replacement_policy と memory_replacement_policy はデフォルトです。
squidのリバースプロキシ機能は今のところ使ってないすね。
ロードバランシングはpoundを使用。
担当を3つに分けてからはそれなりにうまくいってるみたい。
636root ★
04/07/24 00:47ID:??? あんまりかわんないなぁ。
1090597580.673 10385 192.168.0.101 TCP_SWAPFAIL_MISS/200 72252 GET http://hobby5.2ch.net/drama/dat/1083775457.dat - DIRECT/206.223.150.10 text/plain
1090597580.673 10082 192.168.0.101 TCP_SWAPFAIL_MISS/200 66239 GET http://game7.2ch.net/ogame/dat/1090506363.dat - DIRECT/206.223.151.135 text/plain
がたくさん出てる。
1090597580.673 10385 192.168.0.101 TCP_SWAPFAIL_MISS/200 72252 GET http://hobby5.2ch.net/drama/dat/1083775457.dat - DIRECT/206.223.150.10 text/plain
1090597580.673 10082 192.168.0.101 TCP_SWAPFAIL_MISS/200 66239 GET http://game7.2ch.net/ogame/dat/1090506363.dat - DIRECT/206.223.151.135 text/plain
がたくさん出てる。
04/07/24 02:47ID:ViNqpLra
だったらcache_dir diskdのほうがヨサゲ。
Squidの開発者のベンチマークでもdiskdが桁外れに速いので推奨している感じ。
memory_replacement_policyについてはちょっと前のBSD Magazineでheap LFUDAを推奨してた。
Squidの開発者のベンチマークでもdiskdが桁外れに速いので推奨している感じ。
memory_replacement_policyについてはちょっと前のBSD Magazineでheap LFUDAを推奨してた。
638root ★
04/07/24 02:56ID:???04/07/24 03:04ID:ViNqpLra
高負荷時にGENERICでdiskdが死ぬのは
http://www.squid-cache.org/Doc/FAQ/FAQ-22.html#ss22.6
あたりを参照してみてください。でもちょっと数値は古いのでチューニングする余地有り。
あと
ttp://www.fkimura.com/squid0.html
とか。
http://pc5.2ch.net/test/read.cgi/unix/1034236482/228
とか。
http://www.squid-cache.org/Doc/FAQ/FAQ-22.html#ss22.6
あたりを参照してみてください。でもちょっと数値は古いのでチューニングする余地有り。
あと
ttp://www.fkimura.com/squid0.html
とか。
http://pc5.2ch.net/test/read.cgi/unix/1034236482/228
とか。
640動け動けウゴウゴ2ちゃんねる
04/07/24 14:02ID:BybRJW1s いまのところc-docomo安定してますね。ただ、まもなく16時。トラブル頻発の時間帯。
http://ch2.ath.cx/load/images/cedf97d7.png
c-docomo2
http://ch2.ath.cx/load/images/cedf97d2.png
c-docomo3
http://ch2.ath.cx/load/images/cedf9691.png
c-others1
c-docomo2
http://ch2.ath.cx/load/images/cedf97d2.png
c-docomo3
http://ch2.ath.cx/load/images/cedf9691.png
c-others1
643FOX ★
04/07/24 15:14ID:???644root ★
04/07/24 15:31ID:??? >>643
>>594 にあるように、ロードバランサのプログラム(pound)が
それぞれの一番若い番号で動いてるからすね。
今、
携帯──c-docomo (代表)
├c-docomo2 (実処理1)
└c-docomo3 (実処理2)
となっています(実体はc-docomo=c-docomo2)。
で、
携帯─2─c-docomo (代表)
├1─c-docomo2 (実処理1)
└1─c-docomo3 (実処理2)
というふうに処理していますが、c-docomo⇔c-docomo2の処理は同一ホストなので(外に出ない)、
外から見える転送量としては、
携帯⇔c-docomoの部分の2
c-docomo⇔c-docomo3の部分の1
が見えるわけです。
>>594 にあるように、ロードバランサのプログラム(pound)が
それぞれの一番若い番号で動いてるからすね。
今、
携帯──c-docomo (代表)
├c-docomo2 (実処理1)
└c-docomo3 (実処理2)
となっています(実体はc-docomo=c-docomo2)。
で、
携帯─2─c-docomo (代表)
├1─c-docomo2 (実処理1)
└1─c-docomo3 (実処理2)
というふうに処理していますが、c-docomo⇔c-docomo2の処理は同一ホストなので(外に出ない)、
外から見える転送量としては、
携帯⇔c-docomoの部分の2
c-docomo⇔c-docomo3の部分の1
が見えるわけです。
645FOX ★
04/07/24 15:38ID:??? なるほどですー
も一つ、別件ですが
現在 c.2ch.net での bbspink の扱いはどうなっているのでしょうか?
上位レイヤーからの要請はたぶん c.2ch.net と bbspink の完全切り離し
ですので、c.2ch.net では bbspink は扱わない方向での作業になると思います
bbspink は当面、従来どおりの r.i p.i で、
も一つ、別件ですが
現在 c.2ch.net での bbspink の扱いはどうなっているのでしょうか?
上位レイヤーからの要請はたぶん c.2ch.net と bbspink の完全切り離し
ですので、c.2ch.net では bbspink は扱わない方向での作業になると思います
bbspink は当面、従来どおりの r.i p.i で、
04/07/24 16:14ID:DogzzLwn
>>645
なんと。
なんと。
04/07/24 16:23ID:STF0/r63
うーむ。
今現在BBSPINKには携帯用トップページがないから
2chから切られたらかなりかわいそうかも。
今現在BBSPINKには携帯用トップページがないから
2chから切られたらかなりかわいそうかも。
>>645
んじゃ、bbspinkはc.2ch.netから消しときま〜す
んじゃ、bbspinkはc.2ch.netから消しときま〜す
>>645
そのうち、c.bbspink.comを作る方向なのかな?
そのうち、c.bbspink.comを作る方向なのかな?
>>650-651
大人の時間は一旦復活
このあたりの人にちょっと投げかけてみます。
【Project ama】PINKちゃんねる特化型サーバ構築作戦 Part2
http://qb5.2ch.net/test/read.cgi/operate/1082721809/
大人の時間は一旦復活
このあたりの人にちょっと投げかけてみます。
【Project ama】PINKちゃんねる特化型サーバ構築作戦 Part2
http://qb5.2ch.net/test/read.cgi/operate/1082721809/
654マァヴ ◆jxAYUMI09s @マァヴ ★
04/07/24 18:52ID:??? 上位レイヤーというのはネットワークのレイヤーのことですな(^_^;)
この場合第9層かな?
この場合第9層かな?
04/07/24 18:54ID:dn/okLjQ
2ch外のサイトの閲覧に2chのリソースを使用することとかが問題になるのかな?
04/07/24 19:04ID:Kd0S2eN5
>第9層 ポリティクス層 ネット上の問題を政治的に整備 各国の法整備
ここか、、
ここか、、
04/07/24 19:26ID:dn/okLjQ
そういえばまちBBSの扱いはどうなのかな。
amaの方にも書いたけど。
私家メニューでの対応に問題がなければ、c→p.iのリンクで個人的には問題ないと。
でもこうなると、それこそi.bbspink.comが急務ですな、、
# まちBBSも対応打ち切りだろねぇ、
私家メニューでの対応に問題がなければ、c→p.iのリンクで個人的には問題ないと。
でもこうなると、それこそi.bbspink.comが急務ですな、、
# まちBBSも対応打ち切りだろねぇ、
あ、この場合の9層って「ネットワークポリシー」とか「サイトポリシー」といったものだと思う、
つまり2chでいうと「ひ(ryの意思」かな、
# 公権力が絡んでたらそれこそガクブル(AAry
つまり2chでいうと「ひ(ryの意思」かな、
# 公権力が絡んでたらそれこそガクブル(AAry
04/07/24 21:04ID:AStSgfiu
04/07/24 22:27ID:R/LNfuHc
>>661
これかな?>ひ(ryの意思
709 名前:ひろゆき@どうやら管理人 ★[] 投稿日:04/02/01 12:03 ID:???
エロ系はその気になれば、それなりに回すことも出来るだろうけど、
おいらにやる気もないし、仕事人さんも望まないし、
Jimもそれを望んでない気がするのですね。
【PINKちゃんねる】 新サーバ獲得会議
http://qb3.2ch.net/test/read.cgi/operate/1069071468/709
これかな?>ひ(ryの意思
709 名前:ひろゆき@どうやら管理人 ★[] 投稿日:04/02/01 12:03 ID:???
エロ系はその気になれば、それなりに回すことも出来るだろうけど、
おいらにやる気もないし、仕事人さんも望まないし、
Jimもそれを望んでない気がするのですね。
【PINKちゃんねる】 新サーバ獲得会議
http://qb3.2ch.net/test/read.cgi/operate/1069071468/709
桃色系は、ここ数ヶ月でかなり状況が動いている気がするのですよ。
トップページがきちんと整理されたり、広告掲載の仕組みができたり、
2ちゃんねるのインフラに依存してないヘッドラインができたり、etc.
ということでたぶん、>>663 の状況も少しずつ変わりつつあるのではないかしら。
トップページがきちんと整理されたり、広告掲載の仕組みができたり、
2ちゃんねるのインフラに依存してないヘッドラインができたり、etc.
ということでたぶん、>>663 の状況も少しずつ変わりつつあるのではないかしら。
666proxy109.docomo.ne.jp
04/07/25 10:02ID:ACs8Qnba delayがうまく機能してませんね。120min以下もあれば1時間更新されなかったり。
ラジオ実況カキコんだら1時間以上更新されてないや
ラジオ実況カキコんだら1時間以上更新されてないや
04/07/25 11:21ID:ACs8Qnba
delayの動きの謎がちょいとわかったかも。
120delayは実行されてない悪寒。そのかわり前回カキコから今回カキコまでの
間隔分がまるまるdelayとして加算されてる感じがする。
こうだとすると2getや流れの早いスレで120delayが無視され、閑散スレで反映が遅いのも
納得がいく感じ。
なぜそうなるかはわからんけど
120delayは実行されてない悪寒。そのかわり前回カキコから今回カキコまでの
間隔分がまるまるdelayとして加算されてる感じがする。
こうだとすると2getや流れの早いスレで120delayが無視され、閑散スレで反映が遅いのも
納得がいく感じ。
なぜそうなるかはわからんけど
670動け動けウゴウゴ2ちゃんねる
04/07/25 23:29ID:re7c5sAp 2ch→携帯スレにも書いたけど、23時頃からみれません
エラーでます
DoCoMoのFOMAのP2102浸かってます
2ちゃん見れないと激しく鬱です
_| ̄|○
エラーでます
DoCoMoのFOMAのP2102浸かってます
2ちゃん見れないと激しく鬱です
_| ̄|○
672FOX ★
04/07/26 01:10ID:??? http://server.maido3.com/pie/ を見ると
docomo2,3 au1,2 others BlackGoat と全部転送量がへこんでますね、
なぜだろう、、、
全部って事は、 一番前か一番後ろが問題だったと
推測できるんだけど、、、不思議。
docomo2,3 au1,2 others BlackGoat と全部転送量がへこんでますね、
なぜだろう、、、
全部って事は、 一番前か一番後ろが問題だったと
推測できるんだけど、、、不思議。
674よよよ ◆EX/mumumu2
04/07/26 03:24ID:SnP0Uzy204/07/26 03:25ID:dkQLdJAd
04/07/26 06:10ID:fJhedEKp
>>672
転送量は下がってるけど、負荷は上がってる。
http://ch2.ath.cx/load/c-docomo2.html
http://ch2.ath.cx/load/c-au1.html
で、live8が落ちてた時間と一致しているので、datを取りに行こうとして
timeoutするまで処理が止まってしまうためでは?
http://ch2.ath.cx/load/live8.html
転送量は下がってるけど、負荷は上がってる。
http://ch2.ath.cx/load/c-docomo2.html
http://ch2.ath.cx/load/c-au1.html
で、live8が落ちてた時間と一致しているので、datを取りに行こうとして
timeoutするまで処理が止まってしまうためでは?
http://ch2.ath.cx/load/live8.html
678FOX ★
04/07/26 11:46ID:???04/07/26 12:55ID:HMuvTNwn
横からすんません。ちと教えていただきたいのですが
Q.ネットワーク的に、携帯用の各鯖って comic6(banana388) と同じスイッチの下に
ぶら下がったりしていますか?
http://qb5.2ch.net/test/read.cgi/operate/1088767056/812
P.S.
root ★さん、お体をお大事に…
Q.ネットワーク的に、携帯用の各鯖って comic6(banana388) と同じスイッチの下に
ぶら下がったりしていますか?
http://qb5.2ch.net/test/read.cgi/operate/1088767056/812
P.S.
root ★さん、お体をお大事に…
680root ★
04/07/26 14:16ID:???04/07/26 14:48ID:HMuvTNwn
>>680 あ、どうもありがとうございます。元スレの方で、継続観測してみます。
今晩も起こるかどうか分かりませんがw
今晩も起こるかどうか分かりませんがw
683root ★
04/07/26 21:18ID:??? 遅延関連の設定をいじりました。
c.2ch不具合報告総合スレ
http://qb5.2ch.net/test/read.cgi/operate/1088828988/121-123
これで、改善するかどうか。
c.2ch不具合報告総合スレ
http://qb5.2ch.net/test/read.cgi/operate/1088828988/121-123
これで、改善するかどうか。
なんかレスポンスが悪いような気がする。
トップとかはそこそこ軽いが、スレッドは重い。
BlackGoatの負荷が重くなってるのかな?
トップとかはそこそこ軽いが、スレッドは重い。
BlackGoatの負荷が重くなってるのかな?
687root ★
04/07/26 21:47ID:??? まず、
cache_replacement_policy heap GDSF
memory_replacement_policy heap LFUDA
にしてみた。
cache_replacement_policy heap GDSF
memory_replacement_policy heap LFUDA
にしてみた。
688root ★
04/07/26 21:58ID:??? diskdを入れるにはkern.ipc.msgmnbとかをいじる必要があって、
それはrebootしないとだめ(sysctlでは不可)みたい。
というわけで、アクセスの多い今の時間はとりあえず保留。
それはrebootしないとだめ(sysctlでは不可)みたい。
というわけで、アクセスの多い今の時間はとりあえず保留。
689root ★
04/07/26 22:26ID:??? cache_mem を 80 MB に増やしてみた。
負荷が下がったみたい。
負荷が下がったみたい。
690root ★
04/07/26 22:29ID:??? あと、cache_swap_lowとcache_swap_highはどうすればいいのかしら。
ちなみにキャッシュディレクトリ(ディスク)は十分おおきいです。
ちなみにキャッシュディレクトリ(ディスク)は十分おおきいです。
04/07/27 01:07ID:zwNJzwgV
>>690 横からすんまそん。
cache_dir で指定したキャッシュの容量が大きければ、cache_swap_low _high の
差は数百Mbyteにもなるかもしれません。そのためこの2つの数値を近づけた方が
いいかも… って記述しかありませんなぁ…
とはいえ、_low、_high ってヒステリシスなしきい(←なぜか変換できない(素))値やから
あまりシビアな設定にすると、酷い事になりそうやし。
とりあえず、デフォルトの 90、95 で様子を見て調整という、いつものパターンでしょうか?
#IME2002のあふぉたれめ。閾が「しきい」で変換できんやんけ
cache_dir で指定したキャッシュの容量が大きければ、cache_swap_low _high の
差は数百Mbyteにもなるかもしれません。そのためこの2つの数値を近づけた方が
いいかも… って記述しかありませんなぁ…
とはいえ、_low、_high ってヒステリシスなしきい(←なぜか変換できない(素))値やから
あまりシビアな設定にすると、酷い事になりそうやし。
とりあえず、デフォルトの 90、95 で様子を見て調整という、いつものパターンでしょうか?
#IME2002のあふぉたれめ。閾が「しきい」で変換できんやんけ
04/07/27 01:09ID:eSggumcI
「いきち」が正しい、はず。
04/07/27 02:09ID:qEEWZV21
DDoS食らってる状態になるんだよ みんなリロードしまくるでしょ
696root ★
04/07/27 02:47ID:??? diskd化完了。
結局、以下をblackgoatのカーネルに入れて再構築&リブート。
# for squid cache
options MSGMNB=16384 # max characters per message queue
#options MSGMNI=40 # max number of message queue identifiers
#options MSGSEG=2048 # max number of message segments in the system
#options MSGSSZ=64 # size of a message segment (Must be 2^N)
options MSGTQL=1024 # max amount of messages in the system
結局、以下をblackgoatのカーネルに入れて再構築&リブート。
# for squid cache
options MSGMNB=16384 # max characters per message queue
#options MSGMNI=40 # max number of message queue identifiers
#options MSGSEG=2048 # max number of message segments in the system
#options MSGSSZ=64 # size of a message segment (Must be 2^N)
options MSGTQL=1024 # max amount of messages in the system
ちょと確認させて頂きたいのですが、
メニューの中身があるサーバは、
c-au1.2ch.net
c-au2.2ch.net (docomo1.2ch.netと同じ)
c-docomo2.2ch.net
c-docomo3.2ch.net
c-others.2ch.net (c-others1.2ch.netと同じ)
の5種類ということで良いでしょうか?
メニューの中身があるサーバは、
c-au1.2ch.net
c-au2.2ch.net (docomo1.2ch.netと同じ)
c-docomo2.2ch.net
c-docomo3.2ch.net
c-others.2ch.net (c-others1.2ch.netと同じ)
の5種類ということで良いでしょうか?
698root ★
04/07/27 19:15ID:??? >>697
c-othersのところは他同様、以下が正しいかと。
c-au1.2ch.net
c-au2.2ch.net (docomo1.2ch.netと同じ)
c-docomo2.2ch.net
c-docomo3.2ch.net
c-others1.2ch.net
c-othersのところは他同様、以下が正しいかと。
c-au1.2ch.net
c-au2.2ch.net (docomo1.2ch.netと同じ)
c-docomo2.2ch.net
c-docomo3.2ch.net
c-others1.2ch.net
>>698
了解です、ありがとうございます。
了解です、ありがとうございます。
700root ★
04/07/27 22:53ID:??? maximum_object_size_in_memory をデフォルト(8kbytes)から
1024kbytesにふやしてみた。
これで、datがうまくメモリに乗るようになる?
# TAG: maximum_object_size_in_memory (bytes)
# Objects greater than this size will not be attempted to kept in
# the memory cache. This should be set high enough to keep objects
# accessed frequently in memory to improve performance whilst low
# enough to keep larger objects from hoarding cache_mem .
#
#Default:
# maximum_object_size_in_memory 8 KB
maximum_object_size_in_memory 1024 KB
1024kbytesにふやしてみた。
これで、datがうまくメモリに乗るようになる?
# TAG: maximum_object_size_in_memory (bytes)
# Objects greater than this size will not be attempted to kept in
# the memory cache. This should be set high enough to keep objects
# accessed frequently in memory to improve performance whilst low
# enough to keep larger objects from hoarding cache_mem .
#
#Default:
# maximum_object_size_in_memory 8 KB
maximum_object_size_in_memory 1024 KB
701root ★
04/07/27 22:59ID:??? c-others1、調整中。
703root ★
04/07/27 23:09ID:??? とりあえずdone.
しばらくチェック。
しばらくチェック。
704root ★
04/07/27 23:23ID:??? LAそのものはそれほどでもなく、入り口で詰まっているようなので、
様子をみながらhttpdの数を増やしてみた。< 各c-xxxx
様子をみながらhttpdの数を増やしてみた。< 各c-xxxx
705root ★
04/07/27 23:33ID:??? 臨時にアクセラレータをはずしてみる。もたないか、もつのか。< c-docomo2
706root ★
04/07/27 23:35ID:??? ん、アクセスが多いときは、苦しい模様。< c-docomo2
アクセラレータ(キャッシュ)を入れるとamd64ではやや不安定。
アクセラレータをはずすととてももたないのか。
アクセラレータ(キャッシュ)を入れるとamd64ではやや不安定。
アクセラレータをはずすととてももたないのか。
707root ★
04/07/27 23:40ID:??? c-docomo2、ほとんど瀕死かも。
c-docomo系が死んだら、c-au系やc-others系のhttpdが捌けるようになった。
blackgoatのI/O処理が滞っていたのか。
c-docomo系が死んだら、c-au系やc-others系のhttpdが捌けるようになった。
blackgoatのI/O処理が滞っていたのか。
root ★さん、
参考までに、docomo2でのスクリプトの各ポイント毎の単純な処理時間です。
総処理 = 0.50580286979675
├初期化 = 0.0017189979553223
├スレッド表示 = 0.50293588638306
| ├ソケット接続〜切断 = 0.5008430480957
| └上記以外の処理 = 0.0020928382873535
└上記以外の処理 = 0.001147985458374
参考までに、docomo2でのスクリプトの各ポイント毎の単純な処理時間です。
総処理 = 0.50580286979675
├初期化 = 0.0017189979553223
├スレッド表示 = 0.50293588638306
| ├ソケット接続〜切断 = 0.5008430480957
| └上記以外の処理 = 0.0020928382873535
└上記以外の処理 = 0.001147985458374
711root ★
04/07/27 23:50ID:??? BlackGoatへのソケット接続〜切断までの間では、
"レス番1と指定のレス10個分を配列に格納する"という以外の処理は行っていないのですが、
最新10スレッドなどの表示では最後まで読み切らないといけないので時間がかかりますね…
"レス番1と指定のレス10個分を配列に格納する"という以外の処理は行っていないのですが、
最新10スレッドなどの表示では最後まで読み切らないといけないので時間がかかりますね…
713root ★
04/07/27 23:53ID:??? これからリブート依頼します。< c-docomo2
714root ★
04/07/28 00:00ID:??? >>712
そうですね。
blackgoatのディスクはストライピングにして、
かつnewfs -b 65536 -f 8192などとやってあるのですが、
そろそろI/O性能が苦しい状況なのかも。
今比較のために、一時的にaufsに戻してみた。
*感覚では*、diskdのほうが遅いような気がします。
統計的にも「漏れる」量が多いみたい。< blackgoat
そうですね。
blackgoatのディスクはストライピングにして、
かつnewfs -b 65536 -f 8192などとやってあるのですが、
そろそろI/O性能が苦しい状況なのかも。
今比較のために、一時的にaufsに戻してみた。
*感覚では*、diskdのほうが遅いような気がします。
統計的にも「漏れる」量が多いみたい。< blackgoat
04/07/28 00:02ID:hrKUFbXp
717root ★
04/07/28 00:26ID:??? cache_dir diskd /usr/local/squid/cache 100000 16 256
を、
cache_dir diskd /usr/local/squid/cache 100000 64 256
にして、squid -zの後にdiskdモードを復活させてみた。
を、
cache_dir diskd /usr/local/squid/cache 100000 64 256
にして、squid -zの後にdiskdモードを復活させてみた。
719root ★
04/07/28 00:48ID:??? cobra2247にログインできました。リブートして、調整中。
720root ★
04/07/28 00:48ID:??? cobra2247 = c-docomo/c-docomo2
721root ★
04/07/28 00:53ID:??? 設定更新&リブートかけました。正常にもどったはず。
722root ★
04/07/28 01:31ID:??? こんどは、BlackGoatがおなかいっぱいか。
LAは低いけど(プロセスが多いわけではないので)、ディスクI/Oがかなり苦しめの予感。
Disks ad0 ad1
KB/t 25.34 22.48
tps 133 141
MB/s 3.29 3.09
% busy 75 82
%iostat -w 1 -c 10
tty ad0 ad1 cpu
tin tout KB/t tps MB/s KB/t tps MB/s us ni sy in id
0 39 25.71 63 1.58 22.53 68 1.49 19 0 29 16 37
0 180 17.53 47 0.80 18.17 48 0.85 39 0 45 16 0
0 59 25.94 200 5.07 24.00 201 4.71 28 0 63 9 0
0 59 31.13 260 7.89 30.37 272 8.08 34 0 61 5 0
0 239 20.51 90 1.80 18.86 97 1.79 32 0 44 25 0
0 59 25.98 164 4.17 22.70 152 3.38 39 0 50 11 0
0 59 23.82 89 2.07 20.53 98 1.97 29 0 45 26 0
0 59 23.95 160 3.75 22.97 146 3.27 39 0 51 10 0
0 59 26.05 81 2.06 22.52 91 2.00 36 0 35 28 0
0 60 26.57 278 7.21 21.11 278 5.73 36 0 64 0 0
LAは低いけど(プロセスが多いわけではないので)、ディスクI/Oがかなり苦しめの予感。
Disks ad0 ad1
KB/t 25.34 22.48
tps 133 141
MB/s 3.29 3.09
% busy 75 82
%iostat -w 1 -c 10
tty ad0 ad1 cpu
tin tout KB/t tps MB/s KB/t tps MB/s us ni sy in id
0 39 25.71 63 1.58 22.53 68 1.49 19 0 29 16 37
0 180 17.53 47 0.80 18.17 48 0.85 39 0 45 16 0
0 59 25.94 200 5.07 24.00 201 4.71 28 0 63 9 0
0 59 31.13 260 7.89 30.37 272 8.08 34 0 61 5 0
0 239 20.51 90 1.80 18.86 97 1.79 32 0 44 25 0
0 59 25.98 164 4.17 22.70 152 3.38 39 0 50 11 0
0 59 23.82 89 2.07 20.53 98 1.97 29 0 45 26 0
0 59 23.95 160 3.75 22.97 146 3.27 39 0 51 10 0
0 59 26.05 81 2.06 22.52 91 2.00 36 0 35 28 0
0 60 26.57 278 7.21 21.11 278 5.73 36 0 64 0 0
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- プーチン「ゼレンスキーがごねるなら、私がウクライナの鉱物資源をトランプにあげよう」… ★2 [BFU★]
- 【教育】中3の理数学力に男女差なし 思い込みが進学にも影響か [牛乳トースト★]
- 高校無償化で「塾代払える」保護者は歓迎 「公立つぶれる」危機感も:朝日新聞 ★2 [少考さん★]
- あぼーん
- 【元フジ渡邊渚】今度は『週刊プレイボーイ』で表紙、DVD付録になる活動に「何になりたいのか」の声 ★3 [Ailuropoda melanoleuca★]
- 「世界は狂ってしまった。年を取った2人の“バカ”が世界を共有してしまうなんて」 米露交渉、ロシア人の”本音”を聞いた [ごまカンパチ★]
- __イーロン・マスクはかつて「不法移民」だった — プラミラ・ジャヤパル下院議員 [827565401]
- 【悲報】女性が4年間祈りを捧げていた仏像、シュレックの置物だった(´・ω・`) [776365898]
- 【悲報】イーロン・マスク「連邦政府はお金を印刷できる、ただで手に入る物はなくそのお金はインフレとなり余裕のない人々への税金となる [733893279]
- ワイ「腹減ったな…カップラーメンでも食うか。お湯を注いで…」
- 【悲報】アメリカとイスラエル、ロシアを支持 [926923849]
- 株イズオーヴァー♪悲しいけれど♪終わりにしよう♪きりがないから♪ [252835186]