2ch特化型サーバ・ロケーション構築作戦のスレッドです。
・2ちゃんねるのサーバロケーション、PIEに関する関連作業・調整事項
・DNS登録・変更関連の各種作業や調整事項
・2ちゃんねるのサーバで採用しているOS、FreeBSDに関する情報・調整事項
・各種作戦・プロジェクトとの連携、プロジェクト間の連携
等を取り扱います。
前スレ:2ch特化型サーバ・ロケーション構築作戦 Part42
http://qb5.2ch.net/test/read.cgi/operate/1275745544/
探検
2ch特化型サーバ・ロケーション構築作戦 Part43
■ このスレッドは過去ログ倉庫に格納されています
NGNG
2010/06/12(土) 01:01:36ID:n3r3sINj0
本当だ。
661root▲▲ ★
2010/06/12(土) 01:01:59ID:???0 >>656
net.inet.tcp.sendbuf_auto=1 # Send buffer autotuning enabled by default
と
net.inet.tcp.recvbuf_auto=1 # enabled
は、デフォルトで 1 みたいだから、変えなくてよさそうだな。
net.inet.tcp.recvbuf_inc: 16384
net.inet.tcp.sendbuf_inc: 8192
がデフォルトか。いかにも少ないな。
1Gだと、これらも連動して変えないといけなそうだな。
net.inet.tcp.sendbuf_auto=1 # Send buffer autotuning enabled by default
と
net.inet.tcp.recvbuf_auto=1 # enabled
は、デフォルトで 1 みたいだから、変えなくてよさそうだな。
net.inet.tcp.recvbuf_inc: 16384
net.inet.tcp.sendbuf_inc: 8192
がデフォルトか。いかにも少ないな。
1Gだと、これらも連動して変えないといけなそうだな。
2010/06/12(土) 01:02:01ID:asAMnCJA0
100Mbpsの設定をいっぱいまで使い切ったと
2010/06/12(土) 01:02:06ID:EwDyJCkQ0
ふと思った
2ch専用鯖用OS作れば最強じゃね?
2ch専用鯖用OS作れば最強じゃね?
664ちきちーた ★
2010/06/12(土) 01:02:32ID:???0 なるほどねぇ
2010/06/12(土) 01:02:46ID:c0aqwCnX0
>>663
いいだしっぺの(ry
いいだしっぺの(ry
2010/06/12(土) 01:02:57ID:5lYUOol+0
次の負荷テストは、6/12 (土) 20:30 B 韓国 vs ギリシャ NHK総合 ですかね?
ttp://www.enjoy-soccer.net/tv/t-wave.html
ttp://www.enjoy-soccer.net/tv/t-wave.html
>>642
H-TCPのパッチあるんだ。
LinuxのTCP実装は多すぎてカオス。個人的にはHighSpeed TCP使ってる。
http://tiki.is.os-omicron.org/tiki.cgi?p=%B2%B6%BB%C5%CD%CDTCP%A4%F2%BA%EE%A4%EB
H-TCPのパッチあるんだ。
LinuxのTCP実装は多すぎてカオス。個人的にはHighSpeed TCP使ってる。
http://tiki.is.os-omicron.org/tiki.cgi?p=%B2%B6%BB%C5%CD%CDTCP%A4%F2%BA%EE%A4%EB
2010/06/12(土) 01:03:02ID:xah5KXRV0
95Mbps付近で落ちたのはやっぱり100Mbpsセッティングだからか
2010/06/12(土) 01:03:08ID:FFSjSD2u0
>>643
明日の昼間に設定変更してもらって夜に備えるって事で
明日の昼間に設定変更してもらって夜に備えるって事で
670root▲▲ ★
2010/06/12(土) 01:03:22ID:???0 で、
FreeBSD's TCP has something called inflight limiting turned on by default.
This is good for modem connections, but can be detrimental to TCP throughput
in some high-speed situations. If you want "normal" TCP Reno-like behavior, set this:
net.inet.tcp.inflight.enable=0
がーん、速い速度だとこれ、enable じゃいけないんだ、、、。
FreeBSD's TCP has something called inflight limiting turned on by default.
This is good for modem connections, but can be detrimental to TCP throughput
in some high-speed situations. If you want "normal" TCP Reno-like behavior, set this:
net.inet.tcp.inflight.enable=0
がーん、速い速度だとこれ、enable じゃいけないんだ、、、。
2010/06/12(土) 01:03:47ID:qAZJOQMT0
さっさと元に戻せこの無能集団共が。
お前らのオ○ニーはもう沢山だ
お前らのオ○ニーはもう沢山だ
2010/06/12(土) 01:03:57ID:mZwQvCpN0
>>668
確かにそう考えられそうだ
確かにそう考えられそうだ
2010/06/12(土) 01:04:18ID:5lYUOol+0
>>663
Androidですね、わかりません。
Androidですね、わかりません。
2010/06/12(土) 01:04:54ID:aeJPxd+x0
教訓:帯域増やしたらセッティングもちゃんと見直せ。
2010/06/12(土) 01:05:10ID:HI0F8GdQ0
まとめると1Gbpsのセッティングしなきゃいけなかったのに
100Mbpsの設定だったと?
100Mbpsの設定だったと?
2010/06/12(土) 01:05:36ID:n3r3sINj0
ふむ
2010/06/12(土) 01:06:04ID:a0BXL28x0
live28ってi7使ってると思ってたけどCore2Duo使ってたのね
そういやCPU変えたらSSD実験の意味ないって誰か言ってたね
そういやCPU変えたらSSD実験の意味ないって誰か言ってたね
2010/06/12(土) 01:06:37ID:xah5KXRV0
ネットワークで落ちなくなっても次はCPUで落ちちゃうからつまんないな
90MbpsでCPU使用率65%じゃ、200Mbps行く前に詰まっちゃうな
90MbpsでCPU使用率65%じゃ、200Mbps行く前に詰まっちゃうな
679root▲▲ ★
2010/06/12(土) 01:07:04ID:???0 >>675
FreeBSDのデフォルト設定(少なくとも7.0Rでは)が、そう仕込まれている様子。
FreeBSDのデフォルト設定(少なくとも7.0Rでは)が、そう仕込まれている様子。
2010/06/12(土) 01:07:10ID:aeJPxd+x0
>>677
DじゃなくてQじゃね
DじゃなくてQじゃね
2010/06/12(土) 01:07:39ID:NP68CH3pP
>>677
Quadな。
Quadな。
2010/06/12(土) 01:08:12ID:a0BXL28x0
あ、Core2Quadなの
2010/06/12(土) 01:08:16ID:7E1jqCE90
2ch鯖みたいに少量通信の大量接続だとRWIN小さい方が良さげな気もするがどうなんだろ
>>679
何とも不親切な…。
何とも不親切な…。
2010/06/12(土) 01:08:39ID:FFSjSD2u0
686root▲▲ ★
2010/06/12(土) 01:09:24ID:???0 >>642
のページ、
> c 2003-2009, Lawrence Berkeley National Laboratory
じゃないですか。
なら、書いてあることは、とても信用できそうだ。
LBLといえば、これ。
超プロ集団。
LBNL's Network Research Group
http://ee.lbl.gov/
のページ、
> c 2003-2009, Lawrence Berkeley National Laboratory
じゃないですか。
なら、書いてあることは、とても信用できそうだ。
LBLといえば、これ。
超プロ集団。
LBNL's Network Research Group
http://ee.lbl.gov/
689ちきちーた ★
2010/06/12(土) 01:11:06ID:???02010/06/12(土) 01:11:23ID:k8w0GQnA0
691root▲▲ ★
2010/06/12(土) 01:11:41ID:???02010/06/12(土) 01:12:46ID:n3r3sINj0
さすが
693root▲▲ ★
2010/06/12(土) 01:13:07ID:???0 ここがトップページか。
TCP Tuning Guide - TCP Tuning Background
http://fasterdata.es.net/TCP-tuning/
久々にお宝に当たった気分。
TCP Tuning Guide - TCP Tuning Background
http://fasterdata.es.net/TCP-tuning/
久々にお宝に当たった気分。
2010/06/12(土) 01:13:07ID:aQdpwA6M0
良い出所の様ですし、こりゃうまくいくかな?
明日の夜でまた確認できそうですし。
明日の夜でまた確認できそうですし。
2010/06/12(土) 01:14:22ID:asAMnCJA0
ghard移転は確約された気分
2010/06/12(土) 01:15:12ID:7E1jqCE90
>>693
つかXPのページ見ると、ADSL時代に流行ったパフォーマンスチューニングそのものって感じなんだが
つかXPのページ見ると、ADSL時代に流行ったパフォーマンスチューニングそのものって感じなんだが
697root▲▲ ★
2010/06/12(土) 01:15:50ID:???0 ここまで情報つかめたから、あとはじっくりやろう。
こんどこそお風呂入ってきます。
こんどこそお風呂入ってきます。
698root▲▲ ★
2010/06/12(土) 01:16:05ID:???0 >>696
そんなものかと。
そんなものかと。
2010/06/12(土) 01:16:42ID:5lYUOol+0
>>697
おつかれさまでした^^
おつかれさまでした^^
2010/06/12(土) 01:19:00ID:n3r3sINj0
明日の夜にはCPU陥落
2010/06/12(土) 01:20:23ID:aeJPxd+x0
しかし、2chの鯖がここまで集約出来るとはねえ……
2010/06/12(土) 01:20:59ID:rD9iOyf4P
>>701
そうなればlive29(仮)の出番ががが
そうなればlive29(仮)の出番ががが
2010/06/12(土) 01:21:35ID:86R8ZFjh0
明日の韓国戦は試合中も終わってからも大変だろうなぁ・・・w
705ちきちーた ★
2010/06/12(土) 01:22:06ID:???0 こんなに人気があったんですね < wc
2010/06/12(土) 01:22:59ID:aeJPxd+x0
>>703
29投入は8.1出たらじゃないの?
29投入は8.1出たらじゃないの?
2010/06/12(土) 01:23:28ID:nNpMI2wS0
708ちきちーた ★
2010/06/12(土) 01:23:43ID:???0 >>706
式次第を読みましょう
式次第を読みましょう
2010/06/12(土) 01:23:57ID:5lYUOol+0
明日は韓国戦だかんねっ!
今日より盛り上がるよ!プロだからw
今日より盛り上がるよ!プロだからw
2010/06/12(土) 01:24:12ID:FFSjSD2u0
>>697
乙です
乙です
2010/06/12(土) 01:25:09ID:/HCFP/n/0
2010/06/12(土) 01:26:07ID:aeJPxd+x0
>>708
おおう、そういうことか。
おおう、そういうことか。
2010/06/12(土) 01:31:32ID:qDOJwU2w0
盛り上がるものが最近ないから
とりあえず盛り上がれそうなものに群がる
とりあえず盛り上がれそうなものに群がる
2010/06/12(土) 01:31:45ID:n3r3sINj0
明日の昼の設定が終わったら、ゲーハーといくつかの板を移転させて、韓国戦でCPUの限界に達するという感じかな。
2010/06/12(土) 01:31:57ID:xb8jG9AR0
6/4にも同じ症状出てたけどあの時は居なかったんだな
2010/06/12(土) 01:38:37ID:C4n78SC/0
>>708
お品書き
お品書き
718root▲▲ ★
2010/06/12(土) 01:48:34ID:???02010/06/12(土) 01:50:08ID:xah5KXRV0
>>718
実は8.0Rで自動になってたりして
実は8.0Rで自動になってたりして
720root▲▲ ★
2010/06/12(土) 01:51:45ID:???02010/06/12(土) 01:52:58ID:n3r3sINj0
おやすみなさい
722ちきちーた ★
2010/06/12(土) 01:54:13ID:???0 ghardの移転は明日の結果をみつつということで、
723はんだごて ◆HANDAGOT9E
NGNG ですね。深夜までお疲れ様でした。お刺身野菜〜
2010/06/12(土) 01:56:03ID:FFSjSD2u0
2010/06/12(土) 01:57:39ID:n3r3sINj0
>>722
おつかれさまでーす
おつかれさまでーす
2010/06/12(土) 02:22:37ID:kHYAoOVQO
皆さん乙!
2010/06/12(土) 05:20:02ID:kAwVSqmiO
完全に乗り遅れた
100Mbpsで頭打ちって、雪だるまと比べてまだ半分くらいかな?
100Mbpsで頭打ちって、雪だるまと比べてまだ半分くらいかな?
2010/06/12(土) 05:29:13ID:qDOJwU2w0
深夜でテレ東だとだめだなー
729動け動けウゴウゴ2ちゃんねる
2010/06/12(土) 08:09:35ID:quuni9wu0 なんJのTATESUGI値が16になってるからもとに戻して
730root▲▲ ★
2010/06/12(土) 08:10:39ID:???0 さて。
http://fasterdata.es.net/TCP-tuning/
<バッファサイズ>
> Since ping gives the round trip time (RTT),
> this formula can be used instead of the previous one:
>
> buffer size = bandwidth * RTT.
>
> For example, if your ping time is 50 ms, and the end-to-end network
> consists of all 100 BT Ethernet and OC3 (155 Mbps), the TCP buffers
> should be .05 sec * (100 Mbits / 8 bits) = 625 KBytes. (When in doubt,
> 10 MB/s is a good first approximation for network bandwidth on
> high-speed research and education networks like ESnet).
ということで↓、
http://fasterdata.es.net/TCP-tuning/
<バッファサイズ>
> Since ping gives the round trip time (RTT),
> this formula can be used instead of the previous one:
>
> buffer size = bandwidth * RTT.
>
> For example, if your ping time is 50 ms, and the end-to-end network
> consists of all 100 BT Ethernet and OC3 (155 Mbps), the TCP buffers
> should be .05 sec * (100 Mbits / 8 bits) = 625 KBytes. (When in doubt,
> 10 MB/s is a good first approximation for network bandwidth on
> high-speed research and education networks like ESnet).
ということで↓、
731root▲▲ ★
2010/06/12(土) 08:11:15ID:???0 バッファサイズは「帯域 × RTT」にするのがいい。
RTTが大きい場合、余計にバッファサイズが必要。
アメリカ西海岸にあって、主に日本の相手をしている
2ちゃんねるのサーバの場合、日本⇔日本なサーバよりも
10倍ぐらい大きなRTTを持っているから、バッファサイズも10倍必要になる。
で、日本からPIEへのRTTはだいたい130msぐらいだから、
適切なバッファサイズは100Mbpsの場合、
0.13 * ( 100000000 / 8 ) = 1625000
1Gbpsの場合、
0.13 * ( 1000000000 / 8 ) = 16250000
となる。
RTTが大きい場合、余計にバッファサイズが必要。
アメリカ西海岸にあって、主に日本の相手をしている
2ちゃんねるのサーバの場合、日本⇔日本なサーバよりも
10倍ぐらい大きなRTTを持っているから、バッファサイズも10倍必要になる。
で、日本からPIEへのRTTはだいたい130msぐらいだから、
適切なバッファサイズは100Mbpsの場合、
0.13 * ( 100000000 / 8 ) = 1625000
1Gbpsの場合、
0.13 * ( 1000000000 / 8 ) = 16250000
となる。
2010/06/12(土) 08:13:29ID:0ugKHWxzP
>>731
ちゃんと休めよ、病み上がり
ちゃんと休めよ、病み上がり
733root▲▲ ★
2010/06/12(土) 08:16:46ID:???0 で、これを受けて、
http://fasterdata.es.net/TCP-tuning/FreeBSD.html
では、
kern.ipc.maxsockbuf=16777216
に設定していると。
で、今のlive28の設定では、
kern.ipc.maxsockbuf=20480000
に既に設定済みで(スペシャルセッティング内)、この値はRTT値に逆算すると、
20480000 / ( 1000000000 / 8 ) = 0.16384
となって、164ms の RTT に相当するのか。
この値は悪くなさそうだから、このままで。
http://fasterdata.es.net/TCP-tuning/FreeBSD.html
では、
kern.ipc.maxsockbuf=16777216
に設定していると。
で、今のlive28の設定では、
kern.ipc.maxsockbuf=20480000
に既に設定済みで(スペシャルセッティング内)、この値はRTT値に逆算すると、
20480000 / ( 1000000000 / 8 ) = 0.16384
となって、164ms の RTT に相当するのか。
この値は悪くなさそうだから、このままで。
734root▲▲ ★
2010/06/12(土) 08:17:25ID:???0 >>732
今日は病院に行く日で(定期通院)、ちと早起き。
今日は病院に行く日で(定期通院)、ちと早起き。
2010/06/12(土) 08:19:51ID:OPwP9FAO0
736root▲▲ ★
2010/06/12(土) 08:22:10ID:???0 で、参考までに100Mbpsなサーバだと、
kern.ipc.maxsockbuf=2048000
がよさげということなのかな。
・今のgimpoの設定(デフォルトのまま)
$ sysctl kern.ipc.maxsockbuf
kern.ipc.maxsockbuf: 262144
これはいかにも少ないな。
日本⇔日本なら、これでもいいのかもしれないけど、
日本⇔アメリカでサービスする場合、これを10倍近く大きくしないといけないと。
というかこのデフォルト設定、
「100Mbpsで近場にサービスする」ってかんじなのね。
kern.ipc.maxsockbuf=2048000
がよさげということなのかな。
・今のgimpoの設定(デフォルトのまま)
$ sysctl kern.ipc.maxsockbuf
kern.ipc.maxsockbuf: 262144
これはいかにも少ないな。
日本⇔日本なら、これでもいいのかもしれないけど、
日本⇔アメリカでサービスする場合、これを10倍近く大きくしないといけないと。
というかこのデフォルト設定、
「100Mbpsで近場にサービスする」ってかんじなのね。
2010/06/12(土) 08:23:25ID:a0BXL28x0
朝からがんばってますね
738root▲▲ ★
2010/06/12(土) 08:23:40ID:???0 >>735
これねぇ。
EZwifi(だっけ)も、ezweb.ne.jpなんでしたっけ。
もう少し状況わかるとうれしいかも。
・EZなんとかなサービスにはどんな種類があって、
・それぞれどんなIPアドレス逆引きになるか
(例えばezweb.ne.jpになるとか、brew.ne.jpになるとか)
これねぇ。
EZwifi(だっけ)も、ezweb.ne.jpなんでしたっけ。
もう少し状況わかるとうれしいかも。
・EZなんとかなサービスにはどんな種類があって、
・それぞれどんなIPアドレス逆引きになるか
(例えばezweb.ne.jpになるとか、brew.ne.jpになるとか)
2010/06/12(土) 08:23:58ID:OPwP9FAO0
http://qb5.2ch.net/test/read.cgi/operate/1276199769/734-735
書き込み前のリロードって2chの基本ですよね…(ノ∀`) アチャー
どうぞ御養生下さい
書き込み前のリロードって2chの基本ですよね…(ノ∀`) アチャー
どうぞ御養生下さい
740root▲▲ ★
2010/06/12(土) 08:32:55ID:???0 http://fasterdata.es.net/TCP-tuning/FreeBSD.html
これを順に読んでいくと。
> FreeBSD 7.0 added TCP send and receive buffer autotuning.
> There are some additional settings to modify.
> (The default for these is 256 KB, which is too small):
>
> net.inet.tcp.sendbuf_max=16777216
> net.inet.tcp.recvbuf_max=16777216
こいつらは例に従い、kern.ipc.maxsockbuf の設定値に合わせればいいかな。
net.inet.tcp.sendbuf_max=20480000
net.inet.tcp.recvbuf_max=20480000
これでいこう。
これを順に読んでいくと。
> FreeBSD 7.0 added TCP send and receive buffer autotuning.
> There are some additional settings to modify.
> (The default for these is 256 KB, which is too small):
>
> net.inet.tcp.sendbuf_max=16777216
> net.inet.tcp.recvbuf_max=16777216
こいつらは例に従い、kern.ipc.maxsockbuf の設定値に合わせればいいかな。
net.inet.tcp.sendbuf_max=20480000
net.inet.tcp.recvbuf_max=20480000
これでいこう。
2010/06/12(土) 08:34:56ID:5lYUOol+0
いつ頃メンテに入るんですか?
2010/06/12(土) 08:40:50ID:knCRiF/XO
日本代表の試合が始まる5分前。
743root▲▲ ★
2010/06/12(土) 08:41:34ID:???0 例の「7.0Rのデフォルトは100Mbps想定だから小さすぎる、
1Gbpsや10Gbpsではもっと大きくしれ」のところ。
> Here are the new TCP Autotuning settings in 7.0 to know about.
> Defaults for these should be fine for 100BT hosts, but recvbuf_inc
> in particular should be increased for 1 or 10 Gbps hosts.
> Here are the recommended settings:
>
> net.inet.tcp.sendbuf_auto=1 # Send buffer autotuning enabled by default
> net.inet.tcp.sendbuf_inc=16384 # step size
> net.inet.tcp.recvbuf_auto=1 # enabled
> net.inet.tcp.recvbuf_inc=524288 # step size
↓
1Gbpsや10Gbpsではもっと大きくしれ」のところ。
> Here are the new TCP Autotuning settings in 7.0 to know about.
> Defaults for these should be fine for 100BT hosts, but recvbuf_inc
> in particular should be increased for 1 or 10 Gbps hosts.
> Here are the recommended settings:
>
> net.inet.tcp.sendbuf_auto=1 # Send buffer autotuning enabled by default
> net.inet.tcp.sendbuf_inc=16384 # step size
> net.inet.tcp.recvbuf_auto=1 # enabled
> net.inet.tcp.recvbuf_inc=524288 # step size
↓
744root▲▲ ★
2010/06/12(土) 08:41:54ID:???0 net.inet.tcp.sendbuf_auto と net.inet.tcp.recvbuf_auto は、
デフォルトで1だから、
net.inet.tcp.sendbuf_inc=16384
net.inet.tcp.recvbuf_inc=524288
これでいこう。
ちなみに今のlive28の値はそれぞれ、
%sysctl net.inet.tcp.sendbuf_inc
net.inet.tcp.sendbuf_inc: 8192
%sysctl net.inet.tcp.recvbuf_inc
net.inet.tcp.recvbuf_inc: 16384
例のゴールの詰まりの時に、
受信バッファの増えていく度合いが少ないな、という印象を持ったから、
感覚とも一致してるな。
デフォルトで1だから、
net.inet.tcp.sendbuf_inc=16384
net.inet.tcp.recvbuf_inc=524288
これでいこう。
ちなみに今のlive28の値はそれぞれ、
%sysctl net.inet.tcp.sendbuf_inc
net.inet.tcp.sendbuf_inc: 8192
%sysctl net.inet.tcp.recvbuf_inc
net.inet.tcp.recvbuf_inc: 16384
例のゴールの詰まりの時に、
受信バッファの増えていく度合いが少ないな、という印象を持ったから、
感覚とも一致してるな。
745root▲▲ ★
2010/06/12(土) 08:49:37ID:???0 > FreeBSD's TCP has something called inflight limiting turned on by default.
> This is good for modem connections, but can be detrimental to TCP throughput
> in some high-speed situations. If you want "normal" TCP Reno-like behavior,
> set this:
>
> net.inet.tcp.inflight.enable=0
高速なネットワークだと、inflightは0の方がいい、と。
で、
tcp throughput and net.inet.tcp.inflight.enable
http://lists.freebsd.org/pipermail/freebsd-stable/2006-February/022589.html
この報告事例とスレッドを読んでみると、
特に1Gの場合はこの値、0にしたほうがよさげなかんじ。
net.inet.tcp.inflight.enable=0
これで。
> This is good for modem connections, but can be detrimental to TCP throughput
> in some high-speed situations. If you want "normal" TCP Reno-like behavior,
> set this:
>
> net.inet.tcp.inflight.enable=0
高速なネットワークだと、inflightは0の方がいい、と。
で、
tcp throughput and net.inet.tcp.inflight.enable
http://lists.freebsd.org/pipermail/freebsd-stable/2006-February/022589.html
この報告事例とスレッドを読んでみると、
特に1Gの場合はこの値、0にしたほうがよさげなかんじ。
net.inet.tcp.inflight.enable=0
これで。
746root▲▲ ★
2010/06/12(土) 08:49:58ID:???0747root▲▲ ★
2010/06/12(土) 08:56:28ID:???0 続き。
> By default, FreeBSD caches connection details such as the slow start
> threshold and the congestion windows size from the previous connection
> to the same host for 1 hour. While this is a good idea for a web server,
> it makes it hard to do network throughput testing, as 1 large congestion
> event will throttle performance for the next hour.
> To reduce this effect, set this:
>
> net.inet.tcp.hostcache.expire=1
>
> This will still cache values for 5 minutes, for reasons described
> in this article from the Centre for Advanced Internet Architectures
> (CAIA) at Swinburne University in Autralia. This article(*1) has a lot of
> other good tuning information for FreeBSD too.
> They also have a (*2)H-TCP patch for FreeBSD that looks useful.
で、ここからリンクされているのは、
(*1)
Tuning and Testing the FreeBSD 6 TCP Stack
http://caia.swin.edu.au/reports/070717B/CAIA-TR-070717B.pdf
(*2)
newtcp
http://caia.swin.edu.au/urp/newtcp/tools.html
と。
> By default, FreeBSD caches connection details such as the slow start
> threshold and the congestion windows size from the previous connection
> to the same host for 1 hour. While this is a good idea for a web server,
> it makes it hard to do network throughput testing, as 1 large congestion
> event will throttle performance for the next hour.
> To reduce this effect, set this:
>
> net.inet.tcp.hostcache.expire=1
>
> This will still cache values for 5 minutes, for reasons described
> in this article from the Centre for Advanced Internet Architectures
> (CAIA) at Swinburne University in Autralia. This article(*1) has a lot of
> other good tuning information for FreeBSD too.
> They also have a (*2)H-TCP patch for FreeBSD that looks useful.
で、ここからリンクされているのは、
(*1)
Tuning and Testing the FreeBSD 6 TCP Stack
http://caia.swin.edu.au/reports/070717B/CAIA-TR-070717B.pdf
(*2)
newtcp
http://caia.swin.edu.au/urp/newtcp/tools.html
と。
2010/06/12(土) 08:58:47ID:wYreEV4E0
2010/06/12(土) 09:00:29ID:wYreEV4E0
ミス
750root▲▲ ★
2010/06/12(土) 09:01:01ID:???0 >>747
net.inet.tcp.hostcache.expire の今の live28 のデフォルトは、
%sysctl net.inet.tcp.hostcache.expire
net.inet.tcp.hostcache.expire: 3600
ということで 3600秒 = 1時間 になっていて、
この値はWebサーバの場合「短くすりゃいい」ってもんでもなさそうで、
「さじ加減」が必要と。
で、上の (*1) を読め、ってことなのかな。
net.inet.tcp.hostcache.expire の今の live28 のデフォルトは、
%sysctl net.inet.tcp.hostcache.expire
net.inet.tcp.hostcache.expire: 3600
ということで 3600秒 = 1時間 になっていて、
この値はWebサーバの場合「短くすりゃいい」ってもんでもなさそうで、
「さじ加減」が必要と。
で、上の (*1) を読め、ってことなのかな。
2010/06/12(土) 09:24:06ID:mB6w3D3e0
>>719,720
手元の8.0-Rマシンの、
http://fasterdata.es.net/TCP-tuning/FreeBSD.html
この辺の環境変数のデフォルト値は7.xと違いが無かったので、
恐らく8.xでも弄る必要はありそうです。
私もここを読みながら試しに値を調整して様子見を始めている所ですが
手元のケースでは1G結線部分の通信で改善が見られるっぽい。
手元の8.0-Rマシンの、
http://fasterdata.es.net/TCP-tuning/FreeBSD.html
この辺の環境変数のデフォルト値は7.xと違いが無かったので、
恐らく8.xでも弄る必要はありそうです。
私もここを読みながら試しに値を調整して様子見を始めている所ですが
手元のケースでは1G結線部分の通信で改善が見られるっぽい。
752root▲▲ ★
2010/06/12(土) 09:27:12ID:???0 (*1)の II の C にこれらの記述があるわけだが(下記はデフォルト)、
%sysctl net.inet.tcp.sendspace
net.inet.tcp.sendspace: 32768
%sysctl net.inet.tcp.recvspace
net.inet.tcp.recvspace: 65536
まずは、変えないでいってみるか。
例の別のWebで、減らすといいって言っていたやつ。
%sysctl net.inet.tcp.sendspace
net.inet.tcp.sendspace: 32768
%sysctl net.inet.tcp.recvspace
net.inet.tcp.recvspace: 65536
まずは、変えないでいってみるか。
例の別のWebで、減らすといいって言っていたやつ。
753root▲▲ ★
2010/06/12(土) 09:29:34ID:???0754root▲▲ ★
2010/06/12(土) 09:31:36ID:???0 つぎ、MTUか。
1Gbpsだからジャンボフレームを試してみる価値はあるけど、
確か同じセグメントというか同じスイッチのを*全部*ジャンボフレームに
設定しないといけなかったと思うので、
今は 1500 (デフォルト)のままでいってみようかなと。
・ifconfig で mtu 9000 などとするのは、今回はなし。
1Gbpsだからジャンボフレームを試してみる価値はあるけど、
確か同じセグメントというか同じスイッチのを*全部*ジャンボフレームに
設定しないといけなかったと思うので、
今は 1500 (デフォルト)のままでいってみようかなと。
・ifconfig で mtu 9000 などとするのは、今回はなし。
2010/06/12(土) 09:36:15ID:i03P3jy+0
sendspaceとrecvspaceはソケットバッファサイズで
小さくするとmbuf使用量が減る
sendbufとrecvbufはTCPのウインドウサイズで、
輻輳の無い状態なら大きくすればスループットが上がるが
輻輳が有る状態で大きくすると再送が増加しスループットが下がる
という感じかな、何か相反する設定のような気がしないこともない
小さくするとmbuf使用量が減る
sendbufとrecvbufはTCPのウインドウサイズで、
輻輳の無い状態なら大きくすればスループットが上がるが
輻輳が有る状態で大きくすると再送が増加しスループットが下がる
という感じかな、何か相反する設定のような気がしないこともない
756root▲▲ ★
2010/06/12(土) 09:39:49ID:???0 こんなところかな。
ということで、まとめを。
<現在の設定内容変更>
・/etc/sysctl の設定変更内容
(変更前)
# nmb (number of mbufs) tuning for FreeBSD 7.x
# note: kern.ipc.nmbclusters=65536 should be set at /boot/loader.conf
kern.ipc.nmbjumbop=32768
kern.ipc.nmbjumbo9=16384
kern.ipc.nmbjumbo16=8192
(変更後)
# nmb (number of mbufs) tuning for FreeBSD 7.x
# note: kern.ipc.nmbclusters=131072 should be set at /boot/loader.conf
kern.ipc.nmbjumbop=65536
kern.ipc.nmbjumbo9=32768
kern.ipc.nmbjumbo16=16384
・/boot/loader.conf の設定変更内容
(変更前)
kern.ipc.nmbclusters=65536
(変更後)
kern.ipc.nmbclusters=131072
ということで、まとめを。
<現在の設定内容変更>
・/etc/sysctl の設定変更内容
(変更前)
# nmb (number of mbufs) tuning for FreeBSD 7.x
# note: kern.ipc.nmbclusters=65536 should be set at /boot/loader.conf
kern.ipc.nmbjumbop=32768
kern.ipc.nmbjumbo9=16384
kern.ipc.nmbjumbo16=8192
(変更後)
# nmb (number of mbufs) tuning for FreeBSD 7.x
# note: kern.ipc.nmbclusters=131072 should be set at /boot/loader.conf
kern.ipc.nmbjumbop=65536
kern.ipc.nmbjumbo9=32768
kern.ipc.nmbjumbo16=16384
・/boot/loader.conf の設定変更内容
(変更前)
kern.ipc.nmbclusters=65536
(変更後)
kern.ipc.nmbclusters=131072
757root▲▲ ★
2010/06/12(土) 09:40:24ID:???0 <設定内容追加>
・/etc/sysctl.conf の設定追加内容(1Gbps用のTCPチューニング)
# additional network settings for 1Gbps connection
# http://fasterdata.es.net/TCP-tuning/FreeBSD.html
net.inet.tcp.sendbuf_max=20480000
net.inet.tcp.recvbuf_max=20480000
#net.inet.tcp.sendbuf_auto=1 # Send buffer autotuning enabled by default
net.inet.tcp.sendbuf_inc=16384
#net.inet.tcp.recvbuf_auto=1 # Receive buffer autotuning enabled by default
net.inet.tcp.recvbuf_inc=524288
net.inet.tcp.inflight.enable=0
・/etc/sysctl.conf の設定追加内容(1Gbps用のTCPチューニング)
# additional network settings for 1Gbps connection
# http://fasterdata.es.net/TCP-tuning/FreeBSD.html
net.inet.tcp.sendbuf_max=20480000
net.inet.tcp.recvbuf_max=20480000
#net.inet.tcp.sendbuf_auto=1 # Send buffer autotuning enabled by default
net.inet.tcp.sendbuf_inc=16384
#net.inet.tcp.recvbuf_auto=1 # Receive buffer autotuning enabled by default
net.inet.tcp.recvbuf_inc=524288
net.inet.tcp.inflight.enable=0
758root▲▲ ★
2010/06/12(土) 09:41:29ID:???0 >>755
ふむふむ、、、。
ふむふむ、、、。
759root▲▲ ★
2010/06/12(土) 09:45:09ID:???0 では、今日の11時にこの設定を入れていただけるかどうか、
今日の10時頃に、中の人に確認してみます。
設定時に一度リブート必要なので、サーバ止まります。
OKなら、それでスケジュールするということで。
今日の10時頃に、中の人に確認してみます。
設定時に一度リブート必要なので、サーバ止まります。
OKなら、それでスケジュールするということで。
760738
2010/06/12(土) 09:48:13ID:OPwP9FAO0 >>738
なんとも間が悪い日ってありますね。739は雪だるまへの誤爆です。。
素人ですが調べてみました。
au携帯からのnet接続は通常の Ezweb、PCSV、BREW、オープンアプリプレイヤー(OAP) の4通りで、
今回、問題になってるのはEZ番号を送らない PCSV での BBQスルーのsiberia板 への荒らし書込みです。
http://qb5.2ch.net/test/read.cgi/sec2chd/1275119988/ ★100529 siberia samba突破「.pic.to/」画像URL羅列 連投マルチ報告
PCSVの帯域表
http://www.au.kddi.com/ezfactory/tec/spec/pcsv.html
こちらのPCSVでの書込みをのsiberia板でも不可にして頂きたいという状況です。
かっこいいお兄さんは、とりあえずシベリアのBBQ除外設定を外すことで問題を解決できるとの考えのようです(上記スレ189への193のレス)。
将来的には他のBBQスルー環境での書込みが問題になる可能性もあります。
OAPでのUA等仕様(ホスト名、アドレス帯域の情報なし)
http://www.au.kddi.com/ezfactory/tec/spec/openappli.html
アプリの仕様にも寄ると思いますが、以下の方の場合OAPでのホストはbrew.jpになるようです。
http://qb5.2ch.net/test/read.cgi/operate/1275745544/14n
BREW通信のIPアドレス帯域(法人客向けサポートページ)
http://www.kddi.com/business/customer/tec/index.html
BREW通信の一般のアドレス帯域のソースは見つけられませんでした(先の前スレ14さんのアドレスが含まれるものも)。
なんとも間が悪い日ってありますね。739は雪だるまへの誤爆です。。
素人ですが調べてみました。
au携帯からのnet接続は通常の Ezweb、PCSV、BREW、オープンアプリプレイヤー(OAP) の4通りで、
今回、問題になってるのはEZ番号を送らない PCSV での BBQスルーのsiberia板 への荒らし書込みです。
http://qb5.2ch.net/test/read.cgi/sec2chd/1275119988/ ★100529 siberia samba突破「.pic.to/」画像URL羅列 連投マルチ報告
PCSVの帯域表
http://www.au.kddi.com/ezfactory/tec/spec/pcsv.html
こちらのPCSVでの書込みをのsiberia板でも不可にして頂きたいという状況です。
かっこいいお兄さんは、とりあえずシベリアのBBQ除外設定を外すことで問題を解決できるとの考えのようです(上記スレ189への193のレス)。
将来的には他のBBQスルー環境での書込みが問題になる可能性もあります。
OAPでのUA等仕様(ホスト名、アドレス帯域の情報なし)
http://www.au.kddi.com/ezfactory/tec/spec/openappli.html
アプリの仕様にも寄ると思いますが、以下の方の場合OAPでのホストはbrew.jpになるようです。
http://qb5.2ch.net/test/read.cgi/operate/1275745544/14n
BREW通信のIPアドレス帯域(法人客向けサポートページ)
http://www.kddi.com/business/customer/tec/index.html
BREW通信の一般のアドレス帯域のソースは見つけられませんでした(先の前スレ14さんのアドレスが含まれるものも)。
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【フジテレビ】一部のCM企業 広告料金返金交渉や契約終了の動き CM差し替えは地方局にも [muffin★]
- フジテレビ大株主のダルトン「フジの会見は意図的な真相隠蔽」「今週中に記者会見やり直しを」 [ヴァイヴァー★]
- JR長野駅前で男女3人が襲われる 刺された男性1人が心肺停止状態 犯人は男とみられ刃物を持って逃走 ★2 [首都圏の虎★]
- 中居正広レギュラー全消滅 地上波から消える★3 [ひかり★]
- 立民・野田氏、減税論に疑問呈す 「未来世代からの搾取」 [首都圏の虎★]
- 【独自】斎藤知事の『パワハラを認定へ』兵庫県の百条委員会 業務時間外の多数チャット、公用車から降ろされ叱責など ★3 [Ailuropoda melanoleuca★]