【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2
■ このスレッドは過去ログ倉庫に格納されています
日増しに増加する携帯からのアクセス。 かつて、羨ブラが生まれたように何かが生まれないと ならない気がする。 たぶん解決策は、時間を売って空間を買うだと思うけど いろいろ考察して、次の一手を決めようかと、 Love Affair 作戦。 Part2 大黒埠頭 前スレ 【Love Affair】携帯からのアクセスに対する考察・次の一手 Part1 http://qb5.2ch.net/test/read.cgi/operate/1075887465/ おお、ちょと伝わっていない予感… 現在cでは、スレッド一覧を表示するのに、各板のsubject.txtをリクエストしているのですが、 出来ればこのコストは減らしたいなと考えています。 ですので、出来ればで良いのですが、 bbs.cgiが作成する/i/index.html(スレッド一覧)は、 r.iへのリンクではなく、c.2ch.netへのリンクに変更して頂けると幸いです、、、 しかし、2ちゃんねるのサーバの要求としては 各サーバの負荷を劇的に減らすために 携帯からのアクセスはすべて c.2ch.net 系が担当する という方針であります。 つまり c.2ch.net が担当するよりも、各サーバで担当するほうが 処理的には軽くても、追い出すという算段です。 なるほど、了解です。 そうしましたら、index.htmlの中身は、 <html> <head><title>移転しました</title></head> <body> <a href="http://c.2ch.net/z/-/dqnplus/i/ ">移転しました</a> </body> </html> という感じでお願いできますでしょうか? んじゃ再度。 板名/i/index.html の更新終了 bbs.cgi ver 20040723 >>605 了解です。 で、今blackgoatの様子がおかしいかも(昨日と同じ、外部側の不調か)。 これから確認します。 質問でーす 携帯でなく普通のISPから http://c.2ch.net/ をみたらどうなるのが正解ですか? sshでも入れないですね。リブート要請します。< blackgoat >>609 了解デーす でもすごく重いのは私だけ? 今blackgoatが落ちてるからですね。(>>606 >>608 ) # 裏側からログインできたのでリブート要請キャンセルしようとしたけど、 # 間に合わなかった、、、。とりあえずどうせリブートだったから同じだけど。 昨日書きましたが、r.iをこの板のみ残すもしくはqb5のみ残すのは 無理ですかね。いまはPCからカキコしてるけど携帯が落ちてたときに 携帯からの手段がないと思うんですよね。。。 それかqb5のみau/docomo/othersの振り分けをなくすとか。。。 blackgoatはリブートされました。 これで元に戻ったはずですが、 外部側のネットワークインターフェースがとつぜんおかしくなる原因をつかまないと。 (昨日も起こったので) live8, game6, news11, live12のbbs.cgiを更新。>>605 >>615 ウホッ素早い。 いまc-docomo不安定ですね。500Errorが3〜4回に1回出る感じがする。 パフォーマンス出てないですね。< c-docomo系 とりあえず2台(c-docomo2/c-docomo3)ともhttpdをリスタートしてみた。 ここまでの経過、まとめを管理人に報告した。 さて、 >>620 おつでした。 バックエンドがおかしくなると全部が死ぬとか、 c-docomo系でパフォーマンスが出なくなる症状とか、 ロードバランシングはまだまだ調整が必要とか、 たまに120秒よりも遅延が大きくなるスレがあるらしいとか、課題はまだ相当ありますが、 ベースシステムは概ねこんなかんじかなと。 さて、今後の展望は。 index.htmlの中身ですが <html> <head><title>移転しました</title></head> <body> <a href="http://c.2ch.net/z/-/dqnplus/i/ ">移転しました</a> <BR> <a href="http://qb5.2ch.net/operate/i/ ">運用・障害情報はこちら</a> </body> </html> はどうでしょう?r.i直リンはまずいかな? >>622 各ページじゃなく、 c.2ch.net のTOPからのリンクが良いような、、、 若干の仕組みの手直しとして、現在 c-others と共用となっているけど c.2ch.net に banana を専用に一台投入という事も考えて そうなれば c.2ch.net 自体はそうそう落ちない気がするのだが、 将来的に/i/index.htmlは消すのかな?そうだと>>622 は無意味か。 リロードし忘れ。 >>623 そうですね。しばらくtopにリンクで安定してきたらoperate/i/を削除のほうが。 c-docomo不思議な挙動しますね。120delayがうまく機能してないような。 ・立ったばかりのスレで2get等のカキコはdelay無視で即反映 ・カキコが少ないスレは120以上のdelayがある。 subject.txtの不釣り合いはどうしようもないところか。 squidのキャッシュヒット率が下がってるみたい。 設定の問題か。ちょっとblackgoatの様子をみてこよう。 そういえばリバースプロクシのsquid.confの設定ってどうなってます? 自分は cache_replacement_policy heap GDSF memory_replacement_policy heap LFUDA cache_dir null /tmp とかにしてる。 squidの設定はあんまりまじめに詰めてないです。見てみるか。 blackgoatのsquidはリバースじゃなくて普通のだから、cachr_dir nullはちょっと。 cache_replacement_policy と memory_replacement_policy はデフォルトです。 squidのリバースプロキシ機能は今のところ使ってないすね。 ロードバランシングはpoundを使用。 担当を3つに分けてからはそれなりにうまくいってるみたい。 あんまりかわんないなぁ。 1090597580.673 10385 192.168.0.101 TCP_SWAPFAIL_MISS/200 72252 GET http://hobby5.2ch.net/drama/dat/1083775457.dat - DIRECT/206.223.150.10 text/plain 1090597580.673 10082 192.168.0.101 TCP_SWAPFAIL_MISS/200 66239 GET http://game7.2ch.net/ogame/dat/1090506363.dat - DIRECT/206.223.151.135 text/plain がたくさん出てる。 だったらcache_dir diskdのほうがヨサゲ。 Squidの開発者のベンチマークでもdiskdが桁外れに速いので推奨している感じ。 memory_replacement_policyについてはちょっと前のBSD Magazineでheap LFUDAを推奨してた。 >>637 diskdは最初試してみたのです。 で、なんかうまくいかなかった。(>>142 ) また再挑戦してみるか。 memory_replacement_policyは、機を見て別途。 高負荷時にGENERICでdiskdが死ぬのは http://www.squid-cache.org/Doc/FAQ/FAQ-22.html#ss22.6 あたりを参照してみてください。でもちょっと数値は古いのでチューニングする余地有り。 あと ttp://www.fkimura.com/squid0.html とか。 http://pc5.2ch.net/test/read.cgi/unix/1034236482/228 とか。 いまのところc-docomo安定してますね。ただ、まもなく16時。トラブル頻発の時間帯。 質問でーす 転送量で docomo2 : docomo3 = 2:1 くらいになっているのは どうしてなのだろぅ、平均化されないの? http://server.maido3.com/pie/ >>643 >>594 にあるように、ロードバランサのプログラム(pound)が それぞれの一番若い番号で動いてるからすね。 今、 携帯──c-docomo (代表) ├c-docomo2 (実処理1) └c-docomo3 (実処理2) となっています(実体はc-docomo=c-docomo2)。 で、 携帯─2─c-docomo (代表) ├1─c-docomo2 (実処理1) └1─c-docomo3 (実処理2) というふうに処理していますが、c-docomo⇔c-docomo2の処理は同一ホストなので(外に出ない)、 外から見える転送量としては、 携帯⇔c-docomoの部分の2 c-docomo⇔c-docomo3の部分の1 が見えるわけです。 なるほどですー も一つ、別件ですが 現在 c.2ch.net での bbspink の扱いはどうなっているのでしょうか? 上位レイヤーからの要請はたぶん c.2ch.net と bbspink の完全切り離し ですので、c.2ch.net では bbspink は扱わない方向での作業になると思います bbspink は当面、従来どおりの r.i p.i で、 >>645 中身は中の方々でないとなんともいえないですが、 たぶんbbspinkとかは入ってるですね。 うーむ。 今現在BBSPINKには携帯用トップページがないから 2chから切られたらかなりかわいそうかも。 >>645 んじゃ、bbspinkはc.2ch.netから消しときま〜す >>645 そのうち、c.bbspink.comを作る方向なのかな? >>650-651 大人の時間は一旦復活 このあたりの人にちょっと投げかけてみます。 【Project ama】PINKちゃんねる特化型サーバ構築作戦 Part2 http://qb5.2ch.net/test/read.cgi/operate/1082721809/ >>645 FOX ★さん、 上位レイヤーというのは、どんな方なのでしょう? もし完全に強制ではないようなら、 利便性なども考えると、残しておきたいですー 上位レイヤーというのはネットワークのレイヤーのことですな(^_^;) この場合第9層かな? 2ch外のサイトの閲覧に2chのリソースを使用することとかが問題になるのかな? >>654-655 なるほど。。。ありがとうございます。なんとなく分かったような、、、 と言うことは、強制、なのかな…? >第9層 ポリティクス層 ネット上の問題を政治的に整備 各国の法整備 ここか、、 うーん、 bbspinkで、携帯用鯖導入をしてもらえばよいのだが、、、 amaの方にも書いたけど。 私家メニューでの対応に問題がなければ、c→p.iのリンクで個人的には問題ないと。 でもこうなると、それこそi.bbspink.comが急務ですな、、 # まちBBSも対応打ち切りだろねぇ、 あ、この場合の9層って「ネットワークポリシー」とか「サイトポリシー」といったものだと思う、 つまり2chでいうと「ひ(ryの意思」かな、 # 公権力が絡んでたらそれこそガクブル(AAry >>658 過去ログサーバもこっそり兼任してもらえると ●のグレーゾーンが消えて嬉しいかも >>661 これかな?>ひ(ryの意思 709 名前:ひろゆき@どうやら管理人 ★[] 投稿日:04/02/01 12:03 ID:??? エロ系はその気になれば、それなりに回すことも出来るだろうけど、 おいらにやる気もないし、仕事人さんも望まないし、 Jimもそれを望んでない気がするのですね。 【PINKちゃんねる】 新サーバ獲得会議 http://qb3.2ch.net/test/read.cgi/operate/1069071468/709 桃色系は、ここ数ヶ月でかなり状況が動いている気がするのですよ。 トップページがきちんと整理されたり、広告掲載の仕組みができたり、 2ちゃんねるのインフラに依存してないヘッドラインができたり、etc. ということでたぶん、>>663 の状況も少しずつ変わりつつあるのではないかしら。 で、>>639 ですが、 なるほどシステム値をいじってやる必要があるのですね。 機を見てやってみるです。 delayがうまく機能してませんね。120min以下もあれば1時間更新されなかったり。 ラジオ実況カキコんだら1時間以上更新されてないや delayの動きの謎がちょいとわかったかも。 120delayは実行されてない悪寒。そのかわり前回カキコから今回カキコまでの 間隔分がまるまるdelayとして加算されてる感じがする。 こうだとすると2getや流れの早いスレで120delayが無視され、閑散スレで反映が遅いのも 納得がいく感じ。 なぜそうなるかはわからんけど 2ch→携帯スレにも書いたけど、23時頃からみれません エラーでます DoCoMoのFOMAのP2102浸かってます 2ちゃん見れないと激しく鬱です _| ̄|○ 22〜23時にかけて軒並み負荷上がってましたね。 何かトラブルでもあったのかな? http://server.maido3.com/pie/ を見ると docomo2,3 au1,2 others BlackGoat と全部転送量がへこんでますね、 なぜだろう、、、 全部って事は、 一番前か一番後ろが問題だったと 推測できるんだけど、、、不思議。 あとで、root★さんに調べてもらいましょう。 >>670 とかのエラーと何か関係があるのかな? あと、live8もほど同じ時刻に死んでいたみたいだけど、関係あるのかな? >>671-673 倒れている主人に口頭で伝えました。 「申し訳ないけど、明日以降で・・・」 と言っていました。 >>674 お体にはくれぐれもお気をつけくださいと お伝えください。。。 >>674 いつでもいいですよー ちょこっと見た感じでは、特にエラーは無かったです。 横からすんません。ちと教えていただきたいのですが Q.ネットワーク的に、携帯用の各鯖って comic6(banana388) と同じスイッチの下に ぶら下がったりしていますか? http://qb5.2ch.net/test/read.cgi/operate/1088767056/812 P.S. root ★さん、お体をお大事に… >>673 >>677-678 ふうむ、live8のダウンがおおいに影響していそうですね。 blackgoatが落ちたときはともかく、人気があるところが一つ死ぬとこうなるのは、、、。 >>679 >>572 にもあるように、アドレスが近いですね。同じスイッチなのかな。 昨日のcomic6の不調(live8が落ちてしばらく後にcomic6も不調になった)も、 何か関連しているのかも。 >>680 あ、どうもありがとうございます。元スレの方で、継続観測してみます。 今晩も起こるかどうか分かりませんがw なんかレスポンスが悪いような気がする。 トップとかはそこそこ軽いが、スレッドは重い。 BlackGoatの負荷が重くなってるのかな? 転送量規制にかかっているとか。。。 と携帯から妄想してみる >>685 例の、blackgoatが「あふれ出す」時間と一致してますね。 diskdいれてみるか。 まず、 cache_replacement_policy heap GDSF memory_replacement_policy heap LFUDA にしてみた。 diskdを入れるにはkern.ipc.msgmnbとかをいじる必要があって、 それはrebootしないとだめ(sysctlでは不可)みたい。 というわけで、アクセスの多い今の時間はとりあえず保留。 cache_mem を 80 MB に増やしてみた。 負荷が下がったみたい。 あと、cache_swap_lowとcache_swap_highはどうすればいいのかしら。 ちなみにキャッシュディレクトリ(ディスク)は十分おおきいです。 >>690 横からすんまそん。 cache_dir で指定したキャッシュの容量が大きければ、cache_swap_low _high の 差は数百Mbyteにもなるかもしれません。そのためこの2つの数値を近づけた方が いいかも… って記述しかありませんなぁ… とはいえ、_low、_high ってヒステリシスなしきい(←なぜか変換できない(素))値やから あまりシビアな設定にすると、酷い事になりそうやし。 とりあえず、デフォルトの 90、95 で様子を見て調整という、いつものパターンでしょうか? #IME2002のあふぉたれめ。閾が「しきい」で変換できんやんけ 「しきいち」でも「いきち」ちゃんと閾値ってでるぞ IME2000 >>691 実際に大きいので、近づけてみるか。 もうちょっとしたら、blackgoatの設定変更やります。 DDoS食らってる状態になるんだよ みんなリロードしまくるでしょ diskd化完了。 結局、以下をblackgoatのカーネルに入れて再構築&リブート。 # for squid cache options MSGMNB=16384 # max characters per message queue #options MSGMNI=40 # max number of message queue identifiers #options MSGSEG=2048 # max number of message segments in the system #options MSGSSZ=64 # size of a message segment (Must be 2^N) options MSGTQL=1024 # max amount of messages in the system ちょと確認させて頂きたいのですが、 メニューの中身があるサーバは、 c-au1.2ch.net c-au2.2ch.net (docomo1.2ch.netと同じ) c-docomo2.2ch.net c-docomo3.2ch.net c-others.2ch.net (c-others1.2ch.netと同じ) の5種類ということで良いでしょうか? >>697 c-othersのところは他同様、以下が正しいかと。 c-au1.2ch.net c-au2.2ch.net (docomo1.2ch.netと同じ) c-docomo2.2ch.net c-docomo3.2ch.net c-others1.2ch.net ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる