【カッパドキア】memories 2.0建造委員会2【過去ログ倉庫】
■ このスレッドは過去ログ倉庫に格納されています
2ちゃんねるの過去ログを一手に引き受けている
oyster902.peko.2ch.net+sumaもデビューから3年。
1.5TBのストレージはそろそろ満杯だし、フロントエンドも結構いっぱいいっぱい
そろそろ次の過去ログ倉庫を作らないとまずいなぁ・・・・
ってことで、RAID 6 8TBのbanana3000.maido3.comを作ってるんです
開発日記
http://www.maido3.com/server/zousan/
お姿
http://www.maido3.com/server/ebanana/
転送量グラフ
http://traffic.maido3.com/jfj1/McNh/nXAg/
■ ぞうさんからのお知らせ part1
http://qb5.2ch.net/test/read.cgi/operate/1197634004/l50
--------------------------------------------------------------
ここまでのお話
いよいよその姿を現した「ぞうさん(花子)banana3000.maido3.com」
しかし、過酷な試験に花子はくじけてしまいそうなのだった。
負けるな花子、がんばれ花子! 苦しくたって〜悲しくたって〜
ラックの中では平気なの >>7
3wareのカードだと各HDDの温度、SMART値も出せるよ
一部のHDD(真ん中とか)だけ温度高いとか調べてみようぜー ラックの裏に回って電源を引き抜くレバーに手をかけている。 壊れたら復旧不能になるくらいなら
FOX氏に実験用の鯖をもう一台作ってもらえばいいのに
VIPとは別の 来年になったら単体で2TBのHDD発売されるから、4台内蔵できるHDDBOXをNAS
か何かでつなげてバックアップすりゃいいんじゃね?
うはwwwオレ頭いいwww そういや何でマァヴたんてそんなに汗っかきなの?
冬だよ冬(^_^;) Background Task Rateで
「Rebuild/Migrate Rate」= 「Faster Rebuild」
「Verify Rate」=「Faster Verify」
にすると早くなる鴨
GUIでしかやった事無いからtw_cliの設定方法は知らん んだな(^_^;)
そしてそのころ、VIPの負荷が最大になるわけだ・・・・ 推定残り時間260分…
4時間20分後、明1時くらい 使いながらのリビルドってどんどん待ち時間長くなるんだよな 冗長性0の時は他のサービスを止めても良いかもしれないね。
調整、調整♪ >maido3.copmでは2007年12月のX'masを迎えるにあたり、
これがちょっときになったが。
>35
んだねー(^_^;)
冗長性0 危機的状況
冗長性+1 緊急事態
冗長性+2 平時だけどよくない状態(ホットスペアが起動した)
冗長性+3 平時で良好な状態
で+3と+2の間を行き来しているのが普通・・・・かな? 冗長性+3 青信号
冗長性+2 黄信号
冗長性+1 赤信号だけど渡れる
冗長性0 轢かれる
こういうことか 180分経過45%完了(^_^;)きっちり400分で完了のペースやね >>41
テスト中におきた事象なので、テスト全部終わるまでそのままか、おいちゃん待ちかも。
おいちゃん待ちの理由↓
929 名前: マァヴ ◆jxAYUMI09s 投稿日: 2007/12/19(水) 17:45:42 ID:qhIAlqBy0
>927
設定はおいらには治せないんだ(^_^;)ごめん ガンダムで言うと(^_^;)
冗長性+3 アムロいきまーすっ!
冗長性+2 シールドが壊れた
冗長性+1 メインモニターがやられただけだっ
冗長性0 コアファイターで脱出
HDDは毎月数台つづ購入し、予備待機かな?(ストック増えたら購入をヤメれば良い。)
同じ時期に一括購入したヤツは寿命を迎えると(ry
LA 30超えた(^_^;)メモリーはあと500MB 前スレだかに、ミラーリングしたHDDが壊れるのは片方のHDDの熱の所為だとかという説もあったね。 VIP無くなったら彼方此方にゆとりが散らばるのかな。見てみたいかも がんばれ花子(^_^;)花子はがんばった
LA 4.82まで下がった 905 ◆ageru/giNA [sage] Date:2007/12/19(水) 21:26:12 ID:zOMxBApe0 Be:
ランダムでID表示されれば、自演がバレて面白い場面が見られる( ^e^;)
・・・・・・っうか、名前ほんとに花子にしたのかよww VIP潰したい奴集まれー\(^o^)/
http://afox.2ch.net/test/read.cgi/news4vip/1198068022/
52 名前: 動け動けウゴウゴ2ちゃんねる [sage] 投稿日: 2007/12/19(水) 21:34:51 ID:eTNs0C3T0
いまVIPに物凄い負荷がかかったらどうなるの?
53 名前: マァヴ ◆jxAYUMI09s 投稿日: 2007/12/19(水) 21:35:07 ID:qhIAlqBy0
>52
さようならVIP(^_^;)とか ささやかないなぁ、、、寡黙にがむばる花子。
ぞうの鳴き声ってどのくらい種類があるんだろ?
少しはお話したりするんだったよね? ぱぉーん! >>62
実物のアフリカ象はおおよそ60近くの言葉を持っている
だが、超低周波で会話する為人間には聞き取れない 花子はメモリーのfreeが400〜500あたりで推移(^_^;) http://www.asahi-net.or.jp/~UE3T-CB/spa/gunai/gunai.htm
これは円山動物園→旭山動物園の花子
どうか無事終了しますように(^_^;)100%で止まったりしませんように
99%〜(^_^;) 100%達成(^_^;)冗長性+1に移行したことを確認! いやー(^_^;)危機は脱した
つーか、やっぱこういう実践的な試験は大切やね。
心構えを体験できるし。
付き合ってくれたみなさん、おつでしたー(^_^;) 残り作業(^_^;)
1 デッキのラベリングとRAIDカードのポート番号が一致しているかの確認
2 15本体制へのリビルド
3 ホットスペアの回復
ってことで、明日10時くらいに、1をやるために一旦電源が落ちるかもー(^_^;)
目視点検やるー キタ━━━━━━(゚∀゚)━━━━━━!!!!
さぁ、寝るか^^ 俺はXOだかで(^_^;)がHDD引っこ抜いてるかと思ったんだ
所が洗濯物を引っこ抜くのを忘れてたんだ ホットスペアREADY(^_^;)冗長性+2に
そして15本体制にリビルド中(^_^;) >>126
先にホットスペアが増えるんですか。
つまり、
RAID6 2本欠損 (角番)
↓
HDD挿入
↓
リビルド始まる
↓
RAID6 1本欠損
↓
HDD挿入
↓
リビルドしないでそのままホットスペアに
↓
RAID6 1本欠損 + ホットスペア
↓
HDD挿入
↓
リビルド始まる
↓
RAID6 欠損なし + ホットスペア (完全状態)
ということなのかな。 >129
こんな感じです(^_^;)
RAID6 2本欠損 (角番) ←昨日18:00頃
↓
HDD挿入
↓
リビルド始まる ←昨日18:20頃
↓
RAID6 1本欠損 ←本日01:30頃
↓
HDD挿入 ←本日11:00頃
↓
リビルド始まる→現在も進行中
↓
HDD挿入
↓
即時ホットスペアに ←いまここ
↓
RAID6 欠損なし + ホットスペア (完全状態) >>130
なるほど、第二回の*リビルド中に*もうひとつHDDを挿入したと。
それならわかります。
第一回のリビルド中にもう一本挿入したらどうなったのかしら。
あと、昨日ばたばたしてたようですが、
結局ぶち抜きテストはどんな結果になったんでしたっけ。 無事に済んだらVIPの再引越しか?
またVIPPER達はギャースカ騒ぐんだろうな 引っ越しの時は、先にyutoriを落としてください そりゃまあ、自分の常駐板でやられりゃ騒ぐ気持ちもわからんでも
しかし、素直?なぐらい反応するなあ・・・面白いw >>132
> VIP落ちた
がなぜか、は、ちょっと気になるところかも。 >>131
即時ホットスペア
リビルド終了
またリビルド始まる
RAID6欠損無し >>8だけど、こんなのどうかな?
「smartmontools」によるハードディスクの監視
「MRTG」による温度のグラフ化
http://www.crimson-snow.net/tips/unix/smart.html
S.M.A.R.T.情報の取得
http://www.medias.ne.jp/~nagata/xeon/smartmontools.htm
-d オプションで3wareポート毎情報を取得出来るみたい >>137
実験開始直後に板にアクセスできなくなったから
cgiがとまったか、データ防護で止められたか
セッティングと看板、LRが飛ぶのは予想外でした >131
昨日のテストはかなり長い話になります(^_^;)
というか、現在昨日の出来事は結局どういうことだったのかを整理中ー
>>142
了解です。
板設定 (>>141) は、元に戻したんでしたっけ。 >>143
おちる少し前のセッティングを流し込んでもらえた模様
それまで、任意IDやら連投規制がゆるかったり名無しが「名無しさん」になったり祭に
ちゃんと確認はしてませんが、1001のAAが1世代前(ずれたままのAA)に戻ったらしいというのを
afox運用で見かけましたね
あれって、直ったんですかね どこかに排他処理の緩い部分があるんだろうね。
落ちる前のリクエストがバッファリングされているだろうしー
冗長性0になったらロックしてリカバリー処理に専念した方が安全なのかもしれない。
でも、0になる前に対処するのが運用管理ってもんだよな。
保守管理作業でのミスまで考慮したら冗長性+1の時にロックすべきか、、、キリが無い。 んーと(^_^;)わかりやすいようにHDDを次のように書きます
1-2-3-4-5-6-7-8-9-10-11-12-13-14-15-16
7がホットスペアです。○付き数字は故障しているとかそういうドライブです。
昨日の試験開始前の初期状態は検証した結果
1-2-3-4-5-6-F-8-9-10-11-12-13-14-15-16
でした。つまりホットスペアは機能していなかった(昨日見てた人、この先の悲劇はもうわかるよね?(^_^;))
ここからドライブを生きたまま3本引き抜き始めます。
(すでに悲劇は確定的です(^_^;)) VIPのSETTING.TXT等が飛んだのは
現在VIPがジンギスカンだということと関係あるのかも、、、
/md/ がらみと思うなぁ >>147
そうやって並べるなら、ホットスペアは単にHでいいんじゃないかなと。 まず1を抜きます
@-2-3-4-5-6-F-8-9-10-11-12-13-14-15-16
ここでは、表面上なにも起こらず、サービスは維持されています
冗長性は+1です
さらに2を抜きます
@-A-3-4-5-6-F-8-9-10-11-12-13-14-15-16
これでも表面上は何も変化はなく、サービスは維持されていました。
*冗長性は0です*
さて、ホットスワップが機能していないことに気がついていないおいらは
いよいよ*冗長性0*を試すために3番を抜きます・・・・ で、説明の続きをおながいします。
なんとなくわかった気がしますが、まずは整理整頓をば。
>>148
なるほど、今回のHDDとは別事情ということで。 @-A-B-4-5-6-F-8-9-10-11-12-13-14-15-16
ディスクアレイは停止し、サービスが止まりました(^_^;)
なぜ止まったのかわからないまま、試験を続行しました。
次に3を刺します。
@-A-3-4-5-6-F-8-9-10-11-12-13-14-15-16
この時点で、ステータス上は正常(冗長性0)とされ、リビルドなどは発生しませんでしたが
ここでサービスが再開したかあるいは停止したままだったか、現在不明。 >153
サービスが再開しなかったことが今、確認された。 >>154
(^_^;)がないと真面目っぽく見えるよ>< 更に、2を挿入しました
結果、リビルドが開始されました。
@-R-3-4-5-6-F-8-9-10-11-12-13-14-15-16
このリビルド中に1を挿入しました
すると、1はunit 1に組み込まれ、レイドアレイの外に出てしまいました。
2番のリビルドが終わった時点で
[1]-2-3-4-5-6-F-8-9-10-11-12-13-14-15-16
という状態になりました(ちなみにホットスペアの7番はunit2になっていて、やはりレイドアレイの外です) >>153-154
なるほど、状況よくわかりますた。
データが吹っ飛ばなかったのは、運がよかったですね、、、。
で、
サービスが再開しなかった
↓
リブートかけた
んでしょう。きっと。
それで、リブートした時に、
「前に一時的にドライブが見えなくなったけど、
同じドライブがまた見えるようになったみたい。
データも残っているから、とりあえずよしとしよう、そうしよう」
となったんですね、きっと。 この時点で、サーバをリブートし(リビルドが終わるのを待った)た結果
サービスが再開しました。
これが、昨日の16:00頃です。 >>159
つまり洗濯物が干されていない状態(前日のが洗濯槽に入ったママ)でzzz... 第二部(^_^;)
さて、ここで現象を振り返って色々考えたわけですが
まだホットスペアが機能していなかったこと(つまりレイドアレイが破綻したこと)について気がついていません。
第二部の開始状態は以下のとおりです。
[1]-2-3-4-5-6-[7]-8-9-10-11-12-13-14-15-16
ホットスペアも別ユニットになっているので[7]としますね。 >>163
これは、「RAID6 で一本欠損していて、ホットスペアなしの状態」
でいいのかしら。 次になにをしようとしたかというと
[1]を抜いて、再度刺してリビルドが行われるかどうかを確かめようとしました
しかし・・・・ここで間違えて4を抜いてしまったのです
(おいらがラベリングとポートの対応を間違えた。これは人為的ミス)
この結果
[1]-2-3-C-5-6-[7]-8-9-10-11-12-13-14-15-16
となります。
冗長性は0です。
ここで初めてホットスペアが機能していないという事実に気がつきます(^_^;)
しかし、実はまだ第一部の検証が終わっていなかったため
レイドが破綻した事実には気がついていません(^_^;)とほー (^_^;)はようやく、のぼりはじめたばかりだからな
この、はてしなく遠い鯖坂をよ… さて、間違えて引き抜いたことは、引き抜いた直後に気がつきました(^_^;)
しかし、サービスは継続しています。
冗長性0である認識はあったので、まず復旧を行います
4番を刺しました。
[1]-2-3-R-5-6-[7]-8-9-10-11-12-13-14-15-16
サービスを継続したまま4番のリビルドが行われ
午前01:30頃無事リビルドが完了。冗長性は+1になりました。 第三部(^_^;)
いよいよ全体像がつかめてきました(^_^;)
あとは[1]と[7]を復旧させるだけです。
当初の考えどおり、1を抜いて再度刺しましたが、状況は変わらず。
そこで[1]を再度抜いた状態で、unit 1を削除しました。
で、全体をリスキャンして、状態を再確認すると
@-2-3-4-5-6-[7]-8-9-10-11-12-13-14-15-16
・1はディスクがないよ
・7はunit1だよ
と認識するようになりました。 マァヴ(^_^;) はRAID6より強かった。すげー!
最小被害で抑えたぞうさんもすげー! そこで1に新品のディスクを挿入しました。
リビルドが始まりました。
R-2-3-4-5-6-[7]-8-9-10-11-12-13-14-15-16
更に、7を抜いて、unit1(7が属しているunit)を削除。
7にリスキャンをかけて7に新品を刺したら
刺した瞬間からホットスペアが機能しはじめました。
現在の状況は
R-2-3-4-5-6-7-8-9-10-11-12-13-14-15-16
1のリビルドが終われば完了の予定です(^_^;)ふう >>177
完走したら再度、
【カッパドキア】memories 2.0建造委員会【過去ログ倉庫】
http://qb5.2ch.net/test/read.cgi/operate/1190270743/910
の情報を貼っていただけるとうれしいです。
マァヴさんの説明によれば、
上記は、ホットスペアが機能してなかった状態のもののはず。 まぁ、なによりってことで
>>178
確かにそうだ >>177
活抜実験のとき、3DM2の画面には何も
出てなかったの?(GUI版を使用してた場合だが)
あい(^_^;)
Unit Maintenance (Controller ID 0)
------------------------------------
Unit 0 15 drives RAID 6 5.91 TB OK
Port 14 ST3500630AS 465.76 GB OK
Port 13 ST3500630AS 465.76 GB OK
Port 12 ST3500630AS 465.76 GB OK
Port 11 ST3500630AS 465.76 GB OK
Port 10 ST3500630AS 465.76 GB OK
Port 9 ST3500630AS 465.76 GB OK
Port 8 ST3500630AS 465.76 GB OK
Port 15 ST3500630AS 465.76 GB OK
Port 6 ST3500630AS 465.76 GB OK
Port 5 ST3500630AS 465.76 GB OK
Port 4 ST3500630AS 465.76 GB OK
Port 3 ST3500630AS 465.76 GB OK
Port 2 ST3500630AS 465.76 GB OK
Port 1 ST3500630AS 465.76 GB OK
Port 0 ST3500630AS 465.76 GB OK
------------------------------------
Unit 1 15 drives RAID 6 5.91 TB INOPERABLE
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
Port 7 ST3500630AS 465.76 GB OK
-- -- -- NOT PRESENT
------------------------------------ banana3000# date
Wed Dec 19 22:31:26 PST 2007
banana3000# tw_cli
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 OK - - 64K 6053.47 ON OFF
u1 RAID-6 INOPERABLE - - 64K 6053.47 OFF OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 OK u0 465.76 GB 976773168 6QG0TLHT
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 OK u1 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000> 現在の状態
1-2-3-4-5-6-[7]-8-9-10-11-12-13-14-15-16
7は別ユニット(^_^;) >>181
微妙に出力形式が違うような、、、。
show unitstatus
とかすればいいのかしら。 >>182-183
了解です。
man してみた。
やはり show unitstatus でわかるみたい。
(以下引用)
/cx show unitstatus
This command presents a list of units, their types, capacity and status cur-
rently managed by the specified controller /cx.
Example:
//localhost> /c2 show unitstatus
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache AVrfy
------------------------------------------------------------------------------
u0 RAID-5 OK - - 64K 596.004 ON OFF
u1 RAID-0 OK - - 64K 298.002 ON OFF
u2 SPARE OK - - - 149.042 - OFF
u3 RAID-1 OK - - - 149.001 ON OFF u0 が RAID-6 OK で、
u1 が SPARE OK なら、
ぱちぱちぱち、で。 >185-186
そういう表示にならなかった(^_^;)
//banana3000> /c0 show unitstatus
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 OK - - 64K 6053.47 ON OFF
u1 RAID-6 INOPERABLE - - 64K 6053.47 OFF OFF
//banana3000>
これはホットスペアとして機能してないってことなのか?(^_^;) で、、、。
>>182 をみると、なっていないような肝。
/c0 add type=spare disk=7
/c0 show
でどうかな。
で、マァヴさんのここまでの説明は、よく見るとちょっとどきどきですね。
>>182 とかはドライブを「0から数えている」のに、
マァヴさんは1から数えている。
しかも、別ユニットのは番号が7で一致している、、、。 >>188
してませんね、、、。
u1 の設定がおかしい気がします。
まだマニュアルを5分ぐらいしか読んでませんが、
このRAIDカードは、
・物理 port 0 - port 15 に HDD がつながる
・論理ユニット u0 とか u1 単位で、RAID 設定や spare 設定ができる
・u0 を RAID 6 にして、u1 を spare にする、という感じで設定する
みたいなので、
u0 は 0-6, 8-15 で RAID 6
u1 は 7 で spare
になっていないとおかしいと思います。
で、例えばシステムディスクもここに入れたければ、
u0 0-1 で RAID 1
u1 2-14 で RAID 6
u2 15 u0 u1 共通の spare
とかいうのも可能みたい。 Port7のディスクは刺さってるだけということですか? といったところで本業の会議。
そのあと締め切り物の原稿(これはもう今やっているが、、、煮詰まるとここに)。
んでは。 >>192
Probably, yes, I guess. >189
あー(^_^;)経緯説明内の番号は、0から15のところ、間違えて1-16で書いちゃいました
操作したドライブの番号は間違ってないけど、あの図の
1の前に0を加えて、最後の16を削ったのが正しい情報になります。 >194
どもです(^_^;)
ホットスペアまわりはもうちっと調べて、必要があれば実験するですー coming soon に一致する日本語のページ 約 529,000 件中 1 - 50 件目 (0.08 秒)
comming soon に一致する日本語のページ 約 83,000 件中 1 - 50 件目 (0.29 秒)
もしかして: coming soon マァブはrootに教えてもらって
cunning soon 運用手順を間違えても、データを守る堅牢性は誇っても良いと思うんだ。
とりあえずRAID6、ホットスワップで動かそうよ。 とりあえず、強度はおk。と。
次はマァブの整形だなw
取説10000000回読み直しとけー。 [3dm2でのユニットメンテナンス&確認画面]
Unit Maintenance (Controller ID 0)
------------------------------------
Unit 0 15 drives RAID 6 5.91 TB OK
Port 14 ST3500630AS 465.76 GB OK
Port 13 ST3500630AS 465.76 GB OK
Port 12 ST3500630AS 465.76 GB OK
Port 11 ST3500630AS 465.76 GB OK
Port 10 ST3500630AS 465.76 GB OK
Port 9 ST3500630AS 465.76 GB OK
Port 8 ST3500630AS 465.76 GB OK
Port 15 ST3500630AS 465.76 GB OK
Port 6 ST3500630AS 465.76 GB OK
Port 5 ST3500630AS 465.76 GB OK
Port 4 ST3500630AS 465.76 GB OK
Port 3 ST3500630AS 465.76 GB OK
Port 2 ST3500630AS 465.76 GB OK
Port 1 ST3500630AS 465.76 GB OK
Port 0 ST3500630AS 465.76 GB OK
------------------------------------
Unit 1 1 drive SPARE 465.75 GB OK
Port 7 ST3500630AS 465.76 GB OK
------------------------------------ さて、これでスペアとしてして動くのか?(^_^;)
・ここで、レイドアレイから一本抜くと、ホットスペアが機能するか?
・ホットスペアとして機能したとして、抜いたベイに新たにHDDを刺すとどうなるのか?
・ホットスペアが使われた後の、処理はどうなるのか? 会議終わり。
これを可能であれば印刷・製本して、手元においておくと幸せになれると思います。
tw_cli コマンドの使い方は、これと同じのはずです。
http://www.3ware.com/support/UserDocs/CLIGuide_9690.pdf
3ware SAS/SATA RAID Controller
Command Line Interface Version 9.5
Supports the 9000 Series(9690SA, 9650SE, 9590SE, 9550SX, and 9500S)
110ページぐらいあるようです。
でも、「隅から隅まで全部読む」のではなく、
「手元において、必要なときにいつでも読めるようにしておく」
ことが、たぶん重要です。
印刷・製本は、
キンコーズみたいなところに頼んでもいいですが、
とりあえず印刷して、バインダーに閉じておくだけでもじゅうぶんです。
うちにいくと、Suma ストレージのマニュアルを印刷・製本したものが転がっています。
150ページぐらいだったかな。もう4年前か。
がんがってくださいと、('A`)さんにお伝えくださいです。>マァヴさん >>211
おお、いいかんじに見えますね。
ようやく、ここから本番スタートで。
今までのは全部リハーサル。 あーよかった。マニュアルを探していたところだった。
もう一度、想定される動作を確認
↓ >>220
おつですた。
「くれぐれも全部を読んですべて理解しようとしないでください」と、
('A`)さんをはじめ皆様にお伝えくださいです。
「インデックスからマニュアルをうまく拾い読みする」のも、
スキルのひとつということで。 明日の予定(^_^;)
1 現在の状態で、正しくホットスペアが稼動するのか
2 ホットスペアを稼動させた後、新たなホットスペアを補充する手順の確立
たぶん、花子で一番多い作業がこの2つになるんで、みっちり検証します(^_^;)
予備のHDD使い切ったので、今夜はフォーマット大会の予定。 何とか大会って言うのは大阪人の特徴らすい。
洗濯大会とか、買い物大会とか、フォーマット大会とか。
テレビでやってた ちなみにおいらは京都人です(^_^;)
京都人も見えない刀で切られます・・・・たぶん 今日の予定(^_^;)
1 現在の状態で、正しくホットスペアが稼動するのか
2 ホットスペアを稼動させた後、新たなホットスペアを補充する手順の確立
は予定通り粛々と執り行われるのだろうか ■ ぞうさんからのお知らせ part1
http://qb5.2ch.net/test/read.cgi/operate/1197634004/204-205
Degraded になってそのまま Inserted にならなくても
Rebuild がスタートしたということは、、、。 ホットスペアをアタッチしたらメッセージだすんじゃね?
出てないって事は1本少なく再構成? そりゃ時間かかるわな。 HDDの圧迫を理由に、削除依頼されたスレ削除すれば、空きが増えるよ。 いやリビルドスタートってことはホットスペアを取り込んだんでそ
でなかったらデグレードのままのはず。 >>233
http://www.medias.ne.jp/~nagata/xeon/3ware%209690SA_series%20hex_error_codes.htm
のってないからたぶんないんじゃない? unit 0:0-1-2-3-4-5-6-8-9-10-11-12-13-14-15
unit 1:7
が初期状態(^_^;)unit 1にアサインされている7番がホットスペアー
で、1番を抜いた瞬間が(^_^;)つhttp://qb5.2ch.net/test/read.cgi/operate/1197634004/203
unit 0:0-×-2-3-4-5-6-8-9-10-11-12-13-14-15
unit 1:7
続いて、1番が使えなくなったので(^_^;)つhttp://qb5.2ch.net/test/read.cgi/operate/1197634004/204
3分ほど経過して、ホットスペアーが機能
unit 0:0-1-2-3-4-5-6-7-8-9-10-11-12-13-14-15
レイドアレイに7番が参加
リビルドが始まる(^_^;)つhttp://qb5.2ch.net/test/read.cgi/operate/1197634004/205
現在リビルド中〜(^_^;) あー(^_^;)最後の状態間違えてる
unit 0:0-×-2-3-4-5-6-7-8-9-10-11-12-13-14-15
やね。 この後
Rebuild completed: unit=0とささやいて
unit 0:0-1-2-3-4-5-6-8-9-10-11-12-13-14-15
unit 1:1
port:1がホットスペアになればOK? >242
そそ(^_^;)
最後に1番刺して、ホットスペアに仕立てる手順がうまくできればOK
予定では
unit 0:0-2-3-4-5-6-8-9-10-11-12-13-14-15
unit 1:1
になって1番がホットスペア(^_^;) 順調のようですね。
リビルド中(たった今)は、
>>182 >>211 の表示はどうなるのかしら。
あと、show c0 の結果とか。 >>242
ポートは物理的なはずなので、こうなるじゃないかな。
unit 0:0-2-3-4-5-6-7−8-9-10-11-12-13-14-15
unit 1:1 そっかそっか。unit 0からport1が追い出されるんだ。
んで自動的にport7がunit0に組み込まれる。と。
だから>242は間違いで
>243,245が正解。 これが現状(^_^;)
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 REBUILDING 71%(A) - 64K 6053.47 ON OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 DRIVE-REMOVED - - - -
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 REBUILDING u0 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000> で、これがうまくいったらいよいよ、
・リビルド中にもう一本、news4vipを動かしながら抜く
これで。 ホットスペア起動のメッセージが欲しいねぇ
無いのならステイタス一式をチェックするシェルスクリプト等で
変化を囁いて欲しいものだ。ま、ボチボチー♪ Insertedがそれでそ。デグレーデッド状態じゃないかリビルド中でなければ、そのまま何も使われない=ホットスペア 4時間経過(^_^;)
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 REBUILDING 94%(A) - 64K 6053.47 ON OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 DRIVE-REMOVED - - - -
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 REBUILDING u0 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000>
Unit Maintenance (Controller ID 0)
Unit 0 15 drives RAID 6 5.91 TB REBUILDING 94% (active)
Port 14 ST3500630AS 465.76 GB OK
Port 13 ST3500630AS 465.76 GB OK
Port 12 ST3500630AS 465.76 GB OK
Port 11 ST3500630AS 465.76 GB OK
Port 10 ST3500630AS 465.76 GB OK
Port 9 ST3500630AS 465.76 GB OK
Port 8 ST3500630AS 465.76 GB OK
Port 15 ST3500630AS 465.76 GB OK
Port 6 ST3500630AS 465.76 GB OK
Port 5 ST3500630AS 465.76 GB OK
Port 4 ST3500630AS 465.76 GB OK
Port 3 ST3500630AS 465.76 GB OK
Port 2 ST3500630AS 465.76 GB OK
Port 7 ST3500630AS 465.76 GB REBUILDING 94%
Port 0 ST3500630AS 465.76 GB OK
14時35分頃完了予定(^_^;) >>253
そういうことですね。
でもInsertして何も使われないからホットスペア、
というわけではないです(昨日の例からもわかるように)。
>>254
rebuild がうまくいったら、p1 に別の HDD を刺すわけですが、
その時に自動的にホットスペアになるか、あるいはならないかは、
たぶん RAID カードの設定内容次第な気がします。 >255
ぅぃぅぃ(^_^;)予測では
「スキャンして、unit 1に認識させて、さらにホットスペアの指定をしなければならない」
リビルド完了したので、チェックが終わったらこらから試します。
4時間14分で完了(^_^;)
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 OK - - 64K 6053.47 ON OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 DRIVE-REMOVED - - - -
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 OK u0 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000>
Unit Maintenance (Controller ID 0)
Unit 0 15 drives RAID 6 5.91 TB OK
Port 14 ST3500630AS 465.76 GB OK
Port 13 ST3500630AS 465.76 GB OK
Port 12 ST3500630AS 465.76 GB OK
Port 11 ST3500630AS 465.76 GB OK
Port 10 ST3500630AS 465.76 GB OK
Port 9 ST3500630AS 465.76 GB OK
Port 8 ST3500630AS 465.76 GB OK
Port 15 ST3500630AS 465.76 GB OK
Port 6 ST3500630AS 465.76 GB OK
Port 5 ST3500630AS 465.76 GB OK
Port 4 ST3500630AS 465.76 GB OK
Port 3 ST3500630AS 465.76 GB OK
Port 2 ST3500630AS 465.76 GB OK
Port 7 ST3500630AS 465.76 GB OK
Port 0 ST3500630AS 465.76 GB OK >>257じゃあささやかなくても、ホットスペアに指定するコマンドに偽ささやきさせればおkじゃね? >>258
> Port 8 ST3500630AS 465.76 GB OK
> Port 15 ST3500630AS 465.76 GB OK
> Port 6 ST3500630AS 465.76 GB OK
> Port 2 ST3500630AS 465.76 GB OK
> Port 7 ST3500630AS 465.76 GB OK
> Port 0 ST3500630AS 465.76 GB OK
(´-`).。oO(なるほど、今回のボリュームを最初に作った時点では port15 がホットスペアだったんだろうな・・・)
(´-`).。oO(で、それが何かの拍子に既に変わっていたんだろうな・・・)
(´-`).。oO(なんでだろうな・・・) >260
第一回のテストでホットスペアが起動したから(^_^;) >>261
自動でホットスペアにはならないんでしたっけ。
というか >>262 の状態である今、状況を確認すればいいのか。 >263
第一回の結果から、そのように推測されます(^_^;)
で、現在の状況は・・・・・
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 OK - - 64K 6053.47 ON OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 OK u? 465.76 GB 976773168 6QG14N85
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 OK u0 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000>
p1 OK u? 465.76 GB 976773168 6QG14N85
やはり自動で組み込まれない(^_^;)
すこし時間を置いてみる。 10分経過(^_^;)やはり自動で認識はしないのでリスキャンかける
これでu1にアサインされるはず・・・・ 挿入されたら自動でリスキャンするようにするんだよね リスキャンの結果(^_^;)
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 OK - - 64K 6053.47 ON OFF
u1 RAID-6 INOPERABLE - - 64K 6053.47 OFF OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 OK u1 465.76 GB 976773168 6QG14N85
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 OK u0 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000>
Rescan found the following unit(s): 1 : Found the following drives(s):
[none]
Unit Maintenance (Controller ID 0)
Unit 0 15 drives RAID 6 5.91 TB OK
Port 14 ST3500630AS 465.76 GB OK
Port 13 ST3500630AS 465.76 GB OK
Port 12 ST3500630AS 465.76 GB OK
Port 11 ST3500630AS 465.76 GB OK
Port 10 ST3500630AS 465.76 GB OK
Port 9 ST3500630AS 465.76 GB OK
Port 8 ST3500630AS 465.76 GB OK
Port 15 ST3500630AS 465.76 GB OK
Port 6 ST3500630AS 465.76 GB OK
Port 5 ST3500630AS 465.76 GB OK
Port 4 ST3500630AS 465.76 GB OK
Port 3 ST3500630AS 465.76 GB OK
Port 2 ST3500630AS 465.76 GB OK
Port 7 ST3500630AS 465.76 GB OK
Port 0 ST3500630AS 465.76 GB OK
Unit 1 15 drives RAID 6 5.91 TB INOPERABLE
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
Port 1 ST3500630AS 465.76 GB OK
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
-- -- -- NOT PRESENT
なるほど、デフォルトではリスキャンしてもいきなりホットスペアにはならないのね。 u1に1番が組み込まれたものの、今度はRAID 6アレイとしてアサインされている(^_^;)と
これを一旦解除して、Available Driveに設定しなおす。
>267
自動にするほうがいいのかな?(^_^;)できるかどうかはおいといて できるなら、自動組み入れがいい気がしますね。
oyster902 はそうなっています。
よくあるのは
「破損したディスク差し替えてランプついたけどそのまま設定するのを忘れてた」 空ディスクなら自動組み込み。何かが入ってたら、、、 >>272あるある〜。RAID5だとその数日後にもう一個の他のHDDが飛んで全滅ってパターン >272
確かに(^_^;)そういうミス防げる
>273
なんだよね・・・・(^_^;)条件が複雑すぎる気がする
つまり、よほど自動化のアルゴリズムが鉄壁でないなら
マニュアルでやったほうがいい気もするんだよなぁ・・・・・ >>275ベイを他の用途に使わないなら、差したら自動でいいんじゃね?
入れるのは空のHDDか古いかも知れない情報が入ったままのHDDなわけだから。 >276
ホットスペアの位置は、出動のたびに故障したHDDのポートに変わっていきます(^_^;)
どこがホットスペアになるかは、次に壊れたHDDの番号で決まるわけです。
なので、ベイを決めうちすることはできないかと(^_^;) Auto Rebuild に Hot Spare の項目無し。。。
ん〜探し方が悪いのかな。UserGuide_9690.pdf >>277Unit1に入ってるPortを指定すればおkじゃね?>>269の後半を調べて unit 1を削除し、port 1のDisk Type をSpare Diskに指定(^_^;)
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 OK - - 64K 6053.47 ON OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 OK - 465.76 GB 976773168 6QG14N85
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 OK u0 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000>
Successfully deleted unit(s) 1
Unit Maintenance (Controller ID 0)
Unit 0 15 drives RAID 6 5.91 TB OK
Port 14 ST3500630AS 465.76 GB OK
Port 13 ST3500630AS 465.76 GB OK
Port 12 ST3500630AS 465.76 GB OK
Port 11 ST3500630AS 465.76 GB OK
Port 10 ST3500630AS 465.76 GB OK
Port 9 ST3500630AS 465.76 GB OK
Port 8 ST3500630AS 465.76 GB OK
Port 15 ST3500630AS 465.76 GB OK
Port 6 ST3500630AS 465.76 GB OK
Port 5 ST3500630AS 465.76 GB OK
Port 4 ST3500630AS 465.76 GB OK
Port 3 ST3500630AS 465.76 GB OK
Port 2 ST3500630AS 465.76 GB OK
Port 7 ST3500630AS 465.76 GB OK
Port 0 ST3500630AS 465.76 GB OK
Available Drives (Controller ID 0)
Port 1 ST3500630AS 465.76 GB OK
>280
あ、まだ指定してない(^_^;)unit 1の削除までだった 自動化するなら他の場所で手動で特定の前処理をかけたディスクのみ
って事にするくらいで無いとヒューマンエラーを排除出来ない。
次はホットスペアが使われてリビルドされている最中に新しいHDD挿して
それが新たなホットスペアになるかの確認でもするん? u0 の中に hot spare として組み入れることはできないのかしら。 発生し得るヒューマンエラーって、他のデーターが入ってるディスクを放り込むぐらいしか無いと思うんだが。
その場合、中身の確認もせずに手動で設定するんなら全自動と一緒。 >283
するー(^_^;)
・ホットスペアが起動してリビルドしてる最中にホットスペア追加
・リビルド中にもう一本抜く >284
なぜ?(^_^;)というのが気になる
>285
たとえば複数のHDDが死亡した状態で、最初に刺したHDDは何になる?(^_^;)とか
刺された順番で振る舞いを変えなければならないとか
もちろん、決めておいて、そのとおりに動けばいいんだけどねー >>287
いや、そうすれば自動でいくんじゃないかなと。
u0 の中にホットスペアがあることがわかっているわけで。
そしてそれは、オペレータが「自動にしてもいい」時にする設定項目のような気がします。
これは直感というか、多分にコントローラの気持ちになってしゃべっていますが。 あと
1 一本抜く
2 ホットスペア起動→リビルド開始
3 リビルド中にホットスペア追加(が成功したとして)
4 更に一本抜く
どうなる?(^_^;)とか・・・・
ここいらあたりまでは確認したい。 >>287それが重要だとは思ってないけど、重要なら仕方ないね。
>>288ホットスペアはRAIDのunitの外部にあるんじゃないかと思うんだが・・・つまりスペア指定されたunitの所属 >288
なるほど(^_^;)
ちと考えます。
いや、だいたいの方向は決めてるんだけど、熟考するところなんで。
おおざっぱな思考
・現状で(いくつかの動作試験は残っているものの)要求を満たす動作をしている
・自動でホットスペアを動かすことで得られるメリットとデメリットはよくて±0
・自動でホットスペアを動かすための仕組みつくりと、その実証は結構大変(しかもできるかどうかもわからない)。
そうしなければならない強い理由があればやらないと・・・・って感じですね(^_^;)おいら的に
今、最優先でやりたいのは
「実際の運用上知っておかなければならないことの体験」と思います(^_^;) 不良クラスタ続発でハネたドライブがフォーマットされちまって再び登場。
ってのがホットスペアとして待機してたって経験が一度ある。
在庫ドライブの無い時に担当者が勝手にやった。
新品だから安全って事は無いんだけどー >>290
> >>288ホットスペアはRAIDのunitの外部にあるんじゃないかと思うんだが・・・つまりスペア指定されたunitの所属
なるほど、、、3wareのはそうなるですか。
私が本業方面で昔触ったやつとかoyster902についているSumaとかは、
確かそうではなかった記憶があるです(手元にマニュアル無いのでうろ覚えですが)。
>>291
「体験が重要」には同意です。
Experience の値を上げる方向で。
あと、自動でやるにせよやらないにせよ、
ヒューマンエラーを防止する策については、くれぐれもというかんじで。 >>292投入チェックの時に自動で調べてくれないんだ・・・それは怖いな。
>新品だから安全って事は
昔のIBMで初期不良率40%とかいう記録が残ってんのを見たことがあるw
だから差し替えたら全部書き込みチェックするもんだとばかり・・・(´・ω・`)シュマソ ディスク挿入したらメディアスキャンぐらいは、かかるんじゃないですかね。
もちろん設定次第ですが。 Unit 1 を設定し、ホットスペアとしてHDD#1が認識された(^_^;)
//banana3000> info c0
Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache
AVrfy
------------------------------------------------------------------------------
u0 RAID-6 OK - - 64K 6053.47 ON OFF
u1 SPARE OK - - - 465.753 - OFF
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 6QG15YS8
p1 OK u1 465.76 GB 976773168 6QG14N85
p2 OK u0 465.76 GB 976773168 6QG11Z7M
p3 OK u0 465.76 GB 976773168 6QG15ZP5
p4 OK u0 465.76 GB 976773168 6QG16SGK
p5 OK u0 465.76 GB 976773168 6QG15EYR
p6 OK u0 465.76 GB 976773168 6QG16SAM
p7 OK u0 465.76 GB 976773168 6QG15DFL
p8 OK u0 465.76 GB 976773168 6QG12MYG
p9 OK u0 465.76 GB 976773168 6QG12NSB
p10 OK u0 465.76 GB 976773168 6QG15YP4
p11 OK u0 465.76 GB 976773168 6QG14N7G
p12 OK u0 465.76 GB 976773168 6QG10SS5
p13 OK u0 465.76 GB 976773168 6QG14N66
p14 OK u0 465.76 GB 976773168 6QG14N34
p15 OK u0 465.76 GB 976773168 6QG10PGX
//banana3000>
Unit Maintenance (Controller ID 0)
Unit 0 15 drives RAID 6 5.91 TB OK
Port 14 ST3500630AS 465.76 GB OK
Port 13 ST3500630AS 465.76 GB OK
Port 12 ST3500630AS 465.76 GB OK
Port 11 ST3500630AS 465.76 GB OK
Port 10 ST3500630AS 465.76 GB OK
Port 9 ST3500630AS 465.76 GB OK
Port 8 ST3500630AS 465.76 GB OK
Port 15 ST3500630AS 465.76 GB OK
Port 6 ST3500630AS 465.76 GB OK
Port 5 ST3500630AS 465.76 GB OK
Port 4 ST3500630AS 465.76 GB OK
Port 3 ST3500630AS 465.76 GB OK
Port 2 ST3500630AS 465.76 GB OK
Port 7 ST3500630AS 465.76 GB OK
Port 0 ST3500630AS 465.76 GB OK
Unit 1 1 drive SPARE 465.75 GB OK
Port 1 ST3500630AS 465.76 GB OK
Available Drives (Controller ID 0)
NO DRIVES
>293
>ヒューマンエラーを防止する策については
ここですよね(^_^;)はい
いずれにしても自動化についてはもうちっと考えて見ます
つーか、おいらしか抵抗してないってことは自動化するのが普通なのかな?(^_^;) 今悩むのはナンセンスかと、
両方できるようになってから悩むべし >>297モレは、管理のヒューマンエラーより現場のヒューマンエラーの方が単純で頻度が高いんで、現場での人間の作業はなるべく減らした方がいいという見解。
何せ現場だと常に時間が無いから、担当者が軽いパニックに陥り易い。順番間違えとか処理忘れとか確認忘れとかw
ミスが凡ミスのわりに事態が深刻になるからね。可能な限り機械にやらせるべきだと思ってる。
やることが赤ランプのディスクを抜いてゴミ箱(不良ボックス)に捨て、新規ディスクを持ってきて差すというだけなら、並や大抵の馬鹿ならミスは起こせないでそ
で、そのまま待機室に戻っても、チェック後にまた使えないディスクを交換汁メッセージが入ってきて同じことを繰り返すw
>>298でも自動化するなら、自動化に必要になりそうな実験のフルログを今のうちにチェックしておかなきゃならないわけで・・・ >298
んだすな(^_^;)
ここまでにできたこと
・1本抜いたときの振る舞いの確認
・2本目抜いたときの振る舞い確認
・3本目抜いた時の振る舞いの確認
・4本目抜いてしまった時の振る舞いの確認(^_^;)
・逆手順の振る舞いの確認
・ホットスペアの復旧手順の確認 腹回りと言われなかっただけ、マシなんじゃないかと。 マァヴだって昔はアレだったんだぞ!きっと、多分…もしかしたら…… http://www.maido3.com/server/zousan/nikki3.html
>(^_^;):「おおっ、1号機(manidame)よりも凄く安定しているぞっ!」
まにだめwwwwwwww まにだめワロタ
てか、誤字をよく見かけるwプレスリリースとかにもあったような なんか、mamonoと何度か入力してたせいで手が自然にmaと入力してしまっているきがする __ _
/ .\__ノ )
(_ノ フ__,ノ
ノ ( ´∀`)
/ 凵 |コ
(. l
∪、, _ ,,ノ
凵 凵 さしずめ、百式は桃か。名の通り魔物か。
この連休、花子の調教も無さそうだし、余興、余興。 VIPをyutoriへ移転させないのかな。
年末年始、とくに年越しのVIPに対応するためという意味も持たせて百式作ってたような気がするんだけど。 確か進捗状況は
抜き差しのテストも終わって、ホットスペア追加等の手順も分かった
しかしSumaのようにガチャポンだけで行けないけどどうするよ?
ってな感じだったかと
負荷がかかっている状態でのテストは済んでいますが
この先もテストをする必要があるかどうかは、情勢によって変わるでしょう。 このあとの予定(^_^;)
あと1つだけ実験やります。予定は明日午前中。
1 一本抜く
2 ホットスペア起動→リビルド開始
3 リビルド中にホットスペア追加(が成功したとして)
4 更に一本抜く
どうなる?(^_^;)
これが終わって、16本すべてが所定の状態に戻ったら実験終了です。 マァヴさん
2つほど質問させてください
・実験中、サーバーは停止しますか
・今回の勝算はいかほどでしょうか >337
・停止するかもしれないししないかもしれない(^_^;)それを確認するための実験だし
・勝算って、どうなったら勝ちなんだろう?(^_^;)動作を確認できればいいわけなんで、勝ち負けはないと思う 停止どんとこい
VIP931で他に行けない奴らが鯖落とされたらどうなるか
いとをかし >>338
回答ありがとうございます
実験の趣旨をよく理解してませんでした、ごめんなさい
実験が成功するよう願っています 本日の実験結果(^_^;)
やること>336
初期状態
UNIT0 0-2-3-4-5-6-7-8-9-10-11-12-13-14-15
UNIT1 1 (ホットスペア)
#2を抜いた
UNIT0 0-2X-3-4-5-6-7-8-9-10-11-12-13-14-15
UNIT1 1 (ホットスペア)
ホットスペアが起動し、#1のリビルドが始まった
UNIT0 0-1R-2X-3-4-5-6-7-8-9-10-11-12-13-14-15
抜いた#2に新品のHDDを入れ、ホットスペアに設定(#1のリビルドは進行中)
UNIT0 0-1R-3-4-5-6-7-8-9-10-11-12-13-14-15
UNIT1 2 (ホットスペア)
#3を抜いた(#1のリビルドは進行中)
UNIT0 0-1R-3X-4-5-6-7-8-9-10-11-12-13-14-15
UNIT1 2 (ホットスペア)
ホットスペアが起動し、#2のリビルドが始まった(#1と#2のリビルドは平行して進む)
UNIT0 0-1R-2R-3X-4-5-6-7-8-9-10-11-12-13-14-15
抜いた#3に新品のHDDを入れ、ホットスペアに設定(#1と#2のリビルドは進行中
UNIT0 0-1R-2R-4-5-6-7-8-9-10-11-12-13-14-15
UNIT1 3 (ホットスペア)
今ここ(^_^;)
毎回ホットスワップの場所変わるの?
エラーランプとか無いみたいだし交換要員が間違ったりしないのかな? わかったこと
1 障害が発生し、ホットスワップが起動したら、障害HDDを新品に交換し、ホットスワップに設置できる
2 リビルド中に新たな障害が発生しても、ホットスワップがあれば機能する
ということで
「実行されているリビルドが2つ以下ならば、故障したHDDをホットスワップ化する」
ことで、連続した障害に対する耐性を向上できることが判明(^_^;)
ただし、現状(つまりリビルド2つ+ホットスワップ)では冗長性は0です。 >343
毎回変わります(^_^;)
ランプは点灯しない(というかない)ので、デッキ番号とポート番号で管理します。
デッキ番号とポート番号は一致しています。 >346
実験はこれで終了ですー(^_^;)ってことでいよいよ本題の「memories 2.0建造」かな? 現在まだリビルド中(^_^;)ちょいと待ってね
RAIDアレイがすべて平常に戻って、予備HDDがすべて準備完了したら終了宣言の予定 お。お。お。お。( ^ω^)
いよいよ本編スタート お疲れ様です
実験は大成功だったようで、喜ばしいことです
花子のささやきも働いていて心強いですね
2.0いよいよ始動ですか 今回は予測通りの動きを示しました(^_^;)
予想外だったのは、リビルドが2つ平行して進む点。
よくできてます>花子 >>351
> 予想外だったのは、リビルドが2つ平行して進む点。
ふむー。RAID 6だからってことですかね。 >352
RAID5では二つてこと自体発生しないわけで(^_^;)その状況では破綻してるし
RAID6の実装として、一台づつ順次リビルドではなくて、両方同時にリビルドするようになっているようです。
どっちがいいのかっていうと、一台づつのほうが、冗長性+1に速く到達する気もするんですが(^_^;) 1TBのデータ転送、気が遠くなるくらい時間かかりそう。 なるほど、rebuild の間は wait するんじゃないか、って思っていたということですか。>>353
その動作はなんとなくですが、configurable な気がします。
設定を変えるかどうかは別にして、マニュアルをあたっておくといいかも。 >355
あいあい(^_^;)確認します
とはいえ、現状で満足な状態なので、あえて1台づつモードは目指しません
原則、デフォルト(つまりメーカー推奨)を使いこなします。 >>353原理的に0→+1→+2よりも0→+2の方が、ざっと40%程度早いです。
0→+1と0→+2の差はだいたい6%ぐらいしかないはずなので、気にするほどではないと思われます。 >>356
> とはいえ、現状で満足な状態なので、あえて1台づつモードは目指しません
はい、それで問題ないと思います。
>>357
ほほう。 さて、次のアクションは、、、。
memories2、本格スタート? 記憶では、
1) システムディスクどうしようか
2) 使ってないネットワークカードが入ってるみたいだけど・・・
3) 長く使い続けるものだから当初から 64bit化、4G mem化 したほうがいいんじゃね
ぐらいが課題として出ていたはず。 >>366
で、
1) は、あえてこのままいく、という手もあるかな、という話をしていたと思います。
もちろん他の T-banana 同様に RAID 1 にするのもありだと思います。
2) は、気にする必要はないでしょう。
3) は個人的には、やっておきたい気がしますね。 ドライバーとかがちゃんとあるんだろうか・・・64bit >>368
twa の amd64 用ドライバがあるのは確認済です。 HDD大量に積んでるから、エアフローとか考えても
不必要なカード類は外した方がいいんじゃね? 作業完了予定(^_^;)明日の正午
残り作業
・予備HDDのフォーマット
花子自身は完璧に動作しています(^_^;) >>371
ハードウェアの予備体制も含め、明日正午にて準備完了と。
ということは、このまま過去ログ倉庫として2chにリリースする、
ということでおkなのかしら。 仕様はこのままで行こう。
つまり再インストールとかはなし、当然32bitのまま
ん? 64bitじゃなかったっけ? >>372
その方向でここで話し合いをつつけたいなと、 >>373
今は32bit版ですね。
banana3000:~$ uname -m
i386 一回も落ちずにいい仕上がりだと思うな
堅牢そのものに見える。 現在のスペックは、
標準T-banana - (250G HDD x 2) + 80G HDD + Realtek Network IF x 2
+ (RAID card + 500G HDD x 16)
ということになりますね。
標準T-bananaと同じ、メモリは2Gで、32bit版ということになるです。 へへへ(^_^;)おいらもそう思います
で、システムディスクですが・・・・
1RAID 1にする
2RAID 6にユニークデータを置いて、システムディスクはいつでも入れ換え可能にする
3RAID 6にユニークデータのコピーを置いて、システムディスクが壊れたら、そこを読み出せるようにして復旧させる
4このままでいく
5もっと凄いアイデアを考える
3が一番手っ取り早い上に、確実な気がします(^_^;) >>377
システムディスクがふっとぶリスクは旧banana程度にはあると思いますが、
その時には単純に HDD 交換(その間は収容している過去ログが見られない)
ってことですね。
RAID 6 のほうは、
ちゃんと設定ができてからは、きちんと動いている様子。 >>380
2 と 3 の違いは、、、。
symbolic link する、ということかしら。
だとすると、あんまりおすすめできないですね。
RAIDカードに異常が発生すると、復旧作業がしにくいです。
直感的に、1 か 3 じゃないでしょうか。 >383
ですです(^_^;)方法論は色々あるかもだけど
ユニークデータをRAID 6上に配置して、そこから読み込んで動くってことです。
というかきっと、
A) 1 と 3 の組み合わせ
B) 3
のどっちかがいい気がしますね。
1 と 2,3 は互いに独立な手法ですから。 くらべてみると(^_^;)
1のメリット
既知の手法(T-bananaで経験済み)
1のデメリット
両方ふっ飛ぶことがある(T-bananaで経験済み)
3のメリット
RAID1より堅牢である
現状から改変が不要
3のデメリット
始めてやることである
1に比べて復旧手順がちょっと複雑 あと、思うんですが、
基本的には旧 banana サーバのシステムディスクだけがこわれた時の
リカバリーオペレーションと、
本質的には同じなんではないでしょうか。
単に、データディスクが堅牢になって、
容量がばかでかくなっただけではないかと。
そしてその際のリカバリー手法やノウハウはさすがに、
既に蓄積されているんじゃないですかね。 んじゃそれで(^_^;)
どっちにしても4から始まるわけだし
なにはともあれ4でスタートってことで >388
です(^_^;)
4の状態である間は、bananaと同じですー >>387
それでいきますか。
>>381 の第一段落の運用ポリシーでいくんであれば、
わたし的には特に異論ないです。 んじゃ >>387 でいこう。
始まりはあした。それまで特に反対意見が出なければ
memories2 は船出 !! 明日VIPがyutoriに戻る
でよろしいですか? >>393
「かもね」くらいです。
大掃除、大掃除。 今のバーチャルホストを banana3000 に移したら、
旧 tiger/cobra 達は OS から入れ直して、
いよいよバックヤード系の旧 banana の置き換えにかかろうかと。
年始あたりからぼちぼちと。 ちなみにroot付き? rootなし?(^_^;) お薦めはrootなしなんだけど(RAIDまわりの扱いがあるので)
過去ログ倉庫の建造ってやったことがないんで、ちと不安(^_^;) >404
あー、普通にアカウント作るだけでいいのか(^_^;)了解了解 なるほど、
そういうことであれば、なしでいいんではないでしょうか。
基本は同じです。
2ちゃんねるには土地を出していただければいいはず。
あとは収容班(私とか)が作業して、
支障があればここで調整でいいんではないかと。 で、ぱっと思いつくところでは、
ページビュー計測のところですね。
「2ちゃんねるセッティング」して土地を出すということは、
おのおののバーチャルホストごとにページビューが計測される、
というかんじになるですね。
今の memories では httpd.conf を少し細工して、
teri.2ch.net で全部のページビューが計測されるようにしているです。
バーチャルホストが将来、100とかのオーダーになってくると、
今のしくみだと100個、ログ処理プログラムが常駐することになるので、
ここのところは何か、考えておいたほうがいいかもです。
ということで個人的には memories2.2ch.net という、
それ用のバーチャルホストを作って、
ページビュー用のログはもっぱらそこでとられるようにする、
とかいう手法がいいのかもな、と思いました。
いずれにせよこのへんは、実際の収容段階での調整事項ということで。 過去ログが整備されたのなら、一番アクセスが多い過去ログランキングとか出してくれると
累計・年・月・日計ぐらいででると面白いかもー
あったらすまそ、 ちなみに今のmemoriesには、250個のバーチャルホストが収容されているです。 >>410
あぁ その計画もすすんでいるんだった。
スレどだったかぁ 予備HDD出来上がり(^_^;)全て完了ー
花子、完成です こういうことこそ”壷”で宣伝しなきゃ
先日のポストでも呼ばれたけど とついにVIP出戻りか〜w
そして >>395 のイミがVIPの前に姿を現すw >>417
ということは、過去ログ収容用のアカウント作成依頼をしてもよい、
という話なんですかね。 >>424
了解です。
私のほうではまず一つ分収容作業をすすめてみて、
収容作業の流れを確立しようかと。
で、それより news4vip の移転が先の予感も。 ひとつ質問です。>>424
そろそろ年末年始休暇になると思うのですが、
アカウントの作成とかDNSの変更とかについては、
通常作業系としては、年内はいつまでおkでしょうか。
1) 今日
2) 明日
3) その他 >426
28日(本日) 28:00までOK 18:30までなら大量に来ても大丈夫
29日 18:00-28:00までOK
2日 10:00-18:00までOK
4日以降は普段通りー(^_^;)
ちなみにアカウントを作ってDNS通す以外にやることありますか?
DSOのセッティング
/mdのセッティング
pv計測のセッティング
などなど >>427
了解です。
んでは、必要な土地だけ作っておきますか。
要領ですが、基本的にはバーチャルホスト引越しのときと同じです。
ただし、DNS変更を*移動作業後*にしていただけると助かります。
1) banana3000 上にアカウントを作成いただく
* アカウント名はこちらで指示します。
* 例えば game11 なら ch2game11 とかになります。
2) アカウントの準備ができたら、
アカウント情報をアカウント作成依頼者までお送りいただく
* ただしこの時点では、DNSの変更はしないでください。
3) 作成依頼者がログインできることを確認し、必要な中身をコピーし、
過去ログサーバとしてのセットアップをする
(dat落としとか、64bitサーバから移動する場合はバイナリCGIの入れ替えとか)
* この作業の前に、該当サーバへのF22/F35、Rock54丁稚どん等が止まっていることを確認しておくこと
4) 作業終了後、DNS変更依頼を出す
5) DNSが変われば、めでたしめでたし あいあい(^_^;)了解です
で、アカウントに施す特殊なセッティングは? で、アカウント作成時のセッティング内容ですが、
・DNSはアカウント作成と同時には*通さない*(>>428 参照)
・dsoは通常通り設定いただく
・メモリディスクのセッティングは*必要ない*
・PV設定は通常通り設定いただく
で、おながいいたします。
以上、といった流れを考えております。 で、PVについては将来、何か考えたほうがいいかもしれないけど(>>409 参照)、
今はまず、たんたんとそのまま収容の方向ということで。 で、music8/tv11 の作業が終わったら、
土地作成をまとめて依頼しようかなと。 >>427
マァヴ、働き者だなぁ
今日は官庁御用納めなのに サーバ屋には盆も正月もないのだ(^_^;)まいったか でも毎日が祭日なんだろうなぁ♪@きゅうり踊りとか象さんの曲芸とか 参りました
そっか、サーバーは46時間中運転してるもんね
その面倒を見るのも休みなしかぁ
そのおかげでいつでも利用できるんですよね ってか年末・正月に休まれたらこっちも思う存分遊べない
実況鯖とか携帯鯖とか落ちたらたいへんたいへん ま、その分普段たっぷり休んでるからな(^_^;)はっはっは news4vip 移転した afox -> yutori おつです。>>445
afox はそのまま、
栄えある memories2 収容サーバ第一号ということで。 >>447
afoxはもう板は入らないのかしら?
それなら丁稚ドンoffしますけど・・・ ONのままでお願いしますー
いつでも再登場できるようにステンバイモードで
ex23もです >>451
まじで左手ヤバくないか?
「ステンバイ」 Stand by.
発音をカタカナ表記で「ステンバイ」が普通
ああ、突っ込んだから>>454負けね 以下、手はずどおりにてよろしくおながいいたします。
DNSはまだ変えないでくださいです。
ch2news23 news23.2ch.net
ch2ex20 ex20.2ch.net
ch2live25 live25.2ch.net
ch2tmp6 tmp6.2ch.net
ch2w5 wwwww.2ch.net
ch2game11 game11.2ch.net
ch2news21 news21.2ch.net
ch2game12 game12.2ch.net
ch2etc6 etc6.2ch.net
ch2life8 life8.2ch.net
ch2news22 news22.2ch.net
ch2anime2 anime2.2ch.net
ch2ex23 ex23.2ch.net >456
ack(^_^;)
DNSは変更せず、アカウントのみ作りますー 壷アナウンスは何でしょうw
場所をもらえるなら文句はありませんよ
少々驚きましたが アカウントできたらroot ★さん直送でいいのかな?(^_^;)
それともいつも通りおいちゃん経由? >>461
私はどちらでもおkです。
>>462
りょうかいです。 >>463
はい、よろしくおながいします。
冬休みの宿題? ということで。 >>466
受け取りました。
ログイン可能か、セッティングはよいか等の確認は、
ごはんの後で。 あと、banana3000 に memories2.2ch.net という代表名をつけようかなと。
memories.2ch.net に相当するもの。
で、ここで F22 まがいを動かし(memoriesで動かしているものと同じ)、
_services/ の下に負荷状況を記録しようかなと。
そうすると、http://ch2.ath.cx/ とかでグラフとして記録していただける予感。 で、>>468 の情報になります。
ch2memo2 memories2.2ch.net
これに関しては >>430 に加え、DNSを向けるのもやっていただけると助かります。
メモリディスクのセットアップは不要です。 作成いただいた全てのアカウントにログイン可能であることを確認しました。
今、パスワードを再設定しました。
ということで受け取りました。
あとはたんたんとすすめていくです。 >469
done(^_^;)
パスワードはさっきと同じですー >>472
すご、はえー。
確認 & パスワード再設定しました。
問題ありません。
毒男さん(仮名)をリーダーとする、root軍団の方々にもよろしくお伝えくださいです。
日記楽しみにしているですよ。 RAID1のT-Bananaがささやくようにはならんもんか? >>475
日記にあったのと同じようなしくみ作れば、いけるんじゃないですかね。
これとか使って。
%atacontrol
usage: atacontrol <command> args:
atacontrol list
atacontrol info channel
atacontrol attach channel
atacontrol detach channel
atacontrol reinit channel
atacontrol create type [interleave] disk0 ... diskN
atacontrol delete array
atacontrol addspare array disk
atacontrol rebuild array
atacontrol status array
atacontrol mode device [mode]
atacontrol cap device なお >>478 の PV は、今のところ memories2 全体ではなく、
memories2 だけのものです。
うまく全体の合計PVを出す方法とかは、もう少し軌道に乗ってからぼちぼちと。 >479-480
http://pv.40.kg/はまだ計測開始してないです(^_^;)
計測する時はmemories2.2ch.netで開始の予定〜
ところでmemories.2ch.netの250アカウントも同じ方針?(^_^;) どーん♪
ttp://sv2ch.baila6.jp/server.cgi?server=memories2.2ch.net >>481
memories の 250 アカウントは、
全部まとめてここ↓でとるように、設定で細工をしてあります。(see >>409)
http://teri.2ch.net/_service/
# 集めた場所が teri なのは、作業すすめた時の歴史的事情等によるものです。
ということで、memories2 でも基本的に同じ細工をすればいいはずなので、
>>479
> うまく全体の合計PVを出す方法とかは、もう少し軌道に乗ってからぼちぼちと。
ということでどうかなと。 んじゃてはじめに、これからひとつ収容作業してみます。 DNS変更いただきました。
これで、通常の収容作業は終了になります。
http://news23.2ch.net/kakolog.html
アクセスがこちらに来ていることを確認しました。
read.cgi / offlaw.cgi 等の動作確認へと。 ・read.cgi 正常動作を確認
* おすすめ2ちゃんねるが表示されないこともあわせて確認
・offlaw.cgi 正常動作を確認
これで1台分の収容作業は完了になります。
すべて正常で、作業上の問題点はみつかりませんでした。 バーチャルホスト毎にログを吐かなくすると良いのかな?
そすればメインのログを1回舐めるだけで各バーチャルホストの所定の場所(/_service/)に吐き出せば良さそうな。
@妄想(^-^) ひとまず表示でけた♪
ttp://sv2ch.baila6.jp/memories2.html
あとは自動でぽんぽん増殖するのかがお楽しみ♪ で、問題なさげなので、
まず第一次収容分を、たんたんとすすめていくです。 こっち的にはあとは、
・PVのところ(上記参照)
・_service の掃除部分
あたりですね。
たんたんとやっていけばいいかなと。 ex20, live25, tmp6 収容完了。
DNS 変更申請へと。 wwwww データ転送中。
締め切りに間に合えばこちらも。 F35 enabled: ex20, live25, tmp6 ちなみに今待機中のサーバ群は、F22/F35 まだ止めてないです。
・F22/F35 止めて
・コピーして
・F35 だけ有効にする
という手順で作業中。 wwwww の転送は、今日の 28:00 までには終わりそうもないみたいです。
ということで、年内の通常ルートでの格納作業は、
>>497 までということになるです。
ファイルはぼちぼち転送するかもしれないですが、
実際の移動完了は、来年ということで。 >>500
なるです => なりそうです
ですが、どうもすごいみたいです。
過去ログがそれこそ鬼のようにあるです。
ほんとに1年未満のサーバなのかしらってかんじ。 >>501
wwwwwって過去ログ全部でどのくらいの大きさなんですか? 大きさはたぶん、せいぜい 30GBytes ぐらいですが(それでもすごいけど)、
今回は大きさが問題じゃないんです。
問題なのは、「数」ですよ「数」。
過去ログ倉庫にいったいいくつスレッドがあるんでしょうか。
# 数えるとさらに時間かかりそうなので数えません、、、。 >>504
30GBってだけでもすごい、。
VIPの過去ログ倉庫とか見てると、スレッド数の桁がなんか違いますもんねえ・・・。 今年の2/22〜11/20まで、約9ヶ月=約270日wwwww鯖で、
2〜3月は4000スレ/日、4〜6月は6000スレ/日、7〜11月は7000スレ/日ってところっぽいから
平均6,100スレ/日×270日でだいたい165万スレ、ってところかぁ。
まぁ、スレ立て数=過去ログ倉庫の数と考えて問題あるまい。
ってーか、今の2ch全体でのliveスレって、38万スレくらいだと思ったけど、、 一日に4,000-6,000スレッドじゃなかったっけ? 確かに今月はそのあたりで推移してるんですけど、
なんか、11/20の移転の直後あたりから
スレ立て数ががくっと落ちてるみたいなんですよ。
http://sabo2.kakiko.com/bbspost/autoimg.cgi?bbs=news4vip&type=th
いちおうこれは、2006年からは、
自分で20分おきにsubject.txt取得してきた値になっているのですが。。 規制が 11/24 から再開したからかな?
それもハードに wwwww
game11
news21
game12
etc6
life8
news22
anime2
収容したので、DNS 変更依頼へと。 現在の容量:
%df -h .
Filesystem Size Used Avail Capacity Mounted on
/dev/da0p1 5.7T 109G 5.2T 2% /home あと土地作成済みで未収容なのは ex23 (= banana3153) だけですが、
これもたんたんと収容でいいのかしら。 たぶんそうだと思うけど、
何か特殊要因ありましたっけ? >>517
ex23(= banana3153(T-banana))の個体は開放でいいんでしたっけ、
という確認です。 うん
banana3153 は引き上げ、改修予定。 >>519
了解です。
そんでは収容作業流して、ばんめしいってきます。 >>515
ex23 収容後:
$ df -h .
Filesystem Size Used Avail Capacity Mounted on
/dev/da0p1 5.7T 118G 5.2T 2% /home df 見てなーんだ 2% かー、って思ってたら 100GB って...。
テキストデータでそんなことがあり得るのかーと目を疑いますたよ。
そういや、dat 圧縮の試みとかはあったんでしたっけ。 news21 news22 の収容完了確認後は、
PV をうまく1箇所でとる設定方法(たぶんそれほど難しくないです)を、
すすめていければなと。 さて、「過去ログサーバのページビューの合計を1箇所でとれるようにする作戦」を、
ぼちぼちと。
1) http://memories2.2ch.net/_service/ でとれるようにする
2) 今とっている http://news21.2ch.net/_service/ 等はとりあえずそのまま
3) F22 でやっている _service/ のクリーンナップ機構については別途考慮する
(過去ログサーバではF22は動いていない(F35は動かしている))
こんなかんじかなと。 etc6っていつまでread.cgi止めたままなの? Λ,,,,Λ ?
( ・ ・ )
.≧\。/ミ
/ |
〜(_.UU Λ,,,,Λ ?
( ^_^; )
.≧\。/ミ
/ |
〜(_.UU jane Doe Style だとetc7に変換されて読めないな。
壺なら読める。 うちのStyleでは設定しているブラウザで朝生(仮) 板の過去ログ倉庫が開くんだが >>538
doujin/.htaccess にかつてのウイルス除けのゴミが残ってました。 >>539
あれ?
同人板にウイルスの爆撃がまた始まったはゴミ取りをされたせいかしら? >>540-541
なるほど、500エラーになることで
「たまたま」止まっていたと。 ムーンライトバーチン☆⌒ 凵\(\・∀・) マダァ?? ||
||
||
||
;;-、 `爪
/ヽ;;) /ハヽ
∧_∧ / // |.| (\ (\
∧_∧_(◎・∀・∩ !,! . !,! / ⌒ ::ヽ
( ・∀|[__|o|_∧つ .ヽヽ_ノノ | :::::|
| つ ∩( ・∀・)) ( :::::::::| たのしいにちようび
と_)_)( つ|三|O / ::::::::| ┼ヽ -|r‐、. レ |
と_) ̄) | |_/ :::::::::::::| d⌒) ./| _ノ __ノ
_______
企画・製作 OHK は、花子が・・・
2ch サーバーダウン(鯖落ち)情報 part196
http://qb5.2ch.net/test/read.cgi/operate/1210076267/
255 :出先 ◆NAO/2MXDEk :2008/05/07(水) 10:09:28 ID:y6Ip9Vh3O
3000の件ですが、リブート中のfsckで不具合が出たそうです
で、再リブートだそうです まぁハードウェアには効いてもソフトウェアにまでは効かないからね>RAID 旧式datな鯖のalldat.soがヤバイ
,区切りな行と<>区切りな行が交互にある
↓例
http://1999.2ch.net/lobby/dat/6019319.dat >>555
旧版read.cgi入れたサーバは、anydat.so 消しておきます。
というか、anydat.so 自体過去ログサーバには必要ない予感。 書き方があいまいでしたが、
> 旧版read.cgi入れたサーバは、anydat.so 消しておきます。
のみを実施しました。 http://qb5.2ch.net/test/read.cgi/operate/1211962556/338
> 338 名前:マァヴ ◆jxAYUMI09s []: 2008/07/26(土) 19:12:06 ID:pJkWQt070 ?DIA(100721)
> >331
> これ、花子がサーバダウンしたためリブートした(^_^;)
> やっぱどっかがいまいちなんだけど、ログとかからは何も判明せず・・・・
> マザーボード交換作戦の季節がやってきた予感
そろそろアームの見せ所? 6番HDDのリビルド完了予定時刻は8月17日午前7時頃との予測(^_^;) 6.5Tじゃな・・・
引っこ抜きテストの時だって、中身無しなのに4h位掛かってなかったっけ? んだんだ(^_^;)
しかもサービス動かしながらだしねー 2ch運用情報板( http://qb5.2ch.net/operate/ )、
2ch規制議論板( http://qb5.2ch.net/sec2chd/ )
の各板の過去ログ倉庫の更新がストップしている問題について、報告します。
# 2ちゃんねる 過去ログ倉庫 運用情報 板
# http://qb5.2ch.net/operate/kako/
# 2ちゃんねる 過去ログ倉庫 アクセス規制議論 板
# http://qb5.2ch.net/sec2chd/kako/
のいずれも、倉庫番号は「1198」で停止したままです。
このため、それぞれの板で
昨年末以降から現在までにdat落ちしたスレッドを
過去ログ倉庫から探すのが困難になっています。
他板ではおおむね、倉庫番号は「#(板ディレクトリ名)1219」
あたりまで、過去ログ倉庫の作成が進行しています。 >>567 に追加して、
一例をあげますと、
# 重い重い重い重い重い重い重い×46@運用情報
# http://qb5.2ch.net/test/read.cgi/operate/1194499657/
までは、過去ログ倉庫
# http://qb5.2ch.net/operate/kako/o1194/
に収納され表示されています。
## 重い重い重い重い重い重い重い×47@運用情報
## http://qb5.2ch.net/test/read.cgi/operate/1196843423/
は、総レス数が7レスしかなく、
レスが付かないまま放置されてdat即死判定されたものでしょう。
これより後に立てられたスレッドについて、
# 重い重い重い重い重い重い重い×47@運用情報
# http://qb5.2ch.net/test/read.cgi/operate/1197346168/
(本スレとして総レス数1001)
は、過去ログ倉庫
# http://qb5.2ch.net/operate/kako/o1197/
に表示がされず、
それ以降のスレについては
そもそも過去ログ倉庫が存在しない状態です。 |⊂⊃;,、
|・д・) おいらのスレけ?
|⊂ノ】
|-J |⊂⊃;,、
|・д・) たぶんそうだべさ
|⊂ノ】
|-J
♪ ,,;⊂⊃;,、
♪ (・∀・∩) カッパッパ♪
【( ⊃ #) ルンパッパ♪
し'し'
ここがいいのかな。
2点ほど確認させてくださいです。
1) 私が体調崩しまくっている間に「仔花子」が入って、
状況が変化したわけですが、今って、
花子(全データを格納、一部データは外部にサービス)
| | |
| データをコピー、
| コピー分のバーチャルホストを仔花子に移動
| ↓ ↓
| 仔花子s(花子のデータのコピーを格納、コピーデータで外部にサービス)
| | |
↓ ↓ ↓
過去ログを見るユーザ
という構成でいいんでしたっけか。
それともデータは全部仔花子に分散コピーされて、
サービスは全部仔花子任せになったのかしら。
2) 1) だとして、仔花子s はどんなサーバが何台ぐらい入っているんでしたっけか。 *banana3000花子に残ってる分(26)
http://sv2ch.baila6.jp/memories-hanako.html
*仔花子sは現在7台(予備機1台は退役済)
banana3174, 3251, 3258, 3184, 3204, 3238, 3211
*こんなサーバ?
花子 ★と花代 ★の秘密の花園 2
http://qb5.2ch.net/test/read.cgi/operate/1221978255/762-766
766 名前: ●マァヴ@札幌 ◆jxAYUMI09s 投稿日: 2008/10/07(火) 17:44:39 ID:dDeKbTgn0 ?DIA(100888)
ってことで
500GB RAID1 100MbpsのTbananaを発注した(^_^;)
母体は現存するT-bananaサーバでHDDを換装する。
ていうかマァヴさん治ったらどうぞ
↓ >>576
ありがとうです。
1) 花子 1台、仔花子 7台
の8台でサービスしている
2) サービスの全部が仔花子経由、
というわけではない
ということですかね。 それでよいと思います
花子分の内訳はこうなってます
カンマセパレートdatなので移転せず
jbbs,kitanet,mentai,piza,pyon,salad,tako,
移転後、秘密の花園500番地発生で花子に出戻り
curry,ebi,cocoa,choco,cheese,cornm,kaba,
natto,piza2,saki,salami,yasai,ton,teri
live11, なぜかスレッドがライブだったので移転見合わせ
live16, 移転後、壷とViewで見れなくなったので花子に出戻り
memories, memories2, afox, そのまま 全文検索を入れよう話しがあるんですが、
いつものアカウントでdatは全部見られるんですよね?
>>579
見れるはずです。
ただ、仔花子への移動の際に一部、
アカウントが「受け渡し用」のままになっているものがあるらしく、
たまに削ジェンヌさんが削除作業する際に、
かっこいいおにいさんにパスワード変更作業をしてもらっているようです。
ちなみに「花子」と呼ばれているmemories2 = banana3000、
「仔花子」と呼ばれているT-banana 500G HDD版とも、
いわゆる「root権限なしサーバ」になるです。 あと、最初は「花子」だけだったんですが、
(ディスク容量はそれで十二分に足りてます)
通常の過去ログサービスだけでHDDのI/Oが100%をオーバーし、
サーバダウンを繰り返したため、
(結果としては RAID 6 15+1台構成でのHDD I/Oパフォーマンスが出なかった、
ということの模様)
「仔花子」サーバが多数投入され、バーチャルホストがそこに移され、
負荷分散がされた、という状況があるようです。
「ようです」というのは、ちょうど私が体調不良で療養していた頃と重なっているため、
状況をきちんと把握しきれていないためです。 あ、「移され」は間違いかも。
「コピーされ」ですね。>>583
「花子」に元データ自体は残っているはずなので。
ということで少なくとも、
1) 現在の構成のままで
2) banana3000 のディスク I/O 負荷を上げる方向で
全文検索のシステムを導入するのは、makeしないような気がするです。 現状はたぶん、そんなところで。
私も「仔花子」投入以降の現状をまだ把握しきれてなくて、
>>574-578 あたりで現状把握をしようとしているところだったり。 で、当時、banana3000 のようなハードウェア構成(HDD16台)なら、
・RAID6 で 15台+スペア1台 の 1つのHDDアレイを作るよりも、
・RAID1 で 7つのHDDアレイ作って、残りの2台をホットスペアにする
とかに変更したほうが、パフォーマンス的に有利で安全性も高いんじゃないか、
というような話をスレで少ししたような記憶が少しあるですが、かんちがいだったかも。 書き込むのはリフレッシュ工事の時だけで読み出しが主になるはずだから
派手に値崩れしたJMicronなSSDを大量投入するとか。それでも高くつくかな… データの状況をみて、別のサーバで検索を動かすことになる気がするので、
アカウントを検索の中の人に送ってあげてくださいー。
>>584 >>589
どうやらさん
ニュー速+でリモホ表示してほしいって話でてるけどどうですか?
◆◆◆雑談・批判要望・自治議論(IP表示議論中)◆◆◆440
http://tsushima.2ch.net/test/read.cgi/newsplus/1245865342/ >>589
承りました。
が、どうも食あたりしてしまったらしく、
作業は明日以降になると思いますです。すみません。
皆様も時節柄御身お大事に、、、。 >>591
書き込み者情報の開示は
句読点のない在日朝鮮人の書き込みばかりだよ。
2ちゃんねる=匿名掲示板であり、
書き込み者の素性を明かすなんて2ちゃんねる破壊だ。 >>593
×書き込み者情報の開示は
○書き込み者情報の開示賛成は findの機能UPとかかなあ。
>>592
あらら、お大事に… 外野で的外れかもしれないけど、花子本体もサービスしてるって事は、
http://qb5.2ch.net/test/read.cgi/operate/1236572606/119
で出たように、むむむさんが同期取るまでは繋がった鯖によって削除したはずのが見れたりしちゃうのかな…? >>598
「私が」同期とる作業をするのかどうかは別問題として、
花子にあるマスターデータは更新されないですね。
でも、DNSは仔花子を指しているので、通常の方法でWebを見る限り、
「つながったサーバによって削除したはずのデータが見えたりする」
という症状は起こらないはず。 これって、2ちゃんの監視ソフト(だっけ?)あたりに関係してる話なのかな??
協力なんだか対抗なんだか・・・まあ、違うか。 仔花子4号のHDDが片肺死んだ(^_^;)
ってことで、仔花子4号を移転するだす。
ダウンタイムはないだす。
来週の頭あたりまでに、いつのまにか終わる予定だす。 ((((((;゚Д゚))))))ガクガクブルブル >>602
四女に作業中の気配がするので
無事に終わったら新しい転送量グラフをwktkしてお待ちしてます banana3184自体は変わらないのか(´・ω・`)
残念
規制議論板から誘導されてきました。
この板を荒らした方が面白い反応が得られそうなので、これから数ヶ月間あの手この手で荒らし続けます。
これはほんの挨拶代わりのコピペマルチポポポです。
どうか面白い反応で楽しませてください。
以上、苦情は規制議論板まで。 ■ このスレッドは過去ログ倉庫に格納されています