次期学科システムは、
* VMWare抜き
で構築することになってます。理由はライセンスが高いから。VMWare 良くできていて、お金があるなら、それで良いんですけどね。
それで、
* KVM + GFS2
で組もうと。最初はOCFS2だったのですが、Fedora OSがGFSとおっしゃるのでGFSです。実際にそうなるかどうかは担当の先生によるが、僕(とうちのM2の)提案は、そういう感じです。
GFSは、Fiber Channel / iSCSI 上の分散ファイルシステムみたいなものですね。CLVMで論理Volueを作って、DLMでロック管理、ジャーナルはノード毎みたいな構成になってます。
でも、ここまで来るのに、いろいろすったもんだが。ブレード一台で受けて、他のブレードでそれを共有みたいな設定とかにされた時は怒りまくった。それじゃ、なんのためにSAN組んだのかわからんし。
VMのオーバヘッドはコンテナに比べて20%程度もあるらしい。VMWareだと、もっと性能は良いらしいんですが、KVMだと、そんなものかな。なので、クラウド側と合わせて基幹システムはコンテナで組んで欲しいと思ってますが、まぁ、どうなることやら。
コンテナだろうとVMだろうと、GFS2は使うことになるはずです。
* 「じゃぁ、3台GFS動いたから、1台でベンチマーク動かして、別な1台rebootして」
ってことをやってもらうわけですが、
* fence を導入して、落ちたマシンを隔離する
というのをやらないと停まってしまうらしい。まぁ、fenceなしで停まってもrebootが終われば復帰するのはわかりました。学生は、
* 先生、fence ってのは専用ハードが必要らしいです
とか言うわけですが、IMPI上のfence driverってのがあるらしい。IMPIは仕様に入ってるし、今のブレードにも入ってるので動くはずです。そこでシス管の面子が「IMPIってなんですか」攻撃。やるな。パスワード知らなくて入れないブレードとかもあって、いろいろ楽しいミーティングでした。
学生は良くやってくれてるけど、油断するといろいろ手を抜かれるからな。まぁ、fence抜きでも良いとも思うけど。GFS2を /etc/fstab に書いてないので、なんで書いてないのと聞いたら、
* 立ち上がらなかったら怖いので手動で mount してます
おいおい。なんだよ、それは。じゃぁ、停電したら手動で立ち上げ直しに誰が行くってこと? 「はい、じゃ、今なおして」
Ansible で設定してくれる(ってことは今は違う)そうなので、そこまでできれば、次期システムへの移行準備は、だいたいできたってことかな。
昔のサーバ単体x4とか、Sun Enterprise x 2 とかの時代は楽だったけど、ブレードはやっぱり大変だね。面白いけどさ。
No comments:
Post a Comment