
新生HyperFlexバージョン3.0の特徴!~もうルーキーとは呼ばせない~
皆さんこんにちは。
NOP HyperFlex担当SEの深沢です。
ついこの間までルーキーと呼ばれていたHyperFlexも早くも3年目。
HCI界ではそろそろ中堅どころになってきたのではないでしょうか。
そんなHyperFlexですが、2018年4月に大型アップデートがあり「HyperFlex version 3.0」として大きく生まれ変わりました。
具体的にどのような所が強化されたのでしょうか? そもそもHyperFlexとは何ぞや?と言う方は以下記事を先に見て頂ければと思います。
目次[非表示]
新生!HyperFlex 3.0
HyperFlexはversion 3.0へのアップデートにより、以下の部分が強化されました。
・ハイパーバイザ―としてMicrosoft Hyper-Vへの対応
・スケーラビリティの拡張 ・Logical Availability Zones(LAZ)機能の追加
・ストレッチドクラスタ機能の追加 ・LFF(3.5インチディスク)搭載モデルの追加
・Intel Optane(3D XPoint) NVMeキャッシュへの対応
なかなか盛り沢山なアップデート内容となっていますが、今回は上記の中から3つをトピックスとして紹介させて頂きたいと思います。
スケーラビリティの拡張
今まで、2.6までのハイパーフレックスではAll Flashモデルで32ノード、Hybridモデルでは16ノードまでしか拡張できませんでした。
拡張性が強みのHCIですが、最大16ノードではとても大規模向けの展開には耐えられるものではなかったかと思います。
しかし、今回スケーラビリティの部分が大きく改善されました。
All Flash / Hybrid関わらず、最大64ノードまでの拡張が可能になりました。
圧巻ですね。本気出してます。
一つ注意点としては、64ノードの内、32ノードはハイパーコンバージドノード、残りの32ノードがコンピュートノードという所になります。
コンピュートノードというと通常のUCSの事ですね。
つまり、ストレージリソースを含むHCIノード部分が32ノード、UCSが32ノードまで拡張可能で、それらを同一クラスタとして構成した場合に64ノードまで構成できるという事になります。
HCIノードだけで32ノード以上を構成する事は現状不可という所に注意です。
現在HX240cというモデルでは、1ノード当たりキャパシティディスクを最大28TB程度積むことができます。
単純計算で32ノードで896TBです。
これだけの容量に加え、勿論SSDを使用した重複排除、圧縮も効いてきます。
あくまで理論値ではありますが、以前と比較すると圧倒的に大規模な環境にも対応できるようになりました。
ちなみに実際のサイジングの際にはレプリケーションファクターなどの要素により、実際に使えるディスクの容量は変わってくるので注意が必要です!
Logical Availability Zones(LAZ)機能の追加
LAZという機能をご存知でしょうか?
LAZという機能、一言で言うと「今まで以上に可用性が向上する」というものになります。
難しい話はめんどくさい!と言う方は、これだけ理解して頂ければOKです。
HyperFlexは常にデータを異なるノードに対して3重書きする事により、データの保全性を保っています。
同一のデータが必ずどこかのノードに存在している為、1台や2台ノードが壊れてもデータの完全性は保たれます。
基本的に最大2ノードまでの同時障害に耐える事ができます。
しかし、クラスタを構成できるノード数が増えるにつれて、ノード障害が起きる確率は相対的に上がっていきます。
5ノード中3ノードが同時に壊れる確率と、64ノード中3ノードが同時に壊れる確率は違うわけです。
勿論3ノードが一度に壊れる確率は非常に低いですが、絶対起きないとは言えません。
ここで、LAZを使用する事によって、更に可用性を上げる事が可能です。
LAZ(Logical Availability Zones)では、クラスタの中のノードをグループしてゾーンとし、そのゾーン間でデータの3重書きを行うというものになります。
レプリケーションデータを配置するノードを論理的にグループ化しているという事ですね。
こうする事によって、ゾーン間にまたがった3重同時障害が起きるまでは、データの完全性が保たれます。
同一ゾーンであればたとえ何ノード壊れても問題ありません。
上手くゾーンを配置し、物理的にラックを分ければ、特定のラックの電源が落ちてしまった!なんて時も大丈夫です。
まさに大規模な環境にぴったりの機能と言えます。
因みに現段階ではVM版のみの機能となります。
ストレッチドクラスタ機能の追加
ストレッチドクラスタとは、「物理的に離れた距離でのクラスタ構成」となります。
つまり、異なるデータセンター間などの環境であっても、その間で同一のHyperFlexクラスタを構成する事が可能になりました。
これにより「HyperFlex間でのレプリケーション」のような動きをさせる事が可能になりました。
HyperFlexでは普段からデータをコピーして別ノードに書きこむという動きをしているので、レプリケーション先を遠隔地にできればそのままDR対策を実現することも可能です。
ある程度の帯域、低遅延環境が必要などの制限もあるので現状では遠いサイト間のレプリケーションはまだ難しそうですが、今後の拡張に期待できる機能の一つです。
現段階ではこちらもVM版(要Enterprise Software License)となります。
まとめ
今回の3.0アップデートでは「より大規模に」「より柔軟に」なるような拡張が特徴として挙げられます。
ここまでHyperFlexにしかないコンセプト、特徴、勢いで攻めてきたHyperFlexが段々と手を広げ、多くのニーズに対応してきた印象です。
2018年中にはまた新しく「HyperFlex 3.5」がリリースされる予定となっています。
アップデートのペースも早く、次回の拡張にも期待十分ですね。
今後もHCI界を牽引するHyperFlexから目が離せません!