ハイパーコンバージドインフラ導入の基準とは?
知っておきたい弱点と対策をご紹介

ハイパーコンバージドインフラ(HCI*)が注目を集めているが、いざ導入する際には何をどんな基準で選ぶべきか。
まずは弱点を知り、その克服方法と選択肢を理解しておこう。


記事を読む

1  2  3 

シンプルに導入・運用でき、スケーラビリティを備えたハイパーコンバージドインフラが登場して久しい。すでに広くHCIのメリットが知られるようになり、さまざまな製品が市場に出回るようになった。選択肢が増えることは歓迎すべきだが、HCIのメリットが強調される一方で、これから導入する企業にとってはその特性や比較のポイント、HCIで想定すべき「弱点」がどこにあるのかが見えにくい。

一般にHCIは、ITインフラのリソース運用をソフトウェア定義にしたことで、俊敏なインフラを構築できる点が魅力だが、HCIの弱点はまさにこの特徴的な実装に起因する。先行導入企業からは「思ったほどの効果が出ない」といった声が上がる中、HCIの弱点に着目し、それに対処する技術を実装した製品が登場している。注目を集めるHCIについて、見えてきた弱点を整理し、その解決策を探ってみよう。 *Hyper-Converged Infrastructureの略


HCIの2つの弱点はストレージに起因する問題

万能に見えるハイパーコンバージドインフラにも弱点は存在する。代表的なものは2つある。まず、HCI製品の選定において特に盲点になりやすいバックアップだ。従来のSANでは、RAIDによるデータ保護とボリュームごとのスナップショットがバックアップ運用の基本だった。これに対し、HCIでは多くの場合、RAIDによるデータ保護という概念はなく、仮想マシン単位でバックアップを行う仕組みだ。

 HPE 小川大地氏
HPE 小川大地氏
仮想マシン単位でのバックアップは、設計自体は楽だがバックアップ時間が課題となる。仮想マシンイメージの容量は、数十~数百GBが一般的で、中には数TBに達するケースもある。これらを単純コピーでバックアップすれば膨大な時間がかかる。そのためHCIでは、重複排除や圧縮を使って、そもそものデータ量を削減するのだが、実装の仕方によっては期待した効果が得られないケースもある。
日本ヒューレット・パッカード(HPE)のエバンジェリスト、小川大地氏はこう話す。

「一般的なHCIの重複排除や圧縮の効果は30%程度。加えてデータ処理ではCPUに負荷が掛かるため、プライマリストレージでの利用を推奨しているものは少ないのが現実です。また、バックアップを行う際もデータが大きいままコピーするため効率が悪く、時間もかかります」

もう1つのHCIの弱点は、特定条件下でパフォーマンス劣化が起きやすいことだ。例えば、バックアップ処理でCPU負荷が掛かれば、同一筐体内で稼働する仮想マシンのパフォーマンスが落ちるケースがある。これは従来ストレージが担っていた処理をサーバCPUで行うことの弊害だ。

「この問題は特にVDI環境で発生しやすく、仮想マシンの集約率や安定性にも影響します。VDIはストレージ負荷が高いため、サーバCPUをより多く消費します。安定して動作する仮想マシンの台数が予測できず、集約度を高めにくくなるのです」と小川氏は指摘する。

ストレージとデータ処理を支える3つのテクノロジー

こうしたHCIの弱点を克服する技術を備えた製品として、HPEが国内展開を開始したのが「HPE SimpliVity(以下、SimpliVity)」だ。


記事の続きをよむ

フォームにご記入いただくと、記事の続きをご覧いただけます