ハイパーコンバージェンスの技術で勝負!



Storage Magazine 4月号より
Jim O’Reilly

 

ハイパーコンバージド・ストレージはTCOを削減し、インストールが簡単。ソフトウェア定義のデータセンター対応もできている。

半導体ストレージが、大先輩のハードディスクからプライマリ・ストレージの地位を奪ってからというもの、我々はRAIDアレイ構造が持つ多くの欠陥に気づくようになった。内蔵のストレージに比べて、RAIDアレイでは全てのI/O処理で数ミリ秒の遅延が発生する。HDDへのアクセス時間が数十ミリ秒だった頃は、この遅延は許容の範囲だったが、例えばローカルのNVMe(Nonvolatile Memory Express)インターフェースのSSDが100マイクロ秒以内にデータを提供できるようになった現在では、極めて不適切なものになってしまった。さらに、HDDが壊れた時のリビルド時間は、筐体内の他のディスクの平均障害時間よりも長い、ということが判明している。このことが行きつく先は、データ損失である。2台目のパリティディスクを持つRAID6は、この問題をしばらくの間緩和した。しかし、容量が4TB以上になったために、デュアルパリティ障害の確率は高くなってしまった。

数々の欠陥の中でも、特に上記の欠陥によって、ストレージ業界はハイパーコンバージェンス技術の方へと舵を切らざるを得なくなった。

 

ハイパーコンバージェンス技術への道

半導体ストレージのデプロイメントで明るみに出た、パフォーマンスと信頼性の問題に対して、低速ディスクを大量に搭載したアレイから、たった8台または10台のディスクと非冗長型コントローラーを搭載したコンパクトなストレージアプライアンスへの移行が進行したのは、極めて当然の反応だった。データの整合性を筐体内で複製するRAIDとは対照的に、これらのストレージアプライアンスは、筐体間でデータを複製することによってデータ整合性を確保する。

小型アプライアンス方式の一つのメリットは、ネットワークのパフォーマンスがディスクの生の(raw)パフォーマンスに簡単に合わせられる点だ。これはまさに2016年に起きた、NVMeディスクが単体で10Gbpsストリーミング圏内に入っていくようなケースでは非常に重要になってきた。

この動きが進行する中で、ストレージソフトウェア・ベンダーたちは、ソフトウェア定義のストレージ(SDS)と総称される仮想の新たな概念を模索し始めた。これは、ストレージサービスを現実のストレージプラットフォームから切り離し、汎用の仮想インスタンスプールでそのサービスを実行させるものだ。ストレージをサービスレベルでアジャイルかつスケーラブルなリソースにしようとするこの開発は、すでにクラウドでは定着していたサーバー仮想化やオーケストレーションと深く関わっている。

仮想ストレージサービスをストレージアプライアンスで稼働するのは、非常に理にかなっている。これらのアプライアンスは、何らかの形でコントローラーに汎用品(COTS:Commercial Off-The-Shelf)プラットフォームを使っているからだ。ストレージコントロ ーラーの計算容量にかなりの空きがあると気づいたことが、ハイパーコンバージェンス技 術のアイデアを生み出す直接のきっかけとなった。もうひとつの気づきは、小型ストレージサーバーと一般的なラックサーバーの形および構成が基本的に同じだ、ということだった。明らかに小型ストレージサーバーとラックサーバーをひとつにまとめる時期がきていた。これにより、ハードウェアの複雑さは軽減され、ストレージ側ではスケーリングの幅が広がった。

 

現在のハイパーコンバージド・システム

ベンダーが構築する典型的なハイパーコンバージド製品は、通常x64マザーボードとSSDのセットを搭載した2Uのラックからなっている。これらのアプライアンスはネットワークでつながっており、全てのストレージが共通の仮想プールを形成するようになっている。プールを作るのには、隠し味が必要だ。通常、この役割をするのはストレージ管理スイートで、全アプライアンス上で稼働し、ストレージを仮想SANとして提供してくれる。

ストレージ管理ツールは新しいドライブの検出を自動的に行うため、スケーリング処理はシンプルになる。一台のドライブに障害が起きた時は、当該クラスターに冗長構成が再構築されるまで、管理ツールが他のドライブからデータをコピーすることにより復旧処理を行う。これらのツールはコピー冗長化と消失訂正符号の両方をサポートしている。後者については課題があるが、これについては後述する。

パフォーマンスの観点から見ると、どのアプライアンスの内蔵ディスクも非常に高いI/Oと帯域幅を提供する。例えば、NVMeディスク8台のセットは、80Gbpsまたは1千万IOPSを提供できる。この値は通常のサーバーが使える量を超えており、余った帯域を共有に回すことができる。

とはいうものの、ネットワークアクセスには新たな課題が生まれた。理想的なネットワークとは、ほとんどレイテンシが発生しないものだが、現実はこれとは程遠い。ハイパーコンバージド・クラスターの上手な構築方法は、10Gbpsまたは26Gbps(あるいはこれよりも高速)Ethernetのリンクアグリゲーションを使うことだ。確かにコストはそれなりに増えるが、このおかげでデータ管理の複雑さ(重要なデータを内蔵ディスクに配置する)が軽減され、サーバーが高速に動くようになる。

現在、多くのハイパーコンバージド製品が、リモート・ダイレクト・メモリー・アクセス(RDMA: Remote Direct Memory Access Ethernet)または InfiniBand ネットワークを使っている。これによって、スループットが大幅に向上し、かつオーバーヘッドは最大で90%、レイテンシもかなり低減する。

 

ハイパーコンバージェンス技術の事例

小型ストレージアプライアンスには2つのタイプがある。一つ目は、オブジェクトストレージにたいして「LEGOブロック」的なアプローチをするタイプだ。このタイプはまた、ストレージ容量が比較的小さい仮想デスクトップ・インフラストラクチャー(VDI)やリモート・オフィスにとって十分な性能を持ったストレージプラットフォーム専用製品として使われている。
二番目のタイプは、最近出てきたものだが、一般的なハイパーコンバージェンス技術の流れから考えるとさらに興味深い。これは、アプリケーション・インスタンスの仮想化、ストレージサービス、ソフトウェア定義のネットワーク(SDN)のタスクに取り組むために作られたものだ。通常、CPUはよりパワフル(場合によってはデュアルCPU構成)で,ダイナミックRAM(DRAM)の容量は非常に大きい。そのため、特に上記の3つのサービスクラスすべてがDockerコンテナをサポートしていれば、各アプライアンスはずっと多くのインスタンスを走らせることができる。

全般的に見て、ハイパーコンバージェンス技術の良さは使いやすさにある。ストレージとサーバー用に購入するハードウェアは1個の箱だ。ネットワーク・スイッチングはHCI(Hyper-Converged Infrastructure)のスイッチがSDN対応したシンプルな作りになっているため、これまでのものよりずっと費用効率が高い。これにより、無駄なコストが抑えられインストールがシンプルになる。しかも、通常HCIのソフトウェアはあらかじめインストールされているので、システム立ち上げの時間はさらに節約できる。HCIのサポートは一社のサプライヤーによって行われるので、リスクが無くなり担当者人数も減らすことができる。

 

従来型のサーバー+RAIDは何故行き詰まったのか

・SSDについて行けない
・ファイバチャネル・セントリックであり、クラスター・インターフェースではない
・SANでは専任のアドミニとサポートが必要
・大規模なクラスターへの拡張ができない
・RAIDはリビルドに時間がかかりすぎ
・RAIDは、アプライアンス・レベルのデータ整合性/可用性を提供していない

 

HCI製品は全てのITプラットフォームベンダーから出ており、ほとんどのベンダーはクラスタリングにサードパーティ(NexentaまたはSimplivity)の仮想SANツールを使っている。製品の機能強化のために、管理ツールやプロビジョニングツールのような、それ以外の機能も含まれていることもある。現在のハイパーコンバージド・ベンダーはそのほとんどが、提供する製品の構成台数に限界を設けている。箱から出してすぐ使える運用性と第一級のサポートを保証するためである。

結論:今日、ハイパーコンバージェンス技術に移行するリスクはほとんど存在しない。コストは従来の注文型の構成、とくに従来型のRAIDに比較しても安くつくはずだ。さらに、大手から新興まで、サプライヤーの層が厚い。ソフトウェア定義(SDx)の進化によって、今後数年のうちにたくさんのサービス・オプションが追加され、機能は新たな段階へと引き上げられるだろう。

 

HCIを正しく使う

とは言うものの、ハイパーコンバージェンス技術をデプロイする際に認識しておかなければならない問題がいくつかある。先ほど、ネットワークについて少し述べたが、ここは絶対にケチるべきところではない。おそらく、NVDIMMをDRAMエクステンダーとして使うキャッシュデータが、近い将来重要になりそうだ。

時が経てば、どんなHCIクラスターでも拡張する必要が出てくる。サーバーとストレージは共にここ数十年で最も速いスピードで進化しており、より高速、より大容量のメモリー、ディスク、など、どのようなアップグレードをしても明らかに既存のアプライアンスにとっては異機種になってしまうだろう。クラスターを動かしているソフトウェアは、これらの拡張にうまく対応し、リソースの違いを適切に処理しなければならない。

中核となるクラスターソフトウェアはベンダー非依存で、稼働するハードウェアとして要求するのはただのCOTSだ。とはいえ、HCIギアのサプライヤーとしてDellやHPEなどが市場を支配しているので、特に新規のアプライアンスが市場参入したときには、長期にこんにちわたるベンダー・ロックインが発生する可能性がある。これを回避するため、今日クラウドで一般に行われているように複数製品を一緒にしてプールが作れるのか、あなたのベンダーに聞いてみることをお勧めする。

ハイパーコンバージェンス技術にも、もちろん不向きな使い方がある。ビッグデータやHPCのニーズに大きな影響力を持つGPU付の製品は、いまだにHCIが認証している構成の範囲外だ。ここに書いたようなHCI構成は、リモート・オフィスにとっても過剰な設備だ。わざわざストレージをプールにして複雑にする必要はおそらくないだろう。

とはいえ、HCIクラスターの一部をVDIに使うのは理にかなっている。ハードウェアの購入は統一化できるし、アーキテクチャーが共通である利点を活かして、従来型ならそこそこの規模のVDI構築にかかっていたリソースを他に転用できるからだ。

 

二次ストレージ

ハイパーコンバージェンス技術について起きる疑問の一つが、古いデータの扱いだ。通常、これらは二次ストレージに移行されている。ハイパーコンバージド・アプライアンスに大容量のハードディスクを何台か追加するのも一つの手だろう。圧縮と重複排除によってかなりの容量を拡張できる。こうすれば、例えば圧縮を使って10TBの一組のHDDに対して効率的に100TBの容量を各ノードに追加することができるだろう。もう一つの手は、データをネットワークにつながっている二次ストレージシステム(今であれば、一般的にはオブジェクトストレージ)に移行することだ。

パフォーマンスに関しては、上記二つのオプションどちらも大差はない。ただし、ハイパーコンバージド・アプライアンスの空きスロットにディスクを数台追加する方が、多分安くつくだろう。

 

HCI以外の選択肢

実際のところ、現在のIT戦略ではHCIに取って代わる仕組みは二つしかない。ひとつはストレージを完全にパブリック・クラウドに移行するものだ。例えば、アマゾン・ウェブ・サービスのVirtual Private Cloudsを使えば、セキュリティとデータの整合性に関して、自社のデータセンターと同等のクオリティを持った、専用のプライベート・クラウドのようなスペースを得ることが可能だ。とはいえ、ほとんどのITの現場ではすべてをクラウドに移行する準備がまだできていない。しかも、HCIをベースにした社内設備のほうが総所有コスト(TCO)がクラウドより低いのだ。

もうひとつの選択肢は、ネットワークストレージで従来型のサーバークラスターを構築するものだ。クラウドとして使った場合、たとえネットワークストレージのパフォーマンスを上げるためにオールフラッシュアレイを使っていたとしても、この方式はI/Oパフォーマンス問題に行き当たる。ここではレイテンシが常に内蔵のNVMeディスクより高い。これが原因で、オールフラッシュアレイ・ベンダーはNVMe over Fabricsインターフェースを自社の製品に実装しつつあるが、それらの製品でもやはり内蔵のディスクよりは遅い。

ネットワークストレージは、ハイパーコンバージェンス技術に比べると、ベンダー管理が複雑で一般的にTCOも増加する。ネットワークストレージを二次ストレージに使う方法も高くつく。

 

HCIの進化

ITの目下の二つの大きな潮流は、大規模なパフォーマンス改善と製品の小型化だ。

SSDのパフォーマンスは急ピッチでの改善が続いている。これが意味するものは、サーバーが少ないもので多くをこなす、具体的に言えば、所与の作業に対してより少ない設備で対応できるようになったという事だ。NVDIMMの形態のストレージクラス・メモリ(SCM)の登場も、もうひとつのゲームチェンジャーだ。SCMはDRAMエクスパンダーとして動作し、サーバー上のインスタンス数増加を可能にする。また一方でSCMは、永続的なDRAMメモリーとしても動作する。今後1年半の間にOSとコンパイラーの進化によってこれがサポートされるようになれば、アプリケーションは大幅にスピードアップするだろう。これによって、ハイパーコンバージド・アプライアンスはこれまでよりもずっとパワフルになるだろう。特に、個々のコンテナにOSがないため、仮想インスタンスに対するメモリーが少なくて済むDockerとの組み合わせは一層強力だ。

これらは、比較的短期的な改善だ。さらにここ数年の内に、ハイブリッド・メモリー・キューブ(HMC)アーキテクチャーをベースにした様々な製品が、DRAMとCPUの間をこれまでよりずっと縮めるだろう。2017年に、我々は16GBまたは32GB L4キャッシュを搭載したCPUを見ることになるだろう。その一方、残るDRAMは、シリアル接続インターフェースによる大幅な帯域増により、これまでよりはるかに高速でCPUと繋がることになるだろう。HCI上でこのメモリーを共有化するための取り組みが現在進行中であり、これによってパフォーマンスは新たなステージに上がることになる。

 

ハイパーコンバージド・システムの利点

・内蔵ストレージなので、一時的な保存も永続的な保存も低レイテンシ
・SSDのパフォーマンスに適合している
・非常に大規模なクラスターでも拡張可能
・管理するプラットフォームもベンダーも少なくて済む
・統合がLEGOブロックのように簡単にできる
・RAIDアレイに比べて安価なストレージ用プラットフォーム
・ソフトウェア定義による基盤に適合する
・将来のCPUやSSDアーキテクチャーへの拡張が可能

 

その間、SSDはより小さくより密度が高くなっていく。2017年、3D NAND技術が市場を支配することになるだろう。その結果、ちっぽけなSSDが巨大な容量を持つようになる。小さなM.2フォームファクターに10TBのSSDが搭載されることに期待しよう。これを10枚束ねたものは3.5インチのドライブベイに収まる。容量巨大化の一端として、100TBの2.5インチSSDが発表されている。しかし、リリース日はまだ宙に浮いたままだ。

HMC技術を使ったサーバーエンジンもまた、これまでよりずっとコンパクトだ。CPUが電源システムとともに一枚のボード上に小さなモジュールとして提供されるからだ。小さなディスクと小さなサーバーエンジンは、則ちこれまでより小さなシステムを意味する。2018年最も活況を呈すると思われる領域は、1/2Uラックのサーバーまたはシンプルな高密度ブレード筐体の技術だろう。

 

ということで、ハイパーコンバージド・システムで勝負をかけるべきか?

答えを短く言えば、yesだ。最小のTCO、シンプルで(且つ迅速な)インストール、ソフトウェア定義の基盤に対応したプラットフォーム、完全に統合化されたクラウド、これらを実現する方法として、ハイパーコンバージェンス技術は、現在のところ優れていると思われるし、ここ1、2年はユーザーに対して絶対的な魅力をもち続けるだろう。

 

Jim O’Reillyはストレージとクラウドコンピューティング専門のコンサルタント

 

 

Copyright 2000 - 2017, TechTarget. All Rights Reserved,
*この翻訳記事の翻訳著作権は JDSF が所有しています。 このページに掲載されている記事・写真・図表などの無断転載を禁じます。