2020年9月15日火曜日

vSphere・vSAN 7.0u1 機能強化・アップデート情報

vSphere を扱っている多くの方は「メジャーバージョンの GA 版はパスして Update1 で」という考えを持っている傾向が強いなと勝手に感じていますが、
2020年3月11日に発表、4月2日に GA された vSphere・vSAN 7.0 から半年経過し 2020年9月15日に 7.0 Update 1 (以下 7.0u1) が発表されました

7.0 GA 時にはvSAN に関しては  File Service など新機能以外にあまりアップデートがありませんでしたが、今回の 7.0u1 では vSphere・vSAN 共に大きな機能強化が発表されました。
本投稿ではそれぞれのアップデートの中で個人的に注目している機能強化をご紹介します。

※ 個人的に気になる機能のみをピックアップしているので各プロダクトの詳細情報は公式ブログも参照願います。
今回の内容です
  • vSphere 7.0 Update 1 の機能強化
    • Tanzu Basic の実装
    • vSphere Clustering Services (vCLS)
    • vSphere Life Cycle Manager の強化
    • vSphere スケーラビリティ
    • vSphere Ideas 連携
    • その他の vSphere 7.0 u1 のアップデート
  • vSAN 7.0 Update 1 の機能強化
    • Cloud Native / Container 向け機能強化
      • vSAN Data Persistence platform (DPp) と vSAN Direct Configuration
    • HCI Mesh (vSAN クラスタ間のデータストア共有)
    • Compression-Only 圧縮のみの容量削減モード
    • Shared Witness Appliance
    • 余剰領域の削減 (Slack Space 必要量の削減)
    • 容量管理の簡素化
    • 継続的な性能改善(vSAN 6.7u3 比で 30% 向上)
    • メンテナンスモード中の耐久性の強化
    • ホスト再起動時の高速化
    • vSAN File Service SMB の実装
    • その他の vSAN 7.0 u1 のアップデート
※ 今回書いていない機能も多数ありますので公式情報をぜひご覧ください。

vSphere 7.0 Update 1 の機能強化

7.0 GA で進化した機能がさらに強化されたのが今回のアップデートの目玉となります。
テーマが三つ。
  • Developer-Ready Infrastructure : 開発者向けのインフラストラクチャ
  • Scale Without Compromise : 妥協のない拡張性向上
  • Simplify Operations : 運用の簡素化

Tanzu Basic の実装

今まで vSphere with Kubernetes のライセンス購入に必須だった VCF への Addon は必須ではなくなり、vSphere Enterprise Plus に Addon が可能になりました。
それに伴い、フルマネージドされた VCF with Tanzu に対して Build Your Own な Kubernetes 環境を可能にする vSphere with Tanzu (Tanzu Basic) が実装されます。
  • VCF with Tanzu
    • VCF 4.0 + vSphere 7.0 で実装された VCF with Kubernetes は VCF with Tanzu に進化
    • 20 以上の k8s Cluster などスケールされる規模での利用
  • vSphere with Tanzu
    • vSphere 7.0u1 からは vSphere with Tanzu でよりシンプルに vSphere with Kubernetes を実装可能に(Tanzu Basic)
    • NSX は必須でなく vDS 7.0 で TKG をサポート (この場合は vSpehre Pod は利用できない)
    • 最大 25 Cluster まで
    • LB も HAProxy などを BYO で用意
※ 色々と Tanzu 関連の機能名称が変わっているので間違いがあるかもしれません。
詳細は別途検証してレポートしたいと思います。

vSphere Clustering Services (vCLS)

個人的にかなり注目の新機能です。
従来 DRS の様に vCenter がコントロールしていた機能は vCenter が停止すると機能も停止しましたが、それらを vCLS Control Plane として vSphere Cluster 上に Photon OS ベースの軽量エージェントを 3 VM クラスタで展開し、
DRS のコントロールを vCenter から切り離して vCLS Control Plane がコントロールする様になります。

DRS などのクラスタリング設定そのものは vCenter から実施しますが、その後の制御は 3 VM が別々のホストに展開され DRS の制御を冗長性を保ちながら運用されますので、vCenter が停止しても DRS は有効となります。



まずは vSphere 7.0u1 では DRS 機能が vCLS で実装され、既存のクラスタをバージョンアップした場合も vCLS はデフォルトで有効となる様です。

vSphere Life Cycle Manager の強化

7.0 GA で実装された vLCM は限られたハードウェアのサポート (Dell と HPE) のみでしたが、今回 Lenovo もサポートに加わり、さらに NSX-T の導入・管理機能が追加されました。
NSX-T の管理は vLCM 7.0u1 以降 + NSX-T 3.1 以降でサポートされ、NSX Manager を経由して vLCM Image Manager から以下の操作が可能になります。
  • NSX コンポーネントのインストール
  • NSX コンポーネントのアップグレード
  • NSX コンポーネントのアンインストール
  • クラスタへの ESXi ホストの追加・削除
  • vLCM が有効なクラスタへの既存ホストの移行
NSX-T の展開は結構面倒なところもあるので、導入後のパッチ適用も一元管理できるようになるのはメリットが大きいし、vSphere with k8s の様に NSX-T 前提のプラットフォームを展開する際にも使いやすくなると期待しています。
Dell、HPE に加えて Lenovo の vSAN Ready Node (ThinkAgile VX series)もサポートされます。


vSphere スケーラビリティ

様々な機能拡張がありますが、今回の大きな変更点は vSphere クラスタの最大ホスト数が 64 台から 96 台に大幅に拡大されました。
※ vSAN クラスタの最大ホスト数は現時点では 64 台のままで、96 台への対応は今後のロードマップとの事。


また、1 クラスタあたり 10,000 VM をサポートする様になりました。

vSphere Ideas 連携

VMware の各製品には Ideas Portal と呼ばれる機能強化リスエストを受け付けるサイト <https://vsphere.ideas.aha.io/>が用意されていますが、今回 vCenter 7.0u1 には vSphere Ideas Portal への Feedback 送信機能が実装されました。

これにより、だれでも気軽に機能強化リクエストやバグ報告を vCenter UI の中から簡単に行うことが出来るようになります。

その他の vSphere 7.0 u1 のアップデート

  • AMD EPYC 7xx2 CPU シリーズ向けセキュリティ機能拡張なども新しく追加されています。
    • AMD SEV (AMD Secure Encrypted Virtualization SEV)
    • AMD Secure Encrypted Virtualization-Encrypted State (SEV-ES)
  • VDDK SDK 7.0.1 Improvements
  • PVRDMA Support For Native Endpoint

vSAN 7.0 Update 1 の機能強化

vSAN 7.0u1 の発表と同時に Design Guide も The Core Tech Zone にて更新・公開されました。

Cloud Native / Container 向け機能強化

vSAN Data Persistence platform (DPp) と vSAN Direct Configuration

大幅に機能が拡張された Cloud Native / Container 向け機能強化は、
vSAN Data Persistence platform (DPp) と呼ばれる Shared Nothing Architecture (SNA) に対応する Storage Orchestration 機能が実装されました。

7.0u1 ではこの vSAN DPp を利用して vSAN Direct Configuration と呼ばれる Cloud Native / Container 向けのパーシステントボリューム機能が提供されます。
vSAN Direct Configuration では従来の vSAN の様に、キャッシュ層 SSD とキャパシティ層ドライブドライブを組み合わせてディスクグループを作る方式ではなく、ドライブ1本1本を VMFS-L でフォーマットし vSAN DPp がパーシステントボリュームとして Container にストレージ領域を提供します(従来の VM などでは利用不可)

※ vSAN DPp および vSAN Direct は vSAN Enterprise エディションで提供されます。


これら機能は現時点の情報では実装の詳細や操作感が分かり難い点があるのでリリース後に確認したいと思います。

HCI Mesh (vSAN クラスタ間のデータストア共有)

HCI Mesh は vSAN クラスタ間でストレージ領域を共有する機能です。
より柔軟なサイジングが可能となり、同一 vCenter - DataCenter 管理下の vSAN クラスタが対象です。
7.0u1 では vSAN クラスタ間でのデータ共有となりますが、今後のロードマップでは 通常の vSphere クラスタから別の vSAN クラスタから切り出した領域を利用できる様になるとのこと。


HCI Mesh の構成制限は、7.0u1 ではクライアントとなる vSAN クラスターは最大 5 つのリモート vSAN データストアをマウントし、
リモート vSAN データストアを提供するサーバークラスタは最大5つのクライアントクラスタにデータストアを提供します。
また、クライアントクラスターとサーバークラスターのホスト数の合計は 64 ホスト以下となる様です。

詳細 Tech Note も公開されました。

こちらも実機検証したらレポート纏めます。

Compression-Only 圧縮のみの容量削減モード

この機能を待っていた人は実は多いのではないかと思う機能の一つです。
従来は重複排除と圧縮がセットで有効化されましたが、vSAN 7.0u1 からは「圧縮のみモード」が可能になり、CPU 利用率を抑え、従来の重複排除・圧縮よりも高いスループットで適度な容量削減が可能になりました。

また、従来の重複排除・圧縮時にはディスクグループ全体で1つの塊として組み込まれるためドライブ追加やドライブ障害時にはディスクグループを一度解除する必要がありましたが、圧縮のみモードの時は通常の vSAN ディスクグループと同じく1本ごとのフォーマットとなるため障害時の影響範囲を最小限にし、柔軟な拡張性を提供します。

Shared Witness Appliance

2 Node vSAN などで利用していた Witness Appliance は従来 2 Node vSAN クラスタ毎に 1 Witness Appliance 必要でしたが、
1つの Witness Appliance で複数の 2Node vSAN Cluster を管理できるようになりました

拠点のシステムを 2Node vSAN で構築し、中央の DC で集中管理している様な場合に大幅に管理対象を減らすことが出来るので ROBO 環境のシステム運用に最適な機能だと思います。

余剰領域の削減 (Slack Space 必要量の削減)

従来 vSAN のデータストアの実効容量のサイジング時にはシステム・メンテナンス用の余剰として 25% ~ 30% の余裕(Slack Space)を持たせてサイジングしていていましたが、Node 数に応じて従来よりも大幅に効率的にサイジング出来るようになりました

予約領域として確保される目安は以下の通り
  • 12 node cluster = ~18%
  • 24 node cluster = ~14%
  • 48 node cluster = ~12%
恐らく先日更新された vSAN Ready Node Sizer にもこのサイジングが実装されるものと思われます。
予約領域にはホスト再構築時用の予約 : Host Rebuild Reserve (failures) と 運用上の予約領域 : Operations Reserve  (operational tasks) が含まれます。

容量管理の簡素化

vSpehre Client 上で表示される vSAN データストアの利用状況の View が進化して、上記ので示した確保している余剰領域( Host Rebuild Reserve / Operations Reserve)を明示的に表示する事が可能になりました。
チェックボックスで後どれくらい余裕があるのかを切り替えられるのが便利そうです。



継続的な性能改善(vSAN 6.7u3 比で 30% 向上)

私自身過去のバージョンから性能検証などを繰り返してきましたが同じハードウェアを利用していてもソフトウェアの改善でストレージ性能が劇的に向上するのが HCI の魅力と感じています(完成されていない、発展途上という見方もあります)。
vSAN 6.7u3 時点でそれ以前より大幅に改善され、7.0 GA でも処理能力が向上していましたが、今回さらに大幅な内部の IO プロセスの最適化が行われたようです。Optane NVMe など高性能 vSAN 環境でどの程度の伸びがあるか楽しみな強化です。
今回は以下の点で強化されているようです。
  • CPU 最適化
    • CPU 利用効率の向上でスケジューラ競合の削減
  • 並列処理の向上
    • コンポーネントマネージャーのスケール
    • 重複排除・圧縮エンジンの内部処理エレベーターからの分離
    • 圧縮 Only モードによるエレベーターの並列化
  • 再同期処理の高速化
    • デルタ書き込み処理によるメンテナンスモード終了の高速化
    • Sequential Write 処理の高速化
  • ネットワークの強化
    • 複数の受信スレッドによるネットワークの競合の削減
    • 受信スレッドの並列化による複数ディスクグループの利用や RAID 5/6 利用時の分散性能を強化

メンテナンスモード中の耐久性の強化

vSAN 7.0u1 クラスタでは "Ensure Accessibility (アクセシビリティの確保) " でメンテナンスモードに入っているホストに代わって、vSAN オブジェクトのレプリカのすべての増分更新データを別のホストに書き込むことができるようなります。
これによりメンテナンス中に低下したデータ冗長性を補う形となり、メンテナンスモードでシャットダウンされたホスト以外に障害が起きた際も、更新データをデータロストせずにメンテナンスモードから戻ったホストのオリジナルデータと合わせて迅速に復旧することが可能になります。

ホスト再起動時の高速化

vSAN クラスタのホストを再起動するとキャッシュ層ドライブからデータを読み込みメモリ上のメタデータを再構成する必要があり起動完了までに非常に時間がかかっていました。
これはメモリ上のキャッシュ層データのメタデータの再構成をしていたためですが、vSAN 7.0u1 では再起動処理の際にメモリ上のメタデータをドライブに退避し、再起動時に速やかに読み込む方式を実装しました。
vSAN を利用していない従来の ESXi と同等程度の再起動時間になるとの事で、クラスタのローリングアップグレード時など全体のメンテナンスウィンドウの削減に寄与しそうです。

vSAN File Service SMB の実装

7.0 GA で実装された NFS に加えて、SMB v2.1 and v3、Kerberos for NFS、Active Directory for SMB などの機能が追加されました。
また、File Service を有効にしたクラスタのホスト台数も 32 台までサポートが広がります。

詳細 Tech Note も公開されました。

これも大幅に機能が拡張されているので要検証で別途レポート纏めたいと思います。

その他の vSAN 7.0 u1 のアップデート

    • Stretched Cluster 向けの L3 跨ぎの vSAN ネットワークの UI 設定
      • vSAN Kernel の L3 ルーティング設定も vSphere Client UI から設定が個別にできるようになったため、Stretched Cluster や 今回実装された HCI Mesh でのクラスタ間通信の設定が楽になりました。
    • 転送中データの暗号化
      • 従来のデータ暗号化とは別に vSAN Kernel が行うホスト間のデータ転送を FIPS 140-2 相当の暗号化で実装されます(鍵管理にKMSサーバーを必要としないのも便利)
    • 廃棄ドライブの簡単なデータ抹消機能
      • PowerCLI (Wipe-Disk コマンドなど)や API を利用してクラスタから取り除くドライブのデータを安全に抹消する事が可能にあります

    その他、様々な機能改善が盛りだくさんで、Cloud Native な新しいアーキテクチャに対応しつつ、従来のインフラ・プラットフォームとして着実に進化している様です。

    2020年9月9日水曜日

    新しい vSAN Ready Node Sizer の効果的な利用方法

    先月末に vSAN Ready Node Sizer の効果的な利用方法 という記事を投稿した4日後(2020年9月4日)に vSAN Ready Node Sizer (以下 vSAN Sizer) の UI や操作方法が刷新されてしまったので、改めて利用方法をまとめました。
    ※ 前回記事と被る内容が多数ありますがご了承ください

    vSAN のハードウェア構成を考える際の BestPractice 的なポイントやアセスメントについては以前書いた以下にまとめているので、今回の vSAN Sizer で組むべき構成もこちらをベースにしています。

    今回の内容です。

    vSAN Ready Node Sizer が上手く使えない時に気にするポイント

    私がよく見掛ける(相談を受ける) vSAN Sizer を利用する際に失敗してしまう時のポイント(= してはいけない事)は以下3つ。
    • サーバーハードウェアの構成を考えずにサイジング
    • vSAN Sizer の既定値のままでサイジング
    • 提示されたハードウェア構成をそのまま受け入れてしまう
      それぞれなぜ NG かを説明します。
      • サーバーハードウェアの構成を考えずにサイジングは NG
        → 少なくとも必要となる VM数・CPU・メモリの利用率からリーズナブルな ESXi ホスト台数を算出してから、それに合わせてそのホスト数前後で適切な vSAN 構成をサイジングするのが重要。
        また、1U サーバにするか 2U サーバにするかでも搭載可能なドライブ数が大きく異なるので前提としてある程度想定するのがポイント。
      • vSAN Sizer の既定値のままでサイジングは NG
        → 上記のハードウェアの前提を vSAN Sizer の 「CLUSTER SETTINGS」「ADVANCED SETTINGS」に必ず反映させる事。既定値のままだとかなりザルなサイジングになるので要注意。
      • 提示されたハードウェア構成をそのまま受け入れてしまうは NG
        → ハードウェア構成は一発でまともな構成が出てくる事は稀です。必ず何度か入力情報を調整してベストな数字を探るのが重要。
      これらを考慮して、必要なインプットを Sizer に与えればかなりしっかりしたサイジングが可能となります。

      新しい vSAN Ready Node Sizer  の使い方

      2020年9月4日のアップデートで大きく UI が変更された他、「vSAN Quick Sizer」機能の追加、リソースオーバーヘッドの各種計算ロジックが変更されています。
      内部的にはしばらく旧の UI への切り替えも用意されており、従来の UI では vSAN 6.7 としてのサイジング、新 UI では vSAN 7.0 でのサイジングがサポートされます。


      ログイン方法は以前と変わらず、My Vmware アカウント、Partner Central (現 Partner Connect) アカウント、Vmware 社員アカウントの三種類でログイン可能です。

      基本的にどのアカウントでも出力されるサイジングは同じですが、Vmware 社員アカウントのみ計算ログの確認やパフォーマンスオーバーヘッドの係数変更、vSAN Sizer 内から LiveOptics への接続が可能となっています。
      ※ LiveOptics から vSAN Sizer への連携はどのアカウントでも可能

      ログインすると以前の vSAN Sizer ではいきなりサイジングの入力が始まりましたが、
      新しい UI では作成したサイジングレポートを閲覧可能な 「Project」 ビューがデフォルトの画面となります。
      従来の UI への切り替えは赤矢印のところから変更可能です(過去の保存したプロジェクトがあると "ACCESS OLDER PROJECTS" から閲覧可能)

      新規サイジングの開始(プロジェクトの作成)

      上部のメニューから「New」を選択し、新規プロジェクトの名称などを入力します。
      タグ付けも可能なので、使いやすいタグを付けておくことで管理しやすくなります。
      ※ SFDC ID は Salesforce で案件管理している場合も気にしなくて良いです。


      プロジェクトが作成されると新 UI では一つの画面で全ての設定が管理されるように変更されています(従来は3つの画面を)。

      この画面での設定項目は以下6つ
      • ① Configuration Type :
        All Flash / Hybrid から選択
      • ② vSAN Version :
        2020/09/07 時点では vSAN 7.0 のみ選択可能 ※ vSAN 6.7 でのサイジングが必要な場合は従来の UI に変更する必要あり
      • ③ ReadyNode Vendors :
        新 UI では先に vSAN Ready Node を提供しているサーバーメーカーを選択(複数選択可能)すると、希望のメーカーのハードウェアでのサンプル構成が作成されます
      • ④ Cluster Configuration :
        旧 UI のメニューでは「CLUSTER SETTINGS」、物理サーバの構成の前提を設定
        ※ 詳細はこの後
      • ⑤ Workload Profile :
        vSAN 上で動かす想定の VM のリソース設定
        ※ 詳細は同じくこの後
      新 UI では先に希望のサーバーメーカーを指定する仕様になりました。

      Cluster Configuration (サーバーの構成設定)

      既定値で設定されている CPU の前提、ドライブの前提が想定しているハードウェアスペックとズレているのでこれらは必ず修正します。


      • vSAN Configuration And Features
        • ① ROBO :
          2Node ROBO vSAN 構成で検討する場合にチェックを入れる(ROBO は 25VM が上限)
        • ② Stretched Clusters( 2-site ) :
          ストレッチクラスタを検討する場合にチェックを入れる
      • Additional Information
        • ③ Slack Space (%) :
          デフォルト 25% で設定されるが、Sizer 自体でその他のオーバーヘッドも加味されるので基本は 25% でよい(vSAN 6.7u3 / 7.0 前提)
        • ④ Growth Factor (%) :
          成長率の前提、デフォルトで 10% で設定。サイジングがややこしくなるので 0% にした方がシンプル
        • ⑤ N+x :
          予備ホスト分のリソースを N+0 / N+1 / N+2 で指定
        • ⑥ Account for Swap Space :
          vSwap ファイル分のリソースを容量に含めるか否かのチェック
      • Advanced Setting
        • ⑦ Total Sockets : ESXi ホスト辺りの CPU 数の指定
        • ⑧ Cores per Socket : CPU 辺りのコア数の指定、デフォルトが 12 Core なのでかなり控えめ
        • ⑨ Clock Speed : CPU の動作周波数の指定、デフォルトが 3.0 GHz なのでかなりハイパワーな CPU 前提になっています
        • ⑩ Max Drive Slots Available :
          ESXi ホスト辺りの vSAN で利用可能なドライブスロット数を指定(1U サーバなら 8~10、2U サーバなら 16~24 など)
        • ⑪ Cache Tier Media Rating ( DWPD ) :
          キャッシュ層 SSD の耐久性レベルを 3 DWPD または 10 DWPDで指定 (DWPD 3 は MixUse、DWPD 10 は Write Intensive となる)
        • ⑫ Max Capacity Drive Size :
          キャパシティ層ドライブの1本あたりの容量を TB で指定。サーバーメーカーの構成ガイドや vSAN HCL を参照する
        • ⑬ Disk Group Distribution Method :
          Maximum / Minimum / User Defined DiskGroup から選択。
          構成デザインが思い浮かぶ方は User Defined でディスクグループ数を 1~5 で決め打ち設定する事をお勧め
        • ⑭ User Defined DiskGroup : 
          ディスクグループをカスタムにした場合に入力、1~5 で設定
      • CPU Headroom 
        • ⑮ CPU Headroom (Steady State) : 通常時の ESXi ホストの CPU 利用率の上限を余剰利用率で設定。デフォルト 15% ですが個人的な推奨は 20% ~25%
        • ⑯ CPU Headroom (Host Failure Scenario) : 
          障害時(HA 縮退時)の ESXi ホストの CPU 利用率の上限。通常時より高く設定する
      • File Services Configuration 
        • ⑰ File Services Configuration vSAN File Services 機能を利用する場合は "Yes" にチェックすると自動的に CPU・メモリリソースのオーバーヘッドが加味されます
      1画面で前提条件が設定できる様になったので後からの修正も楽になりました。

      Workload Profile (VM の想定負荷の設定)

      ワークロードの設定で General / VDI - Full Clone / Database を選んだ場合は以下のウィンドウで情報を入力します。
      汎用 VM や DB VM などの異なる複数のワークロードを集約する場合は + ボタンを押してプロファイルを複数設定する事が可能です。

      ※ VDI - LinkedClone や VDI - InstantClone では固有の設定項目が追加で表示されます。
      ※ 「Workload Profile」は手入力も可能ですが、LiveOptics のアセスメントデータから直接インポートしたり、RVTools で取得したインベントリ情報をインポートする事でより正確な前提を入力する事が可能です。


      • ① ② Workload : Workload Name は任意変更可能
        • General Purpose :
          汎用用途のサイジングで利用(Full Clone VDI や DataBases も同じロジックのサイジング基準)
        • VDI :
          Linked Clone と Instant Clone は独自の計算ロジックがあるので VDI の場合は利用
          • Full Clone
          • Linked Clone : 
          • Instant Clone
        • DataBases : DB 用の高めのリソースがデフォルトで設定されます
          • Oracle
          • Microsoft SQL Server
      • ③ Import External Data : RVTool や LiveOptics からのデータを取り込むときに利用 (プロジェクトにつき1つの Workload Profile に取り込み可能)
      • VM Profile Details
        • ④ Total Count of VMs : VM の台数
        • ⑤ Storage Per VM (GB) : VM が利用するストレージ容量
      • Additional Info
        • ⑥ Advanced Settings :
          VM の CPU 利用率を設定しますが、デフォルトだと全ての VM が 100% の利用率で設定されているので修正必須
        • ⑦ vCPU / Core : 物理コア辺りの vCPU 数(オーバーコミット率)
        • ⑧ vCPU / VM : VM 辺りの vCPU 数(平均)
        • ⑨ vRAM / VM (GB) : VM 辺りの vRAM 量(平均)
        • ⑩ IOPs / VM : VM 辺りの IOPS 値(平均)
        • ⑪ Host failures to tolerate :
          同時障害発生時の耐障害性
          vSAN の冗長性ポリシー FTT 1 / 2 / 3 を指定( FTT 3 は Mirror のみ)
        • ⑫ Fault Tolerance Method :
          vSAN の保護ポリシー Mirror (RAID1) か Erasure Coding (RAID5 / RAID 6) で指定
        • ⑬ Dedup : 重複排除期待値。重複排除無効でサイジングする場合は "1" で設定
      • IO Profile
        • ⑭ IO Access Pattern : Random / Sequential で指定
        • ⑮ IO Size (KB) :
          Random IO の場合は 4KB / 8KB / 16KB
          Sequential IO の場合は 32KB / 64KB / 256KB で指定
        • ⑯ IO Ratio :
          Random IO の場合は Read:Write 50:50 / 70:30 / 80:20 / 90:10
          Sequential IO の場合は Read:Write 100:0 / 0:100 で指定
          ※ 全ての IO パターンを一括指定する事は出来ないので特に Sequential IO 特化の VM が含まれる場合はワークロードを分けて設定する事を推奨

      ⑥ Advanced Settings の設定

      ここで必ず設定変更が必要なのが各ワークロードパターンの「Advanced Settings」です。
      既定値だと全ての VM の CPU 利用率が 100% 前提でサイジングされてしまいますので、必ず現状確認やアセスメント結果から実際の数値を反映させてください。
      以下が既定値の設定です。

      上記を以下の様に、 「90% の VM が 20% の CPU 利用率、残りが 80% の利用率」、といった実際に近い前提の数値に変更します。
      ※ これを忘れると CPU リソースを稼ぐためにホスト台数が大幅に増えてしまいます。

      Recommendation の数値の確認と調整

      全ての値の入力が完了するとサイジングの結果と、推奨される vSAN Ready Node の構成リストが表示されます。
      思っていた結果と異なる場合は左メニューから「Cluster Configuration」の修正や「Workload Profile」の修正、追加が可能な他、
      ⑤ Resource Utilization Statistics 欄の ⑥ にある +- のボタンを押すことで1ノード辺りのリソースの微調整が可能です。 


      • ① vSAN Cluster Configuration : 
        サイジング結果のクラスタリソースのサマリ
      • ② Per Node Level Configuration : 
        サイジング結果の1ノード毎の構成前提
      • ③ Disk Space Usage Distribution (TB)  :
        キャパシティドライブの合算 (RAW) 、各種オーバーヘッドを加味したストレージ利用割合 
      • ④ レポートダウンロード・共有ボタン : 
        レポートを PPTX や PDF でダウンロード、メールなどでの共有が可能
      • ⑤ Resource Utilization Statistics : 
        クラスタの全体でリソースに対するサイジング上の利用率
        右の +- の微調整ボタンで4つの項目それぞれを調整可能
      • ⑥ リソース割り当ての微調整ボタン : 
        サイジングの結果のリソースを追加・削減でホスト台数やドライブ本数の調整が可能
      • ⑦ ReadyNode Recommender :
        サイジング結果に沿った vSAN Ready Node のサンプル構成がリストされるので、左のチェックボックスにチェックを入れてレポートをダウンロードすると Ready Node の構成リストも一緒に出力されます
      • ⑧ ReadyNode カスタマイズボタン : 
        各 Ready Node のドライブなどを認定されるコンポーネントに変更してカスタムが可能
        各メーカーのハードウェア互換性リスト(HCL 別名 VCG : VMware Compatibility Guide) に掲載されているキャッシュ層ドライブ、キャパシティ層ドライブがプルダウンで選択可能で選んだドライブの互換性情報は「VCG Link」を開く事で HCL の登録情報で確認可能なので、多数ある vSAN 対応ドライブの中から正しい製品型番などのチェックも簡単にできます
        また、カスタムした Ready Node 構成を PDF ファイルでダウンロードする事も可能です。
      この 「Recommendation」 で出力された vSAN ハードウェアのスペックはあくまで参考値となるので、CPU・メモリ・ドライブ本数・ノード数はお客様要件に合わせて調整が可能です。
      詳細は vSAN Ready Node のハードウェア構成のカスタマイズ の項を参照ください。

      Project の管理

      作成したサイジング情報はプロジェクトとしてメインページに並び、必要に応じて修正・クローンなどが可能です。
      また、作成時に設定したタイトルやタグで絞り込みも可能ですので以前と比べ管理性がかなり向上しました。


      LiveOptics からのデータ連携方法

      LiveOptics で既存のインフラ環境のデータを取得すると、性能・キャパシティ・構成などかなり詳細にレポートを整理してくれます。
      従来の vSAN Sizer と同様に LiveOptics からアセスメントデータの連携が可能ですが、
      LiveOptics から vSAN Ready Node Sizer へのエクスポートを実行した後正しく連携できているかが分かりにくいので利用方法を記載します。

      LiveOptics のレポートダッシュボード上の「エクスポート」 > 「vSAN Ready Node Sizer (Beta)」 を選択するだけで、自分自身のメールアドレスのアカウント間でデータを共有してくれます。



      「vSAN Ready Node Sizer (Beta)」をクリックすると自動的に vSAN Sizer のプロジェクトの画面に遷移します。
      この状態だとデータが連携できたか分かりにくいですが、「New」をクリックし新規のプロジェクトを作成します。

      「Cluster Configuration」 などは通常通り設定し、「Workload Profile」を追加します。

      「Workload Profile」の入力画面には既に LiveOptics で取得したデータが反映させている事が確認できます。
      「Advanced Settings」や FTT・RAID レベルなど可用性情報は
      ※ 現在のバージョンでは CPU 利用率の連携は未実装のため前述の「Advanced Settings」で CPU 利用率の調整は必ず行ってください。

      vSAN Sizer は正しく入力値を設定し、アセスメントデータと連携する事で強力なサイジングツールとして活用できます。

      vSAN Quick Sizer (新機能)

      2020年9月の新機能で「vSAN Quick Sizer」が追加されました。
      これはワークロードなど詳細情報から vSAN Ready Node の構成、台数を算出する従来とは逆に、想定するノード数、ドライブ構成から該当する vSAN Ready Node のサンプル構成を作る機能となります。

      上部のメニューから「vSAN Quick Sizer」を選びます。

      以下の様な簡易的な Cluster Configuration を入力していきます。
      • Configuration Details
        • ① Configuration Type :
          All Flash / Hybrid から選択
        • ② ReadyNode Profile :
          AF-8 / AF-6 など vSAN Ready Node のベースプロファイルを選びます(数字が大きい方が高性能)
          vSAN Ready Node のプロファイルについては以下参照(英語の方が最新の事が多い)
          英語 : https://www.vmware.com/resources/compatibility/vsan_profile.html
          日本語 : https://www.vmware.com/resources/compatibility/vsan_profile.html?locale=ja_JP
        • ③ ReadyNode Vendor :
          vSAN Ready Node を提供する各サーバーメーカーから1つを選択
        • ④ ReadyNode System :
          vSAN Ready Node のベースサーバーを選択
        • ⑤ Number of Servers :
          ノード数を入力
        • ⑥ Disk Groups per Server :
          ノード辺りのディスクグループ数を指定
        • ⑦ Capacity Drives per Disk Group :
          ディスクグループ辺りのキャパシティ層ドライブ数を指定
        • ⑧ Capacity Drive Size :
          キャパシティ層ドライブのサイズを選択
        • ⑨ Failure Protection :
          FTT と RAID レベルを指定
        • ⑩ Dedup Factor :
          重複排除期待値を指定(考慮しない場合は "1")
      これら情報を入力すると実際に利用可能な vSAN データストアの情報など概算サイジングがFTT / RAID レベルの設定に合わせた実効容量で確認できます。
      恐らく Slack Space は 20% 前後で設定されている様です。
      ちょっとしたサイジングの際に重宝するツールです(容量が TiB ではなく TB での表記となっていますが、実際は TiB での Recommendation のようです)


      vSAN Ready Node のハードウェア構成のカスタマイズ

      ※ 最後に、以前書いた ストレージの性能を考慮した vSAN ハードウェア構成の組み方 にも含めていた章ですが、改めてここにも貼付しておきます。

      vSAN クラスタのハードウェアを選定する際、多くは各ハードウェアメーカーがリファレンスモデルとしての vSAN Ready Node を公開しているので、vSAN Ready Node をベースにする事が多いと思います。
      以下の公式のガイド、リファレンスガイド、コンフィグツールでサーバーのベースモデルを要件・用途に応じて選択します。
      上記の vSAN Ready Node リファレンスモデルのベースを選択した後に、実際の性能要件や容量要件に応じて、各メーカーの構成ガイドや見積もりツールを利用して CPU / Memory / SSD など各コンポーネントを必要な構成に調整・カスタマイズして見積もりを作成しますが、
      ここでよく 「vSAN Ready Node って構成変更できないよね?」と勘違いされる事が多いのです。

      vSAN Ready Node は従来の ESXi のカスタムと同じく基本的に vSAN HCL でサポートされている(サーバーメーカーがサポートしている)コンポーネントであればかなり幅広くカスタムする事が可能で、多くのお客様の環境でもそのように導入されています。

      この辺りは KB にもまとまっています。
      上記 KB にある様に、vSAN Ready Node のベース構成で基本的に変更できないのは「HBA・RAID カードなどの IO コントローラ」と「ドライブのプロトコル(SAS/SATA/NVMe)の入れ替え」です。それ以外は柔軟に調整できます。