Quantcast
Channel: VMware Japan Blog
Viewing all 972 articles
Browse latest View live

VMware ESXi イメージ管理ベストプラクティス その1

$
0
0

ESXi 5.xのイメージを管理する!

※この記事は、VMware ESXi 5.x、及び2013年6月時点の情報を前提に記載しています。
 将来、変わる可能性がありますので、あらかじめご了承の上ご利用下さい。

まだ一般的にはあまり知られていないようですが、VMware ESXiは起動に必要なモジュール(VIB)を選択して起動(インストール)することが出来る、非常にユニークなHypervisorです。このユニークさが隠れたESXiの凄いところなのですが、この ”選択されるVIB” は必要に応じてカスタマイズすることが可能で、カスタマイズにより以下の様なメリットが得られます。

・最新のドライバを含んだインストールイメージの作成が可能

・ドライバが無いことによるインストールの不具合を解消
  最新のサーバへの対応が容易

・ESXi導入時間や障害時のリカバリ時間の短縮
  追加のパッチ当てやドライバのインストール作業が不要に

・Auto Deploy環境におけるイメージ作成・管理が可能
  追加インストールが事実上不可能なステートレス環境ではこの知識が非常に役に立ちます

ここでは2回に分けて、最適なESXiのイメージ管理手法について具体的な例を挙げながらご説明します。
 
 
2種類あるESXi 5.xのイメージ
ESXiのイメージには、ISO、ZIPの2種類があり、以下のような特徴があります。

ISO
 ・CDに焼くことによりBootableとなり、ESXiのインストールが可能
 ・オフラインバンドルから作成することも可能

ZIP
 ・オフラインバンドルの1つであり、ESXi独自のユニークなバイナリ提供方法
 ・ESXiを起動・インストールするために必要な複数のVIBやイメージプロファイルなどで構成される
 ・様々なカスタマイズや、 ISOファイルへの書き出しが可能

ESXiのイメージ管理にはISOファイルではなく、ZIPファイル(オフラインバンドル)を利用します。

※オフラインバンドルはESXiイメージ全体の提供だけではなく、デバイスドライバやエージェント類の提供方法としても利用されています。
 この場合は、単一のVIBかつイメージプロファイルを含まない形が主となっています。


※VMwareダウンロードサイトより

オフラインバンドルの主な構成要素
オフラインバンドルの構成要素は以下の通りです。

・VIB・・・VMware Infrastructure Bundle
 ESXiの構成上必要なパーツで、以下のような物があります
  ・ESXiベースイメージ(ESXi Kernel)
  ・デバイスドライバ
  ・CIMプロバイダ

・イメージプロファイル
 起動(インストール)に利用する複数のVIBを選択・定義した物
  上記VIBの内、ここで定義された物が起動(インストール)時に読み込まれる
 インストーラー(ISOファイル)を書き出す事が可能
 カスタマイズが可能

VIB・イメージプロファイルの提供方法


1. vmkernelや一般的なデバイスドライバ等は、VMwareから提供されるオフラインバンドルの中に含まれます。
2. サーバ固有のCIMプロバイダや最新ドライバ等は、1.に追加する形で各OEMベンダー用のカスタムイメージとして
  提供されます。
3. VMwareから定期的に提供されるパッチの構成は基本的には1.と同じで、インストールに必要な全てのモジュール
  が含まれます。但し、2.は含まれません。
4. デバイスドライバで、元々1.に含まれない物や、Updateされた最新ドライバ類です。
5. VIBには、アプリケーションからESXiにプッシュインストールされる物もあります。
  代表的な物が、vSphere HAを構成する際にvCenter ServerからインストールされるFDM Agentです。

必要に応じて、柔軟に青や赤の波線で囲った様なイメージを作成することが今回の目的です。

1.のイメージの中に必要なドライバが含まれているかどうかは、VMwareのCompatibilityGuideのサイトで確認が出来ます。

一例を挙げます。ここのTypeで、

inbox・・・含まれる
async・・・含まれない

事を示します。

次回、その2では、実際のカスタマイズの方法に関してご説明します。


ネットワーク仮想化 設計ガイドのレビュー その2

$
0
0

VMware の 仮想ネットワークの最大のポイントは、一定の要件を満たせば既存のネットワーク上に実装することが可能な点です。既存のネットワークにどのような要件が必要か確認していきます。VXLAN そのものの解説については、こちらをご参照ください。

今回は、下図のような物理ネットワークに VXLAN を実装する場合を見ていきます。
この物理ネットワークは、コアスイッチ、リンクを束ねる役割のアグリゲーションスイッチ、ホストを接続する為のアクセススイッチからなる3階層の構成になっています。VXLAN を実装する4台のホストは、1つの L2 セグメント(VLAN 100) に接続されています。
この一般的な物理ネットワークのスイッチにどのような機能要件が必要か確認します。

スイッチの機能要件
1.MTU サイズが変更できること。
2.IGMP Snooping が使用できること。
3.IGMP クエリア が使用できること。

スイッチの機能要件で最も重要なのが、MTU サイズが変更できることになります。
通常の Ethernet フレームに VXLAN ヘッダが加算されるため、スイッチのポートでは、1550 bytes 以上 または、ジャンボフレームを設定します。VXLAN上で、IPv6 を利用する場合には、1600 bytes 以上にします。
VMware の VXLAN の実装では、DF bit が 1 にセットされており、VXLAN が IPフラグメンテーション(分断)されません。通常の Ethernet フレームの MTU サイズは、1500 bytes のため、MTU サイズを変更せずに VXLAN を流してもドロップされてしまいます。

<アクセススイッチ設定サンプル>
#MTU configuration
Switch-Router1# interface gigabitEthernet 1/1
Switch-Router1 (config-if)# mtu 1550
Switch-Router1 (config-if)# end

このようにホストが接続される物理スイッチの各ポートに MTU サイズの設定を行います。

<アクセススイッチ設定サンプル>
#IGMP snooping configuration
Switch-Router1 (config)# ip igmp snooping
Switch-Router1 (config)# end

初期状態で有効になっている場合がありますが、IGMP snooping の設定も必要です。

<アグリゲーションスイッチ設定サンプル>
#IGMP querier configuration
Switch-Router1# interface vlan 100
Switch-Router1 (config-if)# ip igmp snooping querier
Switch-Router1 (config-if)# end

この物理ネットワーク構成の場合は、アグリケーションスイッチが L2 と L3 の境界になっていますので
このスイッチの VLAN Interface に対して、IGMP クエリアの設定が必要になります。
この設定が必要な理由は以降で紹介しておりますが、少々難しい内容になってしまいますので、必要な方は参考にして頂ければと思います。

物理ネットワークのスイッチに必要な機能要件は以上になります。VMware のネットワーク仮想化は、それを実現する為に既存のネットワーク機器を買い替える事無く、その恩恵を得ることが可能となります。

今回は、VXLAN を構成する複数のホストが1つの L2 セグメントに存在するケースを見ていきました。
次回は VXLAN を構成するホストが、サブネットを跨いで存在する場合を見ていきます。

ここからは、IGMP Snooping と IGMP クエリアの機能が必要な理由を解説します。
VMware の VXLAN の実装では、VXLAN 上の未知の宛先に通信する場合にマルチキャストを利用します。
マルチキャスト !? とネットワークに詳しい方が聞くと PIM (Protocol Independent Multicast) を想像される方が多いかと思いますが、この例のように1つの L2 セグメントにホストが接続されている場合は不要です。

IGMP Snooping は、マルチキャストフレームを必要な物理ポートのみに転送するための物理スイッチの機能です。
IGMP クエリアは、マルチキャストフレームを利用する際に必要なマルチキャストルータの機能を L2 スイッチが代行する機能です。
IGMP Snooping が有効な L2 スイッチは、IGMP のやり取りがないと、マルチキャストフレームを転送する必要がないポートと判断し止めてしまいます。(注1)

注1)IGMP のやり取りが無いとは、「IGMP Query や Reportのやり取りがなく マルチキャストを転送する為のテーブルから情報が消えてしまう」という意味です。

この物理ネットワークのように、1つの L2 セグメント内(VLAN 100)で VXLAN を利用する場合は、IGMP Query を出す
マルチキャストルータが存在しないことになり、VTEP ( Virtual Tunnel EndPoint ) は、Report を返すことができません。その結果、注1の理由より、VTEP へのマルチキャストフレーム転送が止まってしまいます。
IGMP クエリアを設定することで、スイッチが代行して、IGMP Query を出すようになり、VTEP も定期的に IGMP Report を返すようになりますので、マルチキャストを転送する為のテーブルから情報がなくなることを防ぐことができます。

IGMP Snooping は スイッチの初期状態で有効になっている場合があり、VXLAN がうまく動かない原因になる可能性がありますので、忘れずに IGMP クエリアの設定をしましょう。

物理スイッチの設定方法や VXLAN の設定方法をさらに詳しく知りたい方は、VMware® VXLAN Deployment Guide をご参照ください。

VMware ESXi イメージ管理ベストプラクティス その2

$
0
0

イメージプロファイルの操作

前回、その1でVMware ESXiのイメージをカスタマイズすることの意義や、イメージプロファイル等についてご説明致しました。
今回は、そのイメージプロファイルを操作する手法についてご説明します。

イメージプロファイルの操作にはImage Builderを使います。Image Builderは、vSphere PowerCLIで提供されるコマンドレットの1つで、以下の様な機能を提供します。

 ・既存のイメージプロファイルへのVIBの追加や削除
 ・イメージプロファイルの新規作成
 ・イメージプロファイルを指定したISOイメージ、オフラインバンドルのエクスポート
 
 
イメージプロファイルへのVIBの追加

追加作業にはImage Builderのコマンドレットを利用しますが、vSphere PowerCLIをご利用いただいている方であれば特にImage Builderを意識する必要はありません。例えば、既存のイメージプロファイルにダウンロードしてきたドライバ等のVIBを追加するための手順は以下の通りです。

 1. VIBの入手
   VMware、サーバベンダー、デバイスベンダー、アプリケーション(vCD/vShieldManager)等からオフラインバンドルに含まれる形で提供
 2. ベースとなるイメージプロファイルとVIBをImage Builderに登録
 3. 既存のイメージプロファイルにVIBを追加
 4. オフラインバンドルやISOとして書き出す

具体的に、手順2以降は、

2-1. vSphere Power CLIを起動して、VIBを含むオフラインバンドルをImage Builderに登録

 > Add-EsxSoftwareDepot c:\filepath\xxxx-offline_bundle-xxxx.zip

2-2. VIBに定義された名前を確認

 > Get-EsxSoftwarePackage

 ※Nameの欄に記述されています、この例では、”net-ixgbe” です。

2-3. ベースとなるイメージプロファイルを含むオフラインバンドルをImage Builderに登録

 > Add-EsxSoftwareDepot c:\filepath\VMware-ESXi-5.1.0-xxxxxx-depot.zip
 > $ip = Get-EsxImageProfile

 ※イメージプロファイルを操作するため、変数に代入しておく。


 ※イメ-ジプロファイルは通常複数(vmware-toolsを含む物、含まない物の二つ)存在します。上記例では、

       $ip[0]・・・no-tools
       $ip[1]・・・standard (vmware-tools込みのイメージプロファイル)

  です。どちらかを選択してVIBを追加することになります。

3-1. 既存のイメージプロファイルを指定して、新しいイメージプロファイルをクローンにて作成

 > New-EsxImageProfile -CloneProfile ($ip[0] or $ip[1]) -Name (New_Profile_name) -v (Vendor_Name)

3-2. 新プロファイル名を指定してVIBを追加

 > Add-EsxSoftwarePackage -ImageProfile (New_Profile_name) -SoftwarePackage (VIB-name)
 ※VIB-nameは、Get-EsxSoftwarePackageで調べた名前です。


 ※この例では、net-ixgbeを追加しています

4. 作成したイメージプロファイルを指定して、ISOファイルもしくはオフラインバンドルとしてエクスポート
 
  ISOファイルとしてエクスポート
    > Export-EsxImageProfile -ImageProfile (New_Profile_name) -ExportToIso -FilePath (Filename)

  オフラインバンドルとしてエクスポート
    > Export-EsxImageProfile -ImageProfile (New_Profile_name) -ExportToBundle -FilePath (Filename)

エクスポートしたISOファイル、オフラインバンドルには追加したVIBが含まれており、ダウンロードした物同様、AutoDeploy起動用のイメージやESXiのインストーラーとして利用することが可能です。
 
 
イメージ同士の結合

上記の応用編となりますが、複数のESXiイメージから新しいVIBのみを抽出して新しいイメージプロファイルを作成することも可能です。
この知識は、OEMカスタムイメージを利用している方に、特に有用です。

例えば、青い波線のイメージを作成する際、VMwareのパッチに含まれる最新のvmkernelやvmware-toolsのVIBと、旧OEMカスタムイメージに含まれるより新しいデバイスドライバやCIMプロバイダ等でイメージプロファイルを作成する事が可能です。

この場合は、以下のように行います。

・利用する複数のESXiのイメージプロファイルをImage Builderに登録

 > Add-EsxSoftwareDepot C:\filepath\VMware-ESXi-5.1.0-xxxxxx-depot.zip.zip
 > Add-EsxSoftwareDepot C:\filepath\VMware-ESXi-5.1.0-yyyyyy-depot.zip.zip

・新しいイメージプロファイルを選択して変数へ代入

 > $sp = Get-EsxSoftwarePackage -newest

・$spを指定してイメージプロファイルを新規作成

 > New-EsxImageProfile -NewProfile -SoftwarePackage $sp -Vendor -AcceptanceLevel

あとは、上記4.同様、ISOやオフラインバンドルとしてエクスポートが可能です。

まとめ

今回は、ESXiイメージ管理に関するベストプラクティスについてご紹介いたしました。
この知識を活用することにより、以下のことが可能となります。

 ・最新のドライバを含んだインストールイメージの作成が可能
 ・ESXi導入時間や障害時のリカバリ時間の短縮
 ・ドライバが無いことによるインストールの不具合を解消
 ・Auto Deploy環境におけるイメージ作成・管理が可能

是非ご利用下さい!

VMware vSphere 5.X vMotion パフォーマンス

$
0
0

VMware のライブマイグレーション機能であるvMotion は、初期のvSphere から使用可能な機能となり、バージョンアップを重ねる度に継続して機能拡張がなされています。vSphere 5.0 では、vMotion パフォーマンスの改善が行われており、最新のvSphere 5.1 では、共有ストレージを必要としない拡張vMotion が可能となりました。パフォーマンスの部分は、単純な機能比較では分かりにくい、目立たないところではありますが、運用上影響のあるところになります。

クラスタ内で負荷を均等化し、仮想化環境の統合率を高めるDRS(Distributed Resource Scheduler)といったvSphere の機能も、vMotion のテクノロジーがベースとなっています。お客様がDRS の導入をためらう理由として、稼働中の仮想マシンをライブマイグレーションすることによる、サービスに与える影響への懸念があります。今回ご紹介する試験の結果から、vSphere 4.1 を使用した多くのケースでサービスの中断なしに移行可能なこと、さらに非常に高負荷な環境であってもvSphere 5.0 の機能拡張によりスムーズに移行可能なことが確認できます。

以下のTechnical Paper では、vMotion のアーキテクチャと具体的な改善点、vSphere 4.1 とvSphere 5.0 を比較したvMotion のパフォーマンス試験、vMotion のベストプラクティスが提供されています。このテクニカルホワイトペーパーの内容について、一部要約する形でご紹介していきます。

VMware vSphere® vMotion® Architecture, Performance and Best Practices in VMware vSphere® 5

 

アーキテクチャ

仮想マシンのライブマイグレーションは、ハイスピードネットワークリンク越しに仮想マシンの状態を、移行元ホストから移行先ホストへ移行します。vMotion の実行状態には次の3つのコンポーネントがあります。

1. 仮想デバイスの状態(CPU、ネットワーク、ディスクアダプタ、SVGA等)
2. ネットワークとSCSI 装置の接続
3. 仮想マシンの物理メモリ

1. 仮想デバイスの状態
vMotion は、vSphere の仮想マシンの仮想デバイスの状態を8MB 以下のサイズにシリアル化する機能を活用します。ケースによっては128MB を超えることもあり、ハイスピードネットワーク越しに素早く移動することができます。

2. ネットワークとSCSI 装置の接続
vNIC は物理アダプターと独立した独自のMAC アドレスを持っているため、仮想マシンはホスト間を移動することができ、同一のサブネットにおいて移行後にもネットワークコネクションを維持することが可能です。移行先のvSphere ホストは、RARP(Reverse ARP)パケットを物理ネットワークに送信し、スイッチのMAC アドレステーブルを更新します。移行は、クライアントから完全に透過的に行われます。また、SAN やNAS といった共有ストレージは、ディスク状態の移行を容易にします。

3. 仮想マシンの物理メモリ
仮想マシンの物理メモリは、移行するコンポーネントの中で大きな要素となり、メモリ移行の効率性は、vMotion のパフォーマンスにおいて、最も重要な部分となります。仮想マシンのメモリ状態は3つのフェーズを経由します。

Phase 1: ゲストトレースフェーズ
このフェーズから移行が開始されます。トレースは移行中にゲストによって実施される変更をトラックするため、ゲストのメモリページで実行されます。メモリトレースは短時間ながら顕著なワークロードスループットの低下を引き起こす可能性があります。このインパクトは、ゲストメモリサイズに比例します。
Phase 2: プリコピーフェーズ
仮想マシンのメモリは、反復したプロセスで移行元から移行先ホストにコピーされます。プロセスの最初にメモリ全部をコピーし、続くプロセスでは、前回のコピーから修正された部分のみをコピーします。コピーされるメモリページの数は、移行中のゲストOSにより、vSphereホスト上で変更されるメモリに依存します。
Phase 3: スイッチオーバフェーズ
最後のフェーズにおいて、移行元vSphere ホストは瞬間的に静止し、最後のメモリ変更が移行先にコピーされ、仮想マシンは移行先のvSphere ホストで再開します。ゲストはこのステップ中に短時間停止します。 このフェーズ間隔は一般的に1秒未満ですが、ゲストのパフォーマンスインパクト(一時的な遅延の増加)が一番大きなフェーズとなります。影響はネットワーク、共有ストレージ、ホストハードウェア、vSphere のバージョン、ゲストのワークロードといった複数の要素に依存します。

 

vSphere 5.0 の機能拡張

1. 複数のネットワークアダプタの使用
vSphere 5.0 では、vMotion に複数のネットワークアダプタを使用する、マルチネットワークアダプタ機能が追加されています。後のセクションでご紹介するテストの結果から分かるように、移行時間を大幅に削減することが可能です。1台の仮想マシンのvMotion の際も、VMkernel はvMotion トラフィックを全ての有効なネットワークアダプタにロードバランスします。

2. Metro vMotion
vSphere 5.0 は、遅延に対応したメトロvMotion 機能を提供します。vMotion ネットワークの遅延の制限を10msec に増加させます。遅延に関しては下記KBも合わせてご参照ください。
High latency vMotion networks (2008096)

3. SDPS (Stun During Page Send)
vSphere 5.0 では、プリコピーフェーズにおけるメモリコピーの収束問題によりvMotion が失敗することがなくなりました。vSphere 4.1 以前のバージョンでは、仮想マシンが、vMotion によるプリコピーより早いペースでメモリを修正してしまうような高負荷環境で、vMotion が失敗するケースがありました。vSphere 5.0 の機能拡張では、仮想マシンをスローダウンし、メモリ修正レートをプリコピーの転送レートより遅くして、結果としてvMotion の失敗を防ぎます。

4. その他改善
・メモリトレースのインパクト改善
・vMotion 後に通常のパフォーマンスに戻るまでの時間の改善
・10GbE 帯域を効果的に使用する改善

 

パフォーマンス評価

vMotion のパフォーマンスを計測するにあたり、ウェブサーバ、メールサーバ、データベースサーバを含む、重要なTier1 アプリケーションの大きなドメインと、大規模デスクトップ仮想マシンの移行を必要とするVDI シナリオを考慮しています。下記それぞれケースについて、解説をしていきます。

1. ウェブ環境におけるvMotion パフォーマンス
2. メール環境におけるvMotion パフォーマンス
3. データベース環境におけるvMotion パフォーマンス
4. VDI/Cloud 環境におけるvMotion パフォーマンス



図1. テスト環境の構成

図1にテスト環境の構成を示します。詳細な試験環境の構成については、テクニカルホワイトペーパーを参照ください。

 

1. ウェブ環境におけるvMotion パフォーマンス

このセクションでは、ウェブアプリケーションサーバのパフォーマンスへの、vMotion  の影響について検証しています。試験では、vMotion 中にサービス品質要件を満たしているユーザセッションの数に焦点を当てており、SLA を保証するクラウド環境へのWeb アプリケーション実装を検討しているお客様の手助けになるものです。

試験には、SPEC(Standard Performance Evaluation Corporation)によって規定される、業界標準のWeb サーバワークロードであるSPECweb2005 を使用します。詳細な試験環境の構成については、テクニカルホワイトペーパーを参照ください。

試験では専用の10GbE ネットワークアダプタをvMotion トラフィックに使用しています。図2の試験結果は、vMotion 実行時間がvShpere 4.1 に比べて、vSphere 5.0 では37%の削減があり、vMotion のパフォーマンス改善があることを示しています。10GbE の帯域を効率的に最大限使用するvSphere 5.0 の機能拡張により最適化されています



図2. vMotion 移行時間 (vSphere 4.1, vSphere 5.0)

図3のグラフでは、vSphere 4.1 環境でQoS(TIME_GOOD)を満たすSPECweb2005 のユーザセッション数をプロットしています。vMotion 実行中に顕著な2カ所のパフォーマンスの影響が表れています。最初の凹みはゲストトレースフェーズで発生し、2番目の凹みはソースホスト上の仮想マシンが瞬間的に静止し、移行先ホスト上で再開するスイッチオーバフェーズで発生しています。この2つの凹みにも関わらず、ネットワークコネクションのドロップ、タイムアウトは発生せずにSPECweb2005 のベンチマークは継続して動作しました。



図3. vMotion 移行時のWeb サーバのパフォーマンス(vSphere 4.1)

図4のグラフでは、vSphere 5.0 環境でQoS(TIME_GOOD)を満たすSPECweb2005 のユーザセッション数をプロットしています。vSphere 5.0 の機能拡張で、メモリトレースの影響を最小化しているため、ゲストトレースフェーズの凹みは小さくなり、スイッチオーバフェーズでのみ顕著な凹みが確認できます。このような高負荷にもかかわらず、スイッチオーバフェーズでゲストが静止する時間は約1秒となり、移行後に通常レベルのパフォーマンスに戻るまでは5秒未満となります。



図4. vMotion 移行時のWeb サーバのパフォーマンス(vSphere 5.0)

vSphere 4.1 とvSphere 5.0  を比べたとき、vMotion 移行時間と移行中のゲストパフォーマンスに、大きな改善があることが確認できます。

次のWeb 環境における試験では、10GbE ネットワークと1GbE ネットワークを使用した際のパフォーマンスを、それぞれvSphere4.1 とvSphere 5.0 で比較しています。試験は、表1に記載された異なる負荷の3つの仮想マシン(アイドル状態、平均的な負荷、高負荷)でそれぞれで実施しています。



表1. テストシナリオ(vSphere 4.1, vSphere 5.0)

図5 の試験結果は、10GbE ネットワークをvMotion に使用した際のメリットを明確に表しています。vMotion 実行時間は、1GbE に比べ大幅に短くなっています。各テストシナリオについて、個別に説明を行います。



図5. 10GbE と1GbE ネットワークでのvMotion 移行時間(vSphere 4.1, vSphere 5.0)

アイドル状態の仮想マシン:仮想マシンがアイドル状態(CPU アクティビティなし)になっていますが、メモリは完全にtouch された状態(ゼロページではない)のシナリオです。
補足:vSphere はゼロページのデータ移行を最適化するため、このシナリオでは110秒かかっている1GbE を使用したケースでも、メモリがtouch された状態でないブート直後の仮想マシンの移行時間は9秒以下となります

平均的な負荷の仮想マシン:仮想マシンのCPU 使用率は、140%(esxtop %USED)となり、クライアントからのネットワークトラフィックは、2.5Gbps 程度ある状態です。10GbE ネットワークを使用したとき、vSphere 4.1, vSphere 5.0 両方で移行時間は大幅に短縮され、vSphere 5.0 の移行時間はvSphere 4.1 より若干短縮されています。

高負荷の仮想マシン:仮想マシンのCPU 使用率は、325%(esxtop %USED)で、クライアントからのネットワークトラフィックは、6Gbps 程度ある状態です。2つ目のシナリオと同様に、10GbE ネットワークを使用したとき、移行時間は大幅に短縮されています。
vSphere 4.1 で1GbE ネットワークのvMotion 移行中には、高い遅延が発生し、ネットワークコネクションのドロップがあったため、vSphere 4.1 のグラフをグレーで表示しています。VMkernel のログから、仮想マシンが1GbE ネットワークで転送するよりも早くメモリの修正を行うメモリアクセスパターンが確認できます。vSphere 5.0 では、SDPS(Stun During Page Send)がプリコピー失敗時に機能し、vMotion の進行をスムーズにするため、vMotion 中のコネクションドロップはありませんでした。

vSphere 5.0 のvMotion 機能強化により、高負荷の仮想マシンを実行したときや、ネットワーク帯域に制限があるときにも、クライアントのサービス影響は最小化されます。

 

2. メール環境におけるvMotion パフォーマンス

メールは組織において重要なコミュニケーションツールであり、IT部門はメールシステムをミッションクリティカルなアプリケーションと見なしています。このセクションの試験では、ワールドワイドのビジネス環境で広範囲に使用されているMicrosoft Exchage Server 2010 をvMotion の影響調査で使用します。

パフォーマンスの測定には、Exchange サーバの公式なパフォーマンス測定ツールである、MS Exchange Load Generator 2010(LoadGen)を使用します。詳細な試験環境の構成については、テクニカルホワイトペーパーを参照ください。

試験は、下記2つのシナリオで実施します。
シナリオ1: vMotion を1台のメールボックスサーバ(4000のヘビーユーザが使用)仮想マシンで実施する
シナリオ2: vMotion を2台のメールボックスサーバ(8000のヘビーユーザが使用)仮想マシンで実施する

図6は、Exchange サーバのvMotion にかかる時間をvSphere 4.1 とvSphere 5.0 で比較しています。移行元と移行先のホストは、1本の10GbE ポートで構成されています。



図6. vMotion 移行時間(vSphere 4.1, vSphere 5.0)

シナリオ1でvMotion の移行時間は、vSphere 4.1 では71秒となるのに対し、vSphere 5.0 では47秒となり、33%短くなっています。シナリオ2でも同様、vSphere 5.0 を使用した場合トータルの移行時間は34%短くなります。

表2は、シナリオ1においてvSphere 4.1 とvSphere 5.0 のアプリケーションに対する影響を比較したものです。



表2. vMotion 移行時のゲストへの影響(vSphere 4.1, vSphere 5.0)

この表は、vMotion 実行中にLoadGen で確認された、最大のキューレングスを示しています。キューレングスは、Exchage 環境のユーザエクスペリエンスとSLA を調査するための一般的なメトリックとして使用されるもので、キューの中のタスクの数は、Exchage サーバが迅速なタスクのディスパッチに失敗したときに増えていきます。vSphere 5.0 は219で、vSphere 4.1 の294より小さな値となっており、ユーザはvSphere 5.0 環境においてより良いレスポンスを得ることが確認できます。

移行中にTask Exception はカウントされていません。これは、vSphere 4.1 及びvSphere 5.0両方の環境において、vMotion 移行中にドロップしたExchenge サーバのタスクはないことを意味します。

このテスト結果は、大きなメモリを使用したEmail アプリケーション環境で、vMotion の影響が最小化されていることを示しています。

 

3. データベース環境におけるvMotion パフォーマンス

データベースのワークロードは、CPU、メモリ、ストレージといったリソースを極端に消費することから、vMotion パフォーマンス測定において重要な指標となります。このセクションでは、MS SQL サーバのOLTP パフォーマンスに対するvMotion の影響を調査しています。

ベンチマークツールとしては、オープンソースのDVD Store Version2 (DS2)を使用しています。DS2 は、顧客がログインし、製品をブラウズするといった、オンラインのeコマースDVDストアをシミュレートします。詳細な試験環境の構成については、テクニカルホワイトペーパーを参照ください。

試験は、下記2つのシナリオで実施します。
シナリオ1: 1台の仮想マシンによるシングルインスタンスSQL サーバ
シナリオ2: 2台の仮想マシンによるマルチインスタンスSQL サーバ

図7は、シナリオ1とシナリオ2での、vMotion の移行時間を表しています。この結果は、vSphere 5.0 を使用した際にトータルの移行時間を削減することを示します。また、シナリオ1(1台の仮想マシン)の移行時間において、2つのネットワークアダプタを使用したケースで移行時間が短縮されていることから、単一の仮想マシンがvMotion を実行する際でも、複数のネットワークアダプタが透過的にvMotion トラフィックをロードバランスすることが分かります。

vSphere 5.0 で追加された複数のネットワークアダプタをvMotion で使用する機能は、単一及び複数の仮想マシン移行において、トータルの移行時間をダイナミックに削減します。



図7. vMotion 移行時間(vSphere 4.1, vSphere 5.0)

図8は、vSphere 4.1 環境でベンチマーク中のSQL サーバの秒毎のオーダプロセスをプロットしており、2つの顕著な凹みが確認できます。最初の凹みは、ゲストトレースフェーズで発生し、2つ目の凹みはスイッチオーバフェーズで発生しています。スイッチオーバフェーズの間隔は1秒未満となり、通常のパフォーマンス再開までに必要な時間は、スイッチオーバステージの後9秒程度となります。かなりの負荷を処理している時であっても、全体的なパフォーマンス影響は深刻なものではありません。



図8. SQLサーバへの影響(vSphere 4.1)

図9は、vSphere 5.0 環境でベンチマーク中のSQL サーバの秒毎のオーダプロセスをプロットしており、1つの顕著な凹みが確認できます。vSphere 4.1 環境で確認されたゲストトレースフェーズの凹みは、vSphere5.0 でのメモリトレース影響の最小化により、小さなものになっています。アプリケーションのスループットが0になるスイッチオーバの間隔は0.5秒未満となり、通常のパフォーマンス再開までの時間は約7秒となります。



図9. SQL サーバへの影響(vSphere 5.0)

vSphere 5.0 は、vSphere 4.1 と比べたときに、vMotion 移行時間と、vMotion 中のゲストパフォーマンス影響に改善があります。これらのテスト結果は、vMotion のパフォーマンス影響は、大きなリソースを必要とするDB アプリケーション環境でも最小化されることを示しています。

 

4. VDI/Cloud 環境におけるvMotion パフォーマンス

VDI/Cloud 環境では、1台のホストに数百の小〜中サイズの仮想マシンが統合されるという点で、良く似た特徴を持っています。これらの環境の管理には、ダウンタイムのないメンテナンスや、トラブルシューティングといった観点で、vMotion を使用するメリットがあります。

VDI/Cloud 環境においてサービス影響時間を最小化するために、仮想マシンの移行時間はとても重要な指標になります。そのため、このセクションでの試験は、トータルの移行時間に焦点をあてています。試験は64台のデスクトップ仮想マシンを持つVMware View 環境で、ベンチマークツールとしてVMware View Planner2.0 を使用し実施しています。詳細な試験環境の構成については、テクニカルホワイトペーパーを参照ください。

図10は、移行テストの結果をサマライズしています。移行元と移行先ホストは、1つの10GbE ポートで構成されています。vSphere 5.0 では、移行元と移行先ホストでvMotion 用に2つの10GbE ポートを構成したケースもテストしました。



図10. VDI 環境での仮想マシン移行シナリオ(vSphere 4.1, vSphere 5.0)

この結果から、vSphere 4.1 と比べたときに、トータルの移行時間がvSphere 5.0 で大きく削減されていることが分かります(vSphere 4.1: 11分, vSphere 5.0: 2分)。

2つの10GbE アダプタを使用した際の改善は、このテストシナリオではわずかなものとなっています。これは、複数のエージェントが動作するvCenter サーバと、移行元、移行先のvSphere ホスト間のマネジメントレイヤの遅延が、帯域使用率を制限しているためです。この遅延のインパクトは、テストシナリオのように小さな仮想マシンだけで構成されたシナリオではより顕著になります。



図11. 移行シナリオにおけるネットワーク使用帯域(vSphere 4.1)

図11は、64台の仮想マシンの移行シナリオの間に、vMotion によって使用されるネットワーク帯域を示しています。vSphere 4.1 では、すでのホストあたり同時8台までの移行がサポートされており、結果として8個の分離したフェーズができています。それずれのフェーズで8台平行した仮想マシンの移行があり、ピーク時の帯域は8Gbps 近くになりますが、フェーズ間のネットワーク帯域の使用率は、vCenter 上で実行される複数のエージェント、移行元、移行先ホスト間のマネジメントレイヤの同期遅延によりidle としてマークされます。結果、仮想マシンあたりの平均移行時間は6秒であるのに、トータルの移行時間は11分になります。

 



図12. 移行シナリオにおけるネットワーク使用帯域(vSphere 5.0)

図12は、vSphere 5.0 でネットワーク帯域を効率的に活用する改善を示しています。vSphere5.1 と比べ、顕著なフェーズがなく、ピーク時のネットワーク使用率は、9Gbpsとなります。結果としてトータルの移行時間は2分に短縮されます。

 

vMotion ベストプラクティス

1. 10GbE ネットワーク
1GbE ネットワークの代わりに10GbE ネットワークを使用することで、vMotion のパフォーマンスは大きく改善されます。特に大きな仮想マシン(64GB以上)を使用する時は、複数の10GbE ネットワークアダプタを使用することで、さらにvMotion のパフォーマンスは改善されます。

2. CPU キャパシティ
ホストレベルでリソースプールを使用する際は、ホストのCPUキャパシティを全てコミットせず、少なくともvMotion のために30%の予約されないCPUを残します。vMotion を開始するとき、VMkernel は便宜的にCPUリソースを予約しようと試みますが、確保が失敗するとvMotion は進行しても、パフォーマンスに大きな影響があります。同様にリソースプールをDRS で使用するとき、クラスタレベルでは少なくとも10%のCPU キャパシティを予約しないことを計画します。クラスタ内の全てのCPU キャパシティを予約することは、ホスト間のDRS 移行に支障がでます。

3. スワップファイル
vSphere 5.0 及び以前のリリースでは、スワップファイルの保存領域にローカルのデータストアの指定が可能となりましたが、スワップファイルをローカルデータストアに保存することで、vMotion のパフォーマンスに影響がでることがあります。移行にかかる時間に懸念がある場合、仮想マシンのスワップファイルはSAN かNAS といった共有ストレージに保存してください。

4. 複数のネットワークアダプタの使用
vMotion 用に複数のネットワークアダプタを使用する場合、全てのvMotion vmnic を1つのvSwitch 配下に設定し、1つのvMotion vmknic をそれぞれのvmnic に作成してください。vmknic のプロパティで、それぞれのvmknic が異なるvmnic をアクティブで使用し、残りをスタンバイとして設定します。この方法では、もし1つのvmnic が切り離されたとき、vMotion は透過的にスタンバイのvmnic にフェイルオーバします。全てのvmnic が機能している時は、それぞれのvmknic はアサインされた専用のvmnic にトラフィックを転送します。

5. NIOC (Network I/O Control)
複数のトラフィックを同じネットワークアダプタでシェアする必要がある時は、NIOC を使用してください。NIOC については、下記テクニカルホワイトペーパーも合わせてご参照ください。
VMware® Network I/O Control: Architecture, Performance and Best Practices

6. NUMA
ESXi 5.0 では、ESXi ホストのNUMA 構成をゲストOS に公開します。この機能を使用する際は、仮想マシンを同じNUMA アーキテクチャを持ったホストで構成されたクラスタ間に適用してください。これは、最初にvNUMA を有効にされたマシンがパワーオンされた際に、仮想マシンが動作している物理ホストに対応したNUMA トポロジーがセットされるためです。異なるトポロジのホスト間をvMotion で移行した際には、その仮想マシンのvNUMA トポロジは物理NUMA トポロジに最適化されずに、潜在的にパフォーマンスの低下を引き起こします。

 

結論

VMware vSphere vMotion はvSphere の最も有名な機能の1つで、仮想データセンターの管理に大きな利益をもたらします。アプリケーションの可用性と応答性においてユーザが認知するインパクトなしに、リソースのロードバランスを可能にし、ダウンタイムを防ぎ、トラブルシュートに柔軟性を提供します。

vSphere 5.0 は、vMotion の機能拡張と新機能を紹介していて、その中には複数のネットワークアダプタの使用や、10GbE 帯域の有効活用や、Metro vMotion や、移行中のアプリケーションパフォーマンスへのインパクト削減があります。vSphere 4.1 環境と比較し、vSphere 5.0 の環境でのvMotion パフォーマンスを定量化するために、4つの環境(ウェブ、メール、データベース、VDI/Cloud)で試験を実施しています。結果として、vSphere 5.0 ではvSphere 4.1 に対し、vMotion 移行時間とアプリケーションのパフォーマンスへのインパクトの点で、大きな改善があることが確認できました。

 

ここまで、vSphere 5.0 でのvMotion のパフォーマンス改善について解説を行ってきました。最新のvSphere 5.1 では今回説明したvSphere 5.0 の機能拡張に加え、共有ストレージを必要としない拡張vMotion が可能になっています。次回は、vSphere 5.1 の拡張vMoiton ついてテクニカルホワイトペーパーを基にご紹介します。

 

vCenter Single Sign On (SSO)とは

$
0
0

vCenter Server 5.1から新しく追加されたvCenter Single Sign On(以下SSOと記述します)についてご存知でしょうか?
本ブログでは、何回かに分けてSSO のご紹介と技術情報について公開します。

まず、初回となるこのエントリではSSO とはどういうものなのかをご紹介させていただきます。

SSO が新しく生まれた背景としては、下記3つのポイントがあります。
・vCenterとそのほかの運用管理ツールを一括で認証することにより運用の統合をはかる
・Active Directory やWindows のローカル認証以外の認証基盤に対応し、より多くのプラットフォームで運用管理ツールを利用可能とする

これまでは製品毎に個別に行っていたため、運用管理者にとってはIDやパスワードの管理が煩雑でした。また、Windows ベースの認証基盤であったため、異なるプラットフォームから運用管理を行うことは実質困難でした。その「不便」を解消するためにSSO は生まれました。

SSO は、vCenter Server のコンポーネントの一部としてvCenter Server のユーザーとグループの認証サービスです。vCenter Server 5.1よりも以前のバージョンでは、vCenter Server にアクセスする際はActive Directory ドメインまたはvCenter Server のローカルOS ユーザーのリストに対して認証していました。また、Active Directory 配下の場合にリンクモードを使用して複数のvCenter Server 間においてユーザやグループを一元的に使用することができました。

SSO では、これまでのActive Directory ドメインやローカルOSユーザーだけではなく、Open LDAP などの複数の認証サービスに対応しています。SSO という名前のとおりvCenter Server だけではなく、vCloud Director やvCenter Operations Manager といった他のソリューションの認証もSAML 2.0を使用したセキュアなトークン交換で行うことが可能です。

では、SSO はどのように動作するのでしょうか。

vSphere Web Clinet からvCenter Server にログインする場合に、SSO は次のように動作します。

①ユーザはvSphere Web Client サービスに自身のユーザID、パスワードを入力します。(vCenter Server はリダイレクト先のSSO サーバーをvSphere Web Client に返します。)

②vSphere Web Client はユーザ認証情報をSSO サーバーに送信します。

③SSO サーバは接続されているアイデンティティ・ソース(Active Directory ドメイン、 LDAP など)のいずれかで有効なユーザであるかどうか確認します。

④ユーザが有効である場合、SSO サーバはユーザ認証に成功したことを記述するトークンを生成し、vSphere Web Client に送信します。(トークンはSAML 2.0形式で記述され、デジタル署名されることにより改竄を防止しています。)

⑤vSphere Web Client は受け取ったトークンをvCenter Server に送信します。vCenter Server は登録済みのSSO サーバが発行したトークンであることを確認し、ログインを許可(認証)します。

次回からは、実際の環境からのアップデート方法についてご説明していきます。

 

Protected: test

$
0
0

This post is password protected. To view it please enter your password below:

SSO の構成とアップグレード方法について

$
0
0

 今回はvCenter Server Single-Sign-On (以下SSO と記載します。)の構成とvSphere 5.0 以前の環境からのvCenter Server (以下vCenter )のアップグレード方法について概要をご説明します。vSphere 5.5 より実装されるSSO2 については今後記載させていただきますが、本エントリではあくまでvSphere 5.1 で実装されたSSO について記載させていただきます。
SSO は下記の3つの構成でデプロイすることができます。

1.シングルモード (基本デプロイ)

 シンプルな構成ですが、冗長性はありません。


図1. シングルモード

2.高可用性モード (高可用性デプロイ)

複数のSSO インスタンスでクラスタを構成しますが、SSO 用のDB は共有します。
この構成では、フロントにロードバランサを配置する必要があります。


図2. 高可用性モード

3.マルチサイトモード (マルチサイトデプロイ)

複数のSSO クラスタ (またはSSO 単体)をマルチサイトに配置する構成です。
SSO 用のDB は各サイト毎に配置しますが、SSO 用のDBは手動でレプリケーションを行う必要があります。
 この構成では、高可用性モードと同様にフロントにロードバランサを配置する必要があります。


図3. マルチサイトモード

 vSphere 5.0 以前の環境からアップグレードする際はこれらの構成のうち、シングルモード(基本デプロイ)の構成となります。
もし、これまでの情報(ユーザ情報、クラスタ構成情報、パフォーマンスなど)を引き継がないで新規でvCenter を構築する場合はシングルモード以外の構成をとることができます。
vSphere 5.0 以前の環境からアップグレードする場合、アップグレード前の条件にもよりますが、大きく2つの方法があります。

方法1. SSO をvCenter と同じシステム上にインストールし、vCenter をin-place upgradeする方法

in-place upgrade とは既存のvCenter をインストールしたままアップグレードする方法のことです。vCenter のユーザとしてローカルOSアカウントを使用している場合には、この方法では、異なるシステム上のローカルアカウントはSSOサーバでは認証できないので、vCenter のインストールされているサーバ上にSSO をインストールします。

図4. 方法1 ローカルOS認証からのアップグレード概要


図5. 方法1 Active Directory認証からのアップグレード概要

方法2. SSO とvCenter を異なるシステムにインストールし、vCenter をin-place upgrade する方法

 vCenter のユーザとしてローカルOSアカウントを使用している場合には、この方法では、ローカルOS もしくは SSO DB 上にユーザを作り直します。このため、vCenter 上でパーミッションを再設定することになり、旧ローカルユーザはvCenter から削除されます。削除されたユーザ情報はtempディレクトリ上に保存されます。(%TEMP%\deleted_vc_users.txt)

図6. 方法2 ローカルOS認証からのアップグレード概要

 vCenter のユーザとしてActive Directory のユーザアカウントを使用している場合は、SSO はActive Directory アカウントを常に認証できるので、vCenter と異なるシステム上にSSO を構築することができます。vCenter とSSO は異なる方が可用性が向上します。


図7. 方法2 Active Directory認証からのアップグレード概要

 アップグレードを作業行う前に、既存環境のバックアップを取得します。次に既存の環境がvCenter 5.1のインストール前提を満たしているかどうかを確認します。vCenter 5.1のインストーラに含まれているユーティリティ VMware vCenter Host Agent Pre-Upgrade Checker を使用しても良いのですが、Flings で公開されているvCenter 5.1 Pre-Install Check Script が問題のある箇所の詳細も表示されて便利です。

 具体的なアップグレードの手順については、マニュアル vSphereのアップグレード をご参照ください。Knowledge Base に記載の情報も事前にチェックされることをお薦め致します。

 なお、日本語環境で vCenter 5.1 から vCenter 5.1.0b へのアップグレードは、コマンドラインからSSO をインストールする必要があります。(http://kb.vmware.com/kb/2037976

VMworld 2013 での発表のハイライトと、新製品解説ウェブセミナーのお知らせ

$
0
0

世界最大級の仮想化とクラウドの総合カンファレンスである VMworld が、今週 8 月 25 日~ 29 日 の 5 日間、米国サンフランシスコで開催されました。このエントリでは、VMworld で行われた発表やニュースをハイライトで皆さまにお伝えします。

今年の VMworld は記念すべき 10 回目の開催であり、新記録となる 23,000 名の参加者、350 以上のブレイクアウトセッション、30 のハンズオン・ラボ、250 以上のパートナーの参加と、前年にも増して大規模な開催となりました。VMware は戦略の柱として、Software-Defined Data Center (SDDC)、ハイブリッド クラウド、エンド ユーザ コンピューティングの 3 つを掲げていますが、そのそれぞれにおいてどのようにイノベーションを顧客の皆さまに届けていくかが VMworld で説明されました。

SDDC をさらに推進する次世代の製品群を発表

基調講演では、CEO の Pat Gelsinger が、データセンターのより広範囲に仮想化の価値を適用していくための新しいテクノロジーを発表しました。ネットワークとセキュリティ、ストレージと可用性、管理と自動化などの領域で最新の仮想化のメリットを最大限に活用するための製品群です。

  • VMware NSX: 完全なネットワークおよびセキュリティ モデルをソフトウェアによって提供するネットワーク仮想化プラットフォーム「VMware NSX」は、現在の物理ネットワークの限界を超え、データセンター運用者がこれまでにない俊敏性と同時にコスト削減を実現できる新しい運用モデルを提供します。
  • VMware Virtual SAN: 「VMware Virtual SAN」は、サーバのディスクとフラッシュをクラスタリングした仮想データプレーンを提供し、VM 向けに高性能かつ耐障害性を備えた共有ストレージを作成することを可能にします。
  • VMware vCloud Suite 5.5: VMware vSphere をベースにしたプライベート クラウドの構築を可能にします。クラウド サービス プロバイダと同等のコスト構造、アプリケーションのプロビジョニング時間の短縮(数週間から数分へ)、ポリシー ベースの管理機能、アプリケーションに適した可用性とセキュリティを実現できます。
  • VMware vSphere with Operations Management 5.5:  アプリケーションのパフォーマンスのさらなる向上(vSphere Flash Read Cache 機能など)、アプリケーションの可用性(vSphere App HA 機能)などが可能になります。ワークロードのキャパシティや健全性に関するインサイトを利用することで、キャパシティの利用率/統合率/ハードウェアの削減をより高いレベルで実現することもできます。

新しい製品/機能のクリックスルーデモを揃えたサイトが用意されていますのでぜひお試しいただければと思います(英語)。VMware Virtual SAN や vSphere App HA、vSphere Flash Read Cache などのデモ画面が揃っており、実際の画面をクリックする形で体感できるようになっています。

プレスリリースと製品説明資料を下記に整理しました。

米国で vCloud Hybrid Service の提供を開始

Pat は続いて、新しい VMware vCloud Hybrid Service の米国での一般提供の開始、新しい地域でのデータセンターの開設、そして既存ならびに新規のクラウドネイティブのアプリケーションをパブリック クラウド上でシンプルに実行できるようにする新機能を発表しました(プレスリリース: VMware、vCloud® Hybrid Service™の提供を開始)。

今回サービスが提供されるのは米国のみで、VMware vCloud Hybrid Serviceの日本を含むアジア太平洋地域での提供開始は2014年の予定です。下記が主な発表内容/新機能となります。

  • 米国内で計 3 つのデータセンター – vCloud Hybrid Serviceに対する顧客の需要に応えるために、ネバダ州ラスベガスにある既存データセンターを補完するデータセンターをカリフォルニア州サンタクララとバージニア州スターリングに追加します。
  • Direct Connect – 顧客は使用しているデータセンター ネットワークと vCloud Hybrid Service を専用ネットワーク経由でつなげることができ、安全で一貫した広帯域接続が可能になります。
  • Disaster Recovery as a Service – 顧客は、データセンターを物理的に用意するよりもずっと少ない費用で、vCloud Hybrid Service で安全かつ自動的にアプリケーションを保護できるようになります。
  • Cloud Foundry Platform as a Service – オープンソースの Cloud Foundry の提供とPivotal CF のサポートを全面的に行う予定です。
  • VMware Horizon View Desktop-as-a-Service – 顧客は、vCloud Hybrid Service 上で Horizon View Desktop を稼働させることができ、物理ハードウェアの調達や管理に伴う費用や作業を負担することなく、迅速に新しいデスクトップを導入できるようになります。

新製品紹介のウェブセミナーを開催します

Pat の基調講演の日本語字幕入り映像や、新製品解説のウェブセミナーを下記サイトで配信しますので、ぜひご登録をお願いします!

VMware NOW 登録サイト


VMware vSphere 5.5 新機能の概要について

$
0
0

2013年8月26日に「VMworld 2013 San Francisco」で、vSphereの次バージョンとなる、VMware vSphere 5.5(以下vSphere 5.5)が発表されましたので、こちらのバージョンで追加された新機能・特徴の概要をご紹介します。

ただしこのBlogは、製品出荷前のバイナリ及びマニュアルを参照して記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

1. Client
クライアントにつきましては、vSphere 5.1よりWeb Clientが大幅に機能強化されており、新機能に関してはWeb Clientにしか実装されておりませんでした。
この考え方は、vSphere 5.5に関しても同様となっております。
新機能部分としては、以下となります。

  • Web Clientでのオブジェクトのドラッグ&ドロップが可能
  • Web Client SDKによるカスタマイズ
  • vSphere Web Client でのOS Xサポート
  • クイックフィルター機能
  • ナビゲーションの利便性向上
  • 最近アクセスしたオブジェクト/新規オブジェクトの表示

2. ストレージ
ストレージとしては、下記の機能追加/強化があります。
注目すべき新機能としては、「Virtual SAN(以下VSAN)」と「vSphere Flash Read Cache (以下vFlash)」の2点大きな機能が追加されました。

i. VSAN

内蔵のHDD及び、SDDを共有ストレージとして利用することが可能となります。

この機能により共有ストレージが無い場合でも、vMotion、DRSおよびHAのような既存のVMwareのソリューションと連携が可能です。
ただし、VSANはvSphere5.5では「パブリックベータプログラムとして提供」となりますので、利用の際は注意が必要となります。

代表的な特徴として、以下があります。

  •  vSphereに完全に統合されたストレージソリューション
  • 「サーバー内蔵HDDとSSD」を利用した、低価格の階層型ストレージで、サーバー間でのデータリプリケーションにより冗長性を提供
  • ポリシーベースの採用により、VMの配置決定を簡素化
  • ESXiによりデータのレプリケーションを提供することにより、冗長構成可能
  • サーバ増設により、スケールアウトするストレージシステム

ii. vSphere Flash Read Cache
vSphere 5.1 まで、ESXiのVMkernelのスワップ領域として利用可能であった、サーバ内蔵のSSDが仮想マシン毎に対しても、キャッシュ領域として利用可能となりました。
この機能を利用した場合でも、vMotion、DRSおよびHAのような既存のVMwareのソリューションと連携が可能です。

iii. VMFS、NFS、仮想互換RDMで62TBまでのVMDKに対応
iv. VAAIでのUNMAPサポート

3. ネットワーク
ネットワークの機能拡張は下記となります。

ⅰ.LACP の拡張
・・・vSphere 5.1 での構成上の制約が緩和され柔軟なネットワーク構成が可能になります。
ⅱ.トラフィックのフィルタリングと、QoS マーキング
・・・入出力トラフィックのフィルタリングと、QoS マーキングが可能になります。
ⅲ.パケットキャプチャ
・・・様々なレベル(vNIC, vSwitch, アップリンク)でのパケットキャプチャが可能になります。
ⅳ.SR-IOV
・・・SR-IOV の設定が、ポートグループのプロパティとしてパススルーNIC に適用されます。
ⅴ.40 Gb NIC
・・・Mellanox の40 GB NIC をサポートしホストが使用できる帯域幅を拡張します。

4. ESXi/vCenter
i. ホスト1台あたりの構成上限が拡張されます。

vSphere5.1 vSphere5.5
160個の物理CPU 320個の物理CPU
2TBのメモリ 4TBのメモリ
8個のNUMAノード 16個のNUMAノード
2048個の仮想CPU 4096個の仮想CPU

ii. Reliable Memoryのサポート
・・・ハードウェアによりマップアウトされたメモリをESXiが認識し、その領域にアクセスしないようにするため、「メモリ障害」が原因となるPSODを軽減します。

iii. AMD、IntelのGPUサポート追加
・・・GPUの利用で仮想マシンのハードウェレンダリングとGP-GPUをサポートします。

iv. PCIe SSDのHot-Pluggleサポート
・・・ダウンタイムなしで SSD デバイスをホット アド / ホット リムーブを提供します。

ⅴ-ⅰ.vSphere AppHA

・・・アプリケーションダウンタイムを最小化します。

v-ⅱ. vSphereHAの改善

    • アドミッションコントロール(改善)・・・アンチアフィニティルールを反映し、同一ホストに再起動させないようにします。

vi. vSphere Replication

  • レプリケーション先は、vCenter Server 1 台あたり最大 10 か所まで、可能となります。
  • 複数の復帰ポイントの保持可能となります。
  • Storage DRSとの互換性が提供されます。

 

vii. MSCS Clustering利用時の機能強化

  • FCoE と iSCSI の各プロトコルをサポートします。
  • FCoE Hardware Adapters・・・ラウンドロビンマルチパスポリシーに対応します。

viii. vCenterServer組み込みデータベースのスケーラビリティ (vPostgres)
・・・最大 500 台の vSphere ホスト / 5,000 台の仮想マシンをサポートします。

 

ⅸ. リアルタイムアプリケーションへの対応機能 ・・・ 仮想マシン毎にLatency Sensitivity(待ち時間感度)を設定することにより、物理環境に近いパフォーマンスにすることが可能です。

5. 仮想マシン

  • ハードウェアバージョンのアップデート(ESXi 5.5以降:Virtual Hardware version 10)
  • ゲストOSサポートの変更・・・いくつかの、ゲストOSのサポート終了します(詳細はvSphere5.1 リリースノートを参照ください)

6.VDP(VMware vSphere Data Protection)

  • vCenter Serverに依存せず、ESXiホストを利用して仮想マシンのリストアが可能となります。
  • VMDKファイル単位での、バックアップとリストアが可能となります。
  • バックアップスケジュールの設定が可能になります。
  • クラウド環境へのバックアップが可能となります。

次回から、各機能の詳細な情報をご紹介したいと思います。

vSphere 5.5 新機能紹介 Web Clientについて

$
0
0

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、VMware vSphere 5.5のWeb Clientの機能を紹介します。

VMware vSphere 5.5(以下 vSphere5.5)では、前バージョンに引き続き、Web Clientでいくつかの機能強化が行われております。

従来利用していたvSphere Clientには、vSphere 5.5の新機能追加は行われておりませんので、vSphere 5.5で追加された機能を利用する場合は、Web Clientの使用が必須となります。

なお、vSphere 5.5から、vSphere Clientを起動した場合、ログイン画面に下図のような注意文が表示されるようになっております。

1.Web Clientでのオブジェクトのドラッグ&ドロップが可能

これまで、Web Clientではオブジェクトのドラッグ&ドロップは提供されておりませんでしたが、現バージョンより可能となりました。

この機能により、Web ClientにおいてもvSphere Clientと近い操作性で、各機能を実行することが可能となります。

 

2.クイックフィルター機能

同機能により、オブジェクトが大量にあった場合、目的に応じた絞り込みが可能となります。

クイックフィルターは、データストア、クラスタ、ホスト、VMにおいて利用可能です。

例えば、仮想マシンの状態が「パワーON状態」のVMのみや、「Toolsが未インストール」のVMといった絞り込みが可能となります。

3.最近アクセスしたオブジェクト/新規オブジェクトの表示

頻繁に利用するオブジェクトへ、1クリックでたどり着くことが可能となり、煩雑な画面遷移を軽減する工夫が行われております。

4.プラットフォームのサポートの向上

Web Clientのプラットフォームサポートに、OS Xからの使用が追加され「仮想マシン コンソールのアクセス」、「OVF テンプレートの展開」、「クライアント デバイスの接続」が可能となります。

 

vSphere 5.5 の新機能紹介 vSphere Flash Read Cache (vFRC)

$
0
0

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、vSphere 5.5の新機能である、vSphere Flash Read Cacheをご紹介します。

NAND型のフラッシュメモリを利用した高速なストレージデバイスであるSSDは、既にコンシューマー用途からデータセンター用途まで幅広く利用されています。既存のvSphere5.1では、以下の2つの用途でSSDを利用することが可能でした。

1. 通常のデータストアやRDM (主に仮想マシンファイルを配置)
2. ESXホストのvmkernel swap領域 (ホストメモリ不足の際の待避場所として利用)

一言にSSDと言ってもSANやNAS、iSCSI等のリモートストレージに搭載されたSSDと、個々のServerに搭載されたLocal SSD がありますが、前者は1の目的で利用され、後者は共有ストレージとしての利用が難しいことから主に2の目的で利用されてきました。

vSphere5.5ではこの2つに加え、個々のServerに搭載されたLocal SSDを、仮想マシンのRead Cacheとして利用することが出来るようになります。これが、今回ご紹介するvSphere Flash Read Cache (vFRC)です。これまで限定されていたServer本体に搭載されたSSDの利用が、vSphere5.5からは仮想マシンのパフォーマンス向上のため、より簡単に利用できるようになります。
 
vFRC概要

vFRCは、仮想ディスク(VMDKファイル)のリードキャッシュとして、Localサーバに搭載したSSDを利用する仕組みを提供します。この機能を利用することにより、下記2つの効果が期待できます。

・仮想ディスクの読み込み速度の向上
・vmdkファイルが配置されたストレージ負荷の軽減

この機能を提供するため、ESXiホストは、自身に搭載されたSSD上にvFlash File System (VFFS)を作成します。このVFFSは仮想マシンへのキャッシュアクセスを提供する専用のDiskリソースで、通常のVMFS領域と異なりデータストアとしては見えません。VFFSが構成されたESXiホスト上の仮想マシンはvFRCの利用が可能となります。

vFRCの特徴

・Localサーバに搭載されたSSDを利用(リモートSSDは利用不可)
・仮想ディスクに対するリードキャッシュ、ライトスルーキャッシュとして機能
・ESXi 5.5以降及び、仮想マシンバージョン 10 以降が必要
・操作はvSphere Web Client でのみ可能(従来のc# 版での操作は不可)
・ホストに搭載したLocalのSSDのみ利用可能
 指定可能なデバイスは最大8台
 デバイス 1台の最大容量は4TB
 ホストあたり最大32TB (4TB x 8台)
・VFFSに指定したデバイスは、VMFS領域やvSAN領域として利用することは出来ない
・VFFSはホスト毎に1個作成される
・仮想Disk毎にvFRC利用の有無と容量の設定が可能(初期設定はDisable)
 ブロックサイズは4KB~1024KBで設定が可能
・各仮想マシンに設定されたvFRC領域はパワーオン時にVFFS領域に対して予約される(VFFS領域のオーバーコミットは不可)
 VFFSの容量が足りないと仮想マシンのパワーオンが出来ない
・VFFS はホスト固有であり、ホスト間でのシェアはされない
 vMotion時、vFRC領域の同時移行も可能(破棄することも可能)
・vFRCをEnableに設定した仮想マシンは、vFRCがEnable化されたホストでのみ稼働可能
 vFRC がDisableとなっているホストへのvMotionやHAは不可
・DRSのリソース管理においてはvFRCのアンバランスは考慮されない
・vFRC設定をされた仮想マシンは、DRSではホストとのSoft Affinity設定(可能な限り移行しない)となる
 
vFRCの設定方法

vFRCの設定は極めて簡単です。ホスト側にVFFSを定義し、仮想マシン側でvFRCの利用設定を行います。

ホスト側の設定:VFFSの定義

1. vSphere Web Clientに接続
2. 設定を行うホストを選択し、”管理”タブ → ”設定” → ”仮想フラッシュリソース管理” を選択
3. 容量の追加をクリック

4. ホストに搭載されたSSDデバイスのリストが表示されますので、vFRCで利用するデバイスを選択します。

※ホスト側にこの設定を施すことにより、VFFS領域が作成されます。

次は仮想マシンに対する設定です。

仮想マシン側の設定:vFRCの設定

5. vFRC設定を行う仮想マシンを右クリックして”設定の編集”を選択
6. vFRC設定を行う仮想ディスクを展開し、”仮想フラッシュ”の詳細をクリック

7. 仮想フラッシュの有効化にチェックを入れ、キャッシュ容量とブロックサイズを指定します。

以上で完了です。

手順6、7を繰り返す事により、複数の仮想ディスクに対して設定を行うことも可能です。

また、この手順は仮想マシンがパワーオンの状態でも行うことが出来ます。

vFRCとvMotion

VFFSはホスト毎の管理となるため、仮想マシンがvMotionで移行してしまうと旧ホスト上のリードキャッシュは利用できなくなります。このためvSphere5.5のvMotionでは、vFRC設定が施された仮想マシンを移行する際、vFRC領域も同時にコピーを行う仕組みが提供されています。技術的には、vSphere5.1で実装された、XvMotion(Storage vMotionとvMotionの同時実行)の仕組みを利用しています。

リードキャッシュですので、vMotion時にドロップすることも可能です。この際は、移行先のホストで自動的に再作成されます。XvMotionの仕組みを使ってvFRCをコピーするか、ドロップするかは、vMotionウィザードの中で選択可能です。

コピーを選択すると、移行先でも蓄えたリードキャッシュをそのまま利用することが可能ですが、移行時にはvFRCのコピーにまつわる時間と負荷がかかります。

統計情報

vFRCに関する統計情報は、vSphere Web Clientやesxcliコマンドを利用して取得することが可能です。

1. vSphere Web Clientでは、該当する仮想ディスクに対し、以下のパラメータが新たに追加されました。

・vFRCキャッシュIOPs
・vFRCキャッシュスループット
・vFRCキャッシュ遅延

2. esxcliでは、”esxcli storage”に vflash というNamespaceが新たに追加され、例えば、esxcli storage vflash cache list コマンドでは作成されているvFRCのキャッシュファイルリスト、esxcli storage vflash cache stats get -c <Cache File Name> コマンドでは、特定のvFRCに対するキャッシュのヒット率やキャッシュIO数などの統計情報の確認が可能となりました。

まとめ

仮想ディスクへの読み込み速度の高速化とストレージ負荷の削減を実現するvFRC。以下のような環境に利用すると特に効果的です。

・読み込みの多いアプリケーションを仮想マシン上で稼働させる場合
・vmdkファイルを配置するStorageの性能よりも、VFFSを構成するSSDの性能が大幅に高い場合
・vmdkを配置したStorageの読み込み負荷が大きく、この負荷を軽減したい場合

是非ご利用下さい!

また、vFRCのパフォーマンスに関するTechPaperも公開されました。こちらも是非ご一読下さい。

http://www.vmware.com/files/pdf/techpaper/vfrc-perf-vsphere55.pdf

 

vSphere 5.5 の新機能紹介 vSphere Replication (VR)

$
0
0

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、vSphere のバージョン5.1 より導入されているvSphere Replication に焦点を当て、先日発表されましたバージョン5.5 で追加された新機能・特徴の概要をご紹介します。(vSphere 5.0 では、vCenter Site Recovery Manager 5.0 を使用することでvSphere Replication の機能を利用可能でした。)

バージョン5.5 で追加されたvSphere Replication の主な新機能は以下となります。

1. レプリケーション先は、vCenter Server 1 台あたり最大10 か所
2. 複数の復帰ポイントの保持可能
3. Storage DRS との互換性

それぞれの機能について見ていきましょう。

1. レプリケーション先は、vCenter Server 1 台あたり最大10 か所
vSphere Replication では、レプリケーション先を複数登録することが可能です。
例えば、Site A の仮想マシン1 は、Site B へレプリケーションし、 Site A の仮想マシン2 は、Site C へレプリケーションをすることが可能です。(fan-out)
本バージョンでは、Site B やC のようなレプリケーション先のサイトを最大10か所登録することが可能になっております。
さらに、Site B の仮想マシン3 をSite A へレプリケーションし、Site C の仮想マシン4 をSite A へレプリケーションするような構成をとっていただくことも可能です。(fan-in)
これにより図1 のような柔軟な構成をとっていただくことが可能になります。


図1. vSphere Replication のトポロジー

2. 複数の復帰ポイントの保持可能
vSphere 5.1 で導入されたvSphere Replication では最新のレプリケーションが完了すると過去のレプリケーションは上書きされてしまうため、復帰可能なポイントは1 つしかありませんでした。レプリケーション元の仮想マシンが論理障害やウィルス感染してしまい、タイミングによっては、その状態がレプリケーションされてしまうことも想定されるため、復帰可能なポイントは複数あることが望まれます。それによりリカバリ時間を早めることが可能になります。
本バージョンでは、レプリケーション先に最大24 の復帰ポイントを保持することが可能になりました。

設定は、レプリケーションの構成ウィザード内の ”特定の時点のインスタンス” という項目で可能になりますが、この項目はWeb Client でのみ表示されます。Site Recovery Manager を導入している環境であっても、 vSphere Client では表示されませんので、ご注意ください。(図2)


図2. Web Client を使用したvSphere Replication の構成ウィザード画面

Web Client では、過去レプリケーションされた保持されている復帰ポイントを確認できます。(図3)


図3. Web Client を使用したvSphere Replication 監視画面

リカバリが完了した仮想マシンで、”スナップショットの管理”を確認すると、保持されている復帰ポイントがスナップショットとして表示されます。(図4)この時点では、最新のレプリケーションが完了した時点にリカバリしているので、希望する復帰ポイントを指定して、その時点に戻します。


図4. 仮想マシンのスナップショット管理画面

3. Storage DRS との互換性
vSphere 5.1 までは、Storage vMotion 実施後、前回のレプリケーションからの更新情報が維持されず、Storage vMotion 実施後の最初の同期が完全同期になっておりました。
(この時の完全同期は、すべてのデータが送られるのではなく、ソースとターゲットディスクの比較検証が実行されるため、レプリケーション完了まで時間が掛かっておりました。)
そのような理由から、vSphere Replication で保護している仮想マシンは、Storage vMotion をサポートしておらず、Storage DRS との互換性がありませんでした。

本バージョンより、Storage vMotion がサポートされ、Storage DRS との互換性を持ちますので、vSphere Replication 導入した環境におけるストレージの集約率向上及び、メンテナンス性の向上を図ることが可能になります。

図5 の画面はStorage DRS を有効にしているデータストアクラスタにて、あるデータストアをメンテナンスモードへ切り替えを実施した際に表示される移行の推奨画面になります。
移行の推奨の対象と表示された仮想マシン(w2k8r2-srm2)は、vSphere Replication 構成済みの仮想マシンになります。
vSphere 5.5 では、Storage DRS との互換性を持ちますので、推奨の適用を実施します。


図5. Storage DRS メンテナンスモード移行による推奨

データストア移行直後の仮想マシン(w2k8r2-srm2)を手動で同期させた際の結果が以下の画面になります。Storage vMotion が実行された後も更新情報を維持できているため、レプリケーション間での更新が少なければ、非常に短い所要時間でレプリケーションが完了していることが確認できます。(図6)


図6. Web Client を使用したvSphere Replication 監視画面

次回は、vSphere 5.5 で追加されたネットワークの新機能・特徴をご紹介いたします。

vSphere 5.5 の新機能紹介 ネットワーク1 (ホストレベルのパケットキャプチャ)

$
0
0

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上ご利用下さい。

今回は先日発表されましたVMware vSphere 5.5 で追加されたネットワークの新機能のなかから、ホストレベルのパケットキャプチャの概要をご紹介します。vSphere 5.5 では、ホストレベルのパケットキャプチャ機能を新たに実装します。この機能によりトラブルシューティング時に必要となるパケットキャプチャにより詳細なオプションが提供されます。

 

■特徴
・ESXi ホスト上で、CLI からpktcap-uw コマンドでパケットキャプチャを実施します。vSphere Client、Web Client からは使用できません。
・標準仮想スイッチ(vSS) 及び分散仮想スイッチ(vDS)上のトラフィックをキャプチャすることが可能です。
・Uplink, 仮想スイッチポート, vmk NIC で発生するトラフィックに対し、キャプチャするポイントを指定することが可能です。

 

■オペレーション
・ヘルプを表示
# pktcap-uw –help

・各種オプション
-p, –port <Socket PORT>  Specify the port number of vsocket server.
-o, –outfile <FILE>  Specify the file name to dump the packets. If unset, output to console by default
-P, –ng (only working with ‘-o’) Using the pcapng format to dump into the file.
–console (by default if without ‘-o’) Output the captured packet info to console.
-s, –snaplen <length> Only capture the first <length> packet buffer.
-c, –count <NUMBER> How many count packets to capture.
-h Print this help.
-A, –availpoints List all capture points supported.
-F List all dynamic capture point functions supported.
–capture <capture point> Specify the capture point. Use ‘-A’ to get the list. If not specified, will select the capture point by –dir and –stage setting

・ポートオプション
–switchport <port ID> (Specify the switch port by ID)
–lifID <lif ID> (Specify the logical interface id of VDR port)
–vmk <vmk NIC> (Specify the switch port by vmk NIC)
–uplink <vmnic> (Specify the switch port by vmnic)

–switchportを使用する場合、esxtopの n オプションで対象のポートIDを確認します。


・キャプチャポイント
pktcap-uw –A コマンドで、サポートされるキャプチャポイントを表示します。キャプチャポイントは、–capture で指定することができます。キャプチャポイントの中にはポートオプションの指定やキャプチャポイントオプションの指定が必須のものがあります。なお、Dropを指定することで、ESXi でドロップしたパケットを収集することが可能です。
# pktcap-uw -A
Supported capture points:
1: Dynamic — The dynamic inserted runtime capture point.
2: UplinkRcv — The function that receives packets from uplink dev
3: UplinkSnd — Function to Tx packets on uplink
4: Vmxnet3Tx — Function in vnic backend to Tx packets from guest
5: Vmxnet3Rx — Function in vnic backend to Rx packets to guest
6: PortInput — Port_Input function of any given port
7: IOChain — The virtual switch port iochain capture point.
8: EtherswitchDispath — Function that receives packets for switch
9: EtherswitchOutput — Function that sends out packets, from switch
10: PortOutput — Port_Output function of any given port
11: TcpipDispatch — Tcpip Dispatch function
12: PreDVFilter — The DVFIlter capture point
13: PostDVFilter — The DVFilter capture point
14: Drop — Dropped Packets capture point
15: VdrRxLeaf — The Leaf Rx IOChain for VDR
16: VdrTxLeaf — The Leaf Tx IOChain for VDR
17: VdrRxTerminal — Terminal Rx IOChain for VDR
18: VdrTxTerminal — Terminal Tx IOChain for VDR
19: PktFree — Packets freeing point

・キャプチャポイントオプション
Dynamic, IOChain, TcpipDispatch といったキャプチャポイントでは、パラメータを追加し対象を指定します。
-f [module name.]<function name> The function name. The Default module name is ‘vmkernel’. (for ‘Dynamic’, ‘IOChain’ and ‘TcpipDispatch’ capture points)
–dvfilter <filter name> Specify the dvfilter name for DVFilter related points

・キャプチャポイントの簡易選択
–capture でキャプチャポイントを指定しない場合、トラフィックの方向(送信もしくは受信)を–dirで指定し、キャプチャするポイントを–stage で指定することができます。これらのオプションは、–switchport, –vmk, –uplink といったポートオプションと合わせて使用します。なお1つのモニタセッションで、送受信両方向のトラフィックの取得はできません。
–dir <0|1> (for –switchport, –vmk, –uplink) The direction of flow: 0- Rx (Default), 1- Tx
–stage <0|1> (for –switchport, –vmk, –uplink, –dvfilter) The stage at which to capture: 0- Pre: before, 1- Post:After

–dir で指定する際、トラフィックは仮想スイッチを基点とした方向となります。そのため–dir 1 でTx(送信)を指定した場合でも、ポートオプションによってキャプチャできる通信の方向が異なります。例えばポートオプションで、–uplink を指定した場合はホストの外部に向かって出て行くトラフィックとなり、–switchport 及び–vmk を指定した場合は、外部から入ってくるトラフィックをキャプチャすることになります。



・フィルターオプション
フィルターを適用することで特定のトラフィックを収集できます。
–srcmac <xx:xx:xx:xx:xx> (The Ethernet source MAC address)
–dstmac <xx:xx:xx:xx:xx> (The Ethernet destination MAC address)
–mac <xx:xx:xx:xx:xx> (The Ethernet MAC address(src or dst))
–ethtype 0x<ETHTYPE> (The Ethernet type. HEX format)
–vlan <VLANID> (The Ethernet VLAN ID)
–srcip <x.x.x.x[/<range>]> (The source IP address)
–dstip <x.x.x.x[/<range>]> (The destination IP address)
–ip <x.x.x.x> (The IP address(src or dst))
–proto 0x<IPPROTYPE> (The IP protocol)
–srcport <SRCPORT> (The TCP source port)
–dstport <DSTPORT> (The TCP destination port)
–tcpport <PORT> (The TCP port(src or dst))
–vxlan <vxlan id> (The vxlan id of flow)

 

■実行例
それぞれ、vmk NIC、仮想スイッチのポート、Uplink で取得する例を以下に記載します。

1. vmk NICで取得
vmk1 から外部に送信(仮想スイッチから見ると受信)する60個のパケットをキャプチャしファイルに保存する例
# pktcap-uw –vmk vmk1 –dir 0 -c 60 -o test01.pcap

2. 仮想スイッチのポートで取得
仮想スイッチのポートで受信する宛先172.16.161.234のパケットをキャプチャしファイルに保存する例(Port ID XXXXXXXX は、esxtop のn オプションで確認を行います)
# pktcap-uw –switchport XXXXXXXX –dir 0 –dstip 172.16.161.234 -o test02.pcap

3. Uplink で取得
vmnic1 から外部に送信するVXLAN カプセル化前のパケットをキャプチャしファイルに保存する例
# pktcap-uw –uplink vmnic1 –dir 1 –stage 0 -o test03.pcap

4. Uplink で取得
vmnic1 から外部に送信するVXLAN カプセル化後のパケットをキャプチャしファイルに保存する例
# pktcap-uw –uplink vmnic1 –dir 1 –stage 1 -o test04.pcap

 

■キャプチャしたパケットの確認
キャプチャしたパケットをローカルにダウンロードし、WireShark 等のネットワークプロトコルアナライザで中身の確認を行うことができます。SCP 等でESXi からキャプチャしたファイルをダウンロードします。


ダウンロードしたファイルをWireShark で開きます。下記のケースでは、実行例3(Uplink で取得)でキャプチャしたICMP パケットが確認できます。


下記のケースでは、実行例4(Uplink で取得)でキャプチャした、VXLAN でカプセル化されたパケットが確認できます。VXLAN でカプセル化されたパケットの中身を確認する際は、WireShark で「Decode As」を選択し、UDP Destination port 8472 をVXLAN でデコードします。(vSphere 5.5 のVXLAN 実装では、デフォルトでUDP port 8472 を使用します)


VXLAN ヘッダーを認識し、カプセル化されたオリジナルのパケット(ICMP)を確認できるようになります。


以上、vSphere 5.5 のホストレベルのパケットキャプチャの概要をご紹介いたしました。

vSphere 5.5 の新機能紹介 ネットワーク2 (トラフィックのフィルタリングとマーキング)

$
0
0

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上ご利用下さい。

今回は先日発表されましたVMware vSphere 5.5 で追加されたネットワークの新機能のなかから、トラフィックのフィルタリングとマーキングの概要をご紹介します。vSphere 5.5 では、分散仮想スイッチ(vDS)のポートグループレベルでトラフィックのフィルタリングとマーキング機能を実装します。フィルタリング機能は、物理スイッチのアクセスコントロールリスト(ACL)に相当するものとなり、パケットヘッダに基づいてトラフィックをコントロールしセキュリティを確保します。マーキング機能は、重要なトラフィックにタグ付けを行い、付与されたタグをもとに物理ネットワーク上でトラフィックを優先制御することで、End-to-End でサービス品質を確保します。

 

■特徴
・分散仮想スイッチ(vDS)のポートグループ単位で設定を行います。
・対象となるトラフィックを、MACアドレス、IPアドレス/プロトコルタイプ/ポート番号 、システムトラフィックから指定します。
・入力または出力、あるいはその両方をフィルタリング対象として選択します。
・マーキングでは、Differentiated Service Code Point (DSCP)、及び802.1p Class of Service (CoS)で定義されたタグを付与できます。
・仮想マシンにより近いポイントとなる分散仮想スイッチでフィルタリング及びマーキングを行うことで、End-to-End でのセキュリティとサービス品質を確保します。


なお、VXLAN 環境で付与されたDSCP タグは、オリジナルのIPヘッダからVXLAN でカプセル化した際に付加されるIPヘッダにコピーされるため、物理ネットワーク上でタグを認識し優先制御を実施することが可能です。


下記のキャプチャから、両方のIPヘッダ内にDSCP タグがセットされていることが確認できます。


■設定
「ネットワーク」で適用する「ポートグループ」を選択し、「管理」-「設定」-「ポリシー」画面で、「編集」を選択します。ポートグループの設定画面で、「トラフィックのフィルタリングとマーキング」を選択します。ステータスを有効にし、ルールを追加します。


フィルタリングを実施する場合は、「許可」もしくは「ドロップ」を選択します。マーキングを行う場合は、「タグ」を選択します。


タグを選択した場合、CoS もしくは、DSCP の値をセットします。


フィルタリングもしくはマーキングの対象となるトラフィックを指定します。


システムトラフィック、MACアドレス、IPアドレスの詳細を定義します。システムトラフィックでは、あらかじめ定義されたトラフィックを選択します。


以上、vSphere 5.5 のトラフィックのフィルタリングとマーキングの概要をご紹介いたしました。

VMware vSphere 5.5 AppHAについて

$
0
0

このBlogは、製品出荷前のバイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示とは異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、VMware vSphere 5.5のAppHAの機能を紹介します。

VMware vSphere 5.5より、ゲストOS内で稼働するアプリケーションの状態監視を行えるようになりした。

監視対象アプリケーションのサービスが停止した際、「サービスの再起動」または「仮想マシンのリセット」が実行されます。また、同時にvCenterへのアラート通知と管理者へのメール通知を行うことも可能です。

従来、VMware vSphere HAではアプリケーションの監視を有効にするには、適切な SDK を入手し、これを使用して監視対象となるアプリケーションのハートビートの開発/設定する必要がありました。AppHAでは、特別な開発を必要とせず、仮想マシン内で稼働するサービスに対しての保護が可能となります。

AppHAは従来のvSphere HA機能と連携して、ホスト障害から仮想マシン内で稼働するアプリケーションの保護まで可能となりました。



 

 

 

現行バージョンで監視対象と出来る、アプリケーションは下記となります。

  • Microsoft SQL Server2005
  • Microsoft SQL Server2008
  • Microsoft SQL Server2008R2
  • Microsoft SQL Server2012
  • Microsoft Internet Information Services6
  • Microsoft Internet Information Services7
  • Microsoft Internet Information Services8
  • VMware vFabric tc Server6
  • VMware vFabric tc Server7
  • Apache Tomcat6
  • Apache Tomcat7
  • Apache HTTP Server1.3
  • Apache HTTP Server2.0
  • Apache HTTP Server2.2

 1.稼働コンポーネントについて

AppHAを設定するには、下記のコンポーネントの導入が必要となります。

各コンポーネントの稼働要件については、弊社ドキュメントでご確認ください。

1.vCenterサーバ

2.AppHAサーバ(仮想アプライアンス)

3.vFabric Hyperic Server(仮想アプライアンス)

4.vFabric Hyperic Agent(監視対象となる仮想マシン内で稼働)

2.AppHAの設定について

仮想マシン内で稼働する、アプリケーションの監視方法はすべて、ユーザーが事前に定義するポリシーにより決定されます。

AppHAを利用して、監視対象アプリケーションの登録方法とポリシー設定について紹介します。

AppHAは、vFablic Hyperic Serverと連携して稼働するため、AppHAのデプロイ後、vFabric HQ Serverと監視対象となる仮想マシンにvFabric Hyperic Agentの登録が必要となります。vFablic Hyperic ServerとvFabric Hyperic Agentの導入方法については、マニュアルを参照ください。

1.AppHAの初期設定として、AppHA Plug-InよりvFablic Hyperic Serverの接続情報を指定します。

2.監視ポリシーを追加します。

3.ポリシー名とコメントを設定します。

4.監視対象となるサービスの種類を選択します。

5.監視対象のサービスが停止した場合の対処方法について設定をします。

6.vCenter Serverに対してアラートの設定とメール通知の設定をします。

7.すべての設定が完了後、仮想マシン内で稼働するサービスに対して作成したポリシーを割り当てます。

また事前に、vFabric Hyperic ServerにvCenterの登録をしておく必要がありますので、登録をしていない場合、名前を「VC」としてNew Server登録を行ってください。

設定の詳細に関してはマニュアル「Fabric Hyperic Resource Configuration and Metrics」の「vSphere」の章を参照ください。

8.設定が完了して、ステータスが「Available」となると監視が開始されます。

なお、VMware vSphere HAの設定は「仮想マシンとアプリケーションの監視」で設定する必要があります。

まとめ

仮想環境において仮想マシン内で稼働するアプリケーションの監視が容易に行えるようになりましたので、是非 ご利用ください。


VMware vCloud Director 5.5 – 新機能紹介

$
0
0

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は、VMware vCloud Director 5.5で追加された主な新機能についてご紹介します。

vCloud Director 5.5では、大きく以下の3つのカテゴリについて機能向上及び追加がなされています。

■カタログ機能

  • 共有カタログに対する組織単位でのアクセス制限
  • 複数のvCloud Directorインスタンス間でのカタログの公開/購読
  • カタログ内のコンテンツに対する自動バージョン付け
  • 任意のファイル形式のサポート

vAppの展開及びライフサイクル管理

  • テンプレートからのvAppの展開時における仮想マシンハードウェア設定の編集
  • vAppテンプレートレベルでのゲストOSのカスタマイズ設定の編集(※)
  • 実行中の仮想マシンにおける仮想NICの追加、取り外し、接続及び切断(ホットアド/リムーブ)
  • 実行中/サスペンド中のvApp/仮想マシンのメモリ状態を含むクローンの作成
  • vAppの(カタログを介さない)直接展開及びエクスポート
  • OVAファイル形式のサポート

追加サポート

  • vCloud DirectorセルのオペレーティングシステムとしてCentOSのサポート
  • Google Chrome Webブラウザのサポート
  • Mac OS Xにおける仮想マシンコンソールアクセスのサポート

※注意事項:

「vAppテンプレートレベルでゲストOSのカスタマイズ設定を編集できる」機能は、本ブログ執筆時点では急遽リリース見送りになっています。この決定は各種デモやホワイトペーパーの作成後になされたとのことで、所々で言及されているケースがあります。この機能のご利用を検討されていた場合は、vCloud Director 5.5ではリリースされない予定ですのでご注意下さい。
詳しくは、以下のブログエントリの内容もご確認下さい。

A Summary of What’s New in vCloud Director 5.5
http://blogs.vmware.com/vsphere/2013/09/a-summary-of-whats-new-in-vcloud-director-5-5.html

また、前バージョンと同様にvCloud Directorセルの仮想アプライアンス(SLES 11 SP2ベース)も提供されますが、vCloud Director 5.5においてもPoC/評価目的限定での使用を想定しております。本番環境での使用はサポートされません。

■カタログ機能の向上

1. 共有カタログに対する組織単位でのアクセス制限

組織間でのカタログ共有機能は以前から存在していましたが、これまでは「すべての組織に発行(shared)」か「その他の組織にこのカタログを発行しない(nonshared)」のいずれかを選択することしかできませんでした。vCloud Director 5.5では、ユーザがカタログを共有する「特定の組織」を明示的に選択することが可能になり、よりきめ細やかなアクセス制御を行うことができます。なお、vCloud Director 5.1では組織間でのカタログ共有を「公開」タブで指定していましたが、5.5では「公開」は次節で説明する複数vCloud Directorインスタンスを跨いだ組織間でのカタログ公開/購読(外部公開)の意味となり、共有する組織の指定はメンバーの追加と合せて「共有」指定の一部となっています。

共有カタログに対する組織単位でのアクセス制限

2. 複数のvCloud Directorインスタンス間でのカタログの公開/購読

vCloud Director 5.1以前のバージョンでは、複数のサイト(異なるvCloud Directorインスタンス)で同じ内容のコンテンツを利用したい場合、サイト毎にカタログを管理する必要があり、運用管理にコストがかかっていました。vCloud Director 5.5では、あるvCloud Directorインスタンスのカタログを外部に「公開」し、利用者側で公開されたカタログを「購読」することで、vCloud間でコンテンツを共有することが可能になりました。この公開/購読機能を利用することで、同一のvAppテンプレートやメディアファイルの運用管理が非常に簡素化されます。

カタログの公開/購読

カタログの公開側では「サブスクリプションURL」を生成し、オプションでパスワードによる保護が可能です。一方購読側では、カタログの新規作成時に外部カタログへのサブスクライブを選択し、購読対象のURLとパスワードを(オプションで)指定します。カタログのコンテンツはデフォルトでは購読時に完全同期し、以降はカタログの更新に合せて自動的に同期します。この動作は変更可能で、購読時にはカタログのメタデータのみを取得し、オンデマンドで同期させることもできます(大規模なカタログを購読する場合に特に有効)。

カタログの公開/購読(2)

また、サイト間のコンテンツのレプリケーションは、デフォルトではVMware独自プロトコルであるhttpsベースのVCSP(VMware Content Subscription Protocol)により実行されます。カタログの公開側では、同期対象のコンテンツをスプール領域に事前エクスポート(キャッシング)することで、同期処理が高速化されます。さらに、スプール領域のコンテンツに対して、VCSPの代わりにサードパーティ製レプリケーションツールを使用することも可能です。

3. カタログ内のコンテンツに対する自動バージョン付け

vCloud Director 5.5では、vAppテンプレートやメディアファイルを含むカタログ上のすべてのコンテンツに対する、シンプルな自動バージョン付け機能が追加されています。バージョン番号は、コンテンツをカタログに追加する際に割り当てられ、更新される度に自動的に加算されます。この機能により、これまでのようなファイルの命名規則ベースの煩雑な方法に代わるシンプルなバージョン管理が可能になります。

コンテンツの」自動バージョン付け

なお、更新の際にはコンテンツが旧バージョンから新バージョンに置き換わりますが、例えば変更履歴や更新者履歴などの(変更監査のための)情報は保持されません。

4. 任意のファイル形式のサポート

これまでのバージョンでは、vAppテンプレート(OVF)及び仮想マシンへのマウントを目的としたメディア(ISO、フロッピーイメージ)のみがアップロード可能でした。vCloud Director 5.5では、カタログが任意のファイル形式をサポートするようになりました。この機能により、例えばログファイルやWord文書、vCenter Orchestratorのワークフローなど、組織間やvCloud Directorインスタンス間での様々なタイプのファイル共有が容易になります。

任意のファイル形式のサポート

vAppの展開及びライフサイクル管理

1. テンプレートからのvAppの展開時における仮想マシンハードウェア設定の編集

vCloud Director 5.5では、カタログからvAppテンプレートを選択して新しいvAppを展開するタイミングで、仮想マシンハードウェア設定(CPU、メモリ及びハードディスク)をカスタマイズできるようになっています。これまでは、構成毎にvAppテンプレートを用意しておく(もしくは一旦展開した後に個別の仮想マシンに対するプロパティを編集する)必要があり、ストレージ容量やテンプレート管理のコスト、あるいは展開時の手間がかかっていました。この機能により、1つのテンプレートでの複数vApp構成への対応や、操作が簡単になります。なお、展開時に設定を変更した場合も、元のvAppテンプレートの設定情報は保持されます。

vApp展開時の仮想マシンハードウェア設定の編集

なお余談ですが、vCloud Director 5.5ではCPU数の設定でソケット及びソケットあたりのコア数の指定も可能になっています。

2. 実行中の仮想マシンにおける仮想NICの追加、取り外し、接続及び切断(ホットアド/リムーブ)

実行中の仮想マシンに対してハードディスクを追加、取り外し及び拡張する機能はvCloud Director 5.1で導入されましたが、vCloud Director 5.5では仮想NICのホットアド/リムーブ及び接続/切断の機能が追加されました。これによって、仮想NICの構成変更の際に仮想マシンをシャットダウンする必要が無くなり、ダウンタイムが短縮されます。

仮想NICのホットアド/リムーブ

制限事項として、実行中の仮想マシンのプライマリNICに対しては、削除やネットワーク・IPモードの変更操作を実行することはできません。また、スナップショットを含む仮想マシンに関しては、NIC構成の変更自体が不可となります。

スナップショットを含む仮想マシンのNIC構成

3. 実行中/サスペンド中のvApp/仮想マシンのメモリ状態を含むクローンの作成

vCloud Director 5.1までは、実行中の仮想マシンのメモリ状態を含んだスナップショットの作成のみが可能でした。実行中やサスペンド中の仮想マシン群をメモリ状態も含めてクローンしたり、テンプレートとしてカタログに登録する機能は、特にアプリケーション開発やテスト、トラブルシューティング環境において求められてきましたが、vCloud Director 5.5で実装されています。

メモリ状態を含むクローンの作成

なお、この機能を利用するためにはvCenter Server 5.5が必要となります。また、カタログからのエクスポートやvCenter Serverインスタンス間でコピーされる場合にはメモリ状態が失われます。

4. vAppの(カタログを介さない)直接展開及びエクスポート

これまで、vCloud Director環境上にvAppを展開する際には、事前にvAppテンプレートをカタログに登録しておく必要がありました。vCloud Director 5.5では、カタログを介すことなくOVFパッケージから直接インポートして展開することが可能になりました。これにより、ストレージ容量やvApp展開までの時間が削減できます。

vAppの直接展開

また、vAppをOVFまたはOVA(単一)ファイルとしてローカルに直接ダウンロード(エクスポート)することも可能になっています。

vAppのダウンロード

5. OVAファイル形式のサポート

vCloud Director 5.5では、これまでのOVF形式のファイルに加えて最近使用するケースが増えつつあるOVA(単一)ファイル形式にも対応しています。

OVAファイル形式のサポート

追加サポート

最後に、vCloud Director 5.5で新たに追加された主なサポート項目についてご紹介します。

1. vCloud DirectorセルのオペレーティングシステムとしてCentOSのサポート

vCloud Directorセルを構築する際には、これまでは商用OSであるRed Hat Enterprise Linux(RHEL)のみがサポートされていました。vCloud Director 5.5では、これに加えてCentOS(V.6.1 – 6.4)がサポート対象として追加され、vCloud Director導入の際のコスト的な敷居が下がっています。

2. Google Chrome Webブラウザのサポート

これまでサポートされていたIE、Firefoxに加えて、Google Chromeブラウザのサポートが追加されています。

3. Mac OS Xにおける仮想マシンコンソールアクセスのサポート

これまで、Mac OS XではvCloud Directorの仮想マシンコンソールがサポートされておらず、Macユーザにとって不便な環境でした(WindowsやLinux環境を別途用意する必要があるなど)。vCloud Director 5.5では、Mac OS X上で利用可能なFirefoxおよびGoogle ChromeがHTML5ベースの仮想マシンコンソールをサポートしたことで、Macユーザに対するvCloud環境の利便性が高まっています。

なお、HTML5ベースの新しい仮想マシンコンソールの実装は、Mac OSのみで使用されます。Windows及びLinux環境では、従来どおりのVMRC(VMware Remote Console)プラグインが有効になります。また注意事項として、HTML5ベースの実装ではVMRCに比べて以下の機能制限があります。

  • デバイスのサポートなし(コンソールからのCD-ROMのマウント/アンマウント不可)
  • クリップボードのサポートなし(コンソールとの間でのコピー&ペースト不可)
  • コンソール上で自動的にマウスをつかむ/リリースする機能のサポートなし

まとめ

vCloud Director 5.5では、使いやすさ、機能性及び管理性の面で、大きく以下の3つのカテゴリについていくつかの重要な機能追加と向上がなされています。

  • カタログ機能
  • vAppの展開及びライフサイクル管理
  • 追加サポート

また、以下のホワイトペーパーも是非ご参照頂ければと思います。

What’s New with VMware vCloud Director 5.5
http://www.vmware.com/files/pdf/products/vCloud/Whats-New-VMware-vCloud-Director-55-Technical-Whitepaper.pdf

ネットワーク仮想化 – VXLANの設定1

$
0
0

VXLAN の設定

VXLANの概要で、VXLANのメリットやコンポーネントについて、ご紹介しました。今回は、VXLANの設定について、ご紹介します。

構成例 1: シングル L2(1 VDS)構成

この例では、VXLAN を構成し、3階層システム (Webサーバ、アプリケーションサーバ、DBサーバ) を展開します。
それぞれのサーバの種類毎に論理的 L2 ネットワーク、つまり仮想のネットワークワイヤを作成し、かつ VXLAN の外のネットワークからアクセスを提供する vCloud Networking and Security の Edge ゲートウェイを設定します。

この構成に必要なコンポーネントは、次のとおりです。

  • 同じ vCenter の データセンタ内の 2 クラスタ
    • クラスタ毎に 2 ホスト
    • ホスト毎に 2 NIC (10GbE が望ましい)
  • 2 物理スイッチ
  • 1 VDS
  • 管理クラスタ
    • vCenter サーバ
    • vCloud Networking and Security Manager

各コンポーネントのインストールについては、それぞれの製品のインストール ガイドをご参照ください。

設定を解説する構成は、以下のとおりです。

図 1: コンポーネントと構成

VXLAN ベースのネットワーク仮想化を設定する前に、まず、2 クラスタを用意し、物理ネットワークに接続します。物理ネットワークインフラの設定の推奨は、以下のとおりです。

  • VXLAN トラフィックを転送するための 2 クラスタ間の 1 VLAN を設定します。1 VLAN で構成した場合は、物理スイッチ上のマルチキャスト ルーティング、つまり L3 経由のマルチキャストの転送を利用可能にする要件を、排除できます。
  • 物理スイッチ上で、IGMP スヌーピングと IGMP クエリア機能を設定します。

この構成では、VLAN 2000 を VXLAN トラフィックを転送する物理スイッチ上で設定しており、vMotion や 管理、NFS 等の vSphere の展開に一般的に使われるトラフィックは別の VLAN で構成しており、この図には記載しておりません。

図 2 は、vSphere Client からみた、データセンタ VXLAN-DC の 2 クラスタのインベントリの画面です。

図 2: ホストとクラスターの構成画面

図 3 は、VXLAN-VDS のネットワーク構成です。全 4 ホストがこの VDS の一部です。

図 3: ネットワーク画面

ステップ 1: VXLAN の準備

このステップでは、VXLAN の準備をします。設定に必要なパラメータは、下記の通りです。

  • VXLAN VIB を展開したい VDS の名前 – 例) VXLAN-VDS
  • VXLAN トラフィックを転送したい VLAN 番号 – 例) VLAN 2000
  • チーミングアルゴリズム – 例) なし。明示的なフェールオーバを使用
  • VXLAN を転送する VLAN 上での DHCP サービス – 例) なし

VXLAN を準備するために、まず、左のパネル上の VXLAN-DC データセンタを
選択し、次に図 4 のように、右のパネルの Network Virtualization をクリック
します。

図 4: Network Virtualization – vCloud Networking and security プラグイン

Network Virtualization で、VXLAN の設定を開始するために、Preparation
クリックします。

図 5: VXLAN Preparation

Edit をクリックします。

図 6: VXLAN 設定 – Connectivity

ポップアップ画面が開き、VXLAN ファブリックに参加するクラスタを選択する画面が開きます。事前に設定済の 2 つのクラスタがあり、図 7 のように見えます。

図 7: VXLAN 設定 – Connectivity – クラスタの選択

クラスタを選択し、両方のクラスタで使用する VDSと、VXLAN を転送する VLAN 2000 を入力します。この例では、VXLAN-VDS が両方のクラスタに渡って使われます。その後、Next をクリックします。

図 8: VXLAN 設定 – Connectivity – VDS の選択と VLAN 番号の入力

次に、VXLAN を転送するポートグループで使うチーミングの選択と MTU サイズを設定し、Finish をクリックします。この例では、チーミングなしの設定のため、Fail Over チーミングを選択し、MTU サイズはデフォルトの 1600 バイトです。

図 9: VXLAN 設定 – Connectivity – チーミングの選択と MTU の設定

vCloud Networking and Security Manager で、それぞれの vSphere ホストで VXLAN モジュールが利用可能になります。VTEP の準備の一部として、vmknic とポートグループが自動的に設定されます。図 10 は、VTEP 設定のプロセスが完成した後のステータスを表示しています。

図 10: VXLAN 設定 – Connectivity – 完了

図 11 は、vCloud Networking and Security Manager 経由でそれぞれのホストにインストールしたコンポーネントを表示しています。

図 11: 新しい展開 – 準備ステップ後のコンポーネント

ステップ 2: Virtual Tunnel Endpoint IP 設定

それぞれの VTEP の IP 設定は、VXLAN を転送する VLAN に DHCP サーバ が構成された環境では自動的に取得されます。この例では、DHCP サーバがないため、このステップで、手動での IP 設定について、説明します。

設定は、適切な仮想アダプタをそれぞれのホストを選択し、編集する必要があります。
図 12 のように、まずホストを選択し、仮想アダプタの管理をクリックします。

図 12: VTEP の手動設定 – vmknic プロパティの編集

図 13 のように、仮想アダプタの管理画面で、前の VXLAN 準備プロセス中に作成された vmknic のプロパティを編集します。

図 13: VTEP の手動設定 – vmknic プロパティの編集 (vmk1)

図 14 で、VLAN 2000 のサブネットの IP を設定します。

図 14: VTEP の手動設定 – IP アドレスの設定

図 15 は、クラスタ内の 4 つ全てのホストで、IP アドレスを手動で設定後、vCloud Networking and Security Manager から確認している画面です。
IP アドレスが正しいことを確認後、次のステップはセグメント ID とマルチキャスト IP アドレスを設定します。セグメント IDとは、VXLAN の論理ネットワークを構成するための識別子で、標準では、VXLAN Network Identifier(VNI)と呼ばれています。設定を開始するために、Segment ID をクリックします。

図 15: VTEP の手動設定 – 全てのホストで繰り返す – VXLAN vmknic の設定

ステップ 3: セグメント ID とマルチキャスト グループ アドレス レンジの設定

ネットワーク管理者に、この設定で利用するマルチキャスト グループ アドレス レンジを確認します。また、論理的に作成した L2 ネットワークの数を決めます。
例えば、2000 論理 L2 ネットワークなら、セグメント ID は 5000 から6999 を使用する、のように決めます。この例では、10 論理ネットワークを構成し、9001 から 9010 を使用します。まず、Edit をクリックします。

図 16: VXLAN セグメント ID 設定 – Edit

マルチキャスト アドレス フィールドには、セグメント ID を結びつけて使用するマルチキャスト アドレス レンジを入力します。セグメント ID とマルチキャスト グループ アドレスは 1 対 1 が推奨です。

図 17: VXLAN セグメント ID 設定 – プールとマルチキャスト グループ IP アドレス レンジ

ベスト プラクティスとして、VXLAN を展開する環境で使うマルチキャスト アドレス レンジを確認するネットワーク担当者との作業は重要です。マルチキャストに関する要点は、下記のとおりです。

  1. 224.0.0.1 から 224.0.0.255 のレンジは使用しないでください。Well-knownアドレスとして、ルーティング プロトコル等の利用に予約されています。
  2. 224.0.1.0 から 239.255.255.255 の以外の残りのレンジ、つまり 239.0.0.0 から239.255.255.255 は社内のみの VXLAN 展開に使うことができます。IP アドレスの 10.0.0.0/8 レンジのようなプライベート アドレスに相当するものです。グローバルなインターネット トラフィックに使用することができません。
  3. 管理 ドメイン間で共有する VXLAN ネットワークの展開には、232.0.0.0/8 (232.0.0.0 から 232.225.225.225) の送信元固有ブロックから付与する必要があります。

ステップ 4: VXLAN ネットワーク スコープの定義

ネットワーク スコープでは、論理ネットワークのレンジを定義します。この例では、VXLAN ベースの論理ネットワーク レンジが両方のサーバ クラスタの範囲で定義されます。図 18 の画面で Network Scopes を、新しいネットワーク スコープを定義するために、図 19 の画面で “+” アイコンをクリックします。

図 18: VXLAN ネットワーク スコープの定義 – ネットワークスコープ タブの選択

図 19: VXLAN ネットワーク スコープの定義 – 追加をクリック

ネットワーク スコープの名前を入力し、そのスコープの一部となる両方のクラスタを選択し、Ok をクリックします。

図 20: VXLAN ネットワーク スコープの定義 – スコープの定義とクラスタの選択

この設定ステップを通じて、ネットワークのスコープを拡張、縮小する選択が可能で、必要に応じて、ネットワークスコープにクラスタを追加したり、削除したりすることが可能です。

ステップ 5: 物理スイッチの設定

この例で、物理スイッチ上に必要とされる設定は次のとおりです。

  1. 両方のスイッチ上に VLAN 2000 を設定
    a. vSphere ホストが接続するスイッチのポートで VLAN 2000 がトランク設定されており、ネットワークインフラ上で VLAN 2000 が設定されていること
    b. スイッチ間のポートチャネル上で VLAN 2000 を転送できること
  2. IGMP snooping の設定
  3. VLAN 2000 上に IGMP クエリアを有効化
  4. MTU サイズを 1600 以上 に拡大。一般的に、スイッチ全体で MTU サイズを変更、もしくはポート毎に MTU サイズを変更する機器があります。使用する機器の設定ガイド等をご確認ください。

以下は、一般的に利用されるスイッチの設定例です。

スイッチ 1 の設定 ( 図 12 の左のスイッチ )

1) VXLAN VLAN の設定

switch (config) # interface vlan 2000
switch (config-if) # ip address 40.0.0.251 255.255.255.0
switch (config-if) # no shutdown
switch (config-if) # exit

2) IGMP snooping の設定

switch (config) # ip igmp snooping

3) IGMP querier の設定

switch (config) # interface vlan 2000
switch (config-if) # ip igmp snooping querier
switch (config-if) # exit

4) MTU の設定 (1 ポートのみの設定例)

switch (config) # interface gigabitEthernet 1/1
switch (config-if) # mtu 9216

スイッチ 2 の設定 ( 図 12 の右のスイッチ )

1) VXLAN VLAN の設定

switch (config) # interface vlan 2000
switch (config-if) # ip address 40.0.0.252 255.255.255.0
switch (config-if) # no shutdown
switch (config-if) # exit

2) IGMP snooping の設定

switch (config) # ip igmp snooping

3) IGMP querier の設定

switch (config) # interface vlan 2000
switch (config-if) # ip igmp snooping querier
switch (config-if) # exit

4) MTU の設定 (1 ポートのみの設定例)

switch (config) # interface gigabitEthernet 1/1
switch (config-if) # mtu 9216

物理スイッチの設定については、こちらも合わせて、ご参照ください。

ステップ 6: 論理 L2 ネットワークの構成 (消費)

VXLAN ファブリックを作成後、物理ネットワークと分離されている論理的 L2 ネットワークを構成 (消費) します。この例では、3 階層型アプリケーションの仮想マシン用の 3 つの別々の論理ネットワークを作成します。作成の順序は次のとおりです。

  1. 仮想ネットワークワイヤを作成
  2. 仮想ネットワークワイヤに仮想マシンを接続
  3. 仮想ネットワークワイヤ上の仮想マシンに IP アドレスを付与

新しい仮想ネットワークワイヤを作成するために、最初に図 21 の画面で Networks をクリックし図 22 の画面で “+” アイコンをクリックします。

図 21: VXLAN 仮想ネットワーク ワイヤ – Networks をクリック

図 22: VXLAN 仮想ネットワーク ワイヤ – 追加

図 23 の画面で、仮想ネットワーク ワイヤの名前を入力し、Ok をクリックします。すると、図 24 の画面のように、セグメント ID 9001 と、マルチキャスト グループ アドレス 239.0.0.1 が自動的にこの仮想ネットワークワイヤに関連づけられていることがわかります。

図 23: VXLAN 仮想ネットワーク ワイヤ – Web-vWire

図 24: VXLAN 仮想ネットワーク ワイヤ – Web-vWire がセグメント ID 9001 で作成

このステップを繰り返し、さらに 2 つ、アプリケーション サーバと DB サーバ用の仮想ネットワーク ワイヤを作成します。

図 25: VXLAN 仮想ネットワーク ワイヤ – Application-vWire と DB-vWire 作成

ステップ 7: 仮想ネットワーク ワイヤに仮想マシンを接続

現在、図 26 のように 3 つのサーバがあります。

図 26: 3 階層システム アプリケーションの展開

仮想マシンを仮想ネットワーク ワイヤに接続する方法は 2 つあります。

  1. vCloud Networking and Security Manager を使用
  2. 仮想マシンの設定の編集で、ポートグループを変更

オプション 1: vCloud Networking and Security Manager を使用

このオプションでは、仮想マシンが接続したい仮想ネットワーク ワイヤを選択します。

図 27: vCloud Networking and Security Manager – Web-vWire を選択

図 28: vCloud Networking and Security Manager – Virtual Machines の選択

+” アイコンをクリック後、仮想マシンの名前の一部を入れて検索し、対象の仮想マシンの仮想 NIC を選択し、Next をクリックします。

図 29: vCloud Networking and Security Manager – Add をクリックし、web サーバ仮想マシンを検索

図 30 の画面で、web サーバ仮想マシンの接続プロセスを完了します。

図 30: vCloud Networking and Security Manager – 仮想マシンが接続される

オプション 2: 仮想マシンの設定の編集で、ポートグループを変更

vCloud Networking and Security Manager の代わりに、ネットワーク アダプタの設定の編集で、仮想マシンの接続を変更します。

VXLAN 環境に構成されたそれぞれの仮想ネットワーク ワイヤは、VDS 上のポートグループに関連づけされています。図 31 に、3 つのポートグループ、つまり 3 つの仮想ネットワーク ワイヤ ( Web, Application, DB 用 ) が確認できます。

図 31: 仮想ネットワーク ワイヤとポートグループの関連づけ

ホストおよびクラスタ ビューで、アプリケーション サーバ (この例では、ap-1-k) の仮想マシンを選択し、設定の編集 をクリックします。

図 32: アプリケーション サーバ – 仮想マシン 設定の編集 – ポートグループの変更

仮想ネットワーク ワイヤに接続するネットワーク アダプタを選択し、ネットワーク ラベルのドロップダウン メニューから、Application-vWire ポートグループを選択し、OK をクリックして保存します。

図 33: 仮想マシン 設定の編集 – Application-vWire に再マッピング

同様に、オプション 1 か 2 の方法で、DB サーバも DB-vWire 仮想ネットワーク ワイヤに接続します。

図 34 のように、3 つの仮想ネットワーク ワイヤに 3 階層システムアプリケーションが構成された状態になります。

図 34: 新しい展開 – 仮想ネットワークワイヤ上の 3 階層システムアプリケーション

ステップ 8: 仮想ネットワーク ワイヤ上の仮想マシンに IP アドレスを付与

仮想マシンにIPアドレスを手動で付与する、もしくは vCloud Networking and Security Edge ゲートウェイの DHCP サーバを使用して自動的に付与する、のどちらかを選択することができます。この例では、3 つの仮想ネットワークワイヤに次のサブネットを付与し、仮想マシンにはそれぞれのサブネットから IP アドレスを手動で設定します。

  1. Web-vWire – 192.168.10.0/24
  2. Application-vWire – 192.168.20.0/24
  3. DB-vWire – 192.168.30.0/24

仮想ネットワークワイヤに接続される 3 つの仮想マシンは、お互いに分離されています。アプリケーションのそれぞれの層の間で通信を提供するため、または VXLAN の外のネットワークと通信するために、vCloud Networking and Security Edge ゲートウェイを展開する必要があります。その設定については、次回、ご紹介します。

※このブログでは、vCloud Networking and Security 5.1 と、vCenter Server 5.1 Update 1および vSphere 5.1 Update 1を元に作成しました。それぞれの 5.5 リリースの場合も大きな変更はない予定です ( 2013 年 8 月 29 日現在 )。

 

ネットワーク仮想化 – VXLAN の設定2

$
0
0

前回の VXLAN の設定に続いて、VXLAN ゲートウェイの設定について、説明します。

vCloud Networking and Security Edge ゲートウェイは、ファイアウォール、ロードバランサー、VPN、DHCP サービスのような機能と共に、VXLAN ゲートウェイとして動作します。vCloud Networking and Security Edge ゲートウェイのデプロイと、仮想ネットワーク ワイヤから外のネットワークへアクセスできるようにするステップについて、説明します。そのデプロイと設定ステップは次のとおりです。

  1. vCloud Networking and Security Edge ゲートウェイのデプロイ
  2. vCloud Networking and Security Edge ゲートウェイに仮想ネットワークワイヤを接続 (この例では、1. の設定時に行います。)
  3. 外部へのアクセスのためのファイアウォール ルールの設定
  4. NATの設定

ステップ 1: vCloud Networking and Security Edge ゲートウェイのデプロイと仮想ネットワークワイヤの接続

vCloud Networking and Security Edge ゲートウェイ 仮想アプライアンスをデプロイするために、Edges をクリック後、”+” アイコンをクリックします。

図 1: vCloud Networking and Security Edge ゲートウェイをデプロイ – 追加

vCloud Networking and Security Edge ゲートウェイの名前を入力し、ゲートウェイの高可用性と提供する場合は、Enable HA をクリック後、Next をクリックします。

図 2: Edge のデプロイ – HA の有効化

Edge への CLI アクセスのユーザ名とパスワードを入力し、Next をクリックします。デフォルトはvCloud Networking and Security と同じです。

図 3: Edge のデプロイ – ユーザ名とパスワード

vCloud Networking and Security Edge ゲートウェイ アプライアンスをデプロイする時に 3 つのサイズから選択できます。また、特定のクラスターもしくはホストを指定して、デプロイできます。今回の例では、Compact でデプロします。デプロイするクラスターもしくはホストを指定するために、”+” をクリックします。

図 4: vCloud Networking and Security Edge ゲートウェイのデプロイ – アプライアンス サイズの選択

この例では、Cluster01 にデプロイします。Add をクリックします。

図 5: vCloud Networking and Security Edge ゲートウェイのデプロイ – アプライアンスのデプロイ先の指定

デプロイ先が表示されたら、Next をクリックします。

図 6: vCloud Networking and Security Edge ゲートウェイのデプロイ – Cluster01

次に、vCloud Networking and Security Edge ゲートウェイ アプライアンスのインターフェイスを設定します。インターフェイス設定では、まず External (Uplink) インターフェイスを選択し、その後で、3 つの仮想ネットワークワイヤ、つまり VXLAN 論理 L2 ネットワークを接続します。

インターフェイスを追加するために、”+” をクリックします。

図 7: vCloud Networking and Security Edge ゲートウェイのデプロイ – インターフェイスの設定

External インターフェイスの名前を入力し、接続するサービス プロファイルを選択するために、Select をクリックします。

図 8: vCloud Networking and Security Edge ゲートウェイのデプロイ – External インターフェイス

External インターフェイスが接続するポートグループを選択し、Select をクリックします。

図 9: vCloud Networking and Security Edge ゲートウェイのデプロイ – External インターフェイス

+” ボタンを押して、さらにポップアップした画面で “+” を押して、IP アドレスを入力した後で、OK ボタンを押し、サブネットを入力後、Save をクリックし、元の画面でAdd をクリックします。

図 10: vCloud Networking and Security Edge ゲートウェイのデプロイ – External IP の付与

図 7 の画面から、更に VXLAN 仮想ネットワーク ワイヤにつながるインターフェイスを作成します。Web サーバ 用のゲートウェイ インターフェイスに名前を入力し、Internal タイプを選択し、Select をクリックします。

図 11: vCloud Networking and Security Edge ゲートウェイのデプロイ – Web サーバ ゲートウェイ インターフェイス

Virtual Wire をクリックし、Web サーバ用の 仮想ネットワーク ワイヤを選択します。この例では、前回、作成済の Web-vWire を選択し、Select をクリックします。

図 12: vCloud Networking and Security Edge ゲートウェイのデプロイ – Web-vWire に接続

図 10 と同様に、IP アドレスを設定します。更に、Application サーバ用、DB サーバ用のインターフェイスを作成し、Next をクリックします。

図 13: vCloud Networking and Security Edge ゲートウェイのデプロイ – 全てのインターフェイス

インターフェイス設定後、External インターフェイス用のデフォルト ゲートウェイの IP アドレスを設定します。例えば、一般的には L3 機器で VRRP や HSRP が設定されており、デフォルト ゲートウェイとして動作しますので、ネットワーク担当者に確認の上で、設定してください。

Configure Default Gateway を選択後、今回の例では、vNIC として External を選択し、デフォルト ゲートウェイの IP アドレスを入力し、Next をクリックします。

図 14: vCloud Networking and Security Edge ゲートウェイのデプロイ – デフォルト ゲートウェイの設定

デフォルト ゲートウェイの IP アドレスを設定後、オプションで、vCloud Networking and Security Edge ゲートウェイの高可用性のために管理 IP アドレスを定義することができます。Next をクリックします。

図 15: vCloud Networking and Security Edge ゲートウェイのデプロイ – 高可用性

設定内容を確認し、Finish をクリックします。

図 16: vCloud Networking and Security Edge ゲートウェイのデプロイ – 設定のサマリー

Finish をクリック後、vCloud Networking and Security Edge ゲートウェイのデプロイが行われ、しばらくすると Status が Deployed となり、デプロイが完了します。

図 17: vCloud Networking and Security Edge ゲートウェイのデプロイ – アクティブとスタンバイ

vCloud Networking and Security Edge アクティブ、スタンバイ アプライアンスがCluster01に展開され、設定プロセスが完了し、インターフェイス接続が準備されました。論理的には、図 18 のように、vCloud Networking and Security Edge ゲートウェイが構成されています。

図 18: vCloud Networking and Security Edge の展開 – インターフェイス接続含む

ステップ 2: 外部へのアクセスのためのファイアウォール ルールの設定

vCloud Networking and Security Edge ゲートウェイは、ネットワーク境界のファイアウォールとしても動作します。外部へのアクセスが必要な内部ネットワークの接続機器として、ファイアウォールを定義できます。

vCloud Networking and Security Edge ゲートウェイを選択後、Action をクリック後、Manage をクリックします。

図 19: vCloud Networking and Security Edge ゲートウェイの設定 – Edge の選択と Manage のクリック

Configure をクリックします。

図 20: vCloud Networking and Security Edge ゲートウェイの設定 – Configure をクリック

インターフェイス番号を確認後、Firewall をクリックします。

図 21: vCloud Networking and Security Edge ゲートウェイの設定 – 4 つのインターフェイス (1 つの外部向け、3 つの内部向け)

デフォルト ルールとして、あらかじめ、トラフィックにマッチしなかったものを遮断 (Deny)  するルールが 3 行目に構成されています。新しいルールを作るために、”+” をクリックします。

図 22: vCloud Networking and Security Edge ゲートウェイの設定 – Default Rule (Deny)

vCloud Networking and Security Edge ゲートウェイのWeb サーバ ゲートウェイ インターフェイス (Source) から External インターフェイス (destination) へのトラフィックを許可するルールを作成します。

Name で ”+” をクリックし、名前を入力し、OK をクリックします。

図 23: vCloud Networking and Security Edge ゲートウェイの設定 – 新しいルールの作成

ファイアウォール ルールとしては、IP アドレスもしくは VnicGroup のどちらかをベースに作成できます。特定のインターフェイスに接続する全ての仮想マシンにファイアウォールのルールを適用するためには、VnicGroup オプションがお勧めです。

この例では、全ての Web サーバから外部へのトラフィックを許可するために、Vnic Group のファイアウォール ルールを選択します。 Source で、”+” をクリックし、VnicGroup を選択します。

図 24: vCloud Networking and Security Edge ゲートウェイの設定 – 2 つのルール タイプ

送信元として、先ほど、図 21 で確認した Web サーバ ゲートウェイ インターフェイス番号に相当する、vnic-index-1 を選択し、OK をクリックします。

図 25: vCloud Networking and Security Edge ゲートウェイの設定 – ファイアウォール ルール 送信元の選択 (VnicGroup ベースで Web 仮想ネットワークワイヤの選択)

次に、トラフィックの宛先として、Destination で、”+” をクリックし、VnicGroup を選択後、external を選択し、OK をクリックします。

図 26: vCloud Networking and Security Edge ゲートウェイの設定 – ファイアウォール ルール 宛先の選択 (VnicGroup ベースでexternal インターフェイスの選択)

特定のサービス タイプを指定したい場合は、Service を変更します。この例では、サービスタイプの指定はしないため、デフォルトの any のままにしておきます。
次に、作成したルールを有効化するために、Publish をクリックします。

図 27: vCloud Networking and Security Edge ゲートウェイの設定 – ファイアウォール ルールの有効化

これで、ファイアウォール ルール設定の完了です。

ステップ 3: Source NATの設定

内部の Web サーバ の IP アドレスが、プライベート IP サブネット 192.168.10.0/24 で付与されているため、この例では、NATの設定が必要です。図 28 のように、Web サーバ セグメント 192.168.10.0/24 には 2 台の Web サーバが接続される予定だとします。

図 28: IP アドレス設定 – 3 つの仮想ネットワーク ワイヤと 1 つの External ネットワーク

図 29 のように、vCloud networking and Security Edge ゲートウェイを選択後、NAT をクリックし、”+” をクリックすると、2 種類のNAT ルールのどちらかを選択できますので、今回は Add SNAT Rule を選択します。

図 29: vCloud Networking and Security Edge ゲートウェイの設定 – SNAT Ruleの追加

今回の例では、SNAT (Source NAT) を適用するインターフェイスとして、External を選び、送信元の IP アドレス レンジと変換する IP アドレスを入力し、有効化するために、Enabled を選択後、Add をクリックします。

図 30: vCloud Networking and Security Edge ゲートウェイの設定 – External インターフェイスへのNAT ポリシーの適用

設定を反映するために、Publish Changes をクリックします。

図 31: vCloud Networking and Security Edge ゲートウェイの設定 – Publish Changes

vCloud networking and Security Edge ゲートウェイには他の機能もありますので、vCloud Networking and Security の各種ガイドをご参照ください。

また、このブログの元となった VXLAN Deployment Guide も合わせてご参照ください。

※このブログでは、vCloud Networking and Security 5.1 と、vCenter Server 5.1 Update 1および vSphere 5.1 Update 1を元に作成しました。それぞれの 5.5 リリースの場合も大きな変更はない予定です。 ( 2013 年 8 月 29 日現在 )

vSphere 5.5 の新機能紹介 – vCenter Serverの新機能

$
0
0

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は VMware vCenter Server 5.5(以下vCenter 5.5) の新機能についてご紹介します。
vCenter 5.5 の主な新機能は下記のとおりです。

  1. vCenter Single Sign-On の強化
  2. vCenter Server Appliace 内蔵データベースのスケーラビリティ向上
  3. vCenter 用データベースのクラスターテクノロジーの正式サポート

また新機能ではありませんが、vCenter Server の旧バージョン(4.1/5.0/5.1)からのアップグレード方法について、若干の注意点がありますので、それについても記載します。

1. vCenter Single Sign-On の強化

vCenter 5.1 に同梱されていた Single Sign-on サービス(以下SSO)は、vCenter 5.5 では全面的に刷新され、主にスケーラビリティ、信頼性などが大きく向上しています。
また、従来はデータ格納用として SQL Server など外部データベースシステムが必要でしたが、vCenter 5.5の SSO では外部データベースが不要となり、SSO 内部でデータを保持するよう変更されました。これにともない、SSO マルチサイト構成における、サイト間のデータの同期については、SSO モジュール自身の機能で行えるようになりました(従来は外部データベースのリプリケーション機能が必要でした)。
SSO の機能向上などの詳細については、あらためて別の項でご紹介します。

2. vCenter Server Appliace 内蔵データベースのスケーラビリティ向上

vCenter 5.5 でも引き続き、OSを同梱した仮想アプライアンス形式である vCenter Server Appliace (以下vCSA)を提供します。
従来の vCSA では、内蔵データベース(vPostgres)にて管理可能な ESXi ホスト、仮想マシンなどのオブジェクト数に大きな制限があり、最大 5ホスト、50VMまでのみ対応となっていました。
vCSA 5.5 ではこの制限が大幅に緩和され、最大 100ホスト、3,000VMまで対応できるよう向上しました。従来の数十倍のオブジェクトが管理可能になったわけです。
多くのオブジェクトを管理する環境で使用する際の注意点として、vCSA 5.5 デプロイ時のデフォルトの仮想CPU数、メモリサイズ、仮想ディスクのサイズでは不足する場合がありますので、その場合は仮想メモリ、ディスクサイズ等を増やす必要があります。
管理対象オブジェクト数に対する vCSA 仮想マシンのサイジングのガイドにつきましては、「vCenter Server およびホスト管理ガイド」に記載されていますが、メモリサイズについては下記のとおりです。

VMのメモリサイズ
オブジェクト数
4GB以上 10ホストおよび100VM未満
8GB以上 10から100ホスト、または100-1000VM
16GB以上 100から400ホスト、または1000から4000VM
24GB以上 400ホスト以上、または4000VM以上 (外部DB使用時)

内蔵データベース上にこれらのオブジェクトの情報を格納する場合は、vCSA 仮想マシンに仮想ディスク(VMDK)を別途追加する必要がある場合があります。仮想ディスクの追加方法につきましては、下記ナレッジベースを参照ください。
Increase the disk space in vCenter Server Appliance (2056764) ” (英語)
http://kb.vmware.com/kb/2058187

内蔵データベースに情報を格納する場合は vCSA 仮想マシンのディスク使用量が徐々に増加していきますので、ディスクの残り容量が枯渇していないかどうか、定期的に監視することを強く推奨します。
vCSA 仮想マシンのディスク使用率は、vCSA の管理ウェブコンソール(https://<vCSAのFQDN>:5480)にて監視することが可能(vCenter Server タブ > Summary リンク: 右図参照)ですが、より利便性を高めるために、自動で監視しアラートを通知するためのガイドを提供しています。設定方法につきましては、下記のナレッジベースを参照ください。
Monitor vCenter Server Appliance database disk usage (2058187) ” (英語)
http://kb.vmware.com/kb/2058187

3. vCenter 用データベースのクラスターテクノロジーの正式サポート

vCenter 5.5(Windows 版および vCSA)にて Oracle などの外部データベースを使用する場合、それらのデータベースシステムで利用可能な高可用性テクノロジー(Oracle RAC など)を、 vCenter Server 用データベースとして正式サポートするようになりました。サポートするクラスターテクノロジーの製品名およびバージョン等につきましては、弊社ナレッジベースにて提供する予定です。

4. 旧バージョンからのアップグレード

vCenter 5.1 から vCenter のサービスは、Single Sign-On, Inventory Service, vCenter の3つのモジュールに分割され、それぞれ別のシステムにインストールすることが可能になっています。また Web Client を利用するためには、さらに Web Client Service をインストールする必要があります。
vCenter 5.1 以降では、vCenter をインストールする場合、Simple Install、Custom Installの二つの方法が利用可能です。前者は、SSO、Inventory Service、vCenter を同一システムに一括してインストールする方法です。後者はそれぞれのサービスを別々のシステムに個別にインストールする場合に使用します。
vCenter 5.5 でもSimple Install、Custom Installのそれぞれが利用可能ですが、vCenter の旧バージョンからアップグレードする場合は、それぞれのモジュールのインストール場所およびアップグレード順序についても考慮点があります。
特に注意しなければならないのは、アップグレード順序で、下記の順番でアップグレードする必要があります。

  1. SSO
  2. Web Client
  3. Inventory Service
  4. vCenter

アップグレード元 vCenter のバージョン、および個々のモジュールの配置場所により、アップグレードの方法が異なりますので、下図を参照下さい。

vCenter 5.5 へのアップグレードについては、弊社ナレッジベースに詳細がありますので、そちらを参照ください。
Upgrading to vCenter Server 5.5 best practices (2053132) ” (英語)
http://kb.vmware.com/kb/2053132

ネットワーク仮想化 設計ガイドのレビュー その3

$
0
0

このBlogは、製品出荷前バイナリ及びマニュアルをベースに記載しています。出来る限り正確な情報をお伝えするよう努めておりますが、実際に製品に搭載される機能や表示と異なる可能性があります。あらかじめご了承の上、ご利用下さい。

今回は VXLAN を構成するESXi ホストが、異なるネットワークに 所属する場合について記載する予定でしたが
この間に VMworld 2013 が開催され VMware NSX について新しい発表されましたので、先にこちらに紹介したいと思います。

VMware NSX は、VMware のネットワーク仮想化の機能を担う革新的な製品です。

特に重要なのは、VXLAN を実装するにあたり、物理ネットワークで、マルチキャストの実装が必須でなくなった点です。
特定の相手だけと通信することが可能なマルチキャストはメリットがありますが、それを利用する物理ネットワーク全体に実装するには少々敷居が高い部分もありました。VMware NSX では、これを利用する側で選べるようになっており、マルチキャストモード、ユニキャストモード、混在させるハイブリットモードという柔軟な設計が可能になります。
また、これまで、なぜマルチキャストが必要なのかを考えることで、VMware NSX のマルチキャストフリーの実装を理解しやすくなります。

今回は、下図のネットワーク構成を例にマルチキャストが必要な理由について見ていきます。
VLAN10とVLAN20で分割され、ESXi ホストは L3 越えで接続されています。4つの ESXi ホストで、VXLAN5001、5002という2つの セグメントを構成しています。また、1つの VXLAN 上に存在する仮想マシンは、複数のホスト上に点在しているのが見てとれます。

この VXLAN セグメント内で、仮想マシン同士が初めて通信する時、目的の仮想マシンがどの ESXi ホスト上に存在しているかをマルチキャストを使って確認をしていました。VXLAN セグメント1つにつき、1つのマルチキャストアドレスがアサインされておりますので、通信相手がどこのホスト上にいるかは、このマルチキャストアドレスに問い合わせ(注1)をしていました。
また今回のようなネットワーク構成では、ESXi ホスト間のセグメントが分割されておりますので、ルーティングを担うネットワークデバイスで、マルチキャストルーティングが必要でした。
(注1)各仮想マシンが所属している ESXi ホストの Virtual Tunnel End Point(以降 は VTEP) がマルチキャストアドレスに問い合わせを実施

言い換えると、vCNS 5.1での VXLAN 実装は、仮想マシンがどの ESXi 上に存在しているか把握しておらずマルチキャストに依存していたということになります。
この点を改善し、どの ESXi ホスト上にどんな仮想マシンが所属しているかを、NSXコントローラーで、一元管理する実装にしました。
NSXコントローラーは、各 ESXi ホストへこの情報を伝達することで通信相手の ESXi ホストが特定でき、マルチキャストに頼らない VXLAN 実装が可能となりました。

下図は、VMware NSX for vSphere のコンポーネントを表しています。
赤枠のNSXコントローラは仮想マシンとして提供され、他にもMACアドレス、ARP、VTEP の情報を保持、伝達する役割を担います。

Viewing all 972 articles
Browse latest View live


Latest Images

<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>