Quantcast
Channel: VMware Japan Blog
Viewing all 972 articles
Browse latest View live

やってみよう! vSphere on VMware Player

$
0
0

本日は3つのエントリをポストします。

やってみよう! VMwareの製品をダウンロードしてみよう
やってみよう! 初めての無償版ESXi
やってみよう! vSphere on VMware Player (本エントリ)

全てやってみると、誰でも、無償で、PC上で仮想環境を構築できるようになっています。是非お試し下さい!

 

本エントリでは、無償で使えるVMware Playerを使って、PC上にvSphere環境を構築する方法をご紹介してきます。

ここでご紹介する、ハイパーバイザー(VMware Player)上に仮想マシンを構築し、構築した仮想マシンにハイパーバイザー(ESXi)をインストールして使う方法を”Nested(ネステッド)”と呼びます。Nestedの説明はこちらのブログを参照してください。

まずはVMware Playerを入手しましょう。
My VMwareのこちらのサイトからVMware Playerの最新版をダウンロードします。
My VMwareのアカウントをお持ちでない場合は、こちらのエントリを参考にアカウントを作成してください。

9

ダウンロードが完了したら、PCにVMware Playerをインストールしてください。

ここから、VMware Player上にESXiをインストールする方法をご紹介してきます。
無償版ESXiの入手方法は、こちらのエントリを参考にしてください。

VMware Playerを起動すると以下の画面が表示されますので、新規仮想マシンの作成を選択してください。

10

[インストーラディスクイメージファイル]を選択し、ESXiのiSOファイルを指定します。[次へ]をクリックします。

11

 

仮想マシン名と、仮想マシンの実体を保存するフォルダを指定して[次へ]をクリックします。

12

 

この仮想マシンが持つディスクの容量指定と、そのディスクの実体をWindows上で単一のファイルにするか、複数のファイルに分割するかを選択して、[次へ]をクリックします。

13

 

仮想マシンに割り当てる仮想CPUの性能や仮想メモリのサイズを変更したい場合は、[ハードウェアをカスタマイズ]から設定をおこないます。ESXi5.5のインストールには、少なくとも2つの仮想CPUと4Gのメモリの割り当てが必要です。[完了]をクリックすると、仮想マシンへのESXiのインストールが始まります。

14

インストール画面です。

16

 

これで”Nested”のESXiの構築は完了です!
ESXiの初期設定、仮想マシンの作成方法についてはこちらのドキュメントを参照してください。


やってみよう! 初めての無償版ESXi

$
0
0

本日は3つのエントリをポストします。

やってみよう! VMwareの製品をダウンロードしてみよう
やってみよう! 初めての無償版ESXi  (本エントリ)
やってみよう! vSphere on VMware Player

全てやってみると、誰でも、無償で、PC上で仮想環境を構築できるようになっています。是非お試し下さい!

 

このエントリでは、今まで一度もVMwareの製品を触ったことが無い方を対象に、最も基本的なサーバ仮想化製品であるVMware vSphere Hypervisor(ESXi)を無償で試していただく方法をご紹介します。

これからVMwareの仮想化製品を触り始める方から、「ESXiとvSphereってっどう違うの?」というご質問をよく受けるのですが、ESXiは物理サーバに直接インストールして仮想サーバ構築のベースを提供する製品、vSphereはESXiを含んだサーバ仮想化のパッケージ製品です。

まずは無償のVMware vSphere Hypervisor(ESXi)を入手しましょう。
※製品版のvSphere ESXiも、60日間は無償で試用することができますが、ここでご紹介させて頂く無償版ESXiには60日の期限がありません。

こちらからMy VMwareにログインします。
My VMwareのアカウントをお持ちでない方は、こちらのエントリを参考にアカウントを作成しましょう!

ログイン後に、[ライセンスとダウンロード]から、以下2つのイメージをダウンロードして下さい。初めて本製品をDLする方は、[登録]というボタンが表示されていますので、[登録]から追加の質問にご回答ください。
・ESXi 5.5 Update 1 ISO image (Includes VMware Tools)
・VMware vSphere Client 5.5 Update 1
※2014年5月時点での最新イメージです
ESXiはサーバにインストールする製品。vSphere ClientはWindows PC等の操作端末にインストールして使用する、ESXiにアクセスするためのソフトウェアです。

また[ライセンス情報]に掲載されている[ライセンスキー]を控えておいてください。こちらが無償版ESXiのライセンスキーとなります。

2-1

DLが完了したら、操作端末にVMware vSphere Clientをインストールしておきましょう。

次に、DLしたESXiのiSOイメージをインストールしていきます。
ESXiは本来サーバにインストールする製品ですが、VMware Workstation(有償)やVMware Player(無償)、VMware Fusion(有償)を使うことで、サーバだけでなくWindows PCやMac OSX上にESXiをインストールすることも可能です。

※Nestedの説明と、VMware Fusionを使用したMacへのインストール方法についてはこちらの記事を参考にしてください。
※無償版VMware Playerを使用したWindowsへのインストール方法についてはこちらの記事を参考にしてください。
※VMware Workstationを使用したWindowsへのインストール方法についてはこちらのKBを参考にしてください。

 

ここでは物理サーバにESXiをインストールしていきます。
DLしたESXiのiSOイメージをCDメディアに書き込み、インストール先のサーバにセットしてください。

ESXiの初期設定は非常に簡単です、初期設定方法及び仮想マシンの作成方法はこちらのドキュメントを参照してください。

上記ドキュメントを参考にESXiの初期設定が完了したら、端末にインストールしたvSphere Clientを使ってESXiにアクセスしてみましょう。vSphere Clientを起動して、ESXiに設定したIPアドレスもしくはドメイン名と、ユーザ名、パスワードを入力します。

2-2

ログインに成功すると、以下のような画面が表示されます。

2-3

これでESXiを使ったサーバ仮想化の準備は完了です!

上記のドキュメントを参考に、実際に仮想マシンを作成してみましょう!

やってみよう! VMwareの製品をダウンロードしてみよう

$
0
0

本日は3つのエントリをポストします。

やってみよう! VMwareの製品をダウンロードしてみよう (本エントリ)
やってみよう! 初めての無償版ESXi
やってみよう! vSphere on VMware Player

全てやってみると、誰でも、無償で、PC上で仮想環境を構築できるようになっています。是非お試し下さい!

 

VMwareは企業向けの各種有償製品の他にも、VMware PlayerやvSphere Hypervisor等の様々な製品を無償で提供しています。また有償製品についても、試用版として期限付きでお使い頂けるものがあります。本エントリではそれらの製品の入手方法についてご紹介していきます!

まずはMy VMwareにアカウントを作成します。

リンク先から[登録]をクリックして、お名前とメールアドレスをご記入ください。123

所属している企業がVMwareとパートナー契約を結んでいる場合は[VMwareのパートナーですか]に”はい”を選択してください。

[続行]をクリックすると登録情報のフォームに移動しますので、必須項目を記入した後に[My VMware利用条件]をご確認の後、[利用条件に同意]にチェックを入れて[続行]をクリックしてください。

2

3

ご登録のメールアドレス宛に[My VMware: Activate your account]という題のメールが届きますので、メール本文内の[Activate Now]をクリックしてください。

4

 

パスワード入力画面に移動しますので、登録フォームにてご登録いただいたパスワードを入力して[Continue]をクリックしてください。5

 

これでアカウントの作成は完了です!

ここから無償で製品をダウンロードするには、[ダウンロード]から[評価版及び無償製品]をクリックしていただくと、

6 評価版、または無償版が用意されている製品の一覧のページに移動します。

一覧から、お好きな製品をダウンロードしてお試しください。
※一部の製品のダウンロードについては、 [登録]をクリックして、追加の質問に答えて頂く必要があります。

8

以上でVMware製品のダウンロード準備は完了です。
是非ともVMwareの提供する様々な製品をお試しください!

 

※本エントリは2014年5月15日現在の情報を基に執筆されています。

やってみよう! vSphere Data Protection(VDP) 環境構築

$
0
0

やってみよう! VMware vSphere Data Protection(VDP) 環境構築

本エントリでは、バックアップ及びリストア機能を提供するVDP の環境構築方法をご紹介します。 VDP は、vSphere のEssentials Plus 以上のライセンスに含まれており、vSphere 上で稼働する仮想アプライアンス(仮想マシン)として、提供されています。

まず、VDPの動作環境がサポートされているvSphere 環境とVDP のova ファイル準備します。 サポートされているのは、以下のような環境になります。

・vCenter 5.1 または 5.5 に対応(vCenter Server Appliance も可能)

・ESX/ESXi 4.0、4.1

・ESXi 5.0、5.1、5.5

詳細はVMware Product Interoperability Matrixes でご確認下さい。

※VDP の最小システム要件は、4つの2GHzプロセッサ / 4GB メモリ / 873GB ディスクとなっております。

VDP のova ファイル は、My VMware にログインしてダウンロードしておきます。 製品のダウンロード方法は、こちらのブログを参考にして下さい。 今回は、Virtual SAN 環境にも対応している最新バージョン5.5.6(vSphereDataProtection-5.5.6-0.0TB.ova)を使用しています。

1. VDP の動作環境にはDNS サーバが必要になりますので、VDP 環境構築する前に、VDPアプライアンスのIPアドレスおよびFQDN 用のエントリをDNS サーバに追加しておきます。

2.vSphere Web Client を使用して、ダウンロード済みの ova ファイルを展開します。 メニューの”OVF テンプレートのデプロイ”を選択します。

VDP_Deploy1

3. “ソースの選択”では、”ローカル ファイル”をチェックし、”参照”ボタンを押して、ローカルに保存している” vSphereDataProtection-5.5.6-0.0TB.ova”を開きます。

VDP_Deploy2

4. “OVF テンプレートのデプロイ”のウィザードに従って進めます。 VDP アプライアンスをデプロイするストレージを選択します。 ここで指定するストレージは、VDP アプライアンスのOS 部分を配置するストレージになります。 バックアップデータが保存されるストレージは、VDP アプライアンの初期起動後に設定します。

VDP_Deploy3

5. ウィザードを進めてネットワークのプロパティを入力し、デプロイに必要な情報の入力を完了させます。 ”終了”ボタンを押すと、デプロイが開始されます。

VDP_Deploy4

6. デプロイが完了したら、VDPアプライアンスの電源をONして、起動が完了するまで待ちます。

VDP_Deploy4.5

7.  VDP アプライアンスの起動を確認したら、VDP アプライアンスが提供するvSphere Data Protection 構成ユーティリティ(https://<IP_address_VDP_Appliance>:8543/vdp-configure/)にWeb ブラウザで接続し、”ユーザ名”に”root”、”パスワード”に”changeme” と入力し、ログインします。 構成ウィザードに従って進めます。

VDP_Deploy5

8. 1. で予めDNS サーバにVDP アプライアンスのエントリを追加しておくと、DNS サーバから情報を取得し、自動的にネットワーク項目が入力されます。

VDP_Deploy5.5

9. ”タイムゾーン”は、”Asia/Tokyo” を選択します。

10. “VDP認証情報” では、デフォルトパスワード”changeme” から変更します。

VDP_Deploy6

11. “vCenter の登録”を実施します。登録に必要な情報を入力し、接続テストを実施してから、次に進みます。

VDP_Deploy7

12. “VDP ライセンス”では、ライセンス キーを登録することで、VDP Advanced の追加機能を有効にできます。 後からでもVDP から VDP Advanced にアップグレードすることも可能なので、今回は入力せずに”次へ”ボタンを押します。

VDP_Deploy8

13. “ストレージの作成”では、バックアップデータを保存するための仮想ディスクファイル(VDP ストレージディスク)を新規に作成します。 ここでは、最小サイズの”0.5 TiB” を選んでおりますが、VDP は1TiB もしくは2TiB の選択が可能です。 ※後から容量を増加させるためには、Advanced へのアップグレードが必要になります。

VDP_Deploy9

14. “デバイスの割り当て”では、VDP ストレージディスクを配置するデータストアを決定します。こちらの例では、”アプライアンスで保存”のチェックを外し、VDPアプライアンスのOSが配置されているデータストア(datastore3)とは異なるデータストア(datastore1)に配置しております。 0.5TB の場合は、256 GiB のディスク3 台で構成されます。

VDP_Deploy10

15. “CPUとメモリ”では、VDP ストレージに対する最小要件が表示されます。

VDP_Deploy11

16. “設定の確認”では、必要に応じてストレージのパフォーマンス分析を実行することが可能です。 今回は字実施せず、”次へ”ボタンを押して、ストレージ構成を開始します。ストレージの構成が完了すると、VDP アプライアンスは自動的に再起動します。 環境に依存しますが、この再起動には時間が掛かります。

VDP_Deploy12

17. VDP アプライアンスの再起動完了を待って、vSphere Web Client にログインします。 再起動前にvSphere Web Client にログインしていた場合には、ログオフしてから再度ログインします。 ログイン後、”ホーム”の中に”vSphere Data Protection 5.5” のプラグインが追加されていることを確認し、接続するVDP アプライアンスの名前を選択し、”接続”ボタンを押します。

VDP_Deploy13

18. VDP アプライアンスに接続すると、バックアップ/リストア/レプリケーションなどを実施することができるようになります。 複数のVDP アプライアンスをvCenter に登録している場合(最大10 台)には、右上からVDP  アプライアンスを切り替えることが可能です。

VDP_Deploy14

以上でVDP 環境構築は完了です。非常に簡単な手順で仮想マシンのバックアップ / リストアができる環境を構築できます。 環境構築同様にVDP を利用したバックアップやリストア手順も簡単に実施いただくことが可能です。本ブログは環境構築のみとなりますが、バックアップ手順に関してはこちらのハンズオンラボのドキュメントを参考にして、是非実施してみてください。

仮想基盤のリソース状況を知る! ~vCenter Operations Manager活用法(第3回) ~

$
0
0

こんにちは、VMwareの塚田です。

「vCenter Operations Manager活用法」の連載第3 回のテーマは「統合率を向上させる」です。

サーバ統合率を向上させるための重要な課題

仮想基盤の利用効率を測る基準の一つとして「統合率」があります。これは、仮想基盤上で稼働している仮想マシンの台数を、基盤を構成するESXiホストの台数で割って得られます。すなわち、ESXiホスト1台あたりで動作する仮想マシンの平均台数です。これが高い程、より少ないESXiホストでより多くの仮想マシンを稼働している事を示しており、限られた物理リソースをいかに効率的に活用しているかを測り比較する事が可能です。

当然ながら、統合率は高いに超した事はありません。サーバの台数を最小限に抑えながら可能な限り多くの仮想マシンを作成、稼働させる事ができれば、サーバ統合の見かけ上の効果は大きくなります。しかし、ただ仮想マシンを詰め込めば統合率が上がる訳ではありません。そんな事をすれば、仮想マシンを詰め込み過ぎた結果、仮想マシン間でリソースの競合が発生し、仮想基盤全体の性能が低下する事態、すなわち性能劣化を引き起こしかねません。 また、仮想マシンが稼働するESXiホストにかかる負荷を均衡にすることも重要です。そうしないと、 一部のホストにだけに過剰な負荷がかかり、もうそれ以上の仮想マシンを稼働させられないが、その隣のホストはまだ余裕がある、などという事態が起こり得ます。また、仮想マシンを新たに追加しようにもどのESXiホストで稼働させるのが決めるのに時間がかかってしまう事もよくある事です。結果として、統合率を向上させる事の阻害要因になります。 したがって、統合率を高めるためには下記の2つの要件を満足することが重優です。

  1. 仮想マシン間でのリソース競合が発生しておらず、仮想基盤に性能劣化が生じていないことを常に確認する
  2. ESXiホスト間の負荷の均衡を維持し、稼働マシンを追加させやすい状況を維持する

VMware vCenter Operations Manager(以下ではvC Ops)は、前述のサーバ統合率を高めるための2つの重要な要件を満足する機能を提供し、お客様の仮想基盤の性能劣化を避けながらサーバ統合率を高める事を支援します。

vC Opsを使ったサーバ統合率向上のアプローチ

図1は、vC Ops、およびVMware vSphereの機能を利用してサーバの統合率を向上させるためのアプローチを示しています。すなわち、下記の順にプロセスを進め、そしてそれらを繰り返す事によってサーバ統合率の向上を実現する事が可能です。

vCOps_Blog3_fig1

図1. vC Opsを活用したサーバ統合率向上のアプローチ

  1. vC Opsの「密度」バッジのスコアに基づき、仮想マシンを少し追加する
  2. VMware vSphereの機能であるDRS(分散リソーススケジューラ)により仮想マシンの配置場所を自動的に調整し、仮想基盤の負荷を平準化させる
  3. vC Opsの「ワークロード」バッジをスコアを確認し、仮想基盤全体が過負荷の状態になっていないことを確認する
  4. サーバ統合率が目標とする値に達するまで1.から3.までを繰り返す

以下では、上記の各プロセスをもう少し詳細に説明します。

「密度」バッジから現在のサーバ統合率を把握し仮想マシンを追加する

vC Opsの「効率」バッジの下にある「密度」バッジは、仮想環境の統合率を測定し表示します。その中の「仮想マシン:ホストの比」が、ESXiホストあたりの仮想マシンの台数をあらわします。これの値が目標をとする値を下回っている場合、仮想マシンを少数ずつ追加します。

「密度」バッジを表示するためには、[ダッシュボード]タブ→[効率]→詳細に順にクリックしていきます。

vCOps_Blog3_fig2

図2. 現在のサーバ統合率を確認できる「密度」バッジ

vSphere DRSを使って仮想基盤の負荷を分散させる

仮想基盤を仮想マシンを追加する際、および追加した後、その仮想マシンをどのESXiホストで稼働させるのが最適かを判断する事は決して簡単ではありません。特に、仮想マシンの台数が増えてくるとそれが難しくなってきます。

vSphere DRSは、仮想基盤を構成するESXiホストへ対する仮想マシンからのCPUとメモリの要求状況を監視し、一部のホストに過剰な負荷がかかっている事を検知した場合、仮想マシンを自動的に移行させ(vMotionの実行)、仮想基盤全体で負荷が分散されるよう調整します。

vSphere DRSの詳細については当社ブログの記事をご参照下さい。

「ワークロード」バッジから仮想基盤が過負荷の状態にないことを確認する

上記で述べた通り、統合率を向上させる際にもっとも注意しなければならない事は、仮想基盤全体の性能を劣化させないことです。vC Opsは仮想基盤の健全性を監視し、それが過負荷な状態になっていないかどうか管理者がわかり易く表示します。

vCOps_Blog3_fig3

図3. 仮想基盤に性能劣化が発生していないか確認する事ができる「ワークロード」バッジ

vC Opsの「健全性」バッジの下にある「ワークロード」バッジは、仮想基盤にかかっている負荷の高さを表します。この値が100を超える事は、仮想基盤が提供可能な容量以上の負荷がかかっていて、性能劣化の状態にあることを示しています。つまり、サーバの統合率が高過ぎるのです。

仮想マシンを追加した後、「ワークロード」バッジのスコアが100に達していなければ、仮想基盤にはまだ余力があり、更に多くの仮想マシンを稼働させることが可能です。そこで、上記アプローチの最初に戻って、さらに仮想マシンを追加し、サーバ統合率をもう少し高めてみます。追加された仮想マシンは再度vSphere DRSによって動的に配置されます。仮想マシンの追加後、「ワークロード」バッジのスコアを確認し、それが100に達していなければ更にプロセスを繰り返します。

結果として、仮想基盤の負荷状態(「ワークロード」バッジ)を注意しながら仮想マシンを増やしていくと、目標とするサーバ統合率に達している事でしょう。

このように、vC Opsは仮想基盤の性能を維持しながら、サーバ統合率を少しずつ高めていく事を支援します。その際、難しい負荷状態の計算や仮想マシンの配置場所の決定は全てvSphere,およびvC Opsが自動的に行いますので、管理者は余計な工数を割かれる事もありません。

以上

~VMware vCenter Operations Manager活用法~

第1回 あとどのくらい仮想マシンを載せられるか?(リソース残量を知る)

第2回 どこにリソースの無駄が発生しているのか!(リソースの無駄の把握と削減)

第3回 より多くの仮想マシンを安全に載せていく(統合率を上げていく)

第4回 将来、物理リソースがどのくらい必要か?(重要予測)Coming Soon

第5回 使用環境における”ポリシー”の設定 Coming Soon

Interop Tokyo 2014に出展します!

$
0
0

みなさま、こんにちは。
VMware は今年もInterop Tokyo 2014 に出展致します。

今年は、Networkに加え、Software Defined Data Center (SDDC)、End User Computing (EUC) の3つのゾーンで展示いたします。VMware の最新情報をお届けすべく、ライブデモやミニシアター、ハンズオンラボの登録コーナーなど様々な企画を準備しております。
また、下記の4部門で VMware の製品およびサービスが、Interop Tokyo Best of Show Award のFinalist としてノミネートされました。
スクリーンショット 2014-06-03 14.58.07

さらに、Palo Alto Networks様の仮想FWとNSX連携もInterop Tokyo Best of Show Award Finalist としてノミネートされております。

これら Finalist としてノミネートされたものがブースで実際にご覧頂けます!
スタッフ一同お待ちしておりますので、是非、会場へお越し下さい!!

出展の概要は、こちらをご参照下さい。

Brocade SANを VMware vCenter Operations Managerで管理する!!

$
0
0

vCenter Operations Manager で提供されている他社製品と連携機能のご紹介Blog 第2段です。今回はブロケード製品との連携について、ブロケード コミュニケーションズ システムズ vExpert 中本滋之様に当ブログ用の記事を執筆、ご提供いただきましたので読者の皆さんにご紹介させていただきます。

vExpert-2014-Badgeこんにちは。ブロケード コミュニケーションズ システムズの中本滋之です。大事なことなのでもう一度。ブロケード コミュニケーションズ システムズの中本滋之です。さて今回 VMware Japan Cloud infrastructure blog でご紹介させていただくのは Brocade SAN Analytics Management Pack for vCenter Operations Management Suite という、VMware vCenter Operations Management Suite (vC Ops) のプラグインアダプターです。Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite とちょっぴり長い名前ですが、その名の通り、VMware vCenter Operations Management Suite (vC Ops) にストレージエリアネットワーク(SAN)の診断管理機能を追加します。

Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite 概要

OverviewvC Ops は、vCenter からサーバーの CPU やメモリーの使用量など様々な情報を収集してそれらを分析し、仮想環境の健康状態をチェックしてくれたうえで、俯瞰してみることができます。 vSphere 環境の稼働状況やリソースの使用状況などを即座に把握できるので、問題箇所の特定も容易に行えるため効率的な仮想環境の運用管理には欠かせないツールと言えるでしょう。しかし、サー バーの状態は サーバーにインストールされた ESXi を通じて vCenter で情報を集めることができますが、vCenter からの情報だけでは仮想環境全体の健康状態管理に必要な情報として十分とは言えません。その代表がストレージの情報です。そこで、先に紹介のあった HP 3PAR を vC Ops で管理するためのプラグイン HP StoreFront Analytics Pack for vCenter Operations Manager など、ストレージからの情報を得るためのプラグインが提供されています。そして忘れてはならないのがサーバーとストレージを接続しているストレージネットワークである SAN の情報です。そこで、Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite の出番です。Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite を使うことで、vC Ops で管理する仮想環境の把握に SAN からの情報を加えて役立てることができ、より正確に仮想環境の状態を確認できるようになります。

Fabric Visionところで、ブロケードには、Brocade Fabric Vison という、SAN の診断・監視・管理ソリューションがあります。Brocade Fabric Vision は、Brocade Gen 5 ファイバーチャネルで採用されている技術で、ストレージネットワーク全体を可視化させることで運用時間の最大化、SAN管理の簡素化、アプリケーション性能の最適化を実現させる先進的な診断・監視・管理ソリューションです。Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite は、いわば Fabric Vision を vC Ops に融合させたものと言えます。

機能詳細

Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite を使うと具体的に何が見えるようになるのか簡単にご紹介しましょう。Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite をvC Ops に導入すると Custom ユーザーインターフェースのダッシュボードに4つのタブが加わります。

  • Brocade – SAN Troubleshooting
  • Brocade – VM Troubleshooting
  • Brocade – SAN Utilization
  • Brocade – Health Overview

「SAN Troubleshooting」ダッシュボード と「VM Trouble」ダッシュボードは、「Brocade Fabric Resources」に表示されるFabricのリソースから必要な情報を追っていくのか、「Brocade VM Resources」に表示される仮想マシンやホストリソースから追っていくかの違いで、選んだリソースに対する「Health Tree」が表示され、そこで選んだリソースに関連するアラートが「アラート」、選択できるメトリックが「メトリック セレクタ」に表示されます。そして「メトリック セレクタ」 のなかで選んだメトリックのグラフが「メトリック グラフ」に表示されます。このように選んだリソースを取り巻くリソースが「Health Tree」に表示され、関連するアラートやメトリックを確認することで問題箇所の特定を手助けします。

「Brocade – SAN Utilization」ダッシュボードには、使用率の高い上位 25 ポートおよびホストが送信と受信でそれぞれ表示されており、ストレージネットワークの側面からリソースの使用率を確認できます。

「Brocade – Health Overview」ダッシュボードは、「Health Overview」にホストやファブリックなどのリソースの状態が色別に表示されます。ここで選んだリソースのアラートが「アラート」に、健全性のグラフが「マッシュアップ チャート」に表示されます。

BNAもちろん、このアダプタで取得したリソースを含むお好みのダッシュボードを作成することもできます。また、スイッチ などのより詳細な情報を得るために、ブロケードのネットワーク監視ツールである BNA (Brocade Network Advisor) を開くこともできます。

このように SAN の情報も含めて仮想環境全体の状態を把握することができるため、もし問題が起こっていればより正確に問題箇所を特定しやすくなり、また例えばストレージのトラフィックが多いスイッチのポートを容易に把握することができるので、仮想環境の拡張・改善にも役立ちます。

最後にインストールの Tips をご紹介します。アダプターは VMware Solution Exchange からダウンロードでき、ドキュメントも Solution Exchange にあります。

Brocade SAN Analytics Management Pack – Cloud Management Marketplace | Solution Exchange

Brocade SAN Analytics Management Pack for vCOPS User Guide

Install基本的にガイド通りに行えば導入できますが、ポート番号に悩むかと思いますので、デフォルト設定で BNA を導入している前提でポート番号をまとめます。

  • Brocade Network Advisor CIMOM Port : 5989
  • CIM Indications Listener Port : 24606
  • SNMP Trap Receiver Port : 162

まとめ

Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite を利用することで vC Ops の活用範囲がさらに広がります。また、ブロケードは Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite 以外にも、VMware vCenter Log Insight 2.0 向けのプラグイン、Brocade SAN Content Pack for Log Insight も提供しています。Brocade SAN Content Pack for Log Insight は、発表されたばかりの新しい VMware vCenter Log Insight 2.0 に対して、先に紹介した Brocade Fabric Vision を活用したインテリジェントかつ強力な SAN 分析機能を追加します。

Brocade SAN Analytics Management Pack for VMware vCenter Operations Management Suite ならびに Brocade SAN Content Pack for Log Insight によって VMware の仮想環境に SAN の可視化を追加して、仮想環境の運用管理をより効果的・効率的なものにすることができます。ぜひお試しください。

仮想基盤のリソース状況を知る~VMware vCenter Operations Manager活用法(第4回)~

$
0
0

こんにちは!VMwareの中村です。

突然ですが、質問です。

  • 10台の仮想マシンを追加する場合、現状の仮想基盤に10台載せられるか?
  • または、追加のハードウェアリソースが必要なのか、どのように試算されてますか?

実際上記を試算するとなると現状の状況を把握した上で、いつごろ、どのくらいのハードウェアスペックで、何台必要なのか、
を計画的に算出するのは思った以上に敷居が高いかもしれません。

ということで、今日のお題は「将来、物理リソースがどのくらい必要か?」です。現在を踏まえ、将来サーバやストレージなどハードウェアリソースを追加した場合、仮想基盤のリソース状態がどのようになるのか、VMware vCenter Operations Manager(vC Ops)でシミュレーションできる機能を紹介します。

vC Opsを使った需要予測のアプローチ

vC Opsでは”What If 分析“で、もし「サーバを追加したら…」「仮想マシンを追加したら…」という感じで、将来の仮想基盤はどうなるか?といったようなシミュレーションを実施し需要予測のアプローチが可能になります。

  • 1 現状の把握
  • 2 仮想マシンの追加をシミュレーション
  • 3 ハードウェアリソース追加のシミュレーション

4-1

まず、現状であとどのくらい仮想マシンが搭載できるか?その次に物理リソースと合わせて算出することにより、投資計画も計画的に実施することも可能です。

現状の把握

まず、ハードウェア使用状況を踏まえてリソースが枯渇するまで後何日か?を確認します。クラスタを選択、ダッシュボードの残り時間バッチを確認します。

4-2

ここでは、リゾースの中でCPUが一番早く枯渇してしまうので、CPUの残り日数にあわせて仮想基盤全体の残り日数を算出しております。

次にvC Opsで該当クラスタを選択し【計画】- 【表示】とクリックし【平均収容可能仮想マシン数】を選択すると
仮想マシンのデプロイ状況のトレンドを把握することができます。

4-3

オレンジの線が実際のパワーオンVM数、赤い線が収容可能仮想マシン数です。横軸の時間が経つにつれオレンジの線が増え、赤い線が減ってきております。これは仮想マシン数増、もしくはワークロード上昇を示しており、現状のハードウェアリソースで追加できる仮想マシン数が減ってきていることがわかります。

仮想マシンを追加シュミレーションしてみよう

では実際にWhat If分析を使用して仮想マシンの追加を実施してみます。

ここでは仮想マシンのスペックを明示的に指定し、仮想マシン50台追加をシミュレーションしております。

4-4

ここでは複数のシミュレーション(50台追加、100台追加等)を実施しております。50台追加の場合ははなんとか行けそうですが…
ディスク容量がぎりぎりなのがわかりますね。ちなみに、仮想マシンを削除した際のシミュレーションも可能です。

物理サーバを追加シミュレーションをしてみよう

What If分析では物理サーバ追加時のシミュレーションもできます。
ここでは2Ghz x 12 Core 96GBのメモリを搭載した物理サーバ5台を追加してみます。

4-6

仮想マシン追加シミュレーションとハードウェア追加シミュレーションを組み合わせることによって、増設後にどのくらい余剰リソースができ、将来の増設計画も正確に把握することが可能になります。

★まとめ★
What If分析を使用して、現状の仮想基盤が将来どのようになるのか?をシミュレーションできる機能を紹介しました。
vC Opsは現状の範囲でどのようにリソースを有効活用するか?といった目線で仮想基盤を可視化することができますが、将来的なハードウエェアリソース枯渇に備えて、ユーザ様自身がいつ足りなくなるのか?どのくらい必要になるのか?を正確に判断でき、計画的な増設を支援することも可能になります。是非ご活用ください!

VMware中村朝之

~VMware vCenter Operations Manager活用法~
第1回 あとどのくらい仮想マシンを載せられるか?(リソース残量を知る)
第2回 どこにリソースの無駄が発生しているのか!(リソースの無駄の把握と削減)
第3回 より多くの仮想マシンを安全に載せていく(統合率を上げていく)
第4回 将来、物理リソースがどのくらい必要か?(需要予測)
第5回 使用環境における”ポリシー”の設定 Coming Soon


最適な”ポリシー”の設定~VMware vCenter Operations Manager活用法(最終回)~

$
0
0

こんにちは、VMwareの塚田です。

早いもので、連載「VMware vCenter Operations Manager活用法」も今回(第5回)が最終回です。今回のテーマは、「ポリシーの設定」です。

vC Opsが仮想基盤を正確に分析できるかどうかは”ポリシー”の設定次第

これまでの連載において、VMware vCenter Operations Mangaer(以下、vC Ops)は「仮想基盤にあと何台の仮想マシンを追加可能か?」や「リソースを無駄遣いしている仮想マシンはないか?」などの疑問に答えられる情報を提供する事、そして「リソースの需要予測」を支援する事が可能である事を紹介して参りました。

これらを行うため、vC Opsは仮想基盤を構成するサーバやストレージのリソースの利用状況、仮想マシンの構成等の情報を収集し分析し続けています。その分析を通して、仮想マシンの平均的な構成やリソースの需要や、仮想基盤のリソース使用量の推移を算出しています。

ここで、vC Opsが仮想基盤の情報を収集、分析することについて、次のような疑問が湧いて来ませんか?四半期末毎、または半年に1回のみ起動するバッチ処理専用の仮想マシンがあるのだが、それのCPU使用率やメモリ使用量も織り込んで計算してくれるのだろうか?

  • 四半期末毎、または半年に1回のみ起動するバッチ処理専用の仮想マシンがあるのだが、それのCPU使用率やメモリ使用量も織り込んで計算してくれるのだろうか?
  • CPUとメモリに一時的に高い負荷がかかるバッチ処理を受け持つ仮想マシンの場合、そのような「負荷のピーク」を正しく読み取り、ノイズを排除するような仕組みを持っているのだろうか?
  • 開発環境用仮想マシンはメモリのオーバーコミットを積極的に行い、統合率を上げたい。一方、本番環境用の仮想マシンはオーバーコミットをしたくない。このように相反する方針を両立した仮想基盤のキャパシティ管理ができるのだろうか?

実は、上記のような時々起動される仮想マシンの統計情報を正しく読み取ったり、仮想マシン毎に異なるワークロードを正確に解析したりする事はvC Opsにとって非常に重要です。そうしないと、仮想マシンの平均構成を誤って過少に算出したり、仮想基盤リソースへの需要を過少に見積もってしまったりすることが起きかねません。

また、3番目の疑問も重要です。仮想基盤上で処理されるワークロードは一様でないため、「オーバーコミットをしてもよい仮想マシン」と「オーバーコミットをさせたくない仮想マシン」が同時に存在することも当然あり得ます。

そこでvC Opsでは、仮想マシン毎に異なるワークロードの特性を把握し、それぞれのワークロードの特性に合ったリソースの使用量や容量の見積もりができるようにするための設定、「ポリシー」を定義します。また、CPUやメモリ等のキャパシティ管理を行う際、リソースのオーバーコミットを許容するか否か、許容する場合にはオーバーコミットさせる目標も「ポリシー」で定義可能です。

そして、定義されたポリシーを仮想マシンに関連付けすることにより、それぞれに合った分析を行います。

vC Opsのポシリーの設定する

仮想マシンのためのvC Opsのポリシーを構成する大まかな手順は以下の通りです。

  1. 仮想マシンやESXiホストの分類分けする
  2. 上記の分類ごとに適したvC Opsのポリシーを作成する
  3. 作成したポリシーを仮想マシンやESXiホストへ関連づける
  4. vC Opsによるデータ収集および分析結果を確認する

以下では、vC Opsのポリシー作成の詳細について説明いたします。

仮想マシンやESXiホストを分類分けする

まず、仮想マシンやESXiホストをそれが処理するワークロードや期待される SLAに応じて分類分けします。

下の表に分類分けの例を挙げてみましたのでご参照ください。

本番(バッチ型)

本番(インタラクティブ型)

開発環境

ワークロードの特性

特定の時間帯のみ高い

定常的に高い

業務時間のみ
(平均的には低い)

サービス例 バックアップ、週次・月次レポートなど ウェブサーバー 開発環境
リソース配分 CPUオーバーコミット:低
メモリオーバーコミット:なし
CPUオーバーコミット:中
メモリオーバーコミット:なし
CPUオーバーコミット:高メモリオーバーコミット:あり

ポリシーを作成する

上記で分類した仮想マシンやESXiホストごとに適切なポリシーを作成します。作成するためには、vC OpsのvSphere UIから[設定]→[+]をクリックし、ポリシーの編集ダイアログを表示させます。

vcops_6_fig1

ここでESXiホストや仮想マシンのワークロードに応じたポリシーの作成例を3点ご紹介致します。

ポシリーの作成例1: 本番環境用ESXiホスト向けポリシー

vcops_6_fig2

ポリシーの作成例2:  開発・テスト環境用ESXiホスト向けポリシー

vcops_6_fig3

設定内容の詳細については下の表を参照して下さい。

設定項目

本番環境用ホスト向けポリシー 開発・テスト環境用ホスト向けポリシー
3a. 残り容量と時間 残り容量の算出方法(需要ベース、または割り当てベース) 需要ベース、および割り当てベース双方の方法で残り容量と残り時間を算出するよう全ての項目にチェックを入れる 需要ベースのみをチェックする
[急増とピークを考慮するために負荷を使用します] ピーク時の高負荷を分析に織り込むためチェックを入れる ピーク負荷は考慮しないため、チェックを入れない
3b. 使用可能な容量 [高可用性(HA)構成の使用と容量の縮小] ホストがHAクラスタのメンバーの時にチェックを入れる 同左
バッファとして予約する容量の割合(%) 使用率が100%にならないよう、10〜20%程度をバッファとして確保するよう指定する。負荷変動が大きいホストはバッファを多めに確保する(例:40%) 統合率を上げるため考慮しない(バッファを確保しない)
3c. 使用量の計算 CPUオーバーコミット比 1から2程度に(最大でも4程度) 割り当てベースの残り容量分析を選択した場合のみ設定する。4 以上も設定可能。
メモリのオーバーコミットの割合 オーバーコミットしない場合は0%に 20%程度
ディスク容量のオーバーコミットの割合 同上 同上
4c. 低負荷および高負荷 CPU需要、およびメモリ需要のピークの考慮 ピークとして認識するしきい値を70%程度に設定
ピーク負荷が継続する時間を指定(例:4時間) [全範囲]を選択

ポシリーの作成例3: 仮想マシン向けポリシー

適切なポリシーを設定し、仮想マシンへ関連づけることにより、節約可能なリソースをより正確に算出できるようになります。

vcops_6_fig4

設定大項目

設定項目

設定値、および説明

3b. 使用可能な容量 [高可用性(HA)構成の使用と容量の縮小] チェックしない(仮想マシンには無関係)
バッファとして予約する容量の割合(%) 仮想マシンの需要がCPUやメモリの割り当て値を超えるまでの時間(残り時間)をケインさするために利用。負荷変動が大きい仮想マシンは高め(30% – 50% )に設定
4b. VMが過剰サイズとなる状況 CPU, およびメモリ需要がしきい値 ワークロードが低負荷状態と見なす値を設定(15%程度)
4c. VMが不足サイズとなる状況 CPU, およびメモリの需要のしきい値 需要平均を上回ると見なす値を設定(例:50%以上)
需要平均を超過する負荷が持続する時間 ピーク負荷が持続する時間(1〜8時間程度)を設定

ポシリー設定例4: 統計処理の対象期間の設定

vC Opsは、仮想マシンやESXiホストのリソースの利用状況は需要のデータを分析して仮想マシンの平均的なプロファイルを算出したり、キャパシティ残量を計算したりしますが、その計算対象となるデータの期間をポリシーによって指定することが可能です。これを適切に設定することにより、例えば1ヶ月に1回、または四半期に1回だけ起動されるような仮想マシンの需要や構成も正確に分析することが可能になります。

vcops_6_fig5

非傾向ビューの間隔、および間隔数を調整することにより、過剰サイズVMや過小サイズVMなどの長期的統計を取る期間を設定することが可能です。

デフォルト値は[日単位]および30[間隔]です。すなわち、直近30日間のデータが統計処理の対象です。これは週単位、および52間隔まで設定可能です。すなわち直近1年間のデータを統計処理の対象にすることが可能です。

ポリシーと仮想マシンやESXiホストを関連付ける

最後に、作成したポリシーを管理対象の仮想マシンやESXiホストへ関連付けます。

vcops_6_fig6

 ポリシーによる分析結果を確認する

ポリシーを仮想マシンやホストへ関連付けると、vC Opsはデータを収集し分析を行います。その分析結果が妥当なものかどうか確認してみましょう。

ポリシーが適切であれば、vC Opsが算出する仮想マシンの平均プロファイルや残り容量の計算結果はより正確になります。下の図は、ピーク負荷を考慮しないポリシーを使って分析した結果とピーク負荷を正しく考慮したポリシーを使って計算した結果の差異の例を示しています。

vcops_6_fig7

このように、ポリシーの内容を精査し、それを適切な仮想マシンやESXiホストへ関連づけることはとても重要です。

連載終了にあたり

本連載では、5回に渡りVMware vCenter Operations Managerの活用方法を紹介、提案して参りました。

vC Opsは、仮想基盤を導入したもののそれの有効活用に困ってらっしゃる基盤ご担当者、あるいは限られた人数でより多くの仮想マシンを管理したい運用ご担当者の課題の解決を支援致します。本連載では4つの課題の解決法とポリシーの設定方法をご紹介しました。それらが少しでも皆様の課題解決のお役に立てれば幸いでございます。

連載におつき合いいただきありがとうございました。

~VMware vCenter Operations Manager活用法~
第1回 あとどのくらい仮想マシンを載せられるか?(リソース残量を知る)
第2回 どこにリソースの無駄が発生しているのか!(リソースの無駄の把握と削減)
第3回 より多くの仮想マシンを安全に載せていく(統合率を上げていく)
第4回 将来、物理リソースがどのくらい必要か?(需要予測)
第5回 使用環境における”ポリシー”の設定

VMware SDDC におけるネットワーク&ストレージ仮想化、マネージメント 〜Interop Tokyo 2014 Best of Show Award への挑戦〜

$
0
0

皆様、こんにちは。VMwareの山口です。
今日は、Interop Tokyo 2014 にて、VMwareが誇るSoftware-Defined Data Center(以降 SDDC) で、Best of Show Award (クラウドプラットホーム部門) を取るべく挑戦した軌跡を、振り返りもかねてご紹介したいと思います。

今年の Interop は、初めて自前のブースを構えることもあり、何か新しい事に挑戦しようと参加メンバー全員で検討しておりました。
その中の一つとして上げられたのが、歴史があり有名なBest of Show Awardに挑戦し、グランプリを目指してみようということでした。

すべてが初めてのことだったので、まずは、Best of Show Awardにどのような部門があり、VMwareが持っている製品は、どの部門にノミネートできるか調査するところから始まりました。その中の一つがクラウドプラットホーム部門で、VMwareのSDDCがクラウド基盤を支える上で如何に優れているのか、アピールする最適な部門でした。
スクリーンショット 2014-07-03 16.43.18

VMwareのSDDCは、データセンタを構成する要素(コンピューティング、ネットワーク、ストレージリソース、マネジメント)をソフトウエアで定義し実装することで、これを利用したデータセンタはこれまでにない効率性、俊敏性、柔軟性得る事ができます。

下図は審査員の方に、VMwareの提唱するSDDCの全体像を説明するためのスライドがこちらなのですが、非常に広範囲で様々なテクノロジーによって実現されていることが一目で分かります。これを限られた時間でどのようにアピールするかで様々な議論があったのですが、最終的に、我々は 次の方法でアピールしようとう結論に至りました。

最高のクラウドは、最高の技術で実現されるものなので、それを素直にアピールしよう!

つまりは、VMwareしか持っていない技術(SDDCを構成する要素)をそれぞれアピールし、それが他よりも優れているという点に注力してアピールしようということです。
スクリーンショット 2014-07-03 16.35.47

また、一部ではありますが、下記にSDDC構成要素におけるネットワーク&ストレージ仮想化、マネージメントのデモ動画をアップしました。

  • VMware SDDC デモ1 ネットワーク仮想化:物理環境にまったく囚われることなく、論理ネットワークを作成しているところや、仮想マシンに追従するファイアウォールと題して定義したルールが動的に適用されるところをライブデモしました。
  • VMware SDDC デモ2 ストレージ仮想化:如何に簡単にVirtual SAN(VSAN)を構成できるか、柔軟な容量拡張(Host add)されるところをライブデモしました。
  • VMware SDDC デモ3 マネージメント:SDDC全体の健全性を視認し、リソース状況の将来予測と無駄の排除を一元的に確認できるところをライブデモしました。

このようにシンプルに価値を訴求することで、初挑戦ながら見事Best of show Awardのファイナリスト残ることができました。
来年はグランプリをとれるよう糧にしたいと思います。

今回は、SDDCの個別の要素についてご紹介しました。次回は、これらの要素を自動的に構成して、SDDCのメリットを享受しているところを紹介します。

Interop Tokyo 2014 自宅でNSX  VMware Hands On LABS のご紹介

$
0
0

こんにちは、VMwareの仁平です。
先日は、Interop Tokyo 2014にて、弊社ブースへお越し頂き、誠にありがとうございました。
弊社ブースの中でも、「手軽に自宅からでもNSXをさわれる!」ことで大好評だった、VMware Hands On LABS(HOL)を改めてご紹介します。

HOLは、弊社が無償で提供している自習型のオンライン学習サービスです。世界中で既に、10万名の方がご登録/ご利用されております。
会社のPCからはもちろん、自宅のPCからでも、ブラウザがあれば、いつでもNSXをさわる事ができます。

もちろん、NSXに限らず、他の製品に実際にさわることができます。

例えば・・・
・仮想環境の運用アドバイザー(vCenter Operations Manager)
・VMware環境のバックアップ(vSphere Data Protection)
・VMwareの事業継続ソリューション(vSphere Replication / vCenter Site Recovery Manager)
・サーバ内蔵ストレージを共有ストレージに! 最新ストレージ仮想化(Virtual SAN)
・シンプルな仮想デスクトップ運用を実現(VMware Horizon View)
・VMware Mirageによる物理PCの徹底管理(VMware Mirage)

また、うれしい事に、一度、終了したラボでも、繰り返し実施する事が出来ます。もちろん無償です。

ご興味がある方は、今すぐユーザ登録しましょう!
登録方法も、すごく簡単です。

手順①: 以下より、日本語ガイドをダウンロードします。(お好みの物をお選び頂けます)
http://www.vmware.com/go/jp-HOL

手順②: 日本語ガイドに従って、ログインIDを作成します。

手順③: ハンズオンラボ環境にログインして、早速、ラボを始めましょう!

折角ですので、Interop Tokyo 2014でHOLブースに、お越し頂いた方々のコメントをここでご紹介したいと思います。

・新入社員への教育に使える!
・社員教育でも利用している!
・新しい製品を短時間にさわれるのが良い!
・VMware製品をハードウェア準備なしで、手軽にさわれるのが良い!
・自分のペースで、時間のある時に、学習できる。しかも自宅から出来るのが良い!

などなど、HOLの活用シーンがたくさんあります。

読者の皆様も、是非、この機会にHOLを試してみてはいかがでしょうか。

@Interop Tokyo 2014

Interop Tokyo 2014 ブースの舞台裏

$
0
0

こんにちは。VMware のやまもとです。
6 月 11 日 ~ 13 日に幕張メッセで開催された Interop Tokyo 2014 の VMware ブース の準備の裏側について、回顧録がてら書き連ねていきます。

今回のブースは、大きく3つのソリューション(Software Defined Datacenter, Software Defined Network, Software Defined Workspace) に分かれてチームを組んで準備に挑みました。

なかでも、私の参画した Software Defined Datacenter チームはブース展示全体を支えるデモ基盤を含めて準備するというかなり大がかりなものです。そのチーム内でもソリューションによって5コーナーに分けて小チームを編成するというチーム編成からすでにVirtual なNested 構成です。

  • vSphere Core Technology
  • Software Defined Storage (VSAN)
  • Management
  • Automation
  • Hybrid Cloud

これらの展示内容については、随時このブログで連載させていただきますので請うご期待ください!

チーム編成は16名の得意分野も普段の業務も全くバラバラなシステムエンジニアで、通常業務の合間に準備を進めました。

この、”通常業務”っていうのがかなりのミソで、弊社システムエンジニアは一般的に言うところのかなりワークロードの高いいわばモンスターVM的な業務量なので、全員が自分の業務とこの準備をうまく人的Distributed Resource Scheduler で分散させるというのはかなりの高度な技ですが、全員がうまくやりくりして参画しました。

この16名がはじめて顔合せを行った時点で、既に開催まで1ヶ月を切っていました…

この種類のイベントに展示を出されたことがある方ならどなたでも容易に想像がつくとは思いますが、通常は展示内容のコンセプトとテーマを確立させるのに1ヶ月は余裕でかかります。そこから構築までのスケジュールを考えると専任のメンバーを確保して2ヶ月前にチーム全体での顔合わせと役割分担を決め始めるのが無理なくできるスケジュールだったりします。

しかし、弊社ではたとえ全社挙げてのイベントであるvForum であったとしても”専任”するシステムエンジニアはひとりもいません。

デフォルト”兼務”です。

そう。ここからが各エンジニアの得意分野と、製品に対する「情熱」が炸裂する期間となります。

2週間でデモの概要とハードウェア、コンポーネント構成の設計、ミニシアターの資料作成までひととおり作業を実施して構築にかけられる時間は1週間と少ししか残されていませんでした。

リソース机上

主要なサーバーリソースの机上サイジングを行ったシート(アグレッシブなCPUオーバコミット率に注目です!最終的にはネステッドのゲストを稼働させたりデモのピークが異なるのでリソース消費はもっと柔軟性がありました。)

私はvSphere Core Technology チームとして参画させていただいたのですが、Software Defined Storage (VSAN) チーム同様、すべてのデモ基盤の土台になる箇所を担当しました。

あらかじめ借用をお願いしていたハードウェアをお借りして、社内に仮設置してベアメタルな環境でひととおり設定を行って他のチームに引き渡すという重大なミッションでしたが、私たちのチームが事前に考えていたのより最初はスムーズにすすめることができました。

今回のデモ環境は4台のホストをブースに配置し、ブース間連携としてPalo Alto Networks さんのブースに2台のホストと量販店で市販されているような簡単なギガビットネットワークスイッチを設置させてもらいました。

メインのブースには4台のホストとネットワーク機器だけを設置しています。物理的にはこれだけです。このほかは、デモ展示なので以前 ”やってみよう” シリーズでご紹介させていただいたNested ESXi をいくつか構築して製品の動作をご覧いただきました。
今回の構成はごくごくありふれた機器を組み合わせたものですが、実現できるソリューションはかなり最先端で高度な内容です。

たった4台で、どこまで製品機能を詰め込めるのか?それが課題でした。

ブースネットワーク_pptx 2

ネットワーク概念図(大まかなコンセプトを設計した概念図で、IPアドレスリストは個別に作成しました。最終的に350個ほどの払い出しになっています。)

構築も佳境にさしかかった頃に、重大なトラブルに遭遇しました。
詳細はこの場では控えさせていただきますが、百戦錬磨のチームメンバー全員が青ざめて、社内のナレッジというナレッジを総動員させて対処するようなレベルのトラブルです。
このようなドキドキするような状況を経て、ようやくInterop の私たちのブースはカットオーバーと初日を迎えたのでした。

後は他の方がこのブログに書いてくださっているような展示をさせていただき、大盛況で終わることとなりました。

Interop Tokyo 2014 Software Defined Storage コーナー デモ環境構築TIPS

$
0
0

こんにちは、竹原です。

6月11日~13日に開催された Interop Tokyo 2014 の Software Defined Storage コーナーのデモ環境構築にかかわるTIPSを紹介をさせていただきます。

本コーナーでは2014年3月13日に発表された Virtual SAN についてご紹介させていただきました。
Virtual SAN は、内蔵ディスクをネットワーク越しに束ねて一つの外部共有ストレージとして利用できる、コスト/パフォーマンス/拡張性に優れたハイパーコンバージドストレージソリューションです。

Virutal SAN の特徴や機能については以下のブログで紹介されていますのでご確認ください。

VMware ブースのデモ環境は 4 台の物理サーバで構成されていましたが、共有ストレージの代わりに、Virtual SAN がデモ環境のストレージとして稼動していました。

vsan-1

Virtual SAN のデモ環境はホストやディスクの追加/削除を頻繁に実施する必要があったため、物理構成に影響を与えないように、物理の Virutal SAN 上に仮想マシンで Virtual SAN を構成していました。

いわば ”Virtual SAN on Virtual SAN” です。

vsan-2

“Virtual SAN on Virtual SAN” を構築するとき、いくつか TIPS があるのでご紹介します。
ご紹介するコマンドは物理のVirtual SANを構成する上では必要のないコマンドです。

vSphere 上に vSphere を構成することをネステッドと呼んでいますが、Virtual SAN 上にネステッド vSphere 環境を構築するときには事前に以下のコマンドを物理環境の vSphere に発行しておく必要があります。(参考: How to run Nested ESXi on top of a VSAN datastore?)
※これをしておかないと vSphere のインストールができません。

esxcli system settings advanced set -o /VSAN/FakeSCSIReservations -i 1

また、Virtual SAN を構成するには SSD が必須要件となりますが、 ネステッド vSphere に対して仮想ディスクを割り当てるだけでは SSD として認識してくれません。

そのため、手動で特定のディスクを SSD として認識させる必要があります。
以下のコマンドをすべてのネステッドvSphereホストで実行します。(参考: How to Trick ESXi 5 in seeing an SSD Datastore)
※ネステッド vSphere に割り当てている2番目のディスクを SSD として認識させています。

esxcli storage nmp satp rule add –satp VMW_SATP_LOCAL –device mpx.vmhba1:C0:T2:L0 –option=enable_ssd
esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T2:L0

上記設定を行うことで無事に “Virtual SAN on Virtual SAN” 環境を動作させることができました。
Virtual SANのデモの動画についてはこちらをご覧ください。

今回は Interop デモ環境の基盤となった Virtual SAN 構築のTIPSについてご紹介させていただきました。

ストレージコストを減らしつつ、高いパフォーマンスを獲得できるVirtual SANを是非ご評価いただければ幸いです。

VMware Hands On LABS(HOL) を使えば簡単に Virtual SAN に触っていただけますので是非ご体感ください!

※ vSphere 上で vSphere を稼動させること、ならびに Virtual SAN 上で Virtual SAN を動作させることは、正式にサポートされた構成ではありませんので本番環境では実装しないでください。

※物理環境の Virtual SAN 構成に比べて ”Virtual SAN on Virtual SAN” はパフォーマンスが低下します。 Virtual SAN のパフォーマンスを検証する場合は必ず物理環境の Virtual SAN で実施してください。

 

Interop Tokyo 2014 Automation 01 – ネットワークサービスの展開及び設定の自動化

$
0
0

Interop Tokyo 2014 VMware ブースのAutomation コーナーでは、SDDC(Software-Defined Data Center)全体の最適化をテーマに、vCAC(VMware vCloud Automation Center)の展示を行いました。vCAC は、IaaS、PaaS を提供するプラットフォーム基盤としての特徴に加え、エンタープライズIT 環境を自動化していくという側面を強く持った製品です。

vCAC の提供するサービスカタログ

vCAC の提供するサービスカタログ

会場ではネットワークに関連した自動化ソリューションをデモンストレーションしています。第1回目では、「ネットワークサービスの展開及び設定の自動化」のデモンストレーションとして、vCAC とNSX の連携をご紹介します。

Web、AP、DB サーバによる 3-Tier システムの構成

Web、AP、DB サーバで構成された 3-Tier システムの展開

仮想マシンを展開した後にユーザが最終的にサービスを利用できるようになるまでには、付随するいくつかの作業を実施する必要があります。その中で、特にボトルネックとなりやすいポイントの1つにネットワーク関連のサービスがあります。

ネットワーク環境を仮想化し、リソースをプール化することで、柔軟なサービス提供が可能になりますが、ポイントはもう1つあります。例えネットワーク環境が仮想化されていても、仮想化されたネットワークサービスを手動で設定するのであれば、そこにはいままで物理環境でかかっていたのと同じだけの労力と時間がかかることになります。

vCAC のサービスカタログ(ブループリント)には、仮想マシンだけではなく、ネットワーク構成情報を定義することができます。ネットワーク仮想化環境を提供するVMware NSX と連携することで、仮想マシンを展開すると同時に、ネットワークサービスを展開し、展開したネットワークサービスに適切な設定を行い、仮想マシンに適用することが可能になります。

vCAC のブループリント設定画面 仮想マシンを接続するネットワークプロファイルと、仮想マシンが所属するセキュリティグループを定義

vCAC のブループリント設定画面 仮想マシンを接続するネットワークと、仮想マシンが所属するセキュリティグループを定義

サービスに必要なリソースを仮想化環境でプール化することで、仮想マシンの展開時にダイナミックにプロビジョニングし、役割を終えた仮想マシンを破棄する際にはリソースが解放されます。仮想マシンの展開と同時に、展開した仮想マシンに適用できるネットワークサービスには下記が含まれます。

・NSX Edge(ルーティング、ロードバランス、ファイアウォール、NAT 機能を提供)
・論理スイッチ(VXLAN L2 ネットワークを提供)
・セキュリティグループ(分散ファイアウォール、アンチウィルスサービス等を提供)

NSX のセキュリティグループ

NSX のセキュリティグループ “Service Web”, “Service AP”, “Service DB”はvCAC ブループリント設定に対応

ネットワークサービスを含む3階層アプリケーションを展開するデモンストレーション(動画)は下記リンクからご覧いただけます。VMwareは、仮想マシン及びネットワークサービスの展開から設定までを自動化し、SDDC 全体を最適化するソリューションを提供します。

動画リンク 「ネットワークサービスの展開及び設定の自動化」

vCAC カタログからWebサービス(3-Tier システム)を申請

vCAC サービスカタログからWebサービス(3-Tier システム)を申請 以降は動画を参照ください

Interop 2014 関連リンク

Interop Tokyo 2014 VMware SDDC におけるネットワーク&ストレージ仮想化、マネージメント 〜Best of Show Award への挑戦〜
Interop Tokyo 2014 自宅でNSX VMware Hands On LABS のご紹介
Interop Tokyo 2014 ブースの舞台裏
Interop Tokyo 2014 Software Defined Storage コーナー デモ環境構 築TIPS
Interop Tokyo 2014 Automation 01 – ネットワークサービスの展開及び設定の自動化
Interop Tokyo 2014 Automation 02 – 負荷に応じたWeb サーバの自動展開(オートスケール)
Interop Tokyo 2014 マネージメントコーナー紹介

Interop Tokyo 2014 Automation 02 – 負荷に応じたWeb サーバの自動展開(オートスケール)

$
0
0

Written by: Noritaka Kuroiwa, Tomohiro Iwafuchi

Interop Tokyo 2014 VMware ブースのAutomation コーナーでは、SDDC(Software-Defined Data Center)全体の最適化をテーマに、vCAC(VMware vCloud Automation Center)の展示を行いました。vCAC は、IaaS、PaaS を提供するプラットフォーム基盤としての特徴に加え、エンタープライズIT 環境を自動化していくという側面を強く持った製品です。

vCAC の提供するサービスカタログ

vCAC の提供するサービスカタログ

会場ではネットワークに関連した自動化ソリューションをデモンストレーションしています。第2回目では、「負荷に応じたWeb サーバの自動展開(オートスケール)」のデモンストレーションとして、vCAC(vCloud Automation Center) – vCO(vCenter Orchestrator) – vC Ops(vCenter Operations Manager) – F5 BIG-IP LTM の連携をご紹介します。

コンポーネント間の連携

コンポーネント間の連携

サービスに対する負荷が急増した場合、サービスを提供するサーバを追加/起動(スケールアウト)することで安定したサービスを提供することが可能になります。逆に負荷が軽減した際にはサーバを停止/削除(スケールイン)することで、リソースの有効活用が可能になります。サーバーの追加/起動、停止/削除を人手を介さずに、自動で行うことでオートスケール環境を実現します。

エンドユーザーは、ロードバランサーを経由してWeb サーバにアクセスする構成となります。仮想化環境の運用管理を行うvC Ops でWeb サーバのワークロードをモニターし、CPU 使用率を閾値に、vCO にSNMP-Trap を送付します。vCO では、SNMP-Trap の中身を精査し、定義したワークフローを基に、スケールアウト、スケールインを実行します。

 vCenter Operations Manager (vC Ops)によるワークロードのモニター

vC Ops(vCenter Operations Manager)によるワークロードのモニター

スケールアウトする際にはサーバを追加するのと同時に、追加したサーバのIPアドレスをロードバランサーのプールメンバーに追加するワークフローを実行します。逆にスケールインした際にはサーバを削除し、削除したサーバのIPアドレスをロードバランサーのプールメンバーから削除します。

BIG-IP LTM のプールメンバー設定画面

BIG-IP LTM のプールメンバー設定画面

下記はスケールアウトする際に実行するvCO ワークフローの例です。この中では仮想マシンを追加/起動し、起動した仮想マシンのIPアドレスを取得し、取得したIPアドレスをロードバランサーのプールに追加しています。

vCO ワークフロー(Scale-OUT)

vCO ワークフロー(Scale-OUT)

下記はスケールインする際に実行するvCO ワークフローの例です。ロードバランサーのプールメンバーからサーバのIPを削除し、対応する仮想マシンを停止/削除しています。

vCO ワークフロー(Scale-IN)

vCO ワークフロー(Scale-IN)

負荷に応じたWEBサーバの自動展開(オートスケール)のデモンストレーション(動画)は下記リンクからご覧いただけます。VMwareは、仮想マシン及びネットワークサービスの展開から設定までを自動化し、SDDC 全体を最適化するソリューションを提供します。

動画リンク 「負荷に応じたWeb サーバの自動展開(オートスケール)」

vCAC サービスカタログからAuto Scale サービスを申請

vCAC サービスカタログからAuto Scale サービスを申請 以降は動画を参照ください

Interop 2014 関連リンク

Interop Tokyo 2014 VMware SDDC におけるネットワーク&ストレージ仮想化、マネージメント 〜Best of Show Award への挑戦〜
Interop Tokyo 2014 自宅でNSX VMware Hands On LABS のご紹介
Interop Tokyo 2014 ブースの舞台裏
Interop Tokyo 2014 Software Defined Storage コーナー デモ環境構 築TIPS
Interop Tokyo 2014 Automation 01 – ネットワークサービスの展開及び設定の自動化
Interop Tokyo 2014 Automation 02 – 負荷に応じたWeb サーバの自動展開(オートスケール)
Interop Tokyo 2014 マネージメントコーナー紹介


VMware vCenter Operations Manager簡単操作ガイド

$
0
0

こんにちは!VMwareの中村朝之です。

以前仮想基盤のリソース状況を知る!~VMware vCenter Operations Manager活用法~を連載しましたが、
この連載、多くのパートナー様、エンドユーザ様から思った以上に反響をいただきました。

その中で
「vC Opsで何ができるかだいたい把握したけど、具体的な操作方法を知りたい…」
というご要望をいただきました。そこで簡単操作ガイドを作成♪

Operation_Guide_samp1

簡単操作ガイドのダウンロードはこちら
是非ダウンロードしていただき、ご活用ください!!

過去に連載したブログはこちらです。
~VMware vCenter Operations Manager活用法~
第1回 あとどのくらい仮想マシンを載せられるか?(リソース残量を知る)
第2回 どこにリソースの無駄が発生しているのか!(リソースの無駄の把握と削減)
第3回 より多くの仮想マシンを安全に載せていく(統合率を上げていく)
第4回 将来、物理リソースがどのくらい必要か?(需要予測)
第5回 使用環境における”ポリシー”の設定

Interop Tokyo 2014 マネージメントコーナー紹介

$
0
0

こんにちは。VMware の内野です。

本日は 6 月 11 日 ~ 13 日に幕張メッセで開催された Interop Tokyo 2014 の VMware ブース内の マネージメントコーナーの内容をご紹介します。

マネージメントコーナーでは、サーバーはもちろん、ストレージやネットワークまでも含めていかに一括で効率的に運用管理が行えるか。に関してお客様からよく頂くご質問に対する解決策を多くご紹介させていただきました。

Interop Tokyo 2014 の VMware ブースマネージメントコーナーでは、以下の様な環境を準備しました。

interop-mgmt-env

今回は上記の環境を使って、VMware vCenter Operations (以下、Operations Manager) や VMware vCenter Log Insight (以下、Log Insight) が多くのお客様で共通される課題をいかに解決できるかに関して実際の画面 (動画) も含めて、ご紹介させて頂きます。

課題 1. 現状の仮想環境にあと何台仮想マシンを追加できますか。

仮想化環境のメリットをより多く受けるためには 1 台のサーバーにより多くの仮想マシンを起動させたいと皆さんが思っております。

しかし、同時に仮想化環境に多すぎる仮想マシンを起動してしまうと、

  • “性能が劣化してしまうのではないか心配”
  • “ピーク時に十分な性能が出ることを保証したい”

等の理由で統合率を上げることに躊躇しているのではないでしょうか。

その様な時には Operations Manager を使って、最適な統合率を確認することが可能です。Operations Manager を利用することにより今まで今までの経験則でのキャパシティ管理から脱却して、利用状況に即したキャパシティ管理を行えるようになります。

interop-mgmt-case1

 

 実際の画面に関しては下記のリンクをクリックして実際の Operations Manager の画面を動画で確認してください。なお、動画を再生する為には Quick Time が必要です。

動画:あと何台VMを載せられるか確認する

ご覧頂いた様に対象のクラスタを選択しただけで、残り何台の仮想マシンを乗せることができるかがすぐに確認することが可能です。今までは熟練の管理者が vCenter からパフォーマンスデータを取得して、Excel と格闘しながら、経験則で判断していたかと思いますが、これであれば、誰でも簡単に正確にキャパシティプランニングを行えます。

現在の利用状況のまま使い続けた場合、翌週・翌月・翌3ヵ月後の予測を行うことも可能ですので、いつの間にかリソースが足りなくなってしまったということは発生しません。また、ハードウェアを購入するためには上司や購買部門等に “なぜ、サーバー (ストレージ) が必要なのか” を説明する必要があると思いますが、この画面を使えば、上司や購買部門の方への説明もスムーズに行くのではないでしょうか。

仮想マシンを実際に追加した場合のシュミレーションも行うことができますので、実際に仮想マシンを追加する前にシュミレーションを行うことで “性能が劣化してしまうのではないか” という心配もしなくても大丈夫です。

それでは次の課題に進みます。

課題 2. いつ頃ハードウェアを追加すればいいですか?

仮想化環境を上手く使いこなせるようになるとハードウェアリソースの利用率がだんだん高くなってきます。統合率が高くなることによりハードウェアリソースが不足する場合も出てきます。

ハードウェアリソースの不足が発覚したタイミングでハードウェアを購入しようとしても上司や購買部門と調整した後、ハードウェアを注文して、到着まで待って、ラックマウントしてセットアップをして・・・・・と多くの作業を実施した後にハードウェアを利用することができます。

しかし、購買の手続きをしている最中もハードウェアリソースが不足している状況では、パフォーマンス低下が発生してしまう可能性がありますので、事前に “いつ頃ハードウェアが不足するのか” を事前に知らなくてはいけません。

今まではいつリソースが枯渇するかが明確ではなかったので、経験則や勘でハードウェアを追加していたのではないでしょうか。Operations Manager を利用することにより実際の運用で行われてきた実データの利用状況トレンドを基づいて、リソースの残り時間を推測することができます。

interop-mgmt-case2

実際の画面に関しては下記のリンクをクリックして実際の Operations Manager の画面を動画で確認してください。なお、動画を再生する為には Quick Time が必要です。

動画:いつリソースが枯渇するか確認する

このように Operations Manager を利用することにより簡単に現在の利用状況のトレンドを考慮した上で現在のハードウェアリソースがあと何日 (何ヶ月/何年) 持つのかを CPU やメモリ、ディスクなどのコンポーネント単位で確認することが出来ます。

また、ハードウェアを追加した際にどの程度の利用期間が延びるのかなども簡単にシュミレーションすることができますので、仮想環境の正常性の確認以外にも、たとえば、ハードウェアを購入する際に サーバーを追加した時には  20 仮想マシンを追加できるけど、メモリだけ追加しても 20 仮想マシンの追加が可能になる。サーバーを購入するのではなく、メモリだけ増設して方が価格が安いからメモリだけ増設しよう。等の判断を明確に行えるようになります。

Operations Manager を使ってシュミレーションできる実例:

  • サーバーやストレージを追加した際に何台の仮想マシンを起動できるかのシュミレーション
  • CPU やメモリ等の増設をした時に何台の仮想マシンを起動できるかのシュミレーション
  • 特定のサーバーやストレージを撤去した時に何台の仮想マシンを起動できるかのシュミレーション
  • システムをリプレースする際のサイジングのシュミレーション
  • 仮想マシンを追加・削除した際のシュミレーション

それでは次の課題に進みます。

課題 3.無駄にハイスペックな仮想マシンがたくさんいるんだけど・・・

仮想環境の管理をしているとリクエストされている仮想マシンのリソースが適切にリクエストされているか疑問に思うことはありませんか。

本当は 1CPU / 4 GB メモリあれば、十分なのに、4 CPU / 16GB メモリの申請をされるようなことは無いでしょうか。リクエストをしている人はパフォーマンスを担保する意味で、多めにリソースの申請をしてしまいやすい傾向があると思います。

そのようなリクエストが多数あると、せっかく仮想環境を構築して、リソースを効率的に使おうとしても非効率な状況が発生してしまいます。

今までは過剰に申請された仮想マシンを見つけ出す方法がありませんでした。Operations Manager を利用することにより簡単に過剰申請された仮想マシンを探し出すことができるようになります。

interop-mgmt-case3

実際の画面に関しては下記のリンクをクリックして実際の Operations Manager の画面を動画で確認してください。なお、動画を再生する為には Quick Time が必要です。

動画:過剰割り当てVMを探す

このように簡単なオペレーションで過剰にリソースが割り当てられた仮想マシンを適正化して削減できた分で新規の仮想マシンを作成することができ、より効率的に仮想環境を利用することが可能です。

なお、私がお客様先に Operations Manager を評価してもらう為に導入したお客様の実績ベースでも 95% 以上の仮想マシンがオーバースペックなリソースが割り当てられていました。皆様の仮想環境でも少なくとも 90% 以上の仮想マシンがオーバースペックになっているのではないかと確信しています。オーバースペックの仮想マシンを最適化することにより新しい仮想マシンのリソースとして再利用することが出来るようになります。

それでは次の課題に進みます。

課題 4.仮想環境で使っているストレージのパフォーマンスが上がらないんだけど・・・

仮想環境でも物理環境でもパフォーマンスの問題が発生した時の調査というのは非常に難しいですよね。CPU・メモリ・ディスク・ネットワーク等、各コンポーネントの利用状況等を調べて、既存の環境を依存関係を把握した上で、原因を追究する必要があります。

そのため、どこにボトルネックがあるのか正確を特定できれば、パフォーマンス問題の半分は解決できたと考えてもいいでしょう。

中でも特にストレージのボトルネックを探し出して原因を究明することは非常に難しく、共有ストレージのボトルネックはシステム全体のパフォーマンス低下に直結します。

Operations Manager を利用すれば、vCenter から ESXi ホスト、仮想マシン、データストアーはもちろん、外部ストレージの中のコントローラーやディスク、キャッシュ等も含めて一元的に視覚化することができます。

interop-mgmt-case4

 

実際の画面に関しては下記のリンクをクリックして実際の Operations Manager の画面を動画で確認してください。なお、動画を再生する為には Quick Time が必要です。

動画:VMが起動している外部ディスクの情報を確認する

仮想マシンが起動しているハードディスクがどれかを特定しようとすると色々なツールを駆使して、一つずつ確認をしていかないとどのハードディスク上で起動しているかを確認できないと思います。Operations Manager を使うと仮想マシンを選択するだけで、その仮想マシンが外部ストレージの中のコントローラやキャッシュ、ディスクのどれを使っているかを瞬時に判断することが出来るようになります。

なお、Interop Tokyo 2014 では EMC 様にご協力頂き、EMC VNX を設定させて頂きましたが、Operations Manager に対応しているストレージは下記の Solution Exchange というページから検索することができますので、現在ご利用のストレージで同じことができるか確認してみてください。

https://solutionexchange.vmware.com/store

それでは次の課題に進みます。

課題 5.管理する仮想マシンや物理的な機器が増えすぎてログを確認できないんだけど・・・

仮想環境でも物理環境でも同様だと思いますが、皆様は Windows や Linux / ストレージ機器やネットワーク機器のログを確認しておりますでしょうか。

多くの方のログの確認する場合はトラブルが発生したやセキュリティを担保するためにログを確認することが多いのではないでしょうか。

ですが、ログの確認は当たり前ですが、各機器によって確認方法が違います。

  • Windows : イベントログから確認
  • Linux : /var/log/messages のログファイルを確認
  • ストレージ機器 : ストレージ管理ソフトから確認 (各スベンダーにより確認方法が異なる)
  • ネットワーク機器 : show logging コマンド等でログを確認

Linux であれば、/var/log/messages の中を grep 等のコマンドを駆使して、目的のログを探すのは経験が必要な作業なのではないでしょうか。

また、例えば、100 台の Windows と 100 台の Linux を管理しているのであれば、合計 200 台に対して、リモートデスクトップや ssh でログインして、1 台ずつ確認していたら、それだけで 1 日が終わってしまいますよね。

そのような場合には Log Insight を利用すれば、一箇所で集中して管理することができるようになります。

interop-mgmt-case5

実際の画面に関しては下記のリンクをクリックして実際の Log Insight を動画で確認してください。なお、動画を再生する為には Quick Time が必要です。

動画:LogInsightでログを検索する

このように Log Insight は多くの機器のログを一括集中で管理することができます。

“syslog サーバーと何が違うの?” という疑問もあるかと思いますが、syslog サーバー上で大量のログメッセージを grep 等のコマンドで検索すると非常に時間がかかると思います。Log Insight を使えば、大量のログメッセージを高速に検索することが出来ます。

また、Log Insight 2.0 から Windows エージェントが Log Insight に追加されておりますので、Windows サーバーや端末のログを集中管理を行うことが出来ます。

ログのフィルタリングや集計機能を使えば、トラブル時に原因のログを探したり、日々のログデータのトレンドを把握することも簡単に行えるようになると思います。また、アラーと設定を行い、例えば、”ログイン失敗のエラーメッセージが発生したら、メールを送る” 等の設定も可能ですので、セキュリティを担保するという意味でも非常に効果があると思います。

それでは次の課題に進みます。

課題 6.NSX も一緒に Operations Manager で管理したい。

Interop Tokyo は皆さんもご存知の通り、ネットワークのイベントです。VMware の中ではネットワーク仮想化ということで NSX を出展させて頂きました。その NSX も今までご紹介してきた Operations Manager を使って参照することが可能です。

管理ツールが複数存在すると、その分、運用のオペレーションが増えたり複雑になったりします。全ての管理を OPerations Manager に統一することにより運用をよりスリムに行うことが可能です。

interop-mgmt-case6

実際の画面に関しては下記のリンクをクリックして実際の Operations Manager の画面を動画で確認してください。なお、動画を再生する為には Quick Time が必要です。

動画:NSXをOperations Managerで視覚化する

なお、NSX アダプタは 2014 年 6 月現在、テクニカルプレビューというステータスになっておりますので、正式なリリースまでもう少しお待ちください。

 

いかがでしたでしょうか。

 

Operations Manager / Log Insight が既存の運用をどの様に効率的になるかをご理解頂ければ幸いです。本ブログを興味を持って頂いたら、皆様の環境でもぜひ、Operations Manager / Log Insight をまずはお気軽にお試し頂ければと思います。

 

まとめ:

Operations Manager / Log Insight は導入コストを削減する製品ではなく、運用コストを削減することを目的とした製品です。現在、多くのお客様環境ではより少人数で多くのシステムをより高い品質で運用することが求められています。

導入コストは製品を購入するというはっきりした支出がありますので、導入コストばかりが注目されてしまいますが、導入コストだけでは全体的な IT コスト削減は望めません。むしろ、システム全体の費用で考えた時には導入コストよりも運用コストの方が大きく、本当に改善しなくてはいけないのは、導入コストではなくて運用コストなのです。

Operations Manager / Log Insight という運用管理ツールを使い、運用コストを圧縮して、全体的なコストを最適化していく必要があります。

interop-mgmt-overall

執筆者:内野 賢二

Interop 2014 関連リンク

Interop Tokyo 2014 VMware SDDC におけるネットワーク&ストレージ仮想化、マネージメント 〜Best of Show Award への挑戦〜
Interop Tokyo 2014 自宅でNSX VMware Hands On LABS のご紹介
Interop Tokyo 2014 ブースの舞台裏
Interop Tokyo 2014 Software Defined Storage コーナー デモ環境構 築TIPS
Interop Tokyo 2014 Automation 01 – ネットワークサービスの展開及び設定の自動化
Interop Tokyo 2014 Automation 02 – 負荷に応じたWeb サーバの自動展開(オートスケール)
Interop Tokyo 2014 マネージメントコーナー紹介

Interop Tokyo 2014 NSXとPalo Alto Networksの連携ご紹介

$
0
0

こんにちは、VMwareの屋良です。
先日開催されたInterop Tokyo 2014にて、弊社ブースに足を運んでいただきありがとうございました。
ブース内のNSXコーナー及びミニシアターなどを通して、NSXをご紹介しておりましたが、NSXエコシステムパートナーである、Palo Alto Networks(PAN)ブースでもNSXの展示を行っていただきました。

本日は、NSXとPANの連携について、改めてご紹介します。

NSX 分散Firewallの特長とエコシステムパートナー連携

NSXでは、機能の1つとして、以下の様な特長を持つ、分散Firewallを提供しています。

  • kernel組み込みによる高い処理性能
  • ハイパーバイザー単位で分散処理可能なスケールアウト型アーキテクチャ
  • VM,vNIC,クラスタといった、オブジェクト単位でのポリシー定義

しかし、現在では、アプリケーションの振る舞いをチェックして制御を行う、といった、より高度なFirewallが求められることも多くなってきています。
そういった、NSXだけで実現できない点に対して、NSXのエコシステムパートナーと呼ばれるパートナー企業がNSXと連携する機能を提供しています。この仕組みを利用することで、以下のようなPANの優れた機能がNSXと一緒に動作することになります。

  • アプリケーション等の細やかなトラフィック可視化
  • IP,Port番号に依存しない、アプリ、ユーザの識別及びポリシー制御
  • 情報漏洩、マルウェアといった未知の脅威からの防御
NSX分散FirewallとPAN 次世代Firewallの特徴

NSX分散FirewallとPAN 次世代Firewallの特徴

NSX-PAN構成/動作イメージ

NSXとPAN連携は、大きく以下のコンポーネントによって構成されています。

  • NSX:vCenter及び、NSX Manager
  • PAN:Panorama(管理コンポーネント)及び、VM-series FW

実際のトラフィックの流れは次のようになります。

  1. PANにリダイレクトすべきトラフィックか(NSX側に設定)、チェック
  2. 対象トラフィックはFirewall処理を行うVM-series FWにリダイレクト
    その際、通常のネットワークではなく、ハイパーバイザ内の通信パス(VMCI/VM Communication Interface)を利用して行われるため、効率的かつ、Guest VMに対して透過的に行われる(vMotionした際も、もちろん追従可能)
構成/動作イメージ

構成/動作イメージ

NSX-PAN連携の特長

より高度なFirewall機能をシステムに取り込める点は、もちろんですが、それ以外にも、以下のような特長があります。

  • NSX-PAN間でのオブジェクト情報連携:NSXの管理コンポーネントであるNSX ManagerとPANの管理コンポーネントであるPanorama間でオブジェクト情報を連携することで、動的なポリシー制御が可能

これにより、「Webサーバのグループと、Appサーバのグループ間のみ通信を許可する」といったシンプルな定義となるので、ポリシー数が減るだけでなく、ぱっと見ただけで内容が分かるようになります。そのため、ACLのように、1つ1つのポリシーを読み解くという手間を減らすことが可能です。

NSX-PAN間でのオブジェクト情報連携

NSX-PAN間でのオブジェクト情報連携

  • PAN VM-serices FW自動展開:Firewall処理を行うPANのコンポーネントであるVM-series FWをホストの増設に合わせて自動展開

NSXは、仮想基盤のリソース追加と同じタイミングで利用できるようになりますが、同様に、VM-series FWもそれに合わせて、自動展開されるため、リソース追加時のVM-series FWセットアップの手間を削減することが可能です。

VM-series FWの自動展開

VM-series FWの自動展開

利用シーン

NSX-PAN連携により、次のような利用シーンが考えられます。

  • VDI環境のセキュリティ強化:各ユーザデスクトップからのアクセスをチェックし、マルウェアや不正サイトへのアクセスを検知/制御
  • 不正アクセスの被害拡散防止:従来のセグメント間だけでなく、同一セグメント内にあるVM同士の通信についてもチェック/制御することで、仮に侵入されても被害の拡散を防止

下記は、利用シーンの1つである、Webアプリケーションへの適用例となります。「特定キーワードを含むWebサイトへのアクセスをブロック」かつ「各Tier間のアクセスを制限」した例となります。Interop会場においても、オンラインデモを実施していましたので、御覧頂いた方もいらっしゃるのではないでしょうか。

Webアプリケーションへの適用例

Webアプリケーションへの適用例

今回は、PANにフォーカスした、連携ご紹介でしたが、エコシステムパートナーは今後も広がっていきますので 、ご期待ください!

インフラ管理の自動化 – vSphere Auto Deploy + Host Profile + DRS

$
0
0

はじめに

最近、SaaS、PaaS、IaaS、といった各レイヤをサービスとして受け取り、システムを構築していくというケースも増えてきているのではないかと思います。一方オンプレミスの環境を見てみると、相変わらずハードウェアやリソースの管理が大変・・・。便利そうだけどブラックボックス要素の多いパブリッククラウドと、全てを把握できるものの手間のかかるオンプレミス、どっちを選べばよいのか迷っている方、多いのではないかと思います。今回のBlogでは、大規模なオンプレミス環境で問題になりがちな、サーバリソースの管理負荷を劇的に削減する方法をご紹介します。今回ご紹介する機能は、私自身、3年以上VMwareのLAB環境の管理に利用しておりますが、とても便利です。この便利さを皆様にも是非体験いただければと思います。

オンプレミスは管理負荷が高い?

オンプレミスではハードウェアにまつわる何かしらの管理負荷が発生します。特にサーバ台数が多くなってくるとこの管理負荷は無視できなくなってきます。しかしながら、オンプレミスの管理負荷を自ら上げてしまっているケースも数多く見受けられます。その一つが、必要以上にサーバとシステム(仮想マシン)を紐づけて管理しているケースです。仮想環境の最大のメリットは、仮想マシンを物理サーバから自由にすること。この前提に立って、サーバと仮想マシンの紐付けを解き放てば、VMwareによる仮想化のメリットを沢山享受することが出来、かつ、オンプレミスのホスト管理の負荷を極限まで削減することが可能です。
例えば、

 サーバリソースが足りなくなったら新しいサーバの電源をオンするだけ。
 サーバが故障したらサーバごと入れ替えて電源オンするだけ、まるでRaid構成のDiskを交換するように。

そんな素敵な仕組みがあったら・・・。その仕組みを提供するのが、今回ご紹介する、vSphere Auto Deploy + ホストプロファイル + DRS です。

HypervisorがStatelessであるということ

何事でもそうだと思いますが、例えば、企業のデスクトップPCやノートPCに個別にOSをインストールして各従業員に配布すると、そのPCのライフサイクル管理(端末準備→配布→パッチ管理→障害対応→入れ替え)が非常に煩雑になります。これを劇的に改善する方法が、OSやアプリケーションをデータセンタ側で集中管理、配布する、仮想デスクトップやアプリケーションの配信の仕組みです。Hypervisorも同様で、多数のホストに対しESXiを個別インストールし管理すると、インストールやパッチ管理、構成管理など、とたんに管理負荷が増大します。この様な煩雑なHypervisorイメージの管理から管理者を解放するための仕組が、vSphere 5.0 以降で実装された、

 ”ESXiをインストールすることなく中央で集中管理し配布する仕組み”

です。その機能は Auto Deployとして提供されています。各ESXiはインストールレスで、ホスト側にはステート情報を一切持たないため、ESXiホストのイメージや構成情報を個別に管理する必要はありません。ESXiのイメージは中央集中管理となり、また、ホストプロファイルと連携することで構成情報も中央集中管理となりますので、コンプライアンスも中央集中で一括管理が可能となります。

例えば、こんな事が可能です。

Auto Deployの仕組み

Auto DeployはvSphere 5.0より提供されている革新的なHypervisorイメージ管理・展開の仕組みです。

・ESXiイメージはAuto Deploy 側に持つ
 起動するホスト台数に関わらずビルド毎に1つのみ

・各ESXiホストはPXEでブート
 起動に必要なESXiイメージはAuto Deployサーバからネットワーク越しに提供される

・構成情報はHost Profilesと連携し、自動適応される

<利点>

・ESXiのインストールは不要(インストール用のHDDも不要)

・ESXiイメージの一括管理と迅速な展開が可能
 PXEブートするだけで構成の完了したESXiが次々に立ち上がる
 多数のサーバへのパッチ当てもAuto Deployのルール1つを変更して再起動すればOK

・ホスト障害復旧も迅速かつ容易
 サーバを入れ替えてPXEブートするのみ

Auto Deploy機能詳細

Auto Deployの中核の機能は、ルールエンジンとイメージ配信サーバの機能です。PXEブートしてきたホストに対し、ルールエンジンで指定されたESXiイメージやホストプロファイルを配信するというのが大まかな流れです。Auto Deployは、Windows版ではvCenter Serverのインストーラーの一部として提供され、vCenter Server Appliance版には機能があらかじめ包含されています。


・ルールエンジン
 PXEブートしたホストに対して下記3つを定義する
 イメージプロファイル、ホストプロファイル、ホストの登録場所(インベントリ情報)

・Auto Deploy サーバ (Webサーバ)
 PXEブートしてきたホストに対して実際にイメージやホストプロファイルなど必要な情報を配信する機能を提供。

・Auto Deploy PowerCLI
 ルールエンジンを操る手段をユーザに提供
 実体はvSphere Power CLIのコマンドレット群。

Auto Deploy起動の流れ

Auto DeployはPXEブートを基本としているため、DHCPサーバ含めたいくつかのコンポーネントと連携して動作します。このため最初は難しく感じるかも知れませんが、慣れてしまえば大したことはありません。

・PXE ブートしたホストはDHCPサーバに接続し、以下の情報を取得
 IP Address、TFTPサーバのアドレス、TFTPサーバ内のブートファイルに関する情報

・TFTP サーバに接続してブートファイルを取得すると同時に、Auto Deploy サーバの情報を取得

・Auto Deploy サーバは起動してきたホスト情報をルールエンジンの定義と照らし合わせ、以下を配信
 ESXiイメージ(イメージプロファイル)、ホストプロファイル、インベントリ情報

・Auto DeployサーバからESXiイメージをNetwork越しに受け取りながら起動。
 ホストプロファイルを適応し、vCenter Server上の指定されたインベントリにホストを登録。

・ホストの登録先がDRSクラスタの場合は、仮想マシンが自動的に新規ホストに分配

 
Auto Deploy構築方法

構築の流れは大まかに以下の通りです。

1. ESXiイメージ(オフラインバンドル)の入手

2. Auto Deployサーバのインストール

3. DHCPサーバのインストール及び設

4. TFTPサーバのインストール及び設定

5. vSphere Power CLIを利用した起動ルールの作成

 ※今回はWindows版のインストールについて順を追って説明します。

 

1. ESXiイメージ(オフラインバンドル)の入手

VMwareの製品ダウンロードサイトからオフラインバンドルを入手します。

 ※通常のESXi のインストールでは、ISOイメージを利用しますが、Auto Deployではオフラインバンドルを利用します。


 

2. AutoDeployサーバのインストール (Windows版)

Windows版のvCenter ServerにはデフォルトではAuto Deployはインストールされていません。インストーラーはvCenter Serverのインストーラーに含まれますので、こちらからインストールを実行します。サポートするOSはvCenter ServerのサポートOSと同一で、vCenter Serverと同一ホスト上もしくは別ホスト上、いずれも可能です。インストールの途中、Auto Deployで利用するvCenter Serverの情報等入力しながらウィザードを進めます。インストール自体は極めて簡単ですぐに終わります。


 

3. DHCPサーバのインストール及び設定

DHCPサーバはVMwareからは提供されません。別途入手の上基本セットアップを実施します。下記は、WindowsServer標準のDHCPサーバの画面で、オプション値として、TFTPに関する以下の情報を定義します。

  ブートサーバーホスト名:TFTPサーバを指定

  ブートファイル名:undionly.kpxe.vmw-hardwired

 

 

4. TFTPサーバのインストール及び設定

TFTPサーバもVMwareからは提供されません。別途入手の上、セットアップをお願いいたします。まず、vCenter ServerからTFTPサーバに配置するファイルをダウンロードし、ZIPファイルを展開しておきます。


以下はtftpd32というフリーのTFTPサーバの場合の設定例です。TFTPサーバで指定されたホルダにダウンロード後、展開したファイルをコピーします。


 

5. vSphere PowerCLIを利用した起動ルールの作成

ここまで出来上がれば、あとは、Auto Deployのルールエンジンに対し、ルールを作成していくだけです。ルール作成にはvSphere Power CLIを利用します。

※vSphere Power CLIのインストール方法については、こちらをご確認お願いします。

5-1. ダウンロードしたオフラインバンドルをPower CLIに登録

  > Add-EsxSoftwareDepot C:\<path>\<Download Depot.zip>

5-2. イメージプロファイルを操作するため、変数($ip)に代入しておく

  > $ip = Get-EsxImageProfile

5-3. ルールを新規作成する。パラメータの意味は下記の通り。

  > New-DeployRule -Name <RuleName> -Item <option> -Allhosts or -Pattern <Option>

   -Name・・・作成するルールの名前を入力(必須)

   -Item・・・以下の3種類のうち、最低一つを定義してルールを作成。(一つ以上必須)

      ・起動イメージ(イメージプロファイル)を指定
      ・ホストプロファイルを指定
      ・vCenter Server上のインベントリの場所を指定

   -Allhosts・・・起動した全てのホストに対してルールを適応したい場合のオプション

   -Pattern・・・起動したホスト毎に特定のルールを与えたい場合のオプション

  ※ホストプロファイルは事前にvCenter Serverで作成したものを利用します。

5-4. ルールセットを有効化する。

  > Add-DeployRule -DeployRule <RuleName>

ここまで設定を行えば、Auto DeployサーバからESXiが起動します!
Auto Deploy環境では、リファレンスとなるESXiホストをセットアップした後、ホストプロファイルを取得。そのホストプロファイルを他のホストの起動に利用する、というのがベストプラクティスです。また、インベントリの場所をDRSクラスタに指定しておけば、クラスタのリソースが自動的に拡張され、仮想マシンの配置まで自動化されます。複数のサーバの起動をこの一つのルールで管理することが可能です。つまり、パッチ当て等の目的でイメージプロファイルを変更したい場合、ホストが何台あってもこのルールを変更すれば良いのです。

構築方法詳細については、こちらをご覧ください。

まとめ

Auto Deploy + ホストプロファイル + DRSを利用することにより以下のようなメリットが得られます。

・迅速・簡単・確実なサーバリソースの追加が可能
 サーバの電源をオンするだけで構成の完了したESXiが次々に立ち上がり、自動的にDRSクラスタ(仮想サーバ)にリソースが追加される

・ESXiイメージの一括管理
 多数のサーバへのパッチ当てもAuto Deployのルール1つを変更して再起動すればOK

・ホスト障害復旧も迅速かつ容易
 サーバを入れ替えて電源オンするのみ

是非ご利用ください。

Trend Micro Deep Security と vSpere Auto Dploy で大規模環境セキュリティを楽々管理する!

$
0
0

【はじめに】
 

前回ご説明させていただいた、大規模環境のインフラ管理負荷を劇的に改善するvSphere Auto Deploy。そしてアンチウィルスのオフロードを実現し、仮想環境のリソースの最適化を実現する、Trend Micro Deep Security。これら二つは、サーバ仮想化からデスクトップの仮想化まで、幅広く利用可能ですが、特に仮想マシンの集約率が高くかつ、ホスト台数の多くなりがちな仮想デスクトップ環境では、運用・管理面とリソースの有効活用面で大きな効果を発揮します。事実、この組み合わせで是非利用したい! というユーザーからのリクエストはしばしば頂いているのですが、実はこの組み合わせ、主にAuto Deploy側特有の、構成情報の保存・再現方法が確立していなかったため、期待通りに動作させるのがなかなか難しいという問題がありました。

今回、この状況に終止符を打つべく、VMwareとTrend Micro様で共同検証を実施、その結果、構築方法の確立に至りました!

その手法について、共同検証を実施頂きましたTrend Micro パートナービジネスSE部 姜(かん)様にBlogの執筆を頂きましたのでここに掲載させていただきます。姜様には、本Blogだけではなく、検証の内容をWhite Paperとしてまとめていただいていますので、こちらも是非ご確認ください。

【まずは、Deep Security(DS)ってどんな製品?】

物理、仮想、クラウドといった全環境に対応している、ホスト型統合セキュリティソリューションです。

セキュリティを実装していく上で必要とされる多層防御の考え方に基づき、様々なレイヤーにおいて最適な機能を提供し、全包囲網型の防御を実現致します。


【DS導入のメリット】

仮想化環境において考慮すべき下記懸念事項において特に有効です。

・アンチウィルスストーム

 -複数のVMにて同時ウィルス検索やUpdateによるシステムへの過負荷

・セキュリティの抜け・漏れ

 -最新パターンやセキュリティパッチ適用忘れ等の脆弱性の発覚

・仮想ネットワーク間の通信検疫

 -同じESXiホスト上にあるVM間での内部攻撃


【環境に合わせたモジュールの提供】

DSは環境にあわせて2種類のモジュールを用意しております。

物理やクラウド環境には従来通りのエージェント型、vSphere環境には仮想アプライアンス型(またの名をエージェントレス型)を提供しております。

今回は、「仮想アプライアンス型」 と 「Auto Deploy」 を連携させた共同検証を行っております。


【結局、Auto Deployとの連携で何がうれしいの???】

DSの紹介はこれぐらいにさせて頂き、本題である「Auto Deployと組み合わせる事で何が出来るの?」というところへ。

Auto Deployと連携することで、、、

1.ホストのデプロイメントにかかる工数を大幅に簡略化し、迅速なプロビジョニングを可能とします。

2.パッチメンテナンスにおいても、マスターとなるESXiイメージを更新するだけの一元管理が可能となり、運用工数の削減が可能となります。

 

例えば新規ホストの立ち上げは、

Ⅰ.作業者はサーバの電源をONにして、

Ⅱ.黄色枠部分の作業はAuto Deployにお任せ(ホストの起動のみでOK)して、

Ⅲ.仕上げに 「No4」 以降の作業を行う。

これだけです。


今回の検証の目的は、ずばり、、、

vSphere環境に最適な、DSの「仮想アプライアンス型」 とvSphereの「Auto Deploy」を組み合わせる事により

大規模環境の運用工数が大幅に削減可能であることを確認すること! そして、その方法を明らかにすること!!です。

(特にセキュリティに関する”手間”は敬遠されがちですから。。。)

【じゃあ、どうやるの?】

まず、Auto Deployと連携する事で、下記のようなESXiを複数台構築する環境においても、DSの実装がスムーズに行えるようになります。

今回はここを目標として、検証を進めていきます。

※なお、今回の検証に当たっては、潤沢な物理サーバが準備出来ませんでしたので、Auto Deploy部分は全てNested (ESXi上の仮想マシンとしてESXiを動作させる)環境で作成しており、Blog掲載の図もそちらをベースに記載させていただいています。Nested ESXi環境は今回のような検証用途として幅広く利用されていますが、正常動作はサポートされておりません。あくまで検証用途としてご利用ください。


■基本的な流れ

ここでは概要のみを説明させて頂きます。詳細な手順に関しては今回作成したWhite Paperをご参照下さい。

DSをAuto Deployと連携させるためには、6つのStepが必要となります。


■事前準備

下記、Auto Deploy環境やAuto DeployのベースとなるMaster ESXi、DS環境の構築は既に完了している事を前提としています。

Master ESXiはAuto Deployで起動するDeep Security用ESXiの構成上のベースとなるサーバです。Auto Deployで起動するESXiはこのMaster ESXi から取得したHost Profileを参照し、設定が行われます。

このため、Master ESXiには皆様の環境にあわせ、予め設定しておいてください。

例:vSwitch、Portgroup、NICチーミング、Datastore 、NTP、管理者パスワード、Syslogサーバ(Syslog.global.logHost)、ネットワークコアダンプ(ESXi Dump Collector)、ステートレスキャッシュ、ステートフル等の設定。

詳細は「Auto Deploy構築方法」を参照下さい。


※VA・・・Virtual Appliance、vSM・・・vShield Manager、DSM・・・Deep Security Manager

■Step1

Masterサーバのセットアップ①(vSEインストール及びF.Dの導入準備)


※vSE・・・vShield Endpoint

ここでは既に基本設定が完了しているMasterサーバに対して、Deep Securityの実装に必要となるvShield Endpointのインストールを実施。

FDインストールにまつわる構成変更やパラメータもあらかじめ実施の上、Host Profileを取得します。

■Step2

Auto Deployで使用するホスト起動イメージ(イメージプロファイル)の作成


※F.D・・・Trend Micro Filter Driver

ここではPowerCLIを用いて、下記VIBファイルをESXi のベースイメージに組み込みます。

・VMware vShield Endpoint

・Trend Micro Filter Driver

この組み込みにより、EndpointのインストールやF.Dのインストールを実施することなく、Auto Deployで起動するだけで上記VIBが利用可能となります。

■Step 3

Masterサーバのセットアップ②(DSVA有効化によるパラメータ変更)


※DSVA・・・Trend Micro Deep Security Virtual Appliance

Masterサーバを再起動しStep2で作成したイメージで立ち上げます。

vShield EndpointやF.Dが利用可能となっていることを確認し、、DSVAの配信及びDSVA有効化によるパラメータ変更を行います。

■Step 4

Auto DeployによるDeep Security用ESXiのデプロイメント


Step3までで、Auto Deployを実行するためのHost Profile及びDeep Security用イメージファイルの準備が完了しています!
新規ホストのセットアップは、ホストの電源をONするだけで完了です!!

■Step 5

DSVAの配信とVictimのセットアップ


※Victim・・・動作確認用仮想マシン

ここではDSMから各ESXiに対してDSVAの配信及びセットアップを行います。また動作確認として使用するVictimのセットアップ

も行います。

Victimの構築に関しては特別な要件はありませんので、Windows OSをセットアップしてください。

(テンプレートを作成して展開して頂ければと思います)

■Step 6

動作確認


あとは、Deep Securityの動作確認をすれば作業完了となります。

例:ウィルス対策、Firewall、脆弱性対策機能等。

【おまけ】

これは弊社検証環境のDeep Security管理画面ですが、このように20台近くのESXiを構築・管理するのも電源ONするだけなので

検証環境の構築にも心強い味方となります。


【まとめ】

Auto Deploy環境やMasterとなるESXiを構築するまでには、正直、多少の工数はかかります。

が、私のようなAuto Deploy初心者でも、実際に私が参照した 「Auto Deploy構築方法」等有益な情報が沢山あるので、やってみると思った程難しくはなかったです。

今回作成したWhite Paperには導入手順以外にも、Auto Deployならではの注意点、Tips集、トラブルシューティングや応用編としてアップグレード時の手順などを記載しております。

これを機に DS with Auto Deploy を利用して作業工数を削減し、節約出来た時間で他の事にトライするというのもありではないでしょうか?

最後までご一読頂き、ありがとうございました!

Viewing all 972 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>