Quantcast
Channel: VMware Japan Blog
Viewing all 972 articles
Browse latest View live

vCloud Airを使った災害対策 〜構築編 ・前半〜

$
0
0

引き続きソフトバンクC&Sの幸田さまより、機能強化された VMware vCloud Air のDisaster Recoveryサービスについて2回目の寄稿していただきます。それでは幸田さま、よろしくお願いします!!


みなさまこんにちは、ソフトバンクC&Sの幸田です。
一般的にDR環境は、オンプレと同等の環境を用意する必要があり、構築と運用の観点から敷居の高い代物となってしまいます。オンプレにある仮想マシンの退避先としてvCloud Airを使用していただくことによって、災害対策をより身近にご使用いただけることを目指しております。

今回は、そのvCloud Air DRサービスをご使用いただくための手順(前半)をご紹介します。

2-1

vCloud Air DR 2.0 の構築は3つのステップを踏みます。(オンプレミス側にはvSphere環境がある前提で話をすすめます。)

・vSphere Replication のデプロイ
・vCloud Air を退避先として登録
・仮想マシンの保護設定

本記事ではまずオンプレミス側での作業 vSphere Replicationの構築から実施していきます。できるだけ実作業に沿った画面付の手順のため、記事が長くなってしまいますが…最後までお付き合いください。

vSphere Replication のインストール

仮想マシンをvCloud Airへ退避させるためには、オンプレミス環境にvSphere Replicationをデプロイします。

vSphere ReplicationはVMwareよりOVFテンプレートが提供されている仮想アプライアンスです。デプロイ作業は短時間で完了します。まずはMy VMwareからvSphere Replicationをダウンロードします。

2-2

※バージョンの表記は当記事の作成時点のものです。最新版をダウンロードしてください。

ダウンロードしたデータの中にOVFファイルが含まれていることを確認しておきます。

2-3

vSphere 環境の管理画面から「OVFテンプレートのデプロイ」を選択し、vSphere Replicationのデプロイを開始します。

2-4

My VMwareからダウンロードしたOVFファイルを選択します。

2-5

2-6

詳細の確認画面では「次へ」を、利用規約の同意画面では「承諾」を選択したうえで「次へ」をクリックします。

2-7

2-8

vSphere Replicationの仮想マシン名とデプロイ先リソース(データセンタやフォルダ)を選択して「次へ」をクリックします。

2-9

割り当てる仮想CPU数(2または4)を指定して「次へ」をクリックします。

2-10

仮想ディスクを配置するデータストアおよび配置フォーマット(Thin Provisioning, Thick ProvisioningのLazy Zeroed またはEager Zeroed)を選択し、「次へ」をクリックします。

2-11

接続する仮想ネットワークを選択します。vCenter ServerおよびESXiの管理ポートが所属するネットワークとします。

2-12

IPアドレスの割り当てはDHCPまたは静的-手動から選択します。ここでは静的-手動を選択し、設定できる各IPアドレスを入力して「次へ」をクリックします。

2-13

任意の管理パスワードを入力します。また、デフォルトで組み込まれているデータベースを使用するか否かの選択(今回は使用することを選択)、およびvSphere Replicationが接続する管理ネットワークに持つIPアドレスの入力を行い、「次へ」をクリックします。

2-14

vCenter Server に対して、適切な連携が出来るか否かの診断が行われます。「バインドのステータス」に緑色のチェックが表示されていることを確認し、「次へ」をクリックします。

2-15

各設定の一覧が表示されるので、設定が正しいことを確認します。デプロイ後にパワーオンするか否かを選択して(今回はパワーオンを選択)、「終了」をクリックします。

2-16

以上でオンプレ環境における作業(vSphere Replicationの展開)は完了です。

次回はDR先である、vCloud Airの登録や、DRする仮想マシンの設定をみていきます!

第1回:vCloud Air DR 2.0 概要編
第2回:vCloud Air DR 2.0 構築編
・(前半) vSphere Replication のデプロイ 本記事
(後半) vCloud Air を退避先として登録/・仮想マシンの保護設定
第3回:vCloud Air DR 2.0 活用編
(前半) フェイルオーバー試験テスト/フェイルオーバー
・(後半)フェイルバック

The post vCloud Airを使った災害対策 〜構築編 ・前半〜 appeared first on Japan Cloud Infrastructure Blog.


vCloud Airを使った災害対策 〜構築編 ・後半〜

$
0
0

ソフトバンクC&Sの幸田です。VMware vCloud Air構築編の後半になります。

記事の流れ
1回:vCloud Air DR 2.0 概要編
第2回:vCloud Air DR 2.0 構築編
(前半) vSphere Replication のデプロイ
・(後半) vCloud Air を退避先として登録/・仮想マシンの保護設定 本記事 
第3回:vCloud Air DR 2.0 活用編

前回の構築編ではオンプレ環境にvSphere Replicationを構築しました。このvSphere Replicationが仮想マシンをDR先に飛ばすコンポーネントになります。今回はDR先の登録(もちろんDR先はvCloud Air)とDRしたい仮想マシン(保護したい仮想マシン)の登録方法をみていきます。

vCloud Air を退避先として登録

vSphere Replicationのデプロイ完了後、Web Clientのホーム画面に”vSphere Replication”のアイコンが出現しています。アイコンをクリックして、退避先のvCloud Air Disasterの指定を開始します。

2-2-1

「ホーム」タブを選択し、「管理」をクリックします。

2-2-2

下図のアイコン(マウスカーソルを合わせると「クラウドプロバイダを…」とメッセージが出現)をクリックします。

2-2-3

退避先となるvCloud Airの情報入力を行います。必要な情報はvCloud Airにログインして確認します。入力完了後、「次へ」をクリックします。

2-2-4

vCloud Airにログインし登録に必要な情報を取得します。
↓↓
2-2-5

(Web Clientに戻って)vCloud Airから取得した情報を入力します。

2-2-6

vCloud Air DR2.0の仮想データセンタを選択します。「選択されたオブジェクト」タブにも同様の仮想データセンタが表示されていることを確認し、「次へ」をクリックします。

2-2-7

2-2-8

入力したvCloud Air DR2.0の情報が表示されます。誤りが無いことを確認し、「終了」をクリックします。

2-2-9

しばらくするとvCloud Airへの接続が完了した旨のメッセージが「最近のタスク」に表示されます。ただしこの時点では、ステータスに「ネットワーク設定の欠落」との文言と赤色の警告マークが表示されています。ネットワーク設定を行うため、先ほど設定したクラウドをクリックし、表示された下図のアイコンをクリックします。

2-2-10

ここではDR2.0にバックアップされる仮想マシンが、クラウド上の仮想データセンタ内に用意されているネットワークのうち、どこへ接続されるようにするかを指定します。

2-2-11

別途vCloud Airへログインし、ネットワーク名を確認して接続を行います。ここでは”DR-NW”として設定します。選択後、「次へ」をクリックします。

2-2-12

誤りが無いことを確認して「終了」をクリックします。

2-2-13

しばらくしてステータスが「接続中」となります。

2-2-14

ここまででバックアップ先となるvCloud Air 仮想データセンタの指定は完了です。

仮想マシンの保護設定

最後に、オンプレミスにあるDR対象仮想マシンに対して設定を行います。オンプレミスの仮想マシンの状態は、定期的にvCloud Airへ自動同期されます。
このステップでは、同期を行う時間間隔や、保持する世代数を指定します。

オンプレミスにて、Web Clientの「ホストおよびクラスタ」のインベントリから、DRしたい仮想マシンを右クリックして、「すべてのvSphere Replicationアクション」のメニューを表示させ「レプリケーションの構成」を選択します。

2-2-15

表示された設定画面にて、「クラウド プロバイダに複製」を選択し「次へ」をクリックします。

2-2-16

これまでの手順で退避先として指定したvCloud Airの仮想データセンタを選択して「次へ」をクリックします。

2-2-17

仮想マシンのバックアップのデータ配置先を選択する画面が表示されます。ここではデフォルトのままとし、「次へ」をクリックします。

2-2-18

仮想マシンデータをコピーする際、OSの静止オプションと、レプリケーション時のネットワーク圧縮設定を指定します。ここではデフォルトのままとし、「次へ」をクリックします。

2-2-19

次に、バックアップする仮想マシンのRPO、およびインスタンス(仮想マシンのバックアップデータ)の保持期間と個数を設定します。ここでは、2時間毎のRPO、1日4個のインスタンスを6日間分保持する設定(合計24個保持)とします。「次へ」をクリックします。

2-2-20

設定の一覧が表示されます。誤りが無いことを確認し、「終了」をクリックします。

2-2-21

設定に問題がなければ仮想マシンの同期が開始され、Web Clientの「最近のタスク」内で進捗および完了が確認できます。また、vCloud Airのポータル画面に仮想マシンが追加されていることが確認できます。

2-2-22

以上、オンプレミスの仮想マシンをDR設定するまでの作業ステップをご紹介しました。

仮想マシンの保護設定は、対象仮想マシン分実施する必要がありますが、手順も簡素なものとなっておりますので、是非お試しください。次回の活用編では、フェイルオーバーテストの実施方法や、実際のフェイルオーバー・フェイルバックなどを実施する方法をご紹介します!

第1回:vCloud Air DR 2.0 概要編
第2回:vCloud Air DR 2.0 構築編
(前半) vSphere Replication のデプロイ
・(後半) vCloud Air を退避先として登録/・仮想マシンの保護設定 (本記事)
第3回:vCloud Air DR 2.0 活用編
(前半) フェイルオーバー試験テスト/フェイルオーバー
・(後半)フェイルバック

The post vCloud Airを使った災害対策 〜構築編 ・後半〜 appeared first on Japan Cloud Infrastructure Blog.

vCloud Airを使った災害対策~活用編・前半~

$
0
0

引き続きソフトバンクC&Sの幸田さまより、機能強化された VMware vCloud Air のDisaster Recoveryサービスについて寄稿していただきます。それでは幸田さま、よろしくお願いします!!


みなさまこんにちは、ソフトバンクC&Sの幸田です。
前回に引き続き、機能強化されたVMware vCloud AirのDRサービス、通称「DR 2.0」をご紹介させていただきます。今回の活用編では、クラウドへ退避した仮想マシンのフェイルオーバー、およびフェイルバックに関する操作を行う方法をご紹介します。

(前半)フェイルオーバー試験/フェイルオーバー試験のクリーンアップ/フェイルオーバー 本記事
(後半)フェイルバックの実行

DR2.0では、オンプレミスで有事の際、vCloud Airへ切り替え機能(フェイルオーバー)と切り戻し機能(フェイルバック)をもっております。その他、コピーした仮想マシンがvCloud Air上で本当に起動するかどうか?をテストすることも可能となっております。まずフェイルオーバー試験の手順からみていきます。

3-1-1

フェイルオーバー試験 (テスト)

DR 2.0は、ボタンひとつで仮想マシンをテスト起動する機能を持っています。この機能を使って、災害が発生して実際にフェイルオーバーをした際、システムが想定どおりに動作するかを確認することが可能です。

今回は、オンプレミス環境のWebサーバをvCloud Air DR 2.0に退避している状態を想定して、テスト起動の方法、およびテスト起動後のインターネットからのアクセス試験までの一連の手順をご紹介します。

vCloud Air DR 2.0 のテスト起動では、コピーされた仮想マシンの複製を一時的に生成して起動します。テスト起動中も、オンプレミスの仮想マシンとの差分を自動同期する処理は継続されます。そして、テスト終了後の複製のクリーンアップ(削除)はボタンひとつで可能です。オンプレミスで稼働中の仮想マシンは、テスト起動の影響を一切受けません。

早速フェイルオーバー試験を実施します。
vCloud Airにログインして仮想データセンタ内で「仮想マシン」タブを選択します。テスト起動を行いたい仮想マシンを選択し、「テスト」ボタンをクリックします。

3-1-2

確認のメッセージが表示されますので「はい」をクリックします。

テストリカバリを実施したいリカバリポイントを選択します。今回は最新の状態を選択します。

3-1-3

仮想マシンが起動されたことを確認します。

3-1-4

テスト起動が完了したら、ネットワーク接続やアプリケーションの実行など、動作確認を行います。この段階でフェイルオーバーを実行した場合に起きる問題点を洗い出し、システムの各種設定変更や運用フローの策定を行っておくことで、万が一災害が発生した場合の対処をスムーズに実行することができます。

フェイルオーバー試験のクリーンアップ (後処理)

仮想マシンのテスト起動が完了したら、「仮想マシン」タブで当該の仮想マシンを選択のうえ「クリーンアップ」ボタンをクリックします。

3-1-5

確認のメッセージが表示されますので「はい」をクリックします。

クリーンアップが実行され、仮想マシンはテスト起動前の状態(テスト起動前に、最後にオンプレミスの仮想マシンと同期したときの状態)に戻り、停止します。

3-1-6

フェイルオーバー

有事等によりオンプレミス環境から切り替える必要がでた場合、もちろん仮想マシンのコピー処理も停止します。vCloud Airにログインして表示される仮想マシンの状態からも見て取れます。

3-1-7

それでは、オンプレミスで動いている仮想マシンをvCloud Airに切り替えていきましょう。
切り替えする仮想マシンを選択して「リカバリ」ボタンをクリックします。

3-1-8

保存されている復旧可能なリカバリポイントが表示されます。復旧させたい時点を選択し「OK」をクリックするとフェイルオーバーが開始されます。今回は最新の状態を選択します。

3-1-9

フェイルオーバーの成功が表示され、選択した仮想マシンがパワーオンされます。

3-1-10

<補足>フェイルオーバー後のDNSなど外部サービスの切り替えについて

フェイルオーバーが完了し、仮想マシンがvCloud Air上で起動しただけでは、災害発生前と同様にサービスを提供することができず、追加で作業を行わなければならない場合があります。ひとつがDNSサーバによる名前解決設定の変更です。

例えばWebサービスなどでは、サービスをインターネットに公開しているグローバルIPアドレスは、オンプレミス環境とリカバリ先のvCloud Air上で異なったものとなります。そのため、オンプレミス環境で当該Webサービスへのアクセスが可能なグローバルIPアドレスに紐づいているDNS名(災害発生前のURLが http://drtest.company.com であれば、drtest.company.comに該当する部分)を、インターネットサービスプロバイダ等のDNSサービスにてvCloud Air上のグローバルIPアドレス(今回の例では 210.237.145.42 )に紐づくよう設定を変更する必要があります。
※今後、この辺りも自動化できる仕組みを提供する予定です。

次回は切り戻し(フェイルバック)の手順についてみていきます!

1回:vCloud Air DR 2.0 概要編
第2回:vCloud Air DR 2.0 構築編
・(前半) vSphere Replication のデプロイ
・(後半) vCloud Air を退避先として登録/・仮想マシンの保護設定
第3回:vCloud Air DR 2.0 活用編
・(前半) フェイルオーバー試験テスト/フェイルオーバー 本記事
・(後半)フェイルバック

The post vCloud Airを使った災害対策~活用編・前半~ appeared first on Japan Cloud Infrastructure Blog.

vCloud Airを使った災害対策~活用編・後半~

$
0
0

ソフトバンクC&Sの幸田さまより、機能強化された VMware vCloud Air のDisaster Recoveryサービスについて寄稿していただきます。それでは幸田さま、よろしくお願いします!!


みなさまこんにちは、ソフトバンクC&Sの幸田です。いよいよこの連載も最終回です!
引き続き、機能強化されたVMware vCloud AirのDRサービス、通称「DR 2.0」の活用方法、今回はフェイルオーバーとフェイルバックの手順をみていきます。

(前半)フェイルオーバー試験/フェイルオーバー試験のクリーンアップ/フェイルオーバーの実行
(後半)フェイルバックの実行 本記事

フェイルバック

vCloud Air DR2.0上で起動していた仮想マシンを、オンプレミス環境へ再び移行します。DR2.0ではネイティブフェイルバックに対応し、オンプレミスのvSphere Web Clientからの操作で、簡単に仮想マシンをオンプレミス環境へ戻せるようになりました。

フェイルバックの流れとしては、3つの流れで実施します。
-オンプレミス環境の再構築
-vCloud Air–>オンプレミス環境へのレプリケーション確立
-切り戻し(フェイルバック)

オンプレミス環境の再構築

新たに構築したオンプレミス環境で、本連載第2回の後半でご紹介した「vCloud Air を退避先として登録」までの作業(vSphere Replicationのデプロイ、vCloud Air DR2.0環境との接続設定)を実施し、vCloud AirのDR環境を「ターゲットサイト」として登録します。

vCloud Air–>オンプレミス環境へのレプリケーション確立

vSphere Web Clientにログインし、「vSphere Replication」アイコンをクリックして「ホーム」タブから「監視」を選択します。

3-2-1

3-2-2

「受信レプリケーション」を選択し、「クラウドプロバイダからのレプリケーションを構成」と表示される下記アイコンをクリックします。

3-2-3

現在レプリケーション元となるvCloud Airの仮想データセンタを選択し、「次へ」をクリックします。

3-2-4

オンプレミスに戻したい仮想マシンを選択し、「次へ」をクリックします。

3-2-5

※新たに構築し直したオンプレミス環境へのフェイルバックの場合、下記の様なエラーが表示されます。これは、旧オンプレミス環境とDR2.0間でレプリケーションの設定が残っているためです。

3-2-6

このような場合は、いったんフェイルバックの操作を中断して、不要なレプリケーションを停止してください。

レプリケーション処理を行うvSphere Replicationサーバを選択し「次へ」をクリックします。今回はデフォルトのまま進みます。

3-2-8

レプリケーション処理で仮想マシンのデータが保存されるオンプレミス上のデータストアを選択します。「編集」をクリックします。

3-2-9

ポップアップ画面からデータストアの場所を選択して「OK」をクリックします。

3-2-10

「次へ」をクリックします。

3-2-11

レプリケーション時のオプションを選択する画面が表示されますが、受信レプリケーション時は選択できませんので、このまま「次へ」をクリックします。

3-2-12

確認画面が表示されますので内容に問題なければ「終了」をクリックします。

3-2-13

設定に問題がなければ、vCloud Airからオンプレミスへのレプリケーションが開始されます。進捗は下部のウインドウで確認できます。また、vCloud Airポータル画面でも逆転したレプリケーションが実行されていることを確認できます。

Web Client画面
3-2-14

vCloud Air画面
3-2-15

ステータスがOKになれば完了です。

切り戻し(フェイルバック)

vCloud Airからオンプレミスへのレプリケーション確立後、いよいよ切り戻しです。
vSphere Web Clientにログインし、「vSphere Replication」アイコンをクリックして「ホーム」タブから「監視」を選択します。

3-2-

3-2-18

リカバリしたい仮想マシンを選択し、リカバリ開始のボタンをクリックします。

3-2-19

ウィザードに従いリカバリを実行します。まず、リカバリポイントを選択します。今回は過去のインスタンスは保持していないので「最新の変更の同期」を選択し「次へ」をクリックします。

3-2-20

次にvCloud Air環境にログインする際の「ユーザ名」と「パスワード」を入力します。入力後、「次へ」をクリックします。

3-2-21

vCloud Air上の移行元仮想マシンのシャットダウンが必要となる為、シャットダウンの方法を選択します。今回の仮想マシンはVMware Toolsがインストールされているので「ゲストシャットダウン」を選択し、タイムアウトを「5分」のまま「次へ」をクリックします。

3-2-22

オンプレミス側で仮想マシンをデプロイするフォルダを指定し、「次へ」をクリックします。

3-2-23

仮想マシンで試用するリソース(クラスタ、またはホスト)を選択します。下部に「検証が成功しました」と表示されれば、「次へ」をクリックします。
※以前の構成ファイルがオンプレミス上に存在し、警告が表示される場合は「はい」上書きを選択します。

3-2-24

確認画面が表示されるので設定に問題なければ、「終了」をクリックします。オンプレミス環境でのフェイルバックが始まります。

3-2-26

リカバリが開始されると、vCloud Air DR2.0上の仮想マシンが自動的にシャットダウンされます。オンプレミス環境でのリカバリが完了するとステータスがリカバリ済みの表示になります。

3-2-27

完了後、vSphere Web Clientのインベントリリストからリカバリした仮想マシンが正常に起動している事を確認します。
(vNICの再接続等、ネットワークの再設定が必要になる場合があります)

以上がvCloud Airからの切り戻し手順になります。
災害対策は敷居が高い…と思われがちですが、意外と簡単に構築できてしまいます。
お得なキャンペーン情報もありますので、これらを活用しつつ♪是非、vCloud Airをお試しください!!

1回:vCloud Air DR 2.0 概要編
第2回:vCloud Air DR 2.0 構築編
・(前半) vSphere Replication のデプロイ
・(後半) vCloud Air を退避先として登録/・仮想マシンの保護設定
第3回:vCloud Air DR 2.0 活用編
・(前半) フェイルオーバー試験テスト/フェイルオーバー 
・(後半)フェイルバック 本記事

The post vCloud Airを使った災害対策~活用編・後半~ appeared first on Japan Cloud Infrastructure Blog.

vSphere Integrated Containers テクノロジー ウォークスルー

$
0
0

vSphere Integrated Containers (VIC) は、アプリケーションの可搬性と俊敏性という長所を持つ Linux コンテナを、ハードウェアレベルの隔離と高い管理性という長所を持つ仮想化プラットフォーム vSphere と組み合わせたものです。前のエントリで、その概要を紹介しています。

今回のエントリでは、技術的な観点から、VIC のキーとなるコンポーネントを紹介していきます。VIC は、いくつかのコンポーネントから構成されており、コンテナの管理、実行、そしてモニタリングを行うことができます。

Virtual Container Host

Virtual Container Host (VCH) は、コンテナサービスを利用および制御するためのコンポーネントです。VCH は、開発者がアクセスできるように Docker API のエンドポイントを公開し、接続に必要なポートを適宜コンテナにマップします。それぞれの VCH は、vSphere リソースプールをベースとして、仮想マシンに加えてコンテナのコンピューティング リソースを提供します。ユーザは、ビジネス要件に応じて、複数の VCH をデプロイすることができます。たとえば、開発・テスト・プロダクションのためにリソースを分けるケースが考えられます。

それぞれの VCH はコンテナイメージのキャッシュを維持します。これはパブリックの Docker Hub もしくはプライベートなレジストリからダウンロードされたものです。コンテナイメージのファイルシステムのレイヤーも、個別の VMDK ファイルにマップされることで維持されます。これらは、VSAN、NFS もしくはローカルディスク上の vSphere のデータストアに格納されます。

vch-endpoint

vSphere Web Client Plugin

VIC の管理機能は vSphere Web Client のプラグインとして提供され、管理者は VIC を vSphere Web Client を通じて管理できます。コンテナ特有の情報は Web Client のさまざまな場所に統合されています。下記に示すように、Virtual Container Host の作成のためには、ウィザードが用意されています。

vch-wiz-ready

Instant Clone と Just Enough VM

VIC のアーキテクチャでは、コンテナがそれぞれ別々の仮想マシン内で動作します。これにより VIC は、強力なリソースマネジメントと、セキュリティのためのハードウェアレベルの隔離を実現しています。

ひとつのマイクロサービスを稼働させるために仮想マシンを立ち上げることは、一見、強引な感じがするかもしれません。普通にやると、コンテナの軽量さというメリットが活かせなくなってしまうからです。

VMware は、vSphere 6 の新機能である Instant Clone テクノロジーを使って、コンテナの軽量さを仮想マシンでも実現しています。Instant Clone を使うと、一つの親 VM から、コンテナを載せた子 VM を、高速かつ効率的にフォークすることができます。この技術は、 親 VM と子 VM のメモリの共通部分における重複を回避することで、VM の軽量なコピーを提供します。もちろん、コンテナが他のワークロードと不用意にコミュニケーションすることはきちんと防いでくれます。

Linux コンテナは、実行のために Linux カーネルを必要とします。VIC では、Linux カーネルは VMware の Project Photon によって提供されます。Photon OS は、カーネルおよび少数のリソースしか含まず、とても軽量な OS になっています。そして、個々のコンテナには、アドミニストレーションやパッケージ管理のためのバイナリもありませんし、init システムもないですし、Docker コンポーネントでさえありません。VCH 上でのみ Docker テクノロジーを利用しています。

この非常に軽量な Linux カーネルとフォークされた仮想マシンのコンビネーションは、コンテナを走らせるための「Just enough VM」を生み出します。Just enough VM とは、コンテナを走らせるために十分なリソースと機能を備えた、非常に軽量な VM という意味です。Just enough VM は、それでいて、VM の優れたセキュリティ・管理機能を受け継いでいます。

一貫性のあるユーザ エクスペリエンス

ネイティブな Docker コマンドラインクライアント、もしくは、グラフィカルな Web Client プラグインを使うかどうかに関わらず、VIC 上でコンテナを稼働させるために必要な情報に同様にアクセス可能です。管理者は、コンテナのリソース消費や、ポートのマッピング状況、ベースイメージの情報などに関するインサイトを得ることができ、全体のインフラをより効果的に管理することができます。VIC は、トラブルシューティングやアプリケーションの監査などを行う際の、管理者、開発者、そしてアプリケーションオーナー間でのコミュニケーションを促進することができるでしょう。

vch-containers1

このようなグラフィカルな情報に加えて、コンテナに関する様々なアクションが、関連するvSphere コマンドにマップされています。たとえば、コンテナの停止や削除は、関連する VM の電源オフや削除、といったようにです。

—–

vSphere Integrated Containers は、vSphere 仮想インフラ上で標準化されたクラウドネイティブアプリケーションを動作させるための、高速道路の入り口となり得ます。VIC について、下記のビデオから、より詳細な情報を得ることもできます(英語)。

vSphere Integrated Containers は現在テクノロジープレビューの段階です。もしこれ以上の情報が必要でしたら、VMware のアカウントチームにぜひコンタクトしてください。

関連エントリ: vSphere Integrated Containers – Technology Walkthrough https://blogs.vmware.com/vsphere/2015/10/vsphere-integrated-containers-technology-walkthrough.html

The post vSphere Integrated Containers テクノロジー ウォークスルー appeared first on Japan Cloud Infrastructure Blog.

vRealize Automation 7 の発表 – SDDC とアプリを統合テンプレート化し、セルフサービスで利用可能に

$
0
0

今週バルセロナで開催されている VMworld Europe 2015 にて、クラウド管理プラットフォームのコア製品である VMware vRealize Automation の最新版 7.0 が発表されました。

vRealize Automation は、様々な IT サービスをユーザがセルフサービスで利用するための仕組みを提供する製品で、IaaS だけでなく、アプリケーション展開の自動化、さらにはワークフローによるカスタムサービスなど、IT 部門が提供するサービスの多くをこの自動化プラットフォームに載せることができるようになっています。

本エントリでは、vRealize Automation 7.0 の主な新機能/機能強化について説明します。

統合サービスブループリント

vRealize Automation 7.0 の新機能の中で、もっともお伝えしたいものが「統合サービスブループリント」機能です。統合サービスブループリントでは、仮想マシンだけでなく、ネットワークやセキュリティ、そして OS やミドルウェアなど、さまざまなコンポーネントを使ってアプリケーション システムのテンプレートを作ることができます。

しかもこのテンプレートは、デザイン キャンバス上でのドラッグ アンド ドロップなど、マウスのシンプルな操作で直感的に作っていくことができます。3 層構成アプリケーションを、ネットワーク・セキュリティ構成も含めて、ボタン 1 つでデプロイするテンプレートを組むことも容易です。ライセンスチェックや課金システム登録などシステム構成時に必要な処理も、ワークフローとしてこのテンプレートの中に取り込めます。

BP-Canvas

NSX との高度なインテグレーション

vRealize Automation 7.0 では、ネットワーク仮想化プラットフォーム VMware NSX と更に緊密な統合が図られており、アプリケーションのニーズに合わせて、仮想ネットワークや仮想ロードバランサー、分散ファイアウォールなどを動的に構成することができます。これにより、ネットワーク・セキュリティの設定作業がほぼ自動化されるため、プロビジョニングに必要な時間が大きく短縮されます。

Network-and-Security

Blueprint as Code

エンタープライズの IT 部門では GUI での操作が一般的に好まれますが、開発者のカルチャーを持つ DevOps チームは、コードとしてインフラの構成を管理することを好みます。このような DevOps チームのニーズに応えるために、vRealize Automation 7.0 の統合サービスブループリントは、可読性のあるテキストファイルとしてブループリントをインポート/エクスポートすることができるようになっています。

BP-as-Code

拡張性の強化

vRealize Automation 7.0 は、外部のツールを呼び出したり既存システムと統合したりする拡張性をいままでよりもシンプルにしながら機能強化しています。たとえば、新機能 Event Broker では、拡張処理を行うイベントの条件と、その際に実行するワークフローを柔軟に定義できるため、拡張処理を容易に追加できます。また、vRealize Automation 7.0 では API も強化されており、API を通して拡張処理を記述することが前よりも容易になっています。

また、vSphere だけでなく vCloud Air や AWS などにも対応しているため、ハイブリッドクラウド環境のテンプレートを作成することもできます。

Endpoints

シンプルになったセットアップ

vRealize Automation 7.0 では、セットアップから起動までの時間を大きく短縮しています。新しいインストール ウィザードはシステムを正確にかつ素早く構成することを可能にします。アーキテクチャも、認証とシングルサインオンのコンポーネントを含むなどシンプル化されているため、今までの 1/6 の時間でセットアップを終えることができます。

installwizard

vRealize Automation 7.0 に興味を持たれた方は、ぜひこちらから登録をお願いいたします。製品がリリースされ次第、メールでご連絡を差し上げます。

関連エントリ:  vRealize Automation 7.0 – Accelerating Time to Value

The post vRealize Automation 7 の発表 – SDDC とアプリを統合テンプレート化し、セルフサービスで利用可能に appeared first on Japan Cloud Infrastructure Blog.

VMware Workstation 12 PROを使って仮想マシンをvCloud Airに移行してみよう〜前編〜

$
0
0

ソフトバンク C&Sの幸田章さんより新しくでたVMware Workstationを使って、VMware vCloud Airへの移行について寄稿していただきました。それでは幸田さん、よろしくお願いいたします!

皆さんこんにちは!ソフトバンク C&Sの幸田です。
仮想マシンを簡単に移行できるのがVMware vCloud Airの大きな特徴ですが、このPC向け仮想化ソフトウエアVMware Workstation (以下Workstation)もvCloud Airと非常に相性のいいツールとなってきました。今回前編と後編にわけて、前編はまずWorkstationで少し遊んでみます。後編は実際にWorkstation上の仮想マシンをvCloud Airに移行する手順を紹介していきます。

VMware Workstation 12 PROを使って仮想マシンをvCloud Airに移行してみよう
(前編) VMware Workstationを使ってみよう 本編
(後編) vCloud Airへ仮想マシンを移行してみよう

PCにWorkstation 12 Pro のインストールしてみよう

ではまず、PCにWorkstation 12 Proをインストールします。Workstation 12 ProはVMwareからは評価版(30日間)が無料で公開されており、VMwareのサイトからダウンロードすることができます。後で正規ライセンスを購入した際もライセンス キーを更新するだけで正規版に変換でき、Workstation 12 Proを再インストールする必要がありませんので、試しにインストールして使ってみるのに評価版を利用するのも良いかと思います。
URL:https://www.vmware.com/jp/products/workstation/workstation-evaluation.html

今回はWindows用の評価版をダウンロードしてインストールします。

1-1

インストーラがダウンロードできたら、実行してインストールを行います。インストール先の選択などがありますが、特別設定変更する項目がなければ、ウィザードに従ってただクリックしていけば簡単にインストールできます。最後にライセンスキーの入力画面が表示されますが、後でも入力できますので「完了」でOKです。

1-2

※インストールウィザードの途中で選択する追加機能の「拡張仮想キーボード ドライバ」は、各国語対応のキーボードや特殊なキーを持つキーボードを適切に処理する為のドライバです。

1-3

1-4

これでWorkstation 12 Proのインストールは完了です。最初にWorkstation 12 Proを起動するとラインセンスキーの入力か評価版利用かを聞かれます。ライセンスキーをお持ちであれば入力し、評価版利用であればメールアドレスを入力することでWorkstation 12 Proの利用を開始することができます。

vSphere環境とも連携できてしまいます

次は、 Workstation 12 ProにオンプレミスのvSphere環境を登録します。ESXiやvCenter Serverを登録することができ、vSphere環境上の仮想マシンのコンソール操作や設定変更をWorkstation 12 Proの画面から実行することができます。
今回はvSphere 6 のvCenter Serverを登録し連携させます。

1-5

まず、Workstation 12 Proの起動した画面から「ファイル」-「サーバに接続」の順にクリックします。設定画面が表示されますので「サーバ名(vCenter ServerのFQDNもしくはIPアドレス)」「ユーザ名(管理者権限のあるユーザ)」「パスワード」をそれぞれ入力し「接続」をクリックします。正常に接続できればWorkstation 12 ProのライブラリにvSphere環境上の仮想マシンが表示されます。

1-6

※セキュリティ証明書の警告が表示された場合は「接続する」を選択します。

これでvSphere環境の登録は完了です。これでvSphere Web Clientで仮想マシンの操作をするように、Workstation 12 Proの画面からvSphere環境上の仮想マシンへのコンソール接続や電源操作、設定変更を実施することができます。下記の画面キャプチャは一例です。
(左側)電源操作:仮想マシンを右クリックし「パワー」を選択
(右側)仮想マシンの設定変更:仮想マシンをシャットダウンし、「仮想マシンの設定を編集する」を選択

1-7

vSphere環境の仮想マシンをWorkstationへもってこれます (V2V)

それではいよいよvSphere上の仮想マシンをWorkstation 12 Proへ移行(コピー)します。まず対象の仮想マシンをパワーオフします。今回はWindows Server 2008R2の仮想マシンを移行します。対象の仮想マシンを右クリックし「管理」-「ダウンロード」の順にクリックします。

1-8

ポップアップ画面で移行後の仮想マシン名を入力し、新しい仮想マシンを保存する場所を選択します。今回の仮想マシンの保存場所はデフォルトで選択されているパスのまま進みます。入力後「ダウンロード」をクリックすると仮想マシンの移行が開始されます。

1-9

暫く待つと仮想マシンの移行が完了し、ライブラリのマイコンピュータに移行した仮想マシンが表示されます。これで仮想マシンの移行(V2V)は完了です。電源ボタンをクリックしパワーオンすれば、Workstation 12 Pro上で移行した仮想マシン実行することができます。下部キャプチャ画面の右側が移行した仮想マシンをパワーオンしコンソール接続している画面です。

1-10

Workstation 12 Pro上で仮想マシンのネットワーク設定をしてみよう

これまでの手順で仮想マシンの移行を行いましたが、ネットワークについての設定は何も行っていません。Workstation 12 Pro上の仮想マシンを既存の物理ネットワークに参加させたり、インターネットにアクセスさせたりする為には設定変更が必要な場合がほとんどです。ネットワーク接続のタイプには一般的な構成として「NAT」「ブリッジ」「ホストオンリー(PC内部で完結するネットワーク)」の3種類があります。

1-11

今回は移行した仮想マシンを「NAT」で接続設定し、インターネットに接続します。
まず、「編集」-「仮想ネットワークエディタ」をクリックし、ポップアップされた仮想ネットワークエディタ画面から「設定の変更」をクリックします。ユーザアカウント制御が表示された場合は「続行」を選択します。

1-12

次に、NATの設定を行います。今回は前述したNAT構成イメージ図のネットワークアドレス構成で設定します。仮想ネットワークエディタ画面上部のタイプNATのインターフェースを選択します。VMnet情報が「NAT」に選択されている事を確認し、下部の「サブネット」と「サブネットマスク」を設定したい値で入力します。今回は「172.16.100.0 」「255.255.255.0」で設定します。次に「NAT設定」をクリックします。表示された画面でゲートウェイのアドレスを設定します。これはWorkstation 12 Pro上で動作している仮想マシンのデフォルトゲートアドレスになり、Workstation 12 Proが動作しているPCの仮想インターフェースに割り当てるIPアドレスです。今回は172.16.100.1で「OK」をクリックします。

1-13

今回仮想マシンはDHCPでIPアドレスを割り当てますので、「ローカルDHCPサービスを試用してIPアドレスをVMに配布する」にチェックを入れ「DHCP設定」をクリックします。DHCPで配布するアドレス範囲を「開始IPアドレス」と「終了IPアドレス」に入力し(今回は172.16.100.100~200)「OK」をクリックします。これで仮想ネットワーク設定(NAT構成)は完了ですので「OK」をクリックします。

1-14

次に仮想マシンの仮想NICをNAT構成の仮想ネットワークに接続します。対象の仮想マシン名を右クリックし、「設定」をクリックします。仮想マシンの設定画面が表示されますので「ネットワークアダプタ」を選択しネットワーク接続を「NAT」に変更します。変更後「OK」をクリックし完了です。

1-15

これでNAT接続構成の設定は完了です。仮想マシンにコンソール接続してインターネットにアクセスできるか確認してください。接続できない場合は仮想マシンが認識しているネットワーク設定やWorkstation 12 Proが動作している物理PCの仮想インターフェースを確認してみて下さい。仮想ネットワークエディタで設定したIPアドレスと、仮想マシンや物理PCが認識しているIPアドレスが異なっている場合は設定変更する必要があります。

1-16

これでvSphere上の仮想マシンをWorkstation 12ProへV2V し、インターネットにアクセスさせることができました。GUI操作で簡単に仮想マシンを移行できることをご確認頂けたかと思います。また、逆にWorkstation 12Pro上の仮想マシンをvSphere上で移行することも同じような手順で実行でき、仮想マシンを行ったり来たりさせることがWorkstation 12Proなら簡単にできます。
前編は以上です。次回はvCloud Air VPC OnDemand上へ移行する『V2C(Virtual to Cloud)』の手順をご紹介させて頂きます。

VMware Workstation 12 PROを使って仮想マシンをvCloud Airに移行してみよう
(前編) VMware Workstationを使ってみよう 本編
(後編) vCloud Airへ仮想マシンを移行してみよう

ソフトバンク C&S 幸田 章/市島 拓弥

The post VMware Workstation 12 PROを使って仮想マシンをvCloud Airに移行してみよう〜前編〜 appeared first on Japan Cloud Infrastructure Blog.

VMware Workstation 12 PROを使って仮想マシンをvCloud Airに移行してみよう〜後編〜

$
0
0

ソフトバンクC&Sの幸田章です。前回はVMware Workstationを使ってvSphereと連携したり、vSphereの仮想マシンをWorkstationに移行する方法を紹介しました。今回はその仮想マシンをVMware vCloud Airへ移行してみます!!

vCloud Air VPC OnDemand環境との連携

 仮想マシンの移行の前にWorkstation 12 ProにvCloud Air VPC OnDemand環境を登録が必要です。連携の登録をすることで仮想マシンのコンソール操作や電源操作をWorkstation 12 Proの画面から実行することができます。

2-1

今回連携させるvCloud Air VPC OnDemandの環境は下記のようにオーストラリアリージョン(仮想マシン3台)と西日本リージョン(仮想マシン1台)を利用している環境です。

2-2

 それではWorkstation 12 ProにvCloud Air VPC OnDemand環境を登録します。「ホーム」画面から「VMware vCloud Airに接続」をクリックします。クリックすると「ユーザ名」「パスワード」を入力する画面がポップアップ表示されますのでvCloud Air VPC OnDemandにログインするユーザID・パスワードを入力し「接続」をクリックします。

2-3

正常に接続できればWorkstation 12 ProのライブラリにvCloud Air VPC OnDemand環境上の仮想マシンが表示されます。

2-4

これでvCloud Air VPC OnDemand環境の登録は完了です。Workstation 12 Proの画面からvCloud Air VPC OnDemand環境上の仮想マシンへ、コンソール接続や電源操作を実施することができます。但し、割当リソースの変更など、設定変更操作はWorkstation 12 Proの画面からはできませんので、vCloud Airのポータル画面から行う必要があります。

下記の画面キャプチャはvCloud Air VPC OnDemand上のWindows仮想マシンにコンソール接続し、その後に仮想マシンのパワーオフを行っているところです。

2-5

仮想マシンのハードウェアバージョン変更

 登録が完了したので、すぐにvCloud Air VPC OnDemandへ仮想マシンを移行したいところですが、その前にひとつ作業が必要です。vCloud Air上では仮想マシンのハードウェアバージョンが「vSphere5.5でサポートされているバージョン(4,7,8,9,10)」である必要があります。今回、前編でvSphere6から移行してきた仮想マシンのハードウェアバージョン11で作成した仮想マシンなので、このままだと移行ができません。(2015年10月現在の状況です)

2-6

Workstation 12 Proでは、仮想マシンのハードウェアバージョンの変更ができます。vSphereではハードウェアバージョンのアップグレードはできますが、ダウングレードはできません(ダウングレードする際はハードウェアの一部機能が削除・変更される場合があるので注意が必要です)。
次の手順で、仮想マシンのハードウェアバージョンを変更(ダウングレード)します。ライブラリの仮想マシン名を右クリックし「管理」-「ハードウェア互換性の変更」を順にクリックします。

2-7

 ハードウェアの互換性変更ウィザードが表示されますので、変更後のハードウェアバージョンを選択します。今回は「10.0」を選択し、「次へ」をクリックします。

2-8

 次に、変換前に仮想マシンのクローンを作成するかを選択します。今回は「この仮想マシンを変更」を選択し、選択した仮想マシン自体に変更を加えます。選択後「次へ」をクリックします。
※もし元の仮想マシンに変更を加えたくない場合は、「この仮想マシンの新しいクローンを作成」を選択することでハードウェアバージョンをダウングレードしたクローンの仮想マシンを作成することができます。

2-9

確認画面が表示されるので「完了」をクリックすると変換が開始されます。変換終了後「閉じる」をクリックします。

2-10

 終了後、仮想マシンの詳細を確認するとハードウェアバージョンがダウングレードされている事が分かります。これでダウングレード作業は完了です。

2-11

vCloud Airへ移行(V2C)

 それでは、いよいよ変換したWindows Server 2008R2の仮想マシンをvCloud Air VPC OnDemandへ移行(コピー)します。まず対象の仮想マシンをパワーオフします。次に対象の仮想マシンを右クリックし「管理」-「アップロード」の順にクリックします。

2-12

 仮想マシンアップロードウィザードが表示されるので「VMware vCloud Air」を選択し「次へ」をクリックします。

2-13

 次に、アップロード先での仮想マシン名を入力し、デプロイするリージョンとVDCを選択します。今回は「西日本リージョン(jp-jpanwest-1-10.vchs.vmware.com)」の「VDC1」を選択します。最後に「完了」をクリックするとアップロードが開始されます。

2-14

 アップロードの進行具合は、下記左側のキャプチャ画面のようにゲージで表示されます。また、右側のキャプチャ画面のようにvCloud Airポータル画面でも移行作業が行われている事が確認できます。

2-15

以上の手順でアップロード作業は完了です。移行完了後、vCloud Airポータルで移行した仮想マシンが確認できます。電源オンし、通常の仮想マシンとして利用することができます。

2-16

 下記キャプチャ画面は移行した仮想マシンに対しコンソール接続している画面です。vCloud AirポータルとWorkstation 12 Proのどちらの画面からも仮想マシンを操作することができます。

2-17

なお、アップロードした仮想マシンはどのネットワークにも接続されていないので、vCloud Airポータルから追加設定が必要ですのでご注意下さい。

2-18

※参考
Workstation 12 Proドキュメントセンター
Workstation 12 Proリリースノート

以上、前編・後編にわたりWorkstation 12 Pro を使ってvCloud Airへの移行をご紹介しました。Workstation 12 ProはvSphere、vCloud Air VPC OnDemandともに簡単に連携でき、仮想マシンの移行もクリック操作で簡単にできることがご確認頂けたかと思います。なおWorkstation 12 Proでは物理環境からのP2V2Cも簡単に実施することも可能です。
※Workstationを使ったP2V2Cの動画はこちらからダウンロードして閲覧可能です。
仮想化基盤をオンプレミス・PC・クラウドに拡張し益々ご活用頂ければと思います!

VMware Workstation 12 PROを使って仮想マシンをvCloud Airに移行してみよう
(前編) VMware Workstationを使ってみよう
(後編) vCloud Airへ仮想マシンを移行してみよう 本編

ソフトバンク C&S 幸田 章/市島 拓弥

The post VMware Workstation 12 PROを使って仮想マシンをvCloud Airに移行してみよう〜後編〜 appeared first on Japan Cloud Infrastructure Blog.


VMware Photon Controller をオープンソース化

$
0
0

VMwareは、クラウド ネイティブ アプリのために 2 種類のプラットフォームを用意しています。既存の vSphere を拡張することでコンテナに対応する「vSphere Integrated Containers」と、コンテナに最適化された新しいプラットフォーム「VMware Photon Platform」です。本記事では、Photon Platform のコア コンポーネントである Photon Controller について説明します。

Photon Controller の GitHub ページを公開

Photon Platform は、大規模なクラウド ネイティブ アプリの環境を作るための新しいプラットフォームで、コンテナ専用の軽量なマイクロバイザーである「Photon Machine」と、分散型の制御系である「Photon Controller」から構成されます。Photon Platform は、分散型で API 指向、そしてマルチテナントに対応可能であり、超大規模で瞬時に構成が変更されるようなクラウド ネイティブ アプリ環境に合わせて設計されています。

8 月に VMworld でクラウド ネイティブ アプリのためのこの新しいプラットフォームを発表したとき、Photon Controller をオープンソース化すると私たちは発表しました。本日、この約束を私たちが果たしたことをお伝えできることを嬉しく思います。私たちは、Photon Controller の GitHub ページを公開しました。

スクリーンショット 2015-11-18 7.03.26

開発者や顧客、パートナーはこの新しいテクノロジーに直接アクセスすることができます。もしあなたがコードの内容またはフォークに興味がある開発者なら、GitHub ページをぜひご覧ください。

もしあなたが、このソフトウェアをどのように使えるかに興味があるなら、Getting Started Guide をぜひご覧ください。このドキュメントに沿って作業すれば、あなたのデスクトップ/ラップトップ上で完全な Photon Controller システムを起動することができます。

Photon Controller のアーキテクチャ

Photon Controller は、分散型で高度にスケーラブルなファブリックとして構築されています。Photon Controller 自身が、クラウド ネイティブ アプリのアーキテクチャに基づいて設計されていると言えるでしょう。Photon Controller の技術的なアーキテクチャを下図に示します。

PC-Architecture2

Photon Controller は優れた分散型のスケジューラを実装しています。各スケジューラ サービス ノードは、ツリー上の階層型に組まれています。各ノードは負荷および利用率に関する重要な統計情報を親ノードに送り、親ノードはその情報をベースにリクエストを子ノードにルーティングします。このようにして、スケジューラは負荷が特定の箇所に集中することを防ぎます。

Photon Controller はたくさんの疎結合のコンポーネントやサービスから構成されます。それらは Apache Zookeeper にエンドポイントとして登録され、分散型のコーディネーションを通して管理されます。Zookeeper を使うことで、アクティブ/アクティブ型のスケールアウトのサービスやアクティブ/パッシブ型のサービスなどを構成できます。

外部 API は REST/JSON インタフェースで提供されています。外部 REST/JSON API は、スケールアウトされる API サーバのセットを通して公開され、状態は永続的なデータベース CloudStore に保持されます。ロードバランサーが API サーバの手前に置かれます。

CloudStore は、コンテナ、クラスタ、VM、ディスク、ネットワークなどの、Photon Controller で管理される全てのオブジェクトに対する情報を管理します。CloudStore は、高いスケーラビリティや可用性の要件に合うように設計されています。

CloudStore は、私たちがまた本日オープンソース化した Project Xenon という、全く新しいフレームワークを用いて実装されています。Xenon は、高度にスケーラブルなコンポーネントをマイクロサービスの集合体として構築することを可能にします。すべてのサービスは Java を使って、そしてほとんどのサービスが Xenon を使って書かれています。

Photon Controller により管理される各物理ホストは、RPC インタフェースを提供するエージェントを持っており、これを通してホストと各コンポーネントが通信します。このエージェントはハイパーバイザー非依存で設計されていますが、いまのところ ESX 用に python で書かれており、ESX とパブリック API を通して通信します。

多くの特別なコンポーネントが、他のコンポーネントの健全性を監視しています。たとえば、’Chairman’ はスケジューラの健全性とツリートポロジを監視しています。そして、’Housekeeper’ コンポーネントがクリーンアップ処理を行います。システムはセルフヒーリングを指向した設計になっているため、クリーンアップは外部 API で開始されるのではなく、内部のコンポーネントによって開始され、単にログを残すだけでなく自動的な解決を図るようになっています。

Photon Controller を利用されたら、ぜひ Google Group からフィードバックをお願いします!

また、Photon Platform 自体は、現在プライベートベータとして提供されています。ご興味ある場合は、ぜひヴイエムウェアの担当までお知らせください。

 

参考記事: VMware Photon Controller Deep Dive

参考記事: vSphere Integrated Containers テクノロジー ウォークスルー

参考記事: 企業のコンテナ利用を加速する vSphere Integrated Containers

The post VMware Photon Controller をオープンソース化 appeared first on Japan Cloud Infrastructure Blog.

VMware の VSAN 担当SEが語る: 1/4 〜 従来のストレージと VSAN の違い〜

$
0
0

みなさまこんにちは!
VMware で VSAN を担当しているSEの小佐野 舞(Osano Mai)です。
先日vForumというイベントが開催されましたが、そこで VMware Virtual SAN (以下 VSAN)のセッションは立ち見がでるほど多くの方に興味を持っていただきました。そこでもっと多くのみなさまに私の VSAN 愛を伝えたく、この場をお借りして VSAN についてわかりやすくご紹介いたしますね。

VMware の VSAN 担当SEが語る:
1/4 〜 従来のストレージと VSAN の違い 〜
2/4 〜 VSAN のアーキテクチャその1 信頼性と性能編 〜
3/4 〜 VSAN のアーキテクチャその2 運用管理/バックアップ編 〜
4/4 〜 VSAN オンラインハンズオンラボをやってみよう 〜

ストレージの復習

では、まず製品について語り始める前にストレージの復習をしていきたいと思います。
shared storage

ストレージというとデータをためる大きな箱、ディスクが何本も入っている箱、サーバのデータの保管場所であり、仮想化環境では仮想マシンの格納スペースとするためには欠かせないものです。

ストレージベンダーさんが提供する様々なストレージ機器は、見た目はもちろん異なりますが、組み込まれているハードウェアコンポーネント、内部のストレージ専用ソフトウェア(OS)の動き、操作方法、可用性の実現方法、パフォーマンスも製品によって異なります。
サーバのように汎用的ではなくストレージは専門性が高い機器、と言うことができると考えます。

vSphere 仮想化環境では複数のホストから同一の領域へアクセスすることにより仮想マシンの可搬性や可用性をより高めることができますので、共有ストレージをFC(ファイバチャネル)、iSCSI、NFS等の接続方式でホストに提供します。

従来のストレージはディスクをグループ化して可用性や耐障害性を高めるRAIDが主流で、例えばRAID5の場合、最低3本以上のディスクを1つのグループとしてデータとパリティから構成し、LUNを切り出します。ESXi サーバが使用する領域を切り出すストレージ作業フローを図にまとめてみました。

あらかじめRAIDグループを作成し、容量を決めてLUNを切り出し、サーバに見せるためのスイッチの設定をして、どのサーバに見せるかを決めて、LUN の数だけこれら作業をくりかえし、ようやく!ハイパーバイザからデバイスとして見えてきます。ここからさらにどのLUNがどれだっけと迷いながらもデータストアの追加をして、仮想マシン用のストレージプールができあがります。

ちょっと物理ストレージから仮想化に話をもどして。
最近、Software Defined 〜〜〜 という言葉をよく耳にされているのではないでしょうか。
サーバの仮想化はすでに一般化され、多くのお客様は物理からの仮想化への移行、またはどちらも並行して使用している環境が多いのでは、と思います。サーバ仮想化、ネットワーク仮想化が数年前から先行し、そしてストレージ仮想化です!

サーバ仮想化により日々進化する高性能なCPU、集積率の高いメモリを効率的に使用することができるようになりました。

ネットワークもサーバ仮想化が進む中、物理的な変更を最小限にして仮想化環境に最適な仮想ネットワークサービスのプロビジョニングを実現しています。

ストレージの仮想化技術は古くから様々な種類がありRAIDもそのひとつです。
現在、Software Defined Storage(SDS)というと、従来のような専用機器ではなく汎用的なサーバのディスクを使用したものがふえています。

VSAN は多くのお客様に使われはじめています!

そろそろ VSAN のことを話したくなってきたので、VMware のストレージ仮想化製品である VMware Virtual SAN はどのような製品であるか、説明していきます。

一言で表すと、『サーバ内蔵ディスクを共有ストレージとする、vSphere に完全に統合された機能』です。

vsan summry02

機能と書いている理由はカーネルに組み込まれている = ストレージ機能はハイパーバイザの一部だからです。

これは他社ストレージ仮想化製品にはなく、VMware Virtual SAN だけ!
サーバ仮想化はCPUやメモリを抽象化してプールとし仮想マシンそれぞれに割り当てますが、VSAN のストレージ仮想化は内蔵ディスクの抽象化を行いストレージプール=共有データストアを提供します。

2014年3月、vSphere 5.5u1 のリリース時に新機能として Virtual SAN が初めて登場しました。2015年3月、4年ぶりのメジャーアップデートとなる vSphere 6.0 と共に VSAN 6.0 を発表、ベースイメージの大幅な改良や様々な機能追加があり、9月には vSphere 6.0u1 / VSAN 6.1 が リリースされ、現在2500社以上のお客様にお使いいただいています。VSAN も日々進化しており、バージョンを重ねるたびに、さらに使いやすくなってます。

実際 VSAN はSaaSの基盤で使われたり、VDIで使われたり、小規模な環境で使われたり、と多岐にわたりますが、vSphere で仮想化された環境であればどんな仮想マシンでもだいじょうぶです!

VSAN には次のような特長があります。

フラッシュデバイスをフロントに配置することで高速化 — 内蔵ディスクが持つ “性能” を活用
サーバだけで完結します — 内蔵ディスクの “共有” と “データ保護” を実現
仮想マシン目線のストレージ運用管理 — RAID , LUN の概念が存在しないので “とてもシンプル
簡単導入—VSAN 用ネットワークを作って、VSAN の有効化、ポリシーで定義グループを作って、仮想マシンを作るだけの”4ステップ

従来のストレージと大きく違うのは、専用のストレージ機器いらず、専門的なストレージの知識いらず、で共有データストアが手に入ります。
実際に VSAN を体感したお客様に本当にこれだけでいいの?サーバ管理者にもできる!と驚かれることが多いです。

汎用的なハードウェアで VSAN を構成

VSAN はハイパーバイザの一部なので、まずサーバ本体、そしてキャッシュとして使用されるフラッシュデバイス、データ格納用に使用される磁気ディスクまたはフラッシュデバイスから構成されます。性能の異なるデバイスを2層式にすることでフラッシュデバイスの性能を活かしつつ、データは単価の安いデバイスへ保管、と両方の良いとこ取りをします。

vsan hw

フラッシュデバイスと磁気ディスクを組み合わせたハイブリッドモデル、フラッシュデバイスのみで構成するオールフラッシュモデルの2種類があります。最近流行のオールフラッシュストレージとしてもお使いいただけますよ。

ここまで VSAN の特長とハードウェア構成の概要をお話ししてきましたが、第2回はより詳細な VSAN のアーキテクチャに踏み込んでいきたいと思います!

vForum 2015 では実際に VSAN をお使いいただいたお客様の事例講演も複数あり、Solution Showcase VSAN ブースも大変にぎわい、いろいろな方とお話できて楽しい時間を過ごしました。お越しいただいた皆様には重ねてお礼申し上げます。ありがとうございます。

ではまた第2回でお会いしましょう!!

VMware VSAN 担当SE Osano Mai
osano

VMware の VSAN 担当SEが語る:
1/4 〜 従来のストレージと VSAN の違い 〜
2/4 〜 VSAN のアーキテクチャその1 信頼性と性能編 〜
3/4 〜 VSAN のアーキテクチャその2 運用管理/バックアップ編 〜
4/4 〜 VSAN オンラインハンズオンラボをやってみよう 〜

The post VMware の VSAN 担当SEが語る: 1/4 〜 従来のストレージと VSAN の違い〜 appeared first on Japan Cloud Infrastructure Blog.

VMwareテクニカルトレーナーよりワンポイントレッスン〜リソースプール活用術〜

$
0
0

みなさん、こんにちは!VMwareテクニカルトレーナーのSatokoです。

前回、ハイパーバイザが物理のCPUやメモリをどのように仮想マシンに割当しているのか、またオーバコミットとは?という話をさせていただき、大きな反響をいただきました。仮想基盤におけるCPUやメモリのリソース関連の話はとても奥が深いのですが、イメージするだけで理解が深まります。

CPUやメモリを効率よく使うのは、今までとは違った考え方で運用していく必要があります。ですが、すこしの知識を身につけることによって、限られた資源を有効活用することができます。本記事がその参考になればと思います。

vSphere におけるリソース管理の概念について段階を追ってみてみましょう。
前回までは仮想マシン単体での話がメインでしたが、今回からは仮想マシンをある単位で束ねて運用していく話をすすめていきます。そこで重要になるのが考え方がクラスタです。
クラスタについては、新入社員ブログも参照ください

クラスタ= ESXi を束ねて論理的に大きなサーバにみせることですね。

1-1

クラスタの機能を段階的に活用する例をみていきましょう。

ステップ1:クラスタの有効化
ステップ2:クラスタにおける仮想マシンの配置
ステップ3:クラスタ内で論理的にグルーピングする

ステップ1:クラスタの有効化

まず、ここで押さえておきたい用語はクラスタです。クラスタとは ESXi を束ねて大きな物理サーバとして使用していただく方法です。個々の物理サーバの管理から複数のESXiを束ねて仮想基盤を使用する手法です。

クラスタ化すると、仮想マシンはどの ESXi にのっているかインベントリー情報だとわからなくなってしまいます。これはクラスタという論理的なコンピュータ上で仮想マシンが動いていることを表しているので、どこのESXi で動いているかは、あまり気にしないで!という意味でもあります。

クラスタ化していない場合は、仮想マシンとESXi(物理的なサーバ)の紐付きがわかるように表示されています。

1-2_disableCluster

クラスタ化すると、この仮想マシンはこのクラスタ上で動いている!という考えにかえる必要がありますね。

1-3_enableCluster

このクラスタ化をすることによって使用できる代表的な機能としては、vSphere HA ( 以下HA )ですね。HA はクラスタリソースをみながら、仮想マシンを起動していきます。たとえば、クラスタの25%のCPUを余剰リソースとして確保しておく等、クラスタ全体を論理的なサーバとして、物理サーバの障害時にどうリソースを確保できるか考えます。

ステップ2:クラスタ内における仮想マシンの配置

HAの使用だけでは、クラスタ化して、ESXiを束ねてみたものの….個々の仮想マシンは物理サーバを意識して配置することになります。そこで次に出てくる課題としては、クラスタ内で、仮想マシンをどこに配置すればいいのか?ということです。

「仮想マシンは特に移行することを考慮していないので、決められた ESXi サーバに展開している」

という方、意外と多くいらっしゃるのではないでしょうか。

ただ、この手法ですと、せっかくクラスタ化したにもかかわらず、個々の ESXi に何台仮想マシンがのるか? を意識する必要があるので、物理環境とリソース管理という観点でもあまりかわりがなく、少しもったいない気がします。

HAだけだと….仮想マシンとESXiサーバの紐付きから解放されない

1-4DRS_off

仮想マシンはどこにでも動いて、クラスタ内のリソースを有効に活用する 、というのが仮想基盤の大きな特徴なので、個々の物理サーバとの紐付きからの束縛から解放されたいものです。

そのため、クラスタ内のCPUやメモリの負荷をみながら、仮想マシンを最適な物理サーバに自動的に配置してくれる機能があります。(DRS:vSphere Distributed Resource Scheduler)

クラスタ=大きなコンピュータとして扱われているので、その中でどこの物理的なCPU/メモリ資源を使うかどうかは、DRS任せになります。仮想マシンが最適に配置されるということは、CPUメモリ資源の使用の偏りをなくしクラスタ全体をまんべんなく使用できる環境に整えてくれます。

DRSを使っていると、ESXi は1コンピュータリソースとして存在するだけで、仮想マシンは最適な場所で動くのです。

1-5DRS_On

ちなみに弊社のお客様調査によると、このDRSを使っているお客様とそうでないお客様の統合率の差は約2倍ほどとなっているそうです。限られたサーバ資源を有効的に活用できる、といえそうですね。DRSの詳細はこちらも参照ください。

ステップ3 :クラスタ内で論理的にグルーピングする

クラスタ資源が足りなくなったら、物理サーバの追加となります。とはいいつつも….なかなかすぐに物理サーバを追加できない…という場面も考えられますね。ここで紹介したいのが「リソースプール」という機能です。

このリソースプール、クラスタ内で仮想マシン群をグルーピングすることができます。

1-6RP

例えば、本番系グループと開発系グループという2つのグループを作ったとします。ここでは、ESXi サーバ3台でクラスタを構築するとします。この3台で構成されたクラスタで、本番系グループと開発系グループの資源の調整がとれます。

季節的に本番系のリソースが枯渇した場合は、本番系にリソースが多く割り当てられるような設定をしたり、開発系リソースが必要な際は、優先的に開発にリソースが割り当てられる設定をすることができます。

1-7RP2

このリソースプールを使えるようになると、クラスタリソース自体を余計にふやすことなく、クラスタ内で資源の調節することも可能になります。このリソースプールはDRS機能が必須になりますので、方法2についてももちろん自動的に実施されています。

いかがでしたでしょうか。今回はクラスタの概念からはじまり、限りあるリソースを有効的に活用できる機能であるDRSやリソースプールをみてきました。イメージがつかめたところで、次回からは設定方法やリソースプール作成の際に知っておきたい話をしていきますね。お楽しみに!!

vSphereのリソースプール活用術
第1回:クラスタのおさらい (本記事)
第2回:リソースプールを活用しよう -設定編-
第3回:リソースプールを活用しよう -管理編-

VMwareテクニカルトレーナーよりワンポイントアドバイス 過去の記事
第1回:VMware vSphereにおけるCPU・メモリの考え方編
第2回:シェアと予約を押さえよう!

執筆協力
VMware Partner SE 中村朝之

The post VMwareテクニカルトレーナーよりワンポイントレッスン〜リソースプール活用術〜 appeared first on Japan Cloud Infrastructure Blog.

明解Virtual Volumes! 仮想環境におけるこれからのストレージ管理

$
0
0

みなさま、こんにちは。

お客様の情報システム部門を訪問すると、非常に多くの方が仮想環境のストレージ管理に以下のような課題を抱えています。

「ストレージの性能管理が困難」
「ストレージの専任管理者が不在」
「ストレージと仮想マシンの紐付けが困難」

今回はそのような課題を解決する、FUJITSU Storage ETERNUS DX による Virtual Volumes について、富士通株式会社 プラットフォームソフトウェア事業本部 稲木様に執筆いただきましたので、ご紹介いたします。
( 富士通様には先行して弊社英語版 Blog にも Virtual Volumes について執筆いただいています )

 

はじめに

2015年2月に VMware vSphere 6.0 がリリースされ、半年以上が経ちました。vSphere 6.0 でサポートされた数多くの新機能に魅力を感じ、導入を検討されている方も多いと思います。

その新機能の中でも VMware vSphere Virtual Volumes ( 以降、VVOL ) は、これまでの ESXi のブロックストレージ管理の枠組みを打ち破る画期的な機能です。ストレージ装置の機能をフルに活かすことができることに加え、Software-Defined Storage として高度にインテグレートされています。

その VVOL が生まれてきた背景やメリットについては、既にポストされた VMware 岡野様の記事に詳しく紹介されています。ここで解説されているとおり、VVOLを使うには対応したストレージ装置を使う必要があり、VVOL で使えるストレージの機能 ( ストレージのケーパビリティ ) は、ベンダーによって様々です。

富士通も、VMware のパートナーとして、この VVOL にいち早く対応したベンダーのひとつです。

ここでは、VVOL をサポートした FUJITSU Storage ETERNUS DX を元に、VVOL の良さ、そしてETERNUS DX が提供するストレージのケーパビリティを簡単にご紹介させていただきます。

最後に、VVOL の実践的な使い方について、あるユースケースを元にわかりやすく説明したマンガをご紹介させていただこうと思います。きっと、これまでのストレージ管理の課題に共感していただけるとともに、VVOL による新しいストレージ管理のアドバンテージを理解していただけるものと思います。

 

ストレージ装置側でのボリューム作成は不要

これまでのブロックストレージでは、ストレージ装置の専用コンソールからボリューム ( LUN ) を作成しておき、それを VMFS でフォーマットしてデータストアとして認識させる必要がありました。ボリュームが必要になる度に、ストレージ装置のコンソールと vCenter Server の画面を行ったり来たりして行うこの作業は煩雑で、ストレージ装置の知識も必要でした。

VVOL では、その都度ボリュームを作るという作業は必要ありません。ストレージコンテナ ( ETERNUS DX では仮想ストレージプールといいます ) を導入時に作っておくだけで、あとは仮想マシンの作成時に、必要に応じて適切なボリュームが自動的に切り出され、仮想ディスクとして割り当てられるのです。

f01

 

仮想マシン単位のボリューム運用

ストレージ装置が持つ豊富な機能 ( QoS: Quality of Service や Tiering ( 自動階層制御 ) 、ハードアシストを使った高速なコピーなど ) は、ボリューム ( LUN ) 単位に行われることがほとんどです。このため、1VMFS に1仮想マシンを配置していた、なんて方も多いのではないでしょうか。

VVOL は、このボリューム ( LUN ) と仮想ディスクを1対1に対応づける技術です。ですから、VVOL を使えば仮想ディスク単位で、つまり仮想マシン単位で、ストレージの豊富な機能が利用可能になるわけです。

f02

 

FUJITSU Storage ETERNUS DX のケーパビリティ

VVOL は、仮想ディスクを通してストレージの豊富な機能が使えるようになる技術でもあります。ですからストレージベンダーの特徴が出せる機能である、とも言えるでしょう。

FUJITSU Storage ETERNUS DX では、以下のようなケーパビリティを提供しています。

  • 自動階層制御
  • QoS 自動化
  • データ暗号化
  • 高速キャッシュ
  • バックアップ、リストア

これらのケーパビリティは、それぞれを組み合わせて使うことが可能です。また、各ケーパビリティにはさらに詳細な設定をすることも可能です。これらにより、サービスレベルに応じたストレージポリシーを定義することができます。

f03

f04

 

 

ファイルレベルのリストアも可能

FUJITSU Storage ETERNUS DX で提供しているケーパビリティのひとつであるバックアップ、リストアは、ハードアシストによる高速コピーの機能を使って実現されています。そして、単にハードの機能をケーパビリティとして提供しているだけにとどまらず、富士通ならではの機能も提供しています。

  • バックアップのスケジュール設定
  • スナップショットバックアップの世代数設定
  • スナップショットバックアップとクローンバックアップの同時作成
  • 仮想マシンのリストアとファイルレベルのリストア

特にリストアの機能は、仮想マシン単位のリストアだけでなく、ファイル単位でもリストアができます。仮想マシンを止めずに、必要なファイルだけを復元することも可能です。

f05

 

VVOL の効果を、ユースケースを通して楽しく理解

ここでは、仮想環境におけるよくある課題と、その解決となる VVOL の具体的な適用シーンを、マンガでご紹介したいと思います。

ご紹介するのは、とあるシステム会社の営業マンの門田先輩と情くん。二人はお客様システムの課題解決のため、コンビで東奔西走しています。さて、お客様のストレージ管理の課題とは?!門田先輩と情くんは、その課題を VVOL でどのように解決したのでしょう。

つづきは、こちらをどうぞ。

 

まとめ

いかがでしたでしょうか。VVOL はこれまでの ESXi のブロックストレージ管理にあった課題を解決し、ストレージ装置が持つ豊富な機能を享受でき、なおかつ Software-Defined Storage としてvSphere に高度にインテグレートされたすばらしい機能です。そして、実際に使ってみると、おどろくほど簡単です。

ぜひ VVOL を使ってみてください。

 

もっと詳しくという方は

より詳しい情報を富士通のサイトでご紹介していますので、ぜひお越しください。

http://storage-system.fujitsu.com/jp/partners/vmware/vvol/

また、以下より、実際の動作のデモ動画がご覧いただけます。

 

The post 明解Virtual Volumes! 仮想環境におけるこれからのストレージ管理 appeared first on Japan Cloud Infrastructure Blog.

日本語環境が増えました!VMware製品の無償評価環境 ハンズオンラボ

$
0
0

VMware では、お手元のWebブラウザからオンライン越しにVMware 製品の「実機」を操作して使用方法を実習できるVMware ハンズオンラボを拡大し、翻訳を進めております。特に日本語は一番翻訳が充実しており、こちらの日本語版ハンズオンラボポータルから製品を評価いただけます。
これ以外の製品についても以下の通り、多くのマニュアルが日本語化されています。これらのマニュアルおよび、言語設定を変更する方法(PDF) を参考ハンズオンラボをご活用ください。

language_logos

ハンズオン ラボ ポータルで、ラボのエントリの横に新しいバッジが追加されました。これらのバッジは、ラボのマニュアルを利用できる言語を示しています。上の画像に示すとおり、英語、スペイン語 (中南米)、日本語、韓国語、ポルトガル語 (ブラジル)、および簡体字中国語のバッジがあります。また、ハンズオン ラボ ポータルでこれらのバッジをクリックすると、その言語で利用できるすべてのラボを確認できます。

マニュアルは PDF と HTML でもご利用いただけます。次の表からマニュアルをダウンロードまたは表示できます。表でラボの SKU および名前をクリックすると、そのラボに直接アクセスできます。

 ラボ型番 & 名称E 日本語 韓国語 ポルトガル
語(ブラジル)
中国語
(簡体字)
スペイン語
HOL-CHG-1965 – vSphere チャレンジ ラボ PDF / HTML PDF / HTML
HOL-HBD-1681 – VMware vCloud Air – vSphere 管理
者向けの vCloud Air Jump Start
PDF / HTML
HOL-HBD-1684 – VMware vCloud Air – Disaster Recovery PDF / HTML
HOL-HBD-1686 – VMware vCloud Air – Data Services PDF / HTML
HOL-MBL-1651 – Horizon 6 の高 度な技術概念のすべて PDF / HTML PDF / HTML
HOL-MBL-1652 – 変化するデスク トップのデリバリと管理  PDF / HTML PDF / HTML
HOL-MBL-1656 – Horizon Air:詳細確認と管理 PDF / HTML
HOL-MBL-1657 – AirWatch – モバイルデバイス管理とコンソー ルの基本的なカスタマイズ PDF / HTML
HOL-SDC-1603 – VMware NSX の概要 PDF / HTML PDF / HTML PDF / HTML PDF / HTML PDF / HTML
HOL-SDC-1608 – Virtual SAN 6の新機能 PDF / HTML PDF / HTML
HOL-SDC-1610 – vSphere with Operations Management の基礎 PDF / HTML PDF / HTML PDF / HTML
HOL-SDC-1628 – EVO:RAIL の概要 PDF / HTML

ぜひハンズオンラボをお試しください!

The post 日本語環境が増えました!VMware製品の無償評価環境 ハンズオンラボ appeared first on Japan Cloud Infrastructure Blog.

VMware Virtual SAN 6.2 の発表 – 重複排除などの新機能で、ハイパーコンバージドの成長をさらに加速

$
0
0

ヴイエムウェアは先週、ハイパーコンバージド インフラ戦略の要となる VMware Virtual SAN (VSAN) の新バージョン 6.2 を発表しました。VSAN 6.2 には、重複排除やイレイジャー コーディングなど、重要な新機能が追加されています。

本エントリでは、VMware のハイパーコンバージドの戦略について改めて説明するとともに、VSAN 6.2 の新機能の概要をお伝えします。

VMware は「ハイパーコンバージド ソフトウェア」をパートナーに提供

ハイパーコンバージド インフラ (HCI) は、業界標準の x86 サーバ上にコンピューティングとストレージの機能を集約するため、仮想インフラやプライベート クラウドを従来よりもシンプルで低コストに構築することができます。

このメリットは確実に市場に浸透しつつあり、実際、VMware の HCI ビジネスは非常に速いスピードで成長しています。VSAN はまだ正式リリースから 2 年未満ですが、グローバルですでに 3,000 以上のお客さまがいます。そして、VSAN の 2015 年のビジネスは、前年比で 200% 以上の伸びを記録しました。

Slide01

この市場における VMware の戦略は、ハードウェア ベンダー/システム ベンダーが HCI ソリューションを容易に提供できるようになるためのソフトウェア スタックを提供することです。vSphere、vCenter、そして VSAN から構成されるこのソフトウェアスタックを、私たちは VMware ハイパーコンバージド ソフトウェアと呼んでいます。これは緊密に統合された「ひとつ」のソフトウェア スタックで、HCI ソリューションを提供するパートナー エコシステムの基礎になります。

VMware ハイパーコンバージド ソフトウェアは、さまざまなベンダーが多様な HCI ソリューションを提供することを可能にします。もしオープンな x86 サーバを幅広く選択したいのなら、Virtual SAN Ready Node を使うことができます(100 種類以上のサーバが認定されています!)。ハードウェアと緊密に統合して HCI アプライアンスとして出荷することもできます。そして、ネットワーク仮想化を行う VMware NSX なども加えた完全な SDDC 環境を作る EVO SDDC として仕立てることもできます。

さらに今回、私たちは VSAN Ready Node プログラムの拡張を発表しました。OEMベンダーは  VSAN の構成を済ませた状態で出荷できるようになり、導入がより容易になります。

Slide02

ここまで、VMware の HCI に対する戦略を説明してきました。ここからは、今回発表された VSAN 6.2 の新機能について説明していきます。

重複排除とデータ圧縮

VSAN 6.2 の最も重要な新機能の 1 つが、重複排除とデータ圧縮です。重複したデータが取り除かれ、さらに圧縮されるため、データ容量を大幅に削減することができます。その効果はデータ特性に依存しますが、私たちは、重複排除と圧縮を組み合わせることで、2〜7 倍の容量削減効果が得られると試算しています。重複排除と圧縮はオール フラッシュ構成でサポートされます。

gooddedupe

重複排除と圧縮は、キャッシュ階層からキャパシティ階層へのデステージングの際に実行されます。クラスタレベルでこの機能をオン・オフできます。また、重複排除はディスクグループ単位で行われるため、ディスクグループが大きければ大きいほど高い重複排除率が期待できます。圧縮は重複排除の後に実施されます。

Slide03

イレイジャー コーディング

ネットワーク越しの RAID 5 および RAID 6 はイレイジャー コーディングとよく呼ばれます。VSAN 6.2 では、ネットワーク越しの RAID 5 と RAID 6 をサポートしています。RAID 5 では、3+1 の構成で、4 ホストのうち 1 ホストまでの故障に耐えることができます。削減効果を例として挙げると、ミラーに基づいた今までのバージョンでは 20GB のデータセットにたいして 40GB の容量が必要になっていたのが、RAID 5 なら 27GB で済みます。

Slide04

データの重複排除と圧縮、およびイレイジャー コーディングの新たなサポートにより、私たちはオール フラッシュ環境における容量効率を最大で 10 倍向上できると試算しています。

Quality of Service

VSAN 6.2 では、VMDK あたりの IOPS の制限値を設定する QoS 機能を使うことができます。この機能を使えば、同じノードやクラスタにいる他の仮想マシンが IO リソースを使いすぎて、パフォーマンスの問題を引き起こすような状況を容易に避けることができます。この設定は、vSphere の Storage Policy-Based Management (SPBM) 機能を通してデプロイされます。

サービス提供者は、同じクラスタ/ストレージ プールを使いながら、サービスの差別化を行うことができます。顧客はさまざまなワークロードをミックスして、それらが相互に影響を与えることを防ぐことができます。

性能モニタリング サービス

性能モニタリングサービスは、ユーザが vCenter から既存のワークロードを監視することを可能にします。具体的には、マクロ レベルのビュー(クラスタ レベルでのレイテンシ、スループット、IOPS など)と細かな粒度でのビュー(ディスク グループでのキャッシュ ヒット レシオなど)の双方を vCenter 内で確認できます。情報を API でサード パーティ モニタリング ソリューションと共有することも可能です。性能モニタリング サービスは、VSAN 上の分散データベースとして動作しています。

Perf monitor

—–

ここまで、VSAN 6.2 の新機能を説明してきました。技術の詳細は、テクニカル ホワイト ペーパーで確認いただくこともできます。VSAN に興味の湧いた方は、ぜひハンズオンラボなどで操作感など試していただければ幸いです。

文/桂島  航、図/高橋  洋介

参考リンク:  Introducing VMware Hyper-Converged Software

参考リンク:  What’s New – VMware Virtual SAN 6.2

The post VMware Virtual SAN 6.2 の発表 – 重複排除などの新機能で、ハイパーコンバージドの成長をさらに加速 appeared first on Japan Cloud Infrastructure Blog.

VMware NSX と IBM SoftLayer による大陸間 vMotion デモ

$
0
0

IBM と VMware は、企業のハイブリッド クラウド導入を促進するために、新たな戦略的パートナシップを発表しました。内容についてはプレスリリース(英語)を参照いただければと思いますが、本記事では、この提携が持つ大きなポテンシャルを、ある技術のデモンストレーションを通してわかりやすく紹介したいと思います。

その技術とは、大陸間という長距離での VM のライブマイグレーション です。今回のデモでは、オーストラリアのシドニーで稼働中の VM を、アメリカのダラスまでライブマイグレーションしています。

02.22.16-NSX-Cross-vCenter-Networking-2

このデモでは、3 つのキー コンポーネントが組み合わされて使われています。

  1. Long Distance vMotion:  vSphere 6.0(昨年 3 月リリース)からサポートされている、地理的に離れたサイト間でライブ マイグレーション(vMotion)をするための新機能です。vMotion を行うシステム間で 150 ms までの遅延を許容できます。
  2. NSX Universal Logical Switch:  VMware NSX 6.2(昨年 8 月リリース)からサポートされている、(地理的に離れた)vCenter 間で「1 つの」論理的なスイッチを作るための新機能です。vCenter 間で同じ L2 ドメインを利用できるので、移行前後で同一の IP アドレスを VM が保持できるようになり、vCenter 間でシームレスに VM を移行することが可能になります。
  3. IBM SoftLayer プライベート ネットワーク バックボーン:  すべての SoftLayer データセンターとネットワーク拠点は、IBM SoftLayer のプライベート ネットワークによって接続されています。このプライベート ネットワークはパブリック ネットワークとは切り離されているので、高い品質を持つとともに、サーバ間のデータの移動を無料で行なうことを可能にします。

これらのコンポーネントはそれぞれ、今日時点で全て利用できるものです。これらを組み合わせて、大陸間での長距離 vMotion をお見せしようと言うわけです。

デモのビデオは約 10 分で、下記のリンクから見ることができます。リソースには IBM SoftLayer ベアメタル キャパシティを使っており、地理的に離れた 2 つのサイトに、それぞれホスト 3 台の小さなクラスタが構成されています。クラスタには vSphere、NSX、Virtual SAN が、それぞれ vCenter のインスタンスと共に配備されています(いわゆるハイパーコンバージドです)。データセンターおよび vCenter にまたがる形で NSX Universal Logical Switch が配備され、この論理スイッチが、地理的に離れたデータセンターを同一の IP アドレス スペースで接続する仮想ネットワークを形成します。

まず片方のサイトに、小さな Linux の VM(16GB HDD & 1GB メモリ)が 4 つデプロイされ、上記で配備された Universal Logical Switch に接続されます。そして、その中から 1 つの VM が、SoftLayerのプライベート ネットワークのバックボーンを使ってまず vMotion されます。地理的に離れたデータセンター間での vMotion です。2 分間で VM はこの「旅」を終え、VM はサービスの切断も無く安全に移動されます。同じ論理スイッチ/L2 ドメインに接続されたままなので、IP アドレスを打ち直したり、VM を修正したりする必要はありません。

02.22.16-NSX-Cross-vCenter-Networking-1

まとめると、vSphere、NSX、そして IBM SoftLayer のプライベート ネットワークを組み合わせることで、VM を大陸間でスムースに移行できることがデモで示されました。この技術は、顧客がオンプレミスからクラウドへワークロードを移行したり、クラウドを用いて DR を行なったりすることを今までよりも容易にするでしょう。

このデモは、この戦略的パートナーシップがもたらすであろう多くの価値の中の 1 つのシンプルな例です。今後も、このような VMware の製品・技術を活用したハイブリッド クラウドの進展にご注目いただけると幸いです。

参考リンク:  Cross Continental vMotion with VMware NSX and IBM SoftLayer Cloud

The post VMware NSX と IBM SoftLayer による大陸間 vMotion デモ appeared first on Japan Cloud Infrastructure Blog.


第1回 VMware Virtual SAN(VSAN)搭載アプライアンスVxRailとは? ~Vxrail & VSAN Overview ~

$
0
0

ハイパーコンバージドインフラを実現するアプライアンスVxRailとは?

みなさんこんにちは、富士ソフトの山本祥正です。今回は昨今注目を浴びているハイパーコンバージドインフラを実現するアプライアンス「VxRail」を5回 に分けてご紹介します。 今回はVxRailと通常のvSphere + VSAN構成の違い、VxRailの導入について紹介していきたいと思います。

YoshimasaYamamoto

VxRailによるハイパーコンバージドインフラ

VMwareではハイパーコンバージドインフラを実現するソフトウェアスタックをハイパーコンバージドソフトウェアと呼んでいます。 ハイパーコンバージドソフトウェアは、vCenter Server、vSphere、VSANの3つになります。

ハイパーコンバージドインフラは従来通りサーバーにハイパーコンバージドソフトウェアを導入し実現することも可能ですが、VxRailにて実現することも可能です。 VxRailはハイパーコンバージドソフトウェアだけではなく統合管理ソフトウェアや、データ管理ソフトウェア、リモート保守が入っており、これらが一体化したアプライアンスとして提供されています。

VxRailを利用することでより簡単にハイパーコンバージドインフラ実現できます。

ブレない製品コンセプト(簡単導入・簡単管理・簡単拡張)

アプライアンスとして提供されるVxRailでは簡単導入、簡単管理、簡単拡張の3つのポイントが基本コンセプトになっています。 初期設定から完全にGUIが利用できて、さらに当然のことながら日本語です。 シンプル&グラフィカルなVxRail ManagerでvSphereの統合管理が可能です。

08

もちろんvSphereと同様の運用がしたければvSphere Web Client(及びvSphere Client)を利用することも可能です。 ハードウェアの管理もこのVxRail Managerで統合管理できるようになりました。

簡単導入の部分を少し掘り下げてみていきましょう。 VxRailは導入時の事前チェックプロセスが洗練されています。例えば指定されたVSANネットワークが正しく通信できない場合や、DNSサーバーやNTPサーバーへきちんと疎通ができない場合は警告が促されるようになっています。

error_2

初期セットアップのトラブルの殆どがネットワーク関連の設定不足や設定ミスだったと言う経験から実装された検証機能なのかと思います。これでさらに導入がシンプル&スマートになるでしょう。

そして管理面ではシャットダウンがGUI上のボタン1つで可能になっているため、メンテナンス時などの電源操作をシンプルに行うことができます。しかも、実際にシャットダウンする前には「正常な状態であるか」をきちんとチェックしてくれます。問答無用で電源断するようなことは無いので、この点でも安心&確実な運用を支援してくれるはずです。

shutdown

ラインナップの充実!!

現在のVxRailでは1CPUのローエンドモデルとオールフラッシュモデルが追加されて用途にあったモデルを選びやすくなっています。

(2016年7月27日現在)

Hybrid-vxrail

allflash-vxrail

また2台目以降のアプライアンスは4ノード単位ではなく1ノード単位での増設が可能です。またディスクスロットに空きがあればディスク単位での追加が可能になりますし、その後にも色々な機能拡張が予定されています。

今回はVxRailのイントロダクションとして、ここまでにしておきたいと思います。次回以降、初期セットアップや管理画面の操作性、ゲストOSの作成・管理、拡張などをご紹介してきたいと思いますのでご期待下さい。

VxRail ブログ ~ 全 5回 ~

#1…VxRail & VSAN Overview

#2…VxRail インストール

#3…VxRail の運用と管理:前編 VxRail Managerのご紹介

#4…VxRail の運用と管理:後編 運用についての良くあるご質問

#5…VxRail によるデータ管理の向上

#6…VxRail のサイジングと設定について

The post 第1回 VMware Virtual SAN(VSAN)搭載アプライアンスVxRailとは? ~Vxrail & VSAN Overview ~ appeared first on Japan Cloud Infrastructure Blog.

VSAN Cormac Blog ~ VSAN 6.2 パート3 – ソフトウェアチェックサム ~

$
0
0

~ VSAN 6.2 パート3 – ソフトウェアチェックサム ~

本 blog は VMware Storage Business Unit の Cormac Hogan Blog の翻訳になります。 VSAN をより深く知っていただき活用していただく為、本記事の翻訳がお役に立てば幸いです。

次のVSAN 6.2に関する記事として、沢山のお客様がリクエストされていた重要な機能の一つである、”end-to-end software checksum”についてご紹介します。この機能は、基盤となる物理ストレージのメディア上で起こるエラーのために、整合性問題が発生することを回避することが出来ます。VSAN 6.2ではチェックサム機能がデフォルトで有効な設定になっています。また、VMストレージポリシーから、仮想マシン/オブジェクト単位で有効化、無効化することが可能です。お客様は常にこの素晴らしい新しい機能を活用したいと思われていると、我々は考えているので、チェックサム機能をデフォルトで有効にしています。ただし、アプリケーション側で同等の機能が実装されている場合は、この機能を無効化することがあります。

このチェックサム機能に関するポリシールールは、”Disable object checksum”と呼ばれています。以下に示す様に、VMストレージポリシーを作成する際に選択され、無効になります。それ以外の場合は常に有効になっております。

vsan_umetanisan01

 

VSAN上のチェックサムの概要について

VSAN上のチェックサムは、Intelプロセッサ上で特殊なCPU命令を利用して、最高のパフォーマンスを得る為に、とても一般的な巡回冗長性チェックCRC−32C(Castagnoli)を使用して実装されています。全ての4KBブロックは、それに関連付けられたチェックサムを持ちます。そのチェックサムは5バイトです。データが書かれた時にチェックサムは、万が一データがネットワーク通信中に任意の破損がある場合に、データを同じホスト上で検知することを保証します。チェックサムはデータで保持されます。

データの後続読み取りがされる過程で、もしチェックサムが有効な設定であれば、チェックサムデータもリクエストされます。もしたった今読まれたデータブロックが破損していることをチェックサムが検知した場合、RAID−1オブジェクトのケースにおいては、正しいデータを他のレプリカ/ミラーデータから読み込まれます。RAID−5, RAID−6のオブジェクトのケースでは、データブロックは、RAIDストライプの他のコンポーネントから再構成されます。エラーは、VMが稼働するホストだけでなく、コンポーネントがエラーを出力した機器を含んでいるホスト上のvmkernel.log ファイルにログされます。以下の例では、ランダムパターンのデータ上に、意図的にゼロデータを上書きして、ゲストOSからデータを読み込んでいます。

2016-02-16T07:31:44.082Z cpu0:33075)LSOM: RCDomCompletion:6706: \
Throttled: Checksum error detected on component \
a3fbc156-3573-4f2c-f257-0050560217f4 \
(computed CRC 0x6e4179d7 != saved CRC 0x0)

2016-02-16T07:31:44.086Z cpu0:33223)LSOM: LSOMScrubReadComplete:1958: \
Throttled: Checksum error detected on component \
a3fbc156-3573-4f2c-f257-0050560217f4, data offset 524288 \
(computed CRC 0x6e4179d7 != saved CRC 0x0)

2016-02-16T07:31:44.096Z cpu1:82528)WARNING: DOM: \
DOMScrubberAddCompErrorFixedVob:327: Virtual SAN detected and fixed a \
medium or checksum error for component \
a3fbc156-3573-4f2c-f257-0050560217f4 \
on disk group 521f5f1b-c59a-0fe2-bdc0-d1236798437c

スクラバーメカニズム

リード処理上でのチェックサム検証と並行して、VSANは、ディスク上のデータが如何なるサイレントコラプションも発生していないということをチェックする為のスクラバー機能を実装しています。このスクラバー機能は、年に一度全てのデータをチェックするように設計されています。しかしより頻繁に実行する為には、アドバンスドセッティングのVSAN.ObjectScrubsPerYear設定にて変更することが出来ます。もし全てのデータを毎週チェックしたい場合は、このパラメータを”52”に設定することで実現できます。しかしこの設定を行うことにより、いくつかのパフォーマンスのオーバーヘッドが発生することに気にしておく必要があります。

まとめ

チェックサムは、RAID−5/RAID−6, 重複排除、圧縮、ストレッチクラスタ構成といった、VSANの新しい機能すべてをフルサポートしています。上記の通り、それはデフォルトで有効設定になるので、お客様は設定を追加することなく、簡単にそのメリットを得られます。そして、もし何らかの理由により、チェックサム機能を利用したくない場合には、上記の通りVMストレージポリシーで簡単に無効化することが出来ます。この機能はVSANを利用するお客様に対して、一般的な物理ディスク障害による潜在的なセクターエラーや、その他サイレントデータコラプションによるデータ破損を検出することが出来ます。

原文:VSAN 6.2 Part 3 – Software Checksum
VMware Storage and Availability Business Unitの シニアスタッフエンジニアCormac Horganの個人ブログを翻訳したものになります。VSANの詳細に関しては弊社マニュアル 、KBをご確認ください。また本記事は VSAN 6.2ベースに記載しております。予めご了承ください。

The post VSAN Cormac Blog ~ VSAN 6.2 パート3 – ソフトウェアチェックサム ~ appeared first on Japan Cloud Infrastructure Blog.

VMware vRealize Operations Manager (vROps) をパワーアップしよう!

$
0
0

3回目:3rd Party Management Packs (Deep Security)

– Back Number –
#1…カスタムダッシュボードって難しいの?
#2…SDDC Management Packs (VSAN/NSX)
#3…3rd Party Management Packs (Deep Security)
#4…3rd Party Management Packs (F5/NetApp/UCS)

こんにちは、ソフトバンク コマース&サービスの中川明美です。
3回目は、トレンドマイクロ株式会社の製品「Trend Micro Deep Security」とvROpsの連携についてご紹介します。今回は、トレンドマイクロのvExpert 姜(かん)さんと二人で進めます。

◆vROpsと連携できるの?◆
姜さんからおうかがいするまで、Trend Micro Deep Security (以降Deep Security)とvROpsが連携できることを知りませんでした。
私が興味深かったのは、「CPU PERFORMANCE」の画面(左の図)です。「CPU使用率」と「セキュリティイベント」を並べて監視することができます。リソースへの影響をセキュリティイベントから確認できるのは、おもしろい視点ですね!

下図では、セキュリティイベント数が高くなると同時にCPU使用率も高くなっています。この結果から、高いCPU使用率の原因は、セキュリティイベントであろうと推察できます。
Deep Securityをお使いの環境で、仮想マシンのCPU使用率が高い場合、「CPU PERFORMANCE」の画面も確認しておくのが必須ですね。「なぜCPU使用率が高いのか」を、複数ある事象から原因を特定する際に、工数を短縮できそうです。
また、「SECURITY MODULES」の画面(右の図)では、どのイベントが影響を及ぼしているのかを確認できます。ここでは、「ファイアウォールイベント」と「不正プログラム」イベントが「セキュリティ イベント数」と関連しているようです。どちらのイベントも気になりますね!

vROps-DeepSecurity

 

◆アラートの一括表示も便利◆
Deep Security Managerで検知したアラートを集中管理できるのも便利ですね。1つのツールでインフラ情報とイベント情報を管理することができます。

Alert

 

ここから、姜さんの登場です!
vROpsとDeep Securityが連携することによって、どのような情報が得られるのかをご説明いただきます。
————————————————————————————————————————-
みなさん、こんにちは!
トレンドマイクロ株式会社の姜(かん)と申します。
今回の共同執筆に関しては、中川さんの旧友である弊社インフォメーションサービス本部の今泉からの紹介で実現いたしました。
というのも、弊社インフォメーションサービス本部ではDeep Security + VMware NSX + VMware Horizon + VMware Virtual SAN + VMware vRealize Operations for Horizonという構成で社内のサービスを提供しており、Deep SecurityとvROpsの連携も利用しているのです!

ではさっそくですが、Deep Security とvROpsの連携について説明いたします。

◆Deep Securityって?◆
Deep Securityをご存じない方、いらっしゃると思いますので簡単にご説明します。1つの製品でサーバやVDIの保護に必要なセキュリティをご用意した統合型ソリューションです。


DeepSecurity
VMware社製品との連携ですと、下図真ん中のエージェントレス型とVDIの組み合わせで多くのお客様にご利用いただいております。

DeepSecurity2

 

◆Deep SecurityとvROpsの連携って?◆
管理パックを利用することにより、Deep Security Managerで管理しているステータスやイベント情報がvROpsのコンソールから確認できます。
これによりインフラだけではなく、セキュリティのイベントも、vROpsを利用し統合して可視化することが可能です。

DeepSecurity3

 

◆主なユースケースは?◆
vROps連携で提供できる主な機能は、
・パフォーマンス分析
・セキュリティ分析
となります。

【パフォーマンス分析】は、サーバリソースへの影響をセキュリティイベントから考察するものとなります。
代表的な例としては、中川さんが前述しているような、「サーバのCPU使用率が上昇したけれどインフラ側面からはおかしなことは発生していない」「アクセス過多やキャンペーンも特に行っていない」といった時に、セキュリティ観点で調査をするとセキュリティイベントを多数検知しており、実は何らかの攻撃を受けていたといったものとなります。

【セキュリティ分析】は、各コンピュータのセキュリティイベント傾向を把握するために、「全体 ⇒ 個」へドリルダウンし、イベントの傾向分析を行いやすくするためのものとなります。

ここから、【セキュリティ分析】の主なユースケースについてご紹介します。

◆Heat Map分析◆
こちらはvROpsでもおなじみのHeat Mapですね。
「不正プログラム」や「脆弱性対策」といったセキュリティの機能ごとにMapを表示しますから、各コンピュータのセキュリティ状態や傾向を種別ごとに把握することが可能です。
「Total」には各コンピュータのセキュリティ状態の合計が表示されますので、組織の中で攻撃を受けやすいコンピュータを一目で把握できるようになります。

CustomDashboard-DeepSecurity

次に、Heat Map分析の使用例です。
営業、開発、人事といった各部門がコンピュータを利用しており、営業部門の【不正プログラム】には赤いコンピュータがいくつか存在しています。
これは、営業部門が所有しているコンピュータが不正プログラムに感染し、その後潜伏活動を経て別の端末に横感染活動している可能性が考えられます。
更に【Webレピュテーション】を確認すると、不正プログラムに感染している端末のうち2台から外部へ不審な通信が発生していることがわかります。おそらく外部の不正なサーバへ接続した後に、更に不正なプログラムをダウンロードしようとしていたのではと考えられます。
こういった一連の動きがインフラ側から可視化できるだけではなく、組織全体に対する攻撃傾向を把握し、対策を検討していくことも可能かと思います。

Heatmap

 

◆Metric Graph分析◆
前述のHeat Mapをドリルダウンすることで下図のように各コンピュータの傾向を把握できる【Metric Grap】を閲覧できます。
各コンピュータにおける、「一定期間内でのピークタイム」や「各種イベント発生頻度」の把握が可能となります。
「どの時間帯に攻撃を受けやすいのか?」「どういった攻撃を頻繁に受けているのか?」といったことを確認できます。

Metric

 

◆Top “N”分析◆
Top”N”は各コンピュータのセキュリティイベントを分析し、頻繁にイベントが発生しているコンピュータを抽出します。下図は「脆弱性対策」のイベント数となりますが、「Firewall」、「Webレピュテーション」、「変更監視」や「不正プログラム対策」のTop”N”も利用できるため、セキュリティ種別ごとに攻撃を受けているコンピュータをリスト化できます。

TopN

 

◆管理パックの入手方法◆
管理パックはトレンドマイクロのSoftware Download Centerから入手可能となっております。
下記URLへアクセス頂き、「Tools/Utilities」タブをクリックして頂くと管理パックがダウンロード可能となります。
http://downloadcenter.trendmicro.com/index.php?regs=NABU&clk=latest&clkval=4855&lang_loc=1
ManagementPack

注1)Deep Securityの管理パックは無償でご利用可能です。
注2)管理パックは日本語OSでもご利用可能です。(メニューは英語表記のままとなります)

セキュリティはインフラと密接に関係していますが、運用管理の面では製品間連携ができていないかと思います。また使い勝手が悪く敬遠されがちかと思いますが、そういったお悩みをお持ちの方は、ぜひこの機会に触ってみていただければと思います。

それでは、中川さんにお返しします。

————————————————————————————————————————-

姜さん、私も勉強になりました!
「セキュリティ」に関する運用は、本当に大変だと思います。情報をすばやく入手し、対応できる環境を準備するのは、もはや前提なのかもしれませんね!

今回は、トレンドマイクロ株式会社 インフラストラクチャーサービス課 テクニカルマネージャーの今泉 芳延氏に企画をもちかけられ、トレンドマイクロ株式会社とソフトバンク コマース&サービス株式会社のvExpertでBlogを共同執筆するにいたりました。
今泉氏がサービスを提供されている仮想基盤は、まさにVMware製品で構成されたSDDC (Software Defined Datacenter)です。豊富なナレッジが蓄積されてそうです!
4回目は、カスタムダッシュボード設計の参考にしていただきたく、数社の管理パック画面をご紹介します。お楽しみに!

vExpert

 

ソフトバンク C&Sのサイトで仮想化健康診断の事例を紹介しています。運用のヒントになるかもしれません。
詳細についは、以下↓↓アイコン↓↓をクリックして下さい!

Logo2

The post VMware vRealize Operations Manager (vROps) をパワーアップしよう! appeared first on Japan Cloud Infrastructure Blog.

VSAN Cormac Blog 〜VSAN 6.2 VM スワップ オブジェクトに関する新機能〜

$
0
0

本 blog は VMware Storage and Availability Business Unit の Cormac Hogan Blog の翻訳になります。 VSAN をより深く知っていただき活用していただく為、本記事の翻訳がお役に立てば幸いです。

このブログを開いた時点でVSANをよく理解している方々は、仮想マシンをデプロイすると、VSANデータストア上ではオブジェクトのセットとしてデプロイされ、従来のようにデータストアにデプロイされるようなファイルのセットではないことをご存知でしょう。VSANのオブジェクトには、仮想マシンのホームネームスペース、VMDK、そしてVMスワップが含まれます。VMスワップは、仮想マシンがパワーオンされている時にのみ存在しますが、VSAN上では常に100%のオブジェクトスペースが予約されてプロビジョニングされます。このことで容量を大量に消費することになり、課題となっていました。例えば、8GBメモリの仮想マシンを100台デプロイすると、800GBのディスク容量がVMスワップとしてプロビジョニングされます。これは、仮想マシンがリソース起因の問題を発生させないために予約された容量です。

VSAN 6.2からは、VMスワップの領域をシンプロビジョニングのようにデプロイ出来るようになりました。

注意点として、この設定はVSANクラスター内の全てのESXiホスト上で SwapThickPrivisionDisabled を有効にする設定が必要です。この設定はデフォルトでは無効になっています。

[root@esxi-a-pref:~] esxcfg-advcfg -g /VSAN/SwapThickProvisionDisabled
Value of SwapThickProvisionDisabled is 0

有効化するには:

[root@esxi-a-pref:~] esxcfg-advcfg -s 1 /VSAN/SwapThickProvisionDisabled
Value of SwapThickProvisionDisabled is 1

 

今、VSANデータストア上の仮想マシンがパワーオンされた時、それらのVMスワップオブジェクトがシンプロビジョニングされます。すなわち、100%のオブジェクトスペースリザベーションポリシーはもう実装されません。

VSAN 6.2の容量ビューのスクリーンショットをいくつか掲載します。デフォルト設定状態でVMスワップを持つ仮想マシン、そして仮想マシンの電源をオフし、全てのホストに対して SwapThickPrivisionDisabled を有効化した後に、再度電源をオンしました。

最初のスクリーンショットは、オブジェクトタイプ毎のグループによる容量ビューです。約10台の仮想マシンが、合計でスワップスペースを84.09GB消費しています。これは、デフォルトオブジェクトスペースリザベーション100%を使用しています。

vsan62-part-5-1-swap-before

 

次に、仮想マシンをパワーオフし、 SwapThickPrivisionDisabled の設定をESXiホストに対して変更をかけました。予想される通り、VSANデータストア上でスペースを消費しているVMスワップオブジェクトはありません。

vsan62-part-5-2-swap-vm-off

 

最後に、パラメーターの設定された仮想マシンを再度パワーオンします。スワップオブジェクトがデフォルト状態とは大きく異なり、容量を88MBしか消費していないことを確認することができるでしょう。

vsan62-part-5-3-swap-thin

 

この新機能により、VSAN利用時における容量消費をかなり抑えることが可能になります。抑えられる容量は、いくつの仮想マシンをデプロイするか、またどの程度大きいVMスワップスペースか(本質的に仮想マシンにアサインされた予約されていないメモリーのサイズ)に依存します。

 

原文:VSAN 6.2 Part 5 – New Sparse VM Swap Object
VMware Storage and Availability Business Unitの シニアスタッフエンジニアCormac Horganの個人ブログを翻訳したものになります。VSANの詳細に関しては弊社マニュアル 、KBをご確認ください。また本記事は VSAN 6.2ベースに記載しております。予めご了承ください。

The post VSAN Cormac Blog 〜VSAN 6.2 VM スワップ オブジェクトに関する新機能〜 appeared first on Japan Cloud Infrastructure Blog.

第2回 VMware Virtual SAN(VSAN)搭載アプライアンスVxRailとは? ~ VxRail インストール ~

$
0
0

こんにちは、ネットワールドの石塚 智規です。前回の富士ソフト山本さんの続きとして、ハイパーコンバージドインフラのアプライアンス「VxRail」のセットアップについてご紹介したいと思います。

ishitsuka_mini

その1:導入準備

VxRailの導入のためには以下のようなものが必要です。

 

  1. VxRail
    1箱にアプライアンス本体、電源ケーブル、ベゼルがまとめられています
  2. 10Gbスイッチ
    アプライアンス毎に8個のポートが必要です
    VxRail 60のみ1Gb対応, アプライアンス毎に16個のポートが必要です
  3. 10Gbスイッチに適合したケーブル×8個
    VxRail SFP+モデルのTwinaxケーブルはActive/PassiveのどちらでもOK
  4. 200V電源ポート×2個
    VxRail 60は100V×2個でもOK
  5. Windows PC
    ブラウザとしてFirefoxもしくはChromeをインストール済みであること

 

ネットワークスイッチの構成としては、以下の3つのポイントがあります。 ネットワークの構成検討材料としてEMC/VCEからこちらの資料が提供されています。

http://www.emc.com/collateral/guide/h15300-vce-vxrail-network-guide.pdf

  • Default VLANを構成して下さい(恒久的に利用します)
  • 全てのノード間の管理セグメントにはマルチキャスト通信が必要です
  • 全てのノード間のVSANセグメントにはマルチキャスト通信が必要です

 

また、作業のためのWindows PCのIP設定を変更します。VxRailの初期設定のためには工場出荷時に設定されている管理IPアドレス「192.168.10.200/24」に接続する必要があるからです。初期設定のあと、実運用IPアドレスに継続して接続する必要があるので、その両方のIPアドレスに接続できる状態にしておくと良いかと思います。例えば以下のように実運用セグメントのIPアドレスとして10.10.50.101/16を設定し、初期設定用IPアドレスとして192.168.10.21/24の両方を設定している状態です。

01

続いて準備するパラメータは以下の通りです。VxRailバージョンv3.5からは外部のvCenterやPlatform Service Controllerが利用できるようになっています。

 

<システムパラメータ>

  1. NTPサーバ
  2. DNSサーバ
  3. オプション)Active Directory情報(ドメイン名, ユーザ名, パスワード)
  4. オプション)HTTPプロキシ情報(プロキシサーバIPアドレス, ポート番号, ユーザ名, パスワード)

<管理パラメータ>

  1. ESXiのホスト名(ホスト名は1から始まる通し番号になります)
  2. ESXiのIPアドレス(4つの連続したIPアドレス)
  3. vCenterホスト名
  4. vCenterのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  5. Platform Service Controllerのホスト名
  6. Platform Service ControllerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  7. VxRail Managerのホスト名(VxRailの管理GUIを提供する仮想マシンのホスト名)
  8. VxRail ManagerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  9. 上記の管理IPセグメントのネットマスク
  10. 同管理IPセグメントのゲートウェイ
  11. ESXiのパスワード及びvCenter/PSC/VxRail Managerのパスワード
    ※共に複雑性を求められ、特定の記号(&’”;=`\$)は利用できません。
    また、キーフレーズ及びそれに類するものも利用できません。
    例えば Welc0me1! のような複雑性が必要になります。

<vMotionパラメータ>

  1. ESXiのvMotion用IPアドレス(4つの連続したIPアドレス)
  2. 同vMotionセグメントのネットマスク
  3. 同vMotionセグメントのVLAN ID

<Virtual SANパラメータ>

  1. ESXiのVirtual SAN用IPアドレス(4つの連続したIPアドレス)
  2. 同Virtual SANセグメントのネットマスク
  3. 同Virtual SANセグメントのVLAN ID

<仮想マシンネットワークパラメータ>

  1. 仮想マシンネットワーク名(仮想マシンに割り当てるポートグループ名)
  2. 仮想マシンネットワークのVLAN ID

<解決方法パラメータ>

  1. ログサーバ(vRealize Log Insight(バンドル済み)もしくはSyslog)の選択
  2. ログサーバのホスト名
  3. ログサーバのIPアドレス

以上のパラメータを入力後、ボタンを押して15分待てばセットアップが完了、と言うことになります。

 

その2:セットアップ

必要なハードウェア、10Gbスイッチの構成(VxRail 60の場合は1Gbスイッチ)、パラメータの準備ができたら、あとは箱を開けてセットアップするだけです。

02

ネットワーク接続は上記の「1GbEポート」もしくは「10GbEポート」を全て接続します。

03

続いて電源起動ですが、ここでのポイントは電源をノード#4 ⇒ ノード#3 ⇒ ノード#2 ⇒ ノード#1の順番で30秒間隔で起動する、と言うことです。あとは5分程度待てばセットアップが開始できるようになります。初期設定用のIPアドレスである「192.168.10.200/24」にブラウザで接続します。

04

「開始する」ボタンをクリックして、初期設定を開始します。続いて使用許諾に関するページが表示されるので「同意」ボタンをクリックします。

poic

構成方法としてこのままウィザードを使って構成する「ステップバイステップ」とJSONファイルを使った「構成ファイル」の2つの方法が選べます。今回はこのままウィザードを進めたいと思いますので「ステップバイステップ」をクリックします。

05

まずは<システムパラメータ>の入力が促されます。事前に準備しているパラメータを入力して「次へ」ボタンをクリックします。

06

続いて<管理パラメータ>の入力が促されます。事前に準備しているパラメータを入力ます。また、外部のvCenterを利用する場合は「vCenter Serverの統合」チェックボックスを有効化して、IPアドレスと管理ユーザ情報、そしてVxRailを所属されるデータセンター名とクラスター名を入力します。同様に外部のPlatform Service Controllerを利用する場合は「External Platform Services Controller」チェックボックスを有効化します。パラメータの入力が完了したら「次へ」ボタンをクリックします。

07

続いて<vMotionパラメータ>の入力が促されます。事前に準備しているパラメータを入力して「次へ」ボタンをクリックします。

08

続いて<Virtual SANパラメータ>の入力が促されます。事前に準備しているパラメータを入力して「次へ」ボタンをクリックします。

09

続いて<仮想マシンネットワークパラメータ>の入力が促されます。事前に準備しているパラメータを入力します。複数の仮想ネットワークを構成したい場合は「もう1つ追加」をクリックして任意の構成に変更します。完了したら「次へ」ボタンをクリックします。

pic2

最後に<解決方法パラメータ>の入力が促されます。事前に準備しているパラメータを入力して「次へ」ボタンをクリックします。

10

全てのパラメータの入力が終わったら「検証」ボタンをクリックします。正しく構成されていれば「構成が基本検証とネットワーク検証を追加しました。」と言う緑色のメッセージが表示されるので「VxRailの構築」ボタンをクリックして構築を開始します。エラーが表示された場合はその内容を参考にして、スイッチ側の構成や入力したパラメータをチェックし、再度「検証」ボタンをクリックします。

11

無事、セットアップが開始されると初期設定で利用していた工場出荷状態のIPアドレス(192.168.10.200)から実運用で利用するIPアドレスへ変更されます。「構成の開始」ボタンをクリックします。

12

ここから自動的な構成が始まります。100%になるまで15分程度待ちます。万が一、途中で止まってしまった場合は表示されたエラーメッセージや右下にある「ログの表示」をクリックして状態を確認します。

13

無事、構成が完了されたら「VxRailの管理」ボタンをクリックして、管理GUIであるVxRail Managerのログイン画面に移動します。

14

VxRail ManagerにはvCenterと同じユーザ名/パスワードでログインします。VxRailアプライアンス内にvCenter/PSCを配置している場合はadministrator@vsphere.localユーザを利用して下さい。

15

これがVxRail Managerの管理画面です。セットアップ直後は幾つかのエラーが記録されることがありますが、これは次回でご紹介したいと思います。

 

VxRail ブログ ~ 全 5回 ~

#1…VxRail & VSAN Overview

#2…VxRail インストール

#3…VxRail の運用と管理:前編 VxRail Managerのご紹介

#4…VxRail の運用と管理:後編 運用についての良くあるご質問

#5…VxRail によるデータ管理の向上

#6…VxRail のサイジングと設定について

The post 第2回 VMware Virtual SAN(VSAN)搭載アプライアンスVxRailとは? ~ VxRail インストール ~ appeared first on Japan Cloud Infrastructure Blog.

Viewing all 972 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>