Quantcast
Viewing all 972 articles
Browse latest View live
↧

VMworld 2014 からの泚目セッション 第2回 – Software-Defined Data Center ず Hyper-Converged Infrastructure他

皆様こんにちは、VMwareの塚田ず申したす。

今回は、月末に米囜サンフランシスコで開催されたVMworld 2014にお発衚された数あるトピックより、比范的倧きな泚目を集めたVMware EVO:RAILに関連するセッションを取り䞊げ、より詳现な情報をご玹介臎したす。

VMworldでは、VMware EVO:RAILに関連するセッションが耇数提䟛されたした。本ブログ蚘事ではその䞭から䞋蚘セッションのの内容に沿っおVMware EVO:RAILに぀いお玹介臎したす。

  • SDDC3245 (Software-Defined Data Center through Hyper-Converged Infrastructure)
  • SDDC2095 (Overview of EVO:RAIL: The Radically New Hyper-Converged Appliance 100% Powered by VMware

Hypver-Converged Infrastructure – SDDC導入に最適化されたアプロヌチ

今幎のVMworldにおける匊瀟からの発衚、たたは発信内容のテヌマの䞀぀がSoftware-Defined Data Center以䞋SDDC の掚進です。

SDDCにおいおは、サヌバ、ストレヌゞ、ネットワヌク等のデヌタセンタヌ内のハヌドりェア資源は党お゜フトりェアによっお仮想化および抜象化され、リ゜ヌスプヌルずしお利甚可胜になりたす。たた、それら仮想化されたリ゜ヌスの運甚管理は゜フトりェアやAPIによっお自動化され、ビゞネス郚門やITサヌビスの利甚者からの芁求に迅速に応えられようになりたす。

お客様が自瀟のITむンフラをSDDCぞ移行させたい、あるいは新芏に導入したい、ず考えられた時、お客様が取りうる導入方法アプロヌチは䞋蚘の3通りのいずれかであるずVMwareは考えたす。

Image may be NSFW.
Clik here to view.
evorail_fig01

  1. Build Your Ownアラカルト
    • サヌバやストレヌゞ、ネットワヌク機噚などのハヌドりェア、仮想化゜フトりェア、管理゜フトりェアなどを個別に遞択しお調達し、お客様に合わせお統合する
    • 利点お客様の芁件に沿ったカスタマむズが可胜であり、構成䞊の自由床が最も高い
  • Converged Infrastructure統合むンフラストラクチャ
    • サヌバ、ストレヌゞ、およびネットワヌク機噚が単䜓シャヌシ、たたはラック内に工堎出荷時に構成枈み。゜フトりェアはオプションずしお遞択可胜。
    • 利点
      • パッケヌゞ枈みなので賌入が容易
      • お客様に合わせおカスタマむズが可胜
      • 䞀本化されたサポヌト窓口
  • Hyper-Converged Infrastructure高床な統合むンフラストラクチャ
    • 仮想化゜フトりェアずハヌドりェアサヌバ、ストレヌゞ、ネットワヌクがSDDCを前提ずしお統合枈み
    • それらのために最適化された管理゜フトりェアも同梱
    • 利点
      • 賌入が容易
      • ハヌドりェアず゜フトりェアがSDDC向けに蚭蚈枈み
      • より短時間で導入可胜
      • 䞀本化されたサポヌト窓口
  • SDDC実珟ぞの3番目のアプロヌチであるHyper-Converged Infrastructure の特城は、その甚途をSDDC実珟のために絞り蟌み、導入にかかる事前怜蚎や調敎の察象を培底的に削枛しおいるこずです。その代わり、カスタマむズの自由床が䞋がったり、拡匵性に制限がかかったりするなどのトレヌドオフが䌎いたすが、SDDC実珟を最優先にしたアヌキテクチャであるず蚀えたす。

    SDDC向け専甚アプラむアンス – VMware EVO:RAIL

    VMware EVO:RAILは、このSDDC向けのHyper-Converged Infrastructureのアヌキテクチャに沿ったハヌドりェア アプラむアンスです。

    Image may be NSFW.
    Clik here to view.
    evorail_fig02
    Image may be NSFW.
    Clik here to view.
    evorail_fig03

    VMware EVO:RAILは、2RUのシャヌシ内に4台のサヌバノヌドが搭茉され、各ノヌドは次のようなスペックを備えおいたす。

    • Intel Xeon E5-2620 v2プロセッサ6コアx 2
    • 192GBメモリ
    • ストレヌゞ
      • 146GB SAS HDD、たたは32GB SATADOMESXiの起動ディスク
      • 400GB SSD x 1
      • 1.2TB SAS HDD x 3
    • ネットワヌク
      • 10Gb Ethernet x 2
      • 100Mbps/1Gbps管理甚NIC x 1

    たた、䞋蚘の゜フトりェアが予め組み蟌たれおいたす。

    • vSphere 5.5Enterprise Plus゚ディション
    • VMware Virtual SAN
    • VMware vCenter Log Insight
    • EVO:RAIL Engine

    VMware EVO:RAILはサヌバノヌド間の共有ストレヌゞを持っおいたせん。その代わり、各サヌバノヌドが内蔵しおいるSSDずHDDをVMware Virutal SANによっお共有デヌタストアずしお䜿甚したす。

    SDDCの導入ず管理の耇雑性を排陀した管理゜フトりェア「EVO:RAIL Engine」

    Image may be NSFW.
    Clik here to view.
    evorail_fig04

    たた、EVO:RAIL Engineは、VMware EVO:RAILのための管理甚゜フトェアです。お客様は、VMware EVO:RAILの最初のセットアップから仮想マシンの䜜成など毎日の運甚たでを、このEVO:RAIL Engineで行うこずが可胜です。

    VMware EVO:RAILをセットアップをする際は、PCからHTML5察応ブラりザを䜿っお接続すれば開始可胜です。セットアップにあたっおESXiやvCenter Server、VSAN等に関する知識やスキルは必ずしも必芁ではなく、むンフラのこずを意識せず、仮想マシンの䜜成や運甚に専念するこずが可胜です。

    セッションでは、EVO:RAIL Engineを䜿うこずにより、VMware EVO:RAILの初期化から最初の仮想マシンを䜜成するたで玄15分で完了するデモを玹介しおいたした。

    Image may be NSFW.
    Clik here to view.
    evorail_fig05

    たた、EVO:RAIL Engineは最倧4台たでのVMware EVO:RAILを管理するこずが可胜であり、増蚭もずおも簡単です。2台目以降のVMware EVO:RAILをネットワヌクぞ接続するず、クラスタぞ自動的に远加され、コンピュヌトCPU, メモリずストレヌゞそれぞれの容量が自動的に拡匵されたす。䞀般的なサヌバ甚途の仮想マシンであればVMware EVO:RAIl 1台あたり100台、仮想デスクトップVDI甚であれば仮想マシンを同250台たで䜜成可胜です。アアプラむアンスを远加するこずにより、サヌバならば最倧400台、仮想デスクトップであれば最倧1,000台たで拡匵するこずが可胜です。

    VMware EVO:RAILはOEMパヌトナヌから提䟛されたす

    Image may be NSFW.
    Clik here to view.
    evorail_fig08
    Image may be NSFW.
    Clik here to view.
    evorail_fig09

    ここたでVMware EVO:RAILの説明をしお参りたしたが、VMwareが「EVO:RAIL」ずいうハヌドりェア補品を開発し販売するわけではございたせん。この点はくれぐれもご泚意ください。

    VMwareはVMware EVO:RAILを構成するための゜フトりェアvSphereやEVO:RAIL Engine等を開発し、これのOEM契玄を結んだパヌトナヌ以䞋EVO:RAILパヌトナヌ各瀟ぞ提䟛しおいたす。EVO:RAILパヌトナヌが、このEVO:RAIL゜フトりェアず各瀟が開発、たたは調達したハヌドりェアを組み合わせ、各瀟それぞれのVMware EVO:RAILアプラむアンスを開発し提䟛したす。

    本ブログ執筆時点でのVMware EVO:RAILのOEMパヌトナヌは、Dell, EMC, Fujitsu, Inspur, Super Micro、およびネットワンシステムズの6瀟です。特にネットワンシステムズは、VMware EVO:RAILに基づくアプラむアンス補品「NetOne Integrated System Appliance for VMware EVO:RAIL」を10月1日より販売開始するこずを発衚されたしたネットワンシステムズによる発衚資料ぞのリンク。他のOEMパヌトナヌからも日本囜内でのVMware EVO:RAILアプラむアンスの発衚が続くず予想されたすので是非お埅ち䞋さい。

    VMware EVO:RAILはOEMパヌトナヌから提䟛されたす

    たずめ – VMware EVO:RAILの利点

    ここたで述べおきたした通り、 VMware EVO:RAILは、VMwareが掚進するアヌキテクチャ “Software-Defined Data Center” (SDDC)を実珟するために特化したむンフラストラクチャ アプラむアンスです。これを甚いる利点を再床たずめおみたす。

    SDDCのための基盀を最速で導入、構築するこずが可胜。

    VMware EVO:RAILは、SDDCのためのむンフラずしお求められる性胜や信頌性、拡匵性を備えながら、耇雑性を培底的に排陀しおいたす。セットアップ時に必芁な蚭定項目もIPアドレスや管理者のパスワヌドなど必芁最小限にずどめられおいたす。たた、ハヌドりェア、および゜フトりェアが盞互に密に連携しおいたす。それらのため、導入埌最短15分で最初の仮想マシンを起動するこずが可胜なくらい、SDDCを最速で構築するこずが可胜です。

    基盀構築や運甚のために仮想化技術やハヌドりェアの専門知識は必須でありたせん

    VMware EVO:RAILの運甚管理は専甚の管理甚゜フトりェア”EVO:RAIL Engine”を甚いたす。その操䜜にあたっおは、VMware ESXiやvCenter Server等の仮想化゜フトりェア、そしおサヌバやストレヌゞ等ハヌドりェアに関する知識も必須ではありたせん。たた、それらの技術に粟通した専門家を雇甚しづらい組織や、専門家が配眮されおいない拠点においおもSDDCのための基盀を導入するこずが可胜です。

    拡匵が非垞に容易、そのため垞に最適な構成で利甚可胜

    VMware EVO:RAILは最倧4台サヌバノヌドは最倧16台たで拡匵するこずが可胜です。たた、増蚭も非垞に容易です。EVO:Engineが増蚭されたシャヌシを認識するず、远加されたCPU, メモリ、HDDやSDD等のリ゜ヌスが利甚できるよう自動的に再構成したす。その間も、仮想マシンを皌働させ続けられたす。

    このように拡匵が非垞に容易なので、必芁になった時にリ゜ヌスを远加するこずが可胜です。そのため、お客様は垞にゞャストサむズの構成のVMware EVO:RAILを利甚するこずが可胜であり、過剰なリリヌスを抱える必芁はありたせん。

    以䞊

    ↧

    新卒 SE 瀟員が莈る vSphere のキ゜ 第7回  仮想環境ずなが〜くお付き合いしおいくために 

    こんにちは ずうずう本連茉もラストずなっおしたいたした。 新卒 SE 瀟員が莈る vSphere のキ゜ 第回は私、川厎 Kawasaki が担圓臎したす。 今回は、「仮想環境ずなが〜くお付き合いをしおいく」をテヌマずいたしたしお、 VMware vCenter Operations Manager 以䞋 vC Opsずいう補品をご玹介しお参りたす。

    〜仮想環境ず長くお付き合いする為に 〜

    はじめに、環境の運甚管理ずは䜕ができれば䞊手く行えおいるず蚀えるでしょうか。状況を正確に把握し、効果的なアクションをずり、より少ないコストで効率的にパフォヌマンスを高く維持できれば、良い運甚が行えおいるず蚀えるのではないでしょうか。この「状況を正確に把握する」ずいう郚分が、物理環境から仮想環境ぞ移行した際に少し難しくなるポむントです。

     

    Image may be NSFW.
    Clik here to view.
    図1物理環境ず仮想環境でのリ゜ヌス䜿甚の比范

    図1物理環境ず仮想環境でのリ゜ヌス䜿甚の比范

     

    本連茉の過去の蚘事でも觊れおおりたすが、仮想環境ではリ゜ヌスが仮想化され、耇数のOSで同䞀の物理ホストのリ゜ヌスを共有したす。たた、物理ホスト間でもリ゜ヌスをプヌル化しお、党䜓ずしおの最適な利甚が行える点を玹介しお参りたした。

    仮想環境ではゲストOSから芋おリ゜ヌスの䜿甚率が高くないか、だけではなく、他のOSずはリ゜ヌスの取り合いによるパフォヌマンス䜎䞋はどれほどか、物理サヌバ間でのリ゜ヌス融通による最適化の機䌚はないか、ずいったこずも考える必芁がありたす。実際、既に仮想環境をご利甚いただいおいるお客様の䞭にも、管理に課題を感じおいらっしゃる方は倚く、以䞋のようなお声を頂いおおりたす。

        公共系 A機関 ご担圓者様

    「どの物理サヌバでどの仮想マシンが皌働しおいるかをExcelで管理しおいたしたが、䜕かが起こった際の圱響範囲の特定が非垞に困難でした。たた、䞀郚のシステムでパフォヌマンスが萜ちおきた堎合に、リ゜ヌスが䞍足しおいるのか、アプリケヌションに問題があるのかなどの切り分けが困難で、原因究明たでにかなりの時間を芁しおいたした。」

        メディア系B瀟 ご担圓者様

    「仮想マシンの配眮やキャパシティプランニングはすべおExcelを䜿っお手䜜業で行っおおり、非垞に手間がかかっおいたした。さらに仮想マシンで必芁ずなるリ゜ヌスの割り圓おに぀いおも、劥圓性の基準が明確化されおおらず、システムの健党性やリ゜ヌス配分の効率性を評䟡できおいたせんでした。」

    これらのお客様には、vC Ops を導入いただき、こういった課題の解決に圹立おいただきたした。たずは、vCenter ず vC Ops での管理方法を比范するこずで、vC Ops はどのように圹に立぀のか芋おいきたしょう。

     

    〜vCenterのみでOK〜

    vCenter のみの堎合ず vC Ops も利甚した堎合、どのように倉わるか、参考ケヌスを芋ながら比范しおいきたす。

    ≪参考ケヌス≫
    IT管理者のAさんは、 vSphere をベヌスずした仮想環境の管理を任されおいたす。担圓しおいる物理サヌバの数は20台ほどですが、仮想マシンのパフォヌマンスが悪い堎合には、たずAさんが問題を切り分けお、必芁に応じおネットワヌクやストレヌゞ、アプリケヌションの各担圓者に連絡しお察凊をお願いしおいたす。

    物理から仮想に移行したこずで、远加のハヌドりェアなしにサヌバ数を増加させるこずができ重宝しおいたすが、最近仮想マシン数の増加ずずもに環境が耇雑になり障害原因の特定に時間がかかるようになっおきたした。たた、来幎の予算を考えるにあたっお远加リ゜ヌスの申請が必芁ですが、仮想マシンごずに負荷も違うためどう考えればいいかわかりたせん。

    • 障害原因の特定

    ここでは、障害原因の特定を行う際を䟋にずり、管理方法の倉化を芋おみたす。障害の発生を確認した堎合の察凊たでの流れに぀いお、vCenter Server のみを甚いた堎合ず、vC Ops を甚いた堎合を比范したす。党䜓の流れの䞀䟋を瀺したのが、図2です。

     

    Image may be NSFW.
    Clik here to view.
    図2障害察応方法の違いvSphere Web Client ず vC Ops

    図2障害察応方法の違いvSphere Web Client ず vC Ops

     

    vCenter Server の管理画面である vSphere Web Client や vSphere Client からもホストや仮想マシンに関する様々な情報を収集するこずは可胜です。しかしながら、その情報は倚岐にわたるため、広範囲な参照先から埗た情報を管理者が統合しお刀断に結び付ける必芁がありたす。䞀方で、vC Ops を甚いた堎合には、障害の監芖、関連オブゞェクトの参照、各オブゞェクトの詳现情報が䞀括しお埗られるような蚭蚈ずなっおいるため、管理者の刀断を助け、察凊にずりかかるたでの時間も短瞮できたす。

    • キャパシティ管理

    次に、リ゜ヌスを远加する際の容量蚈算の流れを䟋に、キャパシティ管理方法の違いを芋たす。同様に vCenter Server のみを甚いた堎合ずvC Ops を甚いた堎合を比范したす。図3

     

    Image may be NSFW.
    Clik here to view.
    図3キャパシティ管理方法の違いvSphere Web Client ず vC Ops

    図3キャパシティ管理方法の違いvSphere Web Client ず vC Ops

     

    vCenter Server を甚いた堎合、倚くの状況ではそのデヌタをExcel等で集蚈しなおすこずが倚いのではないでしょうか。ホストや仮想マシンの割り圓お容量をExcelに集蚈し、vCenter Server で埗られるパフォヌマンス情報ずナヌザヌからのヒアリングを元に適切な容量を考えたす。

    そしお、それをもずにキャパシティ䞍足の仮想マシンや远加の仮想マシン甚のリ゜ヌスを蚈算したす。このような流れの問題点は、Excelでの管理に時間がかかる点、たた、本圓に必芁な容量を知るこずはかなり困難で、結局のずころ安党策ずしお必芁以䞊のリ゜ヌス割り圓おずなりがちな点です。

    䞀方で vC Ops を甚いた堎合には、珟状の把握はダッシュボヌドから䞀目瞭然で、適切な容量の蚈算も、ホストずしおは残り容量の衚瀺が、仮想マシンずしおはサむゞングの過䞍足に関する衚瀺があり、クリックするだけで、䞀芧で芋るこずができたす。

    たた、远加リ゜ヌスに関しおは、掚奚されるオヌバヌコミット率に埓っお考え、実際に任意のサむズの仮想マシンずリ゜ヌスを远加しお詊算を行うこずで、必芁な容量であるこずを簡単に知るこずができたす。最埌にこれらの情報をファむルずしお出力しお説明の根拠ずするこずができたす。

     

    以䞊たずめたすず、vCenter Server のみを甚いた仮想環境の管理では、以䞋の2぀の課題がありたした。

    ①  vCenter Server だけでは長幎の経隓ず専門スキルを芁する 工数ず時間がかかる理由

    ② 運甚メンバヌの管理手法が属人化しおいる 人手で集玄・集蚈しおいる結果

    そしおこれらの課題を vC Ops は次のように解決したす。

    ①  vC Ops 䞊の衚瀺の確認で枈む 工数ず時間を短瞮

    ②  vC Ops が自動で集蚈・分析する 工数の削枛ず根拠の明確化

     

    〜vCenter Operations Managerの抂芁〜

    それでは、 vC Ops自䜓の説明に入っお参りたす。はじめに、 vC Ops を導入した堎合の環境構成から説明いたしたす。 vC Ops は぀の仮想アプラむアンスが展開され、 vCenter Server から収集したデヌタを解析し、衚瀺したす。図4 vCenter Server は䞀぀たたは耇数を察象ずするこずができたす。

    Image may be NSFW.
    Clik here to view.
    図4vCenter Operations Manager の構成

    図4vCenter Operations Manager の構成

    集めたデヌタは、 vC Ops で解析されたす。この解析により、各リ゜ヌスの数倀デヌタは単にグラフ化されるのではなく、仮想環境は良いパフォヌマンスを発揮しおいるのか、䜕かずるべきアクションはあるのか、ずいった管理者にずっお圹立぀情報ずしお衚瀺されたす。ダッシュボヌドず呌ばれる vC Ops の基本画面は以䞋のような芋た目ずなっおおりたす。図5

    Image may be NSFW.
    Clik here to view.
    図5 vC Ops ダッシュボヌド画面

    図5 vC Ops ダッシュボヌド画面

    このダッシュボヌド画面は、巊から“健党性”、“リスク”、“効率”の瞊3列に分かれおおり、それぞれ以䞋のような内容を衚しおいたす。

    • 健党性  「珟圚の状況」     障害やパフォヌマンス䜎䞋に぀いお
    • リスク    「将来の予枬」     今埌のパフォヌマンス䜎䞋芁因はないか、リ゜ヌスは十分か
    • 効率     「構成の最適化」          構成を倉曎するこずで、リ゜ヌス節玄の可胜性はあるか

    これらの指暙“バッゞ”ず呌びたすによっお、管理者はひず目で環境の特城を把握できたすし、必芁であれば詳现な情報も掘り䞋げお芋おいくこずも可胜です。䟋えば、ある仮想マシンに぀いお性胜劣化の芁因を調べる際には、関連するオブゞェクトを䞀括しお衚瀺するこずで、どこに原因があるか突き止める倧きな助けずなりたす。図6

    Image may be NSFW.
    Clik here to view.
    図6関連するオブゞェクトを䞀括衚瀺

    図6関連するオブゞェクトを䞀括衚瀺

    たた、個別のオブゞェクトに関しおそれ自䜓の情報を詳现に芋る、ずいう意味では、図7のような画面から確認できたす。

    Image may be NSFW.
    Clik here to view.
    図7個別オブゞェクトの詳现情報衚瀺

    図7個別オブゞェクトの詳现情報衚瀺

    他にも vC Ops では俯瞰的な芋方から、詳现に特化した芋方たで、情報の衚瀺のされ方は豊富に甚意されおいたす。これにより、実際の運甚管理の堎面でも、その時々の目的に応じた情報を埗るこずが可胜ずなりたす。   このような vC Ops の機胜は、評䟡版を展開しお実際にご䜿甚いただくこずで、さらによく確認しおいただけたす。評䟡版のむンストヌルガむドは操䜜ガむドずずもにリンク先の蚘事にございたすので、ぜひご掻甚ください。

    http://blogs.vmware.com/jp-cim/2014/07/vcops_operations_guide.html

    〜vC OpsずvSOM〜

    vSOM ずいう補品をご存知でしょうか vSOM は、「 VMware vSphere with Operations Management 」の略で、 vSphere ず vC Ops のスタンダヌド゚ディションが合わさったものになっおいたす。図8vC Ops のラむセンスは通垞「25仮想マシン数単䜍のラむセンス」に察し、 vSOM のラむセンスは vSphere 同様CPU単䜍のラむセンスずなりたす。したがっお、vC Ops を利甚される際に、「仮想マシン数が将来増加する可胜性もあるなぁ 」ずいう堎合には、vSOM を入手するこずで仮想マシン数を意識する必芁はなくなりたす。

    Image may be NSFW.
    Clik here to view.
    図8vSOM は vSphere ず vC Ops のセット補品

    図8vSOM は vSphere ず vC Ops のセット補品

    詳现は匊瀟りェブペヌゞをご芧ください。http://www.vmware.com/jp/products/vsphere-operations-management/ 

    〜第7回たずめ〜

    vCenter Operations Manager を玹介しお参りたしたが、いかがでしたでしょうか本補品のこずが少しでも理解され、䜿うこずによるメリットも感じおいただけたしたら幞いです。こちらの補品は、ハンズオンラボでも䜓隓可胜ですので、ぜひお詊しください。http://labs.hol.vmware.com/HOL/catalogs/  ラボ番号HOL-SDC-1401

    〜本連茉たずめ〜

    さお、本シリヌズは「新卒 SE 瀟員が莈る vSphere のキ゜」ず題したしお、4名の新卒SEにより党7回でお莈りしお参りたした。”新入瀟員の目線”ずしお先茩SEの皆様ずは倚少異なるテむストで連茉しお参りたしたがいかがでしたでしょうか䜕はずもあれ、本シリヌズを通じお少しでもVMware補品の理解を深めおいただけたしたらずおも嬉しいです。

    私どもは今幎の月に入瀟しほが知識がないずころからのスタヌトでした。VMwareに関する勉匷には少なからず苊劎しおおりたすが、わかっおくるず楜しく、぀い぀い時間が過ぎおしたうこずもしばしばです。今埌初めおVMwareを導入されるナヌザ様や提案されるパヌトナヌ様におきたしおは、新しい抂念や甚語で苊劎されるかもしれたせん。

    その際は本連茉を読み返しおいただくず幞いです。私たち自身も日々勉匷するこずも倚いですが、皆様のご指導も受けながら䞀緒に盛り䞊げおいけたしたらずおも嬉しく思いたす。vForum 2014でもセッションを持ちたすので是非お越しください

    最埌になりたしたが、お読みいただき誠にありがずうございたした。
    VMware新卒瀟員 SE 氏田裕次/川厎䞀青/怚朚正博/野田裕二

    新卒 SE 瀟員が莈る vSphereのキ゜
    第回 vSphereを俯瞰する
    第回 仮想環境におけるネットワヌクずストレヌゞ
    第回 vMotionずvSphere HA/vSphere FTの違いずは
    第回 仮想マシンの配眮管理はDRSにお任せ
    第回 様々な仮想マシンが混圚&混雑しおも倧䞈倫ネットワヌク ず ストレヌゞの垯域を維持する仕組み
    第回 vSphere でココたでできるデヌタ保護
    第回 仮想環境ずなが〜くお付き合いしおいく

    ↧
    ↧

    デルストレヌゞEqualLogicず VMware vCenter Operations Managerの連携をご玹介

    みなさん、こんにちは。

    VMware vCenter Operations Manager(vC Ops)にはストレヌゞず連携できる機胜が甚意されおおりたす。今回はデルストレヌゞEqualLogicず連携した機胜を vExpert 2014でもあるデル株匏䌚瀟の䞭川明矎様にご玹介しおいただきたす。それでは䞭川様よろしくお願い臎したす。


     

    こんにちはデル株匏䌚瀟の䞭川明矎です♪

    前回デルストレヌゞCompellentずVMware vCenter Operations Manager(vC Ops)の連携をご玹介させおいただきたしたが、今回は、私デルの䞭川明矎よりDellのストレヌゞ 「EaualLogic」ず連携するDell EqualLogic Adapter for VMware vCenter Operations Manager(EqualLogic vCOPS Adapter)に぀いおご玹介したす。vC OpsずEqualLogicストレヌゞが連携するこずにより、EqualLogicストレヌゞの構成コンポヌネント(Groups/Members/Pools/Volumes)をvC Opsのオブゞェクトずし、関連する他のオブゞェクト(ホスト/デヌタストア/仮想マシン)ず同じ画面で衚瀺するこずが可胜です。たたEqualLogicストレヌゞのパフォヌマンス情報から仮想基盀の問題原因分析の䞀぀の手段ずするこずも可胜です。

     

    Dell EqualLogicずvC Opsずの関係

    䞋図は、Dell EqualLogicコンポヌネントずvC Opsずの関係を瀺しおいたす。

    Dell EqualLogicが提䟛するコンポヌネントには、「EqualLogic SAN Headquarters」Dell EqualLogic Statistics Agent「Dell EqualLogic vCOps Adapter」がありたす。


    EqualLogic SAN Headquartersから収集したデヌタを、SAN HeadquartersサヌバヌにむンストヌルしたDell EqualLogic Statistics AgentずDell EqualLogic vCOps Adapterが連携し、vC OpsのDell EqualLogicダッシュボヌドに衚瀺したす。SAN Headquarters (SAN HQ) は、EqualLogic暙準の監芖ツヌル(フリヌツヌル)です。SAN HQを䜿甚しおもEqualLogicのパフォヌマンスを監芖するこずはできたすが、vSphere環境ずは連携しおいたせんので、どの仮想マシンのワヌクロヌドが問題に関䞎しおいるかを分析するために時間を芁する堎合も考えられたす。

    Image may be NSFW.
    Clik here to view.
    eql_1

     

    vC Opsのおさらい

    vC OPSでは分析結果を、ダッシュボヌドに「健党性」リスク「効率」のスコアをバッゞず色で衚瀺したす。このバッゞの色で、緊急性があるのか、将来に問題があるのか、さらに統合率を高めるこずができるのかを䞀目で刀断できたす。緑なら珟圚問題がない、オレンゞなら近い将来に問題が発生する可胜性があるこず瀺しおいたす。

    Image may be NSFW.
    Clik here to view.
    eql_2

     

    Dell EqualLogicダッシュボヌドにアクセス

    EqualLogic vCOPS Adapterを準備したら、Custom UI(https://UI仮想マシンのIPアドレス/vcops-vsphere/)に接続したす。䞋図が接続埌の画面です。ダッシュボヌトメニュヌから、Dell EqualLogic甚の4぀のダッシュボヌドに切り替えるこずが可胜です。

    Image may be NSFW.
    Clik here to view.
    eql_3

    EqualLogic & VMware Relationship Dashboard構成芁玠の぀ながりを䞀目で把握

    最初に、EqualLogicず連携した仮想化基盀を把握できる「EqualLogic & VMware Relationship」ダッシュボヌドを確認したしょう。このダッシュボヌドは、vC OpsのvSphere UI(暙準UI)ず同様のバッゞで健党性スコアを衚瀺したす。仮想マシン、その仮想マシンのファむルが栌玍されたデヌタストア、仮想マシンが配眮された ESXi ホスト、それらず関連性のあるEqualLogicの各コンポヌトを可芖化したす。

    EqualLogic-VMware Relationship Viewでは各リ゜ヌスの状態を、健党性ツリヌでは、関連したリ゜ヌスの階局構造ず各リ゜ヌスの健党性ずアラヌト数を衚瀺したす。健党性ツリヌで衚瀺されたアラヌトの詳现がAlerts」に衚瀺されたす。他に画面䞋郚にMetric Sparklinesずメトリックグラフが衚瀺されたす。

    䞋図では、EqualLogic-VMware Relationship Viewで赀色衚瀺されおいるnkgw-vmfs01Volumeを遞択し、健党性ツリヌで関連するリ゜ヌスを衚瀺しおいたす。Alertsにはこのデヌタストアの残り時間アラヌトが衚瀺されおいたす。

    Image may be NSFW.
    Clik here to view.
    eql_4

    残り時間のアラヌムをドリルダりンするず、健党性の掚移やVolumeの詳现情報たで埗るこずも可胜です。

    Image may be NSFW.
    Clik here to view.
    eql_5

    EqualLogic Top-N Reports Dashboard

    さらに詳现なパフォヌマンス情報を確認したいのであれば、このダッシュボヌドを䜿甚したす。

    9぀のメトリックに関する、最も高い䜿甚率Top25のVolumeを衚瀺したす。最倧容量、空き容量、最倧遅延などその他パフォヌマンスに関する情報を確認するために䜿甚したす。

    • Total I/Os per second•
    • Write I/Os per second•
    • Read I/Os per second•
    • Total KB per second•
    • Write Latency•
    • Read Latency•
    • Queue Depth•
    • CVolume Capacity•
    • Least Free Space

    Image may be NSFW.
    Clik here to view.
    eql_6

     

    EqualLogic Storage At a Glance Dashboard

    EqualLogicの党コンポヌネントの抂芁を衚瀺したす。

    画面巊偎の「Group Selector」Pool SelectorVolume SelectorではEqualLogicの各コンポヌネントの健党性を色ず数倀で衚瀺し、画面右偎の「Metrics Sparkline」では、画面巊偎で遞択したコンポヌネントのメトリックデヌタを芖芚的に衚珟する小さなグラフ(スパヌクラむン)を䜿甚しお衚瀺したす。たたSelected Storage Array Health Treeでは、EqualLogicの党コンポヌネントの健党性をグラフィカルに衚瀺したす。Alerts」では、EqualLogicグルヌプ内のアラヌトを衚瀺したす。

    Image may be NSFW.
    Clik here to view.
    eql_7

     

    EqualLogic Storage Metrics Dashboard

    遞択したリ゜ヌス(EqualLogicコンポヌネント)のメトリックを詳现に衚瀺したす。Select Resource to View Metricsで詳现なメトリックを衚瀺したいコンポヌネントを遞択したす。Select Metrics to Graphではグラフ化したいメトリックを遞択したす。Metric Graphでグラフ化されたメトリックが衚瀺されたす。

    Image may be NSFW.
    Clik here to view.
    eql_8

     

    FirmwareずSoftwareの必芁芁件

    次が各Productの必芁芁件ずなりたす。

    EqualLogic Support Siteから入手可胜です。https://eqlsupport.dell.com

    ストレヌゞ連携機胜はvC OpsのAdvanced」゚ディションから提䟛されたす。

    Product Revision
    EqualLogic vCOPS Adapter VMware vCenter Operations Manager 5.7.1 以降
    Dell EqualLogic Statistics Agent PS Series firmware 6.0.7 以降
    SAN Headquarters 3.0, 3.0 1

     

    おわりに

    EqualLogic vCOPS Adapterの抂芁をご玹介させおいただきたした。ストレヌゞを含めた仮想基盀を䞀目で把握し、管理するこずができるのは䟿利ですね。EqualLogicをお持ちのお客様は倚いので、ストレヌゞず仮想基盀の管理にお困りであれば是非お声がけください!!

    むンフラストラクチャ・コンサルティング・サヌビス本郚 ãƒ†ã‚¯ãƒ‹ã‚«ãƒ«ã‚³ãƒ³ã‚µãƒ«ã‚¿ãƒ³ãƒˆã€€äž­å· 明矎
    Image may be NSFW.
    Clik here to view.
    eql_9

     

     

    ↧

    VMworld 2014 から第 3 回 – Virtual SAN Ready Node ず Hardware Guidance

    VMworld 2014 からの泚目セッションの第 3 回目は、Software-Defined Data Center 向けの Software-Defined Storage である Virtual SAN VSANを導入する際のシステム構成に関するガむドをご玹介したす。

    How to Build a Virtual SAN – Virtual SAN のシステム構成に぀いお

    Virtual SAN を導入するには、珟圚 3 ぀のアプロヌチがありたす。

    1. Virtual SAN Ready Node で構成
    2. VMware Compatibility Guide に掲茉されおいる ESXi + Vitual SAN 察応のハヌド、コンポヌネントで構成
    3. コンバヌゞドむンフラ統合むンフラ補品である EVO:RAIL を利甚

    EVO:RAIL に぀いおは、本シリヌズの第 2 回目に説明がありたすので、今回は Virtual SAN Ready Node による構成方法ず VMware Compatibility Guide ã‚’参照しながらの構成方法に぀いお説明したす。

    1. Virtual SAN Ready Node による構成

    Virtual SAN Ready Node ずは、サヌバ OEM ベンダより提䟛される Vitrual SAN 掚奚構成です。VSAN で必芁ずなるハヌドりェアコンポヌネント、vSphere ず Virtual SAN が事前に構成されおいるので、システム構築時間を倧幅に短瞮するこずができたす。たた、構成のプロファむルずしお、サヌバワヌクロヌド向けLow, Medium, Highず VDI ワヌクロヌド向けFull Clone、Linked Cloneの 5 ぀のプロファむルが甚意されおおり、導入するシステムのワヌクロヌド、芏暡に合わせお遞べるようになっおいたす。

    Image may be NSFW.
    Clik here to view.
    VSAN-Rdy-Step1
    Image may be NSFW.
    Clik here to view.
    VSAN-Rdy-Step2

     

    この Virtual SAN Ready Node の構成詳现は、VMware Virutal SAN Ready Nodes  で確認可胜で、8/15/2014 版のガむドでは、8 瀟のサヌバ OEM ベンダから 40 皮類の構成が Virtual SAN Ready Node ずしお登録されおいたす。

    Image may be NSFW.
    Clik here to view.
    VSAN-Rdy-Node

    Virtual SAN Ready Node ずしおは、将来以䞋のようなコンフィグレヌションもリリヌスされる蚈画がありたす。

      • Ready Nodes for Blade Servers with Direct Attached Storage
      • Ready Nodes with High Density Storage From Factors
      • Ready Nodes with Hardware Checksum Protection
      • Ready Nodes with Hardware Encryption
      • Ready Nodes with end to end 12G support
      • Ready Nodes with NVMe devices for super-charged performance
      • Ready Nodes with All Flash

    2. VMware Compatibility Guide で Virtual SAN 察応のハヌド、コンポヌネントを確認しお構成

    Virtual SAN は、Virtual SAN Ready Node に掲茉されおいる機噚だけでなく、Virtual SAN 動䜜認定されおいるコンポヌネントを組み合わせお自由に構成するこずも可胜です。Virtual SAN を利甚するには、ホストが最小 3 台、内蔵 HDD ず SSD ずクラスタを構成するためのネットワヌクが必芁ずなりたすので、芁件に合わせる圢で構成しおいきたす。

    Image may be NSFW.
    Clik here to view.
    VSAN-Req

     

    基本的には、導入する ESXi バヌゞョンに察応したハヌドりェアで構成したすが、SSD、HDD、SAS/SATA コントロヌラストレヌゞコントロヌラに぀いおは Virtual SAN 甚の VMware Compatibility Guide  がありたすので、ここに掲茉のあるコンポヌネントで構成したす。

    Image may be NSFW.
    Clik here to view.
    VSAN Build Your Own

    Image may be NSFW.
    Clik here to view.
    VSAN-BYO-VCG

    それでは、この VMware Compatibility Guide に沿っお構成しおいきたす。

    1. I/O Controller

    I/O Controller セクションで、Virtual SAN でサポヌトされる I/O Controller ストレヌゞコントロヌラず察応しおいるデバむスドラむバが確認可胜です。

    Image may be NSFW.
    Clik here to view.
    VSAN-BYO-IOcontroller
    リストに出おくるコントロヌラの詳现を確認するず、そのカヌドでサポヌトされおいる RAID モヌドPass-Through モヌドか RAID0、ESXi やデバむスドラむバのバヌゞョンを確認するこずができたす。

    2. HDD

    Virtual SAN は、SAS、NL SAS、SATA HDD をサポヌトし、倧容量向けの 7,200 RPM、パフォヌマンス向けの 10,000 RPM、より高いパフォヌマンス向けの 15,000 RPM のドラむブの䞭から構成したす。

    3. SSD

    SSD に぀いおも、HDD 同様に Virtual SAN 察応しおいるもので構成する必芁がありたす。SSD に぀いおは Performance Class ずいう項目があり、構成時に SSD のパフォヌマンスを考慮する事が出来るようになっおいたす。

    Performance Class:
     Class B: 5,000-10,000 writes per second
     Class C: 10,000-20,000 writes per second
     Class D: 20,000-30,000 writes per second
     Class E: 30,000+ writes per second

    4. その他のパヌツ

    サヌバ本䜓3 台以䞊 32 台たで、NIC、ESXi 起動甚デバむスに぀いおは、お䜿いになる ESXi のバヌゞョンでサポヌトされおいるもので構成したす。

    Hardware Solution Guidance

    ここでは Virtual SAN 甚のハヌドりェア構成䞊の泚意点に぀いお説明したす。

    起動甚デバむス

    ESXi 起動甚デバむスに぀いおは、ESXi ホストに搭茉されおいるメモリ容量に䟝存したす。

    • メモリ容量が 512GB 未満
      Virtual SAN 領域ずは別の磁気ディスクや SSD、容量 4GiB 以䞊の容量を持った SD/USB
    • メモリ容量が 512GB 以䞊
      Virtual SAN 領域ずは別の磁気ディスクや SSD

    フラッシュデバむス

    Virtual SAN においお、党おのリヌド・ラむト凊理は、フラッシュ階局に盎接枡されたす。たた、Virtual SAN では、フラッシュベヌスのデバむスは 2 ぀の目的に利甚されたす。

    1. 䞍揮発性のラむトバッファ容量の 30%
    2. リヌドキャッシュ容量の 70%

    Virtual SAN においおは、フラッシュデバむスの遞択は、最もパフォヌマンスに圱響するので、補品の遞択には泚意を払う必芁がありたす。

    磁気ディスク (HDD)

    SSD の遞定ず、SSD:HDD の比率は、クラスタの性胜を巊右したす。倧たかなガむドラむンでは、10% ずなりたす。

    ストレヌゞコントロヌラ

    SAS/SATA ストレヌゞコントロヌラに関するガむドは以䞋のものがありたす。

    • Pass-Through モヌドず RAID0 モヌドをサポヌト
    • ストレヌゞ コントロヌラヌのキュヌ深床が重芁
      より深いストレヌゞコントロヌラヌのキュヌ深床はパフォヌマンスを向䞊させる
      参考キュヌ深床は、VMware Compatibility Guide で確認可胜
    • ストレヌゞコントロヌラがサポヌトするドラむブ数を確認する必芁がある
    • RAID0 モヌドを利甚する堎合の SSD の性胜は、ストレヌゞコントロヌラに䟝存
    • RAID0 モヌドの堎合、ESXi はフラッシュベヌスのデバむスず磁気ディスクを区別できない堎合がある
      その堎合は、esxcli コマンドを䜿甚し、デバむスを SSD ずするフラグを立おる
      参考Enabling the SSD option on SSD based disks/LUNs that are not detected as SSD by default (2013188)

    ネットワヌク

    ネットワヌクに関するガむドは以䞋のものがありたす。

    • 1Gb / 10Gb をサポヌト10Gb を匷く掚奚
      1Gb の堎合は、Virtual SAN 専甚のネットワヌクずするこずを掚奚
    • ゞャンボフレヌムにより僅かながら性胜向䞊する可胜性あり
      新芏デプロむの堎合は有効にする
    • Virtual SAN は仮想スむッチず分散仮想スむッチをサポヌト
      備考Virtual SAN のラむセンスに分散仮想スむッチのラむセンスも含たれたす
    • ネットワヌク垯域の性胜は、通垞のワヌクロヌドよりも、ホストの埅機やリビルドに察しお倧きな圱響を䞎える

    最埌に

    VMware Compatibility Guide ã¯ã€æ¯”范的頻繁にアップデヌトされおいたすので、Virtual SAN 環境を構成/構築される堎合は、その郜床サポヌト状況を確認するようにしお䞋さい。

     

    ↧

    VMworld 2014 からの泚目セッション 第4回 – DevOps (前線) – SDDCずIaaS++

    皆様こんにちは、VMware の町田ず申したす。 今回は、8月末に米囜サンフランシスコで開催されたVMworld 2014にお発衚された数あるトピックより、日本でも泚目が高たっおきおいる DevOps  ã«é–¢é€£ã™ã‚‹ã‚»ãƒƒã‚·ãƒ§ãƒ³ã®å†…容を取り䞊げながら、VMware のクラりド管理゜リュヌションを Dev(開発)ずOps(運甹)の協調ずいう芖点から前線・埌線の二回に分けおご玹介したす。

    はじめに

    VMworld 2014 では、倚くの゚ンタヌプラむズ環境が゜フトりェアデリバリプロセスにおいお抱える 「安定か぀継続した、ビゞネスのスピヌドにあわせた俊敏なリリヌス」「コスト削枛」「倉曎ぞの柔軟な察応」などの課題に察しお、VMware  ã®ã‚¯ãƒ©ã‚Šãƒ‰ç®¡ç†ã‚œãƒªãƒ¥ãƒŒã‚·ãƒ§ãƒ³ã®å°Žå…¥ãŒã‚‚たらす䟡倀に぀いお、特に DevOps の芖点から耇数のセッションが提䟛されたした

    この䞭で筆者が特に泚目する内容ずしおは、MGT3210-S セッション内で [Tech Preview] ずしお玹介された「Continuous Delivery for DevOps」 がありたす。こちらに぀いおは、本蚘事の[埌線]でご玹介したす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-0-1

    ※ 補足 最新情報

    

    VMworld 2014 EUROPE の開催に合わせお、日本でも2014幎10月15日日本時間付けでクラりド管理プラットフォヌムの最新版「VMware vRealize Suite 6」を含む、新たなクラりド管理補品矀ず機胜矀を発衚したした。この䞭で、DevOps における継続的デリバリヌを実珟する「VMware vRealize Code Stream」ずいう補品も発衚されおいたす。この補品が、VMworld 2014 US で[Tech Preview]ずしお玹介された Continuous Delivery for DevOps の正匏名称ずなりたす。

    

    たた、その他で DevOps ず関連するものずしおは、以䞋に挙げるセッションがありたした。

    vCloud Air 環境での”Infrastructure as Code” の実珟や、VMware vCloud Automation Center (vCAC)ず Puppet の連携、vCAC ず PaaS (Pivotal CF) の連携、今ホットな Docker ずいった、さたざたなテヌマで DevOps ず絡めた話題が出おいたした。

    䜙談

    いきなり話が逞れたすが、䌁業が 倧倉な劎力ずコストをかけおアプリケヌションを開発/テストしお、さらなる劎力をかけおリリヌスしお運甚、保守しおいるのは、圓然のこずですがビゞネスの䟡倀を高めるためであり、それらは間接的にはアプリケヌションを䜿うこずによる業務効率の向䞊であったり、盎接的には売䞊の増加であったりしたす。ITシステムに察する芁求管理は、今も昔もアプリケヌション開発における最も難しいテヌマの䞀぀です。

    ずころで、皆様の組織では、 アプリケヌションに察するたった䞀行の゜ヌスコヌドの倉曎を本番環境に反映させるリリヌスするたでに、どれぐらい時間がかかるでしょうかたた、そのプロセスは安定か぀繰り返し可胜なものでしょうか

    サむクルタむム

    この問いは、リヌン゜フトりェア開発有名なポッペンディヌク倫劻の曞籍で投げかけられおいるものです。

    “How long would it take your organization to deploy a change that involves just one single line of code? Do you do this on a repeatable, reliable basis? “

    (Mary Poppendieck; Tom Poppendieck, â€œImplementing Lean Software Development, Addison-Wesley Professional, 2006”)

    ITシステムがビゞネスの芁求に察しおいかに「俊敏」に察応できおいるか垞に振り返るためのきっかけずしお、非垞に瀺唆に富んでいたす。ITによるビゞネスの俊敏性向䞊ずは、サむクルタむムをいかに短く、か぀安定したもにできるかにかかっおいるず蚀えるからです。「ビゞネス」ず蚀っおしたうず新芏アプリケヌション開発をむメヌゞしお、Ops(運甹)の方々にはあたり関係のない話に思われるかもしれたせんが、ここでの「倉曎」ずは、リリヌス埌の機胜远加や、バグの緊急修正及びリリヌスなど、システムを利甚する倚くの利害関係者からの、継続的な芁求ぞの察応を含んでいたす。

    より技術的な芳点からは、「継続的デリバリ」のバむブルである曞籍の著者であるゞェズ・ハンブル氏らが曞いおいる蚀葉が心に響きたす。

    “Release your software at the push of a button.” 

    (Jez Humble; David Farley, â€œContinuous Delivery: Reliable Software Releases through Build, Test, and Deployment Automation”, Addison-Wesley Professional, 2010”)

    ゜フトりェアのリリヌスは、究極的にはボタンを䞀回抌すだけで完了できおしかるべきもの、ずいうこずでしょうか。

    倉えないで枈む、そしお倧きな成果を生む

    脱線぀いでに、もう䞀぀䜙談を。

    ハむパヌバむザヌが実珟する仮想化には、1぀の矎孊があるず思っおいたす。それは

    • OSより䞊で動䜜するものや、それに関連するものに察しお、これたでずたったく倉わっおいないずいう幻想を䞎える

    こずです。Docker などのコンテナ技術が泚目を集めおいる今では時に過小評䟡されるかもしれたせんが、新しい技術を組織に導入しお浞透させおいく際には極めお重芁な性質です。倉わっおいないずいうこずは、倧郚分においお、これたでのやり方をそのたた螏襲できるずいうこずです。ITの䞖界ではずにかく目新しく、革新的なに芋える技術が目を匕きがちですが、VMware はそういった䞭長期的な将来のIT基盀のあり方を倉えるようなテクノロゞヌにも泚芖する䞀方で、物理環境から仮想化基盀、そしおその䞊で埓来のアヌキテクチャに基づいお䜜成されたアプリケヌションを展開しお運甚しおいるような環境から、挞進的にSDDC、そしおハむブリッドクラりド環境ぞず移行しおいけるような゜リュヌションに力を泚いでいたす。

    IT業界で話題になるテクノロゞや手法は、 ゚ンゞニアを倚く抱えたWeb系の最先端IT䌁業が䞭心になっお掚進しおいるケヌスが倚く、゚ンタヌプラむズのITでそのたた導入しようずした堎合にたったく新しいやり方や、高床な技術的スキルが芁求されるこずも倚いです。やり方が新しければ新しいほど、組織構造や業態、技術者のスキルセットず照らし合わせた堎合に、採甚のための障壁が高くなりたす。

    これから構築しおいく新しいアプリケヌションに察しおは、新しいやり方を詊すのはそれほど難しくないかもしれたせん。

    では、すでに構築しお運甚・保守しおいるアプリケヌションのラむフサむクルを、これからどうやっお管理しおいけばよいでしょうか今やモバむル・クラりド時代に突入し、ビッグデヌタやサヌビス指向のアヌキテクチャも Web サヌビスの普及ずずもに広がっおきおいたす。

    アプリケヌション開発チヌム

    アゞャむル゜フトりェア開発宣蚀が公開されたのは2001幎のこずですが、それから13幎、欧米ではすっかり䞻流の開発手法ずなっおいたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-2-1-2

    VMworld 2014 のセッションでも、Facebook、LinkedIn などの先端的な Web 系䌁業では1日に10、100、もしくはそれ以䞊の回数アプリケヌションをデプロむしおいるような䟋も語られおいたしたこれは極端な䟋かもしれたせんが。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-2-1

    アゞャむル開発の考え方の最倧の特城の䞀぀は、芁求管理の方法にありたす。アゞャむルは「倉化に察応する」ための開発方法ずも蚀えたすが、それはひずえに「芁件に優先順䜍を぀けお、必芁な時に必芁なものをゞャスト・むン・タむムで蚈画しお䜜る」「最初に想定しおいおも、必芁ないずわかった時点で䜜らない」点にありたす。぀たり、りォヌタヌフォヌルのようにプロゞェクトの最初期で時間をかけお「蚈画」された芁件に瞛られるようなこずはありたせん。

    アゞャむル開発では、埓来からの「スコヌプ」「コスト」「スケゞュヌル」ずいう゜フトりェア開発における「鉄の䞉角圢」に代わり、「リリヌスされる゜フトりェアによっお実珟される䟡倀」「品質」を倉動できないものずしおずらえ、プロゞェクトの制玄ずなる芁玠のうち「スコヌプ」を調敎するこずで、倉化に察応しながらも安定か぀継続したリリヌスを実珟したす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-2-2

    ここで、頻繁にリリヌスされる゜フトりェアの品質を支えるのが、゜ヌスコヌドのバヌゞョン管理、テスト駆動開発(TDD)及びテスト自動化、継続的統合(CI)ずいった、ツヌルを掻甚した自動化及び各皮のプラクティスずなりたす。

    ただし、仮にアゞャむル開発を採甚し、うたく珟堎でたわすこずができおいたずしおも、それだけでは開発チヌムの悩みは尜きるこずはないでしょう。

    埓来からのクラむアント-サヌバ、あるいはWeb 3階局モデルなどに埓っおアプリケヌションを蚭蚈した堎合、デプロむ可胜な成果物が完成した埌のリリヌス䜜業はコストのかかる、骚の折れる䜜業であるこずには倉わりありたせん。この芁因ずしおは、倚くの人員や手䜜業が必芁なケヌスが倚いこずや、構成管理が倧倉なこず、むンフラの準備のための時間ず工数、たた特に゚ンタヌプラむズでは通垞だず思いたすが「開発チヌム」ず「運甚チヌム」をはじめずする耇数の組織が関わっおいるこずなどが挙げられたす。リリヌス察象の環境自䜓も、オンプレの物理環境から仮想化基盀、プラむベヌトクラりド、パブリッククラりドずいったように様々な遞択肢を怜蚎する必芁がでおきおおり、耇雑さずそれに䌎うコストは増す䞀方です。特に、むンフラのこずに぀いおは開発チヌムだけではなかな手も足もでたせん。

    そのため、AWS などのパブリック IaaS をシャドヌITずしおIT郚門を通さずに利甚したり、たた最近では PaaS 䟋えば Pivotal CF ãªã©ïŒ‰ã®æ€œèšŽã‚„、Docker ã®ã‚ˆã†ãªã‚³ãƒ³ãƒ†ãƒŠæŠ€è¡“を掻甚した新しいアプリケヌションの構築、パッケヌゞ化、配垃、実行のモデルに泚目するケヌスが増えおきおいるのでしょう。

    これらの根底には、垞にアプリケヌションリリヌスのサむクルタむムぞの意識がありたす。

    むンフラ運甚チヌム

    ここ数幎来、仮想化技術が広く普及したこずもあり、物理サヌバを仮想化基盀に統合しおコストを削枛するずいう考え方は、ごく普通のこずになりたした。VMware では、VMware の考える ゚ンタヌプラむズのIT基盀及び組織が進むべき道ずしお、最近では次のようなスラむドを䜿っお説明しおいたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-3

    Ops (運甹)の芖点から芋た堎合、䟋えば゚ンドナヌザのPC利甚環境仮想ワヌクスペヌスも含むの敎備などは、アプリケヌション開発が絡たない、ITを掻甚したビゞネス生産性向䞊のための投資ずいえたす。

    アプリケヌション開発ラむフサむクルにおける開発チヌムの課題ず最近の動向に぀いおは先ほど觊れたしたが、そこで

    特に、むンフラのこずに぀いおは開発チヌムだけではなかなか手も足もでたせん。

    ず曞きたした。SDDC、ネットワヌクの仮想化、ストレヌゞの仮想化、ハむブリッドクラりド、クラりド運甚管理・・・、むンフラ管理者にずっお新しい技術や抂念が目癜抌しです。そのような䞭、競争の激しいビゞネスからの芁求に応えるため、䞀秒でも早いサむクルタむムの実珟のため、倚くの課題を抱えながらアプリケヌション開発を続ける開発チヌムに察しお、むンフラ及びOps (運甹)チヌムは今䜕が求められるでしょうか

    Dev ず Ops を隔おる壁

    特に゚ンタヌプラむズではその傟向が匷いず思いたすが、システム開発のラむフサむクルにおいおは、䞀般にDev(開発) ず Ops (運甹) には高い壁があるケヌスが倚いです。

    次のスラむドは、VMworld 2014 の耇数のセッションで䜿われおいたものです。

    Image may be NSFW.
    Clik here to view.

    端的に蚀うず、䞡者の利害は䞀臎しおいたせん。

    開発チヌムはむンフラやアプリケヌションのリリヌスに察するスピヌドを求め、䞀方で運甚チヌムはその職務䞊、安定した運甚及びトラブルの予防のためにできるだけ倉化がないこず、そしお厳しく管理するこずを求めたす。

    開発チヌムはビルドしおデプロむ可胜になった成果物を運甚チヌムに枡したす。開発チヌムが掌握できるロヌカルのテスト環境はただしも、ナヌザ受け入れテスト環境、負荷テスト環境、ステヌゞング環境、そしお本番環境・・。開発チヌムの手を離れおから、実際にアプリケヌションが利甚可胜になるたでに、どれぐらいの時間がかかるでしょうか。アゞャむル開発を導入しおいる組織で、デプロむ可胜な成果物は1週間に1回リリヌスできおも、むンフラ偎で環境にデプロむしお運甚に持っおいくたでのスピヌドが察応できないため、結局実際にアプリケヌションが本番環境にリリヌスされるのは3ヶ月半幎に1回、ずいう䟋もあるようです。

    この壁は、もし存圚するのであれば今埌もずっず存圚しおいおよいものでしょうか

    DevOps ずは

    実は、この壁は先ほどご玹介したような1日に10、100、もしくはそれ以䞊の回数アプリケヌションをデプロむするような環境の䌁業には存圚しおいたせん。

    Wikipedia ã«ã‚ˆã‚‹ãšã€DevOps ãšã¯

    DevOpsデブオプスは、゜フトりェア開発手法の䞀぀。開発 (Development) ず運甚 (Operations) を組み合わせたかばん語であり、開発担圓者ず運甚担圓者が連携しお協力する開発手法をさす。ただし2013幎珟時点では厳密な定矩は存圚しおおらず、抜象的な抂念に留たっおいる。

    ずありたす。

    物事を最適化する方法ずしお、holistic approach (党䜓論的アプロヌチ) ãšã„う蚀葉が䜿われるこずがありたすが、アゞャむル開発における「チヌム」もこのようなアプロヌチであり、DevOps も開発ず運甚が連携しお協調するこずで、これたで誰もがうすうす感づいおいながらシステム開発ラむフサむクルにおいお非効率であった郚分特にサむクルの埌半に察応しおいこうずするものです。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-5-2

    ただ、泚意点ずしおこのような取り組みは、ややもするず「組織論」に偏りがちです。䜓制を倉えおいく必芁があるのは倧前提なのですが、耇雑さを増す䞀方のクラりド時代の今、手䜜業ず人間によるコミュニケヌションでの改善には限界がありたす。是非、ツヌルには適切に投資し、最倧限掻甚するこずをご怜蚎ください。これはベンダヌの立堎での郜合の良い意芋ずも取れたすが、ITが魔法のような速床で䞖の䞭やビゞネスを倉えおいるのは゜フトりェアの力(ずそれを支える匷力なむンフラ)であり、ツヌルは特定の目的を最適に実珟するこずを目指しお䜜られた゜フトりェアです。

    [今できるこず] SDDC ず IaaS++

    DevOps のような開発ず運甚が亀わるような領域においお、䜜業の協調、高床な自動化、ハむブリッドクラりド環境ぞの察応、ずいった技術的にも耇雑な取り組みを着実に掚進しおいくためには、そのむンフラずなるしっかりずした土台が欠かせたせん。その䞭で、VMware がご提䟛可胜なものずしおは、SDDC のビゞョンを実珟する VMware のクラりド運甚管理補品を䞭心ずした゜リュヌションになりたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-1

    開発チヌムはこれたでも、開発・テスト環境の準備ずいう芳点で非垞に苊劎しおきたした。䟋えば開発者のPC環境のセットアップもその䞀぀です。VMware Workstation などの仮想化補品を䜿っお、PC䞊にテンプレヌトから展開した開発・テスト環境を甚意するケヌスも倚いず思いたす最近では Vagrant ãŒã‚ˆãè©±é¡Œã«äžŠã‚ŠãŸã™ã­ïŒ‰ã€‚

    SDDC をベヌスずする匷固な土台を導入しおいくこずで、クラりド環境を䜿っおこれらの䜜業を支揎し、さらなる効率化を進めるこずが可胜です。

    䟋

    • NSX によるネットワヌク仮想化によっお、テスト環境の仮想マシン矀に察しお隔離された論理(L2)ネットワヌクを個別に提䟛
    • vSAN によるストレヌゞ仮想化によっお、ストレヌゞのコスト及び管理工数を削枛し぀぀、必芁に応じおリ゜ヌスをスケヌルアりトできる、開発環境に最適なクラスタを構成
    • vCAC のポヌタルを通しお仮想マシンの提䟛を含む各皮のサヌビスを統合しおいくこずで、管理性を保ちながらも、必芁なリ゜ヌスがセルフサヌビスですぐに手に入る環境を開発者に察しお提䟛

    これらは䞀䟋ですが、開発、テストにおける䜜業効率の向䞊、そしおサむクルタむムの短瞮に぀ながりたす。

    ここたでは、システム開発ラむフサむクルにおける「ビルド」「テスト」ずいった䞻に開発チヌムの䜜業をむンフラずしお支揎する範囲ずなりたすが、DevOps ずいう芳点から芋た、VMware ゜リュヌションずしおの 最初のタヌゲットは、アプリケヌションのデプロむ䜜業の最適化です。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-1-2

    VMware では、仮想化基盀あるいは IaaS 䞊ぞの仮想マシンのプロビゞョニング及び構成に加えお、アプリケヌションのデプロむ及び構成管理を含めた郚分を簡玠化及び自動化するための゜リュヌションをご提䟛しおいたすVMware ではこれを IaaS++ ãšè¡šçŸã™ã‚‹ã“ずもありたす。

    この゜リュヌションは、以前は VMware vFabric Application Director ずいう名称でしたが、vCAC の䞀郚ずしお統合され、さらに vCAC 6.1 では Application Services ず名称が倉わっおいたす。

    Application Services のクラりド管理補品ずしおの特城は、階局の構成を含むアプリケヌションをGUIツヌルを䜿っおブルヌプリントずしおモデル化し、同䞀のブルヌプリントから AWS、vCloud、vCAC ずいった様々なクラりド環境に察しおアプリケヌションをデプロむできるこずです。これにより、開発環境、テスト環境、本番環境ずいった、芁件によっお異なる環境に同じ構成のアプリケヌションを䜕床もデプロむしなければいけないケヌスで、䞀貫性を確保した、安定したデプロむ環境を構築するこずができたす。このような芁件は、今埌は前提ずしお怜蚎しなければならなくなるでしょう。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-4

    アプリケヌションのブルヌプリントは、䜿甚するOSの仮想マシンテンプレヌトを指定する「Logical Templates」、そのOS䞊で動䜜するDBなどのミドルりェアを指定する「Services」、そしおさらにミドルりェア䞊にデプロむされるアプリケヌションを指定する「Application Components」などで構成されたす。これらの芁玠は、GUIパレット䞊でドラッグ&ドロップしお、芁玠を積み重ねるこずで関係を衚珟したす。たた、仮想マシンのプロビゞョニングやアプリケヌションのデプロむの順番は、䟝存関係を衚すラむンで芁玠間を結ぶこずで衚珟したす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-5

    「Services」や「Application Components」などの芁玠は、ミドルりェアやアプリケヌションを仮想マシン䞊にむンストヌルしお構成する動䜜を指定する、重芁な圹割を担っおいたす。「Services」を䟋にずるず、これらは「Apache v.2.2.0」「vFabric RabbitMQ v2.4.1」「MySQL v5.0.0」ずいった個々のミドルりェア毎に管理され、それぞれがApplication Services におけるアプリケヌション展開のラむフサむクルINSTALL, CONFIGURE, START, UPDATE, ROLLBACK, TEARDOWNにおいお行うべき動䜜を、スクリプトずしお蚘述しおいたす。これらの芁玠は、スクリプト及びデプロむ時にカスタマむズ可胜なプロパティからなるテンプレヌトに過ぎたせん。なお、このスクリプトですが、Windows では「Windows CMD」「PowerShell」「BeanShell」が、Linux では「Bash」及び「BeanShell」がサポヌトされおいたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-8

    Application Services ではブルヌプリントで定矩された䟝存関係から個々の芁玠の実行順序が導き出され、仮想マシンのプロビゞョニング埌にそれぞれのスクリプトが順番に呌び出されるこずによっおアプリケヌションの展開が実行されおいきたす。

    たた、Application Services ではアプリケヌション展開埌にも、同䞀のむンスタンスに察しお䞀郚の構成を倉曎した䞊での「Update」や、倉曎埌に゚ラヌが芋぀かった際の「Rollback」、アプリケヌションの取り壊しを行う「TEARDOWN」、そしお削陀ずいったラむフサむクル管理を行うこずができたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-9

    “Infrastructure as Code” を実珟する Puppet や Chef などのツヌルを䜿ったこずのある方なら、䟋えば次のような DSL 定矩を思い浮かべられたかもしれたせんこれは Puppet のマニフェストの䞀䟋です。

    Application Services は、たさに同じようなこずを、異なるアプロヌチで実珟するツヌルずいえたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-6

     Application Services はクラりド環境における “Dev” ず “Ops” の協調䜜業プラットフォヌム

    IaaS++ ずしお Application Services に぀いおご玹介しおきたしたが、DevOps ずいう芖点でたずめるず、Application Services ずは「クラりド環境における “Dev” ず “Ops” の協調䜜業プラットフォヌム」です。仮想化基盀やクラりドの管理者は環境毎の仮想マシンテンプレヌトやテナントを準備し、カタログ管理者はスクリプトの䜜成などで開発者、運甚者ず連携しながら「Services」や「Application Components」のカタログを管理し、アプリケヌションアヌキテクトはアプリケヌションブルヌプリントを䜜成したす。各環境ぞのリリヌス段階では、デプロむダがブルヌプリントを利甚し、環境毎のプロパティ倀をカスタマむズした䞊でデプロむし、その埌も連携しながらラむフサむクルを管理する。このような、クラりドむンフラを含めたアプリケヌション展開の構成管理を、䞀぀のツヌルを䜿っお実珟するこずができたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-7

    なお、開発者ずは「成果物」の管理を通しお連携しおいたす。䟋えば、開発チヌムが CI ツヌル (Jenkins) でビルドしお䜜成するアプリケヌションのモゞュヌルを Application Services 偎に登録しお、ブルヌプリントで指定された「Application Components」が実行時にそのモゞュヌルをダりンロヌドしおむンストヌルする、ずいった連携が実珟できたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-11

    Puppet Integration

    Bash などのスクリプトを䜿うず聞いお、「うげっ」ず思われた方もいるかず思いたす。時代は DSL ではないのか、宣蚀的な、あるべき状態の蚘述ではないのかず。ご安心䞋さい。Application Services では Puppet ずのむンテグレヌションもサポヌトしおいたす。これにより、アプリケヌションの展開プロセス党䜓のオヌケストレヌションや仮想マシンのプロビゞョニングは Application Services が行いたすが、各仮想マシン䞊の構成は Puppet Master 及び Agent におたかせする、ずいうこずも可胜です。vCAC 6.1 ではむンテグレヌションもさらに匷化されおいたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-6-10

    個人的には、Bash / PowerShell などの良く䜿われおいるツヌルを䜿うこずができるもの、既存資産の有効掻甚や、今たでず倧きくやり方を倉えないで枈む点で、特に゚ンタヌプラむズ環境ではメリットの䞀぀だず考えたす。

    最埌に

    本蚘事が、これたで䞻にむンフラの芳点から VMware に觊れおいただいおいる方々が、DevOps ずいう芳点から VMware のクラりド運甚管理補品や呚蟺技術に察しお目を向けおいただける䞀぀のきっかけになりたしたら、倧倉うれしく思いたす。

    なお[埌線]では、先日発衚された新補品である VMware vRealize Code Stream を䞭心に、VMware が今埌芖野に入れおいる DevOps 関連の゜リュヌションに぀いお、VMworld 2014 でのセッション内容を亀えおご玹介する予定です。

    ↧
    ↧

    VMworld 2014 からの泚目セッション 第4回 – DevOps (埌線) – 継続的デリバリヌず VMware vRealize Code Stream

    皆様こんにちは、VMware の町田ず申したす。 今回は、8月末に米囜サンフランシスコで開催されたVMworld 2014にお発衚された数あるトピックより、日本でも泚目が高たっおきおいる DevOps  ã«é–¢é€£ã™ã‚‹ã‚»ãƒƒã‚·ãƒ§ãƒ³ã®å†…容を取り䞊げながら、VMware のクラりド管理゜リュヌションを Dev(開発)ずOps(運甹)の協調ずいう芖点からご玹介する蚘事の [埌線]ずなりたす。

    はじめに

    [前線]の蚘事はこちらになりたす

    たた先日発衚された、 DevOps における継続的デリバリヌ ゜リュヌションである VMware vRealize Code Stream に぀いお、[前線]の内容もここでおさらいしおおきたす。  VMworld 2014 EUROPE の開催に合わせお、日本でも2014幎10月15日日本時間付けでクラりド管理プラットフォヌムの最新版「VMware vRealize Suite 6」を含む、新たなクラりド管理補品矀ず機胜矀を発衚したした。この䞭で、DevOps における継続的デリバリヌを実珟する「VMware vRealize Code Stream」ずいう補品も発衚されおいたす。この補品が、VMworld 2014 US で[Tech Preview]ずしお玹介された Continuous Delivery for DevOps の正匏名称ずなりたす。 

    リリヌスパむプラむン管理ずアヌティファクト管理

    「VMware vRealize Code Stream」 は、[前線]で玹介した Application Services のアプリケヌション展開を管理するずいう考えをもう䞀歩進めお、開発チヌムの継続的統合(CI)環境ず連携するこずで、各環境ぞのアプリケヌション展開を含めたリリヌスパむプラむン党䜓の自動化の実珟継続的デリバリヌを目指すものです。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-7-0

    次の図は、「Dev (開発)」、「Test (テスト)」、「UAL – Load (ナヌザ受け入れ、負荷テスト)」、「SIT – Staging (システム統合テスト – ステヌゞング」、「Production (本番)」ずいう5぀のステヌゞをも぀リリヌスパむプラむンをあらわしおおり、ステヌゞによっお AWS、プラむベヌトクラりドずいった別の環境にアプリケヌションが展開されるこずが想定されおいたす。

    Image may be NSFW.
    Clik here to view.

    このような環境で、各ステヌゞ内では「プロビゞョニング」「テスト」「デプロむ」「カスタム」「アヌティファクト」ずいった個々のタスクを倖郚のツヌル(䟋えば Jenkins や Artifactory、vCAC、vCO のカスタムワヌクフロヌなど)ず連携しながら実行しおアプリヌションをクラりド環境䞊に展開しおいきたす。各ステヌゞ間には「ゲヌト」が存圚し、䟋えば「前のステヌゞのテスト実行結果が100%のずきだけ次のステヌゞに進む」「前のステヌゞで人手による受け入れテストの実行結果が90%以䞊の時に、管理者が承認をするこずで次のステヌゞに進む」ずいった自動化が可胜になりたす。

    Image may be NSFW.
    Clik here to view.

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-7-5

    継続的デリバリを実珟するリリヌスパむプラむンの管理ツヌルずしおは、アゞャむル開発における Thought Reader である ThoughtWorks 瀟の Go ãªã©ãŒã‚りたすが、VMware がこのカテゎリのツヌル開発に力を入れおいる背景には、SDDC 環境ぞの移行を掚進されおいるお客様からの声ずしお、IaaS を超えた、クラりド環境におけるアプリケヌションのリリヌス䜜業党䜓の管理を実珟できる補品に察するご芁望が倚くなっおきたこずがありたす。

    その他のトピック

    ここからは、 DevOps に関連するセッションの䞭から、個人的に気になったものを簡単にご玹介したす。

    1. VMware vCloud Air

    VMware がグロヌバルで提䟛するハむブリッドクラりドサヌビスである vCloud Air 日本でも2014幎7月にに、日本での提䟛が開始される予定であるこずをアナりンスですが、VMworld のセッションスラむド内でも 「DevOps」 がうたわれおいたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-3-0

    vCloud Air の文脈でも、アプリケヌションのリリヌスにかかる時間に぀いお蚀及されおいたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-3-1

    “Infrastructure as Code” を実珟するツヌルずしお Chef のプラグむンが玹介されおいたした。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-3-2

    たた、DevOps サヌビスずしお「CI – as-a-Service」 を提䟛予定であるずいうアナりンスもありたした。今埌、開発者ず運甚者の生産性を向䞊させるためのツヌルが vCloud Air 䞊にサヌビスずしお展開されおいくずいう期埅ができたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-3-3

    2. Pivotal CF

    開発者の目線で蚀うず、IaaS++ 、぀たりApplication Services が提䟛する機胜を䜿っお頑匵るずいうのは、結構面倒に感じたす。開発者が欲しいのは、究極的には API を提䟛する黒箱ず、アプリケヌションを監芖するためのツヌル そんなこずを、VMworld 2014 のあるセッションのスラむドは語っおいたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-1-0

    これはたさに PaaS ã®äž–界です。 Pivotal CF ず vCAC、[Tech Preview] Continuous Delivery for DevOps がむンテグレヌションする䞖界に぀いおも語られおいたのですが、これが䞭々面癜いです。 vCAC のカタログ管理ずセルフサヌビスポヌタルの機胜ずむンテグレヌションするこずで、 Pivotal CF のサヌビスなどの管理性が非垞に向䞊したす。 たた、Continuous Delivery for DevOpsのようなツヌルからするず、vCAC も Pivotal CF もアプリケヌションのプロビゞョニング先、぀たり゚ンドポむントずしお芋えるようになりたす。リリヌスパむプラむン管理の察象ずなるクラりド環境に、Pivotal CF のような PaaS がむンテグレヌションされるずいうのは倢が広がりたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-1-2

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-1-3

    なお、冒頭で「開発者の目線でいうず結構面倒」ずいいたしたが、これたでのやり方をできるだけ倉えないで、物事を挞進的に進めおいくために、倚くの゚ンタヌプラむズにずっお IaaS++ のアプロヌチはずおも重芁だず考えおいたす。

    3. Docker / Fargo(VMfork)

    VMworld 2014 のセッションでは、VMware の DevOps ゜リュヌションを Docker ず組み合わせた堎合に取りうるアプロヌチに぀いお、3぀の方面からたずめおいたした。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-2-1

    この図の䞭で、Docker コンテナが実行する箱ずしお「VMfork」ず曞かれおいるのが興味深いです。VMfork ずは VMworkd 2014 で「Project Fargo」ずしお玹介されおいた仮想マシンの超高速クロヌニング技術のこずで、実行䞭の芪仮想マシンから 子仮想マシンを fork させる時に、仮想ディスクのリンククロヌン+メモリも差分管理するこずで、ms のオヌダヌで新しい仮想マシンを甚意できるようにするものです。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-2-3

    コンテナ技術は仮想化を䜿わなくおも良いずいう話も聞きたすが、コンテナをホストするリ゜ヌスが足りなくなれば、物理か仮想かは眮いおおいおも新しいリ゜ヌスを远加する必芁はありたす。コンテナをサポヌトするSDDC 䞊で、Docker コンテナをサポヌトする仮想マシンが超高速で展開される、そういった組み合わせも面癜いず思いたす。

    Image may be NSFW.
    Clik here to view.
    vmworld2014-4-devops-8-4

    最埌に

    [前線][埌線]の2回にわたっお、VMware のクラりド管理゜リュヌションをDevOps の芖点からご玹介したしたが、いかがでしたでしょうか繰り返しになりたすが、本蚘事が、これたで䞻にむンフラの芳点から VMware に觊れおいただいおいる方々が、DevOps ずいう芳点から VMware のクラりド運甚管理補品や呚蟺技術に察しお目を向けおいただける䞀぀のきっかけになりたしたら、倧倉うれしく思いたす。

    ↧

    VMworld 2014からの泚目セッション第5回 – Recovery as a Service (RaaS) with vCloud Air

    皆さんこんにちは。VMware高朚です。

     

    8月末に米囜サンフランシスコにお開催されたしたVMworld 2014の泚目セッション5回目は、セッション番号HBC1534、Recovery as a Service (RaaS) with vCloud Airに぀いおご玹介したす。

    Image may be NSFW.
    Clik here to view.
    001

    日本ではサヌビス提䟛予定をこの倏に発衚したばかりの『vCloud Air』は、VMwareが提䟛するクラりドサヌビスの総称です。そのクラりドサヌビスの1぀ずしおDisaster Recovery(RaaS)が提䟛されおいたす。※日本ではQ4(10月〜12月)䞭にDisaster Recoveryサヌビスが開始される予定です。

     

    それでは、本セッションの玹介に入っお行きたいず思いたす。画面巊偎のデヌタセンタヌは、既にvSphereを䜿っおサヌバ仮想化を実珟しおいるナヌザ環境を瀺しおいたす。そのvSphere環境の灜害察策ずしお、vSphere䞊の仮想マシンを、右偎のvCloud Air䞊のDisaster Recovery(RaaS)専甚リ゜ヌスに保護する、ずいうサヌビスです。

     

    ちなみにナヌザ環境のAD/DNSは、vCloud Air䞊のIaaSサヌビスのVPC(Virtual Private Cloud=共有型クラりド)リ゜ヌス䞊のADず連携しおいたすので、AD/DNSも保護されおいるこずが分かりたす。

    Image may be NSFW.
    Clik here to view.
    002

    以䞋、vCloud Air Disaster Recoveryの䞻な特城です。

    ・Disaster Recoveryサむトを自前で甚意する事なく、vSphere䞊の仮想マシンの灜害察策が行えるため、コスト効果が高いクラりドベヌスのDisaster Recoveryサヌビス。

    ・vSphereの基本機胜である非同期レプリケヌション、vSphere Replicationを䜿っお仮想マシンを保護、フェむルオヌバヌする。

    Image may be NSFW.
    Clik here to view.
    003

    その他の特城は以䞋の通りです。

    ・仮想マシンごずにレプリケヌション、フェむルオヌバヌを任意に蚭定。

    ・レプリケヌションでは、15分〜24時間のRPOを蚭定。

    ・最初の同期では、ディスクを配送しオフラむンで移行する事も可胜。

    ・1幎間に2回たでのフェむルオヌバヌテストが可胜。※1回のテストは7日間たで。

    ・実際にvCloud Air偎にフェむルオヌバヌした際には、30日間たで本番皌働するこずが可胜。

    Image may be NSFW.
    Clik here to view.
    004

    このDisaster Recoveryサヌビスは、Disaster Recovery(RaaS)甚のVDC(Virtual Data Center)リ゜ヌスを賌入する事により䜿甚出来たす。

     

    たず、ベヌスずなるVDCリ゜ヌスを賌入頂きたす。

    □10GHz vCPU

    □20GB vRAM

    □1TBストレヌゞ

    □10Mbpsの垯域

    □2぀のパブリックIP

    □2回のフェむルオヌバヌテスト

    期間は1ヶ月、12ヶ月、24ヶ月、36ヶ月から遞択出来たす。

    Image may be NSFW.
    Clik here to view.
    005

    ベヌスずなるVDCリ゜ヌスでは足りない堎合、それぞれオプションで远加する事が出来たす。

    ストレヌゞ、垯域〜フェむルオヌバヌテスト等、幅広いリ゜ヌスをオプションずしお远加できたす。

    Image may be NSFW.
    Clik here to view.
    006

    最初の同期では、オフラむンでデヌタを移行する事が出来たす。

     

    vCloud ConnectorのODT(Offline Data Transfer)機胜を䜿っお、保護察象の仮想マシンをexport、vCloud Air偎にimportする事により、最初の同期で垯域を圧迫させる心配はありたせん。特に保護察象の仮想マシンの容量が倧きい堎合には効果的です。

    Image may be NSFW.
    Clik here to view.
    007

    vCenter Web Clientずフルに連携しおいるため、普段お䜿い頂いおいるvCenterから操䜜が可胜です。

    Image may be NSFW.
    Clik here to view.
    008

    vSphere Repliationのトラフィックは、SSLでセキュリティが担保されたすので、安心しおお䜿い頂けたす。

    Image may be NSFW.
    Clik here to view.
    009

    vCloud Air Disaster Recoveryを䜿甚する䞊での芁件は以䞋の通りです。

    ・vSphere 5.1以䞊

    ・vSphereは、Essential Plus以䞊の゚ディション※Essential ではvSphere Replicationが䜿甚できない

    ・vCenter 5.1以䞊

    ・vSphere Replication仮想アプラむアンス5.6以䞊※最新のvSphere Replication 5.8では蚭定画面等日本語化されおいたす

    ・むンタヌネット環境に出られる事

    Image may be NSFW.
    Clik here to view.
    010

    次に、実際にvCloud Air Disaster Recoveryを䜿っお仮想マシンを保護する蚭定方法を芋お行きたしょう。たず、vSphere Replicationを䜿うので、vSphere Replication 5.6の仮想アプラむアンスを展開し、vCenterに登録したす。このvSphere Replication 5.6にはセキュアにvCloud Air Disaster Recoveryぞのレプリケヌションを実珟出来る機胜が含たれおいたす。

    Image may be NSFW.
    Clik here to view.
    011

    そしお、レプリケヌション先ずなるvCloud Air偎のVDCのAPIを確認したす。確認は、vCloud AirのWeb UIから行いたす。

    Image may be NSFW.
    Clik here to view.
    012

    確認したら、vCenterから、vSphere Replicationのタヌゲットサむトの登録を行いたす。確認したVDCのAPIをコピヌしたら、その内容をタヌゲットサむト先情報ずしお入力したす。

    Image may be NSFW.
    Clik here to view.
    013

    タヌゲットサむトずしおVDCを登録したら、次にタヌゲットずなるネットワヌクを蚭定したす。テスト甚には、倖郚ずの疎通が取れないIsolatedネットワヌク。リカバリ甚には倖郚ずの疎通が可胜なRoutedネットワヌクを蚭定したす。※vCloud Air偎には、予め内郚通信甚のIsolatedネットワヌク、倖郚通信甚のRoutedネットワヌクの2぀が準備されおいたす。

    Image may be NSFW.
    Clik here to view.
    014

    続いお、保護察象の仮想マシンごずに、vSphere Replicationの蚭定を行いたす。レプリケヌション先ずしおは新しいメニュヌずなる”Replicate to a cloud provider”を遞択したす。

    Image may be NSFW.
    Clik here to view.
    015

    するず既にタヌゲットサむトずしお登録したVDCが衚瀺されたすので、そちらを遞択。埌は、通垞のvSphere Replication同様にVSSを䜿う or 䜿わない、RPOは䜕分(15分〜1,440分)ずいう蚭定をするだけです。

    Image may be NSFW.
    Clik here to view.
    016

    通垞のvSphere Replication同様にvCenterからvSphere Replicationのモニタリングや操䜜が行えたす。

     

    最埌にvCloud Air Disaster Recoveryのメリットをもう䞀床お䌝えしお、第5回泚目セッション『HBC1534、Recovery as a Service (RaaS) with vCloud Air』のご玹介を終わりたいず思いたす。

     

    ・灜害察策甚ずしお、自前でDisaster Recoveryサむトを建おる必芁がない。=コストを抑えおvSphere環境の灜害察策が始められる。

    ・vSphere Replication機胜を䜿っお仮想マシンを保護するため、既存のvSphere環境に別途補品を賌入する必芁がない。SANベヌスのレプリケヌションも䞍芁です。

    ・普段お䜿い頂いおいるvCenterから操䜜ができる。

    ・仮想マシン単䜍で簡単に保護できる。=アプリケヌションの保護芁件に応じお、個々の仮想マシンに別々のポリシヌを適甚できる。

    ・初回の同期で垯域を消費しない様、オフラむン移行が可胜。

    ・vCloud Air Disaster Recoveryリ゜ヌスは柔軟に远加が出来る。保護察象の仮想マシン数に応じお、スケヌルアップ、スケヌルアりトが可胜。

     

    匕き続き、VMworld 2014の泚目セッションブログにご期埅䞋さい。

    ↧

    VMworld 2014からの泚目セッション第6回 – vC Ops の物理環境ぞの拡匵 & Hypericによる基幹系

    みなさん、こんにちは。

    今回の蚘事では、8月末に米囜サンフランシスコで開催されたVMworld 2014にお発衚された数あるトピックより、vCenter Operationsマネヌゞャヌを利甚しお、仮想環境䞊でアプリケヌションの運甚をより効率的に行う方法をご玹介したす。

    仮想環境䞊で皌働するアプリケヌションを監芖する方ずしおは「Hyperic」http://www.vmware.com/jp/products/vfabric-hypericを利甚する方法がありたす。
    Hypericを利甚しおゲストOS䞊にHyperic゚ヌゞェントをむンストヌルするこずにより、プロセスやWindows Serviceをはじめ、様々なアプリケヌションのメトリックを収集するこずが可胜ずなりたす。

    さらにHypericで収集された情報をvCenter Operationsず連携するこずによりアプリケヌションの皌働監芖や分析を行うこずが可胜ずなりたす。
    Image may be NSFW.
    Clik here to view.
    P12-Slide

    VMworld 2014では䞋蚘のアプリケヌションずの連携に぀いお将来バヌゞョンにおける
    連携が発衚されおおりたす。

    1.MSSQL

    Image may be NSFW.
    Clik here to view.
    P22-Slide

    ゜リュヌションの特城は以䞋です。
    ・自動怜知による、MSSQLサヌビスずむンスタンスの登録
    ・クラスタ構成の可芖化
    ・デフォルトKPIによる静的および動的な監芖
    ・vSphere䞊で皌働するアプリケヌション・コンポヌネントの自動の盞関関係の発芋

    2.Microsoft Exchange

    Image may be NSFW.
    Clik here to view.
    P27-Slide

    ゜リュヌションの特城は以䞋です。
    ・メヌルボックスずCASロヌルの自動怜知
    ・DAGの怜知
    ・関連する党サむトの情報䌝搬
    ・デフォルトKPIによる静的および動的な監芖
    ・vSphere䞊で皌働するアプリケヌション・コンポヌネントの自動の盞関関係の発芋

    3.vCAC

    Image may be NSFW.
    Clik here to view.
    P32-Slide

    4SAP HANA
    Image may be NSFW.
    Clik here to view.
    P34-Slide

    ゜リュヌションの特城は以䞋です。
    ・゚ヌゞェント䞍芁でデヌタ収集
    ・SAP HANAシステムぞは負荷は軜埮
    ・Out-of-the-box ダッシュボヌドの提䟛トラブルシュヌティング、蚺断法ず分析
    ・300以䞊は、SAP HANA Studioの䞭で入手䞍可胜300以䞊の刀断基準
    ・SAP HANAずvSphereの間の関係マッピング

     

    たずめ
    仮想環境䞊で皌働する様々なアプリケヌションの管理・監芖の゜リュヌションに぀いおご玹介いたしたしたが、劂䜕でしたでしょうか。

    11/5氎6朚にプリンスタワヌ東京でvForum2014が開催されたす。

    こちらでも、今回のVMworldず同様のセッションが数倚く講挔されたすので、ぜひご来堎ください。

    ↧

    Protected: VCP-NV 情報

    This content is password protected. To view it please enter your password below:

    ↧
    ↧

    VMware vSphere 6.0 の新機胜 vMotionç·š

    こんにちは、パヌトナヌSEの川です。今回は VMware vSphere 6.0 のリリヌスに䌎う、VMware vSphere vMotion の機胜アップデヌトに぀いおご玹介いたしたす。vMotion の機胜拡匵は今回のアップグレヌドの目玉の䞀぀ずなっおおりたすので、ぜひご泚目ください。

     

    ■クロス vCenter vMotion vCenter Server システム間のvMotion 

    クロス vCenter vMotion ずは、異なる vCenter Server の配䞋にある ESXi ホスト間で vMotion を可胜にする機胜です。これたで、vSphere 5.5 たででは、vMotion は同䞀の vCenter 䞋でしか行うこずができたせんでした。今埌は、図1のむメヌゞのように、異なるvCenter に所属するホストやクラスタを移行先ずしお vMotion で移行するこずが可胜です。図1では、”CentOS2” ずいう仮想マシンを ”172.16.119.132” の vCenter 䞋の ”Cluster2” ずいうクラスタから、”172.16.119.131” の vCenter 䞋の ”VSAN” ずいうクラスタぞの移行を瀺しおいたす。

    Image may be NSFW.
    Clik here to view.
    図クロスvCenter vMotion での移行むメヌゞ
    図クロスvCenter vMotion での移行むメヌゞ

    クロス vCenter vMotion の実斜方法は通垞の vMotion ずなんら倉わらず、図2のように仮想マシンを遞択しお、アクションずしお”移行”を遞択し、”蚈算リ゜ヌスのみ倉曎したす”たたは”蚈算リ゜ヌスずストレヌゞの䞡方を倉曎したす”を遞択しおりィザヌドを進めるこずで、通垞の vMotion 同様に移行を行うこずが可胜です。

    なお、異なる vCenter 間での移行時の芁件に぀いおは匊瀟ドキュメントの䞋蚘ペヌゞをご参照ください。

    http://pubs.vmware.com/vsphere-60/index.jsp?topic=%2Fcom.vmware.vsphere.vcenterhost.doc%2FGUID-897E10D6-A413-4699-B3C6-498AA80CB9ED.html

     

    Image may be NSFW.
    Clik here to view.
    図クロスvCenter vMotion の実斜方法

    図クロスvCenter vMotion の実斜方法

    クロス vCenter vMotion が可胜ずなったこずで、これたで vCenter の管理範囲ごずに区切られおいた仮想基盀が vCenter の瞛りを超えお䞀぀の共通プラットフォヌムずしお扱えるようになりたす。デヌタセンタヌごずに vCenter を分けおいたケヌスなどでは、今回初めお vMotion での移行が可胜になり、嬉しい機胜拡匵ではないでしょうか。

    vCenter Server を超えた際に気になる点の䞀぀ずしお、仮想マシンに関する様々な情報は匕き継がれるのか、ずいった点がありたす。実際には倚くの情報は匕き継がれ、仮想マシンの MAC アドレスや、タスクの履歎、シェアや予玄倀ずいったリ゜ヌス蚭定、HA・DRS の蚭定等は匕き継がれたすが、パフォヌマンスデヌタは匕き継がれない仕様ずなっおおりたす。詳现は補足ずしお、蚘事の最埌に蚘茉いたしたす。

    ■長距離 vMotion 移行

    長距離 vMotion 移行は、長距離に離れたデヌタセンタヌ間など、遅延が倧きい環境間での vMotion を可胜にしたす。通垞の vMotion で蚱容される RTT (=round trip time) は 5ms ですが、これが Long Distance vMotion では 150ms たで蚱容されたす。これにより、アメリカであれば倧陞の東西、日本であればシンガポヌルたでの距離であっおも、vMotion で仮想マシンを移動させるこずができたす。 ïŒˆ*レむテンシは実際に利甚する回線の品質にも䟝存したす。䞊蚘はあくたで䞀䟋ずお考え䞋さい。

    http://kb.vmware.com/kb/2106949

     

    Image may be NSFW.
    Clik here to view.
    図長距離vMotion移行の実斜むメヌゞ

    図長距離vMotion移行の実斜むメヌゞ

    ■vMotion ネットワヌキング

    vMotion のネットワヌク呚りに぀いおもアップデヌトがありたす。䞀぀は、TCP/IP スタックが耇数構成できるようになったこずにより、vMotion に぀いおも専甚のTCP/IP スタックが構成可胜ずなりたした。VMKernel アダプタの䜜成時に、TCP/IP スタックずしお ”vMotion” を遞択するこずで蚭定するこずができたす。図

     

    Image may be NSFW.
    Clik here to view.
    図vMotion専甚TCP/IPスタックの蚭定

    図vMotion専甚TCP/IPスタックの蚭定

    TCP/IP スタックが vMotion 専甚で構成できるようになったこずに䌎い、vMotion 甚ネットワヌクが異なる L2 セグメントに跚る堎合にも柔軟に構成できるようになりたした。埓来は vMotion 甚トラフィックが有効化された VMKernel アダプタ ã‚‚管理ネットワヌクず同䞀の TCP/IP スタックを利甚したしたが、vSphere 6.0 では個別にデフォルトゲヌトりェむやルヌティングテヌブルの構成を持぀こずが可胜です。なお、仮想マシンの接続されるネットワヌクに぀いおは同䞀のL2ネットワヌクセグメントぞの接続が必芁です。図では青線が vMotion 甚ネットワヌク、緑線が仮想マシン甚ネットワヌクを瀺しおいたす

    Image may be NSFW.
    Clik here to view.
    図vMotionネットワヌクの構成䟋

    図vMotion ネットワヌクの構成䟋

    次に、クロス vSwitch vMotion に぀いお觊れたす。vSphere 5.5 たででは、vMotion 時には接続前埌で接続する暙準仮想スむッチ(vSS)、たたは分散仮想スむッチ (vDS) の仮想マシンポヌトグルヌプを遞択するこずはできず、移行前埌で同じ仮想マシンポヌトグルヌプvSS の堎合は同じラベルのポヌトグルヌプに接続する必芁がありたした。vSphere 6.0 では、移行埌に接続する仮想マシンポヌトグルヌプの遞択が可胜ずなり、䟋えば vSS の仮想マシンポヌトグルヌプに接続されおいた仮想マシンを vDS の仮想マシンポヌトグルヌプに接続するこずも可胜ずなりたした。ただし、vDS から vSS ぞの移行は遞択できない点ず、移行前埌で IP アドレスの倉曎はされないため、仮想マシンのネットワヌク接続確保のためには同䞀の L2 ネットワヌクに接続し続けるこずが必芁な点には泚意が必芁です。

     

    Image may be NSFW.
    Clik here to view.
    図vMotion移行りィザヌド䞭でのネットワヌク遞択

    図vMotion 移行りィザヌド䞭でのネットワヌク遞択

    ■補足クロス vCenter vMotion で匕き継がれる情報、匕き継がれない情報に぀いお

    䞋蚘で、クロス vCenter vMotion での移行前埌で、匕き継がれる情報ず匕き継がれない情報を敎理いたしたす。内容に぀いおは、䞀郚怜蚌結果に基づく情報であるこずをご承知ください。

    ①UUID

    uuid.bios ず vc.uuid は保持され、uuid.location は倉曎されたす。これらは vmx ファむルを参照するこずで確認可胜です。

    Image may be NSFW.
    Clik here to view.
    x-vc_uuid

    ②MACアドレス

    MACアドレスの倉曎はありたせん。たた、移行元の vCenter Server では、 MAC アドレスをブラックリストに远加しお、新しく䜜成された仮想マシンにその MAC アドレスが割り圓おられないようにしたす。

    Image may be NSFW.
    Clik here to view.
    x-vc_mac

     

    ③HA/DRS ルヌル

    基本的には䞋蚘ルヌルはクロス vCenter vMotion 埌も保持されたす。

    • アフィニティルヌル
    • VM ごずのオヌバヌラむドルヌル
      • 自動化レベル
      • 起動優先順䜍
      • ホスト分離時の察応

    Image may be NSFW.
    Clik here to view.
    x-vc_affinity_ok1
    Image may be NSFW.
    Clik here to view.
    x-vc_affinity_ok2

    ただし、䞋蚘の堎合は䟋倖的に保持されないこずが瀟内の怜蚌で確認されおいたす。刀定は VM ごずに行われたす

    • アフィニティルヌル
    • VM ごずのオヌバヌラむドルヌル

    アフィニティルヌルは VM 間で蚭定しおいる堎合、適甚には双方の VM でルヌルが保持される必芁がありたす

     

    ④リ゜ヌス蚭定

    仮想マシンに察する CPU、メモリリ゜ヌスのシェア、予玄、制限倀は保持されたす。

    Image may be NSFW.
    Clik here to view.
    x-vc_resource

     

    ⑀タスクデヌタ

    タスクデヌタは匕き継がれたす。

    Image may be NSFW.
    Clik here to view.
    x-vc_task

     

    ⑥パフォヌマンスデヌタ

    パフォヌマンスデヌタは移行の前埌で匕き継がれたせん。

    Image may be NSFW.
    Clik here to view.
    x-vc_performance

     

    ⑩vRealize Operations Manager äžŠã®ãƒ‡ãƒŒã‚¿

    vRealize Operations Manager 䞊のパフォヌマンスデヌタは移行前埌で匕き継がれたせん。

    Image may be NSFW.
    Clik here to view.
    x-vc_vROps

     

    ■終わりに

    vSphere の基本的な機胜の䞀぀である vMotion ですが、vSphere 6.0 では曎なる機胜拡匵がなされたした。䞊蚘のアップデヌトを螏たえお、曎に vMotion を䜿いこなしおいただけたらず思いたす。最埌たでお読みいただきありがずうございたす。

    ↧

    vSphere 問題解決たでのヒント- 第回 トラブル発生時に圹立぀ 4 ぀のリ゜ヌス

    テクニカルサポヌト゚ンゞニアのMarieです。

    みなさん、VMwareのサポヌトにどのような印象をお持ちでしょうか。
    職人のようなサポヌト゚ンゞニアがログを芋おさくさくっず回答しおいるず思われるかもしれたせんが、
    技術的な調査に取りかかる以前に 「䜕が出来なくおどうお困りなのか」 をお䌺いするのに苊劎しおいたりもしたす。

    私が日々お仕事をしおいお感じるのは「事象や構成が敎理されおいるお問い合わせは、解決たでのスピヌドが早い」ずいうこずです。
    長匕いおいるケヌスが技術的に難しくお耇雑であるずは限らなくお、事象や構成がはっきりしないために技術的な調査が進められないずいうこずもあるのです。

    この連茉では、スムヌズな問題解決のためのヒントになるようなお話しをしおいきたいず思いたす。
    技術的な話が少なくお拍子抜けかもしれたせんが、「サポヌト゚ンゞニアも結構地道な䜜業をしおいるのね」ず感じおいただけるかず思いたす。
    埐々にステップアップしおいきたしょう

    第回 トラブル発生時に圹立぀ 4 ぀のリ゜ヌス ←This Post
    第回 サポヌトリク゚ストSRず情報採取
    第回 応甚線

    今回はトラブル発生時に圹立぀リ゜ヌスずその䜿い方をご玹介いたしたす。

    1. ナレッゞベヌスhttp://kb.vmware.com/
      障害の発生事䟋や察凊法、トラブルシュヌティング方法、ベストプラクティス等を怜玢するこずができたす。
    2. 各皮ドキュメントhttp://www.vmware.com/jp/support/support-resources/pubs/
      補品マニュアルやリリヌスノヌトなど、各皮ドキュメントが公開されおいたす。
    3. コンパチビリティガむドhttp://www.vmware.com/resources/compatibility/search.php
      VMware補品ずハヌドりェアやOSの互換性をチェックするこずができたす。
    4. VMware補品間の盞互運甚性マトリックスhttp://partnerweb.vmware.com/comp_guide2/sim/interop_matrix.php
      VMware補品間の互換性をチェックするこずができたす。

    これから玹介するペヌゞは、匊瀟のサむトhttp://www.vmware.comトップ画面の [サポヌト] からアクセスできたす。
    蚭蚈・構築時にご利甚いただいおいるものもあるかず思いたすが、今回はトラブル発生時にどのようなポむントを確認したらいいかずいう芳点でご説明したいず思いたす。
    はじめおの方も、たずは手を動かしながら色々調べおみたしょう

    Image may be NSFW.
    Clik here to view.
    supportblog_index

    1. ナレッゞベヌスKnowledge Basehttp://kb.vmware.com/Image may be NSFW.
    Clik here to view.
    supportblog_kb1

    たずはここ、1぀目はナレッゞベヌスKnowledge Baseです。
    障害の事䟋や察凊法、トラブルシュヌティング方法、ベストプラクティス等を怜玢するこずができたす。
    ゚ラヌメッセヌゞやコンポヌネント名、ハヌドりェア名などで怜玢しおみお䞋さい。
    最近は日本語に翻蚳された蚘事も増えおきおいるのですが、英語で曞かれた蚘事をベスト゚フォヌトで翻蚳しおいたすので、最新情報ではない可胜性もありたす。
    䟋えば、日本語版では回避策なしず案内されおいる堎合も、オリゞナルの英語版では回避策や修正に぀いおの情報がアップデヌトされおいるかもしれたせん。
    日本語版の蚘事にはオリゞナルの英語版ぞのリンクがありたすので、必ずこちらも合わせお確認するようにしお䞋さいね。


    2. 各皮ドキュメントhttp://www.vmware.com/jp/support/support-resources/pubs/

    そしお2぀目、補品ドキュメントやリリヌスノヌトをはじめ各皮ドキュメントが公開されおいたす。
    Image may be NSFW.
    Clik here to view.
    supportblog_doc1

    たずは html 版の vSphere 5.5 の補品マニュアルである「VMware vSphere 5.5 ドキュメント センタヌhttp://pubs.vmware.com/vsphere-55/topic/com.vmware.ICbase/Welcome/welcome.html」を芋おみたす。
    䞊蚘のペヌゞ「VMware vSphereのドキュメントhttp://www.vmware.com/jp/support/support-resources/pubs/vsphere-esxi-vcenter-server-pubs/」各ガむド欄にリンクされおいたす。
    Image may be NSFW.
    Clik here to view.
    supportblog_doc2

    確認しおもらいたいポむントに沿っおご玹介したす。

    ・構成システム芁件、むンストヌル方法など
    芁件を満たしおいないシステムでは予期せぬトラブルが発生するこずがありたす。
    ご利甚いただいおいる環境がシステム芁件を満たしおいるか、むンストヌルや蚭定方法に問題が無かったか確認しおみたしょう。
    お客様のシステムはお客様が䞀番よく知っおいるはずなので、ここは頑匵っおいただきたいポむントです

    システム芁件を芋おみたす。
    vSphere のむンストヌルずセットアップから展開できたす。
    Image may be NSFW.
    Clik here to view.
    supportblog_doc3

    䟋えば、vCenter Server, Web Client, Inventory Service, Single Sign-On ã™ã¹ãŠåŒã˜ãƒžã‚·ãƒ³ã®æ§‹æˆã ãš 12GB ä»¥äžŠã®ãƒ¡ãƒ¢ãƒªãŒå¿…芁ですが、この条件を満たしおいないマシンをたたに芋かけたすね。
    基本的なこずではありたすが、念のためひず぀ひず぀確認しおみお䞋さい。
    Image may be NSFW.
    Clik here to view.
    supportblog_doc4
    ・トラブルシュヌティングガむド
    トラブルシュヌティングガむドでは、よくあるトラブルに぀いお、問題・原因・解決方法が説明されおいたす。
    このガむドに蚘茉の無い問題であったずしおも、類䌌の問題から䜕かヒントを埗られるかもしれたせんので目を通しおみお䞋さい。
    Image may be NSFW.
    Clik here to view.
    supportblog_doc5


    次に確認しおいただきたいのがリリヌスノヌトです。
    リリヌスノヌトには新機胜の玹介だけでなく、既知の問題ずその回避策も公開されおいたす。
    Image may be NSFW.
    Clik here to view.
    supportblog_rn1

    「VMware vSphereのドキュメントhttp://www.vmware.com/jp/support/support-resources/pubs/vsphere-esxi-vcenter-server-pubs/」ペヌゞに戻り、vCenter Server 5.5.x の䞀番新しいバヌゞョン5.5 Update 2dのリリヌスノヌトを芋おみたす。
    既知の問題の欄をご参照䞋さい。
    ここで玹介されおいる問題にあおはたりそうな堎合、回避策を詊しおみお䞋さい。
    Image may be NSFW.
    Clik here to view.
    supportblog_rn2

    トラブル時の確認ずいう芳点でいうず補品ドキュメントずリリヌスノヌトあたりですが、他にも色々なドキュメントが公開されおいたす。
    補品ぞの理解を深めるのにお圹立おください。


    3. コンパチビリティガむドVMware Compatibility Guide ïŒˆhttp://www.vmware.com/resources/compatibility/search.php

    3぀目、少しレベルアップしお構成にあわせた確認をしおいきたしょう。
    ストレヌゞやネットワヌクなど問題が絞りこめおいる堎合は、改めおハヌドりェアのコンパチビリティを確認しおみお䞋さい。
    項目によっおは互換性の有無だけではなく、掚奚蚭定なども確認できたす。

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl1

    詊しに私が䜿っおいるマシンのHBAのコンパチビリティを確認しおみたしょう。
    vmhba0ずしお認識されおいるIntel Corporation Avoton AHCI Contorollerにポむントしたす。

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl3

    esxcfg-infoコマンドで詳现を確認しおみたす。

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl4

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl5

    ESXi のバヌゞョンも確認したしょう。
    Buildは1892794 なので、ESXi 5.5U1 ずのコンパチビリティを確認するこずになりたす。

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl6

    Web Clientからもハヌドりェアの情報を確認できたす。
    むンベントリツリヌで [ホストおよびクラスタ] - [該圓のホスト] – [管理タブ] でネットワヌクやストレヌゞアダプタを確認できたす。

    Image may be NSFW.
    Clik here to view.
    supportblog_wc1

    詳现な情報を確認したい堎合は、[管理タブ] ã®å³éš£ [監芖タブ] ã® [ハヌドりェアステヌタス] ã‹ã‚‰è©²åœ“のアダプタを遞択しお䞋さい。

    Image may be NSFW.
    Clik here to view.
    supportblog_wc2

    ESXiのバヌゞョン、Buildは [サマリタブ] ã® [構成] から確認できたす。

    Image may be NSFW.
    Clik here to view.
    supportblog_wc3

    では、確認した情報を元に怜玢しおみたす。

    調べる察象はSATA controller なので [What are you looking for] は [IO Device] 、[I/O Device Type] は [SATA] に蚭定したした。
    [Brand Name] や [VID] や [DID] も esxcfg-info や ハヌドりェアステヌタスタブ の内容を参考に遞択し、 [Update and View Results] で怜玢を実行したす。

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl7

    出たしたっ

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl8

    ESXi 5.5U1ずIntel Corporation Avoton AHCI Contorollerには互換性があるこずが確認できたした。

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl8

    ドラむバのバヌゞョンも問題ありたせんね。
    最新のドラむバがあればアップデヌトしおおくずベストです。

    Image may be NSFW.
    Clik here to view.
    supportblog_hcl10

    手順やよくある質問に぀いおはこちらをご芧䞋さい。

    * VMware KB: Identifying correct driver for ESXi/ESX host PCI devices (HBA) using VMware Hardware Compatibility Guide (HCL) (1031534)
    http://kb.vmware.com/kb/1031534
    * VMware KB: Identifying and downloading the appropriate driver for your adapter: Process and FAQ (2050194)
    http://kb.vmware.com/kb/2050194


    4. VMware補品間の盞互運甚性マトリックスVMware Product Interoperability Matrixeshttp://partnerweb.vmware.com/comp_guide2/sim/interop_matrix.php

    芋萜ずしがちな4぀目、VMware補品間の盞互運甚性マトリックスVMware Product Interoperability Matrixesでは補品同士の互換性を確認するこずができたす。
    バヌゞョンアップや旧環境からの移行の埌に問題が発生したなんおいう時は、念のため確認しおみお䞋さい。Image may be NSFW.
    Clik here to view.
    supportblog_iom1

    では私の䜿っおいるマシンにむンストヌルされおいる ESXi ずそれを管理しおいる vCenter Server の互換性を確認しおみたす。
    ESXi はBuild 1892794 なのでESXi 5.5U1、vCenter Server はBuild 2183111 なので 5.5U2 に該圓したす。
    [Select a Solution] で [ESX/ESXi] を遞択し、[Version] を指定するずESXi5.5.U1の列が远加されたした。

    Image may be NSFW.
    Clik here to view.
    supportblog_iom2

    今回確認したいのは vCenter Server ずの互換性です。
    [Add Plat form/Solution] には [vCenter Server] を遞択し [Add] するず [vCenter Server] の行が远加されたした。

    Image may be NSFW.
    Clik here to view.
    supportblog_iom3

    チェックが付いおいるのが互換性ありのしるしです。
    ESXi 5.5U1 ず vCenter Server 5.5U2 は互換性に問題が無い組み合わせであるこずが確認できたした。
    手順は以䞋のKBが参考になりたす。

    * VMware KB: Using the VMware HCL and Product Interoperability Matrixes (2006028)
    http://kb.vmware.com/kb/2006028

    ---

    ここたで調べおみお、いかがでしたでしょうか。
    問題は解決したしたか

    どれにもあおはたらない 
    案内されおいる方法を詊しおみたけど盎らない 

    ずいう堎合はサポヌトリク゚ストSRを発行しおみたしょう。
    「それなら最初から問い合わせすればよかった」ず思っおいるかもしれないみなさたに、
    「ここたで手を動かした努力は決しお無駄ではない」ずいうこずをお䌝えしたいです。

    最初にお話したように、スムヌズな問題の解決のためには、問題に察するお客様のご理解がずおも倧切です。
    コンパチビリティを確認しおみお、普段ご利甚いただいおいる環境のこずがより理解できたのではないでしょうか。
    たた、ナレッゞベヌスやドキュメントを怜玢しおいるうちに、発生しおいる事象が敎理されおきたのではないかず思いたす。

    次回はサポヌトリク゚ストSRの発行ず情報採取に぀いおお話したいず思いたす。

    連茉 vSphere 問題解決たでのヒント
    第回 トラブル発生時に圹立぀ 4 ぀のリ゜ヌス
    第回 サポヌトリク゚ストSRず情報採取
    第回 応甚線

    ↧

    VMware vSphere Virtual Volumes に察するHP 3PAR StoreServの実装

    はじめに

    vSphere 6.0 で実装されたVMware vSphere Virtual Volumes VVol は、察応するストレヌゞず連携するこずにより初めお利甚可胜ずなる機胜です。VVolの党䜓的な話はこちらでご玹介させおいただきたしたが、今回は、䞻にストレヌゞ偎から芋たVVol の実装ずそのメリットに぀いお、日本HPの3PAR担圓プリセヌルスの䌊東様に執筆いただきたしたのでご玹介いたしたす。

    VVol 抂芁ずメリット

    vSphere 6.0 から新たに実装されたVVol はストレヌゞベンダヌにずっおは2015幎で最も重倧なニュヌスであり非垞に倧きなむンパクトを䞎えおいたす。特にSANストレヌゞがVVol に察応するこずでこれたでのLUN + VMFSでは䞍可胜であったり䞍䟿であったりしたこずが倧幅に改善されたす。

    どのように改善、倉化したかずいうこずを䞋図で瀺したす。SANストレヌゞずNASストレヌゞでは同じ利甚目的のデバむスでありながら管理の方法やその特性が党く違っおいたした。

    Image may be NSFW.
    Clik here to view.

     

    VVol を利甚するず、vCenter Server からSANもNASも同じVVol Datastoreの定矩をするこずができ、芋え方、䜿い方の違いを無くすこずができたす。

    Image may be NSFW.
    Clik here to view.

     

    SANストレヌゞにずっおは、今たではほが䞍可胜に近かった仮想マシン毎にボリュヌムを分け、サヌビスレベルを個別に蚭定するこずが可胜になり、様々なメリットが生じおきたす。

    Image may be NSFW.
    Clik here to view.

    VVol の察応により、SANストレヌゞは今たでず同様の高いパフォヌマンスを提䟛しながらストレヌゞリ゜ヌスのシンプルな管理、きめ现かなSLA定矩、効率の良いストレヌゞ機胜の提䟛が可胜ずなりたす。

    3PAR ずVVol の関係に぀いお

    HP 3PARずVVol には長い歎史がありたす。ただ3PAR がHP にマヌゞされる前の4幎以䞊前からVVol ずの関係がスタヌトしおいたす。その埌、3PAR はHP の䞻力ストレヌゞずなりたしたが、HP がVVol のオリゞナル開発パヌトナヌ5瀟のうち1瀟ずなり、曎に3PAR がFCストレヌゞのリファレンスプラットフォヌムに遞ばれたした。開発の途䞭経過はHPのブログや゚キシビションで発衚しおおり、2014幎半ばにはVVol のベヌタプログラム開始時に準備が敎っおいた3補品のうちの1぀ずなりたした。最終的にVVol がGAずなった2015幎3月時点でもVVol が提䟛する機胜を党おカバヌしおいたす。

    では、HP 3PAR がVVol の機胜をどのように実装し、実際にどのように動䜜するかずいうこずを解説しおいきたす。

    VVol をサポヌトするための実装

    ・VASA 2.0プロバむダ

     vCenter Server / ESXずやり取りするストレヌゞ管理サヌビスでvCenter Serverからのリク゚ストを受け取り、ストレヌゞの機胜や制埡の䌝達・翻蚳する圹目を果たしたす。

    ・プロトコル゚ンドポむント

     FCファブリックのアクセスをシングルポむントにする仮想デバむスで通垞のLUN 怜出コマンドで怜出されたす。ストレヌゞ管理ツヌルに觊る必芁が無く、ストレヌゞ管理者が介圚しなくおもvCenter Serverからストレヌゞの切り出しが可胜です。各仮想マシンにはVMDK, Config, Swap, Memory, Snapshotなど耇数個の3PAR VV*Virtual Volumeが䜜成されるこずになるため、埓来よりも倚数の3PAR VVが䜜成されるこずになりたすが、3PAR はもずもず倚数のボリュヌム構成をサポヌトしおおり、その範囲内であれば党く問題なく利甚可胜です。

     *3PAR VVVirtual Volumeずは3PAR内では、ホストに提䟛するLUに盞圓するボリュヌム のこずを埓来よりVirtual Volumeず呌んでいたす。
      vSphere VVol環境ではVVol = 3PAR VVずなりたす。なおvSphere VVolはVirtual Volumesずも呌びたすので、混同しないようご泚意ください。

    ・VVol Datastoreストレヌゞコンテナ

     3PAR ではオプション機胜のVirtual Domainを利甚するず1台の3PAR を仮想的に耇数のストレヌゞずしお管理単䜍を分割出来るためストレヌゞコンテナを耇数に分割するこずが可胜です。Virtual Domainを利甚しない堎合は3PAR が䞞ごず1台がストレヌゞコンテナずなりたす。

    Image may be NSFW.
    Clik here to view.

    3PARのVASAプロバむダはビルトむンで、3PARのコントロヌラノヌド䞊のサヌビスずしお動䜜したす。むンストヌルなど䞍芁でコマンドによりサヌビスを起動するだけで即座に利甚可胜ずなりたす。

    VASAプロバむダがストレヌゞコントロヌラ䞊に組み蟌たれおいるこずによっお埗られる芋過ごすこずのできないメリットがありたす。

    ・むンストヌル䞍芁で远加のセットアップや構成が䞍芁

    ・高可甚性、自動フェむルオヌバ

    ・個別のバヌゞョン管理、アップデヌトが䞍芁

    ストレヌゞ装眮によっおは仮想アプラむアンスなどの圢でVASAプロバむダが提䟛されおいるケヌスもあり、構築にそれなりの手間が生じたすが、3PARのVASAプロバむダは䞊蚘の通り極めお簡単に構築可胜で、か぀、可甚性に優れる実装ずなっおいたす。

    たた、3PARがサポヌトするVVボリュヌム 数は䞋蚘の通り、非垞に倚数を䜜成するこずが出来るため、VVol で懞念ずなるボリュヌム数の増倧は3PAR では党く気にする必芁がありたせん。

    モデル

    7200/7400

    7440/7450

    10000

    最倧VV数

    16000

    32000

    32000

     

    VVol + 3PARで䜕が出来るか

    VVol 環境で利甚可胜ずなる3PAR の独自機胜を䞋蚘に挙げたす。

    ・ベンダヌニュヌトラルな機胜ずしお提䟛VVol 必須の機胜

      Thin / Thick Provisioning

    ・ベンダヌ固有の機胜ずしお提䟛

      Common Provisioning Group ボリュヌム構成テンプレヌト

                  プラむマリ甚ずスナップショット甚を別々に遞択可胜

      Thin PersistenceZero Detectれロデヌタ怜知・リクラメヌション

      Thin Dedupe重耇排陀機胜

    ・その他vCenter Serverから行えるストレヌゞ機胜

     スナップショットの䜜成

      Virtual Copyスナップショット機胜ずの連携

       仮想マシンの操䜜メニュヌからスナップショット䜜成を行うず、3PAR偎でVirtual Copyを䜜成

    ・珟時点で3PAR 管理ツヌルにより蚭定すれば䜿える3PAR 機胜

      ストレヌゞQoSPriority Optimization

      フラッシュキャッシュAdaptive Flash Cache

      ※将来的にはVVolに察応した機胜ずしお提䟛する予定です。

    Storage Policy-based ManagementSPBMのサポヌト

    仮想マシンのストレヌゞに察するビゞネスニヌズを満たすためのフレヌムワヌクです。

    • SPBM によっお、仮想マシンをストレヌゞ䞊でプロビゞョニングする際にアプリケヌションの芁件にマッチしたボリュヌムを提䟛するための仕組みになりたす。
      • ストレヌゞがサポヌトしおいる機胜をvSphereのPolicy-base Provisioning ゚ンゞンに察しお公開
      • 仮想マシンが䜜成される際、ビゞネスニヌズにマッチした機胜をアサむンする
        • 仮想マシン毎、必芁な機胜がボリュヌムに察しおアサむンされるスナップショットも仮想マシン毎
      • SPBM゚ンゞンは、芁件を満たし互換性を持ったデヌタストアロヌカルディスク、LUN、vSAN、VVol がどれかずいうのを認識
      • 仮想マシンは適切なESXホストおよびストレヌゞでプロビゞョニングされる
      • SPBM は各ボリュヌムのコンプラむアンスを監芖
      • 仮想マシンに玐づけたストレヌゞが機胜芁件を十分に満たしおいるかを監芖しおいく圹割も担っおいる

    Image may be NSFW.
    Clik here to view.

    3PARでVVolを利甚するための環境

    • vSphere 6
    • 3PAR OS 3.2.1MU2 Patch 12
    • 3PAR゜フトりェアラむセンス類
      • OS Suite        ïŒšå¿…é ˆ
      • Virtual Copy         ïŒšå¿…é ˆ
      • Virtual Domain        ïŒšã‚ªãƒ—ション
      • Priority Optimization    ïŒšã‚ªãƒ—ション
    • FC HBA, FCoE アダプタ

    3PARでVVol を利甚するために最初に実斜するこず

    䞋蚘の手順でVVol利甚の準備を行いたす。

    1. VASA プロバむダ サヌビスの起動 3PAR CLI にお、"startvasa" コマンドを実行
    2. オプションVVol 甚のドメむン、ナヌザの䜜成
    3. CPGの䜜成 党おのCPG が機胜プロファむルずしおvSphere に提䟛されたす
    4. VASA プロバむダの登録vCenter Server から VASA プロバむダをスキャン
    5. ESXi ホストを 3PAR に登録通垞の手順で登録。ESXからプロトコル゚ンドポむントを確認
    6. VVol デヌタストアStorage Containerをマりント通垞のデヌタストアず同じ手順。
    7. ストレヌゞポリシヌを䜜成

    手順のむメヌゞをいく぀か玹介したす。

    1. VASAプロバむダの準備はサヌビスの確認ず開始のコマンドを実行するだけで完了です。

    Image may be NSFW.
    Clik here to view.

    ④VASA プロバむダの登録はvCenter Server の新しいストレヌゞプロバむダの远加を実行したす。

    Image may be NSFW.
    Clik here to view.

    â‘€ESXi ホストの登録を実斜したすが、3PAR では通垞行っおいるホストの登録コマンドを実行するだけで完了です。たたホスト登録の実斜を行うだけでプロトコル゚ンドポむントずなるLUが有効になりたす。

     ホスト登録のための3PAR コマンドcli# createhost –persona 11 <host name> <WWN> 

     ESXi 偎では通垞のデバむスのスキャンを行い、ストレヌゞデバむスにLU が確認できるこずず、そのデバむスがプロトコル゚ンドポむントずしお認識されおいるこずを確認したす。

    Image may be NSFW.
    Clik here to view.
     

    ※プロトコル゚ンドポむントはESXi から芋るずSCSIデバむスが芋えたすが、3PAR 内ではボリュヌムの実䜓は䜜られたせん。

    ⑥VVol デヌタストアのマりントをした埌、デヌタストアのサマリ情報を芋るずストレヌゞ機胜プロファむルずいう項目があり、そこに3PAR の CPG が列挙されおきたす。CPGには 3PAR のドラむブタむプ、 RAID レベル、ストラむプ幅を決める蚭定が含たれたす。

    Image may be NSFW.
    Clik here to view.

    ⑊ストレヌゞポリシヌの䜜成では3PARの機胜の組み合わせを䞀぀䞀぀構成しおいきたす。

    たずポリシヌ名を蚭定したす。

    Image may be NSFW.
    Clik here to view.

    次にルヌルセットを䜜成で、ルヌルの䞭に 3PAR の機胜を遞択しおいきたす。

    プラむマリボリュヌム甚の CPG、スナップショットデヌタを栌玍甚のCPGの遞択、リクラメヌション機胜のThin Persistence、重耇排陀機胜のThin Deduplicationを必芁に応じお远加したす。

    Image may be NSFW.
    Clik here to view.

    この䟋では、プラむマリボリュヌムはFCドラむブのRAID 1に、スナップショットはFCドラむブのRAID 6 に、リクラメヌション機胜もONずいうポリシヌを蚭定したこずになりたす。

    Image may be NSFW.
    Clik here to view.

    ルヌルの蚭定の埌は、互換性ありず衚瀺されおいるVVol のデヌタストアを遞択したす。

    Image may be NSFW.
    Clik here to view.

    蚭定内容の確認を行い、ポリシヌの䜜成は完了ずなりたす。

    Image may be NSFW.
    Clik here to view.

     

    仮想マシンの䜜成

    最埌に䞀番重芁な、仮想マシンの䜜成ずそれに䌎い自動的に䜜成されるボリュヌムに぀いお、実際の䜜成画面等を甚いお玹介しおいきたす。

    通垞の手順で新芏仮想マシンの䜜成を開始したす。

    Image may be NSFW.
    Clik here to view.

    ストレヌゞの遞択で、仮想マシン ストレヌゞ ポリシヌでVVol 甚に䜜成したポリシヌを遞択したす。ここで遞択したポリシヌに応じお仮想マシンの䜜成ず共にボリュヌムが䜜成されたす。

    Image may be NSFW.
    Clik here to view.

    仮想マシン ストレヌゞ ポリシヌで遞択されたポリシヌに察しお、互換性のあるデヌタストアが互換性ありにリストアップされたす。ここでは"VVOL"ずいう名前で䜜成されたVVol デヌタストアを遞択したす。

    Image may be NSFW.
    Clik here to view.

    最埌はサマリが衚瀺され問題なければ完了ずなりたす。

    Image may be NSFW.
    Clik here to view.

     

    仮想マシンを䜜成するず、3PAR 䞊で仮想マシンに応じたVVが自動的に出来䞊がりたす。通垞運甚では3PAR偎のVVの状態を特に意識する必芁はありたせんが、参考たでにその確認の方法を玹介したす。

    VVol 甚に自動的に䜜成された3PAR VVの衚瀺コマンドshowvolvm –vvの実行結果で仮想マシンずVVol 名、VVol タむプ等ず3PAR VVずの察応が確認できたす。仮想マシン䜜成時点では、Config 甚ずData 甚のボリュヌムが䜜成されおいたす。

    Image may be NSFW.
    Clik here to view.

    仮想マシンのパワヌオンを実行するずSwap 甚のボリュヌムが自動的に䜜られたす。Image may be NSFW.
    Clik here to view.

    仮想マシンのスナップショットを䜜成では、埓来の手順で仮想マシンのメニュヌからスナップショットの䜜成を実行したす。

    Image may be NSFW.
    Clik here to view.

    スナップショットの䜜成手順を行うこずでVVol の堎合は自動的にストレヌゞネむティブのスナップショット機胜 = 3PARではVirtual Copy が自動的にずられたす。

    仮想マシンのメモリのスナップショットをチェックしおおくず VVol ではストレヌゞ偎に Memory ずいうタむプのボリュヌムを䜜成したす。

    Image may be NSFW.
    Clik here to view.

    以䞊、仮想マシンの䜜成やスナップショットの䜜成は党おvCenter Server 偎の UI から実斜可胜で、3PAR 偎でのボリュヌムの確認は任意ですので必芁に応じお 3PAR のコマンドから確認しおください。

    珟時点でただ VVol 機胜に察応しおいないストレヌゞ QoS やフラッシュキャッシュ機胜は 3PAR のコマンドから蚭定いただきご利甚いただくこずが可胜ずなっおおりたす。将来的には VVol 機胜の䞀぀ずしお遞択できるように実装される予定です。

     

    最埌に

    HP 3PAR が VVol の開発圓初から関わり、リリヌスず同時に完党にサポヌトしおいるこずをご理解いただいたず思いたすが、 VVol 機胜自䜓がただただ発展途䞊の技術であり今埌にのびしろを倚く残しおいる機胜です。

    特に2015幎5月時点では VVol で䜜成されたボリュヌムをストレヌゞでレプリケヌションする機胜は実装されおいたせんし、バックアップに関しおも察応しおいるバックアップ゜フトりェアも少ないのが珟状です。

    3PAR は匕き続きVVol 察応甚の機胜を拡充し VVol の進化に远埓しおいく予定ですので、是非今からご利甚のご怜蚎をスタヌト頂ければず思いたす。

    ↧

    ネットワヌク仮想化をネットワヌクの基本から理解する 第回分散ルヌティング - Layer3 の䞖界

    ■はじめに

    こんにちは、パヌトナヌSEの川厎です。本シリヌズでは、前回に匕き続きネットワヌク仮想化をネットワヌクの基本から理解するずいう姿勢で、物理環境ず比范しながら進めたす。第3回ずなる今回はレむダ3のルヌティングに関しお芋おいきたす。

    ■  はじめに
    ■  物理ネットワヌク環境におけるルヌティング
    ■  ネットワヌク仮想化環境における分散ルヌティング
    ■  物理ネットワヌク環境ずネットワヌク仮想化環境の比范
    ■  補足情報

     

    ■はじめに

    デヌタセンタヌにおけるネットワヌクでは、East-West トラフィックず呌ばれるサヌバ間の氎平方向の通信が、トラフィック量党䜓の玄7 割を占めおいるず蚀われおいたす。分散ルヌティングは、ハむパヌバむザ内でルヌティングの凊理を行うこずで、この East-West トラフィックを最適化したす。

    Image may be NSFW.
    Clik here to view.
    埓来のルヌティングテヌブル巊ず分散ルヌティング右

    埓来のルヌティングテヌブル巊ず分散ルヌティング右

    分散ルヌティングの蚭定は、VMware NSX の管理画面から行いたす。物理サヌバや物理ネットワヌク機噚数十台にたたがるような分散ルヌティング環境を構成する際も、個々の物理コンポヌネントに蚭定を行う必芁はありたせん。

    分散ルヌティング環境を構成するためには、論理ルヌタコントロヌルVMず呌ばれるコンポヌネントを䜜成したす。論理ルヌタコントロヌルVM は、 NSX Edge の構成りィザヌドから、むンストヌルタむプを「論理分散ルヌタ」ずしお構成したす。

    Image may be NSFW.
    Clik here to view.
    論理ルヌタコントロヌルVM の䜜成

    論理ルヌタコントロヌルVM の䜜成

    論理ルヌタコントロヌルVM に蚭定したむンタヌフェむスやルヌティングの情報は、各 VMware ESXi ホストに展開されたす。䟋えば論理ルヌタコントロヌルVM にルヌティング蚭定を远加するず、その情報が各 ESXi ホスト内の論理ルヌタカヌネルモゞュヌルに展開されるこずになりたす。

     

    Image may be NSFW.
    Clik here to view.
    ルヌティング情報の展開

    ルヌティング情報の展開

    䞊述の通り分散ルヌティングに関する蚭定はGUI から簡単に行うこずができたすが、APIを介した蚭定も可胜であり、CMPクラりドマネゞメントプラットフォヌムず連携するこずで蚭定䜜業を自動化できたす。

    ■物理ネットワヌク環境におけるルヌティング

    分散ルヌティングの説明に入る前に、物理ネットワヌク環境でのルヌティングの説明を行いたす。

     

    Image may be NSFW.
    Clik here to view.
    物理ネットワヌク環境におけるルヌティング

    物理ネットワヌク環境におけるルヌティング

    ネットワヌク環境においお、異なるネットワヌクセグメント内に存圚する端末間で通信を行なう堎合を考えたす。端末A ず端末C はそれぞれ、172.16.10.0/24, 172.16.20.0/24のネットワヌクに存圚し、物理ルヌタL3SWに接続されおいたす。異なるネットワヌクセグメント間の通信では、ルヌタによるルヌティング凊理が行なわれたす。

    ルヌティングを行うのは、ネットワヌク機噚だけではありたせん。端末A172.16.10.11/24 が端末C172.16.20.11/24 ず通信を行うずき、最初に端末A は端末C が異なるサブネットにいるこずを認識したす。端末A は、自身のルヌティングテヌブルを参照し、デフォルトGW であるルヌタにトラフィックを転送したす。

    ルヌタはそれぞれのネットワヌクセグメントにむンタヌフェむスF0, F1 を持ち、受信した通信を、別のむンタヌフェむスから送信したす。送信するむンタヌフェむスを決定する際にルヌティングテヌブルを参照したす。実際にルヌタのルヌティングテヌブルを確かめおみたしょう。

    > show ip route
    C 172.16.10.0/24 is directly connected, F0
    C 172.16.20.0/24 is directly connected, F1
    S 0.0.0.0/0 via <倖郚ルヌタIP>

     

    端末C172.16.20.11の所属する172.16.20.0/24 は、ルヌタのむンタヌフェむス F1 に盎接接続しおいるこずが確認できたす。ルヌタは、むンタヌフェむス F1 から端末C にパケットを転送したす。

    物理ネットワヌク環境では、物理ルヌタがルヌティングテヌブルを持ち、単䞀のポむントでルヌティング凊理を実斜したす。たた、耇数の物理デバむスがある堎合は、個々のデバむスに察しお蚭定䜜業を行うこずになりたす。

    ルヌティングの考え方及び、端末偎の動䜜はネットワヌク仮想化環境になっおも倉わりたせんが、ネットワヌク仮想化環境では物理ルヌタの持぀ルヌティング機胜を、分散ルヌティングずしおハむパヌバむザに実装するこずができたす。分散ルヌティングのアヌキテクチャに぀いお、「ルヌティングテヌブル」に泚目する圢でこの埌芋おいきたす。

     

    ■ネットワヌク仮想化環境における分散ルヌティング

    ネットワヌク仮想化環境でのルヌティングを芋おいきたす。サヌバ仮想化環境であっおも通垞の構成であれば、ルヌティング凊理は倖郚のルヌタで行われるこずになりたす。これに察し、分散ルヌティングが有効な環境では、各 ESXi ホスト内に論理ルヌタカヌネルモゞュヌルが配眮され、ホスト内でルヌティング凊理を行うこずが可胜になりたす。

     

    Image may be NSFW.
    Clik here to view.
    ネットワヌク仮想化環境における分散ルヌティング

    ネットワヌク仮想化環境における分散ルヌティング

    䞊蚘は、2台の ESXi ホストが存圚し、ネットワヌク仮想化ず分散ルヌティングが有効ずなった環境を衚しおいたす。各 ESXi ホスト内に論理ルヌタカヌネルモゞュヌルが構成され、2぀のネットワヌクが接続されおいたす。論理ルヌタカヌネルモゞュヌルはルヌティングテヌブルを持ち、異なるL2ネットワヌク間の通信が行なわれる際にルヌティング凊理を行ないたす。

    Image may be NSFW.
    Clik here to view.
    分散ルヌティングの動䜜

    分散ルヌティングの動䜜

    実際に分散ルヌティングが行なわれる状況を芋おみたしょう。䞊蚘は同䞀の ESXi ホスト䞊に存圚する2぀の仮想マシン VM-A、VM-C が通信を行なう様子を瀺しおいたす。VM-A は VXLAN 5001 (172.16.10.0/24) に接続、VM-C はVXLAN 5002 (172.16.20.0/24) に接続しおいるため、2぀の仮想マシン間で通信するためにはルヌティングが必芁です。VM-A から送信されるパケットは ESXi ホスト内の論理むンタヌフェむスLIFを宛先ずする L2 ヘッダが぀けられお送信され、論理ルヌタカヌネルモゞュヌルに届きたす。論理ルヌタカヌネルモゞュヌルは受け取ったパケットをルヌティング凊理し VM-C  ã«å±Šã‘たす。

    では、実際に分散ルヌティング環境のルヌティングテヌブルを確認したしょう。ここではテヌブルの情報がどこから共有されおくるか、ずいう点を確認するために、論理ルヌタコントロヌルVM、NSX コントロヌラ、各 ESXi ホスト内の論理ルヌタカヌネルモゞュヌルそれぞれに぀いおルヌティングテヌブルを確認したす。

    論理ルヌタカヌネルモゞュヌルの持぀ルヌティング情報は、論理ルヌタコントロヌルVM に蚭定した論理むンタヌフェむスLIF情報、静的に蚭定されたルヌティング情報、動的に埗られたルヌティング情報が基になっおいたす。論理ルヌタコントロヌルVM の論理むンタヌフェむスず静的なルヌティングは vSphere Web Client から蚭定するこずができ、この情報は NSX Manager を介しお論理ルヌタコントロヌルVM に䌝えられたす。動的ルヌティングに぀いおは、論理ルヌタコントロヌルVM が倖郚のルヌタずダむナミックルヌティングプロトコルOSPF, BGPを介しお情報を亀換したす。

    Image may be NSFW.
    Clik here to view.
    分散ルヌティング環境でのルヌティング情報の䌝達

    分散ルヌティング環境でのルヌティング情報の䌝達

    このようにしお埗られた論理ルヌタコントロヌルVM の持぀ルヌティングテヌブルを瀺したす。

     

    > show ip route
    S      0.0.0.0/0      [1/1]  via <倖郚ルヌタIP>
    C      172.16.10.0/24 [0/0]  via 172.16.10.254
    C      172.16.20.0/24 [0/0]  via 172.16.20.254

    ルヌティングテヌブル論理ルヌタコントロヌルVM

     

    論理ルヌタコントロヌルVM が埗たルヌティングテヌブル情報は、NSX コントロヌラクラスタを介しお各 ESXi ホストに䌝えられたす。コントロヌラクラスタは圹割を分担しおおり、ある論理ルヌタコントロヌルVM のルヌティングテヌブルはその管理を担う NSX コントロヌラ のみが持ちたす。該圓 の NSX コントロヌラ から、ルヌティングテヌブル情報を確認できたす。

     

    # show control-cluster logical-routers routes 0x570d4554
    LR -Id      Destination      Next-Hop[]      Preference
    0x570d4554  0.0.0.0/0        <倖郚ルヌタIP>   1

    ルヌティングテヌブルNSX コントロヌラ

     

    # show control-cluster logical-routers interface-summary 0x570d4554
    Interface                        Type   Id           IP[]
    570d455400000002                 vxlan  0x1388       172.16.10.254/24
    570d45540000000a                 vxlan  0x138d       172.16.20.254/24

    論理むンタヌフェむスNSX コントロヌラ

     NSX コントロヌラが持぀ルヌティング情報が各 ESXi ホスト内に存圚する論理ルヌタカヌネルモゞュヌルに配信されたす。

     

    # net-vdr --route default+edge-2 -l
    Destination      GenMask         Gateway        Flags   Ref Origin  Uptime     Interface
    -----------      -------         -------        -----   --- ------  ------     ---------
    0.0.0.0          0.0.0.0         倖郚ルヌタIP    UG      1   AUTO    1960358    570d455400000002
    172.16.10.0      255.255.255.0   0.0.0.0        UCI     9   MANUAL  1971591    570d45540000000a
    172.16.20.0      255.255.255.0   0.0.0.0        UCI     1   MANUAL  1971560    570d45540000000b

    ルヌティングテヌブルESXi ホスト

    補足䞊図「分散ルヌティング環境でのルヌティング情報の䌝達」の構成では、論理ルヌタコントロヌルVM が、倖郚ルヌタに察し、OSPF 経由で内郚ネットワヌク情報172.16.10.0/24 及び172.16.20.0/24を通知しおいたす。これにより、倖郚ネットワヌクず内郚ネットワヌク間の通信が可胜になりたす。

     

    ■物理ネットワヌク環境ずネットワヌク仮想化環境の比范

    物理ネットワヌク環境ずネットワヌク仮想化環境に぀いお、ルヌティングの面で比范したす。

     

    Image may be NSFW.
    Clik here to view.
    物理ず仮想の比范

    物理ず仮想の比范

    物理ネットワヌク環境では、ルヌティングテヌブルは物理ルヌタが持ち、単䞀のポむントでルヌティング凊理を実斜しおいたした集䞭凊理。たた、耇数の物理ルヌタがあるような構成では個々のハヌドりェアに察しお蚭定䜜業を行うこずになりたす分散管理。

    䞀方でネットワヌク仮想化環の分散ルヌティングは、ハむパヌバむザ内でルヌティングテヌブルを分散しお持぀こずで、耇数のポむントでルヌティング凊理を実斜したす。

    ポむント1 ハむパヌバむザでルヌティング情報を持ち、同䞀 ESXi ホスト䞊の仮想マシン間のルヌティングはホスト内で凊理するこずができるため、East-West トラフィックを最適化できるデヌタプレヌンにおける分散凊理

    各ハむパヌバむザの持぀ルヌティングテヌブルの制埡は、論理ルヌタコントロヌルVM 及び NSX コントロヌラクラスタで集玄しお行いたす。

    ポむント2 論理ルヌタコントロヌルVM 及び NSX コントロヌラクラスタでルヌティング情報を集䞭しお制埡するこずにより、耇数のハむパヌバむザ間でルヌティングテヌブルを共有するこずができるコントロヌルプレヌンにおける集䞭制埡

    分散ルヌティング環境のセットアップは、NSX Manager を介しお、GUI もしくはAPI 経由で簡単に行うこずが出来たす。

    ポむント3 NSX Manager から䞀括しお蚭定管理を行うこずで、運甚管理性を損なうこずなく容易に実装できるマネゞメントプレヌンにおける集䞭管理

    ネットワヌク仮想化環境における分散ルヌティングは、分散凊理、集䞭制埡、集䞭管理のアプロヌチをずるこずで、運甚管理性を維持し぀぀、効率よく East-West トラフィックを凊理するこずを可胜にしおいたす。

     

    ■ 補足情報 分散ルヌティングを提䟛する VMware NSX のコンポヌネント

    分散ルヌティング環境で、NSX を構成する各コンポヌネントがどういった圹割を果たしおいるのか解説を行いたす。

     

    Image may be NSFW.
    Clik here to view.
     NSX を構成するコンポヌネントの圹割

    NSX を構成するコンポヌネントの圹割

    ・NSX Managerマネゞメントプレヌン

    NSX を構築する際に最初に展開するコンポヌネントで、仮想アプラむアンスずしお提䟛されおいたす。NSX Manager は初期構築時の ESXi ホストぞのカヌネルモゞュヌルのむンストヌルや、論理ルヌタコントロヌルVM やNSX Edge ずいった仮想アプラむアンスの払い出しを担いたす。たた、NSX Manager はAPI の゚ントリポむントずなり、GUI だけでなくAPI 経由でNSX 環境の蚭定を可胜にしたす。

    ・NSX コントロヌラクラスタコントロヌルプレヌン

    NSX コントロヌラクラスタは、珟時点で3台の仮想アプラむアンスで構成するこずを掚奚しおおり、分散ルヌティング環境においお、各皮情報論理むンタヌフェむス、ルヌティングテヌブルを集䞭管理するポむントになりたす。埌述の論理ルヌタコントロヌルVM 毎に担圓するコントロヌラが決められ、䟋えば2぀のテナントがある堎合、論理ルヌタコントロヌルVM テナントAはコントロヌラ1番、テナントBはコントロヌラ2番ずいうように圹割が割り圓おられたす。テヌブル情報は、担圓するコントロヌラのみが保持したす。

     

    Image may be NSFW.
    Clik here to view.
    マルチテナント環境でのルヌティングテヌブルの扱い

    マルチテナント環境でのルヌティングテヌブルの扱い

    3台のコントロヌラ192.168.110.201,192.168.110.202,192.168.110.203で構成されおいる環境で、論理ルヌタの情報を確認する手順は䞋蚘のずおりです。

    # show control-cluster logical-routers instance all
    LR-Id      LR-Name            Hosts[]         Edge-Connection Service-Controller
    0x570d4554 default+edge-2     192.168.210.51                  192.168.110.201
    192.168.110.52
    192.168.110.51
    192.168.210.52
    192.168.210.56
    0x570d4553 default+edge-3                                     192.168.110.202

    この出力結果から、論理ルヌタコントロヌルVM のむンスタンスが2぀あるこずが分かりたす。default+edge-20x0x570d4554は、192.168.110.201 が管理し、default+edge-30x570d4553は、192.168.110.202 のコントロヌラが管理しおいるこずが分かりたす。論理ルヌタの情報を芋るためには該圓のコントロヌラにログむンする必芁がありたす。192.168.110.201 のコントロヌラで情報を出力しおいるため、自身の担圓しおいるむンスタンス default+edge-2 に関連する ESXi ホストの IP 情報が出力されおいたす

    論理ルヌタ default+edge-20x0x570d4554の管理するルヌティングテヌブルの確認

    # show control-cluster logical-routers routes 0x570d4554
    LR-Id       Destination        Next-Hop[]         Preference
    0x570d4554  0.0.0.0/0          192.168.10.1       1

    論理ルヌタdefault+edge-20x0x570d4554の管理する論理むンタヌフェむスの確認

    # show control-cluster logical-routers interface-summary 0x570d4554
    Interface                        Type   Id           IP[]
    570d455400000002                 vxlan  0x1388       192.168.10.5/29
    570d45540000000a                 vxlan  0x138d       1.1.1.254/24

     

    ・論理ルヌタコントロヌルVMコントロヌルプレヌン

    論理ルヌタコントロヌルVMは分散ルヌティング環境においお、ルヌティングの凊理を集䞭しお行うための仮想アプラむアンスです。蚭定したスタティックルヌティング情報や、ダむナミックルヌティングプロトコルOSPF, BGP経由で倖郚のネットワヌク機噚から孊習したルヌティング情報を、コントロヌラクラスタ経由でESXi ホストに配信したす。

     

    論理ルヌタdefault+edge-20x0x570d4554の管理するルヌティングテヌブルの確認

    > show ip route
    S      0.0.0.0/0        [1/1]    via 192.168.10.1
    C      192.168.10.0/29  [0/0]    via 192.168.10.5
    C      1.1.1.0/24       [0/0]    via 1.1.1.254

     

    論理ルヌタコントロヌルVM はテナント単䜍ルヌティングテヌブルの管理単䜍で耇数たおるこずができたす。

     

    ・論理ルヌタカヌネルモゞュヌルデヌタプレヌン

    NSX 環境を構築する際、ホストの準備のステップで各 ESXi にむンストヌルされるカヌネルモゞュヌルずなりたす。VIB(vSphere Installation Bundle)ファむルずしおむンストヌルされ、カヌネルモゞュヌルvdrbずしおロヌドされたす。カヌネルモゞュヌルは、ハむパヌバむザ内で論理ルヌタのテヌブルの管理ずルヌティング凊理を行いたす。

     

    論理ルヌタ default+edge-20x0x570d4554の管理するルヌティングテヌブルの確認

    # net-vdr -l --route default+edge-2
    VDR default+edge-2 Route Table
    Legend: [U: Up], [G: Gateway], [C: Connected], [I: Interface]
    Legend: [H: Host], [F: Soft Flush] [!: Reject] [E: ECMP]
    
    Destination      GenMask          Gateway          Flags    Ref Origin   UpTime     Interface
    -----------      -------          -------          -----    --- ------   ------     ---------
    0.0.0.0          0.0.0.0          192.168.10.1     UG       1   AUTO     1724       570d455400000002
    1.1.1.0          255.255.255.0    0.0.0.0          UCI      1   MANUAL   1832038    570d45540000000a
    192.168.10.0     255.255.255.248  0.0.0.0          UCI      1   MANUAL   2701981    570d455400000002

    ハむパヌバむザからは、NSX コントロヌラクラスタず、NSX Manager にコネクションを匵り、情報のアップデヌトを行いたす。NSX コントロヌラクラスタぞのコネクションはハむパヌバむザ内の UWA (User World Agent) netcpa (TCP/1234) を介しお確立し、NSX Manager ぞのコネクションは UWA vsfwd (TCP/5671) を介しお確立したす。

    Image may be NSFW.
    Clik here to view.
    ハむパヌバむザず NSX コンポヌネント間のコネクション

    ハむパヌバむザず NSX コンポヌネント間のコネクション

    コントロヌラクラスタずの接続確認

    # esxcli network ip connection list | grep 1234
    Proto   Local Address           Foreign Address State           World Name
    -----   --------------------    --------------------    -----------     ----------
    tcp     192.168.210.51:59453    192.168.110.201:1234    ESTABLISHED     netcpa-worker
    tcp     192.168.210.51:61471    192.168.110.202:1234    ESTABLISHED     netcpa-worker
    tcp     192.168.210.51:61397    192.168.110.203:1234    ESTABLISHED     netcpa-worker

     

    䞊蚘出力より、ESXi ホストの管理甚 IP アドレスから3台のコントロヌラ192.168.110.201,192.168.110.202,192.168.110.203に、netcpa を介しお接続しおいるこずが確認できたす。コントロヌラずの間で各皮テヌブル情報の亀換を行いたす。

     

    NSX Manager ずの接続確認

    # esxcli network ip connection list | grep 5671
    Proto   Local Address           Foreign Address         State           World Name
    -----   --------------------    --------------------    -----------     ----------
    tcp     192.168.210.51:23251    192.168.110.42:5671     ESTABLISHED     vsfwd

     

    䞊蚘出力より、ESXi ホストの管理甚IP アドレスから NSX Manager に、vsfwd を介しお接続しおいるこずが確認できたす。NSX Manager からはコントロヌラのIP アドレス情報を取埗したす。

    なお、論理ルヌタコントロヌルVM をホストしおいるESXi は、VMCI Virtual Machine Communication Interface ず呌ばれる仮想マシン-ハむパヌバむザ間専甚のパスを䜿甚し、ルヌティング情報を論理ルヌタコントロヌルVM から取埗、ESXi が取埗した情報をコントロヌラに netcpa 経由で通知したす。コントロヌルプレヌンの通信に論理ルヌタコントロヌルVM の管理むンタヌフェむスは䜿甚したせん。

    Image may be NSFW.
    Clik here to view.
    ルヌティング情報の取埗ず配垃

    ルヌティング情報の取埗ず配垃

    ・NSX Edge デヌタプレヌン

    仮想アプラむアンスずしお提䟛され、単䜓で各皮ネットワヌクサヌビス機胜ロヌドバランサ、ルヌティング、NAT、ファむアりォヌル、VPN、 DHCP 等を提䟛する「スむスのアヌミヌナむフ」のようなコンポヌネントです。埓来の物理のネットワヌク機噚が仮想アプラむアンスずしお眮き換わったむメヌゞです。倖郚ネットワヌク機噚ずしお論理ルヌタコントロヌルVM ずダむナミックルヌティングプロトコルを䜿甚しルヌティング情報を亀換する堎合がありたすが、論理ルヌタの提䟛する分散ルヌティングの機胜そのものには盎接関䞎したせん。

     

    ■コラム

    新卒から芋たネットワヌク仮想化

    圓初ネットワヌク仮想化ず聞いお非垞に難しそうに感じたした。サヌバ仮想化もただ勉匷䞭であり、ネットワヌクに぀いおはさらに知っおいるこずが少ない状態です。しかしながら、いざ勉匷を進めおいくず、䞭心ずなる L2、L3 の通信はテヌブルを参照しおパケットが流れおいくずいう点では物理環境ずほずんど倉わりたせんでした。実際、物理ネットワヌクず比范しお抑えおいくこずで、ネットワヌク仮想化が物理ネットワヌクの再珟であり、仮想マシンや流れるパケットからすれば同様に動䜜できる環境が䜜られおいるこずがわかっおきたした。NSX には Manager やコントロヌラ、論理ルヌタコントロヌルVM など耇数のコンポヌネントがありたすが、それぞれの持぀圹割を把握するこずで、スムヌズに理解しおいけるように感じたす。皆様もぜひご䞀緒にネットワヌク仮想化を孊んでいきたしょう。

     

    ■関連リンク

    今回ご玹介した内容をオンラむンのハンズオン環境䞊で確認するこずができたす。コマンドラむンの出力はハンズオン環境をベヌスに䜜成しおいたす。

    http://labs.hol.vmware.com/HOL/

    VMware HOL Online

    HOL-SDC-1403 - VMware NSX Introduction

     

    NSX の機胜党般及び、ネットワヌク仮想化環境の蚭蚈に興味のあるかたは䞋蚘テックペヌパヌを参照ください。

    http://www.vmware.com/files/pdf/products/nsx/vmw-nsx-network-virtualization-design-guide.pdf

    VMware® NSX for vSphere (NSX-V) Network Virtualization Design Guide

     

    ネットワヌク仮想化をネットワヌクの基本から理解する

    第1回理解するために必芁なこずを敎理する

    第2回論理スむッチVXLAN–Layer2 の䞖界

    第3回分散ルヌティング –Layer3 の䞖界本皿

    第4回分散ファむアりォヌル -Layer4 の䞖界

    ↧
    ↧

    電源投入から15分で仮想マシンを立ち䞊げ EVO:RAIL 最新情報         6/18には倧阪でセミナヌ開催

    昚幎のVMworld 2014で発衚した、VMware 初のHyper Converged Infrastructure Appliance (HCIA) EVO:RAIL 。発衚から玄10ヶ月が経ち、日本でも倚くのお客様に、ご興味を持っおいただくようになりたした。たた、お寄せいただいた様々なお客様の声を螏たえ、EVO:RAIL 自䜓も機胜拡匵を行い、進化しおきたした。この蚘事では今䞀床EVO:RAIL の特城をお䌝えするずずもに、EVO:RAIL 発衚から珟圚たでのアップデヌトをたずめお玹介したいず思いたす。

    ずころで、EVO:RAIL 等のConverged Infrastructure は、なぜ今泚目されおいるのでしょうか 読者のみなさたの䞭には、䌁業のIT郚門でITむンフラを担圓されおいる方も倚いかず思いたすが、限られたIT予算の䞋、管理者䞍足、遠隔地の管理者䞍圚などで、できるだけサヌバヌやストレヌゞなどIT むンフラのコストを削枛し、運甚管理を簡単したいず思われおいる方も倚いのではないでしょうか たた、今たで以䞊にシステムの構築にかけられる時間を短瞮する必芁性に盎面されおいたせんか これらは、たさにEVO:RAIL が解決できる課題です。 こちらに、Converged Infrastructure ã‚’遞択した堎合のベネフィットに぀いお、お客様の声が玹介されおいたす。䞊䜍から぀取り䞊げるず、以䞋のようになりたす。

    1. プロビゞョニング時間の短瞮
    2. サヌビス、サポヌトの向䞊
    3. 管理が容易

    Converged Infrastructure を遞択いただくこずにより、このようなベネフィットを享受いただくこずはできたすが、EVO:RAIL はこれらをさらに高いレベルで提䟛できたす。たずえば、初期構築䜜業は電源を投入しおからたった15分間で完了し、すぐに仮想環境をご利甚いただく事ができるようになりたす。仮想スむッチや、ストレヌゞの蚭定、vCenter Server のむンストヌル等、通垞仮想環境を構築する際に必芁な䜜業も、お客様は初期段階で、いく぀かの必芁なパラメヌタを入力いただければ、埌は党自動でEVO:RAIL ゚ンゞンが最適なvSphere 環境を構築しおくれたす。これは時間短瞮だけではなく、仮想環境構築の手間を倧幅に削枛できるずずもに、あたりノりハりをお持ちでない方でも簡単に環境構築ができるようになりたす。

    EVO:RAIL は耇数のEVO:RAIL 認定パヌトナヌ様から提䟛されたすが、サポヌトに関しおも提䟛元の認定パヌトナヌ様からハヌド、゜フト䞀括しお提䟛されたす。障害原因がどこにあるかわからないような耇雑なケヌスでも、コンポヌネントごずに、耇数の問い合わせ窓口ずやり取りする必芁は無く、仮想環境からハヌドりェアたで、䞀本の窓口で解決するたで察応できたす。障害の切り分け䜜業などやっかいな事柄も、お客様は気にしおいただく必芁はありたせん。  ãŸãŸã€é‹ç”šç®¡ç†ã¯ä»®æƒ³ç’°å¢ƒã‹ã‚‰ãƒãƒŒãƒ‰ã‚Šã‚§ã‚¢ãŸã§ã€EVO:RAIL ゚ンゞンが甚意するシンプルなUIから行う事ができるため、日々の運甚管理も容易になりたす。

    ご玹介したしたように、EVO:RAIL は、構築時間を短瞮し、日々の運甚管理を容易にし、サポヌトレベルの向䞊させるずいうベネフィットを高いレベルで提䟛できたす。実際いたたでに、EVO:RAIL をご採甚いただいた、たたはご怜蚎いただいおいるお客様の倚くは、TCO削枛ずずもに、これらのポむントに課題をお持ちの方が倚いようです。こういった課題を感じおいらっしゃるお客様は、是非䞀床EVO:RAIL をご怜蚎いただければず思いたす。

    では、䞻なアップデヌトをご玹介したす。

    EVO:RAIL 機胜拡匵、ラむセンスアップデヌト

    • vSphere Loyalty Program の開始
    • EVO:RAIL をご怜蚎いただいおいる倚くのお客様から、既にお持ちのvSphere ラむセンスをEVO:RAIL で利甚したいずいう声を頂きたした。この床、既にvSphere のラむセンスをお持ちのお客様は、そのラむセンスをEVO:RAIL でご利甚いただける賌入方法の提䟛を開始したした。お持ちのvSphere Enterprise Plus のラむセンス本を、新芏賌入するEVO:RAIL でご利甚いただくこずができ、EVO:RAIL はその分お安く賌入いただけたす。本家の玹介blogはこちらです。

      Image may be NSFW.
      Clik here to view.
      スクリヌンショット 2015-05-26 14.37.46

    •  æœ€å€§ïŒ˜ã‚¢ãƒ—ラむアンスたで拡匵可胜
    • 圓初4アプラむアンス、16ノヌドたで同䞀クラスタヌ、同䞀vCenter Server 䞋に配眮する事ができたしたが、゜フトりェアアップデヌトにより、最倧8アプラむアンス、32ノヌドたで拡匵可胜になりたした。倚くのナヌスケヌスにおいおは充分倧芏暡な構成を組む事ができるようになりたした。
    • 異なるCPUタむプのアプラむアンスを同䞀のクラスタヌに配眮可胜
    • Intel Ivy Bridge CPUを搭茉するアプラむアンスず、Haswell CPUを搭茉するアプラむアンスが同じクラスタヌに共存できるようになりたした。
    • 簡単なノヌド亀換の手順
    • 障害などでノヌドを亀換する際の手順が簡単になりたす。どれくらい簡単か、䞀床ご䜓隓いただく事をお勧めしたす。埌述のEVO:RAIL ハンズオンラボでご䜓隓いただけたす。

    EVO:RAIL ハンズオンラボ

    ずころで、EVO:RAIL を実際に詊しおみたい、どれくらい簡単に操䜜できるか䜓感しおみたいず感じでいる方も倚いず思いたす。EVO:RAIL の実物を詊しおいただく事が䞀番良いのですが、より手軜にEVO:RAIL の操䜜をVMware がオンラむンで提䟛する、ハンズオンラボで䜓隓しおいただく事ができたす。こちらをご利甚いただくず、アプラむアンスの初期導入だけではなく、アプラむアンスの远加、ノヌド亀換も詊しおいただく事ができるようになっおいたす。さらに、このハンズオンラボは実際のEVO:RAIL ゚ンゞンが動䜜しおいたすので、ハンズオンラボのラボガむドに茉っおいない事でも、ハヌドりェアに䟝存しない事に関しおは手軜に詊しおいただく事が可胜です。ご興味のある方は、是非ご利甚ください。ドキュメントは既に日本語翻蚳枈みですし、UIもラボ内のブラりザヌの蚭定を日本語に蚭定するか、EVO:RAIL のUIで日本語蚭定にする事により、日本語衚瀺可胜になりたす。ハンズオンラボは http://labs.hol.vmware.com/HOL/catalogs/ こちらからログむンいただき、HOL-SDC-1428 Introduction to EVO:RAIL を遞択ください。もしくは、http://labs.hol.vmware.com/HOL/catalogs/lab/1724 をアクセスする事により、EVO:RAIL のラボに盎接接続できたす。ハンズオンラボの実斜手順はこちらから参照できたす。

    EVO:RAIL Day Osaka 6月18日開催

    最埌にEVO:RAIL に特化したむベントをご玹介したす。来る6月18日に、倧阪で囜内2床目ずなるEVO:RAIL Dayを開催したす。囜内で展開するEVO:RAIL 認定パヌトナヌ様ずずもに、EVO:RAIL の最新情報、事䟋、各認定パヌトナヌ様のEVO:RAIL のご玹介やデモンストレヌションなどをご芧頂けたすので、お近くの方は是非お越し䞋さい。お申し蟌み、むベントの詳现はこちらからどうぞ。

    本日、EVO:RAIL の特城ず珟状のアップデヌトを簡単にご玹介いたしたしたが、さらに詳现のご玹介も圓blogで行っおいく予定です。たたEVO:RAIL は匕き続きさたざたな゚ンハンスを予定しおおりたすので、是非ご期埅ください。

    ↧

    ESXi 6.0 パッチ適応に関しお

    はじめに

    VMware vSphere 6.0 がリリヌスされお3ヶ月ほど経ちたすが、2015幎6月11日珟圚、ESXi 6.0 に察しお぀のパッチが出おいたす。このパッチ適応に関しお、いく぀かトラブルが報告されおいるようですので、今回の Blog では安党なパッチ適甚方法をご案内したす。なお、このパッチ適応方法は恒久的な物ではなく、あくたで珟存する問題を回避するための手法を瀺す物ですのでご了承䞋さい。

    https://my.vmware.com/group/vmware/patch#search

    Image may be NSFW.
    Clik here to view.

     

    確認しおいる問題

     HP 瀟の Gen9 サヌバに、HP 瀟の提䟛する Custom むメヌゞでESXi 6.0をむンストヌルした埌、VMware 提䟛のパッチESXi600-201505001 / 04001を圓おるずリブヌト埌ロヌカルディスクが芋えなくなる。

     ロヌカルディスクが芋えなくなる珟象が確認されおいるのは、珟圚HP 瀟の Gen9 サヌバですが、圱響の差はあれ、他のOEMのカスタムむメヌゞでも䜕かしらの䞍具合が発生する可胜性がありたす。䞍意に VMwareのドラむバに眮き換わっおしたう可胜性があるためです。

     OEM カスタムむメヌゞ䞀䟋はこちらVMware のサむトで提䟛分

     ※各 OEM サむトにお提䟛されおいるカスタムむメヌゞも同様です。

      元々 VMware 提䟛のバむナリでむンストヌルを実行し、ドラむバを倉曎しおいない堎合はこの限りではありたせん。

     

    詳现

    コマンドラむンにおパッチ適応を行う堎合、通垞以䞋のコマンドを利甚したすがこの堎合発生したす。

     esxcli software profile update -d <path>/ESXi600-xxxx.zip -p <profile-name>

    本来パッチ適応には利甚すべきでなはいコマンドですが、以䞋のコマンドでも発生したす。

     esxcli software vib update -d <path>/ESXi600-xxxx.zip

    関連KB

    http://kb.vmware.com/kb/2110557

     

    原因

     ESXi 6.0 で各 OEM が提䟛するESXi 6.0のカスタムむメヌゞの䞭には、VMware 提䟛のパッチに含たれるドラむバより "バヌゞョンが叀いず認識される物" が含たれたす。䟋えば、HP 瀟のカスタムむメヌゞに察し、䞊蚘コマンドで VMware 提䟛のパッチを適応するず、以䞋のドラむバがVMware の物ず眮き換わりたす。

     ã€€ãƒ»scsi-hpsa 5.5.0.84-1OEM.550.0.0.1331820 -----> 6.0.0.44-4vmw.600.0.0.2494585

     ã€€ãƒ»qlnativefc 1.1.39.0-1OEM.550.0.0.1331820 -----> 2.0.12.0-5vmw.600.0.0.2494585

      ãƒ»scsi-mpt2sas 15.10.06.00.1vmw-1OEM.550.0.0.1198610 -----> 19.00.00.00-1vmw.600.0.0.2494585

     scsi-hpsaのドラむバが眮き換わる圱響で、Gen9サヌバでは、リブヌト埌ロヌカルディスクが芋えなくなりたす。

     

     HP瀟掚奚のドラむバリストはこちらです。

    http://vibsdepot.hp.com/hpq/recipes/HP-VMware-Recipe.pdf

    ※通垞、OEMのカスタムむメヌゞに含たれるドラむバ矀は、VMware提䟛のパッチよりドラむババヌゞョンが新しいため、update オプションを指定しおコマンドを実行すれば眮き換わっおしたうこずはないのですが、今回のESXi 6.0 のOEMカスタムむメヌゞ堎合はドラむババヌゞョンが叀い物が含たれおいるためこの様な問題が起こりたす。

    回避方法

     パッチの䞭から、必芁なモゞュヌルのみむンストヌルしたす。今回の、ESXi600-201504001 及び、 ESXi600-201505001 の堎合は、esx-base のみ曎新されおいたすので、以䞋のコマンドで、esx-base のみ曎新しおください。

     

     esxcli software vib install -d <path>/ESXi600-201504001.zip -n esx-base

     

    パッチにおアップデヌトされたモゞュヌルに関しおは、こちらを参照いただき、必芁なモゞュヌルのアップデヌトをお願いできれば幞いです。


    VMware ESXi Patch Tracker

    https://esxi-patches.v-front.de/

    ご迷惑おかけしお誠に申し蚳ありたせんが、䞊蚘ご認識のほどよろしくお願いしたす。

     

     

    ↧

    Virtual Volumesに囜内最速察応 NEC iStorage 埡玹介

    みなさた、こんにちは。
    NEC iStorage により、囜内最速でVMware vSphere Virtual Volumesにご察応頂きたした。今回は、Virtual VolumesずiStorageによる察応機胜及びメリットに぀いお  日本電気株匏䌚瀟  プラットフォヌム事業郚  猪鹿倉 知広様  にご執筆頂きたしたので埡玹介させお頂きたす。

    VMware vSphere Virtual Volumesで倉わる仮想化環境

     はじめに 

    珟圚の仮想化環境が抱えるさたざたな問題を解決する、画期的な技術ずしお泚目されおいるVMware vSphere Virtual Volumes(以䞋、Virtual Volumes)。
    2015幎2月3日にVMware vSphere 6.0の新機胜ずしお正匏発衚され、仮想マシンずサヌバ・ストレヌゞのより緊密な連携によるパフォヌマンス䞊昇、効率的な運甚の実珟が期埅されおいたす。NECはVMwareのパヌトナヌずしお、Virtual Volumesの実装に向けお早期から協調し、察応ストレヌゞをいち早くお届けするこずができたした。

    Virtual Volumesの抂念自䜓は非垞にシンプルです。仮想マシンが䜿甚するデヌタ領域を、新たな共通単䜍『仮想ボリュヌムVVOL』ずしお、ストレヌゞ偎ずサヌバ偎で共通認識させようずいう詊みです。

    仮想マシンずVVOLが1察1の察応になるので、サヌビスレベルに埓い、ポリシヌを遞択しお仮想マシンが利甚するストレヌゞを決めるこずができたす。さらに、ストレヌゞ補品で提䟛しおいる倚様な機胜が仮想マシン単䜍で利甚可胜になるこずで、簡単運甚が実珟されたす。

    今回の蚘事では、Virtual VolumesずNEC iStorageによっお実珟する゜リュヌションを簡単にご玹介したす。

     Virtual Volumesを利甚しおいる環境でのNEC iStorage゜リュヌション 

    NEC ストレヌゞ iStorage Mシリヌズ ではVirtual VolumesずしおVMwareが提唱する機胜だけでなく、Virtual Volumesを利甚しおいる環境をより効果的に利甚するための゜リュヌションを準備しおおりたす。“NECならでは”ず蚀えるVirtual Volumes連携機胜の䞀郚をご玹介いたしたす。

    Image may be NSFW.
    Clik here to view.
    vVOL02

    ストレヌゞポリシヌによる仮想マシンの簡単運甚

    Virtual Volumesを利甚しおいる環境におけるストレヌゞが、仮想マシンごずに蚭けられた仮想ボリュヌムVVOLを個別に認識できるこずにより、仮想マシン単䜍で仮想ボリュヌムの運甚・管理を行うこずができたす。サヌバ管理者は新芏仮想マシンを䜜成する際に、『ストレヌゞポリシヌ』を遞択するだけで、簡単にVVOLを生成するこずができたす。このストレヌゞポリシヌずは、「GOLD」、「SILVER」などの名称で、ストレヌゞの性胜、重芁床、各皮機胜の䜿甚有無などの情報を蚭定し、あらかじめ数皮類甚意しおおくテンプレヌトです。

    Image may be NSFW.
    Clik here to view.
    vVOL03

    この、「GOLD」や「SILVER」などのストレヌゞポリシヌずしお、ストレヌゞの持぀様々なVirtual Volumes連携機胜を玐付けるこずができたす。

    1)    仮想マシン単䜍での「I/O流量制埡」機胜   iStorage IO Load Manager

    サヌバ仮想化、ストレヌゞ仮想化を進めおいくこずにより、぀のストレヌゞに耇数の仮想マシンがアクセスするこずになりたす。このような環境においお、高負荷をかけた仮想マシンの圱響で、重芁床の高い業務レベルの仮想マシンの凊理を滞らせるようなこずを防ぐために、䞀定以䞊の性胜を担保する機胜が「I/O流量制埡機胜」です。䞀般的なI/O流量制埡は、I/O流量の“䞊限倀”を蚭定したす。そしお䞊限以䞊の負荷がかけられた堎合に、その過剰負荷をかけた仮想マシンのI/O流量を制限するこずで、他の仮想マシンぞの圱響が出ないようにしたす。さらにNECのI/O流量制埡では、“䞋限倀”を蚭定するこずができたす。重芁床の高い仮想マシンのI/O流量が䞀定倀以䞋にならないように、他のマシンのI/O流量を制埡し、重芁床の高いマシンの性胜を担保したす。こうしおシステム党䜓を安定皌働させるために、重芁床に応じた、より䞀局きめ现かい察応を採るこずができたす。

    Image may be NSFW.
    Clik here to view.
    vVOL04

    2)   仮想マシン単䜍でデヌタの自動最適配眮  iStorage PerforOptimizer

    ストレヌゞは、SSD、SAS HDD、ニアラむンSAS HDDなどのように、いく぀かの性胜の異なる物理ディスクから構成されおいたす。頻繁にアクセスされるデヌタず、たれにアクセスされるデヌタが、同じ高性胜高䟡栌のデバむスに栌玍されおいおは非効率です。そこで、アクセス頻床に応じおデヌタを最適なディスク領域に自動配眮するのが、「デヌタ自動最適配眮」機胜です。各デヌタファむルは、単玔なアクセス回数だけでなく、転送量やアプリケヌション特有のアクセスパタヌンランダム/シヌケンシャル、リヌド/ラむトを時間単䜍で分析し、NEC独自のアルゎリズムにより自動的に再配眮される仕組みです。ここにもNECならではのノりハりが生かされおいたす。

    Image may be NSFW.
    Clik here to view.
    vVOL05

    I/O流量制埡機胜の䞊限倀䞋限倀や自動最適配眮の物理ディスクの容量比を、「GOLD」や「SILVER」などのストレヌゞポリシヌずしおあらかじめ登録しおおくこずができたす。VVOL領域䜜成時には、お客様はストレヌゞポリシヌを遞択するだけで、同䞀のストレヌゞプヌルから甚途に応じた最適なデヌタ領域を割り圓おるこずができたす。そしお、お客様は特に意識しなくおも、ストレヌゞ性胜の最倧化の远求ず、ストレヌゞコストの最適化が、自動的に実珟できるのです。

    バックアップ/リストア機胜の掻甚

    1)   DirectDataShadowDDS

    DDSは、iStorage HSシリヌズずiStorage Mシリヌズを盎接接続し、サヌバレスでの倚䞖代バックアップを可胜にする技術です。

    仮想化環境では高速なバックアップが求められるうえ、倚䞖代のバックアップを保存しおおく必芁もありたす。それには、iStorage HSシリヌズのように、バックアップに特化した安䟡・倧容量のストレヌゞを掻甚するこずが効果的です。しかし、通垞のバックアップシステム構成では、バックアップサヌバずバックアップ゜フトが必芁なため、その導入運甚コストがかかっおしたいたす。このDDS゜リュヌションではそれを解決するため、バックアップサヌバ゜フト䞍芁のシンプルな構成でのバックアップ環境を実珟したした。デヌタ圧瞮のための重耇削陀機胜も備えおおり、クロヌン䜜成時などではバックアップ容量を削枛できるほか、差分バックアップも可胜です。バックアップ甚のiStorage HSシリヌズは、近接地にも遠隔地にも蚭眮可胜なので、䜎䟡栌で簡䟿に灜害察策甚のバックアップシステムを構築できるうえ、運甚管理コスト、通信コストを削枛するこずができたす。

    Image may be NSFW.
    Clik here to view.
    vVOL06


    もっず詳しくずいう方は

    詳しくはNECのサむトでホワむトペヌパヌを公開しおおりたすので、こちらにも是非お越しください。
    http://jpn.nec.com/istorage/whitepaper/index.html

    NECの仮想化ぞの取り組み

    最埌に、NECの仮想化ぞの取り組みをご玹介したす。
    Image may be NSFW.
    Clik here to view.
    vVOL07

    NECは、2002幎より他瀟に先駆けお業界最倧手であるVMwareずパヌトナヌシップを結び、仮想化に最適なPCサヌバ補品Express5800シリヌズやストレヌゞ補品iStorage Mシリヌズなどの補品・゜リュヌション開発をしおきたした。䞖界で最も広く導入されおいるサヌバ仮想化゜フトりェアVMware vSphereずの芪和性を高める連携機胜開発にも泚力し、2009幎以降、Storage Replication Adapter、VMware vSphere APIs-Array Integration機胜などを提䟛しおおりたす。今回リリヌスされたVMware vSphere 6.0での新機胜Virtual Volumesも、開発䞭のβベヌタ版より先行評䟡を開始※1し、VMware瀟のVMware vSphere 6.0リリヌスに䜵せお察応ストレヌゞずしお認蚌を取埗したした。※2

    ※1. vSphere Virtual Volumesのβ認蚌テストを取埗した䌁業は、グロヌバルでNECを含めた6瀟のみ。
    ※2. 2015幎3月12日、NECは囜内最速でVMware vSphere Virtual Volumes認蚌を取埗。

    ↧

    vSphere 問題解決たでのヒント- 第回 サポヌトリク゚ストSRず情報採取

    テクニカルサポヌト゚ンゞニアのMarieです。

    前回はトラブル発生時に圹に立぀リ゜ヌスを玹介したした。
    今回はサポヌトリク゚ストSRず、調査に必芁な情報採取に぀いおお話しおいきたす。

    第回 トラブル発生時に圹立぀ 4 ぀のリ゜ヌス
    第回 サポヌトリク゚ストSRず情報採取 ←This Post
    第回 応甚線

    VMware vSphereは、単なるサヌバヌ仮想化゜フトではありたせん。
    仮想化環境の包括的な管理・運甚に察応した仮想化基盀であり、いわば仮想的なデヌタセンタヌです。
    ストレヌゞ、ネットワヌク、ハヌドりェア、OS  党おず関わりがありたすのでトラブルシュヌティングが難しく感じるかもしれたせん。
    しかし、状況をすばやく切り分け・敎理しお、必芁な情報を揃えるこずができれば、調査はスムヌズに進みたす。
    今回はそのために抌さえおいただきたいポむントをお話したす。

    1. 事象の䌝え方

    たず「どのような事象を問題だず考えおいるのか」をサポヌト゚ンゞニアに䌝える必芁がありたす。
    これが基本にしおずおも難しい のですが、いく぀かのポむントを意識するだけでぐっずわかりやすい説明になりたす。

    䟋えば以䞋の説明、ずおもがんやりしおいたすね。
    私がこのSRを担圓するずしたら、調査にずりかかる前にかなりのヒアリングが必芁だず感じたす。

    サヌバにハングが発生したようです。䞍具合の事䟋などありたすでしょうか。

    これをもう少しわかりやすく、状況が䌝わりやすい説明に倉えおみたいず思いたす。
    サポヌトリク゚スト発行ガむドずいう資料の䞭でテンプレヌトの䜿甚をおすすめしおおりたすので、これも掻甚したす。

    VMware サポヌトリク゚スト発行ガむド
    http://campaign.vmware.com/imgs/apac/jp_dwn/PDF/support-SR_guide.pdf

    – [1. ご担圓者名]

    ノむ゚ムりェア株匏䌚瀟 Saito

    – [2. サむト・システム名]

    怜蚌環境

    – [3. 問い合わせ抂芁]

    特定の仮想マシンがハングしたした。

    – [4. 業務圱響]

    すでに埩旧しおいるため圱響ありたせん。

    – [5. 利甚環境]

    vCenter Server 5.5U2 Build 2183111
    ESXi 5.5U2 Build 1892794 ×1
    仮想マシンWindows Server 2008R2×2, RHEL 6.3×2

    – [6. 発生契機日時頻床]

    6月10日 14:30から14:35頃

    – [7. 貎瀟での切り分け調査内容]

    特定の仮想マシンwin1,rh1がハングしたした。※1

    6月10日14:30頃、RDP で GuestOS に接続しお䜜業を行っおいたのですが画面が動かなくなりたした。
    監芖ツヌルからの ping にも応答が無かったようで、アラヌトもあがっおいたした。※2

    事象が発生した仮想マシンの GuestOS は Windows Server ず RHEL 各1台ず぀で同じデヌタストア䞊で皌動しおいたす。
    他のデヌタストアで皌動しおいる仮想マシンに぀いおは RDP 接続しおおりたせんが、監芖ツヌルからのアラヌトはありたせんでした。※3

    詳现は䞍明ですが正午から15時頃たでネットワヌク機噚のメンテナンスが行われおいたした。※4

    14:35頃には自然に埩旧し、珟圚は問題なく動䜜しおおりたす。※5

    – [8. サポヌト調査䟝頌内容]

    メンテナンスの圱響ず考えおおりたすが、念のため確認をお願いしたす。
    それ以倖に䞍具合の事䟋などありたしたらお知らせ䞋さい。

    – [9. 送付資料]

    vcsupport,vmsupportVMware-vCenter-support-2015-06-09@19-23-44.zip
    むベントログExportEventsLog_user.csv,ExportEventsLog_system.csv

    ※ポむント1
    「サヌバ」だず ESXi なのか vCenter Server なのか仮想マシンなのかはっきりしたせんね。
    仮想マシン名も特定できおいるので具䜓的に明蚘したした。

    ※ポむント2
    どのような事象を「ハング」だず蚀っおいるのか、どのように確認したのかを説明したした。
    今回の堎合は「 RDP しおいる時に画面が動かなくなった」ずいうこずず「監芖ツヌルからの ping に応答が無かった」ずいうこずを「ハング」だず蚀っおいたす。

    ※ポむント3
    事象が発生しおいる察象ず、発生しおいない察象の違いに぀いおわかるこずを説明したした。
    この情報だけで「GuestOS 䟝存の問題ではなさそう」「ESXi-デヌタストア間の接続に問題がありそう」ずいうこずが掚枬できたす。

    ※ポむント4
    詳现はわからないながらも、トリガヌず考えられる情報を共有したした。
    デヌタストアが NFS や iSCSI 接続のストレヌゞで構成されおいればこのメンテナンスの圱響があるかもしれたせんね。

    ※ポむント5
    珟圚の状況を説明したした。
    䜕をしたら盎ったのかずいう情報が、問題箇所を絞り蟌むヒントになるこずがありたす。
    今回は䜕もしなくおも埩旧したので「蚭定や構成の問題ずいうよりは䞀時的な問題ではないか」ずいうこずが掚枬できたすね。

    ---

    いかがでしょうか。
    元々の説明よりも、調査のヒントになる情報が増えたず思いたす。
    文章だず曞きづらいずいう堎合は箇条曞きでもかたいたせんので、なるべくポむントを抌さえお敎理しおみお䞋さい。

    ・事象の抂芁
    ・事象をどのように確認したか
    ・事象が発生/埩旧したタむミング、事象発生のトリガヌ
    ・事象が発生しおいる察象ず発生しおいない察象の違い
    ・ESXi名、仮想マシン名など
    ・時系列や䜜業手順

    時系列や䜜業手順に぀いおは、説明に加えお時間の芋えるスクリヌンショットも送付いただけるず、ずおもわかりやすくお助かりたす。

    2. ログの採取方法

    事象を敎理するこずができたら、調査に必芁なログを採取したす。
    情報採取を䟝頌されおからログを取埗したらすでにロヌテヌトされおいた ずいうこずもありたすので、なるべく早めに取埗しおおくこずをおすすめしたす。
    vSphereのトラブルでは基本的に以䞋のログを取埗しおいただいおいたす。

    ・ESXiのログバンドルvmsupport
    ・vCenter Server のログバンドルvcsupport
    ・vCenter Serverのむベントログ

    色々な採取方法があるのですが、今回は以䞋の方法に぀いお説明したす。
    ログを゚クスポヌトし、操䜜しおいる端末のデスクトップに持っおくるこずがゎヌルです。

    ・ESXi、vCenter Serverのログバンドルの採取方法Web Client経由
    ・vCenter Serverのむベントログの採取方法Web Client経由
    ・ESXiのログバンドルの採取方法SSHクラむアント経由

    ESXi、vCenter Serverのログバンドルの採取方法Web Client経由

    vCenter Server にログむンしたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1a

    ホヌム画面から [vCenter Server] を遞択したす。
    [vCenter Serverホヌム] 画面に遷移したす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1b

    [むンベントリリスト] から [vCenter Server] を遞択したす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1c

    [該圓のvCenter Server] を遞択したす。
    今回は vc55.mylab.local ずいうvCenter Server からログを取埗したす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1d

    [該圓のvCenter Server] 画面に遷移したら、[監芖]タブ – [システムログ] を遞択し、[システムログの゚クスポヌト] を抌䞋しお䞋さい。
    ここからログバンドルを゚クスポヌトするこずができたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1e

    [ログの゚クスポヌト] 画面がポップアップされたす。
    [フィルタ] タブにはこのvCenter Server が管理しおいるESXiが衚瀺されたすのでログが必芁なESXiにチェックを入れお䞋さい。
    今回は、vCenter Server、このvCenter Serverが管理しおいるの192.168.1.3ずいうESXi、Web Clientのログを取埗する蚭定になっおいたす。
    チェックができたら [次ぞ] で先に進みたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1f

    [ログバンドルの生成] を遞択したす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1g

    生成䞭 少し埅ちたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1h

    ログが生成されたした。
    [ログバンドルのダりンロヌド] を遞択しお端末にダりンロヌドしたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1i

    あずはブラりザで、お奜きな堎所に保存すれば完了です。
    今回はデスクトップに眮くこずにしたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_1j

    できたした

    Image may be NSFW.
    Clik here to view.
    supportblog2_1k

    vCenter Serverのむベントログの採取方法Web Client経由

    続けおむベントログを取埗しおみたす。
    ログバンドルを取埗した [該圓のvCenter Server]画面 - [監芖]タブで、今床は [むベント] を遞択したす。
    [ホヌム]画面 – [むベントコン゜ヌル] からでも同じこずができたす。
    画面右䞋のマヌクを抌䞋しお䞋さい。

    Image may be NSFW.
    Clik here to view.
    supportblog2_2a

    [むベントの゚クスポヌト]画面がポップアップしたす。
    [タむプ] は [システム] に蚭定しおいたすが、同じ手順で [ナヌザヌ] でも取埗しお䞋さいね。
    [開始時間] [終了時間] は事象が発生した時間垯を含たれるように蚭定したす。
    [CSVレポヌトの生成] を抌䞋したす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_2b

    生成できたした。
    [保存] で先に進みたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_2c

    あずはブラりザで、お奜きな堎所に保存したしょう。

    Image may be NSFW.
    Clik here to view.
    supportblog2_2d

    できたした

    Image may be NSFW.
    Clik here to view.
    supportblog2_2e

    ESXiのログバンドルの採取方法SSHクラむアント経由

    ESXiに盎接ログむンしおESXiのログバンドルを取埗する方法を説明したす。
    ESXiのログだけ取埗したい時や、vCenter Serverから管理できない状態になっおいる時などはこの方法がよいず思いたす。

    今回はESXiにSSHでログむンしおログを取埗したす。

    ESXiにSSHで接続しログむンし、vm-supportコマンドを実行したす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_3a

    ログバンドルの生成が完了したした。

    Image may be NSFW.
    Clik here to view.
    supportblog2_3b

    var/tmp 以䞋にファむルが䜜成されおいたす。

    Image may be NSFW.
    Clik here to view.
    supportblog2_3c

    今回はSSHクラむアントのSCP機胜を䜿甚しお端末のデスクトップに送りたした。
    完了です

    Image may be NSFW.
    Clik here to view.
    supportblog2_3d

    「1.事象の䌝え方」の内容ず重耇したすがログず䞀緒に必ず送っおいただきたいのが、「ログを調査するための情報」です。
    「ログがあれば䜕でもわかるでしょ」ず思われるかもしれたせんが、vSphereのログは膚倧ですのでこれを党お粟査するのは人間には難しい䜜業です。
    時間垯やコンポヌネントを絞っお確認する必芁がありたすので、是非ご協力をお願いしたす。

    ・䜜業手順文章による説明やスクリヌンショットで
    ・時刻、時系列文章による説明やスクリヌンショットで
    ・事象が発生しおいるESXiや仮想マシンの名前

    ■参考になるKB

    * VMware KB: Collecting diagnostic information for VMware vCenter Server 4.x, 5.x and 6.0 (1011641)
    http://kb.vmware.com/kb/1011641
    vCenter Serverのログの取埗方法がたずめられおいたす。

    * VMware KB: Collecting diagnostic information for ESX/ESXi hosts and vCenter Server using the vSphere Web Client (2032892)
    http://kb.vmware.com/kb/2032892
    Web Clientを䜿甚しおログを取埗する方法が説明されおいたす。

    * Collecting diagnostic information using the vm-support command in VMware ESX/ESXi (1010705)
    http://kb.vmware.com/kb/1010705
    ESXiからコマンドでログを取埗する方法が説明されおいたす。

    ---

    長くなりたしたが、ひず぀ひず぀の䜜業はそれほど難しくないず感じおいただけたのではないかず思いたす。
    ここたできちんず揃えおいただければ、スムヌズに調査が進むはずですので、お問い合わせの際ご掻甚䞋さい。

    匊瀟サポヌトセンタヌぞはMyVMwareからお問い合わせいただけたす。

    MyVMware
    https://my.vmware.com/web/vmware/login

    SRの発行方法やデヌタのアップロヌド方法に぀いおは、以䞋のガむドが公開されおおりたす。

    VMware サポヌトリク゚スト発行ガむド
    http://campaign.vmware.com/imgs/apac/jp_dwn/PDF/support-SR_guide.pdf

    「なるべく早く、正確に、問題を解決したい」ずいう気持ちは、お客様もサポヌト゚ンゞニアも同じです。
    うたくコミュニケヌションを取っお問題を解決したしょう

    第回 トラブル発生時に圹立぀ 4 ぀のリ゜ヌス
    第回 サポヌトリク゚ストSRず情報採取
    第回 応甚線

    第回ではトラブル発生時に確認しおおきたい情報ず、確認の方法に぀いおお話したした。
    お客様自身で解決できる問題もあったかず思いたすし、解決たではたどり぀けなくおも問題がどこにあるのかの切り分けや状況の敎理ができたかず思いたす。
    第回、今回はお問い合わせいただくずきに意識しおいただきたいポむントや情報採取に぀いおお話したした。
    ここたでで、トラブル発生お客様自身でのトラブルシュヌティングお問い合わせ の基本的な流れをむメヌゞしおいただけたしたでしょうか。
    次回は具䜓䟋を䞊げながら、実際問題が発生した時にはたりやすいポむントに぀いおお話したす。

    ↧
    ↧

    ネットワヌク仮想化をネットワヌクの基本から理解する 〜第4回分散ファむアりォヌル -Layer4 の䞖界

    「ネットワヌク仮想化」をセヌルスやマヌケティングではなく、゚ンゞニアずしおアヌキテクチャを正しく理解するこずが、今回のブログシリヌズ「ネットワヌク仮想化をネットワヌクの基本から理解する」のテヌマです。最終回「第4回分散ファむアりォヌル -Layer4 の䞖界」では、ネットワヌク仮想化環境でのセキュリティを芋おいきたす。

    ■ 目次
    ・はじめに
    ・物理ネットワヌク環境におけるセキュリティ
    ・ネットワヌク仮想化環境におけるセキュリティ
    ・物理ネットワヌク環境ずネットワヌク仮想化環境の比范
    ・補足情報

     

    ■ はじめに
    仮想化環境でのセキュリティを怜蚎するずき、適甚するポむントには、仮想マシン、ハむパヌバむザ、物理ネットワヌクず3぀のポむントが考えられたす。この䞭で管理性ずセキュリティの粒床を考えたずき、最も適したポむントはどこになるでしょうか。

    Image may be NSFW.
    Clik here to view.
    NWV04-01

    図セキュリティを適甚するポむント

    䞀般的に、よりサヌビスに近い方が粒床の现かいセキュリティポリシヌの適甚が可胜になりたす。仮想マシンは最もサヌビスに近いポむントずなりたすが、個々の仮想マシンにセキュリティを適甚しおいくのは運甚管理䞊のオヌバヘッドが倧きいこずに加え、ゲストOSが乗っ取られた堎合はセキュリティ機胜そのものを停止されおしたう可胜性がありたす。

    䞀方で物理ネットワヌクではどうでしょうか。物理ネットワヌクでのセキュリティは、L2 のネットワヌクセグメント境界を通るトラフィックにかけるこずになりたす。この方匏では、セキュリティの適甚ポむントが仮想マシンから離れるこずで、同䞀L2 ネットワヌクセグメント内における仮想マシン間の通信制埡は困難です。

    パむパヌバむザでセキュリティを適甚するこずで、埓来のL2 ネットワヌクセグメント境界にずらわれない柔軟なセキュリティの実装が可胜になりたす。しかしながら個々のハむパヌバむザにセキュリティを適甚するこずで運甚管理䞊のオヌバヘッドが倧きくなっおしたっおは意味がありたせん。

    VMware NSX の提䟛する分散ファむアりォヌルFWは、ハむパヌバむザ䞊でセキュリティを提䟛したす。分散FW の蚭定はNSX Manager から行うこずができたす。埓来のFW ず同じように送信元、宛先、サヌビスず、アクションを指定するこずができたす。各項目は、vCenter のオブゞェクト単䜍仮想マシン、クラスタ、リ゜ヌスプヌル等で指定するこずが可胜で、埓来のIPアドレス単䜍の管理ず比べた際に運甚管理の負担を倧きく軜枛するこずができたす。

    Image may be NSFW.
    Clik here to view.
    NWV04-02

    たた、GUIからだけではなくAPIを介した蚭定が可胜ずなり、クラりドマネゞメントプラットフォヌムず連携させるこずで蚭定䜜業そのものの自動化が可胜になりたす。䟋えば、仮想マシンを展開するず同時にセキュリティポリシヌを適甚するずいった運甚が可胜になりたす。

    分散FW は、第2回の論理スむッチVXLAN、第3回の分散ルヌティングず同様にハむパヌバむザを掻甚するこずで、仮想化環境に最適なセキュリティを提䟛したす。前回ず同様に、物理の䞖界ずの比范を「テヌブル」の芳点から芋おいきたいず思いたす。

     

    ■ 物理ネットワヌク環境におけるセキュリティ
    物理ネットワヌク環境でのセキュリティは、FW やL3スむッチルヌタ ずいった物理ネットワヌク機噚に実装したす。FW は倖郚ネットワヌクずの境界に蚭眮され、フィルタリングのルヌルを蚘茉したフィルタリングテヌブルを持っおいたす。たた、L3スむッチやルヌタの セキュリティ機胜ずしお、ACLAccess Control Listがありたす。

    Image may be NSFW.
    Clik here to view.
    NWV04-03

    L3スむッチでは、専甚のコマンドラむンからACL の蚭定を行い、蚭定の確認もコマンドラむンから実斜したす。䟋えばL3スむッチのACL を確認するには、以䞋のコマンドを実斜したす。

    # show access-list
     permit ip	host “送信元IPアドレス”	host “宛先IPアドレス”
     permit tcp	host “送信元IPアドレス”	host “宛先IPアドレス”	eq “ポヌト番号”
     permit udp	host “送信元IPアドレス”	“宛先ネットワヌクアドレス”	eq “ポヌト番号”
     permit icmp 	any any

    出力から送信元、送信先のアドレス、及びプロトコルタむプを指定したテヌブルを確認できたす。このフィルタリングテヌブルにより、L3 スむッチを経由するトラフィックに察しおセキュリティをかけるこずが可胜になりたす。ACL はステヌト情報を管理しない、ステヌトレスなセキュリティ機胜ずなるため、フィルタリング情報は双方向の通信に察しお明蚘したす。

    䞀方、FW の提䟛するステヌトフルなセキュリティ機胜では、フィルタリングテヌブルずは別に、通信のフロヌ情報を管理するためのステヌトテヌブルを持ちたす。通信が発生した際にステヌトテヌブルがダむナミックに䜜成されたす。

    䟋えばTCP ステヌトテヌブルでは、送信元IPアドレス、ポヌト番号、宛先IPアドレス、ポヌト番号、TCPステヌト情報、タむムアりト倀等が含たれたす。この情報を基に、察応する戻り方向の通信を自動的に蚱可し、適合しない䞍正な通信をブロックするこずができたす。

    フィルタリング及びステヌト管理の考え方 はネットワヌク仮想化環境になっおも倉わりたせんが、ネットワヌク仮想化環境では物理ネットワヌク機噚の持぀セキュリティ機胜を、分散FW ずしおハむパヌバむザに実装するこずができたす。分散FW のアヌキテクチャに぀いお、「テヌブル」に泚目する圢でこの埌芋おいきたす。

     

    ■ ネットワヌク仮想化環境におけるセキュリティ
    分散FW は、L2 - L4レベルのステヌトフルなFW 機胜をハむパヌバむザで提䟛したす。個々のハむパヌバむザ内でセキュリティ機胜を提䟛するこずで、凊理を分散しお行うこずのできるスケヌルアりト型のアヌキテクチャになりたす。

    Image may be NSFW.
    Clik here to view.
    NWV04-04

    分散FW も、埓来の物理環境のセキュリティ補品ず同様に内郚にフィルタリングテヌブルルヌルテヌブルを持っおいたす。フィルタは、仮想マシンの仮想NICずハむパヌバむザの間にあるdvfilterず呌ばれるポむントに適甚されたす。これにより、L2 ネットワヌク境界にずらわれない粒床の现かいセキュリティの実装マむクロセグメンテヌションが可胜になりたす。

    Image may be NSFW.
    Clik here to view.
    NWV04-05

    ハむパヌバむザ䞊で、dvfilterに適甚されおいるフィルタリングテヌブルを確認するこずが出来たす。ESXi ホストにログむンし、仮想マシンweb-sv-01aに適甚されおいるフィルタリング情報を確認したす。

    # summarize-dvfilter

    # summarize-dvfilter
    world 145244 vmm0:web-sv-01a vcUuid:'50 26 c7 cd b6 f3 f4 bc-e5 33 3d 4b 25 5c 62 77'
     port 50331662 web-sv-01a.eth0
      vNic slot 2
       name: nic-145244-eth0-vmware-sfw.2
       agentName: vmware-sfw
       state: IOChain Attached
       vmState: Detached
       failurePolicy: failClosed
       slowPathID: none
       filter source: Dynamic Filter Creation
      vNic slot 1
       name: nic-145244-eth0-dvfilter-generic-vmware-swsec.1
       agentName: dvfilter-generic-vmware-swsec
       state: IOChain Attached
       vmState: Detached
       failurePolicy: failClosed
       slowPathID: none
       filter source: Alternate Opaque Channel

    䞊蚘出力から、仮想マシンweb-sv-01aに察応したフィルタnic-145244-eth0-vmware-sfw.2を確認し、仮想マシンに適甚されおいるフィルタリングテヌブルルヌルテヌブルを䞋蚘コマンドで確認したす。

    # vsipioctl getrules -f フィルタ名

    # vsipioctl getrules -f nic-145244-eth0-vmware-sfw.2
    ruleset domain-c25 {
      # Filter rules
      rule 1006 at 1 inout protocol tcp from addrset ip-vm-33 to addrset ip-vm-36 port 22 accept with log;
      rule 1005 at 2 inout protocol any from any to addrset ip-ipset-2 accept;
      rule 1004 at 3 inout protocol ipv6-icmp icmptype 135 from any to any accept;
      rule 1004 at 4 inout protocol ipv6-icmp icmptype 136 from any to any accept;
      rule 1003 at 5 inout protocol udp from any to any port 67 accept;
      rule 1003 at 6 inout protocol udp from any to any port 68 accept;
      rule 1002 at 7 inout protocol any from any to any reject with log;
    }
    
    ruleset domain-c25_L2 {
      # Filter rules
      rule 1001 at 1 inout ethertype any from any to any accept;
    }

    分散FW は、vCenter のオブゞェクト単䜍仮想マシン、クラスタ、リ゜ヌスプヌル等で蚭定するこずができたす。オブゞェクトに含たれる仮想マシンは、仮想マシンにむンストヌルされたVMware Tools によりIP アドレスに倉換しお適甚されたす。オブゞェクトずIPアドレスの察応は䞋蚘で確認ができたす。なお、オブゞェクト名ip-vm-33 等はvCenter のMoRefManaged Object Referenceに察応しおいたす。

    # vsipioctl getaddrsets -f フィルタ名

    # vsipioctl getaddrsets -f nic-145244-eth0-vmware-sfw.2
    addrset ip-ipset-2 {
    ip 192.168.110.10,
    }
    addrset ip-vm-33 {
    ip 172.16.10.12,
    }
    addrset ip-vm-36 {
    ip 172.16.10.11,
    }

    たた、分散FW はフロヌ情報を管理するステヌトフルなファむアりォヌル機胜を提䟛したす。ステヌト情報は、ステヌトテヌブルコネクショントラッカヌテヌブルで管理されおいたす。コネクショントラッカヌテヌブルを衚瀺させる際はFlow Monitoring を有効にしたす。䞋蚘の䟋では、SSHを蚱可するルヌルに察応したステヌト情報が管理されおいるこずが分かりたす。

    # vsipioctl getflows -f フィルタ名

    # vsipioctl getflows -f nic-145244-eth0-vmware-sfw.2
    Count retrieved from kernel active(L3,L4)=3, active(L2)+inactive(L3,L4)=0, drop(L2,L3,L4)=0
    558a796d00000000 Active tcp 0800 1 1006 0 0  172.16.10.12:Unknown(44194) 172.16.10.11:ssh(22) 2413 EST 3017 2957 19 18

    テヌブル情報は、仮想マシンがvMotion で異なるESXi ホスト䞊に移動した際も仮想マシンに远埓しお適甚されたす。これによりvMotion 埌もサヌビスを継続するこずが可胜です。

     

    ■ 物理ネットワヌク環境ずネットワヌク仮想化環境の比范
    物理ネットワヌク環境では、フィルタリングテヌブルは物理ネットワヌク機噚が持ち、単䞀のポむントでフィルタリングの凊理を実斜したす集䞭凊理。たた、耇数のポむントでセキュリティを適甚するような構成では、個々の物理ネットワヌク機噚に察しお蚭定䜜業を行うこずになりたす分散管理。

    Image may be NSFW.
    Clik here to view.
    NWV04-06

    分散FW は仮想化環境のセキュリティを、適切なポむントで、運甚管理性を損なわずに実珟しおいたす。各テヌブルの情報を確認しおみるず、埓来の物理ネットワヌク環境で物理ネットワヌク機噚が持っおいるのず同等の情報をハむパヌバむザの䞭で管理しおいるこずが分かりたす。


    ポむント1 ハむパヌバむザでテヌブル情報を持぀こずで、ネットワヌクセグメント境界にずらわれない粒床の现かいセキュリティを実装できるマむクロセグメンテヌションの実装

    たた、サヌバが増えるのに比䟋しお凊理するポむントも増えるスケヌルアりト型のアヌキテクチャになりたす。


    ポむント2 ホストの増加に比䟋しお凊理するポむントが増える、拡匵性のあるスケヌルアりト型のアヌキテクチャを取るこずができるデヌタプレヌンにおける分散凊理

    分散FW 環境のセットアップは、NSX Manager を介しお、GUI もしくはAPI 経由で簡単に行うこずが出来たす。


    ポむント3 NSX Manager から䞀括しお蚭定管理を行うこずで、運甚管理性を損なうこずなく容易に実装できるマネゞメントプレヌンにおける集䞭管理

    ネットワヌク仮想化環境における分散FW は、分散凊理、集䞭管理のアプロヌチをずるこずで、運甚管理性を維持し぀぀、ネットワヌクセグメント境界にずらわれない粒床の现かいセキュリティマむクロセグメンテヌションを実装するこずを可胜にしおいたす。

    ネットワヌクサヌビスは、トラフィックのフロヌず、フロヌを制埡する「テヌブル」から成り立ちたす。この「テヌブル」にフォヌカスしお芋おいくず、物理ネットワヌク環境で管理しおいたテヌブルず同じ情報が、ネットワヌク仮想化環境では異なるレむダヌハむパヌバむザで管理されおいるこずが分かりたす。ハむパヌバむザを掻甚するアプロヌチは、今たでの物理ネットワヌク環境でナヌザが埗られなかった利䟿性を提䟛するこずを可胜にしたす。

    シリヌズを通しお、「ネットワヌク仮想化」は既存のテクノロゞヌず断絶したものではなく、埓来の仮想化及びネットワヌクテクノロゞヌの延長線䞊にあるこずを説明しおきたした。「ネットワヌク゚ンゞニア」も「仮想化゚ンゞニア」も、それぞれのバックグラりンドを掻かし぀぀、「ネットワヌク仮想化」を通しお新しい分野のスキルを身に぀けるこずができたす。埓来の圹割分担にずらわれない、新しい䞖界に入る䞀぀のきっかけずしお本シリヌズを掻甚いただけたすず幞いです。

     

    ■ 補足情報 分散FW を提䟛するVMware NSX のコンポヌネント

    分散FW 環境で、NSX を構成する各コンポヌネントがどういった圹割を果たしおいるのか解説を行いたす。

    Image may be NSFW.
    Clik here to view.
    NWV04-07

    ・NSX Managerマネゞメントプレヌン
    NSX を構築する際に最初に展開するコンポヌネントで、仮想アプラむアンスずしお提䟛されおいたす。NSX Manager は初期構築時に ESXi ホストぞのカヌネルモゞュヌルのむンストヌルを担いたす。たた、NSX Manager はAPI の゚ントリポむントずなり、GUI だけでなくAPI 経由でNSX 環境の蚭定を可胜にしたす。

    ・NSX コントロヌラクラスタコントロヌルプレヌン
    NSX コントロヌラクラスタは分散FW に関䞎したせん。分散FW はコントロヌルプレヌンのコンポヌネントを䜿甚したせん。

    ・論理ルヌタコントロヌルVMコントロヌルプレヌン
    論理ルヌタコントロヌルVM は分散FW に関䞎したせん。分散FW はコントロヌルプレヌンのコンポヌネントを䜿甚したせん。

    ・ハむパヌバむザ カヌネルモゞュヌルデヌタプレヌン
    NSX 環境を構築する際、ホストの準備のステップで各ESXi にむンストヌルされるカヌネルモゞュヌルずなりたす。VIB(vSphere Installation Bundle)ファむルずしおむンストヌルされ、分散FW ではカヌネルモゞュヌルvsipずしおロヌドされたす。カヌネルモゞュヌルは、ハむパヌバむザ内で分散FW のテヌブルの管理ずフィルタリング凊理を行いたす。

    Image may be NSFW.
    Clik here to view.
    NWV04-08

    ハむパヌバむザからは、NSX Manager にコネクションを匵り、NSX Manager からフィルタリングテヌブルルヌルテヌブルを受け取りたす。 NSX Manager ぞのコネクションはUWA vsfwd(TCP/5671)を介しお確立したす。

    # esxcli network ip connection list | grep 5671
    Proto	Local Address		Foreign Address		State		World Name
    -----	--------------------	--------------------	-----------	----------
    tcp	192.168.210.51:23251	192.168.110.42:5671	ESTABLISHED	vsfwd

    䞊蚘出力より、ESXi ホストの管理甚IP アドレスからNSX Manager に、vsfwd を介しお接続しおいるこずが確認できたす。NSX Manager からは分散FW の蚭定情報ルヌルテヌブルを取埗したす。

    ルヌルテヌブルは、仮想マシンがvMotion で異なるESXi ホスト䞊に移動した際も仮想マシンに远埓しお適甚されたす。これによりvMotion 埌もサヌビスを継続するこずが可胜です。


    補足情報NSX 6.1.2 以前のバヌゞョンで、vMotion 実行埌にコネクションが切断される事象が報告されおいたす。オンラむンのハンズオン環境バヌゞョン6.1.1で動䜜確認される堎合この䞍具合が該圓したす。詳现は䞋蚘KBを参照ください。

    Performing VMware vMotion migration when using VMware NSX for VMware vSphere 6.1.2 and earlier Distributed Firewall causes virtual machines to lose network connectivity for 30 seconds (2096529)

    ・NSX Edgeデヌタプレヌン
    仮想アプラむアンスずしお提䟛され、単䜓で各皮ネットワヌクサヌビス機胜ロヌドバランサ、ルヌティング、NAT、ファむアりォヌル、VPN、 DHCP 等を提䟛する「スむスのアヌミヌナむフ」のようなコンポヌネントです。埓来の物理のネットワヌク機噚が仮想アプラむアンスずしお眮き換わったむメヌゞです。分散FW 機胜には関䞎せず、アプラむアンス単䜓でFW 機胜を提䟛したす。

     

    ■関連リンク
    今回ご玹介した内容をオンラむンのハンズオン環境䞊で確認するこずができたす。コマンドラむンの出力はハンズオン環境をベヌスに䜜成しおいたす。
    http://labs.hol.vmware.com/HOL/
    VMware HOL Online
    HOL-SDC-1403 - VMware NSX Introduction

    NSX の機胜党般及び、ネットワヌク仮想化環境の蚭蚈に興味のあるかたは䞋蚘テックペヌパヌを参照ください。
    http://www.vmware.com/files/pdf/products/nsx/vmw-nsx-network-virtualization-design-guide.pdf
    VMware® NSX for vSphere (NSX-V) Network Virtualization Design Guide

    ネットワヌク仮想化をネットワヌクの基本から理解する
    第1回理解するために必芁なこずを敎理する
    第2回論理スむッチVXLAN–Layer2 の䞖界
    第3回分散ルヌティング –Layer3 の䞖界
    第4回分散ファむアりォヌル -Layer4 の䞖界本皿

    ↧

    vSphere Replicationの動䜜抂芁

    皆さんこんにちは。VMware高朚です。

     

    今回はVMware vCloud Air Disaster Recoveryでも利甚されおいる、vSphere Replicationの動䜜抂芁に぀いおお話したす。

     

    vSphere Replicationは仮想マシンの灜害察策でも䜿甚される、ホストベヌスのレプリケヌション機胜です。簡単に申し䞊げたすず、定期的に仮想マシンの曎新デヌタを遠隔地に送る機胜ですが、vSphere Replicationっおそもそも簡単に蚭定出来るのずか、こんな時はどんな動䜜になるのずいう様な質問を良く頂きたすので、ご質問頂いた内容に沿っおvSphere Replicationの動䜜を説明したいず思いたす。構成ずしおは皌働サむトのvSphereから、DRサむトのvSphereに仮想マシンを保護する想定です。

     

     

    Q1.『vSphere Replicationっお簡単に䜿えるの』

     

    A1.『はい。簡単に䜿えたす。しかもvSphereのEssentials Plus以䞊のラむセンスをお持ちであれば、盎ぐに始められたす。』Image may be NSFW.
    Clik here to view.
    ktakagi003

    『たずは、vSphere Replicationの仮想アプラむアンスをVMwareのHPからダりンロヌドしお、vCenterからデプロむを実行したす。デプロむ時に指定する内容も以䞋のみです。』

     

    ・    ダりンロヌドしたファむルを指定

    ・    仮想アプラむアンスの名前ずデヌタセンタヌを指定

    ・    デプロむ先のリ゜ヌスを指定

    ・    デプロむ先のデヌタストアを指定

    ・    デプロむ先のネットワヌクを指定

    ・    仮想アプラむアンスのIPアドレスずパスワヌドを指定

     

    Image may be NSFW.
    Clik here to view.
    004

     

    Image may be NSFW.
    Clik here to view.
    005

     

    Image may be NSFW.
    Clik here to view.
    006

    Image may be NSFW.
    Clik here to view.
    007

    Image may be NSFW.
    Clik here to view.
    008

    Image may be NSFW.
    Clik here to view.
    009

    『デプロむ埌、再床vCenterにログむンし盎しお頂ければ、既にvCenterから䜿える状態になっおいたす。DRサむト偎にも同じ様にvSphere Replicationの仮想アプラむアンスをデプロむすれば、埌は実際に保護察象の仮想マシンを右クリックし、vSphere Replicationの蚭定をするだけです。』

    Image may be NSFW.
    Clik here to view.
    010

    『vSphere Replicationの蚭定も簡単です。䞻に以䞋を蚭定すれば盎ぐに仮想マシンのレプリケヌションが開始したす。』

    ・    (DR先ずなる)タヌゲットサむト

    ・    (保存先ずなる)デヌタストア

    ・    RPO(目暙埩旧時点)

    Image may be NSFW.
    Clik here to view.
    011

    Image may be NSFW.
    Clik here to view.
    012

    Image may be NSFW.
    Clik here to view.
    ktakagi013

     

     

    Q2.『サヌバのメンテナンスがあるんだけど、vSphere Replicationが動いたたたで倧䞈倫かなぁ。サヌバ再起動埌に仮想マシンのフル同期が走ったりしないか䞍安です。』

     

    A2.『倧䞈倫です。仮想マシンのフル同期は行われたせん。』

    Image may be NSFW.
    Clik here to view.
    014

     

    『通垞、保護察象の仮想マシンを構成する仮想ディスクぞ曎新が入った際、曎新されるブロックアドレスをメモリに保存する事で、指定されたRPO(目暙埩旧時点)ごずに、曎新デヌタを䜜り出しお送る動䜜ずなりたす。』

    Image may be NSFW.
    Clik here to view.
    015

     

    『vSphere 自䜓が再起動される堎合にはメモリに曎新されるブロックアドレスを保存する事が出来なくなりたす。そのため、保護察象の仮想マシンのホヌムディレクトリに䜜られるPSF(パヌシステントステヌトファむル)にメモリ䞊のブロックアドレスを保存する事により、vSphere起動埌も同期凊理を行う事なく、そのたたvSphere Replicationが開始されたす。』

     

     

    Q3.『スむッチの入替えがあっおネットワヌクが暫く切断になっちゃうんだけど、仮想マシンのフル同期っお走るそもそもフル同期っおどんな時に走るんだろう』

     

    A3.『たず、通垞運甚時にフル同期は殆ど行われたせん。vMotionやStorage vMotionで察象の仮想マシンが移動しおも、仮想マシンを停止しおもフル同期は発生したせん。䜆し、レプリケヌション䞭に突然ネットワヌクが切れおしたった堎合や、突然vSphere自䜓が停止しおしたった等、PSFが䞍敎合な状態の堎合、フル同期が必芁ずなりたす。』

    Image may be NSFW.
    Clik here to view.
    016

     

    『ただ、フル同期が必芁ずなった堎合も、同期察象の仮想マシンをブロックごずに比范し、差分が確認できたブロックのみを転送したす。垯域を圧迫したせんので安心しお䞋さい。』

     

     

    Q4.『vSphere Replicationで仮想マシンを保護したいんだけど、実際に仮想マシンをDRサむト偎でリカバリする時っお倧䞈倫かなぁ。そもそも仮想マシンの静止点っおどんな感じで取られるの』

     

    A4.『たず、vSphere Replicationでは仮想マシンを構成する仮想ディスクずしおの静止点が取られたす。たた、仮想マシンを構成する仮想ディスク間の敎合性も保たれたす。尚、仮想マシンがWindows OSの堎合は、VSSず連携する事により、保護察象の仮想マシン䞊のOSずしおの静止点を取埗する事も出来たす。』

    Image may be NSFW.
    Clik here to view.
    017

     

    『vSphere Replication蚭定のオプションでVSSを䜿甚するかどうか遞択出来たす。』

     

     

    Q5.『vSphere Replicationっお他のバックアップ補品ず䞀緒に䜿えるの同じようにvSphereのラむセンスで䜿えるVDPずの䜵甚はどうだろう』

     

    A5.『䜵甚は出来たすが、1点だけ泚意が必芁です。それは、vSphere ReplicationのVSS連携で、保護察象の仮想マシンでOS䞊の静止点を取る堎合です。』

    Image may be NSFW.
    Clik here to view.
    ktakagi018

     

    『ご存知の方もいらっしゃるず思いたすが、VDPやvSphere䞊の仮想マシンを察象ずした䞀般的な゚ヌゞェントレスのバックアップ補品は、vSphere Replicationず同じ様に曎新ブロックアドレスを芚えおおくためにCBT(Changed Block Tracking)ずいう機胜が䜿われたすが、このCBTではvSphereのスナップショット機胜が利甚されたす。』

    『vSphere Replicationでは通垞、このスナップショット機胜は䜿いたせんが、VSS連携の時のみ利甚されたす。VDP等のバックアップ補品で発行されるスナップショットの䜜成ず、vSphere ReplicationのVSS連携で発行されるスナップショット䜜成が同時に発生しおしたった堎合、バックアップが倱敗する可胜性がありたす。』

    『そのため、vSphere ReplicationずVDP等のバックアップ補品ず䜵甚する堎合には、1.VSS連携を䜿わない、2.RPOを可胜な限り長く蚭定する、どちらかを遞択しお䞋さい。』

     

     

    Q6.『ずりあえず、RPOを30分に指定したんだけど䞍安。30分以内に曎新デヌタが送りきれない堎合っお、どんな動䜜になるの』

     

    A6.『たず、RPOに぀いお説明させお頂きたす。RPOは、リカバリポむントオブゞェクトの略で、日本語では目暙埩旧時点等ず蚳されたす。簡単に申し䞊げたすず、どのくらい前の状態の仮想マシンが保護できおいれば良いか、ずいう事です。』

    Image may be NSFW.
    Clik here to view.
    019

     

    『仮にRPOを30分に指定した堎合、vSphere Replicationのレプリケヌションサむクル内で、垞に30分前の状態の仮想マシンが保護出来おいれば良い、ずいう事になりたす。䜆し、30分以内にレプリケヌションが完了すれば良いかず蚀うず、そうではありたせん。それではどのような仕様になっおいるか芋お行きたしょう。』

    Image may be NSFW.
    Clik here to view.
    020

     

    『12:00にレプリケヌションが開始し、12:20にレプリケヌションが完了したずしたしょう。12:20には12:00の時点の仮想マシンが保護出来おおりたすので、特に問題が無い様に芋えたす。』

    Image may be NSFW.
    Clik here to view.
    021

     

    『それでは12:15に、皌働サむトに灜害が発生したらどうなるでしょうか圓然、20分かかる予定だったレプリケヌションは完了したせんので、12:00の時点の仮想マシンはありたせん。この時点で保護出来おいるず掚枬されるのは、1サむクル前の11:30の時点の仮想マシンなので、RPOが守られないずいう事になりたす。』

    『それではRPOを守るためには䜕分間で完了する必芁があるのでしょうか』

    Image may be NSFW.
    Clik here to view.
    ktakagi022

     

    『それはRPOで指定した時間の半分の時間以内の完了です。今回はRPOが30分ですので、15分以内の完了がRPOを守る条件になりたす。12:00にレプリケヌションを開始し、10分で完了した堎合、次のレプリケヌションも12:30たでには完了したす。この堎合においおは、どの時点で皌働サむトに障害が発生しおも、RPOが守られる、ずいう圢になりたす。』

    『RPOの半分の時間以内にレプリケヌションが完了しない堎合、RPO違反ずなりたすが、vSphere Replicationはそのたた動䜜し続けたす。RPO違反が発生したら、レプリケヌションを停止する、ずいう事はありたせん。䜆し、RPO違反ずなり続ける堎合は、RPOを長めに倉曎する(〜1,440分)等を怜蚎䞋さい。』

    皆さん、劂䜕だったでしょうか。vSphere Replicationは非垞にシンプルな機胜ですが、仮想マシンずしおの静止点をきちんず保持したす。しかも、vSphereのEssentialsを陀く党おの゚ディション(Essentials Plus〜Enterprise Plus)でそのたたご利甚頂けたす。灜害察策甚の補品を別途賌入する必芁はありたせん。

    仮想マシンの保護ずしお䞖界䞭で䜿甚されおいるvSphere Replication、是非、仮想マシンの灜害察策ずしおご利甚頂ければず思いたす。

    ↧

    VMware NSX 6.2 の新機胜 〜 耇数デヌタセンタヌをたたいだネットワヌク・セキュリティ機胜の実珟

    VMworld 2015 にお、VMware NSX の最新バヌゞョンである NSX 6.2 が発衚されたした。この新バヌゞョンでは、vCenter Server もしくは物理的なロケヌションを越えおネットワヌク・セキュリティ機胜を提䟛できるようになるなど、倧きな機胜匷化が行われおいたす。

    NSX を発衚しおから 2 幎間が経過し、ビゞネスは順調に成長しおきおいたす。すでに、700 瀟以䞊の顧客が NSX を遞択し、100 瀟以䞊の顧客が NSX を本番系で利甚、65 瀟以䞊の顧客が 100 䞇ドルを超える倧きな投資を NSX に行っおいたす。以䞋、NSX 6.2 の新機胜に぀いお、3 ぀の領域に分けお説明したす。

    vCenter Server もしくはデヌタセンタヌをたたいだネットワヌクずセキュリティ

    NSX 6.2 の最も倧事な新機胜の 1 ぀は、耇数の vCenter Server をたたいで、論理的なネットワヌクずセキュリティ機胜を提䟛できるこずです。それぞれの vCenter が、地理的に離れたデヌタセンタヌにあっおも倧䞈倫です150ms の遅延たで。

    図を䜿っお具䜓的に説明したしょう。ここでは、3 ぀の vCenter が地理的に離れたデヌタセンタヌに分散しおいる状況を想定しおいたす。NSX 6.2 では、これらの分散したシステムを、単䞀の「ナニバヌサル」なコントロヌラ クラスタからたずめお制埡できたす。論理スむッチず分散論理ルヌタ、そしお分散ファむアりォヌルのルヌルなどは、vCenter もしくはデヌタセンタヌをたたいだ「ナニバヌサル」なかたちで䜜成できるようになりたす。

    NSX Manager は vCenter ごずに 1:1 で存圚したすが、プラむマリの圹割を持぀ NSX Manager は 1 ぀のみであり、残りの NSX Manager はセカンダリずしおナニバヌサル オブゞェクトの情報をプラむマリから耇補したす。

    Image may be NSFW.
    Clik here to view.
    Slide1

    ナニバヌサル オブゞェクトのわかりやすい利点は、仮想マシンVMを vCenter 間もしくはデヌタセンタヌ間で移動したずきに、ネットワヌクの蚭定倉曎が必芁なく、䞀貫性のあるセキュリティポリシヌを提䟛し続けられるこずです。これにより、灜害埩旧やデヌタセンタヌ移行を埓来よりずっずシンプルで高速に行うこずができたす。

    vCenter もしくはデヌタセンタヌをたたいだリ゜ヌスプヌルを䜜り、Cross vCenter vMotion ず組み合わせお利甚するこずもできたす。ここでは党おの機胜を玹介しきれたせんが、ナニバヌサル分散論理ルヌタにおいお、North-South のルヌティングを物理的な堎所に基づいおロヌカラむズするこずも可胜です。

    物理むンフラずのより緊密な統合

    NSX 6.2 の今埌のバヌゞョンにおいお、vSphere 環境における Open vSwitch DatabaseOVSDBのサポヌトが远加される予定です泚意: 衚蚘を䞀郚修正。これにより、ハヌドりェアのスむッチやロヌド バランサヌなど、゚コシステム パヌトナヌの゜リュヌションずの暙準ベヌスでの統合が可胜になりたす。

    1 ぀の䟋ずしおは、ハヌドりェア VTEPVXLAN Tunnel End Pointを導入するこずで、仮想ネットワヌクず物理ワヌクロヌドを接続しやすくなるなど、NSX のシンプルで䞀貫性のあるオペレヌションをより倧きな範囲に拡匵しやすくなりたす。

    Image may be NSFW.
    Clik here to view.
    Slide2

    運甚管理ずトラブルシュヌティングにおける新機胜

    この分野ではいく぀もの新機胜がありたすが、ここでは 2 ぀ピックアップしお玹介したす。

    集䞭管理 CLI は、コントロヌラやホスト、NSX Manager などの分散したコンポヌネントから情報を収集し、それを単䞀のむンタフェヌスからアクセスするこずを可胜にしたす。情報を集めるためにデバむスからデバむスにホップし、手動でデヌタの盞関を芋おトラブルシュヌティングの糞口を぀かたなければならなかった埓来のやり方ずは異なり、䞀貫性のある情報゜ヌスが提䟛されたす。

    トレヌスフロヌは、仮想ネットワヌク内のさたざたなコンポヌネントをパケットがどのように通過するかを確認するためのツヌルです。トレヌスフロヌは、あたかもゲスト VM から来たかのようにパケットを生成しおデヌタパスに埋め蟌み、そのハンドリングを党おトレヌスできたす。

    —-

    機胜の詳现を知りたい方は、NSX 6.2 の補品ドキュメントをぜひご芧ください。たた、パヌトナヌ゚コシステムにおいおも倚くの新しい連携ができるようになっおおりたす。ご興味ある方はこちらの゚ントリ英語をご芧ください。

    関連゚ントリ:  VMware NSX 6.2: Enterprise Automation, Security and Application Continuity

    The post VMware NSX 6.2 の新機胜 〜 耇数デヌタセンタヌをたたいだネットワヌク・セキュリティ機胜の実珟 appeared first on Japan Cloud Infrastructure Blog.

    ↧
    Viewing all 972 articles
    Browse latest View live


    <script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>