仮想化エンジニア奮闘記

Citrix や VMware をはじめ、仮想化に関する最新技術や設計情報の検証結果を共有します。自分が面白いと思ったものを記事にするので一貫性はあまりありません。なお本ブログは個人のものであり、所属する会社とは関係ありません。内容については自己責任の上、ご参照をお願い致します。

Nutanixをisoイメージを使用してインストールする

皆さまお疲れ様です。

 

Nutanixのisoイメージを作ってインストールする手順を備忘録としてブログに残しておきます。

※普通は出荷時点でController VMやHypervisorがインストールされている状態なので、この手順は踏まないかと思います。気になる人だけチェックして下さい。

 

 

1. Foundation VMの作成とPhonixイメージの作成

[参考サイト PREPARING INSTALLATION ENVIRONMENT]

https://portal.nutanix.com/#/page/docs/details?targetId=Field-Installation-Guide-v3-7:v37-cluster-environment-foundation-t.html

 

[参考サイト GENERATING A PHOENIX ISO IMAGE]

https://portal.nutanix.com/#/page/docs/details?targetId=Field-Installation-Guide-v3-7:v37-phoenix-iso-image-generate-t.html

 

[今回DLしたファイル]

①Foundation VMのOVFファイル (Foundation_VM-4.0.5.tar)

Oracle VM Virtual Boxのインストーラ (VirtualBox-5.2.12-122591-Win.exe)

③AOS (nutanix_installer_package-release-euphrates-5.5.2-stable.tar.gz)

④ESXi ※DELL HWだったのでDELL EMC Customized ISOを使用

 (VMware-VMvisor-Installer-6.7.0-8169922.x86_64-DellEMC_Customized-A00.iso)

※①および③のDLにはNutanix Support Portalへのアクセス権限が必要です。

 

 

まずは②のインストーラOracle VM Virtual Boxを既定値でインストールします。

VMware Player / VMware FusionなどでもOKです。NutanixのドキュメントではVirtual Boxとなっていたため合わせています。

①を解凍し、Foundation VMのOVFをVirtual Boxにインポートします。

Foundation VMを起動してデスクトップの「set_foundation_ip_address」を実行し、Foundation VMのIP設定を行います。Virtual Boxをインストールした端末から、Foundation VMPing疎通が取れることを確認します。

SSH SCPで「/home/nutanix/foundation/nos」内に③のAOSをコピーします。

同じくSSH SCPで④のESXiのインストーラを「/home/nutanix/foundation/isos/hypervisor/esx」内にコピーします。

下記コマンドでオリジナルのPhonix ISOイメージを作成します。 

sudo pkill -9 foundation
gunzip /home/nutanix/foundation/nos nutanix_installer_package-release-euphrates-5.5.2-stable.tar.gz
cd /home/nutanix/foundation/bin

# --aos-package:AOSファイル(gunzipで.tarに)のパスを指定

# --temp-dir:Phoenixイメージ出力ディレクトリを指定
# --esx:ESXi ISOファイルのパスを指定
./generate_iso phoenix --aos-package /home/nutanix/foundation/nos nutanix_installer_package-release-euphrates-5.5.2-stable.tar --temp-dir /home/nutanix/foundation/tmp –-esx /home/nutanix/foundation/isos/hypervisor/esx/VMware-VMvisor-Installer-6.7.0-8169922.x86_64-DellEMC_Customized-A00.iso

 ↓

オリジナルのPhoenix ISOイメージが作成されたら、次の手順に進みます。

 

 

2. Foundation VMの作成とPhonixイメージの作成

1.で作成したPhoenix ISOイメージをNutanix HWにマウントし、ブートします。

Nutanix Installerが起動するため、「Install CVM (Wipes exisiting Data!) and Install, Configure Hypervisor」を選択して「Start」を実行します。

※ちなみに、Choose actionには下記のオプションがあります。

・Install CVM and Install, Configure Hypervisor (←選択したaction)
・Install, Configure Hypervisor
・Repair CVM
・Repair CVM and Install, Configure Hypervisor
・Install CVM

f:id:kenta53682:20180603142817p:plain

※黒い□はシリアルが記載されているためマスクしています。

インストール完了後、再起動を求められるため「Y」で再起動を実行します。インストール開始から約1時間程度の時間がかかりました。

f:id:kenta53682:20180603091643p:plain

ESXiブート後、追加の構成タスクが実行されてホストが再起動します。ホスト名に「INSTALLING-PLEASE-BE-PATIENT」が表示されますが、この表示がなくなるまで待ちます。3回再起動し、構成タスクが完了するまで30分かかりました。

f:id:kenta53682:20180603092346p:plain

ホスト名が「INSTALLING-PLEASE-BE-PATIENT」でなくなりました。この後DCUIでESXiの設定を行います。ちなみに、ESXiのパスワードは「nutanix/4u」が設定されています。

f:id:kenta53682:20180603142925p:plain

※黒い□はシリアルが記載されているためマスクしています。

 

 

3. CVMのIP変更

 DCUIでESXiにIPを割り当てたら、vSphere Host Clientに接続します。

CVMにコンソール接続します。

「sudo vi /etc/sysconfig/network-scripts/ifcfg-eth0」コマンドでIPを設定します。下記の赤字を修正・追記します。

DEVICE="eth0"
NM_CONTROLLED="no"
TYPE="Ethernet"
ONBOOT="yes"
BOOTPROTO="dhcp" → "none"
IPADDR="Controller VMのIP"
NETMASK="サブネットマスク"
GATEWAY="デフォルトゲートウェイのIP"

vSphere ClientでController VMを再起動します。

 

 

4. Nutanixクラスタの作成

「http://任意のCVMのIP:8000/gui/index.html」にアクセスします。

CVMに同一セグメントのIPを振ればノードとして見えてくるため、Nextを実行します。

f:id:kenta53682:20180603143145p:plain

※黒い□はシリアルが記載されているためマスクしています。

ちなみに、赤枠内を押すとRedundancy Factorを設定できます。

f:id:kenta53682:20180603143232p:plain

クラスター設定画面にて、クラスタ名やIPを設定します。このクラスタIPがNutanix Prism接続IPとなります。必要項目を設定し、Nextを実行します。

f:id:kenta53682:20180603093746p:plain

各ノードのIPやホスト名入力画面です。ノード内のIP・ホスト名を入力し、Nextを実行します。

f:id:kenta53682:20180603143331p:plain

※黒い□はシリアルが記載されているためマスクしています。

NW Validationが実行されます。Validation完了後、次の画面に自動で遷移します。

f:id:kenta53682:20180603143816p:plain

AOSおよびHypervisorのイメージ選択画面になります。ここでAOSやHypervisorのイメージをアップロードし、インストールすれば指定のバージョンでクラスタを作成することが可能です。一般的にNutanixを購入した場合はここでAOSやHypervisorの再インストールを行うのかなと思います。

今回はPhoenix ISOでAOS・ESXiともに最新バージョンをインストールしたため、そのまま「Create cluster with existing AOS and hypervisor」を実行します。

f:id:kenta53682:20180603143855p:plain

確認画面が表示されるため、「Yes - Proceed」を実行します。

f:id:kenta53682:20180603144134p:plain

クラスター作成が開始されます。「Log」ボタンを押せばクラスター作成ログをブラウザ上で確認することができます。

f:id:kenta53682:20180603144215p:plain

約15分でクラスター作成が完了します。

f:id:kenta53682:20180603144318p:plain

https://クラスターIP:9440」にアクセスするとNutanix Prismが表示されます。

既定のユーザー・パスワードは「admin / nutanix/4u」となります。

f:id:kenta53682:20180603144418p:plain

パスワード変更を求められます。パスワードの要件が厳しいのでNGとならないよう注意しましょう。

f:id:kenta53682:20180603144515p:plain

EULAに同意します。

f:id:kenta53682:20180603144758p:plain

Pulseというクラウド上での健全性確認サービスを利用しない場合はチェックを外し、「Continue」を実行します。

f:id:kenta53682:20180603145018p:plain

ようやくPrismの画面にたどり着けました。以上でインストール完了です。

f:id:kenta53682:20180603145130p:plain

 

さて、どうでしたでしょうか。

通常はやらないと思いますが、知っているとどこかで役に立つかもしれませんね。

 

それでは本日は以上となります。ありがとうございました。

VMware App Volumesってべんりー!(1)

皆さまお疲れ様です。

今回はVMware App Volumesを記事にします。

 

次:VMware App Volumesってべんりー!(2) ※準備中

 

App Volumesは「アプリケーションの仮想化」機能となりますが、提供している機能を1言で表すと「アプリケーションのマスターイメージ化」となります。

 

 

 

あれ!?アプリケーションのマスターイメージ化ってどこかで聞いたことあるぞ!

 

 

 

と思ったらCitrixでも似た機能が提供されています。「AppDisk」というXenDesktop 7.8から提供されている機能です。

 

kenta-virtualization.hatenablog.com

 

 

私はどちらも使用したことがあるのですが(ラボ環境ですが)、動作の安定性や機能の多様性ではAppDiskよりApp Volumesに軍配が上がります。Citrix環境でもApp Volumesはサポートされているので、ライセンス費用を考慮しなければApp Volumesを使いたくなってしまいます 笑

CitrixさんにはAppDiskをもうちょい安定して使えるように改良して頂くのと、Writable Volumesと同等の機能の実装をお願いしたいところですね。

 

 

VMware App Volumesについて

App VolumesはアプリケーションデータをOSと切り離して仮想マシンに配布することで、アプリケーションのプロビジョニング工数の削減と一元的な管理を実現します。

App VolumesはApp StackWritable Volumesという2つの要素に分けられます。

 

 

App Stackとは?

AppStackはアプリケーションのマスターイメージとなる領域で、AppStackを割り当てた仮想マシンはAppStackにインストールされたアプリケーションを利用することが可能になります。

AppStackプロビジョニング用VMを準備し、AppStack用のvmdkに対してアプリケーションをインストールし、マスターイメージを作成します。

 

AppStackのイメージは下記の通りとなります。

f:id:kenta53682:20180524203348p:plain

 

 

Writable Volumesとは?

Writable Volumesはユーザーが個別にインストールしたアプリケーションやユーザープロファイルを保管する領域です。

Writable Volumesを割り当てたユーザーが個別にアプリケーションをインストールした場合、Writable Volumesへプログラムデータがリダイレクトされ、リンククローン環境でも永続的にアプリケーションが利用可能となります。

同様にユーザープロファイルもリダイレクトすることが可能で、移動ユーザープロファイルを使用せずとも永続的なアプリケーション設定の保持が可能となります。

 

Writable Volumesのイメージは下記の通りとなります。

f:id:kenta53682:20180524205013p:plain

 

 

App StackおよびWritable Volumesを使いこなせれば、 もはやフルクローンのようなユーザー専用のVDIはいらなくなりますね。

 

 

次回以降は、App Volumesのサーバー構築と運用手順を書いていこうと思います。

 

それでは本日は以上となります。

ありがとうございました。

NetScaler 12.56 ICA Proxyを構築してみた(3)

皆さまお疲れ様です。

今回はHAペアの作成を行います。

 

前:NetScaler 12.56 ICA Proxyを構築してみた(2)

次:NetScaler 12.56 ICA Proxyを構築してみた(4) ※準備中

 

+++++NetScaler 構築ステップ+++++
① NetScaler OVFテンプレートのデプロイと初期セットアップ
② HAペアの作成 ← 今ココ
③ StoreFront / ICA Proxyサーバ証明書の作成
④ StoreFront Load Balancing Virtual Server 作成
⑤ ICA Proxy Virtual Server 作成
⑥ StoreFrontの設定
+++++++++++++++++++++++++++

 

前回、HAペアを組む2台のNetScalerの初期設定が完了しました。今回はその2台をHA構成にする手順を記載します。

 

◆HAペアの作成

1) HAペアを組む2台のNetScalerのうち、Primary機となるNetScalerのNSIPにブラウザからhttps接続します。(画像は割愛します。)

 

2) NetScalerのログイン画面が表示されるのでログインします。(画像は割愛します。)

 

3) 「Configuration」タブであることを確認し、左ペインから「System → High Availability」に遷移します。

f:id:kenta53682:20180523205931p:plain

 

4) 既定で「Nodes」タブが表示されます。自分自身のNSIPが表示されていると思うので、左側のチェックを入れて「Edit」を実行します。

f:id:kenta53682:20180523210026p:plain

 

5) 「Configure HA Node」画面に遷移するため、「High Availability Status」プルダウンから「STAY PRIMARY」を選択し、画面下までスクロール後「OK」を実行します。

f:id:kenta53682:20180523210359p:plain

 

6) 「Nodes」タブに戻るため、「Node State」が「STAYPRIMARY」と表示されていることを確認します。

f:id:kenta53682:20180523210834p:plain

 

7) 画面中央で「Add」を実行します。

f:id:kenta53682:20180523211202p:plain

 

8) 「Create HA Node」画面にて下記3点を入力し、「Create」を実行します。

① Remote Node IP Address (Secondary機のIPアドレス)

② User Name

③ Password

f:id:kenta53682:20180523211048p:plain

 

9) 「Nodes」タブに戻るため、「Master State」と「Synchronization State」の2点を確認します。

Master State:Primary機が「Primary」、Secondary機が「Secondary」という表示になっていること。

Synchronization State:Secondary機が「IN PROGRESS → SUCCESS」という表示になっていること。

f:id:kenta53682:20180523211630p:plain

 

10) 手順4〜5を参照し、Primary機の「High Availability Status」を「STAY PRIMARY」→「ENABLED」に変更します。

f:id:kenta53682:20180523211902p:plain

 

これでHA設定は完了です。以降、NetScalerの設定はPrimary機に行えばSecondary機に同期されます。

 

 

◆Session Reliability on HA Failover設定

これはHA設定とは関係ありませんが、過去のNetScalerはHAフェイルオーバーが発生するとICAセッションが切れていました。

しかし、NetScaler 12ではHAフェイルオーバー中のセッション維持設定が可能です。(HA中は一時的に操作ができなくなりますが、HA完了後に操作が可能になります。)

下記はSession Reliability設定方法です。

 

1) 「Configuration」タブであることを確認し、左ペインから「System → Settings」に遷移し、画面中央に「Change ICA Parameters」を実行します。

f:id:kenta53682:20180523212415p:plain

 

2) 「Session Reliability on HA Failover」にチェックを入れ、「OK」を実行します。

f:id:kenta53682:20180523212607p:plain

 

3) 「Settings」画面に戻るので、保存ボタンを実行します。

保存ボタンを押さないと再起動時に設定がクリアされてしまうので忘れず対応して下さい

f:id:kenta53682:20180523212803p:plain

 

 

 

◆CPU Yield設定

NetScaler VPXはOSレイヤーでCPUを事前に確保するため、仮想マシンレイヤーではCPU使用率が高い状態として認識され、vCenterではCPUアラートが発報されます。それを回避したい場合、本設定をPrimary機・Secondary機両方で行います

 

1) 「Configuration」タブであることを確認し、左ペインから「System → Settings」に遷移し、画面中央に「Change VPX Configuration Settings」を実行します。

f:id:kenta53682:20180523214201p:plain

 

2) 「CPU Yield」を「DEFAULT」から「YES」に変更し、「OK」を実行します。

f:id:kenta53682:20180523214313p:plain

 

3) 保存ボタンを押して設定を保存し、Secondary機でも同様の設定を行います。(本設定はSecondary機に同期されません。)

 

それでは本日は以上となります。

ありがとうございました。

vSphere 6.7 / vSAN 6.7 / vROps 6.7 がリリースされました

皆さまお疲れ様です。

 

2018年4月17日、vSphere 6.7がリリースされました

 

今まではvSphere 5.0 → 5.1 → 5.5 → 6.0 → 6.5 と来ていたので、「次はvSphere 7かなー」と思っていたのですが、6.7でした 笑

 

さて、今回のリリースでは下記の製品が6.7系として発表されているようです。

今までバージョンが違って覚えるのに苦労していましたが、足並みがそろいましたね。

vSphere ESXi 6.7 / vCenter Server 6.7

vSAN 6.7

vRealize Operations Manager 6.7 (4/12 Relase vSphereより少し早いです)

 

Release NoteやvSphere Blogから気になる情報をピックアップしてみましょう。

vSphere 6.7 Release Notes

VMware vSAN 6.7 Release Notes

vRealize Operations Manager 6.7 Release Notes

Introducing VMware vSphere 6.7 - VMware vSphere Blog

 

 

◆気になる情報をピックアップしてみた

①vSphere 6.7 がvCenter Server for Windows の最後のリリースになるようです。以降はVCSAのみが提供される形となるかと思います。

 

 

②vSphere Client(HTML5)の機能が強化され、従来のvSphere Web Clientに(機能的に)近づいているようです。VMwareは将来のリリースでvSphere Web Clientを非推奨にする予定です。

 

vSphere 6.7ではvCenterのアドレスにアクセスすると、下記のようにHTML5版が上に表示されます。(vSphere 6.5ではvSphere Web Clientの方が上でした。)

呼び名が「vSphere Client」なので、5.x時代のC#のとごっちゃになりそうですね 笑

f:id:kenta53682:20180419090925p:plain

 

ホーム画面に移ると、Web Clientとほぼ同等の操作が出来そうな印象を受けました。

vSANやUpdate Managerなども操作ができ、通常運用で必要な操作は一通りできそうです。

f:id:kenta53682:20180419091311p:plain

 

ホストおよびクラスタ画面です。ホスト設定もほぼvSphere Web Clientと変わらない感じを受けました。

f:id:kenta53682:20180419165846p:plain

 

HTML5でサポートされていない機能は以下にまとまっています。

Functionality Updates for the vSphere Client

Contents LibraryやVCHAなどが操作できないようですね。

 

 

③VCSA 6.7はパフォーマンスが向上しているとのことです。どのようにパフォーマンス向上しているかというと、、、

 ・1秒あたりのvCenter操作で2倍の高速パフォーマンス
 ・メモリ使用量を3倍削減
 ・DRS関連の操作が3倍高速(パワーオン仮想マシンなど)

 

1点目についてはvSphere Web Client / vSphere Clientを触っていますが、「2倍も早いかー?」という感じです。重すぎてイライラすることはないですが、あまり期待しすぎない方がいいかもしれません 笑

 

 

④vSAN iSCSI TargetでのWSFCサポート

以前の私の記事で記載しましたが、vSAN 6.6.1まではvSAN iSCSI Targetでサポートされているクラスタソリューションは、Oracle RAC(物理)のみでした。

 

kenta-virtualization.hatenablog.com

 

vSAN 6.7ではvSAN iSCSI Targetとして、WSFCもサポートされるようになりました。

しかも、、、

WSFC can run on either physical servers or VMs.

の通り、仮想マシンに対してもサポートがされるようになりました!

 

これは試してみようと思います!

 

 

⑤vSphere ClientにvROpsのダッシュボード統合

vSphere ClientからvROpsのダッシュボード画面が確認できるようになったようです。

というわけで見てみましょう。

 

vSphere ClientでvROpsの画面を見るために、以下のことをやっています。

1) vROpsのデプロイ

2) vROpsのクラスタ作成とクラスタの起動

3) vROpsにおいて、vCenter ServerアダプタとvSANアダプタを設定

vCenterはvROpsの名前解決ができる必要があります。名前解決ができないと、vSphere Client上にデータが表示されません

 

3) が終わった後、vSphere Clientにログインすると下記の画面が表示されます。

おー。環境の概要が分かりますね!詳細はvROpsに飛ばないと分かりませんが、パッと問題が起きているかどうかはvSphere Clientで把握ができます。

詳細を見たい場合は「Quick Links」からvROpsに飛ぶような形になっています。

f:id:kenta53682:20180419164810p:plain

 

「Quick Links」からは赤枠の通り、vCenter以外にvSANの概要も見れます。一番下にはvROpsに飛ぶリンクもあります。

f:id:kenta53682:20180419165110p:plain

 

vSAN Overviewでは問題があるかどうかや、IOPs、スループット、圧縮や重複排除について見れるようです。

f:id:kenta53682:20180419165202p:plain

 

vSAN Cluster Viewでは、vsandatastoreの残り容量やLatencyなども確認可能です。

f:id:kenta53682:20180419165348p:plain

 

※下記の画像のようにvSphere ClientのvRealize Operationsの画面からvROpsをデプロイすることも可能なようです。ただ私の環境ではデプロイ先のクラスターやホスト選択画面でクラスター・ホストがなぜか表示されず先に進めませんでした。

証明書とか名前解決周りが原因かなと思うのですが、画面を見るのを優先したかったのでvROpsは今まで通りデプロイする方法を取りました。

 

vSphere Clientのホーム画面の左ペインから「vRealize Operations」に遷移し、「INSTALL」を実行

f:id:kenta53682:20180419102800p:plain

 

オンラインかオフラインかを選択。オフラインはvROpsのovaファイルを指定

f:id:kenta53682:20180419102940p:plain

 

vCenterの情報を指定して、接続テストを実行

f:id:kenta53682:20180419103820p:plain

 

デプロイ先のクラスタやESXiを選択する画面ですが、ここで先に進めず。。。

時間ができたら調査しようと思います。

f:id:kenta53682:20180419115257p:plain

 

  

それでは本日は以上となります。

ありがとうございました。

Lenovo Converged HXシリーズ深分かりトレーニングを受けてみた

皆さまお疲れ様です。

最近日中は暑くて夜寒いなど、季節の変わり目で体調崩しやすい天気になっていますよね。

私も恥ずかしながら風邪を引いてしまい高熱が出たので、皆さまも体調には十分ご配慮下さい。

 

さて、本日はネットワールド主催の「Lenovo Converged HXシリーズ深分かりトレーニング」を受講したので、その感想などを記載していこうと思います。

 

 

◆そもそも Lenovo Converged HXシリーズとは?

Converged HXシリーズはLenovoのサーバーラインの1つ、いわゆるHCIのラインとなり、「Nutanixのアプライアンス」製品となります。

 

www3.lenovo.com

 

ただ「Converged HX」シリーズは世代が少し古く(第2世代)、2018年4月現在は「Think Agile HX」シリーズというのが新しい世代(第3世代)となっています。

 

www3.lenovo.com

 

「Nutanixアプライアンス」という位置づけですが、ハイパーバイザーとしては「Acropolis Hypervisor」(AHV)、「VMware vSphere」、「Hyper-V」が選択可能です。

 

私自身「Nutanixアプライアンス」という意味がいまいち分かりませんでしたが、なんということはなく、vSANのようなSoftware Defined Storage(SDS)機能をNutanixが提供している、ということです。

vSANはハイパーバイザーのカーネルに組み込まれているのに対し、Nutanixは各ハイパーバイザーホスト上にController VMという仮想マシンを立て、Controller VM仮想マシンのI/Oを受け、SSDやハードディスクに書き込みを行います。

下記がNutanixのイメージとなります。

 

f:id:kenta53682:20180418093503p:plain

 

 

ちなみに、SDSをvSANで提供するThink Agileシリーズもあります。

それがThink Agile VXシリーズです。気になる方はチェックしてみて下さい。

www3.lenovo.com

 

 

◆セミナーでやったこと

セミナーは下記内容を行いました。

Lenovo HXシリーズ 製品概要 (座学)

→そもそもNutanixとは何か?HXシリーズとは何か?などを座学で勉強しました。

 

Lenovo HXシリーズ Nutanixハンズオン

→座学を元に、Nutanix Prismという管理コンソールのハンズオンを行いました。コンテナ作成、VM作成、スナップショット取得、リモートレプリケーションなどを体験しました。


Lenovo XClarity ハンズオン

→Think Agile HXシリーズから、IMM2ではなくXClarity Controllerがサーバー管理モジュールとなります。ここではXClarityの座学 + XClarity Administratorのハンズオンを行いました。


Lenovo Network Switchハンズオン

→HXシリーズでは10Gbpsスイッチが必要となりますが、Lenovo製の10Gbpsスイッチのハンズオンを行いました。

 

 

◆セミナーの感想

HXシリーズは「Nutanixアプライアンス」ということもあり、サーバー構成のイメージがつきづらかったですが、本セミナー受講後はNutanixアプライアンスのイメージが持てるようになりました。

HCIに触れたことがない方で、特に既存物理サーバーでIBMLenovoを多く導入されている方は本セミナーを受講するとよい勉強となるかと思います。

 

話しは変わりますが、HXシリーズを採用してハイパーバイザーにvSphereを使うと、管理コンソールや製品の問い合わせ先が増えることにより、運用負荷が上がるのではないかと感じました。

せっかくNutanix使うならハイパーバイザーはAHVを使った方が管理コンソールがPrism 1つだけで済むので楽なのかな、と思った次第です。

(裏を返すと、ハイパーバイザーでvSphere使いたいならVXシリーズを採用した方がよいのではと感じました。)

 

さて、以下はセミナー受講前に私が疑問に思っていた技術的な内容を講師に質問したものとなります。参考にして頂ければと思います。

 


【質問】Controller VMのサイジングについて、ディスクパフォーマンスが出ない時、CVMのCPU・メモリリソースを上げればディスクI/Oが上がるのか?
【回答】ディスクI/Oを上げるのは基本的にNUTANIXのノード追加で対応。CVMはメモリサイズの変更が可能で、vCPUやディスクは固定。メモリについては最小の16GBから始め、管理ノード数が増えれば増やす方針となる。

 

【質問】Controller VMのディスクの実態はどこに保管されているのか?NUTANIXコンテナレイヤーで動作しており、vSphere等からは見えないのか?またはすべてメモリで稼働しているのか?
【回答】Controller VMはAHVやESXiが導入されるM.2 SSDのブート領域に保管される。

 

【質問】ハイパーバイザーをインストールする領域はどこになるか?またその冗長性の担保はどうなっている?
【回答】HXxx20シリーズはHXシリーズの第3世代となり、M.2 SSD(128GB)にハイパーバイザーをインストールする。M.2 SSDはミラー構成に対応しており、M.2 SSDを2つ搭載して冗長構成とする。

 

【質問】vSANだとvSphere Web ClientからFTT=1以上の仮想マシンのデータ複製状況が分かるが、NUTANIXだと分かるのか?
【回答】複製完了までの時間程度は分かるかもしれないがvSANのように仮想マシンがどのディスクに書き込まれているかまでは分からない。分からない、というよりどのディスクに書き込まれるかまで意識しなくてよい思想で作られていると思われる。

 

【質問】vSANのFTT(いくつのホスト障害まで許容するか)といった概念はNUTANIXではあるのか?
【回答】NUTANIXではRF(Redundancy Factor)という単語になる。RF2 or RF3が選択できる。かつ、RF2 or RF3は「コンテナレベルで設定」する。従って、vSANの仮想マシンレイヤーの設定よりも低いレイヤー(=データストアレイヤー)での設定となる。また、Erasure Codingや重複排除等も可能。

 

【質問】vSphere(やHyper-V)の場合、PrismとvSphere Web Client(SCVMM)との住み分けはどのように行うか?仮想マシンコンソールの確認、リソース(CPU・メモリ・ネットワーク)の変更、クローン作成、スナップショット取得は可能だった。
【回答】仮想マシン操作、仮想ネットワーク操作はvSphere Web Clientから行い、コンテナ、DRへのレプリケーション、ノード追加はPrismから行う。基本的に、AHVでない場合はSDS周りの設定をPrismで行う形となる。

 

【質問】vSphereの場合、VMを作るのはPrismから?vSphere Clientから?
【回答】1つ前の質問で回答した通り、仮想マシンはvSphere Web Clientから作成した方がよい。

 

【質問】仮想スイッチの構成はどういった構成が一般的?
【回答】お客様のシステム構成によるため回答できない。

 

【質問】10Gbps NICをCVM通信専用にする構成は一般的なのか?
【回答】ノード数が増えれば10Gbps NICをCVMの通信専用にする構成はあるが、ノードが少ない場合はトランクした10Gbps NIC内にCVMやその他サービス通信を通す方が一般的。

 

【質問】NUTANIXではvSANと異なり、SSDもデータストア容量の一部となっていると聞いたが正しいか?(vSANはSSDはRead/Write Chache領域のみとして使用され、データストア領域としては使用されない。)
【回答】正しい。SSD・HDDへの階層化された書き込みを行う。データ書き込みはまずSSDに行われる。OSやアプリケーションレイヤーから見たとき、SSDに書込みが行われたらWrite I/Oは完了となり、SSD→HDDへのデータ書き込みはCVMが行う。

 


【セミナーメモ】
◆◆◆Lenovo HXシリーズ 製品概要◆◆◆
①NUTANIXコンテナはNFSデータストアとしてESXiにマウントされる。
②VLANはタグVLANで行う。
③XCC(IPMIポート)はCVMと疎通できるように構成する必要がある。
④CVMに障害が起きた場合、他のホストのCVMを経由してデータの書き込みを行うようになる。
クラウドコネクトはクラウドにバックアップを取るだけ。バックアップデータからクラウド上にVMを復旧することはできない。
Lenovo初期デプロイメントサービスを利用した場合の構築は下記の通りとなる。
 1) HWおよびNUTANIX(クラスタ作成)はLenovo対応
 2) ハイパーバイザー導入もLenovo対応
 3) vCenterは「Base」だとついておらず、「Advanced」だと初期構築のみ行われる

 


◆◆◆Lenovo HXシリーズ Nutanixハンズオン◆◆◆
①AHVで新規にOSを作成する場合、Nutanix Virt IO Mediaが必要。これがないとSCSIドライバーがないためディスクが見えない。
→NUTANIX Support PotalよりDLする。
②PRISMでのVMクローンはスナップショットからクローンをかけることも可能。
③Metro AvailabilityはvSphereのみ対応。
④システム全停止順序 CVM以外のVMを落とす→Nutanixクラスタを終了する(任意のCVMにログインし、停止)→各CVMを停止→ハイパーバイザー停止 (※起動は逆)

 


【参考サイト】
①NUTANIXバイブル http://nutanixbible.jp/

Lenovo HX Series Best Recipe https://support.lenovo.com/jp/ja/solutions/ht503607
HXシリーズではサポートされているファームウェアのバージョンが決まっており、その時に参照するサイト。最新版にすると動かなくなる可能性もある。

③NUTANIXデモ環境 https://demo.nutanix.com

 

 

それでは本日は以上となります。

ありがとうございました。

vSANやるぞー!(13)-vSANをiSCSIターゲットに①

皆さまお疲れ様です。
今回はvSANデータストアをiSCSIターゲットとして公開する機能について紹介したいと思います。

 

NUTANIXでも同じ機能が実装されていますよね。

HCIはCPUやメモリ容量に比べてディスク容量が大きくなる傾向にあると感じてはいるので、ディスクを使い倒すために実装されたのですかね。エンドユーザー様の事例を聞いてみたいところではあります。

 

ポータルへ戻る場合はこちら

次:vSANをiSCSIターゲットに② (準備中)

 

 

vSANデータストアはvSAN Clusterに所属する仮想マシン用のvsanDatastore提供が主目的ではありますが、vsanDatastoreの一部を別LUNとして切り出してiSCSI Targetとして公開する機能も有しています。

 

ただこのiSCSIですが、vSAN6.6.1の時点では物理サーバーに対してのみしか公開をサポートしていません

また、使用用途はStorage Hubの「iSCSI Target Usage Guide」に記載された用途に限定されます。

主にクラスタリングの用途が記載されていますが、iSCSI Target Usage Guideをざっくりまとめると、、、

 

・物理サーバーでのOracle RAC構成は対応

・WSFCやSQL Server Always On Failover Cluster Instanceは非対応

・ESXiでの使用は非対応

・ハードウェアHBAは非対応

 

などの条件があるようです。シェアードナッシングな高可用性ソリューションは対応しているものの、共有ストレージが必要なソリューションはOracle RACくらいしか対応していないようです。

 

また、物理サーバーでもサポートされているOSは下記の通りとなります。

Windows 10、Windows 2016、2012 R2、2012、2008 R2、2008
RHEL 7、RHEL 6、RHEL 5
SUSE® Linux Enterprise Server 12、SLES 11 SP4/SP3/SP1

 

下記は少し古い記事ですが、日本語で分かりやすかったです。

vSAN 6.5 iSCSI デバイスを使用するためのベスト プラクティス

 

ESXiで使えるようになれば、仮想のOracle RACやWSFCのデータをiSCSI上に置く、などができて利用の幅が広がるのかな、と感じました。

 

というわけで、今回は一旦ここまで。

次回、iSCSIターゲットとして公開する手順を書こうと思います。

 

それでは本日は以上となります。ありがとうございました。

 

vSANやるぞー!(12)-Erasure Coding

皆さまお疲れ様です。
これまでのvSANの記事では障害時の挙動やメンテナンスモードの挙動を見てきましたが、本日からはvSANの少し踏み込んだ機能についてブログ記事にしてゆこうと思います。

 

まず、1発目がErasure Coding(イレージャーコーディング)となります。

 

ポータルへ戻る場合はこちら

次:vSANをiSCSIターゲットに①

 

Erasure CodingはvSAN 6.2から使用できるようになった機能で、vSANにおけるRAID5・RAID6を実現する(実データのフラグメント+パリティをESXiホスト跨ぎで保存する)機能です。

 

vSAN 6.1まではvmdkの冗長化方式はRAID1に相当するvmdkの多重化しか選択肢がありませんでした。従って、仮想マシンデータを冗長化するためには最低でもvmdkの2倍(3重化なら3倍)のディスク容量が必要でした。

【RAID1】 FTT=1

f:id:kenta53682:20180329190328p:plain

 

 

vSAN 6.2以降ではRAID5・6相当の冗長化方式が利用できるようになり、冗長性を担保しつつもデータ容量をRAID1方式よりも抑えることが可能となりました。

 

【RAID5】 FTT=1 ※RAID1(160GB)に比べて33%データ消費量を削減

f:id:kenta53682:20180329191403p:plain

 

 

【RAID6】 FTT=2 ※RAID1(240GB)に比べて50%データ消費量を削減

f:id:kenta53682:20180329192051p:plain

 

 

但しディスク容量が削減できる一方で、例えばWrite I/O時に追加でRead/Write I/Oが発生するなどRAID5 or RAID6はI/Oが増大します

容量とパフォーマンスはトレードオフの関係と考えて頂ければと思います。

 

※I/O増大については下記の記事が大変参考になりました。

【参考】Virtual SAN – RAID-5/6 | over a Radler

 

 

 ◆Erasure Coding利用時の考慮事項

仮想マシンの冗長性を担保しつつも、RAID1よりディスク容量を削減できるErasure Codingですが、使用に当たって考慮事項があります。下記に考慮事項をまとめます。

 

① vSAN All Flash Typeであること

② vSAN Advanced / Enterprise Editionが必要

③ オンディスクフォーマットバージョン3.0以上(=vSAN 6.2以上)が必要

④ vSANクラスタがストレッチクラスタでないこと

⑤ RAID5はESXi4台以上、RAID6はESXi6台が必要

⑥ RAID5ではFTT=1、RAID6ではFTT=2となり、Erasure CodingではFTT=3に設定することは不可

 

【参考】RAID 5 または RAID 6 の設計に関する考慮事項

 

先に記載した通りErasure CodingではI/Oが増大しますが、増大するI/OをものともしないAll Flash Typeが要件となっています。

 

 

◆Erasure Codingの設定

Erasure Coding用の仮想マシンストレージポリシー設定方法を記載します。

自宅の環境はAll Flashではないため(Nested ESXiなのでAll Flashにもできますが面倒くさいので割愛で笑)、ここではWeb上に落ちている画像を参考に設定方法を書いていきます。

f:id:kenta53682:20180329193350p:plain

 

上の画像のように設定は非常に簡単で、「Failure tolerance method」から「RAID-5/6」を選択し、FTTの値によってRAID5 or RAID6を設定する形です。そして、作成した仮想マシンストレージポリシーを仮想マシンに適用する、と。

・FTT = 1の場合:RAID5 になる

・FTT = 2の場合:RAID6 になる

 

 

さて、本日はErasure Condingについて説明をさせて頂きました。

All Flashが必須であることから、導入されるお客様は中~大規模なお客様が多いのかな?とも思いました。今度vSAN導入実績が多いSIerの人や、VMの中の人と会話する機会があれば導入実績を聞いてみたいですね。

それでは本日は以上となります。ありがとうございました。