仮想化エンジニア奮闘記

Citrix や VMware をはじめ、仮想化に関する最新技術や設計情報の検証結果を共有します。自分が面白いと思ったものを記事にするので一貫性はあまりありません。なお本ブログは個人のものであり、所属する会社とは関係ありません。内容については自己責任の上、ご参照をお願い致します。

vSANやるぞー!(8)-vSAN障害時の挙動(Capacity Disk障害時)②

皆さまお疲れ様です。

今回はESXi 4台でCapacity Disk障害時の挙動を確認してゆきます。ESXi 4台になっても、基本的にESXi 3台と同じ挙動を取ります。

 

ポータルへ戻る場合はこちら

前:Capacity Disk障害時の挙動①(ESXi 3台、FTT=1)

次:ESXiホスト障害時の挙動①(ESXi3台、FTT=1)

※本記事はvSphere 6.5、vSAN 6.6.1 で検証を行っています

 

②Step 2 ESXi 4台構成の時にFTT=1の仮想マシンが属するCapacity Disk障害

ESXi 4台(すべて仮想マシン)、ESXi #1上にあるFTT=1の仮想マシンが稼働している状態で、ESXi #1のCapacity Diskを仮想マシンから削除します。

f:id:kenta53682:20171125105536p:plain

 

結論:ESXi 3台の時と同じく、別Capacity Diskに対してコンポーネントの再同期が行われる。

 

1) 障害発生前の状態。CentOS7.3はESXi #1(10.17.101.71)上にいます。FTT=1のため、vmdkは ESXi #1(C0:T2:L0) と ESXi #3(C0:T2:L0) に保管されています。

f:id:kenta53682:20171119132224p:plain

 

2) ここで、ESXi #1の仮想マシン設定を編集し、C0:T2:L0 の Capacity Disk を削除します。

f:id:kenta53682:20171119132606p:plain

 

3) ディスク削除直後はvSANのステータスが「再構築なしで低下した可用」でしたが、その後コンポーネントの再同期が行われ始め、「低下した可用性」に変化しました。

f:id:kenta53682:20171119132935p:plain

f:id:kenta53682:20171119133239p:plain

 

4) 再同期中です。ESXi #4に再同期が行われています。

f:id:kenta53682:20171119133339p:plain

 

「障害前の状況」と「障害発生し、コンポーネントの再同期が行われた後の状況」を比べてみます。赤字が変わった部分です。ESXi 3台の時もそうでしたが、Witnessもコンポーネント配置場所が変わっています。

f:id:kenta53682:20171119133716p:plain

 

5) CentOS7.3は勿論起動しています。

f:id:kenta53682:20171119133916p:plain

 

6) 再同期完了後、健全状態に戻りました。

f:id:kenta53682:20171119134208p:plain

 

以上の通り、Capacity Disk障害時はESXi 3台 / ESXi 4台で挙動に差は出ませんでした。

次回はESXiホスト障害を取り上げていきます。

 

それでは本日は以上となります。

ありがとうございました。