vCenter 6.5u1 web client vs HTML5 client - VM names blank in UI
Merging VMDK failure: vmware-vdiskmanager quits with error 0x3e80
On WS 15.1.0 host=Windows 10 guest=Windows 10, attempting to merge split vmdk files w10.vmdk, w10-s001.vmdk ... w10-s011.vmdk with this command:
vmware-vdiskmanager.exe -r w10.vmdk -t 0 w10-new.vmdk
It fails with this message
Failed to convert disk: One of the parameters supplied is invalid (0x3e80).
The vm files are all normal. For example, vmware-vdiskmanager.exe -k w10.vmdk or vmware-vdiskmanager.exe -d w10.vmdk executes without error.
What am I doing wrong?
Windows 10 1903 with ESXi / vSphere.
Windows 10 1903 was released on 4/18/2019. I got the ISO, attached it to a newly created VM and attempted to boot from it. I get the prompt 'Press any key to boot from CD or DVD' and after I hit a key I get the windows logo displayed and then nothing. It just sits there, I have let the VM idle for a few hours just to ensure its not actually thinking away. The vCPU usage is running however - looks like its taking an entire core but actually nothing happens.
I was able to get the ISO to boot, install, and run the OS on VMware Workstation 15, and Microsoft Hyper-V but not on vSphere / ESXi host.
Here is some additional info that may or may not be useful
Workstation build: 15.0.4 build-12990004
ESXi Build: VMware ESXi, 6.7.0, 13006603
vCenter Version: 6.7.0.30000
vSphere Client version: 6.7.0.30000
Attached the VM log file
An esxi vm fails to detect external Hard Drive with USB 3,
Skyline Auto-Upgrade not saving setting
TAM Notes: Customer is trying to configure the Auto-Upgrade function according to the steps below. However, it seems Configuration does not get saved. After clicking the "Set Upgrade Configuration" button, it is assumed the auto-upgrade option would show as YES, but after refreshing or logging out-in again, the option shows NO again. Would you please assist?
Procedure
- On the Configuration page of the Skyline Collector, click Auto-Upgrade.
- Select your auto-upgrade configuration.
- From the dropdown menu, select a day of the week for the Skyline Collector to select for and install updates, if available.
- From the dropdown menu, select a time of the day for the Skyline Collector to select for and install updates, if available.
- To save your settings, click Set Upgrade Configuration.
Thank you,
SRM 6.5 with NetApp SRA
Has anyone deploy an environment with two vcenter servers (sites) with one site having two NetApp SVMs that replicate into a single remote SVM? How is the pairing of array managers achieved? I am only able to pair one SVM with the second SVM (at primary site) having nothing to pair with.
Any help or pointers will be appreciated.
Workstation 14 - no Logitech mouse wheel in guest
I’m using VMware Workstation Pro 14 on Windows 10 x64 with Windows and Linux guests.
I installed a Logitech Ergo MX trackball. The scroll wheel works perfectly on the host OS, but does not work in the guest OS. This works fine with a Microsoft mouse – the scroll wheel works in both the host OS and the guest OS.
Is there a way to make this work in guest instances? Should this be reported as a defect in Workstation?
Mark
自宅ラボで NSX-T 2.4 環境を構築する。Part.10
NSX-T のネステッド ESXi 環境を利用したラボを構築してみます。
今回は、論理スイッチに DHCP サーバを追加します。
前回はこちら。
自宅ラボで NSX-T 2.4 環境を構築する。Part.9
NSX-T での DHCP サービスは、
DHCP プロファイル/DHCP サーバを作成してから、論理スイッチに接続して使用します。
論理スイッチに接続した VM のゲスト OS では、手動でネットワーク設定をすることもできますが、
ラボの利用をシンプルにするため、NSX-T の DHCP サービスを利用します。
DHCP サーバ プロファイルの作成。
まず、DHCP サーバ プロファイルを作成します。
NSX Manager の「ネットワークとセキュリティの詳細設定」→
「ネットワーク」→「DHCP」→「サーバプロファイル」の「追加」をクリックします。
サーバ プロファイルは、名前、Edge クラスタ、メンバー(Edge トランスポート ノード)を指定して、「追加」します。
サーバ プロファイルが作成されました。
DHCP サーバの作成。
DHCP サーバは、となりの「サーバ」タブにある「追加」から実施します。
DHCP サーバには、名前、IP アドレスとサブネットマスク、DHCP サーバ プロファイルを指定します。
それ以外の DHCP オプションは、ここ(DHCP サーバ)もしくは、後で IP アドレス プールで指定します。
ここでの DHCP サーバの IP アドレスは、未使用のアドレス(ルータ ポートや IP プールで使用しないもの)を指定します。
このアドレスは実際にサーバに付与されるので、DHCP サービスがうまく利用できない場合は、
同じ論理スイッチに接続した VM からサーバへの疎通確認ができるか確認してみるとよいと思います。
IP アドレス プールの追加。
作成した DHCP サーバに、IP アドレス プールを追加します。
IP アドレスプールは、名前、IP アドレス 範囲、デフォルト ゲートウェイを指定して、「追加」します。
IPアドレスの範囲は開始アドレスと終了アドレスをハイフン(-)でつなげて入力します。
IP アドレス プールでは、DHCP オプション(ドメイン名、DNS サーバのアドレスなど)も指定することができます。
DHCP サーバの論理スイッチへの接続。
DHCP サーバで、「論理スイッチに接続」を実施します。
作成ずみの論理スイッチを選択して、「接続」します。
これで、論理スイッチに接続した VM に DHCP サービスが提供されるようになります。
VM での DHCP 利用について。
VM 側では、ゲスト OS のネットワーク設定で DHCP 設定にしておくと、
DHCP サービスによって IP アドレスなどが設定されるようになります。
Linux ゲストであれば、ログファイルなどから DHCP によるネットワーク設定の様子がわかります。
あと1回つづくつもり。
LG 24" AIO thin client for use with Horizon view reviews?
I'm looking at https://www.cdw.com/product/lg-24ck550w-b-24in-fhd-led-mon/5064047
https://www.cdw.com/product/lg-24ck550w-b-24in-fhd-led-mon/5064047
it's basically a 24" All In One with a windows IoT 10 thin client.
It seems everyone wants to get a separate monitor with a thin client. We on the other hand like that fact in an AIO (like a zero client) you just have 1 network cable and 1 power cable.
Anyone been using this model with their horizon desktops? I have a demo and it's been pretty good. But wanted to see what other thought and if they are reliable?
Update step 4
Author : Shikha Bhargava
Topic Name : Offline Bundle Download
Publication Name : VMware Cloud Foundation Operations and Administration Guide
Product/Version : VMware Cloud Foundation/3.7
Question :
Could you please update step for to say "Copy the /opt/vmware/vcf/lcm/lcm-tools" instead. Just copying the bin folder does not work.
Firefox in macOS VM doesn't show radio buttons
I have a macOS 10.14 (Mojave) virtual machine in which I regularly run Firefox (Quantum v67). Sometime in the last few weeks I've noticed that Firefox no longer displays radio buttons when running inside this virtual machine. For example, here is the "Radio Button Input" section from https://www.w3schools.com/html/html_forms.asp as it looks inside the VM:
Notice there are no actual buttons displayed next to the choices. This is how it is supposed to look:
I've tried playing with video/display settings in Fusion, performance/font settings in Firefox itself, various macOS system preferences, etc., but haven't found any fix.
Has anyone else seen this?
Thanks!
-Eric
version details:
macOS: 10.14.5 (both VM and host)
Fusion: 11.1.0
Firefox: 67.0.2
自宅ラボで NSX-T 2.4 環境を構築する。Part.1
NSX-T の機能を確認できるように、ネステッド ESXi 環境を利用したラボを構築してみます。
今回は、構築する NSX-T 環境の概要を紹介します。
今回のラボ構成の方針。
現時点で NSX-T に取り組む場合は、新技術のキャッチアップを目的とすることが多いかなと思います。
そこで、ソフトウェアはできるだけ新しいものを利用します。
- NSX-T 2.4.1
- vCenter Server 6.7 U2 / ESXi 6.7 U2
私の自宅ラボには高スペックなマシンがないので、VM 配置/リソース設定に工夫をしています。
- 本当は手軽に物理マシン 1台でネスト環境を構成したいが、スペック不足のため複数台の物理 ESXi ホストを使用。
- VCSA と NSX-T Manager などはリソース割り当てが大きいので、あえてネスト環境よりも外(NSX-T 環境の vCenter より外)に配置。
- ただし実環境では、これらは NSX-T 環境の vCenter で管理することになるはずです。
- 各 VM の構成/リソース割り当ては、推奨値以下のものもあり。
- NSX Manager は VM のリソース予約を解除。そしてクラスタ構成ではなくシングル構成にする。
- NSX Edge は最小のサイズ。
- ネステッド ESXi でのメモリ節約のため、共有データストアは vSAN ではなく NFS にする。
ネットワークまわりの構成は、ラボ目的での環境構築として意図的に下記のような構成としています。
作成するラボでは、主に操作感(GUI / API)、オーバーレイ ネットワーク、ファイアウォール機能を確認するつもりです。
- NSX Edge は、あえてオーバーレイ ネットワークを構成するクラスタとは別のクラスタに配置。
- これは、NSX Edge 専用のクラスタが必要、というわけではありません。
- ESXi のトランスポート ノードと、Edge トランスポート ノードとで、搭載する側の ESXi の構成差異を見やすくするため。
- Tier-0 ルータのアップリンク(オーバーレイ ネットワークへの入り口)は管理ネットワークと兼用。
- NSX 特有のネットワークに入るまでの部分はシンプルにしたかったため。
- Tier-0 ルータではルーティング プロトコルを利用せず、たんにスタティックルートで NSX のネットワークへ。
- オーバーレイの TEP(VTEP)には VLAN ID を付与。
- オーバーレイ ネットワークの、元 / 先 / それ以外、として 3ノードの ESXi を用意。
- NFS データストアの接続は、NSX が構成するネットワークとは直接的に関係しないので、vmk0 の管理ネットワークを兼用。
- オーバーレイ ネットワークで利用する pNIC ポート(ESXi VM の vNIC)はあえて複数構成。
- アップリンク プロファイルを理解しやすいように複数本(vmnic1 + vmnic2 のような)で冗長化。
※そのうち物理 / 論理構成を分けて、アドレス例も入れてあらためて・・・
実際に構築する NSX-T ラボの様子。
まず、ラボ全体を管理する vCenter の vSphere Client(HTML5 Client)です。
vCenter 6.7 では、基本的にこの vSphere Client を利用します。
物理 ESXi ホストには、vCenter(VCSA)、NSX Manger、NFS サーバ、ESXi VM といったものが配置されます。
それぞれ、役割の想像がしやすそうな VM 名にしてみました。
ここでの「ESXi VM」とは VM に ESXi をインストールしたもの(ネステッド ESXi)で、
通常の ESXi と同様に VM を起動したり、vCenter から管理したりできます。
そして次は、「ネステッド ESXi + NSX-T」環境を管理する vCenter の、vSphere Client です。
上記のスクリーンショットにある lab-esxi-~ という VM は、この vCenter に ESXi として登録してあります。
この環境では、すでに NSX-T との連携がされており、ESXi に「N-VDS」という
NSX-T ならではの特別な仮想スイッチが構成されています。
最後に、NSX Manager の画面です。
これは、上記のスクリーンショットと同じ環境を NSX Manager から見たところです。
NSX for vSphere(NSX-V)では、vSphere Client から NSX の設定をしていましたが、
NSX-T では、NSX Manager が提供する別の UI から、NSX の設定をすることになります。
では、これから下記のような流れでポイントを紹介していこうと思います。
- 土台になる、外側の物理 ESXi ホスト(の vCenter)での設定。
- NSX-T と連携する vCenter(ネステッド ESXi を利用した環境)での設定。
- NSX-T 環境のセットアップ。
つづく。
自宅ラボで NSX-T 2.4 環境を構築する。Part.3
NSX-T のネステッド ESXi 環境を利用したラボを構築してみます。
今回は、ネスト外側の ESXi でのネットワーク設定について紹介します。
前回の投稿はこちら。
自宅ラボで NSX-T 2.4 環境を構築する。Part.2
1回目投稿にあるイメージ図での赤枠の部分が、今回の対象です。
物理ネットワーク ~ 物理 NIC、物理 ESXi での仮想スイッチ/ポートグループの構成について説明します。
物理(外部)ネットワーク ~ 物理 NIC の構成について。
NSX-T 環境を構成する場合、ESXi では複数の物理 NIC を利用します。
しかし、今回のラボで NSX-T をインストールするホストはネステッド ESXi なので、
物理 ESXi 側では、物理 NIC が1つだけでも十分です。
(私の自宅ラボの物理マシンが 物理 NIC ポートが1つずつしかないという事情もあります。)
そこで、物理 ESXi では、1つの 1Gbps の物理 NIC(vmnic0)だけ利用しています。
ラボ環境では VLAN も利用するので、物理的なネットワーク スイッチのポートでも
トランクポートに設定して対象の VLAN ID が通過できるようにしておく必要があります。
(ただ一般家庭で利用しているようなスイッチング ハブであれば、デフォルトで通るかなとは思います。)
MTU は、オーバーレイ ネットワークを構成するためすこし大きめ(一般的な 1500 ではなく 1600 など)に
する必要があり、物理スイッチがでもそのサイズの MTU に対応しておく必要があります。
(ちなみに、これも一般家庭で利用しているようなスイッチング ハブであれば、デフォルトで満たしているはずです。)
物理 ESXi 側での MTU は仮想スイッチで設定することになります。
仮想スイッチの構成について。
物理 ESXi での仮想スイッチは、標準仮想スイッチ(vSS)/分散仮想スイッチ(vDS)のどちらでも構いません。
私のラボでは、物理 ESXi 6 台でのクラスタで vDS を利用しています。
NSX-T でのオーバーレイ ネットワークのために、
仮想スイッチでは MTU を拡張(1600 などに)しておきます。
仮想スイッチでの MTU 設定は、仮想ポート単位ではなく、スイッチ全体での設定です。
vDS の場合の MTU 設定
vDS の設定の場合は、vDS で 1回 MTU の設定を変更すれば、すべての ESXi に設定反映されます。
vDS の MTU は、下記のように vDS の「設定」→「プロパティ」画面で確認できます。
vSS の場合の MTU 設定
vSS の設定の場合は、それぞれの ESXi ホストの vSS(vSwtich0 など)で、MTU の設定を変更する必要があります。
vSS の MTU 設定は、ESXi ホストで仮想スイッチの「設定の表示」を開くと確認できます。
ちなみに、ネステッド ESXi 側でも MTU 1600 に設定する部分がありますが、
物理 ESXi 側でその値以上に MTU を拡張する必要はありません。
仮想スイッチについては、ネスト(入れ子)にしているというより連結している構成となるので、
通常の物理ネットワーク スイッチを連結するときのように経路上の MTU を揃えておきます。
(外側 ESXi をより大きな MTU にするというわけではなく)
ポートグループの構成について。
ネスト環境では、ポートグループで VLAN とセキュリティ ポリシーの設定に工夫が必要です。
ちょっと古い投稿ですが、下記のような設定をします。
ネステッド ESXi で仮想スイッチ側 VLAN をためす。(VLAN4095 で VST)
1つめのポイントは、 VLAN の設定についてです。
ネスト環境でのネットワーク構成では、
できるだけ、物理 ESXi ではなくネステッド ESXi 側のネットワーク構成を
本来構成したいネットワーク(仮想スイッチ/ポートグループ/vNIC)の設定にすると扱いやすいかなと思います。
そこで、物理 ESXi 側の仮想スイッチでは VLAN をそのまま通して、ネステッド ESXi 側の仮想スイッチで VLAN を終端させます。
この設定は、物理 ESXi で vDS/vSS のどちらを利用しているかによって設定が異なります。
vSS を利用している場合は、トランクポートの設定ができないので、
VLAN ID 4095 を設定することで、
すべての VLAN ID をそのまま通過させてネステッド ESXi 側の仮想スイッチに渡します。
vDS を利用している場合、トランクポートの設定ができるので、
ネステッド ESXi で利用する VLAN ID の範囲をトランクで設定します。
逆に、vDS では VLAN ID 4095 が設定できないので、
すべての VLAN ID を通す場合は「0-4094」のように設定します。
2つめのポイントは、セキュリティの設定変更です。
ネステッド ESXi の環境では、ESXi VM 自身の vNIC(ネステッド ESXi での vmnic0 などにあたる)に設定される MAC アドレスと、
ネステッド ESXi 上の vmk ポートや vNIC とで MAC アドレスとが、不一致になります。
そのため、物理 ESXi 側の仮想スイッチではセキュリティ設定を緩和(「承諾」に変更)しておく必要があります。
この設定は、vDS / vSS どちらも共通で必要です。
(ただし vDS のほうがデフォルト値がセキュリティが高く設定されており、デフォルト値は異なります。)
なお、標準的にインストールした ESXi の vmk0 ポートは vmnic0 と MAC アドレスが一致するようになっており、
この設定をしなくても、ネステッド ESXi の vmk0 だけは通信ができてしまうはずです。
ちなみに、物理 ESXi に直接搭載する VCSA や NSX Manager の VM については
とくにネスト環境を意識することなく普通のポートグループを割り当てます。
続く。
自宅ラボで NSX-T 2.4 環境を構築する。Part.4
NSX-T のネステッド ESXi 環境を利用したラボを構築してみます。
今回は、ネスト内側の ESXi でのネットワーク設定について紹介します。
前回はこちら。
自宅ラボで NSX-T 2.4 環境を構築する。Part.3
イメージ図のうち赤枠の部分が、今回の対象です。
ネステッド ESXi 側での、仮想スイッチとポートグループの構成について説明します。
このラボでは、下記の 2種類のネステッド ESXi ホストを用意します。
- オーバーレイ ネットワークへの入り口になる ESXi ホスト(NSX Edge を搭載する)
- 一般の VM むけの オーバーレイ ネットワークを利用する ESXi ホスト
この2種類のホストは 1台のホストにすることができますが、
今回はネットワーク構成を理解しやすいように、あえて独立させました。
それぞれの、ネットワーク構成を説明します。
オーバーレイ ネットワークへの入り口になる ESXi ホストの構成。
NSX-T によるオーバーレイ ネットワークへの入り口となる ESXi ホストでは、
NSX Edge の VM を稼働させます。
ESXi から見た pNIC は、3つ(vmnic0 ~ vmnic2)用意してあります。
これの実体はネステッド ESXi の vNIC です。
このホストは NSX-T のオーバーレイ ネットワークの入り口となりますが、
その役割は NSX Edge VM がもつため、ESXi には NSX-T 独自の仮想スイッチである N-VDS は構成されません。
vmnic0 の構成。
1つめの vmnic0 は、vSS(vSwitch0)に構成して下記の通信で利用しています。
- ESXi の vmk0 による管理通信
- NSX Edge への入り口(アップリンク)となる VLAN
ここでの NSX Edge のアップリンクは、NSX-T による仮想スイッチ(VLAN N-VDS)に接続されます。
VLAN N-VDS は Edge VM に構成されます。そして Edge VM のポートグループ割り当てによって経路が決まるので、
後述の vmnic0 / vmnic2 の経路とすることも可能ですが、
今回は「ためしに NIC を切断してみる」のような実験の利便性のため、vmnic0 経路にしています。
この pNIC に構成される仮想スイッチには VLAN だけが通るので
(オーバーレイ ネットワークは通らない)ので、
MTU は 1500 のままでも大丈夫です。
VLAN N-VDS では Edge VM の中で VLAN ID をうけるため、
Edge VM での VLAN N-VDS の vNIC に接続するポートグループは、前回の投稿にあるような
VLAN ID 4095(vDS であれば VLAN トランク)の設定をしておきます。
vmnic1 / vmnic2 の構成。
vmnic1 と vmnic2 は、どちらか片方、またはアクティブ/スタンバイの構成にして、
NSX-T によるオーバーレイ ネットワークで利用します。
ただし、このホストは NSX Edge がオーバーレイ ネットワークの終端となります。
つまり NSX Edge VM が トンネルのエンドポイント(TEP)をもちます。
また、ここでの vmnic のチーミングは、一般的なポートグループのチーミングポリシーで設定します。
この pNIC に構成される仮想スイッチには オーバーレイ ネットワークが通るので
MTU は 1600 などに拡張します。
今回の オーバーレイ N-VDS では TEP で VLAN ID をうけるため、
Edge VM での オーバーレイ N-VDS の vNIC に接続するポートグループも、
VLAN ID 4095(vDS であれば VLAN トランク)の設定をしておきます。
オーバーレイ ネットワークを利用する ESXi ホストの構成。
NSX-T によるオーバーレイ ネットワークを VM が利用するホストで、
ESXi には NSX-T 独自の仮想スイッチである N-VDS(オーバーレイ N-VDS)が構成されます。
ESXi ホスト同士や NSX Edge とは、オーバーレイ ネットワークを通すトンネルのエンドポイント(TEP)同士で通信をします。
ESXi から見た pNIC は、前述の ESXi ホストと同様に、3つ(vmnic0 ~ vmnic2)用意してあります。
vmnic0 の構成。
1つめの vmnic0 は、vSS(vSwitch0)を構成して、ESXi の vmk0 による管理通信で利用しています。
そのため、MTU は 1500 のままです。
vmnic1 / vmnic2 の構成。
vmnic1 と vmnic2 は、どちらか片方、またはアクティブ/スタンバイの構成にして、
NSX-T によるオーバーレイ ネットワーク(オーバーレイ N-VDS)で利用します。
先ほどのホストとは異なり、vmnic に設定は、NSX-T のアップリンク プロファイルで設定します。
そのため、ESXi では特に設定を実施せず、NSX-T のセットアップまで NIC を仮想スイッチでは未使用にしておきます。
(のちほど)アップリンク プロファイルでは、下記のような設定をすることになります。
- NIC のチーミング
- オーバーレイ ネットワークが通るので、MTU は 1600 などに設定。
- オーバーレイ N-VDS の TEP での VLAN ID の設定。
つづく・・・
deploying template via PowerCli
hello
so we've configured a template that a windows 2016 server machine, joined to a domain with 3 network interfaces, interface1, interface2, interface3
New-VM -Name testServer -Template 'SQL Server 2017' -Datastore myDataStore -VMHost myVmHost
I need to be able to at least change the server name and ip addresses when I create the vm
from what Im gathering in order to expand this above command I need to create an OsCustomizationSpec, so that I can alter the interface ip addresses? create a new OsCustomizationSpec then requires me to create a OsCustomizationNicMapping... ? However I'm not finding a way to specify the network interface (ie interface1, or interface2) to specify the ip settings?
Am I going about this completely wrong?
Powershell code conversion to Javascript
Hi. Anyone know if there's a software or website to convert Powershell code to Javascript?
Or how to specifically convert this where statement example - "where { $_.Model -match "Some_Name" }" from Powershell to a compatibe Javscript code?
Would appreciate any help.
Mouse held by VMware Remote Console
May be a simple question, but I am using a couple of VMware Remote Console and when I used to switch between them, I didn't need to press Alt+Ctrl to release my mouse from every console. Now, When I click in a remote console, my mouse is now held by the console and I need to press Alt+Ctrl to release my mouse from that console. Is there a way we can configure console so that the console doesn't hold the mouse. your help is very much appreciated. Thanks,
macOS Catalina issue [beta]
Hello. I installed the new macOS 10.15 beta today, and loaded fusion to find that my Windows 7 VM boots up and runs just fine, but only shows a black screen. I can see it in the library and even use it by typing, moving the mouse around in the black screen, and watching in the library but that's all. Has anyone experienced this before? I've tried reinstalling Fusion, to no avail. It also doesn't show anything during post/boot, so it's not a video driver issue I don't think.
- Accelerate 3D Graphics is NOT checked.
- I receive NO error messages.
vCenter options for a DR plan
Where should we run the vcsa and the psc?
That's the actual question; below is the explanation!
We are building a DR cluster with (of course) the goal of being able to spin up the DR site in case our production site becomes a smokin' hole.
- We have two sets of 6 esxi 6.7U1 hosts, each in their own cluster; one in our production site and one in our DR site. (Technically I'm still building out the DR stack and it's sitting locally while I build it, but it will eventually be physically moved to the DR site, so I'll speak as if it's already there.)
- Currently, both clusters are in a single vcenter datacenter.
- We have a 200MB layer 2 connection between the sites with pretty low latency (in the teens), and we're running an extended vlan to the DR cluster.
Now we are in the planning stages and researching the best way to "do" DR.
We use Veeam for backups, and we plan to use Veeam to replicate all the VMs in the production cluster to the DR cluster, and use Veeam failover plans in case of disaster. Because of the extended VLAN to the DR site, we will need to change the gateway IPs on each VM that gets failed over, which can be done with a Veeam failover plan. We also plan on moving the VBR server on the DR cluster so that in case of disaster we don't have to scramble to get Veeam up and running before we can failover.
So now we get to my question (finally!):
Where should we run the vcsa and the psc?
- Should we move these from production (where they are currently) to the DR cluster?
- Should we keep them in the production cluster and replicate them? If so, how do we deal with changing the gateway IP...not sure Veeam is able to change an IP on these appliances.
- We have an extra vcenter license; should we spin up another vcsa / psc pair in the DR cluster? If so, is there documentation somewhere on how to make that work? I haven't found any docs about that yet.
- Or is there another "best practice" way to deal with vcenter for DR?
Another question I have is: should we create a new datacenter in vcenter for the DR cluster?
Thanks for any help you can give!
vmware tools: guestToolsInstallType.null ???
Hi,
When expanding the Vmware Tools menü in overwiew of my Vms in web client, some Vms show as installation type:
guestToolsInstallType.null
Other Vms show as installatio type:
MSI
In fact, all of my Vms on a esxi 6.0.0 host have guestToolsInstallType.null,, on a esxi 6.7 host the only Windows Vm there has MSI.
I installed a Windows VM on the 6.0 host for testing and tools are again guestToolsInstallType.null.
I first thought that it might be an issue with this host, but a Appliance from an ova (Nakivo backup and Replication transporter) is installed on both hosts and has guestToolsInstallType.null on both.
what is this about?
I have strong believe that this might be a cause for my iniitial problem that brought me to the vmware tools:
Nakivo cannot do a flash vm boot for the Windows Server VM with guestToolsInstallType.null, but can do it for ta Win10 Vm with MSI on the 6.7 host.
I already uninstalled tools from the test Win10 vm on esxi 6.0 and reinstalled newest tools (10.3.10). Again it shows guestToolsInstallType.null