Ein hochrangiger Microsoft-Manager hat dargelegt, warum das Benchmarking von Cloud-PCs ein unglaublich kniffliger Prozess ist, der in vielen Fällen einfach nicht möglich ist.
In einem aktuellen Blogbeitrag (öffnet in neuem Tab)Microsoft Windows 365 Cloud PC und Azure Virtual Desktop Senior Product Manager, Ron Martinsen, erklärte, warum es aufgrund der riesigen Menge an Variablen so gut wie unmöglich ist, Cloud Computing zu bewerten.
Stattdessen sollten wir einfach darauf vertrauen, dass kontinuierliche Upgrades uns eine optimale Leistung bieten.
Der Vergleich von Cloud-Computern ist schwierig
Martinsen stützte sich auf fast drei Jahrzehnte Erfahrung und „zahllose Leistungsstudien“, wie er erklärte, „es ist fast unmöglich, wiederholbare Daten in einer Umgebung zu erhalten, die die Realität dessen widerspiegelt, was Benutzer verwenden werden.“
Er erklärt sogar, dass wiederholte Tests unterschiedliche Ergebnisse liefern können und dass das Anstellen gültiger Vergleiche bestenfalls eine Herausforderung darstellen kann. Mit diesem Ratschlag ist es am besten, sich für virtuelle Hardware zu entscheiden, die die Anforderungen erfüllt oder übertrifft, anstatt zu versuchen, Zahlen zu vergleichen, die die Realität nicht darstellen.
In seinem Blogbeitrag erklärt Martinsen, dass das Betriebssystem, die Netzwerklatenz, das Caching des Festplattencontrollers und die Speicheroptimierung einige der wichtigsten Faktoren sind, die beim Benchmarking berücksichtigt werden müssen.
Stellen Sie das in den Kontext von Cloud Computing, „wo der Host-Rechenprozess auf einem Cluster läuft und eine variable Anzahl aktiver Cloud-PCs bedient“, und die Anzahl der Variablen wird „überwältigend“ – und noch mehr für Virtualisierungs-Workloads wie das Windows-Subsystem für Linux .
Dann gibt es die Tatsache, dass die virtueller Desktop auf das Sie vor einem Jahr zugegriffen haben, wird wahrscheinlich in den folgenden Monaten aktualisiert und aktualisiert, was zu einer verbesserten Leistung und/oder Effizienz beiträgt.
Auch außerhalb des Cloud-Computing-Kontexts kritisiert Martinsen Benchmarking-Tests dafür, dass sie in sterilen Umgebungen durchgeführt werden, wodurch die bestmöglichen Werte erzielt werden – keine relativen Zahlen, die für bestimmte Anwendungsfälle gelten.
Zusammenfassend lässt sich sagen, dass höhere Benchmark-Zahlen zwar wahrscheinlich zu einer verbesserten Leistung für den Endbenutzer führen, der Unterschied jedoch fast nie so stark sein wird. Was Cloud Computing betrifft, Microsofts relative Leistungsangaben (öffnet in neuem Tab) dienen als Vergleichsbasis.