Analysen
31. Januar 2012
AUTOR: Businesscloud.de
Wer statt auf "Fat Clients", also Standard-Arbeitsplatzrechner, auf virtualisierte Desktops setzt, profitiert von einer Vielzahl von Vorteilen: der höheren Sicherheit, weil sich die Systeme zentral verwalten, schützen und dem neuesten Stand halten lassen, niedrigeren Kosten, weil das Systemmanagement einfacher ist, und einer größeren Flexibilität, weil Nutzer von unterschiedlichen Systemen wie Notebooks, Smartphones oder Rechnern im Home-Office aus Zugang zu "ihrem" Desktop haben. Mitarbeiter wollen heute nicht mehr nur über einen Arbeitsplatzrechner auf ihre Desktop-Umgebung zugreifen, sondern auch vom Notebook, Smartphone oder Tablet-Rechner aus. Mit einer Virtual Desktop Infrastructure ist das kein Problem. (Foto: Rainer Sturm / Pixelio.de) Kein Wunder, dass laut einer Studie, welche die Marktforschungsgesellschaft Pierre Audoin Consulting (PAC) im Auftrag von Pironet NDH durchführte, rund zwei Drittel der mittelständischen Unternehmen in Deutschland verstärkt auf Desktop-Virtualisierung zurückgreifen möchten. Doch einfach "drauflos zu virtualisieren", ist nicht zu empfehlen. Wer bei der Planung und Einführung einer Virtual Desktop Infrastructure (VDI) Fehler macht, setzt die genannten positiven Effekte aufs Spiel. In der folgenden Zehn-Punkte-Checkliste sind die Faktoren aufgeführt, die ein Unternehmen im Vorfeld prüfen sollte, bevor es eine VDI einführt.

1. Zielsetzung von Desktop-Virtualisierung definieren

Bevor ein Projekt zur Desktop-Virtualisierung anläuft, sollten die Ziele definiert werden, die das mittelständische Unternehmen mithilfe der Virtualisierung von Desktops in erster Linie erreichen möchte: niedrigere Kosten oder die Anbindung von mobilen Mitarbeitern, ein einfacheres Systemmanagement oder den Aufbau einer zukunftssicheren Virtual Desktop Infrastructure. Davon hängt ab, welches VDI-Konzept in Frage kommt und welches Betreibermodell sich am besten eignet, etwa "Alles selbst machen" oder das Outsourcing an einen IT-Dienstleister oder einen Cloud-Service-Provider wie Pironet NDH.

2. Passende VDI-Technik wählen

Desktop-Virtualisierung ist ein Begriff, der viele Facetten umfasst, von klassischen Terminal-Services bis hin zu Client-Hosted-VDI-Umgebungen. Der Anwender muss im Vorfeld sorgfältig recherchieren, welches Bereitstellungsmodell seine Anforderungen in bestmöglicher Weise erfüllt, etwa eine Version, bei der ein permanenter Netzwerkzugang erforderlich ist oder ein Ansatz, bei dem der User zumindest zeitweise ohne Online-Verbindung arbeiten kann. Ebenfalls zu bedenken ist, welche Freiheitsgrade dem Nutzer eingeräumt werden, ob er beispielsweise selbstständig Anwendungen nachinstallieren kann. Je nach Anforderungen und Rolle des Users kommen unterschiedliche VDI-Konzepte in Betracht. (Bild: Pironet NDH).

3. Die technischen Anforderungen der IT-Infrastruktur überprüfen

Mit der Einführung von virtualisierten Desktops steigen die Anforderungen an das Server-Backend und die Netzwerk-Infrastruktur. Daher gilt es im Vorfeld zu überprüfen, ob speziell diese Komponenten den gestiegenen Ansprüchen genügen. Wenn Nachbesserungen in größerem Stil erforderlich sind, kann dies die Kosten deutlich erhöhen. In diesem Fall sollte der Anwender Alternativen prüfen, etwa die Bereitstellung der virtualisierten Desktops über einen externen Service-Provider.

4. Das Know-how der hauseigenen IT-Abteilung überprüfen

Die hohe Integrationsdichte einer Virtual Desktop Infrastructure erfordert die enge Zusammenarbeit der IT-Mitarbeiter unterschiedlicher Sparten. Dies ist für viele IT-Experten ein ungewohntes Szenario. Involviert sind unter anderem folgende Bereiche: Servertechnik, Datenbanken, Virtualisierungstechnik, inklusive Installation und Wartung von Hypervisors, Desktop-Hard- und -Software, die Softwareverteilung und der Betrieb von Storage-Systemen und der entsprechenden Netzwerke (Storage Area Networks). Häufig sind die Zuständigkeiten für diese Bereiche innerhalb der IT-Abteilung voneinander getrennt. Diese "Silo-Struktur" muss bei Einführung einer VDI überwunden werden. Desktops lassen sich über eine Cloud-Umgebung bereitstellen, etwa über das Rechenzentrum eines Service-Providers. Das entlastet die hauseigene IT-Abteilung, ohne dass Faktoren wie Servicequalität und Sicherheit leiden. (Bild: Pironet NDH).

5. Lizenzierung überprüfen

Die korrekte Verwaltung von Software-Lizenzen in einer virtualisierten Umgebung ist alles andere als trivial. Nötigenfalls sind zusätzliche Lizenzen erforderlich, beispielsweise für Anwendungen in Virtual Machines. Wichtig ist, dass die IT-Abteilung exakt ermittelt, welche Lizenzen für die Client-Systeme erforderlich sind und welche im Backend (Rechenzentrum) anfallen. Nur dadurch lässt sich eine Unter- beziehungsweise Überlizenzierung vermeiden.

6. Risikomanagement neu definieren

Der Kernpunkt des Risikomanagements in einer VDI-Umgebung ist der hohe Integrationsgrad. Die Zentralisierung führt dazu, dass das Rechenzentrum und die darin befindlichen Server, Datenbanksysteme und Storage-Komponenten besonders gut gegen Angriffe, Fehlfunktionen und Bedienungsfehler seitens des IT-Personals abgesichert werden müssen. Nicht unterschätzt werden darf das Thema Verfügbarkeit. Wenn Server oder Netzwerkverbindungen ausfallen, sind unter Umständen Hunderte von Mitarbeitern nicht in der Lage, ihre Aufgaben zu erfüllen. Betreibt ein Unternehmen eine VDI selbst, muss es daher eine hochverfügbare und redundante IT-Infrastruktur aufbauen. Die Rechenzentren von Service-Providern, über die virtualisierte Desktops bereitgestellt werden, verfügen in der Regel über bessere Disaster-Recovery-Vorkehrungen als das typische Data-Center eines mittelständischen Unternehmens. Ein Qualitätskriterium eines externen Cloud-Service-Providers ist, dass dieser eine maximale Verfügbarkeit von VDI-Diensten sicherstellt, beispielsweise mithilfe von Ausfallrechenzentren. (Bild: Pironet NDH).

7. Prozessmanagement für VDI auslegen

Die klare Zuordnung von Verantwortungsbereichen und eine saubere Definition von Prozessen und Abläufen sind in einer VDI-Umgebung unerlässlich. Auch dies ist, wie beim Risikomanagement, durch den hohen Integrationsgrad bedingt. Ein unzureichendes Prozessmanagement kann fatale Auswirkungen haben: Die gewünschten Effekte wie Kosteneinsparungen und eine höhere Effizienz bleiben aus, und es kommt möglicherweise zu Reibungsverlusten, etwa bedingt durch Ausfallzeiten.

8. Backup-Konzept erstellen

Datensicherung ist natürlich nicht nur für virtualisierte Desktops wichtig, sondern auch für konventionelle Client-Umgebungen. Eine Besonderheit einer VDI ist jedoch, dass der Ausfall eines oder mehrerer Server ungleich schlimmere Folgen hat als in einer Umgebung mit Standard-Client-Rechnern. Mitarbeiter können im letztgenannten Fall noch mit den Applikationen arbeiten, die lokal auf ihrem Arbeitsplatzsystem installiert sind. Desktop-Virtualisierung setzt daher fundierte Backup- und Disaster-Recovery-Konzepte voraus. Idealerweise werden Daten zwischen räumlich getrennten Rechenzentren gespiegelt (Data Replication). Auch in diesem Fall gilt: Unternehmen, welche die Kosten für solche relativ aufwändigen Maßnahmen scheuen, sollten in Betracht ziehen, virtualisierte Desktops von einem Cloud-Service-Provider zu beziehen.

9. Erweiterungsmöglichkeiten einplanen

Wie jede IT-Umgebung ist auch eine Virtual Desktop Infrastructure nicht für die Ewigkeit gebaut. Je nach Erfordernissen sollte sie sich anpassen lassen. Vor allem für Unternehmen, die branchenspezifische Anwendungen einsetzen, ist es wichtig, bei der Auswahl der Bestandteile der VDI Vorsicht walten zu lassen. Wer eine Lösung implementiert, die nur wenige Freiheitsgrade bietet, wird dies mit hoher Wahrscheinlichkeit später bereuen. Auch die zugrunde liegende IT-Infrastruktur, also Server- und Storage-Kapazitäten und die Netzwerkanbindung, müssen so ausgelegt sein, dass sie sich an geänderte Anforderungen anpassen lassen.

10. Externe Provider mit einbeziehen

Wenn ein Unternehmen bereits IT-Dienste von externen Providern bezieht, müssen diese Services mit der Virtual Desktop Infrastructure kombiniert werden. Ebenfalls zu berücksichtigen ist, wie es um das Thema Datenschutz bestellt ist, vor allem dann, wenn virtualisierte Desktops von einem Cloud-Service-Anbieter bezogen werden. Wichtig ist, dass der Service-Provider die in Deutschland oder der EU gültigen Datenschutzbestimmungen erfüllt. Bei Anbietern, die ihren Firmensitz in Deutschland haben, ist dies in jedem Fall sichergestellt. Anders sieht es bei den deutschen Niederlassungen von Unternehmen mit Hauptsitz im Ausland aus, etwa in den USA. Empfehlenswert ist es, die Qualität der VDI-Services mithilfe von Service Level Agreements (SLAs) festzuschreiben. Zudem sollte der Nutzer die Zahl der externen Provider möglichst klein halten. Je mehr Dienstleister mit im Boot sind, desto höher sind der Koordinationsaufwand und das Risiko, dass es zu Abstimmungsproblemen kommt.

Fazit

"Mit VDI lässt sich das klassische 'Ölkännchengeschäft', also die unflexible Wartung ganzer PC-Parks, überwinden", sagt Khaled Chaar, Managing Director Business Strategy bei Pironet NDH. "Der Preis ist die wachsende technische und rechtliche Komplexität. Planung, Aufbau und Betrieb einer leistungsfähigen virtuellen Desktop-Infrastruktur erfordern deshalb ein Know-how, über das viele IT-Abteilungen im Mittelstand nicht verfügen." Chaars Rat: "Für viele mittelständische Unternehmen ist daher der bessere Weg, die Desktop-Landschaft an einen zuverlässigen und fachlich versierten externen Service-Provider wie Pironet NDH auszulagern." Der Dienstleister sollte neben einem profunden Fachwissen über ein professionelles IT-Sicherheitsmanagement verfügen. Ein weiteres Qualitätskriterium sind international anerkannte Zertifizierungen, etwa gemäß der ISO-Norm 27001.

Seite teilen

Must Reads von anderen Tech-Seiten
silicon.de: Safe-Harbor-Nachfolger – EU-Datenschützer verlangen Nachbesserungen Weiterlesen

 

CANCOM.info: Drei Gründe für die Hybrid Cloud – Das leistet der Cloud-Mix in Unternehmen Weiterlesen

 

Scope Online: Cloud Computing in der Produktion – Drei Mythen über Business Cloud-Lösungen  Weiterlesen

Pressemitteilungen

Köln, den 2. August 2016 – Der ERP-Spezialist proALPHA stellt die Cloud-Variante seines ERP-Systems ab sofort über die Hosted ... Weiterlesen
München/Köln, den 30. Juni 2016 – In der umfassendsten Analyse des deutschen Marktes für Cloud-Computing-Services im B2B-Bereich ... Weiterlesen
Köln, den 21. Juni 2016 – PIRONET macht Anwendern den Umstieg auf die neue Anwendungssuite SAP S/4HANA ab sofort besonders leicht: Kunden ... Weiterlesen
München/Köln, 19. April 2016 – Der IT-Konzern CANCOM hat einen neuartigen Marktplatz für Softwareanwendungen aus der Cloud ... Weiterlesen