Virtualisierung und Cloud
Erhöhte Verfügbarkeit:
Unabhängig davon, wie die Bezeichnungen bei den verschiedenen Anbietern von Servervirtualisierung lauten, verfügen inzwischen fast alle über identische Funktionen, mit denen sich Verfügbarkeit und Business Continuity verbessern lassen. Dazu gehören Live Migration, Storage Migration, Fehlertoleranz, Hochverfügbarkeit und Ressourcen-Management. Virtuelle Maschinen (VMs) können damit leicht verschoben und vor ungewünschten Aus(fall)zeiten geschützt werden.
Virtuelles Disaster Recovery:
Virtuelles Disaster Recovery ist nicht virtuell, sondern sehr wirklich. Erreicht wird dies über drei Komponenten der Virtualisierungsinfrastruktur:
Die erste betrifft die Abstraktion von der Hardware. VMs lassen sich unabhängig von einem besonderen Server-Hersteller oder einem besonderen Server-Modell installieren. Das bedeutet, dass man auf der Disaster-Recovery-Site keine identische Hardware mehr braucht, um die VMs oder Applikationen zu spiegeln.(Replica) Auf der DR-Site kann so billigere Hardware eingesetzt werden, da sie vermutlich nicht so oft benutzt wird.
Zweitens braucht man auf physikalischer Ebene eine geringer dimensionierte DR-Site, was ebenfalls zu Kosteneinsparungen führt.
Drittens bieten die meisten Plattformen für Server-Virtualisierung Software-Tools, die den Failover-Prozess automatisieren. Mit diesen Werkzeugen lassen sich in der Regel auch Test-Szenarios für den Ernstfall durchführen.
Isolierte Applikationen:
In der physischen Welt war es bisher üblich, jeder Applikation einen eigenen Server zuzuweisen. Damit war dafür Sorge getragen, dass die einzelnen Software-Programme sauber voneinander isoliert waren. Aber das führte auch zu einem Wust von Rechnern, von denen viele noch dazu nicht optimal ausgelastet waren. Und die Kosten für diese Server-Landschaft liefen schnell aus dem Ruder. Nicht so bei Virtualisierung. Inzwischen sind auch die nötigen Funktionen und Tools vorhanden, um VMs und die in ihnen verpackten Anwendungen sauber voneinander zu trennen. CPU, Memory und Storage können exakt ausgelastet werden, die Kosten in einem solchen Modell sinken.
Die Lebenszeit älterer Anwendungen verlängern:
Fast jedes Unternehmen verfügt noch über Alt-Applikationen, vor längerer Zeit entweder selbst entwickelt oder für bestimmte Zwecke eingekauft. Sie tun ihre Dienste, laufen aber nicht auf modernen Betriebssystemen oder brauchen ganz dedizierte Hardware-Voraussetzungen. Die IT-Mannschaft möchte sie am liebsten überhaupt nicht anrühren. Was viele bis jetzt nicht bedacht und ausprobiert haben: Man kann diese Restbestände, solange sie noch benötigt werden, auch in eine VM verpacken – samt altem Betriebssystem und virtuell vorgegaukelter alter Hardware. Es gibt sogar schon Dienstleister, die sich auf solche Fälle spezialisiert haben.
Die Cloud:
Wer seine Server virtualisiert und von der darunter liegenden Hardware-Schicht abstrahiert, hat sich bereits ein Stückchen in Richtung „Cloud“ bewegt. Egal, wie man die Sache nun nennt, „Cloud“ meint letztlich die Ausweitung des Service-Prinzips in die bis jetzt hermetisch abgeschlossene Welt der firmeneigenen Rechenzentren. Sicher, da und dort hat man Teile der IT-Infrastruktur im Outsourcing-Verfahren an externe Dienstleister ausgelagert – oder auch wieder zurückgeholt. Mit Virtualisierung der Server-Landschaften und der darin verpackten Anwendungen lässt sich das Service-Prinzip auf ein neues Niveau heben: Die Bindung an einzelne physikalische Server ist aufgehoben, und die Applikationen können intern verschoben und nach neuen Benutzungskriterien den Unternehmensmitarbeitern für einen begrenzten Zeitraum zur Verfügung gestellt werden ("Private Cloud“). Sie können aber auch Kunden angeboten werden (Hybrid Cloud) oder komplett an einen externen Dienstleister ausgelagert werden ("Public Cloud“). Daten und Anwendungen werden in einem solchen Schema "mobil“. Ausprobieren kann man es ja einmal. Mit Virtualisierung gibt es zumindest die Chance dazu.
Sie haben Fragen zum Thema Virtualisierung und Cloudnutzung?