Donnerstag, 15. November 2018
Twitter Facebook Mister Wong Delicious stumbleupon digg Yahoo

Neueste Technologie für Administratoren

Systembetreuer im Windows-Umfeld brauchen Know-how über die neuesten Entwicklungen. Einsatzbeispiele und Tipps aus der Praxis führen zu mehr Effizienz im täglichen Betrieb. Wir bieten Skript-basierte Lösungen von Windows IT Pro exklusiv im deutschsprachigen Raum für unsere Abonnenten.

Das Rechenzentrum der Zukunft: Hochgradig virtualisiert

Lawrence Garvin, Head Geek bei Solarwinds; Quelle: Solarwinds

Es ist kein Geheimnis, dass die Unternehmens-IT gerade eine ihrer größten Umwälzungen seit der Einführung des PCs erlebt. Hochgradig virtualisiert – so lautet die Kernaussage in den meisten Umgebungen. Aber wie wird das geschäftliche Rechenzentrum der Zukunft letztendlich aussehen?

Der Technik-Guru Lawrence Garvin von Solarwinds gibt darauf einige Antworten.

 

Die Transformation der IT-Umgebung steht bei vielen Unternehmen an – Marktforscher empfehlen diese Umstellung schon seit einiger Zeit. Die Versprechen dahinter sind eine höhere Effizienz der IT und die Fokussierung auf die Kernkompetenzen in den Unternehmen. Doch wie soll dieser Prozess ablaufen?

Als Erstes wird in der nicht allzu fernen Zukunft die nahezu vollständige Virtualisierung des Rechenzentrums auffallen. Abgesehen von einigen Domänencontrollern mit Schlüsselfunktionen, die am besten auf physischen Computern belassen werden, gibt es nichts, das nicht auf einer virtuellen Maschine implementiert werden kann oder wird.

Aufgrund der hohen Virtualisierungsdichte wird fast alles in einem fehlertoleranten Modus ausgeführt und kann zudem höchst flexibel auf Schwankungen des Performance-Bedarfs reagieren. Virtuelle Maschinen werden automatisch zwischen Hosts verschoben, um stets ihre maximale Leistungskapazität ausschöpfen zu können. Die Tage, an denen Beschwerden wie „der Mailserver ist ausgefallen“ oder „der Intranetserver ist langsam“ zu hören waren, werden dann der Vergessenheit angehören.

Diese Virtualisierungsumgebungen sind durch zwei entscheidende Infrastrukturkomponenten geprägt. Zum einen bestehen sie aus einer Vielzahl an Hypervisoren, von denen einige aus Kostengründen und andere wegen ihrer Spezialisierung auf einen bestimmten Dienst ausgewählt wurden. Zum anderen werden die Umgebungen auf lokale Systeme und mehrere Public-Cloud-Anbieter verteilt werden. Die „Hybrid-Cloud“ wird zum Standard.

Ein neuer Mitarbeitertyp

Als Nächstes wird auffallen, wie sich das „Personal“ in diesen Rechenzentren zusammensetzt. In erster Linie wird es wesentlich mehr Maschinen als Menschen geben, die Menschen haben dafür deutlich größere Verantwortungsbereiche inne. Sie werden auch besser qualifiziert sein müssen als die meisten IT-Profis heutzutage. Beispielsweise wird der Data-Center-Administrator seine heute eher sachorientierte Rolle neu definieren und sich mehr auf Management, Optimierung und Diagnose des Betriebs „seines“ Rechenzentrums konzentrieren.

Zudem werden die Unterschiede zwischen den herkömmlichen IT-Aufgabenbereichen immer mehr verschwimmen, vielleicht sogar so weit, dass es keine Unterscheidung mehr gibt. Das beinhaltet sowohl die Unterscheidung zwischen Server und Desktop – da die Virtual Desktop Infrastructure (VDI) die bevorzugte Methode sein wird, um Computerdienste für den Endbenutzer bereitzustellen – als auch die Unterscheidung zwischen Netzwerk und Systemen, die sich als Ergebnis zweier einschneidender Trends ändern wird.

Der erste Trend besteht aus der Entwicklung des Netzwerk-Konfigurationsmanagements in die Sphäre des Software Defined Networking (SDN). SDN ist das Tool, das Hybrid-Cloud-Umgebungen ermöglicht und den physischen Standort von Systemen und Daten für den Endbenutzer in jeder Hinsicht transparent gestaltet. Der zweite Trend ist die Notwendigkeit, dass herkömmliche Systemadministratoren die Auswirkungen der Netzwerkprozesse voll und ganz kennen müssen, da sich die meisten Netzwerkinfrastrukturen weg von externen Geräten (z.B. Routern und Switches) hin zu Prozessen und Diensten in Form von Hypervisor-Hosts verlagern werden.

Hoch entwickelte Überwachungslösungen

Damit all diese Änderungen letztendlich einen echten Nutzen bringen, wird eine hoch entwickelte Überwachungsinfrastruktur erforderlich sein – eine, die all die heute noch manuell auszuführenden profanen Verwaltungsaufgaben für IT-Profis überflüssig macht. Die Behandlung weniger kritischer Probleme wird durch automatische Antwortmechanismen erfolgen, die über Skripts und andere ausführbare Programme implementiert werden und dazu dienen, auf bekannte und vorhersehbare Szenarien zu reagieren. Zudem wird die Überwachungssoftware die Verarbeitung von Leistungsdaten automatisieren und den IT-Profi im Falle von Situationen benachrichtigen, die ausdrücklich die Maßnahmen eines Menschen erfordern.

Am bemerkenswertesten wird aber die Tatsache sein, dass die Überwachungsinfrastruktur vollständig integrierte durchgängige Ansichten ermöglicht. Der IT-Profi wird bei der Prüfung ganz oben bei den Anwendungen, unten an der Basis beim Datenspeicher oder an beliebiger Stelle in der Mitte beginnen und sich in beliebige Richtung weiter orientieren können. Die gesamte Infrastruktur wird in Echtzeit visuell dargestellt, sodass die Diagnose eines vom Endbenutzer gemeldeten Problems in Minuten erfolgen kann, statt in Stunden oder Tagen, wie das in den heutigen Umgebungen manchmal noch der Fall ist.

Zusammengefasst kann man sagen, dass das Datencenter der Zukunft eine äußert agile, hoch entwickelte Umgebung sein wird, um deren Verwaltung sich Experten mit vielfältigen erweiterten technischen Fähigkeiten kümmern werden. Ich bin schon sehr gespannt, was die Zukunft für uns bereithält.

Lawrence Garvin, Head Geek, SolarWinds

Anmelden
Anmelden