Adaptive Parallel I/O-Technologie und SAN-Arrays

4. November 2016

Mit der Einführung der Adaptive Parallel I/O-Technologie hat DataCore Software eine Möglichkeit gefunden, eine sehr hohe Anwendungsleistung sowie Kosteneffizienz durch hyperkonvergente Infrastruktur-Appliances zu erzielen. Die aktuellen Ergebnisse des SPC-1-Benchmarks des Storage Performance Councils zeigen, dass sich damit „Tier 0-Latenz und –Durchsatz“ zu „Tier 3“-Speicherpreisen erreichen lässt. Dabei ist auch die Koexistenz von traditionellen SAN-/NAS-Arrays mit der Adaptive Parallel I/O-Technologie machbar. Damit können bereits getätigte Investitionen weiter verwendet werden und zudem ist die Migration der Daten über diesen Weg einfacher.

Preis-Leistungsdaten für Speichersysteme; Quelle: DataCore Software

 

Die Nachfrage nach schnellen Speichersystemen wird so schnell nicht abnehmen. Denn heutige Applikationslandschaften stehen vor der Herausforderung, immer noch mehr Daten in kürzester Zeit – idealerweise in Echtzeit – aufbereiten zu müssen. Das wird sich durch die digitale Transformation, die bei vielen Unternehmen auf der IT-Agenda steht, weiter verschärfen. Die üblichen Lösungen setzen auf einer mehrstufigen Applikationsarchitektur auf. Dabei ist eine Aufteilung in Applikationslogik, Datenbank und Middleware gängig.

Eine derartige Konfiguration funktioniert sehr gut in virtualisierten Umgebungen, in denen sogenannte VMs (Virtuellen Maschinen) abgebildet werden. Dabei wurden bislang die Daten in Form von hochverfügbaren SAN- oder NAS-Arrays bereitgestellt. Hochverfügbarkeit ist vor allem in den Bereichen Pflicht, die sich mit geschäftskritischen Anwendungen befassen. Das definiert ein jedes Anwenderunternehmen für seine Geschäftsvorgänge selbst – doch die Messlatte lautet immer: Wie viel Geld wird mich der Stillstand der IT für eine bestimmte Zeitspanne kosten? Mit dieser Formel kann ein Unternehmen recht schön seine Aufwände berechnen, die es für seine Hochverfügbarkeitslösung ausgeben kann.

Viele Unternehmen können aber die Hardware-Ausstattung im IT-Bereich nicht Knall auf Fall umstellen. In der Regel sind es neuartige Anforderungen, die sich mit einer zusätzlichen IT-Architektur abzudecken gilt – oder aber das Ersetzen von Hard- und Softwarekonfigurationen, die mittlerweile buchhalterisch abgeschrieben wurden.
Als Konkurrenz zu den bisherigen SAN- und NAS-Arrays hat sich mit der „Adaptive Parallel I/O“-Konzeption von DataCore Software eine günstige Alternative herauskristallisiert.

Sie steht als Software-basierte Lösung in den Produkten „DataCore SANsymphony“ sowie in „DataCore Hyper-converged Virtual SAN“ zur Verfügung und kommt dabei auf Industrie-Standardserver (mit den x86/x64-Prozessoren) zum Einsatz. Dabei sind die Serversysteme – erweitert um die Softwarelösung von DataCore – in der Lage, die bestehenden Speichersysteme (SAN oder NAS) komplett abzulösen oder aber sie in einer gemischten Umgebung zu betreiben. Die Performance-Daten für die „Adaptive Parallel I/O“-Technologie sind mehr als nur konkurrenzfähig. Benchmarks wie der SPC-1 des Storage Performance Council zeigen die gemessenen Werte, die zudem zu einem Bruchteil der Kosten eines High-end-SAN-Arrays zur Verfügung stehen. Diese Daten wurden bereits in den bisherigen Beiträgen zu diesem Themenkomplex publiziert.

Einen großen Vorteil bietet die Lösung von DataCore auch aufgrund der Unterstützung eines hybriden Betriebs: Mit der „Adaptive Parallel I/O“-Architektur lassen sich auch traditionelle SANs und NAS-Konfigurationen koppeln. Somit kann ein Unternehmen seine bestehenden SAN-Systeme in die neue Welt mitnehmen. Allerdings ist in vielen Projekten der Weiterverwendungsgedanke gar nicht der primäre Grund für den Einsatz der „Adaptive Parallel I/O“-Architektur. Denn viele Anwender steigen um, wenn die Systeme – etwa nach drei Jahren – abgeschrieben sind. Erst im Verlauf des Projektes, das mit der Technologie von DataCore realisiert wird, stellt sich dann heraus, dass man sozusagen stillschweigend davon ausgegangen ist, dass die bestehenden Storage-Systeme komplett ersetzt werden müssten. Doch die bestehende Storage-Infrastruktur kann mit integriert werden – vielfach lassen sich die bestehenden Systeme noch als Tier-2-, -3- oder -4-Storage weiterverwenden. Das macht die Gesamtlösung dann weitaus günstiger, denn es muss nicht alles neu angeschafft werden.

Doch ein derartiger Ansatz funktioniert nicht in jedem Fall. Falls die bestehenden Storage-Systeme bereits eine Laufzeit von fünf Jahren hinter sich haben, rentiert sich eine Wartungs-Erneuerung nur in den seltensten Fällen. Sprich die Hardware an sich ist nicht mehr konkurrenzfähig und die Kosten für die Wartung durch den Originalherstellers ist in der Regel auch vergleichsweise teuer. Unternehmen haben zwar die Option, zu einem Drittanbieter auszuweichen, der den Service günstiger liefert als der Originalhersteller, aber es bleibt eben alte, nicht mehr so leistungsfähige Hardware. Zudem stellt sich die Frage, wieviel Platzbedarf das bestehende System hat und wie hoch seine Stromaufnahme ist. Wer mit einer komplett neuen Hardware in die Lösung einsteigt, der braucht womöglich nur ein Drittel des Raums in einem Rack und nur ein Zehntel des Stroms. Zudem möchten viele Anwenderunternehmen auch gleich auch auf neue Speichermedien umsteigen – wie zum Beispiel auf Flash-Medien.

Was aber auf alle Fälle wichtig ist: Der Umstieg von den alten Storage-Systemen auf die neue Lösung. Das funktioniert beim Ansatz von DataCore problemlos, weil die alten Storage-Systeme problemlos mit angeschlossen werden können. Die alten Datenbestände lassen sich damit nahtlos in die neue Umgebung mitnehmen. Dann kann man die alten, nicht mehr sinnvoll zu betreibenden Systeme abschalten. Für die Datenmigration gibt es zudem bei DataCore noch geeignete Tools, mit denen sich diese Aufgaben weitgehend automatisieren lassen.

 

Angaben zu Latenz- und TCO-Werten; Quelle: DataCore

 

Das Umstellen der Storage-Infrastruktur in Form eines Big Bang ist eher selten, denn die Unternehmen scheuen dieses vergleichsweise große Risiko. Eine Komplettumstellung in einem Zug findet daher nur bei ganz kleinen Konfigurationen, also im Entry Level-Bereich, statt. Das sind Datenmengen kleiner als 16 TByte. Bei größeren Umgebungen wird in der Regel ein mehrphasiger Umstieg favorisiert.

Erfolgreich haben sich in der Praxis vor allem die Strategien herausgestellt, bei denen zunächst die Test-und Entwicklungssysteme umgestellt werden. Das ermöglicht der IT-Mannschaft beim Anwender ein eher spielerisches Kennenlernen der neuen Umgebung. Dabei lässt sich gut erkennen, wie sich die I/O-Latenzen entwickeln und wie sich der neue Storage-Komplex verhält. Wenn die Anwender ihre „Probefahrt- und Einfahrphase“ erfolgreich abgeschlossen haben, dann wird auch der kritische Tier-1-Speicher umgezogen.

Typische Speicherfunktionen wie etwa Snapshots, Cloning, Disaster Recovery (DR), etc. wird bei DataCore etwas anders abgehandelt. Üblicherweise sind auch die Tools anders zu handhaben, als die Werkzeige, die von einem SAN-Hersteller passend für seine Arrays konzipiert wurden. Für die Betriebsmannschaft beim Anwender bedeutet das, dass sie „mitlernen“ muss. Dabei erachten die meisten Unternehmen es als besonders wichtig, dass die Lernkurve recht schnell nach oben geht.

Bei DataCore brauchen Storage-Administratoren selten länger als eine Woche, um sich mit dem System sehr gut auszukennen, so lauten die Erfahrungen des Herstellers. Ab Version 8 von SANsymphony steht zudem eine sehr mächtige Skripting-Umgebung zur Verfügung, so dass sich die Administratoren eine weitreichende Automatisierung des Storage-Betriebs für ihre Umgebung konzipieren können. Über diese Technologie lassen sich eigene Tools erstellen – das erweist sich vor allem für wiederkehrende Abläufe als ein echter Effizienzfaktor.

Mit dieser Argumentation lässt sich auch ein wirtschaftlicher Aspekt verknüpfen: Wer künftig weitere Hardware dazu kaufen muss – etwa weil die Speicherkapazität nicht mehr ausreicht, der muss keine Software-Funktionalität mit der Hardware mitkaufen, da DataCore diese Funktionalität bereits besitzt. Das könnte man als „Doppelten Investitionsschutz“ bezeichnen, denn das macht eine zukünftige Anschaffung günstiger. Ein weiterer Vorteil lautet: Auch der Schulungsaufwand für die neue Verwaltungsumgebung entfällt.

Wie steht es um die Ausfallsicherheit?

Beim Vergleich eines großen SAN-Arrays mit einem „kleinen Industriestandard-Server“ drängt sich der erste Eindruck auf: Die Ausfallsicherheit beim Server-basierte Storage ist geringer. Doch wer sich die SAN-Arrays detaillierter unter die Lupe nimmt, der findet zusätzlich zu den Speichermedien (Festplatten und/oder Flash-Speicher) noch einen „Storage Prozessor“ – und das ist nichts anderes als ein Standardserver. Um Ausfallsicherheit zu bieten, verfügt ein SAN-Array in der Regel über deren zwei.

Wenn man beim Konzept von DataCore über ein ausfallsicheres System spricht, kommen eben zwei Industriestandard-Server zum Einsatz. Beim Vergleich eines Storage-Prozessor eines SAN-Arrays mit einem Industriestandard-Server erkennt man in etwa dieselbe Packungsdichte: Etwa mit 2 oder 4 HE –alles weitgehend gleich von den verbauten Hardware-Ressourcen. Auch die Performance-Daten sind – je nach Anzahl der Schnittstellen und der Storage-Karten – sehr ähnlich. Der Unterschied kommt ins Spiel, wenn es darum geht, wie Ausfallsicherheit garantiert wird.

Zum Beispiel gibt es SAN-Array-Hersteller, die einen redundanten Storage Prozessor in einer Unit und darunter die Storage-Ebene als RAID 5 einsetzen. Wenn man das dann synchron gespiegelt – in einem zweiten Brandabschnitt – stehen haben möchte, dann werden bei DataCore nur die beiden Industriestandard-Server anders platziert und die Anforderung ist erledigt. Anders bei einem SAN-Array-Konzept: Da ist es sehr aufwändig, die beiden SAN-Arrays an zwei Standorten aufzustellen und sie logisch zu verknüpfen. Dabei sind dann schnell mal mindestens vier dieser Storage Prozessoren plus Peripherie nötig, um diese hochverfügbare Konstellation aufzubauen.

Nach „unten“, im Speicher selbst, geht es zum einen um die notwendige IO-Durchsatzrate und zum anderen um die Storage-Kapazität. Je nachdem wie die Anforderung aussieht, sind entsprechend viele Platten oder Flash-Elemente einzusetzen. Aber die Softwarelogik im Array ist vergleichbar mit dem Ansatz, wie sie von DataCore als Software für den Server bereitgestellt wird. Bei DataCore wird diese Software allerdings nicht unbedingt fest mit der Hardware verbunden geliefert – die passenden Industriestandard-Server kann sich das Anwenderunternehmen selbst raus suchen und somit seinen internen Lieferantenvorgaben entsprechen. Am Ende spricht man bei der Ausfallsicherheit immer nur über einen Mechanismus, mit dem die Daten „geduplext“ werden. Außer Redundanz – bei Kanälen und bei der Datenhaltung selbst – gibt es bisher noch keine Alternativen. Das Thema Storage-Hochverfügbarkeit im DataCore-Umfeld wird wie beim Thema Server-Hochverfügbarkeit abgehandelt: Die bestehende Storage-Infrastruktur muss man erst migrieren und dann auf zwei voneinander entfernt stehenden Serververbünden zum Einsatz bringen.

Was den Platzvorteil des DataCore-Konzeptes angeht, ist die Lösung auf der Basis der „Adaptive Parallel I/O“-Konzeption immer platzsparender als eine vorherige Konfiguration, die auf SAN-Arrays basiert. Allerdings haben sich auch Konstellationen in der bisherigen Praxis (eine Medizin-Cloud-Anwendung) ergeben, bei denen die Vorgängerkonfigurationen drei Racks komplett belegt hat und die DataCore-Lösung das alles in einem halben Rack abbilden konnte. Denn die flexibel strukturierbaren Komponenten bei DataCore haben Vorteile gegenüber den eher fixen Konzepten bei NAS-/SAN-Herstellern.

Welches Speichernetzwerk?

Speziell in Deutschland hat der Fibre Channel (FC) viele Anhänger. Wer FC einsetzt, der bleibt in der Regel dabei. Vor allem die Argumente Stabilität und Hochverfügbarkeit werden dabei angeführt. Eine Umstellung auf iSCSI wird hierzulande nur selten in den Projekten gefordert. Bei der Lösung von DataCore werden beide Welten unterstützt. Das führt dann oft dazu, dass die Anwender bei iSCSI sehr schnell auf den Geschmack kommen – etwa weil Testumgebungen mit dieser Netzwerktechnik angeschlossen wurden und man dabei das Potenzial erkennen kann.

Das Thema „FC over Ethernet“ (FCoE) wurde vor einiger Zeit ins Spiel gebracht. Doch Stand heute taucht diese Technik in Speichernetzwerken hierzulande so gut wie nicht mehr auf. Der Grund für diese Entwicklung: Die Standardisierung ist nicht weit genug gekommen. Sie ist technisch nicht in der Lage, herstellerübergreifend aus dem Edge-Bereich herauszukommen. Daher wird eher eine Hybrid-Architektur genommen, meist mit FC-Kern und FCoE-Edge.

Rainer Huttenloher

Lesen Sie auch