Maßgeschneiderte Storage-Lösungen

24. Oktober 2018

In den Unternehmen waren lange Zeit die „klassischen“ Datensilos vertreten, aktuell werden in den Firmen mit den HCI (Hyperkonvergenten Infrastrukturen) die Daten wieder auf viele einzelne Knoten „verteilt“. Aber auch beim Thema „Archivierung und Backup“ scheiden sich die Geister. Besonders knifflig werden Lösungsansätze, die mit den „Altlasten“ in den Unternehmen klarkommen müssen, besonders wenn das zur Verfügung gestellte Budget eng abgesteckt wurde. Aktuell spielen in diese Überlegungen auch Punkte wie Internet of Things (IoT) oder Apps sowie „Container“ eine immer wichtigere Rolle. Im Hinblick auf die EU-DSGVO (Datenschutz Grundverordnung) darf dabei die Sicherheit allerdings nicht zu kurz kommen. Welche Lösung zu bestimmten Unternehmen bei gewissen Einsatzszenarien passen, erläutern die MTI-ExpertenPeter Bilicki“ und „Sebastian Paul“.

 

NT4ADMINS: Wie hilft die MTI den Unternehmen, passende Lösungen im Storage-Bereich zu finden? Schließlich haben die Unternehmen die Wahl zwischen kommerziellen Software-Lösungen, Open-Source-Anwendungen und Komplettlösungen in Form von Storage-Appliances. Dabei spielt auch der Medienmix (etwa HDD, Flash, Bandlaufwerke, Cloud-Storage) eine größere Rolle, besonders im Hinblick auf die Hochverfügbarkeit sowie der benötigten Resistenz gegen Ransomware-Angriffe.

Bilicki: Der Kunde steht bei diesen All-in-One-Appliances vor einem großen Portfolio von unterschiedlichen Herstellern. Ob das nun ein System von EMC ist, oder eine Appliance wie etwa von Excelsis: In der Regel nutzen die Firmen kostenpflichtige Komplettlösungen. Denn auf diese Weise ist zumindest sichergestellt, dass bei Problemen eine Anlaufstelle (Händler, Hersteller) vorhanden ist. Im Gegensatz dazu sehen wir den Einsatz von Open Source Lösungen nur sehr selten. Der Hintergrund ist folgender: Die benötigten Spezialisten für den Einsatz von DIY-Open-Source-Lösungen sind in den Unternehmen meist nicht vorhanden, zudem kämpfen die Firmen in der Regel eh damit, genügend Leute für das IT-Management zu finden und im Unternehmen zu halten. Da macht es in der Regel mehr Sinn, eine „Fix-und-Fertig-Komplettlösung“ zu kaufen, anstatt selbst eine Lösung zu entwickeln. An dieser Stelle spielt MTI auch seine Stärken aus, beispielsweise wenn größere Kunden eine funktionierende, aber auf bestimmte Gegebenheiten abgestimmte Lösung benötigt. MTI entwickelt dabei eine entsprechende Lösung für den Kunden, und garantiert dabei für die Funktion, Weiterentwicklung und eine möglichst reibungslose Anpassung. Quasi das personifizierte Rundum-Sorglos-Paket.

NT4ADMINS: Open-Source ist aufgrund der Komplexität und des Personalmangels laut ihrer Aussage nicht gefragt. Aber wie sieht es etwa mit Windows-Bordmittels aus, beispielsweise Storage Spaces Direct?

Bilicki: Storages Spaces sehen wir bei unseren Kunden öfter, denn dabei handelt es sich ja um eine „fertige Lösung“. Open Stack oder ZFS (Open Source Dateisystem von Sun Microsystems) dagegen taucht bei unseren Kunden nicht auf. Entweder fehlen die Spezialisten, oder das vorhandene Personal hat nicht die Zeit, sich um den Aufbau oder die Implementierung von „Eigenlösungen“ zu kümmern.

Paul: Beim Open-Source benötigt man auf der einen Seite die personellen Ressourcen, dafür spart man sich auf der anderen Seite Lizenzkosten. Das ist sicherlich nicht für jede Firma sinnvoll. Sehen wir uns die aktuellen Anforderungen einmal an: Die Firmen wollen unterschiedliche Anwendungen, Dienste oder Datensätze betreiben. Dabei steht ein gewisser SLA dahinter (Service-Level-Agreement), dieser wird definiert, und der Dienst verfügbar gemacht. Wo diese Ressourcen auf der Welt betrieben werden, ist eigentlich egal.

NT4ADMINS: Wie sieht es beim Thema Hyperkonvergente Infrastrukturen und den entsprechenden Backups aus?

Paul: Die Wahrnehmung beim Thema Backup verändert sich, auch bedingt durch die bereits angesprochenen Anforderungen: Apps und Ressourcen müssen verfügbar sein, unabhängig vom Ort des physikalischen Serverraums, Datenzentrums oder ähnliches. Dabei spielen Hyperkonvergente Infrastrukturen (HCI) eine immer größere Rolle, schließlich wird genau die Anforderung mit dieser Technologie bestens bedient. Denn aktuelle Systeme sollten sich „selbstständig“ um Datensicherungen kümmern. Der Systemverantwortliche gibt beispielsweise vor, dass bestimmte Systeme oder Daten in gewissen Abständen (beispielsweise alle drei Stunden) gesichert werden sollen, und das System führt dies nach der Erstkonfiguration selbstständig durch.

Ein weiteres wichtiges Detail bei HCI-Systemen von EMC, Cohesity, Datacore oder Nutanix sind die kurzen Release-Zeiten. Bereits nach wenigen Wochen (vier bis acht) steht „schon wieder“ ein neues Feature-Update bereit, oder es kommen zusätzliche Funktionen hinzu. Diese Update-Zyklen werden von den Herstellern in der letzten Zeit deutlich verringert. Ein Beispiel dafür ist Veam mit ihrer „Backup&Replication“-Software: Bisher wurde jedes Jahr ein größeres Release vorgestellt, inzwischen kommt einmal pro Quartal ein größeres Softwarepaket als Update. Auch hier ist geplant, die Zyklen immer weiter zu verkleinern, und pro Jahr noch mehr „Mini-Releases“ bereitzustellen. Das passende Stichwort dazu lautet: „Agile Programmierung“.

NT4ADMINS: Nachteilig bei diesen Mini-Releases und beinahe kontinuierlichen Veränderungen ist allerdings, dass teilweise Layout und bestimmte Funktionen verändert werden. Für gewisse Anwender ist das negativ behaftet. Etwa hört man schnell Beschwerden wie „Mein Outlook sieht plötzlich ganz anders aus, ich will das aber wieder so haben wie gestern!“.

Paul: Ja, das sind die „Steinzeit-Anwender“, diese findet man immer in den Unternehmen, und muss versuchen sie „abzuholen“. Früher hatte man etwa bei den angesprochenen Office-Paketen so fünf bis sechs Jahre, bis eine Software-Version im Unternehmen ausgetauscht wurde. Das ist mit kurzen Innovationszyklen heute anders. Früher mussten sich die Mitarbeiter etwa nach fünf Jahren an eine neue „Version gewöhnen“. Aktuell kommen teilweise nach wenigen Wochen neue Features hinzu. Vereinfacht gesagt: Wir sehen da vor allem jüngere Mitarbeiter, die sich über aktuelle Funktionen, frisches Design oder neue Features „freuen“, auch wenn die Buttons oder die Menüführung geändert wird. Bei den älteren Mitarbeitern dauert es unter Umständen etwas länger, aber letztendlich werden die Softwarepakete von den Mitarbeitern relativ zügig akzeptiert. Aber man kann die Flexibilität der Mitarbeiter nicht unbedingt am Alter festmachen, es gibt auch genug junge Leute, die bei einem Softwareupdate erst einmal nur „Bahnhof“ verstehen.

Bilicki: Inzwischen konzentrieren sich die Programmierer auf ihre Algorithmen, und nicht auf die Bereitstellung der Infrastruktur, Software oder Laufzeitumgebungen. Sprich man kauft sich entsprechende Hard- und Software ein, und versucht dadurch, das Management und die Bereitstellung möglichst nicht selbst in die Hand nehmen zu müssen. Viele Firmen benötigen inzwischen nicht mehr den Unix- Linux- oder Windows-Spezialisten, sondern eher den Spezialisten für die passenden Algorithmen. Aber nicht nur bei der Bereitstellung der Hardware- und Betriebssystem-Basis verändert sich aktuelle die Aufgabe des Programmierers. Oftmals setzen die Firmen schon auf Container-Lösungen wie Kubernetes. Das bringt unterschiedliche Vorteile: Früher müsste der Entwickler noch sämtliche Funktionen, Prozesse und Module selbst entwickeln (etwa um einen Benutzer zu authentifizieren), aktuell lässt sich ein derartiger Anmeldungs- oder Authentifizierungs- Container quasi plattformübergreifend bereitstellen. Und das gilt für alle benötigten Module, auf diese Weise lässt sich die Softwareentwicklung sehr gut vereinfachen. Das verändert auch die Anforderungen an die Storage-Infrastruktur. Der Speicher muss folglich in der Lage sein, bestimmte Speicherplatzmengen und „Bandbreiten“ granular zur Verfügung zu stellen, Etwa wenn ein Container für einen kurzen Zeitraum von wenigen Minuten einige GByte an Speicherplatz benötigt, und diese nach kurzer Zeit wieder abgegeben werden soll. Aktuelle Storage-Systeme können derartige Anforderungen meist nicht erfüllen. Typische LUNs (Logical Unit Numbers) oder Storage-Shares müssen klassischerweise vom Administrator eingerichtet und freigegeben werden. Diese Konzepte sind für eine granulare Container-Anwendungsarchitektur viel zu unflexibel. Wie bei Kubernetes muss die Kommunikation zwischen den Anwendungen, Containern und der Verwaltungs- und Hardwareinfrastruktur vollautomatisch ablaufen.

Auch auftretende Fehler lassen sich so in der Regel schnell und effektiv reparieren. Befindet sich etwa einem Bug im „Anmeldecontainer“, kann dieser schnell ausgetauscht werden. Leider ist ein Großteil der aktuellen Software-Lösungen noch nicht bereit für eine „Containerisierung“, hier müssen die Softwarehersteller noch nachbessern, und neue Konzepte verfolgen. Bestimmte Softwarelösungen sind auch nicht dafür ausgelegt. So macht es sicherlich keinen Sinn eine große In-Memory-Datenbank wie SAP HANA in winzige Container zu zerlegen. Andere Softwarekonzepte schreien dagegen nach einer solchen Modularität.

NT4ADMINS: Container und modulare Datenverarbeitung verändert auch die Aufbereitung der anfallenden Daten, etwa strukturierte oder unstrukturierte Daten von IoT-Systemen oder Sensoren. Dabei kann man nun die anfallenden Informationen zunächst auf den Geräten verarbeiten, sortieren, klassifizieren, und danach erst weiterleiten (etwa an eine Datenbank oder an ein Storage-System). Alternativ kann auch der Weg beschritten werden, alles zunächst einmal „wegzuschreiben“, und danach erst die Daten zu analysieren. Welche Vor- und Nachteile bieten die beiden Methoden?

Paul: Diese Daten entstehen ja ständig – etwa beim autonomen Fahren oder bei IoT-Konzepten – und müssen so schnell wie möglich „weggeschrieben“ werden. In der Regel wird die Analyse erst nach dem Transfer in einen persistenten Speicherbereich vorgenommen. Oftmals hören wir von Kunden die Anfrage: „Ich brauche vor allem Platz, um die Daten zunächst einmal abzuspeichern.“. Nachgelagert ist dann meist eine moderne Applikation vorhanden, die eine Analyse oder Auswertung der erzeugten und abgespeicherten Datensätze vornimmt.

Bilicki: An dieser Stelle ist der Objekt-Storage prädestiniert. Denn IoT-Daten haben meist keine gleichmäßige Struktur. Daher gilt es die Quelle zu identifizieren (etwa Sensor-023), die Daten auszulesen, auszuwerten und gegebenenfalls die Daten schnell zu entfernen. Viele Datensätze stellen sich bei der Auswertung als nutzlos heraus, und verschwenden Speicherplatz. Aber bei IoT ist es meist wichtiger, auf andere Bereiche als den Storage zu achten. Besonders die Sicherheit sollte dabei an erster Stelle stehen.

Mit den klassischen Ansätzen (Virenschutzlösungen, Firewalls auf den Servern) kann man bei IoT nicht viel erreichen. Vielversprechende Ansätze bietet etwa der Einsatz von Blockchain, etwa um die Authentizität von Datenpaketen zu prüfen. Diese Methoden stecken momentan noch in den Kinderschuhen, werden aber in kürze immer wichtiger. Besonders kleine IoT-Geräte haben ja nur sehr begrenzte Ressourcen, etwa geringe CPU-Leistung, kleine Firmware und oftmals nur sehr eingeschränkten Hauptspeicher oder kaum persistenten Speicher. Daher müssen die einzelnen Datenpakete auf einfache und möglichst sichere Weise markiert werden. Ansonsten kann man sich nicht sicher sein, ob ein bestimmtes Datenpaket wirklich von einem bestimmten Sensor kommt.

Paul: In der Automobiltechnologie steht man vor ähnlichen Problemen, Hier schließen sich aktuell viele Unternehmen der IOTA Foundation an, mit dem Ziel bestimmte Geräte (etwa Tachometer im Auto) manipulationssicher zu machen. Bei diesem Thema sind noch viele Forschungen zu betreiben, neue Techniken zu entwickeln und gesetzliche Hürden zu umgehen. Dabei schließt sich der Kreis zur DSGVO, denn wenn ich einen Datensatz mit Hilfe der Blockchain identifizieren kann, und sich dieser auf allen Systemen der Kette befindet, wie soll ich diesen nach DSGVO löschen, etwa wenn personenbezogenen Informationen in diesen Datensätzen vorhanden sind?

Florian Huttenloher

Lesen Sie auch