NAS-Datenrettung: Weniger ist (meist) mehr

20. Juni 2017

Ob zuhause im Arbeits- oder Wohnzimmer oder im Unternehmen – der Durchbruch der Network Attached Storages (NAS) setzt sich immer weiter fort. Laut dem Markforschungsinstitut Beige Market Intelligence soll sich der weltweite Markt von derzeit 17 Milliarden US-Dollar bis 2021 auf 44 Milliarden US-Dollar mehr als verdoppeln. Der Grund dafür ist einfach: NAS-Systeme lassen sich relativ einfach an die vorhandene IT-Umgebung anschließen und administrieren. Zudem sind sie im Vergleich zu High-End-Storage-Lösungen meist deutlich günstiger. Ein Faktor, der nicht nur Heimanwender überzeugt, sondern mittlerweile auch große Firmen und sogar Cloud-Rechenzentren, die mit Enterprise-NAS-Lösungen schnell auf das wachsende Datenvolumen ihrer Kunden reagieren.

 

Trotz dieser Vorteile gibt es allerdings auch einen Nachteil, der meist erst dann erkannt wird, wenn es zu spät ist: Wenn es zu Ausfällen oder Problemen kommt und dabei zu einem Datenverlust, ist eine Datenrettung meist genauso schwierig wie bei einer ausgewachsenen High-End-Storage-Lösung oder einem Server namhafter Hersteller. Und zwar egal, ob es sich um ein günstiges Heim-NAS handelt oder um eine Enterprise-Lösung für den Firmeneinsatz. Der Grund liegt in der wachsenden Zahl parallel eingesetzter Technologien.

NAS-Lösungen für Consumer & kleine und mittlere Unternehmen

Schaut man sich die typischen kleinen NAS-Lösungen für den Heimanwender der Hersteller QNAP, Buffalo, Netgear oder Synology bis zu einem Preis von rund 500 Euro an, so stellt man schnell fest, dass hier bei der Hardware im Wesentlichen nur die wichtigsten Teile zusammengebaut wurden – ohne viel Schnickschnack. Meist handelt es sich um ein Gehäuse mit bis zu zwei leeren Festplattenslots, einen Prozessor und Arbeitsspeicher sowie ein Gigabit-LAN-Interface. Neben einem Betriebssystem (meist auf Linux-Basis), haben einige Geräte auch spezielle Linux-Dateisysteme wie XFS, Btrfs oder Ext4 im Gepäck, die die Daten auf dem NAS in ihrem jeweiligen Format abspeichern.

Nach dem Einbau der bis zu 10 TB großen Festplatten eigener Wahl werden diese Klein-NAS oft unter dem kostenlosen Linux-Server-System Samba als SMB im Netzwerk betrieben. Darüber hinaus verfügen diese Lösungen meist auch über günstige Backup-Software-Lösungen und lassen sich sowohl als Fileserver wie auch als Medienserver betreiben. Technisch sind hier meist zwar  keine Wunder zu erwarten, allerdings basieren bereits diese Modelle bereits schon auf drei hochkomplexen Technologien: Thin-Provisioning in Verbindung mit Storage-Virtualisierung sowie RAID.

Thin-Provisioning bezeichnet hierbei die Möglichkeit der Bereitstellung von Speicherplatz in einem virtualisierten Storage. Damit bedeutet Thin-Provisioning nichts weiter als dass man bei dem Betriebssystem einen (gewünschten) maximalen Speicherplatz festlegt und zwar unabhängig davon, ob er tatsächlich physikalisch oder virtuell vorhanden ist. Stellt man also die Speicherplatz-Einstellungen zu hoch ein und hat später nicht mehr den benötigten Platz zur Verfügung, kann es zu einem Absturz, einem Stillstand der laufenden Anwendungen oder zu einem Datenverlust kommen. Und das bei Hardware, die für Consumer gedacht ist.

Zudem bieten bereits diese kleinen NAS-Systeme RAID-Festplatten-Level. Eigentlich sind ja RAID-Systeme unter anderem dafür geschaffen worden, einen zusätzlichen Schutz vor Festplattenausfällen zu bieten. Bei diesen kleinen NAS-Lösungen allerdings gibt es nur eine sichere“ Variante – nämlich RAID 1 – die einen Schutz durch Datenspiegelung verspricht.

Die andere meist angebotene Variante, RAID 0, hilft dagegen nicht gegen einen Ausfall, sondern ganz im Gegenteil. Da hier alle Daten über beide Festplatten verteilt werden, verliert man beim Ausfall nur einer Festplatte bereits alle Daten. (Nun gut, manche können von einem Datenretter noch gerettet werden, aber richtiger Schutz sieht anders aus).

Wenn dann so ein schwaches RAID-Level mit Virtualisierung und kombiniert mit übertriebenem Thin-Provisioning in einem NAS aufgesetzt wird, dann braucht es bei einem Festplattenausfall oder anderen Systemproblemen nicht mehr besonders viel, dass das komplette System aussteigt und es zu einem schweren Datenverlust kommt. In diesem Fall müssten die Datenretter mindestens vier verschiedene Dateischichten bearbeiten, um die eigentlichen verlorenen Daten wiederherzustellen.

Wenn man mehr Geld ausgibt, besteht die Möglichkeit ein Consumer-NAS-Angebot zu erwerben, dass mehr Slots für Festplatten in seinem Gehäuse unterbringen kann. Dann ist es möglich RAID 5 (mit mindestens drei HDDs oder SSDs) oder RAID 6 Arrays (mit mindestens vier HDDs/SSDs) zu betreiben. Trotz des dadurch vorhandenen Schutzes vor einem Datenverlust durch Festplattenausfall, ist es in der Praxis dennoch möglich, dass gleich mehrere Platten ausfallen. Eine Wiederherstellung der Daten ist dann deutlich zeitaufwendiger und schwieriger, da die Datenfragmente auf allen Festplatten gesucht und wiederzusammengebaut werden müssen. In Kombination mit Thin-Provisioning und Virtualisierung kommt es dann zu einer weiteren Eskalation bei der Arbeit von professionellen Datenrettern.

 

Enterprise NAS-Lösungen

Richtig problematisch, wenn es zu einem Datenverlust kommt, wird es aber bei den teureren Enterprise-NAS-Systemen. Diese Lösungen für Unternehmen sind nicht nur deutlich teurer als die für den Heimanwender oder KMUs gedachten, sondern sie bieten auch eine Vielzahl von Funktionen und eingesetzten Technologien, die bei den kleineren Brüdern schlichtweg nicht vorhanden sind und die Komplexität nochmals erhöhen.

Eine dieser Technologien, die bei den Enterprise-NAS-Lösungen häufig anzutreffen ist, ist die Deduplizierung. Mittels dieser Technologie sollen doppelt oder mehrfach vorhandene Datenblöcke nur einmal „richtig“ innerhalb des gesamten „Datensees“ abgespeichert werden. Die Duplikate dagegen werden von kleineren Dateien als Platzhalter ersetzt, diese Verweisdateien und die Verbindungen mit den Originaldateien werden innerhalb einer Tabelle gespeichert, sodass insgesamt deutlich weniger Speicherplatz benötigt wird. Anderseits muss dann vom System ständig auf diese Tabelle zugegriffen werden und zurück auf die Originaldatei verwiesen werden, wenn ein „Duplikat“ vom Nutzer angefragt wird.

Im Falle eines gravierenden Systemcrashs mit fehlendem Zugriff auf die Verweisdatei bzw. auf diese Tabelle stehen nicht nur die Anwender vor einem (realen oder vermeintlichen) Datenverlust, sondern auch die Datenretter. Oftmals müssen sie – zusätzlich zur Wiederherstellung des RAID-Systems und der Virtualisierungsschicht sowie der Behebung des Thin-Provisionings – dann auch noch die Deduplizierungs-Tabellen wiederfinden und restaurieren, um an die Daten zu gelangen.

Die im Vergleich zu den High-End-Storage-Lösungen günstigeren und einfach zu betreibenden NAS-Systeme – egal ob Consumer/KMU-Lösungen oder Enterprise-Class-Systeme – sind heutzutage technisch genauso komplex wie die bisherigen und teureren High-End-Storage-Server-Lösungen namhafter Anbieter. Wenn alles problemlos läuft, hat man ein einfach zu administrierendes, skalierbares und kostensparendes System, mit dem man innerhalb eines Netzwerks schnell und einfach auf Daten zugreifen und diese abspeichern kann. Wenn es allerdings zu Problemen kommt, sind die meisten Anwender und auch Administratoren aufgrund der vielen verschiedenen Technologien in der Regel überfordert.

Für Datenrettungsspezialisten sind deshalb verlorengegangene oder versehentlich gelöschte Daten von einem gecrashten oder ausgefallenen NAS-System genauso herausfordernd bei der Wiederherstellung wie eine High-End-Storage- oder -Server-Lösung.

Deshalb ist es wichtig, sich bereits vor Inbetriebnahme des neuen NAS intensiv mit dem späteren Design der Netzwerklösung innerhalb der IT-Infrastruktur zu beschäftigen. In Abhängigkeit des gewünschten Projektziels – was soll das NAS leisten und welche Technologien sind dafür wirklich nötig – sollte hier bis ins Detail festgelegt werden, welche Einstellungen und Funktionen genutzt werden sollen. Schließlich sollte hierüber eine Dokumentation mit allen wichtigen Daten angelegt werden, um darauf bei auftretenden Problemen schnell zurückgreifen zu können.

Schließlich gilt besonders bei den eingesetzten Technologien in NAS-Systemen – und bei günstigen Lösungen umso mehr – weniger ist mehr! Nicht jedes Feature, das das Produkt anbietet, muss auch angewendet bzw. eingeschaltet werden. Wie dargestellt, führt das im schlimmsten Datenrettungsfall nur dazu, dass diese deutlich schwieriger, zeitaufwendiger und deshalb auch kostspieliger werden kann.

Fazit

Sollte es trotz aller Vorsichtsmaßnahme aber doch zu einem Ausfall und zu Datenverlust kommen, sollte man auf keinen Fall versuchen das Problem allein zu beheben, wenn man nicht sehr gute und detaillierte Kenntnisse über den Aufbau seiner Lösung hat. Kaum ein Nutzer oder Mitarbeiter hat wirklich so tiefgreifende Kenntnisse über Virtualisierung, RAID, Thin-Provisioning, Deduplizierung und andere, miteinander kombinierte Technologien, um seine Daten selbständig zu retten. In den allermeisten Fällen sollte man sich lieber an einen professionellen Datenrettungsdienstleister wie Kroll Ontrack wenden, der bereits eine Vielzahl von Datenwiederherstellung im NAS-Umfeld erfolgreich durchgeführt hat.

Michael Nuncic, Marketing Communications Manager bei Kroll Ontrack GmbH

Lesen Sie auch