Die Nutzung von schnellem Zwischenspeicher in Storage-Systemen ist ein alter Hut und reicht bis in die achtziger Jahre zurück. Als „Flash-Cache“ eingesetzt, machen heutige SSD-Massenspeicher jedoch aufgrund der stetig gestiegenen Speichervolumina und gefallenen Kosten pro Gigabyte neue Anwendungen im Mittelstand und bei KMU möglich, die bislang Großunternehmen vorbehalten waren.
Das Ausmaß, mit dem die bedeutendsten IT-Komponenten in den letzten vier Jahrzehnten leistungsfähiger geworden sind, ist immer wieder beeindruckend. Seit 1975 hat sich die Taktfrequenz von Mikroprozessoren um das 40.000-Fache und die Zahl der verbauten Transistoren pro CPU um das Einmillionfache (!) erhöht. Die Hauptspeicher-(RAM-)Ausstattung des Apple I, des legendären ersten Mikrocomputers der beiden Apple-Gründer Steve Jobs und Steve Wozniak, betrug mit 4 Kilobyte exakt ein Millionstel dessen, was in heutigen PCs und Notebooks als Minimalausstattung daherkommt.
Lediglich bei der Komponente „Massenspeicher“ ist keine so dynamische Entwicklung zu beobachten. Zugegeben: Die Festplatten-Speicherkapazitäten von 5 MB, wie sie in den 70ern üblich waren, werden von heutigen Laufwerken um das Einmillionfache übertroffen. Ebenso ist der Preis pro Speichersystem drastisch gesunken: Musste man für IBMs marktführendes Festplattensystem „RAMAC“ mit 5 MB Kapazität damals inflationsbereinigt über eine Million Euro für Anschaffung und Betrieb entrichten, gibt es heute 5 Terabyte für etwa ein Zehntausendstel der damaligen Kosten.
Schauen wir jedoch auf die mittlere Zugriffszeit, also auf die Zeitspanne, die eine Festplatte benötigt, um ein bestimmtes Datum abzurufen und bereitzustellen, so liegt der Verbesserungsfaktor zwischen 1975 und 2015 lediglich beim Hundertfachen. Anders ausgedrückt: Um den eine Million mal größeren Datenbestand zu bearbeiten, steht den Festplatten heute gerade einmal die hundertfache Geschwindigkeit zur Verfügung. Pro einzelnes Datum und den möglichen Zugriff darauf betrachtet, sind die heutigen Festplatten somit um den Faktor 10.000 langsamer geworden.
Der Flaschenhals heutiger Computer ist also, wie schon vor 40 Jahren, die Festplatte und die durch sie maximal möglichen Ein-/Ausgabeoperationen pro Sekunde, auch als „IOPS“ abgekürzt. Hier ist der größtmögliche Effekt zu erzielen, will man die Gesamtperformance von Rechnern steigern. Statt mit der Wahl eines anderen Prozessors wenige Prozente mehr Leistung herauszukitzeln, wartet beim Massenspeicher ein Leistungsschub auf uns, den man am ehesten mit dem Flug in einem SpaceShuttle vergleichen kann, statt sich auf dem Rücken einer Schildkröte sitzend fortzubewegen.
Die schlechte Nachricht vorweg: Dieser Leistungsschub um das 10.000-Fache ist technisch noch nicht machbar.
Die gute Nachricht lautet jedoch: In den Forschungslaboren weltweit werden derart leistungsfähige Speichersysteme bereits als Prototypen getestet. Und was heute bereits erschwinglich ist und in ausreichenden Stückzahlen bereitsteht, nämlich die SSD oder „Solid State Disk“, bietet mit dem 40- bis 400-Fachen an IOPS im Vergleich zu herkömmlichen Festplatten sowie einer hundertfach kürzeren, mittleren Zugriffszeit bereits eine mögliche Leistungssteigerung in Ausmaßen an, wie wir sie von Prozessoren in den nächsten zehn Jahren nicht zu erwarten haben.
Kein Wunder also, dass SSD-Speicher in immer mehr Systemen zum Einsatz kommen. Zuvorderst trifft man sie in mobilen Devices wie Smartphones und Tablets an, da bei diesen Geräten nicht nur die höhere Performance, sondern auch die geringeren Abmessungen und die größere Unempfindlichkeit gegenüber Stößen und anderen Umwelteinflüssen eine Rolle spielen. Aber auch in hochwertigen Notebooks und Computern finden sich zunehmend Flash-Speicher, weil dort der im Vergleich zu Festplatten immer noch deutlich höhere Preis weniger ins Gewicht fällt als im heiß umkämpften Massenmarkt der günstigen Heim- und Büro-PCs.
Der – nach dem Einsatz in mobilen Devices – wichtigste Markt für SSDs ist jedoch der Server- und Netzwerkspeicher-Markt. Alle namhaften Hersteller wie Hewlett-Packard Enterprise, NetApp, Hitachi Datasystems, IBM oder EMC/Dell führen sogenannte „All-Flash-Arrays“ im Portfolio, also Systeme, die ausschließlich mit SSDs und nicht mehr mit traditionellen Festplatten bestückt werden. Wer jedoch vor dem Hintergrund der Marketingaussagen, ein All-Flash-Array für weniger als 20.000 Euro erwerben zu können, seine bestehende NAS- bzw. SAN-Infrastrukturen schnellstmöglich ausmisten möchte, wird rasch enttäuscht. Rechnet man Wartungsgebühren, nötige Software-Lizenzen und die dem zu erwartenden Datenwachstum geschuldete, zusätzlich benötigte Speicherkapazität hinzu, landet man unweigerlich in Mittelstands-inkompatiblen Preisregionen. Für kleinere Unternehmen ohne eigene IT-Abteilung und mit begrenztem IT-Budget ist der Einsatz von Flash-Speichern ohnehin unerschwinglich.
Wirklich?
Das zu glauben hieße, den IT-Markt und seine Wandlungs- und Anpassungsfähigkeit zu unterschätzen. Marktreife Technologien schnellstmöglich in bestehende Produkte zu integrieren oder mit ihrer Hilfe völlig neue Lösungen zu kreieren, zeichnete diese Branche schon immer aus. Mittlerweile hat sich rund um die SSD ein breites Ökosystem etabliert, das den Flashspeicher in zahlreichen Anwendungsfeldern nutzbringend einzusetzen weiß. So gibt es beispielsweise seit einigen Jahren von mehreren Herstellern Cache-Lösungen für Einzelplatz-PCs, bei denen eine SSD vor eine großvolumige Datenfestplatte geschaltet wird.
Auch im Server- und Netzwerkstorage-Umfeld tun sich verschiedene Anbieter mit spezieller Cache-Soft- und Hardware hervor, die das beste aus beiden Welten verbinden: die hundertfach höhere I/O-Geschwindigkeit der SSDs mit den niedrigen Kosten der HDDs. Nirgends sonst kann die Flash-Technologie ihre Vorteile besser ausspielen als bei den traditionell I/O-lastigen virtuellen Umgebungen, die heute die Unternehmens-Rechenzentren bestimmen. Hauptgrund hierfür ist der sogenannte I/O-Blender-Effekt; er beschreibt – vereinfacht ausgedrückt – den Umstand, dass die vom Storage-System gelieferte I/O-Leistung mit jeder zusätzlichen virtuellen Maschine, die auf ihm abgelegt wird, überproportional stark abnimmt. Ein Beispiel zur Veranschaulichung: Liefert ein Storage-Array bei 10 darauf gespeicherten virtuellen Maschinen (VM) noch 100 IOPS pro VM, leistet es bei 20 VMs nicht die proportionalen 50, sondern nur noch 25 IOPS pro VM. Die Summe aller IOPS beträgt somit nicht mehr 1.000, sondern nur noch 500. Die Ursache liegt in den gehäuft auftretenden Repositionierungen der Festplatten-Schreib-/Leseköpfe; immer weniger Daten können pro Sekunde ausgelesen werden.
Das Storage-Array verwaltet sich schlichtweg zu Tode. Die Anwender konstatieren eine sinkende Performance und äußern ihre Unzufriedenheit gegenüber der IT-Abteilung. Diese kann nur durch ein Erweitern der vorhandenen Storage-Infrastruktur reagieren, muss Budgetplanungen über den Haufen werfen und gerät mit dem Controlling aneinander. In kleineren Unternehmen sind die Infrastrukturen zwar kleiner, die Anwenderbeschwerden jedoch die gleichen. Hier wird dann gern mal ein kostengünstiges NAS zum VMware- oder Hyper-V-Storage aufgebohrt und über die Bedenken in Bezug auf die höhere Ausfallrate, komplexere Administration oder eingeschränkte Backup-Funktionalität aus schierer Not heraus hinweggesehen.
In größeren Speicherumgebungen kommt seit vielen Jahren Storage Tiering zum Einsatz, eine Methode, mit der Daten entsprechend ihrer Zugriffshäufigkeit auf unterschiedlichen Speichermedien abgelegt werden. Storage Tiering ist elementarer Produkt-Bestandteil in allen namhaften Hardware-Lösungen.
Ein führender Software-Anbieter in diesem Umfeld ist DataCore, der es der IT-Abteilung ermöglicht, die über Jahre gewachsene Speicherstruktur im Unternehmen beizubehalten und gleichzeitig leistungsfähige neue, äußerst flexibel und schnell bereitzustellende Speicherdienste anzubieten, die für den Betrieb von Private-Cloud-Lösungen zwingend erforderlich sind. Für kleinere NAS-/SAN-Umgebungen oder für an Servern direkt angeschlossenen Speicher („Direct Attached Storage“ bzw. „DAS“) erweist sich die von DataCore angebotene Lösung oftmals als zu teuer in der Anschaffung und zu aufwendig in der Implementierung und im Betrieb.
Hier setzen spezielle SSD-Caching-Anwendungen an, die es von verschiedenen Herstellern gibt. Exemplarisch möchte ich auf die Lösung von Hewlett-Packard Enterprise näher eingehen, die in DAS-Umgebungen hervorragende Dienste leistet. HP SmartCache bietet für einen Preispunkt von wenigen hundert Euro die Möglichkeit der SSD-Beschleunigung, ohne komplexe Storage-Tiering-Mechanismen einführen zu müssen. Die Software kann als reiner Lese- oder Schreib-/Lese-Cache eingesetzt werden und lädt automatisch die „heißen“, also oft abgerufenen, Daten in die angeschlossenen SSD-Laufwerke.
Aufgrund der hohen IOPS-Raten von aktuellen SSD-Speichern von 50.000 und mehr erzielt man laut Hersteller eine Anwendungsbeschleunigung um das Vierfache – und dieser Wert ist mehr als realistisch. Wir können inzwischen auf Erfahrungen aus mehreren dutzend Implementierungen zurückgreifen, die die Herstellerangaben definitiv bestätigen. Den eindrucksvollsten Effekt wusste ein Kunde aus der KFZ-Branche zu berichten: Der Export der Geschäftsdaten aus seiner ERP-Software hin zu Excel dauerte vor der Umstellung mehr als fünf Minuten, hinterher nur noch 10 Sekunden.
Ähnlich beeindruckend sind die Geschwindigkeitsvorteile, die sich bei der täglichen Arbeit ergeben. Jede Dateneingabe, jedes Öffnen und Schließen von Dialogfeldern, buchstäblich jeder Mausklick geht spürbar schneller vonstatten, was bei den Anwendern aufgrund des massiven Multiplikator-Effekts (viele hundert Eingaben pro PC und Tag mal mehrere dutzend oder hundert Anwender mal 200 Werktage pro Jahr) eine deutlich messbare Produktivitätssteigerung zur Folge hat. Vom positiven Nebeneffekt der besseren Serviceerfahrung durch die Anwender und des gesunkenen Anrufaufkommens im IT-Helpdesk ganz zu schweigen.
In größeren IT-Umgebungen, in denen Netzwerkspeicher zum Einsatz kommen, lässt sich mit SSD-Caching ebenfalls ein substanzieller Leistungsschub erzielen. Wir haben gute Erfahrungen mit einem selbst entwickelten iSCSI-Storage gemacht, das auf Open Source aufsetzt, wahlweise oder kombiniert als Block- oder als File-Storage und ab 1.000 Euro pro Terabyte bei einer SSD-zu-HDD-Ratio von 1:10 erhältlich ist. Die Leistungsdaten unseres Storage-Arrays und vergleichbarer Systeme anderer Hersteller reichen so dicht an All-Flash-Speicher heran, dass in den allermeisten Fällen auf die deutlich teurere Lösung verzichtet werden kann.
Nicht nur in virtualisierten Infrastrukturen lassen sich deutliche Leistungssteigerungen durch den Einsatz von Flash Cache erzielen. Auch bei I/O-hungrigen Anwendungen, die außerhalb der Hersteller-Spezifikationen betrieben werden oder bei Software, die aufgrund ihrer besonderen Programmierung mit zunehmender Nutzungsdauer immer langsamer wird, ist SSD-Caching ein bewährtes Schmerzmittel. Es ermöglicht den Entscheidern, Nachfolgelösungen auszuwählen und zu testen, ohne durch zunehmende Behinderungen des Tagesgeschäfts unter Zeitdruck gesetzt zu werden.
Bei kleineren Unternehmen haben sich in der Vergangenheit einige Lösungen der Haufe-Gruppe („Lexware“) hin und wieder als „störrisch“ erwiesen und konnten mit dem Wachstum des einsetzenden Unternehmens nicht Schritt halten. Die Auslagerung der Anwendungen und Daten auf ein durch Flash Cache beschleunigtes Speichersystem führten in allen Fällen zu einer positiven Rückmeldung durch die Anwender, die ausnahmslos von einer deutlichen Performancesteigerung berichteten, in einigen Fällen sogar um ein Vielfaches.
Bei einigen wenigen Anwendungsszenarien stellt sich durch SSD-Caching kein signifikanter Performanceschub ein oder ergeben sich sogar bedeutende Nachteile. Bei kontinuierlichem, sequenziellem Datenzugriff, wie er etwa bei der Datensicherung oder beim Video-Streaming vorkommt, können die SSDs ihre Vorteile nicht ausspielen, da es hier nicht auf hohe I/O-Raten ankommt. Darüber hinaus nutzen sich die SSD-Speicherzellen bei extensiver sequenzieller Nutzung schneller ab, weil sie ständig mit neuen Inhalten beschrieben werden müssen, was zu einer verkürzten Lebensdauer führt.
Fazit: Wer nicht gerade seine Backup-NAS-Systeme mit Flash-Cache ausstatten will oder Petabytes an Videodaten auf seinen Speichersystemen zum Abruf vorhält, der profitiert deutlich von SSD-Caching auf seinen Speichersystemen. Gerade virtualisierte Umgebungen, deren Verbreitung durch den Trend zur privaten bzw. hybriden Cloud noch weiter zunehmen wird, erhalten den zwingend benötigten Leistungsschub.
Eine gute Planung ist gleichwohl unerlässlich, um teure Fehlkäufe zu vermeiden und die Storage-Infrastruktur für das Datenwachstum und die Leistungsanforderungen der nächsten Jahre sturmfest zu gestalten.