Infinidat Blog

Schluss mit Risiko: Neue Ansätze für Enterprise-Storage-Updates (Teil 1)

De-Risking Enterprise Storage Upgrades (Part 1)

Gast-Blogger: Eric Burgener, Research Vice President, Infrastructure Systems, Platforms and Technologies, IDC

Im Laufe des Lebenszyklus einer Enterprise-Storage-Plattform führen Administratoren eine Vielzahl an Upgrades durch. Mit „Upgrade“ sind hier speziell systeminterne Upgrades gemeint, also beispielsweise Firmware- und Software-Upgrades, Software-Patches und diverse Hardware-Upgrades (zum Beispiel Controller, Speichergeräte usw). Für Speicherplattformen, die geschäftskritische Workloads hosten, ist die Fähigkeit, systeminterne Upgrades im laufenden Betrieb durchzuführen, ein zentrales Kriterium.

Heutzutage treiben viele Unternehmen die digitale Transformation in ihrer Organisation voran. Deshalb spielt die IT-Infrastruktur im Hinblick auf den Geschäftserfolg eine immer wichtigere Rolle. Daraus resultiert das Erfordernis, eine Vielzahl verschiedener Workloads ständig verfügbar zu halten. Design-Entscheidungen und Feature-Implementierungen können das Upgrade-Risiko erheblich verringern (und in manchen Fällen sogar eliminieren). Darüber hinaus gibt es bestimmte Anforderungen, die ein Speichersystem erfüllen sollte, das Upgrades ohne Produktionsunterbrechung unterstützt.

Laut den Analysten von IDC tendieren Kunden bei der Modernisierung ihrer Speicherinfrastruktur verstärkt zu einer dichten gemischten Enterprise-Workload-Konsolidierung. Workload-Konsolidierung bringt einerseits in Sachen Kosten und administrativem Aufwand Vorteile mit sich, vergrößert aber auch potenziell die Ausfall-Domain. Folglich ist eine hohe Verfügbarkeit ein Schlüsselkriterium für ein derartiges Konsolidierungssystem. Die Verfügbarkeit eines Systems hängt nicht nur mit dem Grad an Redundanz und den eingebauten Recovery-Mechanismen bei einem Ausfall zusammen, sondern auch damit, wie es sich während normaler System-Upgrades verhält. Auf der einen Seite werben viele Enterprise-Storage-Anbieter mit einer „mindestens fünfmal so hohen“ Ausfallsicherheit im normalen Betrieb; auf der anderen Seite müssen Kunden sich auch darüber Gedanken machen, wie Upgrades durchgeführt werden und wie sich diese auf Anwendungsservices auswirken.

De-Risking Enterprise Storage Upgrades

 

Wonach sollten Unternehmen also Ausschau halten, wenn sie eine Speicherplattform suchen, die unterbrechungsfreie Upgrades im laufenden Betrieb ermöglicht? Nachfolgend werden einige der wichtigsten Anforderungen aufgelistet und beschrieben:

  • Abkehr von veralteten Designansätzen: Viele Enterprise-Storage-Systeme, die heute auf dem Markt erhältlich sind, wurden Anfang der 2000er-Jahre (oder noch früher) aus der Taufe gehoben. Die damaligen Vorstellungen einer optimalen Architektur unterschieden sich grundsätzlich von heutigen Sichtweisen. Das Gleiche gilt im Hinblick auf Kriterien wie Performanz, Verfügbarkeit und Funktionalität. Um nur drei Beispiele zu nennen: Persistenter Flash-Speicher war damals noch ein Fremdwort, Inline-Speichereffizienztechnologien gab es nicht und Primärspeichersysteme waren für eine Speicherkapazität im zweistelligen Terabyte-Bereich und Datenübertragungsraten von wenigen Gigabyte ausgelegt. Sollen diese Systeme neue Medientypen unterstützen, können kaum Änderungen an der zugrundeliegenden Architektur vorgenommen werden. Vor 20 Jahren waren praktisch keine Enterprise-Storage-Systeme darauf ausgerichtet, Upgrades unterbrechungsfrei durchzuführen – es äußerte auch niemand eine dementsprechende Erwartung. Für Anbieter ist nun jedoch die Zeit gekommen, Legacy-Technologien ad acta zu legen und Systeme so effizient zu gestalten, dass sie den heutigen Ansprüchen genügen. Nachfolgend werden aktuelle Design-Ansätze vorgestellt, die für einen unterbrechungsfreien Betrieb optimiert wurden.

 

  • Software-defined Designs: Viele Plattformen heutiger Enterprise-Storage-Anbieter sind auf ein „Hardware-definiertes“ Design ausgerichtet. Ein klarer Trend bei Speicherlösungen für Unternehmen im letzten Jahrzehnt war die Evolution Richtung „Software-definierter“ Designs. Die Vorteile dieser Plattformen: Sie verlagern mehr Funktionalität in die Software und können dadurch leichter um neue Funktionen erweitert werden. Zudem unterstützen sie Upgrades im laufenden Betrieb, können neue Hardware-Technologien und Gerätegeometrien besser integrieren und bieten mehr Flexibilität.
    Neue Software-Releases können zur Optimierung der Leistung beitragen und wichtige neue Funktionalität bereitstellen, ohne dass ein Hardware-Upgrade vonnöten ist. Auch wenn die Funktionalität selbst mit älteren Hardware-defined Designs teilweise auf Software verlagert werden kann, bietet eine Software-defined Architektur eine größere Flexibilität, um weitreichendere Feature-Innovationen im Rahmen von Software-Upgrades zu unterstützen.
    Software-defined Storage ermöglicht die Virtualisierung des Frontends und Backends eines Speichersystems. Dadurch werden funktionale Updates auf beide Seiten möglich, ohne dass schädliche Wechselwirkungen entstehen, während zuverlässigere Upgrades im laufenden Betrieb unterstützt werden. Darüber hinaus erleichtern sie die Fehlerisolierung, sodass die negativen Auswirkungen eines Ausfalls eingedämmt werden können. Zur gleichen Zeit ermöglichen sie weniger komplexe Fehlermanagement-Routinen, was sich nicht nur auf die Systemwiederherstellung positiv auswirkt, sondern auch auf die Ausführung von Upgrades. Software-defined Designs besitzen nachweislich diese Vorteile, was einer der Gründe ist, warum die Branche den Wechsel von Hardware- zu Software-defined Designs vorantreibt.

 

  • Ausführung von Betriebssystemfunktionen im User Space statt im Kernel Space: Storage-Betriebssysteme der Vergangenheit basierten auf monolithischen Designs, die anfällig für Ausfälle und andere Komplikationen waren. Diese Betriebssysteme erforderten umfassende Regressionstests, wenn neue Funktionalität hinzugefügt wurde, sodass Systemanpassungen mit einem beträchtlichen Risiko einhergingen. Neuere Designs sind kompakter und zuverlässiger, da sie zentrale Infrastrukturaktivitäten auf den Kernel beschränken, während Funktionen wie Datenreduzierung, Snapshots, Verschlüsselung, Quality of Service, Replikation und andere Speichermanagementfunktionen im User Space ausgeführt werden. Dank diesem Ansatz kann jede dieser Funktionen ausfallen oder aktualisiert werden, ohne dass der Kernel beeinträchtigt wird, wodurch Anwendungen im System durchgängig bereitgestellt werden können. Dieser Ansatz ebnet den Weg für zuverlässigere Systeme, ermöglicht risikofreie Upgrades und verringert den Aufwand durch Regressionstests, wenn Änderungen durch den Anbieter oder auf Benutzerseite vorgenommen werden.

 

Diese drei Designansätze sind Herstellern von Enterprise-Storage-Arrays, die in den letzten sechs bis sieben Jahren Systeme entwickelt haben, bestens bekannt. Infinidat, ein Enterprise-Storage-Anbieter, der auf stark skalierbare Systeme spezialisiert ist, die für dichte gemischte Enterprise-Workload-Konsolidierung ausgelegt sind, geht sogar noch weiter und treibt Innovationen voran, die in noch stärkerem Maße zu einem unterbrechungsfreien Betrieb beitragen. Genau um dieses Thema wird es in meinem folgenden Blog Post zu risikofreien Upgrades gehen.

 

Über Eric Burgener

Eric Burgener ist Research Vice President der Enterprise Infrastructure Practice von IDC. Zu seinen Forschungsschwerpunkten zählen Speichersysteme, Software und Lösungen, Quartalstracker und End-User-Verhalten. Darüber hinaus ist Burgener in verschiedenen Beratungsfunktionen aktiv. Im Hinblick auf Enterprise Storage forscht Burgener insbesondere zu Flash-optimierten Arrays, neuen Persistent-Memory-Technologien und Software-Defined Storage. Eric wirkt bei IDC am IT Buyers Research Program mit und bloggt in regelmäßigen Abständen zu den Themen Infrastruktur und Datenmanagement.