Vom RAM-Baustein zum All-Flash-Array Der

Storage
h Heise
Sonderbeilage von Heise Medien
Vom RAM-Baustein zum All-Flash-Array
Welche Lösungen der Markt hergibt
Der unsichtbare Hypervisor
Was komplexe Architekturen einfacher macht
Die Speicherinfrastruktur
von morgen ist softwaredefiniert
Wann sich Software-defined Storage lohnt
Jede Kopie kostet
Wo Copy Data Virtualization für Klarheit sorgt
Snapshots, Backup, Replikate –
was, wann, wie?
Wann virtualiserte Systeme richtig gesichert sind
Kapazitätsplanung für Serviceprovider
Wie All-Flash im Scale-out-Design funktioniert
Editorial
Was Flash verspricht, muss der Hypervisor halten
Die Rechenzentren beginnen zu rechnen: Wie viel Effizienz gewinnen
wir – wie viel Energie sparen wir mit Flash Storage? Denn so
verlockend die extrem hohe Performance nicht flüchtiger Speicher
auch ist – klar ist ebenso, dass die extrem hohe Performance
momentan noch ihren Preis hat. Dennoch boomt der Markt:
All-Flash-Arrays werden laut IDC noch 2016 einen Weltumsatz von
1,6 Milliarden US$ erreichen – und das bei sinkenden Preisen. Wohin
die Entwicklung geht, welche Lösungen es gibt und wo genau die
Vor- und Nachteile liegen, erläutert Doris Piepenbrink in ihrem
Grundlagenbeitrag ab Seite 12. Mara McMahon widmet sich dann
konkret dem All-Flash-Bedarf von Serviceprovidern und vergleicht
Scale-up- mit Scale-out-Designs (Seite 18).
Während die Anschaffungskosten für Flash weiter fallen, spitzen die
Speicherverantwortlichen den Bleistift und setzen ein sauberes
Storage Management auf, das häufig benötigte Daten auf flotte
Medien packt und selten gefragte Informationen zum Beispiel mit
preisgünstigen Bändern archiviert. So weit, so gut. Aber leider schießt
ausgerechnet ein paralleles Effizienzprojekt quer: der Trend zur
Virtualisierung. Damit wachsen nämlich die Dubletten nur so auf der
flachen Hand, wenn die Admins nicht aufpassen.
Das wiederum, warnt Thorsten Eckert, treibt die Speicherkosten
wieder in die Höhe und ist obendrein ein gefährlicher Risikofaktor.
Wie man in dieser Situation Compliance-sicher bleibt und eine
saubere Zugriffskontrolle gewährleistet, erklärt sein Beitrag ab Seite 6.
Dazu setzt Alexander Thoma auseinander, was die jüngste Generation
von Hypervisoren in (fast) virtualisierten Rechenwelten dazu
beitragen kann, dass RZ-Architektur kontrollierbar bleibt – auch dann,
wenn die Speicherlösung selbst gar nicht für den VM-Betrieb
ausgelegt ist (Seite 14). Einen wichtigen Hinweis gibt außerdem
Simon Köhl: „Snapshots sind keine Backups!“, ruft er. Missbraucht man
sie zur regulären VM-Datensicherung bläht das den Speicherbedarf
gigantisch auf. Sein Beitrag auf Seite 16 erklärt genau die praktischen
Unterschiede zwischen Snapshots, Backups und Replikaten.
Die radikale Lösung beim Speichermanagement besteht in
der vollständigen Virtualisierung. Das Stichwort dazu heißt
Software-defined Storage. Die Argumente, die Michael Hohl auf den
Tisch legt (Seite 10), sind nicht uncharmant: Praktische Lösungen
sind mittlerweile so weit ausgereift, dass eine Migration selbst von
400-TByte-Beständen im Live-Betrieb machbar ist. Ein solches System
ist dann umstandslos und nahezu beliebig skalierbar, lässt sich
sparsam zentral verwalten und arbeitet unabhängig von bestimmten
Hardware-Herstellern. Ob mit oder ohne Flash.
Thomas Jannot
STORAGE
3
Inhalt, Impressum, Inserentenverzeichnis
JEDE KOPIE KOSTET
DER UNSICHTBARE HYPERVISOR
Copy Data Virtualization bekommt den
Dubletten-Wildwuchs in den Griff
Virtualisierung schafft neue Komplexität –
und liefert die Lösung dazu.
Seite 6
Seite 14
DIE SPEICHERINFRASTRUKTUR VON
MORGEN IST SOFTWAREDEFINIERT
SNAPSHOTS, BACKUP, REPLIKATE –
WAS, WANN, WIE?
Software-defined Storage ist mittlerweile
einfach und schnell aufzusetzen.
Disaster Recovery funktioniert erst mit einer
sauberen Datensicherung.
Seite 10
Seite 16
VOM RAM-BAUSTEIN
ZUM ALL-FLASH-ARRAY
KAPAZITÄTSPLANUNG
FÜR SERVICEPROVIDER
Moderne Architekturen platzieren
die Steuerung direkt am Hypervisor.
Bei All-Flash-Speicherlösungen sind
Scale-out-Designs besser geeignet.
Seite 12
Seite 18
Impressum
Storage
Redaktion
Verlag
just 4 business GmbH
Kranzhornstr. 4b
83043 Bad Aibling
Telefon: 0 80 61/348 111 00
Telefax: 0 80 61/348 111 09
E-Mail: [email protected]
Heise Medien GmbH & Co. KG
Postfach 61 04 07, 30604 Hannover
Karl-Wiechert-Allee 10, 30625 Hannover
Telefon: 05 11/53 52-0
Telefax: 05 11/53 52-129
Internet: www.heise.de
Leserbriefe und Fragen zur Beilage:
[email protected]
Verantwortliche Redakteure: Thomas Jannot (V. i. S. d. P.),
Ralph Novak; Florian Eichberger (Lektorat)
Herausgeber: Christian Heise, Ansgar Heise,
Christian Persson
Autoren dieser Ausgabe: Thorsten Eckert, Michael Hohl,
Simon Köhl, Mara McMahon, Doris Piepenbrink, Alexander
Thoma
Geschäftsführer: Ansgar Heise, Dr. Alfons Schräder
DTP-Produktion: Wolfgang Otto (Ltg.), Jörg Gottschalk
Anzeigen: Simon Tiebel (-890)
(verantwortlich für den Anzeigenteil)
Titelbild: karelnoppe, Fotolia
Bildmaterial: Fotolia.com
Mitglied der Geschäftsleitung: Beate Gerold, Jörg Mühle
Verlagsleiter: Dr. Alfons Schräder
Druck: Dierichs Druck + Media GmbH & Co. KG,
Frankfurter Straße 168, 34121 Kassel
Sonderbeilage von Heise Medien
Eine Haftung für die Richtigkeit der Veröffentlichungen kann
trotz sorgfältiger Prüfung durch die Redaktion vom Herausgeber nicht übernommen werden. Kein Teil dieser Publikation
darf ohne ausdrückliche schriftliche Genehmigung des Verlags
in irgendeiner Form reproduziert oder unter Verwendung
elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden. Die Nutzung der Programme, Schaltpläne und
gedruckten Schaltungen ist nur zum Zweck der Fortbildung
und zum persönlichen Gebrauch des Lesers gestattet.
Für unverlangt eingesandte Manuskripte kann keine Haftung
übernommen werden. Mit Übergabe der Manuskripte und
Bilder an die Redaktion erteilt der Verfasser dem Verlag das
Exklusivrecht zur Veröffentlichung. Honorierte Arbeiten gehen
in das Verfügungsrecht des Verlages über. Sämtliche Veröffentlichungen erfolgen ohne Berücksichtigung eines
eventuellen Patentschutzes.
Warennamen werden ohne Gewährleistung einer freien
Verwendung benutzt.
Printed in Germany. Alle Rechte vorbehalten.
Gedruckt auf chlorfreiem Papier.
© Copyright 2016 by Heise Medien GmbH & Co. KG
Inserentenverzeichnis
4
DataCore Software GmbH, Unterföhring................................................................................ 17
Red Hat GmbH, Grasbrunn........................................................................................................... 11
ico innnovative Computer GmbH, Diez................................................................................... 13
SAMSUNG Electronics GmbH, Schwalbach................................................................... 8, 9, 20
STORAGE
Bild: sheelamohanachandran – Fotolia.com
COPY DATA MANAGEMENT | Virtualisierung
Thorsten Eckert, Sales Director DACH bei Actifio
JEDE KOPIE KOSTET
Angesichts des rasanten Wachstums von Produktionsdaten wird der Balanceakt
zwischen einfachem Zugriff und nachweisbarer Datensicherheit immer
schwieriger. Copy Data Virtualization kann Wildwuchs verhindern, die StorageKosten senken und eine effiziente Zugriffskontrolle ermöglichen.
B
emüht, absolute Datensicherheit zu gewährleisten, erstellen IT-Abteilungen
zahlreiche Kopien strukturierter und unstrukturierter Daten. Das geschieht durch Snapshots, Spiegelung und verschiedene Replikationsmethoden (lokal und remote) sowie als
Teil der Backup-und-Recovery-Prozesse. Jede
dieser Techniken hilft zwar den Unternehmen, verschiedene Quellen von möglichem
Datenverlust zu adressieren. Doch die herkömmliche Datensicherung in Kombination
mit separaten Datenkopiesilos für typische
Einsatzzwecke wie Analyse, Backup, Entwicklung, Tests etc. birgt erhebliche Risiken. Ein
Ergebnis ist nämlich die ungewollte und unkontrollierte Verbreitung von inoffiziellen,
oft mehrfach redundanten Kopien sensibler
6
STORAGE
Daten. Und diese Schatten-IT ist schwer zu
kontrollieren, geschweige denn zu schützen.
Mehr Speicherorte,
mehr Dubletten
Laut der IDC-Studie „Common Gaps in Data
Control“ (10/2015) hält ein durchschnittliches
Unternehmen 375 Kopien einzelner Datensätze
an verschiedenen Speicherorten vor – und jede
dieser Kopien enthält sensible Informationen.
Dadurch vergrößert sich die Angriffsfläche für
Cybergefahren und bösartige Datenzugriffe.
Ebenso erhöht sich das Risiko von Datenlecks,
etwa weil Mitarbeiter – egal ob vorsätzlich
oder unbeabsichtigt – auf sensible Daten
zugreifen oder diese in Umlauf bringen.
Angesichts dieser Schwachstellen der traditionellen Datenverwaltung erscheint es
dringend geboten, dass Unternehmen formalisierte Verfahren und Best Practices anwenden, um das Risiko zu reduzieren. Sicherheitsmaßnahmen wie Verschlüsselung und
Authentifizierung mit zentraler Zugriffsverwaltung und Sicherheitsprüfungen sollten
durch Datenkontrolle bzw. -überwachung
(Data Control) ergänzt werden. Dabei haben
Unternehmen ihre Daten mittlerweile vielfach verteilt, z.B. auf Private und Public
Clouds, via Backups auf Band oder per Backup und Disaster Recovery as a Service. Die
Komplexität der Kombination verschiedener
Speicherorte ist inzwischen zu groß, als dass
IT-Administratoren den innerhalb und außerhalb des Unternehmens verteilten Datenbestand lückenlos verwalten könnten.
Das traditionelle Konglomerat aus Datenbanken und Standorten sowie Richtlinien
und Verfahren für die Zugriffskontrolle
macht die Datenverwaltung zu einer komplexen Matrix mit Dutzenden von Möglichkeiten. So erweist es sich früher oder später
als unpraktisch, wenn nicht gar unmöglich,
den Überblick zu behalten. Bei Unternehmen, die sich auf manuelle Prozesse für die
Datenkontrolle verlassen, ist es unwahrscheinlich, dass sie diese auf Best-PracticeNiveau umsetzen können, da moderne ITUmgebungen und Anforderungen einfach
zu dynamisch sind. Unternehmen riskieren
bei Datenpannen egal welcher Art regulatorische Sanktionen und nicht zuletzt ihren
guten Ruf. Um Datenkontrolle nach BestPractice-Prinzipien konsequent umzusetzen,
sollten Unternehmen deshalb besser auf
automatisierte Methoden zurückgreifen.
Hausgemachte Probleme
Hinzu kommt, dass Unternehmen und einzelne Nutzer, die mit der Reaktionsfähigkeit
ihrer IT unzufrieden sind, zur Ausbildung
einer Schatten-IT neigen und inoffizielle Datenkopien anlegen. Doch jede neue physische Kopie erhöht die Angriffsfläche. Dieses
Problem besteht bei der überwiegenden
Mehrheit der Unternehmen, denn trotz häufiger Berichte über spektakuläre Sicherheitslücken und Datenpannen bleibt ein sichtbarer
Lerneffekt offenbar aus.
Die IDC-Umfrage bestätigt diesen Befund:
So scheitern zwei Drittel der Unternehmen
und Institutionen daran, Best-Practice-Standards der Datenkontrolle gerecht zu werden,
und nur wenige agieren konsistent über das
gesamte Spektrum ihrer Datensicherheitspolitik hinweg. Die Ergebnisse der IDC-Studie
zeigen, dass Unternehmen im Durchschnitt
13 Kopien einzelner Datenablagen (Repositories) vorhalten, die allesamt sensible Daten
enthalten können. 13 % der befragten Unternehmen hatten sogar mehr als 15 Kopien
solcher Datenablagen, und 77 % nehmen
COPY DATA MANAGEMENT | Virtualisierung
keine Maskierung ihrer sensiblen Daten während der Test- und Entwicklungsphase vor,
was die Gefahr von Pannen zusätzlich erhöht.
Unternehmen und öffentliche Einrichtungen benötigen daher Lösungen, um das
Copy Data Management zu automatisieren
und sowohl das Risiko als auch die Kosten zu
reduzieren. Kopien sind für IT-Abteilungen
unumgänglich, um den Geschäftsbetrieb zu
unterstützen und potenziellem Datenverlust
vorzubeugen. Sie werden jedoch zum Problem, wenn ihre Menge ausufert. Die Analysten von IDC schätzen, dass Datenkopien die
Unternehmen bis zum Jahr 2018 weltweit
50,63 Mrd. US$ kosten werden. Aktuell nehmen Datenkopien bis zu 60 % des Budgets
für IT-Storage-Hardware und -Infrastruktur in
Anspruch.
Zusätzlich sind Dubletten ein unnötiges
Risiko. Wenn Kopien angelegt werden, müssen sie nicht nur die Sicherheitseinstellungen
der Primärdaten übernehmen, sondern auch
auf sensible Informationen überprüft werden. Während der Test/Dev-Prozesse ziehen
es IT-Abteilungen vor, reale Daten zu verwenden. Allerdings sind die Entwickler nur
selten berechtigt, sensible Informationen
einzusehen. Um dies zu vermeiden, sorgt
Data-Scrubbing dafür, dass sensible Daten
entweder durcheinandergewürfelt oder so
maskiert werden, dass sie nicht sichtbar sind.
Datenverwaltung, sondern löst auch die Herausforderungen eines flexiblen, aber kontrollierten Zugriffs auf Datenkopien. Unternehmen können damit Daten direkt von Produktionsanwendungen erfassen und eine
einzige „goldene“ Masterkopie in einer sicheren Umgebung verwalten. Indem virtuelle
Kopien der Daten zur Verfügung stehen, sind
sowohl die einfache Zugänglichkeit als auch
eine optimale Kontrolle über die Daten gewährleistet.
Die Virtualisierung von Datenkopien stellt
ein zentrales System zur Verfügung, um stets
die Kontrolle über Sekundärdaten zu behalten und unterstützt Unternehmen bei der
Verwaltung und Überwachung ihrer Daten
durch
–ˇdie Absicherung vor geschäftskritischen
Risiken,
–ˇeine zentrale Steuerung sowie sichere und
stabile Operationen,
–ˇeinen regelkonformen schnellen Datenzugriff,
–ˇPrüfbarkeit und intelligente Bedrohungswarnungen,
–ˇdie Maskierung sensibler Daten,
–ˇSpeichereinsparungen dank globaler Deduplizierung der Masterkopie und virtueller
Datenkopien sowie
–ˇdie Vermeidung von Geschäftsunterbrechung durch unmittelbare Wiederherstellungsoptionen.
Copy Data Virtualization
Best Practices
für die Datenhaltung
Die meisten Unternehmen haben keine Ahnung, wie viele Kopien eines bestimmten
Datensatzes in ihrer Infrastruktur oder in der
Cloud in Umlauf sind. Doch wer nicht weiß,
wie viele Kopien existieren und wo sie sich
befinden, kann auch nicht sagen, wer darauf
Zugriff hat. Eine Virtualisierung der Datenkopien (Copy Data Virtualization) hilft Unternehmen dabei, typische Schwachstellen bei
der Überwachung geschäftskritischer Daten
zu identifizieren und zu beseitigen. Insbesondere für Prozesse bei der Datensicherung
und Anwendungsentwicklung entsprechend
dem DevOps-Ansatz bietet diese Technologie entscheidende Vorteile.
Die Verwendung einer zentralen CopyData-Management-Plattform zur Virtualisierung von Datenkopien verhindert vor allem
die unkontrollierte Verbreitung und Verfügbarkeit von physischen Datenkopien. Dies
gilt sowohl für Daten im Ruhezustand als
auch für Daten in Bewegung, etwa zwischen
Produktions- und Nichtproduktionsumgebungen, verschiedenen Hardware-Generationen oder zwischen Rechenzentren und
der Cloud-Infrastruktur. Am wichtigsten ist
dabei, dass die Virtualisierung die Anzahl der
Ziele reduziert, die schädlichen Aktivitäten
ausgesetzt sein könnten.
Doch die Copy-Data-Virtualisierung bietet
nicht nur einen ganzheitlichen Ansatz für die
IDC hat einige Best-Practice-Richtlinien zusammengestellt, die zeigen, wie sich die
Menge an Datenkopien und der Zugriff darauf im Rahmen traditioneller Datenverwaltung in den Griff bekommen lassen: Unternehmen müssen erstens verstehen und
quantifizieren, welche Kopien wie oft und
wozu erstellt werden. Datenkopien vorzuhalten ist in Ordnung und ein notwendiges Vorgehen für die Aufrechterhaltung geschäftskritischer Abläufe. Allerdings sollten Kopien
bewusst und nur im Rahmen der Geschäftsanforderungen erstellt werden. Ein Unternehmen sollte also nur so viele Kopien vorhalten, wie es für den Geschäftsbetrieb
braucht, und nicht mehr.
Daten sollten zweitens standardmäßig
verschlüsselt werden, im Ruhezustand und
ebenso, wenn sie in Umlauf sind. Die Verschlüsselung erfordert zwar Verarbeitungsaufwand, was aber ein kleiner Preis ist im
Vergleich mit den Kosten, die entstehen können, wenn sensible Daten ungeschützt bleiben. Da die Hardware-Leistung stetig zunimmt, sinken im Lauf der Zeit auch die Kosten für die Verschlüsselung.
Ein Scrubbing von Datenkopien, die sensible Informationen enthalten, sollte regelmäßig erfolgen. Dabei müssen die Nutzer
der Daten begründen, warum für bestimmte
Daten kein Scrubbing erforderlich ist, nicht
umgekehrt.
Ferner sollten Datensicherheitsrichtlinien
automatisch und systematisch bei der Repository-Erstellung angewandt werden. Ad-hocoder Von-Fall-zu-Fall-Regelungen sind zwar
ein Weg, den Datenzugriff zu optimieren, aber
solche Praktiken führen zu Sicherheitslücken,
beispielsweise durch einen versehentlichen
Verlust der Kontrolle über die Daten. Darauf
zu warten, bis Zugriffsrichtlinien in bestimmten Phasen angewandt werden, etwa während der Anwendungsbereitstellung oder in
der Test- und Entwicklungsphase, macht die
Daten zwischenzeitlich anfällig.
Nicht zuletzt sollten alle Daten auf Band
ebenfalls verschlüsselt werden, denn auch
sie können nach außen gelangen. Wenn ein
Band, das eigentlich im Rechenzentrum
bleiben sollte, unerwartet aus dem sicheren
Bereich verschwindet, ist es zu spät, um die
Informationen zu verschlüsseln.
Alle IT-Abteilungen sind gut damit beraten, diese Best Practices umzusetzen. Dies ist
zwar theoretisch auch ohne einen automatisierten Ansatz möglich, aber der Aufwand ist
in der Praxis viel zu groß. Es wäre schwierig,
die Ressourcen und das Investment für diese
Vorgehensweise über längere Zeit aufrechtzuerhalten. Dagegen macht es eine automatisierte und zentrale Datenverwaltung auf
einer Copy-Data-Management-Plattform sehr
viel leichter, konsistente Prozesse langfristig
konsequent umzusetzen.
Speicherkosten und Compliance
IT-Manager müssen also zwei entscheidende
Aspekte berücksichtigen: das generelle Problem des Kopierens von Daten und die nicht
minder große Herausforderung eines einfachen und dennoch sicheren Zugriffs auf
Datenkopien. Die Verwaltung physischer
Datenkopien ist nicht nur risikobehaftet,
sondern auch teuer. Zwar ist es nicht möglich,
auf Datenkopien vollständig zu verzichten,
aber jede inkrementelle Reduzierung bedeutet bares Geld für das IT-Budget.
Die Storage-Kosten sind die eine Sache,
die Überwachung des Zugriffs stellt jedoch
eine noch größere Herausforderung dar. Die
rechtlichen und regulatorischen Vorgaben
werden immer strenger, nicht zuletzt aufgrund des jüngsten Engagements der EU.
Die Offenlegung von vertraulichen Daten,
selbst unbeabsichtigt oder in gutartiger Absicht, kann zu empfindlichen Sanktionen und
Geldstrafen führen. Da die IT-Abteilungen im
Durchschnitt mehrere Hundert Datenkopien
vorhalten, stellt sich nicht mehr die Frage,
ob, sondern wann und wie sinnvolle Maßnahmen eingeleitet werden. Es steht also
einiges auf dem Spiel. Mithilfe automatisierter
Systeme können IT-Manager aber sowohl
die Storage-Kosten als auch die Schatten-IT
in den Griff bekommen.
STORAGE
7
SOFTWARE-DEFINED STORAGE | Infrastruktur
Michael Hohl, Head of PreSales & Consulting transtec AG, Reutlingen
DIE SPEICHERINFRASTRUKTUR VON
MORGEN IST SOFTWAREDEFINIERT
In vielen Unternehmen sind die Speicherinfrastrukturen in die Jahre gekommen und oft
nur mit hohem Aufwand zu managen. Das muss nicht sein. Software-defined Storage ist
ein Lösungsansatz, der sich schnell umsetzen lässt und die Systeme zukunftssicher macht –
sogar unter Verwendung der vorhandenen Hardware.
ypisch für viele IT-Landschaften bei Unternehmen jeder
Größe sind heterogene Speicherinfrastrukturen mit verteilten
Systemen, dezentralen Verwaltungstools und hohen Betriebsund Administrationskosten. Nach
der Konsolidierung und Virtualisierung der Server rücken heute
die Speichersysteme in den
Fokus, denn die dort aufbewahrten Daten sind ein wichtiger Teil
des Unternehmenskapitals; sie
sind unabdingbar für reibungslos
ablaufende kritische Geschäftsprozesse. Sind Daten nicht verfügbar, stockt die Fertigung, das
Unternehmen kann Liefertermine
nicht einhalten und erleidet Umsatzeinbußen.
Im Hinblick auf die Konsolidierung von Speicherlandschaften
sind heute vor allem zwei Konzepte an Bedeutung: Virtualisierungstechnologien und SDS-Ansätze (Software-defined Storage).
Bislang gibt es allerdings keine
einheitliche SDS-Definition, manche Anbieter setzen den Begriff
sogar mit der reinen Storage-Virtualisierung gleich. Der gemeinsame Nenner aller SDS-Ansätze
ist aber, dass es dabei um eine
strikte Trennung von Speichersoftware und Speicherhardware
geht und dass im Gegensatz zu
traditionellen Speichersystemen
die Storage-Services im Vordergrund stehen.
Multifunktionalität für
alle Anforderungen
Die heutigen SDS-Lösungen sind
in der Regel ausgereift und können ohne größere Einschränkungen im Produktivbetrieb eingesetzt werden. Das liegt auch
daran, dass solche Lösungen bei
10
STORAGE
großen Herstellern bereits seit
Längerem zum Portfolio gehören – schon vor dem allgemeinen Hype um „Software-defined
Everything“.
Hinsichtlich der Anwendungsszenarien gibt es generell eigentlich keinen Bereich, der nicht für
SDS geeignet wäre. Wichtig ist
nur, die passende Lösung zu den
konkreten Einsatzgebieten im
Unternehmen zu finden. Hat man
beispielsweise in der Vergangenheit schon sehr viele Skripts und
Tools verwendet, die im Hinblick
auf die Lösungen eines bestimmten Herstellers konzipiert und optimiert sind, so sollte sicherlich
dieser Hersteller die erste Wahl
sein. Bei einem Großteil der Unternehmen und IT-Umgebungen
ist dies aber nicht der Fall. Das
bedeutet, dass man den Weg der
offenen Plattformen gehen und
je nach Anforderung die optimale Speicherhardware auswählen
kann. In Bereichen, in denen es
um eine hohe Performance und
Verfügbarkeit geht, bieten sich
dann Flash-basierte Lösungen an,
zum Beispiel auch NVMe-SSDs,
die sich durch eine geringe
Latenz, eine hohe I/O-Leistung
und niedrigen Energieverbrauch
auszeichnen. Für reine Archivierungsdaten hingegen sind wesentlich kostengünstigere NL-SAS
durchaus ausreichend.
Wenn es prinzipiell keine Einschränkung hinsichtlich der Einsatzszenarien gibt, so gilt das
künftig auch im Hinblick auf das
SDS-Know-how im jeweiligen Unternehmen. Ein Grundproblem
der Vergangenheit, nämlich dass
die SDS-Lösungen recht komplex
waren und vielfach den Einsatz
zertifizierter Experten erforderten, besteht heute nicht mehr.
Auch kleinere und mittelständische Unternehmen ohne Zugriff
auf großartige Expertise können
inzwischen SDS-Lösungen nutzen. Auf dem Markt gibt es für
diese Zwecke schlüsselfertige
Plug-and-Play-Systeme. Solche
Lösungen bieten alle erforderlichen Funktionalitäten für die Umsetzung einer softwaredefinierten Speicherinfrastruktur, zum
Beispiel mit automatischem Storage Tiering, Thin Provisoning,
Speicher-Pooling, Snapshots, synchroner Spiegelung oder einem
zentralisierten Management.
Live-Migration
ohne Zeitverlust
Der Hauptvorteil ist, dass Unternehmen sich mit Software-defined Storage in Sachen Hardware
herstellerunabhängig machen.
Das war bisher im Speicherumfeld keineswegs zwangsläufig
gegeben. Unternehmen können
dadurch die Hardware-Auswahl
auch nach dem Kriterium „bestes
Preis-Leistungs-Verhältnis“ vornehmen. Zudem lässt sich mit
einem SDS-Ansatz die Komplexität wie Speicherinfrastruktur
durch Zusammenfassen physischer Strukturen drastisch reduzieren.
Dass es möglich ist, vorhandene Speicherlösungen in das SDSKonzept einzubinden, ist ein
weiterer Vorteil. Je nach SDS-Variante ist unter Umständen sogar
eine Live-Migration möglich, das
heißt, dass die bisherige Speicherinfrastruktur im laufenden Betrieb an die neue Lösung angebunden und im Hintergrund migriert werden kann. Mehrere erfolgreich durchgeführte Projekte
haben bewiesen, dass sich zum
Beispiel auf Basis der IBM-Lösungen SAN Volume Controller
(SVC) beziehungsweise Spectrum Virtualize auch größere
Storage-Umgebungen mit mehr
als 400 TByte an Daten ohne
aufwendige Wochenend- oder
Bild: shock – Fotolia.com
T
SOFTWARE-DEFINED STORAGE | Infrastruktur
SOFTWARE-DEFINED STORAGE :
VORTEILE IM ÜBERBLICK
Herstellerunabhängigkeit:
Unterstützung von Hardware
beliebiger Hersteller
Unbegrenzte Skalierbarkeit:
Einfache Erweiterung der
Umgebung im Hinblick auf
Kapazität und Performance
Kosteneffizienz: Reduzierung
des Managementaufwands
Nachtaktionen im laufenden
Betrieb migrieren lassen.
Als Nachteil ist sicherlich anzusehen, dass mit SDS ein konzeptionelles Umdenken einhergehen
muss, sonst sind die neuen Möglichkeiten nicht sinnvoll zu nutzen. Der Grund hierfür ist, dass
mit dem Einsatz einer SDSLösung in der Regel eine Neuorganisation der IT-Prozesse notwendig wird, da die klassischen
Grenzen beispielsweise zwischen
den Administratoren der Bereiche
Storage, Virtualisierung und Netzwerk immer mehr verschwimmen. Nicht zuletzt ist zu berücksichtigen, dass es im Live-Betrieb
auch zu geringfügigen Einschränkungen kommen kann, wenn bestimmte proprietäre Funktionen
oder Plug-ins eines Herstellers
durch die SDS-Software nicht
mehr unterstützt werden beziehungsweise nicht mehr ganau so
funktionieren wie zuvor.
SDS und offene
Plattformen
Wie in vielen IT-Bereichen wird
auch im Storage-Umfeld der
Trend in Richtung offener Plattformen und weg von einer SingleVendor-Strategie gehen, hin zu
einer Infrastruktur, die sich
schnell und dynamisch anpassen
kann, wenn sich die Unternehmensanforderungen ändern.
Das führt natürlich zwangsläufig
auch zur Diskussion um eine
flexible Ressourcennutzung in
der Public Cloud. Zurzeit ist das
Thema Cloud in Deutschland
zwar aufgrund der NSA-Affäre
und datenschutzrechtlicher Bedenken noch immer eher negativ belastet, aber mittel- und
langfristig wird die Auslagerung
durch Integration vorhandener
Hardware-Komponenten
Virtualisierung: Zentrales Management von Einzelsystemen
Hoher Automatisierungsgrad: Effizienzsteigerung
durch Reduzierung manueller
Tätigkeiten
von Daten allein schon zur Reduzierung des Kosten- und Administrationsaufwands ein wesentlicher Bestandteil von StorageGesamtlösungen sein.
Vertrauliche Daten werden mit
Sicherheit auch weiterhin im Unternehmen verbleiben. Zu erwarten ist hier eine Zunahme der
Speicherung auf Bändern, auf die
über das Linear Tape File System
(LTFS) zugegriffen wird. Der Vorteil liegt hier in den geringeren
laufenden Kosten, da Einsparungen sowohl bei der Energieversorgung als auch bei der Kühlung
realisiert werden können. Zudem
ist unter Sicherheitsaspekten
auch eine räumliche Auslagerung
der Bänder problemlos möglich.
Generell wird das Thema SDS
im Speichermarkt immer wichtiger werden. Alle großen Hersteller investieren massiv in diesen
Bereich. IBM beispielsweise hat
Anfang des Jahres angekündigt,
in den nächsten fünf Jahren rund
1 Milliarde US-$ in sein StorageSoftware-Portfolio zu investieren.
Dass das Marktsegment SDS ein
dynamisches Wachstum verzeichnen wird, prognostizieren
auch Marktforscher und Branchenanalysten. Gartner etwa geht
davon aus, dass 2020 zwischen
70 und 80 % aller unstrukturierten Daten auf kostengünstigen
Speichermedien durch SDSLösungen verwaltet werden.
Modernen Speicherlösungen
wie SDS gehört eindeutig die Zukunft. Sie ermöglichen eine dauerhafte Überwindung der heutigen Komplexität. Zudem überzeugen sie durch geringere Speicherkosten sowie eine höhere
Leistung und bessere Kapazitätsauslastung als herkömmliche
Storage-Lösungen.
STORAGE
11
Bild: deninismagilov – Fotolia.com
ALL FLASH | Marktentwicklung
Dipl.-Ing. Doris Piepenbrink, freie Journalistin, München
VOM RAM-BAUSTEIN
ZUM ALL-FLASH-ARRAY
Noch ist die Flash-Technik teuer. Darum wird sie derzeit nur für
hochperformante Daten eingesetzt. Das aber kompromisslos:
verlustfrei direkt am Server, mit einer Steuerung, die direkt auf dem
Hypervisor aufsetzt. Doch die Systeme sind skalierbar bis hin zu All Flash.
M
it zunehmender Verbreitung von Datenbankanwendungen und insbesondere der Server-Virtualisierung kam Decoupled Storage auf, das den Datenstrom in
zwei bis drei Speicherkategorien aufteilt: Der
Performance-Tier enthält „heiße“, hochperformante Daten, wie sie vor allem in Netzen
mit großen Datenbanken und/oder in Virtual-Desktop-Umgebungen vorkommen. Der
Kapazitäts-Tier speichert die „kalten“ Daten.
Er hat eine deutlich größere Kapazität bei
niedrigen Zugriffsraten. In der Regel sind
12
STORAGE
etwa 80 % der Daten diese zeitlich unkritischen Daten. Es ist sinnvoll, diese auch weiterhin auf herkömmlichen Medien abzuspeichern. Der dritte Tier umfasst die langfristige
Archivierung der Daten.
Schnelle Operations,
geringe Latenzzeiten
Der Performance-Tier entspricht in etwa dem
Arbeitsspeicher. Hier werden alle Datenzugriffe auf Anwendungen unmittelbar
zwischengespeichert. Herausfordernd sind
Situationen, in denen viele Anwender gleichzeitig auf einen Server zugreifen, etwa beim
morgendlichen Einloggen. Für solche Fälle
sind die schnellen Flash-Speicherbausteine
prädestiniert.
Die Hersteller von neueren Flash-SSDs erreichen für ihre Komponenten IOPS-Werte
(Input/Output Operations Per Second), die
bis zu mehreren Zehnerpotenzen über
denen von Festplatten liegen können – mit
entsprechend niedrigen Latenzzeiten. Allerdings ist die Speicherkapazität begrenzt, bei
RAM-Bausteinen sind es derzeit 10 TByte. Appliances, wie sie zum Beispiel Atlantis anbietet, erreichen 25 TByte. Außerdem haben
Flash-Komponenten eine geringere Lebensdauer als Festplatten und sind erheblich teurer, auch wenn sich das mit zunehmender
Verbreitung verbessern wird.
Aufgrund der hohen Kosten setzen viele
Netzbetreiber auf hybride Decoupled-Storage-Lösungen. Bei einem SAN entscheidet oft
noch ein Storage-Controller, welche Daten
über den Performance-Tier gespeichert werden und welche im SAN. Doch allein der mit
der Einbindung in das SAN verbundene Protokoll-Overhead kostet Zeit. Zudem sitzt der
SAN-Controller bei den Speicherkomponenten und nicht in Servernähe. Auch das kostet
Zeit. Insgesamt sind hier Latenzzeiten von 1
bis 2 ms üblich. Aus diesem Grund haben
sich in virtuellen Server-Umgebungen Lösungen durchgesetzt, die den Flash-Speicher
möglichst nahe an den Server-CPUs platzieren und das Speicher-Controlling auf dem
Hypervisor aufsetzen. Ein zusätzlicher SANController ist damit unnötig.
3D XPoint und NAND in CPU-Nähe
Damit beim Speichern der Daten keine Zeit
verloren geht, sollten Performance-Daten
möglichst unmittelbar im Server gespeichert
werden. Es gibt Lösungen, bei denen der
Flash über PCIe oder RAM-DIMM-Slots direkt
an die Server-CPU angebunden ist. Auf diese
Weise sind Latenzzeiten von 60 μs erreichbar.
Und EMC2 zum Beispiel kaufte 2014 das
Start-up-Unternehmen DSSD, das Techniken
entwickelt, mit denen sich Flash-RAMBausteine für High-Perfomance-Computing
bündeln lassen, um die Speicherkapazität zu
erweitern. Die Daten werden parallel und als
Objekte aufgezeichnet, sodass man noch
schnellere IOPS-Werte erzielt und Datenverluste vermeiden kann.
2016 will Intel mit Micron die 3D-XPointEntwicklung auf den Markt bringen. Diese
nichtflüchtige Speichertechnik basiert auf unterschiedlichen Widerständen und nicht auf
Spannungsunterschieden wie NAND. Die
Daten werden in mehreren Ebenen abgespeichert. Der Flash-Speicher soll tausendmal
schneller sein als die heute für Speicherkarten
und Solid State Drives verwendete NAND-
Bild: PernixData
ALL FLASH | Marktentwicklung
Storage-Management per
Hypervisor mit der Software
FVP 3.0 von PernixData.
Technik. Außerdem soll sie langlebiger sein
und eine bis zu zehnmal höhere Dichte aufweisen. Die ersten 3D-Xpoint-Speicher werden laut Ankündigung vom Sommer 2015
eine Kapazität von 128 GByte pro Die haben.
3D-NAND-Chips des gleichen Herstellerduos
erreichen maximal 48 GByte pro Die. Intels
Datacenter-Chefin Diane Bryant versprach
auf dem Intel Developer Forum im Sommer
2015, dass 3D-XPoint-Flash-Technik zudem
nur halb so viel kosten werde wie DDR4.
Einbindung in den Hypervisor
Bei virtuellen Server-Umgebungen sind
hochperformante I/O-Prozesse keine Seltenheit. Deshalb bieten sich hier möglichst CPUnahe Flash-Speicher an. Und wenn der Controller auf dem Hypervisor aufsetzt, kann er
Anwendungsdaten aus dem Hypervisor für
Analysen heranziehen und noch schneller
und eindeutiger festlegen, ob Prozesse in
den Performance- oder den Kapazitäts-Tier
gehören. Um Datenverluste durch Komponentenfehler zu vermeiden, werden die
Daten einer Virtual Machine wie bei RAIDSystemen parallel auf mehrere Server im Hypervisor-Cluster abgespeichert.
Der Administrator arbeitet laut Angaben
der Hersteller in einer auf den Hypervisor angepassten Oberfläche und hat wenig Konfigurationsaufwand. Jedem Server ist ein Flash
zugeordnet, der mit der Serverzahl linear
mitwachsen kann. Die Speicherkapazitäten
werden im Pool über die virtuelle Oberfläche
verwaltet, sodass das System die volle Kapazität der angeschlossenen Speicherlösungen
ausnutzen kann.
Lösungen auf dem Markt
Es gibt mittlerweile eine Reihe von Lösungen
auf dem Markt: Die Speichersoftware FVP 3.0
von PernixData ist eine der bekanntesten; sie
unterstützt vSphere 6. FVP ist auf VMwareUmgebungen zugeschnitten und kann nach
PernixData-Angaben ohne Einschränkung
mit allen VMware-Funktionen zusammen genutzt werden. Der Hersteller bietet auch eine
freie Version seiner Software an.
Die Software USX von Atlantis hat Deduplizierung und Kompression der Daten integriert und lässt sich laut Hersteller in vSphere
6 und den Citrix XenServer einbinden. Der
Hersteller hat auch All-Flash-Arrays als Appliance im Programm. Die 19-Zoll-Einschübe
können in zentralen Switchen CPU-nah das
komplette Storage übernehmen.
EMC2 bietet verschiedene Software- und
Appliances auf Flash-Basis an, für Flash-Server-, Hybrid-Array- und All-Flash-Array-Lösungen. Die Software läuft ebenfalls unter
dem Hypervisor (VMware oder Citrix). Die
Brick-basierte SAN-Lösung EMC XtremIO AllFlash Scale-out Array arbeitet mit 25 SSDDrives pro Brick, wobei die Storage-Appliance
bis zu acht Bricks im Cluster verwalten kann.
Ein Brick fasst je nach Ausführung zwischen
5 und 40 TByte. Die Lösung ist skalierbar auf
bis zu 320 TByte.
Software und Storage
schaukeln sich hoch
Die Lösung ist nicht billig, und die Lebensdauer erreicht mit NAND-Flash wahrscheinlich nicht die von Festplatten. Doch mit neuer
Flash-Technik und sinkenden Preisen wird
klar, wohin die Reise geht. Derzeit erscheint
das noch sehr überdimensioniert: Welcher
Server hat heute ein derart hohes performantes I/O-Datenaufkommen, dass ein FlashArray erforderlich wäre? Aber mit der zunehmenden Etablierung von Flash-Speicher im
Storage ändern sich auch die Anwendungen,
weil Entwickler keine Rücksicht mehr nehmen müssen. Das wiederum hat Auswirkungen auf die gesamte Netzwerkstruktur, die
dann in Sachen Performance mitziehen muss.
In diesem Szenario sind Fibre Channel und
Festplatten Auslaufmodelle.
INTEGRATION | Hyperkonvergenz
Alexander Thoma, Senior Solutions and Performance Engineer Nutanix
DER UNSICHTBARE HYPERVISOR
Komplexität ist eines der größten Probleme im Rechenzentrum. Zwar hat Virtualisierung die Flexibilität
erhöht und viele Fragen gelöst. Mit der Zeit aber hat sie die Komplexität weiter erhöht. Schuld daran sind
meist traditionelle Speichersysteme (SAN/NAS), doch immer mehr die Management-Komponenten.
E
inige der Komplexitäten und Kostentreiber traditioneller Hypervisoren rühren
daher, dass sie von externen Komponenten
wie Datenbankplattformen und einer Vielzahl
von Managementkomponenten abhängig
sind. In der Regel erfordert jede dieser Komponenten zu Beginn ein Design und eine Dimensionierung auf Expertenniveau; danach
muss manuell skaliert werden, wenn die Umgebung wächst. Diese Datenbank- und Managementkomponenten nehmen einen beträchtlichen Teil der Zeit in Anspruch, die das
Betriebsteam für die Administration aufwendet. Am Ende führen diese Komplexitäten zu
steigenden Kosten (sowohl Betriebs- als auch
Investitionskosten) sowie Risiken, die wiederum in vielen Fällen die Verfügbarkeit und
Leistung beeinträchtigen.
Überkomplexe RZ-Architekturen
Traditionelle Hypervisoren sollen einen
immer größeren Mix an Rechen- und Speicherkomponenten unterstützen. Hier liegt
die Ursache für Probleme bei der Leistung,
Zuverlässigkeit und Interoperabilität. Angesichts der zahllosen Kombinationen und
Konfigurationen ist die Qualitätssicherung
(QS) einer sehr großen Anzahl von Komponenten schlicht unrealistisch. In klassischen
Szenarien bleiben Kompatibilitätsfragen ein
Risiko, im Design und während der gesamten Lebensdauer der Infrastruktur.
Viele Funktionalitäten klassischer Hypervisoren wurden dafür konzipiert, Herausforderungen wie die Verwaltung von Kapazitäten
und Leistung oder Noisy-Neighbor-Probleme zu meistern. Das ist das Resultat einer
einfachen Tatsache: Traditionelle Three-TierSpeicherarchitekturen wurden nie für eine
virtualisierte Welt gebaut. Solche Funktionalitäten versuchen zum Beispiel, die Schwierigkeiten zu umgehen, die entstehen, wenn
die Kapazität via Multiple Datastores (LUNs)
an den Hypervisor gemeldet wird. Andere
14
STORAGE
Mechanismen sorgen für einen fairen Ausgleich beim Speicherzugriff virtueller Maschinen untereinander, falls in der begrenzten Warteschlangentiefe für einen einzelnen
Datastore Konflikte auftreten.
Diese Schwierigkeiten und Konflikte zwingen Systemarchitekten dazu, zusätzliche
Funktionen zu nutzen und immer häufiger
komplexe Architekturentscheidungen schon
in der Designphase zu treffen. Zahlreiche
Storage-Anbieter wiederum haben in ihrem
Bemühen, die sprichwörtliche Quadratur des
Kreises zu erreichen und das SAN doch noch
passend für die Virtualisierung zu machen,
Multipathing-Treiber entwickelt; einige verlangen dafür auch Lizenzgebühren.
All diese Faktoren verteuern das Projekt
und machen es komplexer. Die Folge: Die
Zeit bis zum Abschluss der Implementierung
und zur Betriebsabnahme der Infrastruktur
verlängert sich.
Abstraktion von der
Virtualisierungsebene
Darum ist die Zeit überreif für eine neue Generation von Hypervisoren, um die Virtualisierungsschicht zu vereinfachen. Die Möglichkeiten und Merkmale – Hochverfügbarkeit, VMMobilität, Analytics etc. –, die Unternehmen
mittlerweile erwarten, müssen dieselben bleiben. Aber sie müssen verständlicher und
leichter zu nutzen sein. Hypervisoren der
nächsten Generation zeichnen sich durch integrierte und hochskalierbare Managementschichten aus, und zwar ohne Abhängigkeiten von Datenbankplattformen Dritter. Das
spart Lizenzkosten und vereinfacht die Architektur. Die Implementierung der verschiedenen Managementkomponenten entfällt ganz.
Außerdem sinkt der Aufwand im laufenden
Betrieb ebenso wie die Komplexität bei der
Administration von Drittkomponenten.
Dennoch reicht ein integriertes und
skalierbares Management allein nicht aus.
Der Clou eines Next-Generation-Hypervisors
besteht darin, dass sämtliche Komponenten
hochverfügbar und mit Selbstheilungsmechanismen ausgestattet sind. Die Managementkomponenten sollten dementsprechend auf jeder einzelnen CVM (Controller
Virtual Machine) laufen. Dadurch können die
Aufgaben gleichmäßig über den gesamten
Cluster verteilt werden. Sollte eine CVM offline
gehen, arbeiten die übrigen CVMs deren
Aufgaben automatisch ab.
Außerdem müssen Hypervisoren der
nächsten Generation über integrierte Analysefunktionen verfügen. Diese müssen zudem
hochverfügbar sein und mit dem wachsenden Cluster skalieren. Zu diesem Zweck werden die Analysekomponenten und Statistikfunktionen gleichmäßig über die Knoten im
Cluster verteilt. Das sichert gleich bleibende
Leistung und Funktionalität, unabhängig
von der Größe der Umgebung. Anders als bei
traditionellen Hypervisoren müssen dann
keine Analysekomponenten entworfen, installiert und konfiguriert werden, die später
eine eigene Managementaufgabe sind und
nicht selten das Risiko eines Single Points of
Failure bergen.
Die integrierten Analysefunktionen müssen sowohl Echtzeit- als auch historische
Daten liefern, und zwar nicht nur über die virtuellen Maschinen und den Hypervisor, sondern auch über die zugrunde liegende Infrastruktur, die Hardware und die verteilte Speicherstruktur. Es ist wichtig, durch eingebaute
Tools zur Bedarfsermittlung einen Pool an
verfügbaren Ressourcen (Kapazitäten etc.)
bereitzustellen. Mit solchen Werkzeugen können Administratoren den Kauf zusätzlicher
Knoten je nach Bedarf planen; sie vermeiden
eine Anschaffung auf Vorrat und dadurch
überhöhte oder unnötige Investitionen.
Beim Skalieren traditioneller Hypervisoren
und Speicher müssen Kapazitätsanpassungen sowohl auf der Ebene der Rechenressourcen als auch des Speichers stattfinden.
INTEGRATION | Hyperkonvergenz
Bild: kentoh – Fotolia.com
Dabei ist keineswegs garantiert, dass sich mit
der Skalierung eine höhere Leistung erreichen lässt. In einem Hypervisor der nächsten
Generation hingegen werden Anpassungen
der Rechen- und Speicherressourcen an
einem einzigen Ort vorgenommen – über
die Managementoberfläche (am besten auf
HTML5-Basis). Solche fortgeschrittenen Hypervisoren können sogar die Zeit abschätzen, wann eine oder mehrere Ressourcen zur
Neige gehen, und Vorschläge unterbreiten,
was für eine Art Knoten angeschafft werden
sollte, um die Leistungs- und Kapazitätsgrenzen zu beseitigen.
Integrationstiefe und
Hochverfügbarkeit
Es gibt jedoch noch weitere Anforderungen
an moderne Hypervisoren. So müssen sie mit
gemeinsam genutztem Scale-out Storage,
also der zugrunde liegenden verteilten Speicherstruktur, tief integriert sein. Nur dadurch
lassen sich Komplexitäten wie Multipathing,
LUNs oder RAID beseitigen. Andererseits müssen der Hypervisor und die verteilte StorageStruktur Dinge ermöglichen wie voneinander
unabhängige Software-Upgrades. Das ist die
Voraussetzung dafür, betriebsbedingte Komplexitäten zu reduzieren und ein Maximum an
Stabilität zu erreichen. Dazu müssen die verteilte Storage-Struktur und andere Managementkomponenten in einer CVM laufen, die
auf dem Hypervisor aufsetzt. Ein weiterer
Vorteil dabei ist, dass die verteilte StorageStruktur dadurch Hypervisor-agnostisch wird.
Darüber hinaus kann die Integration mit
der Speicherstruktur ein granulares Kapazitätsmanagement überflüssig machen, gleichzeitig aber die Daten lokal bei der darauf zugreifenden virtuellen Maschine halten und
dadurch die Leistung erhöhen. Bei einem
Hypervisor der nächsten Generation sollte es
Konzepte wie Mounts oder Datastores gar
nicht geben. Stattdessen werden hier dlockStorage-Geräte (vDisks) von einem einzigen
Storage-Pool aus via iSCSI direkt den verschiedenen VMs präsentiert, sodass die
Kapazitäten nicht mehr an verschiedenen
Orten verwaltet werden müssen.
Ferner bietet ein Hypervisor der nächsten
Generation intelligentere Funktionalitäten
für Hochverfügbarkeit. Diese starten VMs auf
dem Knoten neu und schaffen dadurch bei
einem Ausfall am schnellsten Abhilfe. Durch
die Integration mit der verteilten Speicherstruktur ist der Hypervisor in der Lage, zu
ermitteln, wo sich die aktivsten Daten für die
jeweilige VM befinden. Ferner können moderne Hypervisoren die Auslastung von CPU
und Arbeitsspeicher analysieren, bevor virtuelle Maschinen auf dem für sie optimalen
Knoten hochgefahren werden. Im Ergebnis
verringern Hypervisoren mit eingebauter
Hochverfügbarkeit den Zeitaufwand für die
Wiederherstellung von virtuellen Maschinen
und die Rückkehr zur normalen Betriebsgeschwindigkeit.
Die Unabhängigkeit moderner Hypervisoren von der Version des zugrunde liegenden Software-gesteuerten Speichers ist
ein weiterer wichtiger Punkt. Müssen Hypervisoren und Speicher gleichzeitig einem
Upgrade unterzogen werden, steigen die
Komplexität und die Dauer der UpgradePhase. Dies führt unter Umständen zu Problemen bei der Interoperabilität mit anderen
Komponenten. Unternehmen könnten deshalb versucht sein, ältere Versionen länger
als geboten zu verwenden und sich mit
einem geringeren Nutzen der eigenen
Infrastruktur zufriedenzugeben.
Sicherheit, Automation,
Selbstheilung
Viele Unternehmen setzen auf sogenannte
Security Technical Implementation Guides
(STIGs), also standardisierte Methoden zur sicheren Installierung und Wartung von Softund Hardware. Darum benötigen moderne
Hypervisoren eingebaute Funktionalitäten
für Eigen-Audits und automatische Reparatur, um die STIG-Vorgaben zu erfüllen. Wenn
der Hypervisor zum Beispiel von Haus aus
gehärtet ist, ohne dass Administratoren
Empfehlungen wie das Entfernen überflüssiger Software, das Vorschreiben von Passwortlänge und -aufbau oder das Schließen
nicht benötigter Ports anwenden müssen,
reduziert sich die Angriffsfläche.
Wachsende Anforderungen machen es
unumgänglich, dass moderne Hypervisoren
mit vollautomatischen Selbstheilungsmechanismen für die Hardware und die
Managementkomponenten ausgestattet
sind. Dies zeigt sich etwa im UpgradeProzess, in dem automatisch die korrekten
Aktualisierungen heruntergeladen und installiert, zuvor jedoch automatisch auf Stabilität, Konnektivität und Funktionalität überprüft werden. Intelligentes Umleiten und
Lastverteilen des Storage-Traffics über alle
Knoten innerhalb eines Clusters hinweg
verhindert Unterbrechungen bei der Aktualisierung der Controller VM. Dazu werden die
auf dem Knoten betriebenen VMs automatisch auf andere Knoten migriert und
nach Abschluss des Upgrades zurückgespielt.
Der Grad an Datenlokalität und folglich die
erzielte Leistung bleiben dadurch auf
maximalem Niveau.
Bei diesem Automatisierungsgrad sind
Upgrades mit einem einzigen Klick möglich
und lassen sich ohne spürbare Leistungseinbußen auch während der Geschäftszeiten
vornehmen. Gleichzeitig wird das Risiko fehlerhafter Upgrades auf ein Minimum reduziert und betrifft im schlimmsten Fall einen
einzigen Knoten.
Zusätzlich sollte die Managementplattform eines modernen Hypervisors in der gleichen Weise – also unterbrechungsfrei und
mit nur einem Klick – in der Lage sein, die zugrunde liegenden Speicher und HardwareKomponenten zu aktualisieren. Das Ziel der
Automatisierung besteht ja darin, die Infrastruktur so unsichtbar wie möglich zu machen, damit das IT-Team sich um die wirklich
wertschöpfenden Aufgaben kümmern kann.
Sollte dennoch ein Ausfall auftreten, muss
die Plattform in der Lage sein, die Hypervisoren, die Management-Komponenten und die
Speicherstruktur eigenständig zu reparieren,
noch bevor die Hardware ausgetauscht wird.
Mit einem modernen Hypervisor gelingt dies
dadurch, dass die Management-Funktionen
der Controller VM vollständig verteilt und
redundant ausgeführt sind.
Solche Selbstheilungsmechanismen senken nicht nur das Risiko weiterer Ausfälle,
sondern sind eine Voraussetzung der Erfüllung immer anspruchsvollerer SLAs. Denn
selbst Standards wie der Hardware-Austausch vor Ort innerhalb von vier Stunden
genügen nicht, um eine Verfügbarkeit zu gewährleisten, die über 99,95 % liegen soll.
Konzentriertes RZ-Management
Mithilfe eines Hypervisors der nächsten Generation lassen sich zahlreiche Komplexitäten beim Management von Rechenzentrumsinfrastrukturen minimieren und oft sogar
beseitigen. Die Infrastruktur wird dadurch
gleichsam unsichtbar. Die wichtigste Folge
davon ist, dass die IT-Teams sich weniger
darum kümmern müssen, den laufenden
Betrieb zu gewährleisten, und stattdessen
mehr Zeit für die geschäftlichen Ziele ihrer
Unternehmen aufwenden können.
STORAGE
15
VM-DATENSICHERUNG | Disaster Recovery
SNAPSHOTS, BACKUP, REPLIKATE –
WAS, WANN, WIE?
Datensicherung und Disaster Recovery sind in virtualisierten Umgebungen doppelt wichtig.
Seitdem schlagen sich die Rechenzentren mit enormen Datenmengen herum,
die entsprechend viel Speicherplatz kosten. Unklar ist oft die Funktion von Snapshots.
Richtig ist, dass Snapshots die Basis solider Backups sind.
V
irtualisierungstechnologien sind aus der
Unternehmens-IT kaum noch wegzudenken. Auch für kleine und mittlere Unternehmen haben virtuelle Umgebungen Potenzial,
spätestens seit Microsofts Entscheidung, den
hauseigenen Hypervisor Hyper-V kostenlos
auszuliefern. Hyper-V ist bislang allerdings
nur sporadisch vertreten. VMware hat mit
seinen ESX- und vSphere-Lösungen die Nase
deutlich vorn. Unklar ist in vielen Anwenderunternehmen aber eine entscheidende
Frage: Wie wird ein virtueller ESX-Server
eigentlich am besten gesichert?
Grundsätzlich gilt: Nur gesicherte Daten
und Systeme können verlässlich und nachhaltig den laufenden Geschäftsbetrieb
garantieren.
Snapshots sind keine Backups
Dass ein Snapshot einer virtuellen Maschine
ein Backup ersetzt bzw. als solches genutzt
werden kann, ist ein weitverbreitetes Missverständnis. Obwohl Snapshots und Backups einige Berührungspunkte haben, ist der jeweilige Einsatzzweck deutlich zu unterscheiden.
Ein paar Fakten: Ein Snapshot ist die Aufzeichnung des Zustands der virtuellen Maschine zu einem bestimmten Zeitpunkt. Ein
Snapshot ist aber keine vollständige Kopie
der virtuellen Festplatte, sondern eine DeltaDatei oder, anders gesagt, eine Art Changelog. Der aktuelle Zustand der virtuellen
Maschine ist eine Kombination originaler
Datenträger und ihrer Snapshots.
ESX-/vSphere-Snapshots werden in direkter Nachbarschaft des Originals abgelegt. Sie
wachsen in 16 MByte großen Inkrementen
und können daher die Größe des originalen
Datenträgers erreichen oder sogar übertreffen. Handelt es sich bei der virtuellen
Maschine beispielsweise um einen Mail-,
Datenbankserver oder um ein anderes
System mit hohen Änderungsraten, erreicht
die Größe des Snapshots recht schnell
die Größe des Ausgangsdatenträgers.
VMware-Snapshots sind immer vom Typ Thin
16
STORAGE
Provisioned und haben daher eine nachteilige Wirkung auf die Performance von
Produktivumgebungen.
Obwohl es theoretisch möglich ist, eine
Kette von bis zu 32 Snapshots aufzubauen,
empfiehlt VMware maximal zwei bis drei
Elemente in einer Snapshot-Kette. Die
Datensicherheit und die Performance sind
bei einer höheren Anzahl unter Umständen
nicht mehr gesichert. Ein einzelner Snapshot
sollte in der Regel maximal 72 Stunden
abdecken. Andernfalls wird er so groß,
dass das Rückspielen auf die originale Festplatte unverhältnismäßig viel Zeit benötigen
würde.
Snapshots von virtuellen Maschinen wurden vor allem zu Testzwecken entwickelt. Sie
eignen sich hervorragend, um kürzlich geänderte Konfigurationen ungeschehen zu machen oder um Probleme durch fehlerhaft
aufgespielte Software zu beheben. Wenn
man Snapshots allerdings anstelle von Backups verwendet, dann wird das erstens die
Performance der virtuellen Maschine negativ
beeinflussen, und man riskiert darüber
hinaus auch den Verlust von Daten.
Snapshots haben eine Reihe nützlicher Eigenschaften und sind vorzüglich geeignet,
um ein System temporär zu sichern, beispielsweise während die virtuelle Maschine
aktualisiert wird. Sollte dabei ein Problem
auftreten, lässt sich das System wieder in den
Ausgangszustand zurücksetzen – und das im
Handumdrehen. Das Löschen des Snapshots
reicht, und schon sind die fehlerhaften Modifikationen Geschichte. Ist hingegen alles
o.ˇk., werden die Änderungen einfach auf die
originale virtuelle Festplatte angewendet.
Das ist praktisch und in vielen Situationen
äußerst hilfreich, aber eben kein ausreichender Ersatz für ein richtiges Backup.
Backups sind keine Snapshots
Das Erstellen eines VM-Backups ist ein vielschichtiger Prozess. Dabei wird beispielsweise eine exakte und vollständige Kopie der
virtuellen Maschine erstellt, diese Kopie an
einen neuen Speicherort verschoben und
dabei im Normalfall komprimiert. Je nachdem, welche Art Backup-Lösung man einsetzt, und je nach persönlichem Setup,
geschieht das Komprimieren entweder vor
oder nach dem Verschieben auf den Zielspeicher. Beide Varianten haben Vor-und Nachteile und sollten daher mit Bezug auf den
Einsatzzweck ausgewählt werden. Die Komprimierung auf dem Ursprungssystem beeinträchtigt die Rechenleistung dieses Systems,
ermöglicht aber eine deutlich effizientere
Netzwerkübertragung.
Der weitaus wichtigste Part ist allerdings
das Erstellen einer konsistenten Kopie
der virtuellen Maschine. Und obwohl ein
Snapshot als eigentliche Backup-Lösung
nicht infrage kommen sollte, ist er integraler
Bestandteil des tatsächlichen BackupProzesses. Die meisten Backup-Lösungen
für ESX-/vSphere-Umgebungen basieren auf
VMware-nativen Snapshot-Technologien.
Man kann einen Snapshot auch als eine „eingefrorene“ Version der virtuellen Maschine
beschreiben – und nur in einem solchen
Zustand kann eine konsistente Kopie der
VM erstellt werden. Wäre das Dateisystem
während des Kopiervorgangs nicht „eingefroren“, dann würden sich die zu kopierenden .vmdk- (virtuelle VMware-Festplatte)
und .vmx-Dateien (Einstellungsdatei einer
VMware-Maschine) während des Kopiervorgangs mit hoher Wahrscheinlichkeit verändern. Die erstellte Kopie wäre damit zu
keinem Zeitpunkt konsistent.
Ein Snapshot macht also allein noch kein
Backup, ist für das Anfertigen von VMBackups aber notwendig. Abgesehen von
den nativen Lösungen der Hersteller von
Virtualisierungslösungen gibt es eine Reihe
von weiteren Angeboten am Markt. Diverse
Hersteller bieten Backup-Produkte für VMwareInfrastrukturen an, und obwohl sich diese
Angebote konzeptuell zum Teil deutlich unterscheiden, basieren nahezu alle Lösungen
auf der Snapshot-Technologie.
Bild: viperagp – Fotolia.com
Simon Köhl, Paragon Technologie GmbH
VM-DATENSICHERUNG | Disaster Recovery
Einsatz- und Restore-Szenarien
Hat eine Backup-Software Zugriff auf die
per Snapshot bereitgestellten Dateien der
virtuellen Maschine, unterscheidet sich das
Vorgehen beim eigentlichen Backup von
Hersteller zu Hersteller. Verschiedene Speicherorte, redundante Backup-Optionen, verschiedene Methoden der Komprimierung
und Datendeduplikation, inkrementelle Ansätze und selbstverständlich auch unzählige
Wiederherstellungsmöglichkeiten, sind nur
einige der möglichen Auswahlkriterien. Die
eine und einzige richtige Backup-Lösung
kann und wird es nicht geben. Vielmehr sollte man je nach Einsatzszenario sorgfältig
auswählen.
Das hauptsächlich realistische Wiederherstellungsszenario ist ein nicht minder wichtiger Selektor. Manche Lösungen sind besser
geeignet, wenn die Maschine an ihrem
Ursprungsort wiederhergestellt werden soll,
andere können einen virtuellen Server dafür
direkt aus dem Backup heraus starten.
Ein weiterer kritischer Teil des Backup-Prozesses ist die Entfernung des Snapshots. Ist
die Sicherung erfolgreich verlaufen, wird der
Snapshot nicht länger benötigt, sondern
kann im Gegenteil sogar störend wirken. Einbußen bei der VM-Performance und unnötig
belegter Speicherplatz wurden ja bereits
angesprochen. Im Normalfall sendet das
Backup-System daher eine Löschinstruktion
an die ESX- oder vSphere-Umgebung und
veranlasst die Entfernung des Snapshots.
Sollte es hierbei zu Kommunikationsproblemen kommen, kann dies zu „verwaisten“
Snapshots und damit zu den angesprochenen Nachteilen führen. Eine gute BackupLösung wird dies allerdings spätestens beim
nächsten Run überprüfen und das Remanent
entfernen.
Je nach Backup-Konzept und eingesetzter
Lösung kümmert sich die Software außerdem um die Archivierung der Backups, verschiebt ältere Backup-Images auf SecondTier-Speicher und dedupliziert die zu archivierenden Daten.
Replikation und
Hochverfügbarkeit
Replikate von virtuellen Maschinen sind eine
dritte Möglichkeit der Sicherung. Virtuelle
Server, die First-Tier-Anwendungen bereitstellen und daher hochverfügbar sein müssen,
werden am besten mittels VM-Replikation
gesichert. Die Replikation bietet mit Abstand
den besten RTO (Recovery Time Objective),
da VM-Replikate nicht komprimiert und
konzeptbedingt nahe der Originalmaschine
und in ihrem Ursprungsformat vorgehalten
werden. Replikate können im Ernstfall sofort
und ohne zusätzlichen Konfigurationsaufwand in Betrieb genommen werden. Viele
Backup-Lösungen stellen übrigens auch
Methoden zur VM-Replikation bereit und
können sogar inkrementelle Ketten anlegen.
Hierfür braucht es also nicht unbedingt eine
zusätzliche Lösung, was im Zweifel sowohl
den Aufwand reduziert als auch den Geldbeutel schont.
Wie sich denken lässt, ist VM-Replikation
die bessere Version des VM-Snapshots. Datenkorruption, völliger Verlust der Originaldaten oder Performance-Einbrüche der originären Virtual Machine sind mit Replikationen
nicht zu befürchten, da sie anders als der
Snapshot auf einem anderen physischen
Speicherort liegen und erst im Notfall zum
Einsatz kommen. Da Replikate aber konzeptbedingt auf First-Tier-Datenspeichern
vorgehalten werden, sind sie je nach Größe
der virtuellen Infrastruktur merkliche Kostenfaktoren. Für Systeme, die keine Hochverfügbarkeit benötigen, sind VM-Replikationen
daher nicht unbedingt das richtige Konzept.
Will man also Daten und virtuelle Umgebungen effektiv sichern, ist eine dedizierte
Backup-Lösung das Mittel der Wahl. Bei kurzfristigen Wartungsarbeiten kann die Snapshot-Technologie punkten, und für optimale
RTOs ist VM-Replikation das richtige Mittel.
SCALE-OUT | All-Flash
Mara McMahon, Segment Director SolidFire
KAPAZITÄTSPLANUNG
FÜR SERVICEPROVIDER
Die Planung der Storage-Kapazität im Rechenzentrum ist eine
komplizierte Sache, zumal wenn Serviceprovider auf die
falsche Architektur setzen. In einem Scale-out-Modell lassen
sich Kapazitätserweiterungen bei garantierter Performance
flexibel und ohne Betriebsunterbrechungen vornehmen.
D
ie richtige Planung der Storage-Kapazität
ist für alle Cloud- und Hosting-Serviceprovider ein kritisches Thema, denn Planungsfehler können erhebliche Auswirkungen auf die Profitabilität haben. Um einerseits
den Anforderungen Performance-kritischer
Workloads gerecht zu werden und um andererseits eine breite Palette von BusinessAnwendungen in mandantenfähigen Multitenant-Umgebungen zu unterstützen, setzen
Serviceprovider heute verstärkt auf All-FlashArrays. Aber bei der Mehrzahl der Lösungen,
die auf dem Markt verfügbar sind, stellt
die Skalierung der Kapazität ein Risiko dar: Da
die meisten All-Flash-Speicherlösungen auf
einem Scale-up-Modell basieren, müssen die
Rechenzentren mit hohen Kosten und Ausfallzeiten aufgrund von Datenmigration und
der damit verbundenen Wartungsarbeiten
rechnen.
Scale-up mit Hindernissen
Generell ist es so, dass wegen der hohen
Performance von All-Flash-Arrays die meisten Systeme viel früher an Kapazitäts- als
an Leistungsgrenzen stoßen. In einem Scaleup-Modell erhält man mehr Kapazität,
indem man neue Speichersysteme hinzufügt, also durch neue Controller plus Laufwerke. Damit sind nicht nur erhebliche
Kosten verbunden; in der Regel heißt das
auch, dass Daten migriert werden müssen,
was wiederum mit dem Risiko von Datenverlusten verbunden ist. Und es entstehen
regelmäßig Storage-Inseln, separate, siloartige Systeme mit einer bestimmten, nicht
austauschbaren Technologie, die einen
hohen Verwaltungsaufwand mit sich
bringen. Da in einem Scale-up-Modell Performance und Kapazität voneinander abhängen, verteilt sich die Controller-Leistung
des Systems bei zusätzlichen Kapazitäten
auf mehr Daten und Anwendungen. Dadurch werden Scale-up-Designs anfällig für
das Noisy-Neighbor-Problem: Eine kleine
Zahl Performance-hungriger Anwendungen
18
STORAGE
monopolisiert die Controller-Ressourcen
und beeinträchtigt damit die Leistung aller
anderen Anwendungen innerhalb des
Arrays.
Dagegen erlaubt es eine Scale-out-Architektur, die Kapazität nach oben oder unten
zu skalieren, indem man einfach Knoten hinzufügt oder entfernt. Ein gut organisiertes
System benötigt dabei keine Datenmigration
und auch keinen zusätzlichen Verwaltungsaufwand. Um das Noisy-Neighbor-Problem
aus der Welt zu schaffen, stellt ein Scale-outDesign seine Kapazitäten unabhängig von
der Performance zur Verfügung. Quality of
Service verschafft jeder Anwendung eine
garantierte Performance. Der Serviceprovider
muss also nicht (ungenutzte) Kapazitäten
hinzufügen, um mögliche PerformanceProbleme im Vorfeld abzufangen.
Scale-out-Designs müssen deshalb in der
Lage sein, für die Leistung ein Minimum-,
Maximum- und Burst-Level zu definieren,
wobei das Minimum-Level am wichtigsten
ist, da es für jede Anwendung eine
feste Basis bestimmt, also eine bestimmte
garantierte Leistung.
Scale-out mit neuen Nodes
Ein weiteres Storage-Risiko für Serviceprovider stellen End-of-Life-Upgrades dar. In einer
Scale-up-Architektur sind die üblichen Servicezyklen, die sich über drei bis fünf Jahre
erstrecken, der Fluch der Administratoren.
Planung, Prüfung und Realisierung erstrecken sich oft über Monate, darüber hinaus
sind teure professionelle Services nötig und
muss man die Kunden mit Downtime konfrontieren.
Mit einer Scale-out-Architektur, die es erlaubt, verschiedene Hardware-Generationen
zu mischen, werden Hardware-Upgrades zu
einem eher trivialen Prozess. Serviceprovider
können einfach Knoten zum Cluster hinzufügen oder entfernen – ohne Ausfallzeiten,
ohne Rebalancing, ohne Restriping, ohne ReAllokation von Volumes. Außerdem sind Serviceprovider damit in der Lage, Kapazität und
Knoten zwischen ihren Rechenzentren auszutauschen. Wenn ein Rechenzentrum über ungenutzte Kapazitäten verfügt, während ein
anderes Datacenter mehr benötigt, können
sie einen Knoten ohne Betriebsunterbrechung von einem zum anderen bewegen.
Ohne die richtige Technologie stellt das
Upgrading von Kapazität oder Performance
ein echtes Problem dar: Wenn ein Provider
sich bei der Kapazitätsplanung nicht absolut
sicher ist, ist er schon zum Upgrade gezwungen. Das bedeutet aber immer auch
Betriebsunterbrechungen: Services müssen
offline gehen, wofür entsprechende Wartungsintervalle einzuplanen sind. Nur mit einem
Scale-out-Ansatz in einer robusten Architektur,
die einfach zu verwalten ist, können
Serviceprovider zuverlässig planen und ihre
Kapazität ohne Risiko skalieren.
OBJECT STORAGE UND BLOCK STORAGE
Object Storage und Block Storage sind
die beiden häufigsten Methoden in Scaleout-Storage-Umgebungen auf Basis von
OpenStack. Dabei hat jede Methode spezifische Vorteile. Optimale Ergebnisse lassen
sich erzielen, wenn man beide Methoden
einsetzt.
Object Storage mit Swift: Swift kann Scaleout-Storage auf Standardhardware zur Verfügung stellen. Es ist eine Option für externe Speicherlösungen wie SAN-Umgebungen und damit für Anwendungen, bei
denen es auf geringe Kosten ankommt,
während die Performance weniger wichtig
ist – beispielsweise in der Archivierung.
Swift eignet sich für umfangreiche statische
Datenmengen, bei denen sequenzielle
Lese- und Schreibzugriffe erfolgen und ein
niedriger IOPS-Wert ausreichend ist.
Block Storage mit Cinder: Klassische Anwendungsfälle für diese Architektur sind
vor allem Performance-kritische Primärspeicher-Workloads, beispielsweise SQLoder NoSQL-Datenbanken oder Anwendungen in Bereichen wie Datenanalyse
oder Transaktionsverarbeitung. Cinder eignet sich für Daten, die häufig geändert werden, für Random-Lese- und -Schreibvorgänge sowie für Workloads, bei denen eine
hohe I/O-Performance benötigt wird.