Einkaufsführer Backup

storage-magazin.de
Ausgabe 1-2015
Eine Publikation von speicherguide.de
Einkaufsführer Backup
Backup im Wandel – Archivierung – Cloud – Tape-Research
2
Service
Backup benötigt eine Runderneuerung
Inhalt
Editorial/Inhalt��������������������������������Seite 2
Liebe Leserinnen und Leser,
Karl Fröhlich,
Chefredakteur
speicherguide.de
vor einem Jahr titelte ich an dieser Stelle »Backup/Recovery: Es bleibt ein Dilemma«. Seitdem hat sich
zwar viel getan, aber der Tenor bleibt unverändert. Klassische Datensicherungsstrategien greifen nicht
mehr oder zumindest immer seltener. Der Wandel in den Rechenzentren macht auch vor dem Backup
nicht halt.
Der Begriff heterogene IT-Umgebung hat mittlerweile eine vollkommen andere Bedeutung. Galt es
früher vor allem unterschiedliche Netzwerk-Betriebssysteme zusammenzubringen, sind es heute
Datenströme aus physikalischen und virtuellen Umgebungen sowie und aus der Cloud. Hinzukommt
das enorme Wachstum an unstrukturierten Daten, dass durch Trends wie Industrie 4.0 und dem
Internet der Dinge noch zusätzlich befeuert wird. Die Erfassung und Analyse von Sensordaten oder
Informationen, die über mobile Geräte gewonnen werden, steht noch relativ am Anfang. Von SmartHomes, vernetzten Automobilen und Wearables ganz zu Schweigen. Mit althergebrachten Backup/
Recovery-Prozessen wird die IT-Abteilung diese Datenmengen immer weniger beherrschen können.
IDC prognostiziert in den kommenden fünf Jahren eine Verzehnfachung der Datenmenge. Geschwindigkeit wird daher mehr denn je ein Thema sein. Konnte man schwindenden Backup-Fenstern mit
einer Sicherung auf Disk relativ gut begegnen, lautet die Zukunft auch im Backup-Bereich Flash.
Die Zukunft wird darin bestehen, das Backup/Recovery auf eine flexible, skalierbare und zentralisierte
Basis zu stellen. Ein Eckpfeiler könnte dabei Software-defined Storage sein. Die Integration von
Standardkomponenten verspricht nicht nur Vorteile im Speicherbereich, sondern auch in der
Datensicherung. Experten zufolge können Unternehmen nur so im Rahmen ihrer Budgets bleiben.
Lesen Sie in diesem Special mehr über aktuelle Trends und Strategien im Bereich Backup/Recovery
sowie über den aktuellen Stand beim Cloud-Backup.
Ihr Karl Fröhlich
Chefredakteur, speicherguide.de
Eine Publikation von speicherguide.de
Datensicherung
Der Wandel in den
Rechenzentren��������������������������������Seite 4
LTO-Tapes bald mit 220 TByte
Speicherkapazität��������������������������Seite 7
Archivierung
Archivierung für
unstrukturierte Daten����������������� Seite 10
Revisionssicheres
Langzeitarchiv������������������������������� Seite 12
Backup-Software
Backup für Hybrid-Cloud
rückt in den Fokus����������������������� Seite 13
Gratis Backup und
Replikation von VMs������������������� Seite 14
Zu viele Anwender haben
Datenverlust trotz Backup�������� Seite 15
Kommentar: Polizeiwache
zahlt Lösegeld für seine Daten� Seite 16
Cloud
Cloud als Option für Backup
und Archiv ������������������������������������� Seite 17
Service
Impressum������������������������������������� Seite 21
Ausgabe 1-2015
Effizient | Innovativ | Performant
IT-STORAGE LÖSUNGEN
DIE NEUE GENERATION DER DATENSICHERUNG:
ARCSERVE® UNIFIED DATA PROTECTION
Spart Kosten: Eine einzige Lösung für Datensicherung und Wiederherstellung in virtuellen
und physischen Umgebungen
Wartungsfrei: Agentenlose Sicherung für VMware und Hyper-V (Windows- und Linux-VMs)
Kostenfreie Workstation Edition
– Für Windows Desktops und Laptops
mit BMR
– Support von privaten und öffentlichen Clouds
Spart Ressourcen: Globale Quelldeduplikation über alle Knoten, deduplizierte Jobs und
Standorte, damit weniger Speicherkapazität nötig
Spart Aufwand: Integrierte Replikation und Hochverfügbarkeit für reibungslosen Geschäftsbetrieb und hohe SLA´s und Kombinationen
– Globale Dedup mit Nutzung des
Recovery Point Servers als 30-TagesTestversion inklusive
Mehr unter: https://www.arcserve.com/de/freeworkstation.aspx
de/freeworkstation.aspx
TIM AG | Schoßbergstraße 21 | 65201 Wiesbaden | Tel. 0611 2709-0 | [email protected] | www.tim.de
4
Datensicherung
Backup-Strategien: Klassische Szenarien greifen nicht mehr
Der Wandel in den Rechenzentren
Virtualisierung, Cloud, Software-defined Storage verändern die Rechenzentren. Die Umwälzungen sind durchaus schleichend,
aber deshalb nicht weniger spektakulär: Der Wandel beeinflusst Märkte, komplette Ökosysteme, oder zumindest jahrzehntelang
erprobte Vorgehensweisen wie beispielsweise das Backup.
Von Engelbert Hörmannsdorfer
Sowohl unter technischen als auch unter
wirtschaftlichen Aspekten stoßen althergebrachte hardwareorientierte Speicherarchitekturen neuerdings an ihre Grenzen. Alleine, wenn man sich nur das Backup und
Disaster-Recovery anschaut, muss man
schon konstatieren: Backup-Fenster – was
ist das? Das war einmal…
»Früher war es etwas einfacher. Da hieß
Backup, Daten von einem Server auf Tape
zu sichern«, bekundet Frank Herold, Manager Presales & Consulting bei StorageSpezialisten Quantum, in einem  VideoInterview mit speicherguide.de. »Heute
haben wir zusätzlich schon die Sicherung
auf Backup-to-Disk, und neuerdings immer
mehr Cloud-Backup.«
Eine Publikation von speicherguide.de
Backup und Virtualisierung:
»Das ist mit klassischen BackupSzenarien nicht mehr zu greifen«
Nach Herolds Meinung hat bereits Virtualisierung extrem viel geändert: »Da wird
Backup von anderen Teams gefahren. Das
ist mit klassischen Backup-Szenarien nicht
mehr zu greifen.« Administratoren müssten
sich letztendlich überlegen, die unterschiedlichen Datenströme wieder zusammenzubekommen, und daraus Synergien
zu schaffen. »Gerade auch unter dem Aspekt des Kostendrucks«, erklärt Herold,
»den auch die IT-Abteilung immer stärker
spürt.«
Klassische Backup-Szenarien hätten zwar
nach Ansicht von Herold durchaus noch
ihre Daseinsberechtigung bei Unternehmen, bei denen es hauptsächlich um struk-
Frank Herold, Manager Presales & Consulting bei Quantum im Gespräch mit
dem speicherguide.de-Team Claudia Hesse und Engelbert Hörmannsdorfer.
turierte Daten geht. »Aber wenn man sich
ansieht, wo das starke Datenwachstum bei
den meisten Unternehmen herkommt,
dann sind das ja die unstrukturierten Daten«, erläutert der Quantum-Manager. Er
empfiehlt in diesem Zusammenhang den
Unternehmen, auf Storage-Tiering zu setzen: »Es muss ja nicht gleich alles ins Backup kommen – vieles lässt sich auch gleich
in die Archivierung verschieben.«
Ausgabe 1-2015
5
Datensicherung
Unternehmen sollten sich
mit SDS befassen
Vor allem Software-defined Storage (SDS)
stellt einen zukunftsorientierten konzeptuellen Ansatz dar, der sowohl für kleine und
mittelständische als auch große Unternehmen gleichermaßen interessant ist. Sich
eingehender mit SDS auseinanderzusetzen
ist vor allem lohnenswert, sobald die Anschaffung neuer Speicher-Hardware, der
Einsatz von Flash/SSDs oder Server- und
Desktop-Virtualisierungsprojekte auf der
Agenda stehen. Dies gilt ebenso, wenn Business-Continuity ein zentrales Thema ist und
eine ausfallsichere, performante sowie
hochverfügbare IT-Infrastruktur die Grundlage für den unterbrechungsfreien Ablauf
von Geschäftsprozessen stellen muss.
Im Rahmen einer SDS-Architektur lässt
sich Standard-Hardware, gleich welcher
Couleur, für die Zwecke des Anwenderunternehmens nutzen, und es lässt sich der
gesamten Storage über Software darüber
steuern. »So lassen sich vorhandene traditionelle Festplattenspeicher mit Flash-Medien und Hybridsysteme in einer auf ihre
individuellen Anforderungen zugeschnittenen Speicherarchitektur verbinden«, argumentiert beispielsweise Stefan von Dreusche, Director Central Europe bei Datacore
Software (»SANsymphony-V«). »Damit
Eine Publikation von speicherguide.de
Stefan von Dreusche, Director Central Europe,
Datacore Software
Gründe nennt er dafür einmal die Notwendigkeit, Flash kosteneffizient ins Rechenzentrum zu integrieren, dazu Microsofts Hypervisor-Offensive, den Trend zu hybriden
Clouds sowie die Integration von Standardkomponenten im Speicherbereich.
Dass der Boom bei SDS einen fundamentalen Wandel in der IT-Infrastruktur nach
sich ziehen wird, davon ist auch Tarkan Maner, Chairman und CEO, beim Storage-Software-Anbieter Nexenta (»NexentaStor«)
überzeugt: »Sobald IT-Manager verstehen,
dass sie sowohl die beste Software als auch
die beste Hardware einsetzen können, werden sich auf beiden Seiten nur noch die
besten Lösungen halten können. Damit ver-
steht der Weg offen, bestehende Insellösungen abzulösen und vom parallelen Betrieb
blockorientierter SAN-, dateibasierter NASsowie s­eparater Backup- und DisasterRecovery-Systeme verschiedener Hypervisoren oder Flash-Lösungen endgültig Abschied zu nehmen.«
»Software-defined Storage wird
2015 zum Mainstream«
Datacore-CEO George Teixeira legt sich ergänzend sogar konkret fest, und formuliert
die grundlegende These: »Software-defined
Storage wird 2015 zum Mainstream.« Als
Tarkan Maner, Chairman und CEO, Nexenta
schiebt sich auch die Verhandlungsgrundlage zwischen Kunde und Hersteller. Jedes
Mal, wenn neue Kapazität gebraucht wird,
kann neu verhandelt werden, was den CAPEX optimiert, ohne den OPEX zu beeinflussen. Die Grundlage für die Herstellerbindung ist somit entzogen, und der Kunde
erhält die volle Kontrolle zurück.«
Scale-Out-Shared-NothingArchitekturen
Einfluss hat Software in Form von SDS auch
auf neue hyperkonvergente Infrastrukturen,
die Networking, Storage und Computing
miteinander verbindet. Hyperkonvergente
Lösungen, beispielsweise mit VMware Virtual SAN mit EVO:Rail sind dabei eine kritische Komponente bereits von etlichen führenden Hardware-Herstellern. »Diese
Lösungen bieten für spezifische Workloads
wie VDI sehr einfach einzusetzende und zu
verwaltende Möglichkeiten«, argumentiert
Maner. »Vmware macht es für SoftwarePartner möglich, noch weiter zu gehen: Virtual SAN und EVO:Rail können eingebunden und von Anbietern als einfaches Add-on
angeboten werden.«
Der Nexenta-CEO ist überzeugt, dass SDS
darüber hinaus eine Schlüsselrolle bei der
Entwicklung der nächsten Generation von
Cloud- und Big-Data-Infrastrukturen spielt:
Ausgabe 1-2015
6
Datensicherung
»OpenStack-Clouds werden selten auf Speicher-Hardware von Legacy-Herstellern aufgebaut. Stattdessen bevorzugen Kunden
hochskalierte Scale-Out-Shared-NothingArchitekturen auf x86-Standardservern mit
einer Mischung aus günstigen SSDs und
Festplatten für Object-, Block- und File-Services.« Und diese hochskalierten Scale-OutArchitekturen dürften die Backup-Architekturen erneut durcheinander bringen.
Nicht mehr aufzuhalten:
Backup-as-a-Service
Wenn es um Backup-Strategien geht, sollten sich Anwender auch mit Backup-as-aService-Konzepten (BaaS) befassen. Anbieter wie Acronis haben bereits ihr
Funktionsspektrum erweitert, vor allem für
kleine und mittelständische Unternehmen
(KMU). Basierend auf der »AnyData«-Engine stuft Acronis ihre Backup-Offerten mittlerweile in drei Konfigurationen: Zum einen
als »Acronis Hosted«, was eine komplette
Lösung darstellt, die in einem Acronis-Datenzentrum gehostet wird. Zum anderen ist
ein hybrides Modell wählbar, bei dem eine
von Acronis gehostete Managementkonsole mit dem Storage des Service-Providers
verbunden wird. Nicht zuletzt ist zudem
eine Installation möglich, die vollständig
vom ausgewählten Service-Provider verEine Publikation von speicherguide.de
waltet wird, der auch die Daten speichert.
Die BaaS-Lösung von Acronis ist mehrstufig und mandantenfähig, offeriert lokales
und hybrides Storage, und unterstützt
Workstations, Windows-, Linux-, physische
und virtuelle Server (Vmware, Hyper-V,
Red Hat, Linux KVM, Citrix XenServer und
Oracle VM).
Für die Sicherheit gibt es eine 2048-BitSSL-Verschlüsselung beim Transfer sowie
eine AES256-Verschlüsselung für die gespeicherten Informationen. Um das seit 2010
bestehende Cloud-Backup-Angebot auch
weltweit und Compliance-gerecht anbieten zu können, verfügt Acronis über Rechenzentren nicht nur in den USA, sondern
auch in Deutschland, Japan, Frankreich,
Russland und Singapur.
Reseller können zum CloudStorage-Provider avancieren
Neue Backup-Strategien in Richtung Backup-as-a-Service empfiehlt man auch bei
NetApp. »In Deutschland arbeiten wir beispielsweise für Backup-as-a-Service mit
Partnern zusammen, deren Cloud-Lösungen nach allen Richtlinien der Datensicherheit abgenommen sind«, erläutert Manfred
Reitner, Senior Vice President und General
Manager EMEA bei Netapp. »Erst dann können sie diese Lösungen verkaufen.«
Autorisierung anbieten, die auf NetappTechnologie basiert.« Man helfe Resellern
damit, sich eventuell zum Cloud-StorageProvider zu transformieren.
Fazit: Unstrukturierten Daten
sorgen für Kollapszustände
Dieter Schmitt, Director Channel Sales EMEA,
Netapp
Für das Umsetzen von Backup-as-a-Service-Lösungen mit Partnern ist bei Netapp
Dieter Schmitt, Director Channel Sales
EMEA zuständig. »Wir haben extra für Partner ein Backup-as-a-Service-Paket definiert«, sagt Schmitt. »Es ist vor allem für
Partner aus der Reselling-Welt konzipiert.
Denn wir verhelfen Resellern damit zu einem Cloud-Offering.«
Letztendlich würden laut Schmitt Virtualisierung, Cloud und SDS nicht nur die Rechenzentren verändern, sondern eben auch
das Geschäft im Channel: »Wir ermöglichen
Partnern, ihre Geschäftsmodelle zu überdenken, indem wir zum Beispiel eine BaaS-
In der Geschäftswelt ist Datenwachstum
seit Jahren ein Dauerthema, und es wird
noch weiter rasant an Fahrt gewinnen.
Schlagworte sind hier Industrie 4.0, Internet of Things, oder die Hightech-Strategie
der Bundesregierung. Aber die Gemengelage greift um sich. In der intelligenten Fabrik produzieren Sensoren Unmengen an
Daten. Dazu kommen neuerdings Smartphone, Smartwatch und Smart-Home – mit
Wearables analysieren und optimieren wir
uns selbst. Laut IDC wird sich die globale
Datenmenge bis 2020 verzehnfachen! Zu
diesem Zeitpunkt reicht die verfügbare
Speichermenge nur noch für 15 Prozent aller Daten. Hinzu kommt, dass der Großteil
der Daten unstrukturiert vorliegen wird –
und somit nicht verwertbar ist. Zeitrahmen
und Budget für Datensicherung und Recovery laufen völlig aus dem Ruder. Es gilt die
Zeitfenster für Backup-Prozesse unter allen
Umständen weiter zu verkürzen, und
festgelegte Recovery-Ziele bestmöglich einzuhalten – und das alles im Rahmen des
Budgets.
K
Ausgabe 1-2015
7
Datenspeicherung
Rekord: IBM Research packt 123 Gbit pro Quadratzoll aufs Band
LTO-Tapes bald mit 220 TByte Speicherkapazität
In Zusammenarbeit mit Fujifilm gelingt IBM-Wissenschaftlern ein
neuer Speicherrekord. Mit der neuen Technologie könnte eine
einzelne LTO-Cartridge 220 TByte unkomprimierter Daten speichern.
Die IBM-Forscher wollen nun das Band in aktuelle Cloud-ObjectStorage-Systeme integrieren.
Wissenschaftler von IBM Research – Zürich
hauchen der Bandspeichertechnologie
wieder neues Leben ein. Wie das Unternehmen mitteilt, konnten erstmals Daten mit
einer Speicherdichte von 123 Gbit pro Quadratzoll (rund 6,45 qcm) auf einem BariumFerrit-Magnetband gespeichert werden. Der
Speicherrekord gelang IBM-Wissenschaftlern in Zusammenarbeit mit Fujifilm. Einen
ersten Prototyp zeigten die Unternehmen
auf der »NAB Show« in Las Vegas.
Mit der neuen Technologie könnte eine
einzelne LTO-Cartrigde 220 TByte unkomprimierter Daten speichern. Dies entspricht
Eine Publikation von speicherguide.de
der 88-fachen Kapazität einer heutigen LTO6-Bandspeicherkassette oder einer 22-fachen Steigerung gegenüber dem neuesten
IBM-Tape-Produkt.
Tape einsetzbar ein CloudObject-Storage-Systeme?
Mit diesen beträchtlichen Speicherkapazitäten sei die Bandspeichertechnologie laut
IBM auch für Einsätze in der Cloud denkbar.
Wissenschaftler des IBM Forschungszentrums in Rüschlikon erforschen daher die Integration der Bandspeichertechnologie in
aktuelle Cloud-Object-Storage-Systeme,
wie zum Beispiel »OpenStack Swift«. Ziel ist
es, Object-Storage auf Bandspeichern zu
Grafik: IBM Research
Karl Fröhlich, Engelbert Hörmannsdorfer
In der Theorie hat sich die Magnetband-Speicherdichte enorm
entwickelt. Zur Marktreife hat es allerdings keines der in der Tabelle
genannten Produkte gebracht.
ermöglichen, so dass wenig genutzte Datenobjekte nahtlos auf eine sehr preiswerte, langlebige und cloud-basierte Speicher­
einheit verschoben werden können.
Nach Angaben des IT-Analysten Coughlin Associates sind heute mehr als 500 Exa­
byte an Daten in Bandspeichersystemen
gespeichert. Bisher wird die Technologie
vorwiegend für die lokale Datensicherung
in Rechenzentren, Disaster-Recovery-Lösungen oder zur Einhaltung gesetzlicher
Auflagen verwendet. Zunehmend würden
aber auch Anwendungen im Kontext von
Big Data oder Cloud dank der geringen KosAusgabe 1-2015
8
Datenspeicherung
ETH Zürich sichert derzeit
5,5 PByte auf Band
Die ETH Zürich nutzt IBM-Bandspeichertechnologie für den zentralen Daten-Backup-­und Wiederherstellungs-Service. »Die
durchschnittliche Datenübertragungsrate
auf Bandspeicher hat in den letzten Jahren
stark zugenommen: heute auf etwa 60 TByte
Grafik: IBM Research
ten von wenigen Cents pro GByte sowie der
Langlebigkeit des Mediums immer interessanter.
»Mit unseren Forschungsarbeiten zeigen
wir, dass Bandspeicher auch weiterhin eine
wichtige Rolle in der Speicherhierarchie
spielen können«, sagt IBM Fellow Dr. Evangelos Eleftheriou.
Tape soll sich als preiswerter Speicher in Object-Storage-Systemen etablieren.
Eine Publikation von speicherguide.de
täglich«, sagt Dr. Tilo Steiger, Stellvertretender Leiter des ITS System Service der
ETH Zürich. »Unsere Magnetbandbibliothek umfasst insgesamt mehr als 5,5 PByte. Trotz der Fortschritte in der gesamten
Speichertechnologie bleibt Tape auf Grund
der Übertragbarkeit der Daten und des
geringen Stromverbrauchs weiterhin ein
vielversprechendes Medium für große
Datenmengen.«
Möglich wurde der jetzige Speicherrekord
durch den Einsatz eines neuartigen Prototypen eines Magnetspeicherbandes von Fujifilm. IBM-Wissenschaftler entwickelten darüber hinaus verschiedene wichtige
Technologien für Bandspeichersysteme
weiter. So ermögliche eine verbesserte
Schreibkopftechnologie die Nutzung noch
feinerer Barium-Ferrit-Partikel auf dem Magnetband. Eine verfeinerte Steuertechnik
erlaube zudem eine sehr hohe Präzision bei
der Positionierung des Lese- und Schreibkopfes mit einer Genauigkeit von weniger
als sechs Nanometer. Dies ermögliche damit eine Spurdichte von 181 bis 300 parallelen Spuren pro Zoll. Das entspreche einer
bis zu 39-mal höheren Spurdichte im Vergleich zum heute kommerziell erhältlichen
LTO-6-Format. Innovative Signalverarbeitungs-Algorithmen ermöglichen darüber
hinaus eine zuverlässige Datendetektion
unter Einsatz eines extrem schmalen, nur
90 Nanometer breiten, magnetoresistiven
(GMR) Lesekopfes.
K
Backup-Up Tape Tracker Q4/2014
Der Santa Clara Consulting Group
zufolge erzielen Backup-Tape-Cartridges im vierten Quartal 2014 einen
Umsatz von 121,5 Millionen US-Dollar.
Auf LTO entfallen dabei fast 97 Prozent
mit einem Umsatz von 117,59 Millionen
US-Dollar. Der LTO-Absatz ist dabei
minimal auf 4,7 Millionen Stück
zurückgegangen.
LTO-6 setzt sich auch im Q4 weiter
durch, mit 22 Prozent Anteil an den
Verkaufszahlen und 36 Prozent am
Gesamtumsatz. LTO-5 bleibt das
populärste Bandformat, tendiert aber
leicht unter dem Vorquartal, mit 41
Prozent des Absatzes und 33 Prozent
des Umsatzes. LTO-4 liegt bei den
Verkäufen (28 Prozent) noch in etwa
gleichauf mit LTO-6. LTO-3 repräsentiert
nur noch einen kleinen Teil des Marktes. LTO-1 und LTO-2 verzeichnen -21
Prozent bzw. -14 Prozent. Für das erste
Quartal 2015 erwarten die Marktforscher einen Umsatz von etwas über
117 Millionen US-Dollar.
Ausgabe 1-2015
Data Center Partner
ist eine Kooperation des VAD TIM AG mit führenden Herstellern und
Systemhäusern in Deutschland. Data Center Partner stehen für:
TIM AG
Schoßbergstraße 21
65201 Wiesbaden
www.tim.de
❙
herstellerübergreifende Lösungskompetenz
❙
hochqualifizierten Support und Professional Service
❙
methodische, technologische und kaufmännische
Beratungskompetenz für Storage und Data Center Lösungen
Kontaktieren Sie uns: 0611 2709-222
oder [email protected]
01277 Dresden
www.interface-systems.de
[email protected]
59469 Ense
www.ahd.de
[email protected]
72186 Empfingen
www.stemmer.de
[email protected]
45131 Essen
www.dextradata.com
[email protected]
63303 Dreieich
www.pandacom.de
[email protected]
73479 Ellwangen
www.inneo.de
[email protected]
51063 Köln
www.pironet-ndh.com
[email protected]
64625 Bensheim
www.concat.de
[email protected]
74172 Neckarsulm
www.bechtle.de
[email protected]
54343 Föhren
www.it-haus.com
[email protected]
65520 Bad Camberg
www.pmcs.de
[email protected]
82178 Puchheim
www.tproneth.de
[email protected]
55543 Bad Kreuznach
www.urano.de
[email protected]
70499 Stuttgart
www.raber-maercker.de
[email protected]
90449 Nürnberg
www.teamix.de
[email protected]
57072 Siegen
www.qosit.com
[email protected]
70563 Stuttgart
www.condor-computer.de
[email protected]
94315 Straubing
www.henrichsen.de
[email protected]
C o n d o r
C o m p u t e r
10
Archivierung
Quantum mit drei neuen Archivlösungen
Archivierung für unstrukturierte Daten
Zum einen stellt Quantum die neue »Artico«-NAS-Appliance vor. Weiterhin werden mit der »Rocket Arkivio
Autostor«-Software die DXi-Backup-Appliances nun auf Archivierungsfähigkeiten getrimmt. Und für »Lattus«
gibt es jetzt neue Object-Storage-Nodes mit 6-TByte-Festplatten.
Backup und Backup-Appliances werden
weiterhin stark nachgefragt. Aber die stark
steigenden Datenmengen, mit denen die
Unternehmen kämpfen, bestehen zu 90
Prozent aus unstrukturierten Daten, für die
klassische Backup-Ansätze nicht so geeignet sind. »Und deshalb setzen wir jetzt
zusätzlich für unsere Kunden eine breitere
Archivierungs-Strategie auf«, erklärt Stephane Estevez, Sr. Product Marketing Manager EMEA/APAC bei Quantum, im Gespräch mit speicherguide.de.
Natürlich hat Quantum bereits Produkte
und Lösungen für Archivierungseinsätze im
Programm, wie zum Beispiel diverse TapeLibrarys oder »StorNext AEL«. Aber die jetzigen neuen Archivierungslösungen sollen
sich eben ganz speziell für unstrukturierte
Daten eignen, mit denen Administratoren
Eine Publikation von speicherguide.de
Bild: Quantum
Engelbert Hörmannsdorfer
»Artico«-NAS-Appliance kann eine Milliarde Files verwalten
trotzdem die damit eigentlich zusammenhängenden steigenden Speicherkosten im
Griff behalten. »Denn immer mehr Rechenzentren erreichen den Punkt, an dem ihr alter Ansatz für Backup und Archivierung von
dem Wachstum der unstrukturierten Daten
einfach überrannt wird«, meint Estevez.
»Wir denken, dass ein intelligentes Verschie-
ben der Daten in das Archiv bereits sehr viel
hilft.«
»Artico«-NAS-Appliance verwaltet
eine Milliarde Files
NAS-Systeme haben sich schon immer als
einfach zu verwaltendes und preiswertes
Datengrab erwiesen. Hier muss Quantum
mithalten, und stellt die »Artico«-NAS-Appliance vor. Das Gerät verwaltet bis zu einer Milliarde Files. An Festplatten-Speicherkapazität bringt es standardmäßig 32 TByte
mit, der auf bis zu 70 TByte erweiterbar ist.
Das Filesystem LTFS wird nativ unterstützt.
Die Appliance kann als weitere Archiv-Targets Quantums Cloud-Storage-Speicherservice »Q-Cloud«, die Scalar-Tape-Librarys
i80, i500 und i6000 sowie Quantums ObjectStorage-Lösung »Lattus« adressieren. Der
Listenpreis beginnt bei 45.000 US-Dollar.
Quantum positioniert Artico als kostengünstige Option für den Einstieg in die Archivierung. Bei Bedarf kann in den PByteBereich hochskaliert werden. Durch die
»StorNext 5«-Datenmanagement-Richtlinien können Kunden ihre Daten mit Artico in
einem Tiered-Storage-System vorhalten,
das die Daten zur richtigen Zeit der richtigen Technologie zuordnet, ob lokal oder in
der Cloud.
Ausgabe 1-2015
Festplatten
Marktübersichten
Archivierun
iSCSI-SA
NAS-Systeme
Management
Datenrettung Cloud
Solid-State-Disk
NAS-Systeme
Storage-Hardware
Big-Data
Controller & Interfaces
Bandroboter Specials
Stora
Storage-Security
ge-Ne
w
KOSTE
NLOSE
R
Backup/Recovery
NAS-Systeme
age-Me
ldunge
iSCSI-SAN
slette
Solid-State-Disk
r
Optical-Storage
Specials Big-Data
Aktue
lle Stor
Virtualisierung
Optical-Storage
Archivierung
Hochverfügbarkeit
Bandlaufwerke
Speichernetze
Management
n und d
ie neue
sten Be
speich
iträge k
erguid
ompak
e.de
Unser
t servie
Newsle
rt auf
tter ers
cheint
immer
Mittwo
chs un
d Freita
gs.
Storage-Management
Datenrettung Cloud
Festplatten
Hier ab
Marktübersichten
onnier
en ›
Speichernetze
Hochverfügbarkeit
Optical-Storage
Solid-State-Disk
NAS-Systeme
Ausgabe 1-2015
Storage-Hardware
g
»Vor allem unstrukturierte Daten verursachen das immer schnellere Wachstum von
Daten. Damit erhöht sich gleichzeitig der
Druck auf die Storage-Budgets«, sagt Liz
Conner, Research Manager bei IDC. »Quantum erweitert sein Portfolio um Lösungen,
die die immer weiter auseinanderklaffende Lücke zwischen der Bedeutung von Daten und ihrer wirtschaftlich sinnvollen Speicherung gezielt überbrücken.«
K
Storage-Management
fwerke
Eine Publikation von speicherguide.de
Quantums Brücke zur
sinnvollen Speicherung
Produkt-Reviews
Object-Storage ist ohnehin prädestiniert für
Archivierungsapplikationen. Quantum hat
hier die »Lattus«-Produktfamilie im Programm. Diese wird jetzt um neue S30-Object-Storage-Nodes erweitert, die mit neuen 6-TByte-Festplatten bestückt sind.
Durch die neuen HDDs verfügen die S30Nodes im Vergleich zu den bisherigen S20Nodes über 50 Prozent höhere Dichte und
sollen gleichzeitig die Kosten pro TByte um
15 Prozent senken. Die Lattus-Technologie
zur Verteilung der Daten gewährleiste nicht
nur eine sehr lange Lebensdauer der Daten, sondern auch die nahtlose und unterbrechungsfreie Integration neuer StorageNodes in bestehende Umgebungen.
Produkt-Reviews
Die zweite Archivierungsneuheit ist eine gemeinsame und zertifizierte Lösung, die die
Quantum-DXi-Deduplizierungs-Appliances
DXi4700 und DXi6900 sowie das »Arkivio
Autostor«-Paket von Rocket Software miteinander kombiniert. »Auf diese Weise erweitern wir elegant eine Backup-Lösung zu
einer Archivierungslösung«, betont Estevez.
Für das reine Speichern ist natürlich die
Quantum-Appliance zuständig – für die Regeln, was wann wohin gespeichert wird, ist
schließlich das Arkivio-Paket zuständig.
»Eine DXi zusammen mit Arkivio ist also
Backup und Archivierung in einer Appliance
zur selben Zeit«, erläutert Estevez.
Die Besonderheit ist laut dem QuantumManager zum einen das extrem einfach Managen einer solchen kombinierten BackupArchivierungs-Lösung. Und zum anderen
die deutlichen Kostenvorteile, wenn unstrukturierte Daten relativ schnell vom Primary-Storage in eine dezidierte Backup-Archiv-Appliance verschoben werden. Die
Kosten pro TByte sollen in diesen Einsatzfällen um bis zu 80 Prozent sinken, kalkuliert Quantum. Da die Daten in ihrem nativen Format gespeichert werden, geschieht
die langfristige Datenvorhaltung unabhängig von der Backup-Software.
SoHo-NAS
Neue Lattus-Object-StorageNodes mit 6-TByte-Disks
Disk-Backup
DXi-Backup-Appliance plus
»Rocket Arkivio Autostor«
Wis-
Archivierung
SoHo-NAS
11
Backup/Recovery
12
Archivierung
»medi-safe plus«: WORM-Archiv mit Triple-Parity
Tec
: N-
Revisionssicheres Langzeitarchiv
Entstanden ist »medi-safe plus« in einer Kooperation mit Raidix, einem Hersteller von Hoch­
leistungsspeicher-Software. Die N-Tec-Lösung eignet sich besonders als Archiv im Verbund mit HIS-,
RIS- und PACS-Systemen sowie für Firmen mit Anforderung an revisionssicherer Speicherung.
Engelbert Hörmannsdorfer
Speziell für die revisionssichere Langzeitarchivierung und optimiert für die Anforderungen in der Medizintechnik, hat der Storage-Systemehersteller N-Tec die Lösung
»medi-safe plus« konfiguriert. Entstanden
ist das spezielle Storage-System in einer
Kooperation mit Raidix Software, einem
Hersteller von HochleistungsspeicherSoftware. Da es eben speziell für die Anwendungen im Health-Care-Bereich gedacht
ist, wurde das neue System Mitte April auf
der Medizintechnikmesse »conhIT« in Berlin vorgestellt.
Medi-safe plus wird von N-Tec als Hochleistungs-Langzeitspeicher für die Ablage
der Produktiv- und Archivdaten in der Medizintechnik positioniert. Mit einem intelligenten RAID-Algorithmus sorgt die Lösung
für eine schnelle, sichere Speicherung aller
Daten, und bietet gleichzeitig eine hohe AbEine Publikation von speicherguide.de
rufgeschwindigkeit für bereits gespeicherte Daten. Zur weiteren Steigerung der Verfügbarkeit kann das System alle Daten auf
ein zweites System replizieren.
gere die Wahrscheinlichkeit von Systemfehlern und garantiere die Geschwindigkeit
selbst bei Ausfall von mehreren Festplatten-Laufwerken.
»medi-safe plus« mit integrierter
WORM-Architektur
Aktuell bis zu 144 TByte
Speicherkapazität
Die integrierte WORM-Architektur (Write
Once, Read Many) ermöglicht laut N-Tec
eine revisionssichere Langzeitspeicherung
und verhindert die Manipulation, das Löschen oder Verfälschen der bereits gespeicherten Daten im Sinne von GDPdU, GOB,
RÖV und HIPAA. Medi-safe plus eigne sich
damit besonders als Archiv im Verbund mit
HIS-, RIS- und PACS-Systemen.
Verschiedene integrierte Mechanismen
überwachen die Hardware, und sollen im
Hintergrund für die Integrität der vorhandenen Daten sorgen. IT-Manager können
zwischen zweifacher (RAID 6) und dreifacher (RAID 7.3) Parität wählen. Das verrin-
N-Tec betont, dass Unternehmen mit Medi-safe plus eine schlüsselfertige Lösung erhalten, die schnell und einfach in Betrieb
genommen werden kann. Der Administrationsaufwand sei gering, und die mitgelieferte Management-Oberfläche einfach und
intuitiv zu bedienen.
»Wir bieten Replikation und Datenmigration für den Einsatz über mehrere Dekaden
an«, erklärt N-Tec-Geschäftsführer Sven
Meyerhofer die Vorteile. »Das System kann
hard- und softwareseitig an kundenspezifische Anforderungen angepasst werden.
Obwohl es speziell für den Einsatz im medizinischen Umfeld (Radiologie) entwickelt
o
Fot
Medi-safe plus, ein revisionssicheres
Konzept zu einem WORMLangzeitarchiv mit Triple-Parity.
wurde, lässt es sich natürlich auch in jedem
Unternehmen mit Anforderung an revisionssicherer Speicherung einsetzen.«
Medi-safe plus gibt es in Versionen mit
acht, 16 und 24 Festplatteneinschüben, was
bei aktuellen Festplatten bis zu 144 TByte
Gesamtkapazität bedeutet. Die Lizenzierung der Software erfolgt dabei nicht nach
Kapazität, sondern nach der Anzahl der
Laufwerke. Vorteil: Bei einer späteren Migration auf größere Festplatten fallen also
keine weiteren Lizenzkosten mehr an, solange die Anzahl der Laufwerke gleich
bleibt. Als Schnittstelle kann gewählt werden zwischen 1- und 10-GbE-iSCSI sowie 8und 16-Gbit/s-Fibre-Channel. Die 8-Bay-Basisvariante »mediSafe+ 208« inklusive 32
TByte WORM-Archiv sowie zwei Jahre Softund Hardware-Maintenance kostet 6.807
Euro netto.
K
Ausgabe 1-2015
13
Backup-Software
Symantec/Veritas kündigt »Backup Exec 15« an
Engelbert Hörmannsdorfer
Backup für Hybrid-Cloud
rückt in den Fokus
Unternehmen können mit dem neuen Backup-Tool »Backup Exec 15« virtuelle und
physische Umgebungen auf Festplatte, Band oder in der Cloud sichern.
Hersteller Symantec/Veritas unterstützt dabei die Hypervisoren von Microsoft und Vmware.
vice«. Hier muss ein Anwender nun nach ei- lisierungen bei früheren Versionen etwas
nem Pay-as-You-Go-Modell bezahlen.
hinterherhinkten, so kam die 2014er VersiBesonderheit des Tools ist auch, dass ge- on erst über zwei Jahre nach der Vorgännerell Vmware stärker unterstützt wird. gerversion heraus. Dies ließ etliche SymanDazu gehört auch »vSphere 6« sowie eine tec-Anwender zu Konkurrenz-Produkten
Boards:
Duplication
engeWhite
Integration
mitOptimized
»Virtual SAN«
(vSAN) abwandern. Aber nun werden erneut
Example Backup Exec optimized duplication diagram
und »EVO:Rail«. Zuletzt hinkten die Aktua- »schnellere Upgrades und Migrationen«
Physical Servers
Minimum Licenses:
Backup Exec Server
Deduplication Option
Enterpriser Server Option
Optional Licenses:
Windows Agent
App & DB Agent
Hyper-V/Vmware Agent
LAN/SAN
Einsatzbeispiel
mit »Backup
Exec 15« mit
Deduplikation
im Fokus.
Unique Blocks
Backup Exec
Deduplication Option
Enterprise Server Option
Primary Site
Virtual Servers
Symantec Backup Exec Blueprints - Optimized Duplication
Eine Publikation von speicherguide.de
Minimum Licenses:
Backup Exec Server
Deduplication Option
Optional Licenses:
Windows Agent
App & DB Agent
Hyper-V/Vmware Agent
Grafik: Symantec
Symantec bzw. der nach dem geplanten
Firmensplit als Veritas Technologies firmierende Unternehmensteil, rundet sein
Backup-Leistungsportfolio mehr und mehr
ab. Unternehmen können mit dem neuen,
und ab sofort verfügbaren Backup-Tool
»Backup Exec 15« virtuelle und physische
Umgebungen auf Festplatte, Band oder in
der Cloud sichern. Dabei werden die Hypervisoren von Microsoft und VMware unterstützt, was letztlich dem Hersteller eine
breite Kundenbasis bescheren dürfte.
Snapshots virtueller Maschinen, individuelle Wiederherstellungsoptionen sowie Bare-Metal-Restore und physisch-virtuelle
(P2V) und virtuell-physische (V2P) Recoverys sind nur einige Merkmale, die IT-Manager nun auch von Backup Exec 15 erwarten
können. Das Tool kann VMs sichern, deren
Volumes über zwei TByte groß sind, und die
auf GPT-Partitionen setzen.
Vor allem hybride Cloud-Modelle will der
Anbieter mit der neuen Lösung adressieren.
Die Lizenzierungsmodelle sollen laut Symantec/Veritas mittels »Backup Exec Capacity Edition Light« nun weitaus simpler
durchzuführen sein. Erweiterter Support für
eine größere Anzahl von Hybrid-CloudPlattformen gehört hier ebenso dazu, wie
etwa »AWS Storage Gateway VTL Cloud Ser-
Backup Exec
Deduplication Option
Managed Backup Exec Server
DR/Secondary Site
= Deduplicated data
versprochen. Generell lässt sich feststellen,
dass im Fokus der neuen Backup-ExecPlattform für Symantec/Veritas die neuen
Hybrid-Cloud-Modell stehen. Hier sind in
den letzten Jahren neue Kundenbedürfnisse entstanden, etwa nach Werkzeugen, um
Informationen in zunehmend komplexen
Infrastrukturen zu verwalten.
Damit stieg nicht nur die Komplexität,
sondern auch die Nachfrage an Support für
die neuen Lösungen, die Cloud-Infrastrukturen ermöglichen. Symantec/Veritas stellt
deshalb die gesamte Produktentwicklung
unter das Motto »Hybrid is the Model«. Darunter versteht das Software-Haus, neue
Funktionen noch schneller anbieten zu
können, und so Unternehmen dabei zu unterstützen, dynamische, moderne Infrastrukturen zu realisieren.
K
8
Ausgabe 1-2015
14
Backup-Software
Knaller von Paragon: »Protect & Restore Free für Vmware vSphere«
Gratis Backup und Replikation von VMs
Seit Kurzem hat Paragon Software einen Knaller für die IT-Welt am Start: sein »Paragon Protect &
Restore«-Tool (PPR) für Vmware »vSphere« gibt es in einer kostenfreien Edition. Damit ist jetzt
zumindest die Grundsicherung und Replikation vom VMs gratis. Die Free-Edition ist zeitlich nicht
begrenzt.
Engelbert Hörmannsdorfer
Eine Publikation von speicherguide.de
stattung für die Sicherung, Replikation und
Wiederherstellung von virtuellen Maschinen in Vmware-Vsphere-Umgebungen«.
Das Tool sei relativ schnell zu erlernen.
Komplexere Anforderungen oder gar die
Einbindung von physischen Systemen oder
virtuellen Maschinen anderer Hypervisoren
sei problemlos möglich, allerdings der kostenpflichtigen PPR-Gesamtlösung vorbehalten.
Bild: Paragon Software
Seit Kurzem hat Paragon Software einen
Knaller für die IT-Welt am Start: sein »Paragon Protect & Restore«-Tool (PPR) für
VMware »vSphere« gibt es in einer kostenfreien Edition. Mit »Paragon Protect &
Restore Free for VMware vSphere« ist jetzt
zumindest die Grundsicherung und Replikation von VMs gratis. Dass es dieses Tool
kostenlos gibt, ist angelehnt an die Idee von
»Veeam Backup Free Edition«. »Allerdings
kommen wir mit dem Leistungsumfang
sehr nahe an die kommerzielle Version von
Veeam Backup & Replication«, ist sich Miro
Milos, Director B2B Marketing & Partner Sales EMEA bei Paragon, sicher.
Das Werkzeug bietet nach Herstellerangaben eine »leistungsstarke Standardaus-
Free-Edition von »Paragon
Protect & Restore for
VMware vSphere«
Leistungsmerkmale der
Paragon-PPR-Free-Edition
Zu den Leistungsmerkmalen der PPR-FreeEdition für Vmware zählen:
Backup von Vmware Gastsystemen im
laufenden Betrieb, einzeln und Multi-VM,
Replikation und Recovery von VMs auf
beliebige ESX-Hosts inklusive FailoverFunktion,
inklusive Deduplizierung, inkrementeller
Sicherung, Wiederherstellung einzelner
Dateien sowie Traffic-Throttling,
Multi-Tier-Storage für schnelle Recoverys und sichere Archivierung,
zentrales Management aller Aufgaben
mit detailliertem Reporting,
unbegrenzt kostenlos in Bezug auf Zeit,
Anzahl von Hosts oder VMs.
Nicht eingeschlossen ist das Backup und
die Wiederherstellung physischer Windows-Maschinen sowie die Non-Destruk­
tive Sicherung von Exchange-Datenbanken.
Hierfür benötigen IT-Manager die kostenpflichtige »Paragon Protect & Restore
Ultimate«-Edition.
PPR Free für Vmware Vsphere ist kostenlos und zeitlich nicht begrenzt. Jeder kann
sie auf der Paragon-Webseite herunterladen. Die Gratis-Version ist seit Anfang April
verfügbar und laut Hersteller an keinerlei
Bedingungen geknüpft.
K
Weitere Informationen
PPR Free für Vmware Vsphere
www.paragon-software.com/de/mediumlarge-business/protect-restore/#3
Ausgabe 1-2015
15
Backup-Software
Zu viele Anwender haben
Datenverlust trotz Backup
Selbst das beste Backup schützt nicht vor einem Datenverlust. Eine Umfrage des
Datenrettungsexperten Kroll Ontrack ergab, dass 61 Prozent der Befragten schon mal ein
Datenverlust plagte, obwohl es zum Zeitpunkt des Verlusts eigentlich eine vermeintlich
funktionierende Datensicherung gab. Die Gründe dafür – und die Reaktionen darauf.
Engelbert Hörmannsdorfer
Man möchte es nicht glauben, aber bei vielen privaten und unternehmerisch orientierten IT-Anwendern, die tatsächlich regelmäßig ein Backup ziehen, grasiert immer
noch das Prinzip Hoffnung. »Viele Unternehmen denken, dass es reicht, überhaupt
eine Backup-Strategie zu haben«, sagt Peter Böhret, Managing Director bei Kroll
Ontrack in Böblingen. »Dabei ist es nicht
damit getan, eine Datensicherung einzurichten und anschließend auf das Beste zu
hoffen. Das hat unsere Umfrage dieses Jahr
wieder eindrücklich bewiesen. Besonders
die Tatsache, dass fast drei Viertel der Befragten trotz Backup einen Datenverlust erlitten haben, zeigt, wie wichtig umfassende Sicherungsrichtlinien sind.«
Eine Publikation von speicherguide.de
Dazu gehört unter anderem etwas ganz
banales: Nämlich, dass die korrekte Funktion des Backups regelmäßig überprüft
wird. Auch müssen die Verantwortlichen
dafür sorgen, dass eine Datensicherung immer aktuell und vollständig ist. »Außerdem«, so betont Böhret, »sollten Unternehmen in ihren Richtlinien immer einen
zuverlässigen und erfahrenen Datenrettungspartner miteinbeziehen, falls es doch
einmal zu einem Datenverlust kommt.«
Backup-Fehlerquelle:
unzureichende Richtlinien
Doch was sind die Ursachen für die vielen
Datenverluste, die sich trotz Backup ereignen? »Es sind vor allem unzureichende
Richtlinien in Unternehmen«, erklärt der
Kroll-Ontrack-Manager. Ist beispielsweise
ein Gerät nicht in den Backup-Protokollen
erfasst, können dessen Daten auch nicht
automatisch gesichert werden. Ebenso verheerend kann es sein, wenn ein Defekt im
Sicherungssystem unentdeckt bleibt und
erst ans Licht kommt, wenn man auf das
Backup angewiesen ist. Dabei ist es völlig
unerheblich, wie häufig die Daten tatsächlich gesichert werden – oder ob überhaupt.
Denn obwohl 71 Prozent der Umfrageteilnehmer täglich oder zumindest wöchentlich sichern, hatten 61 Prozent trotz Backup einen Datenverlust. So war bei jeweils
21 Prozent die Datensicherung defekt bzw.
das betroffene Gerät war nicht in den Sicherungsplan integriert, während in knapp
einem Fünftel der Fälle (19 Prozent) das
Backup nicht aktuell war, also die verlorenen Daten nicht abgebildet hatte.
Grafik/Quelle: Kroll Ontrack
Studie: Auch ein funktionierendes Backup sollte getestet werden
Magnetbänder – die
Backup-Dinosaurier
Bei der Art des Backups werden auch 2015
am häufigsten externe Festplatten bzw.
Backup-Disk-Systeme genutzt (68 Prozent)
– sowohl für private als auch geschäftliche
Daten. Cloud-Backups sind – noch – vergleichsweise selten (nur 16 Prozent), haben
sich aber auf den zweiten Platz vorgeschoben. Damit wurde das klassische TapeBackup klar überholt. Es scheint langsam
auszusterben – nur noch fünf Prozent der
Befragten setzen auf diese Art der
Datensicherung.
Die am häufigsten genannten Gründe in
der Studie für das Fehlen einer Backup-Lösung sind Zeitmangel für die Auswahl (50
Prozent) sowie die Kosten einer Datensicherung (39 Prozent). K
Ausgabe 1-2015
16
Backup-Software
Cryptolocker verschlüsselte auch das Backup
Polizeiwache zahlt Lösegeld für seine Daten
Opfer einer Attacke durch die Verschlüsselungs-Schad-Software »CryptoLocker« wurde eine Polizeiwache in Tewksbury im US-Bundesstaat
Massachusetts. Die Malware verschlüsselte verschiedenste Daten, darunter Polizeiberichte, Fahrzeugdaten, sowie Festnahme- und
Verhörprotokolle.
Es schaltete sich bei dem Vorfall auch das FBI ein. Zwei Forensik-Unternehmen, Delphi Technology Solutions und Stroz Friedberg wurden
laut dem »Tewksbury Town Crier« hinzugezogen. Aber als sich nach
mehreren Tagen herausstellte, dass es nicht gelingen würde, die Verschlüsselung zu knacken, entschieden sich die Verantwortlichen ein Lösegeld von 500 US-Dollar in Bitcoins zu zahlen, um wieder Zugriff auf
die Daten zu erhalten.
Crpytolocker ist eine Malware, die erstmals 2013 auftauchte. Forensiker und Antivirus-Spezialisten waren sich sicher, den Schädling im Griff
zu haben. Ein Crpytolocker-Botnet wurde letzten Sommer zerschlagen.
Aber die Version, mit der sich die Polizeiwache infizierte, scheint eine
neue, effektivere Version zu sein. Sie kann jedes File und jede Datei finden und verschlüsseln, das zu einem Shared-Netzwerklaufwerk, einem
USB-Laufwerk, externen Festplatten, Netzwerk-File-Share und sogar zu
manchen Cloud-Storage-Services gehört.
Schließlich entschied man sich in Tweksbury zähneknirschend, das
Lösegeld zu zahlen. Denn laut einem Polizeisprecher war man auf dieser Station nahezu »blind« bzw. man sah sich außerstande, die Polizeiarbeit vernünftig aufrechtzuerhalten.
Eine Publikation von speicherguide.de
Engelbert
Hörmannsdorfer
Redaktion,
speicherguide.de
Und die geneigten Mitleser, die nun schon vermuten, dass es kein
Backup auf der Polizeistation gab – es gab ein Backup auf einer externen Festplatte, aber auch das wurde, aufgrund der ausgeklügelten Netzwerkfähigkeiten der Schad-Software, verschlüsselt. Und es gab auch
noch ein Backup auf einer nicht ans Netzwerk angeschlossenen TapeCartridge – aber das war laut der Zeitung 18 Monate alt.
Der Malware-Vorfall fand bereits im Dezember letzten Jahres statt.
Durch den Bericht der Zeitung aus Tweksbury kam er aber jetzt erst ans
Tageslicht. Es ist auch nicht bekannt, wie der Schädling in die Polizeistation eingeschleust wurde. Übrigens: Nach der Zahlung der Bitcoins
bekam die Polizeistation tatsächlich einen Schlüssel zum Entschlüsseln ihrer Daten.
Auch wenn diese Geschichte zunächst lustig klingt, in der Sache ist
sie höchst beängstigend. Ein sicheres und regelmäßiges Backup ist
durch nichts zu ersetzen.
Ausgabe 1-2015
17
Cloud
Cloud-Strategie: Risiken kennen und Kosten genau kalkulieren
Cloud als Option für Backup und Archiv
Cloud etabliert sich als ernstzunehmende Option für
Rechenzentren. Dies reicht von der Einbindung in die
unternehmenseigene Storage-Strategie vom Archiv über
Backup bis hin zu Disaster-Recovery. Allerdings gilt es die
Risiken zu kennen und die Kosten genau zu kalkulieren.
Beate Herzog
Cloud-Storage ist nicht gleich Cloud-Storage und fast jeder Hersteller bzw. CloudService-Provider hat seine eigene Defini­
tion, je nachdem was er eben selbst im
Angebot führt. Schien der Begriff Cloud
noch vor Jahren wie die Wolke selbst – wabernd und undefinierbar – so gibt es nun
eine erkleckliche Anzahl an Offerten, die
moderne IT-Umgebungen unterstützen und
erweitern können.
File-Sync-and-Share
Einer der ersten und wohl auch am meisten genutzte Cloud-Service ist das so genannte File-Sync-and-Share. Dies ist kein
Eine Publikation von speicherguide.de
reiner Speicherdienst, sondern eher eine
Kollaborationsplattform, die mit Speicherkapazität ausgerüstet ist. Verschiedene
Anwender haben mit diesem Service die
Möglichkeit, über das Internet Dateien auszutauschen und gemeinsam zu bearbeiten.
Unternehmen schrecken oft von der
Verwendung dieser Dienste ab, da sie ihnen
zu wenig Sicherheit und Datenschutz
bieten.
Mittlerweile existieren allerdings zahlreiche Anbieter, die solche File-Plattformen
für große Organisationen und Unternehmen anbieten und entsprechende Funk­
tionen eingebunden haben. In vielen Fällen
werden dabei private Cloud-Umgebungen
aufgebaut, um den nötigen Schutz vor externen Zugriffen zu gewährleisten.
Zu den Anbietern zählen unter anderem
Ctera, OwnCloud, Powerfolder, Syncplicty, Varonis oder Zimbra. Diese Services
dienen nur der Kollaboration und übernehmen keine erweiterten Speicher- oder gar
Sicherungsfunktionen.
Cloud-Speicher (Drive)
Cloud-Speicher bieten Speicherkapazitäten, die über das Internet zu erreichen sind.
Dabei kann der Speicherplatz von einem
Service-Provider zur Verfügung gestellt
oder sich als kleine private Cloud mit wenig Aufwand selbst eingerichtet werden.
Zu den klassischen Cloud-Speicher-Anbietern gehören Telekomfirmen wie Telekom und 1&1, aber auch GMX, Google, Microsoft (OneDrive) und Amazon. Die
meisten Anbieter offerieren ein bestimmtes Gratis-Speicherkontingent. Alles darüber hinaus wird abgerechnet, nach GByte,
TByte oder Zugriffsraten (I/Os). Manche die-
ser Cloud-Speicher umfassen bereits ein
automatisches Synchronisieren sowie sich
das jeweilige Endgerät in einem Netzwerk
befindet – »iCloud« und »OneDrive« agieren beispielsweise so.
Eine solche Speicher-Cloud lässt sich
aber nicht nur über Public-Clouds, sondern
auch in privaten Cloud-Umgebungen realisieren. Über entsprechend ausgestattete
NAS-Systeme kann jedes Unternehmen seinen mobilen Mitarbeitern Speicherplatz zur
Verfügung stellen oder bestimmte FileDienste freigeben. Allerdings können auch
kleine Unternehmen und Heimanwender
einen Cloud-Storage aufbauen. Mit NASSystemen wie von Buffalo, Qnap, Seagate/LaCie, Synology oder Western Digital
(MyCloud) lassen sich ein oder mehrere
Festplatten von überall ansprechen und
»befüllen«. Hier kann der jeweilige Nutzer
auch entscheiden, wem und wie vielen anderen Personen er Zugriff auf diesen Speicher gewährt. Die meisten Cloud-Speicher
sind was der Name schon andeutet: einfacher Ablageplatz für Daten.
Ausgabe 1-2015
18
Cloud
Cloud-Backup und -Recovery
Unternehmen, die ihre internen BackupRessourcen schonen und nicht mit reiner
Hardware bedienen wollen, greifen auf spezifische Cloud-Backup/Recovery-Dienste
zu. Firmen haben so die Chance, BackupDaten in die Cloud zu verschieben. So ließen sich beispielsweise die Daten in die
Cloud sichern, die nach vier Wochen auf einen anderen Speicher-Tier kämen und
trotzdem noch verfügbar sein müssen. Das
erspart dem Unternehmen die Anschaffung
neuer Speichersysteme.
Es gibt zahlreiche unterschiedliche Services, aus denen Unternehmen auf der Suche nach Cloud-Backup wählen können.
Vieles hängt dabei von der IT-Umgebung
ab und den Daten, die in der Cloud gesichert werden sollen. Besonders bei virtuellen Maschinen muss der Administrator darauf achten, ob der Service nicht nur die
Sicherung dieser gewährleistet, sondern
auch die Wiederherstellung. Manche Lösungen erlauben es, virtuelle Maschinen auf
anderen VMs oder auf physischen Servern
wiederherzustellen.
In diesem Zusammenhang sollten auch
die Service-Level-Agreements geprüft werden, die ein Unternehmen für seine Backup- und Recovery-Dienste benötigt. Wie
beim herkömmlichen Backup auch, muss
sichergestellt sein, dass der Provider die
Eine Publikation von speicherguide.de
vorher bestimmten Datensätze bei Bedarf
in einem festgelegten Zeitraum bereitstellen kann. Admins müssen ihre angestrebten Recovery-Point-Obejctive (RPO) und
Recovery-Time-Objective (RTO) mit dem jeweiligen Provider genau abklären, damit es
im Notfall nicht zu bösen Überraschungen
kommt.
Zu den zahlreichen Anbietern gehören Microsoft »Azure«, Evault, Unitrends oder
Storage-Größen wie EMC, Dell, NetApp,
IBM oder HP. Aber auch Software-Hersteller bieten die entsprechenden Funktionalitäten, indem sie ihre Backup/RecoverySoftware für bestimmte Clouds kompatibel
machen, meist mit Amazon, Acronis,
Asigra, Symantec, StorageCraft, Paragon
oder NovaStor.
Die Preise hängen sehr von dem Umfang
der Funktionen und dem Speicherplatz ab.
Pauschalen lassen sich meist nicht beziffern, wenn es um die Absicherung professioneller IT-Umgebungen geht.
Cloud-Archivierung
Viele Unternehmen müssen digitale Informationen aufgrund rechtlicher Vorgaben
über sehr lange Zeiträume vorhalten. Selbst
wenn hier oft Bandspeicher bzw. eine Auslagerung der Daten auf Bandmedien das
Mittel der Wahl sind, Kosten entstehen
durch die Hardware-Ressourcen, dem La-
gerplatz und Services sowie durch die eigenen Mitarbeiter, wenn Tapes bei Bedarf vom
Lager geholt und die Daten zurückzuspielt
werden müssen.
Ein Cloud-Archiv soll helfen, Ressourcen
einzusparen und eine einfachere und übersichtlichere Kostenstelle hierfür zu generieren. Dabei gilt es vor der Wahl des Provider
einige Kriterien zu beachten:
Wie erfolgt die Indexierung der Daten
und welche rechtlichen Vorgaben muss
das Unternehmen einhalten?
Welche Verschlüsselung wird genutzt
und wer verwaltet die Schlüssel?
Wie und wie schnell erhält der Anwender
im Bedarfsfall Zugriff auf seine Daten?
Gibt es die Möglichkeit der Vernichtung
der Daten nach Ablauf der Vorhaltezeit?
Auch das Medium, auf das der Provider die
Daten ablegt, spielt eine Rolle. Anbieter wie
Amazon »Glacier« speichern zum Beispiel
auch auf Bandspeicher und nicht nur auf
HDDs. Das kann positiv sein, da der Administrator die digitalen Informationen quasi
in physischer Form anfordern kann.
Benötigt ein Kunde seine Daten innerhalb
einer bestimmten Zeit – beispielsweise EMails innerhalb von zwölf Stunden für einen Rechtsstreit – dann könnte eine TapeLösung eher hinderlich sein. Allerdings
erzeugt auch ein Cloud-Archiv, das auf Festplatten basiert, höhere Kosten. Neben Amazon bieten OVH, Symantec, Microsoft,
Quantum (»StorNext«) oder HP Archivierungsdienste in der Cloud.
Disaster Recovery über die Cloud
Durch zahlreiche Software-basierte Lösungen ist die Integration mit Wolkenkonstrukten kein Hexenwerk mehr und nahezu alle
Funktionen eines Rechenzentrums lassen
sich auch in der Cloud abbilden. Daher
überdenken die ersten Unternehmen ihre
bestehenden Disaster-Recovery-Strategien
zugunsten der Cloud.
Mit automatisierten Replikationsmechanismen können Datensicherungen in sehr
kurzen Abständen erfolgen und den gesamten Datenbestand eines Data Centers in
eine Cloud spiegeln. Dadurch kann ein Unternehmen über den Cloud-Provider quasi
einen zweiten Standort – ein Ausfallrechenzentrum – aufbauen, ohne in die Hardware
und weitere Mitarbeiter investieren zu müssen. Kombiniert mit gewünschten Backupund Recovery-Funktionen hat der IT-Manager die Sicherheit, bei einem Totalausfall in
kurzer Zeit nicht nur essentiell wichtige,
sondern eventuell den gesamten Datenbestand zur Verfügung zu haben. Allerdings
muss sichergestellt werden, dass virtuelle
Maschinen und alle Anwendungen auch im
Ausgabe 1-2015
19
Cloud
Cloud-Rechenzentrum laufen und wie die
Sicherungsstrategie des Providers aussieht.
Gerade für mittelständische Unternehmen ist dies ein guter Weg einen Ausfall­
standort einzuführen, den man sich zuvor
aus Platz-, Mitarbeiter- und Kostengründen
nicht leisten konnte. Plant man ein solches
Cloud-Szenario, so darf man auch nicht vergessen, dass im Falle eines Schwenks auf
das Cloud-Ausfall-RZ sich einige Parameter
ändern. Zum einen wird der Sicherungsort
(also das Cloud-RZ), zumindest zeitweilig,
zu einem Daten verarbeitenden Standort,
was die Kosten in dieser Zeit nach oben treiben dürfte. Des Weiteren sollte der Administrator bedenken, wie nach einem Störfall die Anbindung an das Cloud-RZ erfolgt,
wenn vom Primärstandort eventuell keine
Verbindungen mehr bestehen.
Wer also eine Cloud-integrierte DisasterRecovery-Strategie aufbaut, muss unbedingt beim Provider auf entsprechende Sicherungsmechanismen und SLAs bestehen.
Als Anbieter stehen hier fast alle großen
Speicheranbieter zur Verfügung.
Hosted Private-Cloud
Unternehmen, denen die Public-Cloud zu
riskant oder noch zu »öffentlich« ist, der
muss beim Aufbau einer privaten Cloud
nicht auf Provider-Services verzichten,
wenn er sich der Aufgabe allein nicht geEine Publikation von speicherguide.de
wachsen sieht. Hier gibt es die Möglichkeit,
eine so genannte »Hosted Private Cloud«
aufzubauen. Dabei übernimmt der Provider den Aufbau der privaten Cloud bzw.
stellt die Hardware und übernimmt, je nach
Absprache, die Wartung und eventuell auch
einige Administrationsaufgaben.
Wie schon beim Disaster-Recovery sind
SLAs, über den Service und was das jeweilige Unternehmen von der Cloud-Umgebung erwartet, essentiell. Amazon, IBM,
Rackspace und Softlayer (nun IBM) bieten
einen Hosted Private-Cloud-Service an.
Cloud: Risiken kennen
Egal für welche Cloud-Service-Integration
sich Unternehmen entscheiden, es sollten
immer die Risiken erwogen werden, die
eine Auslagerung der Informationen haben
könnte. Zu denen gehören unter
anderem:
Ausfallszenarien im eigenen RZ und
Nutzbarkeit der Cloud-Daten
Ausfallszenarien des Cloud-RZ und dessen Einfluss auf den Primärstandort
Geschäftsaufgabe des Providers
Müssen Cloud-Daten auch für Dritte zugänglich sein (Partner/Kunden)
Hacker-Angriff auf die Cloud-Ressource
Dies sind nur einige der möglichen Risiken,
die Organisationen bei Cloud-Strategien
bedenken sollten. Wie auch mit den Ausfallszenarien im eigenen Rechenzentrum
sollten IT-Entscheider eine gesunde Balance zwischen verkraftbarem Restrisiko und
Rundum-Absicherung finden. Letztlich
spielt dabei der Preis keine unerhebliche
Rolle.
Cloud-Storage muss nicht am
günstigsten sein
Über die Jahre hinweg wurde propagiert,
dass der größte Vorteil der Cloud-Infrastrukturen der Preis sei. Das stimmt sicher in den
meisten Fällen. Die Abrechnungsmodi folgen meist den Ansätzen Euro/TByte oder
Euro/IO. Allerdings können auch diese Abrechnungsmodelle aus dem Ruder laufen,
wenn vorher nicht an die Skalierbarkeit gedacht wurde.
Je mehr TByte an Daten gesichert und je
öfter darauf zugegriffen wird, desto schneller und unvorhersehbarer steigen die Preise. Das gleiche gilt für die Langzeitaufbewahrung: Setzt sich das Unternehmen eine
zu kurze Frist und muss verlängern oder
speichert auch mehr Daten als geplant, so
entstehen Mehrkosten. Auch aus diesen
Gründen ist eine sorgfältige und abteilungsübergreifende Planung wichtig, die auch
über einen längeren Zeitrahmen Datenbestände und Sicherungsanforderungen prüft
und berücksichtigt.
Hybride Cloud und lokale
Provider liegen im Trend
Die Cloud ist beileibe kein Wolkenkuckucksheim mehr, sondern ein funktionales und
funktionierendes Konzept für wachsende
Rechenzentren. Neben den oben aufgeführten Cloud-Konzepten für Storage-Umgebungen zeichnet sich ab, dass es keine
Grabenkriege zwischen Private- und Public-Cloud geben wird, sondern eher MischArchitekturen – hybride Clouds – entstehen.
Diese setzen sich jeweils nach den Sicherungs- und Datenschutzanforderungen
zusammen.
So sichert Unternehmen X beispielsweise 80 Prozent seiner Informationen in der
privaten und 20 Prozent in der öffentlichen
Cloud. Andere Firmen setzen dies vielleicht
schon zu 60:40 Prozent um. Fakt ist: Die hybride Cloud wird wohl die meist genutzte
Cloud-Architektur werden. Darüber hinaus
zeichnet sich ab, dass vor allem lokale
Cloud-Provider Gewinner der NSA- und
Späh-Affären werden könnten, denn europäische und insbesondere deutsche Unternehmen achten darauf, ihre digitalen Informationen nicht unbedingt amerikanischen
oder global agierenden Firmen zu überantworten. Somit ist durchaus ein Anstieg der
lokalen Provider zu erwarten, die sich aufgrund ihres Standortes gegen den größer
scheinenden Wettbewerb durchsetzen. K
Ausgabe 1-2015
Datenrettung Cloud
Festplatten
Marktübersichten
Speichernetze
Disk-Backup
Solid-State-Disk
Controller & Interfaces
Bandroboter
Aktuell
KOSTE
ge-Ne
NLOSE
R
wslet
NAS-Systeme ter
e Stora
ge-Meld
ungen
Storage-Hardware
und die
neuest
en Beit
speich
räge ko
erguid
mpakt
e
Unser
.
d
e
servier
Newsle
t auf
tter ers
cheint
immer
Mittwo
chs un
d Freita
gs.
Big-Data
Hier ab
Specials
onnier
en ›
lisierung
Optical-Storage
Bandlaufwerke
Hochverfügbarkeit
Stora
k-Subsysteme News
Storage-Management
Archivierung
iSCSI-SAN
NAS-Systeme
Management
Produkt-Reviews
SoHo-NAS
Backup/Recovery
21
Impressum
Unser Team
Newsletter-Abonnenten erhalten die neue Ausgabe jeweils »linkfrisch«
an ihren Mail-Account. Registrieren Sie sich bitte hier.
Beachten Sie auch unser Archiv im Download-Bereich.
storage-magazin.de
eine Publikation von speicherguide.de GbR
Karl Fröhlich, Engelbert Hörmannsdorfer,
Ulrike Rieß
Bahnhofstr. 8, D-83727 Schliersee
Tel. +49 (0) 8026 - 928 89 96
E-Mail: [email protected]
Titelbild:
© iStockphoto.com/maxkabakov
Chefredaktion, Konzept:
Karl Fröhlich (verantwortlich für den
redaktionellen Inhalt)
Tel. 089-740 03 99, Fax: 089-740 03 98
E-Mail: [email protected]
Webkonzeption und Technik:
Günther Schmidlehner
E-Mail: [email protected]
Redaktion:
Karl Fröhlich, Beate Herzog, Engelbert
Hörmannsdorfer
Mediaberatung:
Claudia Hesse,
Tel. +41 (0) 41 - 780 04 86
E-Mail: [email protected]
Urheberrecht:
Alle in »storage-magazin.de« erschienenen
Beiträge sind urheberrechtlich geschützt. Alle
Rechte (Übersetzung, Zweitverwertung)
vorbehalten. Reproduktion, gleich welcher
Art, sowie e­ lektronische Auswertungen nur
mit schriftlicher Genehmigung der Redaktion.
Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten
sind.
Haftung:
Für den Fall, dass in »storage-magazin.de«
unzutreffende Informationen oder Fehler
enthalten sein sollten, kommt eine Haftung
nur bei grober Fahrlässigkeit der Redaktion
oder ihrer Mitarbeiter in Betracht.
Karl Fröhlich,
Chefredakteur
speicherguide.de
Engelbert
Hörmannsdorfer,
News-Editor
speicherguide.de
Claudia Hesse,
Mediaberatung
speicherguide.de
Schlussredaktion:
Brigitte Scholz
Layout/Grafik:
Uwe Klenner, Layout und Gestaltung,
Rittsteiger Str. 104, 94036 Passau,
Tel. 08 51-9 86 24 15
www.layout-und-gestaltung.de
Wir empfehlen zur vollständigen Funktionalität des eBooks »Acrobat Reader«, ab Version 9
Eine Publikation von speicherguide.de
Ausgabe 1-2015