storage-magazin.de Ausgabe 1-2015 Eine Publikation von speicherguide.de Einkaufsführer Backup Backup im Wandel – Archivierung – Cloud – Tape-Research 2 Service Backup benötigt eine Runderneuerung Inhalt Editorial/Inhalt��������������������������������Seite 2 Liebe Leserinnen und Leser, Karl Fröhlich, Chefredakteur speicherguide.de vor einem Jahr titelte ich an dieser Stelle »Backup/Recovery: Es bleibt ein Dilemma«. Seitdem hat sich zwar viel getan, aber der Tenor bleibt unverändert. Klassische Datensicherungsstrategien greifen nicht mehr oder zumindest immer seltener. Der Wandel in den Rechenzentren macht auch vor dem Backup nicht halt. Der Begriff heterogene IT-Umgebung hat mittlerweile eine vollkommen andere Bedeutung. Galt es früher vor allem unterschiedliche Netzwerk-Betriebssysteme zusammenzubringen, sind es heute Datenströme aus physikalischen und virtuellen Umgebungen sowie und aus der Cloud. Hinzukommt das enorme Wachstum an unstrukturierten Daten, dass durch Trends wie Industrie 4.0 und dem Internet der Dinge noch zusätzlich befeuert wird. Die Erfassung und Analyse von Sensordaten oder Informationen, die über mobile Geräte gewonnen werden, steht noch relativ am Anfang. Von SmartHomes, vernetzten Automobilen und Wearables ganz zu Schweigen. Mit althergebrachten Backup/ Recovery-Prozessen wird die IT-Abteilung diese Datenmengen immer weniger beherrschen können. IDC prognostiziert in den kommenden fünf Jahren eine Verzehnfachung der Datenmenge. Geschwindigkeit wird daher mehr denn je ein Thema sein. Konnte man schwindenden Backup-Fenstern mit einer Sicherung auf Disk relativ gut begegnen, lautet die Zukunft auch im Backup-Bereich Flash. Die Zukunft wird darin bestehen, das Backup/Recovery auf eine flexible, skalierbare und zentralisierte Basis zu stellen. Ein Eckpfeiler könnte dabei Software-defined Storage sein. Die Integration von Standardkomponenten verspricht nicht nur Vorteile im Speicherbereich, sondern auch in der Datensicherung. Experten zufolge können Unternehmen nur so im Rahmen ihrer Budgets bleiben. Lesen Sie in diesem Special mehr über aktuelle Trends und Strategien im Bereich Backup/Recovery sowie über den aktuellen Stand beim Cloud-Backup. Ihr Karl Fröhlich Chefredakteur, speicherguide.de Eine Publikation von speicherguide.de Datensicherung Der Wandel in den Rechenzentren��������������������������������Seite 4 LTO-Tapes bald mit 220 TByte Speicherkapazität��������������������������Seite 7 Archivierung Archivierung für unstrukturierte Daten����������������� Seite 10 Revisionssicheres Langzeitarchiv������������������������������� Seite 12 Backup-Software Backup für Hybrid-Cloud rückt in den Fokus����������������������� Seite 13 Gratis Backup und Replikation von VMs������������������� Seite 14 Zu viele Anwender haben Datenverlust trotz Backup�������� Seite 15 Kommentar: Polizeiwache zahlt Lösegeld für seine Daten� Seite 16 Cloud Cloud als Option für Backup und Archiv ������������������������������������� Seite 17 Service Impressum������������������������������������� Seite 21 Ausgabe 1-2015 Effizient | Innovativ | Performant IT-STORAGE LÖSUNGEN DIE NEUE GENERATION DER DATENSICHERUNG: ARCSERVE® UNIFIED DATA PROTECTION Spart Kosten: Eine einzige Lösung für Datensicherung und Wiederherstellung in virtuellen und physischen Umgebungen Wartungsfrei: Agentenlose Sicherung für VMware und Hyper-V (Windows- und Linux-VMs) Kostenfreie Workstation Edition – Für Windows Desktops und Laptops mit BMR – Support von privaten und öffentlichen Clouds Spart Ressourcen: Globale Quelldeduplikation über alle Knoten, deduplizierte Jobs und Standorte, damit weniger Speicherkapazität nötig Spart Aufwand: Integrierte Replikation und Hochverfügbarkeit für reibungslosen Geschäftsbetrieb und hohe SLA´s und Kombinationen – Globale Dedup mit Nutzung des Recovery Point Servers als 30-TagesTestversion inklusive Mehr unter: https://www.arcserve.com/de/freeworkstation.aspx de/freeworkstation.aspx TIM AG | Schoßbergstraße 21 | 65201 Wiesbaden | Tel. 0611 2709-0 | [email protected] | www.tim.de 4 Datensicherung Backup-Strategien: Klassische Szenarien greifen nicht mehr Der Wandel in den Rechenzentren Virtualisierung, Cloud, Software-defined Storage verändern die Rechenzentren. Die Umwälzungen sind durchaus schleichend, aber deshalb nicht weniger spektakulär: Der Wandel beeinflusst Märkte, komplette Ökosysteme, oder zumindest jahrzehntelang erprobte Vorgehensweisen wie beispielsweise das Backup. Von Engelbert Hörmannsdorfer Sowohl unter technischen als auch unter wirtschaftlichen Aspekten stoßen althergebrachte hardwareorientierte Speicherarchitekturen neuerdings an ihre Grenzen. Alleine, wenn man sich nur das Backup und Disaster-Recovery anschaut, muss man schon konstatieren: Backup-Fenster – was ist das? Das war einmal… »Früher war es etwas einfacher. Da hieß Backup, Daten von einem Server auf Tape zu sichern«, bekundet Frank Herold, Manager Presales & Consulting bei StorageSpezialisten Quantum, in einem VideoInterview mit speicherguide.de. »Heute haben wir zusätzlich schon die Sicherung auf Backup-to-Disk, und neuerdings immer mehr Cloud-Backup.« Eine Publikation von speicherguide.de Backup und Virtualisierung: »Das ist mit klassischen BackupSzenarien nicht mehr zu greifen« Nach Herolds Meinung hat bereits Virtualisierung extrem viel geändert: »Da wird Backup von anderen Teams gefahren. Das ist mit klassischen Backup-Szenarien nicht mehr zu greifen.« Administratoren müssten sich letztendlich überlegen, die unterschiedlichen Datenströme wieder zusammenzubekommen, und daraus Synergien zu schaffen. »Gerade auch unter dem Aspekt des Kostendrucks«, erklärt Herold, »den auch die IT-Abteilung immer stärker spürt.« Klassische Backup-Szenarien hätten zwar nach Ansicht von Herold durchaus noch ihre Daseinsberechtigung bei Unternehmen, bei denen es hauptsächlich um struk- Frank Herold, Manager Presales & Consulting bei Quantum im Gespräch mit dem speicherguide.de-Team Claudia Hesse und Engelbert Hörmannsdorfer. turierte Daten geht. »Aber wenn man sich ansieht, wo das starke Datenwachstum bei den meisten Unternehmen herkommt, dann sind das ja die unstrukturierten Daten«, erläutert der Quantum-Manager. Er empfiehlt in diesem Zusammenhang den Unternehmen, auf Storage-Tiering zu setzen: »Es muss ja nicht gleich alles ins Backup kommen – vieles lässt sich auch gleich in die Archivierung verschieben.« Ausgabe 1-2015 5 Datensicherung Unternehmen sollten sich mit SDS befassen Vor allem Software-defined Storage (SDS) stellt einen zukunftsorientierten konzeptuellen Ansatz dar, der sowohl für kleine und mittelständische als auch große Unternehmen gleichermaßen interessant ist. Sich eingehender mit SDS auseinanderzusetzen ist vor allem lohnenswert, sobald die Anschaffung neuer Speicher-Hardware, der Einsatz von Flash/SSDs oder Server- und Desktop-Virtualisierungsprojekte auf der Agenda stehen. Dies gilt ebenso, wenn Business-Continuity ein zentrales Thema ist und eine ausfallsichere, performante sowie hochverfügbare IT-Infrastruktur die Grundlage für den unterbrechungsfreien Ablauf von Geschäftsprozessen stellen muss. Im Rahmen einer SDS-Architektur lässt sich Standard-Hardware, gleich welcher Couleur, für die Zwecke des Anwenderunternehmens nutzen, und es lässt sich der gesamten Storage über Software darüber steuern. »So lassen sich vorhandene traditionelle Festplattenspeicher mit Flash-Medien und Hybridsysteme in einer auf ihre individuellen Anforderungen zugeschnittenen Speicherarchitektur verbinden«, argumentiert beispielsweise Stefan von Dreusche, Director Central Europe bei Datacore Software (»SANsymphony-V«). »Damit Eine Publikation von speicherguide.de Stefan von Dreusche, Director Central Europe, Datacore Software Gründe nennt er dafür einmal die Notwendigkeit, Flash kosteneffizient ins Rechenzentrum zu integrieren, dazu Microsofts Hypervisor-Offensive, den Trend zu hybriden Clouds sowie die Integration von Standardkomponenten im Speicherbereich. Dass der Boom bei SDS einen fundamentalen Wandel in der IT-Infrastruktur nach sich ziehen wird, davon ist auch Tarkan Maner, Chairman und CEO, beim Storage-Software-Anbieter Nexenta (»NexentaStor«) überzeugt: »Sobald IT-Manager verstehen, dass sie sowohl die beste Software als auch die beste Hardware einsetzen können, werden sich auf beiden Seiten nur noch die besten Lösungen halten können. Damit ver- steht der Weg offen, bestehende Insellösungen abzulösen und vom parallelen Betrieb blockorientierter SAN-, dateibasierter NASsowie separater Backup- und DisasterRecovery-Systeme verschiedener Hypervisoren oder Flash-Lösungen endgültig Abschied zu nehmen.« »Software-defined Storage wird 2015 zum Mainstream« Datacore-CEO George Teixeira legt sich ergänzend sogar konkret fest, und formuliert die grundlegende These: »Software-defined Storage wird 2015 zum Mainstream.« Als Tarkan Maner, Chairman und CEO, Nexenta schiebt sich auch die Verhandlungsgrundlage zwischen Kunde und Hersteller. Jedes Mal, wenn neue Kapazität gebraucht wird, kann neu verhandelt werden, was den CAPEX optimiert, ohne den OPEX zu beeinflussen. Die Grundlage für die Herstellerbindung ist somit entzogen, und der Kunde erhält die volle Kontrolle zurück.« Scale-Out-Shared-NothingArchitekturen Einfluss hat Software in Form von SDS auch auf neue hyperkonvergente Infrastrukturen, die Networking, Storage und Computing miteinander verbindet. Hyperkonvergente Lösungen, beispielsweise mit VMware Virtual SAN mit EVO:Rail sind dabei eine kritische Komponente bereits von etlichen führenden Hardware-Herstellern. »Diese Lösungen bieten für spezifische Workloads wie VDI sehr einfach einzusetzende und zu verwaltende Möglichkeiten«, argumentiert Maner. »Vmware macht es für SoftwarePartner möglich, noch weiter zu gehen: Virtual SAN und EVO:Rail können eingebunden und von Anbietern als einfaches Add-on angeboten werden.« Der Nexenta-CEO ist überzeugt, dass SDS darüber hinaus eine Schlüsselrolle bei der Entwicklung der nächsten Generation von Cloud- und Big-Data-Infrastrukturen spielt: Ausgabe 1-2015 6 Datensicherung »OpenStack-Clouds werden selten auf Speicher-Hardware von Legacy-Herstellern aufgebaut. Stattdessen bevorzugen Kunden hochskalierte Scale-Out-Shared-NothingArchitekturen auf x86-Standardservern mit einer Mischung aus günstigen SSDs und Festplatten für Object-, Block- und File-Services.« Und diese hochskalierten Scale-OutArchitekturen dürften die Backup-Architekturen erneut durcheinander bringen. Nicht mehr aufzuhalten: Backup-as-a-Service Wenn es um Backup-Strategien geht, sollten sich Anwender auch mit Backup-as-aService-Konzepten (BaaS) befassen. Anbieter wie Acronis haben bereits ihr Funktionsspektrum erweitert, vor allem für kleine und mittelständische Unternehmen (KMU). Basierend auf der »AnyData«-Engine stuft Acronis ihre Backup-Offerten mittlerweile in drei Konfigurationen: Zum einen als »Acronis Hosted«, was eine komplette Lösung darstellt, die in einem Acronis-Datenzentrum gehostet wird. Zum anderen ist ein hybrides Modell wählbar, bei dem eine von Acronis gehostete Managementkonsole mit dem Storage des Service-Providers verbunden wird. Nicht zuletzt ist zudem eine Installation möglich, die vollständig vom ausgewählten Service-Provider verEine Publikation von speicherguide.de waltet wird, der auch die Daten speichert. Die BaaS-Lösung von Acronis ist mehrstufig und mandantenfähig, offeriert lokales und hybrides Storage, und unterstützt Workstations, Windows-, Linux-, physische und virtuelle Server (Vmware, Hyper-V, Red Hat, Linux KVM, Citrix XenServer und Oracle VM). Für die Sicherheit gibt es eine 2048-BitSSL-Verschlüsselung beim Transfer sowie eine AES256-Verschlüsselung für die gespeicherten Informationen. Um das seit 2010 bestehende Cloud-Backup-Angebot auch weltweit und Compliance-gerecht anbieten zu können, verfügt Acronis über Rechenzentren nicht nur in den USA, sondern auch in Deutschland, Japan, Frankreich, Russland und Singapur. Reseller können zum CloudStorage-Provider avancieren Neue Backup-Strategien in Richtung Backup-as-a-Service empfiehlt man auch bei NetApp. »In Deutschland arbeiten wir beispielsweise für Backup-as-a-Service mit Partnern zusammen, deren Cloud-Lösungen nach allen Richtlinien der Datensicherheit abgenommen sind«, erläutert Manfred Reitner, Senior Vice President und General Manager EMEA bei Netapp. »Erst dann können sie diese Lösungen verkaufen.« Autorisierung anbieten, die auf NetappTechnologie basiert.« Man helfe Resellern damit, sich eventuell zum Cloud-StorageProvider zu transformieren. Fazit: Unstrukturierten Daten sorgen für Kollapszustände Dieter Schmitt, Director Channel Sales EMEA, Netapp Für das Umsetzen von Backup-as-a-Service-Lösungen mit Partnern ist bei Netapp Dieter Schmitt, Director Channel Sales EMEA zuständig. »Wir haben extra für Partner ein Backup-as-a-Service-Paket definiert«, sagt Schmitt. »Es ist vor allem für Partner aus der Reselling-Welt konzipiert. Denn wir verhelfen Resellern damit zu einem Cloud-Offering.« Letztendlich würden laut Schmitt Virtualisierung, Cloud und SDS nicht nur die Rechenzentren verändern, sondern eben auch das Geschäft im Channel: »Wir ermöglichen Partnern, ihre Geschäftsmodelle zu überdenken, indem wir zum Beispiel eine BaaS- In der Geschäftswelt ist Datenwachstum seit Jahren ein Dauerthema, und es wird noch weiter rasant an Fahrt gewinnen. Schlagworte sind hier Industrie 4.0, Internet of Things, oder die Hightech-Strategie der Bundesregierung. Aber die Gemengelage greift um sich. In der intelligenten Fabrik produzieren Sensoren Unmengen an Daten. Dazu kommen neuerdings Smartphone, Smartwatch und Smart-Home – mit Wearables analysieren und optimieren wir uns selbst. Laut IDC wird sich die globale Datenmenge bis 2020 verzehnfachen! Zu diesem Zeitpunkt reicht die verfügbare Speichermenge nur noch für 15 Prozent aller Daten. Hinzu kommt, dass der Großteil der Daten unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Recovery laufen völlig aus dem Ruder. Es gilt die Zeitfenster für Backup-Prozesse unter allen Umständen weiter zu verkürzen, und festgelegte Recovery-Ziele bestmöglich einzuhalten – und das alles im Rahmen des Budgets. K Ausgabe 1-2015 7 Datenspeicherung Rekord: IBM Research packt 123 Gbit pro Quadratzoll aufs Band LTO-Tapes bald mit 220 TByte Speicherkapazität In Zusammenarbeit mit Fujifilm gelingt IBM-Wissenschaftlern ein neuer Speicherrekord. Mit der neuen Technologie könnte eine einzelne LTO-Cartridge 220 TByte unkomprimierter Daten speichern. Die IBM-Forscher wollen nun das Band in aktuelle Cloud-ObjectStorage-Systeme integrieren. Wissenschaftler von IBM Research – Zürich hauchen der Bandspeichertechnologie wieder neues Leben ein. Wie das Unternehmen mitteilt, konnten erstmals Daten mit einer Speicherdichte von 123 Gbit pro Quadratzoll (rund 6,45 qcm) auf einem BariumFerrit-Magnetband gespeichert werden. Der Speicherrekord gelang IBM-Wissenschaftlern in Zusammenarbeit mit Fujifilm. Einen ersten Prototyp zeigten die Unternehmen auf der »NAB Show« in Las Vegas. Mit der neuen Technologie könnte eine einzelne LTO-Cartrigde 220 TByte unkomprimierter Daten speichern. Dies entspricht Eine Publikation von speicherguide.de der 88-fachen Kapazität einer heutigen LTO6-Bandspeicherkassette oder einer 22-fachen Steigerung gegenüber dem neuesten IBM-Tape-Produkt. Tape einsetzbar ein CloudObject-Storage-Systeme? Mit diesen beträchtlichen Speicherkapazitäten sei die Bandspeichertechnologie laut IBM auch für Einsätze in der Cloud denkbar. Wissenschaftler des IBM Forschungszentrums in Rüschlikon erforschen daher die Integration der Bandspeichertechnologie in aktuelle Cloud-Object-Storage-Systeme, wie zum Beispiel »OpenStack Swift«. Ziel ist es, Object-Storage auf Bandspeichern zu Grafik: IBM Research Karl Fröhlich, Engelbert Hörmannsdorfer In der Theorie hat sich die Magnetband-Speicherdichte enorm entwickelt. Zur Marktreife hat es allerdings keines der in der Tabelle genannten Produkte gebracht. ermöglichen, so dass wenig genutzte Datenobjekte nahtlos auf eine sehr preiswerte, langlebige und cloud-basierte Speicher einheit verschoben werden können. Nach Angaben des IT-Analysten Coughlin Associates sind heute mehr als 500 Exa byte an Daten in Bandspeichersystemen gespeichert. Bisher wird die Technologie vorwiegend für die lokale Datensicherung in Rechenzentren, Disaster-Recovery-Lösungen oder zur Einhaltung gesetzlicher Auflagen verwendet. Zunehmend würden aber auch Anwendungen im Kontext von Big Data oder Cloud dank der geringen KosAusgabe 1-2015 8 Datenspeicherung ETH Zürich sichert derzeit 5,5 PByte auf Band Die ETH Zürich nutzt IBM-Bandspeichertechnologie für den zentralen Daten-Backup-und Wiederherstellungs-Service. »Die durchschnittliche Datenübertragungsrate auf Bandspeicher hat in den letzten Jahren stark zugenommen: heute auf etwa 60 TByte Grafik: IBM Research ten von wenigen Cents pro GByte sowie der Langlebigkeit des Mediums immer interessanter. »Mit unseren Forschungsarbeiten zeigen wir, dass Bandspeicher auch weiterhin eine wichtige Rolle in der Speicherhierarchie spielen können«, sagt IBM Fellow Dr. Evangelos Eleftheriou. Tape soll sich als preiswerter Speicher in Object-Storage-Systemen etablieren. Eine Publikation von speicherguide.de täglich«, sagt Dr. Tilo Steiger, Stellvertretender Leiter des ITS System Service der ETH Zürich. »Unsere Magnetbandbibliothek umfasst insgesamt mehr als 5,5 PByte. Trotz der Fortschritte in der gesamten Speichertechnologie bleibt Tape auf Grund der Übertragbarkeit der Daten und des geringen Stromverbrauchs weiterhin ein vielversprechendes Medium für große Datenmengen.« Möglich wurde der jetzige Speicherrekord durch den Einsatz eines neuartigen Prototypen eines Magnetspeicherbandes von Fujifilm. IBM-Wissenschaftler entwickelten darüber hinaus verschiedene wichtige Technologien für Bandspeichersysteme weiter. So ermögliche eine verbesserte Schreibkopftechnologie die Nutzung noch feinerer Barium-Ferrit-Partikel auf dem Magnetband. Eine verfeinerte Steuertechnik erlaube zudem eine sehr hohe Präzision bei der Positionierung des Lese- und Schreibkopfes mit einer Genauigkeit von weniger als sechs Nanometer. Dies ermögliche damit eine Spurdichte von 181 bis 300 parallelen Spuren pro Zoll. Das entspreche einer bis zu 39-mal höheren Spurdichte im Vergleich zum heute kommerziell erhältlichen LTO-6-Format. Innovative Signalverarbeitungs-Algorithmen ermöglichen darüber hinaus eine zuverlässige Datendetektion unter Einsatz eines extrem schmalen, nur 90 Nanometer breiten, magnetoresistiven (GMR) Lesekopfes. K Backup-Up Tape Tracker Q4/2014 Der Santa Clara Consulting Group zufolge erzielen Backup-Tape-Cartridges im vierten Quartal 2014 einen Umsatz von 121,5 Millionen US-Dollar. Auf LTO entfallen dabei fast 97 Prozent mit einem Umsatz von 117,59 Millionen US-Dollar. Der LTO-Absatz ist dabei minimal auf 4,7 Millionen Stück zurückgegangen. LTO-6 setzt sich auch im Q4 weiter durch, mit 22 Prozent Anteil an den Verkaufszahlen und 36 Prozent am Gesamtumsatz. LTO-5 bleibt das populärste Bandformat, tendiert aber leicht unter dem Vorquartal, mit 41 Prozent des Absatzes und 33 Prozent des Umsatzes. LTO-4 liegt bei den Verkäufen (28 Prozent) noch in etwa gleichauf mit LTO-6. LTO-3 repräsentiert nur noch einen kleinen Teil des Marktes. LTO-1 und LTO-2 verzeichnen -21 Prozent bzw. -14 Prozent. Für das erste Quartal 2015 erwarten die Marktforscher einen Umsatz von etwas über 117 Millionen US-Dollar. Ausgabe 1-2015 Data Center Partner ist eine Kooperation des VAD TIM AG mit führenden Herstellern und Systemhäusern in Deutschland. Data Center Partner stehen für: TIM AG Schoßbergstraße 21 65201 Wiesbaden www.tim.de ❙ herstellerübergreifende Lösungskompetenz ❙ hochqualifizierten Support und Professional Service ❙ methodische, technologische und kaufmännische Beratungskompetenz für Storage und Data Center Lösungen Kontaktieren Sie uns: 0611 2709-222 oder [email protected] 01277 Dresden www.interface-systems.de [email protected] 59469 Ense www.ahd.de [email protected] 72186 Empfingen www.stemmer.de [email protected] 45131 Essen www.dextradata.com [email protected] 63303 Dreieich www.pandacom.de [email protected] 73479 Ellwangen www.inneo.de [email protected] 51063 Köln www.pironet-ndh.com [email protected] 64625 Bensheim www.concat.de [email protected] 74172 Neckarsulm www.bechtle.de [email protected] 54343 Föhren www.it-haus.com [email protected] 65520 Bad Camberg www.pmcs.de [email protected] 82178 Puchheim www.tproneth.de [email protected] 55543 Bad Kreuznach www.urano.de [email protected] 70499 Stuttgart www.raber-maercker.de [email protected] 90449 Nürnberg www.teamix.de [email protected] 57072 Siegen www.qosit.com [email protected] 70563 Stuttgart www.condor-computer.de [email protected] 94315 Straubing www.henrichsen.de [email protected] C o n d o r C o m p u t e r 10 Archivierung Quantum mit drei neuen Archivlösungen Archivierung für unstrukturierte Daten Zum einen stellt Quantum die neue »Artico«-NAS-Appliance vor. Weiterhin werden mit der »Rocket Arkivio Autostor«-Software die DXi-Backup-Appliances nun auf Archivierungsfähigkeiten getrimmt. Und für »Lattus« gibt es jetzt neue Object-Storage-Nodes mit 6-TByte-Festplatten. Backup und Backup-Appliances werden weiterhin stark nachgefragt. Aber die stark steigenden Datenmengen, mit denen die Unternehmen kämpfen, bestehen zu 90 Prozent aus unstrukturierten Daten, für die klassische Backup-Ansätze nicht so geeignet sind. »Und deshalb setzen wir jetzt zusätzlich für unsere Kunden eine breitere Archivierungs-Strategie auf«, erklärt Stephane Estevez, Sr. Product Marketing Manager EMEA/APAC bei Quantum, im Gespräch mit speicherguide.de. Natürlich hat Quantum bereits Produkte und Lösungen für Archivierungseinsätze im Programm, wie zum Beispiel diverse TapeLibrarys oder »StorNext AEL«. Aber die jetzigen neuen Archivierungslösungen sollen sich eben ganz speziell für unstrukturierte Daten eignen, mit denen Administratoren Eine Publikation von speicherguide.de Bild: Quantum Engelbert Hörmannsdorfer »Artico«-NAS-Appliance kann eine Milliarde Files verwalten trotzdem die damit eigentlich zusammenhängenden steigenden Speicherkosten im Griff behalten. »Denn immer mehr Rechenzentren erreichen den Punkt, an dem ihr alter Ansatz für Backup und Archivierung von dem Wachstum der unstrukturierten Daten einfach überrannt wird«, meint Estevez. »Wir denken, dass ein intelligentes Verschie- ben der Daten in das Archiv bereits sehr viel hilft.« »Artico«-NAS-Appliance verwaltet eine Milliarde Files NAS-Systeme haben sich schon immer als einfach zu verwaltendes und preiswertes Datengrab erwiesen. Hier muss Quantum mithalten, und stellt die »Artico«-NAS-Appliance vor. Das Gerät verwaltet bis zu einer Milliarde Files. An Festplatten-Speicherkapazität bringt es standardmäßig 32 TByte mit, der auf bis zu 70 TByte erweiterbar ist. Das Filesystem LTFS wird nativ unterstützt. Die Appliance kann als weitere Archiv-Targets Quantums Cloud-Storage-Speicherservice »Q-Cloud«, die Scalar-Tape-Librarys i80, i500 und i6000 sowie Quantums ObjectStorage-Lösung »Lattus« adressieren. Der Listenpreis beginnt bei 45.000 US-Dollar. Quantum positioniert Artico als kostengünstige Option für den Einstieg in die Archivierung. Bei Bedarf kann in den PByteBereich hochskaliert werden. Durch die »StorNext 5«-Datenmanagement-Richtlinien können Kunden ihre Daten mit Artico in einem Tiered-Storage-System vorhalten, das die Daten zur richtigen Zeit der richtigen Technologie zuordnet, ob lokal oder in der Cloud. Ausgabe 1-2015 Festplatten Marktübersichten Archivierun iSCSI-SA NAS-Systeme Management Datenrettung Cloud Solid-State-Disk NAS-Systeme Storage-Hardware Big-Data Controller & Interfaces Bandroboter Specials Stora Storage-Security ge-Ne w KOSTE NLOSE R Backup/Recovery NAS-Systeme age-Me ldunge iSCSI-SAN slette Solid-State-Disk r Optical-Storage Specials Big-Data Aktue lle Stor Virtualisierung Optical-Storage Archivierung Hochverfügbarkeit Bandlaufwerke Speichernetze Management n und d ie neue sten Be speich iträge k erguid ompak e.de Unser t servie Newsle rt auf tter ers cheint immer Mittwo chs un d Freita gs. Storage-Management Datenrettung Cloud Festplatten Hier ab Marktübersichten onnier en › Speichernetze Hochverfügbarkeit Optical-Storage Solid-State-Disk NAS-Systeme Ausgabe 1-2015 Storage-Hardware g »Vor allem unstrukturierte Daten verursachen das immer schnellere Wachstum von Daten. Damit erhöht sich gleichzeitig der Druck auf die Storage-Budgets«, sagt Liz Conner, Research Manager bei IDC. »Quantum erweitert sein Portfolio um Lösungen, die die immer weiter auseinanderklaffende Lücke zwischen der Bedeutung von Daten und ihrer wirtschaftlich sinnvollen Speicherung gezielt überbrücken.« K Storage-Management fwerke Eine Publikation von speicherguide.de Quantums Brücke zur sinnvollen Speicherung Produkt-Reviews Object-Storage ist ohnehin prädestiniert für Archivierungsapplikationen. Quantum hat hier die »Lattus«-Produktfamilie im Programm. Diese wird jetzt um neue S30-Object-Storage-Nodes erweitert, die mit neuen 6-TByte-Festplatten bestückt sind. Durch die neuen HDDs verfügen die S30Nodes im Vergleich zu den bisherigen S20Nodes über 50 Prozent höhere Dichte und sollen gleichzeitig die Kosten pro TByte um 15 Prozent senken. Die Lattus-Technologie zur Verteilung der Daten gewährleiste nicht nur eine sehr lange Lebensdauer der Daten, sondern auch die nahtlose und unterbrechungsfreie Integration neuer StorageNodes in bestehende Umgebungen. Produkt-Reviews Die zweite Archivierungsneuheit ist eine gemeinsame und zertifizierte Lösung, die die Quantum-DXi-Deduplizierungs-Appliances DXi4700 und DXi6900 sowie das »Arkivio Autostor«-Paket von Rocket Software miteinander kombiniert. »Auf diese Weise erweitern wir elegant eine Backup-Lösung zu einer Archivierungslösung«, betont Estevez. Für das reine Speichern ist natürlich die Quantum-Appliance zuständig – für die Regeln, was wann wohin gespeichert wird, ist schließlich das Arkivio-Paket zuständig. »Eine DXi zusammen mit Arkivio ist also Backup und Archivierung in einer Appliance zur selben Zeit«, erläutert Estevez. Die Besonderheit ist laut dem QuantumManager zum einen das extrem einfach Managen einer solchen kombinierten BackupArchivierungs-Lösung. Und zum anderen die deutlichen Kostenvorteile, wenn unstrukturierte Daten relativ schnell vom Primary-Storage in eine dezidierte Backup-Archiv-Appliance verschoben werden. Die Kosten pro TByte sollen in diesen Einsatzfällen um bis zu 80 Prozent sinken, kalkuliert Quantum. Da die Daten in ihrem nativen Format gespeichert werden, geschieht die langfristige Datenvorhaltung unabhängig von der Backup-Software. SoHo-NAS Neue Lattus-Object-StorageNodes mit 6-TByte-Disks Disk-Backup DXi-Backup-Appliance plus »Rocket Arkivio Autostor« Wis- Archivierung SoHo-NAS 11 Backup/Recovery 12 Archivierung »medi-safe plus«: WORM-Archiv mit Triple-Parity Tec : N- Revisionssicheres Langzeitarchiv Entstanden ist »medi-safe plus« in einer Kooperation mit Raidix, einem Hersteller von Hoch leistungsspeicher-Software. Die N-Tec-Lösung eignet sich besonders als Archiv im Verbund mit HIS-, RIS- und PACS-Systemen sowie für Firmen mit Anforderung an revisionssicherer Speicherung. Engelbert Hörmannsdorfer Speziell für die revisionssichere Langzeitarchivierung und optimiert für die Anforderungen in der Medizintechnik, hat der Storage-Systemehersteller N-Tec die Lösung »medi-safe plus« konfiguriert. Entstanden ist das spezielle Storage-System in einer Kooperation mit Raidix Software, einem Hersteller von HochleistungsspeicherSoftware. Da es eben speziell für die Anwendungen im Health-Care-Bereich gedacht ist, wurde das neue System Mitte April auf der Medizintechnikmesse »conhIT« in Berlin vorgestellt. Medi-safe plus wird von N-Tec als Hochleistungs-Langzeitspeicher für die Ablage der Produktiv- und Archivdaten in der Medizintechnik positioniert. Mit einem intelligenten RAID-Algorithmus sorgt die Lösung für eine schnelle, sichere Speicherung aller Daten, und bietet gleichzeitig eine hohe AbEine Publikation von speicherguide.de rufgeschwindigkeit für bereits gespeicherte Daten. Zur weiteren Steigerung der Verfügbarkeit kann das System alle Daten auf ein zweites System replizieren. gere die Wahrscheinlichkeit von Systemfehlern und garantiere die Geschwindigkeit selbst bei Ausfall von mehreren Festplatten-Laufwerken. »medi-safe plus« mit integrierter WORM-Architektur Aktuell bis zu 144 TByte Speicherkapazität Die integrierte WORM-Architektur (Write Once, Read Many) ermöglicht laut N-Tec eine revisionssichere Langzeitspeicherung und verhindert die Manipulation, das Löschen oder Verfälschen der bereits gespeicherten Daten im Sinne von GDPdU, GOB, RÖV und HIPAA. Medi-safe plus eigne sich damit besonders als Archiv im Verbund mit HIS-, RIS- und PACS-Systemen. Verschiedene integrierte Mechanismen überwachen die Hardware, und sollen im Hintergrund für die Integrität der vorhandenen Daten sorgen. IT-Manager können zwischen zweifacher (RAID 6) und dreifacher (RAID 7.3) Parität wählen. Das verrin- N-Tec betont, dass Unternehmen mit Medi-safe plus eine schlüsselfertige Lösung erhalten, die schnell und einfach in Betrieb genommen werden kann. Der Administrationsaufwand sei gering, und die mitgelieferte Management-Oberfläche einfach und intuitiv zu bedienen. »Wir bieten Replikation und Datenmigration für den Einsatz über mehrere Dekaden an«, erklärt N-Tec-Geschäftsführer Sven Meyerhofer die Vorteile. »Das System kann hard- und softwareseitig an kundenspezifische Anforderungen angepasst werden. Obwohl es speziell für den Einsatz im medizinischen Umfeld (Radiologie) entwickelt o Fot Medi-safe plus, ein revisionssicheres Konzept zu einem WORMLangzeitarchiv mit Triple-Parity. wurde, lässt es sich natürlich auch in jedem Unternehmen mit Anforderung an revisionssicherer Speicherung einsetzen.« Medi-safe plus gibt es in Versionen mit acht, 16 und 24 Festplatteneinschüben, was bei aktuellen Festplatten bis zu 144 TByte Gesamtkapazität bedeutet. Die Lizenzierung der Software erfolgt dabei nicht nach Kapazität, sondern nach der Anzahl der Laufwerke. Vorteil: Bei einer späteren Migration auf größere Festplatten fallen also keine weiteren Lizenzkosten mehr an, solange die Anzahl der Laufwerke gleich bleibt. Als Schnittstelle kann gewählt werden zwischen 1- und 10-GbE-iSCSI sowie 8und 16-Gbit/s-Fibre-Channel. Die 8-Bay-Basisvariante »mediSafe+ 208« inklusive 32 TByte WORM-Archiv sowie zwei Jahre Softund Hardware-Maintenance kostet 6.807 Euro netto. K Ausgabe 1-2015 13 Backup-Software Symantec/Veritas kündigt »Backup Exec 15« an Engelbert Hörmannsdorfer Backup für Hybrid-Cloud rückt in den Fokus Unternehmen können mit dem neuen Backup-Tool »Backup Exec 15« virtuelle und physische Umgebungen auf Festplatte, Band oder in der Cloud sichern. Hersteller Symantec/Veritas unterstützt dabei die Hypervisoren von Microsoft und Vmware. vice«. Hier muss ein Anwender nun nach ei- lisierungen bei früheren Versionen etwas nem Pay-as-You-Go-Modell bezahlen. hinterherhinkten, so kam die 2014er VersiBesonderheit des Tools ist auch, dass ge- on erst über zwei Jahre nach der Vorgännerell Vmware stärker unterstützt wird. gerversion heraus. Dies ließ etliche SymanDazu gehört auch »vSphere 6« sowie eine tec-Anwender zu Konkurrenz-Produkten Boards: Duplication engeWhite Integration mitOptimized »Virtual SAN« (vSAN) abwandern. Aber nun werden erneut Example Backup Exec optimized duplication diagram und »EVO:Rail«. Zuletzt hinkten die Aktua- »schnellere Upgrades und Migrationen« Physical Servers Minimum Licenses: Backup Exec Server Deduplication Option Enterpriser Server Option Optional Licenses: Windows Agent App & DB Agent Hyper-V/Vmware Agent LAN/SAN Einsatzbeispiel mit »Backup Exec 15« mit Deduplikation im Fokus. Unique Blocks Backup Exec Deduplication Option Enterprise Server Option Primary Site Virtual Servers Symantec Backup Exec Blueprints - Optimized Duplication Eine Publikation von speicherguide.de Minimum Licenses: Backup Exec Server Deduplication Option Optional Licenses: Windows Agent App & DB Agent Hyper-V/Vmware Agent Grafik: Symantec Symantec bzw. der nach dem geplanten Firmensplit als Veritas Technologies firmierende Unternehmensteil, rundet sein Backup-Leistungsportfolio mehr und mehr ab. Unternehmen können mit dem neuen, und ab sofort verfügbaren Backup-Tool »Backup Exec 15« virtuelle und physische Umgebungen auf Festplatte, Band oder in der Cloud sichern. Dabei werden die Hypervisoren von Microsoft und VMware unterstützt, was letztlich dem Hersteller eine breite Kundenbasis bescheren dürfte. Snapshots virtueller Maschinen, individuelle Wiederherstellungsoptionen sowie Bare-Metal-Restore und physisch-virtuelle (P2V) und virtuell-physische (V2P) Recoverys sind nur einige Merkmale, die IT-Manager nun auch von Backup Exec 15 erwarten können. Das Tool kann VMs sichern, deren Volumes über zwei TByte groß sind, und die auf GPT-Partitionen setzen. Vor allem hybride Cloud-Modelle will der Anbieter mit der neuen Lösung adressieren. Die Lizenzierungsmodelle sollen laut Symantec/Veritas mittels »Backup Exec Capacity Edition Light« nun weitaus simpler durchzuführen sein. Erweiterter Support für eine größere Anzahl von Hybrid-CloudPlattformen gehört hier ebenso dazu, wie etwa »AWS Storage Gateway VTL Cloud Ser- Backup Exec Deduplication Option Managed Backup Exec Server DR/Secondary Site = Deduplicated data versprochen. Generell lässt sich feststellen, dass im Fokus der neuen Backup-ExecPlattform für Symantec/Veritas die neuen Hybrid-Cloud-Modell stehen. Hier sind in den letzten Jahren neue Kundenbedürfnisse entstanden, etwa nach Werkzeugen, um Informationen in zunehmend komplexen Infrastrukturen zu verwalten. Damit stieg nicht nur die Komplexität, sondern auch die Nachfrage an Support für die neuen Lösungen, die Cloud-Infrastrukturen ermöglichen. Symantec/Veritas stellt deshalb die gesamte Produktentwicklung unter das Motto »Hybrid is the Model«. Darunter versteht das Software-Haus, neue Funktionen noch schneller anbieten zu können, und so Unternehmen dabei zu unterstützen, dynamische, moderne Infrastrukturen zu realisieren. K 8 Ausgabe 1-2015 14 Backup-Software Knaller von Paragon: »Protect & Restore Free für Vmware vSphere« Gratis Backup und Replikation von VMs Seit Kurzem hat Paragon Software einen Knaller für die IT-Welt am Start: sein »Paragon Protect & Restore«-Tool (PPR) für Vmware »vSphere« gibt es in einer kostenfreien Edition. Damit ist jetzt zumindest die Grundsicherung und Replikation vom VMs gratis. Die Free-Edition ist zeitlich nicht begrenzt. Engelbert Hörmannsdorfer Eine Publikation von speicherguide.de stattung für die Sicherung, Replikation und Wiederherstellung von virtuellen Maschinen in Vmware-Vsphere-Umgebungen«. Das Tool sei relativ schnell zu erlernen. Komplexere Anforderungen oder gar die Einbindung von physischen Systemen oder virtuellen Maschinen anderer Hypervisoren sei problemlos möglich, allerdings der kostenpflichtigen PPR-Gesamtlösung vorbehalten. Bild: Paragon Software Seit Kurzem hat Paragon Software einen Knaller für die IT-Welt am Start: sein »Paragon Protect & Restore«-Tool (PPR) für VMware »vSphere« gibt es in einer kostenfreien Edition. Mit »Paragon Protect & Restore Free for VMware vSphere« ist jetzt zumindest die Grundsicherung und Replikation von VMs gratis. Dass es dieses Tool kostenlos gibt, ist angelehnt an die Idee von »Veeam Backup Free Edition«. »Allerdings kommen wir mit dem Leistungsumfang sehr nahe an die kommerzielle Version von Veeam Backup & Replication«, ist sich Miro Milos, Director B2B Marketing & Partner Sales EMEA bei Paragon, sicher. Das Werkzeug bietet nach Herstellerangaben eine »leistungsstarke Standardaus- Free-Edition von »Paragon Protect & Restore for VMware vSphere« Leistungsmerkmale der Paragon-PPR-Free-Edition Zu den Leistungsmerkmalen der PPR-FreeEdition für Vmware zählen: Backup von Vmware Gastsystemen im laufenden Betrieb, einzeln und Multi-VM, Replikation und Recovery von VMs auf beliebige ESX-Hosts inklusive FailoverFunktion, inklusive Deduplizierung, inkrementeller Sicherung, Wiederherstellung einzelner Dateien sowie Traffic-Throttling, Multi-Tier-Storage für schnelle Recoverys und sichere Archivierung, zentrales Management aller Aufgaben mit detailliertem Reporting, unbegrenzt kostenlos in Bezug auf Zeit, Anzahl von Hosts oder VMs. Nicht eingeschlossen ist das Backup und die Wiederherstellung physischer Windows-Maschinen sowie die Non-Destruk tive Sicherung von Exchange-Datenbanken. Hierfür benötigen IT-Manager die kostenpflichtige »Paragon Protect & Restore Ultimate«-Edition. PPR Free für Vmware Vsphere ist kostenlos und zeitlich nicht begrenzt. Jeder kann sie auf der Paragon-Webseite herunterladen. Die Gratis-Version ist seit Anfang April verfügbar und laut Hersteller an keinerlei Bedingungen geknüpft. K Weitere Informationen PPR Free für Vmware Vsphere www.paragon-software.com/de/mediumlarge-business/protect-restore/#3 Ausgabe 1-2015 15 Backup-Software Zu viele Anwender haben Datenverlust trotz Backup Selbst das beste Backup schützt nicht vor einem Datenverlust. Eine Umfrage des Datenrettungsexperten Kroll Ontrack ergab, dass 61 Prozent der Befragten schon mal ein Datenverlust plagte, obwohl es zum Zeitpunkt des Verlusts eigentlich eine vermeintlich funktionierende Datensicherung gab. Die Gründe dafür – und die Reaktionen darauf. Engelbert Hörmannsdorfer Man möchte es nicht glauben, aber bei vielen privaten und unternehmerisch orientierten IT-Anwendern, die tatsächlich regelmäßig ein Backup ziehen, grasiert immer noch das Prinzip Hoffnung. »Viele Unternehmen denken, dass es reicht, überhaupt eine Backup-Strategie zu haben«, sagt Peter Böhret, Managing Director bei Kroll Ontrack in Böblingen. »Dabei ist es nicht damit getan, eine Datensicherung einzurichten und anschließend auf das Beste zu hoffen. Das hat unsere Umfrage dieses Jahr wieder eindrücklich bewiesen. Besonders die Tatsache, dass fast drei Viertel der Befragten trotz Backup einen Datenverlust erlitten haben, zeigt, wie wichtig umfassende Sicherungsrichtlinien sind.« Eine Publikation von speicherguide.de Dazu gehört unter anderem etwas ganz banales: Nämlich, dass die korrekte Funktion des Backups regelmäßig überprüft wird. Auch müssen die Verantwortlichen dafür sorgen, dass eine Datensicherung immer aktuell und vollständig ist. »Außerdem«, so betont Böhret, »sollten Unternehmen in ihren Richtlinien immer einen zuverlässigen und erfahrenen Datenrettungspartner miteinbeziehen, falls es doch einmal zu einem Datenverlust kommt.« Backup-Fehlerquelle: unzureichende Richtlinien Doch was sind die Ursachen für die vielen Datenverluste, die sich trotz Backup ereignen? »Es sind vor allem unzureichende Richtlinien in Unternehmen«, erklärt der Kroll-Ontrack-Manager. Ist beispielsweise ein Gerät nicht in den Backup-Protokollen erfasst, können dessen Daten auch nicht automatisch gesichert werden. Ebenso verheerend kann es sein, wenn ein Defekt im Sicherungssystem unentdeckt bleibt und erst ans Licht kommt, wenn man auf das Backup angewiesen ist. Dabei ist es völlig unerheblich, wie häufig die Daten tatsächlich gesichert werden – oder ob überhaupt. Denn obwohl 71 Prozent der Umfrageteilnehmer täglich oder zumindest wöchentlich sichern, hatten 61 Prozent trotz Backup einen Datenverlust. So war bei jeweils 21 Prozent die Datensicherung defekt bzw. das betroffene Gerät war nicht in den Sicherungsplan integriert, während in knapp einem Fünftel der Fälle (19 Prozent) das Backup nicht aktuell war, also die verlorenen Daten nicht abgebildet hatte. Grafik/Quelle: Kroll Ontrack Studie: Auch ein funktionierendes Backup sollte getestet werden Magnetbänder – die Backup-Dinosaurier Bei der Art des Backups werden auch 2015 am häufigsten externe Festplatten bzw. Backup-Disk-Systeme genutzt (68 Prozent) – sowohl für private als auch geschäftliche Daten. Cloud-Backups sind – noch – vergleichsweise selten (nur 16 Prozent), haben sich aber auf den zweiten Platz vorgeschoben. Damit wurde das klassische TapeBackup klar überholt. Es scheint langsam auszusterben – nur noch fünf Prozent der Befragten setzen auf diese Art der Datensicherung. Die am häufigsten genannten Gründe in der Studie für das Fehlen einer Backup-Lösung sind Zeitmangel für die Auswahl (50 Prozent) sowie die Kosten einer Datensicherung (39 Prozent). K Ausgabe 1-2015 16 Backup-Software Cryptolocker verschlüsselte auch das Backup Polizeiwache zahlt Lösegeld für seine Daten Opfer einer Attacke durch die Verschlüsselungs-Schad-Software »CryptoLocker« wurde eine Polizeiwache in Tewksbury im US-Bundesstaat Massachusetts. Die Malware verschlüsselte verschiedenste Daten, darunter Polizeiberichte, Fahrzeugdaten, sowie Festnahme- und Verhörprotokolle. Es schaltete sich bei dem Vorfall auch das FBI ein. Zwei Forensik-Unternehmen, Delphi Technology Solutions und Stroz Friedberg wurden laut dem »Tewksbury Town Crier« hinzugezogen. Aber als sich nach mehreren Tagen herausstellte, dass es nicht gelingen würde, die Verschlüsselung zu knacken, entschieden sich die Verantwortlichen ein Lösegeld von 500 US-Dollar in Bitcoins zu zahlen, um wieder Zugriff auf die Daten zu erhalten. Crpytolocker ist eine Malware, die erstmals 2013 auftauchte. Forensiker und Antivirus-Spezialisten waren sich sicher, den Schädling im Griff zu haben. Ein Crpytolocker-Botnet wurde letzten Sommer zerschlagen. Aber die Version, mit der sich die Polizeiwache infizierte, scheint eine neue, effektivere Version zu sein. Sie kann jedes File und jede Datei finden und verschlüsseln, das zu einem Shared-Netzwerklaufwerk, einem USB-Laufwerk, externen Festplatten, Netzwerk-File-Share und sogar zu manchen Cloud-Storage-Services gehört. Schließlich entschied man sich in Tweksbury zähneknirschend, das Lösegeld zu zahlen. Denn laut einem Polizeisprecher war man auf dieser Station nahezu »blind« bzw. man sah sich außerstande, die Polizeiarbeit vernünftig aufrechtzuerhalten. Eine Publikation von speicherguide.de Engelbert Hörmannsdorfer Redaktion, speicherguide.de Und die geneigten Mitleser, die nun schon vermuten, dass es kein Backup auf der Polizeistation gab – es gab ein Backup auf einer externen Festplatte, aber auch das wurde, aufgrund der ausgeklügelten Netzwerkfähigkeiten der Schad-Software, verschlüsselt. Und es gab auch noch ein Backup auf einer nicht ans Netzwerk angeschlossenen TapeCartridge – aber das war laut der Zeitung 18 Monate alt. Der Malware-Vorfall fand bereits im Dezember letzten Jahres statt. Durch den Bericht der Zeitung aus Tweksbury kam er aber jetzt erst ans Tageslicht. Es ist auch nicht bekannt, wie der Schädling in die Polizeistation eingeschleust wurde. Übrigens: Nach der Zahlung der Bitcoins bekam die Polizeistation tatsächlich einen Schlüssel zum Entschlüsseln ihrer Daten. Auch wenn diese Geschichte zunächst lustig klingt, in der Sache ist sie höchst beängstigend. Ein sicheres und regelmäßiges Backup ist durch nichts zu ersetzen. Ausgabe 1-2015 17 Cloud Cloud-Strategie: Risiken kennen und Kosten genau kalkulieren Cloud als Option für Backup und Archiv Cloud etabliert sich als ernstzunehmende Option für Rechenzentren. Dies reicht von der Einbindung in die unternehmenseigene Storage-Strategie vom Archiv über Backup bis hin zu Disaster-Recovery. Allerdings gilt es die Risiken zu kennen und die Kosten genau zu kalkulieren. Beate Herzog Cloud-Storage ist nicht gleich Cloud-Storage und fast jeder Hersteller bzw. CloudService-Provider hat seine eigene Defini tion, je nachdem was er eben selbst im Angebot führt. Schien der Begriff Cloud noch vor Jahren wie die Wolke selbst – wabernd und undefinierbar – so gibt es nun eine erkleckliche Anzahl an Offerten, die moderne IT-Umgebungen unterstützen und erweitern können. File-Sync-and-Share Einer der ersten und wohl auch am meisten genutzte Cloud-Service ist das so genannte File-Sync-and-Share. Dies ist kein Eine Publikation von speicherguide.de reiner Speicherdienst, sondern eher eine Kollaborationsplattform, die mit Speicherkapazität ausgerüstet ist. Verschiedene Anwender haben mit diesem Service die Möglichkeit, über das Internet Dateien auszutauschen und gemeinsam zu bearbeiten. Unternehmen schrecken oft von der Verwendung dieser Dienste ab, da sie ihnen zu wenig Sicherheit und Datenschutz bieten. Mittlerweile existieren allerdings zahlreiche Anbieter, die solche File-Plattformen für große Organisationen und Unternehmen anbieten und entsprechende Funk tionen eingebunden haben. In vielen Fällen werden dabei private Cloud-Umgebungen aufgebaut, um den nötigen Schutz vor externen Zugriffen zu gewährleisten. Zu den Anbietern zählen unter anderem Ctera, OwnCloud, Powerfolder, Syncplicty, Varonis oder Zimbra. Diese Services dienen nur der Kollaboration und übernehmen keine erweiterten Speicher- oder gar Sicherungsfunktionen. Cloud-Speicher (Drive) Cloud-Speicher bieten Speicherkapazitäten, die über das Internet zu erreichen sind. Dabei kann der Speicherplatz von einem Service-Provider zur Verfügung gestellt oder sich als kleine private Cloud mit wenig Aufwand selbst eingerichtet werden. Zu den klassischen Cloud-Speicher-Anbietern gehören Telekomfirmen wie Telekom und 1&1, aber auch GMX, Google, Microsoft (OneDrive) und Amazon. Die meisten Anbieter offerieren ein bestimmtes Gratis-Speicherkontingent. Alles darüber hinaus wird abgerechnet, nach GByte, TByte oder Zugriffsraten (I/Os). Manche die- ser Cloud-Speicher umfassen bereits ein automatisches Synchronisieren sowie sich das jeweilige Endgerät in einem Netzwerk befindet – »iCloud« und »OneDrive« agieren beispielsweise so. Eine solche Speicher-Cloud lässt sich aber nicht nur über Public-Clouds, sondern auch in privaten Cloud-Umgebungen realisieren. Über entsprechend ausgestattete NAS-Systeme kann jedes Unternehmen seinen mobilen Mitarbeitern Speicherplatz zur Verfügung stellen oder bestimmte FileDienste freigeben. Allerdings können auch kleine Unternehmen und Heimanwender einen Cloud-Storage aufbauen. Mit NASSystemen wie von Buffalo, Qnap, Seagate/LaCie, Synology oder Western Digital (MyCloud) lassen sich ein oder mehrere Festplatten von überall ansprechen und »befüllen«. Hier kann der jeweilige Nutzer auch entscheiden, wem und wie vielen anderen Personen er Zugriff auf diesen Speicher gewährt. Die meisten Cloud-Speicher sind was der Name schon andeutet: einfacher Ablageplatz für Daten. Ausgabe 1-2015 18 Cloud Cloud-Backup und -Recovery Unternehmen, die ihre internen BackupRessourcen schonen und nicht mit reiner Hardware bedienen wollen, greifen auf spezifische Cloud-Backup/Recovery-Dienste zu. Firmen haben so die Chance, BackupDaten in die Cloud zu verschieben. So ließen sich beispielsweise die Daten in die Cloud sichern, die nach vier Wochen auf einen anderen Speicher-Tier kämen und trotzdem noch verfügbar sein müssen. Das erspart dem Unternehmen die Anschaffung neuer Speichersysteme. Es gibt zahlreiche unterschiedliche Services, aus denen Unternehmen auf der Suche nach Cloud-Backup wählen können. Vieles hängt dabei von der IT-Umgebung ab und den Daten, die in der Cloud gesichert werden sollen. Besonders bei virtuellen Maschinen muss der Administrator darauf achten, ob der Service nicht nur die Sicherung dieser gewährleistet, sondern auch die Wiederherstellung. Manche Lösungen erlauben es, virtuelle Maschinen auf anderen VMs oder auf physischen Servern wiederherzustellen. In diesem Zusammenhang sollten auch die Service-Level-Agreements geprüft werden, die ein Unternehmen für seine Backup- und Recovery-Dienste benötigt. Wie beim herkömmlichen Backup auch, muss sichergestellt sein, dass der Provider die Eine Publikation von speicherguide.de vorher bestimmten Datensätze bei Bedarf in einem festgelegten Zeitraum bereitstellen kann. Admins müssen ihre angestrebten Recovery-Point-Obejctive (RPO) und Recovery-Time-Objective (RTO) mit dem jeweiligen Provider genau abklären, damit es im Notfall nicht zu bösen Überraschungen kommt. Zu den zahlreichen Anbietern gehören Microsoft »Azure«, Evault, Unitrends oder Storage-Größen wie EMC, Dell, NetApp, IBM oder HP. Aber auch Software-Hersteller bieten die entsprechenden Funktionalitäten, indem sie ihre Backup/RecoverySoftware für bestimmte Clouds kompatibel machen, meist mit Amazon, Acronis, Asigra, Symantec, StorageCraft, Paragon oder NovaStor. Die Preise hängen sehr von dem Umfang der Funktionen und dem Speicherplatz ab. Pauschalen lassen sich meist nicht beziffern, wenn es um die Absicherung professioneller IT-Umgebungen geht. Cloud-Archivierung Viele Unternehmen müssen digitale Informationen aufgrund rechtlicher Vorgaben über sehr lange Zeiträume vorhalten. Selbst wenn hier oft Bandspeicher bzw. eine Auslagerung der Daten auf Bandmedien das Mittel der Wahl sind, Kosten entstehen durch die Hardware-Ressourcen, dem La- gerplatz und Services sowie durch die eigenen Mitarbeiter, wenn Tapes bei Bedarf vom Lager geholt und die Daten zurückzuspielt werden müssen. Ein Cloud-Archiv soll helfen, Ressourcen einzusparen und eine einfachere und übersichtlichere Kostenstelle hierfür zu generieren. Dabei gilt es vor der Wahl des Provider einige Kriterien zu beachten: Wie erfolgt die Indexierung der Daten und welche rechtlichen Vorgaben muss das Unternehmen einhalten? Welche Verschlüsselung wird genutzt und wer verwaltet die Schlüssel? Wie und wie schnell erhält der Anwender im Bedarfsfall Zugriff auf seine Daten? Gibt es die Möglichkeit der Vernichtung der Daten nach Ablauf der Vorhaltezeit? Auch das Medium, auf das der Provider die Daten ablegt, spielt eine Rolle. Anbieter wie Amazon »Glacier« speichern zum Beispiel auch auf Bandspeicher und nicht nur auf HDDs. Das kann positiv sein, da der Administrator die digitalen Informationen quasi in physischer Form anfordern kann. Benötigt ein Kunde seine Daten innerhalb einer bestimmten Zeit – beispielsweise EMails innerhalb von zwölf Stunden für einen Rechtsstreit – dann könnte eine TapeLösung eher hinderlich sein. Allerdings erzeugt auch ein Cloud-Archiv, das auf Festplatten basiert, höhere Kosten. Neben Amazon bieten OVH, Symantec, Microsoft, Quantum (»StorNext«) oder HP Archivierungsdienste in der Cloud. Disaster Recovery über die Cloud Durch zahlreiche Software-basierte Lösungen ist die Integration mit Wolkenkonstrukten kein Hexenwerk mehr und nahezu alle Funktionen eines Rechenzentrums lassen sich auch in der Cloud abbilden. Daher überdenken die ersten Unternehmen ihre bestehenden Disaster-Recovery-Strategien zugunsten der Cloud. Mit automatisierten Replikationsmechanismen können Datensicherungen in sehr kurzen Abständen erfolgen und den gesamten Datenbestand eines Data Centers in eine Cloud spiegeln. Dadurch kann ein Unternehmen über den Cloud-Provider quasi einen zweiten Standort – ein Ausfallrechenzentrum – aufbauen, ohne in die Hardware und weitere Mitarbeiter investieren zu müssen. Kombiniert mit gewünschten Backupund Recovery-Funktionen hat der IT-Manager die Sicherheit, bei einem Totalausfall in kurzer Zeit nicht nur essentiell wichtige, sondern eventuell den gesamten Datenbestand zur Verfügung zu haben. Allerdings muss sichergestellt werden, dass virtuelle Maschinen und alle Anwendungen auch im Ausgabe 1-2015 19 Cloud Cloud-Rechenzentrum laufen und wie die Sicherungsstrategie des Providers aussieht. Gerade für mittelständische Unternehmen ist dies ein guter Weg einen Ausfall standort einzuführen, den man sich zuvor aus Platz-, Mitarbeiter- und Kostengründen nicht leisten konnte. Plant man ein solches Cloud-Szenario, so darf man auch nicht vergessen, dass im Falle eines Schwenks auf das Cloud-Ausfall-RZ sich einige Parameter ändern. Zum einen wird der Sicherungsort (also das Cloud-RZ), zumindest zeitweilig, zu einem Daten verarbeitenden Standort, was die Kosten in dieser Zeit nach oben treiben dürfte. Des Weiteren sollte der Administrator bedenken, wie nach einem Störfall die Anbindung an das Cloud-RZ erfolgt, wenn vom Primärstandort eventuell keine Verbindungen mehr bestehen. Wer also eine Cloud-integrierte DisasterRecovery-Strategie aufbaut, muss unbedingt beim Provider auf entsprechende Sicherungsmechanismen und SLAs bestehen. Als Anbieter stehen hier fast alle großen Speicheranbieter zur Verfügung. Hosted Private-Cloud Unternehmen, denen die Public-Cloud zu riskant oder noch zu »öffentlich« ist, der muss beim Aufbau einer privaten Cloud nicht auf Provider-Services verzichten, wenn er sich der Aufgabe allein nicht geEine Publikation von speicherguide.de wachsen sieht. Hier gibt es die Möglichkeit, eine so genannte »Hosted Private Cloud« aufzubauen. Dabei übernimmt der Provider den Aufbau der privaten Cloud bzw. stellt die Hardware und übernimmt, je nach Absprache, die Wartung und eventuell auch einige Administrationsaufgaben. Wie schon beim Disaster-Recovery sind SLAs, über den Service und was das jeweilige Unternehmen von der Cloud-Umgebung erwartet, essentiell. Amazon, IBM, Rackspace und Softlayer (nun IBM) bieten einen Hosted Private-Cloud-Service an. Cloud: Risiken kennen Egal für welche Cloud-Service-Integration sich Unternehmen entscheiden, es sollten immer die Risiken erwogen werden, die eine Auslagerung der Informationen haben könnte. Zu denen gehören unter anderem: Ausfallszenarien im eigenen RZ und Nutzbarkeit der Cloud-Daten Ausfallszenarien des Cloud-RZ und dessen Einfluss auf den Primärstandort Geschäftsaufgabe des Providers Müssen Cloud-Daten auch für Dritte zugänglich sein (Partner/Kunden) Hacker-Angriff auf die Cloud-Ressource Dies sind nur einige der möglichen Risiken, die Organisationen bei Cloud-Strategien bedenken sollten. Wie auch mit den Ausfallszenarien im eigenen Rechenzentrum sollten IT-Entscheider eine gesunde Balance zwischen verkraftbarem Restrisiko und Rundum-Absicherung finden. Letztlich spielt dabei der Preis keine unerhebliche Rolle. Cloud-Storage muss nicht am günstigsten sein Über die Jahre hinweg wurde propagiert, dass der größte Vorteil der Cloud-Infrastrukturen der Preis sei. Das stimmt sicher in den meisten Fällen. Die Abrechnungsmodi folgen meist den Ansätzen Euro/TByte oder Euro/IO. Allerdings können auch diese Abrechnungsmodelle aus dem Ruder laufen, wenn vorher nicht an die Skalierbarkeit gedacht wurde. Je mehr TByte an Daten gesichert und je öfter darauf zugegriffen wird, desto schneller und unvorhersehbarer steigen die Preise. Das gleiche gilt für die Langzeitaufbewahrung: Setzt sich das Unternehmen eine zu kurze Frist und muss verlängern oder speichert auch mehr Daten als geplant, so entstehen Mehrkosten. Auch aus diesen Gründen ist eine sorgfältige und abteilungsübergreifende Planung wichtig, die auch über einen längeren Zeitrahmen Datenbestände und Sicherungsanforderungen prüft und berücksichtigt. Hybride Cloud und lokale Provider liegen im Trend Die Cloud ist beileibe kein Wolkenkuckucksheim mehr, sondern ein funktionales und funktionierendes Konzept für wachsende Rechenzentren. Neben den oben aufgeführten Cloud-Konzepten für Storage-Umgebungen zeichnet sich ab, dass es keine Grabenkriege zwischen Private- und Public-Cloud geben wird, sondern eher MischArchitekturen – hybride Clouds – entstehen. Diese setzen sich jeweils nach den Sicherungs- und Datenschutzanforderungen zusammen. So sichert Unternehmen X beispielsweise 80 Prozent seiner Informationen in der privaten und 20 Prozent in der öffentlichen Cloud. Andere Firmen setzen dies vielleicht schon zu 60:40 Prozent um. Fakt ist: Die hybride Cloud wird wohl die meist genutzte Cloud-Architektur werden. Darüber hinaus zeichnet sich ab, dass vor allem lokale Cloud-Provider Gewinner der NSA- und Späh-Affären werden könnten, denn europäische und insbesondere deutsche Unternehmen achten darauf, ihre digitalen Informationen nicht unbedingt amerikanischen oder global agierenden Firmen zu überantworten. Somit ist durchaus ein Anstieg der lokalen Provider zu erwarten, die sich aufgrund ihres Standortes gegen den größer scheinenden Wettbewerb durchsetzen. K Ausgabe 1-2015 Datenrettung Cloud Festplatten Marktübersichten Speichernetze Disk-Backup Solid-State-Disk Controller & Interfaces Bandroboter Aktuell KOSTE ge-Ne NLOSE R wslet NAS-Systeme ter e Stora ge-Meld ungen Storage-Hardware und die neuest en Beit speich räge ko erguid mpakt e Unser . d e servier Newsle t auf tter ers cheint immer Mittwo chs un d Freita gs. Big-Data Hier ab Specials onnier en › lisierung Optical-Storage Bandlaufwerke Hochverfügbarkeit Stora k-Subsysteme News Storage-Management Archivierung iSCSI-SAN NAS-Systeme Management Produkt-Reviews SoHo-NAS Backup/Recovery 21 Impressum Unser Team Newsletter-Abonnenten erhalten die neue Ausgabe jeweils »linkfrisch« an ihren Mail-Account. Registrieren Sie sich bitte hier. Beachten Sie auch unser Archiv im Download-Bereich. storage-magazin.de eine Publikation von speicherguide.de GbR Karl Fröhlich, Engelbert Hörmannsdorfer, Ulrike Rieß Bahnhofstr. 8, D-83727 Schliersee Tel. +49 (0) 8026 - 928 89 96 E-Mail: [email protected] Titelbild: © iStockphoto.com/maxkabakov Chefredaktion, Konzept: Karl Fröhlich (verantwortlich für den redaktionellen Inhalt) Tel. 089-740 03 99, Fax: 089-740 03 98 E-Mail: [email protected] Webkonzeption und Technik: Günther Schmidlehner E-Mail: [email protected] Redaktion: Karl Fröhlich, Beate Herzog, Engelbert Hörmannsdorfer Mediaberatung: Claudia Hesse, Tel. +41 (0) 41 - 780 04 86 E-Mail: [email protected] Urheberrecht: Alle in »storage-magazin.de« erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie e lektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten sind. Haftung: Für den Fall, dass in »storage-magazin.de« unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht. Karl Fröhlich, Chefredakteur speicherguide.de Engelbert Hörmannsdorfer, News-Editor speicherguide.de Claudia Hesse, Mediaberatung speicherguide.de Schlussredaktion: Brigitte Scholz Layout/Grafik: Uwe Klenner, Layout und Gestaltung, Rittsteiger Str. 104, 94036 Passau, Tel. 08 51-9 86 24 15 www.layout-und-gestaltung.de Wir empfehlen zur vollständigen Funktionalität des eBooks »Acrobat Reader«, ab Version 9 Eine Publikation von speicherguide.de Ausgabe 1-2015
© Copyright 2024 ExpyDoc