Big Data - T

Big Data.
Bessere Prognosen und
schnellere Entscheidungen.
Mit Big Data treffen Sie Entscheidungen
auf einer großen Datenbasis.
Die Analyse von großen Datenmengen, den Big Data, ist derzeit in aller
Munde. Sie liefert den Unternehmen die Möglichkeit, schnellere und
bessere Entscheidungen zu treffen.
Inhalt:
Massendaten in Erfolge umwandeln
Wie die Datenexplosion erfolgreich genutzt werden kann.
n
Big Data: die „richtigen Schlüsse ziehen“
Frank Niemann, Principal Analyst bei Pierre Audoin Consultants (PAC)
Warum klassische Tools und Techniken nicht ausreichen.
n
Allerdings sind mit der Erfassung, der Speicherung und auch dem Auswertungsprozess der Daten einige Herausforderungen verbunden. So
bedarf es einer sicheren Ablage der Daten wie auch einer IT-Sicherheit
par excellence.
Der Quick Guide Big Data thematisiert das für Unternehmen relevante
und zukunftsweisende Thema. Sechs Experten berichten vom Umgang
mit den Datenmassen und den Möglichkeiten, die mit der Analyse der
Big Data verbunden sind.
Big Business dank Big Data
Heiko Henkes, Analyst Manager bei TechConsult
Wie Wissen greifbarer gemacht werden kann.
n
Big Data statt Big Confusion
Holm Landrock, Senior Advisor bei der Experton Group
Wie Big Data den Qualitätsgrad erhöht.
n
Kein Big Data ohne Cloud Computing
Markus Vehlow, Partner bei PriceWaterhouseCoopers (PwC)
Welche Rolle Cloud Computing spielt.
n
Ihr Ansprechpartner.
Ralf Konrad
Offering Manager BI & Big Data
E-Mail: [email protected]
Twitter: @tsystems.de
Facebook: www.facebook.com/tsystems
Internet: www.t-systems.com
Auf Knopfdruck bessere Prognosen und schnellere Entscheidungen
Hagen Rickmann, Geschäftsführer und Director Sales bei T-Systems
Wie die Zukunft von Big Data aussieht.
n
Massendaten in Erfolge umwandeln.
Gigantische 12 Terabyte, die täglich durch Twitter Feeds entstehen, fünf Millionen globale AktienTrades pro Sekunde und immer mehr Videos, Bilder und andere unstrukturierte Daten. Diese Fakten
sprechen eine klare Sprache – der Trend Big Data nimmt Gestalt an. Es gilt dabei aber nicht nur, diese
Masse in den Griff zu bekommen, sondern auch deren Geschwindigkeit und Vielfalt. Beherrschen Unternehmen diese drei Faktoren, ist die interne analytische Expertise von entscheidender Bedeutung,
um die richtigen Kennzahlen zu finden, also Muster, Bedeutungen und Zusammenhänge zu erkennen.
Die gute Nachricht: Es gibt bereits Unternehmen, die den Big-Data-Code
erfolgreich entschlüsselt haben. Die die Datenexplosion in den Griff
bekommen haben – wie etwa Macy’s. Mit fast 30 Milliarden Dollar
Umsatz und einem Netz von 800 Standorten gilt Macy’s als größter
Warenhausbetreiber der USA. Dennoch schafft es das 180.000 Mitarbeiter starke Unternehmen, in noch nicht einmal zwei Stunden eine
tägliche Preisfindungsanalyse über seine 10.000 Artikel laufen zu lassen.
Das ist umso erstaunlicher, da Macy’s auch innerhalb des Unternehmens
eine hohe Preisvolatilität hat. Heißt: Wenn zwischen New York und Los
Angeles ein Wettbewerber in der Umgebung seine Preise aggressiv
nach unten setzt, zieht Macy’s nach. Ist kein Marktbegleiter vorhanden,
bleiben die Preise unverändert. Derart ergeben sich über das gesamte
Sortiment und alle Standorte rund 270 Millionen Preispunkte. Dass
diese Preisanalyse in Rekordtempo – in Zeiten vor Big Data Analytics
undenkbar – möglich ist, verdankt Macy’s CIO Larry Lewark der Umtellung seiner vorhandenen Infrastruktur auf eine Cloud-bereitgestellte
Softwarelösung von SAS und dem Einsatz von In-Memory-Technologie.
Damit kann Macy’s seine Preise jetzt sogar im Tagesverlauf mehrfach
anpassen, um besser auf den lokalen Wettbewerb reagieren zu können.
100.000 Marktparameter, etwa Preise, Fristen, Fälligkeiten. Die Berechnung des Gesamtrisikos setzt circa 8,8 Milliarden einzelne hochkomplexe Value-at-Risk-Berechnungen voraus. Um daraus indes Marktauswirkungen auf das Gesamtrisiko der Bank zu untersuchen, brauchte die
IT unlängst noch bis zu 18 Stunden. Eine zeitnahe Reaktion auf neu
eintretende Marktrisiken war damit unmöglich. Dank Big-Data-Analyse
gelingt es den Spezialisten der UOB nun, die Risikoberechnung auf
wenige Minuten abzukürzen. Und sich schnell ändernde Parameter
quasi in Echtzeit in die aufwendigen Analytics einzubeziehen. Wurde die
Risikoanalyse bisher teilweise als lästige Pflichtübung auf Drängen der
Aufsichtsbehörden wahrgenommen, nutzt UOB das Instrument heute im
operativen Geschäft, um Handelsstrategien im Voraus zu prüfen und zu
erwartende Konsequenzen neuer Marktereignisse in ihrer Wirkung
schneller einschätzen zu können.
Bank beherrscht das Risiko
Eine High-Performance-Analyselösung von SAS, gepaart mit In-MemoryTechnologie, ist ebenfalls das Big-Data-Erfolgskonzept der United
Overseas Bank (UOB) in Singapur. Hier trug die geschickte Analyse
großer Datenmengen maßgeblich dazu bei, dass der Aktienkurs der
UOB in den vergangenen Jahren um 45 Prozent zulegte. Denn das
große Finanzinstitut in Südostasien beherrscht meisterlich sein Riskmanagement. Im Detail: Bei der UOB verteilen sich die Risiken auf
45.000 verschiedene Finanzinstrumente und werden bestimmt über
Quelle: http://bit.ly/CB-Lu3
2
Big Data: die „richtigen Schlüsse ziehen“
PAC-Analyst Frank Niemann über die Voraussetzungen erfolgreicher Big-Data-Analyse.
Herr Niemann, das Internet und die Cloud machen Big Data Analytics
technisch erst möglich. Aber was sind die wesentlichen Treiber des
Trends? Big Data ist kein Hypethema, das einen Markt herbeiredet.
Vielmehr sollten Unternehmen erkennen, dass es diesen Bedarf objektiv
gibt. Denn immer mehr Prozesse werden digital gesteuert. Zugleich
erzeugen Applikationen Daten, die wir nicht nur aufbewahren, sondern
auswerten müssen. Und jetzt kommen noch wesentlich mehr Daten aus
Quellen hinzu, die Unternehmen bisher gar nicht in der Betrachtung
hatten – die Social-Media-Inhalte zum Beispiel. Etwa um daraus die richtigen Schlüsse zu ziehen und schnellere Businessentscheidungen zu
treffen für einen gegebenenfalls anderen Umgang mit Kunden, Produkten, aber auch Prozessen, zum Beispiel im Kundenservice.
Warum reichen die klassischen Tools und Techniken von Business
Intelligence dafür nicht aus? Es geht nicht nur darum, vorhandene
Analysesysteme auf die neuen Daten loszulassen. Sondern darum,
diese Daten zu integrieren, bereitzustellen und so aufzubereiten, dass
man sie analysieren kann. Das ist mitunter bei Social-Media-Inhalten
nicht einfach, denn sie sind nicht so schön strukturiert wie Daten aus
einer Datenbank. Hier kommen auf die Bereiche Datenmanagement und
-integration noch einige Herausforderungen zu. Heißt: Neben der schieren Menge neuer Daten erfordert die Vielfalt ihrer Formate und Kanäle
auch neue Systeme, neue Konzepte und eine Umorganisation.
Im Gespräch:
Frank Niemann
Principal Analyst bei Pierre Audoin Consultants (PAC)
Was können IT-Dienstleister zur Verständigung beitragen? Sie können
diese Brücke nicht schließen, aber sie können den Dialog zwischen ITund Fachabteilungen moderieren. Da wäre für Unternehmen schon viel
gewonnen. In der Praxis gehen Dienstleister dafür aber nicht mit einer
Box von Lösungen ins Unternehmen und stellen beispielsweise einen
neuen Server auf. Sondern sie bieten zum Beispiel Workshops an, um
die nötige Verständigung für die Chancen und Herausforderungen von
Big Data herbeizuführen.
„Umorganisation“: Das signalisiert, dass es nicht allein Technik ist,
sondern dass man dahinter auch Menschen braucht. Inwieweit geht
es auch um die Fähigkeit der IT, die Sprache der Fachbereiche zu
verstehen und zu sprechen? Exakt darum geht es – die technische
Expertise mit der fachlichen Prozessexpertise zu verzahnen. Eine alte
Diskussion, die aber durch Big Data Analytics massiv an Bedeutung
gewinnt. Fachbereiche stellen heute schon hohe Ansprüche an die
Datenanalyse; durch Big Data werden diese weiter steigen. Mitunter fällt
es Fachbereichen schwer, ihren Bedarf an Funktionen und Services in
der Form zu artikulieren, dass es die IT versteht. Umgekehrt ist es aber
genauso.
Quelle: http://bit.ly/CB-ANs
3
Big Business dank Big Data
Wo genau für welche Branchen der Mehrwert von Big Data liegt, weiß TechConsult Analyst
Manager Heiko Henkes.
Herr Henkes, bei Konsumgüterherstellern oder dem Finanzwesen ist
die Analyse großer Datenmengen bereits etabliert. Gibt es aus Ihrer
Sicht weitere Branchen, die bei Big-Data-Analysen jetzt nachziehen müssen? Prinzipiell ist jeder Sektor mit hohem Datenaufkommen
gefordert – und das wird schon bald fast alle Unternehmen betreffen.
Weitere Branchen mit stetig steigenden Anforderungen bezüglich der
intelligenten Auswertung massiver Datenberge sind Versicherungen
und künftig auch verstärkt das Segment des Handels. Denn in engem
Zusammenhang mit unternehmerischem Big Data steht das exponentiell
steigende Datenwachstum der heutigen Gesellschaft. Big Data bedeutet
Wissen greifbarer zu machen und hilft, unternehmerischen Planungsgrad massiv zu verbessern und sich somit monetär kurzfristig messbare
Wettbewerbsvorteile zu verschaffen.
Können Sie ein Beispiel geben? Klar, beispielsweise die Branche der
Versorger, Stichwort Smart Metering. Energieunternehmen bekommen
einen wesentlich genaueren Blick auf geforderte Lastspitzen und
Nutzertypen. Sie können derart ihre Angebotspakete wesentlich zielgruppenspezifischer anbieten, denn momentan muss die Branche alle
Nutzer über einen Kamm scheren. Darüber lassen sich durch selbsttätig
kommunizierende Smart Meter Prozesskosten einsparen, da kein manuelles Ablesen mehr stattfinden muss. Und der Nutzer bekommt mehr
Transparenz und Energieeffizienz durch jederzeit aktuelle Daten.
Immer mehr konkrete Forderungen erreichen den CIO ja auch aus
seinen Fachabteilungen, warum? Weil sich somit grundlegende Anforderungen des Managements lösen lassen: Das Marketing bekommt
fundiertes Wissen über Wünsche und Anforderungen der jeweiligen
Zielgruppe. Der Einkauf kann dank Echtzeitanalyse etwa die Reaktionsgeschwindigkeit auf Rohstoffanforderungen und -schwankungen
verbessern. In Handelsunternehmen hat dieser Bereich einen besonders
hohen Einfluss auf die Marge. Bereits etablierte Modelle auf Basis einer
In-Memory-Datenbank auf beispielsweise SAP HANATM helfen Einkäufern, hier bereits die Beschaffungsprozesse zu optimieren. Im Vertrieb ist man hingegen in der Lage, den Marktangang über aktuelle den
Geschäftsmodellen entsprechenden Nutzungstypologien zu optimieren.
Das ist die Theorie – in der Praxis gilt es aber, noch einige Hürden aus
dem Weg zu räumen, so dass Unternehmen diesen Mehrwert auch tatsächlich ausschöpfen können. Die persönliche Komponente spielt nach
wie vor noch eine entscheidende Rolle für den Geschäftserfolg – gerade
im Einkauf.
Im Gespräch:
Heiko Henkes
Analyst Manager bei TechConsult
letzten Jahren viele Datenberge durch BI-Tools angesammelt und von
niemandem sinnvoll in Verbesserungen umgewandelt. Schuld daran ist
zusätzlich der enorme Anstieg mobiler Endgeräte, auf denen zunehmend produktiv gearbeitet wird. Diese sind aber oft kaum bis gar nicht in
die Prozess- und Informationskette eingebettet. Hier fehlen häufig noch
Erfahrungswerte beziehungsweise Best Practices. Lösungen gibt es
inzwischen am Markt. Angesichts der Schnelllebigkeit beziehungsweise
Verselbstständigung der Anwender in Kombination mit Technik ist das
für Unternehmen in aller Regel allein schwer auf die Beine zu stellen – es
fehlt die führende Hand in Themen wie Sicherheit & Compliance vs.
CoIT bzw. ByoX.
Wer wird diese Hürden als Erstes aus dem Weg räumen können?
Am ehesten werden sich IT-affine Unternehmen diese Vorteile zu Nutze
machen können. Sie haben die Fähigkeit, Geschäftsprozesse in IT-nahe
Prozesse transferieren zu können. Somit können sie sich auch schneller
Wettbewerbsvorteile zu eigen machen. Dieser Trend ist aber generell
nicht mehr aufzuhalten: Somit wird aus Big Data immer häufiger Big
Business, indem sich Unternehmen über durchdachte und schnelle
Datenanalyse erhebliche Wettbewerbsvorteile sichern können. Nicht
zu vergessen ist aber dafür eine flexible, skalierbare Bereitstellung: Erst
Cloud Computing, zumeist in Verbindung mit einer servicebasierten
Architektur, schafft die Grundlage für die dafür zwingend notwendigen
kollaborativen Unternehmensprozesse.
Inwiefern? Neue Big-Data-Tools kämpfen derzeit noch mit einer extremen Zunahme an Daten, die kaum gebündelt und häufig ohne definierte
Prozesse produziert und abgelegt werden. Es wurden gerade in den
Quelle: http://bit.ly/CB-lkY
4
Big Data statt Big Confusion
Wie Wetterdaten Fußballspiele und Supermärkte verbinden und Twitter-Posts die Lieferketten von
Süßwarenherstellern beeinflussen – Holm Landrock, Senior Advisor von Experton, über Big-DataSzenarien und langfristig-orientiertes Denken. Herr Landrock, Experton, hat kürzlich untersucht,
wie Unternehmen zu einer sinnvollen Big-Data-Strategie finden.
Was ist Ihre wichtigste Erkenntnis? Das lässt sich am besten damit beantworten, dass Big Data im Kontext großer Unternehmen ein komplex­eres Szenario benötigt. Es ist, salopp formuliert, eben nicht damit getan,
in neue Appliances oder Storage-Systeme zu investieren, um lediglich
das vorhandene Data Warehouse zu beschleunigen. Das ist noch keine
Strategie. Vielmehr ist es wichtig, mithilfe dieser starken Technologie
Szenarien zu entwerfen, die es vorher noch nicht gegeben hat. Das
heißt, die Betriebswirtschaft etwa mit geografischen Daten zu verknüpfen. Also in neuen Wegen denken. Hier betreten wir das eigentliche BigData-Feld – alles andere sind tradierte Business-Intelligence-Szenarien.
Wo findet dieses echte Big Data in der Praxis heute schon statt?
Bei den großen Lebensmittelfilialisten. Dort wird die Belieferung der
Märkte mit anderen Informationen wie Wetterdaten oder dem Spielplan
der Fußball-Bundesliga verknüpft: Wird es am Wochenende heiß, müssen die Filialen ausreichend Bier und Grillwürstchen bevorraten. Das ist
Business Intelligence in der Warenwirtschaft. Was aber, wenn die Märkte
nach einem schönen Fußball-Wochenende überraschend auf den
Beständen sitzen bleiben? Eine interessante Fragestellung, die durch die
Analyse aller verfügbaren Daten beantwortet werden könnte – und womit
ein belastbarer Forecast möglich wird.
Inwiefern? Stichwort: Predictive Analytics. Ein Lebensmittelhersteller
analysiert mit Mitarbeitern soziale Netze nach negativen Äußerungen
über die Produkte. Das hilft dem Unternehmen, mögliche Mängel zu
erkennen und frühzeitig zu reagieren. Big-Data-Analysen könnten
Im Gespräch:
Holm Landrock
Senior Advisor bei der Experton Group
diese Aufgabe automatisieren, indem sie Millionen von Datensätzen
aus vielen Social Networks auswerten. Das verschafft dem Unternehmen Wettbewerbsvorteile heute und in Zukunft. Wichtig ist dabei, dass
Verfahren, die sich auf Daten aus Social Media stützen, immer mit
anonymisierten Daten arbeiten. Es ist ja auch nicht wichtig, wer genau
etwas über ein Produkt sagt, sondern ob es zum Beispiel regionale
Häufungen gibt.
Wie erreichen Unternehmen einen solchen Qualitätsgrad in ihrer
Big- Data-Analyse? Neue Verfahren wie Hadoop sind wichtig. Sie
helfen, strukturierte, semistrukturierte und unstrukturierte Daten für die
Analyse aufzubereiten. Um die für Big Data erforderliche Komplexität
abzubilden, sind außerdem neue Algorithmen erforderlich – und auch
Menschen, die neue Fragen stellen.
Wie können Provider Unternehmen dabei unterstützen, diese
Fähigkeiten auszubilden? Indem sie Big-Data-Szenarien entwickeln.
Das müssen Lösungen sein, die auch den Fachabteilungen passgenaue
Vorteile bieten, also auf ihr Tagesgeschäft zugeschnitten sind. Das von
mir bereits erwähnte Beispiel aus dem Lebensmitteleinzelhandel ist
sicher nicht für die produzierende Industrie geeignet. Und die Unternehmen müssen ebenso Datenanalysten ausbilden, die solche Prozesse von
der Theorie her in die Praxis umsetzen können. Das Verfahren muss also
ganzheitlich gesehen werden – und vor allem nicht kurzfristig.
Warum? Führt Kurzfristigkeit gerade in diesem schnellen Umfeld
nicht auch zu Erfolgen? Big Data wird uns mit Sicherheit die kommenden
10 bis 15 Jahre weiter intensiv beschäftigen. Das ist kein kurzfristiger Trend
und sollte daher sauber aufgesetzt sein. Letztlich bringt Big Data disruptiv
denjenigen Unternehmen, die es versiert einsetzen können, deutliche
Vorteile auf dem Markt. Ein Baustein für solche Szenarien könnten auch
dynamische Cloud-Computing-Infrastrukturen sein, mit denen sich
Big-Data-Analysen als Service liefern lassen. Solche Dienste könnten
zum Beispiel das Scannen von Daten aus verschiedenen Quellen nach
bestimmten semantischen Einheiten oder Schlüsselwörtern sein.
Quelle: http://bit.ly/CB-G9S
5
Kein Big Data ohne Cloud Computing
Für erfolgreiche Big-Data-Analysen müssen Daten gesammelt, gespeichert, bereinigt, analysiert und
visualisiert werden – aber nicht nur das. Denn Auswertungen von personenbezogenen Daten etwa
aus sozialen Netzwerken können zu einer Verletzung von Compliance-Vorgaben und -Gesetzen
führen. Wie Unternehmen dies vermeiden und welche Rolle Cloud Computing dabei spielt, weiß
Markus Vehlow, Partner der Wirtschaftsprüfungsgesellschaft PwC.
Herr Vehlow, viele Unternehmen beginnen derzeit auf Big Data im
Schulterschluss mit Cloud Computing zu setzen: Was ändert sich
dadurch hinsichtlich Compliance und Datenschutz? Grundsätzlich
gelten dieselben rechtlichen Rahmenbedingungen – nur die Existenz
eines neuen IT-Trends führt nicht dazu, dass sich Gesetze ändern. Das
gilt im Übrigen für Big Data und Cloud Computing. Unzulässig wird es
dann, wenn eine regelrechte Sammelwut entsteht, auch personenbezogene Daten angehäuft werden und diese sich auf natürliche Personen
zurückführen lassen. Dann müssen Mechanismen greifen, die einerseits
zwar den unternehmerischen Nutzen von Big Data sicherstellen, aber
anderseits auch dem Datenschutz genügen.
Sie meinen auch auf technologischer Seite? Technisch gesehen kann
man solche Daten anonymisieren oder pseudonymisieren. In der Praxis
stellen wir aber immer wieder fest, dass erst andere organisatorische Mechanismen greifen müssen, damit diese Vorgehensweisen Erfolg haben.
Welcher Art? Mittels Datenklassifizierung. Hier können besonders hochregulierte Branchen wie die Finanzindustrie oder Gesundheitswesen
und Pharma Vorbild sein: Dort werden vielfach aufgrund bestehender
Regularien regelmäßige Bestandsaufnahmen und Risikoanalysen für die
Daten gemacht, ggfl. auch in ein Risikoregister überführt. Im Ergebnis
kann dann herauskommen: „Klasse 1 bis 2, etwa unkritische Daten, können durchaus in eine Public Cloud verschoben werden, Klasse 3 und 4,
wie personenbezogene Daten oder unternehmenskritische, müssen auf
jeden Fall intern gespeichert, verschlüsselt oder anonymisiert werden.“
Leider ist ein solch hoher Reifegrad der Organisation nicht in jedem
Unternehmen vorhanden, das auf Big Data und die Cloud setzt.
Im Gespräch:
Markus Vehlow
Partner bei PriceWaterhouseCoopers (PwC)
Unternehmen den kundenspezifischen Wünschen anpassen. Beispielsweise was Lieferzeit, Rücksendung, Produktauswahl und letztlich auch
Anzahl der Kanäle betrifft, aus denen der Kunde auswählen kann. Hier
liefert Big-Data-Analyse, z. B. auf der Basis von Social-Media-Daten, eine
wertvolle Entscheidungsgrundlage. Es muss also immer ein Ziel und
einen Zweck für diese Analysen geben. Die Daten nur zu haben, ist noch
kein Mehrwert.
Sie erwähnen immer wieder die Cloud. Inwieweit kann Cloud
Computing den richtigen Umgang mit Big Data beschleunigen?
Nicht nur beschleunigen: Die Cloud ist der Möglichmacher von Big Data,
der technologische Enabler. Big Data ist oft nicht wirtschaftlich ohne
eine dynamische Cloud-Infrastruktur. Das wissen mittlerweile viele
Unternehmen, die darüber hinaus auch verstanden haben, welche
Bedeutung die IT für ihr Geschäft hat. Information ist heute ein bedeutendes Betriebskapital, das Wettbewerbsvorteile erwirtschaftet. Und
sowohl Cloud Computing als auch Big Data sind hierfür essenziell.
Wenn aber der adäquate Umgang mit großen Datenmengen einen
solchen Aufwand erforderlich macht: Stehen dann Aufwand und
Ertrag noch im Verhältnis zueinander? Wie gesagt, der ordnungsgemäße Umgang mit Daten ist keine neue Disziplin, die durch Big Data
oder Cloud Computing ausgelöst wurde. Daher sollten sich die Aufwände eigentlich in Grenzen halten. Es ist auf jeden Fall nicht ausreichend,
einfach eine zeitgemäße technische Infrastruktur vorzuhalten, um
sämtliche Daten jederzeit blitzschnell zur Verfügung zu haben, um sie
beispielsweise für zeitlich begrenzte Marketingkampagnen nutzen zu
können. In-Memory-Computing ist hier essenziell, um diese großen
Datenmengen noch erfolgreich aggregieren zu können. Fakt ist aber
auch, das hat eine PwC-Studie ergeben, dass etwa im Handel eine
optimale Kundenzufriedenheit nur dann gegeben ist, wenn sich die
Quelle: http://bit.ly/CB-id6
6
Auf Knopfdruck bessere Prognosen und
schnellere Entscheidungen
Wenn Autos ihre Diagnosedaten automatisch an die Werkstatt senden, die Fehlererkennung optimieren,
ihren Lebenszyklus verlängern und letztlich auch für mehr Kundenzufriedenheit sorgen – dann steckt
dahinter eine ausgeklügelte Big-Data-Strategie. T-Systems Geschäftsführer Hagen Rickmann über die
Chancen für Unternehmen.
Unternehmen produzieren bereits seit Jahren permanent Daten und
werten diese aus. Was ist also das Neue an Big Data? Die Datenmenge
ist nur ein Aspekt, wenngleich ein gewaltiger, der ausnahmslos sämtliche Branchen betrifft. Ich gebe Ihnen ein Beispiel: Allein bei einem
großen bayrischen Autohersteller rechnet man mit nunmehr 30 Gigabyte
an täglich generierten Daten. Und aufgrund der immer stärker vernetzten
Fahrzeuge gehen die Autobauer bereits für das Jahr 2017 von täglich
einem Petabyte Daten aus. Für Unternehmen ebenso entscheidend ist
aber die enorme Vielfalt der Daten: von strukturierten Firmendaten über
unstrukturierte Daten aus den sozialen Netzwerken, Simulationen oder von
Sensoren. Neu sind aber auch die Möglichkeiten, diese Daten zu analysieren
und auszuwerten. Dies führt zu besseren Prognosen und schnelleren Entscheidungen, zu zielgerichteter entwickelten Produkten und zu besserem
Service. Dafür brauchen Sie allerdings ein komplettes Big-Data-Ökosystem, bestehend aus leistungsfähigen Speichern, einer dynamischen
Cloud-Infrastruktur und beispielsweise In-Memory-Technologien, die dann
die Big-Data-Analyse-Prozesse auf Spitzenleistungen bringen.
Ändern diese Entwicklungen auch die konkreten Chancen für
Unternehmen? Absolut, ein gewerbliches Immobilien-Unternehmen in
Japan analysiert bereits die Aufzugsdaten von Gebäuden in Echtzeit.
Das ist ein wahrer Datenschatz: Sie melden, wie oft welche Stockwerke
angefahren werden. Daraus lassen sich Rückschlüsse ziehen, wann welche
Büros oder Shops seltener als früher angefahren werden. Aus dem Trendmuster weiß das Unternehmen: Bei einem Rückgang von 60 bis 70 Prozent
gegenüber den vergangenen Monaten ist eine Kündigung in dem
nächsten halben Jahr zu erwarten. Der Vermieter kann also bereits
frühzeitig potenzielle Nachmieter suchen, um Leerstände zu vermeiden –
und das eben, ohne eine konkrete Kündigung vorliegen zu haben.
Solche Lösungen sind clever, keine Frage. Lassen sie sich denn ohne
weiteres auf alle Branchen übertragen? Fakt ist: Big-Data-Analyse
ist noch ein „Blue Ocean“-Thema, das heißt, die gesamte Industrie steht
noch weitgehend am Anfang, und es gilt, noch eine große Menge an
gemeinsamer Forschungsarbeit zu erledigen, im Schulterschluss
zwischen Anwenderunternehmen und uns auf Anbieterseite.
Im Gespräch:
Hagen Rickmann
Geschäftsführer und Director Sales bei T-Systems
Trotz dieses frühen Stadiums: Beispielsweise in der Automobilindustrie
verfügt T-Systems ja schon bereits über vielfältige Lösungsansätze? In
der Tat. Die Behebung eines Problems beim ersten Werkstattkontakt
ihrer Kunden ist für die Autohersteller wettbewerbsrelevant. Doch wie
lässt sich die Ursache eines Defekts eingrenzen? Welche Werkstätten
haben mit welchem Modell ähnliche Erfahrungen gemacht? Und zu
welcher Lösung sind sie gekommen? – Fragen, die mit der konventionellen
Auswertungsmöglichkeit von Diagnosedaten, wie sie Autowerkstätten
weltweit täglich millionenfach erheben, oft nicht beantwortet werden
können. Hier leistet Big Data einen immensen Beitrag, hier kommuniziert
das Fahrzeug proaktiv mit der Werkstatt – und löst das Problem mitunter,
bevor es auftritt. Wir realisieren hier bereits in naher Zukunft OnlineDirektverbindungen zwischen Hersteller und Werkstätten, etablieren
somit eine frühzeitige Fehlererkennung und sorgen für hohe Kundenzufriedenheit. Es lassen sich Kosten durch die Vermeidung von
Rückrufaktionen einsparen, und der Hersteller bekommt eine besser
planbare Produktlebensdauer. Für diese Win-Win-Situation von
Hersteller, Werkstatt und Endkunde sorgen wir durch die Bereitstellung
einer Cloud-Infrastruktur und leistungsfähiger Big-Data-Analyse.
Das heißt, die Zukunft von Big Data liegt im produktiven Miteinander
von IT und Anwenderunternehmen? Ausschließlich. Wir wollen Big
Data gemeinsam mit unseren Kunden derart umsetzen, dass sämtliche
Risiken minimiert werden und der konkrete Nutzen betont wird. Das gilt
beispielsweise auch für die rechtliche Seite. Datenschutz ist keineswegs
ein Argument, das kategorisch gegen Big-Data-Projekte spricht oder
gar nach deutschem Recht unzulässig wäre. Es ist aber wichtig, die
rechtliche Zulässigkeit bereits bei der Entwicklung einer Big-DataAnwendung zu prüfen. Wir haben Experten, um diese Klippen sicher zu
umschiffen. Das zeigen wir auch auf der CeBIT unter anderem mit
sieben Big-Data-Praxisfällen. Hier können sich Interessierte einen guten
Eindruck verschaffen, was mit Big Data möglich ist und wie man
entsprechende Infrastrukturen aufsetzt, die sicher und zugleich
leistungsfähig sind. Schließlich lade ich unsere Kunden und Interessenten ebenfalls ein, uns auf der Bitkom-Tagung Mitte April zu besuchen.
Auch hier zeigen wir anschaulich, wie Unternehmen Big Data zielgerichtet nutzen können.
Quelle: http://bit.ly/CB-ZH1
7
HERAUSGEBER
T-Systems International GmbH
Hahnstraße 43d
60528 Frankfurt am Main
Deutschland
Telefon: +49 (0) 69 20060 - 0
E-Mail: [email protected]
Internet: www.t-systems.de
Verantwortlich für den Inhalt:
PR & OnlineMarketing