Big Data. Bessere Prognosen und schnellere Entscheidungen. Mit Big Data treffen Sie Entscheidungen auf einer großen Datenbasis. Die Analyse von großen Datenmengen, den Big Data, ist derzeit in aller Munde. Sie liefert den Unternehmen die Möglichkeit, schnellere und bessere Entscheidungen zu treffen. Inhalt: Massendaten in Erfolge umwandeln Wie die Datenexplosion erfolgreich genutzt werden kann. n Big Data: die „richtigen Schlüsse ziehen“ Frank Niemann, Principal Analyst bei Pierre Audoin Consultants (PAC) Warum klassische Tools und Techniken nicht ausreichen. n Allerdings sind mit der Erfassung, der Speicherung und auch dem Auswertungsprozess der Daten einige Herausforderungen verbunden. So bedarf es einer sicheren Ablage der Daten wie auch einer IT-Sicherheit par excellence. Der Quick Guide Big Data thematisiert das für Unternehmen relevante und zukunftsweisende Thema. Sechs Experten berichten vom Umgang mit den Datenmassen und den Möglichkeiten, die mit der Analyse der Big Data verbunden sind. Big Business dank Big Data Heiko Henkes, Analyst Manager bei TechConsult Wie Wissen greifbarer gemacht werden kann. n Big Data statt Big Confusion Holm Landrock, Senior Advisor bei der Experton Group Wie Big Data den Qualitätsgrad erhöht. n Kein Big Data ohne Cloud Computing Markus Vehlow, Partner bei PriceWaterhouseCoopers (PwC) Welche Rolle Cloud Computing spielt. n Ihr Ansprechpartner. Ralf Konrad Offering Manager BI & Big Data E-Mail: [email protected] Twitter: @tsystems.de Facebook: www.facebook.com/tsystems Internet: www.t-systems.com Auf Knopfdruck bessere Prognosen und schnellere Entscheidungen Hagen Rickmann, Geschäftsführer und Director Sales bei T-Systems Wie die Zukunft von Big Data aussieht. n Massendaten in Erfolge umwandeln. Gigantische 12 Terabyte, die täglich durch Twitter Feeds entstehen, fünf Millionen globale AktienTrades pro Sekunde und immer mehr Videos, Bilder und andere unstrukturierte Daten. Diese Fakten sprechen eine klare Sprache – der Trend Big Data nimmt Gestalt an. Es gilt dabei aber nicht nur, diese Masse in den Griff zu bekommen, sondern auch deren Geschwindigkeit und Vielfalt. Beherrschen Unternehmen diese drei Faktoren, ist die interne analytische Expertise von entscheidender Bedeutung, um die richtigen Kennzahlen zu finden, also Muster, Bedeutungen und Zusammenhänge zu erkennen. Die gute Nachricht: Es gibt bereits Unternehmen, die den Big-Data-Code erfolgreich entschlüsselt haben. Die die Datenexplosion in den Griff bekommen haben – wie etwa Macy’s. Mit fast 30 Milliarden Dollar Umsatz und einem Netz von 800 Standorten gilt Macy’s als größter Warenhausbetreiber der USA. Dennoch schafft es das 180.000 Mitarbeiter starke Unternehmen, in noch nicht einmal zwei Stunden eine tägliche Preisfindungsanalyse über seine 10.000 Artikel laufen zu lassen. Das ist umso erstaunlicher, da Macy’s auch innerhalb des Unternehmens eine hohe Preisvolatilität hat. Heißt: Wenn zwischen New York und Los Angeles ein Wettbewerber in der Umgebung seine Preise aggressiv nach unten setzt, zieht Macy’s nach. Ist kein Marktbegleiter vorhanden, bleiben die Preise unverändert. Derart ergeben sich über das gesamte Sortiment und alle Standorte rund 270 Millionen Preispunkte. Dass diese Preisanalyse in Rekordtempo – in Zeiten vor Big Data Analytics undenkbar – möglich ist, verdankt Macy’s CIO Larry Lewark der Umtellung seiner vorhandenen Infrastruktur auf eine Cloud-bereitgestellte Softwarelösung von SAS und dem Einsatz von In-Memory-Technologie. Damit kann Macy’s seine Preise jetzt sogar im Tagesverlauf mehrfach anpassen, um besser auf den lokalen Wettbewerb reagieren zu können. 100.000 Marktparameter, etwa Preise, Fristen, Fälligkeiten. Die Berechnung des Gesamtrisikos setzt circa 8,8 Milliarden einzelne hochkomplexe Value-at-Risk-Berechnungen voraus. Um daraus indes Marktauswirkungen auf das Gesamtrisiko der Bank zu untersuchen, brauchte die IT unlängst noch bis zu 18 Stunden. Eine zeitnahe Reaktion auf neu eintretende Marktrisiken war damit unmöglich. Dank Big-Data-Analyse gelingt es den Spezialisten der UOB nun, die Risikoberechnung auf wenige Minuten abzukürzen. Und sich schnell ändernde Parameter quasi in Echtzeit in die aufwendigen Analytics einzubeziehen. Wurde die Risikoanalyse bisher teilweise als lästige Pflichtübung auf Drängen der Aufsichtsbehörden wahrgenommen, nutzt UOB das Instrument heute im operativen Geschäft, um Handelsstrategien im Voraus zu prüfen und zu erwartende Konsequenzen neuer Marktereignisse in ihrer Wirkung schneller einschätzen zu können. Bank beherrscht das Risiko Eine High-Performance-Analyselösung von SAS, gepaart mit In-MemoryTechnologie, ist ebenfalls das Big-Data-Erfolgskonzept der United Overseas Bank (UOB) in Singapur. Hier trug die geschickte Analyse großer Datenmengen maßgeblich dazu bei, dass der Aktienkurs der UOB in den vergangenen Jahren um 45 Prozent zulegte. Denn das große Finanzinstitut in Südostasien beherrscht meisterlich sein Riskmanagement. Im Detail: Bei der UOB verteilen sich die Risiken auf 45.000 verschiedene Finanzinstrumente und werden bestimmt über Quelle: http://bit.ly/CB-Lu3 2 Big Data: die „richtigen Schlüsse ziehen“ PAC-Analyst Frank Niemann über die Voraussetzungen erfolgreicher Big-Data-Analyse. Herr Niemann, das Internet und die Cloud machen Big Data Analytics technisch erst möglich. Aber was sind die wesentlichen Treiber des Trends? Big Data ist kein Hypethema, das einen Markt herbeiredet. Vielmehr sollten Unternehmen erkennen, dass es diesen Bedarf objektiv gibt. Denn immer mehr Prozesse werden digital gesteuert. Zugleich erzeugen Applikationen Daten, die wir nicht nur aufbewahren, sondern auswerten müssen. Und jetzt kommen noch wesentlich mehr Daten aus Quellen hinzu, die Unternehmen bisher gar nicht in der Betrachtung hatten – die Social-Media-Inhalte zum Beispiel. Etwa um daraus die richtigen Schlüsse zu ziehen und schnellere Businessentscheidungen zu treffen für einen gegebenenfalls anderen Umgang mit Kunden, Produkten, aber auch Prozessen, zum Beispiel im Kundenservice. Warum reichen die klassischen Tools und Techniken von Business Intelligence dafür nicht aus? Es geht nicht nur darum, vorhandene Analysesysteme auf die neuen Daten loszulassen. Sondern darum, diese Daten zu integrieren, bereitzustellen und so aufzubereiten, dass man sie analysieren kann. Das ist mitunter bei Social-Media-Inhalten nicht einfach, denn sie sind nicht so schön strukturiert wie Daten aus einer Datenbank. Hier kommen auf die Bereiche Datenmanagement und -integration noch einige Herausforderungen zu. Heißt: Neben der schieren Menge neuer Daten erfordert die Vielfalt ihrer Formate und Kanäle auch neue Systeme, neue Konzepte und eine Umorganisation. Im Gespräch: Frank Niemann Principal Analyst bei Pierre Audoin Consultants (PAC) Was können IT-Dienstleister zur Verständigung beitragen? Sie können diese Brücke nicht schließen, aber sie können den Dialog zwischen ITund Fachabteilungen moderieren. Da wäre für Unternehmen schon viel gewonnen. In der Praxis gehen Dienstleister dafür aber nicht mit einer Box von Lösungen ins Unternehmen und stellen beispielsweise einen neuen Server auf. Sondern sie bieten zum Beispiel Workshops an, um die nötige Verständigung für die Chancen und Herausforderungen von Big Data herbeizuführen. „Umorganisation“: Das signalisiert, dass es nicht allein Technik ist, sondern dass man dahinter auch Menschen braucht. Inwieweit geht es auch um die Fähigkeit der IT, die Sprache der Fachbereiche zu verstehen und zu sprechen? Exakt darum geht es – die technische Expertise mit der fachlichen Prozessexpertise zu verzahnen. Eine alte Diskussion, die aber durch Big Data Analytics massiv an Bedeutung gewinnt. Fachbereiche stellen heute schon hohe Ansprüche an die Datenanalyse; durch Big Data werden diese weiter steigen. Mitunter fällt es Fachbereichen schwer, ihren Bedarf an Funktionen und Services in der Form zu artikulieren, dass es die IT versteht. Umgekehrt ist es aber genauso. Quelle: http://bit.ly/CB-ANs 3 Big Business dank Big Data Wo genau für welche Branchen der Mehrwert von Big Data liegt, weiß TechConsult Analyst Manager Heiko Henkes. Herr Henkes, bei Konsumgüterherstellern oder dem Finanzwesen ist die Analyse großer Datenmengen bereits etabliert. Gibt es aus Ihrer Sicht weitere Branchen, die bei Big-Data-Analysen jetzt nachziehen müssen? Prinzipiell ist jeder Sektor mit hohem Datenaufkommen gefordert – und das wird schon bald fast alle Unternehmen betreffen. Weitere Branchen mit stetig steigenden Anforderungen bezüglich der intelligenten Auswertung massiver Datenberge sind Versicherungen und künftig auch verstärkt das Segment des Handels. Denn in engem Zusammenhang mit unternehmerischem Big Data steht das exponentiell steigende Datenwachstum der heutigen Gesellschaft. Big Data bedeutet Wissen greifbarer zu machen und hilft, unternehmerischen Planungsgrad massiv zu verbessern und sich somit monetär kurzfristig messbare Wettbewerbsvorteile zu verschaffen. Können Sie ein Beispiel geben? Klar, beispielsweise die Branche der Versorger, Stichwort Smart Metering. Energieunternehmen bekommen einen wesentlich genaueren Blick auf geforderte Lastspitzen und Nutzertypen. Sie können derart ihre Angebotspakete wesentlich zielgruppenspezifischer anbieten, denn momentan muss die Branche alle Nutzer über einen Kamm scheren. Darüber lassen sich durch selbsttätig kommunizierende Smart Meter Prozesskosten einsparen, da kein manuelles Ablesen mehr stattfinden muss. Und der Nutzer bekommt mehr Transparenz und Energieeffizienz durch jederzeit aktuelle Daten. Immer mehr konkrete Forderungen erreichen den CIO ja auch aus seinen Fachabteilungen, warum? Weil sich somit grundlegende Anforderungen des Managements lösen lassen: Das Marketing bekommt fundiertes Wissen über Wünsche und Anforderungen der jeweiligen Zielgruppe. Der Einkauf kann dank Echtzeitanalyse etwa die Reaktionsgeschwindigkeit auf Rohstoffanforderungen und -schwankungen verbessern. In Handelsunternehmen hat dieser Bereich einen besonders hohen Einfluss auf die Marge. Bereits etablierte Modelle auf Basis einer In-Memory-Datenbank auf beispielsweise SAP HANATM helfen Einkäufern, hier bereits die Beschaffungsprozesse zu optimieren. Im Vertrieb ist man hingegen in der Lage, den Marktangang über aktuelle den Geschäftsmodellen entsprechenden Nutzungstypologien zu optimieren. Das ist die Theorie – in der Praxis gilt es aber, noch einige Hürden aus dem Weg zu räumen, so dass Unternehmen diesen Mehrwert auch tatsächlich ausschöpfen können. Die persönliche Komponente spielt nach wie vor noch eine entscheidende Rolle für den Geschäftserfolg – gerade im Einkauf. Im Gespräch: Heiko Henkes Analyst Manager bei TechConsult letzten Jahren viele Datenberge durch BI-Tools angesammelt und von niemandem sinnvoll in Verbesserungen umgewandelt. Schuld daran ist zusätzlich der enorme Anstieg mobiler Endgeräte, auf denen zunehmend produktiv gearbeitet wird. Diese sind aber oft kaum bis gar nicht in die Prozess- und Informationskette eingebettet. Hier fehlen häufig noch Erfahrungswerte beziehungsweise Best Practices. Lösungen gibt es inzwischen am Markt. Angesichts der Schnelllebigkeit beziehungsweise Verselbstständigung der Anwender in Kombination mit Technik ist das für Unternehmen in aller Regel allein schwer auf die Beine zu stellen – es fehlt die führende Hand in Themen wie Sicherheit & Compliance vs. CoIT bzw. ByoX. Wer wird diese Hürden als Erstes aus dem Weg räumen können? Am ehesten werden sich IT-affine Unternehmen diese Vorteile zu Nutze machen können. Sie haben die Fähigkeit, Geschäftsprozesse in IT-nahe Prozesse transferieren zu können. Somit können sie sich auch schneller Wettbewerbsvorteile zu eigen machen. Dieser Trend ist aber generell nicht mehr aufzuhalten: Somit wird aus Big Data immer häufiger Big Business, indem sich Unternehmen über durchdachte und schnelle Datenanalyse erhebliche Wettbewerbsvorteile sichern können. Nicht zu vergessen ist aber dafür eine flexible, skalierbare Bereitstellung: Erst Cloud Computing, zumeist in Verbindung mit einer servicebasierten Architektur, schafft die Grundlage für die dafür zwingend notwendigen kollaborativen Unternehmensprozesse. Inwiefern? Neue Big-Data-Tools kämpfen derzeit noch mit einer extremen Zunahme an Daten, die kaum gebündelt und häufig ohne definierte Prozesse produziert und abgelegt werden. Es wurden gerade in den Quelle: http://bit.ly/CB-lkY 4 Big Data statt Big Confusion Wie Wetterdaten Fußballspiele und Supermärkte verbinden und Twitter-Posts die Lieferketten von Süßwarenherstellern beeinflussen – Holm Landrock, Senior Advisor von Experton, über Big-DataSzenarien und langfristig-orientiertes Denken. Herr Landrock, Experton, hat kürzlich untersucht, wie Unternehmen zu einer sinnvollen Big-Data-Strategie finden. Was ist Ihre wichtigste Erkenntnis? Das lässt sich am besten damit beantworten, dass Big Data im Kontext großer Unternehmen ein komplexeres Szenario benötigt. Es ist, salopp formuliert, eben nicht damit getan, in neue Appliances oder Storage-Systeme zu investieren, um lediglich das vorhandene Data Warehouse zu beschleunigen. Das ist noch keine Strategie. Vielmehr ist es wichtig, mithilfe dieser starken Technologie Szenarien zu entwerfen, die es vorher noch nicht gegeben hat. Das heißt, die Betriebswirtschaft etwa mit geografischen Daten zu verknüpfen. Also in neuen Wegen denken. Hier betreten wir das eigentliche BigData-Feld – alles andere sind tradierte Business-Intelligence-Szenarien. Wo findet dieses echte Big Data in der Praxis heute schon statt? Bei den großen Lebensmittelfilialisten. Dort wird die Belieferung der Märkte mit anderen Informationen wie Wetterdaten oder dem Spielplan der Fußball-Bundesliga verknüpft: Wird es am Wochenende heiß, müssen die Filialen ausreichend Bier und Grillwürstchen bevorraten. Das ist Business Intelligence in der Warenwirtschaft. Was aber, wenn die Märkte nach einem schönen Fußball-Wochenende überraschend auf den Beständen sitzen bleiben? Eine interessante Fragestellung, die durch die Analyse aller verfügbaren Daten beantwortet werden könnte – und womit ein belastbarer Forecast möglich wird. Inwiefern? Stichwort: Predictive Analytics. Ein Lebensmittelhersteller analysiert mit Mitarbeitern soziale Netze nach negativen Äußerungen über die Produkte. Das hilft dem Unternehmen, mögliche Mängel zu erkennen und frühzeitig zu reagieren. Big-Data-Analysen könnten Im Gespräch: Holm Landrock Senior Advisor bei der Experton Group diese Aufgabe automatisieren, indem sie Millionen von Datensätzen aus vielen Social Networks auswerten. Das verschafft dem Unternehmen Wettbewerbsvorteile heute und in Zukunft. Wichtig ist dabei, dass Verfahren, die sich auf Daten aus Social Media stützen, immer mit anonymisierten Daten arbeiten. Es ist ja auch nicht wichtig, wer genau etwas über ein Produkt sagt, sondern ob es zum Beispiel regionale Häufungen gibt. Wie erreichen Unternehmen einen solchen Qualitätsgrad in ihrer Big- Data-Analyse? Neue Verfahren wie Hadoop sind wichtig. Sie helfen, strukturierte, semistrukturierte und unstrukturierte Daten für die Analyse aufzubereiten. Um die für Big Data erforderliche Komplexität abzubilden, sind außerdem neue Algorithmen erforderlich – und auch Menschen, die neue Fragen stellen. Wie können Provider Unternehmen dabei unterstützen, diese Fähigkeiten auszubilden? Indem sie Big-Data-Szenarien entwickeln. Das müssen Lösungen sein, die auch den Fachabteilungen passgenaue Vorteile bieten, also auf ihr Tagesgeschäft zugeschnitten sind. Das von mir bereits erwähnte Beispiel aus dem Lebensmitteleinzelhandel ist sicher nicht für die produzierende Industrie geeignet. Und die Unternehmen müssen ebenso Datenanalysten ausbilden, die solche Prozesse von der Theorie her in die Praxis umsetzen können. Das Verfahren muss also ganzheitlich gesehen werden – und vor allem nicht kurzfristig. Warum? Führt Kurzfristigkeit gerade in diesem schnellen Umfeld nicht auch zu Erfolgen? Big Data wird uns mit Sicherheit die kommenden 10 bis 15 Jahre weiter intensiv beschäftigen. Das ist kein kurzfristiger Trend und sollte daher sauber aufgesetzt sein. Letztlich bringt Big Data disruptiv denjenigen Unternehmen, die es versiert einsetzen können, deutliche Vorteile auf dem Markt. Ein Baustein für solche Szenarien könnten auch dynamische Cloud-Computing-Infrastrukturen sein, mit denen sich Big-Data-Analysen als Service liefern lassen. Solche Dienste könnten zum Beispiel das Scannen von Daten aus verschiedenen Quellen nach bestimmten semantischen Einheiten oder Schlüsselwörtern sein. Quelle: http://bit.ly/CB-G9S 5 Kein Big Data ohne Cloud Computing Für erfolgreiche Big-Data-Analysen müssen Daten gesammelt, gespeichert, bereinigt, analysiert und visualisiert werden – aber nicht nur das. Denn Auswertungen von personenbezogenen Daten etwa aus sozialen Netzwerken können zu einer Verletzung von Compliance-Vorgaben und -Gesetzen führen. Wie Unternehmen dies vermeiden und welche Rolle Cloud Computing dabei spielt, weiß Markus Vehlow, Partner der Wirtschaftsprüfungsgesellschaft PwC. Herr Vehlow, viele Unternehmen beginnen derzeit auf Big Data im Schulterschluss mit Cloud Computing zu setzen: Was ändert sich dadurch hinsichtlich Compliance und Datenschutz? Grundsätzlich gelten dieselben rechtlichen Rahmenbedingungen – nur die Existenz eines neuen IT-Trends führt nicht dazu, dass sich Gesetze ändern. Das gilt im Übrigen für Big Data und Cloud Computing. Unzulässig wird es dann, wenn eine regelrechte Sammelwut entsteht, auch personenbezogene Daten angehäuft werden und diese sich auf natürliche Personen zurückführen lassen. Dann müssen Mechanismen greifen, die einerseits zwar den unternehmerischen Nutzen von Big Data sicherstellen, aber anderseits auch dem Datenschutz genügen. Sie meinen auch auf technologischer Seite? Technisch gesehen kann man solche Daten anonymisieren oder pseudonymisieren. In der Praxis stellen wir aber immer wieder fest, dass erst andere organisatorische Mechanismen greifen müssen, damit diese Vorgehensweisen Erfolg haben. Welcher Art? Mittels Datenklassifizierung. Hier können besonders hochregulierte Branchen wie die Finanzindustrie oder Gesundheitswesen und Pharma Vorbild sein: Dort werden vielfach aufgrund bestehender Regularien regelmäßige Bestandsaufnahmen und Risikoanalysen für die Daten gemacht, ggfl. auch in ein Risikoregister überführt. Im Ergebnis kann dann herauskommen: „Klasse 1 bis 2, etwa unkritische Daten, können durchaus in eine Public Cloud verschoben werden, Klasse 3 und 4, wie personenbezogene Daten oder unternehmenskritische, müssen auf jeden Fall intern gespeichert, verschlüsselt oder anonymisiert werden.“ Leider ist ein solch hoher Reifegrad der Organisation nicht in jedem Unternehmen vorhanden, das auf Big Data und die Cloud setzt. Im Gespräch: Markus Vehlow Partner bei PriceWaterhouseCoopers (PwC) Unternehmen den kundenspezifischen Wünschen anpassen. Beispielsweise was Lieferzeit, Rücksendung, Produktauswahl und letztlich auch Anzahl der Kanäle betrifft, aus denen der Kunde auswählen kann. Hier liefert Big-Data-Analyse, z. B. auf der Basis von Social-Media-Daten, eine wertvolle Entscheidungsgrundlage. Es muss also immer ein Ziel und einen Zweck für diese Analysen geben. Die Daten nur zu haben, ist noch kein Mehrwert. Sie erwähnen immer wieder die Cloud. Inwieweit kann Cloud Computing den richtigen Umgang mit Big Data beschleunigen? Nicht nur beschleunigen: Die Cloud ist der Möglichmacher von Big Data, der technologische Enabler. Big Data ist oft nicht wirtschaftlich ohne eine dynamische Cloud-Infrastruktur. Das wissen mittlerweile viele Unternehmen, die darüber hinaus auch verstanden haben, welche Bedeutung die IT für ihr Geschäft hat. Information ist heute ein bedeutendes Betriebskapital, das Wettbewerbsvorteile erwirtschaftet. Und sowohl Cloud Computing als auch Big Data sind hierfür essenziell. Wenn aber der adäquate Umgang mit großen Datenmengen einen solchen Aufwand erforderlich macht: Stehen dann Aufwand und Ertrag noch im Verhältnis zueinander? Wie gesagt, der ordnungsgemäße Umgang mit Daten ist keine neue Disziplin, die durch Big Data oder Cloud Computing ausgelöst wurde. Daher sollten sich die Aufwände eigentlich in Grenzen halten. Es ist auf jeden Fall nicht ausreichend, einfach eine zeitgemäße technische Infrastruktur vorzuhalten, um sämtliche Daten jederzeit blitzschnell zur Verfügung zu haben, um sie beispielsweise für zeitlich begrenzte Marketingkampagnen nutzen zu können. In-Memory-Computing ist hier essenziell, um diese großen Datenmengen noch erfolgreich aggregieren zu können. Fakt ist aber auch, das hat eine PwC-Studie ergeben, dass etwa im Handel eine optimale Kundenzufriedenheit nur dann gegeben ist, wenn sich die Quelle: http://bit.ly/CB-id6 6 Auf Knopfdruck bessere Prognosen und schnellere Entscheidungen Wenn Autos ihre Diagnosedaten automatisch an die Werkstatt senden, die Fehlererkennung optimieren, ihren Lebenszyklus verlängern und letztlich auch für mehr Kundenzufriedenheit sorgen – dann steckt dahinter eine ausgeklügelte Big-Data-Strategie. T-Systems Geschäftsführer Hagen Rickmann über die Chancen für Unternehmen. Unternehmen produzieren bereits seit Jahren permanent Daten und werten diese aus. Was ist also das Neue an Big Data? Die Datenmenge ist nur ein Aspekt, wenngleich ein gewaltiger, der ausnahmslos sämtliche Branchen betrifft. Ich gebe Ihnen ein Beispiel: Allein bei einem großen bayrischen Autohersteller rechnet man mit nunmehr 30 Gigabyte an täglich generierten Daten. Und aufgrund der immer stärker vernetzten Fahrzeuge gehen die Autobauer bereits für das Jahr 2017 von täglich einem Petabyte Daten aus. Für Unternehmen ebenso entscheidend ist aber die enorme Vielfalt der Daten: von strukturierten Firmendaten über unstrukturierte Daten aus den sozialen Netzwerken, Simulationen oder von Sensoren. Neu sind aber auch die Möglichkeiten, diese Daten zu analysieren und auszuwerten. Dies führt zu besseren Prognosen und schnelleren Entscheidungen, zu zielgerichteter entwickelten Produkten und zu besserem Service. Dafür brauchen Sie allerdings ein komplettes Big-Data-Ökosystem, bestehend aus leistungsfähigen Speichern, einer dynamischen Cloud-Infrastruktur und beispielsweise In-Memory-Technologien, die dann die Big-Data-Analyse-Prozesse auf Spitzenleistungen bringen. Ändern diese Entwicklungen auch die konkreten Chancen für Unternehmen? Absolut, ein gewerbliches Immobilien-Unternehmen in Japan analysiert bereits die Aufzugsdaten von Gebäuden in Echtzeit. Das ist ein wahrer Datenschatz: Sie melden, wie oft welche Stockwerke angefahren werden. Daraus lassen sich Rückschlüsse ziehen, wann welche Büros oder Shops seltener als früher angefahren werden. Aus dem Trendmuster weiß das Unternehmen: Bei einem Rückgang von 60 bis 70 Prozent gegenüber den vergangenen Monaten ist eine Kündigung in dem nächsten halben Jahr zu erwarten. Der Vermieter kann also bereits frühzeitig potenzielle Nachmieter suchen, um Leerstände zu vermeiden – und das eben, ohne eine konkrete Kündigung vorliegen zu haben. Solche Lösungen sind clever, keine Frage. Lassen sie sich denn ohne weiteres auf alle Branchen übertragen? Fakt ist: Big-Data-Analyse ist noch ein „Blue Ocean“-Thema, das heißt, die gesamte Industrie steht noch weitgehend am Anfang, und es gilt, noch eine große Menge an gemeinsamer Forschungsarbeit zu erledigen, im Schulterschluss zwischen Anwenderunternehmen und uns auf Anbieterseite. Im Gespräch: Hagen Rickmann Geschäftsführer und Director Sales bei T-Systems Trotz dieses frühen Stadiums: Beispielsweise in der Automobilindustrie verfügt T-Systems ja schon bereits über vielfältige Lösungsansätze? In der Tat. Die Behebung eines Problems beim ersten Werkstattkontakt ihrer Kunden ist für die Autohersteller wettbewerbsrelevant. Doch wie lässt sich die Ursache eines Defekts eingrenzen? Welche Werkstätten haben mit welchem Modell ähnliche Erfahrungen gemacht? Und zu welcher Lösung sind sie gekommen? – Fragen, die mit der konventionellen Auswertungsmöglichkeit von Diagnosedaten, wie sie Autowerkstätten weltweit täglich millionenfach erheben, oft nicht beantwortet werden können. Hier leistet Big Data einen immensen Beitrag, hier kommuniziert das Fahrzeug proaktiv mit der Werkstatt – und löst das Problem mitunter, bevor es auftritt. Wir realisieren hier bereits in naher Zukunft OnlineDirektverbindungen zwischen Hersteller und Werkstätten, etablieren somit eine frühzeitige Fehlererkennung und sorgen für hohe Kundenzufriedenheit. Es lassen sich Kosten durch die Vermeidung von Rückrufaktionen einsparen, und der Hersteller bekommt eine besser planbare Produktlebensdauer. Für diese Win-Win-Situation von Hersteller, Werkstatt und Endkunde sorgen wir durch die Bereitstellung einer Cloud-Infrastruktur und leistungsfähiger Big-Data-Analyse. Das heißt, die Zukunft von Big Data liegt im produktiven Miteinander von IT und Anwenderunternehmen? Ausschließlich. Wir wollen Big Data gemeinsam mit unseren Kunden derart umsetzen, dass sämtliche Risiken minimiert werden und der konkrete Nutzen betont wird. Das gilt beispielsweise auch für die rechtliche Seite. Datenschutz ist keineswegs ein Argument, das kategorisch gegen Big-Data-Projekte spricht oder gar nach deutschem Recht unzulässig wäre. Es ist aber wichtig, die rechtliche Zulässigkeit bereits bei der Entwicklung einer Big-DataAnwendung zu prüfen. Wir haben Experten, um diese Klippen sicher zu umschiffen. Das zeigen wir auch auf der CeBIT unter anderem mit sieben Big-Data-Praxisfällen. Hier können sich Interessierte einen guten Eindruck verschaffen, was mit Big Data möglich ist und wie man entsprechende Infrastrukturen aufsetzt, die sicher und zugleich leistungsfähig sind. Schließlich lade ich unsere Kunden und Interessenten ebenfalls ein, uns auf der Bitkom-Tagung Mitte April zu besuchen. Auch hier zeigen wir anschaulich, wie Unternehmen Big Data zielgerichtet nutzen können. Quelle: http://bit.ly/CB-ZH1 7 HERAUSGEBER T-Systems International GmbH Hahnstraße 43d 60528 Frankfurt am Main Deutschland Telefon: +49 (0) 69 20060 - 0 E-Mail: [email protected] Internet: www.t-systems.de Verantwortlich für den Inhalt: PR & OnlineMarketing
© Copyright 2024 ExpyDoc