DIGITALE ARCHITEKTUREN STRATEGIEN FÜR DAS UNGEWISSE Von Dr. Wolfram Jost, Chief Technology Officer, Software AG INHALTSVERZEICHNIS Einführung: Digitale Architekturen – Baupläne für das digitale Business 1 Die Zeit ist reif: eine neue Architektur – jetzt 1 Definition und Aufgabe der Technologiearchitektur 3 Grenzen und Wandel der Technologiearchitektur im Laufe der Zeit: vom Mainframe in die Cloud 3 Aufbruch ins digitale Zeitalter – neue Konzepte, Paradigmen und Technologien für digitale Architekturen 6 Digitale Anwendungsarchitekturen – ergänzende Technologiekonzepte 11 Facelifting für die Digitalisierung – Einbindung traditioneller Anwendungen 12 Anwendungsfall: IoT-Architektur 13 Fazit: Mit digitalen Architekturen gut gerüstet für das Ungewisse 14 Schlusswort: Unternehmensmodellierung und IT-Portfolio-Management 15 Digitale Architekturen – Baupläne für das digitale Business Business heißt künftig digitales Business, Software ist DER Innovationsfaktor. Damit verändern sich die Spielregeln im Markt. Unternehmen sind nicht mehr ausschließlich Konsumenten, sondern gleichzeitig Produzenten. Sie müssen Softwareunternehmen werden, wenn sie sich im digitalen Zeitalter behaupten wollen. Die Digitalisierung beeinflusst unmittelbar die IT- und Anwendungsarchitekturen der Unternehmen. Digitale Use-Cases (Anwendungsfälle) sind so vielfältig wie das Business selbst. Sie lassen sich nicht als Lösungen von der Stange kaufen. Digitale Business-Plattformen verleihen Unternehmen hier die gebotene Agilität und Flexibilität, um den Weg der Digitalisierung erfolgreich zu beschreiten. In der Konsequenz bedeutet diese Entwicklung, dass die Architekturthematik auf die Agenda der IT-Verantwortlichen gehört bzw. gehören muss. Während Lösungen von der Stange, etwa ERP-Anwendungen, ihre Architektur quasi als „Black Box“ einschließen, muss die Gestaltung der Architekturen künftiger Anwendungsszenarien durch die Unternehmen selbst erfolgen. Nur sie verfügen über die Transparenz und den Weitblick, um auf Grundlage der Capabilities digitaler Plattformen eine passende Architektur für die neuen Use-Cases zu dimensionieren. Die Zeit ist reif: eine neue Architektur – jetzt! Softwareanwendungen blicken auf eine lange Geschichte zurück. Bereits seit mehr als 40 Jahren versorgen Entwickler Unternehmen mit IT-Programmen, die der Unterstützung von Geschäftsprozessen dienen. Zunächst galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten. Heute kommt keine Organisation ohne Software aus. In Zeiten der Digitalisierung ist die IT im Haus ein Muss, und sie erfordert mehr denn je eine kluge und durchdachte technische Struktur, oder anders ausgedrückt, eine intelligente Architektur. Um den Anspruch an eine digitale Architektur für die Unternehmens-IT zu verstehen, hilft ein kurzer Blick auf die Entstehungsgeschichte. WHITE PAPER Digitale Architekturen – Strategien für das Ungewisse Die Entwicklung von Unternehmenssoftware lässt sich in drei Hauptphasen unterteilen: Während der ersten Phase wurde Individualsoftware für ausgewählte Geschäftsfunktionen – z. B. aus dem Finanz- oder Personalwesen – entwickelt. Die Entwicklung erfolgte zwar mit externer Unterstützung, allerdings ausnahmslos für das Unternehmen selbst. Erstes und einziges Zielsystem war der Großrechner (Mainframe). Aufgrund des monolithischen Designgrundsatzes der Mainframe-Architektur kam eine Diskussion darüber erst gar nicht auf. Sie war durch die Systemwahl bereits zementiert. Auch Tools für die Softwareentwicklung, die die Arbeit von der Planung bis zur Implementierung erleichterten, waren noch Gegenstand der Forschung und erst rudimentär ausgebildet. Entwicklung, Ausbau und Wartung dieser Anwendungen waren daher beinahe zwangsläufig mit sehr viel Aufwand und hohen Kosten verbunden. Die zweite Phase aus Perspektive der Unternehmenssoftware-Architekturen bildete die Ära der Standardanwendungen. Anders als die zuvor individuell geprägten Eigenentwicklungen der Unternehmen wurden die Programme von externen Softwareanbietern entwickelt und vermarktet. Die Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit mehr oder weniger sämtliche administrativen Geschäftsprozesse eines Unternehmens. Der Fachbegriff „Enterprise-Resource-Planning (ERP)“ etablierte sich für diese Art der Anwendungen. Allerdings schrieben auch Standardanwendungen die Architektur vor, selbst wenn der monolithische Designgrundsatz im Zuge des technischen Fortschritts von Client-Server-Strukturen und Webarchitektur abgelöst wurde. Dies hatte zur Folge, dass die Anwendungspakete den Rahmen für Innovationen in Unternehmen an Geschäftsmodellen und -prozessen abstecken. Anders formuliert: Die externen Softwarehersteller gaben hier die Innovationsrichtung und das Tempo vor. Heute befinden wir uns in der dritten Phase, die sich auf digitale Plattformen konzentriert. Sie unterscheidet sich wesentlich von den beiden vorangegangenen Phasen. Während bislang die Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen freie Hand, dank der schnellen Entwicklung und Integration innovativer, differenzierender Anwendungen neue Geschäftsmodelle zu erstellen. Diese plattformbasierten digitalen Anwendungen verlagern den Fokus vom Backoffice auf das Frontoffice, also dorthin, wo das Geschäft mit Kunden und Partnern gemacht wird. Mit den neuen digitalisierten Geschäftsprozessen verändert sich auch die Art und Weise der Interaktion und Zusammenarbeit zwischen Unternehmen und Kunden grundlegend. Zum einen steht der Kunde im Mittelpunkt des Interesses: Seine Wünsche, Bedürfnisse und sein Kaufverhalten werden möglichst in Echtzeit analysiert, und die daraus entstehenden Rückmeldungen an Unternehmen in neue Geschäftsmodelle umgesetzt, um neue, digitale Kundenerlebnisse zu schaffen. Zum anderen gewinnt der „Co-Faktor“ an Einfluss: kooperative Geschäftsmodelle weichen den traditionellen, rein unternehmenszentrischen Fokus auf. Unternehmen sind gleichzeitig Consumer und Provider von Software. Das heißt in der Konsequenz, dass sich die Unternehmen nun selbst intensiv mit der Architektur der Digitalisierung befassen müssen. Denn im Unterschied zu den bisherigen Unternehmensanwendungen können digitalisierte Geschäftsprozesse nicht als (Komplett-)Lösung von der Stange gekauft werden. Damit liegen auch das Design und der Zuschnitt der technischen Basis – die Technologiearchitektur – in der (Eigen-)Verantwortung der Unternehmen. Denn die faktische Tragweite der Entscheidungen hinsichtlich der Architekturdesigns zeigt sich immer auch daran, wie sie die nicht anwendungsbezogenen Merkmale beeinflussen, beispielsweise Performance, Skalierbarkeit, Resilienz, Bedienbarkeit, Aktualisierbarkeit, Sicherheit, Interoperabilität oder Wartung. Diese Bindung ist selbstverständlich nicht neu. Schon in der Vergangenheit waren die Grenzen der gewählten Standardsoftware aus technischer Sicht spürbar, wenn eine größere Nutzerzahl oder ein höheres Datenvolumen bewältigt werden musste. Neu ist nun jedoch, dass die Unternehmen selbst die Grenzen der digitalen Anwendungsarchitektur bestimmen. Der Mehraufwand im Vorfeld für die Festlegung der optimalen Technologiearchitektur zahlt sich später in Form größerer Agilität und Flexibilität aus, wenn digitale Geschäftsprozesse neu zu entwerfen oder anzupassen sind. 2 Digitale Architekturen – Strategien für das Ungewisse DIE NEUE DIGITALE IT-ARCHITEKTUR BIMODAL UND INTEGRATIONSZENTRISCH SaaS Big Data PaaS Mobile Apps Partner CLOUD DIGITAL BUSINESS PLATFORM Systems of Differentiation (digitale Applikationen) + (PaaS Suite) Kern-ERP (SOR) Legacy BI HYBRID Dinge ON PREMISE Modular, agil, flexibel, schnell, differenzierend © 2016 Software All rights reserved. digitale For internal use only 1 | Abbildung 1:AG.Die neue Architektur Definition und Aufgabe der Technologiearchitektur Eine Technologiearchitektur beschreibt die Struktur, das Zusammenspiel und die Anordnung der verschiedenen Softwarekomponenten im Rahmen einer größeren Anwendung. Sie gibt Aufschluss darüber, wie ein System von Grund auf konzipiert ist. Ausgehend von den Anforderungen der Fachabteilungen und den zugehörigen Use-Cases zeigt die Architektur, wie die gesamte Geschäftslogik in verschiedene Komponenten gegliedert ist und wie diese Komponenten miteinander verbunden sind. Daneben beschreibt die Architektur die benötigten IT-Ressourcen und wie diese in verteilten Systemen von verschiedenen Komponenten genutzt werden. Zentrale Kriterien für den richtigen Zuschnitt einer Technologiearchitektur sind: die von der Anwendung zu verarbeitende Datenmenge, die Anzahl der Benutzer sowie das gewünschte Maß an Flexibilität, Performance und Skalierbarkeit. Eine Anwendung, die von mehreren Millionen Benutzern genutzt wird und Daten im Terabyte-Bereich verarbeitet, erfordert einen anderen Aufbau als eine Anwendung für 50 Benutzer und einige Gigabyte Daten. Und auch eine Anwendung, die Daten in Echtzeit verarbeiten muss (in Sekunden oder Millisekunden), benötigt im Vergleich zu einer nicht latenzkritischen Anwendung eine andere Architektur. Die Umsetzung von Geschäftsideen in Technologiearchitekturen ist komplex und anspruchsvoll. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert (Over- und Under-Engineering). Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Grenzen und Wandel der Technologiearchitektur im Laufe der Zeit: vom Mainframe in die Cloud Die Use-Cases der IT in den Unternehmen waren und sind stets das Ergebnis der technischen Optionen und des softwaretechnisch Machbaren. Von Beginn an treiben innovative Durchbrüche bei der Hardware, der Netzwerktechnik, der Speichertechnologie und der Softwareentwicklung den Wandel in der Unternehmens-IT voran. Die Technologiearchitektur – oder genauer der Wandel der Architekturen – ist daher ein Spiegelbild des technischen Fortschritts, wie der Blick auf die unterschiedlichen Episoden verdeutlicht. 3 Digitale Architekturen – Strategien für das Ungewisse ARCHITEKTUR-EVOLUTION Dev Ops DevOps Abbildung 2: Evolution der Architektur Mainframe-Ära Mainframes gibt es schon seit den 1950er Jahren. Zu den Stars der IT wurden sie in den 1960er und 1970er Jahren. Bis heute sind sie wichtiger Bestandteil vieler IT-Landschaften, wenn auch in völlig anderer Form als zu Beginn. Die ersten Architekturen waren noch sehr einfach aufgebaut. Software und Hardware waren starr und fest miteinander verwoben. Das bedeutete, eine Anwendung wurde immer für ein bestimmtes Hardwaresystem entwickelt. Ein großes zentrales Rechensystem übernahm alle Aufgaben, während „dumme“ Terminals zur Darstellung und Eingabe dienten. Eine auf dem Mainframe implementierte monolithische Anwendung enthielt die gesamte Geschäfts- und Datenlogik eines Unternehmens. Diese Art von Architektur war einfach zu warten, doch fehlte ihr jegliche Agilität und Flexibilität. Sie ließ sich innerhalb der Leistungsbandbreite des Rechners problemlos vertikal skalieren (Scale-up), eine horizontale Skalierung (Scale-out) war allgemein jedoch nicht möglich. Fortschritte auf dem Gebiet der Softwaretechnik und des Programmaufbaus führten zu einer ersten Standardisierung und logischen Trennung von Softwareschichten. Neben den Hardwareherstellern waren erste Softwareunternehmen wie die Software AG mit ihrer Hochleistungsdatenbank Adabas treibende Kräfte hinter dem Aufbau der Software(produkt)-Industrie. Client-Server-Epoche Die sich bereits in der Mainframe-Ära abzeichnenden Entwicklungen mündeten in die nächste Generation der Technologiearchitekturen, die Client-Server-Architektur. Der große Fortschritt gegenüber dem Mainframe bestand darin, dass die Geschäftslogik der gesamten Anwendung in drei Schichten zerlegt wurde: Client (Oberflächenlogik), Anwendungsserver (Programm-, Prozess-, Entscheidungslogik) und Datenbankserver (Datenlogik). Möglich wurde diese radikale Veränderung durch die verschiedenen softwarebasierten Erfindungen: UNIX® als hardwareunabhängiges Betriebssystem, die standardisierte Datenbank-Abfragesprache SQL, verteilte Objektmodelle und neue objektorientierte Programmiersprachen für Programm- und Datenlogik. Gleichzeitig schrumpfte die Größe der Hardware dank der fortschreitenden Chip- und Speichertechnologie. Computer beanspruchten nicht mehr ganze Räume, sondern fanden den Weg aus den Kellern heraus in die Büros. Die Client-Server-Architektur war ein echter Durchbruch. Sie beschritt vollkommen neue Wege bei der Konzeption und Entwicklung benutzerfreundlicher Oberflächen und bot mehr Wahlfreiheit bei Hardware und Software. Ein weiterer wichtiger Aspekt war: das Client-Server-Modell führte nicht nur einen technologischen Wandel herbei, sondern mit der Dezentralisierung ehemals zentraler Aufgaben auch eine organisatorische Veränderung. Damals begannen die Geschäftsbereiche, sich mit dem Thema „IT“ zu befassen. 4 Digitale Architekturen – Strategien für das Ungewisse Die „Web-isierung“ der IT Auf die Client-Server-Architekturen folgten die Webarchitekturen. Der wichtigste Unterschied zum Client-Server-Modell und gleichzeitig die wesentliche Neuerung bestand darin, dass der Browser zum neuen Frontend wurde und den Zugriff auf Geschäftsanwendungen über das Internet ermöglichte. Die Bedienung und Teile der Geschäftslogik wurden nun über den Browser und nicht mehr über ein dediziertes Client-System gesteuert. Allgemein formuliert handelt es sich bei Webanwendungen um Computerprogramme, mit denen die Benutzer mithilfe eines Webbrowsers über das Internet auf Daten in einer Datenbank zugreifen können. Die Informationen werden von der Webanwendung über einen Webserver dynamisch erzeugt (in einem spezifischen Format, z. B. HTML mit CSS). Webanwendungen lassen sich überall und zum Nulltarif ohne clientseitige Installationsanforderungen implementieren. Die Abwicklung von Geschäften über das Internet führt zu ganz neuen Geschäftsmodellen und Interaktionsmustern zwischen den Unternehmen und ihren Kunden. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial mit dem Schlagwort E-Business/E-Commerce umschrieben wird. Serviceorientierte Architekturen (SOA): Stilkunde für verteilte Anwendungsarchitekturen Im Kontext der Web-isierung des Client-Server-Modells tauchte mit SOA (serviceorientierte Architektur) ein neuer Architekturstil auf, der eher ein Paradigma beziehungsweise Muster für das Architekturdesign als ein konkretes Konzept zur Implementierung einer Architektur verkörpert. Die Kernidee hinter SOA besteht darin, Client-Server-Anwendungen mit ihrer nach wie vor monolithisch geprägten Grundstruktur in kleinere, unabhängige Komponenten – sogenannte Services – zu zerlegen, die über festgelegte Serviceschnittstellen miteinander kommunizieren und sich zu höherwertigen Services koordinieren lassen. Die Offenlegung dieser Serviceschnittstellen führte dazu, dass auch externe Applikationen diese auf einfache Weise konsumieren konnten. Auf welche Weise die Geschäftslogik des Services implementiert wird, ist unerheblich. Die technische Umsetzung und auch die Komplexität bleiben hinter der standardisierten Serviceschnittstelle verborgen, die als eine Art Vertrag zwischen dem Anbieter und dem Nutzer des Services dient. Mit diesem Kunstgriff sollte SOA eine größere Flexibilität und Agilität bei der Integration, Änderung und Verwaltung der Anwendungslogik begünstigen. Trotz der genialen Konzeption ist der Erfolg von SOA sehr begrenzt geblieben. Dies liegt vor allem daran, dass zwar die Methodik für eine effiziente Umsetzung der SOA-Grundsätze vorhanden war, es aber (noch) an geeigneten Werkzeugen und Technologien mangelte. Cloud-Computing – IT-Leistung als Internet-Service Das jüngste Paradigma einer Technologiearchitektur heißt Cloud-Computing: die bedarfsorientierte Nutzung von IT-Leistungen als Mietservice. Es werden alle IT-Ressourcen oder Funktionen einer Anwendung oder eine IT-Ressource als Service über das Internet zur Verfügung gestellt und genutzt. Das bedeutet, auf der Kunden- bzw. Nutzerseite ist keinerlei Installation vorhanden. Zentrale Merkmale sind webbasierte Frontends, nahezu beliebig kombinierbare IT-Services, dynamische Skalierbarkeit und Mandantenfähigkeit. Mit Cloud-Computing werden ein Architekturmuster, ein Bereitstellungskonzept und ein Geschäftsmodell in einem ganzheitlichen Ansatz bereitgestellt. Es werden alle Daten oder Funktionen einer Anwendung oder einer IT-Ressource flexibel als Service über das Internet zur Verfügung gestellt und genutzt. Das bedeutet, dass Kunden beziehungsweise Nutzer von der komplexen Aufgabe entbunden werden, eine physische IT-Infrastruktur aufzustellen und zu implementieren. Damit entfällt die kapitalintensive Beschaffung der Hard- und Softwareausrüstung. Gleichzeitig löst Cloud-Computing mit seinen abonnementbasierten Preismodellen den traditionellen Bezug von Software als Kauflizenz mit jährlichen Wartungsgebühren ab. 5 Digitale Architekturen – Strategien für das Ungewisse Aufbruch ins digitale Zeitalter – neue Konzepte, Paradigmen und Technologien für digitale Architekturen Die digitale Transformation ist heute allgegenwärtig. Jedes Business ist künftig auch ein digitales Business. Alles, was digitalisiert werden kann, wird auch digitalisiert. Jetzt und in der Zukunft! Warum dies so ist? Einfach weil man es kann! Konkret verheißt Digitalisierung, den Boden für neue Geschäftsmodelle und -optionen zu bereiten, indem die physische Welt mit ihrem digitalen Pendant verschmilzt. Digitale Geschäftsmodelle basieren nicht auf fertigen (Software-)Produkten, sondern auf digitalen Plattformen. Nur Plattformen bieten die Flexibilität und Agilität, die für rasche und kontinuierliche Veränderungen und Anpassungen nötig sind. Digitale Technologien wie die Cloud, mobile Geräte, soziale Netzwerke, das Internet der Dinge (Internet of Things, IoT) und Big Data bilden die Grundlage. Mit der Digitalisierung verändert sich grundlegend die Art und Weise, wie Unternehmen für ihre Kunden Produkte und Dienstleistungen konzipieren, entwickeln, bereitstellen und vertreiben und durch den Aufbau von Partnernetzen Mehrwert generieren. Die Digital Business Platform Plattformen, wie die Digital Business Platform der Software AG, bestehen nicht aus einem einzigen monolithischen System, sondern umfassen unterschiedliche Bausteine, die einzeln implementiert und nach und nach ergänzt werden können. Die Digital Business Platform der Software AG deckt die technischen Anforderungen der Digitalisierung mit folgenden fünf Bausteinen ab: 1. Baustein eins: für Business- und IT-Transformation. Die digitale Transformation ist ein Prozess in sich selbst. Dieser Transformationsprozess muss professionell geplant, gesteuert und überwacht werden. Die inhaltliche Transformation sowohl der Prozesse und Organisation als auch der IT-Landschaft ist dabei keine rein technische Aufgabe, sondern auch eine Managementaufgabe. Dies gilt es durch Tools und Methoden zu unterstützen, um smarte Entscheidungen für die Zukunft zu treffen. Business-Process-Analysis- und IT- Management-Tools (wie ARIS und Alfabet) sind hier von großem Nutzen. 2. Baustein zwei: für die Speicherung von Daten im Arbeitsspeicher. Daten werden zukünftig im Arbeitsspeicher verwaltet, um in Echtzeit darauf zuzugreifen und Auswertungen innerhalb von Millisekunden zu erhalten. Performance und Scale sind wesentliche Herausforderungen des digitalen Geschäfts. In-Memory-Speicher-Tools (wie Terracotta) liefern die technische Grundlage. 3. Baustein drei: für die Integration. Monolithische Anwendungen wird es auch weiterhin geben. Aber es wird eine Vielzahl anderer Systeme hinzukommen. SaaS-Applikationen, mobile Applikationen, Big-Data-Applikationen, IoT-Applikationen soziale Netzwerke und Partner-Applikationen. All diese Systeme müssen integriert werden, um durchgängige und effiziente Prozesse zu erreichen. Integration ist des-halb das Gebot der Stunde, diese wird durch Integrations- und API-Management-Tools (z. B. webMethods) bereitgestellt. 4. Baustein vier: für Prozesse. Wer das Geschäft ändern will, ändert seine Geschäftsprozesse auf der Basis neuer Geschäftsapplikationen. Sie sind der Kern eines jeden Geschäftsmodells. Letztendlich sind es auch die Prozessinnovationen, die digitale von traditionellen Unternehmen unterscheiden. Die Neugestaltung der differenzierenden Geschäftsprozesse durch die schnelle und einfache Entwicklung neuer digitaler Geschäftsapplikationen ist somit ein Kernelement der Digitalisierung. Unterstützende Komponenten dafür sind agile Apps und BPMS-Tools (z. B. webMethods BPMS und AgileApps). 5. Baustein fünf: zur Datenanalyse und Entscheidungsfindung in Echtzeit. Schnellere und bessere Entscheidungen in Echtzeit sind ebenfalls Kern einer jeden digitalen Strategie. Die Sammlung, Speicherung, Analyse und Visualisierung entscheidungsrelevanter Daten ist daher eine wesentliche Fähigkeit eines digitalen Unternehmens. Dies gilt sowohl für statische als auch für Echtzeit-Daten. Zur Echtzeit-Analyse und für operationale Intelligenz stehen Komponenten wie Apama und webMethods Operational Intelligence zur Verfügung. 6 Digitale Architekturen – Strategien für das Ungewisse PLATTFORM FÜR INNOVATIONEN UND DIFFERENZIERUNG IN DER DIGITALEN WELT ANALYTICS & DECISIONS Streaming Analytics Operational Intelligence BUSINESS & IT TRANSFORMATION Business Process Analysis powered by APAMA & WEBMETHODS CLOUD AGILE PROCESS Business Process Management Agile Applications Governance, Risk & Compliance powered by WEBMETHODS IT Portfolio Management Integration API Management Enterprise Architecture Management powered by WEBMETHODS ON PREMISE IN-MEMORY DATA powered by ARIS & ALFABET + HYBRID INTEGRATION In-memory Data Fabric powered by TERRACOTTA Abbildung 3: Die Digital Business Platform der Software AG Aufgrund der inhärent disruptiven Wirkung digitaler Modelle und Optionen steigt der Anspruch an das Leistungsversprechen der IT. Diese Modelle und Optionen benötigen ein höheres Maß an Agilität und Flexibilität als bisher, bei gleichzeitig niedrigerer Latenz, höherer Skalierbarkeit, mehr Benutzerfreundlichkeit, automatisierter Entscheidungsfindung auf der Grundlage von Echtzeit-Analysen und einer hybriden, transaktionalen und analytischen Verarbeitung. Eine neue Generation von Anwendungsarchitekturen ist unumgänglich, die die maßgeblichen Software- und Betriebskonzepte wie Cloud, Microservices, Container-Kapselung, API-Management, DevOps und Event-Steuerung umsetzt. DAS NEUE ARCHITEKTURPARADIGMA Microservices Containers APIs Speed of Innovation Cloud DevOps Events Abbildung 4: Das neue Architekturparadigma Gleichzeitig muss man Abschied nehmen von der Vorstellung einer monolithischen Architektur, die – vergleichbar zu dem traditionellen ERP-Anspruch – alle Unternehmensaufgaben abdeckt. Um sich vom Wettbewerb abzuheben und differenzierende Innovationen auf die Straße zu bringen, sind digitale Anwendungen auf agile und flexible Weise zu konzipieren, zu entwickeln und zu implementieren. Diese Anwendungsfunktionen lassen sich jedoch nur in der gewünschten Geschwindigkeit und Qualität bereitstellen, wenn beim Stil der Anwendungsarchitektur neue Wege beschritten werden. 7 Digitale Architekturen – Strategien für das Ungewisse Agiler Softwareaufbau: Microservices Differenzierende und innovative digitale Anwendungen müssen auf agile und flexible Weise konzipiert, entwickelt und implementiert werden, damit digitale Geschäftsprozesse überhaupt möglich werden. Unternehmen müssen sich mit ihren Anwendungen von ihren Mitbewerbern abheben, um wettbewerbsfähig und erfolgreich zu sein. Innovative Anwendungen und Anwendungsfunktionen können jedoch nur mit der geforderten Geschwindigkeit und Qualität bereitgestellt werden, wenn in der Konzeption der Anwendungsarchitekturen neue Wege beschritten werden. Mit Microservices etabliert sich aktuell ein neues Architekturparadigma als Hoffnungsträger für mehr Agilität, Produktivität und Nachhaltigkeit in der digitalen Anwendungswelt. Microservices stellen „kleinere“ Softwaremodule einer größeren, komplexen Anwendung dar, die unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden können. Sie greifen damit die SOA-Idee auf, gehen jedoch darüber hinaus. Ging es bei SOA mehr um die externe Bereitstellung von Serviceschnittstellen, so geht es bei Microservices mehr um den inneren Aufbau einer modernen Geschäftsapplikation. Denn auf der Grundlage von Microservices lassen sich monolithische Anwendungen in kleine Programmpakete zerlegen, die autonom in „ihrer“ Technikumgebung funktionieren. Die Entwicklung lässt sich somit auf beliebig viele Teams aufteilen. Unabhängig von den anderen Teams implementiert, verbessert oder erweitert jedes Team den eigenen Microservice. Ein solches Architekturdesign besitzt den Charme, dass die Entwicklung der Software an Agilität und Tempo zulegt. Sie erfüllt damit einen Grundanspruch digitaler Anwendungen. Unternehmen sind in der Lage, Innovationen innerhalb von Tagen anstatt Monaten oder Jahren auf den Markt bringen. Auf diese Weise lassen sich neue Geschäftsmöglichkeiten schneller wahrnehmen und Produktivitätssteigerungen rascher verwirklichen. Hinzu kommt, dass die Entwicklung nachhaltiger wird, da zwischen den einzelnen Services kaum eine Abhängigkeit existiert. Eine einheitliche technische Basis ist folglich nicht vonnöten. Schließlich können Microservices im Unterschied zu monolithischen Anwendungen unabhängig voneinander in Produktion gehen. Die Abstimmungs- und Koordinierungsprozedur, die ansonsten erforderlich ist, wenn ein Team beispielsweise die Programmbibliothek eines Tools aktualisieren möchte, entfällt. MICROSERVICES-ARCHITEKTUR API Gateway/ API Portal Load Balancer API API API API Microservice Microservice Microservice Microservice In-Memory In-Memory In-Memory In-Memory Container Container Container Container Events Events Messaging DevOps Tool Chain Abbildung 5: Architektur der Microservices 8 Big Data Event Store Digitale Architekturen – Strategien für das Ungewisse Agile Inbetriebnahme: Container Der Vorzug des raschen Deployments von Microservices entfaltet insbesondere in Kombination mit dem (Betriebssystem-)Container-Konzept seine Wirkung. Diese Container stellen eine wichtige Virtualisierungs- und Abstrahierungstechnologie in der Infrastrukturautomatisierung dar, wenn beispielsweise Anwendungsservices schnell aus der Entwicklungsumgebung in die Test- oder Produktionsinfrastruktur zu überführen sind. Ebenso lassen sich problemlos beliebig viele Kopien in Betrieb nehmen, wenn ein Anwendungsservice aufgrund einer höheren Nachfrage skaliert werden muss. Container umfassen die komplette Ablaufumgebung eines Microservices. Im Unterschied zur Technologie der virtualisierten Maschinen teilen sie sich den Betriebssystem-Kernel und weitere Bibliothekselemente, die Anwendungen hingegen bleiben voneinander isoliert. Aus diesem Grund lassen sie sich innerhalb weniger Sekunden oder Millisekunden bereitstellen, während das sonst Minuten dauern kann. Wie ihre Namensvettern in der Transportlogistik bieten Container unabhängig vom Inhalt eine vorhersehbare verlässliche Umgebung. Entwickler sind in der angenehmen Lage, sich ausschließlich auf das Programmieren der Geschäftslogik konzentrieren zu können, die technische Inbetriebnahme ist weitgehend automatisiert. Mit diesen Eigenschaften leisten Containermanagement-Lösungen wie Docker einen wichtigen Beitrag für die agile Entwicklung von Anwendungen, da Änderungen sich mit der in der digitalen Welt gebotenen Geschwindigkeit implementieren und aktivieren lassen. Agiles Verbindungsmanagement: APIs Die Verbindung zwischen den einzelnen Microservices erfolgt typischerweise über Programmierschnittstellen (Application-Programming-Interfaces, APIs). Sie stellen eine Softwarekomponente dar, die Funktionen für den Zugriff auf die zugrunde liegenden Softwareressourcen (Endpunkte) bereithalten. Die Programmierschnittstelle beschreibt die Daten (Eingabe/Ausgabe) und die Vorgänge der Ressource (Anwendung). Damit ist ein API eine Abstraktionsschicht (Virtualisierungsschicht) über einer Softwareressource, die Geschäftslogik bereitstellt. APIs öffnen gewissermaßen die Tür für die dahinterliegenden Funktionen und Datenquellen, ohne dass deren technische Implementierung eine Rolle spielt. Der Nutzer eines API kann sich darauf verlassen, dass die Schnittstelle stabil und von Änderungen im Microservice unabhängig ist. Von den Eigenschaften des API-Konzeptes können alle Anwendungs- und Architekturkomponenten profitieren. Für die Verwaltung der Schnittstellen-Aufrufe und die gebotene Transparenz zu den verfügbaren APIs gehört daher die API-Management-Technologie zur Grundausstattung digitaler Architekturen. Sie soll verhindern, dass im Geflecht der Kommunikationswege der aufrufenden Services der Überblick verloren geht. Die API-Management-Technologie mit den beiden Komponenten Gateway und Portal unterstützt IT-Teams in den Aufgaben, Service-Schnittstellen zu konzipieren, zu implementieren, bereitzustellen, zu betreiben, zu entdecken, zu nutzen, zu steuern und zu überwachen. Das API-Gateway arbeitet in erster Linie als Vermittlungsinstanz, um die Kommunikation zwischen aufrufenden System und dem API des Services zu kontrollieren und zuverlässig zu steuern. Das Portal lässt sich am besten als Schaufenster verfügbarer APIs sowie als Kollaborationsplattform für den Austausch und die Entwicklung neuer Schnittstellenvorschläge betrachten. 9 Digitale Architekturen – Strategien für das Ungewisse API-MANAGEMENT-PLATTFORM CLOUD API Portal • • • • Promote APIs Document usage Enable registration Community and collaboration • Testing API Gateway • Protect your APIs from unregistered usage • Protect your backend systems from malicious attacks • Monitor and track usage for monetization and product improvement API Catalog • Define your APIs • Discover existing API assets • Manage lifecycles • Apply runtime governance policies • Track dependencies + HYBRID ON PREMISE Abbildung 6: Plattform für API-Management Agile Prozesskette: Continuous Delivery und das DevOps-Paradigma Paradigmen wie Microservices, Container und APIs einschließlich der neuen Cloud-Betreibermodelle zahlen mit ihren Eigenschaften auf eine neue ProzessverbesserungsMethode ein, die unter dem Namen DevOps (einem Kunstwort, das aus den Begriffen [Software-]Development und [IT-]Operations gebildet wird) rasant an Popularität gewinnt. Diese Methode transportiert die Idee hinter agilen Entwicklungsmethoden in den IT-Betrieb. WEB-SCALE-ARCHITEKTUR DEVOPS UND CONTINUOUS DELIVERY Entwickeln Microservices Testen Verpacken Automated Testing Cloud 10010 11010 • Increased agility • Facilitates distributed development • Enable continuous delivery • Support massive scalability Deployment • Daily testing of builds • Quick capture of errors and quick fixes • Continuous integration • Improved platform configuration consistency • Faster image loading • Container runtime, clustering and abstraction layer • Increased workload density • Rapid and automated provisioning of resources • Elastic scalability • Optimized resource utilization Abbildung 7: Von der Entwicklung zur Inbetriebnahme Vereinfacht formuliert greifen in der gesamten Prozesskette – von der Entwicklung bis zur Inbetriebnahme – Tools, Testszenarien, Deployment-Konfigurationen und organisatorische Prozesse Hand in Hand. Es wird ein schlagkräftiger Continuous-Delivery-Ansatz umgesetzt, der mit verkürzten Release-Zyklen die Time-to-Market neuer digitaler Geschäftsmodelle und Prozessveränderungen beschleunigt. Die unabhängig voneinander arbeitenden Microservices, die Container-Virtualisierung und die automatisierte Inbetriebnahme in einer Cloud-Umgebung schaffen hierzu überzeugende technische Voraussetzungen. Integration – neu interpretiert Im Falle digitaler Geschäftsmodelle und -prozesse starten Unternehmen durch im „agile Mode“. Um sich vom Wettbewerb abzuheben und differenzierende Innovationen auf die Straße zu bringen, sind digitale Anwendungen wie beschrieben auf agile und flexible Weise zu konzipieren, zu entwickeln und zu implementieren. Gleichzeitig gehört es zum 10 Digitale Architekturen – Strategien für das Ungewisse Grundgedanken neuer Anwendungsarchitekturen, dass sie einem offenen, heterogenen Ansatz folgen und nicht – wie in der Vergangenheit üblich – monolithisch angelegt sind. Eine digitale Architektur muss daher die Fähigkeit besitzen, Daten und Funktionsservices aus Standardanwendungen für administrative Geschäftsprozesse, Legacy-Anwendungen auf soliden und sehr stabilen Plattformen, SaaS- und PaaS-Anwendungen, Data-Lakes, mobilen Anwendungen und B2B-Anwendungen bei Bedarf in neue digitale Geschäftsprozesse einzubinden. Integrationstechnologien sind nicht grundlegend neu, im Kontext der Digitalisierung ändert sich jedoch ihr Charakter signifikant. Während man früher unter Integration eine Art Middleware verstand, die interne Anwendungen miteinander verband, ist sie nun aufgrund der hohen Anzahl zu integrierender Datenquellen das Herzstück einer digitalen Architektur. Dies hat natürlich starke Auswirkungen auf die Architektur der Integrationstechnologie. Bei der ersten Generation handelte es sich um den Enterprise-Service-Bus (ESB), ein mehr oder weniger monolithisches System, das alle Funktionen für die Konzeption, Entwicklung, Implementierung und Überwachung der Integrationslogik bot. Zu den wichtigsten Funktionen gehörten Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die Funktionen bleiben, doch die interne Architektur verändert sich. Die genannten Funktionen werden nach der Vorgabe des agilen Entwurfsmodells für digitale Architekturen in Microservices umgewandelt. Das bislang eher monolithisch ausgerichtete ESB-Konzept wandelt sich hierdurch zu einem modernen Microservices-Container, der die erforderlichen Integrationsfunktionen agil und flexibel zur Verfügung stellt. VOM ESB ZUM MICROSERVICES-CONTAINER „Monolithisch" Microservices-Container API Gateway Flow Services Connectors API Flow BPM B2B FT Connectors API BPM Services API B2B Connectors B2M PKG Management PKG Management Security Security Security PKG Management Runtime Runtime Runtime Security Container Container Container PKG Management Runtime Kernel 4 GB, 4 Cores, 2GB Disk Messaging © 2016 Software AG All Abbildung 8: Vom ESB zum Microservices-Container Digitale Anwendungsarchitekturen – ergänzende Technologiekonzepte Neben den genannten Methoden, Paradigmen und Technologien stützen weitere Kern-Technologiekonzepte den Aufbau und Entwurf agiler, digitaler Architekturen. Hierzu zählen insbesondere das Geschäftsprozess-Management (Business-Process-Management, BPM) auf Seiten der anwendungsorientierten Entwicklung, das In-MemoryComputing als „Beschleuniger“ in der Datenhaltung sowie Streaming Analytics für den Umgang mit Echtzeit-Ansprüchen. BPM Der Begriff BPM hat im IT-Bereich eine lange Tradition. BPM kam in den 1990er Jahren eigene Disziplin auf und hat sich im Laufe der letzten Jahre kontinuierlich weiterentwickelt. Die Use-Cases reichen von Workflow- und Prozessautomatisierung bis hin zu Composite Applications, Prozessintegration und Anwendungsentwicklung. Selbst wenn BPM nicht alle seine Versprechen erfüllen konnte, gibt es doch zahlreiche positive Beispiele, in denen die Effizienz, Flexibilität und Agilität bei der Prozessausführung mit BPM gesteigert wurden. Genau diese Eigenschaften zeichnen digitale Anwendungsarchitekturen aus. 11 Digitale Architekturen – Strategien für das Ungewisse Es steht daher steht außer Zweifel, dass BPM in einer digitalen Architektur eine Schlüsselrolle zukommt. Digitale Geschäftsmodelle können nur für neue, innovative Prozesse eingesetzt werden, die von modernen Prozessanwendungen gesteuert werden. Für ein digitales Kundenerlebnis müssen die Prozesse flexibler, schneller und einfacher werden. Ebenso erfordern alle IoT-Use-Cases (Smart Insurance, Predictive Maintenance usw.) neue Prozessabläufe. Im Kontext des digitalen Unternehmens rückt BPM den Fokus folglich mehr und mehr in den Bereich der Anwendungsentwicklung. Workflow, Prozessautomatisierung und Composite Applications bleiben wichtige Einsatzbereiche. Die schnelle und einfache Entwicklung digitaler Prozessanwendungen wird jedoch zum vorherrschenden Use-Case werden. Um eine flexible Entwicklung und eine agile Implementierung zu garantieren, werden auch die Prozessabläufe und die Prozessanwendungen in die Microservices-Architekturen eingebunden. In-Memory-Computing Das Konzept des In-Memory-Computings ist ein erstklassiges Beispiel dafür, wie neue technische Optionen den Weg für neue Use-Cases in der IT frei machen. So bestand jahrzehntelang kein Zweifel daran, dass Daten auf der Festplatte gespeichert werden müssen. Und zwar im Wesentlichen aus den folgenden beiden Gründen: Erstens war der Hauptspeicher nicht groß genug, um dauerhaft große Datenmengen aufzunehmen. Zweitens kostete der Hauptspeicher viel Geld. Beides hat sich in den vergangenen Jahren drastisch geändert. Hauptspeicher ist preiswerter und größer (mehrere Terabyte) geworden. So entstand die Idee des In-Memory-Computings. Das In-Memory-Computing beschreibt eine Architektur, in der alle für die Verarbeitung erforderlichen Anwendungsdaten im Hauptspeicher abgelegt werden. Dem liegt der Gedanke zugrunde, dass der Hauptspeicher eines Rechners große Datenmengen halten kann, die dann von verschiedenen, möglicherweise verteilten Anwendungen genutzt werden können. Zu den entscheidenden Vorteilen gehören größere Geschwindigkeit, bessere Skalierbarkeit und schnellere Einblicke. Genau diese Eigenschaften sind für digitale Architekturen unerlässlich, deshalb kommen sie ohne In-Memory-Daten nicht aus. Nur Webanwendungen mit In-Memory-Technologie sind beispielsweise in der Lage, die Arbeitslast aus Multi-Channel-Szenarien zu bewältigen, in denen Millionen Benutzer auf Daten zugreifen und kurze Reaktionszeiten erwarten. Streaming Analytics – Management der IoT-Datenströme Die digitale Welt bewegt sich in Echtzeit. Das heißt, Daten und Ereignisse müssen genau zum Zeitpunkt ihres Auftretens verarbeitet werden. Entscheidungen dürfen also nicht verzögert werden, weil zunächst Daten erfasst, gespeichert, ausgewertet und visualisiert werden müssen. Bei einem Autounfall müssen die Aufpralldaten umgehend verarbeitet werden, um die Gefahr für den Fahrer oder andere Unfallbeteiligte zu verringern. Wenn eine Produktionsanlage kurz vor der Überhitzung steht, müssen die betreffenden Ereignisdaten sofort verarbeitet werden, um eine Störung zu vermeiden. Wenn die Herzfrequenz oder der Blutdruck einen Schwellenwert überschreitet, muss das Krankenhaus unverzüglich informiert werden. Die Streaming-Analytics-Plattform verfügt über die Funktion, Ereignisströme in Echtzeit zu verarbeiten. Diese Plattform kann Daten aus einer beliebigen internen oder externen Datenquelle nutzen und bereitstellen. Die Streaming-Engine kann Alerts auslösen, Daten an die Prozess-Engine des BPM senden und weitere Prozesse anstoßen oder einfach über das API-Management die Daten zur weiteren Verwendung anbieten. Facelifting für die Digitalisierung – Einbindung traditioneller Anwendungen Eine Anwendungs- und Technologie-Architektur für die digitale Use-Cases wird in den wenigsten Fällen von Grund auf neu entwickelt. Jedes Unternehmen setzt schließlich Anwendungen ein, die bereits vor vielen Jahren erstellt wurden und immer noch einen wichtigen Bestandteil der IT-Gesamtlandschaft bilden. Diese sogenannten Legacy-Anwendungen unterstützen zentrale Geschäftsprozesse in einer Weise, wie es keine andere Anwendung jemals leisten kann. Der enorme Nutzen, den Unternehmen aus diesen Anwendungen ableiten, ergibt sich aus der unternehmensspezifischen Geschäftslogik, die über Jahrzehnte gewachsen ist. Diese einzigartige Geschäftslogik ist für ein Unternehmen nach wie vor wertvoll und lässt sich nicht ohne weiteres ersetzen. Eine Neuentwicklung dieser Anwendungen wäre aufwändig, risikobehaftet und böte bestenfalls begrenzten Mehrwert. 12 Digitale Architekturen – Strategien für das Ungewisse Mehr Erfolg verspricht dagegen die Modernisierung der vorhandenen Anwendungen. Ein solches Facelifting ist in unterschiedlichen Anwendungsbereichen möglich. Einer davon ist die Schnittstelle zum Benutzer (User-Interface). In diesem Fall wird die Legacy-Anwendung über das API-Management mit einer neuen, modernen, webbasierten Benutzeroberfläche ausgestattet, die die Bedienbarkeit und die Benutzerfreundlichkeit erhöht. Ein weiterer möglicher Bereich sind die Daten. Die Anwendungsdaten können laufend auf mehrere Hauptspeicher verteilt werden (In-Memory-Data-Grid), um sie einer Datenanalyse im Rahmen neuer Prozesse zuzuführen. Die Integration von Legacy-Anwendungen in Cloud- oder mobile Anwendungen ist eine weitere Option der Wertschöpfung während der digitalen Transformation. Verbesserungspotenzial versprechen gleichfalls Echtzeit-Analysen durch die Integration von Streaming Analytics per API, die Datenmanipulationen auswerten, sobald diese auftreten, um beispielsweise Betrug zu verhindern. Die genannten Möglichkeiten zur Modernisierung des „Bestands“ führen zuverlässiger und effizienter zum Erfolg, als Versuche, eine bewährte Lösung gänzlich aufzugeben und durch eine Neuentwicklung komplett zu ersetzen. Daher sind unternehmenskritische Legacy-Anwendungen als integraler Bestandteil einer digitalen Architektur zu behandeln – auch wenn sie aus der Prädigital-Ära stammen und im Unterschied zu den agilen digitalen Prozessen eher in einem stabilen „Mode“ verwaltet werden. Die Einbindung dieser Legacy-Anwendungen ist zugleich ein weiterer Beleg dafür, dass der Entwurf einer Anwendungs- und Technologiearchitektur nun in den Händen des Unternehmens liegt und nicht mehr automatisch mit einer Anwendung von der Stange erworben wird. Und eine digitale Unternehmensplattform wie die Digital Business Platform der Software AG, mit der sich digitale Architekturentwürfe umsetzen lassen, ist beispielsweise von Hause aus für einen solchen bimodalen Einsatz ausgelegt. Anwendungsfall: IoT-Architektur PLATTFORM FÜR IOT-ARCHITEKTUR Smart Logistics Predictive Maintenance IoT Platform Services IoT Modeling & Portfolio Management Smart Production Connected Customer Backend Systems ERP IoT Analytics IoT Integration + Security IoT Solutions & Applications Partners CRM IoT Hub … Batch Analytics Machine Learning Edge Services Device Agents Edge Analytics Storage Connected People & Things © 2016 Software AG. All rights reserved. For internal use only Abbildung 9: Plattform für IoT-Architektur Das IoT ist heute ohne Zweifel der wichtigste Anwendungsfall für eine Streaming-Analytics-Plattform. Auf der Grundlage der Streaming-Analytics-Plattform werden IoT-Anwendungen entwickelt. Mit IoT-Anwendungen werden Daten von physischen Endpunkten wie Maschinen, Autos, Motorrädern usw. gesammelt, in Echtzeit analysiert und anschließend für weitere Analysen gespeichert. Ziel hierbei ist es, die Verfügbarkeit, den Auslastungsgrad und die Nutzungsdauer physischer Assets und damit die Wirtschaftlichkeit des Unternehmens zu verbessern. Das IoT ist der Dreh- und Angelpunkt der digitalen Transformation. Dank der Möglichkeit, Daten von physischen Geräten in Echtzeit zu erfassen und auszuwerten, können Unternehmen neue digitale Dienstleistungen für ihre Kunden schaffen und die Nutzung ihrer Produkte optimieren. Außerdem können mithilfe der IoT-Daten das Design und die Funktionen von Produkten verbessert werden, was zu einer positiveren Customer-Experience führt. Vorausschauende Instandhaltung, smart Insurance und intelligente Fertigung sind typische IoT-Use-Cases. 13 Digitale Architekturen – Strategien für das Ungewisse IOTUSE-CASES Predictive Maintenance Smart Logistics Smart Insurance Smart City Connected Car Smart Home Smart Grid Connected Health Smart Manufacturing (Industrie 4.0) Smart Lighting Smart Parking Smart Retail Abbildung 10: Use-Cases im IoT-Umfeld Fazit: Mit digitalen Architekturen gut gerüstet für das Ungewisse Digitale Geschäftsmodelle und -prozesse erfordern digitale Architekturen. Nur digitale Architekturen liefern die Agilität, Flexibilität und Geschwindigkeit, die nötig sind, damit Unternehmen sich in der digitalen Welt behaupten können. Die Einrichtung einer digitalen Architektur sollte ein vorrangiges Ziel jedes Unternehmens und jeder öffentlichen Einrichtung sein. Die Zeiten, als die Architekturen von monolithischen Standardanwendungen überlagert waren, sind vorbei. Das Fundament, auf dem eine digitale Architektur aufbaut, ist eine digitale Unternehmensplattform. Digitale Unternehmensplattformen enthalten alle zentralen Funktionen und Komponenten, um digitale Architekturen zu konzipieren, zu implementieren und zu überwachen. Welche neuen Konzepte, Paradigmen und Technologien zum Aufbau, Entwurf und zur Implementierung einer digitalen Architektur zur Verfügung stehen, wird im vorliegenden White Paper beschrieben. Das White Paper soll CIOs, IT-Verantwortlichen und Unternehmens-IT-Architekten als Orientierungsgrundlage dienen und die Entscheidungsfindung unterstützen. 14 Digitale Architekturen – Strategien für das Ungewisse Schlusswort: Unternehmensmodellierung und IT-Portfolio-Management Es wurde bereits zuvor darauf hingewiesen, dass die digitale Transformation mit einer Veränderung von Geschäftsmodellen, Geschäftsprozessen, Organisationsstrukturen und Applikationslandschaften einhergeht. Diese betriebswirtschaftlichen Veränderungen sind das Salz in der Suppe. Digitale Architekturen können ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte das notwendige Maß an Differenzierung und Innovation mitbringen. Um dies sicherzustellen, müssen die geplanten betriebswirtschaftlichen Innovationen im Vorfeld mithilfe geeigneter Methoden in Modellen abgebildet und analysiert werden. Nur auf Basis solcher Modelle können verschiedene Szenarien diskutiert, analysiert und die erforderlichen Entscheidungen systematisch getroffen werden. Beispiele für solche Methoden sind Customer-Journey-Mapping, Prozess-Mapping, Business-Model-Canvas, IoT-Modeling oder CustomerExperience-Modeling. In gleicher Weise trifft dies auch auf das Management der Veränderungen im IT-Portfolio zu. Die Transformation vom gegenwärtigen Ist-Zustand zum zukünftigen Soll-Zustand wird in der Regel über eine Vielzahl von Projekten durchgeführt. Dieses Projektportfolio muss ebenfalls in Modellen abgebildet werden. Nur so ist eine kontinuierliche Fortschrittsüberwachung möglich. Das gilt in gleichem Maße für das Applikations- und Servicesportfolio. Auch hier müssen Ist- und Soll-Zustand modellhaft abgebildet werden, um den Übergangsprozess strukturiert managen zu können. Unternehmensmodellierung und IT-Portfolio-Management sind somit zwar nicht Bestandteile einer digitalen Architektur, aber Kernelemente der digitalen Transformation. Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Ziele sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern. DIGITALE ARCHITEKTUR FÜR DAS 21. JAHRHUNDERT Integration Data Processing Containers In-Memory Data Fabric Cloud Things Human Predictive Maintenance API‘s API‘s Event Store APIs Streaming Analytics APIs APIs API Gateway PaaS APIs Social Digital Events SaaS Alerts APIs Functional Services Data Storage Digital Marketing Data Services Microservices Mobile & IoT Integration API Portal Digital Sales APIs APIs Partner Agile Process Cloud Integration B2B Integration Consumers Digital Apps Enterprise Integration ERP API Access APIs Internal Data Sources Smart Logistics IoT Apps © 2016 Software AG. All rights reserved. For internal use only Abbildung 11: Digitale Architektur für das 21. Jahrhundert 15 Digitale Architekturen – Strategien für das Ungewisse ÜBER DIE SOFTWARE AG Die digitale Transformation verändert IT-Landschaften von Unternehmen: sie entwickeln sich von unflexiblen Applikationssilos hin zu modernen softwarebasierten IT-Plattformen. Nur diese schaffen die Offenheit, Schnelligkeit und Agilität, die für das digitale Echtzeit-Unternehmen unabdingbar sind. Die Software AG bietet die erste Digital Business Platform für durchgängige Prozesse auf Basis offener Standards mit den Kernkomponenten Integration, Prozessmanagement, In-Memory-Datentechnologie, flexible Anwendungsentwicklung, Echtzeit-Analyse und IT-Architektur-Management. Dank dieser modularen Plattform können Anwender ihre Applikationssysteme von morgen entwickeln, um heute ihre digitale Zukunft zu gestalten. Seit über 45 Jahren steht die Software AG für Innovationen, die sich an den Bedürfnissen ihrer Kunden ausrichten. Weitere Informationen erhalten Sie unter www.SoftwareAG.com. © 2017 Software AG. Alle Rechte vorbehalten. Software AG und alle Produkte von Software AG sind Marken oder eingetragene Marken von Software AG. Andere Produkt- und Unternehmensnamen können Marken der jeweiligen Markeninhaber sein. SAG_Digitale_Architekturen_16PG_WP_G_Jan17
© Copyright 2024 ExpyDoc