Das Management der Daten nimmt in Unternehmen einen hohen Stellenwert ein. Ein zeitgemäßes Datenmanagement ist wesentlich, um sich einerseits rechtlich abzusichern und andererseits die Daten auch konstruktiv und wertschöpfend nutzen zu können. Im Zentrum neuer datenbasierter Business-Modelle und vernetzter Produkte stehen Daten. Als Bindeglied zwischen Unternehmen und ihren Kunden spiegeln Daten einerseits nahezu die gesamten Wirtschafts- und Kundenbeziehungen wider und bilden andererseits den Ausgangspunkt für daraus resultierende neue digitale Lösungen. Daten sind letztlich so etwas wie das Schmiermittel der digitalen Transformation. Sie „beflügeln“ Geschäftsmodelle und ermöglichen eine gezielte Ansprache von Kunden.
Data-Analytics- und BI-Lösungen der Zukunft müssen die Analyse von digitalen Prozessen und digitalen Geschäftsmodellen unterstützen. Ein ganz zentraler Aspekt ist dabei die Anbindung an bzw. die Datenintegration in die operativen Systeme. Dafür ist eine analytische Architektur erforderlich. Sie verbindet das Frontend, beispielsweise Sensoren, mit dem Backend, der Datenaufbereitung, und den verschiedenen analytischen Anwendungen, um entweder Verantwortlichen Handlungsempfehlungen zu geben oder um in einem regelbasierten Kreislauf eigenständig Maßnahmen zur Verbesserung der Abläufe am Frontend vorzunehmen.
Künstliche Intelligenz (KI) besteht aus neuesten Technologien, durch die Maschinen wahrnehmen, verstehen, handeln und lernen können. KI wird in den nächsten Jahren wesentliche Innovationen hervorbringen: Zum Beispiel beim autonomen Auto, im E-Commerce mit Chatbots oder in Sachen Business Intelligence, Kundenverhaltensanalyse und in der medizinischen Forschung.
Künstliche Intelligenz wird aber die menschliche Arbeitskraft nicht ersetzen, sondern Lernbereitschaft und Fähigkeiten zur Übernahme neuer Rollen einfordern. Nichts wird jemals die Bedeutung menschlicher Kreativität, Empathie und Innovation ersetzen. Aber Tools und Plattformen für Machine Learning und KI werden immer einfacher nutzbar und greifen dadurch auch immer tiefer in Prozesse ein. Cloud-Ressourcen werden dabei für das Training dieser Algorithmen immer bedeutsamer. Beide Technologien erlangen somit einen großen Einfluss auf die Zukunft von Arbeit und Sicherheit.
Der Einsatz von Künstlicher Intelligenz hebt die Prozessqualität und -effizienz auch in Versicherungen auf eine neue Ebene. Dabei muss die Einführung von KI nicht gleich unternehmensweit erfolgen – die KI-gestützte Optimierung kann schrittweise erfolgen, Prozess für Prozess.
Entsprechende Plattformen (wie etwa Azure) bieten bereits umfassende KI-Dienste, die genutzt werden können. Beispiele sind:
- Spracherkennung: Die Spracherkennung – sogenannte Speech-Dienste (auch als Sprache-zu-Text bezeichnet) – ermöglicht die Echtzeittranskription von Audiostreams in Text.
- Sprachübersetzung: Die Sprachübersetzung ermöglicht eine Übersetzung von Audiostreams in Sprache oder Text in Echtzeit.
- Algorithmen zur Sprecherüberprüfung und Sprecheridentifikation bereitstellen.
- Textanalyse: Die Textanalyse-API ist ein cloudbasierter Dienst für die erweiterte Verarbeitung der natürlichen Sprache aus unformatiertem Text.
- Text-zu-Sprache: Text-zu-Sprache ist ein Cloud-basierter Dienst, der es Anwendungen, Tools oder Geräten ermöglicht, Text in natürliche, menschenähnliche, synthetisierte Sprache zu konvertieren.
- Gesichtserkennung: Eine Gesichtserkennungs-API ist ein Cloud-Dienst, über den Algorithmen zum Erkennen und Analysieren von menschlichen Gesichtern in Bildern bereitgestellt werden.
Das Erkennen von gesprochener Sprache oder das Kategorisieren von Bildern war bislang dem Menschen vorbehalten. Andererseits bieten sich gewaltige Chancen, etwa wenn in der Medizin 3D-Aufnahmen eines Tumors bis ins letzte Detail analysiert und so Auffälligkeiten frühzeitig entdeckt werden können.
Die Top-Ziele von KI sind höhere Effizienz, optimierter Personaleinsatz, Umsatzsteigerung und mehr Analytics für eine bessere Kundenansprache.
Beachten Sie
Das Hauptziel der Digitalisierung/Automatisierung von Prozessen besteht darin, die Prozesse in ihrer Effizienz/Wertschöpfung zu steigern. Voraussetzung für eine Automatisierung/Digitalisierung ist eine Prozessidentifikation bzw. Prozessoptimierung. Das grundsätzliche Schnittmuster, resultierend aus Prozessmodell und Prozesskatalog, ist bis zur Hauptprozessebene vorgegeben.
Lösungsentwicklung und Systemeinführung
Im Zentrum stehen heute in der Unternehmenspraxis vielfach digitalisierte Prozesse, die unterschiedliche Digitalisierungsoptionen bzw. Digitalisierungsgrade aufweisen können: digitale Daten, Vernetzung/Integration bzw. IT-System-Unterstützung (Workflow, RPA, KI u. a.). Dabei ist die Digitalisierung von Geschäftsprozessen – wie zuvor dargestellt - als eine von mehreren Lösungsmöglichkeiten zu verstehen, durch die Geschäftsprozesse optimiert werden können.
Ausgehend von den entwickelten Prozessentwürfen sowie den dabei vorgeschlagenen digitalen Unterstützungsoptionen kann die Lösungsentwicklung in Angriff genommen werden sowie die Systemeinführung (der digital change) vorbereitet werden.
Lösungsentwicklung
Autor: Ernst Tiemeyer ist seit mehr als 30 Jahren in leitenden Projektfunktionen sowie als Business-IT-Consultant und im Managementtraining tätig. Schwerpunktmäßig (Beratung, Forschung, Lehre, Publikationen) befasst er sich in der Praxis aktuell mit strategischem IT-Management, Enterprise-Architekturmanagement, IT-Projektmanagement, Enterprise IT-Governance, Enterprise Data Management (EDM), Business Process Management (BPM) sowie der digitalen Transformation von ausgewählten Unternehmensbereichen.
Das Applikation Development befindet sich im Wandel. Bis 2025 werden mehr als 60 Prozent der Anwendungsentwicklungen Platform as a Service (PaaS) nutzen sowie Microservices und Cloud-Funktionen beinhalten. Als Schlüsselelemente der Anwendungsentwicklung werden dabei gesehen (vgl. auch IDC InfoBrief):
- Beschleunigung der Entwicklungszyklen und Steigerung der Produktivität der Entwickler. Da Geschwindigkeit in der digitalen Welt von entscheidender Bedeutung ist, gilt es auch bezüglich der Applikations-Entwicklungen nach entsprechenden Optionen zu suchen. Umständliche Entwicklungsmethoden bedürfen der Überprüfung bzw. einer Veränderung durch Maßnahmen, die die Markteinführungszeit verkürzen und die Produktivität der Entwickler erhöhen.
- KI-gestützte Entwicklung: Mittels KI lässt sich vielfach die Geschwindigkeit der Anwendungsbereitstellung verbessern und gleichzeitig die Wettbewerbsfähigkeit eines Unternehmens steigern.
DevOps (Dev für Development; Ops für Operations) kann dabei als der methodische Ansatz und das Tool gesehen werden, das die agile Entwicklung und den Betrieb von Digitalisierungslösungen intelligent miteinander verzahnt. Wesentliche Voraussetzung für ein Gelingen: die Organisation einer effizienten und vertrauensvollen Zusammenarbeit von Entwicklern, Test-Engineers sowie System-Administratoren. Darüber hinaus wird angestrebt, eine Automatisierung der integrierten Prozesse zu realisieren sowie ein Live-Monitoring der Prozessqualität zu ermöglichen.
Mittels API (für Application Programming Interfaces) stehen standardisierte Programmierschnittstellen bereit. Sie ermöglichen es Entwicklern von Digitalisierungslösungen, ihre Lösungen unter Nutzung der von anderen Organisationen bereitgestellten Anwendungen (Apps) und Daten zu verbinden. So lassen sich damit Daten austauschen und gegebenenfalls ganze Services abrufen. Ein Beispiel dafür sind zahlreiche disruptive Geschäftsmodelle insbesondere auch im Fintech-Bereich.
Erfolgsmessung der Systemeinführung
Mittels Digitalisierung der Prozesse lassen sich die Prozessziele noch besser erreichen, wobei der größte Mehrwert natürlich bei einer durchgängigen Digitalisierung und Automatisierung von Geschäftsprozessen geschaffen wird: etwa die Steigerung der Qualität und Produktivität sowie die Ausrichtung auf die Wünsche und Anforderungen der Kunden.
Bei einer projektmäßigen Umsetzung der Prozessdigitalisierung spielen neue Formen und Potenziale der Vernetzung sowie des Enterprise Data Management (Big Data, Data Fabric, Data Analytics) vielfach eine entscheidende Rolle. Eine grobe Bestandsaufnahme der Prozesslandschaft ist für Digitalisierungsprojekte eine erste wesentliche Orientierung (insbesondere für die obere Managementebene).
Für die Optimierung bzw. Automatisierung von Geschäftsprozessen sowie für konkrete Umsetzungen (etwa die für das digitale Design der Arbeits- und Geschäftsprozesse) sind jedoch modellhafte detaillierte Darstellungen (i. d. R. in BPMN) und genauere Daten unverzichtbar. Die genauere Dokumentation eines Geschäftsprozesses erfolgt heute in Form von modellhaften Darstellungen; die insbesondere durch grafische Formen einen übersichtlichen Zusammenhang der Elemente eines Geschäftsprozesses widerspiegeln. Wichtig ist in jedem Fall, die vorhandenen Geschäftsprozesse einer permanenten Analyse zu unterziehen und daraufhin Optimierungsmöglichkeiten (etwa im Hinblick auf Digitalisierung) zu prüfen.
Neben der Erfassung der zeitlich logischen Prozessanordnung können verschiedene Daten zu den einzelnen Arbeitsschritten erfasst werden, um daraufhin gezielte Auswertungen und Optimierungen vorzunehmen. Beispiele solcher klassischen prozessualen Dimensionen sind: Zeiten (Durchlaufzeit, Bearbeitungszeit, Transportzeit, Liegezeit), Mengen (Anzahl Schnittstellen, Bearbeitungsstufen, Anzahl beteiligter Mitarbeiter), Kosten (Prozesskosten, Ressourcen, Deckungsbeitrag etc.) und Risiken (Risikoarten, Risikobewertung, etc.).
Eine wichtige Veränderung ergibt sich für datengetriebene Prozesse mit einer geplanten Umstellung und Einführung des Data Mesh-Konzeptes. Dieses ist durch folgende Merkmale gekennzeichnet:
- Data Ownership in den Fachbereichen: Das Dateneigentum wird auf die jeweiligen Geschäftsdomänen verlagert und von diesen gesteuert. Dadurch lässt sich die Abhängigkeit von zentralisierten Datenteams (häufig einschließlich Dateningenieuren und Datenwissenschaftlern) in gewisser Weise verringern.
- Daten als Produkt (Data as a product): Datenprodukte (z. B. BI-Dashboards, ESG-Reports) enthalten die jeweils benötigten Daten in aktueller Form und sind häufig auf eine Domäne bezogen. Diese Datenprodukte werden unmittelbar an den definierten Datenverbraucher (Data Consumer) geliefert. Voraussetzung ist, dass entsprechende Berechtigungen und Rollen definiert sind.
- durch neue Ebenen der Abstraktion und Automatisierung – entwickelt, um relevante Daten funktionsübergreifend und bei Bedarf zu teilen
- Verteilte Data Governance, bei der jede Domäne ihre eigenen Datenprodukte steuert, aber auf die zentrale Steuerung von Datenmodellierung, Sicherheitsrichtlinien und Compliance angewiesen ist
Typischerweise sind die spezifischen Datenbedürfnisse den Fach- und Führungskräften aus einem bestimmten Unternehmensbereich am besten bekannt (mehr als jedem Datenexperten). Probleme können sich vor allem dann ergeben, wenn der Business- bzw. Fachbereich in jedem Anwendungsfall ohne Hilfe von Data Engineers, Data Stewards oder Data Scientist, die nicht den ausreichenden Zugang zum Business haben, die Bereitstellung der richtigen Daten organisieren muss. So gelingt es dann in der Praxis vielfach nicht, dass die gewünschten Datenprodukte für die richtigen Datenkonsumenten zur richtigen Zeit zeitnah und fehlerfrei vorliegen.
Ein besonderer Use Case von Data Mesh, der vor allem auch für Versicherer von Interesse ist, bezieht sich auf die Customer 360°-Ansicht, um die Kundenbetreuung bei der Reduzierung der durchschnittlichen Bearbeitungszeit zu unterstützen, die Lösung des ersten Kontakts zu erhöhen und die Kundenzufriedenheit zu verbessern. Eine einzige Sicht auf den Kunden kann auch vom Marketing für die prädiktive Abwanderungsmodellierung oder die nächstbeste Angebotsentscheidung eingesetzt werden.
Damit Geschäftsprozesse erfolgreich automatisiert, digitalisiert sowie im Rahmen von Projekten nachhaltig implementiert werden können, ist eine funktionierende Zusammenarbeit von Fachbereichen, Prozessmanagement und IT unverzichtbar. Nur Vorgehensweisen, die einen Dialog zwischen diesen drei Bereichen ermöglichen, sind dazu geeignet, digitale Geschäftsprozesse erfolgreich zu implementieren und Mehrwert zu generieren. Methoden und Technologien zur Digitalisierung können dabei eine gemeinsame Sprache und eine leistungsfähige technologische Plattform für alle Beteiligten im Unternehmen bereitstellen.
Fazit
Das Hauptziel der Digitalisierung von Prozessen besteht darin, die Prozesse in ihrer Effizienz / Wertschöpfung zu steigern. Voraussetzung für eine Automatisierung/Digitalisierung ist eine Prozessidentifikation bzw. Prozessoptimierung. Das grundsätzliche Schnittmuster, resultierend aus Prozessmodell und Prozesskatalog, ist bis zur Hauptprozessebene vorgegeben.
Literaturhinweise
- Appelfeller, W.; Feldmann, C.: Die digitale Transformation des Unternehmens. Systematischer Leitfaden mit zehn Elementen zur Strukturierung und Reifegradmessung, Springer Gabler. Wiesbaden 2018.
- Beenken, M.; Knörrer, D.; Moormann, J. ; Schmidt, D. (Hrsg.): Digital Insurance. Strategien, Geschäftsmodelle, Daten. Frankfurt School Verlag, Frankfurt 2018.
- Czarnecki, Christian, Auth, Gunnar: Prozessdigitalisierung durch Robotic Process Automation, in: Barton, Thomas, Müller, Christian, Seel, Christian (Hrsg.), Digitalisierung in Unternehmen – Von theoretischen Ansätzen zur praktischen Umsetzung, 2018, S. 113-132
- Smeets, Mario, Erhard, Ralph, Kaußler, Thomas: Robotic Process Automation (RPA) in der Finanzwirtschaft – Technologie – Implementierung – Erfolgsfaktoren für Entscheider und Anwender, Wiesbaden: Springer Fachmedien Wiesbaden GmbH, 2019
- Tiemeyer, Ernst (Hrsg.): Handbuch IT-Management: Vorgehensmodelle, Managementinstrumente, Good Practices. Hanser-Verlag. München 2020.
- Tiemeyer, Ernst: Enterprise IT-Governance. Carl Hanser Verlag, München 2023.