Umfrage

Big-Data-Trends bei Versicherungen

Ein Artikel von red | 25.05.2022 - 16:00

Rück- und Erstversicherungsunternehmen sehen die Chance und zunehmend auch das Geschäftserfordernis im Wettbewerb, die (Rück-)Versicherbarkeit von Risiken durch den Einsatz von BDAI besser einschätzen zu können. Angesichts des voranschreitenden Klimawandels gilt dies insbesondere in Bezug auf die Einschätzung von Naturgefahrenrisiken. Zudem kann der Einsatz von BDAI die (Rück-)Versicherungsunternehmen dabei unterstützen, neue (Rück-)Versicherungsprodukte zu entwickeln bzw. bereits bestehende (Rück-)Versicherungsprodukte zu ­verbessern. Nicht zuletzt kann die ­Nutzung von BDAI zur Schaffung ­neuer Ökosysteme – insbesondere bei der Gestaltung und Ausführung der ­Schadenbearbeitung und auch im Versicherungs­vertrieb – beitragen. Der Einsatz von BDAI durch Versicherungsunternehmen bringt jedoch nicht nur neue Geschäftschancen, sondern auch Rechtsfragen der Versicherungsaufsicht mit sich: Der Vorschlag einer neuen KI-Verordnung durch die EU-Kommission vom 21. April 2021 bezweckt beispielsweise Rechtsharmonisierung und Rechtssicherheit und teilt AI nach ihrer Auswirkung auf Grundrechte, Sicherheit und Privatsphäre ein. Wir haben nachgefragt, wo Versicherer das größte Potenzial von Big Data sehen. 

Debeka_Dr. Norman Riegel.jpg

Dr. Norman Riegel, Abteilungsleiter Business Analytics, Debeka ­Krankenversicherungsverein

Cloud und hybride Ansätze könnten relevanter werden

Als Grundlage für die Umsetzung von Analytics-Anwendungen müssen die notwendigen Daten in ausreichender Menge und Qualität zum richtigen Zeitpunkt verfügbar sein. Um dies zu gewährleisten, liegt der Fokus im Aufbau einer nachhaltigen Datenarchitektur, die eine Verteilung und Nutzung von Daten insbesondere unter den Gesichtspunkten von Data Governance und Datenschutz regelt. Bei der Verarbeitung von großen Datenmengen nehmen Metadatenmanagement und Datenverantwortlichkeiten hierbei eine zentrale Rolle ein. Zur Etablierung von Big-Data-Produkten ist darüber hinaus eine Einbindung in die bestehenden Unternehmens­prozesse notwendig.

Aufgrund der Herausforderungen bei der Handhabung von großen Datenmengen werden klassische Ansätze zukünftig nicht mehr ausreichen, weshalb das Thema Cloud oder gegebenenfalls hybride Lösungen immer relevanter werden. Als notwendigen ersten Schritt gilt es die genannten Rahmenbedingungen und Grundlagen zu schaffen. Festzuhalten ist, dass die Geschäftsmodelle eines Versicherers auf Daten und Informationen beruhen. Dies unterstreicht noch einmal die Relevanz von Big Data in der Branche, welche für die Produktentwicklung sowie zur Prozessoptimierung genutzt werden können, um die Zufriedenheit unserer Kunden und Mitglieder weiter zu steigern. 

Roman_Kolbe_2022.jpg

Roman Kolbe, Stabsabteilungs­leiter „Artificial Intelligence & Data Development” Provinzial

Künstliche Intelligenz und Big Data als Schlüsselfaktoren

Im Provinzial Konzern beschäftigen wir uns bereits seit einiger Zeit mit der Anwendung von KI und Big Data – auch in Verbindung mit Geoinformationssystemen. Als regionaler Marktführer in der Gebäudeversicherung werden unsere Vertriebspartner im Angebots- und Antragsprozess mit 3D-Gebäudedaten sowie mittels Bildverarbeitungs-KI „veredelten“ Informationen unterstützt. Diese Lösung setzen wir sowohl im Privat- als auch im Firmenkundenbereich ein.

Hohe Skalierungspotenziale sehen wir auch im Input-Management. Von der automatischen und fallabschließenden Verarbeitung von Formularen und Dokumenten profitieren sämtliche Fachbereiche – und natürlich auch unsere Kunden. 

In der Kundeninteraktion werden KI-Modelle ebenfalls immer wichtiger. Modelle zur Prognose des Kundenverhaltens und zur Berechnung von Produkt-Kaufwahrscheinlichkeiten werden heute bereits im Kampagnenmanagement und im Marketing eingesetzt und sollen zukünftig auch „live“ in einem CRM-System integriert werden.

Lothar Engelke_CTO_Swiss Life Deutschland.jpg

Lothar Engelke, Chief Technology Officer (CTO) bei Swiss Life Deutschland

Angereicherte Daten können neue Services generieren

Bei Swiss Life ist die Datenqualität entscheidend für eine optimale ­Datenstrategie. Die beste Datenstrategie wird nicht zum Erfolg führen, wenn die entsprechenden Daten nicht in der notwendigen Qualität, Aktualität und Granularität zur Verfügung stehen. Die Nutzung von Cloud-Technologien und -Services wird sich weiter durchsetzen und in den kommenden Jahren noch wichtiger werden. Neben der stets verfügbaren Skalierbarkeit ist der zukünftige Einsatz von KI, BI oder anderen Big-Data-Lösungen ein entscheidender Treiber.

Ein weiterer Trend zielt darauf ab, neue Service- und Vertriebsmöglichkeiten zu generieren, zum Beispiel durch angereicherte Daten. Beispielsweise standortbezogene Wetterdaten, um die Kundschaft früh­zeitig auf Versicherungslücken bei möglichen Naturkatastrophen hinzuweisen. Auch für unsere Biometrieprodukte haben wir den Anspruch, immer auf dem neuesten Stand der Medizin zu sein und aus den verfügbaren Daten die richtigen Erkenntnisse abzuleiten, um einen verbesserten Versicherungsschutz anzubieten.

MarcoMüller_2s.jpg

Marco Müller, Leiter Data Science and AI, Versicherungsforen Leipzig

Die Big Data-Trendprognosen ­eines Thinktanks

Explainable AI 
Die Akzeptanz von AI wird durch deren Erklärbarkeit und Interpretierbarkeit erhöht. „Blackboxen“ müssen verständlich werden und schon beim Design wird direkt auf Interpretierbarkeit geachtet. Erst nachvollziehbare Entscheidungen schaffen Vertrauen in AI-Systeme und sind eine Voraussetzung für die Durchdringung in alle Unternehmensbereiche. 

Data Driven Organisation 
Die Entscheidungen werden auf ­Daten begründet, Innovationen werden datenzentriert entwickelt und das Datenverständnis gehört zur Unternehmenskultur. Angefangen vom Aufbau von Datalabs und Data Dictionaries bis hin zur Implementierung in die Fachbereiche und deren Industrialisierung von kompletten Use Cases. Die Datenquellen werden vielfältiger (Open Data, IoT, ­Telematik, etc.). 

Cloud 
Richtig eingesetzt erlauben Cloud Computing und Virtualisierung neue Paradigmen und haben zu einer ­Abkehr von für einen vorab definierten Zweck optimierten Datenbanken geführt. Die quasi unbeschränkten Rechen- und Speicherkapazitäten erlauben freies Experimentieren, gehen jedoch auch einher mit teils sehr ineffizienter Ressourcennutzung.