Sie sind hier: Startseite - News & Publikationen - ifa informiert - 

ifa informiert

05.2019

Effiziente Tarifierung in der Schaden-/Unfallversicherung


In der Schaden-/Unfallversicherung haben sich verallgemeinerte lineare Modelle (Generalized Linear Models, GLMs) als Standardwerkzeug zur Bestimmung bedarfsgerechter Prämien auf Basis eigener Schadendaten etabliert. Typischerweise werden GLMs in einem iterativen Prozess an Vergangenheitsdaten zu Bestand und Schäden kalibriert. Der Aktuar geht hierbei üblicherweise schrittweise vor, indem er zunächst diejenigen Risikomerkmale identifiziert, für die ein statistischer Zusammenhang mit dem beobachteten Schadenbedarf vorliegt, diese dann sukzessive in die Modellgleichung aufnimmt und schließlich manuell so transformiert, dass sie den tatsächlichen Effekt auf den Schadenbedarf möglichst präzise und robust abbilden.

Bedingt durch die auftretenden Wechselwirkungen ist nach Aufnahme eines zusätzlichen Merkmals die Modellstruktur erneut zu prüfen. Die Risikomodellierung und die dafür notwendige Vorverarbeitung der Daten bilden deshalb einen iterativen Prozess, der erst nach mehreren Schleifen zu einem geeigneten GLM führt.

Ersatz durch Machine-Learning-Verfahren?

Ein viel diskutierter Vorschlag für eine stärker datengetriebene Schätzung des vertragsindividuellen Schadenbedarfs sind Machine-Learning-Verfahren. Allerdings: der verlockende Ansatz, die Risikomodellierung durch solch eine Black Box zu ersetzen, birgt Gefahren wie unentdeckte Strukturbrüche und unkontrollierbare Variabilität in der Risikoprämie über die Zeit. Vor allem aber lässt ein solches Verfahren offen, wie die Tarifmodellierung erfolgen soll. Insgesamt führt dies häufig zu erheblichen Akzeptanzproblemen.

Aus unserer Sicht können Machine-Learning-Verfahren oder andere komplexere Analysemethoden dennoch gewinnbringend zur Unterstützung der bestehenden GLM-Modellierung eingesetzt werden.

Um aber die Risikomodellierung an sich effizienter und datengetriebener zu gestalten, schlagen wir vor, mittels moderner Data-Analytics-Verfahren die GLM-Modellierung selbst zu optimieren. Dazu hat Lukas Hahn auf der DAV-Jahrestagung 2019 in Düsseldorf einen von uns implementierten White-Box-Ansatz vorgestellt.

Unser Ansatz erhält die zugrundeliegende GLM-Struktur des Risikomodells. Das GLM wird in einem ganzheitlichen Prozessschritt unter simultaner Kalibrierung aller Merkmale und unmittelbarer Berücksichtigung der Ausgleichseffekte angepasst. Rein datengetrieben werden nicht-lineare Transformationen von Merkmalen oder Binning einzelner Merkmalsausprägungen erkannt und automatisch an die beobachteten Daten angepasst. Zum Einsatz kommt hierbei eine eigens angepasste Form von sog. elastischen Netzen.

Da die Risikofaktoren des resultierenden Modells in bewährter GLM-Struktur vorliegen, ist die nahtlose Integration in den weiteren Tarifierungsprozess gegeben. Der Algorithmus automatisiert die Auswahl der Risikomerkmale und typische Vorverarbeitungsschritte, sodass deutliche Zeitgewinne erzielt werden. Er eignet sich insbesondere auch für Anwendungsfälle, in welchen noch keine komplexen Risikomodelle vorliegen oder neue Datenquellen integriert werden sollen.


Weitere Informationen:

Johannes Schupp
+49 (731) 20 644-241

Institut für Finanz- und Aktuarwissenschaften
Lise-Meitner-Str. 14
89081 Ulm

Wichtige Informationen:

ifa aktuell:
Thesen zur Zukunft der Altersvorsorge in Deutschland

Es ist unabdingbar, dass in der aktuellen Legislaturperiode wichtige Weichen für die Zukunft der Altersvorsorge in Deutschland gestellt werden. Vor diesem Hintergrund hat das Institut für Finanz- und Aktuarwissenschaften im Auftrag der Union Investment Privatfonds GmbH eine Studie erstellt, die allgemein­verständlich die zukünftigen Herausforderungen des Alters­vorsorge­systems in Deutschland sowie die Wirkungsweise möglicher Reformansätze erläutert. Hieraus leiten wir Thesen zur Zukunft der Altersvorsorge in Deutschland und zu Anforderungen an Reformen ab, die sich aus fachlicher Sicht nahezu zwingend ergeben, wenn man die Faktenlage rational betrachtet. [mehr]

ifa informiert:
Aus komplexen Daten die richtigen Schlüsse ziehen – am Beispiel geografischer Analysen

Geografische Analysen ermöglichen die intuitive Visualisierung eines Versicherungsbestandes. Wie sich beispielsweise die Profitabilität eines fiktiven Versicherungsbestandes auf den Ebenen Bundesland – Region – Kreis darstellt, können Sie mit unserer interaktiven Beispielkarte selbst ausprobieren. [mehr]

Neuigkeiten in Kürze:

Forschungsarbeiten zu Solvency II mit Gauss-Preis ausgezeichnet [mehr]

VAIT-Novelle verlangt angemessenen Test aktuarieller Software [mehr]

Beitragsstabilität für BU-Tarife der Alte Leipziger bestätigt [mehr]

Quantitative Analysen zu Risikominderungstechniken im Kontext des Paneuropäischen Privaten Pensionsprodukts (PEPP) [mehr]

PRIIP: Europäische Kommission veröffentlicht überarbeitete RTS [mehr]