Risikomodellierung mit Hadoop

Risikomodellierung ist ein weiterer wichtiger Anwendungsfall, der von Hadoop mit Energie versorgt wird. Sie werden feststellen, dass es eng an den Nachweis Verwendung Betrugsfall übereinstimmt, dass es ist eine modellbasierte Disziplin. Je mehr Daten Sie haben und desto mehr können Sie # 147-verbinde die Punkte, # 148- desto häufiger werden Ihre Ergebnisse besser Risikovorhersagemodelle ergeben.

Das allumfassende Wort Risiko kann auf eine Menge von Bedeutungen annehmen. Zum Beispiel, die Kundenbindung Vorhersage ist das Risiko eines Kunden zu einem competitor- bewegt sich das Risiko eines Kreditportfolios auf das Risiko von Default- Risiko im Gesundheitswesen betrifft erstreckt sich über die ganze Skala von Ausbruch Eindämmung der Lebensmittelsicherheit auf die Wahrscheinlichkeit von Reinfektion und mehr .

Der Finanzdienstleistungssektor (FSS) investiert jetzt stark in Hadoop-basierte Risikomodellierung. Dieser Sektor soll die Automatisierung und die Genauigkeit der Risikobewertung und Expositionsmodellierung zu erhöhen.

Hadoop bietet den Teilnehmern die Möglichkeit, die Datensätze zu erweitern, die in ihren Risikomodellen verwendet werden, um vernachlässigte Quellen umfassen (oder Quellen, die nie genutzt werden), wie E-Mail, Instant Messaging, Social Media und Interaktionen mit Kundendienstmitarbeiter unter andere Datenquellen.

Risikomodelle in FSS Pop überall auf. Sie sind für die Kundenabwanderung Prävention, Handel Manipulation Modellierung, Corporate Risk und Expositionsanalysen und vieles mehr verwendet.

Wenn ein Unternehmen eine Versicherung gegen Naturkatastrophen zu Hause gibt, ist eine Herausforderung klar zu sehen, wie viel Geld potenziell gefährdet ist. Wenn der Versicherer Geld für mögliche Auszahlungen zu reservieren fehlschlägt, wird intervenieren Regler (der Versicherer wollen nicht, dass) - wenn der Versicherer zu viel Geld in seine Reserven setzt die künftige Politik Ansprüche zu zahlen, können sie nicht dann Ihre Prämie Geld investieren und einen Gewinn (der Versicherer wollen nicht, dass entweder).

Einige Unternehmen sind # 147 blind # 148- dem Risiko sie ausgesetzt sind, weil sie nicht in der Lage gewesen, eine ausreichende Menge von katastrophalen Simulationen laufen im Zusammenhang mit der Windgeschwindigkeit oder Niederschlagsmengen zu Varianz (unter anderen Variablen), wie sie auf ihre Exposition beziehen.

Ganz einfach, diese Unternehmen haben Schwierigkeiten, Stresstests ihre Risikomodelle. Die Fähigkeit, mehr Daten zu falten - zum Beispiel Wettermuster oder der sich ständig ändernden sozioökonomischen Verteilung ihrer Kundenbasis - sie viel mehr Einsicht und Fähigkeit gibt, wenn es um den Aufbau besseren Risikomodellen kommt.

Gebäude und Stresstest-Risikomodelle, wie die gerade beschriebenen ist eine ideale Aufgabe für Hadoop. Diese Operationen sind oft rechenintensiv und, wenn Sie ein Risikomodell Gebäude sind, wahrscheinlich nicht praktikabel gegen ein Data Warehouse zu laufen, aus diesen Gründen:

  • Das Lager ist wahrscheinlich nicht für die Art von Anfragen durch das Risikomodell ausgegeben optimiert. (Hadoop wird nicht von den Datenmodellen in Data Warehouse gebunden ist.)

  • Eine große, Ad-hoc-Batch-Job wie ein sich entwickelndes Risikomodell würde Last auf das Lager hinzufügen, beeinflussen bestehende analytische Anwendungen. (Hadoop können diese Arbeitsbelastung übernehmen, das Lager für die regelmäßige Business Reporting frei.)

  • Fortgeschrittenere Risikomodelle müssen in unstrukturierten Daten, wie Rohtext zu berücksichtigen. (Hadoop kann diese Aufgabe effizient handhaben.)

Menü