L’importanza della data quality e delle soluzioni analitiche a supporto dei processi di modellazione, ratemaking e reporting. Il caso Zurich

Le polizze stanno diventando una commodity e spesso la scelta dell’assicurato è guidata esclusivamente dal prezzo. Una tariffazione accurata rappresenta pertanto un fattore strategico di successo. Il punto critico è individuare e analizzare correttamente le molteplici variabili di rischio che concorrono a determinare il premio, attraverso modelli di calcolo predittivo. Sentiamo Anna Papola, Head of Pricing and Analytics di Zurich Italia.

Quali sono le esigenze del settore Insurance in termini di tariffazione?

Il settore Insurance è in rapida trasformazione. Negli anni, il portafoglio di Zurich si è esteso dalle polizze Auto a prodotti che coprono più aree assicurative, aumentando la complessità di gestione. Il processo di tariffazione presuppone un’analisi accurata delle variabili di rischio rispetto all’oggetto del contratto, al fine di stimare la frequenza dei sinistri e l’entità economica dei danni, in funzione predittiva. Da qui, si calcola l’ammontare del premio. I parametri da prendere in considerazione sono moltissimi e soggetti a vincoli normativi, per cui la capacità di organizzare le informazioni e la data quality sono requisiti imprescindibili per un corretto ratemaking.

Quali dati e criteri sono considerati nel determinare i premi assicurativi?

I dati provengono dallo storico del portafoglio prodotti e clienti di Zurich, con l’aggiunta di alcuni database di terze parti. Da qualche anno è stata attivata un’offerta telematica, che è diventata fonte di nuove e preziose informazioni; stiamo lavorando anche in questa area per raggiungere un più alto livello di sofisticazione nella raccolta e analisi dei dati allo scopo di definire con maggiore precisione e dettaglio il rischio. Ci stiamo attivando anche sul fronte Big Data per includere nel processo analitico i canali web e social, ma siamo ancora a una fase embrionale: il futuro spinge sicuramente in questa direzione e ci stiamo attrezzando. L’integrazione e la gestione dell’immensa mole di dati destrutturati provenienti dalle fonti online, infatti, implica l’adozione di tecnologie adeguate allo scopo.

Come si costruisce un processo di data management efficiente?

I dati arrivano in forma disaggregata e bisogna essere in grado di isolare le informazioni pertinenti perché diano evidenza del rischio. In questi anni è stato fatto un grande sforzo per pulire, standardizzare e organizzare l’enorme mole di dati. Prima le operazioni di data management venivano eseguite manualmente, oggi invece il processo è completamente automatizzato e presieduto da personale dedicato. Al team di data warehousing forniamo tutte le indicazioni su come devono essere forniti i dati, il livello di aggregazione, la modalità di visualizzazione.

Il processo di organizzazione è partito inizialmente con i dati relativi all’Auto, ma successivamente è stato esteso a tutti i rami elementari. Per il ruolo di comprensione delle esigenze di business e traduzione in specifiche funzionalità tecniche poi realizzate insieme al nostro IT, ci siamo affidati a Nunatac, società partner di SAS, che ci ha assistito sin dall’inizio del progetto. Attualmente disponiamo di database ordinati e divisi per prodotti, scevri da informazioni ridondanti e non pertinenti. Zurich è una società storica, con dati vecchi di anni che devono essere sempre manutenuti e aggiornati. Con il lavoro di pulizia fatto a monte del processo di elaborazione dati, rimangono più tempo e risorse da dedicare all’analisi.

Quanto conta la collaborazione IT-Business per ottimizzare il ratemaking?

Le persone preposte al data warehouse devono interfacciarsi con gli attuari per raccogliere informazioni sulle finalità delle analisi e sui desiderata. La mia divisione si occupa di sviluppare modelli di calcolo su dati che riguardano la frequenza e l’incidenza finanziaria dei sinistri, la customer retention, il tasso di conversione dei clienti a seguito della quotazione di una polizza. Sono modelli complessi e richiedono una chiara comprensione degli obiettivi da parte di chi organizza i dati, affinché le informazioni siano presentate in modo congruo agli analisti. Una buona data quality è la base per analisi efficaci. Il successo del progetto realizzato in Zurich è dovuto alla profonda sinergia tra chi si occupa di strutturazione e chi di analisi dei dati. Il mio ufficio dispone di personale IT dedicato e questo è molto importante per garantire un supporto puntuale alle attività di tariffazione.

Come si ottengono analisi predittive sempre aggiornate?

I modelli previsionali servono per stimare il numero e l’entità di sinistri futuri, così da determinare la tariffazione corretta; vengono sviluppati sulla base dello storico, ma è fondamentale che siano poi applicati ai database aggiornati perché le variabili all’interno dei portafogli sono in continuo divenire (cambiano ad esempio le caratteristiche del prodotto o più banalmente l’età anagrafica degli assicurati). Fondamentale risulta la creazione di un flusso continuo per cui l’IT prepara i dati storici su cui gene- rare modelli che vengono poi alimentati da informazioni attuali: solo così è possibile predire la situazione futura del portafoglio e intervenire sul presente.

Fonte Itasascom