21-5-art.deWeerdt vdVos

thema datamanagement
door Johan van de Weerdt en Walter van der Vos
SOLVENCY II, EEN KOSTENPOST OF EEN ZEGEN?
Een bekend verschijnsel bij verzekeraars zijn
de projecten voor het voldoen aan de
Solvency II-richtlijnen. Deze projecten leggen
een groot beslag op het veranderbudget,
maar hebben ook impact op de beschikbaarheid van de medewerkers. Naast Solvency II
zijn er ook andere nieuwe wettelijke eisen
die capaciteit vragen waardoor er minder tijd
is voor het reguliere werk. Hebben we alleen
maar last van de wettelijke eisen of kunnen
we er ook ons voordeel mee doen?
J. van de Weerdt (boven)
werkt als Managing
Consultant voor Capgemini
op het gebied van Business
Architectuur. Specifieke
aandachtsgebieden zijn
Finance & Risk en
datatransformatie en
migratie.
W. van der Vos werkt als
Managing Consultant voor
Capgemini op het gebied
van Verzekeren en
Pensioenen. Specifieke
aandachtsgebieden zijn
Finance & Risk, Business
Information Management en
Business requirements.
Wanneer er breder naar de Solvency IIregelgeving wordt gekeken dan sec
compliancy, dan zijn er ruimschoots
strategische voordelen te behalen. Deze
voordelen lopen via inzicht in de risico’s,
producten en klantprofielen naar een
verbeterde algehele bedrijfsvoering en betere
dienstverlening aan de klant. Hierdoor wordt
de financiële positie versterkt en kan de
verzekerde tegelijkertijd genieten van
optimale dienstverlening. Dit leidt tot
hersteld vertrouwen van de consumenten in
de verzekeraar, die daardoor haar
concurrentiepositie ziet verbeteren.
De verzekeraar die er in slaagt haar
informatievoorziening te optimaliseren en de
verworven kennis geïntegreerd toe te passen
binnen haar organisatie, haalt het maximale
voordeel uit de implementatie van de nieuwe
Solvency II-regelgeving. De vereiste aanpassingen kunnen het bedrijf sterker maken
en ervoor zorgen dat het flexibeler reageert
op toekomstige eisen.
In dit artikel bespreken we hoe de meerwaarde van een hogere datakwaliteit, inzicht
in de rapportageketen en de beschikbaarheid
van centrale data de organisatie wendbaar
maakt. Het verbeterde inzicht en beschikbaarheid van de gestructureerde gegevens
zijn zogezegd een zegen voor de activiteiten
van het actuariaat.
28 de actuaris mei 2014
Hogere datakwaliteit
De kwaliteit van de aangeleverde data is niet altijd
zodanig dat deze data direct in het rapportageproces
gebruikt kunnen worden. Op de verslagleggingsafdeling
wordt de aangeleverde informatie eerst gecontroleerd
en daarna gecorrigeerd voordat men aan de werkelijke
verslaglegging kan beginnen. Vanuit de Solvency IIwetgeving worden eisen gesteld aan de datakwaliteit.
De interne modellen dienen ontwikkeld te worden op
basis van data die ‘compleet, accuraat en geschikt’ is.
Om dit te kunnen aantonen moeten de correcties op de
aangeleverde gegevens worden verantwoord. Door de
verslagleggingsketen als geheel te nemen en de
correcties zo vroeg mogelijk in de keten, bijvoorbeeld in
de bronadministratie, door te voeren, is de kwaliteit
van de gehele keten beter.
Als de correcties aan het begin van de keten zijn
uitgevoerd, is de kwaliteit van de gegevens in de
gehele keten beter en is het ook makkelijker om de
compleetheid van de gegevens aan te tonen. In de
verslaglegging wil je zeker zijn dat de gerapporteerde
gegevens over de gehele portefeuille gaan en dat er
halverwege geen informatie is verloren (of toegevoegd).
Die plekken in de keten waar gegevens worden
overgedragen, zijn het meest gevoelig voor fouten.
Door uitgevoerde correcties of transformaties van
gegevens is het vaak niet mogelijk om met een selectie
van de bron aan te tonen dat de rapportage compleet
is. In de rapportage wordt bijvoorbeeld gerapporteerd
over jaarpremies, terwijl in de bronadministratie de
termijnpremies zijn vastgelegd. In het algemeen zijn de
berekeningen niet complex, maar iedere transformatie
bemoeilijkt de kwaliteitscontrole van bron naar
resultaat. Om deze complexiteit in de
kwaliteitsrapportage te ondervangen, is een
kwaliteitscontrole per gegevensoverdracht het meest
efficiënt. Het is dan bij verlies van gegevens snel te
achterhalen waar dit verlies ontstaat.
Controle op de gegevensaanlevering
Om de controles op de gegevensoverdracht goed te
kunnen uitvoeren, is er over de gehele keten inzicht
nodig in de gegevens die door de keten heen gaan.
Welke informatie is nu werkelijk nodig voor het maken
van de rapportage en waar komt deze informatie
vandaan? Neem een term als 'bruto premie'. Deze term
wordt op verschillende afdelingen op andere manieren
thema datamanagement
gebruikt. Het is dus zaak om aan te geven hoe de
gewenste bruto premie is opgebouwd. Is deze premie
de risicopremie inclusief kosten ook verhoogd met de
commerciële ruimte? Zitten de kortingen hierin
verwerkt? Zijn de termijnopslagen en aanvullende
dekkingen als extra uitkering bij ongevallen of
arbeidsongeschiktheidsdekkingen hierin meegenomen?
Het is dus noodzakelijk om de gegevens die door de
keten heen gaan zeer goed te definiëren.
Door het uitwerken van leveringsovereenkomsten (ook
wel data delivery agreements (DDA) genoemd) ontstaat
inzicht in de partijen en systemen die betrokken zijn bij
het aanleveren van gegevens. En wordt ook de definitie
scherp gesteld.
Hierdoor ontstaat een gecontroleerde gegevensstroom.
Wij zien in de praktijk dat meerdere partijen binnen de
organisatie na (gedeeltelijke) realisatie graag gebruik
maken van deze gegevens. De hierboven genoemde
maatregelen zorgen namelijk voor een blijvende
controle op de kwaliteit van de geleverde gegevens.
Voordeel centrale data
Wanneer de rapportagestromen van de verschillende
bronsystemen op dezelfde manier zijn gestructureerd,
kunnen de gegevensstromen van verschillende
bronadministraties worden gecombineerd. Bijvoorbeeld
door het inrichten van een centraal datawarehouse.
Een belangrijk voordeel daarvan is dat een eenduidige
datadefinitie wordt afgedwongen. Daarmee ontstaat
een solide basis voor het Enterprise Risk Management
(ERM). ERM benadert risico’s niet per afdeling maar
heeft zicht op de totale risico’s van de organisatie.
Analyses vanuit één dataverzameling brengen de
kennis van de portefeuilles op een hoger niveau en
maken scenarioanalyse, zoals bijvoorbeeld een rente
wijziging, mogelijk. Hoe minder systemen met daaraan
gekoppelde dataverzamelingen worden gehanteerd,
des te minder inspanning reconciliatie zal vergen. Het
voert te ver om hier op alle voordelen in te gaan.
Scenarioanalyse, efficiëntie bij de rapportage en de
introductie van risk based pricing zijn een aantal
voorbeelden bij het hanteren van een centraal
datawarehouse. Solvency II schrijft geen datawarehouse
voor maar om in de geest van Solvency II daadwerkelijk
risicomanagement en transparantie te verhogen is het
een impliciete voorwaarde.
Verantwoordelijk voor de gehele rapportageketen
Bronsystemen
1
0
1
0
1
0
Gegevensaanlevering
Data
Warehouse
Actuariële en Riskmodellen
Rapportage
Het primaire aandachtsgebied van de actuaris is het ontwikkelen en gebruiken van
financiële modellen voor het risk management. Een centraal datawarehouse kan
een uniforme en gemakkelijk toegankelijke bron zijn voor deze modellen.
Echter de kwaliteit van deze modellen staat of valt met de kwaliteit van de
brongegevens. Daarin heeft ook de actuaris een verantwoordelijkheid die verder
gaat dan het passief en achteraf controleren of de gegevens daadwerkelijk voldoen
aan de gevraagde kwaliteit. Hij zal vooraf actief moeten bijdragen aan de juiste
gegevensdefinities zodat gegevens maar op één manier interpreteerbaar zijn.
Wendbare organisatie
De beschikbaarheid van gestructureerde centrale data zorgt er tevens voor dat
aanpassingen van bestaande rapportages, of opstellen van nieuwe rapportages op
voorhand beter kunnen worden ingeschat. In een vroeg stadium is al duidelijk
welk deel van de gevraagde informatie al beschikbaar is en dus niet opnieuw bij
de bronadministratie hoeft te worden opgehaald, of dat de gevraagde informatie
kan worden afgeleid van bestaande informatie. In het algemeen zullen nieuwe
vragen hierdoor minder impact hebben op de organisatie.
Het realiseren van deze gestructureerde omgeving kost (uiteraard) wel de nodige
inspanning. Het is een andere werkwijze dan men gewend is. De werkwijze zal
worden ervaren als minder flexibel. We moeten ons wel bedenken dat Solvency II
ook een andere manier van werken van het actuariaat eist.
Samengevat kunnen we vaststellen dat door het structureren van de
gegevensaanlevering aan de verslagleggingsprocessen de kwaliteit van de
aangeleverde gegevens beter wordt. Hierdoor heeft het actuariaat meer tijd om de
gegevens te interpreteren in plaats van dat zij de gegevens moet corrigeren.
Door het generiek en flexibel opzetten van de actuariële rapportageketen wordt de
organisatie wendbaar en is men in staat adequaat te reageren op veranderingen
in de markt. @ Reacties op dit artikel graag naar [email protected]
de actuaris mei 2014
29