thema datamanagement door Johan van de Weerdt en Walter van der Vos SOLVENCY II, EEN KOSTENPOST OF EEN ZEGEN? Een bekend verschijnsel bij verzekeraars zijn de projecten voor het voldoen aan de Solvency II-richtlijnen. Deze projecten leggen een groot beslag op het veranderbudget, maar hebben ook impact op de beschikbaarheid van de medewerkers. Naast Solvency II zijn er ook andere nieuwe wettelijke eisen die capaciteit vragen waardoor er minder tijd is voor het reguliere werk. Hebben we alleen maar last van de wettelijke eisen of kunnen we er ook ons voordeel mee doen? J. van de Weerdt (boven) werkt als Managing Consultant voor Capgemini op het gebied van Business Architectuur. Specifieke aandachtsgebieden zijn Finance & Risk en datatransformatie en migratie. W. van der Vos werkt als Managing Consultant voor Capgemini op het gebied van Verzekeren en Pensioenen. Specifieke aandachtsgebieden zijn Finance & Risk, Business Information Management en Business requirements. Wanneer er breder naar de Solvency IIregelgeving wordt gekeken dan sec compliancy, dan zijn er ruimschoots strategische voordelen te behalen. Deze voordelen lopen via inzicht in de risico’s, producten en klantprofielen naar een verbeterde algehele bedrijfsvoering en betere dienstverlening aan de klant. Hierdoor wordt de financiële positie versterkt en kan de verzekerde tegelijkertijd genieten van optimale dienstverlening. Dit leidt tot hersteld vertrouwen van de consumenten in de verzekeraar, die daardoor haar concurrentiepositie ziet verbeteren. De verzekeraar die er in slaagt haar informatievoorziening te optimaliseren en de verworven kennis geïntegreerd toe te passen binnen haar organisatie, haalt het maximale voordeel uit de implementatie van de nieuwe Solvency II-regelgeving. De vereiste aanpassingen kunnen het bedrijf sterker maken en ervoor zorgen dat het flexibeler reageert op toekomstige eisen. In dit artikel bespreken we hoe de meerwaarde van een hogere datakwaliteit, inzicht in de rapportageketen en de beschikbaarheid van centrale data de organisatie wendbaar maakt. Het verbeterde inzicht en beschikbaarheid van de gestructureerde gegevens zijn zogezegd een zegen voor de activiteiten van het actuariaat. 28 de actuaris mei 2014 Hogere datakwaliteit De kwaliteit van de aangeleverde data is niet altijd zodanig dat deze data direct in het rapportageproces gebruikt kunnen worden. Op de verslagleggingsafdeling wordt de aangeleverde informatie eerst gecontroleerd en daarna gecorrigeerd voordat men aan de werkelijke verslaglegging kan beginnen. Vanuit de Solvency IIwetgeving worden eisen gesteld aan de datakwaliteit. De interne modellen dienen ontwikkeld te worden op basis van data die ‘compleet, accuraat en geschikt’ is. Om dit te kunnen aantonen moeten de correcties op de aangeleverde gegevens worden verantwoord. Door de verslagleggingsketen als geheel te nemen en de correcties zo vroeg mogelijk in de keten, bijvoorbeeld in de bronadministratie, door te voeren, is de kwaliteit van de gehele keten beter. Als de correcties aan het begin van de keten zijn uitgevoerd, is de kwaliteit van de gegevens in de gehele keten beter en is het ook makkelijker om de compleetheid van de gegevens aan te tonen. In de verslaglegging wil je zeker zijn dat de gerapporteerde gegevens over de gehele portefeuille gaan en dat er halverwege geen informatie is verloren (of toegevoegd). Die plekken in de keten waar gegevens worden overgedragen, zijn het meest gevoelig voor fouten. Door uitgevoerde correcties of transformaties van gegevens is het vaak niet mogelijk om met een selectie van de bron aan te tonen dat de rapportage compleet is. In de rapportage wordt bijvoorbeeld gerapporteerd over jaarpremies, terwijl in de bronadministratie de termijnpremies zijn vastgelegd. In het algemeen zijn de berekeningen niet complex, maar iedere transformatie bemoeilijkt de kwaliteitscontrole van bron naar resultaat. Om deze complexiteit in de kwaliteitsrapportage te ondervangen, is een kwaliteitscontrole per gegevensoverdracht het meest efficiënt. Het is dan bij verlies van gegevens snel te achterhalen waar dit verlies ontstaat. Controle op de gegevensaanlevering Om de controles op de gegevensoverdracht goed te kunnen uitvoeren, is er over de gehele keten inzicht nodig in de gegevens die door de keten heen gaan. Welke informatie is nu werkelijk nodig voor het maken van de rapportage en waar komt deze informatie vandaan? Neem een term als 'bruto premie'. Deze term wordt op verschillende afdelingen op andere manieren thema datamanagement gebruikt. Het is dus zaak om aan te geven hoe de gewenste bruto premie is opgebouwd. Is deze premie de risicopremie inclusief kosten ook verhoogd met de commerciële ruimte? Zitten de kortingen hierin verwerkt? Zijn de termijnopslagen en aanvullende dekkingen als extra uitkering bij ongevallen of arbeidsongeschiktheidsdekkingen hierin meegenomen? Het is dus noodzakelijk om de gegevens die door de keten heen gaan zeer goed te definiëren. Door het uitwerken van leveringsovereenkomsten (ook wel data delivery agreements (DDA) genoemd) ontstaat inzicht in de partijen en systemen die betrokken zijn bij het aanleveren van gegevens. En wordt ook de definitie scherp gesteld. Hierdoor ontstaat een gecontroleerde gegevensstroom. Wij zien in de praktijk dat meerdere partijen binnen de organisatie na (gedeeltelijke) realisatie graag gebruik maken van deze gegevens. De hierboven genoemde maatregelen zorgen namelijk voor een blijvende controle op de kwaliteit van de geleverde gegevens. Voordeel centrale data Wanneer de rapportagestromen van de verschillende bronsystemen op dezelfde manier zijn gestructureerd, kunnen de gegevensstromen van verschillende bronadministraties worden gecombineerd. Bijvoorbeeld door het inrichten van een centraal datawarehouse. Een belangrijk voordeel daarvan is dat een eenduidige datadefinitie wordt afgedwongen. Daarmee ontstaat een solide basis voor het Enterprise Risk Management (ERM). ERM benadert risico’s niet per afdeling maar heeft zicht op de totale risico’s van de organisatie. Analyses vanuit één dataverzameling brengen de kennis van de portefeuilles op een hoger niveau en maken scenarioanalyse, zoals bijvoorbeeld een rente wijziging, mogelijk. Hoe minder systemen met daaraan gekoppelde dataverzamelingen worden gehanteerd, des te minder inspanning reconciliatie zal vergen. Het voert te ver om hier op alle voordelen in te gaan. Scenarioanalyse, efficiëntie bij de rapportage en de introductie van risk based pricing zijn een aantal voorbeelden bij het hanteren van een centraal datawarehouse. Solvency II schrijft geen datawarehouse voor maar om in de geest van Solvency II daadwerkelijk risicomanagement en transparantie te verhogen is het een impliciete voorwaarde. Verantwoordelijk voor de gehele rapportageketen Bronsystemen 1 0 1 0 1 0 Gegevensaanlevering Data Warehouse Actuariële en Riskmodellen Rapportage Het primaire aandachtsgebied van de actuaris is het ontwikkelen en gebruiken van financiële modellen voor het risk management. Een centraal datawarehouse kan een uniforme en gemakkelijk toegankelijke bron zijn voor deze modellen. Echter de kwaliteit van deze modellen staat of valt met de kwaliteit van de brongegevens. Daarin heeft ook de actuaris een verantwoordelijkheid die verder gaat dan het passief en achteraf controleren of de gegevens daadwerkelijk voldoen aan de gevraagde kwaliteit. Hij zal vooraf actief moeten bijdragen aan de juiste gegevensdefinities zodat gegevens maar op één manier interpreteerbaar zijn. Wendbare organisatie De beschikbaarheid van gestructureerde centrale data zorgt er tevens voor dat aanpassingen van bestaande rapportages, of opstellen van nieuwe rapportages op voorhand beter kunnen worden ingeschat. In een vroeg stadium is al duidelijk welk deel van de gevraagde informatie al beschikbaar is en dus niet opnieuw bij de bronadministratie hoeft te worden opgehaald, of dat de gevraagde informatie kan worden afgeleid van bestaande informatie. In het algemeen zullen nieuwe vragen hierdoor minder impact hebben op de organisatie. Het realiseren van deze gestructureerde omgeving kost (uiteraard) wel de nodige inspanning. Het is een andere werkwijze dan men gewend is. De werkwijze zal worden ervaren als minder flexibel. We moeten ons wel bedenken dat Solvency II ook een andere manier van werken van het actuariaat eist. Samengevat kunnen we vaststellen dat door het structureren van de gegevensaanlevering aan de verslagleggingsprocessen de kwaliteit van de aangeleverde gegevens beter wordt. Hierdoor heeft het actuariaat meer tijd om de gegevens te interpreteren in plaats van dat zij de gegevens moet corrigeren. Door het generiek en flexibel opzetten van de actuariële rapportageketen wordt de organisatie wendbaar en is men in staat adequaat te reageren op veranderingen in de markt. @ Reacties op dit artikel graag naar [email protected] de actuaris mei 2014 29
© Copyright 2024 ExpyDoc