Wie A zegt, moet ook I zeggen
Rubriek door 23/09/2025
-
‘In highly regulated sectors like insurance, it’s not about moving fast – it’s about moving right’
Het begint onschuldig. Een slimme collega van IT downloadt een open-sourcemodel, voert wat klantdata in en – hoppa – een werkende AI-oplossing. Met een beetje vibe coding bouw je tegenwoordig in een paar avonden een tool die er gelikt uitziet. Vroeger moest je daarvoor programmeur zijn, nu schrijft een AI-copilot de code voor je. Generative-AI genereert daarbij altijd output, dus lijkt het ook echt te werken. Maar zodra die proefopstelling – vaak ongewenst – toch in een productiestraat gebruikt wordt, beland je op glad ijs. Ethisch én juridisch.
De AI-Act die op 1 augustus 2024 in werking trad, heeft namelijk een lage drempel, maar een hoge lat. Er gelden vier risicoklassen voor AI-oplossingen: verboden, hoog, beperkt en minimaal risico. De meeste AI-toepassingen in verzekeringen vallen onder hoog risico (annex III), met name als ze invloed hebben op (het leven van) klanten of op toezichthouders. Denk aan algoritmes voor acceptatie en premiebepaling, risicoprofielen op basis van gezondheid of financiën, AI bij beoordeling van adviseurs of systemen die rapporteren aan DNB of de AFM.