Wat leer je in deze aflevering?
In deze aflevering van AIToday Live staat kunstmatige intelligentie centraal. De podcast verkent de nieuwste ontwikkelingen en toepassingen van AI-technologie.
Er wordt ingegaan op de impact van AI op bedrijven en de samenleving. De discussie behandelt zowel technische aspecten als ethische vraagstukken rondom kunstmatige intelligentie.
De aflevering biedt waardevolle inzichten voor zowel beginners als gevorderden in het AI-veld.
Kernbegrippen
- AI Act
- Europese regelgeving die kunstmatige intelligentie classificeert naar risiconiveau en eisen stelt aan ontwikkeling en gebruik.
- Value alignment
- Het waarborgen dat AI-systemen handelen in overeenstemming met menselijke waarden en publieke doelen.
- Risicogebaseerde toezicht
- Toezichtsbenadering waarbij regelgeving en controle worden afgestemd op het risiconiveau van AI-toepassingen.
- Foundation models
- Grote taalmodellen die vooraf zijn getraind op grote hoeveelheden data en als basis dienen voor verschillende toepassingen.
- Transactiemonitoring
- Systeem voor het detecteren van verdachte financiële transacties, bijvoorbeeld ter bestrijding van witwassen.
Wat gasten zeiden
Je moet gewoon zorgen, in dit geval dan als publieke instelling, dat je dat kan doen. En dan is het de verantwoordelijkheid van de organisatie om te zorgen dat dat adequaat gebeurt.
De vraag is dus van wie maakt die normatieve beslissingen. En ik vind dat die verantwoordelijkheid ook zeker bij instellingen ligt die onder toezicht staan.
Transcript
In deze aflevering hoor je Frans van Brugge, toezichthouder op kunstmatige intelligentie in de financiële sector bij De Nederlandsche Bank, die uitlegt hoe het spanningsveld tussen strikte regelgeving en innovatie in de praktijk werkt bij financiële instellingen. Dus blijf luisteren! Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live. Met, nou laten we met onszelf eerst beginnen. Joop Snijder, CTO bij Aigency. En Niels Naglé, Area Lead, Data & AI bij Info Support. En in de studio Frans van Bruggen van De Nederlandsche Bank. We zijn best wel vereerd, want we hebben voor het eerst iemand van een toezichthouder in de podcast. Maar voordat we erin duiken in het hele verhaal rondom AI en toezicht, zou je je eerst even willen voorstellen. Ja, nou allereerst hartelijk dank voor de uitnodiging. Ik ben een vaste luisteraar en ik vind het altijd heel waardevol om te luisteren. Het helpt mij heel erg ook in mijn werk, dus ik ben heel blij om hier te zijn. Mijn naam is Frans van Brugge, ik werk bij de Nederlandse Bank. Daar hou ik me bezig met het toezicht op kunstmatige intelligentie in de financiële sector. Misschien goed om even te zeggen, de Nederlandse Bank is eigenlijk twee organisaties. Dus we hebben de Centrale Bank, die doet het monetaire beleid. En we hebben de toezichthouder die toezicht houdt op banken, verzekeraars, pensioenfondsen. En ik werk echt voor de centrale bank. En ik hou me ook bezig met het toezicht op de financiële sector. Dus ik hou me niet bezig met AI in de organisatie zelf. Dus ik kijk echt naar wat gebeurt er in de financiële sector. Hoe wordt AI daar ingezet? En wat zijn de risico's, maar ook de kansen van AI daar? Ja, en hoe ziet toezicht eruit concreet? Nou, toezicht kan op meerdere manieren gaan. We hebben natuurlijk sowieso dat het met documenten gaat. Dus dat er toezichtprocessen zijn waar documenten opgestuurd kunnen worden. En dat je die documenten kan analyseren. Maar het gaat ook bijvoorbeeld met gesprekken. Dat je toezichtsgesprekken hebt en dat je naar de instelling toe gaat. En over verschillende onderwerpen kan gaan praten. En dan vorm je daar als toezichthouder je oordeel over. En dan kun je eventueel een interventie doen. Dat varieert van, dat doen we dan informele interventies. Dus dan ga je gewoon het gesprek aan van joh, we vinden dat dit niet helemaal goed loopt. Maar uiteraard heb je ook een formeel instrumentarium. En dan kun je boetes opleggen of een aanwijzing opleggen of een last onder dwangsom. En dat zijn minder leuke dingen, maar het zit wel in ons instrumentarium. En wie vallen daar onder jullie toezicht? In principe bij DNB zijn het met name banken, verzekeraars en pensioenfondsen. De financiële sector is natuurlijk wel breder dan dat. Maar wij doen het toezicht op de financiële sector samen met de autoriteiten financiële markten. Wij zijn dan de prudentiële toezichthouders. Wij kijken met name naar de stabiliteit van het financiële systeem. En zorgen dat de financiële instellingen niet omvallen. Daarnaast doen we ook het toezicht op witwassen en terrorismefinanciering. En de AFM doet ook het toezicht op witwassen en terrorismefinanciering. Maar bij andere instellingen. En kijkt meer naar de consumentenbelangen. en naar de eerlijkheid en integriteit van de financiële markten. Oh ja. Hoe zit dan die samenwerking? Want je hebt nu alle onderdelen die je benoemd. Maar hoe gaan jullie de samenwerking? Hoe werkt dat? Nou, die samenwerking is eigenlijk heel erg goed. Maar ook schuurt het wel eens. Want je hebt natuurlijk apart verschillende publieke belangen die je borgt. Dus het kan wel zijn dat als een financiële instelling een bepaalde maatregel wil invoeren voor de stabiliteitszorg, dat dat nadelig kan zijn voor consumenten. Maar over het algemeen is de samenwerking echt supergoed. En ik denk dat het heel goed is dat twee toezichthouders vanuit een ander perspectief naar de financiële sector krijgen. En dan vervolgens samen elkaar gesprekken gaan. En eigenlijk komen we overal altijd uit. En er gaat alles heel erg in goed vertrouwen. En we doen ook heel veel onderzoeken samen. Dus onderzoek naar AI doen we ook heel erg samen. We hebben heel erg samen opgebouwd. En de kennis daaromtrend hebben we heel erg samen opgebouwd. Dus ik vind het hele prettige collega's. En kundigen ook. Dus ik vind dat het heel goed gaat. Mooi om te horen dat het ook verschillende perspectieven zijn. En dat het ook mag schuren. Want dat is denk ik waar de waarde zit. En de discussie goed gesteld wordt. Je had het in de introductie niet verteld. Maar volgens mij ben je ook nog met een studie. Ja, klopt. Je hebt wel heel veel raakvlakken hiermee. Ja, klopt. Ik promoveer, DNB financieert mijn promotieonderzoek. Dus ik promoveer twee dagen in de week bij de Universiteit Utrecht. En daar doe ik eigenlijk onderzoek naar hoe toezichthouders een steeds bredere rol invullen. En ook hoe ze dat doen met het toezicht op AI. Dus ja, ik promoveer echt in de toezichtswetenschap. En ik probeer daar ook te kijken van wat is nou goed toezicht? En wanneer gaat een toezichthouder te ver? Wanneer is een toezichthouder te nauw ergens opgericht? En heeft ze niet meer ogen voor de bredere taak die ze hebben? Heb je daar een voorbeeld van? Hoe moeten we dat zien? Nou, ik denk dat in het vorige decennium zijn er wel voorbeelden geweest van toezichthouders die op de vingers zijn getikt. Omdat ze eigenlijk teveel naar de letter van de wet hebben gehandeld. Een voorbeeld daarvan is in het Vira de Bakel geweest. We weten allemaal hoe dat gegaan is, maar daar zijn miljarden uitgegeven. En die treinen voldeden niet goed genoeg aan de standaarden. En daar was een toezichthouder die de treinen toetste. En die zeiden volgens de wet hebben we alle procedures zo doorlopen. Terwijl als je iets breder had gekeken, dan had je wel kunnen weten van het zit niet helemaal goed. En toen is er een parlementaire enquête geweest. En toen is de toezichthouder heel erg, in dit geval de inspectie, leefomgeving en transport, heel erg op de vingers getikt van je moet je taak wel wat breder interpreteren dan dit. Een ander voorbeeld is in de financiële crisis geweest met ISAF. ISAF is natuurlijk failliet gegaan, de IJslandse Bank. En vlak voordat ze failliet gingen, volgens mij een paar maanden daarvoor, heeft DNB nog een vergunning afgegeven dat ze in Nederland actief mochten zijn. En toen hebben ze nog heel veel geld uit de Nederlandse markt getrokken. Klopt, inderdaad. En het verweer was toen, daar is ook een parlementaire enquête na geweest, en het verweer was toen van volgens de letter van de wet voldeden ze. En toen zeiden we die vergunning moeten geven. Maar toen was ook de gedachte van breder maatschappelijk, had je al kunnen voelen aankomen dat het niet helemaal lekker ging. Ook als je keek naar het bankieren systeem van IJsland ten opzichte van de economie. Dat was ook een waterhoofd een beetje. En daar had je dan als toezichthouder je rol breder moeten pakken. Hoe zou je nu de rol breder moeten pakken op het gebied van AI dan? Ja, nou ik kijk heel erg naar value alignment. Dus een deel van mijn promotieonderzoek gaat over dat toezichthouders bepaalde publieke waarden proberen te borgen. Wat ik net al zei is van D&B, stabiliteit van het financiële systeem. En AFM, consumentenbescherming van financiële markten. AP, privacy. Dus er zijn gewoon bepaalde publieke waarden die je probeert te borgen. En wat denk ik erg belangrijk is, is dat bij AI, dus value alignment is een onderdeel van de ethische studie van artificial intelligence, Dat je eigenlijk wil dat de uitkomsten van artificial intelligence overeenkomstig zijn met het waardesysteem wat wij als mensen hebben. En ik denk daarom dat je ook als toezichthouder heel erg vanuit een waardeperspectief naar die AI moet kijken. En moet kijken van oké, hoe zijn de uitkomsten van die AI nou? Hoe verhoudt dat zich nou tot het publieke doel wat wij hebben? En de waarde die wij proberen te realiseren. Dat is best wel lastig, want van wie zijn die waarden? Ja, dat is heel lastig. Dus als je bijvoorbeeld kijkt naar de foundation models die er nu zijn. Die zijn voor een heel groot deel niet Europees. Dus we hebben Mistral die doet het goed. Maar dat is eigenlijk de enige. Voor de rest hebben we veel Amerikaanse clubs. Antropic, OpenAI, Google en de Chinezen natuurlijk, DeepSeek. En de vraag die je zelf kan stellen, is het waardesysteem die in dat model zit? Komt dat overeen met de waarden die wij in Europa, Nederland hebben? ik vind dat een hele legitieme vraag zowel over de Verenigde Staten als over China overigens en daar moeten we dus ook scherp op zijn dus ik denk dat je gewoon heel kritisch moet kijken naar hoe zijn die modellen opgebouwd wat zijn die uitkomsten van die modellen en daar wordt ook heel veel onderzoek naar gedaan en ik denk dat we daar scherp op moeten zijn en als we het gevoel hebben van dat gaat een kant op die we niet zo fijn vinden dat je ook moet kijken naar wat zijn de Europese alternatieven waar wel die Europese waarden in meegenomen zijn. Ik kan me voorstellen dat het qua toezicht best wel heel erg lastig is. Want welke waarden erin zitten, geef je al aan, dat is eigenlijk al best wel lastig om te toetsen. Wat zou een financiële instelling daarin moeten doen dan? Ja, kijk, de studie naar waarden, dat heet axiologie in de filosofie. Die discussie wordt al duizenden jaar gevoelig. Dus ik heb niet de illusie dat wij als toezichthouder dat gaan beslechten. Dus dat zal eigenlijk een soort van continue dialoog vragen over wat je keuzes zijn. En kijk, ik denk dat je gewoon heel erg moet nadenken. Iets waar ik heel erg over nadenken is van oké, moeten de beslissingen hierover, de normatieve beslissingen, de morele beslissingen, moeten die van de toezichthouder komen? Of van de instelling die onder toezicht staat? Of in dialoog. En de vraag is dus van wie maakt die normatieve beslissingen. En ik vind dat die verantwoordelijkheid ook zeker bij instellingen ligt die onder toezicht staan. Dus als jij een hoogrisicomodel draait, dan denk ik dat het heel goed is dat je in je technische documentatie iets zegt over algorithmic fairness natuurlijk. Dus de verschillende metrics die je kan gebruiken, maar ook misschien breder. Dit zijn de waarden op basis waarvan wij handelen en dit model deployen. Dus dat zou ik heel mooi vinden als dat gebeurt. En ik denk dat als ik het heb over de financiële sector, die partijen ook het best geëquipeerd zijn om dat te doen. Daar zit gewoon echt talent die dit kan. En dat je dan vervolgens daarover, dat staat in de technische documentatie, en dan gaan wij daar als toezichthouder dan het gesprek over aan. En dat lijkt mij prachtig om dat te doen. Zeker. Ja. En welke rol speelt, want je haalde hem al even aan, de AI Act hierin? Ja, de AI Act speelt natuurlijk een grote rol. Dus toezichthouders krijgen een hele grote rol in het zorgen dat die act wordt nageleefd. Dus het toezichtsregime op de AI-act wordt nationaal ingericht. Dus in Nederland wordt dat nationaal opgezet. En er zijn eigenlijk twee toezichthouders die de boel coördineren. Dat zijn de autoriteit persoonsgegevens en de Rijksinspectie Digitale Infrastructuur, de RDI. Goed is om over de AP te zeggen, je hebt natuurlijk de GDPR kant. En zij hebben een aparte directie opgericht. De directiecoördinatie algoritmes onder leiding van directeur Sven Stevenson. Die zich eigenlijk focussen op het algoritmetoezicht. Dat is een aparte tak binnen de AP. En die gaan de coördinerende rol krijgen op de AI Act. En AFM en DNB gaan het dan voor de financiële sector doen. Dat is hoe het toezichtsmeem is ingericht. En de AI Act, ik vind het mooi, omdat die risicogebaseerde benadering erin zit. Dat zorgt ervoor dat een heel groot deel van de AI-toppassingen gewoon niet gereguleerd zijn. En dat zorgt ervoor dat als je kijkt naar Agentic, als dat niet hoog risico is, dan kan dat gewoon. Dus we kunnen daar heel erg angstig over doen. Ik denk dat het onvermijdelijk is dat het gebeurt al. Dat heb ik heel erg van Niels geleerd. De nieuwe wave of automization gaat dat worden. Dus dat geeft ook heel veel mogelijkheden weer. Niet alles is hoog risico. Dus er wordt nog wat angst over gedaan. Maar kijkend naar de AI Act. Wat zijn ontwikkelingen die de komende tijd staan te spelen? Want het is nog niet allemaal van kracht. Hebben jullie nu alle zaken om de toezicht goed te kunnen doen? Of zijn er nog zaken waar we nog mogelijkheden in groei zien? Nou, dat is inderdaad lastig, omdat de definitieve aanwijzing van de toezichthouders nog niet rond is. Dus dat verwachten we eind deze zomer. Een deel van de AI Act is al in werking getreden. Dus de verboden toepassingen zijn al verboden, maar er is nog geen toezichthouder. De AI Geletterdheid-normen zijn al van toepassing. En over een jaar, in augustus 2026, gaan de high-risk toepassingen, of de requirements voor mitigerende maatregelen, in. En dan start ook het toezicht daarop. Dus we zijn nog bezig En wat vooral op dit moment nog in ontwikkeling is Is het regulatory framework En dat is gewoon van Oké, je hebt dan die hoog risico Dus bij verboden toepassing is het gewoon mag niet Dat is al simpel Maar als je kijkt naar de hoog risico toepassing Dan zijn er gewoon bepaalde dingen waar die hoog risicomodellen aan moeten voldoen Dus conformity assessment, technische documentatie Risicomanagement Datamanagement Fairness, uitlegbaarheid Human in the loop Allemaal dingen waar je aan moet voldoen. Ik verwacht dat het in eerste instantie een sterk papieren exercitie zou zijn. Dus allemaal rapportjes die je naar de toezichthouder stuurt. Ik denk dat het toezichthouder, maar dat is allemaal nog in ontwikkeling. Mijn verwachting is dat daarna als toezichthouder of meldingen krijgt. Of in de technische documentatie of in de documenten iets ziet wat ze niet vertrouwen. Dat je dan een auditachtige activiteit kan gaan doen. Maar op dit moment is Sen Sennelec, dat is de Europese standaardiseringsorganisatie. Dus de Europese NEN en ISO is de wereldwijde organisatie die dat doet. Die heeft een opdracht van de Europese Commissie gekregen om die mitigerende maatregelen te standaardiseren. En dat is een project wat aardig tijdrovend is. En dat zou voor een heel groot deel zo dat het regulatory framework gaan zijn. En dat is gewoon nog niet af. En er wordt gezegd dat dat in augustus dit jaar af is. Maar ik hoor ook weer in de wandelgangen dat dat ook weer te vroeg is. Dus het is heel waarschijnlijk dat we in een situatie gaan komen dat de toezicht gaat starten. Dat je als organisatie formeel compliant moet zijn, maar er nog geen uitgekristalliseerd regulatory framework is. En dan moeten we het gewoon een beetje samen gaan uitzoeken hoe we dat dan moeten gaan doen. En misschien zoom ik nu even heel erg op een specifiek detail in hoor. Maar de uitlegbaarheid, dat wordt altijd best wel heel snel genoemd. De generatieve AI is nu waar heel veel organisaties naar kijken. Ik neem aan ook in de financiële sector. Hoe moet ik die uitlegbaarheid zien ten opzichte van die grote taalmodellen bijvoorbeeld? Hoe kijk je daar vanuit het toezicht naar? Nou, hier zijn we nog over aan het nadenken. Maar wat ik denk is, kijk, die grote taalmodellen zijn gewoon niet uitlegbaar. Dus volgens mij, dat is misschien alweer een oudere versie van ChatGPT. Die had 1,8 miljoen parameters. Dus die zijn inherent onuitlegbaar. Zelfs als je zou weten hoe die van woord naar woord komt, is de vraag of dat een uitleg is. Ja, dus dat is wellicht een probleem. Kijk, als je zo'n model inzet in een hoog risicotoepassing, dan is er een eis dat het uitlegbaar is. En dat kan dan mogelijk tot problemen leiden. Ik ben zelf van mening dat het inzetten van die taalmodellen, dat je niet kan zeggen dat dat kan niet. Want de komende 20, 25 jaar wordt dat gewoon de volgende, wat het internet de afgelopen 25 jaar is geweest, wordt AI de komende 25 jaar. Daar spelen die taalmodellen een grote rol in. Als we gaan zeggen van ja, we gaan het niet gebruiken, dan gaan we economisch zo ver achterlopen. Dat is dus niet mogelijk. Dus ik denk dan van oké, hoe ga je daar dan mee om? Eerste punt misschien om te maken is dat als je kijkt naar de mens. De input versus output en wat daartussen zit is ook niet heel erg transparant. Dus hoe wij dat dan aanpakken is door de output van de mens te controleren. Dus daar maken we wetten voor. En als je de output van de mens iets crimineels is, dan ga je de gevangenis in. En zo zou je dat bijvoorbeeld dan ook met AI kunnen doen. Dus ik denk dat er best veel maatregelen zijn die je kan nemen buiten een intransparant model. Om die ervoor kunnen zorgen dat de schade beperkt is. Dus eigenlijk niet technische oplossingen. Ja, en technische oplossingen zouden natuurlijk nog beter zijn. Dus daar wordt ook heel veel onderzoek naar gedaan. En ik ben ook groot voorstander van dat gebeurt. Want liever dat het wel zo is. En ik denk gewoon, je moet gewoon wel heel goed nadenken. Als je het echt op kritieke momenten inzet. Dus bijvoorbeeld als je bepaalt of iemand wel of niet recht heeft op een uitkering. Dan heeft een burger gewoon een recht, een mensenrecht. Om uitleg te hebben waarom die keuze gemaakt is. En dan moet je gewoon zorgen, in dit geval dan als publieke instelling, dat je dat kan doen. En dan is het de verantwoordelijkheid van de organisatie om te zorgen dat dat adequaat gebeurt. En taalmodellen zijn niet het enige wat we in onze toolbox hebben zitten. Zeker niet. Dus er zijn hele uitlegbare machine learning modellen die daar dan eigenlijk voor gebruikt zouden kunnen worden. Ja, ik vond het heel mooi in volgens mij de vorige aflevering die jullie hadden gefocust op machine learning. Vroeger in de machine learning tijd werd over good old-fashioned AI gesproken. Over de expertsystemen. Dat ging nu een beetje over machine learning. Good old-fashioned AI te worden. De traditionele machine learning wordt het al genoemd. Ja, precies. Ik noem het altijd predictive AI. En als ik kijk naar de financiële sector. Maar ik neem aan dat jullie het ook breder dan de financiële sector zien. Is het groeipotentieel van machine learning nog gigantisch. Daar is nog zo ongelooflijk veel winst te behalen. En er zijn ook gewoon problemen die veel beter. Wat jullie ook in die podcast zeiden. Gewoon eigenlijk een machine learning probleem. Waar nu een GNI oplossing tegen aangedrukt wordt. Terwijl dat niet de beste oplossing is. Dus ik zeg heel vaak tegen. Dus als je kijkt naar financiële instellingen. Waar nog veel ruimte zit voor machine learning. Als je bijvoorbeeld kijkt naar transactie monitoring. Daar worden op dit moment. Dus dat is een plicht die banken hebben. Om verdachte transacties voor witwassen of terrorisme financiering te detecteren. Dat gaat voor een heel groot deel nu nog met rule based systemen. Nou model performance is niet geweldig dan. Zoals jullie dat zeker wel kunnen inschatten. En dat hebben wij als DNB ook gezegd. Ga alsjeblieft die machine learning gebruiken. Want dan gaat je model performance omhoog. En dan kunnen we gewoon beter detecteren wat dirty money is. En dat wil niet zeggen dat je gelijk over hoeft te stappen. Maar ga hem daarnaast opbouwen. Ga opbouwen die kennis. En zorg dat het ernaast gaat draaien. Doe je validaties. En laat je daardoor inspireren tot inzichten die je daarvoor niet had. Ja, en dan is de vraag. Want dat gebeurt. Het wordt er wel naast ontwikkeld. Maar dan is de vraag. Durf je de zijwieltjes eraf te halen? En durf je echt over te stappen op het nieuwe model? En dan komt de toezichthouder ook weer in beeld. Want dan is weer de vraag van, oké, wat vindt de toezichthouder ervan? En dan vind ik dat wij als toezichthouder ook de plicht hebben om serieus te kijken. Van, hé, is dit goed? Dient dit de publieke belangen die wij borgen? Is het ook goed voor de financiële instelling? Is het goed voor de burger, voor de klant? En ik denk in dit geval dat dat zo is. Dus dan gaan we er ook in dialoog voor zorgen dat die deployment op een verantwoorde manier gaat. Ik vind dat de banken dat fantastisch doen. Dus ik ben er echt heel positief over. Mooi. En ik denk wat je zegt, de deployment en het monitoring en het proces eromheen, die moet natuurlijk goed gewaarborgd zijn om model drift en dergelijke te kunnen spotten. En goed in controle te blijven. Wel een interessant spanningsveld tussen innovatie en toezicht. Hoe zie je die balans op dit moment? Ja, daar zijn heel veel verschillende denkbeelden over. Ik ben zelf heel erg pro innovatie. Ik ben ook echt een techno-optimist. Dus hoe ik het zie is dat innovatie... Kijk, als je een gezonde, stabiele financiële sector wil... is innovatie daar een heel belangrijk onderdeel van. Want anders kun je als financiële sector niet bijblijven met wat er gebeurt. En dan verouder je en dan kun je niet meer de diensten verlenen... aan de Nederlandse maatschappij die zouden kunnen. Dus ik vind het een inherent onderdeel van ons toezicht. Er zijn ook toezichthouders die dat wat minder vinden. Die zeggen van toezicht, wij zijn niet consultants. Dus wij gaan niet vertellen wat wel en niet mag. En het moet echt vanuit de sector zelf komen. Ook daarvoor heb ik wel heel veel begrip. Dus een element wat ook in de AI-ject zit. Bijvoorbeeld zijn de regulatory sandboxes. Kun je uitleggen wat dat is? Een regulatory sandbox is eigenlijk een omgeving. Waar toezichthouders een soort van loket hebben. Waar vragen gesteld kunnen worden over wetgeving. En waarin dan geëxperimenteerd kan worden. en de vraag is dan van wat is de interpretatie van experimenteren en een collega van mij aan de universiteit Utrecht die is gepromoveerd op regulatory sandboxes en haar conclusie is eigenlijk dat de verwachtingen verschillend zijn van de toezichthouder en dat zijn het vaak start-ups of techbedrijven die daar dan in komen en de toezichthouder zegt eigenlijk vaak van we gaan de wetten zijn gewoon van toepassing dus we kunnen niet zeggen van je komt in een soort van wetteloze zonde terecht en je kan maar gaan experimenteren commenteren. Terwijl de startups vaak het gevoel hebben dat die mogelijkheden er wel zijn. Dus heel vaak zijn die omgevingen moeilijk. En de omgeving waar het wel lukt, dat is met name in Engeland, bij de Financial Conduct Authority. Dus dat is een soort van AFM en ACM gecombineerd in Engeland. Daar werkt het. En ze hebben nu een sandbox geopend met NVIDIA. En het werkt daarom dat ze in hun juridische mandaat, dus eigenlijk de opdracht die ze van de wetgever krijgen, staat van het is ook jouw taak om innovatie te bevorderen. En hetzelfde zie je in Singapore. Dus de Monetary Authority of Singapore heeft hetzelfde. Daar is ook een heel goed functionerende sandbox. Maar ja, als je aan toezichthouders gaat vragen van, joh, zet de regels even uit je hoofd, dat is natuurlijk... Dat zou heel raar zijn, toch? Ja, dus... En voor de wat technischere luisteraar, de sandbox is niet een, het is geen technische infrastructuuromgeving, want dat wordt, het is een procedureel papieren exercitie mag ik het zo noemen? Ja, zo mag je het zeker noemen. In government houden wij daarvan. Dus het is absoluut een procedure die ervoor zorgt dat de wetgeving voor jou duidelijk wordt zodat je kan innoveren en niet bang bent dat je de wetgeving verkeerd in doet. Ja, precies. Dat als je straks op de markt komt dat je aan de wet voldoet. Precies. En ook dus eigenlijk een dienst van de toezichthouder om Om daardoor innovatie niet te zorgen dat de wetgeving of een onjuiste interpretatie van de wetgeving niet innovatie hindert. Ik denk dat het best wel een heel mooi onderdeel is van die AI Act dat daar in ieder geval over nagedacht is. Ja, dat denk ik ook. Dus dat is ook heel goed. En je ziet wat eigenlijk nu bedacht is, is dat verschillende landen verschillend type sandbox gaan inrichten. En dat je dan kan kijken van waar werkt het het beste. In Nederland is het ministerie van Economische Zaken verantwoordelijk. En de autoriteit persoonsgegevens en RDI coördineren het. En alle andere toezichthouders zijn aangesloten. Dus het is absoluut een mooi initiatief. Het is beter dat het er is dan dat het er niet is. Laten we eerlijk zijn. Maar goed, waar ik bang voor ben. Dan mag ik een kritische noten op de AI. Zeker, altijd. Kijk, je hebt de letter van de wet en de geest van de wet. En ik ben heel erg voorstander van de geest van de wet. En als je bijvoorbeeld kijkt naar GDPR. dan denk ik dat dat soms een beetje doorgeschoten is, die interpretatie. En waar ik bang voor ben, is dat dat met de AI Act ook gaat gebeuren. En dat begint al met een inschatting maken van of een toepassing hoog risico is of niet. Of de wetgeving überhaupt van toepassing is. En ik merk dat er nog best wel veel, in dit geval financiële instellingen zijn, die bepaalde AI toepassingen onder hoog risico's gearen, terwijl dat niet als dusdanig geclassificeerd wordt in de AI Act. En dan zie ik wel een risico. En wat levert dat voor problemen op dan? Nou, wat het voor problemen op kan leveren is dat er heel veel administratieve rompslomp wordt ervaren. Rondom AI te pushen, waar dat dan niet nodig is. Dat dat wel wordt opgezet. En dat dat ervoor zorgt dat er dan niet wordt geïnnoveerd. Dus ik heb al wel verhalen gehoord van de-innovatie. Dat mensen zeggen van we hebben een geavanceerdere vorm van AI ingezet. Hier, maar het is een hoge risico toepassing. We gaan weer even terug naar een simpelere. Dus dat zie ik wel als risico. Dus ik denk gewoon van het kan zijn dat we geen stappen vooruit meer maken met de technologie. En jullie zien het elke dag hoe hard het gaat met de technologie. Je moet wel een beetje bij proberen te benen. En we zien ook iedere dag de angst voor de AVG, de GDPR. Om vooral dingen dan niet te doen. Ja, en die angst vind ik niet terecht. Kijk, wij toezichthouders zijn mensen. Je kan met ons het gesprek aangaan. En ik denk dat de mogelijkheid om dat te doen vaak niet benut wordt. En daarbij ook nog, wij als toezichthouder hebben natuurlijk een interpretatie van de wet. Maar het staat jou als om de toezichtstaande instelling geheel vrij om een eigen interpretatie te hebben. En daarover met de toezichthouder in gesprek te gaan. En misschien dat dat te weinig wordt gedaan. Dus wij als DNB staan er ook absoluut voor open. Om die dialoog te voeren. Ik bedoel voor ons is het ook nieuw terrein. Dus waar ik altijd heel erg van geniet. Is om met de sector in gesprek te gaan. Over waar lopen jullie nou tegenaan. En om dan te kijken. Hoe verhouden wij ons daar nou toe. Tot die problemen met die innovatie. Want ik geloof daar heel erg in. Dat dat wel moet voor een gezonde financiële sector. En ook voor een gezonde economie. En gezonde samenleving. Dat we dat moeten gaan doen. Elkaar scherp houden. En de conversatie hebben. En het voorbeeld, volgens mij al dat vorige keer, was Bunk ook die dat had gedaan. Ja, Bunk, ik kan daar niet al te veel over zeggen. Dus in principe kan ik niet te veel zeggen over individuele instellingen. Maar er is inderdaad een rechtszaak geweest tussen Bunk en DNB, waarin Bunk een andere interpretatie had van hoe bepaalde wetgeving kon worden geïnterpreteerd. En daar hebben we natuurlijk als DNB wat mee gedaan. Want er was al een rechtelijke uitspraak. En na een deel van de uitspraken werd het punt in het gelijk gesteld. En dan doen we er als dat DNB wat mee. En dat is gewoon hoe onze rechtsstaat functioneert. Zo werkt het ook gewoon. Dat is dus inderdaad. Hoe gaan we innovatie verantwoord in willen zetten met elkaar? Het goede gesprek voor... Ja, zeker. En over het goede gesprek gesproken. Mooi brugje. Ik gooi hem er even in. We hebben een kaartspel om juist het gesprek op gang te brengen over allerlei vraagstukken rondom generatieve AI. En we willen ook een stelling aan jou voorleggen. Ja, leuk. Kom maar door. heel diep zuchten. Je zou het niet geloven. Ik heb hier vijf voor hem. Ik heb net geschud. Mag jij raden welk thema naar boven komt? Ja, wetgeving natuurlijk. Dat kan je missen. Breng het wetgevingskarma bij Medezaal in hier. Maar ik ga hem toch gewoon stellen, want hij kwam netjes geschud naar boven. Dus het thema is wetgeving en beleid. En de stelling luidt dus volgt. Organisaties moeten aansprakelijk zijn voor de maatschappelijke gevolgen van hun AI-gebruik. Ja, in essentie ben ik het daarmee eens. Als je kijkt naar de AI Act, dat is productregelgeving. En het is nu al zo dat als je een product op de markt brengt en dat recht schade aan, dat je daar aansprakelijk voor bent. Dus in de kern ben ik het daarmee eens. De grote vraag bij AI is natuurlijk, waar houd je aansprakelijkheid op? Dus als je bijvoorbeeld kijkt naar de foundation models. Hoeveel invloed, stel je wilt het gaan gebruiken, je bouwt daar een applicatie op. En dat is een hoog risico te passen in de AI Act. In welke mate kun je je als toezichthouder dan verantwoordelijk houden voor wat er in dat foundation model gebeurt? Dat is iets wat nog niet helemaal duidelijk is. En dat zal duidelijk moeten worden. En ik verwacht hier de komende jaren ook superveel jurisprudentie over. Dus hier moeten rechters zich ook gewoon over moeten uitspreken wat redelijk is. Maar in essentie denk ik dat dat absoluut noodzakelijk is. Omdat bedrijven voordat je een model deployt. En zeker een hoog risicomodel. Dat je daar goed van doordrongen bent. Van de aansprakelijkheid daarvan. Helder. Wat is nou een valkuil bij AI-toezicht? En hoe zou je die kunnen vermijden? Ja, ik denk dat de grootste valkuil op dit moment AI-geletterdheid is misschien wel. Oh ja, oh leuk. Bij de toezichthouder zelf. Dus in principe gaat de toezichthouder eigenlijk kennis opbouwen op het moment dat je het mandaat hebt. En dat mandaat is nog niet officieel binnen. Dus voor DNB en AFM zijn er nog over in gesprek. Van hoe gaat dat lopen. Ik merk dat als je toezicht wil houden op AI. Moet je begrip hebben van statistiek. Dat is eigenlijk gewoon statistics on steroids. Zeg ik altijd. En statistisch denken. Is iets wat we als mensen helemaal niet goed kunnen. Dus dat vraagt gewoon dat je dat gaat leren. En ook dat je het gesprek kan aangaan over data science. Dus wat zijn nou de keuzes die je gemaakt hebt in het maken van het model? En daarover zul je het gesprek moeten aangehouden. En ook de risicotolerantie die je in het model hebt gehad. Ik denk dat dat goed is voor de toezichthouder om je daarvan bewust te zijn. Ik denk dat het ook goed is bij ondertoezicht aan de instellingen. Dat die gesprekken niet alleen bij de data scientists gevoerd worden. Maar misschien zelfs op boardniveau. Dat daar echt wordt gezegd van wat zijn nou de keuzes die we hierin maken. En dat je daar dan met de toezichthouder het gesprek over kunt aangeven. Maar dat moeten we als toezichthouder gaan ophouden. Als we zo meteen al die documenten krijgen die ik net noemde, dus technische documentatie, dan moeten we dat ook op waarde kunnen schatten. Als wij meldingen krijgen van burgers, dan moeten we dat ook op waarde kunnen schatten. En ik denk dat je ook naar auditachtige skills moet gaan kijken. Stel, je vertrouwt de zaak niet. Hoe ga je dan zo'n model uitpluizen? En daar zijn we over gaan nadenken. En dat is op dit moment denk ik nog wel een hindernis. Maar dat is gelukkig de hindernis die al de toezicht houden. En ik denk dus gewoon dat we ook gewoon die technische kennis in huis moeten gaan halen. Dan kun je opleiden of aannemen. Ik denk dat je misschien allebei zou moeten doen. Hoewel, we hebben natuurlijk een hele sterke eigen data science team en innovatie team bij IT bij DNB zitten. Dus daar zit ook echt wel veel technische kennis. Maar het toezicht op is toch ook anders. Omdat er ook heel veel sectorale context is. Zeker. En wetgeving speelt mee. Dus je moet eigenlijk een soort van dat data scientists en juridisch en personen en economen in één hebben die dan tot een oordeel komt. Of een groep. Ja, of een groep. Ja, ja, ja. En dat gaat tijd kosten om dat te ontwikkelen. Maar ik denk dat dat wel kan. Maar dat is op dit moment denk ik de grootste hurdle die te nemen is. En voorzie je ook dat jullie AI gaan inzetten voor het toezicht? Dat lacht precies op. Dat is ook wel heel mooi. Ik hoop het mooier. Ja, we zijn daarmee bezig. Dat is niet mijn domein. Maar bij onze IT-afdeling hebben wij een AI-programma. En die zijn bezig met het nadenken over hoe wij AI als organisatie zelf kunnen inzetten. Die zijn daar op dit moment druk mee bezig. Die zijn natuurlijk ook met generative AI bezig. Maar machine learning zou ook op bepaalde manieren ingezet kunnen worden. We hebben een data science team. Dus die kijkt ook heel erg naar data science oplossingen binnen de organisatie. En is ook actief bijvoorbeeld bij Europese instellingen. Dus bij de Europese Centrale Bank of bij de Bank of International Settlements. Wordt die kennis ook gedeeld. Dus daar wordt absoluut naar gekeken. En we hebben nog een afdeling die specifiek kijkt naar digitalisering van het toezicht. Dus dat is wel breder dan AI. Dus er is bij DNB absoluut hartstikke veel aandacht voor. En de basiskennis over AI, die delen we natuurlijk. Maar ik ga absoluut niet zeggen dat ik hier een kenner van ben. Ook vooral omdat er natuurlijk ook heel veel change-achtige, softe kanten aan zitten. Waar ik absoluut helemaal niks vanaf weet. Dus daar ga ik dan ook geen uitspraak over. Nee, want je kan wel verwachten dat er meer vragen komen. Meer documenten, er zal meer aangeleverd worden. En daar inderdaad met AI ook een bepaalde efficiëntieslag zou kunnen maken. Dus een beetje paradoxaal. Hoe ga je daar dan toezicht op houdt? Daar kan ik wel wat over zeggen, want het AI-programma heeft een pilot gedraaid bij de divisie waar ik werk. Dat heet Toezichtbeleid, bij twee teams daar. En daar hebben ze een generative AI test gedaan of een pilot gedaan. En de uitkomsten daarvan zijn eigenlijk heel positief, omdat wij natuurlijk heel veel met documenten werken. Veel briefings schrijven voor onze directie. En wij zijn natuurlijk met superveel informatie bezig. Dus generative AI is dan een super goede tool voor ons om te gebruiken. En daar merk je ook dat je natuurlijk mensen hebt die er meer of minder gebruik van maken. Het is wel grappig, ik merk ook dat generatie. Ik ben een millennial, ik vraag wel eens hulp in van onze Gen Z, van mijn Gen Z collega's. Waarvan ik merk dat zij nog veel natuurlijker met AI omgaan dan ik het doe. Ik gebruik AI heel veel. en dat vind ik echt heel erg mooi om te zien. Dus ik zie, mijn dochter is drie jaar oud, ik denk dat die zo meteen als een soort van cyborg de arbeidsmarkt opkomt en dat vind ik ook heel erg goed. Want als ik kijk naar mijn werk, hoe AI dat beter gemaakt heeft, hoe productiever ik ben geworden, dan kan ik nog steeds, het klinkt een beetje nerderig, maar bijna geemotioneerd daarvan raken op een bepaalde moment dat ik gewoon denk van hoe is het mogelijk dat dit gewoon gebeurt. Ik kan gewoon bijvoorbeeld een PowerPoint-presentatie maken. Dan heb ik gewoon een wetenschappelijk artikel geschreven. Of een semi-wetenschappelijk artikel. Dan zeg ik gewoon van, maak je slides van. En dan heb ik gewoon een presentatie in een kwartier. Waar ik voorheen echt wel langer daarover aan het zoeken was. Daar word ik wel blij van. Het enige waar ik me zorgen over maak. Is van, ik werk nu tien jaar. En ik heb een reis gemaakt in tien jaar. Van kennis, van werken met taal, met dingen zelf schrijven. En ik vraag me af hoe junioren op de arbeidsmarkt. leren, een vak gaan leren als AI dat al kan. En dat zal zich wel ontwikkelen. Maar ik merk dat het omgaan met die taalmodellen, dat mij heel erg helpt dat ik zelf heel veel geschreven heb, zelf heel veel gelezen heb. Ik heb ooit filosofie gestudeerd, dus daar heb ik heel erg veel teksten opgebouwd, argumentatielijnen uitgezet. En dan kun je ook met zo'n taalmodel kun je gewoon lekker een beetje sparren, als je die skills hebt. Dus ik vraag me af van hoe gaan we die skills opbouwen bij jongere generaties om ervoor te zorgen dat die nog wel iets meer heersen. Die capabilities hebben, de skills hebben om het zelf te kunnen beredeneren, te kunnen bekritiseren, het onderzoekend vermogen. Dat moet wel blijven inderdaad. Het zijn ook onderzoeken van MIT. Ik zal in de show notes even toevoegen, want ik kan even niet de naam ervan vinden. Zo is het top of mind. Maar er is een artikel dat inderdaad mensen die met Gen.AI en zonder Gen.AI bepaalde capabilities gewoon teruglopen. Ja, waarbij misschien moeten we daar nog eens een aflevering aan wijden, want hier en daar rammelt het onderzoek, want uiteindelijk komt het uit op negen mensen die het einde hebben gehaald van het onderzoek, geloof ik, als ik dat goed begrepen had. De N is wel laag dan. Ja, maar misschien is het allemaal... Het is altijd goed om even te kijken van inderdaad, wat is de N en wat is de methodologie? En ik denk, uiteindelijk lossen we het ook wel op. we lossen het wel op want met het schrift werd ook ooit gedacht dat we alles niks meer zouden opslaan dus met nieuwe technologie zijn er altijd zorgen, technofobie is er altijd en daar komen we altijd wel uit maar ik denk dat het wel goed is om het te benoemen dus wat je nu bijvoorbeeld ziet in academisch onderwijs is dat alleen een schriftelijke essay vaak niet meer voldoende is, maar dat je ook een mondeling er wel achteraan moet doen om te kijken van snap de student daadwerkelijk wat er is opgeschreven en misschien wel beter dan toch? Ja, zeker. Dat vind ik wel. Want dan kom je er vrij snel achter of iemand het zelf geschreven heeft. Ja, toch? Nee, het maakt niet eens uit of je het zelf geschreven hebt. Het gaat erom dat je het begrijpt. Ja, precies. En hoeveel ChatGPT gedaan heeft, dat maakt eigenlijk niet uit. En ik denk dat dat niet gaan gebruiken. Dus je moet jongeren gaan leren om het te gebruiken. Maar om dan wel na te denken van wat je zegt, Niels, je moet wel begrijpen wat de uitkomst is. Ik ben niet echt een onderwijskundige. Maar ik denk dat dat super interessant is. De komende vijftien jaar. Uiteindelijk alle bedrijven krijgen hiermee te maken. Hoe on-board je zo direct nieuwe mensen. En zorg je dat ze het vak leren. Waar jij voor staat als organisatie. Ik denk dat dat de kernvraag is. Dus in dit geval. Hoe word je een goede toezichthouder. En hoe kun je goed informatie verwerken. Tot goede oordeelsvorming komen. Om je taak goed uit te kunnen voelen. En dan gaan we eigenlijk weer rond naar waar ik het begin over had. Dat is de waardes van je als organisatie, maar ook de publieke waardes. Hoe kan je die meegeven in het werk dat je doet? Ja, ik denk dat dat heel belangrijk is. Dat je als toezichthouder snapt van wat is de publieke taak die wij hebben. En dat je dat meeneemt in je werk. En dat je AI ziet als een instrument wat jou helpt. Want ik denk, een ding wat AI niet heeft is inherent moreel besef, emoties. Dat zijn allemaal menselijke dingen die gewoon echt heel belangrijk zijn. Ook in het toezicht. Zeker. En dat is iets wat de mens altijd zal blijven brengen. Vormen van creativiteit. Idem. Dus ik ben heel erg voorstander van samenwerking met de AI. En zo die vakkennis en de professionaliteit uitbreiden. Nou, over samenwerking met de AI. Jij had als voorbereiding, had je met, hoe noem je je ChatGPT waar je mee spreekt in de auto? Ik was niet heel creatief, ik noem me gewoon Charlie. Charlie, ja. Je had met Charlie wat voorbereid en je zei van, er is een vraag en die wil ik dat heel graag stellen. Ja, ik zeg, ik laat me toch eens een keertje op de humor as weer. Ik heb een leuk boek gekocht over humor en business. Hoe dat goed had samengaan. Dus ik dacht, laat we eens een humoristische vraag proberen te laten stellen. En de vraag waarmee Charlie van mij vanochtend terugkwam was, Als AI een persoonlijkheid zou hebben, denk je dat dan een strenge toezichthouder zou zijn of meer een creatieve innovator? En waarom? Oeh, dat vind ik een hele leuke vraag. Om meerdere redenen. Ik zou zeggen in eerste instantie, het hangt er vanaf wie de gebruiker is. Als je kijkt naar Entropic, ik ben heel erg fan van het onderzoeksteam van Entropic. En die hebben een onderzoek gedaan naar welke... Die hebben gewoon uit volgens mij van zes maanden alle output van Claude genomen. En die geanalyseerd van welke waarde heeft de AI nou. En wat je daar eigenlijk ziet is dat die waarden heel erg zijn over professioneel zijn, dienstbaar, robuust. Dus eigenlijk een hele dienstbare rol hebben naar de mens. En dat betekent, denk ik, dat als ik dit model gebruik, dat het model dienstbaar is naar mij. Dus als het een toezichthouder zal zijn. En naar een innovator weer heel creatief en open is. Dus ik denk dat het allebei is. Als ik kijk naar de basis, van waar wordt het ontwikkeld? Dat wordt natuurlijk voor een groot deel Silicon Valley, Big Tech. Dan zou ik verwachten dat het eerder richting de innovatieve kant neigt dan niet. Maar goed, er was een tijdje terug waarop X een bericht geplaatst door een onderzoeker van Anthropic. Dat er misschien een automatische melding naar de politie gemaakt moet worden. Als je dingen in je bron schrijft die niet helemaal door de bogen kunnen. En daar kwam een dusdanige backlash op dat ze die tweet zelfs verwijderd hebben. Dus weet je, er zijn ook wel dingen van oké, het moet ook wel veilig zijn. En dat is meer de toezichthouder kant. Dus je kan er eigenlijk alle kanten mee op. En waarom ik het vooral een hele mooie vraag vind is, omdat als je naar het alignment probleem krijgt en naar het toezicht, dan wordt eigenlijk ook wel in de wetenschappelijke literatuur een idee geopperd wat ik heel mooi vind. En dat is om een soort van AI-opper toezichthouder te hebben. Dus je ziet nu hele agentic systemen ontstaan. Dus agents die elkaar aansturen enzo. Dat hoef ik jullie niet te vertellen. Ook in wetenschappelijk onderzoek. En ik denk dat je misschien best wel een soort van AI toezichthouder kan hebben. Die AI's onder toezicht heeft. En dat vind ik wel een hele interessante gedachte. Het is wel heel erg early stage. Maar ik denk op een gegeven moment misschien dat dat best wel een goede oplossing is. Voor ons gebrek aan het vermogen om te begrijpen wat er gebeurt. En dat vind ik gewoon een hele elegante gedachte. Een AI in de boardroom van DNB, wie weet. Een van de vragen die ik eigenlijk wilde stellen was of je ergens hoopvolle ontwikkelingen zou zien. Maar daar is dit misschien een van. Maar zou je ook een zorgwekkende ontwikkeling zien? Nou ja, de zorgwekkende ontwikkeling zit voor mij toch ook wel op dat de mensen niet meer in controle is. Dus er wordt nu ook wel onderzoek gedaan waarin modellen mensen toch wel beginnen te manipuleren. taalmodellen. En dat er ook wordt gelogen. En dat je dus eigenlijk een soort van, dus bij alignment heb je zeg maar outer alignment, is het doel van het, of de output van het model komt dat over één met de waarde van de mens. Maar je hebt ook inner alignment, zijn er niet zeg maar ten opzichte van het doel wat de mens in het model plaatst. Gaat het model niet zijdoelen hebben? Dus zoals Nick Boosdrom zegt met de paperclip maximalisator en dat soort dingen, dat je als model zijdoelen hebt die niet die schadelijke... Zou je dit van de paperclip even kunnen uitleggen? Want ik denk niet dat iedereen die... Ja, ik moet even graven. Maar Nick Booschum, die heeft een boek Superintelligence geschreven. Dat is een, ik denk een AI klassieker toch wel. En daarin heeft hij eigenlijk beschreven dat als je... Waar AI's heel erg goed in zijn, is een doel volledig optimaliseren. En dat ze dat op een manier kunnen doen die side goals heeft. Die wij niet helemaal voorzien hadden. Maar die wel gebeuren. Dus in zijn geval zou het kunnen zijn dat je zegt van oké. Je programmeert een AI om te zeggen van jij moet paperclips maken. En volgens mij is zijn argument dan dat hij zegt van. Omdat hij dat doel wil blijven maximaliseren. Gaat het model de mens uitmoorden. Omdat het mens de machine uit zou kunnen zetten. En dan kunnen ze geen paperclips meer maken. Heel extreem voorbeeld. Super hypothetisch natuurlijk. Maar je ziet ook van dit soort voorbeelden in de praktijk. Wat ik altijd noem is het Cambridge Analytica schandaal. Dus als je kijkt naar de social media algoritmes. Die hebben als doel mensen vasthouden op het platform. Omdat ze dan meer ads kunnen laten zien. Dus het is gewoon een puur kapitalistisch doel. Maar het zij-effect daarvan is dat mensen in een filterbubbel komen. En radicaliseren. Brexit is een voorbeeld van waar dit gebeurd is. Verkiezingen in 2016. En dat Trump gewonnen heeft. Daar is duidelijk dit ook gebeurd. Je ziet ook mensen in rechts en links radicale ideeën wegzakken hierdoor. En dat is denk ik nooit de intentie geweest van deze bedrijven. Maar dat gebeurt wel. Ja, zo. Valt even stil. Ik was benieuwd, heeft iets of iemand jou beïnvloed op het gebied van toezichthouden? Of op het gebied van AI? Ja, mijn grootste AI-idool is denk ik Stuart Russell. Dus dat is een hoogleraar computerwetenschappen. En die heeft een boek geschreven in 2017 al, Human Compatible. Die kan ik ook iedereen aanraden. Dus dat gaat echt heel erg over value alignment en hoe los je dat technisch op. Dus wat ik heel elegant vind is bijvoorbeeld reinforcement learning by human feedback. Ik denk dat die taalmodellen zo ongelooflijk veel beter gemaakt heeft. En wat hij eigenlijk zegt is van, als jij een model wil hebben wat handelt naar de waarde van de mensen, dan moet je niet altijd kijken naar wat mensen zeggen of schrijven, maar je moet vooral kijken naar wat mensen doen. Dat is ook een beetje een leefregel van mij. Kijk vooral wat mensen doen, niet naar wat ze zeggen. En vanuit dat perspectief, dus hij kijkt ook naar menselijke psychologie, dat we door mate van menselijke interactie en moraliteit opbouwen. En hij zegt eigenlijk van, machines moeten eigenlijk met mensen gaan interacteren en zo de menselijke moraliteit leren door met mensen te interacteren. Dat vind ik heel elegant en mooi. Dus van hem ben ik heel erg groot fan. En ik vind ook, wat ik prachtig vind, is dat Jeffrey Hinton en de CEO van DeepMind, Dennis DeSabes heet hij volgens mij zoiets, die hebben de Nobelprijs gewonnen. Eén voor scheikunde en één voor natuurkunde. Voor hun ontwikkeling in AI. Voor DeepMind was dat AlphaVolt. En dat vind ik gewoon zo ontzettend prachtig. Dat dat kan. Dus ik verwacht met AI ook nog heel veel wetenschappelijke doormaken. De komende decennia. Als we het gesprek mogen samenvatten. Dan is het. Er zijn verschillende toezichthouders. Dat je verteld hebt. Het is nog in ontwikkeling. Mensen kunnen jullie vragen stellen. Als er discussie ontstaat. Dus mag iets wel, mag iets niet. Dus geest van de wet en de letter van de wet. En wat mis ik dan? Wat je volgens mij nog mist, maar vul me gerust aan, is het stukje. Het is ook een risico als je niet gaat innoveren. Dat vond ik wel een heel mooie. Dat vind ik absoluut. Daar zet ik mijn handtekening onder. En goed om te zeggen voor de financiële sector, maar ook voor Nederland en voor Europa. Want we hebben de slag met het internet toch aardig gemist. We zijn wel gedigitaliseerd, maar de grootste deel van de gecreëerde waarde zit niet op ons continent. Dat is echt aan de andere kant van de oceaan. En ik zou het heel jammer vinden als we dat met AI die boot ook gaan mislopen. Nou, duidelijk. Hartstikke bedankt dat je dit met ons wilde delen. En voor de rest... Moet ik even het juiste knopje vinden. Vergeet je niet te abonneren via je favoriete podcast app. Dan krijg je gewoon automatisch een melding bij een nieuwe aflevering. En dat is meestal op de maandag en op de donderdag. Zeker. Tot de volgende keer. Tot de volgende keer.
Over de gast
Frans van Bruggen is toezichthouder op kunstmatige intelligentie in de financiële sector bij De Nederlandsche Bank. Hij richt zich op de inzet van AI binnen financiële instellingen en de bijbehorende risico's en kansen, en promoveert daarnaast aan de Universiteit Utrecht op het thema toezicht in relatie tot AI. In zijn rol benadrukt hij het belang van een evenwichtige benadering tussen strikte regelgeving en innovatie.
Bekijk gastprofiel