Wat leer je in deze aflevering?
AI-jurist Charlotte Meindersma was te gast in de podcast AIToday Live. Ze besprak de nieuwe AI-wetgeving en de impact daarvan op bedrijven. Meindersma legde uit dat er sinds 2017 juridisch weinig is veranderd op het gebied van AI en auteursrecht.
Ze benadrukte het belang van AI-geletterdheid als onderdeel van de nieuwe wetgeving. Dit omvat begrip van AI, de werking ervan en mogelijke risico's. Meindersma adviseerde bedrijven om pragmatisch te werk te gaan bij de implementatie van AI-geletterdheid.
Kernbegrippen
- AI-geletterdheid
- Kennis en vaardigheden die medewerkers nodig hebben om verantwoord met AI-systemen om te gaan.
- AI-wetgeving
- Regelgeving die bedrijven verplicht AI-systemen in kaart te brengen en medewerkers op te leiden.
- Hoog-risico AI-systemen
- AI-toepassingen met potentieel grote impact op veiligheid, rechten of gelijkheid van personen.
- Toezicht en handhaving
- Controle door autoriteiten zoals de Autoriteit Persoonsgegevens op naleving van AI-regelgeving.
Wat gasten zeiden
Als jij twee zinnen invoert en je vraag is allemaal een soort van stockfoto uit te krijgen zonder het woord stockfoto te noemen, en dan komt een stockfoto uit. Ja, nee.
Hoe meer creativiteit jezelf inbrengt, hoe groter de kans is dat je zelf dus ook het auteursrecht erop hebt.
Transcript
Charlotte Meindersma, AI-jurist bij Charlotte's Law & Fine Prints, deelt vandaag hoe de nieuwe AI-wetgeving bedrijven dwingt hun medewerkers op te leiden in AI. Ze legt uit waarom deze kennis cruciaal is en hoe je dit praktisch aanpakt zonder juridische hoofdpijn. Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live. Mijn naam is Joop Snijder, CTO bij Aigency. Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support. En we hebben vandaag de gast Charlotte Meindersma. Zeg ik het goed zo? Dat zeg je helemaal goed. Kijk, zou je jezelf eerst willen voorstellen aan onze luisteraars? Natuurlijk. Ik ben jurist bij Charlotte Law's & Fine Prints. Mijn eigen bedrijf en ik ben voornamelijk actief op het gebied van AI uiteraard. Privacy, reclame, intellectueel eigendom. Eigenlijk komen die andere dingen sowieso ook binnen de AI alweer samen. En hoe ben je hier zo ingerold? Wat was het moment dat je dacht van dat AI? Eigenlijk ging dat dus ook wel als vanzelf. Ik kwam er laatst een keer achter, of een tijdje geleden, dat ik in 2017 of 2018 of zo alles over kunstmatige intelligentie had geschreven. In combinatie met auteursrecht. Zo van, oh hé, je kunt gewoon een computer in kunstwerk laten genereren. Nou ja, dat zag er toen allemaal nog niet zo gelikt uit als wat je er nu uit kunt trekken. Maar toen hadden we het eigenlijk ook al onder juristen wel over. Hoe werkt dit dan? Hoe moeten we dit dan zien binnen het auteursrecht, et cetera? En zo loopt dat dan ook wel een beetje vanzelf. Omdat ik zo in die intellectueel eigendom en privacy hoek zit. Ja, heel veel dingen met AI, wat je daar heel veel technisch mee kunt, zit al heel snel in de privacy hoek. En als we over generatieve AI hebben, dan zit dat eigenlijk alweer in de intellectuele eigendomshoek. Dus zo ging dat dan ook een beetje vanzelf. Dus ik heb me daar niet heel bewust ben ik in die richting gegaan. Meer omdat ik het zelf vind dan AI ook wel interessant. Ja, dan, ja, dat loopt dan zo. Dan kom je hierop uit. Ja. En je zegt over dat auteursrecht is dan vanaf die 2000, wat zei je? Ik heb er zelf wat over geschreven. Dus in 2017, we zitten nu 2025. Is daar iets wezenlijks veranderd? Nee, juridisch niet. Behalve dat we het er gewoon meer over zijn gaan hebben. Oh ja. Maar eigenlijk niet. Dus de vragen zijn hetzelfde, de antwoorden zijn in die zin eigenlijk ook nog steeds hetzelfde. Wat zijn de drie belangrijkste vragen? Nou, voornamelijk over wie er het auteursrecht heeft als je iets maakt met generatieve AI. Ja. Omdat de regels al in elkaar zitten dat daar menselijke creativiteit aan het pas moet komen. En dan is de vraag, ja, wanneer is dat dan genoeg? Kan dat al genoeg zijn als dat alleen maar in je prompt zelf zit? Of moet dat per se ergens anders in het stadium nog een keertje toe worden gevoegd? Of zit dat bijvoorbeeld alleen maar in de keuzes die je maakt? Of nou ja, zoiets dergelijks. We zijn denk ik best wel op een andere manier gaan prompten. Dat het voorheen wel heel erg was. Je voert één keer iets in, dan komt er iets uit en dat is het. Terwijl je tegenwoordig natuurlijk die hele gesprekken kunt voeren en kunt zeggen, ja, maar pas nog maar dit aan. Pas nog maar dat aan. Waardoor je tijdens het hele proces ook al meer kunt toevoegen, denk ik. En in die zin meer kunt sturen, zou je kunnen zeggen. Dus dat maakt het wel een beetje anders. Het betekent dat als je meer stuurt, meer iteratief bezig bent met de tekst, dat het dan meer van jou wordt en daarmee de creativiteit toevoegt? Hoe meer creativiteit jezelf inbrengt, hoe groter de kans is dat je zelf dus ook het auteursrecht erop hebt. En daar is gewoon nog wel wat discussie over onder juristen wanneer dat dan zo is. Dus er zijn er ook die zeggen, nou dat kan gewoon niet. Maar dat zijn ook wel de juristen die een driedelig pak rondlopen en gewoon zeggen, ja, maar kijk, als ik hier deze twee zinnen invoer, dan komt er dit uit. Nee, ja, gast, als jij twee zinnen invoert en je vraag is allemaal een soort van stockfoto uit te krijgen zonder het woord stockfoto te noemen. En dan komt een stockfoto uit. Ja, nee. Ja, dan blijft een goudvis in een kom een goudvis in een kom. Ja, precies. Dat is altijd al zo geweest dat dan al de vraag was, goh, is het creatief genoeg om er auteursrecht op te hebben? Ja, of je daar dan AI als tool voor gebruikt of niet, dat doet wat mij betreft dan eigenlijk niet zo ter zaken. Ja, precies. Dus het hangt er echt wel vanaf wat je daar vooraf in stopt, wat er tijdens het proces eventueel gebeurt, wat je eventueel daarna dus nog doet. Alles speelt eigenlijk mee. Dus mijn formule, zoals ik hem zelf maar even bedacht heb, waarvan ik denk dat die juist is, is dat het gaat om wat je daarin stopt aan creativiteit. Wat je dus verder nog aan menselijke dingen daaraan toevoegt. Dus keuzes maakt of dus inderdaad, nou ja, of je dat dan binnen de AI doet of zelf nog wat aan doet. En eigenlijk die combinatie, de uitkomst moet zijn dat je überhaupt een creatief werk hebt, waarin dus voldoende menselijke arbeid nog aan toegevoegd is. Dan heb je daar auteursrecht op. En zou dat betekenen dat het belangrijk zou kunnen zijn om je dialogen dan te bewaren? Absoluut. Ja, dat is wat steeds belangrijker wordt. Voorheen was het eigenlijk altijd zo dat we alleen maar naar de uitkomst keken. Dat is een resultaat en dat resultaat moet ook creatief genoeg zijn. Als dat het niet is, dan houdt daar alles bij op. En natuurlijk is ook steeds dat resultaat wel belangrijk. Want als dat er al niet creatief genoeg uitziet, dan houdt het nog steeds op. Alleen is dan de vraag, door wie is het gemaakt? En zit daar dus voldoende menselijke scheppende arbeid in? Zoals we dat als juristen dan graag noemen. En dan moet je dat wel bewijzen. Dus ja, opeens is dat belangrijk geworden. Het kan niet echt ergens anders doorgemaakt zijn. Dus ja, dat nam je dan aan dat die menselijke scheppende arbeid er wel in zat. En dan voor mij nog even terug naar het begin. Misschien een hele don graag. Maar waarom zou je het auteursrecht willen hebben als persoon? Want je hebt een bepaalde actie die... Omdat er anders helemaal geen recht op rust. Omdat anders iedereen het gewoon mag gebruiken. Dan kun je iets gemaakt hebben. En dan ben jij lekker vijf uur lang aan het prompten geweest om... Jullie kennen misschien de Adidas Floral Commercial. Waar ze vijf verschillende tools of zo uit mijn hoofd voor gebruikt hebben. Daar zijn ze echt wel even een tijdje mee bezig geweest. Dat is allemaal met dus vijf verschillende AI tools gemaakt. Daar zitten dus echt wel wat uren werk in nog steeds. Als je dan dus zou zeggen... Ja, nee, maar het is met AI gemaakt. Dus er is geen recht op. Dan kan iedereen daar alles uittrekken wat hij maar wil. En daarmee doen waar hij zin in heeft. Auteursrechtelijk gezien dan in elk geval. En dat wil je dan toch niet hebben. Nee, oké. Dus het is om te beschermen wat je hebt gecreëerd. Daarvoor wil je die auteursrecht hebben. Dus als dat minder van belang is, dan hoef je daar ook... Ja, het is net als met je software eigenlijk. Daar heb je in principe ook een auteursrecht op. Ja, daar wil je ook niet van. Dat iemand zegt, nou top, ik trek die broncode er wel uit. Kopietje maken, klaar. Ja, dat jullie daar dan acht maanden mee bezig zijn geweest. Ja. Nee, dat willen we zeker niet. Nee, dat willen we niet. Daarom vraag ik het nog even. Ja, maar dat is het dus, zeg maar. Dus dat is soms... Ik merk dan heel erg dat mensen bij een afbeelding... hebben ze veel minder dat gevoel van... Oh, daar heeft iemand misschien wel werk in gestopt. Of zo. Ja, maar dat is er toch nou eenmaal. Dan moet ik dat toch kunnen gebruiken. Terwijl als je dat soms op iets anders toepast... dan is het wel een soort van... Oh ja, nee, dat snap ik misschien eigenlijk wel... dat ik dat niet zomaar zou mogen kopiëren. Maar zo geldt dat dus wel voor alles. Er is altijd... Heeft er van iemand een keer tijd in gezeten... of geld in gezeten. Ja, dat probeer je op een manier terug te verdienen. En dat kan ook zijn door het exclusief te houden. Ja. Maar het is natuurlijk heel makkelijk om van internet... bestaande foto te pikken. Ja. En die gewoon in je presentatie te plakken. Ja. En dan hangt het ervan af hoe je het in je presentatie plakt. Ja. Dat dat misschien niet zou kunnen... omdat het dan als een citaat is als je het echt bespreekt. Oké. Oké. En hoe zou het een citaat kunnen zijn dan? Omdat je dan de afbeelding bespreekt. Of omdat je... Nou ja, zoals die Adidas Floral-campagne... Ja, die gebruik ik ook in mijn AI-workshops. Ja. Om te laten zien. Zo van ja, je moet even zien waar het over hebben. Anders kun je het niet begrijpen. Ik kan het wel praten en het uitleggen. Ik kan er wel tekst omheen bouwen. Maar je moet het toch even gezien hebben. Ja. Ja. En dan... Goed, Adidas staat er natuurlijk al zelf in. Dus daarmee heb ik aan alles al gedaan. Maar normaal gesproken... Je mag niet meer gebruiken dan je nodig hebt. Het moet wel voor een serieus doel zijn. Zoals dus zo'n bespreking. Je moet wel aan naam- en bronvermelding doen. Nou ja, met zo'n commercial zit dat er vanzelf al in. Maar anders moet je dat er nog even bij zetten. En je mag er niet zomaar van alles aan bewerken. Zodat je het verminkt, verandert, whatever. Tenzij dat dus nodig is om het als citaat te kunnen gebruiken. Omdat je ook er niet te veel mag gebruiken. Zo'n commercial is van zichzelf al kort. Dus die kun je in het geheel laten zien. Maar stel dat er een grote film is of zo. Dan zou je daar een scène uit kunnen. Ja, precies. Is het een heel artikel. Als je een eigen artikel schrijft. Of we zouden nu iets uit een artikel willen citeren in deze podcast. Ja, dan zou je een Alinea voorlezen of zo. Dan moet je wel even vertellen uit welk artikel dat komt. En wie dat geschreven heeft. Of waar het gepubliceerd is. Precies. En dan gaat het erom dat je dat bespreekt. Dus dat dat relevant was. En het niet alleen maar leuk en gezellig erbij is. Daar heb je nog niet een echt mondelinge toestemming voor nodig. Als je deze voorwaarden voelt. Nee, dus dit kan gewoon. Er is geen toestemming nodig. Je hoeft er niks voor te betalen. Hartstikke gratis. Je moet wel aan alle voorwaarden voelen. Ja, oké. En daar gaat het wel vaak mis. Ja. En dit is. Want dan zeg je er is niks veranderd tussen 2017 en nu. Want dit is dan neem ik aan auteursrecht. Ja. En weet je, er zit in de AI. Er zit ook wel een stukje over. Je moet auteursrecht respecteren. Ja. Ja, nou ja. Eigenlijk is dat het enige wat daarin staat. Over auteursrecht. Over auteursrecht. Ja. Ja, wel specifiek over auteursrecht. Ja. Ja, want als we naar die wet kijken. Die is vorig jaar ingegaan. Met 2 februari ook nog als een specifieke datum. Vanaf die datum zijn er. Eigenlijk gaat hij in onderdelen in. Dus wat altijd gebeurt is. Er wordt een wet aangenomen. En de standaard is eigenlijk dat je altijd een implementatietermijn hebt van twee jaar. En in dit geval zitten daar wat fases in. Er zijn inderdaad per 2 februari. De verboden AI mag je echt niet meer inzetten. En je moet AI geletterd zijn. Maar het grootste deel gaat dus eigenlijk pas in augustus 2026 in. Ja. Wat in het algemeen. Wat vind je van deze wet? Vanuit de juridische oogpunt bekeken. Het lastige is dat je heel erg aan die wet merkt. Dat AI nog wel in ontwikkeling was toen ze daarmee bezig waren. Dus dat alle general purpose AI. Daar zijn ze op een gegeven moment nog maar even wat regels bij gaan maken. Dus van wacht even. Maar dit past eigenlijk niet binnen het systeem zoals we al bedacht hadden. Want general purpose is gewoon veel te breed. Dat kan veel te veel. Dat is dus niet per definitie. Dat van zichzelf verboden of van zichzelf hoog risico. Dat gaat erom hoe je het gebruikt. Dus bij wijze van spreken de helft van die AI act bestaat uit regels over general purpose AI. Even overdreven gezegd. Dus dat merken we er goed aan. We hebben in de onderhandelingen toch wel heel erg gemerkt. Dat er ook wel veel discussie is geweest. En het toch echt wel aan elkaar hangt van compromissen. Wat op zich natuurlijk bij heel veel wetten wel zo is. Want we hebben natuurlijk een hoop landen die daar samen afspraken over moeten maken. Maar dat zijn wel dingen die je daaraan merkt. En dat er dus ook nog steeds wel wat onduidelijkheid kan zijn. Oké, we hebben verboden AI die je absoluut niet mag gebruiken. Maar dat er soms toch nog wel een beetje vraag is van valt dit er nou wel of niet onder. Is dit nou echt verboden of is het toch hoog risico? Ja, want we hebben verschillende risicoklasses in die wet. In feite is het verboden AI. Dat zijn daar voor commerciële partijen zijn dat er zeven. En dan hebben we hoog risico. Dat is een soort van je mag het wel gebruiken. Maar je moet wel aan een hele hoop eisen voldoen. Zowel aanbieder als gebruiksantwoordelijke. En dan moet je ook wat dingen echt wat meer over vastleggen. En wat meer dingen rondomheen organiseren. En dan hebben we eigenlijk de AI waar je vooral transparant moet zijn over het gebruik daarvan. Dus dat mag je gewoon gebruiken. Maar je moet het wel even vertellen. En dan is er nog een hoop AI van zeggen dat is no risk, low risk. Daar gaat eigenlijk de hele AI act al niet meer over. En dat kan gewoon gebruikt worden. Daar hebben we het dan verder niet over. Ik hoorde een term die van mij niet helemaal bekend is. Dus die wil ik even vragen. Gebruiksverantwoordelijke. Wanneer ben je een gebruiksverantwoordelijke? De organisatie die AI gebruikt is gebruiksverantwoordelijke. En dan de mensen die het daadwerkelijk inzetten zijn dan de gebruikers. Dus vandaar dat ik wel het woord gebruiksverantwoordelijke maar even noem. Ik vind het zelf eigenlijk prettiger als je gewoon zo zegt gebruikers. Alleen heel strikt juridisch is er wel een verschil tussen de organisatie. Die daar verantwoordelijk voor is voor de inzet daarvan. En de echte poppetjes als het ware die de AI bedienen. Ja. En zeker bij die hoog risico is het heel belangrijk dat die gebruiksverantwoordelijke, die krijgen ook heel veel extra verplichtingen. Ja, de aanbieders natuurlijk nog het meeste. Want die brengen het op de markt. Ja. En dan heb je dus ook nog wel de distributeurs en zo. En die hebben ook wel weer wat eigen verplichtingen. Maar vooral de aanbieders. Maar inderdaad als gebruiksverantwoordelijke moet je bijvoorbeeld zorgen dat je echt wel iemand hebt die wel beter in de gaten houdt hoe het gebruikt wordt. En dat het op een goede manier gebeurt. Dat daar wat monitoring omheen zit. Dat je zorgt voor logging. Dat als je merkt dat er dingen niet goed zijn, dat je dat dus weer meldt bij de aanbieders. Er klopt toch iets niet. Er zit toch een bias in. Weet dit. Nou ja, allemaal dat soort zaken. En wat zijn de belangrijkste verboden in die wet? Wat mogen we eigenlijk vanaf dit moment niet meer? Nou, wat onder meer niet mag is emotieherkenning op het werk en in het onderwijs. Ja. Waarbij we eigenlijk tot, nou wat was het, eergisteren dachten, oh op het werk betekent eigenlijk alleen maar medewerkers en dus niet sollicitanten. Maar er is nu vanuit Europa een guideline gekomen. Ja, nee, het gaat ook over sollicitanten. Logisch eigenlijk, want dat gebeurt ook op de werkvloer. Ja, precies. Alleen, ja, je zit niet in dat dienstverband. Dus dan ga je heel juridisch kijken naar wat staat daar juridisch. Ja, dan is dat op het werk. En die persoon is nog niet op het werk, aan het werk. Dat is alleen nog maar een sollicitant. Terwijl als je kijkt naar het doel van de regel is het wel weer logisch dat het een sollicitant zou zijn. Want het gaat om dat je mensen niet zomaar kunt beoordelen op basis van hun emotie. Dat ze niet daardoor, nou ja, bijvoorbeeld wel of geen promotie krijgen. Of nou ja, whatever. En dat is dus voor het onderwijs is dat ook zo. Dat geldt zowel voor lager middelbaar onderwijs, maar ook beroepsonderwijs of nascholingsachtige dingen. Dus ook voor de commerciële onderwijspartijen, zeg maar. Ik geef bijvoorbeeld ook cursus bij Beekestein, daar geldt dat dan bijvoorbeeld ook voor. Wat hebben we nog meer? Nou ja, je mag niet aan gezichtsherkenning, je mag geen databases bouwen met gezichtsherkenning als je dat scraped van internet of CCTV. Dus bewakingsbeelden. Dus Clearview, PimEyes en zo. Nou ja, dat mocht eigenlijk van de AVG ook al niet, maar goed, nu door de AIX ook niet. Die hadden dat gedaan, die hadden echt van de hele wereld. Ja, van alles waard, maar voor data halen. Wij drieën staan in die database, daar kan je vanuit gaan. En dan, ik had de documentaire gezien, Netflix documentaire even uit mijn hoofd. Hoe heet die ook weer? Ik ga hem in de link zetten, Unmasked of zo. Ja, oké. Ja, van, ja. Ja, maar die. Die moet ik nog kijken, denk ik. Ja, die is echt heel interessant. Ik kom er zo direct vast wel op. Dat ze dan in Engeland gebruikten die Clearview technologie. Dus iedereen op een bepaald plein. Hadden ze een busje staan, camera's overal op. En iedereen die voorbij kwam, er werd gezichtsherkenning gedaan. En werd gekeken of er, nou weet ik veel, nog boetes uitstonden. Ja, dus we hebben wel twee verschillende dingen. Dus je mag de database er niet mee bouwen. Dat is een verbod. En er is dan voor de overheid ook een verbod op real-time gezichtsherkenning op afstand. Onder bepaalde voorwaarden. Dus die zitten wel iets ingewikkelder in elkaar, zeg maar. Maar dus, en onder voorwaarden mag het dan weer wel. Maar als dat dus is met het doel om mensen op te sporen die strafbare feiten hebben gepleegd. Nou ja, dan mag het dus soms wel en soms niet. Dus als het heel specifiek is voor bepaalde veiligheidsdoeleinden mag het weer wel. Maar het mag niet te algemeen worden ingezet. Maar dat is wel heel erg een overheid. Precies. Nou ja, verbod en taken. Wat hier vooral zeg maar heel, nou ja, eng aan werd. Is dat, er zit natuurlijk sowieso, zit er een foutmarge in die modellen. En daar waren ze heel vaag over. Dus je kan, omdat je op iemand lijkt, kan je gewoon ergens uitgepikt worden. En dat, nou ja, dat is best wel intimiderend. En aan de andere kant, als mensen niet, zeg maar, die gezichtsherkenning wilden. Dus bijvoorbeeld een capuchon opdeden. Er was al reden om ze eruit te pikken. Want dan had je iets te verbergen. Dus ik kreeg een soort van omgekeerde wereld. Nou ja, dat kan natuurlijk sowieso al niet. Daar hebben we in het strafrecht eigenlijk al juridische waarborgen voor dat je niet op die manier mensen mag profilen eigenlijk. En kijk, op zich, daar kan altijd ergens een foutmarge in zitten. En dat is niet zo erg. Het is dus ook niet zo dat het verboden is om aan gezichtsherkenning te doen. Maar dan moet dat wel een onderdeel zijn van een groter geheel. Waardoor je nog allemaal wat maatregelen kunt treffen. Dus van oké, dit is dan een eerste stap. Dan gaan we ook op een andere manier checken of dit echt klopt. En dat je dus niet automatisch al zegt, maar AI heeft iemand herkend. Dan zal het wel zo zijn. Dus dan moet het een onderdeel zijn van een groter geheel proces qua validatie. Voor de Netflix serie, want daar kan ik niet tegen. Ik heb het net geprobeerd op te zoeken. Coded bias? Coded bias, heel goed. Ja, aanraden. Ja, echt. Zeker. Ik ga kijken. Ik heb het denk ik net wel al aangeraden gekregen. Ja, door een algoritme. Maar ze hebben me nog niet zodanig opgedrongen dat ik dacht, oké, dan ga ik er maar kijken. Ja. Want de wet is natuurlijk heel erg risicogedreven ingestoken. Ja. Je had het over hoogrisicosystemen. Waar moet ik daar aan denken? Ja, dat heeft heel veel te maken met privacy bijvoorbeeld. Dus op het moment dat je persoonsgegevens in een AI tool stopt. Nou ja, dat zou soms misschien best mogen. Maar dan moet je wel even kijken, goh, waar komt dat dan terecht? Wat gebeurt daarmee? Wat wil je daarmee doen? Op het moment dat je, nou ja, het soort van direct marketing, gepersonaliseerde advertenties, achttige dingen daarmee wil maken. Ja. Dan moet je wel echt wat extra waarborgen treffen. Ja. En het mag niet discrimineren en zo bijvoorbeeld. Je moet echt uitkijken voor al die biases die daarin kunnen zitten. Ja. Dat zijn belangrijke onderdelen. En dan is het idee dat je heel vaak vooraf even moet toetsen. Oké, wat doet mijn systeem nou eigenlijk? Wat is nou het risico daarvan? Hoe kunnen we dat risico zo goed mogelijk verkleinen? Zijn er dingen die we daar verder op kunnen inrichten? Of moeten we dan zorgen dat we wat vaker monitoren? Maar dat hangt er echt vanaf. Ja. Het gaat echt om je toepassing en niet zozeer om je tool. Dus het kan best zijn als een tool ook een specifieke toepassing heeft. Dat je echt kunt zeggen, hé, deze tool is goedgekeurd. Die voldoet aan van alles. Dan kan die ook een soort keurmerkje krijgen. En dan weet je gewoon, oké, deze tool kan ik gebruiken. Maar op het moment dat de tool dus een bredere toepassingsmogelijkheid heeft, of je hebt zelf wat meer de keuze in wat voor soort data je daarin stopt. Ja, dan moet je zelf wel nog steeds zorgen dat de data die je daarin gooit ook gewoon kwalitatief is. Ja. Ik heb uiteraard die wettekst ook door zitten lezen. Als je niet jurist, dan valt het niet mee. Wat ik wel heel erg lastig vond, is van hoe kom je er nou achter als organisatie zo direct? Je hebt al systemen in productie. Wanneer het hoog risico is. Want daar komen zoveel eisen bij kijken. Dat het heel belangrijk is om te weten of je systeem in de categorie hoog risico valt. En waarom zou je niet gewoon een paar definitie als hoog risico behandelen? Ja, dat zou kunnen. Maar dan gaat het vanuit een wil. Laat ik het zo zeggen. Alle effort die je ervoor moet doen om te bepalen of het hoog risico is of dat je alleen maar aan een transparantieverplichting moet voldoen. Dat kost je eigenlijk al zoveel moeite dat je net zo goed alles kunt registreren zodat je gewoon een hoog risico vereist. Dat vind ik wel een heel aardige uitgangspunt. Dus je bent daar dan al zo druk mee om een beetje te gaan lopen verantwoorden waarom het geen hoog risico zou zijn. Dan kost je net zoveel moeite. Dat vind ik wel aardig. En als je hem eenmaal hebt uitgespeeld en je weet het is hoog risico en dit moet ervoor gebeuren. Dan is het gewoon een beetje wat administratie. En dat is het. En vervolgens zijn het de gebruiksverantwoordelijken die het zelf dan ook wel weer gewoon goed moeten gebruiken. En die ook moeten kijken naar hoe gebruiken we het. En zou het niet kunnen zijn dat door de manier hoe we het gebruiken het alsnog hoog risico wordt. Dat vind ik wel een... Mooi. Ik ben graag van de pragmatische oplossingen. Dat klinkt goed. We raakten hem net al. Een stukje AI geletterdheid. Wat volgens mij ook van kracht is. Met name bij de hoog risico. Ja, dat is dus zo'n misverstand. Oké. Nou mooi. Kunnen we die uit de wereld helpen? Zo breed opgeschreven. AI geletterdheid. Dat in principe iedereen die gewoon gebruik maakt van AI gewoon geletterd moet zijn. Punt. Waarbij eigenlijk de enige discussie die er onder juristen nog bestaat. Goh maar dat low no risk waar de AI act überhaupt niet over gaat. Valt dat er dan wel of niet onder? Nou als je kijkt naar hoe het is omschreven. Dan gaat het eigenlijk over alle AI. Dus zou het ook daarvoor moeten gelden. Maar je zou dus ook kunnen zeggen. Ja maar de AI gaat daar überhaupt niet over. Dus kan het ook niet over de AI geletterdheid gaan. Nou ja goed. Daar kun je een beetje over van mening verschillen. Maar die zal dus is natuurlijk bij de no low risk AI. Wat moet je er dan voor weten? Ja praktisch niks. Dus ja wat staat dan je AI geletterdheid voor? Eigenlijk ook niks. Dus dat is een beetje een non-discussie. Het enige waar je met hoog risico mee te maken hebt. Is dat je dan in je bedrijf iemand moet hebben. Die daar echt significant meer van weet dan de rest. Zodat die daar beter toezicht op kan houden. Maar alle andere mensen die daarmee werken. Ook als het dus alleen maar. Die alleen maar transparantie verplichting hebt. Dan moet je gewoon AI geletterd zijn. Ja en toch wil ik daar nog even over doorgaan. Want wat je best wel leest zeg maar op social media. En dan met dat soort dingen. Ik vind het redelijk hysterisch. Laat ik daar maar mee beginnen. Want er wordt gezegd. Ja dat je ook wel mensen certificaatjes zullen verkopen. Ja precies. Het wordt een verdienmodel. Maar goed. Onder dat mom van dat verdienmodel. Wordt natuurlijk wel een hele hoop geroepen. Dus ik denk dat het goed is zeg maar. Als wij hier in ieder geval daar helder over zijn. Want er zijn de mensen die zeggen. Hé maar jij werkt met een. Bijvoorbeeld een. Je e-mail. Daar zit een spam filter op. Is een machine learning iets. Dus moet je AI geletterd zijn. Ja klopt. En wat moet je er dan over weten. Ik gebruik mijn e-mail programma. Ja. En mijn AI doet dit automatisch. Nou ja de vraag is eigenlijk zelfs. Wat zijn daar nou de gevolgen van. Wat kan er mee misgaan. Dus dit kan. Een presentatie zijn van vijf minuten misschien. Die even moet kijken. En dan ben je dus misschien wel voldoende AI geletterd. Of valt dit in die low risico. Want wat is het risico voor een spam filter. Voor een spam filter specifiek. Zou dat inderdaad onder die low risk. En dan is het. Hé er zit een spam filter. En dat werkt op basis van AI. Dus nou ja. Daar kan ook wel eens wat mis mee gaan. Nou dan weet je genoeg. En volgens mij. Even wat ik gelezen heb. Maar daar kan ik dan lekker aan jou aan toetsen. Is dat die wet ook zegt. De grootste kans eigenlijk. Het is het. De meeste systemen zullen onder die low risk vallen. Ja dat is denk ik maar net hoe je het wil bekijken. Maar zo staat het er wel in. Kijk als je natuurlijk naar de hele wereld van AI kijkt. Dan kan AI zo ontiegelijk veel. Precies. Dat als je dat zo bekijkt. Ja dan zal percentueel het meeste inderdaad er niet onder vallen. Kijken we naar welke AI tools en toepassingen we gebruiken. En waar we het over hebben op LinkedIn. Om het zo maar te zeggen. Dan valt 90% daar juist wel onder. Want? Nou omdat we het dan überhaupt al hebben over general purpose AI. En over JetGPT. En over allerlei marketing toepassingen. En over whatever. Dat is allemaal niet low no risk. Low no risk is je spam filter. Is een beetje AI in een computerspelletje. Is nou ja whatever. Wat eigenlijk jou als persoon ook helemaal niet raakt. Ja. Ja dat is low no risk. Dan weet je misschien. Dan is het nu toevallig wel AI geworden. Maar zat er voorheen ook wel iets dergelijks in. Alleen dan niet. Op basis van AI. En een simpelere slechter werkende versie. Ja. Maar als we voor mezelf even een praktie proberen maken. We hadden net even e-mail. Spam filter niet. Maar ik ga mijn e-mailtjes met behulp van ChatGPT. Copilot. En noem een andere tool. Ga ik mijn mailtjes laten samenstellen. En de tekst daaruit. Die ga ik gebruiken als input voor mijn mail reactie. Ja. Dan moet ik dus meer weten. Meer AI geletterd zijn dan. Ja. Omdat je simpelweg dus al moet weten. Goh AI is niet perfect. Die kan dus. Jij kunt wel iets ingevoerd hebben. Waarvan jij denkt. Nou dan is het. Ik weet wat dan de uitkomst moet zijn. En dat snap ik. En dan komt er iets uit. En dat jij er dan op vertrouwt. Nou dat zal dan wel kloppen. Want ja. Ik heb toch mijn prompt ingevoerd. Maar dan moet je wel weten. Het kan best wel zijn. Dat het verkeerd wordt geïnterpreteerd. Dat er eigenlijk een verkeerde berekening gemaakt wordt. Ja. Dat jij onhandige woorden hebt gebruikt. Of zo. Waardoor jij denkt. Maar dat vind ik heel logisch. Maar. Dat de rest van de wereld er misschien wel een ander woord voor gebruikt. Waardoor er dus ook. Een andere uitkomst. In je uiteindelijke e-mail komt staan. Ja. Nou ja. Dat zijn wel dingen die je dan moet weten. Dus dat kan heel zijn dat je eigen geletterdheid heel minimaal hoeft te zijn. En dat je dus echt in tien minuten bij wijze van spreken AI geletterd kunt worden. Ja. Maar je moet het wel zijn. Voor die toepassing. Ja. Het gaat om toepassingen. Ja. AI geletterdheid is eigenlijk super breed. Dus. Je moet in de basis al wel een beetje weten. Wat is AI nou eigenlijk. Dus mensen die er geen flauw idee van hebben. Ja. Die moeten dat echt wel een beetje leren. Anders dan krijg je. Oh. Toeslagerschandaal is AI. Nou ja. Nee. Op zich waren dat mensen. Die in een Excel sheetje een vinkje hebben gezet. Ja. Ja. Dat kan daar heel moeilijk AI van maken. Dat is niet eens een algoritme. Dus heel veel mensen behandelen een gewoon algoritme al als AI wat niet hetzelfde is. Of verlagen een AI naar iets wat. Nou ja goed. Dus je moet dan wel een beetje uitleggen hoe dat wiskundige sommetje een beetje werkt. Dat moeten mensen wel begrijpen hoe onvoorspelbaar het is. Ondanks dat je misschien toch wel wat dingen kunt sturen. Maar dat je nooit volledige zekerheid hebt op de uitkomst. Terwijl als het een algoritme is zou je altijd zeker moeten weten wat de uitkomst is. Is het alleen. Ja dat ga ik niet zelf uitrekenen. Maar dat laat ik iets doen. Want dan gaat het veel sneller. Dus dat is iets wat mensen wel al een beetje moeten weten. En verder gaat het er vooral om. Ja wat is je functie. Welke tools en toepassingen gebruik je nou eigenlijk. Hoeveel kennis heb je al. Hoe intelligent ben je. Wat is je scholing eigenlijk al geweest. Etcetera. Etcetera. En dat bepaalt hoeveel je zou moeten weten. Dus ik geef altijd een beetje een flauw voorbeeld van dat bij wijze van spreken. De schoonmaker die in schoonmakerhok binnenkomt. En op een schermpje ziet. Welke ruimte er schoongemaakt moet worden. Op welke manier. Omdat alle sensoren in een ruimte hebben bepaald. Wat voor soort mensen er binnen zijn geweest. En hoeveel het waarschijnlijk wel is. Of niet. Of whatever. Dat hij op basis daarvan spullen meeneemt. En dat het dan uiteindelijk veel te weinig blijkt te zijn. Want het is toch een hele grote rotzooi geworden. Dat hij dan niet kan zijn. Ja nee maar. Dat hoef ik dus niet te doen. Want de computer zei. Dat het maar heel weinig werk zou zijn. Ja. Dan moet die schoonmaker dus wel begrijpen. Dat is AI. En dat kan wel fout gaan. Je moet uiteindelijk wel gewoon schoonmaken wat er schoongemaakt moet worden. De computer helpt je alleen maar om een inschatting te maken van wat er gedaan moet worden. Maar dat is nooit een definitieve uitslag. Iemand die heel veel doet wat van invloed is op personen. Dus dat kan marketing zijn. Dat kan op een andere manier beslissingen nemen over waar personen zijn. Ja die zou heel erg veel moeten weten. Omdat daar hele kleine dingetjes fout kunnen gaan. Die dan eigenlijk een grote impact hebben. En dat moet je wel leren herkennen. Dus die moet veel meer weten. Niet alleen maar over wat AI is. Maar hoe zo'n specifieke tool werkt. Wat daar dan specifiek de risico's van zijn. Hoe je dat kunt herkennen. En wat je dan allemaal zou moeten doen. Dus je hebt misschien wel even een dagje met een training of een cursus. Maar eigenlijk voor het grootste deel zou je training eigenlijk intern binnen een bedrijf plaats moeten vinden. Dus het kan best zijn dat je van buiten iemand haalt. Die een beetje een soort basistraining geeft. Over wat is AI geletterdheid nou eigenlijk. Of dat soort dingen. Maar de specifieke tools en toepassingen. Als je zegt je moet ook de vaardigheden hebben om met een tool om te kunnen gaan. Nou daar kun je ook een trainer voor van buiten halen. Die daar het meest van weet. Dat is ook prima. Maar ja uiteindelijk heeft elk bedrijf zijn eigen samenspel van tools. Gaat er of heeft er eigen doelen mee. Eigen toepassingen. Ja daar moet het uiteindelijk wel op aansluiten. En dat is dus ook een ongoing proces. Je kan niet zomaar ergens een training volgen. En een vinkje halen van. En nu ben ik AI geletterd. Nee. Kijk ik geef ook een workshop. En dan zeg ik ook je krijgt een certificaat van deelname. Ja dat willen mensen graag. Maar het is wel een certificaat van deelname. Dat kan een opbouw zijn naar jouw AI geletterdheid. Precies. Het is er een onderdeel van. Maar je moet daarna. Dus echt. Het is nog meer dat je mijn workshop leert. Hé wat zou ik nou eigenlijk verder nog moeten weten. Waar moet ik nou naar op zoek. Wat moet ik dan verder gaan doen. Maar er zijn ook aanbieders. Die zeggen. Ik krijg bij ons een AI geletterdheid certificaat. Ja. Dus als je dit hebt. Dan ben jij AI geletterd. En dan denk ik. Hoe dan? Al die mensen leren vooral hoe een bepaalde tool werkt. Voor mij geeft een certificaatje uit. Over hoe die tool werkt. Dan top. Dan is dat onderdeel van je geletterdheid. Ja. Maar dan. Het kan eigenlijk niet zo zijn. Dat als iemand extern iets gevolgd heeft. Dat hij dan volledig AI geletterd is. Ja. Want dat je ook inderdaad. Hoe je ermee omgaat binnen je organisatie. Organisatie heeft effect op hoeveel je ervan moet weten. En wat ik ook hoor. Maar dat is even. In vergelijking van de toetsing. Voor gebruikers. Zoals die schoonmaker. Dat voorbeeld. Zou een handleiding. Of een begrijpende tekst. Of een onboarding proces. Zou voldoende zijn. Om eigenlijk dat even te waarborgen. Dus dat zouden we in processen. In applicatie. In handleidingen. Al mee kunnen nemen. Ja. De vraag is. Of je schoonmakers een handleiding leest. Dus dan moet er misschien heel even. Iemand. Die uitlegt hoe het systeempje werkt. Dat meteen even vertellen. Maar dat zou dus in vijf minuten klaar kunnen zijn. Maar dat is wel eens. Waar je besef van moet hebben. Inderdaad. Waar zit AI in? Hoe hebben we dat geborgen binnen de organisatie? En hoe wordt dat inderdaad. En je kan het ook integreren. Dus als je zelf bijvoorbeeld dit soort systemen maakt. Integeren gewoon in de user experience. Dus we hebben bijvoorbeeld een vrij eenvoudig systeem. En dat is een AI interviewer. Dus die interviewt zeg maar interne medewerkers. Over een bepaald onderwerp. Zodat er uiteindelijk marketing artikelen over bijvoorbeeld geschreven kunnen worden. Of dat daar guidance uit gehaald wordt. Die interviewer die begint met heel groot. Ik ben een AI. Ga je interviewen. Ik kan fouten maken. Volgens mij voor zo'n systeem weet je dan genoeg als gebruiker. Ja. Ik ga ervan uit dat er daarna nog mensen naar kijken naar de uitkomst. En daar wat mee doen. Zeker. Er wordt niks geautomatiseerd. Maar dan voldoen je in feite ook aan je transparantieverplichting. Want waarschijnlijk is dat dan ook zo'n AI. En dan is jij je AI geletterdheid. Ja, nee. Ja, toch? Ja. Wij hebben een kaartspel. Met allerlei stellingen over generatieve AI. Daar hebben we natuurlijk ook heel veel over. Dus AI is bijna generatieve AI geworden. Nou ja, zoals we daarover praten vaak wel. Ik hoop zo af en toe dus toch nog wel mee te geven. Dat heel veel AI veel meer is. Of het juist niet generatieve AI is. En dat beseffen heel weinig mensen. En dat is waarom ze dus AI geletterd moeten zijn. Precies. Maar dit is wel waarop misgaat. Dat generatieve, dat snappen mensen dan misschien nog wel. Maar dat het ook in van allerlei andere dingen zit. Dat hebben ze gewoon dan niet door. En dat is juist het hele probleem. En dat is waarom die AI geletterdheid in de AI act is gekomen. Zeker. Zeker. En ik ben er ook heel blij mee hoor. Ik bedoel, ik ga je zo denk ik nog wat meer daarover bevragen. Maar ik ben heel blij met de AI geletterdheid. Ik zou zelfs zeggen van doe het nooit uit verplichting. Maar omdat je het wil. Precies. Ik vraag ook altijd waarom zou je het per se niet willen. En ik heb daar nog nooit een antwoord op gekregen. Goed teken. Ja. Maar we willen je graag... Ja, het kaartspel. Ja, het kaartspel. En dat gaat erom dat je eigenlijk vooral met elkaar bepraat over een bepaalde stelling. Dat je in die zin zeg maar ook kennis uitwisselt. Maar ook standpunten uitwisselt. Top. Ik heb er eentje uitgetrokken. Deze keer heel flauw ook eentje weggestopt. Dat ging over wat is generatieve AI. Maar het gaat over gebruik en toepassing is het thema. En de stelling luidt. Generatieve AI zal leiden tot een aanzienlijke verlaging van onze operationele kosten. Als jurist. Ja. Ja, ooit wel. Nu nog niet. Maar dat is vooral omdat het gewoon nog niet betrouwbaar genoeg is. En omdat we met name in Nederland ook echt wel het probleem hebben dat er te weinig data openbaar is. Dus we publiceren bijvoorbeeld niet alle uitspraken. En onze uitspraken zijn ook altijd heel erg kort en kort door de bocht. Waardoor je ook absoluut niet weet wat er eigenlijk in al die rechtszaken is ingebracht. Oh ja. Waardoor eigenlijk kiest een rechter een beetje welke argumenten vond ik relevant en neem ik nu op in mijn vonnis of in een arrest in hoger beroep. Dus je ziet daar gewoon niet alles in terug. Dus dat kan soms ook heel frustrerend zijn. Dat je wel eens als jurist ook denkt. Ja, maar wacht even. We hebben ook dit en dat gezegd. En hoezo is dit nu niet meegewogen in de overweging? Want ik vond het wel relevant. Dus daardoor weet je niet altijd goed hoe dat voorlopen is geweest. Dus van de vonnis en de arresten die er zijn, is eigenlijk al de vraag wat de kwaliteit daar dan van is voor zoiets als dit. En niet alles wordt gepubliceerd. Dus daardoor als je nu aan, stel dat wat we nu hebben, als je daar AI op los zou laten. Ja. Ja, dan krijg je dus eigenlijk al maar een beperkt beeld van wat er daadwerkelijk gebeurt. Waardoor ik denk dat je het nog niet goed in kunt zetten. En het is nu gewoon zo dat heel veel AI nog te veel dingen verzint. Dus dat er nog zoveel werk in zit. Nu om te controleren of het allemaal wel goed is wat er gemaakt is. dat dat nu nog niet zoveel zou opleveren. Maar ik denk echt dat als er gerichtere tools komen die wat meer specifiek voor de juridische markt zijn gemaakt. Als we afspraken hebben met uitgevers, zodat alle boeken en tijdschriften en weet ik veel wat er allemaal in kunnen zitten. Dat het dan heel veel dingen wel kan vergemakkelijken. En ik kan me ook echt wel goed voorstellen dat er nu al kantoren zijn die zoveel eigen data hebben. Dat ze daar bijvoorbeeld wat soort contractgeneratoren al mee zouden kunnen bouwen. Die echt al wel 90% van het werk doen. En we moeten nu ook nog opletten met privacy en bedrijfsgeheimen en dat soort dingen. Dus welke data gaat erin? Waar komt dat terecht? Kun je het dus wel veilig gebruiken? Op het moment dat er dus meer AI beschikbaar komt. Die je gewoon op je eigen servers kunt draaien. Dat dat niet meer in de cloud hoeft, zeg maar. Even heel grof gezegd. Dan zouden er ook veel meer mogelijkheden zijn. Dus dat gaat heus wel gebeuren de komende paar jaren. Dan kan dat heel veel opleveren. En dan denk ik ook dat dat de kwaliteit van ons werk als jurist eigenlijk heel erg kan verbeteren. Omdat dan al het werk dat er gewoon vooral veel tijd kost. Dat je dat dan kunt uitbesteden als het ware aan AI. En alles wat juist in die nuance moet zitten. Wat veel lastiger is. Waar je nou eenmaal dus niet gebruik van kunt maken van alles wat er al is. Maar echt je eigen creativiteit en interpretatie nog voor nodig is. Daar kan het wel bij helpen. Het lastige is natuurlijk ook dat alle wetten en zo. Alles is door mensen gemaakt. Dus dat zijn geen wiskundesommetjes. Alles is voor meer dingen uitleggen. Het algemeen wel. Dat maakt het wel ook lastiger dat het echt geïnterpreteerd moet worden. Dat is altijd al mensenwerk geweest. Dus daar zit niet altijd een hele goede strakke lijn in. En voor AI heb je dat als je dat echt goed wil laten werken. Zou het eigenlijk wel mooi zijn als die lijn er wel in zou zitten. Dus het zijn van die dingen van ik denk dat het gaat wel komen. En het gaat absoluut veel opleveren. Maar nu nog niet. En wanneer dat dan wel is of dat over zes maanden al goed begint te lopen. Of dat we daar nog drie jaar of vijf jaar op moeten wachten. Ja, I don't know. Duidelijk, mooie antwoord. Ik was benieuwd. Recent is het AP. De autoriteitspersoonsgegevens. Die onder andere de toezichthouder is zo direct voor die AI geletterdheid. Ik kom er toch nog eventjes op terug. Ja, de Autoriteit Persoonsgegevens wordt een soort resttoezichthouder. En daarom wordt waarschijnlijk de Autoriteit Persoonsgegevens voor de geletterdheid de toezichthouder. Oh ja, en wat is een resttoezichthouder? Nou, in de AI acten heel veel onderdelen. Dus alles over privacy komt natuurlijk sowieso wel bij de Autoriteit Persoonsgegevens als toezichthouder terecht. Maar als het meer gaat over misleiding, dan zal dat bij de autoriteit consument en markt terechtkomen. Maar er zijn natuurlijk dingen die niet op die manier zo specifiek onder een bepaald gebiedje kunnen vallen. En daarvan is dan eigenlijk nu al wel bedacht dat de Autoriteit Persoonsgegevens daar eigenlijk sowieso de leiding een beetje gaat hebben. Of de coördinerend toezichthouder gaat zijn voor alle toezichthouders binnen Nederland bij elkaar. En dus ook alles wat niet echt ergens specifiek in een bepaald hokje past. Dat dat waarschijnlijk ook bij de Autoriteit Persoonsgegevens terecht gaat komen. Ja, precies. Maar dat is allemaal nog niet 100% vastgesteld. Maar zij zijn wel met een stuk gekomen met een meerjarenplan rondom de AI-geletterdheid. En dat verbaasde me. Dus aan de ene kant zeg jij ook van ja maar vanaf 2 februari jongstleden hebben wij deze verplichting. Aan de andere kant zegt het AP, hier heb je een meerjarenplan. Nou laten we van meerjaren op z'n minst dan twee maken. Waarin zij vier fases definiëren. En eigenlijk pas bij de vierde fase zou je kunnen zeggen van daar heb je aantoonbare vastgelegde AI-geletterdheid in je bedrijf. Ja, zij zeggen in dat document AI-geletterdheid is een meerjarenplan. Ze zeggen eigenlijk niet ons document is een meerjarenplan. Nee, maar ze hebben een meerjarenplan voorgesteld. Je moet daar dan zo en zo lang over doen. Dus je moet het wel al nu zijn. Ja, maar daar zit een hele rare discrepantie in toch? Ja, ik weet niet of je het documentje gelezen hebt. Zeker. En er zijn heel veel juristen zijn daar helemaal lyrisch over. Want goh, wat hebben we nu een duidelijkheid. En er staat nog steeds helemaal niks in. Nee, daarom vraag ik het ook. Het is zo typisch weer dit. En wat is ook mooi, je staat over wie moet er AI-geletterd zijn. Dan zegt de Autoriteit Persoonsgegevens, ja, ook als je het zelf niet gebruikt. Maar als je wel proberen samenwerken met mensen die AI gebruiken. Ja, dan moet je dus wel weten welke systemen er gebruikt worden en hoe ze werken. Dus ofwel, wij zitten een beetje met z'n allen discussie te hebben. Ja, valt dan misschien eigenlijk alleen maar hoog risico. Valt er misschien ook wel buiten. En de Autoriteit Persoonsgegevens zegt gewoon, ja, eigenlijk iedereen die een knop op een computer aanraakt, die moet AI-geletterd zijn. Maar waarvan ze ook zeggen, maar dat mag best wel meerjarig duren. Nou, kijk, nee, ja, nee. Eigenlijk zeggen ze helemaal niet, het mag meerjarig duren. Wat zij bedoeld hebben te zeggen is, het is iets wat een doorlopend proces is. En je moet eerst maar eens even goed evalueren wat je nou eigenlijk allemaal gebruikt. Wie daar wat gebruikt. Voor welke toepassingen dat allemaal is. Kijk vervolgens wat je daar dan allemaal voor moet doen. Wie moet er dus op welk niveau geletterd zijn. Wat voor overige waarborgen moet je treffen. Hoe kun je risico's verkleinen. Nou ja, dat soort zaken. En ga vervolgens dus zorgen dat je mensen bijvoorbeeld traint. Of een cultuurdocument opstelt. En dat je dan zorgt dat dat bij iedereen wel hoog op de agenda staat. En ga dat dan weer allemaal evalueren of dat goed gaat. Nou, en hoe ga je dat dan evalueren? Door er een rapportje over te schrijven. Nou, dan heb je het rapportje geschreven. En daar staat dan in hoe goed het gaat. En dan mag je weer opnieuw beginnen. Ja. Maar zeg maar, ik ben een leek. En ik lees, er staat gewoon meerjarenplan boven. En er staan vier fases die achter elkaar uitgevoerd worden. Eén, twee, drie en vier. En bij vier, zeg maar, dan is de cirkel rond. Dan heb je de, en dan denk ik, nou, meerjarenplan. Vier fases. Vier fases. Dus ik mag daar twee jaar over doen. Voordat ik überhaupt eer geletterd ben. Volgens het AP. Nee. Nee, dat gelooft ook niet. Maar dat staat er ook niet in. Nee, maar er staat... Maar, maar... Er staat wel ergens inderdaad dat woord meerjarenplan. Ja. Ja, maar er staan wel meer onhandige woorden in. Maar dat is wel de toezichthouder. Ja, het is wel vaker dingen fout. Ja. Een toezichthouder is geen rechter. Dat is waar. Maar wat vind je ervan, zeg maar, dat er op deze manier... Zij zouden eigenlijk moeten helpen bij hoe je E-athletters moet worden. Ja, als je dus naar dat document kijkt, dan snappen ze er zelf. Dat is ook geen idee. Nee. Ja, laten we maar wel zo'n documentje even snel maken of zo. Ja. Ja, hoe kunnen we dat dan doen? Ja, laten we maar in vier fases doen. Er zijn ook dingen een beetje dubbel in en zo. Ja. Je moet gewoon even weten, welke AI gebruiken we nou? Wat doen we daar nou mee? Wat is het doel daarvan? Welke gegevens gaan daarin? Wie gebruikt dat? Wie is ervoor verantwoordelijk? Dat moeten we gewoon met z'n allen even een beetje netjes regelen. Ja. Zorgen dat mensen er voldoende van weten. En dat is het. En dat is het. Precies. Dus bewust omgaan met wat je dus... Ja. Als er heel erg plat staat. Ja. Maar ja. En als je daar dus als een ambtenaar naar kijkt, dan moet je dat in fases opdelen. Dat allemaal heel moeilijk maken. Ja. Ja. Maar je hebt toch... Je moet toch over het bedrijf is toch sowieso handig om even een beetje een overzichtje te hebben? Zeker. Nee. Maar daar gebruiken we eigenlijk. Daar gaat het ons ook niet om. Nee. Maar ik ben het helemaal met je eens. We zeiden al van, weet je, je moet ook Eaglet het willen zijn. Maar er zullen heel veel bedrijven, weet je, zullen hiernaar kijken en moeten bedenken van wat willen we ermee. Ja. En ik denk dat jij een heel praktische invulling hier aan geeft en dat je het zo ook zou moeten aanpakken. Maar het helpt natuurlijk niet dat we een wettekst hebben die natuurlijk ook overlaten. Want die zegt, je moet voldoende Eaglet het zijn. En wie moet dat zo direct bewijzen? Dat vind ik misschien wel aardig. Ja, dat gaat ook een soort best efforts. Als jij kunt aantonen, dit is waarom wij gedacht hebben dat dit voldoende was, dan is de kans ook heel groot dat dat genoeg is. Ja. En om heel eerlijk te zijn, denk ik dat de handhaving, de Autoriteit Persoonsgegevens kan zijn taken nu al niet aan als het gaat over persoonsgegevens, over privacy. Dat als het zo meteen over de AI-act gaat en het deel wat ze daarbij krijgen, natuurlijk krijg je dan een klein beetje meer geld en een klein beetje meer mensen. Maar dan gaat de grootste handhaving natuurlijk niet zitten op de geletterdheid. Dat is dan meer een soort bijproduct van, hé, je doet andere dingen fout. Ja. Oh, waar komt het dan door dat je dit fout doet? Oh, dat komt misschien eigenlijk wel omdat je je mensen helemaal niet voldoende hebt opgeleid. Ja, een stukje erbij. En eerst moet er waarschijnlijk echt iets fout gaan, bijvoorbeeld bij zo'n hoog risicosysteem. Ja, die moet je per se melden. Precies. Dan gaan we eigenlijk pas het hele verhaal in. Ja, dus als je datasets niet voldoende kwalitatief waren, ja, hoe komt dat nou? Ja, omdat je mensen misschien niet hebt uitgelegd wanneer dat dat moet, waar je dan op moet letten, wanneer dat dan zo is, wie daarvoor verantwoordelijk is. Dus er gaat op een ander punt iets fout en dan wordt er eigenlijk meer gekeken naar, maar waar is dat dan fout gegaan? En hoe had je dat kunnen voorkomen? Nou ja, als je dat had kunnen voorkomen door mensen dus wel gewoon AI geletterd te hebben, ja, dan pas wordt er gezegd, oh, maar dan heb je eigenlijk ook niet aan dat vereisten voldaan. Precies. En in die zin denk ik eigenlijk dat je risico misschien onderling ook nog groter is, hè? Dus als je AI gebruikt voor je klanten en het wordt dan gebruikt door mensen die er geen verstand van hadden, en er gaat wat mis, waardoor je klant er last van heeft en schade, hè? Dus nog niet eens zozeer door de Autoriteit Persoonsgegevens, maar gewoon op een andere manier schade. Ja, dan kan ik wel zeggen, maar wacht even, jullie gingen toch voor ons dingen doen en prima dat je daar AI bij gebruikt, maar als mensen niet wisten hoe ze het moesten gebruiken en het daardoor is misgegaan, ja, dan heb je het wel op twee punten fout gedaan. Dus dan weten we wel heel zeker dat jullie ervoor aansprakelijk zijn. Want je hebt dus gewoon je best niet eens gedaan. Dus het is denk ik altijd meer een dingetje dat erbij komt dan dat het op zichzelf per se als belangrijk iets wordt gezien. Maar dat is een beetje, ja, als je gewoon een professioneel bedrijf bent, dan zorg je dan een overzicht hebt van, hé, wat gebruiken we? Dan zorg je dat je mensen weten hoe ze er om moeten gaan. Dus dan zou het ook eigenlijk als vanzelf al goed moeten gaan. Dus ik denk dat de enige partijen waar het niet bij goed gaat zijn die daar te makkelijk over denken, te veel free whealen, maar gewoon een beetje zo in het gang gaan. Want je kunt ook best zeggen, hé, maar wij willen met z'n allen dingen uitproberen. Dan zeg je, oké, welke mensen binnen ons bedrijf mogen dan met AI een beetje gaan spelen, uitproberen, testen? En met welke gegevens kan dat dan? Of in welke, weet je? Maak daar dan wel hokjes voor. Ja, oké, dan gaan we eerst eens kijken, kunnen we daar wat mee en gaan we het daarna eens implementeren in de rest van het bedrijf? Ja. Zodat je daarmee je risico dan alweer verkleint. En dan, nou ja, goed. Ja, volgens mij sloeg u hem daar niet op de kop. Professioneel. Dat was ook het woord wat mij telkens bovenkwam. Ja, maar eigenlijk is dit gewoon professioneel gebruik van software, van oplossingen, van tools. En zorg dat je dat professioneel aanpakt. Weet je, in principe heb je hetzelfde risico met een Excel sheet. Als je daar allerlei persoonsgegevens in stopt en je zegt tegen mensen, oh laat dat maar lekker op de desktop van je computer staan. En je gebruikt dat in een koffietentje zonder een privacy scherm. Je hebt al niet eens een wachtwoord op je laptop zitten. Weet ik veel. Dus eigenlijk kan elke Jan Doedel daar zomaar bij. Al ja, je gebruikt ook gewoon de wifi van het koffietentje zonder een VPN en zo. En dan gaat het ook daar mis. Dat heeft dus niks met geavanceerde dingen te maken. Dat is gewoon, je moet even begrijpen wat de risico's zijn. En dan snap je ook waarom je wel even die VPN moet gebruiken. En waarom je niet dat Excel sheet gewoon lekker op je desktop moet staan. Maar even iets beter beveiligd weg moet zetten. Absoluut. En ik ben er blij mee. Want het legt namelijk ook veel meer eisen aan degene die bouwen. We hebben het best wel heel veel gehad nu over. Gebruik en organisatie. Maar het ligt natuurlijk ook bij de bouwers. Wij zijn bouwers. Weet je, we hebben zoveel voorbeelden gezien. Waarin er echt krankzinnige keuzes zijn gemaakt. Wat wel in een model wordt gestopt. Weet je, persoonskenmerken die in een fraudeopsporingsmodel worden gestopt. Waarbij je echt denkt van, wie bedenkt dat? Dat dat een goed idee is. En het feit zeg maar dat je daar nu toch een bepaalde mate van verplichting hebt. Dat je je beter over na moet denken. Daar ben ik eenmaal voor. Ja, precies. Ik denk trouwens wel dat er heel veel mensen zijn die onderschatten wanneer ze een aanbieder kunnen worden. Want we hebben natuurlijk juist met al die general purpose AI. Waar je natuurlijk heel veel eigen dingetjes op los kunt laten. En kunt zeggen, hé, maar kijk, ik heb hem nu een beetje veranderd of zo ingericht of whatever. En nu kun je hem onder mijn naam gaan gebruiken. Maar dat het eigenlijk op basis is van een andere aanbieder. Dan ben je zelf ook een aanbieder geworden. Precies. Heb je misschien niet zoveel technische kennis voor nodig gehad. Niet iets voor hoeven coderen. Waardoor het allemaal heel simpel en super toegankelijk en weet ik veel wat lijkt. Maar dan ben je wel opeens een aanbieder geworden. Inclusief dus alle verantwoordelijkheden die daarbij horen. En dat zijn er behoorlijk wat. Dat kan zo zijn, ja. Als dat dus een hoog risico is of een general purpose als het nog blijft. Ja. Nou, ik denk dat dat een mooie afsluiting is met alle tips. En vooral, zeg maar, fijn dat je die pragmatische aanpak pakt. En jij hebt me heel erg getriggerd met de vraag van, waarom zou je het niet alles behandelen als zijnde hoog risico? Ja, natuurlijk zul je, het enige waar je op moet letten is natuurlijk als het iets is wat helemaal niet. Het mag, ja dan moet je even goed kijken naar, mag het echt helemaal niet? Ja. Of is het hoog risico? Dan moet je een beetje beter opletten. Maar als de vraag is, goh, is dit AI waarbij ik alleen maar transparantieverplichting heb of hoog risico? Ja, dan zit daar gewoon al zoveel onderzoek in. Dan kun je het net zo goed als hoog risico behandelen. Want dan kost het je net zoveel. Lijkt me er mooi om mee af te sluiten. Hartstikke bedankt dat je naar onze studio wilde komen om dit te bespreken. Graag gedaan. En nou ja, vergeet je niet te abonneren op onze nieuwsbrief. En mocht je deze podcast graag luisteren, help ons ook even op Spotify door de review achter te laten of een like. Hartstikke mooi, dankjewel. Tot de volgende keer. [Muziek]
Over de gast
Charlotte Meindersma is AI-jurist bij Charlotte's Law & Fine Prints, waar ze zich richt op de juridische aspecten van kunstmatige intelligentie, privacy en intellectueel eigendom. Ze heeft een achtergrond in auteursrecht en heeft zich in de loop der jaren verdiept in de juridische implicaties van AI-toepassingen. Haar expertise omvat het adviseren van bedrijven over de nieuwe AI-wetgeving en de noodzaak van AI-geletterdheid binnen organisaties.
Bekijk gastprofiel