In deze aflevering van AIToday Live bespreekt de gerenommeerde ICT-jurist Arnoud Engelfriet de raakvlakken tussen kunstmatige intelligentie en recht. Engelfriet, auteur en Chief Knowledge Officer bij ICTRecht, biedt een diepgaand inzicht in hoe AI wordt ingezet voor het analyseren van juridische documenten, zoals geheimhoudingscontracten.\n\nHij verkent de uitdagingen en innovaties binnen de juridische sector en gaat in op de implicaties van de Europese AI-verordening. Verder behandelt Engelfriet ethische vraagstukken en het garanderen van AI-objectiviteit, een relevante kwestie voor de diverse toepassingen van AI in beoordelingsprocessen.\n\nLuisteraars die geïnteresseerd zijn in de juridische aspecten van AI vinden in dit gesprek praktische inzichten voor compliance en implementatie binnen hun organisaties.
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live. Met vandaag in de studio Arnoud Engelfriet, auteur van een van de boek, gaan we het zo direct over hebben. Mijn naam Joop Snijder, CTO bij Aigency. Mijn naam Niels Naglé, chapter lead, data AI bij Info Support. Ja, hoi Arnoud, leuk dat je bij ons aanwezig wil zijn in de studio. Ja, goedemorgen. Zou je jezelf even kort willen voorstellen aan de luisteraars? Ja, ik ben Arnoud Engelfriet, ICT-jurist en blogger. Je kent me misschien van Tweakers of Security.nl waar ik regelmatig bijdrage lever. Ik ben daarnaast Chief Knowledge Officer bij ICTRecht, dat is ons adviesbureau waar ik de academy, dus de opleiding en training en dergelijke doe. En in mijn vrije tijd programmeer ik ook nog aan een AI die contracten kan reviewen. En ja, dat is verder even de kaart denk ik. Oh, interessant die AI die contracten kan interviewen. Kan je daar iets meer over tellen voordat we aan je boek beginnen? Ja, dat is al wat een ouder project, in 2016 ben ik daarmee begonnen. Kan NDA's, dus geheimhoudingscontracten, reviewen, want in de zakelijke wereld krijgen we heel vaak mensen langzaam. Ik heb een NDA, kan ik dit tekenen, et cetera. Later ook nog vanuit AVG, GDPR mensen, de verwerkersovereenkomst, wat staat die in, heel veel kleine ondernemers zitten daarmee. Ja, dat is heel veel standaard tekst, maar steeds allemaal net iets anders opgeschreven, want ieder jurist heeft toch weer zijn eigen hobbypaardje. En dat moet zo en dat moet dit en dat moet dat. Ik had er op een gegeven moment 800, die ben ik toen met de hand gaan labelen en daar heb ik een machine learning model op getraind. Dus je kan er gewoon een clausule herkennen als, oh ja, dit is een boete clausule, dit is een looptijd, dit is een beveiligingsclausule, et cetera. Dat koppel je aan een simpele matrix, dat je zegt van als jij de ontvanger bent en er staat een boete beding in, zeg dan wat krijgen we nou, dit mag je niet tekenen. Dat is eigenlijk super simpel, maar voor heel veel kleine ondernemers die gooien er een NDA in en dan zegt dat ding, boete beding moet je schrappen, er staat hier een looptijd van 10 jaar, daar moet je 2 jaar van maken. En de AI is eigenlijk alleen het herkennen van welke clausule dat is, dus dat is puur een bag of words in technische termen. Dus hij kijkt gewoon statistisch, die woorden lijken op deze woorden, want alle juristen gebruiken nog eenmaal dezelfde woorden. En waar dat niet werkt, gebruiken we reguliere expressies, want dat werkt gewoon wel. Ik noem dat altijd de duct tape van AI. Zeker. En het moeilijkste stukje is nog dat we ook een red line wilden maken, dus jij stopt een Word document in en dan krijg je een red line terug met commentaar. En werken met Word is echt vreselijk, hoe die XML in elkaar zit, dat is echt ongelofelijk. Dus 80% van de tijd is gegaan naar het commentaar op de juiste plek in het document krijgen. Het trainen van het AI model, dat zet je gewoon aan en een paar uur later is dat klaar. En die heeft nu 97% F1 scoren, dus dat is best wel prima. Maar het ophangen van het ding aan het goede kopje, daar gaat maar tijd in zitten, daar worden we echt een beetje knettergek van. Maar het werkt en hij kan dus gewoon nu, als jij zegt, er staat 10 jaar en jij hebt geprogrammeerd dat is te lang, dan streept hij 10 jaar door en dan maakt hij daar 2 jaar van of dat jij maar hebt ingevuld. En veel meer dan dat is het eigenlijk niet, maar dat hoeft ook niet. Je zegt veel meer dan dat is het niet, maar ik kan me zo voorstellen dat het een enorme verbetering is in werktijd en dat dat je heel veel inkort. En uiteindelijk gaat het om de impact die je maakt, toch? En niet om de technologie die je toepast. Nee, dat klopt. De meest succesvolle AI is eigenlijk technologie die een beetje snel naar de achtergrond gaat, dus die het gewoon doet, die er gewoon is. En het moet vooral geen gadget zijn. Dus we positioneren het ook zo laagdrempelig en makkelijk mogelijk. Tegelijkertijd zien we wel dat onze afnemers, dat zijn met name de niet-juristen, bijvoorbeeld heel veel kleine ondernemers die solo opereren, die komen dan bijvoorbeeld steeds NDA's tegen bij klanten. En die willen het even laten screenen, maar die willen geen 500 euro betalen voor een juridische review, maar die willen gewoon weten, staan hier gekke dingen in? Of even de bevestiging dat er geen boetebeding in staat en dat het recht van Finland dat dat prima is. En dat werkt. Alleen als ik ermee naar advocaten ga, je zou ook denken, die kunnen ook tijd besparen en dit soort domme dingen doen. Dat duurt heel lang, ongeveer dat anderhalf jaar om die te overtuigen dat dit wat zou kunnen zijn. En dan nog zie je daar heel snel, nou controleer toch nog even zelf helemaal. Dus een heel andere doelgroep. En wat houdt je daarentegen? Ja, inderdaad. Het grote probleem in de juridische sector is een gebrek aan innovatief vermogen. Men wil vaak wel, iedere jurist, iedere advocaat die het vraagt, ja wij moeten innoveren, wij moeten legal tech en wij moeten met AI en dit en dat. Ik heb ook heel veel workshops en trainingen gegeven daarover. Iedereen is super enthousiast en op individueel niveau. Ze hebben allemaal ChatGPT, denk nooit advocaten met geen verstand van techniek, want ze hebben hippere gadgets dan jij. En doen daar ook meer mee. Alleen zodra het op het werk gaat, dan lijkt het soms wel 1890. Het wordt geprint en met veel pen wordt het nagekeken of het wel klopt. Je pleit door, je doet het uit je hoofd. Je gaat niet voorlezen van je iPad, dat soort dingen. Waar dat in zit, dat weten we eigenlijk niet. Er wordt soms wel gezegd, omdat je uurtje factuurtje werkt, wil je geen tool die jou minder uurtjes doet geven. Maar de hele consultancy sector heeft natuurlijk het uurtje factuurtje model, die hebben het hier ook mee leren. De voornaamste reden lijkt toch een beetje zorgen over risico's te zijn. Want zeker als jij juridisch advies geeft, dan zeg je eigenlijk vooral, jij krijgt geen claims als je doet wat ik zeg. En als er dan dus wel claims komen, ben jij daarvoor aansprakelijk. En dat is veel meer dan een consultant die zegt, ik heb een stukje maatwerk software voor jou gebouwd. Volgens mij voldoet dat aan de specs, we gaan het gewoon proberen. Daar kun je met voorwaarden een SLA van maken, want de klant van een softwarebedrijf doet het niet, dat er dan iemand komt en dat hij het weer doet. Maar bij een jurist, als je een contract hebt geschreven en er staat een fout in, dan komt er een claim. Dan kun je geen SLA opgeven, daar komt gewoon ruzie van. Dus juristen zijn veel meer risicomijdend. En als je iets hebt dat werkt, en waarvan ook bewezen is dat het werkt, waarom in vredesnaam zou ik dan switchen? Bijvoorbeeld de fax is in de juridische wereld volgens mij pas vijf jaar geleden aangeschaft. De Hoge Raad heeft ooit in 1991 volgens mij gezegd, een gefaxte kopie van een juridisch stuk is net zo rechtsgeldig als het origineel. Dus nu kun je bijvoorbeeld snel een contract heen en weer sturen, of een dagvaarding indienen, of wat dan ook via de fax, dan weet je dat het goed gaat. Je kunt hem natuurlijk ook e-mailen, maar de Hoge Raad heeft nooit gezegd, een ge-emailde kopie is net zo rechtsgeldig als het origineel. Dus jij neemt nu een risico. Waarom zou jij dat risico nemen? Want het komt op jouw bordje, jij komt voor de tuchtrechter als dit misgaat, terwijl je het ook kunt faxen. En dan heb je allemaal IT'ers die zeggen, ja maar de fax is ouderwets en wat een flauwekul en ik heb een prachtige portaal met dit en dat. Ja goed, ik word aansprakelijk gesteld. Waarom moet ik jouw experimentele oplossing gebruiken? Dan moet ik ook nog meer voor betalen dan een fax en ik krijg de claims. Dat lijkt me heel erg lastig. En je spreekt hier veel over en geeft training. Wat zijn dan twee argumenten die je op tafel legt die ze misschien kunnen overtuigen om je anders over na te gaan denken? De meest voorkomende is dat je laat zien, het werkt en dat ondersteunt jou in een proces dat jij al aan het doen bent. Dus je moet vooral niet met de grote systemen binnenkomen. Want als je een big shiny box die alles doet en alles op een andere manier gaat doen, dat is sowieso organisatie veranderingen, daar gaat niemand goed op. Maar als je een drop-in replacement hebt, dus bijvoorbeeld wat goed werkt, je zit in Word te schrijven, een ander tooltje om te experimenteren. En je bent een contract aan het schrijven en je denkt, ik heb een clausule nodig die regelt dat als we in Singapore zijn dat er een arbitrage is. Dat je dan op een knopje drukt en dat je die clausule krijgt. Dat ben ik al gewend, normaal zou ik in een ander word document een sjabloon gaan zoeken, maar nu zoekt hij zelf, daar zijn LLM's heel goed in. Je gooit er gewoon al je modellen in en dan zeg je, geef me een arbitrage clausule in Singapore. En dan komt er eentje en die staat er dan gewoon in Word bij en dan kun je gewoon kijken, dat is een goede tekst voor mij. Of ik zie dat dit toch even anders moet of ik zet het liever in de tegenwoordige tijd of weet ik veel. Dus dat is gewoon een schrijfhulp. Dat soort dingen werken heel erg goed. En ook met zo'n review tool, die review komt dan terug binnen een seconde, die staat gewoon in Word op je scherm. En dan kun je er gewoon zelf nog in zeggen, dit is onzin, dit laat ik staan. Hij heeft hier twee jaar van, ik doe voor deze keer wel drie jaar. Dus dat soort low key ondersteuning, sneller doen wat men al gewend is, dat vindt iedereen wel prima. En dan ook nog steeds de controle houden en de regie houden bij de mens eigenlijk. Ja, heel mooi dat je dat zegt, want dat is in mijn boek ook een van de centrale thema's met die AI-act die er nu aankomt. Het centrale ding van AI is menselijke controle en menselijke grip. We gaan nu steeds meer dingen doen met AI, die voorheen echt tot het hogere menselijke domein, het cognitieve domein behoren. En waardoor mensen heel snel het gevoel hebben van, ik ben controle kwijt. Computer says no, is daar de bekende uitdrukking bij. Ik weet niet wat hier gebeurt. Bij een mens kan ik zeggen, maar waarom dan, wat is er gebeurd, hoezo? De computer heeft net een rood lampje gedaan en je komt niet binnen. En dan sta je voor dat poortje en ja, hij blijft dicht. En tegen een portier kun je zeggen, Hans, ik werk hier al 25 jaar, mag ik naar binnen? En dan zegt Hans, kom maar binnen. Niet tot tijd, bij mijn oudere werkgever had ik daar ooit een prachtige anekdote over van een oud directeur. Die zat daar 40 jaar, gaf op vrijdag een grote receptie daar op het kantoor. 300 man, binnen en buitenland, alle concurrenten komen ook lang, was een sympathieke man. En toen was hij in het weekend thuis en merkte hij, ik ben nog wat vergeten, nog een schilderijtje vergeten. Dus hij ging maandag even terug naar kantoor om het schilderijtje op te halen. En de receptionist zei, bent u aangemeld als bezoeker? Dat was haar eerste werkdag. Dat is op zich ook wel een goed idee. Maar voor AI, dat is ook een beetje het meer juridische stuk, waar de AI-verordening nu over gaat, is hoe zorg je ervoor dat mensen nog een beetje grip hebben op die technologie. Dat je weet wat er gebeurt en waarom het gebeurt. En dat is een van de moeilijkste uitdagingen. Dat is vaak ook waarom AI zo moeilijk te accepteren is. Het werkt anders dan wij gewend zijn. Het vertrouwen moet opgebouwd worden. Je moet het zelf kunnen relateren en verklaren. Ik had nog wel even een vraag op je reactie over de fax en de veranderingen daarin. Zien we daar dan in dat het juridisch dan nog wat achterloopt? Want de uitspraak van de fax is wel geweest, maar op de e-mail is niet geweest. Zie je daar verandering in? De vraag met achterlopen is eigenlijk dan voor mij altijd een beetje de vraag van, doe je innovatie om de innovatie of omdat er een maatschappelijk probleem opgelost moet worden? Met e-mail is altijd een beetje geweest, dat werkt, dat hebben we makkelijk beschikbaar. En faxen is net iets moeilijker. Daar moet je naar het secretariaat voor lopen en die moet je dat dan doen. En ergens anders zit er een papierrol en et cetera. Dus dat is dan net iets meer gedoe. Dus wij zijn heel snel gewend om naar tooltjes te gaan die we dingen zelf kunnen doen. Maar vanuit juridisch perspectief, dan zeg ik altijd een professioneel doemdenker. Ik ga bedenken wat er mis kan gaan. Er zit een groot overlap, ik weet niet of de developers luisteren, tussen testers en juristen. Het is hetzelfde slag mens. Wij gaan ook zeggen, wat gebeurt er nou als iemand niet betaalt? Of als ze het koppelen aan een tool wat jij nooit had voorzien. En daar moet ik contractuele oplossingen voor bedenken. Dus men is wat terughouden met innovaties deployen, omdat je niet goed weet wat de maatschappelijke effecten zouden kunnen zijn. En die maatschappelijke effecten zijn wel waar het juridische om gaat. Want er moeten zwakke groepen beschermd worden, dingen moeten in goede banen geleid worden. Het is ook een stukje conservatisme. Het gaat nu goed, hoezo internet? We hebben CD-ROM's, waar maak jij je druk om? Dat zit er ook wel een beetje in. Maar dat is ingegeven vanuit een algemene gedachte. Risico's beperken, schade beperken, zachtjes aan en we komen er wel. En move fast and break things van Meta is daar natuurlijk compleet tegenovergesteld. Ja, absoluut. Arnoud, je hebt een boek geschreven, AI & Algorithms, met een hele mooie ondertitel. Mastering Legal and Ethical Compliance. Wat was de reden voor jou om dit boek te gaan schrijven? De concrete aanleiding was dat de AI Act, de AI-verordening in de Europese Unie, eraan zat te komen. En dat er gewoon wel heel veel literatuur is over de techniek van AI. Er is een hoop geschreven over de techniek, de ethiek. Maar over het juridische is er nog heel erg weinig. En wat er is, komt met name uit Amerika. Ik heb veel meer boeken geschreven over ICT en recht en dergelijke. En daar zie je altijd, de Amerikanen hebben het voortouw. En heel veel literatuur en dingen die eruit komen, gaan ook over hoe het in Amerika werkt. En dat gaan we dan in Europa een soort van een beetje nadoen. En dan, oh ja, wacht even, wij hebben ook nog een AVG. Dus dat werkt allemaal net even anders. Dus ik dacht, dat moet je eigenlijk voor zijn. En gewoon vanuit het Europese perspectief aangeven, waar gaat het over? Wat verstaan wij onder grondrechten? Dat is wat anders dan wat ze in Amerika onder grondrechten verstaan. En hoe werkt dat met ethische principes en hoe werkt ons systeem? Zou je het heel kort, want ik denk niet dat al onze luisteraars op de hoogte zijn van wat er in die AI-verordening staat. Zou je heel kort kunnen uitleggen, wat betekent dit eigenlijk voor de gemiddelde burger, maar ook voor jou als werknemer? De AI-Act is het idee dat je AI-risico's wilt managen. Dus sommige risico's van toepassing van AI zijn echt onacceptabel. De bekende social credit scoring, wat in China zou gebeuren. Grote biometrische surveillance en nog een paar van dat soort dingen, dat willen we gewoon echt niet hebben. Die worden in de ban gedaan. Er zijn ook heel veel toepassingen die echt geen enkel probleem zijn. Daar is hooguit te vragen dat je wil weten, bijvoorbeeld de chatbot van een winkel. Ik ga naar bol.com, hallo ik ben Billy, kan ik je helpen? Nou die moeten zeggen dat ze AI zijn. Dat is nu niet zo'n probleem, dat heb je wel door. Maar als die steeds slimmer worden, dan moet er op een gegeven moment een label bij komen. Je praat nu met een AI. En ook als er plaatjes worden gemaakt met AI, op een zeker moment moet daar misschien een watermerk in komen. Of een certificaat van, dat weet ik veel. Dus dat je een beetje door hebt, ik ben met een AI aan het praten. De middenmoot, dat noemen we de high risk AI. Dus die hebben bepaalde specifieke risico's. En die risico's moeten worden gemanaged. We denken bijvoorbeeld aan het veiligheidssysteem van de lift. Dat zou je met een AI kunnen doen. Of een zelfrijdende auto. Dat heeft gewoon consequenties voor mensen als je dat niet managet. En de AI-act zegt eigenlijk vooral, dan moet je risicomanagement in place hebben. En jij moet quality control hebben. Je moet adequate logging hebben, dat we achteraf kunnen zien wat er is misgegaan. Je moet kunnen aantonen dat je je dataset op een fatsoenlijke manier hebt opgebouwd. Dat we kunnen zien dat bijvoorbeeld diversiteit goed geborgen is. Of dat je je testgebied hebt gedaan. Dat je bijvoorbeeld fietsers hebt meegenomen. Want er zijn bijvoorbeeld het erover van, systemen die in Amerika worden gebouwd om objecten op de weg te herkennen. En dan hebben ze geen fietsers. Waarom? In California fietst men niet. En dat is hartstikke stom. Want hier in Europa gebeurt dat wel. Maar je wil dat die niet als een plastic zak worden herkend. Want dan gaat de auto eroverheen. Dus dat soort dingen moet je dan meenemen. En de kern van de AI-act is dus voorschrijven wat die risico's zijn. Met een stukje toezicht en dergelijke. Wat een beetje op de AVG of GDPR lijkt. Met toezichthouders en boetes. En kunnen inzien wat er gebeurt. Dus als jij als werknemer hier bang voor bent, dat hoef jij niet precies te doen, dit is een werkgeversprobleem. Als bedrijf, als je AI inzet of als je AI gebruikt, moet je hier compliance voor hebben. En als werknemer is het vooral bewustzijn van wij gaan nu een AI-project doen, is dit wel gecheckt? Net zoals je zegt, dit zijn persoonsgegevens, mag dat wel zo? Dus als je zegt, volgens mij is dit een AI, wij gaan nu iets doen. Wij gaan nu mensen laten inloggen met een AI-gezichtsherkenning. Of ik bouw, weet ik veel, een onderwijs-leermanagementsysteem. En ik ga nu bepalen dat leerlingen op basis van AI high potential zijn. Of juist remedial onderwijs nodig hebben. Kan dat wel zomaar? Is die dataset wel goed gecheckt? Of geef ik alleen, hebben wij zo spreken, de witte meisjes, die mogen door naar de excellente programma's. En alle jongens, die moeten op het basisniveau blijven. Daar moet je op checken. Die kaders liggen nu redelijk beschreven. Het is nog in een voorstelstadium. Het is een heel ingewikkeld verhaal. Sinds 2018/19 is er een tekst. Het parlement heeft daar op geschoten. De raad van ministers van de lidstaten hebben erop geschoten. En de afgelopen maanden, november en december, hebben ze een paar marathonsessies gehad. Eentje van 22 uur. Allemaal in een hok. Dat komt de kwaliteit nooit ten goede. Hackathons en. En daar hebben ze een soort van de tekst nu, dat heet een politiek compromis op bereikt. Ze zijn er eigenlijk over uit. Het grote probleem is, ze hebben daar niet één groot woorddocument gehad waar ze in zijn gaan red linen. Dus dat ze nu kunnen zeggen, we zijn het overal over eens. Er zijn allerlei sessies en wandelgangen. En op de wc is nog wat onderhandeld. Sommige dingen stonden alleen op de linkervinger van een eurocommissaris. Even snel opschrijven. Of de spreekwoordelijke dingen. Er zijn drie versies afgesproken, binnen drie groepjes. Waarvan gezegd is, daar komen we wel uit. Dus ze zitten nu met de puinhoop van het compromis uitwerken. Formeel zijn ze er eigenlijk al uit. Dus er hoort niet nog een onderhandel rond te komen. Het is nu alleen de tekst oppoetsen en nog één keer stemmen over de finale tekst. Maar allerlei lidstaten zijn nu moeilijk aan het doen. Omdat ze hun kans schoon zien en zeggen, Oba, ik heb nog één feitelijke correctie. Naar pagina drie moeten deze zes pagina's ertussen worden. Dat is iedereen nu aan het doen. Ze zijn nu boos op de Fransen, omdat de minister, ik ben zijn naam kwijt, die zou banden hebben met Mistral. Dat is zo'n AI-company. Die maken een open source large language model. Die zou de minister hebben ingefluisterd wat er in de AI-act moest komen. Vanuit het Franse belang. Daar zijn nu dus discussies over. Of dat dan wel op een eerlijke manier is gebeurd. Spanje is nu aan het roepen dat ze allerlei extra beschermingen voor burgerrechten erin willen hebben. Waarvan eerder is gezegd, laten we dat niet doen, want daar komen we nooit uit. Kan je daar een voorbeeld van geven? Biometrie is dus gezichtsherkenning, mensenherkenning. Wij denken vaak aan AI, als ontwikkelaars denken we aan handige hulpjes. Siri die voorstellen doet. Maar AI is heel populair bij wetshandhaving, militairen en alles dat daar omheen zit. En een van de dingen, dat zag ik in Nederland ook weer voorbij komen, is het idee, wij hebben allemaal camera's hangen, dan stoppen we allemaal gezichtsherkenning in. Herkennen we iedereen die daar in een menigte loopt, dat cross-referencen met een politiedatabase, what could ever go wrong. En dan gaan we gewoon iedereen preventief arresteren. Jij bent een bekende winkeldief, jij lijkt op iemand die ooit een keer met terrorisme in verband is gebracht. En dan rijden we zo'n busje voor en dan word jij ingeladen. Dan heb je allerlei dingen over foutieve identificatie, of dubbelherkenning, of wat dan ook. Er zaten niet genoeg mensen van kleur in die database. Dus iedereen van kleur die daar komt, wordt herkend als die Senegalese terrorist. Dus dat moet goed worden getest. En daar is dus de discussie over geweest, gaan we dat soort dingen verbieden? Of gaan we zeggen, dat is hoog risico. Wie heeft daar dan weer toezicht op? Want hoe zou maar bijvoorbeeld autoriteit persoonsgegevens toezicht op de politie houden? En als het over militairen of de terrorisme dingen is, dat is al helemaal ingewikkeld. Dus wie moet daar toezicht op gaan houden? Hebben ze defensie niet uit de tekst gehaald? Defensie is er uiteindelijk uitgehaald. Met het idee dat toezichthouders daar toch niet gaan komen. En wat je met autonome wapensystemen doet, zoals de SGR-1 in Korea, dat is een autonome machinegeweer. Dat staat aan de grens tussen Zuid- en Noord-Korea. Dat is een Samsung ding. En die heeft een autonomous mode. Dus als je die aanzet, dan gaat die rondkijken. En als die in je gezicht schiet, dan schiet die persoon dood. En het idee is dat als je dat in de DMZ neerzet, tussen Noord- en Zuid-Korea, en de Noord-Koreanen komen eraan, als je dan niet genoeg mensen hebt, dan zet je hem op autonoom. En dan red je het misschien toch. Spannend. Dan is het natuurlijk de vraag, wat voor regels moet je daarvoor stellen? Maar daar moeten internationaal nog regels voor komen. Want daar komen we volledig niet uit. En dat is ook heel moeilijk af te bakenen. Nederland heeft bijvoorbeeld in de jaren '70 de Goalkeeper gemaakt. Dat is een autonome wapensysteem voor op marineschepen. En als je die aanzet en er komt een raket of een boot, dan schiet die uit de lucht. Hij kan 200 raketten per minuut uitschakelen. Dat is een heel mooi systeem. Maar dat bestaat al sinds 1978 of zo. En daar is nooit discussie over gekomen. Dit is een Terminator of wat. Dat is gewoon een last-ditch systeem. De Russen hebben gelanceerd. Ik denk zelf, het is een marineschip op zee. En daar worden raketten op afgeschoten. Dus het idee, daar worden mensen doodgeschoten door een robot, dat is niet de use case daar. Terwijl als je zegt, ik heb een machinegeweer op pootjes, zoals een hond van Boston Dynamics, doe ik een machinegeweer op en die laat ik patrouilleren hier in de Dorpsstraat. Dat voelt als een andere use case met andere borgen. Daar komen we dus juridisch niet uit. Dus dat moet maar even terug naar de Verenigde Naties of de Europese Unie vanuit een mensenrechtenbescherming om daar niet weer rechts voor te zijn. Dus dat is uitgeknipt. Maar politie, handhaving, dat valt wel binnen dat domein. Net zoals de politie zich aan regels over persoonsgegevens moet houden, moeten ze zich ook aan regels over AI houden. En we vinden het best wel risicovol als iemand bijvoorbeeld ten onrechte zou worden herkend als verdachte. Maar ook het algemene idee, dat de politie altijd weet waar iedere Nederlander is. En dan kun je wel zeggen, ik ben wel onschuldig, maar een volledige database van alles waar jij was, dat gaat altijd mis. Maar dat is de vrijheid van de democratie toch, die we ooit voor ons zagen. Ik zou dat heel eng vinden. Iedereen vindt dat heel eng, maar dit soort dingen, het is altijd een feature creep ding. We zijn met nummerplaatherkenning, de ANPR, zijn we ooit begonnen, dat is handig, want dan kunnen we kijken wie zijn belasting niet betaald heeft. De motorrijtuigenbelasting. Toen was het gewoon, als er iemand een ontvoering heeft gepleegd, met een kind op de achterbank en die race er vandoor, tik je dat in en dan kun je hem acuut oppakken. Als Osama Bin Laden op een motorfiets over daar twee gaat, dan wil je hem er niet op tegen kunnen houden. Toen werd het, alle zware criminelen, - Ik zie het op de grond. - Kansen impact. Je ziet hoe dat soort dingen dan steeds breder en makkelijker worden. En je bent er op een gegeven moment aan gewend. In de jaren zeventig werden er ook wel eens videocamera's opgehangen, dat was ongeveer kamervragen aan een maatschappelijk debat. Nu is het ophangen van videocamera's gewoon een vinkje bij, als je een nieuw bedrijfspand maakt, dan doe je dat. En nu hebben we de kader van die wetten. Stel, hij komt er in deze vorm. Ik neem aan dat dat het begin van je boek is. Wat beschrijf jij verder? Het boek biedt jou handvatten om op een praktische manier die compliance in te regelen. Met heel veel organisaties die zullen hiermee moeten werken en die zitten met name met zo'n hoog risicosysteem. Wat moet ik dan allemaal doen? Het is zowel juridisch als ethisch. Want compliance, dat denken veel mensen aan iemand die met een clipboard langskomt. Je hebt allemaal wel eens een ISO-traject gedaan. Heb je wel dit, heb je wel dat? Heb je een policy verwacht worden? Een vinkenlijstje. Alleen als je met dit soort dingen vinkenlijstjes gaat doen, dan kom je er niet. Want er zitten hier zoveel vragen aan. Ook bijvoorbeeld, moeten wij dit wel doen? Heeft dit wel zin? Ik sprak laatst een ondernemer die zei, als ik een zelfscan-kassaas van supermarkt ga, dan ga ik een camera maken die met AI herkent of iemand een winkeldief is. Je hebt gelezen, winkeldiefstal bij de zelfscan-kassa is een enorm probleem. Dus wij gaan herkennen of iemand een winkeldief is. En als de AI dat denkt, dan krijg jij een controle. Dan gaat die let op, er is een medewerker naar je onderweg bij Albert Heijn. En juridisch kun je daar een compliance procedure op doen. Ik denk dat je dat zo kunt doen dat eruit komt dat het kan. Maar dit is ook zo'n ding. Moet je dat wel willen? Het valt mij de laatste tijd op, bijna alle supermarkten die het hebben, hebben ook een groot bord. Waarom word ik geselecteerd voor controle? Dit is volkomen willekeurig. Het ding gooit een dobbelsteen, een D20 en als het 18 is, dan ben jij aan de beurt. Dat is namelijk het enige dat je aan mensen uit kunt leggen. Iedereen komt aan de beurt. We hebben niet genoeg mensen voor iedereen, dus we kiezen mensen eruit. En zodra het wordt, ik heb een AI die zegt dat u een verhogende kans heeft. Een winkeldief geheid is waar, maar hoezo dan? Je draagt een dikke gewatteerde jas, je hebt een Louis Vuitton tasje om en je hebt een bontkraag. Daar ga je al. Of als je zegt dat mannen vaker stelen dan vrouwen of bejaarden stelen vaker. Dat is serieus nu een probleem. Oude mensen stelen nu vaker dan jonge mensen bij de zelfscan-kassa. Daar voelen mensen zich toch dan onheus in bejegen. Dan kom je in de discussie van ethiek. Moeten we dit wel bouwen? Heeft dit wel zin? Dat is waar het boek ook handvaten probeert te geven. Ik heb daar weinig nieuws in gedaan, veel literatuur erbij gepakt. Hoe je dit soort dingen bouwt, tips voor user interfaces. Heel praktisch eigenlijk. Een van de dingen is bijvoorbeeld de uitlegbaarheid van AI. AI is heel lang een black box geweest, waardoor je alleen maar kon zien, computer says no. Er zijn allerlei technieken, LIME, XAI, waarmee je terug kunt rekenen hoe die AI tot zijn beslissing kwam. Dat zijn technologieën om de black box een beetje te openen. Het voornaamste probleem daarmee is, dan zegt hij bijvoorbeeld... Ik heb gezien dat jouw linkerknie blauw was en dat jij een grijze bovenkant had. Dus jij bent een man. Dat zijn de factoren waar hij op getraind is. Dit is niet het soort uitleg waar een jurist een bezwaarschrift op zou baseren. Dus uitlegbaarheid is niet alleen maar een technische oplossing. Ik gooi er een LIME-plugin in en dan heb ik XAI en dan kunnen we verder. Je moet ook binnen je systeem kijken. Wat ga ik doen met die uitleg? Dat komt dan bij een mens terecht. Of iemand heeft bezwaar, neem je dat dan mee? Dus het is veel meer nadenken over hoe ik die AI inzet en welke opties ik daarbij gebruik. En heb je het ook over processen? Ja, het is primair processen. AI is heel vaak automatisering van bestaande processen. En heel oneerbiedig, dat gaat vaak vanuit een bezuinigingsmotief. Ik wil van die dure mensen af, dus ik gooi mijn eerste lijn helpdesk eruit en ik zet AI's in. Die vragen dan uit en dan gaat het naar een tweede lijn. En daar zitten dan de wat slimmere mensen. En dat is allemaal leuk en aardig. Alleen, als ik een gek verhaal heb, dan kom ik nooit door die eerste lijn. De LLM snapt dat niet. En dan moet ik in de wachtkamer voor de gekke gevallen. Ja, dat duurt gewoon langer. En dat is gewoon best wel ingewikkeld. Vroeger kon je bijvoorbeeld bij de helpdesk van Cello of UPC, als je wat technische termen gooide, werd je meteen doorverwonden met de derde lijn. Nu, ja, je moet je modem gereset hebben. En je moet de stekker eruit getrokken hebben. Meneer, ik zie dat u niet 30 seconden de stekker eruit getrokken heeft. En ja, ik weet wat er is. Jullie DNS staat verkeerd. Alles gaat via een Turkse internetprovider. Wil je dat fixen? Dat kan ik niet uitleggen. Dus je probeert er praktische tips in te geven. Ja, en daar wilde ik eigenlijk ook naar toe. Want die explainable AI is een van mijn passies ook. Wat is een van de praktische tips die je daarin geeft? Het hele stomme is, mensen zijn over het algemeen, mensen die het systeem gebruiken, die kijken niet naar de uitleg om te zien of de AI het goed doet. Het is een psychologisch effect dat als een AI uitleg geeft, dan lezen wij dat niet. Dan denken we, zie je wel, hij heeft een verstaanbaar, hij kan zijn beslissing zelf uitleggen. Dat versterkt het beeld dat de AI goed bezig is. Wat veel beter werkt, is als jij als mens zo'n AI-assistent hebt, dat aan jou een eerste indruk wordt gevraagd. "Joop, wat denk jij?" En dan denk jij, nou volgens mij is dit een winkeldief. Daarna gaat de AI uitleggen of die persoon een winkeldief is. En dat prikkelt jou veel meer om na te denken, klopt mijn oordeel eigenlijk wel? Want als hij bijvoorbeeld zegt, het is een persoon van middelbare leeftijd. Hij heeft een dure tas bij zich. Hij heeft net voor 138 euro kerstboodschappen gekocht. En dan ga je, ik heb net gezegd winkeldief, maar als ik dit allemaal hoor, klopt dat wel. Terwijl als hij zegt, dit is geen winkeldief, en ik zie dit en dit en dit, dan denk jij misschien, nou toch wel. Dus je moet sommige dingen op zijn kop doen. Of bijvoorbeeld tijdens de uitleg even stoppen, en dan vragen, wat zal mijn volgende zin zijn? Dus de AI gaat aan jou vragen, wat denk jij nu? Dat is jouw inschatting, die neemt jou mee. Ja precies, dus dat je het eigenlijk ook een beetje bijstuurt. En jou meer engaged in je denkproces. Maar een van de grootste problemen is dat mensen lui worden van een AI. Ik heb een bekende voorbeeld op Schiphol, die meneer die in alle koffers moet kijken of er een bom zit. Nou, gemiddeld zit er geen bom in een koffer. Dus die heeft weken dat hij gewoon alleen maar, oké, oké, oké. Dus als je niet uitkijkt, dan drukt hij de hele dag gewoon blind op die knop, en dan gaat hij ondertussen Facebooken. Dus wat je dan moet doen ongeveer, is af en toe random gewoon een bom tonen op het scherm. Niet echt een bom, maar gewoon... Als een overleg eroverheen. Ja, dat hebben we in het verleden wel met echte bommen. En dan heb je dus een keer dat iemand dan in New York komt en daar landt. En dan hoeft hij bij de inschatting te zien of er een bom zit. Ja, maar zij is vergeten het eruit te halen. Niet zo handig. Dus een plaatje van bom is handig, maar daardoor wordt die meneer getriggerd om op te blijven letten. Alleen dat is heel vervelend werk. En dan word je op een negatieve manier getriggerd. Als ik jou inhoudelijk gewoon bij het proces betrokken hou, hoe kom ik tot het besluit, hoe kom ik tot mijn volgende dingen, dan blijf jij meer engaged en blijf jij ook kritisch op wat die AI gaat doen. Ja, eigenlijk inderdaad. Maar dit is wel veel moeilijker te bouwen. En dat is wat ik bedoel met ethisch versus juridisch. Zuif juridisch zou ik zeggen, heb jij explainable AI? Ja, we hebben de line gedeployed. Ja, want op zich zit dat ook in die teksten, toch? Uitlegbaarheid is een vereiste voor de hoogrisicoklasse. Precies. Maar er staat nergens bij in welke mate, hoe dat eruit ziet. Wat je dan krijgt, dat mensen zeggen, nou, we hebben LIME toegevoegd aan ons systeem, dus je kunt op het knopje explanation drukken, en dan klapt er een ding open en dan komen er honderd regels tekst. Die kun je door ChatGPT heen halen, maak hier een mooie brief van, en dan hebben we een mooie brief. Alleen, met alle respect, dit is gewoon bagger. Dit leest niemand. Nee, en daar moet je weer gaan meten, inderdaad. Hoe vaak wordt er eigenlijk überhaupt op die knop gedrukt en halen we eigenlijk wel het resultaat, waarmee we eigenlijk zeggen, we willen die explainability hebben om dat. Maar dan krijg je dus weer, daar is geen enkele prikkel voor om dat te doen. Dit is zo ver van je proces. Compliance heeft gezegd, er is explainable AI, dus die zijn ook tevreden. Niemand gaat hier moeilijk over doen. Dat werkt niet. Terwijl als jij bijvoorbeeld zegt, wat moeten wij met deze explanation? Hoe gaan we dit gebruiken in ons vervolgproces? Ga je misschien je proces anders inrichten? Ja, mooi. Dat zet me echt heel hard aan het denken. Het probleem namelijk met die technologieën die jij beschrijft. Je hebt LIME, SHAP, je hebt allerlei van dit soort technieken die je kan gebruiken voor de uitleg te geven op een technisch niveau. Daar bestaat wat ze dan noemen het disagreement problem. Oftewel, LIME kan een heel andere uitleg geven dan SHAP. En niet in de zin van dat ik het anders verwoord dan Niels. Nee, maar dat ik zeg van het lag aan, juist omdat het een man is. En Niels zou zeggen van het is juist omdat het niet een man is. Die kunnen totaal verschillende uitleg geven over hetzelfde onderwerp. En dan zit het eigenlijke model, heeft misschien nog een derde pad. Ja, want het is een ongeveer. Mensen doen dat ook. Als ik een inschatting moet maken, ik ben bewaker, dan zou ik misschien niet altijd kunnen uitleggen waarom ik denk, die persoon moet ik in de gaten houden. Ik heb misschien een bepaalde training gehad, ik zei, verrek, volgens mij zit er aluminiumfolie in die tas. Ga eens even goed opletten. En een ander is, iemand staat schichtig om zich heen te kijken, heeft een dikke jas aan terwijl het 30 graden is. Daar rijd jij dan weer op. En een ander die zegt, daar heb je weer zo'n persoon van het kamp, die ga ik eens eventjes in de gaten houden. Dat zijn allemaal verschillende motieven en dingen. En dat vinden wij een soort van oké, dat noem je dan menselijke intuïtie. Maar AI's worden daarin wel aan een hogere standaard gehouden. Ja, en terecht denk ik, want het gaat natuurlijk ook op een grotere schaal. En jij hebt nu een systeem wat tenminste een beetje controleerbaar is. Dus de manier waarop mensen denken en een basis hebben, die is minder controleerbaar. Ik zie het bijvoorbeeld in de Human Resources, dus in Recruitment en Personeel Development, daar wordt nu ook heel veel AI ingezet met het idee, dan is het niet alleen met die drie mensen die jij op gesprek hebt, maar dan kun je bijvoorbeeld iedereen door een mooi interview heen halen. Of kun je van al je personeel goed monitoren, dat zou een high potential kunnen zijn. Dat zou een directeur kunnen worden. Die moeten wij extra dingen gaan geven. Waarbij het risico is dat jij dan het bekend voorbeeld, de CEO huurt altijd zijn replacement. Dat is een broodje, die moet ik hebben. Terwijl je misschien juist een heel ander iemand daar zou willen hebben, die gewoon ook heel goed is, maar op een heel andere manier dan de huidige directeur. En AI belooft daar objectiviteit en eerlijkheid in. Maar ik zie je al kijken, het probleem is daar ook vaak, zijn de datasets daar wel goed genoeg in? Zijn de systemen daar wel voor ontwikkeld? Alleen al dat je bijvoorbeeld mensen vraagt een sollicitatiebrief op te sturen, selecteert al voor op mensen die heel goed schriftelijk zijn. Wat we nu vaak zien, bijvoorbeeld bij McDonald's en dat soort bedrijven, moet jij nu een video in spreken. Waarom het jouw passie is om hamburgers te kopen bij McDonald's. Echt waar? En AI gaat dan kijken of dit echt jouw passie is. En anders dan kom je niet door de sollicitatie heen. Maar het leuke is dan ook weer, er zijn nu allerlei sollicitatie trainingen die jou dan helpen. Om daar doorheen te komen. Om jouw passie goed om met voetbal te spelen. Dat is ook weer een beetje de AI race. Net zoals nu, mensen sturen mij sollicitatiebrieven van, ik weet dat heb jij door ChatGPT laten schrijven. En dan kan ik ook weer een brief terugsturen met ChatGPT. Ik word er zelf dan een beetje moe van. Er komt nu heel veel meer verbiage, heel veel meer teksten komt op ons af, omdat die AI systemen dat realiseren. Dus ja, dat maakt hem wel een beetje moe. Heb je ergens ChatGPT gebruikt bij het schrijven van je boek? Ja, voor de outlines en voor de voorbeelden. Daar is hij best wel goed in. Maar je moet hem echt wel aan een kort lijntje houden. Want zodra ik dan bijvoorbeeld vraag, noem eens vijf voorbeelden van discriminatie. Dan komt hij met vier voorbeelden die ik goed ken. Eén voorbeeld dat ik wat minder goed ken. Dan ga je dat even googelen en ja hoor, heeft hij zelf verzonnen. Ik heb een hele partij custom prompts met blijf van de inhoud af. Herschrijven, let op stijl en dat soort dingen. Maar bijvoorbeeld goede bolletjeslijst schrijven. Ik moest op een gegeven moment ergens uitleggen wat een valse positief en een valse negatief is. Daar komt gewoon een prima tekst uit met een mooi voorbeeld. En dat ik dan op een gegeven moment, een ander onderdeel van het boek is, dat je een bepaalde checklist doet en daar moet dan een zogeheten spider chart, een radardiagram heet dat ook wel. Nou, dan vraag ik aan hem, maak eens even getalletjes om voor een patiënt monitoringsysteem de beste radar chart te maken en doe dat als CSV. Dan komt het eruit, dat pak je in Excel en dan krijg je een chart. Dat soort dingen scheelt gewoon werk. Maar als je de teksten laat schrijven, ik heb op één plaats in hoofdstuk één, daar wilde ik echt helemaal over de top beginnen. Ik wil altijd zoiets zeggen van AI is een science fiction, is een droom. Dit en dat. En dat heb ik erin gestopt en gezegd, oké, wees zo grandeus en onheus mogelijk. Je bent een Engelse rechtenprofessor van 82 die nog één keer wil vlammen. Few things in the grand narrative of time, et cetera. Dus voor over de top dingen is het dan waar we heel erg gaan. Maar ook even dat je zegt, ik doe er een spellingscheck doorheen. Wat ik wel heb gemerkt, het boek wordt ook gebruikt als verplichte literatuur bij onze opleiding tot AI compliance officer. Dat is wat we vanuit ICTRecht doen. Dus daar moet je gewoon door het boek heen. Dan moet je allerlei casussen doen. ChatGPT is geweldig als je bijvoorbeeld backgrounds voor een casus wil maken. Omdat je dan ook kunt zeggen, ik heb een patiënt monitoring systeem dat monitort mensen met diabetes op hun bloedsuiker. Beschrijf zo'n systeem. Verzin allerlei dingen over hoe dat dan wordt verwerkt. Geef mij een typische systeemarchitectuur gekoppeld aan Microsoft Azure. Nou ja, de Power BI's en de andere, die vliegen je om de oren. Kun je ook allemaal zelf doen. Maar hij heeft dat in 10 seconden klaar. Dan kun je ook zeggen, maak me er een systeemdiagrammetje bij. Het is allemaal nep en het is voor juristen. Het is allemaal prima. Het gaat er vooral om dat je meters hebt voor oefenstof. Dat je kunt kijken. Ja, dat is prachtig. Wat ik ook nog een hele mooie vond, er komt dus ook een toets achteraan. Je kunt een hoofdstuk erin gooien en dan zeggen, ik wil 10 toetsvragen uit dit hoofdstuk. Meer keuze op Bloom niveau 4. Dus dat is verwerken, analyseren. Bloom is het niveau voor moeilijkheid van dingen. En gemotiveerd waarom ieder antwoord goed of fout is. En ook dat weer, je moet er zelf nog aan snoeien. Maar de meters zijn alvast gemaakt. Precies, oh mooi. Als ik zelf moet nadenken over meer keuzevragen en een hoog en laag. En precies op dat niveau, dan moet je bijna specialist zijn. Ik heb nu 3 op midden niveau, ik heb er 2 op het hoge niveau. En 1 hele moeilijke vraag. En dan, nou ja, daar komt er ook een modelantwoord bij. En dat zijn vaak de dingen waar het op mis gaat. Dat je dan wel kunt uitleggen dat antwoord A het goede antwoord is. Maar je bent vergeten waarom B, C en D fout zijn. En dan komt er een student en die zegt, maar C is toch ook een goed antwoord. En als er nu overal in ieder geval een verhaaltje bij zit. Je bent in veel minder tijd klaar met dat soort dingen. Dus dat is wel heel erg fijn. Ja, en wat je zegt, het is een verbetering in je proces. Het is efficiëntie, maar je hebt nog steeds zelf de controle erover. Dus je weet waar je het over hebt en daar toets je het op. Je gaat het niet blind doorsturen. Ik heb dat ook met onze andere opleiding hebben we dat gedaan. Dat mensen een essay opdracht krijgen. En daar zitten dan nakijkcriteria naar. Dus dat is eigenlijk ook een custom prompt. Hier zijn 5 modelantwoorden. Hier is de puntenverdeling. En wat er dan gebeurt, mensen schrijven een essay, schrijven een antwoord. Dat gaat naar onze custom GPT oplossing. En die stuurt dan een nagekeken modelantwoord. Dus er zijn 5 punten te halen. Jij hebt er 3 gehaald. Want jouw antwoord benoem jij A, B en F. En jij hebt weliswaar dit genoemd, maar daar ging de vraag niet over. En jij hebt dat genoemd, maar verkeerd om. Nou ja, dat kan ik dan editen. En dan kun je dat vrij snel doorzetten. Maar wat je natuurlijk niet wil, is dat ChatGPT dat antwoord teruggeeft. Nee. Dat staat altijd, nou niet altijd, dat is de pest. 10% van de tijd staat er gewoon een fout in. En dat kun je gewoon niet maken. Maar het scheelt al heel veel dat je het gewoon terugkrijgt. Dat je het ook in een bepaald technisch formaat kunt doen. Dat het meteen door kan in een e-mailtje. Of in je leersysteem, et cetera. Dus dat soort dingen scheelt gewoon heel veel tijd. En dom nadenkwerk. Want ik hoef nu alleen maar de moeilijke dingen na te kijken. En Arnoud, wie is je doelgroep voor het boek? Wij zijn technici. Lezen wij het ook? Ik denk dat technici het zeker kunnen lezen. Als je aan de slag gaat met AI-systemen. Maar ik denk wel, het is niet een handleiding zoals Python leren programmeren. Het is misschien meer voor de programmanager of de lead developer. Waar moeten we aan denken als wij deze applicatie, als wij hier AI in gaan stoppen? Gespiegeld, wat ik zei, die opleiding tot compliance officer. Dat is de persoon die in jouw organisatie of afdeling de vraag maakt. Doen wij dit wel goed? Wij zijn dit en we zijn een smartwatch aan het bouwen. Die gaat ook je bloedsuiker in de gaten houden. Waar moet ik dan allemaal aan denken? Wij hadden bedacht een drone te maken die op kantoor de koffie rondbrengt. Wat komen we dan tegen? Is dat een hoog risicosysteem? Ik zou het wel kunnen schrijven. Ik heb het wel gezien. Het probleem is natuurlijk de koffie recht te houden. Maar goed, daar schijnt een oplossing voor te zijn. Dat zijn allemaal dingen. Is dat hoog risico? Vaak zijn developers zich niet goed van bewust wanneer dingen voor mensen risico's zijn. Iedereen die op het snijvlak zit van AI en legal. Ik schrijf het ook voor de juristen. De compliance opleiding loopt als een tierelier. Daar zitten zowel technische mensen als ook meer juridisch. En compliance dus risico's en dergelijke. Er wordt ook een stukje techniek in uitgelegd. Dus je komt van beide kanten. Dan heb je geen speciale voorkennis nodig. Maar we springen wel snel de diepte in. Want je moet wel aan de slag. Enige voorkennis wordt wel verondersteld. We hebben een AI podcast. Dus we hebben ook een virtuele co-host. Zij wil ook graag even een vraag stellen als je dat goed vindt. Ja, tuurlijk. Aisha. Aisha. Een intelligente vraag van Aisha. Voor we verder gaan, wil ik me even voorstellen. Ik ben Aisha, de AI van deze show. Zou je het goed vinden als ik je een vraag stel? Ja. Techniek in het algemeen heeft vaak bewezen... dat vrouwen sneller vooruit kunnen helpen dan mannen. Een bekend voorbeeld is de wasmachine. En andere, de stofzuiger. Waardoor vrouwen minder tijd nodig hadden voor het huishouden. Dat is een bewezen effect. En daardoor eerder aan het werk konden gaan. Dus dat is een belangrijke reden... waarvan ook AI hierin kan helpen. Dat was een bijzonder interessant antwoord, bedankt. Zeker een mooi antwoord. Dat ga ik goed onthouden. Normaal gesproken lezen we het boek voordat we aan tafel gaan zitten. Door omstandigheden is dat er even niet van gekomen. Maar we hebben wel voor de oplettende luisteraars... boeken besteld die je kan winnen. Misschien Arnoud, ik ga je dat out of the blue vragen... want dat hebben we niet van tevoren besproken. Wat zou een vraag zijn die zij zouden moeten beantwoorden... om dit boek van jou te kunnen winnen van ons? Dat vind ik een hele leuke. We hebben het met name over een technisch georiënteerd publiek... die hier zit te luisteren en denkt 'wat moet ik hier nou mee?' Ik zou het wel aardiger vinden... een van de dingen die ik vaak zie is dat mensen zeggen... AI is objectief. In tegenstelling tot al die biased mensen, et cetera. Dus dan zou ik wel eens willen weten... in een proces waar ik AI inzet om mensen te beoordelen. Dus bijvoorbeeld kunnen zij het nakijken van toetsen... of functioneringsgesprekken van mensen. Hoe stel je dan vast dat die AI objectief handelt? Of objectief genoeg? Hoe zou je dat vast kunnen stellen? Dus is daar een procedure, een testcriteria of iets dergelijks voor? Ik ben jurist, dus ik zeg meteen... het hoeft geen perfecte oplossing zijn. Mensen denken vaak als hij niet perfect is... of als er een bug in zit is het geen goede oplossing. Voor een jurist is 80% echt heel mooi. De rest zien we bij de rechter wel weer een keer. Dus goed genoeg om in 80% van de gevallen te zeggen... dat was een objectieve beslissing. Dus wie daar een filosofische insteek op heen... en ik herken ChatGPT-antwoorden... dat zou ik wel heel mooi vinden. Mooi vraag. Laat je antwoord achter op de socials. Waar kunnen ze terecht om jouw boek te bestellen? Dan kun je naar ictrecht.shop gaan. Daar staat iets van de andere boeken. Ten tijde van dit spreken hoop ik dat de drukker zegt... ik heb weer een vrachtwagen met een laadklep. Want dat waren de technische problemen die we hadden. Dus ik hoop dat het zo snel mogelijk is. Anders ga ik eind deze week het zelf ophalen met de stationwagon. Hij is er en hij komt er. Hartstikke mooi. Wij nemen uiteraard de link op in onze show-note. Arnoud, hartstikke bedankt voor dit interessante gesprek. Graag gedaan. We zijn ooit de podcast begonnen om te vertellen over AI... en zijn gasten uit te nodigen om onze blik te verruimen. Het wordt natuurlijk gezien als een soort van systeemtechnologie... dat het best wel heel veel mensen raakt. Voor mij is het heel erg leuk om juist hele andere hoeken... zoals met jij, de legal, om daarover te horen... wat daar dan allemaal speelt op dit gebied... naast de technische invulling die wij geven. Super bedankt voor al je inzichten. Graag gedaan en tot de volgende keer. Zo, hij kwam binnen. Hatsiekadee. Het schuifje stond nog open. Dat heb ik af en toe eens. Dank je wel dat je luisterde naar weer een interessante aflevering... van de AIToday Live. Vergeet je niet te abonneren via je favoriete podcast-app. En weet dat we tegenwoordig ook een hele interessante nieuwsbrief hebben... met exclusieve content voor je. Dus schrijf je in. Dankjewel voor het luisteren.
Arnoud Engelfriet is Chief Knowledge Officer bij ICTRecht. Hij houdt zich bezig met juridische vraagstukken rond technologie en digitalisering. In de juridische sector richt hij zich op compliance en wetgeving voor nieuwe technologieën. Engelfriet verscheen als gast in AIToday Live in seizoen 6, aflevering 9.
Bekijk gastprofiel