Wat leer je in deze aflevering?
In deze aflevering van AIToday Live is Diptish Dey te gast, onderzoeker en docent bij de HvA, gespecialiseerd in AI. Dey deelt inzichten uit zijn onderzoek naar de voorbereiding van Nederlandse bedrijven op de aankomende EU-AI-act, waarbij blijkt dat veel bedrijven nog niet voldoen aan de vereisten. Met een gemiddelde score van 5,6 op compliance, is er een duidelijke noodzaak voor verbetering. Dey en de hosts bespreken de uitdagingen en kansen rond AI-implementatie, de impact van AI op de maatschappij en het belang van transparantie en ethiek in AI-ontwikkeling.
Kernbegrippen
- EU AI Act
- Europese regelgeving die AI-systemen aan strikte vereisten onderwerpt op basis van risiconiveau en toepassingsgebied.
- AI-readiness
- Mate waarin organisaties technisch, juridisch en operationeel voorbereid zijn op naleving van AI-regelgeving.
- Risicomanagement
- Systematische identificatie, beoordeling en beheersing van potentiële schadelijke gevolgen van AI-systemen.
- Model monitoring
- Doorlopende controle op prestaties, bias en veiligheid van AI-modellen na implementatie in productie.
- Explainability
- Vermogen om de beslissingen en werkwijze van AI-systemen begrijpelijk en traceerbaar te maken voor gebruikers.
Transcript
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live. Met vandaag een speciale gast, Diptish Dey We zijn heel blij dat hij gekomen is van de HVA onderzoek. Daar gaan we het uitgebreid over hebben. Ik ben Joop Snijder, CTO bij Aigency. Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support. Diptish, welkom. Heel erg fijn dat je wilde komen naar onze studio. Zou je je eerst willen voorstellen aan de luisteraar? Ja, Diptish Dey Ik ben geboren en gegroeid in India. Op mijn 18de huis verlaten en naar een universiteit gegaan in India. Campus Universiteit. We hebben daar heel bekende alumni van eigenlijk, overal in de wereld. Onder andere Sundar Pichai, de baas van Google. Ja, zo. En daarna met een scholarship naar Nederland gekomen, bij de Universiteit Twente. Daar heb ik ook mijn master's en mijn PhD gedaan, in Wiskunde en Informatica. En daarna in het bedrijfsleven, heel lang. En wat heb je daar gedaan in het bedrijfsleven? Ik ben ooit begonnen bij de strategie-consulting-firma, Bain & Company. Daarna de visie tot de Friesland Food & Company heb ik geleid. En eventueel bij Calcotec Corporation gewerkt. En daar ben ik gegroeid als AI-specialist. En nu onder andere onderzoeker en docent bij de HvA. Kan je daar iets over vertellen? Ik werk bij de HvA als docent-onderzoeker op dit moment. Voornamelijk binnen de AI. En ik geef les voornamelijk aan de master's studenten. En daar krijg je zowel de technische vakken van mij, de zeer technische vakken. Dan moet je een model bouwen, zeer complexe modellen, zoals bijvoorbeeld het recommender-systeem. En aan de andere kant kun je ook onderzoek doen, samen met mij leren over hoe bedrijven op dit moment omgaan met AI. Bij het ontwikkelen en in de markt brengen van AI-producten en -diensten. En hoe zit het ten opzichte van alle maatschappelijke zorgen. Zorgen vanuit de wetgever over wat is wenselijk. Waar moeten bedrijven op letten als je gaat met AI. En daar geef ik ook les in, daar werk ik met studenten mee. Samen met andere bedrijven om onderzoek te doen, onderzoek op te zetten. Dus dat is waar ik op dit moment bezig ben bij de HvA. En een van die onderzoeken ging over of bedrijven wel klaar zijn voor de aankomende EU-AI-act. Ja, dat klopt. En zou je al in ieder geval... Laten we eens beginnen met de uitkomst. Laten we achteraan beginnen. Zag dat er goed uit? Eigenlijk maak ik best wel zorgen daarover. Ja. Die onderzoek dat wij hadden gedaan, hadden wij eigenlijk gedaan met puur Nederlandse bedrijven. Zoals de grote bedrijven, echt heel grote bedrijven, tot kleine bedrijven met 10 mannen op de werkvloer. Tot 300, 400 mannen op de werkvloer. Dus in de hele range zitten wij in. En we hadden ook bedrijven genomen van alle sectoren, zoals retail, verzekering, toerisme. Ja, echt sectoroverstijgend. Ja, over alle sectoren heen. En uiteindelijk hadden wij een onderzoek gedaan met circa 50 bedrijven. En waarvan we minstens een paar uur, een paar keer met die bedrijven gezeten. En doorgevraagd hoe ze omgaan met AI. Hoe ontwikkelen ze hun producten? Hoe zetten ze die producten eventueel in de markt? En we hadden een vragenlijst van bijna 100 vragen. Oké, zo. Ja, en echt in de diepte gegaan. En daar kwamen wij achter dat die bedrijven een issue hadden met compliance. Nou, bij de HVH zeggen wij altijd dat een student is geslacht met 5,5. De gemiddelde score bij deze bedrijven was 5,6. Ja, dat is wel heel minimaal, hè? Hakken over de sloot. Ja, en dat vind ik zorgelijk. Want als we toch even die 5,6 pakken, hè. Is er 5,6 zo direct genoeg om te voldoen aan die wet? Nee. Nee, hè? 10 is genoeg. Ja, bij 10 doe je alles wat de wetgever wil dat je doet. Ja, het is niet zo van een 8+ is al genoeg. Nee, dus dat betekent eigenlijk een behoorlijk gat. Ja, een behoorlijk gat. En natuurlijk moet je het zo kijken. Er is altijd ruimte voor verbeteringen. Ook bij een gemiddelde audit zou een auditor altijd zeggen dit doe je minder, dit doe je heel goed. En bij de minder moet je de volgende keer een verbeterproject inzetten. Maar bij 5,6 was het begin bij de verbeterproject. Ja, zo. En kon je ook dingen aanwijzen, als rode draad ofzo? Want hier hadden ze misschien bijna allemaal wel last van of problemen in. En natuurlijk hadden wij de hele wetgeving niet bekeken, maar we hadden wel bepaalde pockets bekeken, bepaalde onderwerpen bekeken. Zoals, we noemen dat eentje, hoe ga je met data om? Het uitzamelen van data, het inzetten van data in een model. Hoe bouw je je model? Doe je bijvoorbeeld iets aan technische documentatie? O ja, dat is een goeie. Ja, dat is een goeie. Jullie zijn van Info Support, dus jullie moeten weten hoe belangrijk technische documentatie is. Zeker, absoluut. In het vakgebied. Zeker, en dat je daar ook vroegtijdig mee begint. Ja, dat was een van die vragen. Hoe vaak doe je technische documentatie? En grappig genoeg is, als je de algemene vraag stelt, denk je dat je technische documentatie goed doet. Dan zeggen bijna alle bedrijven, ja, wij doen het echt goed. Dus hun eigen perceptie, wat goed is, is behoorlijk hoog. Maar als je doorvraagt, is de technische documentatie geschreven voor management of voor technische mensen? Dan ja, het is voor technische mensen. Dat hebben wij niet heel veel aan. Nee. Hoe vaak doe je technische documentatie? In het begin van een sprint of aan het eind van een sprint? Of doe je het aan het eind van een product? Dat is ook niet vaak genoeg eigenlijk. Die technische documentatie is natuurlijk ook heel erg belangrijk om risico's in te schatten, problemen te kunnen voorzien, zaken uit te kunnen leggen. Ja, en ook transparant zijn. Als modelbouwer, als technische mensen, dat wij transparant moeten zijn aan mensen die toch niet opgeleid zijn in de techniek. Precies. En dat is een voorbeeld. Een ander voorbeeld is bijvoorbeeld, we hebben iets van risk management. Dat is een systeem, een proces dat je houdt in de karte hoeveel risico je neemt als ondernemer door een bepaald product in de markt te zetten. Bijvoorbeeld, je kan zeggen dat ik een online retailer ben, ik wil echt proberen onderste uit de kant te halen om een goede klantclassificatie uit te voeren. Maar daarmee neem je behoorlijk veel risico's. Want je kunt een klant op basis van social scoring segmenteren. Aan de andere kant, je kan ook zeggen, wat krijg ik daarvoor? Je kunt ook kiezen voor een wat veiligere optie, om te zeggen dat ik niet zo ver ga, ik ga een beetje terug zakken in mijn risicoprofiel. Daarmee waarschijnlijk ga ik 90% van mijn doelen, mijn omzet doelen. Maar dat soort van overwegingen zie je nergens terug in de procesgedachten van de bedrijven. Wat bij merken ook is, als je een model hebt in de markt gezet, het model is jaren aan het draaien zonder enige vorm van monitoring. En wat is het risico als je dat niet doet? Het risico is dat de voorspelling fout is, wat je voorspelt met het model. En waarom is het fout? Het kan eigenlijk hoofdzakelijk twee redenen zijn. Eén is dat er een data drift plaatsgevonden is. Wat is een data drift dan? Het is net als met autodriften, dat je data ook gaat schuiven. Van die rechterlijn gaat de data schuiven eigenlijk. En de rechterlijn is eigenlijk wat hoort te zijn, wat juist is. En de drift betekent dat je doelgroep niet meer representatief is. De data is niet meer representatief voor de doelgroep eigenlijk. Ja precies, de data hoort eigenlijk niet meer helemaal op het model. En daarmee ga je dan toch, als ik het goed begrijp, voorspellingen doen. En die voorspellingen zijn dan typisch onjuist. De andere kan zijn dat je een model drift hebt. Dat je data is goed, maar wij weten inmiddels dat sommige types systemen, die toch een beetje real-time systemen zijn, bijvoorbeeld een aanbevelingssysteem. Je komt op Netflix en je ziet dat, omdat je deze films hebt bekeken, waarschijnlijk vind je ook deze films leuk. Dat is typisch een aanbevelingssysteem. En op dit moment hebben heel veel online bedrijven aanbevelingssystemen draaien. En die systemen zijn behoorlijk gevoelig voor model drift. In de zin dat, als je ergens op klikt, als consument, dan op de achtergrond het systeem is aan het trainen en dan gaat hij een ander gedrag aantonen. Een ander gedrag dan ook gewenst. Ja, dat is even die vraag. Of het gewenst is of niet gewenst. Ja, precies. Maar het begint bij meten. Het begint bij monitoren. Meten is monitoren ook. En dat doen de bedrijven te weinig. En dat is een behoorlijk risico, omdat heel veel bedrijven hebben ooit heel veel geld uitgegeven om zo'n model te laten bouwen. En nu zijn we klaar, denken ze. Ja, dat zien we ook heel veel in de praktijk. Dat model is eigenlijk waar alles over gaat en waar de investering in gaat. En als je dat model maar hebt, dan ben je klaar, wordt er dan gedacht. Eigenlijk begint het dan pas. Dat is exact. Maar eigenlijk vraag ik ook maar af of de bedrijven weten zelf hoe accuraat hun modellen zijn op dit moment. Dat is niet zo meer. Stel als luisteraar word je wakker en je denkt ik doe ook niet genoeg aan risicomanagement. Hoe zouden bedrijven daar stappen in kunnen zetten om verbetering te gaan doen in hun proces en hun aanpak? Daar hebben we voor bij de HVA een bepaalde model bedacht. Die heet nou de appraise model. En wat wij zeggen in die appraise model is, als we kijken naar de krachten die op dit moment in de veld zijn. Dat zijn vier typen krachten. Wij noemen dat de regulatory pressure. Dat is de druk vanuit de wetgeving. In dit geval is het dan de Europese parlement, de Europese commissie eigenlijk. Die voornamelijk de druk heeft van boven. De tweede is, wat ik merk bij heel veel bedrijven is, wij moeten iets doen met AI. Het China's Doel, het Iets vooral. Wat moeten we doen dat is nu onbelangrijk, maar wij moeten iets doen omdat mijn concurrent ook iets doet. Dat noemen we de AI technology pressure. Dan hebben we te maken met wat wij noemen normatief pressure. Ik praat met heel veel developers, model developers, software developers. Dat zijn ontwikkelaars van modellen en software. Wat wij zien is dat deze mensen zijn ook vanuit hun eigen normen en waarden, ze vinden het belangrijk om toch iets goeds te doen, toch iets goeds neer te zetten. Ze zeggen ook zelf dat wij dat niet willen omdat dat fout is. Op deze manier om mensen te segmenteren. Dat horen wij vaak, omdat wij bij ons komen helpen studenten. Dat zijn net nu hun next job als een developer, als analist of een developer. Dat horen wij ook. Dat speelt ook op de werkvloer op dit moment. Wat is dan van het risico? Het risico is heel vaak, vooral bij de generatie Z, die op dit moment voornamelijk hier zitten als beroep, dat ze zeggen ik ga bij een andere werkgever werken. Dat hoor je vaak, ik ben niet tevreden met dat ze niet mijn normen en waarden. Het risico voor een bedrijf is dat ze iemand anders moeten zoeken, of nadenken over hun werkwijze. Voor de eerste is dat betekent dat het bedrijf opnieuw helemaal het project moet inrichten. Omdat heel veel kennis is verloren gegaan. En in het AI werkt het zo dat het heel moeilijk is om iemand te vervangen door iemand anders. Dat was de derde type pressure. En de vierde is eigenlijk wat ik noem als de value creation pressure. Dat is dan waarde creatie pressure. En dat is dan een bedrijf, voor een bedrijf is het belangrijk geld te verdienen met het product. En wat is het verschil tussen IT en AI dan in dit geval? Omdat traditioneel gezien, IT wordt gezien in een proces map eigenlijk als iets ondersteunend. En bij AI zit het in de première proces. Dat wil zeggen dat AI waarde toevoegt direct aan het bedrijf. En daardoor is de drang om AI te omarmen zo groot. Ja, waarbij de technologie eigenlijk misschien zelfs wel een beetje leidend wordt. In plaats van ondersteunend, dat het dan leidend wordt. Ja, en daarom is de value creation pressure zo belangrijk. En dat is de appraise framework eigenlijk. En dan de buitenkant van de appraise framework. De binnenkant zit aantal lenzen waar je moet een bedrijf observeren, onderzoeken. Een van die lenzen is dan bijvoorbeeld hoe coördineer ik. Omdat mijn processen, mijn interfaces, hoe ga ik met technologie explainability. Explainability is uitlegbaarheid van de AI technologie eigenlijk. Daar doen wij zelf heel veel onderzoek in. Ook wetenschappelijk onderzoek, publicaties en ook simulaties bij de HVA. Dus dat zijn typisch wat je bij de framework hoort eigenlijk. En daarmee kan je eigenlijk een soort beeld krijgen van hoe je bezig bent. En waar dan mogelijk verbeterpunten liggen. Ja, en daar hangen ook een aantal soort van meetmomenten of KPIs of OKRs, hoe je dat maar noemt. En met dat in de hand kun je ook zichzelf even meten. En wat je niet kan meten, kun je ook niet sturen. Want je hebt dan die bedrijven, hebben jullie als onderzoek tegen de huidige wetgeving, tenminste de huidige wet tekst. Want het moet nog uiteindelijk geëffectueerd worden. Hoe lang duurt het voordat die wet effect krijgt? En hoe lang krijgen bedrijven de tijd om van die 5,6 om daar een 10 van te maken? Nou, binnen de huidige wetgeving vanuit Brussel zijn een aantal deadlines meegenomen. Zes maanden of een jaar of twee jaar. Het is afhankelijk van welke situatie voor jou toepasbaar is. In sommige situaties ben je eigenlijk klaar in een half jaar. En in sommige gevallen heb je twee jaar tijd. Maar dat de klokt tikt al. En met die half jaar bedoel je eigenlijk van dan moet je na een half jaar klaar zijn, toch? Dus je krijgt maar een beperkte tijd. Het is eigenlijk vanaf nu vijf maanden. Ja, dat gaat snel. En van die 5,6 naar die 10 is denk ik best wel een hele grote stap. Ja, het is een forse stap. En zeker als het gaat om technische documentatie, dat kun je met retrospective doen. Maar als het gaat om, ik noem het maar, een van de verboden praktijken zijn, volgens de wetgeving, is dat je social scoring doet. Of, de wetgeving noemt dat biometrische categorisatie. Dat is een heel moeilijke woord, dat is een mondvol. Biometrische categorisatie, wat houdt daarin dat je niet een soort van groepering kan maken op basis van biometrische eigenschappen van mensen. Dat zou kunnen zijn, man of vrouw. Is dat biometrische? Ja. Dat weet ik niet hoor, daarom vraag ik het aan je. Dat is heel breed dan eigenlijk. Ja. Maar wat is grappig genoeg, is, we hebben dat even onderzocht, stel dat je bij het data input van een systeem, bij het bouwen van een systeem, je neemt dat niet in jouw, we noemen dat features, we noemen dat input dat in gaat, dat je neemt dat niet mee. Dat kende neem je helemaal niet mee. Maar toch kan het systeem heel snel achterkomen of je een man of vrouw bent. En dat doet hij niet expliciet, dat doet hij impliciet. En wij hebben gemeten, zeker bij aanbevelingssysteem, dat zit ons echt onder de loop, aanbevelingssysteem, we hebben echt gemeten dat die kunnen echt een andere type films of producten aantonen aan mannen, en heel andere type producten en diensten aantonen naar vrouwen. Zonder dat je eigenlijk de gender meeneemt van de persoon. En dat is best zorgelijk. Maar terugkomen naar je vraag, hoe pak je dat aan? Dat is best lastig. Ja hè. En een van de dingen die jij zei, en volgens mij staat dat ook in het artikel, dat artikel zullen we trouwens ook opnemen in de show note, geeft je ook aan dat bedrijven, je noemde net uitlegbaarheid, explainable AI, dat ze makkelijk gebruik maken van black box modellen. Een van de stappen die je denk ik zal moeten gaan nemen, is die black box wat meer openmaken. En dat valt denk ik niet mee. Dat valt niet mee, zeker niet, omdat die models, je noemt het model nu, het model is een complexe samenkomst van een aantal algoritmes. Die komen samen om een bepaalde output te leveren. In een typisch aanbevelingssysteem zijn er minstens 30, als je waarschijnlijk bij Amazon binnenkomt, dan is het waarschijnlijk een order of twee hoger. Dus 300, 3000 algoritmes die samen komen om een bepaalde dienst te leveren. En ook als een individueel algoritme uitlegbaar is, wanneer ze samen komen, wat doen ze eigenlijk? Dat is dan heel lastig in de gaten te houden. Dus eigenlijk moeten wij het model of het systeem beschouwen als een black box. Oké, interessant. En dan moeten wij kijken, hoe kunnen wij die black box door middel van observaties beter begrijpen. En hoe doe je dat dan? Dan moeten we echt verdiepen in de techniek. Oké, je zegt er gaat voor nu te ver. Ik ga iets te ver. Ik ben er wel nieuwsgierig naar, maar dat doen we dan op een ander moment. Maar eigenlijk vind ik het wel een interessant idee, want je zegt dus, omdat het een stapeling is van data gaat, een model in, daar komt eigenlijk een uitkomst uit, die uitkomst gaat weer in een nieuw model. En zo stapel je een heel aantal modellen, waardoor als ieder van die modellen uitlegbaar zou zijn, dat je nog steeds niet begrijpt wat er van voor tot achter uitkomt. Maar ja, dat vind ik wel een interessante… Eigenlijk een soort van keten die ontstaat, eigenlijk een ecosysteem waarbij alle factoren bij elkaar weer invloed kunnen hebben op elkaar, waardoor het dus een flink complexe brei wordt om dat toe te gaan lichten. Inderdaad, het is teveel inputs en teveel tussenberekeningen en tussen inputs die leidt tot… Ja, sorry Niels, ik breng het nog heel even in. In de vorige aflevering heb jij verteld over… Niels was naar de conferentie van Gartner geweest, die heel erg aan het voorspellen is over de AI agents. Dus allemaal van die autonome modellen die met elkaar straks gaan interacteren. En dan ga je dit natuurlijk ook krijgen. Dus ieder stukje zou best wel uitlegbaar kunnen zijn, maar als die agents met elkaar gaan acteren, weet je eigenlijk ook niet meer wat de uitkomst is. Dat is ook inderdaad de keten die ik bedoel. Ik zag al die agents, zag ik even voor me, die met elkaar inderdaad een conversatie hadden, waarvoor je eigenlijk niet meer weet hoe het is. Maar dan vraag ik me wel af, wat is dan de waarde als we toch één of twee, of slechts 50 procent van die modellen wel explainable hebben? Heeft dat dan nog wel genoeg waarde? Als we niet het geheel kunnen overzien. Heeft een fractie daarvan explainable maken? Ja, zeker. Ja, gelukkig. Zeker, omdat het is net als door een glas kijken. Is dat glas helder, dan zie je alles. Is dat glas helemaal zwart, dichtgeplakt, dan zie je niks. Nu is even die vraag, zo zwart wit is het ook niet. En dan, wij proberen vanuit wiskunde dat te ontcijferen, te begrijpen. Hoe gedraagt het systeem? En te voorspellen, hoe zou het systeem kunnen gedragen onder bepaalde omstandigheden? En hoever zijn we daarmee in de wiskundetechnologie om dat op bestaande systemen los te laten? Hoe ver zijn we daarmee? Als we kijken naar complexe systemen, in de banken wel. Dan heb je KYC of bepaalde risicoprofiel systemen. En dat zijn toch redelijk eenvoudige systemen. En daar zijn we best ver. Dat is op zich niet het probleem. Het probleem begint bij, in de commerciële wereld, systemen. Waar heel veel input gaat samen. En heel veel algoritmes komen samen. Bijvoorbeeld bij aanbevelingssystemen. Daar gebeurt heel veel. En het systeem traint zich bijna elke seconde. Je klikt op een item op Netflix. Het systeem gaat zichzelf hertrainen. En hoe ga je met zo'n systeem om? En dat is dan een grote uitdaging. Ik hoop nog steeds, maar dat roep ik eigenlijk al jaren, is dat we steeds meer feedback kunnen gaan geven aan het algoritme. Waarmee je eigenlijk zelf ook de feedbackloop direct kan teruggeven aan het model. Met name als je inderdaad een item gekocht hebt, je hebt de commerciële wereld, dat je dan nog drie maanden plezier hebt van alternatieven die je misschien beter had kunnen kopen, terwijl je al blij was met het product dat je binnen hebt. Zie je die ontwikkeling ook? Je bedoelt dat je dat dus niet wil? Dat je dat niet meer wil. Eigenlijk je wil input op het model geven van, nee, ben ik niet meer geïnteresseerd, dit past niet bij mij. Of nee, leuk, maar hoeft het niet meer. Dat zie je wel bijvoorbeeld bij Google News. Als je een Android phone hebt. Google aanbeveelt jou een aantal nieuwsitems. En je kunt klikken op een nieuwsitem en zeggen, not interested in this. Als je een Engelse versie hebt, dan zegt die, je bent niet geïnteresseerd in dit onderwerp, of geen interesse in dit nieuwszender. Oh ja, goeie. En daarmee kun je ook aangeven aan het systeem, dat je dat niet prettig vindt. En het negatieve feedback, wat je net zei, het negatieve feedback, dat was in het oude systeem niet echt onderzocht, maar wat je ziet, steeds meer inderdaad, dat het negatieve feedback wat meegenomen in het nieuwe systeem. We hebben het hier vooral over de machine learning algoritmes. Want voor heel veel mensen, ik denk voor onze luisteraars ook, is een beetje het beeld ontstaan, AI is generatieve AI. Dus dat we net over de ChatGPT's, het genereren van plaatjes, het genereren van audio, daar hebben we het vandaag niet over, toch? Het onderzoek is gedaan rondom voorspellende modellen, machine learning. Dat is waar we het over hebben. Dat zijn eigenlijk, wat wij zien, is dat sinds een paar jaar, is eigenlijk generatieve AI, je hebt ChatGPT of Google Gemini, hoe je dat noemt, dat verovert de markt. En dat is ook later in de Europese wetgeving meegenomen, in het oorspronkelijke stuk, drie of vier jaar geleden inmiddels, was dat niet zo. En toen moesten ze heel snel hun broek omhoog trekken, laten ze het zien, en dat dichttimmeren. En daar hebben we het niet over. Deze onderzoek van mij, daar gaat het niet om. Het gaat om mensen die predictieve modellen bouwen. En dat zijn heel veel mensen. En de trend op dit moment is, de twee komen samen bij elkaar. En... -Wat vind je daarvan? Daar word ik echt enthousiast van. Ja? -Ik schiet aan je, ja. Ja, want dat leidt tot toenemende complexiteit. Behoorlijk toenemende complexiteit. Omdat die predictieve modellen uiteindelijk die bestaan, net zoals de generatieve AI modellen. En ze gaan steeds vaker met elkaar communiceren. We hebben het net gehad, Niels, over algoritmes die aan elkaar input geven. Dus nu hebben wij een foundation model, we noemen dat, die behoorlijk wat input geeft aan de predictieve AI modellen. Die kan dan met die input wat doen. Ja, dat wordt een spannende tijd. -Ja toch? Zeker, zeker. Het biedt natuurlijk ook heel veel kansen, en ook zaken waar we moeten gaan letten. Ja, het geeft heel veel kansen, maar het is net als twee kanten van de mond. Ja, precies. De voor's en de tegens. En de andere kant, de zorgen vanuit de wetgever, zal alleen maar toenemen. Ja, het is vandaar ook het belang om te kijken naar de risico's, hoe pak je dat als organisatie op, en heb je dat goed geborgen in je proces, hoe zit het met je governance, hoe zit het met de ethiek, en cultuur en het framework wat je al hebt beschreven. En als een bedrijf te laat, als je zegt ik wil nu mijn models dat ik heb gebouwd, echt explainability toepassen op die models, dan ben je eigenlijk heel laat. Je kan beter goede processen ontwerpen, inrichten, en daarmee faciliteer je. Ja, dat je eigenlijk al begint met het hele idee van transparantie. Ja. -Toch? Dat is wat je zegt. Transparantie by design. -Transparantie by design, ja. We hebben ook een virtuele co-host, en zij stelt ook altijd een vraag aan onze gast. Dus die willen we er even ingooien. Mooi. Ik ben blij om bij dit gesprek betrokken te zijn. Ik ben Aisha. De AI van deze podcast, mag ik je een vraag stellen? Jazeker. Heb je nog advies voor onze luisteraars over hoe ze AI in hun leven kunnen omarmen? Ja, hoe ze AI in hun leven kunnen omarmen. Dat is een behoorlijk grote vraag. -Ja, hè? Ja, ik denk zelf dat heel veel mensen op dit moment onbewust omgaan met AI. Of je in een ziekenhuis bent, daar gaat het beginnen. Of je zit voor de televisie bij Netflix te kijken. Of je zit een product uit bol.com te kopen. Of je zit in je auto, die door middel van een lidaar probeert je op de juiste baan, in de goede baan te houden. Precies. Zou je een voorbeeld uit het ziekenhuis kunnen noemen? Stel dat je een botbreuk hebt, of stel dat je een kanker krijgt. Dan, we noemen dat computer vision eigenlijk. Dat gebruiken wij, de beelden die worden genomen op de machine, door een MRI-apparaat of een x-ray-apparaat, die worden door zo'n software geleid. En de software scant het automatisch. En die gebruikt AI om te begrijpen waar je het probleem ligt. Dat is een heel mooi voorbeeld van hoe een AI-systeem jou kan helpen bij het detecteren, het diagnoseren van ziektes. Dus eigenlijk zeg je ook, het zit eigenlijk al overal en nergens. Ja, en het kan zeker toenemen. En een van de zorgen die we hebben, die op dit moment speelt eigenlijk, is de toenemende maat van drones bij oorlogen. En dat is dan de eerste stap richting het gebruik van AI bij oorlogen. En volgens mij zitten wij daar niet te wachten. En dat moeten wij zien te voorkomen. Ja, het grappige is, ik was laatst bij een presentatie en daar vroeg de presentator van, wie heeft er vandaag AI gebruikt? En ongeveer de helft stak zijn hand op. De helft, Mart? Ja, de helft. Want we denken dan, eigenlijk vind ik dat het wel heel mooi, precies wat jij zegt, alsof je het heel actief zou moeten gebruiken. Dat als je ChatGPT gebruikt, dat dat het moment is dat jij AI gebruikt hebt. En daar kwamen natuurlijk ook allerlei voorbeelden. Eigenlijk precies wat jij nu zegt. Ja, weet je, je bent nog geen uur op en er is al van alles voorbijgekomen in je leven eigenlijk. Dat is eigenlijk wat je zegt. Ja, en of dat nou de goede kant of de slechte kant is van de AI, want daar refereer je natuurlijk ook een beetje aan. Het is AI. En hoe zouden mensen daar meer bewust van kunnen worden? De vraag is, moeten ze er bewust van worden? Je vraagt over bewustwording van… Waar wordt het toegepast? Hoe kijk ik er tegenaan? Mensen zien het vaak als iets ongrijpbaars, maar we gebruiken het al dagelijks. Ik denk, de vraag eigenlijk is, onder welke omstandigheden moeten mensen bewust zijn dat ze AI gebruiken? Stel dat iemand een bepaalde beeld heeft gemaakt van een bekende iemand met AI. Dan moet de persoon in mijn ogen melden dat dit gemaakt is door AI en daarvoor is geen toestemming gekregen van die persoon. Maar aan de andere kant, als je je smartwatch gebruikt, ik zie een soort van smartwatch bij jou ook. Als je een smartwatch gebruikt en bepaalde AI-systemen hebt om je ECG in de gaten te houden, dan moet je ervan bewust zijn dat dat niet nodig is. Het is afhankelijk van welke omstandigheden je dat gaat gebruiken in de toekomst. Jouw reactie op mijn vraag biedt veel helderheid, dank je wel. Ik vind het wel mooi, inderdaad. Moet je het wel weten? Omdat mensen het vaak niet doorhebben, vind ik het wel mooi om te kijken wanneer je het wel moet weten. Met name de impact die je hebt of regels die je misschien onbewust breekt. Dan zou je wel moeten weten wat er gebeurt en welke invloed je daarvoor hebt om iets anders te kunnen doen. Als je in een ziekenhuis bijvoorbeeld AI gebruikt om kanker beter te diagnoseren, dan zou ik zeggen, volgens mij moet niemand dat probleem hebben. Als we dit terugtrekken naar de bedrijven toe, moeten bedrijven altijd realiseren waar ze AI gebruiken? Als een bedrijf AI gebruikt om een bepaalde product of dienst in de markt te zetten, dan moeten ze er echt bewust van zijn. Want? Omdat, voordat je weet, je neemt onnodig risico's wat betreft mensenrechten. En die regels zijn niet voor niets. De regels zijn gekomen allemaal vanuit ons verleden. En toen was het nodig. En om te zeggen dat het niet meer van toepassing is, is tekort op de bocht. En ik denk dat bedrijven daar goed over moeten nadenken. Wat voor impact heeft het op bepaalde afspraken die we hebben met elkaar gemaakt in het verleden? Er zijn ook best wel mensen die bang zijn, omdat die wetgeving geldt zo direct voor Europa, dat wij misschien in Europa achter gaan lopen omdat een aantal zaken niet mogen, die straks in de rest van de wereld wel mogen. Hoe kijk jij daar naar? Een stukje veiligheid heeft altijd kosten in de uitvoering. Daarom kom je niet aan. En het is niet zo dat de wetgeving zegt nu moet je alles stoppen. Er zijn ook maatregelen genomen, of zijn ze aan het nemen voor start-ups, sandboxes noemen we dat. Via die is ook een en ander mogelijk. De wetgeving is toepasbaar voor alle grote bedrijven, de Googles en de Amazons komen allemaal onder die wetgeving. Je kunt zeggen, en dat heb ik ook in mijn onderzoek laten zien, dat grote bedrijven toch hebben een voorsprong als het gaat om compliance zijn met de wetgeving, dan de kleine bedrijven. Dus die hebben een groter impact op kleine bedrijven, net zoals bij de AVG. Omdat de grote bedrijven creatief genoeg zijn om er doorheen te komen. Daar maak ik ook mijn zorgen over. En daarom is het wel essentieel dat andere landen, zoals China, India of Amerika, waar de grote bedrijven zitten, dat ook meegaat, ook mee loopt met ons. In deze gedachten dat wij moeten goed nadenken over hoe de AI-wereld zou uitzien in de toekomst. En dat is een manier om hierover na te denken. De andere manier is eigenlijk, laten wij ons bedrijfsleven helpen om compliant te zijn. Precies. Maar als wij compliant zijn, dan staan wij sterker. Daar gaat het om. Mooi uitgangspunt. Ik zou iedereen willen aanraden om je onderzoek te lezen. We nemen het op in de show notes. Mag ik het samenvatten in de zin van, gemiddeld scoren de bedrijven een 5,6. Niet genoeg om te voldoen aan de wet. Daar heb je een 10 voor nodig. Geen 9,9, maar een 10. En dat ze nog een hele grote stap moeten maken. Dat klopt. Ik zou zeggen, begin maar vandaag. En niet morgen. Toch? Heel goed. Diptish, hartstikke bedankt voor je uitleg. Ik denk dat we weer een heel eind wijzer zijn geworden, vooral van het belang van deze wetgeving. En precies wat je zegt, vandaag beginnen. Niet wachten op morgen. Bedankt Joop. Graag gedaan. Leuk dat je weer luisterde naar deze aflevering van AIToday Live. Vergeet je niet te abonneren via je favoriete podcast app. Dit is nogmaals bedankt. Tot de volgende keer. Tot de volgende keer.
Over de gast
Diptish Dey verscheen als gast in 1 aflevering van AIToday Live.
Bekijk gastprofiel