Samen met Jim Stolze, een echte "AI Entreprenerd" hebben we het over de nabije toekomst van artificial intelligence. We kijken een beetje vooruit. Dus niet 20, 30 of 50 jaar, maar echt de nabije toekomst. De zaken die voorbij komen zijn Ethical AI, Data Governance, footprint, bullshitbingo, kopieerhonger en nog veel meer.
Leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live podcast.
Een podcast voor Business & IT en we hebben vandaag de gast Jim Stolze.
Jim, leuk dat je wil aanschrijven bij ons.
Ja, met veel plezier.
Ja, heel graag.
Jim, zou je je eerst aan de luisteraars willen voorstellen voor degenen die je misschien nog
niet kennen?
Oeh, ja ik heb dat geleerd van mijn oudste zoon Max. Ik heb een keertje geprobeerd uit te
leggen wat ik allemaal deed. Vond hij totaal niet boeiend, maar aan het einde zei hij "Pap,
je bent gewoon een entrepreneur."
Oké, en ik dacht nou die ga ik onthouden. En dat klopt, ik houd van technologie, ik ben
ondernemer en het mooiste is als je die twee kan combineren. Dus dat is wat ik doe. Ik bouw
bedrijven op technologie die nog niet helemaal werkt en met business modellen die nog niet
helemaal bewezen zijn. Dus dat is spannend, maar dat houdt mij wakker.
Ja, een entrepreneur die je aan het onthouden.
Misschien toch nog een heel klein stapje verder, want we gaan het hebben over kunstmatige intelligentie.
Daar heb je ook wel wat mee gedaan, toch?
Jazeker.
Dat is wel "toch" wel wat.
Is de paus katholiek Jim?
Wat denk je?
Nou ja goed, dat is natuurlijk ook hoe wij elkaar kennen. Ik heb in 2016 het bedrijf Aigency
bedacht en opgericht. Aigency met AI voor de luisteraars die aan het meeschrijven zijn,
Artificial Intelligence Aigency. En dat was in Nederland eigenlijk een van de eerste startups
die zich volledig concentreerde op kunstmatige intelligentie. En dat ging eigenlijk voortop
in die waarschierigheid die ik zelf al heel lang heb. Dat was veel mensen in de jaren 80 de eerste
keer en rond 2000 heb ik dat ook nog eens academisch geprobeerd. Dat is briljant mislukt,
maar in 2016 was de rebound. Toen kon het wel.
Ja, gaaf.
Ja, en waar wij het vandaag over zouden willen hebben is de toekomst van een jaar. En dan
niet naar, weet je, je leest best wel heel veel dingen, mensen die allerlei voorspellingen
doen voor over 2030, 2050. Ja, ik geloof er niet zo in, dat je al zo ver vooruit kan kijken.
Maar laten we een heel klein stapje in de toekomst kijken. Dat we het vandaag eens over hebben
van hoe moet je je als bedrijf voorbereiden als je dat al niet aan het doen bent? En wat
betekent de toekomst die eraan gaat komen? Dus zullen we eens beginnen met waar zou je
eigenlijk nu moeten staan volgens jou als bedrijf?
Dat is een hele leuke vraag. Het is een gesprek, dus ik mag ook dingen terugvragen.
Zeker, graag zelfs.
Nou ja, kijk, dat is natuurlijk een mooi bruggetje voor de luisteraar. Die hebben mij nou net
over Aigency gehoord, maar inmiddels Info Support. En Joop met jou voorop. Jullie zijn de nieuwe
eigenaar van Aigency. Wat was de trigger voor jullie om, jullie namen AI al serieus, maar
wat was de trigger om het zo serieus te nemen dat je inderdaad ook onder dat label gaat
werken?
Ja, dat is zeker een goede vraag. Wij waren natuurlijk al heel lang bezig met kunstmatige
intelligentie. Voor mij gaat dat echt terug naar, nou ergens rond 2012 of zo. Dus daar
zaten we eigenlijk nog midden in de AI winter. En zelf was ik op dat moment product owner
van een kennismanagementsysteem. En om gewoon bepaalde features te kunnen implementeren,
dingen als aanbevelingen, we moesten dingen zoeken. We wilden het voor de gebruiker makkelijker
maken als je hem een tekst geeft, dat hij automatisch tagging. Dus we moesten Natural
Language Processing moesten toepassen enzo. Dus wij zijn daar gewoon mee aan de slag
gegaan. Op een gegeven moment stopte dat product, maar hadden we wel zoiets van, oh
ja, maar dit is wel een heel veelbelovende technologie. Want we konden dingen oplossen
die we daarvoor, die ik in ieder geval als software developer daarvoor niet kon oplossen.
Dus we hadden zoiets van, ja maar dit weet je, iedereen moet dit als het ware weten.
Dat dit kan. En op een gegeven moment kwam het natuurlijk meer los, wat je net al zei,
rond 2016 werd het meer toegankelijk. En wat wij in de markt zien, is dat je heel vaak
aan de software development kant wordt vergeten welke mogelijkheden er eigenlijk nog meer
zijn dan wat je traditioneel met software oplost. Of aan de data kant, dat er gezegd wordt,
ja we zouden best wel meer waarde uit onze data willen halen, maar we weten niet zo
goed hoe. Uiteindelijk is dat de reden dat we het zo serieus nemen, dat ik erin geloof
dat binnen nu een aantal jaren geen enkel bedrijf meer zonder deze technologie kan.
En het is wel een toegevoegde technologie wat mij betreft, maar je kan zo direct niet
meer zonder. Of je verliest concurrentiepositie, dat kan ook. En dat is waarom wij het denk
ik zo serieus nemen. En Niels, jij komt vooral uit de BI, Business Intelligence? Vanuit de
data inderdaad, ja. Dus mijn achtergrond is eigenlijk sinds afstuderen van de Hoogste
Rotterdam eigenlijk in 2007 al gewoon in de data. Waar we al heel veel deden in de jaren
2010, 12 al met hetgene wat nu onder AI valt, maar predictive maintenance, voorspellen op
basis van wat er in de data staat. Toen nog wel met andere technologieën en andere mogelijkheden.
Maar daar zagen we heel snel dat de technologie je daar soms tegen ging houden met wat je
zou willen dat er mogelijk was met de data die er was. Dus we zijn heel erg blij dat de
technologie nu echt enorme sprongen maakt en je wel wat verschillen mee kan gaan maken.
Met nog steeds dezelfde uitdagingen die we eigenlijk toen ook al hadden. Wat is nu de
data kwaliteit? Waar vinden we de juiste data? Hoe gaan we dat inzetten? En hoe gaan we dat
binnen de organisatie borgen? En ja, dat is altijd al een beetje apart geweest met software
engineering en de data engineering daarin. Omdat software die je deployed, de test je
van tevoren dan deploy en gaat draaien. Terwijl ja, je data pipelines die bouw je, probeer je
zo goed mogelijk te testen, maar je weet niet wat voor data er voorbij komt. Je gooit het
naar productie en er komen hele andere datastromen voorbij. En ja, dat is hetzelfde wat we nu
ook met AI zien. Er komen ineens nieuwe stromen, nieuwe ontwikkelingen die impact hebben op
hetgene wat je daarvoor al getest hebt en klaar hebt staan. Ik denk dat we nu wel in
de fase zitten dat we daar echt meters kunnen gaan maken met de technologie die er staat.
En dat de organisatiebelangen ook gevoeld worden en steeds meer gezien worden.
En dan Jim, want jij gaat je eigenlijk iets vragen waar ik het antwoord al op weet.
Dan gaan we leerden over die pauze.
Maar de luisteraar nog niet. Wat was voor jou namelijk een reden, namelijk om afscheid
te nemen van Aigency? Want dat is een hele specifieke reden toch?
Nou ja, het kwam erop neer dat AI toen wij in 2016 daarmee begonnen, was het echt nog
pionieren. Ik weet dat er natuurlijk al sinds 1956 wordt gepionierd, maar voor ons was het
ook nog pionieren. Maar dat was ook bij corporates, bij ons opdrachtgevers, was dat gevoel. We
willen iets leuks. Oh, kijk eens, een creatief bureau, Aigency, laten we eens met hun experimentje
doen. Dat hebben wij met veel plezier gedaan. We hebben heel veel POCs en MVP's en pilots,
noem het allemaal op, gedaan. Maar gaandeweg, zeker de afgelopen twee jaar, zie je gewoon
dat bedrijven eigenlijk zeggen ja, maar dit is zo cruciaal, dit is zo van belang voor
de core van onze organisatie, dat we het niet aan de randen willen doen. We willen het gewoon
vanuit binnen uitmaken. Het wordt eigenlijk een nieuwe competentie. Nieuwe businessmodellen
komen erbij. Je krijgt nieuwe relaties met je klant, et cetera. Dus het moet deugen,
het moet solide zijn, et cetera. En ja, daar zat ik dan met een paar containers vol met
studenten van Master AI. Wij bouwden heel snel, maar om het nou solide te noemen, dat weet
ik niet. Dus wie is dat er ook op Amstel Science Park, dat leuke bedrijf Info Support. En zo
kwamen we eens in gesprek en blijkt dat jullie 500 man hebben die solide IT-projecten kunnen
knallen. Dus toen was de handdruk snel gemaakt en dat was voor mij een fijne manier om mijn
klanten gerust te stellen van luister, dat verandert niet zoveel, behalve dan dat de code
allemaal een stuk beter eruit ziet, betrouwbaar is en je support krijgt. En ik wilde me dan
weer naar de volgende halt verplaatsen. Ik probeer altijd een beetje vooruit te lopen.
Moet je kijken, wat is nu de next big thing? En ik noem dat nu de keuringsdienst van data.
En dat voelt een beetje als een stap terug, want het gaat toch over AI? Nee, maar luister,
datagedreven AI, Niels zei het al zo mooi, het valt en staat niet alleen met de kwaliteit
van je data, maar ook welke onvoorziene effecten dat gaat hebben. En dan kom je dus in het
veld van de ethiek terecht. En daar heb ik nu hele interessante open gesprekken over
met een aantal organisaties die zeggen ja, wij hebben nu dit algoritme draaien. We denken
dat het een bepaalde impact heeft, maar help ons even. Wat moeten we hier nou mee? Hoe kunnen
we dit op een verantwoorde manier doen? Dus dat zou je responsible innovation kunnen noemen.
Ja, want er komt eigenlijk meer bij kijken van lang is natuurlijk gedacht van nou, als
we maar zo'n model hebben en we krijgen dat model in productie, dan zijn we een hele eind.
Ja, hij doet het. Hij doet het, ja precies. Nou, daar kwam een toevoering bij van ja,
maar eigenlijk hoort daar eigenlijk wel iets van een heel solide proces omheen. En de stap
die nu gemaakt wordt, waar wij het heel veel over hebben, is dingen als transparantie, eerlijkheid
en dat soort zaken. En jij zegt van ja, maar let op, er komt ook een ethisch vraagstuk
naar je toe en daar moet je ook iets mee. Ja, ja, ja, dat is heel mooi opgebouwd. En
dat explainable gedeelte waarvan ik weet ook dat jullie daar druk mee zijn, dat is heel belangrijk.
En dat is denk ik ook de transparantie. We willen geen black box. Ik denk niet meer dat
opdrachtgevers dat zouden accepteren, dat je dat levert. Maar klanten helemaal niet,
klanten van je klanten. Ja, maar ik zit hem voornamelijk nog op de mooie crate van Spiderman
with big data comes great responsibility. Een mooi voorbeeld is denk ik de gemeente Amsterdam.
Die hebben dat overigens al vanaf een aantal jaar geleden goed aangepakt. Die hebben dat manifest
geschreven. Ik zie jullie knikken. Dat heet TADA, dus niet data, maar TADA. Waarin zij
uitgangspunten hebben vastgelegd van oké, wij gaan data inzetten in onze digitale dienstverlening,
maar in dat manifest sommen we op hoe we dat gaan doen in het belang, dus ten goede,
van de Amsterdammers. En die uitgangspunten die zijn die zijn solide. Hebben ze ook goed
getoetst met allerlei mensen. Ik heb die mail ondertekend destijds vanuit dat ik erover durf
te spreken. Maar er komt bijvoorbeeld ook zoiets voor dat zij dan in hun data, in bijvoorbeeld
betalingen van Amsterdam, soms bij een aantal mensen zien dat er wel eens een maand wordt
gemist. Dat de huur niet kan worden betaald en misschien een maand daarna nog. Met andere woorden,
ze hebben nu van data naar inzichten dat er een aantal piepjes afgaan, dat dat voorspellers zijn
van wat ze noemen de armoedeval. Want als je eenmaal één betaling mist en je moet dan de tweede en
volgende weet je heb je schuld en dan krijg je rente. Dat is echt een drama voor veel mensen als
ze in die neerwaartse spiraal terechtkomen. Dus Amsterdammer zat met de handen in het haar van
ja we zien dit maar is het wel oké om nu inderdaad op zo'n deur te kloppen van meneer of mevrouw wij
zien in ons het. Weet je dat dat is zo'n schemengebied. Je kan zeggen hou het modeldeugd,
het is zo. We denken dat we het moeten doen maar gaan we het ook doen. Ja en het is vanuit de
goedheid is het ontwikkeld. Ja. En toch levert het uiteindelijk een ethische vraag op. Precies ja.
Nou en dat soort vragen daar ben ik nu nu gek op. En ik heb dan met de kunst en data heb ik een leuk
teampje een elftal verzameld van aan de ene kant zijn ze 50% data scientist dus ze kunnen echt in
de code en in de data sets graven. Met andere 50% hebben ze mij de afgelopen jaren al lastig
gevallen met dat soort moeilijke ingewikkelde bijna socratische vragen. En dus het zijn eigenlijk meer
etici en filosofen met wie we nu dit soort gesprekken voeren om bedrijven te helpen.
Zeg je luister je kan op een verantwoorde manier innoveren met data. Je hoeft niet bang te zijn
dat je zondag in de krant komt met de volgende toeslagaffaire. Maar je moet wel even deze en
deze checklist is een vreselijk woord maar we hebben een aantal modellen ervoor ontwikkeld
zodat je dat met je organisatie kan uitvoeren. Zou je een voorbeeld kunnen geven van zo'n
socratische vraag? Nou het gaat er soms hard aan toe. Dat wil zeggen moet je voorstellen dat jij
toezicht moet houden op een nou bijvoorbeeld op een op een verzekeringsmaatschappij. Het kan zijn
dat je over toezicht houden bent of je zit in de raad van toezicht. Dan ging dat een paar jaar
geleden had je dan gesprekken met je directeur of met je directrice of met de board van zijn we een
beetje innovatief? Ja ja ja we zitten midden in de digitale transformatie. Oké gaat goed. Ja dat
gaat goed. Ja moet er wel wat geld bij? Oké. En dan werden de servers gekocht en dat was allemaal
allemaal makkelijk. Nu anno 2022 is de vraag eerder als we echt innovatief zijn gebruiken wij wel AI.
Ja dat doen we wel. Maar goed als toezichthouder moet je dan ook vragen en doen we dat een beetje
op een verantwoorde manier? Ja. Ja weet je en dan nou ja taart erbij bier drinken en klaar. Maar
dat is dat is geen goede manier van toezicht houden. Dus wat doen wij? We hebben een gereedschapskistje
dat zetten we op tafel dat geven dan die toezichthouder mee dat die dan in zo'n gesprek dat
je ook kan zeggen oké dus wij gebruiken algoritme. Kan je mij even vertellen welke algoritme wij op
welke plek een organisatie gebruiken? Ja. En dan is dus de volgende vraag. Geeft niet volgende week
vraag ik nog een keer. Ja. Nou een week later kijk eens ik heb voor u een overzicht gemaakt van alle
algoritme die wij gebruiken. Oh ja dit specifieke algoritme op welke data is dat model getraind?
Geeft niet volgende week. Nou dit kan ik heel lang volhouden. Maar dit is dus een gereedschapskistje
met oké het is data getraind op welke data is het getraind? Welke data is niet gebruikt? Hoe komen
we aan deze data? Is het bestand gekocht? Is het synthetische data? O jee wie heeft de labels
gegeven? Welke labels zijn gebruikt? Welke labels zijn niet gebruikt? Heb je het uit met andere
woorden er ontstaat een explosie aan vragen die er toe doen. Ja. Want ik doe er een beetje laconiek
over maar elke keer dat je deze vraag stelt en je krijgt geen antwoord. Oeps weet je wel dit
moet je gewoon op orde hebben. Dus wij helpen dan dat soort organisaties om de lijstjes te hebben.
En het is een beetje flauw om nu per week dit gaat natuurlijk je kan ze best op een gegeven moment
zeggen nou en dit zijn de vijf vragen voor volgende week. Maar dat je helpt wel ook op die manier je
directie want er zit ook niet echt een oordeel in als je vraagt welke data gebruiken we hiervoor?
Welke data gebruiken we hiervoor? Het is weer zo gratis. Ja. En vervolgens door die vragen te
stellen kom je steeds een stapje verder om te zien waar eventuele uitdagingen liggen om als
de klanten hierover vragen gaan stellen of als ze zich onjuist bejegend voelen et cetera. Dan
heb jij in ieder geval je huiswerk gedaan om te zeggen nou hier en hier kan het hiervan niet
aan liggen. Ja. En houdt dat dan ook in dat je naar barriers zoekt? Dat soort zaken? Dat kunnen
wij doen maar ik heb eigenlijk nog liever dat de klant dat zelf doet. We zijn wat dat betreft ook
wat meer train the trainer. Maar als ze zeggen nou wij hebben ons best gedaan maar we're not sure.
Natuurlijk dan kom ik met een paar jongens en meiden en trek een witte jas aan en dan ik noem
dat forensische AI. Dan gaan wij proberen de modellen van de klant te stress testen en op
zoek te gaan inderdaad naar bepaalde, nou dat kunnen bevolkingsgroepen zijn of andere attributen
die oververtegenwoordigd zijn in de dataset. Ja precies. Wat ik me wel afvraag is neem daar ook
mee bij die organisaties hoe zit het governance model en de ownership van de data. Wordt dat
ook meegenomen? Absoluut ja ja ja dat is dan inderdaad je komt dan bijna en ik kan me een
paar jaar geleden niet kunnen voorstellen dat ik daar enthousiast over zou zijn over deze woorden
over governance. Over master data management, compliancy, etc. Misschien moeten we heel even
kort Niels wat is governance? Niet iedereen weet dat. Ja nou governance is net zoals bij de
overheid. Er zijn regels die worden opgesteld. Hoe wordt dat gehanteerd? Wie is er waarvoor
verantwoordelijk? En heb je dat uitgeschreven dat je dat terug kan vinden? Waar moet ik zijn
als ik iets vind? Juist ja ja duidelijk heel goed en het woord governance als die vraag wordt
gesteld dan heb ik daar ook een antwoord op en dat is data lineage en dat is de uitdaging
denk ik nu voor veel organisaties als ze AI op een verantwoorde manier in willen zetten. Dan zou je
hier ook een systeem voor moeten hebben. Dat wil zeggen dat het kan best zijn dat je consent,
toestemming hebt van een klant om een bepaald stukje data te gebruiken. Maar het is wel heel
fijn als je goed hebt gelogd hoe je aan die data komt, dat er toestemming is gegeven voor welk doel.
Want als je het voor A hebt gekregen betekent niet dat je het ook voor B of C mag gebruiken.
Nou dat zijn allemaal ingewikkelde vragen waarmee je best een proces kan verstoren of kan frustreren.
Men zegt ja zo vind ik het niet leuk meer. Nou ja maar als je gewoon je data lineage op orde
hebt dan kan je dat mee programmeren in je model en kan je daar de vruchten van plukken. Zeker en
zeker als je dat automatiseert dat dat zoveel mogelijk voor je wordt gedaan. Ja ja zeker.
Ik denk nog wel heel belangrijk is als we dat weten, want dat zou heel mooi zijn als we zover zijn,
dat we ook de houdbaarheid van die data en de toestemming houdbaarheid ook daarin mee gaan
nemen. Dat wordt nog vaak wel vergeten. Wat is de levensvatbaarheid van dit stukje data wat we hier
hebben? Mogen we dat en willen we dat nog wel gebruiken op een langere termijn? Mooi ja.
Het is de houdbaar tot. Ja toch? Ja dat is zeker een mooie. Ja dus even tot nu toe,
want de vraag was van wat zien we zeg maar in de nabije toekomst of waar moet je misschien nu
eigenlijk al rekening mee houden als je productierijper systemen bouwt. Dan hebben we het
dus over dat moet natuurlijk op een solide, robuuste manier gebeuren. Ja. Basis. Er komen
ethische vragen komen op je af waar je in ieder geval antwoord op zou moeten kunnen geven.
Er bestaat een mogelijkheid om daar in ieder geval hulp ook bij in te roepen.
De traceerbaarheid van je data. Heb je alle toestemmingen? Gebruik je het op de juiste
manier? Dat soort zaken. Dat is waar we nu staan toch? Ja kwaliteit van data. Er wordt ook steeds
meer geautomatiseerd om daar inderdaad met behulp van AI die metrieke de deviatie in de data,
de trend in de data. Dat zie je nu wel langzaam gestart worden. Ja. Maar wat ik zeg langzaam
gestart worden. Ja. Ja. Weet je wat ook nog? De vraag was wat zijn de komende vijf jaar
belangrijk. Ja. Laten we de bullshit radar ook wat beter afstellen. Gisteren dat verhaal van
Lambda nog voorbij hebben zien komen. Verschrikkelijk. Ik heb hem gemist. Praat
me even bij. En de luisteraars ook. Eén keer in zo veel tijd dan komt er weer een verhaal voorbij
in de media of op social media dat er een bepaald AI systeem zo slim is geworden. Oh ja. Ja.
Sentient. Ja. Bewustheid is dat hij een bewustzijn heeft gekregen. Een chatbot heeft een bewustzijn
gekregen volgens Google engineer. Ja precies. Nou en vijf woorden in die zin. Dat zorgt voor
clickbait en ook. Ja het is wel een persoonlijke frustratie van mij. En ik wil het ook niet
bagatelliseren. Maar het is wel bizar dat dit soort dingen nog gedebunkt moeten worden. Want
een Lambda is een taalmodel van Google. Laten we het even simplistisch verwoorden. Wat hartstikke
goed in elkaar zit. Er zijn natuurlijk meerdere modellen. Bert een open AI heeft de GPT-3. Maar
bij Google werken ze met Lambda. En daar kan je dus een dialoog mee starten. En dat gaat best leuk.
Het is een soort chatbot die eigenlijk reageert op wat jij typt. Het is een soort autocomplete
on steroids. Dat wil zeggen dat je bent vaak blij in je telefoon als je een woordje aan het tikken
bent dat je het woord goed raadt. In veel gevallen wil je eigenlijk de autocorrectie corrigeren.
Maar wat Lambda goed kan is ze zeggen nou als dit en dit is gezegd dan denk ik dat dit de volgende
zin of de volgende vraag is. En dat gaat best goed. Dus wat had deze onderzoeker gedaan? Die
was een, nou niet een Socratisch gesprek, maar een filosofisch gesprek. Begonnen met die chatbot
van Google, die Dialog Assistant, waarin die vragen ging stellen over inderdaad heb jij een
zelfbewustzijn. Wat denk jij dan op basis van alle internet data? Wat denk je dan dat het antwoord
gaat zijn? Het antwoord was ja. Ja, ik heb een bewustzijn. Ja en om dan vervolgens gelijk een
persbericht, nou ja dat niet, maar in ieder geval de claim te maken. Volgens mij een artikel op
medium.com had je gepubliceerd. Oké mensen het is zover. Hier heb je de chats die het bewijzen.
Ja, je kan het zeggen. Ja, gelukkig had hij het erbij gedaan. Maar dit is, ja weet je,
als ik op Koningsdag de vlag uithang, ben ik nog geen onderdeel van het Koningshuis. Nou,
zo is dit ook een beetje als een chatbot zegt dat hij zelfbewustzijn heeft ontwikkeld. Hoeft
dat toch niet zo te zijn? Dus ik word daar wel een beetje moe van, dat dit dan toch nog zoveel
aandacht krijgt en ook nog journalisten, ik weet niet jullie luisteren, dat die dan toch nog daar
een artikeltje aan besteden. Dat is echt bizar. Ja, dat doet geen goed. Aan de andere kant, wat
me wel triggerend is, het is wel in de oog van degene die het wil geloven. Dus dit is wel het
effect wat het kan hebben op de mensheid. Dus wat de andere kant vind ik ook wel een mooi perspectief,
is dat mensen er tussen kunnen geloven. Dus eigenlijk moeten we daar dus ook rekening mee
houden in de oplossingen die je hebt. Dat mensen het kunnen gaan geloven. Het is jammer dat het
nog wel groot gedebunkt moet worden inderdaad. Maar ik vind er ook wel een ander aspect aan zitten.
Fox Mulder, weet je nog wat hij zei? Ik want to believe. Ja, dat is het wel. Iedereen die het
retweet of met een vraagteken retweet, they want to believe. Ik snap ook wel dat het,
ik heb het ook gelezen. Dus ik ben er ook in getrapt, maar ik ga het niet klakloos retweeten.
Nee, precies. En het prikkelt natuurlijk de angst van de mensen die er leeft. De media
pakt niet voor niks dit op en niet een verhaal wat heel feitelijk is. Vijf dingen die goed zijn
gegaan met AI. Ja, precies. Dat is een beetje jammer. Je zal niet geloven wat er gebeurde.
En wij hebben als mens natuurlijk sowieso de eigenschap dat wij van alles vermenselijken.
We hebben vermenselijke dieren, we hebben vermenselijke objecten. We hebben de podcast,
de aflevering hiervoor, hebben we het namelijk ook gehad over een chatbot die vermenselijk werd.
En dat had dan een wat positiever effect. Maar het gebeurt natuurlijk heel snel en daardoor
triggert het mensen ook heel snel. Maar dat is iets waar je denk ik ook op dit moment,
zeg maar als bedrijf, ook rekening mee moet houden. Dus dat er inderdaad heel snel iets
vermenselijk wordt en waarvan we voor het gedacht hebben als er iets zinnigs terugkomt,
nou dan lijkt het alsof zo'n model kan denken. Nou we kunnen denk ik met z'n drieën wel vaststellen,
het zijn allemaal wiskundige formules. Ik heb nog nooit gezien dat een wiskundige formule kan
denken. Nee, het is statistiek. Het is een antwoord wat je krijgt. Ja, precies. En als
een rekenmachine als ik 1+1 intyp en hij geeft 2 terug wat het juiste antwoord is,
dan denk ik niet van zo, die kan er wat van. Maar heb jij wel eens 's nachts gekeken wat
jouw rekenmachine had? Ja, precies. Moeilijke primgetallen. En die is bitcoins aan het minen.
O, ander onderwerp. Ja, ander onderwerp. Als ik nou kijk, een heel klein stukje de toekomst in,
en dan ben ik misschien overvalt, maar hoor Jim, maar dan zat ik te denken van,
we hebben het over die grote taalmodellen, we hebben het natuurlijk ook steeds meer over CO2
uitstoot, verduurzaming, allemaal dat soort zaken. Gaan we dat ook als bedrijven krijgen? Volgens
mij zijn we op een gegeven moment verplicht om een rapportage te gaan maken over je CO2 uitstoot,
als je een bepaalde omvang hebt als bedrijf. Het trainen van AI modellen vergt best wel heel wat
computerkracht. Gaat dat ook komen, denk je? Ja, dat is een interessante vraag. Hoe groen is AI,
of hoe groen moet AI zijn, of kan AI wel groen zijn? Feit is inderdaad dat alles wat je digitaal
doet, of nou een search bij Google is evenveel energie als een kopje thee zetten. Dus alles wat
je online doet, dat heeft een CO2 footprint, voetafdruk. Klinkt toch anders in het Nederlands.
Laat maar het Engels ook weer. Ja, en met AI is één ding zeker. Inderdaad, als je een GAN of
een generatief taalmodel wil trainen, dan heb je GPU's nodig, dat kost heel veel energie. Aan de andere
kant, het leuke van deze modellen is, ze zijn pre-trained. Dus de grootste chunk is al gebeurd,
je kan het model al gebruiken. Dat betekent dat als jij nu een account hebt om iets te doen met
GPT-3 bijvoorbeeld, of met met lambda, dan is het de meeste energie is al een keertje verbruikt,
dus dat valt wel mee. Daarnaast zie je wel steeds meer ook dat de tech-industrie zijn verantwoordelijkheid
oppakt en ook nu wat meer werkt aan edge-modellen. Dus dat het niet allemaal per se in de cloud hoeft
te draaien, maar dat je ook lokaal op een device, of in de camera zelf, dat je al veel kan crunchen.
Dus ik ben zeker geen expert als het gaat over duurzaamheid, dat laat ik graag aan anderen
over, maar ik zie wel pogingen in ieder geval van de industrie om het beter te doen.
Ja, en ik denk dat het mooi onderscheid is wat je maakt. Want het trainen is dan heel duur,
maar als je hem dan gebruikt, dan is het bijna instant. En dat is niet anders dan,
nou ik denk dat het een pagina opvragen op een website meer kost dan uiteindelijk die voorspelling.
Het is een API call.
Ja, je ziet het ook wel. Steeds meer leveranciers van cloud-oplossingen geven al mee wat de
footprint is van de service die je gebruikt. Ik heb vast nog van Microsoft gezien. Dan kan je gewoon
van je subscription gewoon opvragen wat is de CO2 footprint die we hebben op deze maand van de Azure
spend die we gedaan hebben.
Oh, dat is wel cool. Dat is beter dan al die ellendige e-mails die zeggen 'don't print this
e-mail'. Dan krijgen we elke AI toepassing ook 'dit kostte twee klopjes tegenwoordig'.
Ja, dat zou wel ernstig zijn.
Zijn er andere dingen die jij aan ziet komen? Jij gaf het trouwens vijf jaar aan. Ik had me niet
eens zo specifiek.
Ik zeg gewoon dat mensen die verder dan vijf jaar kijken, moet je wantrouwen.
Ja, dat vind ik ook.
Dat vind ik ook. Ja, absoluut.
Dan zullen we niks zeggen over vijf jaar in de dag.
Nee, nee.
Wat zie je de komende vijf jaar?
Nou, gisteren was ik op een evenement en daar was Dr. Gianrico Farruccia. En dat is de grote
baas van de Mayo Clinic. De Mayo Clinic is het meest innovatieve ziekenhuis ter wereld,
zo staan ze ook bekend. Hij was er op uitnodiging van Philips. Dat was een mooie
bijeenkomst in het Rijksmuseum. Ik mocht dat presenteren vanaf dat ik er was. En wat hij
daar presenteerde, dat daar viel ik wel van mijn stoel. Innoveren in de zorg is moeilijk.
Dus daar kunnen wij allemaal wat van leren. Alles wat daar lukt, nou kun je nagaan als wij dat in
onze industrie mogen toepassen. Dan is dat een stuk makkelijker. Het model is van pipeline
to platform. Hij heeft een platform in het leven geroepen bij de Mayo Clinic, waar zij dus de data
van hun patiënten in een hele bewaardigde omgeving stallen. Vervolgens dan naar een tweede laag,
de identification, dus in het Nederlands pseudonymiseren. En vervolgens is er nog een
derde laag en dat is data behind glass. Dat is dus de identified data, waarbij andere partijen,
andere instituten, andere academische instellingen, voor mij part zorgverzekeraars of andere mensen,
die kunnen dus hun modellen naar dat stukje data brengen. En ze krijgen niet de data. Dat was heel
duidelijk. Dus dit is federated learning in onze taal. Hij laat dus die andere mensen hun
modellen naar de data brengen en de uitkomsten die mogen zij gebruiken. En daar betalen ze ook
voor. Dus hij heeft ook het verdienmodel, wat heel knap is in de zorg, heeft hij ook geregeld. En toen
ik dat zag, dacht ik van wauw, dit is volgens mij wel de toekomst. Ik denk dat we de komende vier
en een half jaar dat wij veel van dit soort oplossingen zullen zien, waarbij dus consortia
samen optrekken om op een veilige verantwoorde manier data niet delen, ontsluiten, zodat meer
partijen daar betere modellen, want daar zijn we bij gebaat. Het gaat niet over data bezitten,
het gaat niet over data afschermen, het gaat over hoe kunnen we het beter doen voor onze klanten.
Nou heb je soms betere modellen nodig. En ik vond dit wel een mooie blauwdruk voor de toekomst,
hoe we dat op een verantwoorde manier met meerdere partijen kunnen doen. Ja ik vind dat zelf een heel
mooi principe, omdat je ziet, we zijn natuurlijk begonnen met dat we de GDPR kregen, de AVG,
en er werd vooral heel veel gezegd wat allemaal niet meer kon en dat soort zaken. En zijn we
allemaal dingen gaan proberen om ervoor te zorgen dat we nog steeds al die data kunnen verplaatsen.
Ja. En dit is inderdaad een weg waarbij je ziet dat er op een andere manier naar gekeken wordt,
dat je je data niet meer weggeeft tussen aanhalingstekens, maar dat je hem wel beschikbaar
stelt. En ik denk dat het ook helpt voor de democratisering van het datagebruik. Ja.
Ja. Ook waardevol in de supply chain, want daar zitten nu natuurlijk vooral uitdagingen. Als je
data bij de ene organisatie hebt en je gaat onderdeel ketens verder, die hebben die data
niet. Dus ja hoe ga je daarmee om? Daar zou dit inderdaad een hele waardevolle toevoeging zijn,
om over de ketens heen te kunnen gaan optimaliseren. Ja. En dat is wel een challenge
die zeker 4,5 jaar al een flinke uitdaging gaat zijn. Ja zeker. En tot voor kort werd er dan
geroepen blockchain. Dat zou dan de oplossing zijn daarvan. Ik ben zelf ook blockchain,
of nou bitcoin believer en daarmee ook redelijk antisocial over blockchain. Maar het voelt soms
ook wel als een kanon om een mug neer te schieten. In dit geval denk ik dat de Mayo Clinic zouden
ook een blockchain kunnen kunnen bouwen, et cetera. Maar op zich op deze manier is het ook
gewoon geregeld. Ja. Nou het leuke is, wij hebben dit, zijn dit aan het implementeren met een
universitair medisch centrum in Nederland. Want zij hebben natuurlijk ook allerlei data,
patiënten data. In dit geval gaat het over video's. Ja. En met dit implementeren federated
learning bedoel je? Federated learning. Oh wat vet. Had ik dat geweten, had ik dat verteld tegen
mijn vrouwtje. Ja maar hoe even, dat doe ik dus voor years in Venen. Ja nee dat doen wij ook. En
als je dat heel concreet maakt, wat je eigenlijk doet, is dat je je levert code aan, die die
inderdaad zeg maar het model mag trainen op de locatie van het ziekenhuis. Ja. Maar die wordt
eerst van tevoren wordt natuurlijk naar die code gekeken en dat wordt ook aangegeven. En er wordt
wordt een, hoe zeg je dat, een vinkje gezet van ja deze deze job die mag draaien. Oké. Wij vertrouwen
deze code en daarom mag die naar onze data kijken. En dan inderdaad de gewichten van het model die
gaan terug en heb je een getraind model heb je terug. Gaaf. Maar het coole is natuurlijk,
en daar zitten we met een andere consortium, want je had het inderdaad over consortia,
die zeggen van ja maar wij hebben er ongeveer 24 van dit soort aanleverende partijen. Ja. En dat
zou betekenen dat ieder voor zich zeg maar op zijn eigen data heel specifiek dingen als aanbeveling
of zo zou kunnen maken. Maar je kan wel onderling, kan je dus dan ook nog eens een keer data gaan
delen met elkaar. Ja. Maar dat is nog een gedachte sprong waar we in zitten. Maar met het
ziekenhuis zijn we inderdaad zover dat we dat op deze manier doen. Ja. En ik geloof erin dat dat
inderdaad de toekomst is. Want dat betekent dat je veel meer data kan gebruiken op een verantwoorde
manier waarbij de eigenaarschap ook bij degenen blijft waar het ook ligt. Ja. En dat je ook niet
bang hoeft te zijn dat er persoonsgegevens overgaan. Nee. Ja. Dat is ook wel een beweging die je in de
data wereld ziet. De architecturen die daar aan het veranderen zijn, de data fabrics, de data
measures. Ja. Het stoppen met kopieerhonger van de data. Dat we de data kopieerhonger. Kopieerhonger
inderdaad. Dat is dan weer eentje die wel lekker in het Nederlands pakken. Ja. Ja. Ja. Dus die
die proberen we ook in de architecturen wel steeds meer tegen te gaan die kopieerhonger. Om de data
te houden waar het is. Ja. En te zorgen dat het daar al gewoon goed geregeld is. Dat het daar al
beschreven is. En dat je het als je het gaat gebruiken ook weer weet. Daar komt het vandaan.
Daar kan je de details vinden. Ja. En je lineage daarin dus ook gelijk meeneemt. Dus ook daar zie
je een technische architectuurland ook steeds meer die beweging de goede kant op gaan. Maar ook daar
zal even duren voordat we er zijn. Dan kunnen er ook geen kopietjes rond zwerven. Nee. Met verouderde
of vervuilde data. Ja. Wat je weer moet opruimen. Wat je weer moet monitoren. Ja. Ja. Mooi. Dus als
we zeg maar proberen er een totale samenvatting van te maken. Oké. We gaan even luisteren.
Het wordt lastig toch? Oh mens. Even kijken hoe goed mijn geheugen werkt. Maar laten we eerst beginnen
met wat we als laatste hebben besproken. Dus het betekent eigenlijk een andere manier van data
ontsluiting. Gaat op je afkomen denken. Dus dat je na gaat denken over hoe kan ik data gaan delen
in plaats van hoe kan ik dat vasthouden en alleen maar voor mezelf houden. Democratisering. Ja.
Democratisering van data gaat op je afkomen. We hebben het over duurzaamheid gehad. Dat je daar in
ieder geval denk ik over na moet denken. En we begonnen met de ethische vragenstellingen natuurlijk.
Het solide bouwen van van systemen wat op je af gaat komen. En dan en dan ja. En dan is de vijfde.
Dan wordt het natuurlijk moeilijk. Het is net als weet je. Ik ga op vakantie. De bullshit radar.
Oh de bullshit radar. Daar moeten we echt aan af toch? Hoe kunnen we daar nou eens een keer een
streep doorheen zetten van. Als iedereen naar deze podcast gaat luisteren dan komen we over.
Dan kunnen we er ook wel heel veel strepen over. Volgens mij hebben we hier gewoon bingo in deze
podcast. Ja. En dan ga ik er toch nog een onsexy term in gooien. We noemden hem al governance. Ik
denk dat dat ook eentje is die echt bij steeds meer bedrijven nut en noodzaak en ook waarde gaan
opleveren. In plaats van ja moeten we doen. Nee dit gaan we doen. En dat is belangrijk. Ik denk
dat dat de komende jaren gaat gebeuren. Eens. Moet gebeuren. En ik denk ook als aanvulling op
jouw zespuntige samenvatting. Nou overigens. Is wat de rode draad is. Is waar ik bang voor ben.
Is wat afgelopen twee jaar ook wel ontstond. Is een soort koud watervrees bij organisaties. Dat ze
bijna bang waren om iets te gaan doen met hun data. Dat is de verkeerde reflex. En ik snap heus
wel dat de toeslagenaffaire veel indruk heeft gemaakt bij mensen. Maar laten we eerlijk wezen
dat had helemaal niet zoveel met AI te maken. Dat is gewoon heel dom beleid. Wat vervolgens is
uitgevoerd. Inderdaad gebruikmakende van technologie. Ja sure maar zo lust ik er nog
wel een paar. Maar daardoor is er wel een soort verstarring ontstaan. En ik denk dat nou ja
Info Support Aigency, Kunstdienst van Data. Dat wij allemaal op een bepaalde manier probeert te
zeggen tegen organisaties. Hey luister we snappen die zorgen. Maar op deze en deze manier kan je het
wel doen. Dat wel doen dat is denk ik nog even belangrijk als die bullshit radar. Die voornamelijk
gewoon de discussie heel erg verwart. En daar zit niemand op te wachten. Dus je kan beter praten
met je klanten en met je collega's over wat kunnen we wel doen. Waarom zouden we het willen doen.
Dan die andere discussies. En mocht je nog niet begonnen zijn. Begin denk ik. En als je wel
begonnen bent. Denk eens na wat je volgende stappen zijn. Want meestal betekent dat er nog
wel wat professionalisering slagen te halen zijn. Met de huidige staat al te tegenkomen in de praktijk
zitten er zeker verbeterslagen in. Om het netjes te zeggen. Was dat een eufemisme? Een socratisch
eufemisme. Dan hebben we hem toch wel rond of niet. Jim hartstikke bedankt dat je ons gast wilde
zijn. Ja leuk dankjewel. Het was een leuk gesprek zo. En ook lekker interactief houden we van. Leuk
dankjewel. Fijn dat je weer luisterde naar de aflevering met Jim Stolze. Vind je het nou leuk
en wil je geen aflevering missen. Abonneer je dan in je favoriete podcast app en mis geen enkele
aflevering. Tot de volgende keer hopelijk.
[Muziek]
Tot de volgende!
Jim Stolze is tech-educator bij Digitale Weerbaarheid. Hij richt zich op het toegankelijk maken van kunstmatige intelligentie en digitale weerbaarheid tegen cybercriminaliteit. Stolze is initiatiefnemer van de Nederlandse AI-cursus en het initiatief Unlock Digitale Weerbaarheid. Jim Stolze verscheen als gast in AIToday Live in seizoen 3 aflevering 10 en seizoen 6 aflevering 98.
Bekijk gastprofiel