Alle afleveringen
S03E10 - Nabije toekomst van AI met Jim Stolze

Nabije toekomst van AI met Jim Stolze

S03E10 Seizoen 3 20 juni 2022 37 min Hosts: Joop Snijder & Niels Naglé Gast: Jim Stolze

Over deze aflevering

Samen met Jim Stolze,  een echte "AI Entreprenerd" hebben we het over de nabije toekomst van artificial intelligence. We kijken een beetje vooruit. Dus niet 20, 30 of 50 jaar, maar echt de nabije toekomst. De zaken die voorbij komen zijn Ethical AI, Data Governance, footprint, bullshitbingo, kopieerhonger en nog veel meer.

Transcript

Leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live podcast.

Een podcast voor Business & IT en we hebben vandaag de gast Jim Stolze.

Jim, leuk dat je wil aanschrijven bij ons.

Ja, met veel plezier.

Ja, heel graag.

Jim, zou je je eerst aan de luisteraars willen voorstellen voor degenen die je misschien nog

niet kennen?

Oeh, ja ik heb dat geleerd van mijn oudste zoon Max. Ik heb een keertje geprobeerd uit te

leggen wat ik allemaal deed. Vond hij totaal niet boeiend, maar aan het einde zei hij "Pap,

je bent gewoon een entrepreneur."

Oké, en ik dacht nou die ga ik onthouden. En dat klopt, ik houd van technologie, ik ben

ondernemer en het mooiste is als je die twee kan combineren. Dus dat is wat ik doe. Ik bouw

bedrijven op technologie die nog niet helemaal werkt en met business modellen die nog niet

helemaal bewezen zijn. Dus dat is spannend, maar dat houdt mij wakker.

Ja, een entrepreneur die je aan het onthouden.

Misschien toch nog een heel klein stapje verder, want we gaan het hebben over kunstmatige intelligentie.

Daar heb je ook wel wat mee gedaan, toch?

Jazeker.

Dat is wel "toch" wel wat.

Is de paus katholiek Jim?

Wat denk je?

Nou ja goed, dat is natuurlijk ook hoe wij elkaar kennen. Ik heb in 2016 het bedrijf Aigency

bedacht en opgericht. Aigency met AI voor de luisteraars die aan het meeschrijven zijn,

Artificial Intelligence Aigency. En dat was in Nederland eigenlijk een van de eerste startups

die zich volledig concentreerde op kunstmatige intelligentie. En dat ging eigenlijk voortop

in die waarschierigheid die ik zelf al heel lang heb. Dat was veel mensen in de jaren 80 de eerste

keer en rond 2000 heb ik dat ook nog eens academisch geprobeerd. Dat is briljant mislukt,

maar in 2016 was de rebound. Toen kon het wel.

Ja, gaaf.

Ja, en waar wij het vandaag over zouden willen hebben is de toekomst van een jaar. En dan

niet naar, weet je, je leest best wel heel veel dingen, mensen die allerlei voorspellingen

doen voor over 2030, 2050. Ja, ik geloof er niet zo in, dat je al zo ver vooruit kan kijken.

Maar laten we een heel klein stapje in de toekomst kijken. Dat we het vandaag eens over hebben

van hoe moet je je als bedrijf voorbereiden als je dat al niet aan het doen bent? En wat

betekent de toekomst die eraan gaat komen? Dus zullen we eens beginnen met waar zou je

eigenlijk nu moeten staan volgens jou als bedrijf?

Dat is een hele leuke vraag. Het is een gesprek, dus ik mag ook dingen terugvragen.

Zeker, graag zelfs.

Nou ja, kijk, dat is natuurlijk een mooi bruggetje voor de luisteraar. Die hebben mij nou net

over Aigency gehoord, maar inmiddels Info Support. En Joop met jou voorop. Jullie zijn de nieuwe

eigenaar van Aigency. Wat was de trigger voor jullie om, jullie namen AI al serieus, maar

wat was de trigger om het zo serieus te nemen dat je inderdaad ook onder dat label gaat

werken?

Ja, dat is zeker een goede vraag. Wij waren natuurlijk al heel lang bezig met kunstmatige

intelligentie. Voor mij gaat dat echt terug naar, nou ergens rond 2012 of zo. Dus daar

zaten we eigenlijk nog midden in de AI winter. En zelf was ik op dat moment product owner

van een kennismanagementsysteem. En om gewoon bepaalde features te kunnen implementeren,

dingen als aanbevelingen, we moesten dingen zoeken. We wilden het voor de gebruiker makkelijker

maken als je hem een tekst geeft, dat hij automatisch tagging. Dus we moesten Natural

Language Processing moesten toepassen enzo. Dus wij zijn daar gewoon mee aan de slag

gegaan. Op een gegeven moment stopte dat product, maar hadden we wel zoiets van, oh

ja, maar dit is wel een heel veelbelovende technologie. Want we konden dingen oplossen

die we daarvoor, die ik in ieder geval als software developer daarvoor niet kon oplossen.

Dus we hadden zoiets van, ja maar dit weet je, iedereen moet dit als het ware weten.

Dat dit kan. En op een gegeven moment kwam het natuurlijk meer los, wat je net al zei,

rond 2016 werd het meer toegankelijk. En wat wij in de markt zien, is dat je heel vaak

aan de software development kant wordt vergeten welke mogelijkheden er eigenlijk nog meer

zijn dan wat je traditioneel met software oplost. Of aan de data kant, dat er gezegd wordt,

ja we zouden best wel meer waarde uit onze data willen halen, maar we weten niet zo

goed hoe. Uiteindelijk is dat de reden dat we het zo serieus nemen, dat ik erin geloof

dat binnen nu een aantal jaren geen enkel bedrijf meer zonder deze technologie kan.

En het is wel een toegevoegde technologie wat mij betreft, maar je kan zo direct niet

meer zonder. Of je verliest concurrentiepositie, dat kan ook. En dat is waarom wij het denk

ik zo serieus nemen. En Niels, jij komt vooral uit de BI, Business Intelligence? Vanuit de

data inderdaad, ja. Dus mijn achtergrond is eigenlijk sinds afstuderen van de Hoogste

Rotterdam eigenlijk in 2007 al gewoon in de data. Waar we al heel veel deden in de jaren

2010, 12 al met hetgene wat nu onder AI valt, maar predictive maintenance, voorspellen op

basis van wat er in de data staat. Toen nog wel met andere technologieën en andere mogelijkheden.

Maar daar zagen we heel snel dat de technologie je daar soms tegen ging houden met wat je

zou willen dat er mogelijk was met de data die er was. Dus we zijn heel erg blij dat de

technologie nu echt enorme sprongen maakt en je wel wat verschillen mee kan gaan maken.

Met nog steeds dezelfde uitdagingen die we eigenlijk toen ook al hadden. Wat is nu de

data kwaliteit? Waar vinden we de juiste data? Hoe gaan we dat inzetten? En hoe gaan we dat

binnen de organisatie borgen? En ja, dat is altijd al een beetje apart geweest met software

engineering en de data engineering daarin. Omdat software die je deployed, de test je

van tevoren dan deploy en gaat draaien. Terwijl ja, je data pipelines die bouw je, probeer je

zo goed mogelijk te testen, maar je weet niet wat voor data er voorbij komt. Je gooit het

naar productie en er komen hele andere datastromen voorbij. En ja, dat is hetzelfde wat we nu

ook met AI zien. Er komen ineens nieuwe stromen, nieuwe ontwikkelingen die impact hebben op

hetgene wat je daarvoor al getest hebt en klaar hebt staan. Ik denk dat we nu wel in

de fase zitten dat we daar echt meters kunnen gaan maken met de technologie die er staat.

En dat de organisatiebelangen ook gevoeld worden en steeds meer gezien worden.

En dan Jim, want jij gaat je eigenlijk iets vragen waar ik het antwoord al op weet.

Dan gaan we leerden over die pauze.

Maar de luisteraar nog niet. Wat was voor jou namelijk een reden, namelijk om afscheid

te nemen van Aigency? Want dat is een hele specifieke reden toch?

Nou ja, het kwam erop neer dat AI toen wij in 2016 daarmee begonnen, was het echt nog

pionieren. Ik weet dat er natuurlijk al sinds 1956 wordt gepionierd, maar voor ons was het

ook nog pionieren. Maar dat was ook bij corporates, bij ons opdrachtgevers, was dat gevoel. We

willen iets leuks. Oh, kijk eens, een creatief bureau, Aigency, laten we eens met hun experimentje

doen. Dat hebben wij met veel plezier gedaan. We hebben heel veel POCs en MVP's en pilots,

noem het allemaal op, gedaan. Maar gaandeweg, zeker de afgelopen twee jaar, zie je gewoon

dat bedrijven eigenlijk zeggen ja, maar dit is zo cruciaal, dit is zo van belang voor

de core van onze organisatie, dat we het niet aan de randen willen doen. We willen het gewoon

vanuit binnen uitmaken. Het wordt eigenlijk een nieuwe competentie. Nieuwe businessmodellen

komen erbij. Je krijgt nieuwe relaties met je klant, et cetera. Dus het moet deugen,

het moet solide zijn, et cetera. En ja, daar zat ik dan met een paar containers vol met

studenten van Master AI. Wij bouwden heel snel, maar om het nou solide te noemen, dat weet

ik niet. Dus wie is dat er ook op Amstel Science Park, dat leuke bedrijf Info Support. En zo

kwamen we eens in gesprek en blijkt dat jullie 500 man hebben die solide IT-projecten kunnen

knallen. Dus toen was de handdruk snel gemaakt en dat was voor mij een fijne manier om mijn

klanten gerust te stellen van luister, dat verandert niet zoveel, behalve dan dat de code

allemaal een stuk beter eruit ziet, betrouwbaar is en je support krijgt. En ik wilde me dan

weer naar de volgende halt verplaatsen. Ik probeer altijd een beetje vooruit te lopen.

Moet je kijken, wat is nu de next big thing? En ik noem dat nu de keuringsdienst van data.

En dat voelt een beetje als een stap terug, want het gaat toch over AI? Nee, maar luister,

datagedreven AI, Niels zei het al zo mooi, het valt en staat niet alleen met de kwaliteit

van je data, maar ook welke onvoorziene effecten dat gaat hebben. En dan kom je dus in het

veld van de ethiek terecht. En daar heb ik nu hele interessante open gesprekken over

met een aantal organisaties die zeggen ja, wij hebben nu dit algoritme draaien. We denken

dat het een bepaalde impact heeft, maar help ons even. Wat moeten we hier nou mee? Hoe kunnen

we dit op een verantwoorde manier doen? Dus dat zou je responsible innovation kunnen noemen.

Ja, want er komt eigenlijk meer bij kijken van lang is natuurlijk gedacht van nou, als

we maar zo'n model hebben en we krijgen dat model in productie, dan zijn we een hele eind.

Ja, hij doet het. Hij doet het, ja precies. Nou, daar kwam een toevoering bij van ja,

maar eigenlijk hoort daar eigenlijk wel iets van een heel solide proces omheen. En de stap

die nu gemaakt wordt, waar wij het heel veel over hebben, is dingen als transparantie, eerlijkheid

en dat soort zaken. En jij zegt van ja, maar let op, er komt ook een ethisch vraagstuk

naar je toe en daar moet je ook iets mee. Ja, ja, ja, dat is heel mooi opgebouwd. En

dat explainable gedeelte waarvan ik weet ook dat jullie daar druk mee zijn, dat is heel belangrijk.

En dat is denk ik ook de transparantie. We willen geen black box. Ik denk niet meer dat

opdrachtgevers dat zouden accepteren, dat je dat levert. Maar klanten helemaal niet,

klanten van je klanten. Ja, maar ik zit hem voornamelijk nog op de mooie crate van Spiderman

with big data comes great responsibility. Een mooi voorbeeld is denk ik de gemeente Amsterdam.

Die hebben dat overigens al vanaf een aantal jaar geleden goed aangepakt. Die hebben dat manifest

geschreven. Ik zie jullie knikken. Dat heet TADA, dus niet data, maar TADA. Waarin zij

uitgangspunten hebben vastgelegd van oké, wij gaan data inzetten in onze digitale dienstverlening,

maar in dat manifest sommen we op hoe we dat gaan doen in het belang, dus ten goede,

van de Amsterdammers. En die uitgangspunten die zijn die zijn solide. Hebben ze ook goed

getoetst met allerlei mensen. Ik heb die mail ondertekend destijds vanuit dat ik erover durf

te spreken. Maar er komt bijvoorbeeld ook zoiets voor dat zij dan in hun data, in bijvoorbeeld

betalingen van Amsterdam, soms bij een aantal mensen zien dat er wel eens een maand wordt

gemist. Dat de huur niet kan worden betaald en misschien een maand daarna nog. Met andere woorden,

ze hebben nu van data naar inzichten dat er een aantal piepjes afgaan, dat dat voorspellers zijn

van wat ze noemen de armoedeval. Want als je eenmaal één betaling mist en je moet dan de tweede en

volgende weet je heb je schuld en dan krijg je rente. Dat is echt een drama voor veel mensen als

ze in die neerwaartse spiraal terechtkomen. Dus Amsterdammer zat met de handen in het haar van

ja we zien dit maar is het wel oké om nu inderdaad op zo'n deur te kloppen van meneer of mevrouw wij

zien in ons het. Weet je dat dat is zo'n schemengebied. Je kan zeggen hou het modeldeugd,

het is zo. We denken dat we het moeten doen maar gaan we het ook doen. Ja en het is vanuit de

goedheid is het ontwikkeld. Ja. En toch levert het uiteindelijk een ethische vraag op. Precies ja.

Nou en dat soort vragen daar ben ik nu nu gek op. En ik heb dan met de kunst en data heb ik een leuk

teampje een elftal verzameld van aan de ene kant zijn ze 50% data scientist dus ze kunnen echt in

de code en in de data sets graven. Met andere 50% hebben ze mij de afgelopen jaren al lastig

gevallen met dat soort moeilijke ingewikkelde bijna socratische vragen. En dus het zijn eigenlijk meer

etici en filosofen met wie we nu dit soort gesprekken voeren om bedrijven te helpen.

Zeg je luister je kan op een verantwoorde manier innoveren met data. Je hoeft niet bang te zijn

dat je zondag in de krant komt met de volgende toeslagaffaire. Maar je moet wel even deze en

deze checklist is een vreselijk woord maar we hebben een aantal modellen ervoor ontwikkeld

zodat je dat met je organisatie kan uitvoeren. Zou je een voorbeeld kunnen geven van zo'n

socratische vraag? Nou het gaat er soms hard aan toe. Dat wil zeggen moet je voorstellen dat jij

toezicht moet houden op een nou bijvoorbeeld op een op een verzekeringsmaatschappij. Het kan zijn

dat je over toezicht houden bent of je zit in de raad van toezicht. Dan ging dat een paar jaar

geleden had je dan gesprekken met je directeur of met je directrice of met de board van zijn we een

beetje innovatief? Ja ja ja we zitten midden in de digitale transformatie. Oké gaat goed. Ja dat

gaat goed. Ja moet er wel wat geld bij? Oké. En dan werden de servers gekocht en dat was allemaal

allemaal makkelijk. Nu anno 2022 is de vraag eerder als we echt innovatief zijn gebruiken wij wel AI.

Ja dat doen we wel. Maar goed als toezichthouder moet je dan ook vragen en doen we dat een beetje

op een verantwoorde manier? Ja. Ja weet je en dan nou ja taart erbij bier drinken en klaar. Maar

dat is dat is geen goede manier van toezicht houden. Dus wat doen wij? We hebben een gereedschapskistje

dat zetten we op tafel dat geven dan die toezichthouder mee dat die dan in zo'n gesprek dat

je ook kan zeggen oké dus wij gebruiken algoritme. Kan je mij even vertellen welke algoritme wij op

welke plek een organisatie gebruiken? Ja. En dan is dus de volgende vraag. Geeft niet volgende week

vraag ik nog een keer. Ja. Nou een week later kijk eens ik heb voor u een overzicht gemaakt van alle

algoritme die wij gebruiken. Oh ja dit specifieke algoritme op welke data is dat model getraind?

Geeft niet volgende week. Nou dit kan ik heel lang volhouden. Maar dit is dus een gereedschapskistje

met oké het is data getraind op welke data is het getraind? Welke data is niet gebruikt? Hoe komen

we aan deze data? Is het bestand gekocht? Is het synthetische data? O jee wie heeft de labels

gegeven? Welke labels zijn gebruikt? Welke labels zijn niet gebruikt? Heb je het uit met andere

woorden er ontstaat een explosie aan vragen die er toe doen. Ja. Want ik doe er een beetje laconiek

over maar elke keer dat je deze vraag stelt en je krijgt geen antwoord. Oeps weet je wel dit

moet je gewoon op orde hebben. Dus wij helpen dan dat soort organisaties om de lijstjes te hebben.

En het is een beetje flauw om nu per week dit gaat natuurlijk je kan ze best op een gegeven moment

zeggen nou en dit zijn de vijf vragen voor volgende week. Maar dat je helpt wel ook op die manier je

directie want er zit ook niet echt een oordeel in als je vraagt welke data gebruiken we hiervoor?

Welke data gebruiken we hiervoor? Het is weer zo gratis. Ja. En vervolgens door die vragen te

stellen kom je steeds een stapje verder om te zien waar eventuele uitdagingen liggen om als

de klanten hierover vragen gaan stellen of als ze zich onjuist bejegend voelen et cetera. Dan

heb jij in ieder geval je huiswerk gedaan om te zeggen nou hier en hier kan het hiervan niet

aan liggen. Ja. En houdt dat dan ook in dat je naar barriers zoekt? Dat soort zaken? Dat kunnen

wij doen maar ik heb eigenlijk nog liever dat de klant dat zelf doet. We zijn wat dat betreft ook

wat meer train the trainer. Maar als ze zeggen nou wij hebben ons best gedaan maar we're not sure.

Natuurlijk dan kom ik met een paar jongens en meiden en trek een witte jas aan en dan ik noem

dat forensische AI. Dan gaan wij proberen de modellen van de klant te stress testen en op

zoek te gaan inderdaad naar bepaalde, nou dat kunnen bevolkingsgroepen zijn of andere attributen

die oververtegenwoordigd zijn in de dataset. Ja precies. Wat ik me wel afvraag is neem daar ook

mee bij die organisaties hoe zit het governance model en de ownership van de data. Wordt dat

ook meegenomen? Absoluut ja ja ja dat is dan inderdaad je komt dan bijna en ik kan me een

paar jaar geleden niet kunnen voorstellen dat ik daar enthousiast over zou zijn over deze woorden

over governance. Over master data management, compliancy, etc. Misschien moeten we heel even

kort Niels wat is governance? Niet iedereen weet dat. Ja nou governance is net zoals bij de

overheid. Er zijn regels die worden opgesteld. Hoe wordt dat gehanteerd? Wie is er waarvoor

verantwoordelijk? En heb je dat uitgeschreven dat je dat terug kan vinden? Waar moet ik zijn

als ik iets vind? Juist ja ja duidelijk heel goed en het woord governance als die vraag wordt

gesteld dan heb ik daar ook een antwoord op en dat is data lineage en dat is de uitdaging

denk ik nu voor veel organisaties als ze AI op een verantwoorde manier in willen zetten. Dan zou je

hier ook een systeem voor moeten hebben. Dat wil zeggen dat het kan best zijn dat je consent,

toestemming hebt van een klant om een bepaald stukje data te gebruiken. Maar het is wel heel

fijn als je goed hebt gelogd hoe je aan die data komt, dat er toestemming is gegeven voor welk doel.

Want als je het voor A hebt gekregen betekent niet dat je het ook voor B of C mag gebruiken.

Nou dat zijn allemaal ingewikkelde vragen waarmee je best een proces kan verstoren of kan frustreren.

Men zegt ja zo vind ik het niet leuk meer. Nou ja maar als je gewoon je data lineage op orde

hebt dan kan je dat mee programmeren in je model en kan je daar de vruchten van plukken. Zeker en

zeker als je dat automatiseert dat dat zoveel mogelijk voor je wordt gedaan. Ja ja zeker.

Ik denk nog wel heel belangrijk is als we dat weten, want dat zou heel mooi zijn als we zover zijn,

dat we ook de houdbaarheid van die data en de toestemming houdbaarheid ook daarin mee gaan

nemen. Dat wordt nog vaak wel vergeten. Wat is de levensvatbaarheid van dit stukje data wat we hier

hebben? Mogen we dat en willen we dat nog wel gebruiken op een langere termijn? Mooi ja.

Het is de houdbaar tot. Ja toch? Ja dat is zeker een mooie. Ja dus even tot nu toe,

want de vraag was van wat zien we zeg maar in de nabije toekomst of waar moet je misschien nu

eigenlijk al rekening mee houden als je productierijper systemen bouwt. Dan hebben we het

dus over dat moet natuurlijk op een solide, robuuste manier gebeuren. Ja. Basis. Er komen

ethische vragen komen op je af waar je in ieder geval antwoord op zou moeten kunnen geven.

Er bestaat een mogelijkheid om daar in ieder geval hulp ook bij in te roepen.

De traceerbaarheid van je data. Heb je alle toestemmingen? Gebruik je het op de juiste

manier? Dat soort zaken. Dat is waar we nu staan toch? Ja kwaliteit van data. Er wordt ook steeds

meer geautomatiseerd om daar inderdaad met behulp van AI die metrieke de deviatie in de data,

de trend in de data. Dat zie je nu wel langzaam gestart worden. Ja. Maar wat ik zeg langzaam

gestart worden. Ja. Ja. Weet je wat ook nog? De vraag was wat zijn de komende vijf jaar

belangrijk. Ja. Laten we de bullshit radar ook wat beter afstellen. Gisteren dat verhaal van

Lambda nog voorbij hebben zien komen. Verschrikkelijk. Ik heb hem gemist. Praat

me even bij. En de luisteraars ook. Eén keer in zo veel tijd dan komt er weer een verhaal voorbij

in de media of op social media dat er een bepaald AI systeem zo slim is geworden. Oh ja. Ja.

Sentient. Ja. Bewustheid is dat hij een bewustzijn heeft gekregen. Een chatbot heeft een bewustzijn

gekregen volgens Google engineer. Ja precies. Nou en vijf woorden in die zin. Dat zorgt voor

clickbait en ook. Ja het is wel een persoonlijke frustratie van mij. En ik wil het ook niet

bagatelliseren. Maar het is wel bizar dat dit soort dingen nog gedebunkt moeten worden. Want

een Lambda is een taalmodel van Google. Laten we het even simplistisch verwoorden. Wat hartstikke

goed in elkaar zit. Er zijn natuurlijk meerdere modellen. Bert een open AI heeft de GPT-3. Maar

bij Google werken ze met Lambda. En daar kan je dus een dialoog mee starten. En dat gaat best leuk.

Het is een soort chatbot die eigenlijk reageert op wat jij typt. Het is een soort autocomplete

on steroids. Dat wil zeggen dat je bent vaak blij in je telefoon als je een woordje aan het tikken

bent dat je het woord goed raadt. In veel gevallen wil je eigenlijk de autocorrectie corrigeren.

Maar wat Lambda goed kan is ze zeggen nou als dit en dit is gezegd dan denk ik dat dit de volgende

zin of de volgende vraag is. En dat gaat best goed. Dus wat had deze onderzoeker gedaan? Die

was een, nou niet een Socratisch gesprek, maar een filosofisch gesprek. Begonnen met die chatbot

van Google, die Dialog Assistant, waarin die vragen ging stellen over inderdaad heb jij een

zelfbewustzijn. Wat denk jij dan op basis van alle internet data? Wat denk je dan dat het antwoord

gaat zijn? Het antwoord was ja. Ja, ik heb een bewustzijn. Ja en om dan vervolgens gelijk een

persbericht, nou ja dat niet, maar in ieder geval de claim te maken. Volgens mij een artikel op

medium.com had je gepubliceerd. Oké mensen het is zover. Hier heb je de chats die het bewijzen.

Ja, je kan het zeggen. Ja, gelukkig had hij het erbij gedaan. Maar dit is, ja weet je,

als ik op Koningsdag de vlag uithang, ben ik nog geen onderdeel van het Koningshuis. Nou,

zo is dit ook een beetje als een chatbot zegt dat hij zelfbewustzijn heeft ontwikkeld. Hoeft

dat toch niet zo te zijn? Dus ik word daar wel een beetje moe van, dat dit dan toch nog zoveel

aandacht krijgt en ook nog journalisten, ik weet niet jullie luisteren, dat die dan toch nog daar

een artikeltje aan besteden. Dat is echt bizar. Ja, dat doet geen goed. Aan de andere kant, wat

me wel triggerend is, het is wel in de oog van degene die het wil geloven. Dus dit is wel het

effect wat het kan hebben op de mensheid. Dus wat de andere kant vind ik ook wel een mooi perspectief,

is dat mensen er tussen kunnen geloven. Dus eigenlijk moeten we daar dus ook rekening mee

houden in de oplossingen die je hebt. Dat mensen het kunnen gaan geloven. Het is jammer dat het

nog wel groot gedebunkt moet worden inderdaad. Maar ik vind er ook wel een ander aspect aan zitten.

Fox Mulder, weet je nog wat hij zei? Ik want to believe. Ja, dat is het wel. Iedereen die het

retweet of met een vraagteken retweet, they want to believe. Ik snap ook wel dat het,

ik heb het ook gelezen. Dus ik ben er ook in getrapt, maar ik ga het niet klakloos retweeten.

Nee, precies. En het prikkelt natuurlijk de angst van de mensen die er leeft. De media

pakt niet voor niks dit op en niet een verhaal wat heel feitelijk is. Vijf dingen die goed zijn

gegaan met AI. Ja, precies. Dat is een beetje jammer. Je zal niet geloven wat er gebeurde.

En wij hebben als mens natuurlijk sowieso de eigenschap dat wij van alles vermenselijken.

We hebben vermenselijke dieren, we hebben vermenselijke objecten. We hebben de podcast,

de aflevering hiervoor, hebben we het namelijk ook gehad over een chatbot die vermenselijk werd.

En dat had dan een wat positiever effect. Maar het gebeurt natuurlijk heel snel en daardoor

triggert het mensen ook heel snel. Maar dat is iets waar je denk ik ook op dit moment,

zeg maar als bedrijf, ook rekening mee moet houden. Dus dat er inderdaad heel snel iets

vermenselijk wordt en waarvan we voor het gedacht hebben als er iets zinnigs terugkomt,

nou dan lijkt het alsof zo'n model kan denken. Nou we kunnen denk ik met z'n drieën wel vaststellen,

het zijn allemaal wiskundige formules. Ik heb nog nooit gezien dat een wiskundige formule kan

denken. Nee, het is statistiek. Het is een antwoord wat je krijgt. Ja, precies. En als

een rekenmachine als ik 1+1 intyp en hij geeft 2 terug wat het juiste antwoord is,

dan denk ik niet van zo, die kan er wat van. Maar heb jij wel eens 's nachts gekeken wat

jouw rekenmachine had? Ja, precies. Moeilijke primgetallen. En die is bitcoins aan het minen.

O, ander onderwerp. Ja, ander onderwerp. Als ik nou kijk, een heel klein stukje de toekomst in,

en dan ben ik misschien overvalt, maar hoor Jim, maar dan zat ik te denken van,

we hebben het over die grote taalmodellen, we hebben het natuurlijk ook steeds meer over CO2

uitstoot, verduurzaming, allemaal dat soort zaken. Gaan we dat ook als bedrijven krijgen? Volgens

mij zijn we op een gegeven moment verplicht om een rapportage te gaan maken over je CO2 uitstoot,

als je een bepaalde omvang hebt als bedrijf. Het trainen van AI modellen vergt best wel heel wat

computerkracht. Gaat dat ook komen, denk je? Ja, dat is een interessante vraag. Hoe groen is AI,

of hoe groen moet AI zijn, of kan AI wel groen zijn? Feit is inderdaad dat alles wat je digitaal

doet, of nou een search bij Google is evenveel energie als een kopje thee zetten. Dus alles wat

je online doet, dat heeft een CO2 footprint, voetafdruk. Klinkt toch anders in het Nederlands.

Laat maar het Engels ook weer. Ja, en met AI is één ding zeker. Inderdaad, als je een GAN of

een generatief taalmodel wil trainen, dan heb je GPU's nodig, dat kost heel veel energie. Aan de andere

kant, het leuke van deze modellen is, ze zijn pre-trained. Dus de grootste chunk is al gebeurd,

je kan het model al gebruiken. Dat betekent dat als jij nu een account hebt om iets te doen met

GPT-3 bijvoorbeeld, of met met lambda, dan is het de meeste energie is al een keertje verbruikt,

dus dat valt wel mee. Daarnaast zie je wel steeds meer ook dat de tech-industrie zijn verantwoordelijkheid

oppakt en ook nu wat meer werkt aan edge-modellen. Dus dat het niet allemaal per se in de cloud hoeft

te draaien, maar dat je ook lokaal op een device, of in de camera zelf, dat je al veel kan crunchen.

Dus ik ben zeker geen expert als het gaat over duurzaamheid, dat laat ik graag aan anderen

over, maar ik zie wel pogingen in ieder geval van de industrie om het beter te doen.

Ja, en ik denk dat het mooi onderscheid is wat je maakt. Want het trainen is dan heel duur,

maar als je hem dan gebruikt, dan is het bijna instant. En dat is niet anders dan,

nou ik denk dat het een pagina opvragen op een website meer kost dan uiteindelijk die voorspelling.

Het is een API call.

Ja, je ziet het ook wel. Steeds meer leveranciers van cloud-oplossingen geven al mee wat de

footprint is van de service die je gebruikt. Ik heb vast nog van Microsoft gezien. Dan kan je gewoon

van je subscription gewoon opvragen wat is de CO2 footprint die we hebben op deze maand van de Azure

spend die we gedaan hebben.

Oh, dat is wel cool. Dat is beter dan al die ellendige e-mails die zeggen 'don't print this

e-mail'. Dan krijgen we elke AI toepassing ook 'dit kostte twee klopjes tegenwoordig'.

Ja, dat zou wel ernstig zijn.

Zijn er andere dingen die jij aan ziet komen? Jij gaf het trouwens vijf jaar aan. Ik had me niet

eens zo specifiek.

Ik zeg gewoon dat mensen die verder dan vijf jaar kijken, moet je wantrouwen.

Ja, dat vind ik ook.

Dat vind ik ook. Ja, absoluut.

Dan zullen we niks zeggen over vijf jaar in de dag.

Nee, nee.

Wat zie je de komende vijf jaar?

Nou, gisteren was ik op een evenement en daar was Dr. Gianrico Farruccia. En dat is de grote

baas van de Mayo Clinic. De Mayo Clinic is het meest innovatieve ziekenhuis ter wereld,

zo staan ze ook bekend. Hij was er op uitnodiging van Philips. Dat was een mooie

bijeenkomst in het Rijksmuseum. Ik mocht dat presenteren vanaf dat ik er was. En wat hij

daar presenteerde, dat daar viel ik wel van mijn stoel. Innoveren in de zorg is moeilijk.

Dus daar kunnen wij allemaal wat van leren. Alles wat daar lukt, nou kun je nagaan als wij dat in

onze industrie mogen toepassen. Dan is dat een stuk makkelijker. Het model is van pipeline

to platform. Hij heeft een platform in het leven geroepen bij de Mayo Clinic, waar zij dus de data

van hun patiënten in een hele bewaardigde omgeving stallen. Vervolgens dan naar een tweede laag,

de identification, dus in het Nederlands pseudonymiseren. En vervolgens is er nog een

derde laag en dat is data behind glass. Dat is dus de identified data, waarbij andere partijen,

andere instituten, andere academische instellingen, voor mij part zorgverzekeraars of andere mensen,

die kunnen dus hun modellen naar dat stukje data brengen. En ze krijgen niet de data. Dat was heel

duidelijk. Dus dit is federated learning in onze taal. Hij laat dus die andere mensen hun

modellen naar de data brengen en de uitkomsten die mogen zij gebruiken. En daar betalen ze ook

voor. Dus hij heeft ook het verdienmodel, wat heel knap is in de zorg, heeft hij ook geregeld. En toen

ik dat zag, dacht ik van wauw, dit is volgens mij wel de toekomst. Ik denk dat we de komende vier

en een half jaar dat wij veel van dit soort oplossingen zullen zien, waarbij dus consortia

samen optrekken om op een veilige verantwoorde manier data niet delen, ontsluiten, zodat meer

partijen daar betere modellen, want daar zijn we bij gebaat. Het gaat niet over data bezitten,

het gaat niet over data afschermen, het gaat over hoe kunnen we het beter doen voor onze klanten.

Nou heb je soms betere modellen nodig. En ik vond dit wel een mooie blauwdruk voor de toekomst,

hoe we dat op een verantwoorde manier met meerdere partijen kunnen doen. Ja ik vind dat zelf een heel

mooi principe, omdat je ziet, we zijn natuurlijk begonnen met dat we de GDPR kregen, de AVG,

en er werd vooral heel veel gezegd wat allemaal niet meer kon en dat soort zaken. En zijn we

allemaal dingen gaan proberen om ervoor te zorgen dat we nog steeds al die data kunnen verplaatsen.

Ja. En dit is inderdaad een weg waarbij je ziet dat er op een andere manier naar gekeken wordt,

dat je je data niet meer weggeeft tussen aanhalingstekens, maar dat je hem wel beschikbaar

stelt. En ik denk dat het ook helpt voor de democratisering van het datagebruik. Ja.

Ja. Ook waardevol in de supply chain, want daar zitten nu natuurlijk vooral uitdagingen. Als je

data bij de ene organisatie hebt en je gaat onderdeel ketens verder, die hebben die data

niet. Dus ja hoe ga je daarmee om? Daar zou dit inderdaad een hele waardevolle toevoeging zijn,

om over de ketens heen te kunnen gaan optimaliseren. Ja. En dat is wel een challenge

die zeker 4,5 jaar al een flinke uitdaging gaat zijn. Ja zeker. En tot voor kort werd er dan

geroepen blockchain. Dat zou dan de oplossing zijn daarvan. Ik ben zelf ook blockchain,

of nou bitcoin believer en daarmee ook redelijk antisocial over blockchain. Maar het voelt soms

ook wel als een kanon om een mug neer te schieten. In dit geval denk ik dat de Mayo Clinic zouden

ook een blockchain kunnen kunnen bouwen, et cetera. Maar op zich op deze manier is het ook

gewoon geregeld. Ja. Nou het leuke is, wij hebben dit, zijn dit aan het implementeren met een

universitair medisch centrum in Nederland. Want zij hebben natuurlijk ook allerlei data,

patiënten data. In dit geval gaat het over video's. Ja. En met dit implementeren federated

learning bedoel je? Federated learning. Oh wat vet. Had ik dat geweten, had ik dat verteld tegen

mijn vrouwtje. Ja maar hoe even, dat doe ik dus voor years in Venen. Ja nee dat doen wij ook. En

als je dat heel concreet maakt, wat je eigenlijk doet, is dat je je levert code aan, die die

inderdaad zeg maar het model mag trainen op de locatie van het ziekenhuis. Ja. Maar die wordt

eerst van tevoren wordt natuurlijk naar die code gekeken en dat wordt ook aangegeven. En er wordt

wordt een, hoe zeg je dat, een vinkje gezet van ja deze deze job die mag draaien. Oké. Wij vertrouwen

deze code en daarom mag die naar onze data kijken. En dan inderdaad de gewichten van het model die

gaan terug en heb je een getraind model heb je terug. Gaaf. Maar het coole is natuurlijk,

en daar zitten we met een andere consortium, want je had het inderdaad over consortia,

die zeggen van ja maar wij hebben er ongeveer 24 van dit soort aanleverende partijen. Ja. En dat

zou betekenen dat ieder voor zich zeg maar op zijn eigen data heel specifiek dingen als aanbeveling

of zo zou kunnen maken. Maar je kan wel onderling, kan je dus dan ook nog eens een keer data gaan

delen met elkaar. Ja. Maar dat is nog een gedachte sprong waar we in zitten. Maar met het

ziekenhuis zijn we inderdaad zover dat we dat op deze manier doen. Ja. En ik geloof erin dat dat

inderdaad de toekomst is. Want dat betekent dat je veel meer data kan gebruiken op een verantwoorde

manier waarbij de eigenaarschap ook bij degenen blijft waar het ook ligt. Ja. En dat je ook niet

bang hoeft te zijn dat er persoonsgegevens overgaan. Nee. Ja. Dat is ook wel een beweging die je in de

data wereld ziet. De architecturen die daar aan het veranderen zijn, de data fabrics, de data

measures. Ja. Het stoppen met kopieerhonger van de data. Dat we de data kopieerhonger. Kopieerhonger

inderdaad. Dat is dan weer eentje die wel lekker in het Nederlands pakken. Ja. Ja. Ja. Dus die

die proberen we ook in de architecturen wel steeds meer tegen te gaan die kopieerhonger. Om de data

te houden waar het is. Ja. En te zorgen dat het daar al gewoon goed geregeld is. Dat het daar al

beschreven is. En dat je het als je het gaat gebruiken ook weer weet. Daar komt het vandaan.

Daar kan je de details vinden. Ja. En je lineage daarin dus ook gelijk meeneemt. Dus ook daar zie

je een technische architectuurland ook steeds meer die beweging de goede kant op gaan. Maar ook daar

zal even duren voordat we er zijn. Dan kunnen er ook geen kopietjes rond zwerven. Nee. Met verouderde

of vervuilde data. Ja. Wat je weer moet opruimen. Wat je weer moet monitoren. Ja. Ja. Mooi. Dus als

we zeg maar proberen er een totale samenvatting van te maken. Oké. We gaan even luisteren.

Het wordt lastig toch? Oh mens. Even kijken hoe goed mijn geheugen werkt. Maar laten we eerst beginnen

met wat we als laatste hebben besproken. Dus het betekent eigenlijk een andere manier van data

ontsluiting. Gaat op je afkomen denken. Dus dat je na gaat denken over hoe kan ik data gaan delen

in plaats van hoe kan ik dat vasthouden en alleen maar voor mezelf houden. Democratisering. Ja.

Democratisering van data gaat op je afkomen. We hebben het over duurzaamheid gehad. Dat je daar in

ieder geval denk ik over na moet denken. En we begonnen met de ethische vragenstellingen natuurlijk.

Het solide bouwen van van systemen wat op je af gaat komen. En dan en dan ja. En dan is de vijfde.

Dan wordt het natuurlijk moeilijk. Het is net als weet je. Ik ga op vakantie. De bullshit radar.

Oh de bullshit radar. Daar moeten we echt aan af toch? Hoe kunnen we daar nou eens een keer een

streep doorheen zetten van. Als iedereen naar deze podcast gaat luisteren dan komen we over.

Dan kunnen we er ook wel heel veel strepen over. Volgens mij hebben we hier gewoon bingo in deze

podcast. Ja. En dan ga ik er toch nog een onsexy term in gooien. We noemden hem al governance. Ik

denk dat dat ook eentje is die echt bij steeds meer bedrijven nut en noodzaak en ook waarde gaan

opleveren. In plaats van ja moeten we doen. Nee dit gaan we doen. En dat is belangrijk. Ik denk

dat dat de komende jaren gaat gebeuren. Eens. Moet gebeuren. En ik denk ook als aanvulling op

jouw zespuntige samenvatting. Nou overigens. Is wat de rode draad is. Is waar ik bang voor ben.

Is wat afgelopen twee jaar ook wel ontstond. Is een soort koud watervrees bij organisaties. Dat ze

bijna bang waren om iets te gaan doen met hun data. Dat is de verkeerde reflex. En ik snap heus

wel dat de toeslagenaffaire veel indruk heeft gemaakt bij mensen. Maar laten we eerlijk wezen

dat had helemaal niet zoveel met AI te maken. Dat is gewoon heel dom beleid. Wat vervolgens is

uitgevoerd. Inderdaad gebruikmakende van technologie. Ja sure maar zo lust ik er nog

wel een paar. Maar daardoor is er wel een soort verstarring ontstaan. En ik denk dat nou ja

Info Support Aigency, Kunstdienst van Data. Dat wij allemaal op een bepaalde manier probeert te

zeggen tegen organisaties. Hey luister we snappen die zorgen. Maar op deze en deze manier kan je het

wel doen. Dat wel doen dat is denk ik nog even belangrijk als die bullshit radar. Die voornamelijk

gewoon de discussie heel erg verwart. En daar zit niemand op te wachten. Dus je kan beter praten

met je klanten en met je collega's over wat kunnen we wel doen. Waarom zouden we het willen doen.

Dan die andere discussies. En mocht je nog niet begonnen zijn. Begin denk ik. En als je wel

begonnen bent. Denk eens na wat je volgende stappen zijn. Want meestal betekent dat er nog

wel wat professionalisering slagen te halen zijn. Met de huidige staat al te tegenkomen in de praktijk

zitten er zeker verbeterslagen in. Om het netjes te zeggen. Was dat een eufemisme? Een socratisch

eufemisme. Dan hebben we hem toch wel rond of niet. Jim hartstikke bedankt dat je ons gast wilde

zijn. Ja leuk dankjewel. Het was een leuk gesprek zo. En ook lekker interactief houden we van. Leuk

dankjewel. Fijn dat je weer luisterde naar de aflevering met Jim Stolze. Vind je het nou leuk

en wil je geen aflevering missen. Abonneer je dan in je favoriete podcast app en mis geen enkele

aflevering. Tot de volgende keer hopelijk.

[Muziek]

Tot de volgende!

Over de gast

Jim Stolze
Jim Stolze
Tech-educator bij Digitale Weerbaarheid

Jim Stolze is tech-educator bij Digitale Weerbaarheid. Hij richt zich op het toegankelijk maken van kunstmatige intelligentie en digitale weerbaarheid tegen cybercriminaliteit. Stolze is initiatiefnemer van de Nederlandse AI-cursus en het initiatief Unlock Digitale Weerbaarheid. Jim Stolze verscheen als gast in AIToday Live in seizoen 3 aflevering 10 en seizoen 6 aflevering 98.

Bekijk gastprofiel