Alle afleveringen
S07E53 - De verborgen kosten van AI: een filosofische benadering met Piek Knijff
S07E53

De verborgen kosten van AI: een filosofische benadering met Piek Knijff

Seizoen 7 58 min Hosts: Joop Snijder & Niels Naglé
0:00

Wat leer je in deze aflevering?

Piek Knijff, directeur van Filosofie in actie, deelt haar inzichten over de ethische kant van AI in de podcast AIToday Live. Ze vertelt hoe haar achtergrond in filosofie en taalbeheersing haar leidde naar een rol als data-ethicus. Knijff legt uit hoe ze organisaties helpt bij het opstellen van waardekaders voor AI-projecten. Ze bespreekt ook haar onderzoek naar data-ethiek binnen de Belastingdienst. Tot slot geeft ze praktische vragen mee voor een kritische benadering van AI-implementatie.

01
Data-ethiek en de rol van filosofie
02
Fundamentele datavraagstukken
03
Ethische overwegingen bij AI-implementatie
04
Waardekaders voor digitalisering en AI-projecten

Kernbegrippen

Waardekader
Toetsingskader dat digitaliseringsprojecten evalueert aan organisatiewaarden zoals rechtvaardigheid, autonomie en transparantie.
Data-ethiek
Filosofische reflectie op morele vraagstukken rond datagebruik en AI-toepassingen in organisaties.
Reflectief perspectief
Benadering die ruimte creëert voor fundamentele vragen over wenselijkheid van technologie, voorbij juridische en technische aspecten.
Verborgen kosten van AI
Negatieve effecten buiten directe functionaliteit, zoals klimaatimpact, afhankelijkheid van techbedrijven en arbeidsuitbuiting.

Wat gasten zeiden

Organisaties moeten niet alleen vragen kunnen we dit, maar ook willen we dit.

Als we hier nu een beslissing maken, hebben we een plicht naar die toekomst toe.

Transcript

In deze aflevering praten we met Piek Knijff, directeur van Filosofie in Actie, over de ethische kant van AI, van haar onderzoek bij de Belastingdienst tot waarom ChatGPT misschien niet zo onschuldig is als het lijkt. We bespreken waarom organisaties niet alleen moeten vragen kunnen we dit, maar ook moeten we dit willen. En hoe gemeenten waardekaders ontwikkelen voor AI-projecten. Een gesprek vol verrassende inzichten over de verborgen kosten van AI die je anders doet nadenken over technologie. Dus blijf luisteren. Hoi, leuk dat je luistert naar AIToday Live. Mijn naam Joop Snijder, CTO bij Aigency Mijn naam is Piek Knijff. Ik ben directeur van Filosofie en Actie. Filosofie in Actie bestaat bijna 14 jaar. Ik ben ook filosoof van huis uit en ook Neerlandicus trouwens. En uit een onderwijskundige achtergrond. Zo dan. Via een hele ingewikkelde weg ben ik uiteindelijk mijn eigen onderneming gestart. Aanvankelijk in mijn eentje en nu met een klein team filosofen. En we houden ons bezig met de ethische reflectie op de inzet van technologie bij organisaties. En we helpen ze daar op heel veel verschillende manieren bij om het goede gesprek daarover te voeren en zorgvuldige afwegingen daarin te maken. En hoe ben je van de filosofie, zeg maar, beland in de wereld van AI? Ja, nou ja, dan moet ik misschien toch iets over dat traject voor mijn onderneming vertellen. Want achteraf is het altijd makkelijk praten. Ik weet niet of jullie dat kennen, maar dat je zo denkt, hoe ben ik hier naar terecht gekomen? Dat is eigenlijk hartstikke logisch. Want ik heb dus Nederlands gestudeerd. En mijn afstudeerrichting was taalbeheersing, argumentatie, theorie en retorica. En toen heb ik me bezig gehouden al met de argumentatie in een ethische discussie over medische innovatie. Dus dat is eigenlijk heel erg vergelijkbaar met wat ik nu doe. Maar ik vond dat toen gewoon een interessant debat. Ik dacht ik ga daar gewoon meer mee bezighouden. Uiteindelijk heb ik politieke en sociale filosofie gestudeerd. ook wel met andere vraagstukken bezig houden, maar wel heel veel met de trends van de tijd. Dus wat is er nu maatschappelijk gezien interessant of wat zorgt voor onrust? Waar houden mensen zich mee bezig en hoe kan de filosofie daarin helpen? Nou, een onderwijskundige uitstap gemaakt. En op een gegeven moment ben ik begonnen met filosofie in actie heel erg met het idee dat ik een brug zou kunnen slaan tussen de academische filosofie en eigenlijk de professionele praktijk binnen organisaties. Want ik kreeg in mijn eerste baan bij een NGO, kreeg ik te horen, je bent veel te academisch. En ik deed ook nog wel wat klussen aan de universiteit. En daar zeiden ze, je bent veel te praktisch. En toen dacht ik, oh nee, ik ben echt nergens op mijn plek. En toen heb ik bedacht, nee, maar wacht eens, is dit niet gewoon een talent? Dat ik dus beide talen weet te spreken. Ik spreek ze alleen nog niet op de juiste plek, op de juiste tijd. Dus met filosofie in actie heb ik heel erg beoogd. Om te denken van de filosofie heeft echt iets te bieden aan de alledaagse praktijk binnen organisaties. Maar dat gebeurt nog niet voldoende. En ik kan daar dus wellicht iets in betekenen. Omdat ik beide talen spreek. Dus dat ben ik gaan doen. En in eerste instantie echt in hele brede zin. Dus voor accountants en fysiotherapeuten, huisartsen, juristen. Wie er maar iets met filosofie wilde. En dan met name de praktische filosofie. Dus rondom morele vraagstukken. Maar ook wel verdiepende gesprekken. Dus kan je aannames bevragen, kritische denkvaardigheden trainen. En ik kwam, ik denk dat ik twee jaar onderweg was. Dus nog helemaal niet zo lang met mijn onderneming. Steeds meer in aanraking met data vraagstukken. En dan met name vanuit de privacy hoek. En dat vond ik heel interessant. Ik dacht, privacy was toen een beetje, de AVG was in ontwerpfase. Dus organisaties werden onrustig en dachten, daar moeten we iets mee. kunnen we niet nu al houvast zoeken? En dan kwamen ze uit bij een filosoof. Dat is wel grappig, toch? Weet je waarom? Want voor mij zou dat niet de eerste logische denkstap zijn, als ik heel eerlijk ben. Nee, dat denk ik ook. Ik moet zeggen, daar heb ik ook wel wat hulp bij gehad. Ik heb wat keuzes gemaakt en keuzes natuurlijk ook gekregen, of kansen gekregen van mensen die zeiden, we zijn bezig met een opleiding voor juristen over de privacywetgeving, Nu en wat eraan komt. Wil jij daar een rol in spelen als ethicus? Omdat het misschien ook goed is om dat wat breder aan te vliegen dan alleen maar juridisch. Nou ja, dan kom je in contact met organisaties. En die zien dan wat jij doet. En kan betekenen in het vinden van hou vast. Wat is voor onze organisatie hierin belangrijk? Gaan we het echt sec alleen maar op gegevensbescherming? Daar naar kijken of kijken we naar privacy als een bredere maatschappelijke waarde? Nou ja, die werden daar enthousiast van. En ik ben daar dus verder in gaan bekwamen. aanvankelijk heel erg vanuit die privacy hoek. En toen kwam ik er eigenlijk al vrij snel achter. Ja, maar als je bezig bent met gegevens, dan is eigenlijk privacy één van de vraagstukken. Er komen gewoon veel meer andere vraagstukken bij kijken. Ik noemde mezelf toen, ik ben filosoof en ik hou me bezig met privacy en ethiek. Inmiddels noem ik mezelf data-ethicus. Dat was een term die was er toen nog niet, maar ik was er eigenlijk al wel mee bezig. Nou, jij vroeg, hoe ben je bij AIT? Dit is een hele lange aanloop. Hoe ben je erbij terechtgekomen? Nou, long story short. Ik kwam achter daar eens meer te doen. Ik ben me daarin gaan verdiepen. In de andere ethische aspecten van de omgang met gegevens. En ondertussen nam ik natuurlijk de technologische ontwikkelingen toe. En van het een kwam het ander. Dus van data toepassingen wat simpeler. Of datadelingen of verwerkingen. Naar algoritmes, analytics, modellen. En toen naar bredere AI en generatieve AI. En wat zijn nu dan de... Sorry. We hebben zoveel te vragen. Ja, wat zijn nu dan eigenlijk de beginvragen waar ze bij je komen? Ja, dat hangt er vanaf wie er komt. Wij doen heel erg veel voor overheid. Ik moet zeggen, ook wel een beetje in de financiële sector. Dus banken, verzekeraars, pensioenfondsen. Maar heel veel overheid. Dus dan moet je denken aan ministeries, uitvoeringsorganisaties, waterschappen, provincies, gemeenten. Uitvoeringsorganisaties, had ik al gezegd. Nou ja, heel breed. Maar ook wel andere partijen in het maatschappelijk domein. Voor ons is het belangrijk dat er een maatschappelijk engagement is. Dus organisaties die puur voor profit gaan. Ik vind dan dat ethiek heel erg lastig wordt. Althans, ik vraag me af of ik dan mijn werk goed kan doen. En mijn collega's zijn het daar tot nu toe mee eens. Jij vroeg met wat voor vragen komen ze dan? Nou, bij de overheid kan je je voorstellen dat veelal een vraag is. Wij willen iets gaan doen met een algoritme of een model of iets. Maar we willen natuurlijk geen toeslagen schandaal. Dat is echt wel heel vaak een vraag. En dat is dan heel vaak, als deze vraag komt, heel erg gericht op een heel specifiek project. Dus we willen deze toepassing gaan doen. Maar we willen natuurlijk wel dat zorgvuldig doen. Het vertrouwen in de overheid is kwetsbaar, dus hoe doen we dat goed? Daarnaast doen we ook adviesopdrachten. Bijvoorbeeld nu op dit moment bij twee gemeenten en een ministerie. Waarbij de vraag is, hoe kunnen we hier nou goede gesprekken over voeren? En dan kom je echt bij inrichtingsvraagstukken uit. Dus bij twee gemeenten gaat het nu over het vormgeven van een waardekader. Dus dan ga je bepaalde waarden, dus een waardenset eigenlijk. Dus een set aan waarden definiëren. Van waaruit je eigenlijk elk digitaliseringsproject, dus dat is breder dan alleen AI. Gaat afwegen langs die waarden. Als wij deze waarden belangrijk vinden, hoe zorgen we dan dat we die in dit project mee kunnen nemen? En je kan ook tot de conclusie komen, dat kan dan eigenlijk niet, dat klopt niet. Dan moeten we daar nog eens even heel goed over nadenken. Dat zijn dan de kernwaarden van de organisatie of de afdeling die daar naar boven komen? Nee, dat zijn nieuwe waardes. En dit is wel interessant. Ik heb daar toevallig deze week heel veel gesprekken over gevoerd met waar gaat dit nou heen. Want dan heb je dus binnen een organisatie al kernwaarden. Dus een gemeente staat ergens voor. Er zijn er vaak drie of vier. En dan zeggen ze, ja, maar wacht eens even. Als het gaat om digitaliseringsprojecten, zijn die belangrijk? Maar wellicht ook wel andere waarden die we daarin toch ook wel echt mee willen nemen. Zou je daar een voorbeeld van kunnen noemen? Ja, zeker. Er is bijvoorbeeld onderzoek gedaan door het Raternau Instituut echt al jaren geleden. Naar welke waarden er eigenlijk in digitaliseringsprojecten bij gemeenten belangrijk worden gevonden in de afweging. Het is een beetje descriptief onderzoek. Het is beschrijvend wat komen we tegen in die afwegingen. En dat wordt ook wel een publieke waardeset genoemd. Dus dat zijn eigenlijk waarden die ongeacht welke gemeente waar die is in het land. Eigenlijk wel belangrijk worden gevonden. Zoals rechtvaardigheid, autonomie, transparantie. Nou dat soort waarden. Veel meer. En je ziet nu dat als zo'n gemeente komt met die vraag rondom een waardeset. Dan willen ze op zich iets met die publieke waarden. Maar daar moet ook nog iets eigens in zitten. Want het is jouw organisatie. En die staat ergens voor. Dus dan gaan wij via verschillende sessies in een adviestraject kijken. naar hoe kunnen we een soort weg vinden die aansluit enerzijds bij dat eigen geluid en die kernwaarde. En anderzijds ook wel die publieke waarde voldoende vertegenwoordigt. En dan zie je wel waardekaders ontstaan die best wel op elkaar lijken. Dus ik ben in 2020 was het geloof ik bij de gemeente Eindhoven betrokken. Dat was toen een van de eerste gemeenten in Nederland. Utrecht was er al wel mee bezig toen ook. En Amsterdam. Maar Eindhoven was ook een van de eerste die zo'n waardekader ging vormgeven. En daar kregen andere gemeenten natuurlijk van te horen. En die dachten, willen dat ook? En dan zie je, daarna zijn we bij Groningen, Leeuwarden. Nu bij Nijmegen en Tilburg betrokken. Dat lijkt allemaal een beetje op elkaar, maar dan krijg je een lokaal sausje. Dus Groningen wil de per se de waarden nuchterheid erin. Oké. Ja, want dat past bij Groningen. Dus dat betekent dat ze niet met elke hype meelopen. En dat zag je heel erg duidelijk terug toen de ethische commissie iets ging zeggen over het ChatGPT. Dus de oproep van het ChatGPT bij de gemeente. Nou, daar werd natuurlijk door ambtenaren, waar wij ook kwamen, heel veelvuldig mee geëxperimenteerd en mee gewerkt. En Groningen zei, maar wacht eens even, bij ons pas nuchterheid. Wij gaan toch een soort, behoudend is misschien niet helemaal het goede woord, maar daar nuchter mee om. Dus we springen niet meteen op die trein. We willen eens even kijken wat dat precies doet en wat daar precies de overwegingen zijn. Alvorens dat breed te gaan omarmen. Oh ja, en Eindhoven dan? Dat zitten we een heel stuk zuidelijker. Ja, bij Eindhoven zijn de... Nou ja, voor mij is dat een beetje de eerste versie waarmee ik heb gewerkt. Ik kan daar niet echt een lokaal sausje ontdekken. Die lijkt eigenlijk best wel op die waarde die het Ratenauw Instituut heeft vormgegeven. Alleen hebben we die wel heel erg sterk getoetst aan de waarde. Die in casussen binnen de organisatie zelf naar voren kwamen. En bij de gemeenteraad, want die was er ook bij betrokken. Want uiteindelijk is het door de gemeenteraad ook ingestemd. Dus daar is er niet zo eentje waarvan ik zeg. Dat is typisch Eindhoven's. Ik weet wel dat Leeuwarden, die heeft Mienskip daarin. Fries. Dit is niet mijn beste Fries, sorry voor de Friese luisteraars. Maar dat gaat over gemeenschap. Zij zeggen, bij ons is gemeenschapszin heel erg belangrijk. Dus als we digitaliseringsprojecten vormgeven, dan moet iets van dat aspect er ook in terugkomen. Oh ja. Ja. En uiteindelijk voor bedrijven is het natuurlijk minstens net zo interessant... dat je je kernwaardes uiteindelijk doorlaat zijpelen in je AI-beleid... en eigenlijk in alles wat je doet. Ja, en daar zie je dus echt een kloof. Dat zie ik echt bij heel veel organisaties. Dus je hebt dan mensen die, noem willekeurig wat functietitels... met innovatie erin of AI of wat dan ook. Dus een beetje de voortrekkers op dit gebied. Die gaan natuurlijk heel erg denken vanuit de mogelijkheden. Dus wat heeft deze toepassing ons te bieden als organisatie? En als je dan inderdaad aankomt wat ik dan doe. Ja, maar hoe zit het dan met de kernwaarden en sluit dat daar dan lekker op aan? Dan is dat niet het eerste waaraan is gedacht. En kennen de mensen de kernwaarden? Heel vaak ook niet. Nee, ik was ook een keer bij een organisatie. En toen was het heel grappig. Toen werd er zo koffie binnengebracht op nieuw servies. En toen zeiden ze. Ja, want we hebben een nieuwe branding. En nieuwe kernwaarden. En dit servies past dan ook helemaal bij de look and feel van de organisatie. En toen vroeg ik. Oh, ik ben wel benieuwd dan. Ik zit hier natuurlijk om dat gesprek te voeren. Wat zijn dan nu de nieuwe kernwaarden? Ja, dat wisten ze eigenlijk ook niet precies. Want de afdeling communicatie had die vorm gegeven. En dat is natuurlijk wel tricky. Als in ergens heel goed. Afdeling communicatie moet erbij betrokken zijn. Maar het moet niet alleen maar iets voor naar buiten zijn. Het moet natuurlijk doorleefd en doorvoeld worden in de hele organisatie. Niet alleen maar kijk, dit is hoe wij ons presenteren. Nee, dit is ook echt wat wij doen. Van en door, voor elkaar. Ja, toch? Absoluut. En dat heeft ook tijd nodig. Dus ik kan me voorstellen als zoiets wordt gepresenteerd. Ik weet, ik ben daarna niet meer geweest. Ik zou nog eens moeten vragen. En? Kent iedereen ze nu? Ken jij ze, Niels? Ja, passie, vakmanschap, integriteit en solidariteit. Solidariteit. Solidariteit. Dus wij bieden naast die innovatieve zaken. Dat klinkt allemaal heel mooi. Maar wij zeggen, maar dat moet ook solide zijn. Bestendig ook. Bestendig, precies. Niet alleen maar gaan rennen. Je moet ook die marathon vol kunnen houden. Inderdaad. Dat is een marathon, het is geen sprint. Je kan sprints doen. Ja, maar dan hou je je, dan red je het niet. Het is voor de marathon. Heel goed. Wij zijn net bezig met de verandering van onze kernwaarden. Dus ik kan ze niet zo opleveren, want ze zijn nog work in progress. Ik heb twee vragen. Ik begin even met de eerste vraag toen Joop inderdaad even nog zo'n vraag wilde stellen. Je noemde net data-ethicus. Toen was het wel geen woord, maar even voor mij en ook voor de luisteraars. Wat versta jij onder data-ethiek? Ja, een hele goede vraag. Ik hanteer eigenlijk nog steeds het onderscheid dat Floridi, hoogleraar, maakte in 2015 of 2016 was het geloof ik. En hij heeft een IT-achtergrond. Volgens mij is hij hoogleraar computerwetenschap. Dat zeg ik vast niet helemaal goed. Maar hij houdt zich ook bezig met ethische kwesties rondom... Althans zo gaandeweg is hij zich daar steeds meer bezig gehouden rondom technologie. En hij is een van de eerste, dus eigenlijk rond 2016, die zegt... Hé, maar wacht eens even. We hebben ethiek van de zorg en van allerlei andere domeinen. Maar moeten we dat eigenlijk ook niet hebben rondom technologie... En dan met name data gedreven toepassingen. Hij zag daar echt wel ethische vraagstukken. En hij heeft dan in een wetenschappelijk artikel. Rond 2016 heeft hij eigenlijk onderscheid gemaakt. En ik hanteer dat onderscheid nog steeds. Dus ik kan dat nu vertellen. Hij zegt eigenlijk zijn er drie verschillende type vraagstukken. Als je bezig bent met data. De eerste is heel fundamenteel. Het zijn echt fundamentele data vraagstukken. Dus hoe komen de gegevens tot stand? Of waar komen ze vandaan? Wat zijn de bronnen? Kloppen die wel of zijn die wel betrouwbaar? Gegevensdeling, verwerking en simpele datatoepassingen. Dat is één. Wie ook wie hebben er toegang, wordt ermee gewerkt. Tweede is dan ethiek van algoritmes en modellen. Dat is inmiddels een beetje ook een apart vakgebied. Ik vind eigenlijk dat dat geïntegreerd moet zijn met elkaar. Dus dataethiek en AI-ethiek. Maar dat gaat dus heel erg over. En als je dan die gegevens weer gaat toepassen in een model. Dan voeg je eigenlijk een extra complexiteit in het vraagstuk. Want je bent met gegevens aan het werk. Daar zijn al allerlei vraagstukken over. Dus waar komen ze vandaan? Zijn ze wel representatief, et cetera. Maar zo'n model, hoe bouw je dat goed? En hoe zorg je dat dat inderdaad ook jou gaat leveren? Wat je ervan wil? Ik vind dat zelf bijna wetenschapsfilosofische vraagstukken. Maar goed, daar hangen zeker wel ethische consequenties aan. Want als dat natuurlijk niet helemaal doet wat je wil. Of zitten er vertekeningen in of wat dan ook. Dan heeft dat natuurlijk ethische consequenties. Dus dat beschrijft hij. En daarnaast zegt hij. Dan hebben we het eigenlijk alleen maar over de materie. Dus ofwel de gegevens ofwel de modellen. Maar er zijn natuurlijk ook mensen bij het trokken. En veel al ontstaan. Nou ja, de mensen maken het ook. Dus daar ontstaan ook veel vraagstukken. Want je bent natuurlijk met allemaal vertaalslagen bezig. Van de complexe werkelijkheid naar iets. Wat een gegeven wordt. Wat natuurlijk nooit helemaal gaat representeren. Wat je daadwerkelijk waarneemt of ziet. En het model doet natuurlijk hetzelfde. Dus een hulpmiddel, maar de map is not the territory, zeg maar. Maar hij zegt, er zijn ook mensen mee aan het werk. En wat mag je eigenlijk van mensen daarin verwachten? Dus wie hebben er toegang tot de gegevens? Of wie maken het? Is dat dan wel representatief? Hoe beïnvloedt dat het werken? Dus daar zitten ook weer allerlei ethische vraagstukken in. Dus hij maakt eigenlijk die driedeling. En ik vind die zelf heel behulpzaam. Omdat je dan eigenlijk die verschillende niveaus uit elkaar kan trekken. Als je dan binnen een organisatie komt, dan kan je zeggen... Nou, wat voor vraagstukken hebben jullie? Langs welke lijnen ligt dat? En er is overlap. En je geeft aan data-ethiek en AI-ethiek zie je nu een beetje als een losse erbij gekomen. Ja, dat zie ik ook als gevaar. Ja, wat voor gevaar zie je dan? Nou, wat ik veel al zie, en dat heb ik ook geconstateerd. Ik heb onderzoek gedaan bij de Belastingdienst met Filosofie en Actie in 2023. Is ook openbaar een raad te plegen overigens. Dat is een schets hoe data-ethiek eigenlijk wordt gezien en gedaan binnen de Belastingdienst. En dan moet ik wel even zeggen de Blauwe Belastingdienst. Dus niet toeslagen, want dat denken mensen. Oh, spannend, spannend. Ja, maar dat is wel een apart onderdeel. En wat is dan de Blauwe Belastingdienst? Ja, dus die doen de inkomstenbelasting en de BTW. Die de blauwe enveloppen. Ja, precies. Die de blauwe enveloppen, sorry. En dan heb je ook nog de douane. Jij vroeg, wat is het gevaar, toch? Als je dat lostrekt. Wat we hebben gezien. Ik heb dat dan bij de Belastingdienst niet zo als zodanig gezien. Maar wel toen realiseerde ik het me. Dat als je heel erg uitgaat van AI-ethiek. Dan ben je heel erg bezig met de ethiek van de modellen. Dus bijvoorbeeld zit daar bias in. Zit er een bepaalde vertekening in. Die we misschien moeten corrigeren of anders aanpakken. Maar dat gaat vaak heel erg uit van de beschikbaarheid van gegevens. Dus die fundamentele datavraagstukken worden dan niet echt gesteld. En nogmaals, dit is niet per se een van de conclusies bij de Belastingdienst, maar wel iets wat ik me toen realiseerde en waar ik sindsdien heel erg op ben gaan letten. Dus als je heel erg sec alleen maar naar modellen kijkt, ga je vooral kijken naar hoe kunnen die modellen het goed doen. En heel veel mensen staan dan ook stil bij natuurlijk de databronnen. Maar het wordt soms ook wel een beetje, nou dit zijn gewoon de bronnen die we hebben, dus daar doen we het mee. Ja, dus als ik het zo even vertel en corrigeer me vooral zoals het daar standaard bedoeld is. De focus ligt op de implementatie of het bouwen met behulp van AI. Terwijl eigenlijk is het vraagstuk breder en is het maar een onderdeel van de organisatie waar ze mee bezig zijn. En de focus ligt te veel op dat ene onderdeel. Want volgens mij ethische vraagstukken gaan juist om meerdere perspectieven en breder. En door dat los te trekken is de kans groter dat er niet naar het bredere plaatje gekeken wordt. Precies, en wat ik daar dan ook heel moeilijk aan vind en dat is ook iets wat ik heel breed zie. Want je hebt nu echt de opkomst van AI-ethiek. En dan heb je een soort vertakking daarvan. Dat heet dan Responsible AI. En dan ga je eens heel erg kijken. Nou, we willen AI in gaan zetten. En dat willen we verantwoord gaan doen. En de vraag die wij altijd stellen is. Is het verantwoord om hier AI in te zetten? Dus er moet nou echt nog een vraag vooraf worden gesteld. Dus niet alleen maar wat ik eerder zei. Er zijn mogelijkheden en die gaan verkennen. Maar ook verkennen binnen welke context is dit ook verantwoord om in te zetten. En dan vervolgens natuurlijk wel de vraag stellen. En als we dat dan doen, hoe doen we dat dan verantwoord? Maar dat is dus echt breder dan alleen maar dat technische perspectief erop. Zou je nog iets meer kunnen vertellen over die casus van de Belastingdienst? Ja. En dan vooral, ik was heel erg benieuwd van de start. Wat was dan eigenlijk het vraagstuk? Ja, dat is een hele goeie. Het vraagstuk was, ze kwamen oorspronkelijk bij mij met de vraag, Zouden we iets met data-ethiek kunnen doen binnen de Belastingdienst? Want er gebeurt wel wat. En toen zei ik, volgens mij gebeurt er echt al heel veel. Dus is het niet wellicht handig dat we dat eerst even in kaart gaan brengen? Nou, dat werd de opdracht. En dan met aanbevelingen doen. Want je moet weten, de Belastingdienst is echt een hele grote organisatie. Met heel veel verschillende afdelingen. Het is een vrij complexe organisatie. Dus het is niet gek dat mijn opdrachtgever... Of willekeurig wie je vraagt binnen de Belastingdienst. Als je iemand kent. Wat gebeurt hier. Dat niet iedereen daar natuurlijk een volledig overzicht van heeft. Dus ons is toen gevraagd. Willen jullie in kaart brengen wat er gebeurt aan data-ethiek. En toen zijn wij gaan praten met mensen. Eigenlijk eerst de instantie gewoon onderzoeken. Wat verstaan mensen daaronder. En als je zo'n woord noemt. Terecht werd mij net de vraag gesteld. Wat betekent het dan? Want niet iedereen. Mensen zullen het doen zonder dat ze weten dat ze ermee bezig zijn. Dus die hebben daar nog niet de juiste woorden voor. Dus we zijn met mensen gaan praten over... wat voor vraagstukken kom je nou tegen en hoe ga je daarmee om. Maar ook heel erg gaan kijken naar wat voor hulpmiddelen gebruik je daarbij. Dus stel je voor je komt ineens je vraagstuk tegen... wat doe je daar dan mee? Ga je daar met mensen over praten? Of heb je daar gespreksmodellen of assessments bij? Of technische tooling die je daarbij helpt? Hoe is dit georganiseerd? Zijn er bepaalde frameworks? Of kaders die gehanteerd worden binnen de Belastingdienst. Nou, die wij in kaart kunnen brengen. En wat wij zagen was dat het best wel gefragmenteerd was. Dus mensen wisten inderdaad niet zo goed van andere afdelingen wat ze deden. Dus ik denk dat ons onderzoek daar heel erg bij heeft geholpen. Om aan te tonen dat er eigenlijk langs verschillende lijnen best wel wat aanwezig was. En ook daar een aantal voortrekkers in waren. En nou ja, even aanvullend op mijn eerdere opmerking. Vooral rondom modellen was er echt al superveel aanwezig. In de manier waarop ze daar naar keken en mee omgingen. En als we keken naar data-fundamentele vraagstukken. Dus eigenlijk die eerste pijler van Floridi die ik net noemde. Dan hadden wij de indruk, ja het wordt wel gesignaleerd. Maar daar mag nog wel wat meer aandacht voor komen. En dat heeft ook wel te maken met, dat is ook iets wat wij hebben geconstateerd. Is dat mensen eigenlijk een verschillende perspectieven hadden op hoe je ethiek eigenlijk doet. rondom dit soort vraagstukken. Dus we hebben daar eigenlijk drie typen grofweg in onderscheiden. En ik moet even zeggen, het was geen wetenschappelijk kwantitatief onderzoek. We hebben echt een schets gemaakt. We hebben natuurlijk ook lang niet iedereen kunnen spreken. Maar we hebben daar ons wel een beetje een beeld van kunnen vormen. En je hebt al mensen binnen de Belastingdienst die zeggen... ja, we hebben gewoon de Belastingwet uit te voeren. En er is allerlei aanpalende wetgeving. Dus wij doen het juiste als we gewoon die procedures netjes vormen. En dat is iets wat ik herken ook bij heel veel andere organisaties. Dat eigenlijk, ja, wij noemden dat hier procedurele ethiek. Maar je kan ook zeggen, het is eigenlijk een soort legalistische ethiek. Waarbij je eigenlijk zegt, ja, de wet is gewoon ons morele kader. En daar is heel veel voor te zeggen. Maar ook heel veel op af te dingen. Het is in ieder geval een heel goed uitgangspunt. Dus dat is helemaal niet verkeerd dat dat zo werd gezegd. Maar we zagen ook wel andere perspectieven die daarop aanvullend waren. Namelijk het tweede perspectief als dat technische perspectief op ethiek. Dus we hebben een model gebouwd. oh, daar zit een vertekening in, dan gaan we dus weer een andere tool gebruiken... die mogelijk die vertekening kan herstellen. Ofwel andere tools die heel erg gericht zijn, zoals... het is inmiddels niet echt een tool, maar meer een assessment. Zoals de IAMA, de Impact Assessment op Mensenrechten en Algorithmen. Dat is natuurlijk een reflectieve tool. Wij vinden hem zelf vrij technisch. Hij raakt ook wel aan ethiek, want mensenrechten raken natuurlijk aan bepaalde waarden... die wij hier in het West als universeel ervaren. maar is wel heel erg gericht op het model. Daar zou ik misschien later nog meer over kunnen zeggen, over de IAMA. Daarnaast onderscheiden wij een derde perspectief. En dat is dan meer het reflectieve perspectief. En dat is eigenlijk waar wij ons bij filosofie en actie het meest van de tijd mee bezighouden. En dat is, hoe creëer je nou ruimte en tijd voor reflectie en gesprek? Over niet alleen hoe doe je dit op de juiste manier, maar ben je ook wel het juiste aan het doen? En we hebben geconstateerd, En dat is ook iets wat breed binnen de Rijksoverheid. Ook wel via onderzoek van INO Research en zo is aangetoond. Dat daar eigenlijk best wel weinig ruimte voor is. Mensen hebben gewoon veel te doen. En ik kan me ook voorstellen dat mensen denken. Zeker waar het gaat over innovatie. Je noemde het straks zelf al. Ja, maar we willen door. Dit soort gesprekken remmen met innovatie. Kan je je daar iets bij voorstellen dat mensen dat zeggen? Dat kan ik me voorstellen. Dat was binnen de Belastingdienst overigens niet iets wat meteen werd gezegd. Maar herken ik wel van andere organisaties. Dus laat ik daar even op ingaan. Laat ik het Belastingdienst even liggen. Het idee dat het innovatie remt. Ik denk dat dat niet klopt. Ik kan me wel voorstellen dat het zo wordt ervaren. Ik denk dat als je aan de voorkant bezig bent met. Wat betekent het nou als we deze technologie gaan inzetten. Voor dit bepaalde vraagstuk. Dat je dan eigenlijk. Het is een investering in zorgvuldigheid. Dus eigenlijk voorkom je dat je mogelijk. met hele lelijke krantenkoppen in het nieuws komt. Of dat je toch merkt, oh dit werkt eigenlijk helemaal niet voor ons. Omdat je er echt wat extra zorgvuldig naar hebt gekeken. Maar hoe creëer je dan ruimte als toch deze sfeer misschien heerst? Ja, wij doen dat gewoon door het vaak gewoon maar te gaan doen. Dus dan zeggen we, nou oké, je wilt het misschien niet bij elk project doen. Maar wat nou als we, noem gewoon eens een casus. Waar nu ook even niet zo heel veel druk op staat. Maar iets wat je misschien wel wil verkennen. Zullen we daar gewoon eens naar gaan kijken. En dan gaan we een gesprek voeren. Dat doen we langs. Ethiek is systematische reflectie. Dus je gaat het echt heel systematisch. Analytisch gaan we dat langs. Dus niet een heel vrij gesprek. Best wel strak gestructureerd. Maar heel veel ruimte voor overdenkingen. Overpijzingen en overwegingen. En morele intuïtie. En dan wat ik heb ervaren. Dat is ook bijvoorbeeld zo bij de gemeente Eindhoven. Daar stond ook echt niet iedereen te springen. Maar het was nou eenmaal, dat zeg ik niet helemaal goed. Want het is niet dat niet iedereen stond te stricken. Dat is ook gewoon, we weten eigenlijk niet wat het is. Maar de gemeenteraad geeft de opdracht. Dus oh, wij moeten hier. Het was niet eens, er was helemaal geen weerstand. Het is meer van, oh, we moeten hier nu iets mee. Maar jeetje, we hebben ook al de DPIA. Dat is ook iets wat breed binnen organisaties is. We hebben al een DEPIA. En dan zeker nu ook de IAMA. Dat was toen nog niet. Er zijn allemaal andere verplichtingen. Maar komt dit er ook nog eens bij? Dus dat is dan het gevoel van de rem. Toen zijn we ook gewoon casussen gaan doen. Heel erg met het idee, laten we dat eens proberen. En dan gaan we gewoon eens kijken wat het jou oplevert. Als je nikt, oplevert ook goed. En dan zien mensen toch, ook projectleiders... die dan aanvankelijk inderdaad een beetje zitten... ofwel een beetje weerstand... of gewoon, ik weet niet helemaal goed wat ik hiervan moet verwachten. Zoals bij Eindhoven, dat was niet voor iedereen duidelijk. Die zien dan toch, ik heb nu op een andere manier naar mijn project gekeken. Wat waarschijnlijk heel erg waardevol gaat zijn verderop als we het echt daadwerkelijk gaan implementeren of live gaan. Wat zou je een voorbeeld kunnen noemen van wat ze dan concreet oplevert? Wanneer zijn zij tevreden? Dat je zegt van, hier hebben we nu wat. Ja, dat is dus heel erg wisselend per project. Snap ik. Even kijken of ik daar een concreet voorbeeld van kan geven. Nou, wat ik merk is vaak dat dit soort projecten beginnen heel erg vanuit de technologische mogelijkheid. Dus, oh, er kan opeens. Dus we kunnen dit gaan implementeren of doen. En dan wordt gekeken naar waar is dat dan een leuke, interessante of relevante plek waar we dat kunnen implementeren. En dan wordt dat verkend. Dus heel erg vanuit de technische mogelijkheid. En dan vervolgens wordt er wel juridisch vaak ook wel naar gekeken. Nou ja, meestal wel. Naar gekeken, dus wat zijn hier de randvoorwaarden. En ik ben al heel lang aan het roepen. Je moet altijd de vraag stellen. Kan het? Mag het? En is het wenselijk? En heel lang begon het gewoon bij de technische mogelijkheid. En werd er naar het juridische kader gekeken. En dat was het. En inmiddels weten we wel dat als iets ook juridisch... De wet is natuurlijk gestoelde ethiek. Zeker als het gaat om technologie. Die loopt altijd achter. Als in, dat hebben we gezien rondom de AI Act. Dus die was bijna klaar. En toen kwam openen met je GPT. Want er moest er op het laatste moment nog even wat in worden gefietst. Dat zal blijven, maar die wet ligt er nu. Ja, precies. Dus we zien, je moet ook altijd nog die vraag stellen. Maar wat betekent dit? Dus is dit wel wenselijk? En die vraag, die wordt heel vaak overgeslagen. En die wordt ook niet altijd vanuit een soort breed perspectief bekeken. Dus er wordt wel gekeken naar, dit is voor ons heel wenselijk. Want wij gaan efficiënter werken. Bijvoorbeeld door de implementatie van een taalmodel of een chatbot of wat dan ook. Maar wat betekent dit nou voor onze klanten? bijvoorbeeld. En dan kan je nog verschillende onderscheid maken tussen verschillende groepen klanten. En wat is daarin voor hun belangrijk? En hoe raakt het dan weer aan dat wat voor... Want je hebt niet zelf als organisatie alleen waarde waar je voor staat, maar jouw klanten verwachten misschien ook iets staan ergens voor een bepaalde behoefte. Sluit dat dan wel aan in die beleving? Heb je in die zin een voorbeeld en die hoeft niet bij naam hoor. Maar dat er dan ook besloten is om iets niet te gaan doen, omdat je dit uit gesprek hebt gehad? Wel enige voorzichtigheid. Dat heeft ook weer met ChatGPT te maken. Ga je wel even verzitten. Ja hoor. Dat heeft met ChatGPT kwam natuurlijk... December 2022 kwam dat op. En toen was er net bij het interprovinciaal overleg. Dus dat is een soort vereniging van de verschillende provincies. Tezamen was er net een ethische commissie gestart. Die ging adviseren op zaken rondom digitalisering en ethiek. Voor de verschillende provincies. En ze wilden heel erg graag casuïstiek. willen ze nog steeds. Casuïstiek behandelen die voor alle provincies relevant is. Dus niet, Gelderland heeft een vraagstuk, maar dat is voor Groningen niet interessant. Nee, echt gewoon breed. En toen kwam er een cadeautje. Toen kwam ChatGPT. En zij waren net geïnstalleerd en zij moesten er advies over gaan uitbrengen. Maar zoals dat bij heel veel ethische commissies gaat, niet alleen bij het IPO, maar ook bij gemeenten en allerlei andere organisaties, daar zitten vaak mensen in. Die doen dat gewoon naast hun werk. Dus denk aan hoogleraren, wetenschappers. Mensen met enige expertise die het gewoon druk genoeg hebben. Dus toen is aan ons gevraagd, dus aan filosofie in actie. Van willen jullie anders het vooronderzoek doen? Dus jullie leggen als het ware een rapport neer met alle ethische overwegingen. En op basis daarvan gaat dan de ethische commissie advies uitbrengen aan die verschillende provincies. En wat er toen gebeurde was, de VNG was hiermee bezig. Het ministerie van Binnenlandse Zaken en Koninkrijksrelaties was ermee bezig. Iedereen wilde een handreiking of iets van, wat moet dit? Want ambtenaren waren er al mee bezig, we moeten hier iets mee. Die waren toch allemaal, oh die wisten, er komt iets bij het IPO. Althans, zo heb ik dat een beetje begrepen. En dat heeft dus uiteindelijk wel iets in beweging gezet. En ik heb wel gemerkt dat door ons rapport, maar dan met name natuurlijk het advies dat daarop volgde, dat er echt wel enige voorzichtigheid, vooral binnen de overheid, en dat is natuurlijk niet gek, is betracht. ten aanzien van de implementatie van met name een taalmodel zoals ChatGPT... die natuurlijk bij Big Tech ligt. Ja, logisch. En jij vroeg, dit is een hele lange aanloop... want jij vroeg naar de... van wat levert dat dan op? Nou, wij hebben eigenlijk onze analyse toen gebaseerd op die drie vragen. Dus kan het, mag het en is het wenselijk? Waarbij we eerst zijn gaan kijken naar... wat doet een taalmodel eigenlijk? En dat is nu misschien heel grappig om over na te denken... maar dat was, nou ja, twee jaar geleden... Was dat echt nog lang niet voor iedereen. En trouwens, dat is nog steeds niet voor iedereen bekend. Maar in mijn bubbel weet iedereen inmiddels wel ongeveer wat een taalmodel doet. Bijvoorbeeld, het is een taalmodel. Het is geen kennismodel. Dus het doet iets met taal. Maar je ziet dat het nu veelvuldig als zoekmachine wordt gebruikt. Toen nog niet. Maar de vraag is of je het daar wel voor moet gebruiken. Natuurlijk, de vraagstukken rondom hallucinaties waren er toen al wel. Ook het black box. Dus gewoon meer, wat zijn nou de mogelijkheden en de beperkingen van zo'n model? We hebben toen ook gekeken naar langs verschillende as. Als een ambtenaar hem nou gebruikt, dan is het ook wel de vraag... hoeveel autonomie leg je nog bij de ambtenaar? Dus gaat een ambtenaar een tekst laten herschrijven door een taalmodel? Of laat hij hem genereren? Dat is echt nog wel een verschil als het gaat om ethische vraagstukken. En dus ook hoeveel autonomie leg je bij het model? Dus laat je die dus echt zelf iets doen. We zagen verschillende toepassingen binnen de provincies. Dus het werd inderdaad gebruikt om bijvoorbeeld toespraken te schrijven of beleidsmemo's. Maar ook wel code te genereren, dus ook wel voor programmeren. Of code te verbeteren. Dus dan zie je ook weer langs die verschillende assen van autonomie dat daar verschillend mee om werd gegaan. Nou, vervolgens zijn we naar de juridische kaders, dus die mag het vraag gaan kijken. Nou, er was toen heel veel onduidelijk, dat is er eigenlijk nog steeds. De AI-act is er wel inmiddels, maar rondom copywriters, daar wordt nog allerlei rechtszaken om gevoerd. Zeker. Wat zijn eigenlijk de bronnen van het model? Het zijn natuurlijk privacy vraagstukken. Waren er ook bij de provincie. Dus wat kan je dan wel en niet in zo'n model invoeren? Wat gebeurt ermee? Er zijn inmiddels. Toen was het alleen nog bij OpenAI. Bij ChatGPT alleen nog het open model. Dus een gratis variant. Inmiddels zijn er alweer allerlei variaties. En ook afgeschermde varianten van. Dus daar is ook ontwikkeling natuurlijk. Dus we hebben de juridische kaders verkend. Met name rondom copyright. privacy, maar ook wel gekeken naar de provinciewet. Want ja, de provincie heeft een taak. En wat hoort daar precies bij? En ook gekeken naar waar is de ambtenaar toe verplicht? Nou, de ambtenaar is bijvoorbeeld verplicht tot zorgvuldige omgang met informatie. En volgens mij ook iets met het verstrekken van wel waarheidsgetrouwe informatie. Zoiets hebben we eruit gehad. Wel nuttig. En bij de provincie kwamen we uit, en dat kwam vooral dan bij de wenselijkheidsvraag terug, maar ook uit bij de plicht tot natuurbehoud. Dan denk je nu misschien, hé, hoe zit dit? Nou, de provincie heeft de plicht tot natuurbehoud. Dus een van de taken van de provincie is dus flora en fauna. Dan kan je zeggen, ja, maar de provincie Gelderland heeft dat gewoon te doen bij de Hoge Veluwe. En daar houdt het op. Maar als je gaat kijken naar het taalmodel en de klimaatimpact, daar zijn we dan vooral op ingezoomd bij de wenselijkheidsvraag. Ook op heel veel andere aspecten. We hebben gekeken naar wat betekent het voor de provincie, De maatschappij en voor de ambtenaar. Langs die lijnen hebben we die wenselijkheid. Dus is het wel wenselijk? Wat betekent dit bekeken? Maar ook op het gebied van externaliteit. Dus dan ben je niet zozeer bezig met wat doet dit taalmodel en wat roept dat op. Maar ook wat gaat er eigenlijk gepaard met dit taalmodel. En het gebruik daarvan waar als je vanuit de ethiek ernaar kijkt. Toch ook echt rekening mee moet houden. En een van die aspecten was dus klimaatimpact. Daar was op dat moment nog niet zo heel veel aandacht voor. Inmiddels gelukkig wel. Dus om zo'n taalmodel te gebruiken. Dat kost heel veel servercapaciteit, dus ook energie. En dan wordt er gezegd, ja, maar maak ik gebruik van groene energie? Ja, maar omdat Microsoft of weet ik veel wie dat windpark opkoopt... kunnen huishoudens daar weer geen gebruik van maken. Dus dat is gewoon verplaatsen van het vraagstuk eigenlijk. Dat is iets waar je rekening mee moet houden. Natuurlijk ook de hoeveelheid water die er nodig is om die service te koelen. Dus het heeft een enorme klimaatimpact. Wij dachten wel van, ja, wacht eens even. Als de provincie de plicht heeft tot natuurbehoud... Dan is dit toch wel even iets waar je over na moet denken. We moeten dit op zijn minst even aanstippen. Hier is mogelijk iets wat ingewikkeld is. En daarnaast hebben we ook gekeken naar andere externaliteiten. Zoals bijvoorbeeld de afhankelijkheid van big tech. Dus moet je dat willen? Dat was toen voor ons al een evidente vraag. Maar natuurlijk in tijden van Trump. Heel actueel. Heel actueel. En we hebben ook gekeken naar de sociale en economische ongelijkheid. Die ontstaat door gebruik van taalmodellen. Dus heel veel van dit soort grote systemen worden getraind in lage lonenlanden. Die eigenlijk parasiteren op ons koloniale verleden. Dat is allemaal iets wat we niet meer willen, volgens mij. Dus we willen dat iedereen op de wereld gelijk en in welvaart leeft. En dan zie je dat wij in het Westen heel welvarend zijn. En denken, oh wij kunnen efficiënter werken als we zo'n taalmodel gebruiken. Maar ondertussen is dat taalmodel niet een soort magische iets wat je uit je hoog hoedje tovert. Maar dat is gewoon iets wat wordt getraind in lage lonenlanden. onder niet al te zonnige omstandigheden. Met click farms en click workers. Daar hebben we ook een aantal bronnen voor gevonden. Ik ben zelf ook te gast geweest een keer in het podcast van het College voor de Recht van de Mens hierover. En er was ook een andere onderzoeker aanwezig die daar ook onderzoek naar had gedaan. En ook bij click farms was geweest. Dat is echt allemaal niet heel zonnig wat je daarvan hoort. En dan denk je, als je als provincie dus bezig bent met de vraag, willen wij dit doen? Dan moet je dus niet alleen maar kijken naar wat levert het ons op en wat zijn onze juridische kaders. Want dan is zo'n vraagstuk van efficiëntie, want daar komt het bij zo'n taalmodel toch echt wel op neer. Dus we kunnen iets efficiënter gaan inrichten. Bijvoorbeeld, ik kan mijn tekst snel laten nakijken of redigeren of iets opzetten of een memo schrijven. Maar eigenlijk is het een mythe van efficiëntie, want de last wordt gewoon verlegd. Ofwel naar toekomstige generaties. Dit is overigens niet hoe dat letterlijk in het rapport stond. Hier hoor je een stukje van mijn eigen opinie. Maar ofwel naar toekomstige generaties. Omdat er een klimaatimpact is. Daar hebben wij nu mee te dealen. Maar ook toekomstige generaties. Maar ook andere delen van de wereld. Dus ik vind dat je als provincie dan niet alleen maar mag zeggen. Ja, maar dit is onze provincie. En dit levert het ons op. Nee, er is ook een last. Iemand betaalt ergens hun prijzen. Vond je daar gehoor in? Daar vond ik zeker gehoor in. Ja, en het mooie is ook. Want dat zei ik net al. Er werd er een beetje gekeken. vanuit overheidsland, wie is hier nu mee bezig? Ministerie van Binnenlandse Zaken en Koninkrijksrelaties... was toen bezig met de handreiking, generatieve AI. Daar ben ik toen ook wel als een van de vele experts... bij betrokken geweest, dus daar kon ik dit ook adresseren. En natuurlijk ook met dat rapport en advies onder de arm. Dat hadden zij natuurlijk ook. Kon ik dat daar aangeven. En daar zijn ook wel verschillende gemeenten... ook weer mee aan de slag gegaan. Dus dat is wel iets wat bij iedereen op de radar is. Maar je ziet toch gemak dient de mens. Dus mensen zijn toch ook geneigd om... Dan kijk ik maar naar mezelf. De afweging is snel gemaakt. Wat het lastige is hierbij vind ik echt wel. Ik vind als we kijken naar ethiek. Dan moet je dus niet alleen maar zeggen. Ja maar dit is moreel juist of onjuist. Of we moeten dit wel of niet doen. Voor mij is het belangrijk dat er een soort totaal aan overwegingen wordt meegenomen. Dat je in ieder geval kan verantwoorden wat je doet. En dat je misschien ook wel weet wat de prijs is. Maar dat je zegt, ik ben bereid hier in deze prijs te betalen. Of ik ben bereid de prijs te verzachten. Of je zegt, ik wacht het dus even af. Want ik vind die prijs het nog niet waard. Dat past niet bij ons. Dus niet bij onze kernwaarden. Wat ik heb gezien bij sommige organisaties. Is dat ze bijvoorbeeld hebben ingezet op een verbod. Op bijvoorbeeld ChatGPT. En dan sprak ik medewerkers. Hoe gaat dat dan? Het wordt gewoon gebruikt. Ik zet gewoon naast mijn werkplek op mijn privélaptop. En dat vind ik ingewikkeld. En ik denk, daar moeten we dan iets mee. Hoe creëer je een cultuur waarin iedereen zich bewust is van dit soort vraagstukken? Maar ook dat je verantwoordelijkheid neemt als organisatie. Want ik denk, dit kan je weten. Zodra je het gaat verbieden, gaan mensen het toch gebruiken. En ik denk dat je moet een cultuur organiseren waarin dit dan ook weer bespreekbaar wordt. En dat je samen gaat zoeken naar een oplossing. Want blijkbaar is de druk hoog en voelen mensen de behoefte om een efficiëntie slaan te maken. Het leuke is, er gaat een gast komen in de aankomende weken. Die aan het nadenken is van hoe zou je nou dit kunnen visualiseren. Dus dat je eigenlijk als gebruiker ook geconfronteerd wordt. Op een goede manier. Met wat het uiteindelijk kost. Het lijkt een beetje als een pakje sigaretten waar die long op zijn afgebeeld. Ja precies. En de vraag is, we gaan het met hem erover hebben. Wat het betekent of het wat oplevert. Maar ik kan me wel voorstellen, als je er op geen enkele wijze meer ziet wat bijeffecten zijn. Dat het ook best wel lastig is om die afweging ook te maken. Je weet het gewoon niet. Dus je klapt zelf je laptop open en je gaat gewoon naar zo'n applicatie toe. Je hebt gewoon niet door wat daarachter zit. Het voelt voor mij heel veel. Ik trek ook vaak de verbinding met fast fashion. Dus ik kan bij de Primark binnenlopen en denken wat een leuk bloesje. En dan zie ik niet kinderhandjes of zo. Ik weet eigenlijk niet precies wat de Primark doet. Sorry Primark, maar dat beeld heb ik er, als ik er langer over nadenk, bij hele goedkope fashion die ook dus niet heel lang stand houdt, heb ik toch wel, dat is in ieder geval vervuilend, want je moet het snel weer weg gaan gooien. Maar ook hoe is dit tot stand gekomen dat het zo ongelooflijk goedkoop is. Dus dat is altijd, in mijn begintijd, dus toen ik net begon met filosofie en actie, was al wel een beetje het credo. Ook zeker binnen privacyland, als iets gratis is, Dan ben jij het product. Ik denk als iets goedkoop is. Dan mag je je echt afvragen wie de prijs betaalt. Dat is een hele mooie. Ik wil toch even naar ons kaartspel. Want wat wij doen is. We hebben een kaartspel. AI Game Changer. Generatieve AI editie. Juist om gesprekken in organisaties op gang te brengen. Over allerlei vraagstukken rondom AI. Er zit ook een categorie ethieke maatschappij in. Maar Niels schudt altijd keurig. Dus laten we eens even kijken wat er uitkijkt. Ja, precies. Ik zie je kijken. Nee, het is niet de ethiek categorie. Dat is misschien wel goed juist. Daag mij maar uit. De categorie is technologie en innovatie. En de stelling luidt als volgt. Bedrijven die generatieve AI integreren in hun bedrijfsvoering zullen een aanzienlijke concurrentievoordeel hebben. Dus ik zal het nog even herhalen. Bedrijven die generatieve AI integreren in hun bedrijfsvoering zullen een aanzienlijke concurrentievoordeel hebben. En waar moet ik denken aan bij bedrijfsvoering? Op welke niveaus hebben we het dan over financiële administratie? De core processen van een organisatie. Ja, dat is afhankelijk van het type organisatie. Maar echt in de koor. Ja, ik denk natuurlijk niet zwart-wit. Want ik ben een filosoof. Ik denk dat het in eerste instantie lijkt dat dat zo is. Dus ik kan me voorstellen dat je denkt. Als we dat nou gewoon lekker efficiënt gaan inrichten. Dat scheelt een heleboel. Kunnen wij ons focussen op de kerntaak? Ik denk dat dat over het algemeen toch de afweging is. Wij willen ons focussen op de kern. Op de inhoud. En dan zijn die processen geregeld. Ik, ja, concurrentievoordeel. Ja, ik vind het heel lastig. Want ik ben zelf natuurlijk ondernemer. Maar wel maatschappelijk impact ondernemer. Dus ik probeer er niet zo naar te kijken. En ik denk altijd dat de taart groot genoeg is. En het gaat niet om schaarste. Een beetje anti-kapitalistisch wat dat betreft. Dus zo kan ik hem niet naar mezelf vertalen. Ik moet heel erg denken aan een filmpje van Klokhuis. Die laat ik hem wel eens zien in lezingen. Oh, leuk. Een heel leuk filmpje over AI. Sowieso, het klokhuis heeft een hele leuke reeks over AI. Je mag kinderen hebben om er naar te kijken, maar je mag er ook gewoon zelf naar kijken. En ze doen natuurlijk heel veel met sketches en liedjes ook. Los van de informatie. En er is één sketch waarbij Ellen Parren, een actrice, die begeleidt een groepje kinderen door het AI Museum in 2097. Ja, ik ken hem. Ja, fantastisch. En zij ziet er ook een beetje futuristisch uit. Met een pruik en een zilveren pakje en zo. En ze loopt dan met kinderen die er ook futuristisch uitzien. Door het, zegt hij welkom in het Nederlandse AI Museum. En dan ga je zien eigenlijk de geschiedenis van AI. En dan zegt hij, nou in 2020 liet Eentje Meintje Klinker. Ik ken hem denk ik helemaal uit mijn hoofd. Maar liet haar eerste werkstuk maken door generatieve AI over Ed Sheeran. En dan zeggen die kinderen, wat ziet een werkstuk er zo uit? Wat is dat? Papier, geen hologrammen en zo. Dus allemaal heel grappig. En dan zie je, eigenlijk wat zij doet, is zij laat zien. Althans het gevoel dat je als kijker bekruipt is. Wat zijn wij ontzettend dom bezig waar wij dit voor inzetten. Want hoezo werkstukken? Dat zeggen die kinderen ook. Maar zo leer je er toch helemaal niks van. En dan laten ze een kunstwerk zien. En dan zeggen die kinderen ook. Waarom zou je het enige leuke in het leven? Dat je iets kan creëren. Waarom zou je dat nou uitbesteden aan AI? En is kunst ook niet eigenlijk bedoeld om iets van jezelf te laten zien? Dat kan dan toch helemaal niet. Zo worden we een beetje meegenomen. Wat zijn we eigenlijk aan het doen? Dit is een omweg om te vertellen. Ik vraag me echt af of wij ons nu heel erg bewust zijn van waar we AI nou precies heel erg goed voor kunnen inzetten. Dus wat ik zou doen, trouwens wat ik niet doe, want ik gebruik geen generatieve AI in mijn onderneming, heel bewust. Ook bij sollicitaties zeggen wij ook, als je dit met generatieve AI maakt, dan pas je gewoon niet bij ons. Dus doe maar niet. Er zijn ook onze sollicitatieprocessen daarop anders aan het inrichten dat dat ook niet uitnodigt om dat te doen natuurlijk. Maar ik vraag me echt af aan de hand van dat filmpje. Hoe denken wij over 10, 15 jaar terug op waar we nu allemaal AI voor aan het gebruiken zijn. En zijn wij eigenlijk nu nog zoekend in waar dit nou precies nuttig, handig, wenselijk, goed voor is. Dus ik zou denken, even vanuit die stelling gedacht. Ik zou niet alle core processen overlaten. Zeker niet. Maar ik weet wel, dus daarom begon ik ook over die financiële afhandeling. Er zijn natuurlijk processen die zich makkelijker voor automatiseren lenen dan anderen. Ik kan me voorstellen dat daar wat winst in te behalen is. Maar dan gaat het mij vooral ook om de betekenis van werk. Dus ik probeer dan ook natuurlijk naar de menselijke kant te kijken. Want als iemand nou heel veel betekenis haalt uit zijn werk, moet je dat dan afnemen. Ik probeer ook met mijn team heel erg te kijken naar dat iedereen bijdraagt op diens eigen manier aan dat wat we aan het doen zijn. En dat betekent niet dat we eindeloos contempleren. Dat denk je dan bij filosofen natuurlijk. Die mogen dan heel lang over dingen doen. Nee hoor, ik zit ook echt wel. Er zijn gewoon tijd en budgetten en zo beschikbaar voor dingen. Maar ik vind die zingeving en betekenis ook heel erg belangrijk. En ik kan me dus even voorstellen naar de andere kant toe. Sommige taken geven natuurlijk helemaal geen zin en geen betekenis. en die zijn eindeloos repetitief. Ja, ik kan me voorstellen dat het daar heel nuttig en handig voor is. Maar concurrentievoordeel, want dan krijg je natuurlijk het argument ja, want alle anderen doen het, dus moeten wij het misschien ook doen, anders lopen we achter. En dat is een beetje het narratief wat we volgens mij echt bewust van moeten zijn, van waar komt dat nou precies vandaan? Dat als je nu niet op die trein spreekt, dan gaat er echt van alles mis. En dat is een soort angstnarratief. En ik vind dit echt heel ingewikkeld, want het wordt vaak heel erg dus Dus wij noemen dit een beetje de AI-jubelaars. Dus die worden heel erg van, oh, AI, fantastie, fantastie. Je kan het overal kijken. Ook inderdaad voor de core business praktijk kun je het ook gebruiken. Ik denk altijd immers angst gedreven. Dat is dus niet vanuit een hoop en innovatie. Het is gewoon pure angst dat als je dat niet doet, dat je dan achter komt te liggen. En ik zou willen, ja, ik ben zelf meer van met vertrouwen en liefde naar de wereld kijken. Komt allemaal wel goed. Vooral als we heel erg stilstaan bij van waaruit wij zelf opereren. Dus als je dan gaat kijken naar concurrentiepositie. Ben je vooral zo bezig met die anderen. En binnen mijn tak van sport. Misschien is het ook een luxe positie. Want wij zijn best wel uniek. In Nederland en in Europa. Dus misschien is dat het ook. Dat ik dat gehijg in mijn nek niet zo voel. Dat is heel fijn. Dat is heel fijn. Maar ik vind dat lastig. Want dan ben je zo bezig met anderen. Terwijl je hebt gewoon zelf een kern waar je voor staat. Daar komen we eigenlijk terug bij. Waar sta je voor? Van waaruit doe je dingen? Welke klassieke filosoof zou nou heel erg tegen AI zijn geweest? Jeetje, wat een vraag. Ik weet niet. Hij leeft nog. Habermas. Leeft hij nog? Nee, dat twijfel ik. Volgens mij wel. Zoek hem op. Als hij nog leeft is hij heel oud. Hij heeft... Ik kan er wel twee noemen. Noem de naam nog eens, want het ging heel snel. Jürgen Habermas. ik moet heel vaak aan hem denken ik weet niet wat hij ervan zou zeggen of zegt ik schaam er een beetje voor dat ik even niet weet of hij leeft trouwens sorry Jurgen Habermas hoe dan ook hij heeft het heel erg over de instrumentalisering nee ik gebruik het heel veel we hebben een opleiding gespreksleider data ethiek waarin we mensen opleiden om dit soort gesprekken binnen een organisatie te voeren wil ik toch ook even zeggen dat hij genomineerd was voor de Nederlandse privacy awards gefeliciteerd Waarin we dus heel erg vanuit waarde dat gesprek voeren. En daarin leer ik ook de deelnemers over Jürgen Habermas. Die zegt, je hebt eigenlijk open communicatie. Pardon. Open communicatie is strategische communicatie. En als je open communicatie hebt, dan is dat eigenlijk machtsvrij. Dus dan ga ik met jou in gesprek. Zonder dat ik daar verdere bedoelingen bij heb. Of dat ik jou ergens in een bepaalde richting wil krijgen. En hij zegt, de markt is eigenlijk heel erg vergeven van juist die strategische communicatie. Want ik wil mensen verleiden iets te kopen of iets te doen of wat dan ook. En hij beschrijft heel mooi en daar gebruik ik het ook voor. Hoe eigenlijk steeds meer die strategecommunicatie ook eigenlijk onze privésfeer benadert. Dus je ziet ook, nou je kan ook wel eens ervaren van. Goh is dit nou echt een open en eerlijk en machtsvrij gesprek. Of word ik hier nou gewoon in een hoekje geduwd. Ik hou er zelf helemaal niet van. Dus van de instrumentalisering. En ik denk daar heel vaak aan in termen van AI. Zijn we dan niet iets wat heel menselijk is. En heel open is. En eerlijk en authentiek. Heel erg aan het instrumentaliseren. Want het is zo gericht op efficiëntie. En ik moet ook meteen denken aan het voorbeeld van Klarna. Hebben jullie misschien ook wel gehoord. Die die chatbots inzetten. En dat ze daarmee zijn gestopt. Die wilden eigenlijk geen mensen meer aannemen. Ieder nieuw werk moest door en jij gedaan moet. Precies. En ook rondom de klantenservice. En dat ze er toen achter kwamen. Maar wacht eens even. Binnen de klantenservice komen mensen niet alleen maar om een antwoord te krijgen op een vraag. Het is ook contact, een gevoel bij de organisatie krijgen, een menselijk gezicht, een stukje aandacht, een beetje vriendelijkheid op de dag. Dus daar moet ik dan vaak aan denken. Het is meer dan alleen maar het instrument, ik wil iets van jou. Dus de AI slaat het op een of andere manier zo plat. Dat is één waar ik aan moet denken. De ander wil ik ook nog even noemen, want die gebruik ik ook heel veel. Dat is Hans Jonas, een techniekfilosoof. Die heeft in de jaren zeventig een boek geschreven. En ik zeg wel eens, als iedereen dat boek had gelezen destijds, dan waren we niet enorm in die welvaartsfuik terechtgekomen, waar we nu dan die enorme klimaatcrisis aan te danken hebben. Die natuurlijk al veel eerder is begonnen met de industriele revolutie en zo. Maar goed, het heel enorme denken van het moet allemaal sneller, we moeten meer en meer een bepaalde gretigheid. Hij zegt eigenlijk, als we bezig zijn met technologie, dan moeten we ons altijd de vraag stellen wat dit betekent voor toekomstige generaties. Dus niet alleen maar wat levert het ons hier en nu op. We hebben gewoon een morele plicht aan toekomstige generaties. Wat hij heel mooi doet is dat hij eigenlijk twee ethische denkwijzen of perspectieven. Namelijk gevolgen, ethiek en de deontologie. Misschien voert het misschien te ver om die uit te leggen. Maar die maakt Binti samen. Dus hij zegt we moeten nadenken over de gevolgen. Dat is heel vaak iets wat mensen doen. Dus AI is heel nuttig want dat levert ons iets op. Namelijk dit en dit en dit. En dat vinden we belangrijk. Dus dat moeten we doen. Versus nee, we moeten dat misschien niet doen. Want dat is inherent misschien niet goed of juist wel goed. Hij combineert die twee denkwijzen eigenlijk met elkaar. Dus de een is gericht op de gevolgen en de ander op de aard van de handelingen. Hij zegt, als we hier nu een beslissing maken, hebben we een plicht naar die toekomst toe. En ik denk wel eens, en ik noem het ook heel vaak in praatjes, als we nou naar AI kijken of naar generatief AI of naar willekeurig welk voorbeeld. Als we nou Hans Jonas gebruiken als inspiratiebron, dan denk ik wel dat we er anders naar gaan kijken. Dus als wij nu inderdaad alles laten vervangen door bots of zo, zoals Klarna dan inderdaad bedacht. wat betekent dat niet alleen nu, maar laten we eens kijken naar termijn 10, 15 jaar. Wij kijken ook heel vaak in onze ethische analyse naar perspectieven 100, 150 jaar. En dat weten we, weten het niet. Maar het is denk ik wel goed om even na te denken, is er mogelijk bijvoorbeeld weer een last die we verschuiven? Ja, dus ik hoor ook heel erg kritisch blijven en breder kijken dan het hier en nu en het gemak. Precies, ja, en ook vooral niet, kijk die trein die we eerder noemden, We worden gewoon gevoed door Silicon Valley met een verhaal. En met grote beloften wat het ons allemaal kan brengen. En ik denk dat het gewoon belangrijk is om je bewust te zijn. Dat dat een narratief is dat ons wordt voorgeschoteld. Maar waar je gewoon kritisch naar mag kijken. En dat betekent niet, we moeten het afschieten. Of het is allemaal niet waar, het kan helemaal niks. Maar laten we er realistisch naar kijken. Oké, dit is wat big tech. En ze proberen ons te verleiden het te gebruiken. Dus dat is weer instrumenteel. Dat is niet het oprechte verhaal. Wat kan het ons werkelijk bieden en in hoeverre sluit het dan aan bij wat wij belangrijk vinden? Ik zie Joop al mijn hand gaan. Ik wil nog één vraag nog echt even stellen inderdaad. Want het gaat heel snel. De ontwikkeling gaat heel snel. De technologie gaat heel snel. Het komt op je af. De verhalen komen vanuit Silicon Valley en andere kanten. Hoe en wat kunnen we mensen meegeven en ook onze luisteraars om kritisch te blijven? Want er zijn al genoeg vraagstukken waar mensen druk mee zijn. Hoe zorgen we dat we kritisch blijven? Heb je daar een tip van? Nou ja, ik denk dat je sowieso die drie vragen altijd stellen. Dus wat kan het? En dan moet je ook echt afvragen. Dus dat is dat technisch. Kan het, mag het, is het wenselijk zijn die drie vragen. Kan het is echt, wat kan het? Maar wat kan het ook vooral niet? Dus zoals ik net zei, een taalmodel is een taalmodel en geen kennismodel. Dus je kan het voor het een wel gebruiken, voor het ander niet. Je moet nadenken over de mate van autonomie die je dan toekent aan zo'n systeem. Zo, Mireille Hildebrand zei heel mooi. Dat zijn nog drie vragen. Die krijg je even nog tussendoor. Welk probleem lost het op? Welk probleem lost het niet op? En welke problemen veroorzaakt het? Oh, die laatste is heel mooi. Ja, want dan blijf je ook breder kijken. Want anders denk je meteen, oh, probleem, oplossing, mooi, gefixt, leuk. En we gaan weer door. Nee, breder. Dus dat is die kan het vraag, die mag het vragen. Blijf kritisch ook op de juridische kaders en randvoorwaarden. Soms is er ook sprake van zelfregulering. Kan je ook zelf creëren natuurlijk. En de wenselijkheidsvraag. Dus wat betekent dit nou precies voor ons als organisatie? Voor de mensen waar we voor het doen? Voor de maatschappij als geheel? Nou ja, en ik zou daar ook nog aan toevoegen aan die toekomstige generaties. Zo, ik denk dat dat al heel erg helpt als je langs die drie lijnen... met dan de subvragen van Mireille Hildebrand daarover na gaat denken. En met elkaar over in gesprek gaat. Mooi. Hele mooie. Dankjewel, Pieke, voor al je inzichten. Ik wil nog wel even melden dat je ook je eigen podcast hebt. Klopt. Stilisofie in actie. Ja. Dus als je meer van Pieke wil horen, er staat genoeg. Nieuwe seizoen had je net verteld. Is gestart. Dankjewel. Voor alles wat je verteld hebt. Je hebt het over reflectie. Ik denk dat wij daar ook even de tijd voor moeten nemen. Voor wat je allemaal verteld hebt. Buitengewoon interessant. Dankjewel. Dankjewel. Leuk dat je weer luisterde naar een aflevering. Vergeet je niet te abonneren via je favoriete podcast app. Dan mis je geen aflevering. Tot de volgende keer.

Over de gast

Piek Knijff
Piek Knijff
Directeur bij Filosofie in actie

Piek Knijff is directeur van Filosofie in actie en heeft een achtergrond in de filosofie en onderwijskunde. Hij richt zich op de ethische reflectie rondom technologie en helpt organisaties bij het voeren van zorgvuldige gesprekken over morele vraagstukken. Met zijn expertise in data-ethiek en AI onderzoekt hij de impact van technologie op de maatschappij en de verantwoordelijkheden van organisaties.

Bekijk gastprofiel
Bekijk alle gasten →