In een recente aflevering van de podcast AIToday Live bespreekt host Joop Snijder de historische voorlopers van moderne AI-agents. Hij laat zien dat de principes achter hedendaagse autonome systemen veel ouder zijn dan vaak wordt gedacht. Snijder beschrijft vier historische systemen die verrassende overeenkomsten vertonen met moderne AI-agents: 1. **De waterklok van Yi Xing (725 n.Chr.)** - Deze Chinese uitvinding gebruikte feedbackmechanismen om de waterstroom te reguleren en zo nauwkeurige tijdmeting mogelijk te maken. Het systeem monitorde zichzelf en corrigeerde automatisch voor variaties. 2. **Het Antikythera-mechanisme (2e eeuw v.Chr.)** - Dit Griekse tandwielsysteem verwerkte één input (de draaiing van een hoofdas) tot meerdere outputs zoals maanfasen en planetaire posities. Een vroeg voorbeeld van parallel processing. 3. **Het Jacquard-weefgetouw (na 1804)** - Deze Franse uitvinding gebruikte ponskaarten als programmeerbare instructies om complexe weefpatronen te produceren. Het vertaalde symbolische input naar fysieke acties. 4. **Het telegraafnetwerk (19e eeuw)** - Operators werkten volgens protocollen die gedistribueerde besluitvorming mogelijk maakten. Ze hadden autonomie binnen duidelijke grenzen en konden zich aanpassen aan veranderende omstandigheden. Snijder identificeert vier rode draden door deze historische voorbeelden: 1. Feedback loops voor zelfcorrectie 2. Gelaagde architectuur voor stabiliteit 3. Autonomie binnen duidelijke grenzen 4. De balans tussen complexiteit en betrouwbaarheid De podcast concludeert dat moderne AI-agents niet zozeer een revolutionaire sprong zijn, maar eerder een volgende stap in een ontwikkeling die al millennia gaande is. Dit biedt perspectief en leermogelijkheden bij de verdere ontwikkeling van autonome systemen. De podcast AIToday Live wordt gehost door Joop Snijder (CTO bij Aigency) en Niels Naglé (Chapter Lead Data & AI bij Info Support) en is te beluisteren op Spotify, Apple Podcasts en andere podcast-platforms.
Hoi, leuk dat je weer luistert naar een korte aflevering van AIToday Live. Mijn naam is Joop Snijder en vandaag heb ik iets aardigs voor je. Ik wil je meenemen in een geschiedenisles rondom agents. AI agents zijn de nieuwste revolutie in technologie, dat lees je dan overal. Maar wat als ik je vertel dat we als mensen al meer dan 2000 jaar op zoek zijn naar het bouwen van geautomatiseerde systemen? Die eigenlijk best wel lijken op agents. Ik dacht, het is misschien best wel eens leuk om je daarin mee te nemen. Systemen die zelfstandig taken uitvoeren, zich aanpassen aan omstandigheden en beslissingen nemen zonder menselijke tussenkomst bij elke stap. De agents. Dus ik neem je mee door de geschiedenis en laat je zien dat de principes achter deze moderne AI-agents, van feedback loops tot autonome besluitvorming. Misschien helemaal niet zo heel nieuw zijn als we denken. Want de fundamentele principes zijn eigenlijk best wel oud. Heel oud. Ik denk nog veel ouder dan dat je denkt. Want nou laten we eerst eens beginnen van wat maakt een agent eigenlijk een agent? Het neemt informatie op, verwerkt die volgens interne logica, past zich aan op basis van feedback en produceert output die reageert op veranderende omstandigheden. Dat is eigenlijk heel platgeslagen. En dat patroon hebben ingenieurs al eeuwen toegepast. Dus laten we beginnen in de 8e eeuw in het oude China. Daar ontwikkelde de monnik en ingenieur Yi Xing in het jaar 725 iets opmerkelijks, namelijk een geavanceerde mechanische waterklok. Deze waterklok was een belangrijke verbetering op eerdere versies en werd gebruikt voor astronomische tijdsmeting. Het werkingsprincipe was namelijk heel slim. Er waren meerdere containers boven elkaar geplaatst en water stroomde van het ene reservoir naar het andere met een constante snelheid. En in de onderste bak dreeft een vlotter. En een vlotter die er ook voor zorgt in je wc, dat die stopt met stromen. Dat komt dan automatisch omhoog. Hier had je dus in de onderste bak dreven vlotter. Met een verticale stok waarop markeringen stonden. Terwijl het water dan steeg, bewoog de vlotter omhoog en kon je dus de tijd aflezen. Maar het geniale zat hem in wat Yi Xing had opgelost, namelijk het feedbackprobleem. Bij simpele waterklokken nam de stroomsnelheid in naam af naarmate het reservoir leeg raakte. Daar kan je je wat bij voorstellen. Dus de waterdruk veranderde. Dus de tijd klopte niet meer. Yi Xing loste dit op met een gemechaniseerd systeem dat de waterstroom reguleerde. Het systeem hield zichzelf stabiel. Het monitorde zijn eigen werking en corrigeerde automatisch voor variaties. En dat is precies zoals moderne AI agents feedback loops gebruiken om hun output te verbeteren. En kijk echt naar de architectuur van die waterklok. Dus meerdere lagen waarbij elke laag het volgende voede. Informatie stroomde door het systeem. Bij elke stap werd het verwerkt en het eindresultaat was daardoor stabieler dan wat een enkele laag kon produceren. En dat werkt net zoals onze moderne neurale netwerken, hoe die werken met zogenaamde multiple processing layers. Deze waterklok bewaarde dus ook een state. Dus de positie van de vlotter toonde letterlijk de huidige toestand van het systeem. AI agents doen hetzelfde. Ze onthouden de context, eerdere interacties, hun huidige positie in een taak. En dan de trade-off. De waterklok was wel traag, maar nauwkeurig. Dus meer verwerkingsstappen betekende tragere respons, maar hogere betrouwbaarheid. En diezelfde balans. Dat zie je dus ook in de moderne AI-systemen. Dus een balans tussen snelheid en precisie. Zet je het thinking-mechanisme aan bij een taalmodel. En duurt het langer voordat je antwoord krijgt. Maar verhoogde dus ook de kans op nauwkeurigheid. Nu springen we naar de tweede eeuw voor Christus, naar een Grieks schip dat zonk voor de kust van Antikythera, tenminste als je het zo uitspreekt. En in dat wrak vonden duikers in 1901 iets opmerkelijks, namelijk een mechanische computer. En het Antikythera-mechanisme was een tandwielsysteem. Dat ook weer astronomische posities en eclipsen voorspelde. En hier wordt het interessant voor ons verhaal. Het mechanisme nam namelijk één input. De draaiing van een hoofdas, maar het produceerde tegelijkertijd meerdere outputs. Zowel de maanfase, planetaire posities, kalenderdata en dus eclipsen. Een vorm van parallel processing, al ruim voor de tijd van computers. En moderne AI agents, die werken precies zo. Dus één vraag. Het brandt leidt tot parallel verwerken van meerdere subtaken. Een AI-assistent analyseert tegelijkertijd de intentie, zoekt relevante informatie, checkt feiten en formuleert een antwoord. En nog iets, dit mechanisme wat ze gevonden hadden, wist tussen aanhalingstekens impliciet welke berekeningen voorrang moesten krijgen. Dus sommige tandwielen waren groter, liepen sneller en hadden meer invloed op het eindresultaat. Net zoals agents prioriteit geven aan taken en beslissingen die eerst moeten gebeuren. De ingenieurs die dit bouwden hadden geen computers, geen programmeercode, geen AI, maar ze implementeerden wel dezelfde logica. Dus meerdere processen parallel laten werken om een intelligent resultaat, om tot een intelligent resultaat te komen. We springen een stukje weer naar voren. En dat is na 1804. Naar Frankrijk. Daar had je Joseph-Marie Jacquard. En die ontwikkelde een weefmachine die. een soort van ponskaarten inleest met instructies voor patronen. En dat is eigenlijk best wel spannend, want dit systeem interpreteerde wat je dan noemt symbolische input. En vertaalde dat naar fysieke acties. En de ponskaarten waren programmeerbare instructies. De eerste vorm van wat we nu misschien wel software zouden noemen. En hoe werkte dat? Een gat in de kaart betekende til deze draad op. Geen gat betekent laat deze draad zakken. Het weefgetouw laste instructies, vertaalde ze naar bewegingen en produceerde patronen die veel te ingewikkeld waren voor handmatige bediening. Nou, vergelijk dat nou eens met onze moderne AI-agents. En jij geeft een prompt, symbolische instructies in natuurlijke taal. De agent interpreteert wat je bedoelt, vertaalt dat naar concrete acties en voert een reeks stappen uit om het resultaat te bereiken. En ook wel heel gaaf. Het Jacquard weefgetouw was zelfs modulair. Je kon kaarten verwisselen en direct een ander patroon weven, net zoals je agents kunt herprogrammeren met andere instructies om andere taken uit te voeren. Laatste wat ik wil meegeven in deze toch wel een grappige geschiedenisles, is de 19e eeuw, het tijdperk van de Telegraaf. En dan niet de krant, maar dat ding waar je met elkaar mee komt. Kond communiceren. Dus wereldwijd ontstond er een netwerk van stations die berichten doorstuurden. En hier zie je een heel mooi voorbeeld van gedistribueerde besluitvorming. Dus. De telegraafoperators volgen de protocollen. Als bestemming X niet bereikbaar is, probeerden aan route Y. En als I ook niet werkt, sla het bericht op en probeer het later opnieuw. En dit is decision making onder onzekerheid. Dat is een moeilijke term. Het systeem paste zich aan wanneer de situatie veranderde. De operators hoefden niet voor elk bericht toestemming te vragen aan een centrale autoriteit. Deze hadden een vorm van autonomie binnen duidelijke grenzen. Moderne AI-agents werken hetzelfde. Ze krijgen een doel, een set regels en de vrijheid om binnen die grenzen zelfstandig keuzes te maken. Als het doel faalt, proberen ze een alternatief. En als een subtaak mislukt, passen ze hun workflow aan. Het verschil tussen 1850 en nu, best wel groot natuurlijk, dus de complexiteit van de beslissingen en de snelheid waarmee ze genomen worden. Maar. In zekere zin is het principe autonome agents die binnen regels opereren en zich aanpassen aan omstandigheden, die is eigenlijk best wel hetzelfde. Wat is nou eigenlijk de rode draad door al deze voorbeelden? Ten eerste de feedback loops. De systemen die hun eigen werking monitoren en corrigeren, die zijn niet nieuw. Blijkbaar bouwen ze al 2000 jaar. Ten tweede, de gelaagde architectuur. Of het nu waterreservoirs zijn of neurale netwerken. Principe hetzelfde. Meerdere verwerkingslagen maken systemen stabieler en betrouwbaarder. En natuurlijk de autonomie binnen grenzen. En het laatste natuurlijk. De trade-off, het balans tussen complexiteit en betrouwbaarheid. Meer autonomie betekent meer potentiële fouten tenzij je goede feedbackmechanismen hebt. Kijk, de grote vraag nu is hoe autonoom mogen onze agents zijn? Hoe zorgen we voor goede feedback en hoe balanceren we tussen snelheid en nauwkeurigheid? De antwoorden staan misschien niet eens helemaal in de toekomst, maar liggen ze zelfs een beetje in het verleden. Dus ingenieurs hebben deze problemen al honderden jaren geleden opgelost, met hele andere middelen, maar toch best wel met dezelfde principes. Best wel geinig. De belangrijkste les van vandaag, AI agents zijn misschien niet eens echt een hele sprong in het onbekende. Ze zijn misschien wel de volgende stap in een ontwikkeling die al millennia oud is. En misschien is dat ook wel goed nieuws, want dat betekent dat we kunnen leren van wat werkte en wat niet werkte in het verleden. We hoeven niet per se het wiel opnieuw uit te vinden. Ik hoop dat ik je een beetje perspectief heb kunnen geven op waar we misschien nu staan met de AI agents en de geschiedenis die daaraan vooraf is gegaan. Dat was het voor deze week. Dankjewel voor het luisteren naar AIToday Live. Vergeet je niet te abonneren via je favoriete podcast app. Dan mis je geen aflevering. Tot de volgende keer.