Alle afleveringen
S05E54 - Foundational Models: het fundament om AI op te bouwen
S05E54

Foundational Models: het fundament om AI op te bouwen

Seizoen 5 5 min Hosts: Joop Snijder & Niels Naglé
0:00

Wat leer je in deze aflevering?

Waarom Foundational Models de basis vormen van AI-ontwikkeling

Foundational models, zoals ChatGPT en Google Bard, worden steeds populairder in de wereld van AI. Ze vormen de basis voor andere AI-modellen en kunnen op een breed scala aan taken worden toegepast. Ontdek waarom deze modellen zo belangrijk zijn en hoe ze de ontwikkeling van nieuwe AI-toepassingen versnellen.

01
Foundational models als bouwstenen Deze modellen zijn getraind op enorme datasets en vormen de basis waarop specifiekere AI-toepassingen gebouwd kunnen worden, vergelijkbaar met het fundament van een huis.
02
Minder data nodig voor nieuwe toepassingen Doordat foundational models al patronen, vormen en structuren hebben geleerd, heb je veel minder eigen data nodig om nieuwe modellen te trainen of aan te passen aan specifieke wensen.
03
Praktisch voorbeeld met ResNet en GPT-4 ResNet kan snel nieuwe objecten leren herkennen met weinig foto's, en GPT-4 kan met organisatiespecifieke data worden aangepast omdat het de structuur van taal al begrijpt.
04
Snellere innovatie door voortbouwen OpenAI en concurrenten kunnen steeds sneller nieuwe functionaliteiten toevoegen omdat ze doorwerken op bestaande foundational models.

Kernbegrippen

Foundational models
Grote AI-modellen getraind op enorme datasets die als basis dienen voor specifiekere toepassingen.
Transfer learning
Kennis van een getraind model toepassen op nieuwe taken met minder data nodig.
Fine-tuning
Een bestaand model aanpassen aan specifieke organisatiedata of use cases.
Black-box problematiek
Moeilijkheid om uit te leggen hoe AI-systemen tot hun uitkomsten komen.

Transcript

De wereld is in de band van ChatGPT, Midjourney, Google Bard en noem maar op. Prompts worden gedeeld om nog betere resultaten te halen en tips en trucs zijn overal te vinden. Maar volgens mij wordt een hele belangrijke eigenschap van deze modellen over het hoofd gezien. En dat is dat deze modellen zogenaamde foundational models zijn. Dit is een aflevering van AIToday Live Shorts. De actualiteit over AI in 5 minuten. Ik zeg niet voor niets de actualiteit over AI, want OpenAI heeft de afgelopen dagen een vastlijst aan nieuwe functionaliteiten aangekondigd. Je kunt binnenkort plaatjes laten maken met ChatGPT en die kan zelfs letterlijk gaan praten en kan je uitleg gaan geven hoe je een klus klaart samen met tekst en beeld. Ik verwacht van zowel OpenAI als van de concurrentie nog veel meer in de aankomende maanden, omdat het voor ze steeds eenvoudiger wordt om functionaliteit toe te voegen. Ze kunnen doorbouwen op wat ze hebben. Ze hebben namelijk een foundational model gebouwd. En foundational models zijn de bouwstenen van moderne AI toepassingen. Deze modellen zijn getraind op enorme datasets en hebben geleerd om patronen te herkennen in deze data. Ze zijn zo ontworpen om op een breed scala aan taken toepasbaar te zijn en fungeren daarmee als de basis voor meer specifieke modellen. Het belangrijke eigenschap van foundational models is dat ze het mogelijk maken om met minder data juist nieuwe modellen te trainen. Het is als het bouwen van een huis om een stevig fundament. Het fundament zorgt ervoor dat het huis stabiel blijft ongeacht hoe groot of complex het huis ook is. Zo bieden foundational models een solide basis voor verdere ontwikkeling, waardoor het gemakkelijker wordt om nieuwe, meer specifieke modellen op jouw geënt te ontwerpen en te trainen. Een analogie die dit goed illustreert is die van de taal. Als we een nieuwe taal willen leren, beginnen we meestal met de basisprincipes zoals grammatica en de vocabulaire. Maar maten we meer leren en onze vaardigheidsniveau verbeterd, kunnen we ons richten op specifiekere aspecten van de taal zoals spreekvaardigheid, lezen, schrijven. Foundational models werken op een vergelijkbare manier. Deze modellen zijn voorgetraind op enorm hoeveelheden data die je fundament kunnen zijn waarop je door kan bouwen. Laat ik het concreet maken. Een veel gebruikt model in computer vision is ResNet. Dit model kan ontzettend veel verschillende objecten herkennen. Maar wanneer je zelf een product hebt ontwikkeld dat ResNet nog nooit gezien heeft, dan kan het model dit uiteraard niet herkennen. Omdat ResNet al zoveel geleerd heeft over het herkennen van vormen, texturen, kleuren, et cetera, heb je veel minder foto's van je eigen product nodig om deze erbij te trainen. Het model leert sneller nieuwe onbekende objecten te herkennen. Je hebt doorgebouwd op het fundament dat al gelegd is. Zo kun je taalmodellen als GPT-4 gebruiken om deze specifiek te maken naar jouw wensen. Omdat het structuur van taal begrijpt, patronen snapt, is het dus eenvoudiger om nieuwe kennis toe te voegen. Zo kun je kennis, informatie en gegevens uit je eigen organisatie gebruiken om GPT naar jouw wensen te boetseren en zodat het minder algemeen is dat als je het gewoon zo gebruikt, maar juist de context snapt van jouw organisatie. Ik kwam deze week nog het misverstand tegen dat je ontzettend veel data nodig hebt om foundational models bij te trainen. Uiteraard moeten de gegevens die je aanbiedt aan een foundational model van goede kwaliteit zijn en dat kan nog best wel een opgave zijn. Maar zodra je die hebt, die data, kun je als het ware een stevig huis gaan bouwen op het fundament dat voor je neergelegd is, wat natuurlijk enorme kracht is van deze modellen. Maar, zoals jullie waarschijnlijk weten als vaste luisteraar, hecht ik ook heel veel waarde aan de transparantie en uitlegbaarheid van AI-systemen. Op dat gebied schieten de foundational models echt nog wel te kort. Het zijn zogenaamde blackbox-modellen. Omdat deze modellen zo complex zijn en op enorme datasets getraind zijn, is het vaak moeilijk om uit te leggen hoe ze tot hun conclusies komen. Dit kan leiden tot vertrouwensproblemen, kan moeilijk maken om beslissingen te nemen op basis van de uitkomsten van deze modellen. Maar, ondanks deze uitdagingen, bieden foundational models veel potentieel voor AI-ontwikkeling en innovatie. Zijn ze een solide basis voor verdere ontwikkeling en kunnen ze helpen bij het versnellen van de ontwikkeling van AI-toepassingen? Wat mij betreft een veel vergeten eigenschap, die jij nu in ieder geval weet. Dank je wel voor het luisteren. [Muziek] [Muziek] [Muziek]