Alle afleveringen
S06E48 - Profiteren van Google's AI-fouten
S06E48

Profiteren van Google's AI-fouten

Seizoen 6 8 min Hosts: Joop Snijder & Niels Naglé
0:00

Wat leer je in deze aflevering?

In deze aflevering van AIToday Live verkennen we de verrassende en soms gevaarlijke antwoorden die Google's AI overview functie heeft gegeven op vragen van gebruikers. Van het advies om dagelijks stenen te eten tot het gevaarlijk onderschatten van de risico's van het achterlaten van een hond in een warme auto, we duiken in de fouten en leren lessen over de implementatie van AI in organisaties. We bespreken ook vergelijkbare misstappen van andere technologiebedrijven en benadrukken het belang van zorgvuldigheid en ethische overwegingen bij het omarmen van AI-technologie.

Kernbegrippen

AI Hallucination
AI-model genereert feitelijk onjuiste of onlogische informatie als zou het waar zijn.
Responsible AI
Zorgvuldige implementatie van AI met aandacht voor veiligheid, nauwkeurigheid en ethische implicaties.
AI Validation
Proces om AI-gegenereerde output kritisch te controleren voordat publicatie of gebruik.
Deployment Risk
Gevaar van snelle marktintroductie van AI-functionaliteit zonder voldoende testen en expertise.

Transcript

Hoeveel stenen moet je eten per dag? En wat is het advies als je je depressief voelt? De antwoorden die Google met haar AI overview functie gaf zijn soms hilarisch, bizar maar toch ook gevaarlijk. In deze aflevering geef ik voorbeelden van AI antwoorden van Google. Niet om Google uit te lachen, maar vooral wat we kunnen leren van de aanpak van Google en een voorbeeld hoe je AI niet invoert in je organisatie. Je luistert naar een korte aflevering van AIToday Live waarin we onderwerpen over kunstmatige intelligentie behandelen die interessant zijn ongeacht je technische achtergrond. Ik ben Joop Snijder, CTO bij Aigency. Google heeft AI overviews geïntroduceerd in de VS. In tegenstelling tot chatbots zoals ChatGPT geeft AI overviews geen output gebaseerd op trainingsdata alleen, maar tonen ze informatie die ondersteund is door gebruik te maken van de top zoekresultaten. Zelf zeggen ze dat ze dit doen om de gebruikers tevredenheid te verhogen en complexere zoekvragen mogelijk te maken. Maar al snel doken er nauwkeurige en vreemde resultaten op die best wel veel rumoer veroorzaakten. Bijvoorbeeld bij de vraag "hoeveel stenen moet ik eten?" Bizar toch? Werd als antwoord gegeven dat volgens een geoloog van de Berkeley universiteit je minstens één steen per dag moet eten. Met daar achteraan dat stenen een bron van mineralen en vitamine zijn. Klinkt hilarisch, maar met de toevoeging dat het geschreven is door een geoloog van de universiteit wordt het misschien minder grappig. Maar het gekke is, het antwoord waar dit op gebaseerd is, het artikel waar dit op gebaseerd is, blijkt juist een grap te zijn. De bron is namelijk een artikel van de Amerikaanse satirische site The Onion te zijn. Vergelijkbaar met onze Nederlandse websites De Speld en Nieuwspaal die satirische nepnieuws maken. Zou je denken, foutje, kan gebeuren met de AI toch? En de meeste mensen zullen toch wel snappen dat je beter geen stenen kunt eten. Maar goed, ander voorbeeld. Bij de vraag "is het oké om je hond in een warme auto te laten?" krijg je een bevestigend antwoord en een hele mooie tabel met waarde tot welke temperatuur je je hond in de auto kan laten. Sterker nog, eronder staat "laten we de hond lekker in deze warme zomer in de auto laten". En in die tabel staat doodleuk dat bij een buitentemperatuur van bijna 30 graden je de hond gerust 10 minuten in de auto kan laten, want dan is de temperatuur in de auto nog steeds gelijk. 30 graden. In de praktijk is de temperatuur dan al 10 graden gestegen en na een half uur is het kokend heet in de auto. Levensgevaarlijk dus. En ieder jaar zijn er mensen die hun hond in de auto laten bij warm weer, dus betrouwbare informatie is in deze cruciaal. Dit zijn slechts 2 voorbeelden. Zo krijg je ook te lezen dat als je kip tot 38 graden verhit dat het veilig is, dat je best na kunt denken om van de Golden Gate brug af te springen als je depressief bent en dat je benzine kan gebruiken om je spaghetti lekker pittig te maken. Google beroept zich op wat zij dan noemen "slechte vragen, misinterpretatie, slechts klein deel van de antwoorden is zo bla bla bla bla bla". Maar wat we zien is toch echt wel een patroon. En wel een patroon van het overhaast uitbrengen van functionaliteit. Google kwam ook met een plaatjesgenerator waarbij ze bij ieder plaatje waar mensen op zouden moeten komen diversiteit erop plakten. Door te zeggen "oh ja, er moet altijd diversiteit zijn" kreeg je de meest aparte resultaten. Het resulteerde in zwarte mensen in nazi-uniformen als je vroeg naar plaatjes te genereren van soldaten uit de Tweede Wereldoorlog. En zo hadden ze nog veel meer hele knullige, slordige, maar vooral ook verontrustende fouten. Of het aankondigen van modellen of functionaliteiten die we een half jaar later nog niet gezien hebben. Het is een patroon. En waarom? Ik denk dat Google bang is om de boot te missen. Ze haasten om er niet achter te blijven. En zoals je weet is angst een slechte raadgever. We willen te snel te graag aanhaken en vergeten dat zorgvuldigheid heel belangrijk is. Het zorgt alleen maar voor dat het vertrouwen in je producten afneemt. En wat kunnen wij er nou van leren? Dat haast en angst van achterblijven onverstandig is. Als je AI omarmt in je organisatie moet de technische expertise op orde zijn. Zorgen dat je uitkomsten van AI kan beoordelen en dat je niet, net als Google, je ethische team maar even ontmantelt zodat je geen weerwoord hebt bij mogelijke problemen. Natuurlijk wil je snel vooruit. Maar wel gedegen toch? En is Google dan de enige die kampt met dit probleem? Nee hoor. Ik heb nog wel een voorbeeld voor je. In de VS heb je namelijk de NewsBreak App. Dit is de meest gedownloade news app in de VS en die ligt ook onder vuur omdat ze AI gebruiken. Want sinds 2021 zijn er minstens 40 incidenten van misinformatie geweest die verband houden met de app. Wat heeft geleid tot echte gevolgen in de samenleving. In twee op AI gebaseerde verhalen op deze NewsBreak App werd bijvoorbeeld ten onrechte vermeld dat in Pennsylvania gevestigde liefdadigheidsinstelling een 24 uur gezondheidskliniek voor daklozen werd georganiseerd. Super mooi natuurlijk. Maar het was niet waar. Daklozen kwamen wel daardoor naar deze locaties lopen om enorm teleurgesteld te raken dat er helemaal geen kliniek was. Een ander voorbeeld gaat over een in Colorado gevestigde voedselbank, Food to Power, waarbij News Break drie keer ten onrechte in drie verschillende maanden vermeldde wanneer voedsel gratis zou worden uitgedeeld. De voedselbank moest de mensen die naar aanleiding van deze nep-artikelen opkwamen dagen het probleem uitleggen en hen naar huis sturen zonder het voedsel dat ze verwachten. Erg treurig dus. Moraal van het verhaal. Start met AI in je organisatie en laat je niet door deze gevallen tegenhouden. Maar leer van de fouten van anderen. Wat we hebben gezien met Google en NewsBreak. Wees verstandig en focus op zowel de mogelijkheden van de technologie als de implicaties. Zorg voor voldoende expertise en wees geen Google. Dat laat ik me duidelijk. Op naar mooie, goede, nauwkeurige functionaliteiten met AI. Dankjewel voor het luisteren naar deze aflevering van AIToday Live. Vergeet je niet te abonneren via je favoriete podcast app. Tot de volgende keer! [Muziek]