Wat leer je in deze aflevering?
Op 14 juni 2023 heeft het Europees Parlement met ruime meerderheid de AI Act aangenomen, de allereerste Europese wetgeving voor veilige en transparante kunstmatige intelligentie. Deze aflevering bespreekt de belangrijkste onderdelen van de wet en wat dit betekent voor organisaties die met AI werken.
Kernbegrippen
- Risicogebaseerde aanpak
- Classificatie van AI-systemen in vier niveaus op basis van potentiële schadelijkheid voor gebruikers en samenleving.
- Foundational models
- Grote taalmodellen zoals ChatGPT die als basis dienen voor diverse AI-toepassingen en extra transparantievereisten hebben.
- Regulatory sandbox
- Gecontroleerde testomgeving waarin organisaties innovatieve AI-technologieën mogen uitproberen onder toezicht voordat marktintroductie.
- Verboden AI-toepassingen
- Specifieke AI-gebruiken zoals emotieherkenning op werkplekken en real-time gezichtsherkenning in openbare ruimtes die niet langer toegestaan zijn.
Transcript
Dit is een AIToday Live Short met vandaag het nieuws over de nieuwe AI-Act, want de leden van het Europees Parlement zijn klaar om te onderhandelen over de allereerste regelroels binnen de EU voor veilige en transparante AI. En dat is groot nieuws, daarom is deze aflevering wat langer dan 5 minuten. Gisteren, op woensdag 14 juni, heeft het Europees Parlement met 499 stemmen voor, 28 tegen en 93 onthoudingen de nieuwe AI Act aangenomen. Ik ben daar erg blij mee dat het Europese parlement heeft ingestemd met de komst van wetgeving over kunstmatige intelligentie. De EU wil grenzen opleggen aan wat kan en mag met AI en deze wet richt zich op makers gebruikers maar ook op aanbieders van AI systemen. Mogelijk gaat de AI Act in 2026 in werking en dat betekent dat je nu moet beginnen met de voorbereiding. Het Europees Parlement wil vooral bijsturen op het gebied van mensenrechten en privacy. Er zijn drie opvallende gebieden die ik wil uitlichten. 1. Er komt een volledig verbod op kunstmatige intelligentie voor biometrische surveillance, emotieherkenning en voorspellende politieinzet. 2. Generatieve AI-systemen zoals ChatGPT en MidJourney moeten bekendmaken dat er inhoud door AI's gegenereerd en drie, AI-systemen die worden gebruikt om kiezers bij verkiezingen te beïnvloeden, worden nu als risicovol beschouwd en daarmee gelden daar hoge eisen en strenge regels voor. Deze regels bevorderen dat AI op de mens gericht is en betrouwbaar is volgens het Europees parlement en het is bedoeld om de gezondheid, veiligheid, fundamentele rechten en democratie te beschermen tegen schadelijke effecten van AI. Zo zijn er verboden AI-praktijken ingesteld en die zijn volgens een risicogebaseerde aanpak. Er zijn vier risiconiveaus. Eén is onaanvaardbaar risico, twee is hoog risico, drie is beperkt risico en vier is minimaal risico. AI-systemen met een onaanvaardbaar risiconiveau voor de veiligheid van mensen zijn verboden. Zoals systemen die worden gebruikt voor bijvoorbeeld sociale scoring, waarbij mensen worden geclassificeerd op basis van hun sociaal gedrag of persoonlijke kenmerken. Europarlementariërs hebben de lijst van onervaarbare systemen uitgebreid, met zoals het gebruik van real-time biometrische identificatiesystemen op publiek toegankelijke plaatsen. Voor vervolging van ernstige misdrijven mag je er trouwens achteraf gebruik van worden gemaakt, maar alleen naar gerechtelijke macht ging. Ook het gebruik van biometrische klassificatiesystemen die gevoelige kenmerken gebruiken zoals geslacht, ras, etniciteit, religie en politieke oriëntatie. Het gebruik van voorspellende politieinzet op basis van profilering, locatie of eerdere criminele gedragingen zijn nu verboden, net als het gebruik van emotieherkenningssystemen bij rechtshandhaving, grensbeheer, werkplek, maar ook onderwijsinstellingen. En als laatste, die ik uit wil lichten, is het ongecontroleerd verzamelen van gezichtsbeelden, van foto's, van internet of bewakingscamera's om gezichtsherkenningsdatabases te creëren, wat in strijd is met mensenrechten en het recht op privacy. We hebben het geval gehad met Clearview, die gewoon het halve internet heeft gedownload, gezocht op foto's en waarschijnlijk staan jouw en mijn foto ook in die database. Europarlementariërs hebben ervoor gezorgd dat de klassificatie van hoogrisicotoepassingen, dat tweede risiconiveau, nu ook ER-systemen omvat die aanzienlijke schade kunnen veroorzaken aan de gezondheid, veiligheid, fundamentele rechten of het milieu van mensen. Hieronder vallen bijvoorbeeld bijvoorbeeld ER-systemen die worden gebruikt om kiezers te beïnvloeden, maar ook recommendation systems die worden gebruikt door sociale mediaplatforms, wel met meer dan 45 miljoen gebruikers. Deze zijn dus ook toegevoegd aan de lijst van hoogrisicotoepassingen. Dus voor deze systemen gelden de strengste eisen en regels. Foundational models, zoals CHED GPT, vallen nu ook onder die hoogrisicosystemen en moeten mogelijke risico's, die we net genoemd hebben, gezondheid, veiligheid, blablabla, beoordelen en beperken. En ze moeten hun modellen registreren in een EU-database voordat ze op de EU-markt mogen worden uitgebracht. Generatieve AI-systemen die zijn gebaseerd op dergelijke modellen moeten nu voldoen aan transparantie vereisten. En dat betekent dus dat zij moeten bekendmaken dat de inhoud door AI is gegenereerd. En dat moet dan ook helpen bij het onderscheid maken tussen zogenaamde deepfake beelden. Dus dit geldt bijvoorbeeld ook voor de mid-journeys, de Dali-2's van deze wereld. En daarbij moeten ze waarborgen bieden tegen het genereren van illegale content. Dus dat wordt best wel wat. Het zal best wel pijnlijk voor ze zijn dat ze, ja, ze moeten gedetailleerde samenvattingen gaan maken ook namelijk van auteursrechtelijk beschermde gegevens. Die moeten ze namelijk ook openbaar maken. Die gegevens die gebruikt zijn voor het trainen van hun modellen. In de media gaat het nu erg over de modellen zoals ChatGPT, maar de transparantie eisen gaan voor veel meer AR modellen gelden. En zelf vind ik dat een hele goede ontwikkeling, want door deze strengere eisen zal er meer onderzoek worden gedaan naar uitlegbare en interpreteerbare AI. Dat is een item waar we het natuurlijk vaker over hebben gehad in de podcast. En dat zal ervoor zorgen dat juiste luie keuze voor blackbox modellen moeten veranderen. Het kan best moeilijk zijn om AI begrijpelijk te maken, maar geloof me, het is echt de moeite waard. Het zorgt ervoor dat we beter snappen hoe AI werkt en dat we eerlijkere keuzes kunnen maken op basis van betrouwbare AI. En dat is nodig, want de Europarlementariërs willen het recht van burgers versterken om klachten in te dienen over AI-systemen en ook de ontvangen uitleg over beslissingen die dan zijn gebaseerd op die hoogrisicosystemen. Vaak wordt het remmen van innovatie als tegenwerping gebruikt voor regulering. Daarom hebben de Europarlementariërs vrijstellingen toegevoegd voor researchactiviteiten en AI-componenten worden versterkt onder open source licenties. Om zo innovatie te stimuleren en het midden- en kleinbedrijf te ondersteunen. De nieuwe wet bevordert de zogenaamde regulatory sandboxes. Het idee achter een regulatory sandbox is om juist die innovatieve technologieën de kans te geven om te laten zien wat ze kunnen doen, maar wel dan op een veilige manier. Het is als een gecontroleerde de omgeving waar mensen kunnen experimenteren en ontdekken zonder dat het meteen overal wordt toegepast. Dus dit helpt de makers te begrijpen hoe de AI werkt, welke problemen ze kunnen tegenkomen en hoe ze die kunnen oplossen voordat ze het iedereen laten gebruiken. Er staat ook wat in over auteursrechten. Dat gaat echt wel groot worden, want namelijk om het hoge risico op inbruk op het auteursrecht tegen te gaan zal de wetgeving, OpenAI en andere ontwikkelaars verplichten om alle werken te publiceren van wetenschappers, muzikanten, illustratoren, fotografen, journalisten die gebruikt zijn als trainingsdata. Ze zullen ook moeten bewijzen dat alles wat ze hebben gedaan om de machine te trainen in overeenstemming is met de wet. En als ze dat niet doen, kunnen ze gedwongen worden om hun applicatie onmiddellijk te verwijderen of krijgen ze een boete tot wel een hoogte van 7% van hun omzet. Deze eisen zullen enorme implicaties hebben voor Microsoft, OpenAI en bijvoorbeeld Google met Bart. Het is nu niet zo dat de wet nu actief is. Nu het Europese parlement groen licht heeft gegeven kunnen de onderhandelingen met de EU lidstaten en de Europese Commissie van start. Zodra hier een compromis is bereikt stemmen de volksvertegenwoordigers en die 27 landen nog een keer over de definitieve wet. Dus zelfs als de ambitieuze doelstelling van de EU om tegen het einde van dit jaar een akkoord over de wet te bereiken, zal deze op zijn vroegst in 2026 in werking treden. Dus in de tussentijd zullen ze, ja denk ik, met de technologiebedrijven om tafel gaan zitten of ze niet vrijwillig zich misschien al willen gaan houden aan deze wetten en regels. Maar goed, de wet komt er en je doet er goed aan om je vast voor te bereiden, want ja, transparantie en verantwoorde toepassing van AI zullen steeds belangrijker worden en het is essentieel om te begrijpen hoe AI werkt en welke impact het kan hebben op onze samenleving. Maar ja, hoe bereid je je voor? Daar gaan we in een regenieren langere aflevering van de podcast over. Dus mis die niet en abonneer je via je favoriete podcast app en krijg een melding bij nieuwe afleveringen. Dankjewel! (C) TV GELDERLAND 2021