AIToday Live Shorts presenteert een nieuwe AI-toepassing genaamd DragGAN AI, ontwikkeld door onder andere het Max Planck Instituut. DragGAN AI maakt het mogelijk om eenvoudig foto's aan te passen door simpelweg over de afbeelding te slepen en elementen te manipuleren zoals gezichtsuitdrukkingen, objecten en landschappen. Het concept van DragGAN is gebaseerd op Generative Adversarial Networks (GANs) waar twee netwerken samenwerken om realistische afbeeldingen te genereren.Hoewel DragGAN AI indrukwekkend is, zijn er beperkingen zoals het feit dat het voornamelijk goed werkt met foto's uit de trainingsdata. Ook zijn er discussies rondom privacy en persoonlijkheidsrechten door de mogelijkheid om valse poses en uitdrukkingen te creëren. Op dit moment is er nog geen beschikbare applicatie voor gebruik.Het idee dat Photoshop overbodig wordt door deze technologie lijkt voorbarig. Het is waarschijnlijker dat DragGAN AI geïntegreerd zou kunnen worden in Photoshop als een extra functie. Kortom, DragGAN AI is een interessante technologie met veel potentieel voor fotobewerking, maar het heeft ook zijn beperkingen. Het is iets om in de gaten te houden voor toekomstige ontwikkelingen in fotobewerking en AI.\n\nStuur ons een berichtAigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.Info SupportInfo Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
Luister naar een nieuwe AIToday Live Short. Mijn naam is Joop Snijder, CTO bij Aigency. En vandaag wil ik het hebben over... DragGAN AI. Een nieuwe manier van fotobewerking. Sommigen zeggen... Nou, misschien is Photoshop wel dood. Vanwege deze nieuwe manier van AR en fotobewerking. Laten we eens kijken of dat zo is. En eerst eens even induiken wat is het? Hoe werkt het? en daarna zal ik aangeven wat ik ervan vind. Nou, DragGAN is een nieuwe AI-app gemaakt door onder andere het Max Planck instituut waarmee je eenvoudig foto's kunt aanpassen door over de afbeelding te slepen. Zo simpel is het. Kijk, je klikt een punt aan op een gezicht en laat bijvoorbeeld het hoofd draaien of je laat bijvoorbeeld de persoon lachen. Als je op de mondhoeken klikt kan je gewoon omhoog trekken en daarmee laat je de persoon lachen. Dit soort aanpassingen kunnen ook met objecten zoals auto's om die te draaien of landschappen waar je de top van de berg aanklikt, omhoog trekt en daarmee vergroot je de berg. Of je kan de pose van het dier veranderen. Dit zorgt best wel voor wat ophef, ik weet niet of je het gezien hebt op social media. Dit alles naar aanleiding van het paper dat heet Drag your GAN. GAN schrijf je als G A N. Interactive Point Based Manipulation on the Generative Image Manifold. Oftewel in het Nederlands, sleep je GAN, interactieve manier om puntengebaseerde manipulatie op generatieve delen van plaatjes te verwijzigen. Hartstikke cool. Waarom? Waarom? Omdat je namelijk ook niet zichtbare elementen zichtbaar kan maken. Ze hebben een filmpje getoond waarbij je het hoofd van een leeuw close-up ziet. Ze openen de bek en dan kijk je ook in de bek van de leeuw en je ziet dan ook gewoon de grote tanden. Die natuurlijk helemaal niet op de foto aanwezig waren. Wat zijn nu GANs? Laten we het daarover hebben op een manier die gemakkelijk te begrijpen is. Stel je voor dat je van tekenen houdt en heel goed wilt worden in het tekenen van dieren. Maar soms loop je vast omdat je niet weet hoe je het dier er precies uit kunt laten zien. Zou het dan niet geweldig zijn als je een speciale vriend had die je kon helpen je tekeningen te verbeteren? Daar komen GANS om de hoek kijken. GAN staat voor Generative Adversarial Network. Het is alsof je twee vrienden hebt die samenwerken om je te helpen beter te tekenen. De eerste vriend wordt de generator genoemd. Het is de taak van de generator om nieuwe tekeningen van dieren te maken. Maar in het begin zijn deze tekeningen misschien niet erg goed. Ze zien er misschien helemaal niet uit als echte dieren. Dat is oké, want de generator is net aan het leren. Hier komt de tweede vriend, de discriminator. Die komt dan op de hoek kijken en die is erg goed in het onderscheiden van echte dierenfoto's en nepfoto's. Of neptekeningen, zou ik eigenlijk moeten zeggen. Dus de discriminator kijkt naar tekeningen van de generator en geeft feedback. Er staat, hmm deze tekening ziet er wel niet nep uit, probeer maar opnieuw. De generator luistert naar de feedback van de discriminator en probeert een betere tekening te maken. Het blijft oefenen en wordt elke keer beter. En de discriminator blijven naar de nieuwe tekeningen kijken en feedback geven totdat de tekeningen van de generator steeds meer op echte dieren gaan lijken. Dit spel blijft de hele tijd heen en weer gaan en ze proberen elkaar te slim af te zijn waardoor je uiteindelijk dus hele goede dieren kan tekenen. Dat is dus de basis om dit soort technieken te gebruiken en dit soort dingen te maken. Misschien ken je de website "this person does not exist" waarbij je iedere keer als je de pagina ververst, krijg je een nieuwe foto van de mensen zien en die zijn allemaal gegenereerd met dit soort GANs. Dus het model heeft geleerd om hele goede portretten te maken. Dat Dragan dat ziet er echt wel heel gaaf uit. Je kan zelfs delen van een foto selecteren en precies op dat deel wijzigingen aanbrengen en de rest blijft dan fixed eigenlijk. Dus je pakt dan alleen dat deel. Ik denk dat het een heel erg krachtige middel is. Maar ze schrijven zelf in het paper dat er aardig wat limitaties en discussies zijn. Ten eerste, het is nog een soort van web app waarbij je je foto in kan geven. En hij werkt vooral heel goed op de data die in de trainingsdata zit. Heb jij nou een foto waar ze helemaal niet op hebben getraind, op dat soort foto's, dan gaat hij helemaal de mist in en dan krijg je ook gewoon echt lelijke structuren erbij. Als discussie zeggen ze ook van ja, moet je eens kijken, je kan natuurlijk allerlei valse poses maken, uitdrukkingen, vormen van mensen en je moet dus wel strikt omgaan met persoonlijkheidsrechten en privacyregels respecteren. In mijn beleving is het vooral nog een paper met gave video's die de mogelijkheden demonstreren van deze techniek. Er is nog geen applicatie die je echt kan proberen. Photoshop dood, zeker niet. Sterker nog, lijkt me eerder dat ze dit gaan integreren bij Photoshop als het goed genoeg werkt. Photoshop kent al neural filters die al dan niet goed werken en die ze in preview uitproberen. Dus een stap naar kunnen en naar een werkend product is denk ik nog best wel groot. [Muziek]