vrijdag, december 1, 2023
HomeTechnologyDeep Agency laat de gevaren zien van het toepassen van AI in...

Deep Agency laat de gevaren zien van het toepassen van AI in de mode-industrie


Generatieve AI verstoort industrieën – met begrijpelijke controverse.

Eerder deze maand kondigde Danny Postma, de oprichter van Headlime, een AI-aangedreven marketingkopie-startup die onlangs werd overgenomen door Jasper, aan Diep Agentschap, een platform dat hij omschrijft als een ‘AI-fotostudio en modellenbureau’. Met behulp van kunstgenererende AI creëert en biedt Deep Agency “virtuele modellen” te huur vanaf $ 29 per maand (voor een beperkte tijd), waardoor klanten de modellen tegen digitale achtergronden kunnen plaatsen om hun fotoshoots te realiseren.

“Wat is Deep Agency? Het is een fotostudio, met een paar grote verschillen’, legt Postma uit in een reeks tweets. “Geen camera. Geen echte mensen. Geen fysieke locatie … Waar is dit goed voor? Tal van dingen, zoals het automatiseren van content voor social media influencers, modellen voor advertenties van marketeers en e-commerce productfotografie.”

Deep Agency bevindt zich erg in de proof-of-concept-fase, dat wil zeggen… een beetje verveeld. Er zijn veel artefacten in de gezichten van de modellen en het platform plaatst vangrails – opzettelijk of niet – waarrond lichaamsbouw kan worden gegenereerd. Tegelijkertijd is het creëren van modellen door Deep Agency merkwaardig moeilijk te controleren; probeer een vrouwelijk model te genereren dat gekleed is in een bepaalde outfit, zoals die van een politieagent, en Deep Agency kan het gewoon niet.

Desalniettemin was de reactie op de lancering snel – en gemengd.

Sommige Twitter-gebruikers applaudisseerde de technologie, interesse tonend om het te gebruiken voor het modelleren van kleding en kledingmerken. Anderen beschuldigd Postma van het nastreven van een “uiterst onethisch” bedrijfsmodel, het schrapen van foto’s en gelijkenissen van andere mensen en het verkopen voor winst.

De kloof weerspiegelt het bredere debat over generatieve AI, die verbazingwekkende financieringsniveaus blijft aantrekken en tegelijkertijd een groot aantal morele, ethische en juridische kwesties oproept. Volgens volgens PitchBook zullen investeringen in generatieve AI in 2023 $ 42,6 miljard bereiken en in 2026 omhoog schieten naar $ 98,1 miljard. Maar bedrijven als OpenAI, Midjourney en Stability AI zijn momenteel verwikkeld in rechtszaken over hun generatieve AI-technologieën, die sommigen beschuldigen van het repliceren van het werk van kunstenaars zonder ze eerlijk te compenseren.

Diep Agentschap

Beeldcredits: Diep Agentschap

Deep Agency lijkt vooral een gevoelige snaar te hebben geraakt vanwege de toepassing – en implicaties – van zijn product.

Postma, die niet reageerde op een verzoek om commentaar, is niet verlegen over het feit dat het platform zou kunnen concurreren met – en misschien het levensonderhoud van – echte modellen en fotografen zou schaden. Hoewel sommige platforms, zoals Shutterstock, fondsen hebben gecreëerd om inkomsten uit door AI gegenereerde kunst met artiesten te delen, heeft Deep Agency een dergelijke stap niet gezet – en heeft ook niet aangegeven dat het van plan is dat te doen.

Toevallig kondigde Levi’s, slechts enkele weken na het debuut van Deep Agency, aan dat het zou samenwerken met ontwerpstudio LaLaLand.ai om op maat gemaakte AI-gegenereerde modellen te creëren om “de diversiteit aan modellen te vergroten die klanten kunnen zien terwijl ze hun producten dragen.” Levi’s benadrukte dat het van plan was om de synthetische modellen naast menselijke modellen te gebruiken en dat de verhuizing geen invloed zou hebben op de wervingsplannen. Maar het deed vragen rijzen waarom het merk niet meer modellen rekruteerde met de diverse kenmerken die het zoekt, gezien de moeilijkheid die deze modellen historisch gezien hebben gehad om kansen te vinden in de mode-industrie. (Volgens een vragenlijstvanaf 2016 was 78% van de modellen in modeadvertenties blank.)

In een e-mailinterview met TechCrunch merkte Os Keyes, een promovendus aan de Universiteit van Washington die ethische AI ​​bestudeert, op dat modellering en fotografie — en kunst in het algemeen — gebieden zijn die bijzonder kwetsbaar zijn voor generatieve AI omdat fotografen en kunstenaars structurele stroom. Het zijn grotendeels laagbetaalde, onafhankelijke contractanten van grote bedrijven die op zoek zijn naar kostenbesparingen, merkt Keyes op. Modellen zijn dat bijvoorbeeld vaak op de haak voor hoge bureaucommissies (~ 20%) en zakelijke uitgaven, waaronder vliegtickets, groepshuisvesting en het promotiemateriaal dat nodig is om banen bij klanten binnen te halen.

“Postma’s app is – als het werkt – in feite ontworpen om de stoel onder toch al precaire creatieve werkers verder uit te schoppen en het geld in plaats daarvan naar Postma te sturen,” zei Keyes. “Dat is niet echt iets om toe te juichen, maar het is ook niet enorm verrassend … Het feit is dat sociaaleconomisch gezien tools zoals deze zijn ontworpen om de winst verder uit te diepen en te concentreren.”

Andere critici maken bezwaar tegen de onderliggende technologie. State-of-the-art beeldgenererende systemen, zoals het type dat Deep Agency gebruikt, zijn zogenaamde ‘diffusiemodellen’, die leren afbeeldingen te maken op basis van tekstprompts (bijvoorbeeld ‘een schets van een vogel op een vensterbank’) terwijl ze zich een weg banen door op het web geschraapte trainingsgegevens. In de hoofden van kunstenaars gaat het om de neiging van diffusiemodellen om in wezen afbeeldingen te kopiëren en te plakken – inclusief auteursrechtelijk beschermde inhoud – van de gegevens die werden gebruikt om ze te trainen.

Diep Agentschap

Beeldcredits: Diep Agentschap

Bedrijven die verspreidingsmodellen op de markt brengen, hebben lang beweerd dat “redelijk gebruik” hen beschermt in het geval dat hun systemen zijn getraind op gelicentieerde inhoud. (Verankerd in de Amerikaanse wet staat de fair use-doctrine beperkt gebruik van auteursrechtelijk beschermd materiaal toe zonder eerst toestemming van de rechthebbende te hoeven krijgen.) Maar kunstenaars beweren dat de modellen inbreuk maken op hun rechten, deels omdat de trainingsgegevens zonder hun toestemming of toestemming zijn verkregen .

“De legaliteit van een startup als deze is niet helemaal duidelijk, maar wat wel duidelijk is, is dat het tot doel heeft veel mensen werkloos te maken”, zegt Mike Cook, een AI-ethicus en lid van de open onderzoeksgroep Knives and Paintbrushes. vertelde TechCrunch in een e-mailinterview. “Het is moeilijk om over de ethiek van dit soort tools te praten zonder diepere kwesties aan te pakken die te maken hebben met economie, kapitalisme en zakendoen.”

Er is geen mechanisme voor kunstenaars die vermoeden dat hun kunst is gebruikt om het model van Deep Agency te trainen om die kunst uit de trainingsdataset te verwijderen. Dat is erger dan platforms als DeviantArt en Stability AI, die kunstenaars manieren bieden om af te zien van het bijdragen van kunst om kunstgenererende AI te trainen.

Deep Agency heeft ook niet gezegd of het overweegt een inkomstenaandeel in te stellen voor artiesten en anderen wier werk heeft bijgedragen aan het creëren van het platformmodel. Andere leveranciers, zoals Shutterstock, experimenteren hiermee en putten uit een gecombineerde pool om makers te vergoeden wiens werk wordt gebruikt om AI-kunstmodellen te trainen.

Cook wijst op een ander probleem: gegevensprivacy.

Deep Agency biedt klanten een manier om een ​​”digital twin”-model te creëren door ongeveer 20 afbeeldingen van een persoon in verschillende poses te uploaden. Maar het uploaden van foto’s naar Deep Agency voegt ze ook toe aan de trainingsgegevens voor de hogere modellen van het platform, tenzij gebruikers ze daarna expliciet verwijderen, zoals uiteengezet in de serviceovereenkomst.

Het privacybeleid van Deep Agency zegt niet precies hoe het platform omgaat met door gebruikers geüploade foto’s, of zelfs waar het ze opslaat. En er is schijnbaar geen manier om te voorkomen dat malafide acteurs een virtuele tweelingbroer van iemand maken zonder hun toestemming – een legitieme angst in het licht van de niet-consensuele deepfake naaktmodellen zoals Stable Diffusion die zijn gebruikt om te creëren.

Diep Agentschap

Beeldcredits: Diep Agentschap

“In hun gebruiksvoorwaarden staat eigenlijk: ‘U begrijpt en erkent dat vergelijkbare of identieke generaties door andere mensen kunnen worden gecreëerd met behulp van hun eigen prompts.’ Dit vind ik best amusant, want het uitgangspunt van het product is dat iedereen op maat gemaakte AI-modellen kan hebben die elke keer weer uniek zijn”, aldus Cook. “In werkelijkheid erkennen ze de mogelijkheid dat je precies hetzelfde beeld krijgt als iemand anders, en dat je foto’s ook aan anderen worden doorgegeven voor mogelijk gebruik. Ik kan me niet voorstellen dat veel grote bedrijven het vooruitzicht van een van deze dingen leuk vinden.”

Een ander probleem met de trainingsgegevens van Deep Agency is het gebrek aan transparantie rond de originele set, zegt Keyes. Dat wil zeggen, het is niet duidelijk op welke afbeeldingen het model dat Deep Agency aandrijft, is getraind (hoewel de verwarde watermerken in zijn afbeeldingen geven aanwijzingen) – wat de mogelijkheid van algoritmische vooringenomenheid openlaat.

Een groeiend lichaam van onderzoek heeft raciale, etnische, gender- en andere vormen van stereotypering opgedoken in beeldgenererende AI, inbegrepen in het populaire Stable Diffusion-model, ontwikkeld met ondersteuning van Stability AI. Deze maand publiceerden onderzoekers van AI-startup Hugging Face en de Universiteit van Leipzig een hulpmiddel wat aantoont dat modellen zoals Stable Diffusion en OpenAI’s DALL-E 2 de neiging hebben om afbeeldingen te produceren van mensen die er blank en mannelijk uitzien, vooral wanneer gevraagd wordt om mensen in gezaghebbende posities af te beelden.

Volgens tegen Chloe Xiang van Vice, genereert Deep Agency alleen afbeeldingen van vrouwen, tenzij je een betaald abonnement koopt – een problematische vooringenomenheid. Bovendien, schrijft Xiang, neigt het platform naar creëren blonde blanke vrouwelijke modellen, zelfs als u een afbeelding selecteert van een vrouw van een ander ras of gelijkenis in de vooraf gegenereerde catalogus. Het veranderen van het uiterlijk van een model vereist aanvullende, niet zo voor de hand liggende aanpassingen.

“Beeldgenererende AI is fundamenteel gebrekkig omdat het afhangt van de representativiteit van de gegevens waarop de beeldgenererende AI is getraind”, zei Keyes. “Als het voornamelijk blanke, Aziatische en lichtgekleurde zwarte mensen omvat, zal alle synthese in de wereld geen vertegenwoordiging bieden voor mensen met een donkere huidskleur.”

Ondanks de flagrante problemen met Deep Agency, ziet Cook het of soortgelijke tools niet snel verdwijnen. Er is gewoon te veel geld in de ruimte, zegt hij – en hij heeft geen ongelijk. Naast Deep Agency en LaLaLand.ai, halen startups zoals ZMO.ai en Surreal grote VC-investeringen binnen voor technologie die virtuele fotomodellen genereert, ethiek is verdoemd.

“De tools zijn nog niet echt goed genoeg, zoals iedereen die de Deep Agency-bèta gebruikt kan zien. Maar het is slechts een kwestie van tijd’, zei Cook. “Ondernemers en investeerders zullen hun hoofd blijven stoten tegen dit soort kansen totdat ze een manier vinden om een ​​van hen te laten werken.”



RELATED ARTICLES

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in

- Advertisment -
Google search engine

Most Popular

Recent Comments