A causa della rapidissima evoluzione dei modelli di IA (Intelligenza Artificiale) generativa, è diventato estremamente facile rubare il lavoro degli artisti online.
Oggi, chiunque disponga di un hardware adeguato ha la possibilità di addestrare modelli di IA generativa facilmente reperibili utilizzando immagini di qualsiasi artista senza il suo consenso, per poi generare opere che imitano il suo stile.
Nonostante siano già in corso procedimenti come l'AI Act per regolarizzare queste tecnologie, gli artisti online rimangono enormemente esposti al rischio di impersonazione o furto dei propri lavori, arrivando perfino ad essere sostituiti sul posto di lavoro.
Nel momento in cui l'IA generativa fatica ad essere regolata, spetta agli artisti stessi prendere delle contromisure per difendere il proprio stile dall'imitazione non autorizzata.
È per questo motivo che, assieme alle IA generative, si sta evolvendo anche l'Adversarial Machine Learning, che ha lo scopo di "ingannare" un modello di IA per far sì che produca risultati diversi da quelli attesi.
Qui entrano in gioco strumenti come Glaze, Mist e Anti-DreamBooth, il cui scopo è impedire che un modello di IA generativa riesca ad estrarre qualsiasi informazione significativa sullo stile e/o sui soggetti rappresentati in un'immagine.
Nonostante le ottime premesse, va specificato che non sempre questi strumenti sono facili da utilizzare per un artista qualsiasi: così come sono necessarie schede grafiche (GPU) adeguate per addestrare un modello di IA, è necessaria altrettanta potenza computazionale per applicare queste protezioni, rendendole poco accessibili per artisti con risorse limitate.
Il problema più grande, però, è un altro: allo stato attuale, è stato dimostrato che la protezione offerta da questi strumenti è molto fragile e può essere rimossa fin troppo facilmente.
Qui puoi trovare il paper di riferimento per questo progetto che descrive nel dettaglio queste limitazioni: Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI (Robert Hönig, Javier Rando, Nicholas Carlini, Florian Tramèr)
Questo, però, non dovrebbe scoraggiarci: l'Adversarial Machine Learning è una guerra combattuta da entrambe le parti, e strumenti come Glaze, Mist e Anti-DreamBooth vengono tutt'ora aggiornati periodicamente per essere resi più robusti contro le vulnerabilità note.
Le immagini che trovi nel questionario sono state generate con un modello open-source, utilizzando immagini protette da più strumenti contemporaneamente. Il nostro progetto si pone l'obiettivo di valutare l'efficacia di queste protezioni combinate.