Parliamo di...

Gli artisti intentano un'azione legale collettiva contro le società di generazione di immagini AI

#17Gennaio  #BizIT  #Policy  #AI  #deviantART 

Contenuto originale di Ars Technica - All content
Alcuni artisti hanno iniziato a intraprendere una battaglia legale contro il presunto furto di miliardi di immagini protette da copyright utilizzate per addestrare generatori di arte AI e riprodurre stili unici senza compensare gli artisti o chiedere il consenso.
Un gruppo di artisti rappresentati dallo Studio Legale Joseph Saveri ha intentato una class-action federale statunitense a San Francisco contro le aziende di AI-art Stability AI, Midjourney e DeviantArt per presunte violazioni del Digital Millennium Copyright Act, violazioni del diritto di pubblicità e concorrenza illecita.
Gli artisti che agiscono - Sarah Andersen, Kelly McKernan, Karla Ortiz - "cercano di porre fine a questa palese ed enorme violazione dei loro diritti prima che le loro professioni vengano eliminate da un programma per computer alimentato interamente dal loro duro lavoro", secondo il testo ufficiale del denuncia presentata al tribunale.
Utilizzando strumenti come Stable Diffusion di Stability AI, Midjourney o il generatore DreamUp su DeviantArt, le persone possono digitare frasi per creare opere d'arte simili agli artisti viventi. Dall'emergere mainstream della sintesi di immagini AI nell'ultimo anno, le opere d'arte generate dall'IA sono state molto controverse tra gli artisti, scatenando proteste e guerre culturali sui social media.
Una notevole assenza dall'elenco delle società elencate nella denuncia è OpenAI, creatore del modello di sintesi delle immagini DALL-E che probabilmente ha dato il via all'arte dell'IA generativa mainstream nell'aprile 2022. A differenza di Stability AI, OpenAI non ha rivelato pubblicamente l'esatto contenuto del suo set di dati di formazione e ha concesso in licenza commerciale alcuni dei suoi dati di formazione da aziende come Shutterstock.
Annuncio pubblicitario
Nonostante la controversia su Stable Diffusion, la legalità del funzionamento dei generatori di immagini AI non è stata testata in tribunale, sebbene lo studio legale Joesph Saveri non sia estraneo ad azioni legali contro l'IA generativa. Nel novembre 2022, la stessa azienda ha intentato una causa contro GitHub per il suo strumento di programmazione Copilot AI per presunte violazioni del copyright.
Argomenti tenui, violazioni etiche
Alex Champandard, un analista di intelligenza artificiale che ha difeso i diritti degli artisti senza respingere completamente la tecnologia di intelligenza artificiale, ha criticato la nuova causa in diversi thread su Twitter, scrivendo: "Non mi fido degli avvocati che hanno presentato questa denuncia, in base al contenuto e al modo in cui è scritto. Il caso potrebbe fare più male che bene a causa di questo. Tuttavia, Champandard pensa che la causa potrebbe essere dannosa per i potenziali imputati: "Tutto ciò che le società diranno per difendersi sarà usato contro di loro".
Per quanto riguarda Champandard, abbiamo notato che il reclamo include diverse affermazioni che potenzialmente travisano il funzionamento della tecnologia di sintesi delle immagini AI. Ad esempio, il quarto paragrafo della sezione I dice: "Quando viene utilizzato per produrre immagini dai prompt dei suoi utenti, Stable Diffusion utilizza le immagini di addestramento per produrre immagini apparentemente nuove attraverso un processo software matematico. Queste 'nuove' immagini si basano interamente sul Le immagini di formazione e sono opere derivate delle particolari immagini da cui Stable Diffusion attinge durante l'assemblaggio di un determinato output. In definitiva, è solo uno strumento di collage complesso."
In un'altra sezione che tenta di descrivere come funziona la sintesi di immagini a diffusione latente, i querelanti confrontano erroneamente il modello AI addestrato con "avere una directory sul proprio computer di miliardi di file di immagini JPEG", affermando che "un modello di diffusione addestrato può produrre una copia di nessuna delle sue immagini di addestramento."
Annuncio pubblicitario
Durante il processo di formazione, Stable Diffusion ha attinto da una vasta libreria di milioni di immagini raschiate. Utilizzando questi dati, la sua rete neurale ha "appreso" statisticamente come appaiono determinati stili di immagine senza memorizzare copie esatte delle immagini che ha visto. Sebbene nei rari casi di immagini sovrarappresentate nel set di dati (come la Gioconda), può verificarsi un tipo di "overfitting" che consente a Stable Diffusion di sputare una rappresentazione fedele dell'immagine originale.
In definitiva, se addestrati correttamente, i modelli di diffusione latente generano sempre nuove immagini e non creano collage o duplicano il lavoro esistente, una realtà tecnica che potenzialmente indebolisce l'argomentazione dei querelanti sulla violazione del copyright, sebbene le loro argomentazioni sulle "opere derivate" create dall'IA generatori di immagini è una questione aperta senza un chiaro precedente legale a nostra conoscenza.
Alcuni degli altri punti della denuncia, come la concorrenza illegale (duplicando lo stile di un artista e utilizzando una macchina per replicarlo) e violazione del diritto di pubblicità (consentendo alle persone di richiedere opere d'arte "nello stile" di artisti esistenti senza permesso) , sono meno tecnici e potrebbero avere gambe in tribunale.
Nonostante i suoi problemi, la causa arriva dopo un'ondata di rabbia per la mancanza di consenso da parte di artisti che si sentono minacciati dai generatori di arte artificiale. Per loro ammissione, le società tecnologiche dietro la sintesi di immagini AI hanno raccolto la proprietà intellettuale per addestrare i loro modelli senza il consenso degli artisti. Sono già sotto processo presso il tribunale dell'opinione pubblica, anche se alla fine vengono ritenuti conformi alla giurisprudenza consolidata in merito allo sfruttamento eccessivo di dati pubblici da Internet.
"Le aziende che costruiscono modelli di grandi dimensioni basandosi su dati protetti da copyright possono farla franca se lo fanno in privato", ha twittato Champandard, "ma farlo apertamente * e * legalmente è molto difficile o impossibile".
Se la causa va in giudizio, i tribunali dovranno risolvere le differenze tra violazioni etiche e presunte legali. I querelanti sperano di dimostrare che le società di intelligenza artificiale traggono vantaggi commerciali e traggono grandi profitti dall'utilizzo di immagini protette da copyright; hanno chiesto danni sostanziali e un provvedimento ingiuntivo permanente per impedire alle aziende presumibilmente in violazione di ulteriori violazioni.
Quando è stato chiesto un commento, il CEO di Stability AI, Emad Mostaque, ha risposto che la società non aveva ricevuto alcuna informazione sulla causa al momento della stampa.


RSS - Mastodon