Il responsabile del settore audio di Stability AI lascia l’azienda a causa del modo in cui lo sviluppatore di AI giustifica l’addestramento del suo modello di AI generativa con opere protette da copyright.
“Ho rassegnato le dimissioni dal mio ruolo di responsabile del team audio di Stability AI, perché non sono d’accordo con l’opinione dell’azienda secondo cui l’addestramento di modelli generativi di intelligenza artificiale su opere protette da copyright è un “uso corretto””, ha scritto Ed Newton-Rex, ex vicepresidente del settore audio dell’azienda.
Newton-Rex ha espresso gratitudine al suo ex collega e fondatore Emad Mostaque e al lavoro svolto fino a quel momento, ma ha detto di non essere in grado di cambiare la posizione ufficiale di Stability AI sull’uso di materiale protetto da copyright nell’addestramento dei suoi modelli. Ha citato un commento di 22 pagine sull’IA generativa che il suo ex datore di lavoro ha presentato all’Ufficio del copyright degli Stati Uniti, che ha definito la tecnologia emergente “un uso accettabile, trasformativo e socialmente vantaggioso di contenuti esistenti che è protetto dal fair use”.
“Non sono d’accordo perché uno dei fattori che influiscono sul fatto che l’atto di copiatura sia un uso corretto, secondo il Congresso, è “l’effetto dell’uso sul mercato potenziale o sul valore dell’opera protetta da copyright””, ha detto Newton-Rex. “Gli attuali modelli generativi di intelligenza artificiale possono chiaramente essere utilizzati per creare opere che competono con le opere protette da copyright su cui sono stati addestrati. Non vedo quindi come l’utilizzo di opere protette dal diritto d’autore per addestrare modelli generativi di IA di questa natura possa essere considerato un uso corretto”.
Mi sono dimesso dal mio ruolo di responsabile del team Audio di Stability AI, perché non condivido l’opinione dell’azienda secondo cui l’addestramento di modelli generativi di IA su opere protette da copyright sia un “uso corretto”.
Innanzitutto, voglio dire che in Stability ci sono molte persone che sono profondamente…
– Ed Newton-Rex (@ednewtonrex) November 15, 2023
L’IA generativa si riferisce a modelli di IA che creano testi, immagini, musica e video utilizzando suggerimenti, attingendo da un corpus massiccio di materiale di addestramento – materiale che, il più delle volte, viene raccolto all’ingrosso da Internet. Di conseguenza, il diritto d’autore è diventato una parte centrale della discussione su questa tecnologia.
Mostaque ha risposto al thread di Newton-Rex su Twitter, fornendo un link diretto al commento inviato.
“È stato bello lavorare con voi e questa è una discussione importante”, ha risposto Mostaque.
Newton-Rex ha affermato che le leggi sul fair use non sono state concepite con i modelli generativi di IA e che la formazione di modelli in base alla dottrina del fair use è sbagliata. Ha dichiarato di poter sostenere solo l’IA generativa che non sfrutta i creatori addestrando i propri modelli su opere senza il permesso degli artisti.
Da luglio, Stability AI, Midjourney e Deviant Art sono state coinvolte in una causa contro i generatori di immagini AI per violazione del copyright. A ottobre, un giudice federale ha respinto la maggior parte delle richieste di un gruppo di artisti, tra cui l’illustratrice Sarah Andersen, contro Midjourney e Deviant Art, ma ha dichiarato che la causa contro Stability AI può andare avanti.
“Aziende che valgono miliardi di dollari stanno addestrando, senza autorizzazione, modelli generativi di IA sulle opere dei creatori, che vengono poi utilizzati per creare nuovi contenuti che in molti casi possono competere con le opere originali”, ha ribadito Newton-Rex. “Non vedo come questo possa essere accettabile in una società che ha impostato l’economia delle arti creative in modo tale che i creatori si affidino al copyright”.
All’inizio di quest’anno, mentre lo sciopero della WGA, ora risolto, si stava intensificando, l’attrice e informatica Justine Bateman ha lanciato l’allarme su come l’IA generativa potrebbe sconvolgere l’industria dell’intrattenimento – e quindi è stata un fattore chiave negli storici scioperi della WGA e della SAG-AFTRA.
“Sono sicuro di non essere l’unico all’interno di queste aziende di IA generativa a non pensare che la richiesta di ‘fair use’ sia giusta nei confronti dei creatori”, ha concluso Newton-Rex. “Spero che altri parlino, sia internamente che pubblicamente, in modo che le aziende si rendano conto che lo sfruttamento dei creatori non può essere una soluzione a lungo termine per l’IA generativa. “