Home » Le responsable audio de Stability AI démissionne en raison d’une formation sur du matériel protégé par le droit d’auteur. Cela changera-t-il quelque chose ?

Le responsable audio de Stability AI démissionne en raison d’une formation sur du matériel protégé par le droit d’auteur. Cela changera-t-il quelque chose ?

by Tim

Troublée par la position publique adoptée par Stability AI sur son utilisation de matériel protégé par des droits d’auteur pour entraîner son produit d’IA générative, le responsable audio de la société, Ed Newton-Rex, a annoncé qu’il quittait l’entreprise. Cette décision a relancé une conversation plus large sur le concept d' »utilisation équitable » et l’utilisation rampante de contenu dans les modèles d’IA sans l’autorisation du créateur.

« J’ai démissionné de mon poste de responsable de l’équipe audio de Stability AI, car je ne suis pas d’accord avec l’opinion de l’entreprise selon laquelle l’entraînement de modèles d’IA générative sur des œuvres protégées par le droit d’auteur constitue une « utilisation équitable » », a écrit M. Newton-Rex sur Twitter.

Les réactions ont été mitigées, certains ayant salué la position de Newton-Rex.

« Merci d’avoir pris position et d’avoir fait ce qu’il fallait en quittant Stability », a écrit Reid Southern. « Si nous avions plus de gens comme vous travaillant dans l’apprentissage automatique et l’IA générative, nous ne serions peut-être pas dans ce pétrin.

Cependant, d’autres ont remis en question sa définition de la violation du droit d’auteur.

« Ainsi, toute personne qui lit un livre, écoute de la musique, regarde un film, etc. qui l’inspire ensuite à créer viole le droit d’auteur ? » a écrit John Harvey, un utilisateur de Twitter.

Le problème, explique Newton-Rex, est apparu lorsque Stability AI a répondu à une demande de commentaires sur l’IA générative émanant de l’Office américain des droits d’auteur. Le développeur d’IA a soumis une déclaration de 22 pages dans laquelle il affirme que l’IA générative est une utilisation socialement bénéfique d’un contenu existant protégé par l’usage loyal et qu’elle favorise les objectifs de la loi sur le droit d’auteur.

Bien que Stability ait été au centre de l’article de Newton-Rex, il a déclaré à TCN que le problème dépassait le cadre d’une seule entreprise.

« Mon objection ici n’est pas vraiment contre Stability parce que Stability adopte la même approche que beaucoup d’autres entreprises d’IA générative dans l’espace », a déclaré Newton-Rex. « C’est en fait une position interprofessionnelle à laquelle je m’oppose. En fait, je démissionnais de tout un groupe d’entreprises qui adoptent la même approche ».

Le droit d’auteur fait référence au droit légal des créateurs de contrôler l’utilisation de leur travail. L’usage loyal, quant à lui, permet une utilisation limitée du matériel protégé par le droit d’auteur à des fins d’éducation, de révision ou de recherche. Dans un monde parfait, ces concepts conduiraient à un équilibre entre la capacité d’un créateur à utiliser et à tirer profit de son contenu et les intérêts du public.

En octobre, un groupe d’auteurs, dont John Grisham et George R.R. Martin, créateur de Game of Thrones, ont intenté une action en justice contre OpenAI, créateur de ChatGPT, affirmant que leurs œuvres avaient été intégrées dans les données d’entraînement des modèles d’IA populaires. Le même mois, une action similaire contre Midjourney, Deviant Art et Stability AI s’est heurtée à un obstacle lorsqu’un juge fédéral a statué que les plaignants n’avaient pas fourni suffisamment de preuves pour étayer leur plainte pour violation du droit d’auteur.

Newton-Rex explique que le modèle audio de Stability AI a été entraîné sur de la musique sous licence de la plateforme de bibliothèque musicale numérique AudioSparx.

« AudioSparx] possède une très bonne collection de musique, et nous avons partagé les revenus, avec la philosophie suivante : si notre modèle fonctionne bien, alors ils fonctionnent bien », a-t-il expliqué. « C’est l’idée, et c’est l’une des façons dont je pense que cela peut fonctionner.

« Je ne pense pas que l’IA générative et les industries créatives doivent être ennemies », a poursuivi Newton-Rex. « Elles peuvent travailler ensemble.

Bien qu’il soit optimiste quant à la possibilité pour les créateurs et les développeurs d’IA de s’aligner, il reconnaît que les artistes ont le droit de s’inquiéter de la manière dont le texte, la musique et d’autres médias sont utilisés pour entraîner les modèles d’IA.

M. Newton-Rex a rappelé que le modèle Stability Diffusion de Stability AI avait été entraîné à partir d’informations accessibles au public. Toutefois, il a indiqué qu’il était courant dans l’industrie d’utiliser des ensembles de données tels que LAION-5B, qui, selon lui, peuvent inclure du matériel protégé par le droit d’auteur et récupéré sur Internet.

« Je pense que l’approche plus générale de l’industrie en matière de génération d’images dans d’autres modalités ainsi que de données, certainement en matière de génération de texte, semble avoir été d’adopter une vision assez permissive de ce sur quoi on peut s’entraîner, ce que je n’approuve pas », a-t-il déclaré.

Bien que Newton-Rex ait déclaré qu’il n’avait pas de projet particulier lorsqu’il a quitté Stability AI, il a affirmé que la conversation sur les droits d’auteur et l’utilisation équitable était vitale.

« Je pense qu’il s’agit d’une conversation très importante, et les gens parlent de la question des droits d’auteur parce que je pense que nous devons prendre une décision à ce sujet. « 

Related Posts

Leave a Comment