Home » Anthropic déclare qu’elle n’utilisera pas vos données privées pour entraîner son IA

Anthropic déclare qu’elle n’utilisera pas vos données privées pour entraîner son IA

by Thomas

La startup d’IA générative Anthropic a déclaré qu’elle n’utiliserait pas les données de ses clients pour entraîner son Grand Modèle de Langage (LLM), et qu’elle interviendrait pour défendre les utilisateurs confrontés à des réclamations en matière de droits d’auteur.

Anthropic, fondée par d’anciens chercheurs d’OpenAI, a mis à jour ses conditions d’utilisation commerciale pour préciser ses idéaux et ses intentions. En excluant les données privées de ses propres clients, Anthropic se différencie nettement de ses rivaux tels qu’OpenAI, Amazon et Meta, qui exploitent le contenu des utilisateurs pour améliorer leurs systèmes.

« Anthropic ne peut pas entraîner des modèles sur du contenu client provenant de services payants », selon les conditions mises à jour, qui ajoutent que « entre les parties et dans la mesure permise par la loi applicable, Anthropic accepte que le client soit propriétaire de tous les résultats et renonce à tout droit qu’il reçoit sur le contenu du client en vertu des présentes conditions ».

Les conditions précisent également que « Anthropic ne prévoit pas d’obtenir des droits sur le contenu du client en vertu de ces conditions » et qu’elles « n’accordent à aucune des parties des droits sur le contenu ou la propriété intellectuelle de l’autre, que ce soit de manière implicite ou non ».

Le document juridique mis à jour fournit ostensiblement des protections et de la transparence aux clients commerciaux d’Anthropic. Les entreprises sont propriétaires de tous les résultats générés par l’IA, par exemple, ce qui permet d’éviter d’éventuels litiges en matière de propriété intellectuelle. Anthropic s’engage également à défendre ses clients en cas de réclamation sur les droits d’auteur pour tout contenu illicite produit par Claude.

Cette politique s’inscrit dans le droit fil de la mission d’Anthropic, selon laquelle l’IA doit être bénéfique, inoffensive et honnête. Alors que le public est de plus en plus sceptique quant à l’éthique de l’IA générative, l’engagement de l’entreprise à répondre à des préoccupations telles que la confidentialité des données pourrait lui donner un avantage concurrentiel.

Les données des utilisateurs : La nourriture vitale des LLM

Les grands modèles de langage (LLM) tels que GPT-4, LlaMa ou Claude d’Anthropic sont des systèmes d’IA avancés qui comprennent et génèrent du langage humain en étant entraînés sur de nombreuses données textuelles. Ces modèles s’appuient sur des techniques d’apprentissage en profondeur et des réseaux neuronaux pour prédire les séquences de mots, comprendre le contexte et saisir les subtilités du langage. Au cours de la formation, ils affinent continuellement leurs prédictions, améliorant ainsi leur capacité à converser, à composer des textes ou à fournir des informations pertinentes. L’efficacité des LLM dépend fortement de la diversité et du volume des données sur lesquelles ils sont formés, ce qui les rend plus précis et plus conscients du contexte au fur et à mesure qu’ils apprennent de différents modèles et styles de langage et de nouvelles informations.

C’est la raison pour laquelle les données des utilisateurs sont si précieuses pour la formation des LLM. Premièrement, elles garantissent que les modèles restent au fait des dernières tendances linguistiques et des préférences des utilisateurs (par exemple, la compréhension de nouveaux arcanes). Deuxièmement, elles permettent la personnalisation et un meilleur engagement de l’utilisateur en s’adaptant aux interactions et aux styles individuels de l’utilisateur. Toutefois, cela suscite un débat éthique car les entreprises d’IA ne paient pas les utilisateurs pour ces informations cruciales qui sont utilisées pour former des modèles qui leur rapportent des millions de dollars.

Comme le rapporte TCN, Meta a récemment révélé qu’elle entraînait son prochain modèle LlaMA-3 LLM à partir des données des utilisateurs, et ses nouveaux modèles EMU (qui génèrent des photos et des vidéos à partir d’invites textuelles) ont également été entraînés à l’aide de données publiques téléchargées par ses utilisateurs sur les médias sociaux.

En outre, Amazon a également révélé que son prochain LLM, qui alimentera une version améliorée d’Alexa, est également formé à partir des conversations et des interactions des utilisateurs, mais ces derniers peuvent se désengager des données de formation qui, par défaut, sont configurées pour supposer que les utilisateurs acceptent de partager ces informations « [Amazon] a toujours pensé que la formation d’Alexa avec des demandes du monde réel est essentielle pour offrir aux clients une expérience précise et personnalisée qui ne cesse de s’améliorer », a déclaré un porte-parole d’Amazon à TCN. « Mais en même temps, nous donnons aux clients le contrôle sur l’utilisation des enregistrements vocaux d’Alexa pour améliorer le service, et nous respectons toujours les préférences de nos clients lorsque nous formons nos modèles. »

Alors que les géants de la technologie font la course pour lancer les services d’IA les plus avancés, des pratiques responsables en matière de données sont essentielles pour gagner la confiance du public. Anthropic entend montrer l’exemple à cet égard. Le débat éthique sur l’obtention de modèles plus puissants et plus pratiques au détriment de l’abandon des informations personnelles est aussi présent aujourd’hui qu’il l’était il y a plusieurs décennies, lorsque les médias sociaux ont popularisé le concept d’utilisateurs devenant le produit en échange de services gratuits.

Related Posts

Leave a Comment