Home » Anthropic zegt dat het je privégegevens niet zal gebruiken om zijn AI te trainen

Anthropic zegt dat het je privégegevens niet zal gebruiken om zijn AI te trainen

by v

Toonaangevende generatieve AI startup Anthropic heeft verklaard dat het de gegevens van zijn klanten niet zal gebruiken om zijn Large Language Model (LLM) te trainen en dat het zal ingrijpen om gebruikers te verdedigen die geconfronteerd worden met auteursrechtclaims.

Anthropic, opgericht door voormalige onderzoekers van OpenAI, heeft zijn commerciële Servicevoorwaarden aangepast om zijn idealen en bedoelingen duidelijk te maken. Door de privégegevens van zijn eigen klanten uit te sluiten, onderscheidt Anthropic zich duidelijk van rivalen als OpenAI, Amazon en Meta, die wel gebruik maken van gebruikerscontent om hun systemen te verbeteren.

“Anthropic mag geen modellen trainen op klantencontent van betaalde diensten”, aldus de bijgewerkte voorwaarden, die eraan toevoegen dat “tussen de partijen en voor zover toegestaan door de toepasselijke wetgeving, antropic ermee instemt dat de klant eigenaar is van alle outputs en alle rechten afwijst die het ontvangt op de klantencontent onder deze voorwaarden.”

De voorwaarden gaan verder met te zeggen dat “Anthropic niet verwacht rechten te verkrijgen op de inhoud van de klant onder deze voorwaarden” en dat ze “geen van beide partijen rechten verlenen op de inhoud of intellectuele eigendom van de ander, impliciet of anderszins”.

Het bijgewerkte juridische document biedt ogenschijnlijk bescherming en transparantie voor de commerciële klanten van Anthropic. Bedrijven zijn bijvoorbeeld eigenaar van alle gegenereerde AI-outputs, waardoor potentiële IP-geschillen worden vermeden. Anthropic verbindt zich er ook toe om klanten te verdedigen tegen auteursrechtclaims over inbreukmakende content die is geproduceerd door Claude.

Het beleid sluit aan bij de missie van Anthropic dat AI nuttig, onschadelijk en eerlijk moet zijn. Nu het publieke scepticisme over de ethiek van generatieve AI toeneemt, kan de toewijding van het bedrijf om zaken als gegevensprivacy aan te pakken het bedrijf een concurrentievoordeel geven.

Gebruikersgegevens: De vitale voeding van LLM’s

Grote taalmodellen (LLM’s) zoals GPT-4, LlaMa of Anthropic’s Claude zijn geavanceerde AI-systemen die menselijke taal begrijpen en genereren door te trainen op uitgebreide tekstgegevens. Deze modellen maken gebruik van deep learning-technieken en neurale netwerken om woordreeksen te voorspellen, context te begrijpen en de subtiliteiten van taal te doorgronden. Tijdens het trainen verfijnen ze voortdurend hun voorspellingen, waardoor ze beter in staat zijn om te converseren, tekst samen te stellen of relevante informatie te geven. De effectiviteit van LLM’s is sterk afhankelijk van de diversiteit en het volume van de gegevens waarop ze worden getraind, waardoor ze nauwkeuriger worden en meer context begrijpen naarmate ze leren van verschillende taalpatronen, stijlen en nieuwe informatie.

Daarom zijn gebruikersgegevens zo waardevol bij het trainen van LLM’s. Ten eerste zorgt het ervoor dat de modellen op de hoogte blijven van de laatste taaltrends en gebruikersvoorkeuren (bijvoorbeeld het begrijpen van nieuwe jargon). Ten tweede maakt het personalisatie en een betere gebruikersbetrokkenheid mogelijk door zich aan te passen aan individuele gebruikersinteracties en -stijlen. Dit leidt echter tot een ethisch debat omdat AI-bedrijven gebruikers niet betalen voor deze cruciale informatie die wordt gebruikt om modellen te trainen waarmee ze miljoenen dollars verdienen.

Zoals gemeld door TCN, onthulde Meta onlangs dat het zijn aankomende LlaMA-3 LLM traint op basis van gegevens van gebruikers en zijn nieuwe EMU-modellen (die foto’s en video’s genereren op basis van tekstaanwijzingen) werden ook getraind met behulp van publiek beschikbare gegevens die door gebruikers werden geüpload op sociale media.

Daarnaast onthulde Amazon ook dat zijn aankomende LLM, die een verbeterde versie van Alexa zal aandrijven, ook wordt getraind op gesprekken en interacties van gebruikers. Gebruikers kunnen zich echter afmelden voor de trainingsgegevens, die standaard zijn ingesteld om aan te nemen dat gebruikers akkoord gaan met het delen van deze informatie.”[Amazon] heeft altijd geloofd dat het trainen van Alexa met echte verzoeken essentieel is voor het leveren van een ervaring aan klanten die accuraat en gepersonaliseerd is en constant beter wordt,” vertelde een woordvoerder van Amazon aan TCN. “Maar tegelijkertijd geven we klanten de controle over of hun Alexa-stemopnames worden gebruikt om de service te verbeteren, en we respecteren altijd de voorkeuren van onze klanten wanneer we onze modellen trainen.”

Nu techgiganten aan het racen zijn om de meest geavanceerde AI-diensten uit te brengen, zijn verantwoorde datapraktijken essentieel om het vertrouwen van het publiek te verdienen. Anthropic wil in dit opzicht het goede voorbeeld geven. Het ethische debat over het verkrijgen van krachtigere en handigere modellen ten koste van het opgeven van persoonlijke informatie is vandaag de dag nog net zo actueel als tientallen jaren geleden, toen sociale media het concept populariseerden waarbij gebruikers het product werden in ruil voor gratis diensten.

Related Posts

Leave a Comment