Home » Anthropic twierdzi, że nie wykorzysta prywatnych danych użytkowników do trenowania swojej sztucznej inteligencji

Anthropic twierdzi, że nie wykorzysta prywatnych danych użytkowników do trenowania swojej sztucznej inteligencji

by v

Wiodący startup zajmujący się generatywną sztuczną inteligencją, Anthropic, zadeklarował, że nie będzie wykorzystywał danych swoich klientów do trenowania swojego dużego modelu językowego (LLM) i że wkroczy w obronę użytkowników stojących w obliczu roszczeń dotyczących praw autorskich.

Anthropic, założony przez byłych badaczy z OpenAI, zaktualizował swoje komercyjne warunki świadczenia usług, aby sprecyzować swoje ideały i intencje. Wycinając prywatne dane swoich klientów, Anthropic solidnie odróżnia się od rywali, takich jak OpenAI, Amazon i Meta, które wykorzystują treści użytkowników do ulepszania swoich systemów.

„Anthropic nie może trenować modeli na treściach klientów z płatnych usług”, zgodnie ze zaktualizowanymi warunkami, które dodają, że „między stronami i w zakresie dozwolonym przez obowiązujące prawo, anthropic zgadza się, że klient jest właścicielem wszystkich wyników i zrzeka się wszelkich praw, jakie otrzymuje do treści klienta na mocy niniejszych warunków”.

Warunki mówią dalej, że „Anthropic nie przewiduje uzyskania jakichkolwiek praw do treści klienta na mocy niniejszych warunków” i że „nie przyznają żadnej ze stron żadnych praw do treści lub własności intelektualnej drugiej strony, w sposób dorozumiany lub w inny sposób”.

Zaktualizowany dokument prawny pozornie zapewnia ochronę i przejrzystość klientom komercyjnym Anthropic. Firmy są właścicielami wszystkich wygenerowanych wyników AI, na przykład, unikając potencjalnych sporów dotyczących własności intelektualnej. Anthropic zobowiązuje się również do obrony klientów przed roszczeniami dotyczącymi praw autorskich w związku z wszelkimi naruszającymi prawa treściami tworzonymi przez Claude.

Polityka ta jest zgodna z misją Anthropic, zgodnie z którą sztuczna inteligencja powinna być korzystna, nieszkodliwa i uczciwa. Wraz z rosnącym sceptycyzmem opinii publicznej co do etyki generatywnej sztucznej inteligencji, zaangażowanie firmy w rozwiązywanie obaw, takich jak prywatność danych, może dać jej przewagę konkurencyjną.

Dane użytkowników: Żywność dla LLM

Duże modele językowe (LLM), takie jak GPT-4, LlaMa lub Claude firmy Anthropic, to zaawansowane systemy sztucznej inteligencji, które rozumieją i generują ludzki język poprzez szkolenie na obszernych danych tekstowych. Modele te wykorzystują techniki głębokiego uczenia i sieci neuronowe do przewidywania sekwencji słów, rozumienia kontekstu i uchwycenia subtelności języka. Podczas szkolenia nieustannie udoskonalają swoje przewidywania, zwiększając swoją zdolność do konwersacji, komponowania tekstu lub dostarczania istotnych informacji. Skuteczność LLM zależy w dużej mierze od różnorodności i ilości danych, na których są szkolone, dzięki czemu są bardziej dokładne i świadome kontekstu, ponieważ uczą się na podstawie różnych wzorców językowych, stylów i nowych informacji.

Dlatego też dane użytkowników są tak cenne w szkoleniu modeli LLM. Po pierwsze, zapewniają one, że modele są na bieżąco z najnowszymi trendami językowymi i preferencjami użytkowników (np. rozumienie nowych slangów). Po drugie, pozwala to na personalizację i lepsze zaangażowanie użytkowników poprzez dostosowanie się do ich indywidualnych interakcji i stylów. Generuje to jednak debatę etyczną, ponieważ firmy zajmujące się sztuczną inteligencją nie płacą użytkownikom za te kluczowe informacje, które są wykorzystywane do trenowania modeli, które przynoszą im miliony dolarów.

Jak donosi TCN, Meta niedawno ujawniła, że trenuje swój nadchodzący LlaMA-3 LLM w oparciu o dane użytkowników, a jej nowe modele EMU (które generują zdjęcia i filmy na podstawie podpowiedzi tekstowych) zostały również przeszkolone przy użyciu publicznie dostępnych danych przesłanych przez użytkowników w mediach społecznościowych.

Poza tym Amazon ujawnił również, że jego nadchodzący LLM, który będzie zasilał ulepszoną wersję Alexy, jest również szkolony w zakresie rozmów i interakcji użytkowników, jednak użytkownicy mogą zrezygnować z danych szkoleniowych, które domyślnie są ustawione tak, aby zakładać, że użytkownicy zgadzają się na udostępnianie tych informacji.”[Amazon] zawsze wierzył, że szkolenie Alexy z rzeczywistymi żądaniami jest niezbędne do zapewnienia klientom dokładnego i spersonalizowanego doświadczenia, które stale się poprawia „, powiedział TCN rzecznik Amazon. „Ale jednocześnie dajemy klientom kontrolę nad tym, czy ich nagrania głosowe Alexy są wykorzystywane do ulepszania usługi, i zawsze szanujemy preferencje naszych klientów, kiedy trenujemy nasze modele”.

Ponieważ giganci technologiczni ścigają się, aby wypuścić najbardziej zaawansowane usługi AI, odpowiedzialne praktyki w zakresie danych są kluczem do zdobycia zaufania publicznego. Anthropic stara się dawać przykład w tym zakresie. Debata etyczna na temat zdobywania potężniejszych i wygodniejszych modeli kosztem przekazywania danych osobowych jest dziś tak samo powszechna, jak kilkadziesiąt lat temu, kiedy media społecznościowe spopularyzowały koncepcję użytkowników stających się produktem w zamian za bezpłatne usługi.

Related Posts

Leave a Comment