Home » OpenAI zwiększa prywatność dzięki możliwości usuwania historii czatu

OpenAI zwiększa prywatność dzięki możliwości usuwania historii czatu

by Tim

Nawet jeśli nie korzystałeś z ChatGPT jako nieopłacany terapeuta, myśl o tym, że twoje pytania i podpowiedzi są zapisywane i wykorzystywane do szkolenia przyszłych modeli AI może sprawić, że poczujesz się nieswojo. W związku z tym, OpenAI wprowadziło nowe funkcje, które pozwalają użytkownikom chronić ich historię czatu ChatGPT.

Oprócz dania użytkownikom większej kontroli nad ich cyfrowymi śladami, aktywacja funkcji usuwa podpowiedzi dla użytkowników z modeli treningowych OpenAI i paska bocznego historii.

„Mamy nadzieję, że zapewnia to łatwiejszy sposób zarządzania danymi użytkownika niż nasz istniejący proces rezygnacji” – napisał OpenAI w poście na blogu. „Kiedy historia czatu jest wyłączona, zachowamy nowe rozmowy przez 30 dni i przejrzymy je tylko wtedy, gdy będzie to potrzebne do monitorowania nadużyć przed trwałym usunięciem. „

Dla osób obawiających się utraty dostępu do sensownych rozmów lub podpowiedzi z chatbotem,

W marcu OpenAI wywołał burzę ognia po tym, jak ujawnił na Twitterze, że błąd ujawnił dane osobowe niektórych użytkowników i historię czatu.

Z tego ruchu, ChatGPT nie jest tylko catering do tych, którzy lubią rozmowy zniknięcia. Opracowują również nową subskrypcję biznesową ChatGPT dostosowaną do profesjonalistów i przedsiębiorstw, które chcą mieć dodatkową kontrolę nad swoimi danymi.

„ChatGPT Business będzie przestrzegać zasad wykorzystania danych naszego API, co oznacza, że dane użytkowników końcowych nie będą domyślnie używane do szkolenia naszych modeli” – powiedziała firma. „Planujemy udostępnić ChatGPT Business w najbliższych miesiącach”.

Dla tych, którzy wolą wspominać o przeszłych czatach lub zachować zapis swoich cyfrowych dalliances, ChatGPT ma cię również pokryte. Nowa funkcja „eksportu” wygeneruje e-mail zawierający dane użytkownika ChatGPT, w tym pytania, rozmowy i powiązane informacje. Jeśli historia czatu nie zostanie wyłączona, rozmowy zostaną zachowane na czas nieokreślony – a OpenAI wykorzysta je do bieżących badań.

Od czasu wprowadzenia ostatniej aktualizacji ChatGPT, GPT-4, OpenAI podjęło kilka kroków w celu poprawy prywatności użytkowników i poradzenia sobie z „halucynacjami” AI. W kwietniu gigant uczenia maszynowego potwierdził swoje zaangażowanie w utrzymanie bezpiecznej i korzystnej AI.

„Uznajemy również, że jak każda technologia, narzędzia te wiążą się z realnym ryzykiem – pracujemy więc nad zapewnieniem bezpieczeństwa wbudowanego w nasz system na wszystkich poziomach” – powiedział OpenAI, ogłaszając w następnym tygodniu program bug bounty.

Nacisk na poprawę prywatności użytkowników przychodzi w czasie, gdy ustawodawcy zmagają się z szybkim rozwojem narzędzi AI po uruchomieniu ChatGPT w listopadzie 2022 roku. Wcześniej w tym miesiącu, powołując się na obawy dotyczące prywatności, Włochy zakazały ChatGPT, z innymi rządami wyrażającymi obawy.

Related Posts

Leave a Comment