Home » Uw aangepaste GPT kan worden misleid om uw gegevens op te geven

Uw aangepaste GPT kan worden misleid om uw gegevens op te geven

by Patricia

Als je nog in de wittebroodsweken zit van je relatie met je aangepaste GPT, spijt het ons om de thee te moeten morsen.

Een recent onderzoek van de Northwestern University heeft een opzienbarende kwetsbaarheid in aangepaste Generative Pre-trained Transformers (GPT’s) aan het licht gebracht: hoewel ze kunnen worden aangepast voor diverse toepassingen, zijn ze ook gevoelig voor prompt injection-aanvallen die gevoelige informatie kunnen blootleggen.

GPT’s zijn geavanceerde AI-chatbots die gemaakt en gevormd kunnen worden door gebruikers van OpenAI’s ChatGPT. Ze maken gebruik van ChatGPT’s kern Large Language Model (LLM), GPT-4 Turbo, maar zijn uitgebreid met extra, unieke elementen die invloed hebben op hoe ze communiceren met de gebruiker. Deze aanpassingen omvatten specifieke prompts, unieke datasets en op maat gemaakte verwerkingsinstructies, waardoor ze verschillende gespecialiseerde functies kunnen vervullen.
Maar deze parameters en gevoelige gegevens die je gebruikt om je GPT vorm te geven, kunnen gemakkelijk door derden worden ingezien.

TCN was bijvoorbeeld in staat om de volledige prompt en vertrouwelijke gegevens van een aangepaste, openbaar gedeelde GPT te verkrijgen door een basistechniek voor het hacken van prompts te gebruiken: vragen naar de “initiële prompt”.
 src=

Related Posts

Leave a Comment