Home » Van “lage nauwkeurigheid” naar 99% succespercentage: kan de nieuwe tool van OpenAI diepe fraude detecteren?

Van “lage nauwkeurigheid” naar 99% succespercentage: kan de nieuwe tool van OpenAI diepe fraude detecteren?

by Thomas

De

Als Mulati’s beweringen waar zijn, zou dit een belangrijke mijlpaal zijn voor de industrie, omdat de huidige methoden voor het detecteren van AI-gegenereerde afbeeldingen over het algemeen niet geautomatiseerd zijn. Meestal vertrouwen amateurmakers op intuïtie en richten ze zich op bekende problemen die het maken van AI’s in de weg staan, zoals het weergeven van handen, tanden en patronen. Het onderscheid tussen AI-gegenereerde afbeeldingen en door AI bewerkte afbeeldingen blijft onduidelijk, vooral wanneer iemand AI probeert te gebruiken voor AI-detectie.

OpenAI heeft niet alleen toegezegd AI te gebruiken om kwaadaardige afbeeldingen te detecteren, maar ook om zijn eigen modellen te censureren door rode vlaggen in te stellen die verder gaan dan wat publiekelijk in de inhoudsrichtlijnen staat.

Zoals TCN ontdekte, lijkt OpenAI’s Dall-E tool ingesteld te zijn om zonder waarschuwing tooltips te veranderen en stilletjes fouten te maken wanneer gevraagd wordt om specifieke resultaten te produceren, zelfs als deze overeenkomen met publiekelijk gepubliceerde richtlijnen, en om te voorkomen dat er gevoelige inhoud geproduceerd wordt met specifieke namen, artiestenstijlen en etnische groepen.

Deel van wat een Dall-E 3 uitdaging zou kunnen zijn op ChatGPT.

Deel van wat een Dall-E 3 uitdaging zou kunnen zijn op ChatGPT.


Het detecteren van diepe vervalsingen is niet alleen het werk van OpenAI. Een van de bedrijven die deze mogelijkheid ontwikkelen is DeepMedia, dat uitsluitend met overheidsklanten werkt.

Grote bedrijven als Microsoft en Adobe steken ook de handen uit de mouwen. Zij hebben een systeem geïntroduceerd dat “AI-watermerken” wordt genoemd. Dit mechanisme, geleid door de C2PA (Content Authentication and Prevention Alliance), voegt een opvallend “cr”-symbool toe aan tekstballonnen om AI-gegenereerde inhoud aan te duiden. Het symbool is bedoeld als een baken van transparantie en stelt gebruikers in staat om de bron van de inhoud te identificeren.

Maar zoals met elke technologie, is het niet waterdicht. Er is een kwetsbaarheid in de zin dat metadata met dit symbool kan worden verwijderd. Als tegenmaatregel heeft Adobe echter een cloudservice ontwikkeld die de verloren metadata kan herstellen en er zo voor kan zorgen dat het symbool blijft bestaan. Het is niet moeilijk te omzeilen.

Nu wetgevers diepgaande vervalsing proberen te criminaliseren, vertegenwoordigen deze innovaties niet alleen een technologische vooruitgang, maar ook een maatschappelijke evolutie. De recente initiatieven van OpenAI en bedrijven als Microsoft en Adobe onderstrepen de collectieve inspanning om authenticiteit in het digitale tijdperk te garanderen. Terwijl deze tools worden verfijnd om hogere niveaus van authenticiteit te bieden, hangt hun effectieve implementatie af van hun wijdverspreide adoptie. Dit geldt niet alleen voor techgiganten, maar ook voor makers van inhoud, sociale mediaplatforms en eindgebruikers.

Met de snelle ontwikkeling van generatieve kunstmatige intelligentie worden detectors nog steeds geconfronteerd met uitdagingen bij het onderscheiden van de authenticiteit van tekst, afbeeldingen en audio. Op dit moment is menselijke beoordeling en waakzaamheid de beste verdediging tegen AI-misbruik. Maar mensen zijn niet onfeilbaar. Voor blijvende oplossingen is de samenwerking van technologieleiders, wetgevers en het publiek nodig om samen door deze complexe nieuwe grens te navigeren.

Related Posts

Leave a Comment