Home » Britse groep waarschuwt dat AI-gegenereerd kindermisbruikmateriaal het internet kan overweldigen

Britse groep waarschuwt dat AI-gegenereerd kindermisbruikmateriaal het internet kan overweldigen

by v

De Britse Internet Watch Foundation (IWF) luidt opnieuw de noodklok over de snelle verspreiding van door kunstmatige intelligentie gegenereerd materiaal over seksueel kindermisbruik (CSAM). In een nieuw rapport dat woensdag is gepubliceerd, zegt de groep dat er in slechts één maand meer dan 20.254 afbeeldingen van door kunstmatige intelligentie gegenereerde CSAM zijn gevonden op één forum op het Dark Web – en dat een vloedgolf van dergelijke verachtelijke inhoud het internet zou kunnen “overspoelen”.

Terwijl AI-beeldgeneratoren steeds beter worden, neemt het vermogen om realistische replica’s van mensen te maken met sprongen toe. AI-beeldgeneratoren zoals Midjourney, Runway, Stable Diffusion en OpenAI’s Dall-E zijn slechts enkele van de platforms die realistische beelden kunnen genereren.

Deze cloudgebaseerde platforms, die algemeen beschikbaar zijn voor het publiek, hebben aanzienlijke beperkingen, regels en controles ingevoerd om te voorkomen dat hun tools worden misbruikt door kwaadwillenden om exploiteerbare inhoud te creëren. AI-enthousiastelingen zoeken echter regelmatig naar manieren om deze beveiligingen te omzeilen.

“Het is belangrijk dat we de realiteit van CSAM in AI communiceren aan een breed publiek omdat we de donkere kant van deze geweldige technologie moeten bespreken,” zei Susie Hargreaves, de CEO van de stichting, in de release.

De IWF zei dat haar “ergste nachtmerrie” werkelijkheid is geworden en zei dat ze nu AI-gegenereerde CSAM-gevallen van echte slachtoffers van seksueel misbruik opspoort. De Britse groep benadrukte ook beelden van beroemdheden die zijn verouderd en gemanipuleerd om op misbruikslachtoffers te lijken, evenals gemanipuleerde foto’s van beroemde kinderen.

“Alsof het nog niet genoeg is voor slachtoffers om te weten dat hun misbruik gedeeld kan worden in een donker hoekje van het internet, lopen ze nu het risico geconfronteerd te worden met nieuwe beelden van hen die misbruikt worden op nieuwe en gruwelijke manieren die ze zich eerder niet hadden kunnen voorstellen,” zei Hargreaves.

Een van de grootste problemen met de proliferatie van levensechte, door AI gegenereerde CSAM’s is dat ze middelen voor wetshandhaving kunnen afleiden van het opsporen en verwijderen van echt misbruik, aldus de IWF.

De IWF, opgericht in 1996, is een non-profitorganisatie die het internet controleert op seksueel misbruik, met name gericht op kinderen.

In september waarschuwde de IWF dat pedofiele bendes tips bespraken en uitwisselden voor het maken van illegale afbeeldingen van kinderen met behulp van open-source kunstmatige intelligentie modellen die kunnen worden gedownload en lokaal uitgevoerd op personal computers.

“Daders kunnen legaal alles downloaden wat ze nodig hebben om deze afbeeldingen te maken, en dan kunnen ze zoveel afbeeldingen maken als ze willen, offline, zonder de mogelijkheid om ontdekt te worden,” zei de IWF.

De Britse groep riep op tot internationale samenwerking om CSAM te bestrijden en stelde een meervoudige aanpak voor, waaronder het wijzigen van relevante wetten, het bijwerken van trainingen voor wetshandhaving en het introduceren van regelgevend toezicht op AI-modellen.

De IWF beveelt aan dat AI-ontwikkelaars het gebruik van hun AI voor het maken van kinderpornomateriaal verbieden, gerelateerde modellen de-indexeren en kinderpornomateriaal met voorrang uit hun modellen verwijderen.

Dit is een wereldwijd probleem dat vereist dat landen samenwerken om ervoor te zorgen dat de wetgeving geschikt is voor het beoogde doel”, zei Hargreaves in een verklaring die eerder aan TCN werd verstrekt, waarbij hij opmerkte dat de IWF effectief is geweest in het terugdringen van CSAM in zijn thuisland.

“Het feit dat minder dan 1% van de criminele inhoud in het Verenigd Koninkrijk wordt gehost, benadrukt onze uitstekende samenwerking met de Britse politie en agentschappen en we zullen actief blijven samenwerken met de wetshandhavingsinstanties over deze alarmerende nieuwe trend”, voegde Hargreaves eraan toe. “We dringen er bij de Britse premier op aan om dit onderwerp hoog op de agenda te zetten van de Global AI Security Summit die in november door het Verenigd Koninkrijk wordt georganiseerd.”

Volgens de IWF is het verwijderen van Dark Web fora die illegale CSAM hosten in het Verenigd Koninkrijk aan de gang, maar de groep zegt dat het verwijderen moeilijker kan zijn wanneer websites in andere landen worden gehost.

Er zijn een aantal gezamenlijke inspanningen om AI-misbruik tegen te gaan. In september stelde Microsoft-voorzitter Brad Smith voor om KYC-beleid te gebruiken, vergelijkbaar met het beleid dat financiële instellingen gebruiken, om criminelen te identificeren die AI-modellen gebruiken om verkeerde informatie en misbruik te verspreiden.

De staat Louisiana nam in juli een wet aan die de strafmaat voor de verkoop en het bezit van AI-gegenereerde kinderpornografie verhoogt. Volgens deze wet kan iedereen die wordt veroordeeld voor het maken, verspreiden of bezitten van illegale deepfake afbeeldingen van minderjarigen een verplichte gevangenisstraf van vijf tot twintig jaar krijgen, een boete van maximaal 10.000 dollar, of beide.

In augustus heeft het Amerikaanse Ministerie van Justitie haar Citizen’s Guide To U.S. Federal Law On Child Pornography bijgewerkt. Voor het geval er enige verwarring was, benadrukte het DOJ dat afbeeldingen van kinderpornografie niet beschermd worden door het Eerste Amendement en illegaal zijn volgens de federale wetgeving.

Related Posts

Leave a Comment