Home » Materiały generowane przez sztuczną inteligencję mogą “przytłoczyć” Internet, ostrzega brytyjska grupa

Materiały generowane przez sztuczną inteligencję mogą „przytłoczyć” Internet, ostrzega brytyjska grupa

by Thomas

Brytyjska organizacja Internet Watch Foundation (IWF) ponownie bije na alarm w związku z szybkim rozprzestrzenianiem się generowanych przez sztuczną inteligencję materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM). W nowym raporcie opublikowanym w środę grupa poinformowała, że ponad 20 254 obrazów CSAM wygenerowanych przez sztuczną inteligencję zostało znalezionych na jednym forum darkwebowym w ciągu zaledwie jednego miesiąca – i że zalew takich odrażających treści może „przytłoczyć” internet.

W miarę jak generatory obrazów SI stają się coraz bardziej zaawansowane, zdolność do tworzenia realistycznych replik ludzi rośnie skokowo. Generatory obrazów AI, takie jak Midjourney, Runway, Stable Diffusion i OpenAI’s Dall-E, to tylko niektóre z platform zdolnych do wyczarowywania realistycznych obrazów.

Te oparte na chmurze platformy, które są powszechnie dostępne dla publiczności, wdrożyły znaczne ograniczenia, zasady i kontrole, aby zapobiec wykorzystywaniu ich narzędzi przez nikczemne podmioty do tworzenia obraźliwych treści. Jednak entuzjaści sztucznej inteligencji regularnie szukają sposobów na obejście tych zabezpieczeń.

„Ważne jest, abyśmy przekazywali realia AI CSAM szerokiemu gronu odbiorców, ponieważ musimy prowadzić dyskusje na temat ciemniejszej strony tej niesamowitej technologii” – powiedziała w raporcie dyrektor generalna fundacji Susie Hargreaves.

Założona w 1996 roku fundacja jest organizacją non-profit zajmującą się monitorowaniem Internetu pod kątem treści związanych z wykorzystywaniem seksualnym, w szczególności skierowanych do dzieci.

We wrześniu IWF ostrzegła, że kręgi pedofilskie dyskutują i wymieniają się wskazówkami na temat tworzenia nielegalnych obrazów dzieci przy użyciu modeli AI typu open source, które można pobrać i uruchomić lokalnie na komputerach osobistych.

„Sprawcy mogą legalnie pobrać wszystko, czego potrzebują do wygenerowania tych obrazów, a następnie mogą wyprodukować tyle obrazów, ile chcą, w trybie offline, bez możliwości wykrycia” – powiedziała IWF.

Brytyjska grupa wezwała do międzynarodowej współpracy w celu zwalczania plagi CSAM, proponując wielopoziomowe podejście, w tym zmiany w odpowiednich przepisach, aktualizację szkoleń dla organów ścigania i ustanowienie nadzoru regulacyjnego nad modelami sztucznej inteligencji.

W przypadku twórców sztucznej inteligencji IWF zaleca zakaz wykorzystywania ich sztucznej inteligencji do tworzenia materiałów przedstawiających wykorzystywanie dzieci, deindeksowanie powiązanych modeli i priorytetowe traktowanie usuwania materiałów przedstawiających wykorzystywanie dzieci z ich modeli.

„Jest to kwestia globalna, która wymaga od krajów współpracy i zapewnienia, że ustawodawstwo jest odpowiednie do celu” – powiedział Hargreaves w oświadczeniu wcześniej udostępnionym TCN, zauważając, że IWF skutecznie ograniczyła CSAM w swoim kraju.

„Fakt, że mniej niż 1% treści o charakterze przestępczym jest hostowanych w Wielkiej Brytanii, wskazuje na nasze doskonałe partnerstwo z brytyjskimi siłami policyjnymi i agencjami, a my będziemy aktywnie współpracować z organami ścigania w sprawie tego alarmującego nowego trendu” – powiedział Hargreaves. „Wzywamy premiera Wielkiej Brytanii do zdecydowanego umieszczenia tej kwestii w programie globalnego szczytu bezpieczeństwa AI, który odbędzie się w Wielkiej Brytanii w listopadzie”.

Podczas gdy IWF twierdzi, że dochodzi do usuwania forów darkwebowych hostujących nielegalne CSAM w Wielkiej Brytanii, grupa twierdzi, że usunięcie może być bardziej skomplikowane, jeśli strona jest hostowana w innych krajach.

Istnieje wiele wspólnych wysiłków na rzecz zwalczania nadużyć sztucznej inteligencji. We wrześniu prezes Microsoftu Brad Smith zasugerował stosowanie zasad KYC wzorowanych na tych stosowanych przez instytucje finansowe, aby pomóc w identyfikacji przestępców wykorzystujących modele AI do rozpowszechniania dezinformacji i nadużyć.

Stan Luizjana uchwalił w lipcu ustawę zaostrzającą kary za sprzedaż i posiadanie pornografii dziecięcej generowanej przez sztuczną inteligencję, zgodnie z którą każdy skazany za tworzenie, dystrybucję lub posiadanie nielegalnych deepfake’ów przedstawiających nieletnich może zostać skazany na karę od pięciu do 20 lat pozbawienia wolności, grzywnę w wysokości do 10 000 USD lub obie kary łącznie.

W sierpniu Departament Sprawiedliwości Stanów Zjednoczonych zaktualizował swój przewodnik obywatelski po federalnym prawie Stanów Zjednoczonych dotyczącym pornografii dziecięcej. W przypadku jakichkolwiek niejasności, Departament Sprawiedliwości podkreślił, że obrazy pornografii dziecięcej nie są chronione na mocy Pierwszej Poprawki i są nielegalne na mocy prawa federalnego.

Related Posts

Leave a Comment