Home » Dezinformacja sztucznej inteligencji może wstrząsnąć wyborami w 2024 r. – oto jak OpenAI planuje z nią walczyć

Dezinformacja sztucznej inteligencji może wstrząsnąć wyborami w 2024 r. – oto jak OpenAI planuje z nią walczyć

by Patricia

W związku z tym, że zagrożenie ze strony sztucznej inteligencji dla demokracji jest głównym zmartwieniem decydentów i wyborców na całym świecie, OpenAI przedstawiło w poniedziałek swój plan zapewnienia przejrzystości treści generowanych przez sztuczną inteligencję i poprawy wiarygodnych informacji o głosowaniu przed wyborami w 2024 roku.

Po uruchomieniu GPT-4 w marcu, generatywna sztuczna inteligencja i jej potencjalne nadużycia, w tym generowane przez sztuczną inteligencję deepfakes, stały się centralną częścią rozmowy na temat błyskawicznego rozwoju sztucznej inteligencji w 2023 roku. W 2024 r. możemy zobaczyć poważne konsekwencje takiej dezinformacji opartej na sztucznej inteligencji podczas ważnych wyborów, w tym wyścigu prezydenckiego w USA.

„Przygotowując się do wyborów w 2024 r. w największych demokracjach na świecie, naszym podejściem jest kontynuowanie pracy nad bezpieczeństwem platformy poprzez podnoszenie dokładnych informacji o głosowaniu, egzekwowanie zmierzonych zasad i poprawę przejrzystości” – powiedział OpenAI w poście na blogu.

OpenAI dodało, że „łączy wiedzę specjalistyczną z naszych systemów bezpieczeństwa, wywiadów zagrożeń, zespołów prawnych, inżynieryjnych i politycznych, aby szybko zbadać i rozwiązać potencjalne nadużycia”.

W sierpniu Federalna Komisja Wyborcza Stanów Zjednoczonych oświadczyła, że będzie kontynuować rozpatrywanie petycji w sprawie zakazu reklam kampanijnych generowanych przez sztuczną inteligencję, a komisarz FEC Allen Dickerson powiedział: „W tle tych wysiłków czają się poważne obawy dotyczące pierwszej poprawki”.

W przypadku amerykańskich klientów ChatGPT, OpenAI powiedział, że będzie kierować użytkowników do bezpartyjnej strony CanIVote.org, gdy zadawane są „pewne pytania proceduralne związane z wyborami”. Firma twierdzi, że wdrożenie tych zmian wpłynie na jej globalne podejście.

„Z niecierpliwością czekamy na dalszą współpracę z partnerami i uczenie się od nich, aby przewidywać i zapobiegać potencjalnym nadużyciom naszych narzędzi w okresie poprzedzającym tegoroczne globalne wybory” – dodała.

W ChatGPT, OpenAI powiedział, że uniemożliwia programistom tworzenie chatbotów, które udają prawdziwych ludzi lub instytucje, takie jak urzędnicy państwowi i urzędy. Według OpenAI, niedozwolone są również aplikacje, które mają na celu powstrzymanie ludzi przed głosowaniem, w tym zniechęcanie do głosowania lub wprowadzanie w błąd, kto jest uprawniony do głosowania.

Generowane przez sztuczną inteligencję deepfake’i, fałszywe obrazy, filmy i dźwięki tworzone przy użyciu generatywnej sztucznej inteligencji stały się wirusowe w zeszłym roku, a kilka z nich z prezydentem USA Joe Bidenem, byłym prezydentem Donaldem Trumpem, a nawet papieżem Franciszkiem stało się przedmiotem zainteresowania obrazów udostępnianych w mediach społecznościowych.

Aby zapobiec wykorzystywaniu generatora obrazów Dall-E 3 w kampaniach deepfake, OpenAI zapowiedziało, że wdroży poświadczenia treści Coalition for Content Provenance and Authenticity, które dodają znak lub „ikonę” do obrazu wygenerowanego przez sztuczną inteligencję.

„Eksperymentujemy również z klasyfikatorem pochodzenia, nowym narzędziem do wykrywania obrazów generowanych przez Dall-E” – powiedział OpenAI. „Nasze wewnętrzne testy wykazały obiecujące wczesne wyniki, nawet jeśli obrazy zostały poddane typowym modyfikacjom”.

W ubiegłym miesiącu papież Franciszek wezwał światowych przywódców do przyjęcia wiążącego międzynarodowego traktatu regulującego sztuczną inteligencję.

„Przyrodzona godność każdego człowieka i braterstwo, które łączy nas jako członków jednej rodziny ludzkiej, muszą leżeć u podstaw rozwoju nowych technologii i służyć jako niepodważalne kryteria ich oceny przed ich zastosowaniem, tak aby postęp cyfrowy mógł odbywać się z należytym poszanowaniem sprawiedliwości i przyczyniać się do pokoju” – powiedział Franciszek.

Aby ograniczyć dezinformację, OpenAI powiedział, że ChatGPT zacznie dostarczać globalne raporty informacyjne w czasie rzeczywistym, w tym cytaty i linki.

„Przejrzystość w zakresie pochodzenia informacji i równowagi w źródłach wiadomości może pomóc wyborcom lepiej oceniać informacje i samodzielnie decydować, czemu mogą zaufać” – powiedziała firma.

Zeszłego lata OpenAI przekazało 5 milionów dolarów na American Journalism Project. W poprzednim tygodniu OpenAI zawarło umowę z Associated Press, aby dać deweloperowi AI dostęp do archiwum artykułów z globalnego serwisu informacyjnego.

Komentarze OpenAI na temat atrybucji w raportach informacyjnych pojawiają się, gdy firma stoi w obliczu kilku procesów o prawa autorskie, w tym od New York Times. W grudniu Times pozwał OpenAI i Microsoft, największego inwestora OpenAI, twierdząc, że miliony jego artykułów zostały wykorzystane do szkolenia ChatGPT bez pozwolenia.

„OpenAI i Microsoft zbudowały biznes wyceniany na dziesiątki miliardów dolarów, wykorzystując połączone dzieła ludzkości bez pozwolenia” – czytamy w pozwie – „Szkoląc swoje modele, pozwani powielali materiały chronione prawem autorskim, aby wykorzystać dokładnie to, co ustawa o prawie autorskim miała chronić: elementy podlegającej ochronie ekspresji w nich zawarte, takie jak styl, dobór słów oraz układ i prezentacja faktów”.

OpenAI nazwało pozew New York Timesa „bezpodstawnym”, twierdząc, że publikacja zmanipulowała swoje podpowiedzi, aby chatbot generował odpowiedzi podobne do artykułów Timesa.

Related Posts

Leave a Comment