Home » Verkeerde AI-informatie kan de verkiezingen van 2024 op stelten zetten – dit is hoe OpenAI van plan is om dit tegen te gaan

Verkeerde AI-informatie kan de verkiezingen van 2024 op stelten zetten – dit is hoe OpenAI van plan is om dit tegen te gaan

by Tim

Met de dreiging van kunstmatige intelligentie voor de democratie als grootste zorg voor beleidsmakers en kiezers wereldwijd, heeft OpenAI maandag haar plan uiteengezet om te helpen de transparantie van AI-gegenereerde content te waarborgen en betrouwbare steminformatie te verbeteren in de aanloop naar de verkiezingen van 2024.

Na de lancering van GPT-4 in maart zijn generatieve AI en mogelijk misbruik ervan, waaronder AI-gegenereerde deepfakes, een centraal onderdeel geworden van het gesprek over de razendsnelle opkomst van AI in 2023. In 2024 zouden we ernstige gevolgen kunnen zien van dergelijke door AI gegenereerde desinformatie tijdens prominente verkiezingen, waaronder de Amerikaanse presidentsverkiezingen.

“Terwijl we ons voorbereiden op verkiezingen in 2024 in ’s werelds grootste democratieën, is onze aanpak om ons werk op het gebied van platformveiligheid voort te zetten door nauwkeurige steminformatie te verhogen, weloverwogen beleid af te dwingen en de transparantie te verbeteren,” zei OpenAI in een blogpost.

OpenAI voegde eraan toe dat het “de expertise van onze veiligheidssystemen, threat intelligence, juridische, technische en beleidsteams samenbrengt om snel mogelijk misbruik te onderzoeken en aan te pakken.”

In augustus zei de Amerikaanse Federal Election Commission dat ze verder zou gaan met het in overweging nemen van een petitie om AI-gegenereerde campagneadvertenties te verbieden, waarbij FEC-commissaris Allen Dickerson zei: “Er liggen serieuze bezwaren van het Eerste Amendement op de loer bij deze inspanning.”

Voor Amerikaanse klanten van ChatGPT zegt OpenAI dat het gebruikers zal doorverwijzen naar de niet-partijgebonden website CanIVote.org wanneer hen “bepaalde procedurele vragen met betrekking tot verkiezingen” worden gesteld. Het bedrijf zegt dat het doorvoeren van deze veranderingen zal leiden tot een wereldwijde aanpak.

“We kijken ernaar uit om te blijven samenwerken met en te leren van partners om te anticiperen op potentieel misbruik van onze tools en dit te voorkomen in de aanloop naar de wereldwijde verkiezingen van dit jaar,” voegde het eraan toe.

In ChatGPT zei OpenAI dat ontwikkelaars geen chatbots mogen maken die zich voordoen als echte mensen of instellingen zoals overheidsfunctionarissen en -kantoren. Ook niet toegestaan, aldus OpenAI, zijn toepassingen die als doel hebben mensen te weerhouden van stemmen, inclusief het ontmoedigen van stemmen of een verkeerde voorstelling geven van wie stemgerechtigd is.

AI-gegenereerde deepfakes, nepafbeeldingen, -video’s en -audio die zijn gemaakt met behulp van generatieve AI, zijn vorig jaar viraal gegaan, waarbij verschillende afbeeldingen van de Amerikaanse president Joe Biden, voormalig president Donald Trump en zelfs paus Franciscus centraal stonden in de afbeeldingen die op sociale media werden gedeeld.

Om te voorkomen dat zijn Dall-E 3 afbeeldingsgenerator wordt gebruikt in deepfake campagnes, zei OpenAI dat het de inhoudsreferenties van de Coalition for Content Provenance and Authenticity zal implementeren die een markering of “pictogram” toevoegen aan een AI-gegenereerde afbeelding.

“We experimenteren ook met een provenance classifier, een nieuwe tool voor het detecteren van afbeeldingen gegenereerd door Dall-E,” aldus OpenAI. “Onze interne tests hebben veelbelovende eerste resultaten laten zien, zelfs wanneer afbeeldingen zijn onderworpen aan veelvoorkomende soorten wijzigingen.”

Vorige maand riep paus Franciscus wereldleiders op om een bindend internationaal verdrag aan te nemen om AI te reguleren.

“De inherente waardigheid van elk mens en de broederschap die ons samenbindt als leden van de ene menselijke familie moeten de ontwikkeling van nieuwe technologieën onderbouwen en dienen als onbetwistbare criteria om ze te evalueren voordat ze worden ingezet, zodat digitale vooruitgang kan plaatsvinden met gepast respect voor rechtvaardigheid en kan bijdragen aan de zaak van vrede,” zei Franciscus.

Om desinformatie tegen te gaan, zei OpenAI dat ChatGPT zal beginnen met het wereldwijd aanbieden van realtime nieuwsrapportage, inclusief citaten en links.
Transparantie rond de herkomst van informatie en evenwichtigheid in nieuwsbronnen kan kiezers helpen om informatie beter te beoordelen en zelf te beslissen wat ze kunnen vertrouwen,” zei het bedrijf.

Afgelopen zomer doneerde OpenAI 5 miljoen dollar aan het American Journalism Project. De week daarvoor sloot OpenAI een overeenkomst met de Associated Press om de AI-ontwikkelaar toegang te geven tot het archief van nieuwsartikelen van de wereldwijde nieuwsuitgever.

OpenAI’s opmerkingen over toeschrijving in nieuwsberichten komen op een moment dat het bedrijf wordt geconfronteerd met verschillende rechtszaken over auteursrecht, waaronder die van de New York Times. In december klaagde de Times OpenAI en Microsoft, OpenAI’s grootste investeerder, aan omdat miljoenen van zijn artikelen zonder toestemming zouden zijn gebruikt om ChatGPT te trainen.

“OpenAI en Microsoft hebben een bedrijf opgebouwd dat in de tientallen miljarden dollars loopt door zonder toestemming gebruik te maken van de gecombineerde werken van de mensheid”, aldus de aanklacht. “Bij het trainen van hun modellen reproduceerden de gedaagden auteursrechtelijk beschermd materiaal om precies datgene te exploiteren waarvoor de Copyright Act is ontworpen om te beschermen: de elementen van beschermbare expressie binnenin, zoals de stijl, woordkeus, en ordening en presentatie van feiten.”

OpenAI heeft de rechtszaak tegen de New York Times “zonder grond” genoemd, omdat de publicatie de prompts zou hebben gemanipuleerd om de chatbot reacties te laten genereren die lijken op de artikelen van de Times.

Related Posts

Leave a Comment