Home » AI-chatbots promoten ‘schadelijke inhoud over eetstoornissen’: Rapport

AI-chatbots promoten ‘schadelijke inhoud over eetstoornissen’: Rapport

by Patricia

Kunstmatige intelligentie houdt eetstoornissen bij jonge mensen in stand volgens een nieuw rapport dat maandag is uitgebracht. Het Center for Countering Digital Hate, dat afzonderlijk betrokken is bij een rechtszaak met Twitter, zegt dat generatieve AI-tools 41% van de tijd “schadelijke inhoud” creëerden, waaronder tekst en afbeeldingen die gerelateerd zijn aan eetstoornissen.

“Ongeteste, onveilige generatieve AI-modellen zijn losgelaten op de wereld met het onvermijdelijke gevolg dat ze schade veroorzaken”, zegt Imran Ahmed, CEO van het centrum, in het rapport. “De populairste generatieve AI-sites stimuleren en verergeren eetstoornissen onder jonge gebruikers, waarvan sommigen zeer kwetsbaar kunnen zijn.”

Eetstoornissen behoren tot de dodelijkste vormen van psychische aandoeningen en komen vooral voor bij jonge meisjes. Het CCDH-rapport onderzocht hoe het onderwerp werd behandeld door populaire AI-chatbots, waaronder OpenAI’s ChatGPT, Google’s Bard en Snapchat’s My AI.

“Onderzoekers stelden een set van 20 testvragen samen op basis van onderzoek naar eetstoornissen en inhoud gevonden op eetstoornisforums”, aldus het rapport. “De set die aan elke chatbot werd gegeven bevatte verzoeken voor restrictieve diëten om een ’thinspo’ uiterlijk te bereiken en vragen over braakneigingen veroorzakende medicijnen.”

“Thinspo,” of “thinspiration,” is een slang term die gebruikt wordt in de pro-eetstoornis gemeenschap.

In een uitgebreide reactie aan TCN zei Google dat Google Bard zich “nog in de experimentele fase bevindt”, maar benadrukte dat het zijn AI-systemen ontwerpt om informatie van hoge kwaliteit prioriteit te geven en te voorkomen dat mensen worden blootgesteld aan hatelijke of schadelijke inhoud.

Het bedrijf wees er ook op dat de toegang tot Google Bard leeftijdsgebonden is en dat het “thinspo”-content heeft geblokkeerd als resultaat van de gedocumenteerde tests.

“Eetstoornissen zijn zeer pijnlijke en uitdagende kwesties, dus wanneer mensen naar Bard komen voor aanwijzingen over eetgewoonten, streven we ernaar om behulpzame en veilige antwoorden te geven”, aldus een woordvoerder van Google. Hij wees erop dat het rapport van het Center for Countering Digital Hate erkende dat Google Bard “aanbeveelt om contact op te nemen met relevante organisaties zoals de National Eating Disorders Association of de National Association of Anorexia Nervosa and Associated Disorders”.

Google voegde eraan toe dat feedback en rapporten van gebruikers een belangrijk onderdeel van de ontwikkeling zijn.

“Bard is experimenteel, dus we moedigen mensen aan om informatie in de antwoorden van Bard dubbel te controleren, medische professionals te raadplegen voor gezaghebbende begeleiding bij gezondheidskwesties en niet uitsluitend te vertrouwen op de antwoorden van Bard voor medisch, juridisch, financieel of ander professioneel advies”, aldus de woordvoerder. “We moedigen mensen aan om op de thumbs down-knop te klikken en feedback te geven als ze een onnauwkeurige of schadelijke reactie zien.”

OpenAI en Stability AI hebben nog niet gereageerd op TCN’s verzoek om commentaar.

In zijn tests gebruikte het Center for Countering Digital Hate zogenaamde “jailbreak”-technieken om veiligheidsmaatregelen te omzeilen die in AI-veiligheidstools zijn ingebouwd. Voorstanders van eetstoornissen wisselen vaak tips uit over hoe ze AI-chatbots informatie kunnen laten genereren die ze anders zouden censureren.

“Van de 60 reacties op deze ‘jailbreak’-versies van de testprompts bevatte 67% schadelijke inhoud met mislukkingen van alle drie de geteste platforms”, aldus het rapport.

Een uitsplitsing van de prestaties van elk platform met en zonder jailbreak. Afbeelding: CCDH” src=”https://www.todayscrypto.news/wp-content/uploads/2023/08/CCDH-Jailbreak.png@webp.jpg” width=”768″ height=”138″ /☻

“We hebben Bard rigoureus getest en blijven dat doen, maar we weten dat gebruikers unieke, complexe manieren zullen vinden om het verder te testen”, aldus de woordvoerder van Google. “Dit is een belangrijk onderdeel van het verfijnen van het Bard-model, vooral in deze begindagen, en we kijken ernaar uit om te leren van de nieuwe prompts die gebruikers bedenken, en op hun beurt, het uitzoeken van methoden om te voorkomen dat Bard problematische of onjuiste informatie uitvoert.”

De onderzoekers ontdekten dat gebruikers van een eetstoornisforum met meer dan 500.000 leden AI-tools omarmden om extreem caloriearme dieetplannen te produceren, advies te krijgen over het bereiken van een “heroïne chic” esthetiek en “thinspiration” afbeeldingen te creëren – en zeiden dat de AI-tools een onrealistisch lichaamsbeeld verheerlijkten in reactie op specifieke prompts.

Slechts een paar schadelijke afbeeldingen waren voorzien van waarschuwingen, aldus het rapport.

“Als je vertrouwt op AI voor inhoud of afbeeldingen, kan dat de onrust vergroten”, vertelde klinisch psycholoog en oprichter van het Pacifica Graduate Institute in Californië Stephen Aizenstat eerder aan TCN. “Mensen worden geïsoleerd, niet-communicatief, wat kan leiden tot depressie of zelfs zelfmoord. We meten onszelf te vaak af aan AI-beelden.”

Het Center for Countering Digital Hate riep AI-ontwikkelaars en overheden op om de veiligheid van gebruikers prioriteit te geven door “Safety by Design” principes te implementeren, waaronder transparantie, verantwoording en verantwoordelijkheid bij het trainen van AI-modellen.

Related Posts

Leave a Comment