Home » Deze AI-chatbot heeft het verschil geleerd tussen goed en kwaad

Deze AI-chatbot heeft het verschil geleerd tussen goed en kwaad

by Tim

Kunstmatige intelligentie (AI) genereert vaak fictieve en aanstootgevende inhoud. Anthropic, een bedrijf onder leiding van voormalige OpenAI-onderzoekers, vaart een andere koers – het ontwikkelen van een AI die weet wat goed en kwaad is met minimale menselijke tussenkomst.

Anthropic’s chatbot Claude is ontworpen met een unieke “grondwet”, een verzameling regels geïnspireerd door de Universele Verklaring van de Rechten van de Mens, gemaakt om ethisch gedrag te garanderen naast robuuste functionaliteit, samen met andere “ethische” normen zoals Apple’s regels voor app-ontwikkelaars.

Het concept van een “grondwet” kan echter meer metaforisch dan letterlijk zijn. Jared Kaplan, een ex-OpenAI consultant en een van de oprichters van Anthropic, vertelde Wired dat de grondwet van Claude kan worden geïnterpreteerd als een specifieke set trainingsparameters – die elke opleider gebruikt om zijn AI te modelleren. Dit impliceert een andere set overwegingen voor het model, dat zijn gedrag meer afstemt op zijn grondwet en acties ontmoedigt die als problematisch worden beschouwd.

Anthropic’s trainingsmethode wordt beschreven in een onderzoekspaper getiteld “Constitutional AI: Harmlessness from AI Feedback,” dat een manier uitlegt om te komen tot een “onschadelijke” maar nuttige AI die, eenmaal getraind, in staat is om zichzelf te verbeteren zonder menselijke feedback, door ongepast gedrag te identificeren en zijn eigen gedrag aan te passen.

Dankzij de grondwettelijke AI en onschadelijkheidstraining kunt u erop vertrouwen dat Claude uw bedrijf en de behoeften ervan vertegenwoordigt”, zegt het bedrijf op zijn officiële website. “Claude is getraind om zelfs onaangename of kwaadaardige gesprekspartners met gratie te behandelen.”

Claude kan meer dan 100.000 tokens aan informatie verwerken – veel meer dan ChatGPT, Bard of elk ander competent groot taalmodel of AI-chatbot dat momenteel beschikbaar is.

In de wereld van AI verwijst een “token” over het algemeen naar een brok gegevens, zoals een woord of teken, dat het model verwerkt als een discrete eenheid. De tokencapaciteit van Claude stelt het in staat om uitgebreide conversaties en complexe taken te beheren, waardoor het een geduchte aanwezigheid is in het AI-landschap. In de context kun je gemakkelijk een heel boek als prompt geven, en dan weet hij wat hij moet doen.

AI en het relativisme van goed vs kwaad

De bezorgdheid over ethiek in AI is urgent, maar het is een genuanceerd en subjectief gebied. Ethiek, zoals geïnterpreteerd door AI-opleiders, kan het model beperken als die regels niet overeenkomen met bredere maatschappelijke normen. Een te grote nadruk op de persoonlijke perceptie van een trainer van “goed” of “slecht” kan het vermogen van de AI om krachtige, onbevooroordeelde reacties te genereren, beperken.

Over deze kwestie is heftig gedebatteerd door AI-enthousiastelingen, die zowel de ingreep van OpenAI in zijn eigen model prijzen als bekritiseren (afhankelijk van hun eigen vooroordelen) in een poging om het politiek correcter te maken. Maar hoe paradoxaal het ook klinkt, een AI moet getraind worden met onethische informatie om onderscheid te kunnen maken tussen ethisch en onethisch. En als de AI op de hoogte is van deze datapunten, zullen mensen onvermijdelijk een manier vinden om het systeem te “jailbreaken”, deze beperkingen te omzeilen en resultaten te behalen die de trainers van de AI probeerden te vermijden.

De implementatie van Claude’s ethische raamwerk is experimenteel. OpenAI’s ChatGPT, dat ook onethische prompts wil vermijden, heeft gemengde resultaten opgeleverd. Toch is de poging om het ethische misbruik van chatbots frontaal aan te pakken, zoals aangetoond door Anthropic, een opmerkelijke stap in de AI-industrie.

De ethische training van Claude moedigt het aan om antwoorden te kiezen die in lijn zijn met zijn grondwet, gericht op het ondersteunen van vrijheid, gelijkheid, een gevoel van broederschap en respect voor individuele rechten. Maar kan een AI consequent ethische reacties kiezen? Kaplan gelooft dat de technologie al verder is dan velen denken. “Dit werkt gewoon op een eenvoudige manier”, zei hij vorige week op het Stanford MLSys Seminar. “Deze onschadelijkheid wordt beter naarmate je dit proces doorloopt.”

Helpfulness to harmlessness ratio van een model met behulp van Constitutional AI (grijs) versus standaardmethoden (kleuren). Afbeelding: Anthropic” src=”https://www.todayscrypto.news/wp-content/uploads/2023/06/descarga-15.png@webp.jpg” width=”650″ height=”383″ /☻

De Claude van Anthropic herinnert ons eraan dat AI-ontwikkeling niet alleen een technologische race is, maar ook een filosofische reis. Het gaat niet alleen om het creëren van AI die “intelligenter” is – voor onderzoekers op het scherpst van de snede gaat het om het creëren van een AI die de dunne lijn begrijpt die goed van kwaad scheidt.

Related Posts

Leave a Comment