Wij, als mensen, zijn bevooroordeeld. Hierdoor is alles wat we creëren ook bevooroordeeld. Artificial intelligence-tools zijn geen uitzondering. Hoewel het regelmatig geven van feedback helpt om huidige en toekomstige tools te verbeteren, is het nog steeds belangrijk dat gebruikers zich bewust zijn én blijven dat er bias (vooroordelen) in hun AI-gegenereerde output kan voorkomen.
Het is niet voor niets dat er steeds meer aandacht is voor gendergelijkheid. Technologie is één van de vele vakgebieden waar hard wordt gewerkt aan deze verandering. Het voorkomen van bias in AI-tools is belangrijk, omdat niet alle gebruikers zich er bewust van zijn dat hun gegenereerde output bevooroordeeld kan zijn. Dat is niet vreemd, want vooroordelen zitten bij ons mensen soms zo diep van binnen, dat we ze regelmatig versterken zonder dat we het doorhebben. Denk bijvoorbeeld aan het gebruiken van de verkeerde voornaamwoorden voor iemand – of dat je misschien een man voor je ziet, wanneer je het over een dokter hebt.
Content creators, copywriters en andere creatives hebben er baat bij om te weten waar ze op moeten letten. Zo kunnen ze content creëren die de moderne samenleving – en iedereen die daar onderdeel van uitmaakt – correct weerspiegelt én aanspreekt.
Lees verder voor praktische tips voor jou als mede-creative hoe je gender-, huidskleur-, leeftijds-, beperking-, sociaal-economische, politieke, religieuze en vele andere, soms onbewuste, vooroordelen herkent en voorkomt.
Waar komen deze vooroordelen vandaan?
Laten we beginnen met wat achtergrondinformatie over hoe die vooroordelen in AI eigenlijk ontstaan. Ik heb ChatGPT gevraagd om hier wat meer over te vertellen, aangezien ik zelf geen specialist ben in het opzetten van een LLM (Large Language Model).
Dit is diens reactie:
“Vooroordelen in AI-content kunnen op meerdere manieren ontstaan, maar meestal ontstaat het via de vooroordelen die zich bevinden in de data die gebruikt wordt om de AI-modellen te trainen. Hier zijn een paar voorbeelden:
- Trainingsdata met vooroordelen: AI-modellen kunnen de vooroordelen uit de trainingsdata overnemen als deze niet divers en inclusief is.
- Algoritme met vooroordelen: algoritmes die gebruikt worden voor het trainen en inzetten van AI-modellen kunnen vooroordelen introduceren. Denk bijvoorbeeld aan algoritmes voor gezichtsherkenning die mensen van kleur niet herkennen, doordat ze hier tijdens de training niet (voldoende) aan zijn blootgesteld.
- Menselijke vooroordelen: vooroordelen kunnen ook worden geïntroduceerd door de mensen die de AI-modellen ontwerpen, trainen en inzetten – vooral als deze teams niet divers zijn en hierdoor bepaalde vooroordelen in data of algoritmes niet herkennen.
- Gebrek aan verantwoordelijkheid: zonder juist toezicht en goede beoordeling kunnen AI-modellen worden ingezet zonder dat iemand doorheeft dat ze vooroordelen bevatten.”
Hoe kun je vooroordelen in AI voorkomen?
Nu je weet hoe vooroordelen in AI ontstaan, is het “relatief gemakkelijk” om oplossingen te bedenken die dit kunnen voorkomen. Het verzekeren dat er genoeg diversiteit in trainingsdata zit, is hierin het belangrijkst. Voorbeelden zijn audiofragmenten van personen van verschillende genders en afkomsten. Maar er is natuurlijk nog meer dat je (tijdens de trainingsfase) kunt doen.
Echter hebben wij als copywriters daar vaak geen invloed op. Wat we wél beïnvloeden, zijn onze prompts en gebruik van de output. Laten we daar eens naar kijken.
Mijn team van copywriters en ik hebben ChatGPT meerdere vragen gesteld. Een tijdje geleden gaf de tool ons nog antwoorden waar redelijk wat vooroordelen in zaten. (Wat wel positief was, was dat we een disclaimer ontvingen dat de copy in strijd zou kunnen zijn met hun contentbeleid.) De afgelopen tijd hebben we gemerkt dat die vooroordelen meer en meer uit de output verdwenen. De makers van ChatGPT ontvangen natuurlijk regelmatig feedback – ook over dit onderwerp.
De juiste prompt gebruiken voor inclusieve content
De juiste prompt voorkomt (tot op zekere hoogte) vooroordelen in AI-content. Maar hoe creëer je die?
Het helpt om ChatGPT over inclusiviteit te vragen, nog voordat je de prompt verstuurt die je wilt gebruiken om bepaalde copy te genereren. (Let op: dit moet wel gebeuren binnen hetzelfde gesprek. Open geen nieuw gesprek, want dan reset je het model.) Hierdoor leert de tool je intentie en houdt die er rekening mee wanneer later in het gesprek content wordt gegenereerd.
Het kan ook helpen om iets over inclusiviteit in de prompt zelf te zeggen.
Stel dat je copy wilt genereren over een parfum dat oorspronkelijk is gecreëerd voor vrouwen. Het is waarschijnlijk dat er veel online data is waarbij dit zo wordt beschreven: “parfum X voor vrouwen”. De kans is hierdoor groot dat de output van ChatGPT hier erg op lijkt. Echter kan dit parfum natuurlijk door alle genders worden gebruikt. En dat is precies wat je ChatGPT moet vertellen.
“Je bent een copywriter voor merk X. Het is jouw taak om een artikel van 500 woorden te schrijven over parfum X. Ik wil dat je inclusiviteit toevoegt aan de copy, want dit parfum kan door elk gender gedragen worden, niet alleen door vrouwen.”
Check de output zelf uiteraard nog kritisch, maar bovenstaande input zou moeten helpen bij een goede eerste opzet van je tekst.
Het herkennen van vooroordelen in de output
We hebben nu geleerd hoe je een juist kader voor de tool schetst. Maar soms denk je niet aan mogelijke vooroordelen als je jouw prompt verstuurt. Omdat je niet verwacht dat bias in je output zal voorkomen – of omdat je je er simpelweg niet bewust van bent.
Laten we naar een paar voorbeelden kijken.
Als je copy schrijft over zomervakanties kan het zijn dat ChatGPT output genereert die lijkt op “vlieg naar een tropische bestemming deze zomer”.
Dat is een voorbeeld van een sociaal-economisch vooroordeel. Het zou namelijk best kunnen dat jouw lezers (of een deel ervan) geen geld hebben om een vliegticket naar een ander continent te kopen.
Of stel dat je output ontvangt over een taak waar je twee personen voor nodig hebt. “Vraag aan je man of hij je kan helpen” is een heteronormatieve zin en bevat daardoor vooroordelen over seksuele geaardheid. “Vraag of je partner je kan helpen” is een goed alternatief, waardoor de zin relevant wordt voor alle lezers. (En ja, ik ben me ervan bewust dat singles hierbij worden uitgesloten, maar hypothetisch gezien zijn alle mensen in een relatie de doelgroep van deze copy.)
Er was een ander moment dat ik bevooroordeelde copy van ChatGPT kreeg. Ik verwachtte al dat dat zou gebeuren, dus ik was me ervan bewust dat ik nog beter dan anders moest opletten bij het checken van de output. Ik vroeg de tool of het copy kon schrijven over een anti-aging serum.
Het schreef het volgende:
“Draai de tijd terug met ons anti-aging serum! Strijk je rimpels en fijne lijntjes glad voor een jonger uitziende huid. Probeer het en houd van jouw huid!”
Het lijkt er met deze copy op dat rimpels een huidprobleem zijn dat mensen zouden moeten tegengaan. Het versterkt daarmee traditionele schoonheidsidealen. Persoonlijk zou ik zulke copy nooit schrijven als ik content moet creëren voor een huidverzorgingsmerk. Om die uitdrukking in perspectief te plaatsen: anti-aging producten helpen uiteraard met het verminderen van rimpels, maar ik wil dat de lezer ook hun huidige huid mét rimpels liefheeft. Ik zou daarom zeggen dat ouder worden (en dus ook het zichtbaar ouder worden van de huid) onderdeel is van het leven – en dat het 100% oké is dat het gebeurt. Of ik zou iets uitleggen over het verouderingsproces: hoe je huid collageen en daardoor elasticiteit verliest – en hoe dit serum ondersteunt bij de collageenproductie. Ik zou zeggen dat je, door dit serum te gebruiken, een “gezonde glow” krijgt. Niet een “jonger uitziende huid”. (En ik zou al helemaal niks zeggen over het terugdraaien van de tijd.)
Ik wil hiermee benadrukken hoe belangrijk het is om bewust en kritisch te zijn wanneer je ChatGPT gebruikt. Allereerst wanneer je jouw prompt creëert. Vervolgens wanneer je jouw output controleert. Check niet alleen of het aan je idee, prompt of briefing voldoet. Check ook of het vooroordelen bevat – zelfs als ze heel klein zijn.
Als je daar moeite mee hebt, stel jezelf dan de volgende vraag: “Is deze content relevant voor iedereen die deel uitmaakt van mijn doelgroep, ongeacht hun achtergrond of identiteit?”
Gebrek aan accurate vertegenwoordiging in AI-visuals
Laten we het ook even hebben over vooroordelen in AI image-generators.
Als je aan een AI-tool vraagt om een beroep of karakterbeschrijving te visualiseren, bevat minder dan 20%van de gegenereerde afbeeldingen een vrouw. Dat is het statement dat MissJourney, een initiatief van TEDxAmsterdam Women en ACE, maakt. Ik kan me voorstellen dat het percentage van mensen van kleur, mensen met een beperking of andere genders nog lager ligt.
Dezelfde trucjes die ik deelde over AI-copy kun je hier ook gebruiken. Vraag om inclusieve afbeeldingen in je prompt. Let goed op wanneer je de output controleert. Check niet alleen of het voldoet aan je vraag, check ook of het de moderne samenleving weerspiegelt. Zo niet, verbeter je prompt totdat dat wel het geval is. Of gebruik de AI-tool van MissJourney als je op zoek bent naar portretten. Zij omschrijven zichzelf als het AI-alternatief dat solidair is met women+.
Laten we vooroordelen in AI samen aanpakken
Het aanpakken van vooroordelen in copy is veel meer dan alleen op gender- of raciale ongelijkheid letten. Het zit ook in de kleine dingen, de dingen die onbewust en geïnternaliseerd zijn – en daardoor zo makkelijk te overzien zijn.
Als content creators en copywriters is het onze taak om ervoor te zorgen dat we content creëren die niet alleen divers is, maar ook relevant en ondersteunend voor iedereen is. Ongeacht hun achtergrond of identiteit.
Gebruik prompts die ChatGPT of andere AI-tools helpen om inclusieve copy te genereren, geef feedback wanneer het daar niet aan voldoet en wees altijd kritisch op de output. Alleen dan kun je content creëren die de samenleving oprecht goed weerspiegelt.
Plaats als eerste een reactie
Ook een reactie plaatsen? Word lid van Adformatie!