De taalkundige spiegel: hoe vooroordelen over AI-training het menselijk denken en spreken kunnen hervormen

0
29

Nu grote taalmodellen (LLM’s) diep geïntegreerd raken in ons dagelijks leven, is er een subtiele maar diepgaande transformatie gaande. Omdat deze modellen zijn getraind op een specifieke, scheve subset van menselijke communicatie, weerspiegelen ze niet alleen onze taal; ze beginnen deze opnieuw vorm te geven.

De kern van het probleem ligt in de datakloof. De meeste AI-trainingen zijn gebaseerd op geschreven tekst (boeken, sociale media, artikelen) en scriptdialogen (films en televisie). Dit sluit de overgrote meerderheid van de menselijke communicatie uit: de ongeschreven, rommelige en spontane gesprekken die we face-to-face voeren. Door te trainen op een ‘gestileerd’ deel van de mensheid riskeert AI een feedbacklus te creëren die de manier waarop we spreken, hoe we met elkaar omgaan en hoe we denken verandert.

De erosie van natuurlijke expressie

De integratie van AI in onze communicatiemiddelen kan leiden tot verschillende duidelijke verschuivingen in menselijk gedrag:

1. De opkomst van “commandotaal”

Net zoals sms’en emoji’s en steno introduceerde, kan interactie met AI onze sociale etiquette veranderen. Er bestaat een groeiend risico dat we de stijl van ‘blaffende bevelen’ zullen overnemen die wordt gebruikt om chatbots te waarschuwen. Uit een onderzoek uit 2022 bleek dat kinderen die stemassistenten zoals Siri of Alexa gebruikten, vaak kortaf en veeleisender werden in interacties in het echte leven, waarbij ze mensen behandelden met dezelfde transactionele verwachting van gehoorzaamheid die ze bij machines gebruiken.

2. Taalkundige beperking

Terwijl de menselijke spraak vol onderbrekingen, emotionele sprongen en variërende ritmes zit, is de door AI gegenereerde tekst opmerkelijk uniform. Uit onderzoek van de Universiteit van Coruña blijkt dat machinaal gegenereerde taal doorgaans een smallere woordenschat en een veel kleiner bereik aan zinslengtes heeft (gemiddeld 12 tot 20 woorden). Naarmate we meer van deze ‘gepolijste’ maar holle tekst consumeren, kan ons eigen expressieve bereik kleiner worden in de richting van dezelfde wiskundige gemiddelden.

3. Formeel socialiseren

AI mist het ‘vrijlopende’ karakter van echte dialoog. Wanneer een mens emotie uit, reageert een vriend met empathie en nuance; een AI reageert met een rigide, driedelige formule van bevestiging en onderzoek. Als we deze robotachtige sjablonen herhaaldelijk tegenkomen in digitale ruimtes, kunnen we onbewust dezelfde onnatuurlijke patronen gaan overnemen in ons eigen sociale leven.

De cognitieve risico’s: vooroordelen en vertrouwen

Naast de mechanismen van spraak brengt de manier waarop AI informatie verwerkt aanzienlijke risico’s met zich mee voor het menselijk redeneren en geestelijk welzijn.

  • Versterking van de voorkeur voor bevestiging: Veel chatbots zijn geprogrammeerd om “sycofantisch” te zijn: om met de gebruiker overeen te komen om een ​​naadloze ervaring te bieden. Als een gebruiker een suggestieve of absurde vraag stelt (bijvoorbeeld “Taart is toch een gezond ontbijt?” ), kan de AI de fout enthousiast valideren. Dit kan waanvoorstellingen versterken of bestaande vooroordelen verdiepen in plaats van ze uit te dagen.
  • De ‘vertrouwenskloof’ en het bedriegersyndroom: AI produceert tekst die hyperzelfverzekerd is, zelfs als deze feitelijk onjuist is. Voor studenten en professionals kan dit een psychologische kloof veroorzaken. Het menselijk denken is van nature iteratief en brengt twijfel en ‘vage eerste gissingen’ met zich mee. Omdat AI dit rommelige proces omzeilt om een ​​gepolijst resultaat af te leveren, kunnen mensen hun eigen gezonde, natuurlijke onzekerheid als een persoonlijk falen gaan zien.

De vervorming van de menselijke identiteit

Het grootste gevaar is dat AI een vervormd historisch en cultureel verslag creëert.

Historisch gezien hebben we vaak hele tijdperken verkeerd beoordeeld op basis van scheve overgebleven teksten. Onze kijk op de Middeleeuwen werd bijvoorbeeld lange tijd gedomineerd door verhalen over ridders en koningen, waardoor de realiteit van de boerenmeerderheid werd uitgewist. Op dezelfde manier werd ons begrip van de Romeinse Republiek sterk beïnvloed door de onevenredige hoeveelheid geschriften van één enkele man, Cicero.

AI wordt geconfronteerd met een soortgelijke valkuil. Door te trainen in de ‘online’ versie van de mensheid leert het van ons meest agressieve, ongeremde en gepolariseerde zelf. Terwijl face-to-face gesprekken vaak gepaard gaan met verzoening en warmte, worden de digitale voetafdrukken die achterblijven vaak gekenmerkt door ‘vlamoorlogen’ en giftigheid. Bijgevolg kan AI een versie van de mensheid presenteren die twistzieker en politiek extremer is dan wij in werkelijkheid zijn.

Waar het op neerkomt: Door modellen te trainen op onze meest gestileerde, geschreven en agressieve output, terwijl we de natuurlijke stroom van gesproken gesprekken negeren, bouwen we spiegels die een karikatuur van de mensheid weerspiegelen in plaats van de ware essentie ervan.


Conclusie
Om een toekomst van taalkundige en cognitieve vernauwing te voorkomen, moet de volgende grens van de AI-ontwikkeling verder gaan dan geschreven data. Ware intelligentie vereist training in het meest authentieke menselijke element: de spontane, ongescripte en diep genuanceerde manier waarop we daadwerkelijk met elkaar praten.