Wetenschaps- en technologienieuws kampen vaak met een fundamenteel probleem: hoe zorg je ervoor dat het onbegrijpelijke echt aanvoelt? Of het nu gaat om de uitgestrektheid van de ruimte of de complexiteit van overheidsgegevens, de schaal van moderne prestaties kan abstract aanvoelen.
In dit overzicht onderzoeken we hoe journalisten die kloof proberen te overbruggen – soms door grillige vergelijkingen – en welke risico’s het met zich meebrengt als we taken met een hoge inzet delegeren aan kunstmatige intelligentie.
Het meten van de maan met worsthonden
De recente Artemis II -missie bereikte een historische mijlpaal, waarbij de bemanning een afstand van 406.771 kilometer van de aarde aflegde – de verste afstand die een mens zich ooit heeft gewaagd. Het overbrengen van die afstand naar een algemeen publiek vormt echter een unieke uitdaging.
Om de schaal te illustreren gebruikte The New York Times een reeks onconventionele, bijna surrealistische meeteenheden:
- De teckelmetriek: Als je teckels van 22 inch neus aan staart op een rij zou zetten, zou je ongeveer 728 miljoen honden nodig hebben om de maan te bereiken.
- De wandelmetriek: Bij een stevig wandeltempo van 5 km/uur zou het iemand bijna 10 jaar ononderbroken lopen kosten om de afstand af te leggen.
- De Hotdog-metriek: Een keten van 2,37 miljard hotdogs zou het gat overbruggen. Om ze allemaal te consumeren zou een professionele eter 594 jaar non-stop moeten eten.
Hoewel deze vergelijkingen erin slagen de afstand ‘voelbaar te maken’, roepen ze vragen op over de wetenschappelijke nauwkeurigheid. Het gebruik van levende dieren (of verwerkt vlees) als liniaal introduceert enorme variabelen in grootte en consistentie. Bovendien benadrukt de overgang van ‘levende honden’ naar ‘hotdogs’ als vergelijkbare eenheden een trend in de wetenschapsjournalistiek: het opofferen van precisie ten behoeve van betrokkenheid.
Het probleem van relatieve schaalvergroting
Afgezien van de fysieke afstand, slaagt de taal zelf er vaak niet in nauwkeurige metingen te verrichten. Dit brengt ons bij het concept van Endogene Relatieve Schaling (ERS) : eenheden die van betekenis veranderen op basis van de context of de persoon die ze gebruikt.
Een goed voorbeeld is het woord “marathon.”
– Bij atletiek is het een vaste afstand van 42,195 kilometer.
– In het dagelijks leven is het een subjectieve omschrijving van de duur, zoals een ‘marathonstudiesessie’ of een ‘marathondrinksessie’.
De betekenis van een ‘marathon’ in deze contexten hangt volledig af van de activiteit en, misschien nog belangrijker, van het individu’s tolerantieniveau. Deze taalkundige vaagheid herinnert ons eraan dat zelfs in een wereld van harde data de menselijke perceptie een subjectief filter blijft.
Het risico van 4%: AI in overheidsclassificatie
Naarmate kunstmatige intelligentie meer geïntegreerd raakt in professionele workflows, ontstaat er een nieuwe grens: het gebruik van Large Language Models (LLM’s) om gevoelige taken uit te voeren, zoals het classificeren van overheidsdocumenten.
In een recent artikel over arXiv wordt voorgesteld om AI te gebruiken om het ‘arbeidsintensieve’ en ‘subjectieve’ proces van het handmatig labelen van documenten te vervangen. Onderzoekers testten een model op gelekte Amerikaanse diplomatieke kabels en bereikten een nauwkeurigheidspercentage van 96% bij het maken van onderscheid tussen niet-geclassificeerde, vertrouwelijke en geheime documenten.
Hoewel 96% indrukwekkend klinkt, onthult het in de wereld van de nationale veiligheid een kritieke fout:
1. De lekkloof: Een foutenpercentage van 4% betekent dat uiterst geheime informatie systematisch verkeerd kan worden geclassificeerd als ‘niet-geclassificeerd’, wat tot catastrofale lekken kan leiden.
2. De richting van de fout: In omgevingen waar veel op het spel staat, zijn niet alle fouten gelijk. Een AI die een ‘geheim’ document als ‘niet-geclassificeerd’ bestempelt, is een beveiligingsfout; een AI die een ‘niet-geclassificeerd’ document als ‘geheim’ bestempelt, is slechts een bureaucratisch ongemak.
Het onderzoek maakt nog niet duidelijk of de AI voorzichtig of nalatig is, en ook niet hoe dit zich verhoudt tot de nauwkeurigheid van menselijke experts.
Conclusie: Of we nu teckels gebruiken om de maan te meten of AI om staatsgeheimen te sorteren, de brug tussen ruwe gegevens en menselijk begrip is beladen met subjectiviteit, grillige fouten en aanzienlijke systeemrisico’s.
