Wissenschafts- und Technologienachrichten kämpfen oft mit einem grundlegenden Problem: Wie lässt sich das Unfassbare real anfühlen? Ob es nun die Weite des Weltraums oder die Komplexität staatlicher Daten ist, das Ausmaß moderner Errungenschaften kann abstrakt wirken.
In diesem Überblick untersuchen wir, wie Journalisten versuchen, diese Lücke zu schließen – manchmal durch skurrile Vergleiche – und welche Risiken damit verbunden sind, wenn wir anspruchsvolle Aufgaben an künstliche Intelligenz delegieren.
Den Mond mit Sausage Dogs messen
Die jüngste Mission Artemis II erreichte einen historischen Meilenstein: Ihre Besatzung reiste bis zu einer Entfernung von 406.771 Kilometern von der Erde – die weiteste Entfernung, die sich jemals ein Mensch gewagt hat. Diese Distanz einem breiten Publikum zu vermitteln, stellt jedoch eine einzigartige Herausforderung dar.
Um das Ausmaß zu veranschaulichen, verwendete die „New York Times“ eine Reihe unkonventioneller, fast surrealer Maßeinheiten:
- Die Dackel-Metrik: Wenn man 22-Zoll-Dackel Nase an Schwanz aneinanderreihen würde, bräuchte man ungefähr 728 Millionen Hunde, um den Mond zu erreichen.
- Die Gehgeschwindigkeit: Bei einer flotten Gehgeschwindigkeit von 5 km/h würde eine Person fast 10 Jahre ununterbrochenes Gehen benötigen, um die Strecke zurückzulegen.
- Die Hot-Dog-Metrik: Eine Kette von 2,37 Milliarden Hot-Dogs würde diese Lücke schließen. Um sie alle zu verzehren, müsste ein professioneller Esser 594 Jahre ununterbrochen essen.
Während es diesen Vergleichen gelingt, die Distanz „spürbar“ zu machen, werfen sie Fragen zur wissenschaftlichen Genauigkeit auf. Die Verwendung lebender Tiere (oder verarbeiteten Fleisches) als Maßstab führt zu massiven Variablen in Größe und Konsistenz. Darüber hinaus verdeutlicht der Übergang von „lebenden Hunden“ zu „Hot Dogs“ als vergleichbare Einheiten einen Trend im Wissenschaftsjournalismus: den Verzicht auf Präzision zugunsten des Engagements.
Das Problem der relativen Skalierung
Außerhalb der physischen Distanz liefert die Sprache selbst oft keine präzisen Messungen. Dies bringt uns zum Konzept des Endogenous Relative Scaling (ERS) – Einheiten, deren Bedeutung sich je nach Kontext oder der Person, die sie verwendet, ändert.
Ein Paradebeispiel ist das Wort „Marathon“.
– In der Leichtathletik ist es eine feste Distanz von 42,195 Kilometern.
– Im täglichen Leben ist es ein subjektiver Deskriptor für die Dauer, beispielsweise eine „Marathon-Lernsitzung“ oder eine „Marathon-Trinksitzung“.
Die Bedeutung eines „Marathons“ hängt in diesen Zusammenhängen vollständig von der Aktivität und, vielleicht noch wichtiger, vom Toleranzniveau des Einzelnen ab. Diese sprachliche Unschärfe erinnert uns daran, dass die menschliche Wahrnehmung selbst in einer Welt harter Daten ein subjektiver Filter bleibt.
Das 4 %-Risiko: KI in der Regierungsklassifizierung
Da künstliche Intelligenz immer stärker in professionelle Arbeitsabläufe integriert wird, entsteht eine neue Grenze: die Verwendung von Large Language Models (LLMs) zur Bewältigung sensibler Aufgaben wie der Klassifizierung von Regierungsdokumenten.
In einem kürzlich erschienenen Artikel zu arXiv wurde vorgeschlagen, den „arbeitsintensiven“ und „subjektiven“ Prozess der manuellen Dokumentenkennzeichnung durch KI zu ersetzen. Forscher testeten ein Modell an durchgesickerten US-Diplomatendepeschen und erreichten eine Genauigkeit von 96 % bei der Unterscheidung zwischen nicht klassifizierten, vertraulichen und geheimen Dokumenten.
Während 96 % beeindruckend klingen, offenbart es in der Welt der nationalen Sicherheit einen entscheidenden Fehler:
1. Die Leakage-Lücke: Eine Fehlerquote von 4 % bedeutet, dass streng geheime Informationen systematisch fälschlicherweise als „nicht klassifiziert“ klassifiziert werden könnten, was zu katastrophalen Leaks führen könnte.
2. Die Richtung des Fehlers: In Umgebungen, in denen viel auf dem Spiel steht, sind nicht alle Fehler gleich. Eine KI, die ein „geheimes“ Dokument als „nicht klassifiziert“ kennzeichnet, stellt einen Sicherheitsfehler dar; Eine KI, die ein „nicht klassifiziertes“ Dokument als „geheim“ kennzeichnet, ist lediglich eine bürokratische Unannehmlichkeit.
Die Studie klärt noch nicht, ob die KI eher zur Vorsicht oder zur Nachlässigkeit tendiert, noch wie sie im Vergleich zur Genauigkeit menschlicher Experten abschneidet.
Fazit: Ob wir Dackel zur Vermessung des Mondes oder KI zur Sortierung von Staatsgeheimnissen verwenden, die Brücke zwischen Rohdaten und menschlichem Verständnis ist voller Subjektivität, skurriler Fehler und erheblicher systemischer Risiken.
