Dai bassotti all’intelligenza artificiale: un riassunto di scienza, scala e assurdità

0
6

Le notizie scientifiche e tecnologiche spesso lottano con un problema fondamentale: come far sembrare reale l’incomprensibile? Che si tratti della vastità dello spazio o della complessità dei dati governativi, la portata delle conquiste moderne può sembrare astratta.

In questa panoramica, esploriamo il modo in cui i giornalisti tentano di colmare questo divario, a volte attraverso confronti stravaganti, e i rischi connessi quando deleghiamo compiti ad alto rischio all’intelligenza artificiale.

Misurare la Luna con i cani salsiccia

La recente missione Artemis II ha raggiunto un traguardo storico, con il suo equipaggio che ha viaggiato fino a una distanza di 406.771 chilometri dalla Terra, la distanza più lontana mai avventurata da un essere umano. Tuttavia, trasmettere questa distanza a un pubblico generale rappresenta una sfida unica.

Per illustrare la scala, The New York Times ha utilizzato una serie di unità di misura non convenzionali, quasi surreali:

  • La metrica del bassotto: Se allineassi bassotti da 22 pollici dal naso alla coda, avresti bisogno di circa 728 milioni di cani per raggiungere la luna.
  • Metrica della camminata: con una camminata veloce di 5 km/h, una persona impiegherebbe quasi 10 anni di camminata continua per coprire la distanza.
  • La metrica degli hot dog: una catena di 2,37 miliardi di hot dog colmerebbe il divario. Per consumarli tutti, un mangiatore professionista dovrebbe mangiare senza sosta per 594 anni.

Sebbene questi confronti riescano a far “sentire” la distanza, sollevano interrogativi sul rigore scientifico. L’uso di animali vivi (o carne lavorata) come righello introduce enormi variabili in termini di dimensioni e consistenza. Inoltre, il passaggio dai “cani vivi” agli “hot dog” come unità comparabili evidenzia una tendenza nel giornalismo scientifico: il sacrificio della precisione per amore del coinvolgimento.

Il problema della scala relativa

Al di là della distanza fisica, il linguaggio stesso spesso non riesce a fornire misurazioni precise. Questo ci porta al concetto di Endogenous Relative Scaling (ERS) : unità che cambiano significato in base al contesto o alla persona che le utilizza.

Un ottimo esempio è la parola “maratona”.
– Nell’atletica leggera è una distanza fissa di 42,195 chilometri.
– Nella vita quotidiana, è un descrittore soggettivo della durata, come una “maratona di studio” o una “maratona di bevute”.

Il significato di una “maratona” in questi contesti dipende interamente dall’attività e, forse ancora più importante, dal livello di tolleranza dell’individuo. Questa confusione linguistica ci ricorda che anche in un mondo di dati concreti, la percezione umana rimane un filtro soggettivo.

Il rischio del 4%: l’intelligenza artificiale nella classificazione governativa

Man mano che l’intelligenza artificiale diventa sempre più integrata nei flussi di lavoro professionali, sta emergendo una nuova frontiera: l’utilizzo di modelli linguistici di grandi dimensioni (LLM) per gestire compiti sensibili, come la classificazione di documenti governativi.

Un recente articolo su arXiv propone di utilizzare l’intelligenza artificiale per sostituire il processo “ad alta intensità di lavoro” e “soggettivo” di etichettatura manuale dei documenti. I ricercatori hanno testato un modello sui dispacci diplomatici statunitensi trapelati e hanno raggiunto un tasso di precisione del 96% nel distinguere tra documenti non classificati, riservati e segreti.

Anche se il 96% sembra impressionante, nel mondo della sicurezza nazionale rivela un difetto critico:
1. The Leakage Gap: Un tasso di errore del 4% significa che le informazioni top-secret potrebbero essere sistematicamente classificate erroneamente come “non classificate”, portando a fughe di notizie catastrofiche.
2. La direzione dell’errore: Negli ambienti ad alto rischio, non tutti gli errori sono uguali. Un’intelligenza artificiale che etichetta un documento “segreto” come “non classificato” è un fallimento in termini di sicurezza; un’intelligenza artificiale che etichetta un documento “non classificato” come “segreto” è semplicemente un inconveniente burocratico.

Lo studio non chiarisce ancora se l’intelligenza artificiale sbaglia per cautela o negligenza, né come si confronta con l’accuratezza degli esperti umani.

Conclusione: Sia che utilizziamo i bassotti per misurare la Luna o l’intelligenza artificiale per classificare i segreti di stato, il ponte tra i dati grezzi e la comprensione umana è irto di soggettività, errori bizzarri e rischi sistemici significativi.