Des teckels à l’IA : un résumé de la science, de l’échelle et de l’absurdité

0
18

L’actualité scientifique et technologique est souvent confrontée à un problème fondamental : comment rendre réel l’incompréhensible ? Qu’il s’agisse de l’immensité de l’espace ou de la complexité des données gouvernementales, l’ampleur des réalisations modernes peut sembler abstraite.

Dans cet aperçu, nous explorons comment les journalistes tentent de combler cet écart – parfois au moyen de comparaisons fantaisistes – et les risques encourus lorsque nous déléguons des tâches à enjeux élevés à l’intelligence artificielle.

Mesurer la Lune avec des chiens saucisses

La récente mission Artemis II a franchi une étape historique, avec son équipage voyageant à une distance de 406 771 kilomètres de la Terre, la distance la plus éloignée qu’un être humain ait jamais osé. Cependant, transmettre cette distance au grand public présente un défi unique.

Pour illustrer cette échelle, le New York Times a utilisé une série d’unités de mesure non conventionnelles, presque surréalistes :

  • La métrique du teckel : Si vous aligniez des teckels de 22 pouces nez à queue, vous auriez besoin d’environ 728 millions de chiens pour atteindre la lune.
  • La métrique de marche : À un rythme de marche rapide de 3 mph, il faudrait près de 10 ans de marche continue pour parcourir la distance.
  • La métrique du hot-dog : Une chaîne de 2,37 milliards de hot-dogs comblerait l’écart. Pour les consommer tous, un mangeur professionnel devrait manger sans arrêt pendant 594 ans.

Si ces comparaisons parviennent à faire « sentir » la distance, elles soulèvent des questions sur la rigueur scientifique. Utiliser des animaux vivants (ou de la viande transformée) comme règle introduit d’énormes variables en termes de taille et de cohérence. De plus, le passage des « chiens vivants » aux « hot-dogs » en tant qu’unités comparables met en évidence une tendance du journalisme scientifique : le sacrifice de la précision au profit de l’engagement.

Le problème de la mise à l’échelle relative

Au-delà de la distance physique, la langue elle-même ne parvient souvent pas à fournir des mesures précises. Cela nous amène au concept de Escalation relative endogène (ERS) : des unités qui changent de signification en fonction du contexte ou de la personne qui les utilise.

Un bon exemple est le mot “marathon.”
– En athlétisme, il s’agit d’une distance fixe de 42,195 kilomètres.
– Dans la vie quotidienne, il s’agit d’un descripteur subjectif de durée, comme une « séance d’étude marathon » ou une « séance de beuverie marathon ».

La signification d’un « marathon » dans ces contextes dépend entièrement de l’activité et, peut-être plus important encore, du niveau de tolérance de l’individu. Ce flou linguistique nous rappelle que même dans un monde de données concrètes, la perception humaine reste un filtre subjectif.

Le risque de 4 % : l’IA dans la classification gouvernementale

À mesure que l’intelligence artificielle s’intègre de plus en plus dans les flux de travail professionnels, une nouvelle frontière apparaît : l’utilisation de grands modèles linguistiques (LLM) pour gérer des tâches sensibles, telles que la classification de documents gouvernementaux.

Un article récent sur arXiv proposait d’utiliser l’IA pour remplacer le processus « à forte intensité de main-d’œuvre » et « subjectif » d’étiquetage manuel des documents. Les chercheurs ont testé un modèle sur des câbles diplomatiques américains divulgués et ont obtenu un taux de précision de 96 % en distinguant les documents non classifiés, confidentiels et secrets.

Même si 96 % semble impressionnant, dans le monde de la sécurité nationale, cela révèle une faille critique :
1. The Leakage Gap : Un taux d’erreur de 4 % signifie que des informations top secrètes pourraient être systématiquement classées à tort comme « non classifiées », conduisant à des fuites catastrophiques.
2. La direction de l’erreur : Dans les environnements à enjeux élevés, toutes les erreurs ne sont pas égales. Une IA qui qualifie un document « secret » de « non classifié » est une faille de sécurité ; une IA qui qualifie de « secret » un document « non classifié » n’est qu’un inconvénient bureaucratique.

L’étude ne précise pas encore si l’IA fait preuve de prudence ou de négligence, ni comment elle se compare à l’exactitude des experts humains.

Conclusion : Que nous utilisions des teckels pour mesurer la lune ou l’IA pour trier les secrets d’État, le pont entre les données brutes et la compréhension humaine est semé de subjectivité, d’erreurs fantaisistes et de risques systémiques importants.