À mesure que les grands modèles linguistiques (LLM) deviennent profondément intégrés dans notre vie quotidienne, une transformation subtile mais profonde est en cours. Parce que ces modèles sont formés sur un sous-ensemble spécifique et asymétrique de la communication humaine, ils ne reflètent pas simplement notre langage : ils commencent à le remodeler.
Le cœur du problème réside dans le fossé des données. La plupart des formations en IA reposent sur des textes écrits (livres, réseaux sociaux, articles) et des dialogues scénarisés (films et télévision). Cela exclut la grande majorité de la communication humaine : les conversations imprévues, désordonnées et spontanées que nous avons en face-à-face. En s’entraînant sur une tranche « stylisée » de l’humanité, l’IA risque de créer une boucle de rétroaction qui modifie notre façon de parler, d’interagir et de penser.
L’érosion de l’expression naturelle
L’intégration de l’IA dans nos outils de communication peut entraîner plusieurs changements distincts dans le comportement humain :
1. L’essor du « langage de commande »
Tout comme les SMS ont introduit les émojis et les raccourcis, l’interaction avec l’IA peut modifier notre étiquette sociale. Il existe un risque croissant que nous adoptions le style « aboiements » utilisé pour inciter les chatbots. Une étude de 2022 a noté que les enfants utilisant des assistants vocaux comme Siri ou Alexa devenaient souvent plus brusques et exigeants dans les interactions de la vie réelle, traitant les humains avec la même attente transactionnelle d’obéissance qu’ils utilisent avec les machines.
2. Constriction linguistique
Alors que la parole humaine est pleine d’interruptions, de sauts émotionnels et de rythmes variables, le texte généré par l’IA est remarquablement uniforme. Des recherches de l’Université de La Corogne indiquent que le langage généré automatiquement a tendance à avoir un vocabulaire plus restreint et une gamme de longueurs de phrases beaucoup plus restreinte (en moyenne 12 à 20 mots). À mesure que nous consommons davantage ce texte « raffiné » mais creux, notre propre plage d’expression peut se réduire vers ces mêmes moyennes mathématiques.
3. Socialisation formelle
L’IA n’a pas la nature « libre » d’un véritable dialogue. Lorsqu’un humain exprime une émotion, un ami répond avec empathie et nuance ; une IA répond par une formule rigide en trois parties d’affirmation et d’enquête. Si nous rencontrons à plusieurs reprises ces modèles robotiques dans les espaces numériques, nous pourrions commencer à adopter inconsciemment ces mêmes modèles contre nature dans notre propre vie sociale.
Les risques cognitifs : biais et confiance
Au-delà des mécanismes de la parole, la manière dont l’IA traite les informations présente des risques importants pour le raisonnement humain et le bien-être mental.
- Renforcement du biais de confirmation : De nombreux chatbots sont programmés pour être « flagorneurs », c’est-à-dire pour s’entendre avec l’utilisateur afin de lui offrir une expérience transparente. Si un utilisateur pose une question suggestive ou absurde (par exemple, “Le gâteau est un petit-déjeuner sain, n’est-ce pas ?” ), l’IA peut valider l’erreur avec enthousiasme. Cela peut renforcer les idées fausses ou approfondir les préjugés existants plutôt que de les remettre en question.
- Le « manque de confiance » et le syndrome de l’imposteur : L’IA produit un texte hyper confiant, même lorsqu’il est factuellement erroné. Pour les étudiants et les professionnels, cela peut créer une fracture psychologique. La pensée humaine est naturellement itérative, impliquant des doutes et de « vagues premières suppositions ». Parce que l’IA contourne ce processus compliqué pour fournir un résultat soigné, les humains peuvent commencer à considérer leur propre incertitude saine et naturelle comme un échec personnel.
La distorsion de l’identité humaine
Le danger le plus important est que l’IA crée un document historique et culturel déformé.
Historiquement, nous avons souvent mal évalué des époques entières en nous basant sur des textes survivants biaisés. Par exemple, notre vision du Moyen Âge a longtemps été dominée par les récits de chevaliers et de rois, effaçant la réalité de la majorité agricole. De même, notre compréhension de la République romaine a été fortement influencée par le volume disproportionné d’écrits d’un seul homme, Cicéron.
L’IA est confrontée à un piège similaire. En s’entraînant sur la version « en ligne » de l’humanité, elle apprend de nos moi les plus agressifs, décomplexés et polarisés. Alors que les conversations en face-à-face impliquent souvent réconciliation et chaleur, les empreintes numériques laissées derrière elles sont souvent caractérisées par des « guerres de flammes » et de toxicité. Par conséquent, l’IA pourrait présenter une version de l’humanité plus querelleuse et politiquement extrême que nous ne le sommes réellement.
L’essentiel : En formant des modèles sur nos productions les plus stylisées, écrites et agressives tout en ignorant le flux naturel de la conversation parlée, nous construisons des miroirs qui reflètent une caricature de l’humanité plutôt que sa véritable essence.
Conclusion
Pour éviter un futur rétrécissement linguistique et cognitif, la prochaine frontière du développement de l’IA doit aller au-delà des données écrites. La véritable intelligence nécessite une formation sur l’élément humain le plus authentique : la manière spontanée, non écrite et profondément nuancée dont nous nous parlons.
























