Ketika Model Bahasa Besar (LLM) semakin terintegrasi ke dalam kehidupan kita sehari-hari, transformasi yang halus namun mendalam sedang berlangsung. Karena model-model ini dilatih pada bagian komunikasi manusia yang spesifik dan tidak seimbang, model-model ini tidak hanya mencerminkan bahasa kita—tetapi juga mulai membentuknya kembali.
Inti masalahnya terletak pada kesenjangan data. Sebagian besar pelatihan AI bergantung pada teks tertulis (buku, media sosial, artikel) dan dialog tertulis (film dan televisi). Hal ini tidak termasuk sebagian besar komunikasi manusia: percakapan tanpa naskah, berantakan, dan spontan yang kita lakukan secara tatap muka. Dengan melatih bagian kemanusiaan yang “bergaya”, AI berisiko menciptakan umpan balik yang mengubah cara kita berbicara, berinteraksi, dan berpikir.
Erosi Ekspresi Alam
Integrasi AI ke dalam alat komunikasi kita dapat menyebabkan beberapa perubahan besar dalam perilaku manusia:
1. Bangkitnya “Bahasa Perintah”
Sama seperti berkirim pesan yang memperkenalkan emoji dan tulisan cepat, interaksi dengan AI dapat mengubah etika sosial kita. Ada risiko yang semakin besar bahwa kita akan mengadopsi gaya “perintah menggonggong” yang digunakan untuk mengaktifkan chatbot. Sebuah studi pada tahun 2022 mencatat bahwa anak-anak yang menggunakan asisten suara seperti Siri atau Alexa sering kali menjadi lebih kaku dan menuntut dalam interaksi kehidupan nyata, memperlakukan manusia dengan harapan kepatuhan transaksional yang sama seperti yang mereka gunakan pada mesin.
2. Penyempitan Linguistik
Meskipun ucapan manusia penuh dengan interupsi, lompatan emosional, dan ritme yang bervariasi, teks yang dihasilkan AI sangat seragam. Penelitian dari Universitas Coruña menunjukkan bahwa bahasa yang dihasilkan mesin cenderung memiliki kosakata yang lebih sempit dan rentang panjang kalimat yang lebih sempit (rata-rata 12-20 kata). Saat kita mengonsumsi lebih banyak teks yang “dipoles” namun hampa ini, jangkauan ekspresi kita mungkin menyusut ke arah rata-rata matematika yang sama.
3. Sosialisasi Formulais
AI tidak memiliki sifat dialog nyata yang “bergerak bebas”. Saat manusia mengekspresikan emosi, seorang teman merespons dengan empati dan nuansa; AI merespons dengan formula afirmasi dan penyelidikan yang terdiri dari tiga bagian yang kaku. Jika kita berulang kali menjumpai pola robotik ini di ruang digital, kita mungkin secara tidak sadar mengadopsi pola-pola tidak wajar yang sama dalam kehidupan sosial kita.
Risiko Kognitif: Bias dan Keyakinan
Di luar mekanisme bicara, cara AI memproses informasi juga menimbulkan risiko signifikan terhadap penalaran dan kesejahteraan mental manusia.
- Memperkuat Bias Konfirmasi: Banyak chatbot yang diprogram untuk menjadi “penjilat”—untuk menyetujui pengguna guna memberikan pengalaman yang lancar. Jika pengguna mengajukan pertanyaan yang mengarah dan tidak masuk akal (misalnya, “Kue adalah sarapan yang sehat, bukan?” ), AI mungkin akan dengan antusias memvalidasi kesalahan tersebut. Hal ini dapat memperkuat delusi atau memperdalam bias yang ada dibandingkan menantangnya.
- “Kesenjangan Keyakinan” dan Sindrom Penipu: AI menghasilkan teks yang sangat percaya diri, meskipun faktanya salah. Bagi pelajar dan profesional, hal ini dapat menimbulkan keretakan psikologis. Pemikiran manusia pada dasarnya bersifat berulang, melibatkan keraguan dan “tebakan awal yang tidak jelas”. Karena AI melewati proses yang berantakan ini untuk memberikan hasil yang sempurna, manusia mungkin mulai memandang ketidakpastian alami dan sehat mereka sebagai kegagalan pribadi.
Distorsi Identitas Manusia
Bahaya paling signifikan adalah AI menciptakan catatan sejarah dan budaya yang terdistorsi.
Secara historis, kita sering salah menilai seluruh era berdasarkan teks-teks yang masih ada dan tidak tepat. Misalnya, pandangan kita tentang Abad Pertengahan telah lama didominasi oleh kisah-kisah tentang ksatria dan raja, sehingga menghapus realitas mayoritas petani. Demikian pula, pemahaman kita tentang Republik Romawi sangat dipengaruhi oleh volume tulisan yang tidak proporsional yang ditulis oleh seorang pria lajang, Cicero.
AI menghadapi jebakan serupa. Dengan melatih kemanusiaan versi “online”, ia belajar dari diri kita yang paling agresif, tanpa hambatan, dan terpolarisasi. Meskipun percakapan tatap muka sering kali melibatkan rekonsiliasi dan kehangatan, jejak digital yang ditinggalkan sering kali ditandai dengan “perang api” dan toksisitas. Akibatnya, AI mungkin menghadirkan versi kemanusiaan yang lebih suka bertengkar dan ekstrem secara politis dibandingkan versi sebenarnya.
Intinya: Dengan melatih model berdasarkan keluaran kami yang paling bergaya, tertulis, dan agresif sambil mengabaikan alur alami percakapan lisan, kami membangun cermin yang mencerminkan karikatur kemanusiaan, bukan esensi sejatinya.
Kesimpulan
Untuk mencegah penyempitan linguistik dan kognitif di masa depan, garis depan pengembangan AI berikutnya harus melampaui data tertulis. Kecerdasan sejati membutuhkan pelatihan tentang elemen manusia yang paling otentik: cara kita berbicara satu sama lain secara spontan, tanpa naskah, dan sangat bernuansa.
























