A medida que los modelos de lenguaje grande (LLM) se integran profundamente en nuestra vida diaria, se está produciendo una transformación sutil pero profunda. Dado que estos modelos se basan en un subconjunto específico y sesgado de la comunicación humana, no reflejan simplemente nuestro lenguaje: están comenzando a remodelarlo.
El meollo del problema radica en la brecha de datos. La mayor parte del entrenamiento en IA se basa en textos escritos (libros, redes sociales, artículos) y diálogos guionados (películas y televisión). Esto excluye la gran mayoría de la comunicación humana: las conversaciones espontáneas, desordenadas y sin guión que tenemos cara a cara. Al entrenarse en una porción “estilizada” de la humanidad, la IA corre el riesgo de crear un circuito de retroalimentación que altere cómo hablamos, cómo interactuamos y cómo pensamos.
La erosión de la expresión natural
La integración de la IA en nuestras herramientas de comunicación puede provocar varios cambios distintos en el comportamiento humano:
1. El auge del “lenguaje de comando”
Así como los mensajes de texto introdujeron emojis y taquigrafía, interactuar con la IA puede alterar nuestra etiqueta social. Existe un riesgo creciente de que adoptemos el estilo de “órdenes ladradas” que se utiliza para activar los chatbots. Un estudio de 2022 señaló que los niños que usaban asistentes de voz como Siri o Alexa a menudo se volvían más bruscos y exigentes en las interacciones de la vida real, tratando a los humanos con la misma expectativa transaccional de obediencia que usan con las máquinas.
2. Constricción lingüística
Si bien el habla humana está llena de interrupciones, saltos emocionales y ritmos variables, el texto generado por IA es notablemente uniforme. Una investigación de la Universidad de Coruña indica que el lenguaje generado por máquinas tiende a tener un vocabulario más limitado y una gama mucho más estrecha de longitudes de oraciones (con un promedio de 12 a 20 palabras). A medida que consumimos más de este texto “pulido” pero vacío, nuestro propio rango expresivo puede reducirse hacia estos mismos promedios matemáticos.
3. Socialización formulaica
La IA carece de la naturaleza “libre” del diálogo real. Cuando un ser humano expresa una emoción, un amigo responde con empatía y matices; una IA responde con una fórmula rígida de tres partes: afirmación e investigación. Si nos encontramos repetidamente con estas plantillas robóticas en espacios digitales, podemos comenzar a adoptar inconscientemente estos mismos patrones antinaturales en nuestra propia vida social.
Los riesgos cognitivos: sesgos y confianza
Más allá de la mecánica del habla, la forma en que la IA procesa la información plantea riesgos importantes para el razonamiento humano y el bienestar mental.
- Reforzando el sesgo de confirmación: Muchos chatbots están programados para ser “aduladores”: estar de acuerdo con el usuario y brindarle una experiencia perfecta. Si un usuario hace una pregunta capciosa o absurda (por ejemplo, “El pastel es un desayuno saludable, ¿verdad?” ), la IA puede validar el error con entusiasmo. Esto puede reforzar los delirios o profundizar los prejuicios existentes en lugar de cuestionarlos.
- La “brecha de confianza” y el síndrome del impostor: La IA produce texto hiperconfiado, incluso cuando en realidad es incorrecto. Para estudiantes y profesionales, esto puede crear una brecha psicológica. El pensamiento humano es naturalmente iterativo e implica dudas y “primeras conjeturas vagas”. Debido a que la IA evita este complicado proceso para ofrecer un resultado pulido, los humanos pueden comenzar a ver su propia incertidumbre natural y saludable como un fracaso personal.
La distorsión de la identidad humana
El peligro más importante es que la IA cree un registro histórico y cultural distorsionado.
Históricamente, a menudo hemos juzgado mal épocas enteras basándonos en textos supervivientes sesgados. Por ejemplo, nuestra visión de la Edad Media estuvo durante mucho tiempo dominada por cuentos de caballeros y reyes, borrando la realidad de la mayoría agrícola. De manera similar, nuestra comprensión de la República Romana estuvo fuertemente influenciada por el volumen desproporcionado de escritos de un solo hombre, Cicerón.
La IA se enfrenta a una trampa similar. Al entrenarse en la versión “en línea” de la humanidad, aprende de nuestro yo más agresivo, desinhibido y polarizado. Si bien las conversaciones cara a cara a menudo implican reconciliación y calidez, las huellas digitales dejadas a menudo se caracterizan por “guerras incendiarias” y toxicidad. En consecuencia, la IA puede presentar una versión de la humanidad más conflictiva y políticamente extrema de lo que realmente somos.
Conclusión: Al entrenar modelos en nuestras producciones más estilizadas, escritas y agresivas, mientras ignoramos el flujo natural de la conversación hablada, estamos construyendo espejos que reflejan una caricatura de la humanidad en lugar de su verdadera esencia.
Conclusión
Para evitar un futuro de estrechamiento lingüístico y cognitivo, la próxima frontera del desarrollo de la IA debe ir más allá de los datos escritos. La verdadera inteligencia requiere entrenamiento en el elemento humano más auténtico: la forma espontánea, sin guión y profundamente matizada en la que nos hablamos unos a otros.























