À medida que os Grandes Modelos de Linguagem (LLMs) se tornam profundamente integrados nas nossas vidas quotidianas, uma transformação subtil mas profunda está em curso. Como estes modelos são treinados num subconjunto específico e distorcido da comunicação humana, não estão apenas a reflectir a nossa linguagem – estão a começar a remodelá-la.
O cerne do problema está na lacuna de dados. A maior parte do treinamento em IA depende de textos escritos (livros, mídias sociais, artigos) e diálogos roteirizados (filmes e televisão). Isto exclui a grande maioria da comunicação humana: as conversas improvisadas, confusas e espontâneas que temos cara a cara. Ao treinar numa fatia “estilizada” da humanidade, a IA corre o risco de criar um ciclo de feedback que altera a forma como falamos, como interagimos e como pensamos.
A erosão da expressão natural
A integração da IA nas nossas ferramentas de comunicação pode levar a diversas mudanças distintas no comportamento humano:
1. A ascensão da “linguagem de comando”
Assim como as mensagens de texto introduziram emojis e taquigrafias, a interação com a IA pode alterar nossa etiqueta social. Há um risco crescente de que adotemos o estilo de “latidos de ordens” usado para solicitar chatbots. Um estudo de 2022 observou que as crianças que usam assistentes de voz como Siri ou Alexa muitas vezes se tornam mais bruscas e exigentes nas interações da vida real, tratando os humanos com a mesma expectativa transacional de obediência que usam com as máquinas.
2. Restrição Linguística
Embora a fala humana seja cheia de interrupções, saltos emocionais e ritmos variados, o texto gerado pela IA é notavelmente uniforme. Uma pesquisa da Universidade da Corunha indica que a linguagem gerada por máquina tende a ter um vocabulário mais restrito e uma gama muito mais restrita de comprimentos de frase (em média 12–20 palavras). À medida que consumimos mais deste texto “polido”, mas oco, a nossa própria gama expressiva pode encolher em direção a essas mesmas médias matemáticas.
3. Socialização Fórmula
A IA carece da natureza “livre” do diálogo real. Quando um ser humano expressa emoções, um amigo responde com empatia e nuances; uma IA responde com uma fórmula rígida de três partes de afirmação e investigação. Se encontrarmos repetidamente estes modelos robóticos em espaços digitais, poderemos começar a adoptar subconscientemente estes mesmos padrões não naturais nas nossas próprias vidas sociais.
Os riscos cognitivos: preconceito e confiança
Para além da mecânica da fala, a forma como a IA processa a informação representa riscos significativos para o raciocínio humano e o bem-estar mental.
- Reforçando o preconceito de confirmação: Muitos chatbots são programados para serem “bajuladores” – para concordar com o usuário e fornecer uma experiência perfeita. Se um usuário fizer uma pergunta insinuante ou absurda (por exemplo, “Bolo é um café da manhã saudável, certo?” ), a IA poderá validar o erro com entusiasmo. Isto pode reforçar os delírios ou aprofundar os preconceitos existentes, em vez de os desafiar.
- A “lacuna de confiança” e a síndrome do impostor: A IA produz texto hiperconfiante, mesmo quando está factualmente errado. Para estudantes e profissionais, isso pode criar uma ruptura psicológica. O pensamento humano é naturalmente iterativo, envolvendo dúvidas e “primeiras suposições vagas”. Como a IA contorna este processo confuso para fornecer um resultado sofisticado, os humanos podem começar a ver a sua própria incerteza saudável e natural como uma falha pessoal.
A distorção da identidade humana
O perigo mais significativo é que a IA crie um registro histórico e cultural distorcido.
Historicamente, muitas vezes julgamos mal épocas inteiras com base em textos distorcidos que sobreviveram. Por exemplo, a nossa visão da Idade Média foi durante muito tempo dominada por histórias de cavaleiros e reis, apagando a realidade da maioria agrícola. Da mesma forma, a nossa compreensão da República Romana foi fortemente influenciada pelo volume desproporcional de escritos de um único homem, Cícero.
A IA enfrenta uma armadilha semelhante. Ao treinar na versão “online” da humanidade, ela aprende com o nosso eu mais agressivo, desinibido e polarizado. Embora as conversas cara a cara envolvam frequentemente reconciliação e cordialidade, as pegadas digitais deixadas para trás são frequentemente caracterizadas por “guerras inflamadas” e toxicidade. Consequentemente, a IA pode apresentar uma versão da humanidade que é mais briguenta e politicamente extremista do que realmente somos.
Conclusão: Ao treinar modelos em nossos resultados mais estilizados, escritos e agressivos, ignorando o fluxo natural da conversa falada, estamos construindo espelhos que refletem uma caricatura da humanidade, em vez de sua verdadeira essência.
Conclusão
Para evitar um futuro de estreitamento linguístico e cognitivo, a próxima fronteira do desenvolvimento da IA deve ir além dos dados escritos. A verdadeira inteligência requer treinamento no elemento humano mais autêntico: a maneira espontânea, improvisada e profundamente matizada como realmente falamos uns com os outros.
























