Una investigación reciente sugiere que existe evidencia empírica de que los seres humanos estamos mimetizando cada vez más el lenguaje de las inteligencias artificiales en nuestro habla cotidiana. El lenguaje, como entidad viva y en constante mutación —tal como planteaba el lingüista Ferdinand de Saussure—, evoluciona a través del habla. Sin embargo, el motor de este cambio actual parece ser tecnológico.
Dos centros de investigación del Instituto Max Planck para el Desarrollo Humano de Alemania analizaron si la IA tiene la capacidad de moldear nuestra expresión oral. El equipo transcribió y examinó más de 280.000 videos de YouTube pertenecientes a 20.000 canales de divulgación académica. Los resultados indican que los humanos están adoptando patrones propios de los Modelos de Lenguaje Extensos (LLM).
Ezequiel Lopez-Lopez, uno de los autores, señaló que, si bien el lenguaje siempre ha sido influenciado por películas o canciones, el surgimiento de ChatGPT ha acelerado la adopción de términos específicos. Palabras como delve (indagar), underscore (subrayar), intricate (intrincado), realm (ámbito) y meticulous (meticuloso) han registrado incrementos de entre el 35% y el 51% en su uso durante los 18 meses posteriores al lanzamiento de la plataforma.
Ingrid Toppelberg, instructora de Innovación en el MIT, compara este fenómeno con la influencia de los medios masivos en el siglo XX, aunque ahora de forma amplificada. Según la experta, ajustamos nuestra habla al «estándar» de la IA. Esto genera una preocupación por la reducción de la diversidad lingüística: al haber sido entrenadas mayormente en inglés, las IA tienden a «pensar» en ese idioma y traducir al español utilizando marcos conceptuales y términos neutros que desplazan la riqueza poética e idiosincrática de cada lengua.
La investigación refuerza la idea de que la IA no es solo una herramienta de edición, sino un modelo cultural. El estudio evoca las teorías de J. L. Austin y Ludwig Wittgenstein, quienes sostenían que las palabras son performativas: crean mundos y generan acciones.
En este sentido, Ignacio del Carril, investigador de la Universidad Austral, advierte que la IA no es objetiva, ya que arrastra los sesgos de sus programadores y proveedores de datos. Por su parte, Damián Fernández Pedemonte (CONICET/Austral) explica que empezamos a incorporar tecnicismos informáticos en nuestra vida emocional (términos como optimizar, input o resetear), un fenómeno conocido como «avalanchas de palabras» o efecto bola de nieve.
Aunque Fernández Pedemonte aclara que la IA carece de la creatividad social y la empatía corporal de la comunicación humana —donde las palabras solo representan el 7% de la efectividad según Albert Mehrabian—, sí advierte sobre la adopción de estructuras de texto más rígidas y menos audaces.
Respecto a la manipulación, Toppelberg señala que, aunque no haya un plan deliberado de las empresas tecnológicas, el lenguaje moldea la percepción. Un ejemplo claro es la diferencia entre decir «una empresa despidió a 200 personas» frente a «realizó un proceso de optimización para mejorar la eficiencia». La infraestructura para una persuasión masiva eficiente ya existe, y el riesgo radica en empezar a pensar de forma más homogénea y con menos fricción creativa.
La conclusión de los expertos, compartida por Ortega, no es detener el avance tecnológico, sino decidir conscientemente cómo queremos que la IA influya en el lenguaje, que es la base fundamental del pensamiento y la cultura humana.