Ir al contenido
_
_
_
_
EN PORTADA

Ya empezamos a hablar como robots

El uso de inteligencia artificial está conduciendo a un aplanamiento de nuestro lenguaje que es evidente en los correos que escribimos, en los textos que redactamos. Ya lo recogen los estudios. La verborrea robótica borra la vulnerabilidad, el humor, aquello que nos hace humanos

Robots
Karelia Vázquez

Vivimos una chatgptificación de todo. A la espera del gran salto que nos cambiará la vida que prometen empresas con un presupuesto millonario de marketing, los grandes modelos de lenguaje, del que ChatGPT es el más implantado, nos hacen hablar con palabras raras, combinando adjetivos que hace tres años nunca hubiéramos usado. Les confiamos nuestras intimidades a un ente que en el futuro podría “declarar” contra nosotros en un juicio (circunstancia de la que ha advertido el propio Sam Altman, CEO de OpenAI), y regresamos al pensamiento mágico, creyendo que por unos euros al mes tenemos en el ordenador el oráculo.

Desde noviembre de 2022, cuando se lanzó ChatGPT, somos más inseguros y preferimos que un robot decida por nosotros y escriba nuestros correos electrónicos que enviamos sin leer y somos incapaces de recordar. Trabajamos menos, es cierto. El que quizás ya sea el estudio del MIT más citado este año, Your Brain on ChatGPT (tu cerebro con ChatGPT), constata que somos un poco más vagos que hace tres años. También más crédulos, mediocres y, paradójicamente, desconfiados. Usamos la IA para casi todo, al tiempo que sospechamos y no queremos pagar por algo que nos huela a sintético, generado por los mismos sistemas que veneramos.

En los congresos científicos donde el inglés es la lengua franca hay una letra escarlata: el verbo to delve (en español diríamos ahondar o profundizar). “Es la palabra estandarte que delata a quien se ha pasado con ChatGPT”, confirma Ezequiel López, investigador del Instituto Max Planck. López es coautor de una investigación que, tras analizar 280.000 vídeos de canales académicos de YouTube, demostró que 18 meses después de la salida al mundo de ChatGPT, el uso de delve había aumentado un 51% en charlas y conferencias, y también en 10.000 artículos científicos editados por modelos de inteligencia artificial. Delve, un verbo que apenas se empleaba en la era pre-ChatGPT, se ha convertido en un neón que marca a quien repite todo lo que vomita la IA generativa de Sam Altman. “Ahora es una palabra tabú que se evita porque enseguida empiezan las risas”, cuenta López. A estas alturas del juego, ChatGPT manda en lo que decimos, pero también en lo que callamos.

Los expertos en lingüística computacional de la Universidad Estatal de Florida Tom S. Juzek y Zina B. Ward creen que el uso exagerado de algunas palabras en ChatGPT se debe a “pequeños sesgos y errores en el proceso de retroalimentación humana que se van acumulando con el tiempo”. Lo que viene a continuación es un espóiler para los que creen que estos modelos “van sofisticadamente solos”: “Los empleados de las empresas de IA que revisan los LLM (grandes modelos de lenguaje, por sus siglas en inglés) son trabajadores mal pagados de Nigeria y Kenia, donde el verbo to delve se usa con más frecuencia que en Estados Unidos y el Reino Unido”, escriben en un estudio publicado en agosto. Ha pasado lo mismo con palabras como intricate [intrincado], commendable [encomiable] y meticulous [meticuloso].

No solo es lo que escribimos, o que de repente adoptemos el léxico de un académico del siglo XX, es también el ritmo y la cadencia, y cómo empezamos a sonar. Los investigadores sospechan que la rápida adopción de ChatGPT —un modelo que ya usa el 10% de la población mundial— empieza a notarse en el tono artificialmente correcto de un discurso lleno de frases cortas y vacías que elimina cualquier traza de emoción y vulnerabilidad, dos rasgos que hacen únicas nuestras conversaciones.

A su buzón de correo, como al mío, llegarán cada día mensajes planos como la meseta de Castilla, correctísimos, estructurados en tres párrafos de entre cuatro y cinco líneas de frases separadas por puntos, con abundancia de verbos y adjetivos y una franca escasez de sustantivos, señal inequívoca de que se dan muchas vueltas para decir poco. “No se avanza en el discurso, se parafrasea el párrafo anterior”, precisa Lara Alonso Simón, profesora de la Universidad Complutense. Esos correos sin alma y sin erratas que no activan su impulso de responder porque, sospecha usted, no hay nadie detrás, son también la letra escarlata del aplanamiento del estilo que ha llegado con modelos como ChatGPT, Gemini o Claude. Si le parece que todo es mucho más aburrido desde 2023 no son ideas suyas, los lingüistas piensan lo mismo.

“ChatGPT tiene un estilo distintivo”, explica por correo Philip Seargeant, catedrático de Lingüística Aplicada en The Open University (Reino Unido), “redacta de un modo competente pero desabrido. Hay poca variación en la escritura y ciertas construcciones se repiten con regularidad”. Algunos rasgos que delatan el uso de una IA son “meter en medio de las oraciones frases explicativas entre guiones largos o citar los ejemplos siempre en grupos de tres, algo muy común en la forma de redactar las comunicaciones oficiales.

Ana María Fernández y Lara Alonso Simón son investigadoras de la Universidad Complutense y han centrado sus trabajos en el impacto de ChatGPT en el idioma español. En su investigación ¿Tienen GPT-3.5 y GPT-4 un estilo de escritura diferente del estilo humano? Un estudio exploratorio para el español han detectado, entre otros rasgos distintivos, un escaso uso de los signos de puntuación, de todos excepto uno: el punto y seguido. “Por eso todo suena entrecortado. Los humanos hacemos frases más largas y complejas con muchas subordinadas”, dice Alonso. Fernández explica que observaron que ChatGPT nunca se saltaba la estructura canónica del español: sujeto, verbo y predicado. “Un orden que los humanos dislocamos constantemente para poner la atención donde nos interesa”, indica la experta. Este trabajo constató que la IA en español genera, con frecuencia, traducciones literales del inglés, por ello usa muchos gerundios y pone los adjetivos en pares: “grande y bonito”, por ejemplo, explica Lara.

Adam Aleksic, autor de Algospeak: How Social Media Is Transforming the Future of Language (algolengua: cómo las redes sociales transforman el futuro del lenguaje, 2025), apunta en su libro que la mayoría de la gente no sabe que los chatbots tienen esos sesgos hacia determinadas palabras o modos de hablar. “Ellos asumen que están hablando normal porque justo para conseguir esa normalidad se ha diseñado la interfaz de la herramienta. También asumen que los textos que consumen son humanos, incluso cuando podrían haber sido generados por una IA”. Según Aleksic, ni siquiera los más perspicaces podrán librarse del tono chatbot porque cada vez habrá más palabras neón. “Es normal que los mapas mentales del lenguaje evolucionen, pero ahora nos encontramos en un bucle de retroalimentación donde nuestros mapas convergen con los de los chatbots”, escribe Aleksic, que opina que, a medida que se haga más difícil distinguir el lenguaje humano del generado artificialmente, y a medida que los LLM se entrenen con la escritura humana influida por la IA y con su propio contenido, la preponderancia de este lenguaje robótico y sin apenas variaciones será cada vez mayor.

El grupo de investigación del Instituto Max Planck constata que no somos inmunes a la interacción con ChatGPT. “Adoptaremos sus palabras y giros si nos resultan útiles. Nos influye como lo haría un compañero de trabajo, o mucho más porque ningún ser humano tiene a otro a su disposición las 24 horas, mucho menos a uno que siempre le da la razón”, expone López por videollamada desde Berlín.

Las impresiones que tenemos a partir de las señales lingüísticas tienen consecuencias. Alguien que hable como nosotros inmediatamente nos parece de fiar. Pensar que estamos interactuando con una IA aún nos pone en guardia. Es lo que demostró un estudio de la Universidad de Cornell publicado en la revista Nature que afirma que no es ni siquiera el uso real de la IA —algo complicado de demostrar— lo que desalienta, sino la sospecha. El estudio demostró cómo al adoptar la IA se iban diluyendo los tres niveles de confianza que apuntalan la comunicación humana. El primero los expertos lo llaman “señales básicas de humanidad” y son las pistas que nos delatan: los errores, la vulnerabilidad o los rituales personales; el segundo se refiere a la atención y al esfuerzo que dedicamos para mostrar al que tenemos enfrente que nos importa lo que estamos diciendo o escribiendo; y el tercero incluye el sentido del humor, la competencia y nuestro verdadero yo. Los expertos lo ilustran con un mensaje. “No es lo mismo decir: ‘Siento que estés molesto” que: “Oye, disculpa que me rayara en la cena, no tuve un buen día”. Del primero, tan aséptico, se duda; con el segundo, uno empatiza y se lo cree.

Juan Antonio Latorre García es lingüista forense y profesor del Departamento de Estudios Ingleses de la Universidad Complutense de Madrid. Últimamente está centrado en detectar plagios con inteligencia artificial. “Mis alumnos no intentan colármela, ya saben a lo que me dedico”, cuenta por teléfono. Para un estudio sobre cómo identificar trabajos de estudiantes producidos con ayuda de una IA, Latorre encargó a dos grupos un ensayo sobre la película El club de los poetas muertos, el primero podía usar diccionarios y herramientas online tradicionales y al segundo se le permitió usar ­ChatGPT, pero no para darle simplemente la orden de redactar: unas semanas antes debían entrenarlo para producir un material casi humano, y para ello debían proporcionarle información exhaustiva del autor, incluidos sus textos. El objetivo del profesor era averiguar si él sería capaz de identificar el material elaborado con inteligencia artificial. “El panorama es desolador”, dice Latorre, “solo se puede detectar el texto producido por ChatGPT por los rasgos ideolectales, que son las elecciones que hace continuamente cada persona para expresarse, y esto lo puede hacer un lingüista pero no un profesor de Biología o Medicina”. Latorre cree que los exámenes escritos irán perdiendo relevancia a favor de los orales. Para este experto, lo curioso de ChatGPT es que escoge siempre el rasgo más probable, el más estándar”, cuenta en conversación telefónica.

Cuando Gutmaro Gómez, catedrático de Historia Contemporánea de la Universidad Complutense, se encuentra un examen donde se describe la Guerra Civil como si fuera la guerra de las galaxias, “una lucha entre el bien y el mal”, con un lenguaje elevado, citas del siglo XX y una bibliografía desfasada, sabe que con ChatGPT ha topado. “Un chaval de 24 años con un lenguaje académico obsoleto que repite hasta 10 veces la misma frase: ‘la estructura profunda”, describe. El profesor lo define como un contenido del siglo XX procesado por una herramienta del siglo XXI. Tanto Gómez como Latorre creen que los estudiantes no prestan mucha atención ni intentan entender las respuestas de ­ChatGPT. “El estilo despersonalizado impregna los textos, puedes sentir que quien lo ha enviado no tiene una comprensión profunda del asunto, son palabras sin contenido lanzadas al azar”, dice Latorre.

Externalizar el pensamiento

El estudio del MIT antes mencionado confirma el efecto homogeneizador de ChatGPT. “Los usuarios tienden a converger en las palabras y en las ideas”, concluyeron los investigadores. En todos los casos las personas que usaban ChatGPT, citados en días diferentes para escribir sobre temas personales, generaban textos sesgados hacia direcciones específicas. “La inteligencia artificial es una tecnología de promedios: Los LLM están entrenados para detectar patrones en vastas extensiones de datos, y las respuestas que producen tienden al consenso”, escriben sus autores, que creen que la IA “externaliza el pensamiento de una forma tan completa que nos iguala a todos”. Se matan las voces propias a favor del promedio.

Este estudio es el primero en calibrar el precio que pagamos por ser un poco más vagos que hace tres años. El experimento que comparó la actividad cerebral de quienes trabajan por sí mismos con los que se apoyaban en Google y con los que usaban ChatGPT mostraba, según los autores, “una discrepancia dramática”. Aquellos que usaban la IA tenían una actividad cerebral mínima con menos conexiones que el resto de los grupos. Por ejemplo, mostraban la conectividad alfa y theta más bajas, la primera se relaciona con la creatividad y la segunda con la memoria de trabajo. Los usuarios no tenían ningún sentimiento de autoría sobre sus textos y el 80% no fue capaz de citar nada de lo que presuntamente había escrito.

Las respuestas de los que usaban ­ChatGPT estaban sesgadas y eran muy parecidas entre sí. A la pregunta “¿qué os hace realmente felices?”, la mayoría mencionó la carrera profesional y el éxito personal, y cuando se indagó si las personas afortunadas tenían la obligación moral de ayudar a los más desfavorecidos, todos estuvieron sospechosamente de acuerdo, mientras en los grupos que no se apoyaban en esa IA hubo respuestas diversas y críticas a la filantropía. “No se generan opiniones divergentes en ChatGPT. Lo promedia todo, a la vez y en todas partes”, dijo Natalya Kosmyna, autora del estudio del MIT mencionado al principio, a un periodista de The New Yorker.

El sesgo parece burdo y fácil de identificar, pero pocos usuarios parecen dispuestos a sacrificar la conveniencia de ChatGPT por recuperar algo de calidad y originalidad. Hemos aceptado crear y consumir contenidos diseñados para usar y tirar.

La psicóloga Chiara Longoni, coautora del trabajo Lower Artificial Intelligence Literacy Predicts Greater AI Receptivity (el menor conocimiento de la inteligencia artificial predice una mayor receptividad a la IA), encontró que las personas con “baja alfabetización de IA” (que no comprenden el funcionamiento de algoritmos, datos de entrenamiento y patrones de reconocimiento, probablemente la mayoría) perciben los LLM como “magia”. “Sucede, sobre todo, cuando se ejecutan tareas que implican características exclusivamente humanas como el humor, la empatía y la creatividad. Les parece extraordinario, les genera asombro y esto impulsa una mayor receptividad hacia el uso de la IA”, expone vía e-mail.

Otros expertos hablan del “efecto hipnótico” de ChatGPT que induce a los humanos a desconfiar de su propia habilidad y conocimiento. “ChatGPT no duda”, recuerda López, “da respuestas únicas y categóricas sean o no correctas, y los humanos somos vulnerables al sesgo de confirmación: nos quedamos con aquello que mejor se alinea con nuestros deseos”. A menor conflicto y mayor uniformidad, aumentan las probabilidades de escalar con éxito un negocio que necesita millones de usuarios hambrientos de respuestas veloces, dependientes de la herramienta y potenciales suscriptores de pago.

En la Universidad Swinburne de Tecnología (Australia), un experimento pidió a 320 personas que escribieran el texto publicitario de un sofá. Después se les mostró cómo lo había hecho ChatGPT cuando se le había dado la misma orden, y se les pidió que repitieran el texto. Y el resultado cambió radicalmente. “No les dijimos: hacedlo como lo haría ChatGPT, pero eso fue justamente lo que hicieron”, contó Jeremy Nguyen, autor principal del estudio. Después de ver el texto generado por ChatGPT los participantes escribieron anuncios más redundantes, con un promedio de 87 palabras frente a las 33 de sus textos originales.

“Para millones de personas ChatGPT ya es el canon”, dice Latorre. Creen que la norma es la verborrea sintética. Y a un canon uno no se resiste, uno se amolda. Podría decirse que el verdadero peligro no es la ausencia de originalidad, sino que nadie parece echarla de menos.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Karelia Vázquez
Escribe desde 2002 en El País Semanal, el suplemento Ideas y la secciones de Tecnología y Salud. Ganadora de una beca internacional J.S. Knigt de la Universidad de Stanford para investigar los nexos entre tecnología y filosofía y los cambios sociales que genera internet. Autora del ensayo 'Aquí sí hay brotes verdes: Españoles en Palo Alto'.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_