Ir al contenido
_
_
_
_
Inteligencia artificial
Tribuna

Simular conversaciones no es suficiente: sobre mitos y los límites de la IA en la vida cotidiana

Toda tecnología trae consigo efectos imprevistos, pero no hay evidencia de que haya aprendido a mentir o que pueda tomar decisiones

El 20 de enero de este año, el historiador Yuval Noah Harari, autor del best-seller Sapiens, impartió una conferencia en el Foro Económico Mundial de Davos bajo el título “An Honest Conversation on AI and Humanity” (Una conversación honesta sobre la IA y la humanidad). Allí sostuvo que la inteligencia artificial (IA) está dejando de ser una herramienta para convertirse en un agente autónomo capaz de aprender, dominar y manipular el lenguaje, reorganizar las estructuras de poder por sí mismo y reemplazar a los humanos en todos aquellos ámbitos relacionados con las palabras. Muchas de sus afirmaciones resultan infalsables, ya que no hay manera de probarlas o refutarlas. Lejos de la honestidad, la charla promovió una visión alarmista y empíricamente infundada de la IA, sobrevalorando y distorsionando sus capacidades reales.

Harari presentó la autonomía, la “voluntad de sobrevivir” y la toma de decisiones en los sistemas de IA actuales como si fueran capacidades establecidas, pero según el estado real de la técnica, los modelos de IA de hoy procesan estadísticamente imágenes y textos creados y preparados por humanos, no tienen metas autónomas y obviamente tampoco deseos ni impulsos de supervivencia. La manipulación de símbolos del lenguaje natural, por ejemplo, no tiene nada que ver ni con la semántica de un texto determinado ni con las intenciones de los humanos que lo comunican. No existe, además, evidencia empírica ni consenso teórico de que esos modelos o programas que los usan “decidan”, “hayan aprendido a mentir” o “busquen sobrevivir” mediante la manipulación de la manera que Harari sugiere.

El problema de fondo no es que su discurso sea técnicamente descuidado y filosóficamente deficiente, sino que Harari expresa su visión en un foro del que toman nota muchos dirigentes políticos y empresariales, sus asesores, influencers y periodistas. De este modo, narrativas sin consenso contribuyen a legitimar la influencia de compañías tecnológicas sobre leyes, instituciones y la vida cotidiana, beneficiándolas en detrimento del interés general. El propio secretariado general de la Comisión Europea reconoció oficialmente el pasado octubre que Ursula von der Leyen, presidenta de la Comisión, se había basado en afirmaciones de los CEOs Dario Amodei, Jensen Huang y Sam Altman para afirmar que la IA iba a acercarse al razonamiento humano en este 2026.

Paralelamente, estas narrativas desvirtúan u ofuscan las verdaderas capacidades de los algoritmos o sistemas basados en IA, creando o exacerbando un mito alrededor de ellos que confunde a usuarios, tergiversa los propósitos para los que fueron creados y distrae la atención de problemas actuales y perentorios. Dentro de esta mitificación entra la promesa de alcanzar “lo mejor” a través de la IA, como si lo mejor fuera un universal absoluto y no hiciera falta preguntarse para qué o para quién es mejor. Por ejemplo, en nuestro ámbito de la educación superior, en lugar de dejarnos seducir por mitos y disparates, deberíamos intentar entender por qué hay estudiantes de filosofía que no quieren leer ni escribir, en informática no quieren programar y depurar código, o a una parte del profesorado le gustaría que “una IA” le planificara e impartiera las clases y pusiera notas.

Harari admite que la IA emerge del desarrollo e intervención humana, pero omite mencionar que las infraestructuras que sustentan estos sistemas no son producto de los deseos y acciones de toda la humanidad y un “nosotros” universal, sino el resultado de dinámicas sociales, políticas y económicas específicas en las que CEOs como Amodei y Altman determinan prioridades, recursos y caminos tecnológicos. La IA no puede “cambiar por sí misma” como sugiere Harari: cualquier sistema de software está determinado por su arquitectura, su código es explícitamente programado por humanos y sus datos recopilados, organizados y procesados para hacer lo que se quiere que haga. Sin duda, toda tecnología trae consigo efectos imprevistos, pero no hay evidencias de las supuestas “propiedades emergentes” a las que alude Harari. Además, caracterizar a “las IAs” como artefactos o entes tecnológicos únicos obvia una realidad: lo que se conoce como IA no es más que un conjunto de algoritmos y mecanismos computacionales muy diversos que se orquestan conjuntamente.

Una semana después de Davos, Moltbook, una especie de Reddit para “agentes de IA”, se volvió viral por sus publicaciones donde los chatbots “discutían”, supuestamente de manera autónoma, sobre temas como filosofía de la mente o religión. En un post en la red social X, Harari reiteró la esencia de su charla: “Moltbook trata sobre IAs que dominan el lenguaje. Los humanos conquistaron el mundo con el lenguaje, ahora la IA domina el lenguaje. Pronto, todo lo que esté hecho de palabras será dominado por la IA”. Sin embargo, las simulaciones de “sociedades” de programas ni son algo nuevo en IA ni reflejan capacidad alguna diferente a la de manipular secuencias de datos sin “entender” nada de lo que estos significan. Los llamados “(software) agentes” existen desde hace más de 40 años y los bots interactúan dinámicamente en redes sociales al menos desde hace 15 años. Por otro lado, parece ser que muchas de las publicaciones de Moltbook más virales fueron iniciadas y dirigidas por humanos.

No cuestionamos la importancia fundamental del lenguaje en nuestras vidas, pero nos cuesta aceptar que simular su dominio sea condición suficiente para este control mundial vaticinado. Insistimos, las posibilidades técnicas son claras y limitadas: a pesar de poder simular conversaciones coherentes, los sistemas de IA actuales no tienen metas, deseos, intenciones ni autonomía. Pero, por sobre todo, no tienen la capacidad logística ni social que hace posible sostener la vida cotidiana en común, que va mucho más allá de lo que las palabras por sí solas pueden lograr, ya que se requieren acciones reales en el mundo real: desde cambiar pañales a revisar y mantener rieles de tren. Ignorar esto es peligroso porque promueve visiones distorsionadas de la IA y sus posibilidades. El mundo real requiere más que de palabras para funcionar.

Como tantos personajes públicos fascinados por la tecnología, Harari parece estar guiado por una idea platónica de la automatización y no presta atención a que estas tareas indispensables para la vida y subsistencia humanas son extremadamente difíciles de automatizar. La escritora Courtney Milan habla del “hada de la logística” para referirse a quien se ocupa de realizar como por arte de magia todas esas tareas cotidianas invisibles que en realidad son el fruto de trabajos infravalorados. Por ejemplo, la docencia infantil, la enfermería, el comercio, la hostelería o la construcción, trabajos que en realidad son muy, muy difíciles de automatizar, así como los trabajos de cuidado (que además son realizados mayoritariamente por mujeres y con poca o ninguna remuneración).

Compartimos algunas de las advertencias, como los peligros de externalizar nuestro conocimiento y aprendizaje a la IA, pero estos no surgen de una nueva entidad superinteligente que ha aparecido de repente en nuestras vidas, sino de cómo se ha diseñado esta tecnología, de quién la despliega, en qué contextos y para qué fines.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_