Por qué la inteligencia artificial produce un espejismo de competencia técnica que se desvanece en cuanto el proyecto se complica.
Hay una frase que resume bastante bien cómo funcionan herramientas como ChatGPT, Claude o Gemini: no piensan, predicen. Calculan qué palabra viene después de la anterior basándose en patrones estadísticos de texto que procesaron durante el entrenamiento. Es una distinción que parece técnica y aburrida hasta que intentas construir algo con ellas y te das cuenta de que lo cambia absolutamente todo.
Por qué parece que piensan
El espejismo es convincente, y tiene una explicación. Estos modelos han procesado cantidades enormes de texto: documentación técnica, código, foros de programadores, tutoriales, libros. Cuando les haces una pregunta, la respuesta suena coherente, estructurada y segura porque han visto millones de respuestas similares y saben cómo se construye una respuesta que parece correcta.
El problema es que “parecer correcto” y “ser correcto” no son lo mismo. Un modelo de lenguaje no verifica si lo que dice es verdad. No comprueba si el código que genera funciona. No entiende si la estructura que propone tiene sentido para tu caso concreto. Genera la respuesta más probable dado el contexto, y esa respuesta, estadísticamente, suele parecerse mucho a algo correcto.
Suele. No siempre.
El problema con el software y las webs
Construir una web o una aplicación no es generar texto. Es tomar una serie de decisiones encadenadas donde cada una afecta a las siguientes. ¿Cómo se estructura la base de datos? ¿Cómo se comunican las distintas partes del sistema? ¿Qué pasa cuando el usuario hace algo que no estaba previsto? ¿Cómo escala esto si mañana hay diez veces más tráfico?
Esas preguntas requieren comprensión real del problema, no predicción de la respuesta más probable. Y ahí es exactamente donde la IA falla de una manera que no siempre es visible al principio.
La IA puede escribir una función que hace lo que le pides. Lo que no puede hacer es entender cómo encaja esa función en el resto del sistema, si introduce un conflicto con algo que ya existía, o si la decisión que acaba de tomar va a crear un problema dentro de tres semanas cuando el proyecto crezca. No lo puede hacer porque no tiene modelo del sistema completo. Tiene el fragmento de texto que le has pasado y genera la continuación más probable.
No aprende mientras trabaja
Hay otro aspecto que agrava el problema y que poca gente tiene claro: estos modelos no aprenden durante el uso. Lo que saben lo aprendieron durante el entrenamiento, que ocurrió en un laboratorio, con datos genéricos, antes de que existiera tu proyecto.
Esto significa que cada vez que abres una conversación nueva, la IA no recuerda nada de lo anterior. No conoce las decisiones que tomasteis la semana pasada ni por qué las tomasteis. No sabe qué partes del código son delicadas. No tiene contexto acumulado. Empieza de cero cada vez, generando respuestas probables para el texto que tiene delante en ese momento.
Un programador sénior que lleva seis meses en un proyecto es infinitamente más valioso que uno que acaba de llegar, precisamente porque acumula contexto. La IA nunca acumula contexto. Siempre acaba de llegar.
Por qué el espejismo dura un rato
Al principio de un proyecto todo parece ir bien. Las tareas son simples, el código generado funciona, los resultados son rápidos. Es la fase en la que la IA brilla de verdad: arrancar desde cero, generar estructura básica, escribir partes repetitivas. En esa fase la predicción estadística es suficiente porque los problemas son genéricos y aparecen millones de veces en los datos de entrenamiento.
El espejismo se rompe cuando el proyecto crece. Cuando las piezas tienen que encajar entre sí. Cuando aparece un error que depende de tres decisiones tomadas en momentos distintos. Cuando hay que mantener coherencia entre docenas de archivos. Ahí la predicción ya no es suficiente. Ahí hace falta comprensión real, y eso es exactamente lo que no hay.
¿Cuándo llegará a hacerlo bien?
Nadie lo sabe con certeza.
Lo que sí es cierto es que los modelos actuales tienen limitaciones estructurales que no se resuelven simplemente haciéndolos más grandes. La diferencia entre predecir texto y razonar sobre un sistema complejo no es una cuestión de cantidad de datos ni de potencia de cálculo. Es una cuestión de arquitectura, y los investigadores todavía no tienen claro cómo salvar ese salto.
Puede que en cinco años haya modelos que resuelvan esto de una manera que hoy no somos capaces de imaginar. Puede que no. Lo que no tiene ningún sentido es asumir que ese salto ya ha ocurrido cuando claramente no ha ocurrido, y tomar decisiones de negocio basadas en esa suposición.
Qué significa esto en la práctica
La IA es una herramienta extraordinaria para lo que puede hacer: acelerar trabajo repetitivo, generar opciones rápidas, ayudar a quien sabe lo que hace a ir más deprisa. En manos de alguien con criterio técnico es un multiplicador de productividad real.
En manos de alguien sin ese criterio es una máquina de producir espejismos. Genera resultados que parecen sólidos, que tienen el aspecto correcto, que funcionan en las condiciones perfectas del primer día. Y luego, cuando la realidad se complica, se descubre que lo que parecía un edificio era un decorado.
La diferencia entre predecir y pensar no es un detalle técnico. Es la diferencia entre una herramienta que te ayuda y una que te da una falsa sensación de que el trabajo está hecho cuando en realidad acaba de empezar.
La IA no piensa. Predice. Y mientras no quede claro cuál es la diferencia, seguirá habiendo muchos proyectos que parecen el Titanic en el puerto y acaban igual que él.