Lo que le ha ocurrido a la compañía más importante del sector dice más sobre la inteligencia artificial que cualquier dato técnico.
A principios de 2026, OpenAI —la empresa que vende al mundo la promesa de que una sola persona con IA puede hacer el trabajo de diez— tuvo que reconocer en silencio que ellos mismos no eran capaces de hacer el trabajo de una sola compañía. Demasiados proyectos abiertos, sin foco, sin dirección clara. La solución fue contratar a una directiva de Meta para que diera una charla con PowerPoint y dijera lo que nadie quería escuchar: hay que recortar.
No lo resolvió una IA. Lo resolvió una reunión. Una directiva, un PowerPoint y malas noticias.
Pensad en lo que eso implica. La empresa que os vende una herramienta de productividad —la que promete que con IA una persona puede hacer el trabajo de diez— resultó ser incapaz de gestionar su propia productividad sin contratar a un humano para que viniera a poner orden. Es como si fueseis al médico porque os encontráis mal y el médico se quedara dormido durante la consulta. O como si la herramienta para dejar de fumar tuviese un cenicero en la recepción.
Hay algo enormemente revelador en eso. Y no precisamente a favor de la IA.
El problema no es la tecnología. Es la falta de foco.
Mientras OpenAI lanzaba un clon de TikTok, un navegador web que los analistas del MIT Technology Review admitieron no entender, y una funcionalidad de compras integrada en un sistema que inventa datos, Anthropic hacía algo mucho más aburrido: elegir dos cosas y hacerlas bien. Herramientas de programación y clientes empresariales. Sin generación de imágenes, sin navegador propio, sin feed de vídeos.
El resultado hacia fuera fue que Anthropic (Claude Code) les ganó la partida. Los desarrolladores utilizaban Claude Code de forma tan intensiva durante las navidades que el Wall Street Journal lo llegó a describir como un “claude bender”. Cuando alguien pasa la Nochebuena con una IA en lugar de con su familia, eso ya no es adopción temprana de tecnología. Es otra cosa.
La lección no tiene nada que ver con inteligencia artificial. Tiene que ver con estrategia básica. Menos cosas, mejor ejecutadas, ganan casi siempre.
El código que no ahorra tiempo
Hay un dato que circula mucho y que conviene leer con cuidado: el 41% del código que se escribe hoy cuenta con participación de la IA. Suena impresionante. El problema es lo que ese número no dice.
Un estudio realizado con 16 desarrolladores sénior trabajando en proyectos reales concluyó que cuando usaban inteligencia artificial tardaban un 19% más en completar sus tareas. No menos. Más.
¿Por qué? Porque alguien tiene que revisar lo que genera la IA. Imaginad a un desarrollador sénior a las once de la noche revisando código, preguntándose qué es eso que tiene delante, quién lo ha escrito y por qué no se parece a nada que haya visto antes. La respuesta es que no lo ha escrito nadie: lo ha generado una IA. Y ahora él tiene que entender si funciona, si introduce algún fallo sutil o si va a romper algo en producción.
La IA no está eliminando trabajo de programación. Está generando una cantidad enorme de trabajo nuevo: el de arreglar los problemas que crea en manos de personas que no tienen ni idea de lo que están haciendo.
El patrón se repite constantemente. Alguien sin conocimientos técnicos le pide a una IA que le construya una aplicación. La IA genera algo que tiene toda la pinta de funcionar. Pantallas, botones, una interfaz que parece real. El cliente lo ve y cree que tiene el Titanic: enorme, imponente, listo para zarpar. Lo que no ve son los cientos de agujeros bajo la línea de flotación. Y el problema no se descubre en el puerto, sino en medio del océano, cuando la cosa empieza a hundirse y no hay manera de tapar los agujeros porque nadie entiende cómo está construido. Entonces empieza la fase más desesperante: pedirle a la IA que lo arregle. Y ahí nace ese ciclo que ya es un meme universal — “arréglalo pero sin errores” — y la nueva versión tiene el doble de errores que la anterior. O peor aún, arregla una cosa y rompe otra que funcionaba perfectamente. Al final el barco no solo tiene agujeros: tiene remiendos encima de remiendos, y ya nadie sabe qué parte aguanta el peso de cuál. El resultado final es el mismo que si no hubieran usado IA: contratar a programadores de verdad para construir otro barco desde cero.
300.000 millones de dólares por un generador de texto muy rápido
Aquí está la parte que nadie del sector quiere que veáis con demasiada claridad.
Lo que existe hoy —ChatGPT, Claude, Gemini— son modelos de lenguaje. No piensan. Predicen. Calculan qué palabra viene después de la anterior basándose en patrones estadísticos de texto que procesaron durante el entrenamiento. Son sofisticados, son útiles, y en muchos contextos son extraordinarios. Pero no aprenden sobre la marcha ni toman decisiones propias.
Cuando todo esto salió al público, la reacción fue “la IA ha llegado, la ciencia ficción es ahora no ficción”. Pero con el tiempo la gente empezó a notar que no era exactamente inteligencia. Era más bien un autocomplete muy avanzado. Entonces el sector cambió el discurso: “ah, no, eso no era la IA real. La IA real es la AGI, que viene después”.
Lo cual significa, si lo pensáis un momento, que en realidad nunca inventaron inteligencia artificial. Inventaron un generador de texto muy rápido, lo llamaron IA el tiempo suficiente para recaudar 300.000 millones de dólares, y cuando alguien preguntó por qué no pensaba de verdad dijeron que la versión que piensa de verdad llega pronto. Es exactamente el chiste del adolescente que dice que tiene novia pero que va a otro colegio y que no, no la podéis conocer, pero existe, os lo juro.
AGI: la tecnología que no existe, pero con la que te asustan
Cuando un directivo dice “la IA va a sustituir tu puesto de trabajo”, no está hablando de ChatGPT ni de Claude. Está hablando de la Inteligencia General Artificial —AGI— una tecnología que todavía no existe y sobre la que no hay consenso acerca de si es siquiera teóricamente posible tal y como se describe.
Un modelo de lenguaje no puede aprender en el trabajo. Solo puede hacer lo que un laboratorio a miles de kilómetros le entrenó a hacer, con tareas lo suficientemente genéricas como para que aparecieran millones de veces en internet. Pero vuestra empresa no es genérica. Tiene una combinación concreta de herramientas propias, procesos sin documentar y decisiones históricas que no existen en ningún sitio de la red. Ese es el trabajo real. Y ese trabajo, el específico, el que requiere criterio y contexto, sigue siendo completamente humano.
La tecnología que podría sustituiros es imaginaria. La que existe no puede hacerlo. Y todo el sector está apostando a que no notéis esa diferencia.
¿Qué significa esto para el diseño web?
Lo mismo de siempre, pero con más claridad que nunca.
La IA puede generar una página de inicio genérica en cuestión de segundos. Puede proponer paletas de color, estructuras de navegación, textos de ejemplo. Todo eso es útil para arrancar, para iterar rápido, para no partir de cero.
Pero vuestro cliente no es genérico. Tiene una historia, una voz, un público concreto y una razón específica por la que alguien debería elegirle a él y no a la competencia. Nada de eso está en los datos de entrenamiento de ningún modelo. Está en la conversación que tuvisteis con él, en lo que intuisteis que no os contó, en el criterio que habéis ido construyendo proyecto tras proyecto.
La IA que existe hoy es una herramienta muy potente. La IA que dicen que va a sustituiros todavía no existe. Y mientras tanto, el trabajo real sigue siendo el vuestro.
Siempre fue el trabajo específico el que importaba. Y el específico nadie os lo puede quitar.