Hace unos días un ensayo titulado “Something Big Is Happening” escrito por Matt Schumer, emprendedor del mundo de las startups de IA, se volvió viral en X. No se quedó en la burbuja tech: cruzó a la cultura general y en pocos días lo había leído hasta quien nunca había abierto un artículo de tecnología en su vida.
El gancho del ensayo es sencillo: Schumer dice que trabaja en IA desde hace años y que siempre que alguien le pregunta qué está pasando, les da una respuesta suavizada. La versión tranquilizadora. Porque la versión real, dice, “suena a que me he vuelto loco”. Y que ya no puede seguir así.
Es un arranque muy bien construido. Antes de contarte nada concreto sobre tecnología, ya te ha colocado en un estado emocional muy concreto: la sensación de que alguien por fin va a ser honesto contigo sobre algo que todos los demás están ocultando. El problema es que ese esquema —”te voy a contar lo que nadie se atreve a decir”— es exactamente el mismo que usan los gurús de bienestar, los vendedores de cursos milagrosos y las teorías de conspiración. No es un argumento. Es una técnica.
Y con esa técnica bien asentada, Schumer entra en materia.
¿El progreso se aceleró en 2025? Al revés.
Una de las afirmaciones centrales del ensayo es que en 2025 el ritmo de mejora de los modelos de IA se disparó. Que cada nuevo modelo era mejor que el anterior por un margen más amplio, que los lanzamientos se acortaron, que todo se aceleró de forma exponencial.
Periodistas especializados que llevan años cubriendo el sector dicen exactamente lo contrario: lo que pasó en 2025 fue una desaceleración. La técnica que había producido los grandes saltos entre GPT-2, GPT-3 y GPT-4 dejó de rendir los mismos resultados. Los laboratorios tuvieron que cambiar de estrategia: en vez de mejorar capacidades generales, empezaron a enfocarse en tareas muy concretas y en enseñarle a los modelos a rendir bien en tests específicos.
¿El resultado? Mejoras reales pero limitadas. No un cohete que despega, sino un coche al que le han afinado el motor para que vaya mejor en una carretera concreta.
Lo del código: verdad a medias
El autor del ensayo afirma que ahora le describe a la IA lo que quiere construir, se va cuatro horas y vuelve con el trabajo hecho. Sin correcciones. Sin intervención. Listo para usar.
Periodistas que encuestaron a más de 250 programadores profesionales usando exactamente esos modelos encontraron que nadie trabaja así. O casi nadie.
Lo que sí está pasando —y es genuinamente interesante— es que los modelos son muy buenos para la parte tediosa del código: conectar elementos de interfaz, integrar fuentes de datos, recordar la sintaxis exacta de una librería que usaste una vez hace dos años. Eso ahorra tiempo real. Pero los programadores siguen supervisando, probando, descartando intentos fallidos e interviniendo cuando el modelo no entiende qué se necesita.
El “vibe coding” —mandarle una descripción vaga y volver con algo terminado— funciona para proyectos pequeños y personales. Un juego sencillo, una herramienta interna sin mucha complejidad. Un sistema real para una empresa, no.
El argumento que más preocupa
Hay un párrafo en el ensayo que es, sin rodeos, ciencia ficción presentada como análisis técnico: la idea de que los laboratorios priorizaron el código deliberadamente porque si la IA puede escribir código, puede ayudar a construir mejores versiones de sí misma, que escriben mejor código, que construyen versiones aún mejores. Un bucle de mejora infinita y autónoma.
Esto tiene nombre: “mejora recursiva”. Es un concepto filosófico que viene de los años 60. Y no tiene nada que ver con lo que los agentes de código están haciendo hoy.
Los avances reales en IA no vienen de programar más rápido. Vienen de innovaciones matemáticas y conceptuales. El código es consecuencia, no causa.
La razón por la que escuchamos tanto sobre agentes de código no es que sea parte de un plan maestro. Es porque es uno de los pocos mercados donde hay tracción real. Los agentes generales prometidos para principios de 2025 no llegaron. La generación de vídeo no encontró modelo de negocio. El código sí tiene clientes que pagan. Eso es todo.
Por qué estos textos se viralizan
No es casualidad que este ensayo, y otros similares, estén teniendo tanto alcance. Hay una dinámica en X donde los textos largos y apocalípticos funcionan muy bien. Generan respuestas, debate, citas. El algoritmo los amplifica. Y hay un público enorme de gente que quiere sentir que está al tanto de algo importante antes que los demás.
Escepticismo no es negacionismo. Hay cosas reales pasando en el mundo de la IA. Los modelos de lenguaje tienen usos genuinamente útiles. Los agentes de código están cambiando partes del trabajo de desarrollo. Eso merece atención y análisis serio.
Pero la historia seria es más matizada, más lenta y menos dramática. Y esa historia necesita más rigor y menos cinematografía.