La IA ya no solo aprende: ahora se mejora a sí misma

25 feb 2026

Comparativa entre los modelos de IA GPT 5.3 y OPUS 4.6

Imagina contratar a un empleado que, cada noche, reescribe su propio manual de formación para ser mejor al día siguiente. Sin que se lo pidas. Sin supervisión. Y que cada vez que lo hace, el manual queda un poco más fuera de tu comprensión.

Eso es, más o menos, lo que OpenAI y Anthropic acaban de reconocer públicamente. Y si te parece ciencia ficción, es porque nadie lo ha explicado con claridad todavía.

Qué ha pasado exactamente

OpenAI ha lanzado GPT-5.3 Codex, su modelo especializado en escribir y entender código. Anthropic, casi al mismo tiempo, ha presentado Claude Opus 4.6. Dos grandes apuestas, dos empresas rivales, un mismo momento. Hasta ahí, nada extraordinario.

Lo que sí es extraordinario es lo que ambas compañías han admitido casi de pasada: estos modelos participaron activamente en su propio desarrollo.

En el caso de OpenAI, GPT-5.3 Codex se utilizó para depurar partes de su propio entrenamiento. Es decir, la IA ayudó a construir la versión mejorada de sí misma. Dario Amodei, CEO de Anthropic, fue aún más directo: dijo públicamente que la inteligencia artificial ya escribe "gran parte del código" que se usa dentro de su propia empresa. Incluyendo, se entiende, el código que da vida a sus próximos modelos.

No es una metáfora. Es lo que está ocurriendo ahora mismo, en producción, en empresas reales.

Por qué esto está pasando justo ahora

Durante años, el desarrollo de IA fue un proceso profundamente humano. Investigadores diseñaban arquitecturas, ingenieros escribían código, equipos enteros pasaban meses ajustando parámetros. La IA era el producto, nunca el productor.

Eso empezó a cambiar cuando los modelos de lenguaje se volvieron lo suficientemente capaces de entender y generar código funcional. En 2023, GitHub Copilot demostró que la IA podía ser un asistente útil para programadores. En 2024, ese asistente empezó a trabajar de forma autónoma en tareas completas. En 2025, está participando en su propio proceso de creación.

El salto no fue solo técnico. Fue económico. Usar IA para desarrollar más IA es más rápido y más barato que contratar ingenieros adicionales. Las empresas que compiten en este sector tienen un incentivo brutal para cerrar ese bucle cuanto antes. Y ya lo han cerrado.

Lo que ha cambiado no es solo la capacidad de los modelos. Es que el coste de dar ese paso ha bajado tanto que ya no tiene sentido no darlo.

El impacto real

La pregunta que nadie quiere hacer en voz alta es esta: ¿qué hacemos ahora los ingenieros en todo esto?

La respuesta cómoda sería decir que "el rol evoluciona". Y en parte es verdad. Pero hay que ser más concreto que eso.

Si tu trabajo depende del software —da igual si eres desarrollador, product manager o el CEO de una empresa que vende cualquier cosa online— el suelo se está moviendo bajo tus pies. Los proyectos que antes llevaban meses van a llevar semanas. Y los de semanas, días. No porque las personas trabajen más rápido, sino porque cada vez hay menos partes del proceso que necesitan personas.

Para quien quiera montar algo, esto es la mejor noticia en años. Hace tres años, lanzar un producto digital sin saber programar significaba o aprender, o pagar, o convencer a alguien técnico de que se uniera al proyecto. Ese cuello de botella está desapareciendo. Hoy un fundador sin perfil técnico puede construir cosas que antes requerían un equipo entero.

El problema es que cuando construir se vuelve fácil para todos, construir deja de ser la ventaja. Lo que importa entonces es qué construyes, para quién, y por qué alguien debería preferirlo. Estrategia, criterio, contexto. Cosas que, por ahora, siguen siendo territorio humano.

Lo que esto nos dice sobre lo que viene

Amodei puso fecha. Dijo que en uno o dos años podría haber IA capaz de construir de forma autónoma a su propia sucesora. Sin intervención humana directa en el proceso central de desarrollo.

Si eso ocurre, estamos ante algo que los investigadores llevan décadas describiendo en teoría: un bucle de retroalimentación donde cada generación de IA es más capaz que la anterior, y donde el tiempo entre generaciones se acorta en lugar de alargarse.

No hace falta creer en escenarios apocalípticos para entender que eso cambia las reglas del juego de forma fundamental. El ritmo al que mejora la tecnología que usamos para trabajar, para tomar decisiones, para competir, va a acelerarse. Y las empresas, los profesionales y los gobiernos que asuman que el mundo de 2027 no cambiará demasiado van a llegar tarde.

Lo más revelador no es que la IA se esté volviendo más inteligente. Es que el proceso que la hace más inteligente está dejando de depender de nosotros.

La pregunta ya no es si tu sector va a verse afectado. La pregunta es si llevas suficiente ventaja como para que no te importe cuando llegue.