Banner tips.cl
La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La semana pasada, OpenAI y Anthropic lanzaron simultáneamente sus nuevos modelos de IA especializados en programación: GPT-5.3 Codex y Claude Opus 4.6. Más allá de las mejoras que suponen en rendimiento o velocidad, las cuales son realmente asombrosas, ambas compañías también dejaron constancia de algo que cambia por completo las reglas del juego: los modelos de IA están participando activamente en su propio desarrollo. O dicho de otro modo: la IA se está mejorando a sí misma.

Por qué importa este cambio. Las herramientas de inteligencia artificial generativa están llegando a un gran nivel de eficiencia y precisión, pasando a ser en unos pocos años de compañeras de trabajo para tareas sencillas y puntuales a poder estar involucradas en buena parte de un desarrollo. Según la documentación técnica de OpenAI, GPT-5.3 Codex "fue instrumental en su propia creación", utilizándose para depurar su entrenamiento, gestionar su despliegue y diagnosticar resultados de evaluaciones.

Por otra parte cabe destacar las palabras de Dario Amodei, CEO de Anthropic, quien en su blog personal afirma que la IA escribe "gran parte del código" en su empresa y que el bucle de retroalimentación entre la generación actual y la siguiente "cobra impulso mes a mes".

En detalle. Lo que esto significa en la práctica es que cada nueva generación de IA ayuda a construir la siguiente, que será más capaz, que a su vez construirá una versión aún mejor. Los investigadores lo llaman "explosión de inteligencia", y quienes están desarrollando estos sistemas creen que el proceso ya ha comenzado. Amodei ha declarado públicamente que podríamos estar "a solo 1 o 2 años de un punto en el que la generación actual de IA construya autónomamente la siguiente".

La mayoría de las personas utilizamos modelos de lenguaje gratuitos que se encuentran disponibles para todos y son medianamente capaces para determinadas tareas. Pero también están muy limitados, y no son un buen reflejo de lo que un modelo de IA puntero es capaz a día de hoy. En una breve sesión con 5.3-Codex he podido sacar esta misma conclusión, pues las herramientas de IA que usan las grandes tecnológicas en su desarrollo nada se parecen a las más comerciales que tenemos disponibles gratuitamente en cuanto a capacidades.

El enfoque en código primero. La especialización inicial en programación tiene más sentido del que creemos. Y es que la idea de empresas como OpenAI, Anthropic o Google de que sus sistemas fueran excepcionales escribiendo código antes que cualquier otra cosa va ligada a que desarrollar una IA requiere enormes cantidades de código. Y si la IA puede escribir ese código, puede ayudar a construir su propia evolución. "Hacer que la IA sea excelente en programación fue la estrategia que desbloquea todo lo demás. Por eso lo hicieron primero", contaba Matt Shumer, CEO de OthersideAI, en una publicación que ha dado de qué hablar estos días en redes sociales.

Entre líneas. Los nuevos modelos no solo escriben código: toman decisiones, iteran sobre su propio trabajo, prueban aplicaciones como lo haría un desarrollador humano y refinan el resultado hasta considerarlo satisfactorio. "Le digo a la IA qué quiero construir. Escribe decenas de miles de líneas de código. Luego abre la aplicación, hace clic en los botones, prueba las funciones. Si no le gusta algo, vuelve atrás y lo cambia por su cuenta. Solo cuando decide que cumple sus propios estándares vuelve a mí", contaba Shumer describiendo su experiencia con GPT-5.3 Codex.

Lo que cambia con la autorreferencia. Hasta ahora, cada mejora dependía de equipos humanos dedicando meses a entrenar modelos, ajustar parámetros y corregir errores. Ahora, parte de ese trabajo lo ejecuta la propia IA, acelerando los ciclos de desarrollo. Tal y como comparte Shumer y haciendo referencia a los datos de METR, una organización que mide la capacidad de estos sistemas para completar tareas complejas de forma autónoma, el tiempo que una IA puede trabajar sin intervención humana se duplica aproximadamente cada siete meses, y ya hay indicios recientes de que ese periodo podría reducirse a cuatro.

Y ahora qué. Si esta tendencia se mantiene, en 2027 podríamos ver sistemas capaces de trabajar de forma autónoma durante semanas en proyectos completos. Amodei ha hablado de modelos "sustancialmente más inteligentes que casi todos los humanos en casi todas las tareas" para 2026 o 2027. No se trata de predicciones lejanas, pues la infraestructura técnica para que la IA contribuya a su propia mejora ya está operativa. Y estas capacidades son las que realmente están poniendo patas arriba a la industria tecnológica.

Imagen de portada | OpenAI y Anthropic

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella

-
La noticia La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos fue publicada originalmente en Xataka por Antonio Vallejo .

Febrero 13, 2026 • 1 hora atrás por: Xataka.com 26 visitas 1777530

🔥 Ver noticia completa en Xataka.com 🔥

Comentarios

Comentar

Noticias destacadas


Contáctanos

completa toda los campos para contáctarnos

Todos los datos son necesarios