No, la IA no va a sustituir a los programadores, al menos de momento y por un buen tiempo

Nota inicial del autor: al redactar este artículo en junio de 2025, he probado varios sistemas IA orientados a la programación. Entre los más relevantes –por su popularidad o su integración con entornos de desarrollo– figuran:
LLMs puros: ChatGPT/GPT-4o, Claude 3.5, Google Bard (Gemini), Meta Llama 3, Qwen, DeepSeek;
asistentes IDE integrados: GitHub Copilot, Amazon CodeWhisperer (→ Q Developer), Visual Studio IntelliCode, Blackbox AI, entre otros…
El mito de la “IA que crea apps como pizzas” y el caso Builder.ai
En junio de 2025, la publicación El País desveló uno de los mayores engaños tecnológicos recientes: Builder.ai (startup británica valorada en 1 500 M USD) desplegaba en su web una supuesta IA llamada «Natasha», capaz de generar aplicaciones completas mediante comandos tipo “tan fácil como pedir una pizza”. Pero la realidad era otra: más de 700 ingenieros en India desarrollaban manualmente el código que luego se atribuía a una IA. La farsa fue descubierta tras impagos y la empresa terminó declarando bancarrota.
Este caso no solo revela fraudes directos, sino también un exceso de confianza en conceptos como “no-code + IA”, sin validar si la solución realmente existe. Builder.ai no es un fallo puntual, sino un síntoma de la idealización de la IA aplicada al desarrollo completo de software.
Uno de los problemas más delicados y menos comprendidos por muchos entornos no técnicos es el fenómeno de las alucinaciones en los modelos de lenguaje, también conocido como hallucination. Se trata de respuestas plausibles en apariencia, pero completamente inventadas o erróneas. En el contexto del desarrollo software, esto se traduce en código que hace referencia a funciones inexistentes, importa librerías que no existen o propone APIs mal formadas. Esto ocurre porque los modelos están diseñados para predecir el siguiente token más probable según el contexto proporcionado, no para verificar la veracidad del contenido. Cuando el prompt del usuario es ambiguo, incompleto o deja demasiados aspectos abiertos, la IA tiende a «rellenar los huecos» de manera creativa, inventando clases, endpoints o estructuras que podrían tener sentido en un escenario típico… pero que no existen en el sistema real. Este comportamiento, si no se detecta a tiempo, puede introducir errores sutiles y peligrosos en los sistemas, especialmente si se confía ciegamente en la salida del modelo sin una revisión crítica humana.
¿Qué puede hacer hoy una IA en programación y dónde falla?
Fortalezas comprobadas de los LLMs
-
Completado de código y generación de snippets: herramientas como Copilot y ChatGPT reducen hasta un 55 % el tiempo de desarrollo en tareas repetitivas
-
Revisión y detección de errores: CodeWhisperer y Copilot integran analizadores de vulnerabilidades; LLMs entrenados propio como Claude Code trabajan en bases de código grandes .
-
Documentación automática y refactorización: generación de diagramas, tests unitarios y actualizaciones de estilo según estándares internos del proyecto.
Límites insalvables de momento
-
Persistencia del estado y conocimiento del sistema completo
Los LLMs operan en ventanas de tokens limitadas; entender la arquitectura de una aplicación (bases de datos, microservicios, flujos de negocio) supera esas limitaciones -
Orquestación de tareas complejas multi‑arquitectura
Cambiar la base de datos, migrar pagos, integrar con SAP… requiere coordinación, pruebas de integración, ensayos de rendimiento y validación legal. La IA no gestiona estas fases. -
Calidad de producción: testing, certificación, escalabilidad
El código autogenerado puede compilar, pasar tests unitarios sencillos, pero no garantiza rendimiento, seguridad, mantenibilidad (alta deuda técnica) ni que cumpla estándares de auditoría . -
Capacidad de corrección de errores y evolución del sistema
Cuando Copilot falla, el programador revisa, cambia, refuerza la sugerencia. El ajuste humano es imprescindible. La IA no gestiona incidencias post‑producción ni aprende del entorno.
Ejemplos y anécdotas reales del mundo dev
a) Equipos que usan Copilot como copiloto, no piloto automático
En Infoworld, un ingeniero narraba cómo integra Copilot en su flujo de trabajo: escribe, pide sugerencias, evalúa resultados, corrige, versiona… y siempre mantiene el control .
b) CodeWhisperer en entornos AWS
Organizaciones centradas en infraestructura cloud admiten que su ROI está en el soporte de documentación, estandarización y migraciones simples. Pero cuando se trata de diseñar microservicios complejos, requieren arquitectos humanos y manuales que la IA no puede suplir .
c) Proyectos mixtos: Copilot + Claude + local LLMs
En redes como Reddit (…/ChatGPTCoding…), desarrolladores cuentan su experiencia combinando Claude Code (bueno en features front‑back) + Cursor para pulir diffs. Pero exponen que con sistemas de alta complejidad (bases de datos distribuidas, GRPC, flujos) todavía hay fallos frecuentes reddit.com.
Referencias académicas y benchmarks
-
En un estudio de 2023 se contrastaron ChatGPT, Copilot y CodeWhisperer: aciertos correctos en función en un 65 %, 46 %, 31 % respectivamente; además CodeWhisperer generaba menor deuda técnica, pero aún estaba lejos de un producto pulido.
-
Otro paper de finales 2024 confirmaba: los LLMs son eficaces en “funciones localizadas” pero se desploman en problemas con dependencias externas o cuando se requiere contexto global .
-
La explosión de asistentes especializados (Blackbox AI, Cursor, Roocode, Windsurf, etc.) mejora productividad —pero las brechas técnicas (guardrails deterministas, control de memoria, fiabilidad en tests)— aún impiden sustituir desarrolladores medianamente capacitados.
5. Por qué no hay sustitución ni en el corto-medio plazo
A) Programación es mucho más que escribir código
Requiere comprensión de procesos de negocio, experiencia de usuario, previsión de comportamientos inusuales, cumplimiento legal y escalabilidad real.
B) Las sinergias humanas siguen siendo clave
El trabajo en equipo, las revisiones cruzadas, el conocimiento tácito y la empatía de usuario-insights son intangibles que una IA no replica.
C) Ciclo completo: diseño, pruebas, refactor, mantenimiento
La automatización puede ayudar en fases concretas. Pero sin despliegue, validaciones legales, certificación y ajustes en producción, no se llega al software final.
D) Robustez y control técnico
Entender por qué falla un pipeline, por qué un test se rompe en staging, por qué hay fallos en producción… requiere juicio humano experimentado, no una caja negra IA.
¿Qué pueden y deben hacer los programadores hoy?
-
Ser arquitectos de IA + humano: dominar herramientas, refinar prompts, validar código.
-
Construir guardrails deterministas: pipeline CI/CD robusto, scripting, alertas.
-
Especializarse en integración: APIs, microservicios, despliegue, seguridad.
-
Adoptar custom LLMs: entrenados con el propio repositorio y o dominio (on‑premise).
-
Optimizar flujos con IA híbrida: usar Copilot para tasks repetitivos, Claude para diseño de features, pero siempre con revisión.
Realidad y ficción
Lejos de ser una amenaza, la inteligencia artificial se ha consolidado como el complemento perfecto para el programador moderno. Funciona como un asistente incansable que sugiere, documenta, acelera y en muchos casos inspira. Herramientas como Copilot, Claude o Cursor permiten liberar al desarrollador de tareas repetitivas o tediosas, ayudándole a concentrarse en la lógica de negocio, la arquitectura y la calidad del producto. Sin embargo, la IA no sustituye el criterio técnico ni la responsabilidad sobre el código. El desarrollador debe mantener la batuta del proyecto: entender cada línea que se integra, revisar cada sugerencia, y rechazar lo que no encaje en el sistema o comprometa su seguridad y mantenibilidad. Confiar ciegamente en código que no se comprende es delegar mal el control; y en desarrollo, eso puede tener consecuencias críticas. La IA no sustituye el juicio profesional: lo amplifica, siempre que esté bien dirigido.
Sí, vivimos una revolución extraordinaria en asistencia al desarrollo gracias a la IA. Pero lo que está sobre la mesa no es una sustitución, sino una potenciación: la IA acelera, libera tiempo, detecta errores, propone soluciones. Sin embargo:
-
No puede sustituir a un equipo humano que entienda en profundidad el dominio, la arquitectura y el proceso de entrega.
-
No cubre los elementos críticos del ciclo: integración continua, pruebas reales, infraestructuras complejas, despliegue a producción, certificaciones ni mantenimiento.
-
Aún no es autónoma ni confiable para asumir el rol de desarrollador “total”: estamos muy lejos de que una IA lance un producto completo, testeado y mantenible sin intervención humana.
You cannot copy content of this page