Casi tres años después de que la inteligencia artificial generativa irrumpiera en la estrategia corporativa mayoritaria, la mayoría de las organizaciones en todo el mundo aún lucha por convertir proyectos piloto en ganancias reales. Nuevos datos divulgados en diciembre de 2025 por el Instituto Tecnológico de Massachusetts, PwC y otros investigadores muestran que aproximadamente el 95 % de los pilotos de IA generativa no generan un retorno sobre la inversión medible, mientras que un pequeño grupo de compañías reescribe deliberadamente flujos de trabajo y recolecta recompensas tempranas.

Los analistas de la industria señalan que la desconexión no responde tanto a la sofisticación de los algoritmos como a cómo—y con qué velocidad—las compañías integran la tecnología en el trabajo cotidiano. Las cifras más recientes del informe «Estado de la IA en Negocios 2025» del MIT, la primera evaluación amplia después del ciclo inicial de entusiasmo, documentan una tasa de fracaso abrumadora en pilotos incluso mientras las juntas directivas invierten recursos en sistemas experimentales. Este hallazgo se repite en la «gran corrección del entusiasmo por IA» documentada por MIT Technology Review, que atribuye el estancamiento a organizaciones que construyeron sistemas personalizados pero nunca los escalaron más allá de pruebas de concepto MIT Technology Review.

Aunque los fracasos dominan los titulares, la misma investigación subraya que una minoría—aproximadamente el 3 %, según cifras internas de Google Workspace citadas en sesiones informativas de la industria—ya está redefiniendo roles laborales, toma de decisiones e interacción con clientes a través de IA. Lo que distingue a estos pioneros, según consultores, no es código vanguardista sino estrategia disciplinada, una cultura basada en confianza y líderes que rediseñan el trabajo para que humanos y máquinas se complementen mutuamente.

La magnitud del déficit

La encuesta del MIT entre más de 1.000 empresas globales encontró que el 95 % de los pilotos de IA generativa «fracasó en entregar ROI medible», estadística que se convirtió en sinónimo de la rendición de cuentas de 2025 Ziellab. La cobertura de Technology Review denominó la tendencia como «corrección del entusiasmo», observando que muchos pilotos nunca avanzan porque se construyen aislados de procesos centrales. En lugar de adaptar IA a flujos de trabajo existentes, la revista concluyó, las compañías deben replantear cómo se asignan tareas entre personas y software.

Las consecuencias en resultados se hacen cada vez más claras. Las juntas que una vez aprobaron areneros de millones de dólares ahora exigen ganancias tangibles, y los directores financieros cierran el grifo para proyectos que no pueden cuantificar valor. Un cuerpo creciente de evidencia sugiere que marcos de responsabilidad y disciplina de gobernanza, más que innovación audaz, separan el éxito del estancamiento. La encuesta «IA Responsable» de PwC, que consultó a 2.000 ejecutivos y gerentes técnicos, encontró que el 58 % de los encuestados ya ve mayor ROI y eficiencia cuando las prácticas de IA responsable se integran desde el inicio PwC.

Cinco prácticas del 3 %

Los análisis internos de Google Workspace, así como estudios de casos compartidos por firmas consultoras, señalan cinco comportamientos recurrentes dentro de compañías que lograron escalar iniciativas de IA:

1. IA como prioridad empresarial permanente

Los líderes del nivel superior tratan la inteligencia artificial como un compromiso vivo y a largo plazo, no como una serie de pilotos desconectados. Establecen objetivos cuantitativos—a veces vinculados a participación de ingresos o costo por transacción—los revisan trimestralmente y actualizan la hoja de ruta mientras los modelos evolucionan.

2. Cultura construida para curiosidad y confianza

Las firmas exitosas invierten temprano en capacitación que desmitifica la IA generativa para personal no técnico. Los gerentes discuten abiertamente cómo cambiarán las tareas y reservan tiempo para que los equipos experimenten, transformando la ansiedad sobre automatización en búsqueda de dominio.

3. Rediseño de flujos de trabajo, no solo automatización de tareas

En lugar de acoplar modelos a pasos heredados, estas compañías mapean flujos de valor completos y deciden deliberadamente qué segmentos son mejor manejados por máquinas y cuáles requieren juicio humano. Roles e incentivos se reescriben en consecuencia.

4. Liderazgo distribuido, no mando centralizado

Los centros de excelencia en IA todavía existen, pero campeones se incrustan en unidades de negocio. Los «propagadores» locales identifican puntos de fricción, lanzan victorias rápidas y difunden resultados para que la adopción se expanda orgánicamente.

5. Integración invisible

Finalmente, los de mayor desempeño integran IA en herramientas que empleados ya usan—documentos, mensajería, reuniones—para que valor se acumule en el flujo de trabajo en lugar de en interfaces exóticas.

La brecha entre estrategia y ejecución

La evidencia recopilada en 2025 sugiere que la mayoría de organizaciones tropieza entre el primer y segundo paso. Los ejecutivos encuestados por Google reportan que creen que IA ya está entregando valor «sustancial», pero el personal de primera línea dice sentirse inadecuadamente preparado e incierto sobre apoyo institucional. Esta brecha de percepción frecuentemente emerge cuando proyectos piloto, construidos por pequeños equipos de innovación, se transfieren a grupos operacionales que deben mantenerlos en ambientes de producción.

Según investigadores del MIT, el atractivo de algoritmos personalizados puede distraer a tomadores de decisiones de asuntos menos glamorosos pero fundamentales como calidad de datos, gestión del cambio y evaluaciones de riesgo ético. El análisis de Technology Review señala que muchos pilotos tempranos carecían de salvaguardas integradas, haciendo que departamentos legales sean reticentes a aprobar expansión—otro factor que frena el ROI.

IA responsable emerge como acelerador

La encuesta de PwC indica que organizaciones que abrazan marcos de «IA responsable»—cubriendo transparencia, mitigación de sesgos y participación de partes interesadas—reportan tiempo más rápido para valor y menos obstáculos al escalar. La consultoría cita casos en salud, servicios financieros y manufactura donde gobernanza documentada cortó ciclos de aprobación a la mitad. En efecto, la responsabilidad se convierte en acelerador empresarial, no meramente ejercicio de cumplimiento.

Lecciones comparativas de olas tecnológicas anteriores

Para veteranos de transformaciones digitales previas, el momento actual recuerda las migraciones a la nube de principios de los 2010: proyecciones ambiciosas, pilotos estancados y comprensión gradual de que rediseño de procesos, no solo tecnología, desbloquea valor. Los analistas argumentan que IA generativa sigue una curva similar, con el giro adicional de que salidas de modelos pueden ser impredecibles, elevando las apuestas para gobernanza. El patrón refuerza lección central: sin plan para recablear el trabajo, herramientas novedosas revierten a juguetes costosos.

Hacia dónde lleva el camino en 2026

Mirando adelante, investigadores detectan signos de maduración. Los proveedores empaquetan modelos específicos de dominio que prometen despliegue más rápido, e alianzas industriales convergen en estándares de seguridad compartidos. Aun así, los datos implican que la tasa de fracaso del 95 % no caerá dramáticamente hasta que las compañías cierren la brecha de ejecución descrita arriba. En términos prácticos, eso significa:

• Incrustar métricas de IA en tableros de desempeño estándar en lugar de areneros experimentales.
• Financiar reentrenamiento de fuerza laboral a escala similar que inversiones en centros de datos.
• Instituir puntos de control de gobernanza temprano para que proyectos sean «seguros para escalar» antes de escribir código.

Análisis: implicaciones para líderes

Los números entregan veredicto sobrio, pero también clarifican qué funciona. Organizaciones que vinculan IA a resultados empresariales explícitos, cultivan cultura de aprendizaje y operacionalizan ética no solo experimentan—reconfiguran cómo se realiza el trabajo. Para juntas, la implicación es que presupuestos de IA deben desplazarse de laboratorios especulativos a programas multifuncionales que unan tecnología, proceso y personas. Para empleados, el mensaje es matizado: el futuro demandará nuevas habilidades, pero esas habilidades pueden elevar sus roles en lugar de borrarlos.

Si la era 2023–2024 se definió por lanzamientos entusiastas y demostraciones vistosas, 2025 marca el inicio de responsabilidad. Las compañías que dominan ese cambio—constituyendo quizá el 3 % del campo hoy—ofrecen plantilla para la próxima onda. Su experiencia sugiere que la promesa de IA es real, pero solo cuando organizaciones equiparan ambición tecnológica con ejecución disciplinada.

Fuentes

  • https://www.technologyreview.com/2025/12/15/1129174/the-great-ai-hype-correction-of-2025/
  • https://ziellab.com/post/how-successful-companies-are-actually-using-ai-in-2025
  • https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-survey.html