El panorama europeo de inteligencia artificial revela una preocupante brecha: a siete meses de la entrada en vigor de la Ley de IA de la Unión Europea, el 70% de las organizaciones continentales carecen de las estructuras de gestión de riesgos que pronto serán obligatorias. Así lo desvela el «Barómetro de IA ESSCA-Mazars», un exhaustivo estudio realizado por el Instituto de IA para la Sostenibilidad de ESSCA School of Management y la consultora Forvis Mazars tras encuestar a más de 400 líderes tecnológicos.

Esta alarmante estadística surge en un contexto donde muchas empresas podrían enfrentar multas de hasta 35 millones de euros o el 7% de su facturación global por incumplir la nueva normativa, formalmente conocida como Reglamento (UE) 2024/1689. La legislación, pionera a nivel mundial, categoriza los sistemas de IA de alto riesgo —aquellos utilizados en infraestructuras críticas, empleo, educación o aplicación de la ley— y obliga a las empresas a mantener una supervisión continua desde el diseño hasta la implementación.

A pesar del entusiasmo (el 50% de las empresas encuestadas afirman que los proyectos de IA ya han mejorado su rendimiento), uno de cada cinco proyectos ha encontrado «problemas importantes de implementación». Estos tropiezos se originan principalmente en tres cuellos de botella:

• 45% provienen de estrategias deficientes o escasez de recursos financieros, humanos o técnicos.
• 30% surgen de la mala calidad de los datos o acceso fragmentado a los mismos.
• 25% implican problemas de confianza y responsabilidad, como resultados inexplicables o débil supervisión humana.

«Las empresas están entusiasmadas con el potencial de la inteligencia artificial pero subestiman los desafíos de gestión que conlleva», advierte Dejan Glavas, profesor de finanzas y director del Instituto de IA para la Sostenibilidad de ESSCA. «La IA no es meramente una cuestión tecnológica, sino también un reto de gobernanza, ética y talento».

Las disparidades sectoriales complican aún más el panorama. Las empresas de servicios públicos e instituciones financieras lideran la preparación, con más del 60% manteniendo equipos dedicados a la IA, mientras que solo el 27% de las organizaciones del sector público pueden afirmar lo mismo. Esta brecha resulta particularmente preocupante porque los gobiernos actúan tanto como usuarios intensivos de IA de alto riesgo como aplicadores de la nueva ley.

Una encuesta complementaria citada por Euronews Next muestra que apenas el 18% de los líderes tecnológicos europeos consideran la IA como su principal prioridad de inversión, en comparación con el 79% entre los «mejores actores» globales. La preparación técnica sigue un patrón similar: solo el 23% de las organizaciones europeas informan tener capacidad GPU suficiente, el 66% luchan por centralizar sus conjuntos de datos y el 36% reconocen que sus redes no pueden soportar cargas de trabajo impulsadas por IA.

La formación corporativa va aún más rezagada. Según FE News, solo uno de cada treinta empleados ha completado instrucción formal en IA, y aproximadamente cuatro de cada cinco temen ser vulnerables a incumplir las nuevas normas.

El estudio ESSCA-Mazars desglosa los obstáculos de implementación en tres grandes grupos:

  1. Estrategia y recursos: El 45% de los fracasos comienzan con objetivos comerciales poco claros, iniciativas de datos infrafinanciadas o escasez de talento especializado.
  2. Calidad y disponibilidad de datos: Casi un tercio de los contratiempos se remontan a conjuntos de datos fragmentados, formatos incompatibles o entradas no estructuradas.
  3. Confianza y responsabilidad: Un cuarto de los obstáculos implican problemas de gobernanza que la Ley de IA de la UE aborda explícitamente.

Agravando estas debilidades está la forma en que las empresas obtienen su IA. Solo una de cada cuatro desarrolla modelos propios, mientras que la mayoría depende de sistemas prediseñados o modelos preentrenados que no pueden auditar o personalizar completamente. El 49% han establecido equipos de gobernanza de IA, pero casi un tercio ni emplean especialistas ni planean contratarlos.

Para acelerar el cumplimiento, los investigadores de ESSCA recomiendan seis acciones prioritarias: ampliar la formación específica en IA; adoptar pilotos de «prueba y aprendizaje»; formalizar marcos de gobernanza éticos y técnicos; forjar alianzas entre empresas, legisladores y juristas; cuantificar la huella ambiental de la IA; y promover la IA responsable en sectores de alto impacto como salud y educación.

Como señala Glavas, «la madurez en la gestión de la IA no se construye solo a través de la inversión, sino mediante el aprendizaje organizacional». Según el informe, las empresas que ya han experimentado dificultades están avanzando más significativamente en cultura de control, formación y supervisión ética—una lección esencial en una era donde la inteligencia artificial es tanto transformadora como exigente.

Fuentes