Olas sucesivas de intrusiones de grupos de hackers vinculados a China y Rusia exponen sistemas heredados frágiles en redes de transporte, energía y telecomunicaciones. En respuesta, agencias federales y principales empresas tecnológicas estadounidenses aceleran en 2024 el despliegue de herramientas de inteligencia artificial para identificar y reparar defectos de software que los atacantes explotan sistemáticamente.

Gran parte de la infraestructura digital crítica nacional aún funciona con código de décadas de antigüedad, nunca diseñado para la amenaza actual. Un consenso creciente entre legisladores e investigadores sostiene que la inteligencia artificial puede analizar, diagnosticar e incluso reescribir este software envejecido a velocidad de máquina, abordando lo que Foreign Affairs ha denominado «el desafío más difícil en la seguridad del software»: reforzar código que sustenta la vida moderna pero fue escrito para otra era Foreign Affairs.

La urgencia refleja una serie de brechas de alto perfil. Desde 2021, equipos profesionales de piratería han aprovechado sistemáticamente vulnerabilidades conocidas y sin parches en lugar de técnicas novedosas. Grupos chinos denominados Salt Typhoon y Volt Typhoon penetraron operadores de telecomunicaciones estadounidenses, sistemas de control de tránsito y proveedores de energía regional. Operativos del Servicio Federal de Seguridad ruso tomaron control de miles de enrutadores y conmutadores en una operación revelada a principios de 2024. Cada incidente subraya una realidad sobria: la sofisticación de los atacantes importa menos que el fracaso de los defensores en mantener y asegurar bases de código envejecidas.

Ejecutivos de la industria y funcionarios de seguridad coinciden en que los incentivos económicos están en la raíz del problema. Los proveedores de software enfrentan históricamente pocas consecuencias financieras por defectos de diseño; lanzar actualizaciones rápidas y baratas agrada a inversores y clientes, mientras que el costo eventual de una brecha recae en los usuarios. Sin regulaciones vinculantes, los productores tienen pocas razones para soportar gastos adicionales de pruebas de seguridad rigurosas.

La inteligencia artificial promete invertir ese cálculo. Google, Meta y Microsoft ya utilizan modelos de lenguaje grande y motores de generación de código para escribir aproximadamente una cuarta parte de su nuevo software. Ingenieros de estas empresas señalan que la cifra podría superar el 80 por ciento en cinco años a medida que los sistemas de IA aprendan a identificar errores lógicos, recomendar parches y verificar que el código nuevo no reintroduzca vulnerabilidades antiguas. A escala, la tecnología podría hacer que la codificación segura sea más rápida y menos costosa que la codificación insegura, inclinando los incentivos de mercado hacia la seguridad.

Un punto de inflexión llegó con el Desafío de Ciberseguridad de IA de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), lanzado en 2023 y aún en curso. Equipos de investigación competidores alimentaron repositorios de código masivo en modelos de IA propósitos específicos que identificaron autónomamente defectos deliberadamente enterrados e incluso revelaron debilidades previamente desconocidas. Tareas que tomarían días a un analista humano se completaron por software en minutos y a costo fraccionario. Funcionarios cercanos al concurso afirman que el ejercicio demostró, por primera vez, una tubería automatizada capaz de detectar y reparar vulnerabilidades en tiempo real.

Sin embargo, cada avance en defensa de IA plantea preocupaciones paralelas sobre potencial ofensivo. Los mismos modelos que auditan código en busca de errores pueden ayudar a criminales a elaborar malware más adaptativo o buscar en repositorios públicos objetivos sin parches. Proteger los sistemas de IA en sí mismos también presenta desafíos novedosos: datos de entrenamiento envenenados o manipulaciones sutiles de instrucciones podrían degradar el criterio de un modelo, causando que ignore problemas críticos o autorice cambios malintencionados.

Reconociendo tanto la promesa como el peligro, la Casa Blanca publicó en julio un Plan de Acción de IA que requiere que las agencias federales integren seguridad, transparencia y responsabilidad en el diseño del sistema desde el inicio. La nueva ley californiana de responsabilidad de IA y la Marca de Confianza Cibernética estadounidense voluntaria para dispositivos de consumidor buscan orientar a desarrolladores privados hacia estándares similares. Mientras tanto, funcionarios de adquisiciones exploran si el inmenso poder de compra del gobierno federal puede imponer líneas base de seguridad más estrictas. Como Washington es el cliente más grande del mundo para software, vincular premios de contrato a métricas demostrables de calidad de código podría propagarse por todo el sector.

Grandes compradores privados adoptan tácticas comparables. JPMorgan Chase instruyó recientemente a proveedores que las características de seguridad deben tomar precedencia sobre fechas de lanzamiento, argumentando que la confiabilidad, no solo la innovación, impulsa el valor a largo plazo. Defensores sostienen que mandatos de alto perfil como estos pueden remodelar dinámicas de mercado más rápidamente que esfuerzos legislativos solos.

A pesar del impulso, persisten vacíos. Estados Unidos aún carece de un marco integral que imponga responsabilidad por fallos de seguridad prevenibles. Las normas propuestas a menudo se estancan entre la resistencia de la industria, con ejecutivos advirtiendo que requisitos onerosos podrían sofocar la innovación o crear competencia global desigual. En ausencia de estándares uniformes, sectores como energía, finanzas y aviación navegan un mosaico de regulaciones superpuestas que alientan el cumplimiento formal antes que la reducción de riesgo sustancial.

Los desafíos de coordinación se extienden al gobierno mismo. La Oficina Nacional del Director de Ciberseguridad, creada en 2021 para armonizar estrategia, permanece insuficientemente financiada y con falta de personal relativo a su mandato. Observadores sostienen que sin autoridad más fuerte para establecer y hacer cumplir políticas nacionales, la oficina enfrentará dificultades para imponer la disciplina necesaria para asegurar redes federales y comerciales extensas.

Aun así, la evidencia de progreso se acumula. Programas piloto en varias agencias alimentan ahora bibliotecas de software de décadas de antigüedad en motores de IA que sugieren reescrituras dirigidas, documentan dependencias heredadas e identifican funciones obsoletas. Pruebas iniciales reportan tasas de detección de errores muy superiores a herramientas de análisis estático tradicionales. Ingenieros describen la experiencia como «tener un ejército de desarrolladores junior incansables» revisando millones de líneas de código olvidado.

Mirando hacia adelante, reguladores y tecnólogos coinciden en que la transparencia será crítica. Liberar registros de auditoría, justificaciones de decisiones de modelos y conjuntos de datos anonimizados podría ayudar a investigadores externos a validar resultados e identificar sesgos o puntos ciegos. Algunas empresas han comenzado a publicar informes de equipo rojo que detallan cómo intentaron manipular sus propios sistemas de IA y qué defensas resultaron efectivas.

Los analistas también urgen precaución. La remediación automatizada es tan buena como los procesos comerciales que despliegan parches y verifican compatibilidad. Las organizaciones aún deben mantener procedimientos robustos de copia de seguridad, autenticación multifactor y capacitación de empleados. Ningún algoritmo puede compensar una cultura de liderazgo que tolera atajos inseguros o aplaza mantenimiento a presupuestos futuros.

Comparado con técnicas tradicionales de aseguramiento de software, la seguridad impulsada por IA escala mejor pero introduce riesgo de dependencia: si los atacantes aprenden a subvertir los modelos, el daño podría ser sistémico y rápido. Dinámicas similares han ocurrido en negociación algorítmica, donde una estrategia defectuosa puede desencadenar efectos de mercado en cascada. Los planificadores de ciberseguridad necesitarán opciones de contingencia si los sistemas de defensa de IA se desconectan o se vuelven poco confiables.

Aun así, el argumento estratégico para adoptar IA en ciberseguridad continúa ganando tracción. Como Foreign Affairs señaló en su evaluación del futuro campo de batalla del código, «la IA ayudará a abordar el desafío más difícil en la seguridad del software: código envejecido que sustenta gran parte de la infraestructura digital mundial» Foreign Affairs. Para Estados Unidos, donde servicios críticos dependen de vastos repositorios escritos en lenguajes obsoletos, las apuestas no podrían ser más altas.

En última instancia, la pregunta es menos si la IA remodelará la ciberseguridad que cómo se gestiona deliberadamente la transición. Si gobierno, industria y academia se alinean alrededor de estándares compartidos y responsabilidad, la defensa automatizada podría adelantar la ofensa automatizada. Si no, las mismas herramientas ahora aclamadas como salvadoras podrían convertirse en acelerantes para la próxima generación de ciberataques.

Por ahora, la carrera está en marcha. Cada mes que los sistemas heredados permanecen sin parches es una invitación para adversarios. Y cada línea de código envejecido que la IA puede refactorizar de manera segura acerca a la nación un paso más cerca a un ecosistema de software donde la seguridad no es una ocurrencia tardía sino un valor por defecto integrado.

Fuentes

  • https://www.foreignaffairs.com/united-states/end-cybersecurity