En años recientes, la disponibilidad de enormes recursos computacionales y vastos conjuntos de datos ha transformado la metodología científica. Ha surgido un paradigma impulsado por datos que se apoya en el entrenamiento de sistemas de aprendizaje automático —predominantemente redes neuronales artificiales— para predecir cómo se comporta el mundo natural. Entre las aplicaciones más célebres destaca AlphaFold, un sistema capaz de predecir estructuras proteicas con notable precisión. Sin embargo, este enfoque centrado en datos lleva consigo una limitación significativa: los modelos funcionan como sistemas opacos que no ofrecen claridad sobre sus procesos de toma de decisiones. Además, incorporar el conocimiento establecido del dominio en tales modelos sigue siendo un desafío dentro de marcos puramente impulsados por datos.

Investigadores del MIT, dirigidos por Ziming Liu, han desarrollado un nuevo método de aprendizaje automático diseñado para extraer principios físicos simples e interpretables directamente de datos observacionales. Este avance representa un progreso significativo en la superación de las barreras de opacidad e integración del conocimiento que actualmente limitan los enfoques científicos impulsados por datos.

Históricamente, el avance científico se ha centrado en identificar principios simples y comprensibles que rigen los fenómenos naturales. Las leyes del movimiento de Newton, la mecánica cuántica y la relatividad ejemplifican esta metodología basada en principios. Los científicos formulan modelos matemáticos que reflejan estos principios, luego resuelven estos modelos para generar predicciones comprobables y respaldar aplicaciones ingenieriles. Los enfoques impulsados por datos contemporáneos divergen significativamente de esta tradición establecida.

El concepto de extraer leyes físicas de datos no es completamente nuevo. Se han aplicado técnicas tradicionales que utilizan métodos de optimización basados en regularización que promueve la escasez para abordar este desafío. Las redes neuronales informadas por la física (PINN) representan un avance más reciente, incorporando exitosamente restricciones físicas expresadas como ecuaciones diferenciales en arquitecturas de redes neuronales mientras aprenden simultáneamente modelos basados en ecuaciones a partir de conjuntos de datos. La innovación distinguida en el trabajo de Liu implica la introducción de un diseño de red específicamente engineered para mejorar la interpretabilidad del modelo.

La arquitectura propuesta, denominada redes de Kolmogorov-Arnold (KAN), extrae su fundamentación teórica de la resolución del decimotercer problema de Hilbert, un problema matemático clásico que cuestiona si las funciones multivariables pueden descomponerse en composiciones de sumas y funciones de una sola variable. Andrei Kolmogorov y Vladimir Arnold demostraron famosamente que tales representaciones son universalmente posibles. Construyendo sobre este principio matemático, las KAN representan funciones multivariables mediante combinaciones de sumas y funciones univariables, aprendiendo estos componentes univariables de los conjuntos de datos de entrenamiento. Dado que el aspecto aprendible de una KAN consiste en funciones univariables en lugar de estructuras complejas en capas, los investigadores pueden examinar estas funciones aprendidas después del entrenamiento para comprender qué ha descubierto la red. Esta característica hace que las KAN sean sustancialmente más transparentes que las redes neuronales convencionales.

El equipo del MIT probó las KAN en datos dinámicos brutos de múltiples escenarios. En estas aplicaciones, la red identificó exitosamente cantidades conservadas como la energía y el momento angular en un sistema de oscilador armónico bidimensional. Determinó ecuaciones lagrangianas tanto para un péndulo simple como para una masa relativista sometida a una fuerza externa constante. La red descubrió transformaciones matemáticas que revelan simetrías asociadas con un agujero negro no rotatorio y cuantificó relaciones esfuerzo-deformación características de sólidos neo-Hookeanos. Notablemente, en cada demostración, los investigadores combinaron la arquitectura KAN con conocimiento establecido del dominio sugiriendo formas apropiadas para las leyes físicas subyacentes.

Estas pruebas iniciales necesariamente emplean escenarios controlados donde las respuestas correctas ya están establecidas. La verdadera medida del potencial de este método reside en su aplicación a problemas científicos genuinos donde las leyes físicas permanecen sin descubrir. Cuando se dirige hacia tales problemas, este enfoque de aprendizaje automático interpretable podría acelerar sustancialmente el descubrimiento científico. Durante los próximos decenios, integrar técnicas de aprendizaje automático, particularmente las KAN, en el proceso científico promete permitir descubrimientos que las metodologías convencionales podrían nunca lograr. Esta estrategia parece excepcionalmente prometedora para dominios caracterizados por datos abundantes pero complejidad computacional prohibitiva, incluyendo sistemas cuánticos de muchos cuerpos, investigación química y ciencia de materiales —campos donde los cálculos de primeros principios siguen siendo prácticamente inviables.


Avance en IA interpretable: la red de Kolmogorov-Arnold del equipo del MIT extrae leyes físicas y muestra promesa industrial temprana

Un grupo de investigación del Instituto Tecnológico de Massachusetts ha presentado una arquitectura de aprendizaje automático llamada red de Kolmogorov-Arnold (KAN) que, por primera vez, extrae leyes físicas compactas de datos brutos manteniendo la transparencia suficiente para que los científicos inspeccionen su razonamiento. El sistema, presentado en trabajo revisado por pares dirigido por el físico Ziming Liu y probado a lo largo de 2024 en Cambridge, Massachusetts, promete acortar el camino desde los datos al descubrimiento tal como lo hicieron las redes neuronales de caja negra tradicional para el reconocimiento de imágenes y lenguaje.

Los resultados iniciales sugieren que la nueva red puede descifrar todo, desde la energía conservada de un oscilador bidimensional hasta las propiedades termoelétricas de materiales avanzados, insinuando una utilidad amplia en física, química e ingeniería. Al reformular relaciones multivariables como sumas de funciones unidimensionales —un logro matemático demostrado por primera vez por Andrei Kolmogorov y Vladimir Arnold— la arquitectura aborda la larga brecha de «interpretabilidad» que ha obstaculizado las herramientas de aprendizaje profundo en el laboratorio reporte de phys.org.

Dentro del impulso más amplio hacia la inteligencia artificial explicable, el proyecto del MIT llega en un momento fundamental. Durante la pasada década, investigadores en campos inundados de datos —sistemas cuánticos de muchos cuerpos, diseño de fármacos, modelado climático— han estado asimilando pronósticos opacos de redes profundas sin obtener mucha visión teórica a cambio. Un método que muestra su trabajo podría recentrar el método científico en primeros principios en lugar de coincidencia de patrones estadísticos, mientras sigue aprovechando la fuerza computacional bruta que hizo que AlphaFold fuera un nombre familiar.

KAN de un vistazo

Las redes neuronales tradicionales de avance representan una función objetivo apilando capas no lineales de formas que son casi imposibles de interpretar una vez completado el entrenamiento. Una KAN, por el contrario, está construida para reflejar la solución de Kolmogorov al decimotercer problema de Hilbert: cualquier función multivariable continua puede descomponerse en una suma finita de funciones de una sola variable. El equipo del MIT codificó ese teorema directamente en el cableado de la red para que, durante el entrenamiento, solo se aprendan las funciones unidimensionales. Dado que cada una de esas funciones vive en un eje que los científicos pueden visualizar, el modelo final se lee casi como una ecuación de un libro de texto en lugar de una maraña de millones de pesos.

Esa estructura tiene dos ventajas. Primero, apoya la inspección simbólica —los investigadores pueden trazar literalmente o diferenciar las curvas aprendidas para ver qué leyes de conservación o simetrías internalizó el modelo. Segundo, permite a los usuarios inyectar conocimiento del dominio desde el principio, por ejemplo restringiendo la forma de un lagrangiano u obligando una simetría conocida, guiando así la búsqueda hacia soluciones físicamente significativas.

Lo que la red ya ha recuperado

Para probar si las matemáticas elevadas se tradujeron en práctica, el grupo de Liu alimentó la red con datos de movimiento de sistemas bien estudiados. En un oscilador armónico bidimensional, la KAN recuperó expresiones para la energía y el momento angular. A partir de las trayectorias de un péndulo simple, reconstruyó el lagrangiano familiar, y en un contexto relativista con fuerza constante, derivó las ecuaciones de movimiento correctas. El modelo también descubrió relaciones esfuerzo-deformación para sólidos neo-Hookeanos e incluso identificó transformaciones de coordenadas que exponen las simetrías ocultas de un agujero negro de Schwarzschild.

Todas esas demostraciones utilizaron sistemas donde las respuestas eran conocidas de antemano, permitiendo al equipo verificar la precisión. Sin embargo, también revelaron la flexibilidad de la arquitectura. A diferencia de algoritmos anteriores que promueven la escasez o redes neuronales informadas por la física —que a menudo requieren que los usuarios adivinen la biblioteca de términos que podrían aparecer en una ecuación gobernante— las KAN pueden comenzar a partir de observaciones brutas y aún destilar una ley inteligible.

Corroboración independiente

Grupos externos han comenzado a examinar la misma arquitectura en dominios lejanos a la mecánica clásica. Una descripción general de diciembre de 2025 de la técnica destacó su capacidad de «tender un puente entre IA y razonamiento simbólico» descomponiendo funciones de alta dimensión en sumas de términos unidimensionales, mejorando así la interpretabilidad y reduciendo potencialmente los requisitos de datos para aprender relaciones complejas Phys.org.

Mientras tanto, investigadores que exploran materiales funcionales emplearon una KAN para pronosticar desempeño termoeléctrico —una aplicación donde la interacción de estructura electrónica, transporte de fonones y desorden microestructural hace que el modelado de primeros principios sea intratable. Según un preprint de arXiv, el modelo reprodujo cifras clave de mérito con precisión competitiva mientras exponía qué contribuciones unidimensionales (por ejemplo, concentración de portadores o conductividad térmica de la red) influían más fuertemente en el resultado. Esa interpretabilidad podría ser invaluable para ingenieros de materiales que deben decidir qué sustituciones atómicas o ajustes de fabricación perseguir en el laboratorio.

Por qué importa la interpretabilidad ahora

A medida que el aprendizaje automático se infiltró en cada rincón de la ciencia experimental, la crítica de la «caja negra» se transformó de cuestionamiento filosófico en obstáculo práctico. Los laboratorios a menudo necesitan justificar por qué un modelo rechaza una muestra atípica o cómo un compuesto sugerido podría fallar bajo condiciones extremas. Las regulaciones sobre dispositivos médicos y sistemas autónomos demandan cada vez más explicaciones como parte de auditorías de seguridad. Al proporcionar claridad de caja blanca sin sacrificar poder predictivo, las KAN podrían satisfacer tanto la curiosidad científica como las necesidades de cumplimiento.

Cómo difiere el enfoque de híbridos anteriores

Las redes neuronales informadas por la física, introducidas en 2019, abordaron el problema de la opacidad incorporando ecuaciones diferenciales conocidas en la función de pérdida. Sobresalen cuando las leyes gobernantes son parcialmente conocidas pero dejan poco espacio para descubrir nueva física. La regresión simbólica basada en escasez, popularizada por el algoritmo SINDy, puede extraer ecuaciones compactas pero lucha cuando la biblioteca de candidatos es incompleta o los datos ruidosos. Las KAN evaden ambas limitaciones: aprenden las propias funciones constituyentes y pueden ser guiadas por, pero no están atadas a, suposiciones del dominio.

Obstáculos potenciales

A pesar de los primeros éxitos, permanecen varias preguntas. El teorema de Kolmogorov no ofrece garantía de que las funciones unidimensionales resultantes sean suaves o convenientes de interpretar. El escalado a sistemas caracterizados por estocasticidad o discontinuidades —flujos turbulentos o mecánica de fracturas, por ejemplo— puede estirar los fundamentos matemáticos de la arquitectura. La eficiencia del entrenamiento también depende de una inicialización inteligente y regularización para evitar sobreajuste de cada curva univariable.

Análisis y perspectivas

Si esos obstáculos pueden ser superados, las KAN podrían hacer por la visión teórica lo que AlphaFold hizo por la estructura de proteínas: convertir un gran desafío científico de décadas en un paso largamente computacional. Imagina un modelo climático que no solo pronostique lluvia regional sino que también destaque los balances energéticos emergentes responsables, o un simulador de material cuántico que exponga una ley de conservación inesperada apuntando a una nueva fase de materia. A diferencia de redes de caja negra, las ecuaciones derivadas por las KAN serían portátiles, comprobables y directamente reutilizables en solucionadores numéricos tradicionales, reduciendo potencialmente costos computacionales.

El enfoque también se alinea con un cambio filosófico más amplio. Después de años de depender del volumen de datos para compensar la ignorancia del modelo, el campo está reavivando el interés en algoritmos que respeten la causalidad física y la parsimonia. El razonamiento simbólico casado con el aprendizaje profundo podría reavivar la sinergia entre observación empírica y formulación de teoría que definió la revolución científica hace siglos.

Aun así, la adopción dependerá de victorias del mundo real. Los científicos de materiales deben demostrar que los ciclos de diseño guiados por KAN llevan a termoeléctricos comercialmente viables; los biólogos buscarán nuevas reglas metabólicas extraídas de conjuntos de datos ómicos; y las agencias de financiamiento compararán herramientas centradas en interpretabilidad con detección de alto rendimiento convencional en términos de costo y tasa de descubrimiento. Si las KAN funcionan, podrían reemplazar redes neuronales opacas en áreas críticas de seguridad y reavivar el papel de la intuición humana en la investigación computacional.

Por ahora, el equipo de Liu colabora con experimentalistas para dirigir la red hacia fenómenos cuyas ecuaciones gobernantes permanecen esquivas. Si incluso uno de tales esfuerzos produce una ley publicable, el método habrá logrado algo que pocos instrumentos de aprendizaje automático pueden reclamar: habrá enseñado a la humanidad nueva ciencia en lugar de simplemente aproximarla.

Fuentes

  • https://phys.org/news/2025-12-kolmogorov-arnold-networks-bridge-ai.html
  • https://arxiv.org/html/2510.02681v2