Participación general de Apple

Los investigadores de Apple se comprometen a avanzar en inteligencia artificial y aprendizaje automático mediante investigación científica rigurosa. Para impulsar el progreso en toda la comunidad investigadora, la empresa publica activamente sus hallazgos y participa en las principales conferencias académicas. Este diciembre, Apple tomará parte en la 39ª Conferencia anual sobre Sistemas de Procesamiento de Información Neural (NeurIPS), que se llevará a cabo en San Diego, California, con un lugar satélite adicional en la Ciudad de México, México. A través del patrocinio y la participación activa, Apple continúa apoyando este importante encuentro para la comunidad de aprendizaje automático.

Durante la conferencia y sus talleres asociados, los investigadores de Apple presentarán múltiples artículos que abordan temas diversos dentro del aprendizaje automático. La cartera de presentaciones abarca trabajo en técnicas de aprendizaje automático que preservan la privacidad, análisis crítico de las capacidades y limitaciones de modelos de razonamiento, enfoques novedosos para inteligencia artificial generativa y métodos sistemáticos para optimizar la composición de datos de entrenamiento.

Los asistentes tendrán la oportunidad de explorar las iniciativas de investigación de Apple en primera persona en el stand #1103 durante el horario de exposición. Más allá de las presentaciones técnicas, Apple patrocina y coorganiza varios eventos dedicados a apoyar a poblaciones subrepresentadas en el campo del aprendizaje automático, reforzando el compromiso de la empresa con la inclusión comunitaria.

Avances en aprendizaje automático que preserva la privacidad

En Apple, la privacidad se reconoce como un derecho humano fundamental, lo que hace que el avance de técnicas de protección de privacidad en IA y ML sea un área de investigación prioritaria. Varios artículos programados para presentación este año contribuyen progreso significativo a este dominio.

Un desafío estadístico central implica estimar con precisión distribuciones discretas a partir de muestras de datos. La métrica de error de divergencia de Kullback-Leibler (KL) resulta valiosa para promover diversidad y suavidad en distribuciones estimadas, con aplicaciones que se extienden desde compresión de datos, reconocimiento de voz y modelado del lenguaje. En un artículo Spotlight titulado «Instance-Optimality for Private KL Distribution Estimation», los investigadores de Apple examinan estrategias para estimación de distribuciones de probabilidad precisas manteniendo garantías de privacidad. El trabajo enfatiza la optimalidad de instancia—desarrollar algoritmos que adapten su enfoque a conjuntos de datos individuales y se aproximen al desempeño óptimo para cada escenario. Los investigadores demuestran nuevos algoritmos que logran este equilibrio bajo condiciones tanto estándar como diferencialmente privadas, asegurando que las distribuciones puedan estimarse con precisión bajo error KL mientras se protege matemáticamente a los datos individuales de la inferencia.

Una contribución relacionada, el artículo Spotlight «Privacy Amplification by Random Allocation», investiga cómo aleatorizar la selección de puntos de datos en cálculos fortalece las protecciones de privacidad. Bajo este esquema de asignación aleatoria, los datos del usuario participan en k pasos seleccionados aleatoriamente de una secuencia más amplia o conjunto de t pasos. El artículo establece garantías teóricas y enfoques de estimación numérica para esta metodología, habilitando análisis de privacidad mejorados y mejores compensaciones privacidad-utilidad para algoritmos importantes, incluyendo variantes de descenso de gradiente estocástico diferencialmente privadas y métodos de agregación segura. Un artículo complementario, «PREAMBLE: Private and Efficient Aggregation via Block Sparse Vectors», también se presentará en la conferencia.

Examen de capacidades y limitaciones de modelos de razonamiento

El razonamiento representa una capacidad crítica para sistemas de inteligencia artificial, permitiéndoles abordar objetivos complejos que requieren planificación secuencial—como resolución de problemas matemáticos, desafíos de codificación y aplicaciones robóticas o de asistente virtual. Si bien se ha logrado progreso significativo en el desarrollo de modelos de razonamiento, la investigación sistemática que evalúa rigurosaente tanto fortalezas como debilidades sigue siendo esencial para avances futuros.

Los investigadores de Apple presentarán «The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity», que investiga cómo los sistemas de IA actuales abordan tareas de razonamiento complejo. A través de entornos de puzzles controlados, el trabajo mide sistemáticamente variaciones de desempeño conforme aumenta la dificultad del problema. Los hallazgos revelan que los Grandes Modelos de Razonamiento fronterizos demuestran colapso de precisión más allá de umbrales de complejidad específicos. Además, mientras que el esfuerzo de razonamiento aumenta con la complejidad de la tarea hasta cierto punto, subsecuentemente disminuye a pesar de recursos computacionales suficientes disponibles. El análisis comparativo entre Grandes Modelos de Razonamiento y Grandes Modelos de Lenguaje operando con cálculo de inferencia equivalente muestra que los LLM superan a los LRM en tareas de baja complejidad, los LRM muestran ventajas para problemas de complejidad media, y ambos sistemas fallan en niveles de alta complejidad. Estos conocimientos iluminan las fortalezas y brechas actuales de los modelos de razonamiento, sugiriendo caminos hacia capacidades mejoradas en el futuro.

Un autor del artículo ofrecerá una Expo Talk sobre razonamiento en modelos de lenguaje el martes 2 de diciembre a las 8:30 a.m. PST, proporcionando evaluación crítica de capacidades de razonamiento actuales y explicando por qué las evaluaciones convencionales pueden ser engañosas.

Innovaciones en inteligencia artificial generativa

El progreso reciente en generación de imágenes de alta resolución ha sido sustancial, aunque los enfoques dominantes contienen inconvenientes significativos. Los modelos de difusión requieren recursos computacionales sustanciales durante las fases de entrenamiento y generación. Los modelos autorregresivos enfrentan gastos de inferencia y requieren cuantización que compromete la calidad del resultado. Los enfoques híbridos que aplican métodos autorregresivos en espacio continuo se vuelven complejos de implementar.

El artículo Spotlight «STARFlow: Scaling Latent Normalizing Flows for High-resolution Image Synthesis» presenta una metodología escalable que genera imágenes de alta resolución con calidad comparable eliminando la sobrecarga computacional y la complejidad de enfoques existentes. Construyendo sobre la arquitectura Transformer Autoregressive Flow, STARFlow combina flujos normalizadores con metodología de transformador para producir imágenes en resoluciones y niveles de calidad previamente inalcanzables por flujos normalizadores, igualando métodos de difusión y autorregresivos líderes mientras preserva modelado de probabilidad exacta y habilita inferencia más rápida.

Otra presentación, «LinEAS: End-to-end Learning of Activation Steering with a Distributional Loss», describe métodos de activación lineal de dirección entrenados con pérdida integral que da cuenta de cambios distributivos simultáneos capa por capa. Este enfoque requiere datos de muestra mínimo sin emparejar y supera métodos similares en mitigación de toxicidad mientras mantiene fluidez del modelo mediante regularización de sparsidad.

Optimización de la composición de datos de entrenamiento

Los modelos de fundación típicamente se entrenan en datos de dominio diverso, con proporciones de dominio impactando significativamente el desempeño. Los métodos de selección estándar se basan en enfoques de prueba y error, volviéndose imprácticos a escala.

«Scaling Laws for Optimal Data Mixtures» proporciona metodología sistemática utilizando leyes de escalado para determinar la composición de datos ideal para dominios objetivo, con capacidad predictiva demostrada entre escenarios de preentrenamiento de modelos de lenguaje a gran escala, modelos multimodales y modelos de visión.

Perspectiva: Cómo se ajusta esto a la estrategia más amplia de Apple

Aunque Apple ha mantenido bajo confidencialidad sus funciones de GenAI orientadas al consumidor, su presencia en NeurIPS sugiere una estrategia dual. Primero, al priorizar métodos que preservan la privacidad, la empresa refuerza su narrativa de hardware: los cálculos sensibles permanecen en dispositivos impulsados por sus propios chips. Segundo, avances como STARFlow podrían eventualmente aparecer en aplicaciones creativas donde la velocidad y la fidelidad de imagen son decisivas. Finalmente, los estudios sobre mezcla de datos y razonamiento apuntan a un impulso interno para estrechar el ciclo de retroalimentación entre investigación y despliegue—diseñando modelos que sean tanto capaces como eficientes en cuanto a recursos para ejecutarse a la escala de Apple. Esas ambiciones se pondrán a prueba no solo en revisión por pares sino también en qué tan rápidamente los hallazgos migran de los salones de conferencias de San Diego a millones de bolsillos y escritorios.

Fuentes

  • https://machinelearning.apple.com/research/neurips-2025
  • https://9to5mac.com/2025/11/21/apple-research-ai-studies-neurips-2025/