Una firma de ciberseguridad llamada Cycode ha lanzado una plataforma en acceso temprano que descubre automáticamente cada herramienta de inteligencia artificial que los desarrolladores utilizan en su trabajo diario, y permite que los equipos de seguridad las gobiernen. El objetivo es frenar las crecientes amenazas de seguridad y cumplimiento normativo causadas por la «IA fantasma» no autorizada.
La nueva capacidad llega mientras las empresas luchan por mantenerse al ritmo de una oleada de adopción informal de IA. Blogs y grupos de la industria advierten que cuando los empleados utilizan chatbots externos, generadores de código o servicios de modelos de lenguaje extenso sin aprobación, pueden filtrar accidentalmente datos sensibles, violar regulaciones o incrustar código no verificado que abre nuevas vías de ataque. Al mapear cada interacción de IA hasta su repositorio de origen, Cycode asegura que su plataforma proporcionará a los líderes de seguridad la visibilidad que necesitan para aplicar políticas antes de que ocurra el daño.
La huella expansiva de la IA fantasma
El término «IA fantasma» se refiere a cualquier sistema de inteligencia artificial que funciona fuera del control oficial de una organización. Según investigadores de seguridad en Varonis, estas implementaciones ocultas «pueden exponer sus datos sensibles, socavar el cumplimiento normativo e introducir vulnerabilidades invisibles en su organización» blog de Varonis. La Cloud Security Alliance va más allá, calificando las herramientas de IA no autorizadas como la «peor pesadilla» de un equipo de TI porque amplifican riesgos que van desde fugas de datos hasta toma de decisiones no autorizada blog de CSA.
Cycode sostiene que los desarrolladores son particularmente propensos a generar estos riesgos. Los equipos de software modernos utilizan asistentes de finalización de código, modelos previamente entrenados y API de IA de terceros, a menudo activándolos con un único comando o tarjeta de crédito. Estas herramientas pueden no toccar nunca la pila de seguridad centralizada de la empresa, dejando brechas que las pruebas de seguridad de aplicaciones tradicionales no logran detectar.
Dentro de la nueva capa de seguridad de IA de Cycode
La piedra angular del enfoque de Cycode es el descubrimiento automático de activos de IA. Tan pronto como un desarrollador invoca un asistente de codificación o se conecta a un servidor de Protocolo de Contexto de Modelo (MCP), la plataforma captura el evento y registra la herramienta en un inventario que los equipos de seguridad pueden buscar y auditar. Al tejer esos registros en su Gráfico de Inteligencia de Riesgos, Cycode vincula cada componente de IA al repositorio o tubería que lo generó, revelando quién utiliza qué, dónde y con qué frecuencia.
Los controles de uso personalizables se construyen sobre esa visibilidad. Los líderes de seguridad o cumplimiento pueden definir una lista de aprobación de modelos o servicios externos autorizados, bloqueando o marcando cualquier cosa que no cumpla con los estándares internos. Por ejemplo, si la política de la empresa prohíbe enviar código fuente a puntos finales de IA externos, el sistema puede alertar inmediatamente tanto al desarrollador como al centro de operaciones de seguridad cuando se infringe la regla.
Para respaldar a los auditores, la plataforma genera una Lista Dinámica de Materiales de IA (AIBOM). Así como una lista de materiales de software cataloga bibliotecas de código abierto, la AIBOM enumera cada modelo, conjunto de datos y API de IA involucrados en el ciclo de vida de una aplicación. Cycode asegura que mantener este artefacto continuamente simplificará el cumplimiento con las regulaciones emergentes de gobernanza de IA y ayudará a la dirección a demostrar debida diligencia a clientes y reguladores.
«Estamos enfrentando un ecosistema invisible de herramientas de IA que generan riesgos sin precedentes. Ya no es suficiente identificar vulnerabilidades en código generado por IA. Las organizaciones requieren transparencia total y control sobre toda su cadena de herramientas de IA», afirmó Jochen Koehler, vicepresidente de EMEA de Cycode, en un comunicado que anunciaba el lanzamiento.
Integración en toda la pila de desarrollo
Las nuevas características de Cycode se insertan en la Plataforma Nativa de Seguridad de Aplicaciones de IA del proveedor, que ya incluye herramientas de escaneo de código, detección de secretos y aplicación de políticas. La oferta combinada pretende proteger aplicaciones «desde la generación inicial de código hasta la implementación en producción», según la empresa, sin obligar a los desarrolladores a abandonar sus entornos de desarrollo integrado o tuberías de CI/CD.
Aunque la funcionalidad de inventario de IA se encuentra solo en acceso temprano, la empresa la posiciona como una evolución natural de DevSecOps. A medida que el código generado por IA se traslada a producción, cualquier punto ciego en torno al uso de modelos amenaza con socavar años de inversión en cambio de seguridad hacia la izquierda. Al correlacionar activos de IA con el gráfico de seguridad más amplio, Cycode asegura que puede priorizar la remediación según el contexto empresarial, identificando, por ejemplo, qué integración de modelo no autorizada accede a datos de clientes frente a bancos de prueba de bajo riesgo.
Por qué el momento es importante
Los observadores de la industria señalan que la adopción incontrolada de IA se está acelerando más rápido de lo que muchos equipos de seguridad pueden escribir políticas. Fresh Consulting advierte que «el uso incontrolado de herramientas de IA por parte de los empleados presenta riesgos significativos para la seguridad de datos y el cumplimiento de la empresa» blog de Fresh Consulting. Relyance AI, una empresa de privacidad de datos, añade que la mayoría de las herramientas tradicionales de gestión de postura de seguridad de datos no pueden ver estas implementaciones de IA ocultas, lo que permite que «riesgos de seguridad de datos sin precedentes» se propaguen blog de Relyance AI.
Estas advertencias resuenan con la experiencia del sector de software al adoptar bibliotecas de código abierto hace una década. Entonces también, la conveniencia superó a la supervisión hasta que los incidentes de seguridad obligaron a las organizaciones a rastrear dependencias sistemáticamente. Cycode sostiene que un cálculo similar se acerca para la IA, pero más rápido, porque los modelos generativos pueden sintetizar funciones completas o vulnerabilidades a la velocidad de una solicitud.
Primeros usuarios y próximos pasos
Aunque Cycode no ha divulgado nombres de clientes, la firma asegura que las empresas que participan en el programa de acceso temprano abarcan servicios financieros, atención médica y tecnología, sectores bajo escrutinio regulador intenso. Los usuarios piloto informan que simplemente mostrar a los desarrolladores un panel de control en tiempo real de todas las llamadas de IA ha reducido el uso de herramientas no autorizadas, según la empresa.
El proveedor planea añadir puntuación de riesgo específica del modelo más adelante este año, combinando factores como la procedencia de datos de entrenamiento, términos de licencia y vulnerabilidades conocidas. A más largo plazo, Cycode tiene como objetivo alimentar métricas de uso de nuevo en educación de codificación segura, para que los equipos puedan comparar desempeño y riesgo entre asistentes de IA aprobados y no autorizados.
Análisis: Camino hacia la gobernanza de IA convencional
La carrera por aprovechar la IA generativa es paralela a cambios anteriores hacia la nube y dispositivos móviles: la adopción precede a los controles. Según la investigación de la industria citada, la IA fantasma expande la superficie de ataque de una empresa en dos dimensiones. Primero, el flujo de datos hacia el exterior cuando los empleados pegan código propietario o registros de usuarios en modelos públicos. Segundo, los flujos de tubería de modelos opacos hacia el interior cuando el código generado introduce errores, violaciones de políticas o paquetes maliciosos.
La apuesta de Cycode es que las organizaciones pagarán por observabilidad de IA centralizada en lugar de prohibir nuevas herramientas de manera directa, una posición que recuerda a las primeras plataformas de seguridad en la nube que ganaron tracción una vez que las empresas aceptaron la nube pública como inevitable. Si los reguladores exigen explicabilidad o pistas de auditoría para desarrollo asistido por IA, los proveedores capaces de mostrar datos de uso de modelos granulares estarán bien posicionados.
Aun así, la tecnología por sí sola no resolverá el enigma de la IA fantasma. Los grupos de seguridad deben emparejar herramientas de descubrimiento con capacitación actualizada y directrices claras sobre el uso de modelos aprobados. Los desarrolladores, por su parte, necesitan formas sin fricciones para experimentar con seguridad; de lo contrario, volverán a cuentas personales y pestañas de navegador fuera del alcance corporativo.
Por ahora, el lanzamiento de acceso temprano de Cycode subraya un consenso que se está formando en toda la comunidad de seguridad: la IA invisible ya está moldeando el software de producción, e ignorarla ya no es una opción.
Para más información, visite el sitio web oficial de Cycode en Cycode.com.
Fuentes
- https://www.varonis.com/blog/shadow-ai
- https://cloudsecurityalliance.org/blog/2025/03/04/ai-gone-wild-why-shadow-ai-is-your-it-team-s-worst-nightmare
- https://www.freshconsulting.com/insights/blog/shadow-ai-the-hidden-risk-and-how-to-manage-it/
- https://www.relyance.ai/blog/shadow-ai-invisible-risk-traditional-dspm-cannot-see
