Revelada vulnerabilidad crítica de ejecución remota de código en PyTorch que afecta a miles de modelos de IA desplegados globalmente
CVE-2026-XXXXX compromete la seguridad de frameworks de aprendizaje automático, obligando a gigantes como OpenAI y Anthropic a emitir alertas de seguridad urgentes para actualizar dependencias.
- 241
- 17 de marzo del 2026
- 59
Una vulnerabilidad de ejecución remota de código (RCE) catalogada como crítica ha sido revelada en PyTorch, el popular framework de código abierto para aprendizaje automático. Identificada como CVE-2026-XXXXX, la falla de seguridad afecta potencialmente a miles de modelos de inteligencia artificial desplegados en producción a nivel global, desde chatbots hasta sistemas de recomendación y visión por computadora. El descubrimiento, hecho público hace aproximadamente dos horas, ha desencadenado una respuesta de emergencia en la comunidad de IA, con empresas líderes como OpenAI y Anthropic ya alertando a sus usuarios y equipos de desarrollo sobre la necesidad imperiosa de actualizar las dependencias afectadas.
La vulnerabilidad reside en un componente central de la serialización de tensores de PyTorch, permitiendo a un atacante remoto ejecutar código arbitrario en sistemas que carguen modelos maliciosamente manipulados. Según el aviso técnico preliminar, la explotación no requiere privilegios elevados y podría comprometer servidores de inferencia, plataformas en la nube que alojen modelos y, potencialmente, aplicaciones de escritorio que utilicen PyTorch. El equipo de mantenimiento de PyTorch, en coordinación con el Equipo de Preparación para Emergencias Informáticas de Estados Unidos (CERT/CC), está trabajando en un parche que se espera sea liberado en las próximas 24 horas. Mientras tanto, se recomienda aislar los endpoints de inferencia y revisar la procedencia de todos los modelos cargados.
Las implicaciones de esta vulnerabilidad son vastas, considerando la ubicuidad de PyTorch. Un estudio reciente de la Fundación Linux estima que más del 60% de los modelos de investigación publicados en los últimos tres años utilizan PyTorch, y una porción significativa de estos se ha trasladado a entornos productivos. Sectores como la salud (con modelos de diagnóstico), finanzas (para detección de fraudes) y automoción (en sistemas de asistencia al conductor) podrían estar expuestos. La Agencia de Ciberseguridad y Seguridad de las Infraestructuras (CISA) de EE.UU. ha añadido la CVE a su catálogo de vulnerabilidades explotadas activamente, instando a todas las organizaciones gubernamentales y contratistas a aplicar medidas de mitigación inmediatas.
La respuesta de la industria ha sido rápida. Además de OpenAI y Anthropic, otras compañías como Meta AI Research, Hugging Face y Stability AI han activado sus protocolos de seguridad. Hugging Face, el repositorio más grande de modelos de IA, ha comenzado a escanear su plataforma en busca de modelos que puedan explotar esta vulnerabilidad y ha notificado a sus usuarios. Expertos en seguridad como Bruce Schneier han comentado que este incidente subraya los riesgos emergentes en la cadena de suministro de la IA, donde una vulnerabilidad en una biblioteca fundamental puede tener un efecto dominó masivo. Se anticipa que en los próximos días se revelen más detalles sobre vectores de ataque específicos y que el parche de PyTorch sea seguido por actualizaciones de seguridad en frameworks derivados y ecosistemas dependientes, como TensorFlow (a través de puentes de compatibilidad) y ONNX Runtime.