29 ENE. 2026
NVIDIA ha dado el pistoletazo de salida a la próxima generación de IA con el lanzamiento de la plataforma NVIDIA Rubin, que incluye seis nuevos chips diseñados para ofrecer un increíble supercomputador de IA. NVIDIA Rubin establece un nuevo estándar para crear, implementar y proteger los sistemas de IA más grandes y avanzados del mundo al menor costo, con el fin de acelerar la adopción generalizada de la IA.
La plataforma Rubin utiliza un diseño conjunto extremo en los seis chips (la CPU NVIDIA Vera, NVIDIA Rubin GPU, NVIDIA NVLink™ 6 Switch, NVIDIA ConnectX®-9 SuperNIC, NVIDIA BlueField®-4 DPU y NVIDIA Spectrum™-6 Ethernet Switch para reducir drásticamente el tiempo de entrenamiento y los costos de los tokens de inferencia.
“Rubin llega justo en el momento oportuno, ya que la demanda de computación de IA tanto para entrenamiento como para inferencia se está disparando”, afirmó Jensen Huang, fundador y director ejecutivo de NVIDIA. “Con nuestra cadencia anual de lanzamiento de una nueva generación de supercomputadoras de IA, y el diseño conjunto extremo de seis nuevos chips, Rubin da un gran salto hacia la próxima frontera de la IA”.
La plataforma Rubin, que lleva el nombre de Vera Florence Cooper Rubin, la pionera astrónoma estadounidense cuyos descubrimientos transformaron la comprensión que la humanidad tenía del universo, cuenta con la solución a escala de rack NVIDIA Vera Rubin NVL72 y el sistema NVIDIA HGX Rubin NVL8 .
“Rubin consolida la infraestructura como base estratégica de la IA moderna. Al integrar computación, red, almacenamiento y software desde el diseño, NVIDIA permite a las empresas operar modelos cada vez más complejos con previsibilidad, eficiencia y un costo viable a escala”, comentó Marcio Aguiar, director de la división Enterprise de NVIDIA para América Latina.
La plataforma Rubin presenta cinco innovaciones, entre las que se incluyen las últimas generaciones de la tecnología de interconexión NVIDIA NVLink, Transformer Engine, Confidential Computing y RAS Engine, así como la CPU NVIDIA Vera. Estos avances acelerarán la IA agencial, el razonamiento avanzado y la inferencia de modelos de mezcla de expertos (MoE) a gran escala con un costo por token hasta 10 veces menor que el de la plataforma NVIDIA Blackwell. En comparación con su predecesora, la plataforma NVIDIA Rubin entrena modelos MoE con cuatro veces menos GPU para acelerar la adopción de la IA.
Amplio soporte del ecosistema
Entre los principales laboratorios de IA, proveedores de servicios en la nube, fabricantes de computadoras y empresas emergentes del mundo que se espera que adopten Rubin se encuentran Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab y xAI.
Sam Altman, director ejecutivo de OpenAI: “La inteligencia crece con la computación. Cuando añadimos más computación, los modelos se vuelven más capaces, resuelven problemas más difíciles y tienen un mayor impacto en las personas. La plataforma NVIDIA Rubin nos ayuda a seguir ampliando este progreso para que la inteligencia avanzada beneficie a todos”.
Dario Amodei, cofundador y director ejecutivo de Anthropic: “Las mejoras en la eficiencia de la plataforma NVIDIA Rubin representan el tipo de avance en infraestructura que permite una memoria más amplia, un mejor razonamiento y resultados más confiables. Nuestra colaboración con NVIDIA contribuye a impulsar nuestra investigación en materia de seguridad y nuestros modelos de vanguardia”.
Mark Zuckerberg, fundador y director ejecutivo de Meta: “La plataforma Rubin de NVIDIA promete ofrecer el cambio radical en rendimiento y eficiencia necesario para implementar los modelos más avanzados a miles de millones de personas”.
Elon Musk, fundador y director ejecutivo de xAI: “NVIDIA Rubin será un motor cohete para la IA. Si quieres entrenar e implementar modelos de vanguardia a gran escala, esta es la infraestructura que debes utilizar, y Rubin le recordará al mundo que NVIDIA es el estándar de oro”.
Satya Nadella, presidente ejecutivo y director general de Microsoft: “Estamos construyendo las superfábricas de IA más potentes del mundo para dar servicio a cualquier carga de trabajo, en cualquier lugar, con el máximo rendimiento y eficiencia. Con la incorporación de las GPUs NVIDIA Vera Rubin, permitiremos a los desarrolladores y a las organizaciones crear, razonar y escalar de formas totalmente nuevas”.
Mike Intrator, cofundador y director ejecutivo de CoreWeave: “Creamos CoreWeave para ayudar a los pioneros a acelerar sus innovaciones con el rendimiento inigualable de nuestra plataforma de IA diseñada específicamente para este fin, que adapta la tecnología adecuada a las cargas de trabajo adecuadas a medida que evolucionan. La plataforma NVIDIA Rubin representa un importante avance para las cargas de trabajo de razonamiento, agentes e inferencia a gran escala, y estamos encantados de añadirla a nuestra plataforma. Con CoreWeave Mission Control como estándar operativo, podemos integrar nuevas capacidades rápidamente y ejecutarlas de forma fiable a escala de producción, trabajando en estrecha colaboración con NVIDIA”.
Matt Garman, director ejecutivo de AWS: “AWS y NVIDIA llevan más de 15 años impulsando conjuntamente la innovación en IA en la nube. La plataforma NVIDIA Rubin en AWS representa nuestro compromiso continuo con ofrecer una infraestructura de IA de vanguardia que brinde a los clientes opciones y flexibilidad sin igual. Al combinar la avanzada tecnología de IA de NVIDIA con la escala, la seguridad y los completos servicios de IA de AWS, los clientes pueden crear, entrenar e implementar sus aplicaciones de IA más exigentes de forma más rápida y rentable, acelerando su camino desde la experimentación hasta la producción a cualquier escala”.
Sundar Pichai, director ejecutivo de Google y Alphabet: “Estamos orgullosos de nuestra profunda y duradera relación con NVIDIA. Para satisfacer la considerable demanda de GPU de NVIDIA que observamos entre nuestros clientes, nos centramos en proporcionar el mejor entorno posible para su hardware en Google Cloud. Nuestra colaboración continuará a medida que llevemos las impresionantes capacidades de la plataforma Rubin a nuestros clientes, ofreciéndoles la escala y el rendimiento necesarios para ampliar los límites de la IA”.
Clay Magouyrk, director ejecutivo de Oracle: “Oracle Cloud Infrastructure es una nube a hiperescala diseñada para ofrecer el máximo rendimiento y, junto con NVIDIA, estamos ampliando los límites de lo que los clientes pueden crear y escalar con la IA. Con fábricas de IA a gigascale impulsadas por la arquitectura NVIDIA Vera Rubin, OCI ofrece a los clientes la base de infraestructura que necesitan para superar los límites del entrenamiento de modelos, la inferencia y el impacto de la IA en el mundo real”.
Michael Dell, presidente y director ejecutivo de Dell Technologies: “La plataforma NVIDIA Rubin representa un gran avance en la infraestructura de IA. Al integrar Rubin en la Dell AI Factory con NVIDIA, estamos creando una infraestructura capaz de gestionar grandes volúmenes de tokens y razonamientos de varios pasos, al tiempo que ofrecemos el rendimiento y la resiliencia que las empresas y las neoclouds necesitan para implementar la IA a gran escala”.
Antonio Neri, presidente y director ejecutivo de HPE: “La IA está transformando no solo las cargas de trabajo, sino también los fundamentos mismos de la TI, lo que nos obliga a replantearnos cada capa de la infraestructura, desde la red hasta la computación. Con la plataforma NVIDIA Vera Rubin, HPE está construyendo la próxima generación de infraestructura segura y nativa de IA, convirtiendo los datos en inteligencia y permitiendo a las empresas convertirse en verdaderas fábricas de IA”.
Yuanqing Yang, presidente y director ejecutivo de Lenovo: “Lenovo está adoptando la plataforma NVIDIA Rubin de última generación, aprovechando nuestra solución de refrigeración líquida Neptune, así como nuestra escala global, eficiencia de fabricación y alcance de servicios, para ayudar a las empresas a construir fábricas de IA que sirvan como motores inteligentes y acelerados para el conocimiento y la innovación. Juntos, estamos diseñando un futuro impulsado por la IA en el que la IA eficiente y segura se convierta en el estándar para todas las organizaciones”.
Diseñada para escalar la inteligencia
Los modelos de IA agencial y de razonamiento, junto con las cargas de trabajo de generación de video de última generación, están redefiniendo los límites de la computación. La resolución de problemas de varios pasos requiere que los modelos procesen, razonen y actúen a lo largo de largas secuencias de tokens. Diseñada para satisfacer las demandas de las complejas cargas de trabajo de IA, las cinco tecnologías innovadoras de la plataforma Rubin incluyen:
Almacenamiento nativo para IA e infraestructura segura definida por software
NVIDIA Rubin presenta NVIDIA Inference Context Memory Storage Platform, una nueva clase de infraestructura de almacenamiento nativa para IA diseñada para escalar el contexto de inferencia a escala gigabit.
Impulsada por NVIDIA BlueField-4, la plataforma permite compartir y reutilizar de manera eficiente los datos de la caché de clave-valor en toda la infraestructura de IA, lo que mejora la capacidad de respuesta y el rendimiento, al tiempo que permite un escalado predecible y energéticamente eficiente de la IA agencial.
A medida que las fábricas de IA adoptan cada vez más modelos de implementación bare-metal y multitenant, se hace esencial mantener un fuerte control y aislamiento de la infraestructura.
BlueField-4 también introduce la arquitectura avanzada de recursos seguros y confiables (ASTRA), una arquitectura de confianza a nivel de sistema que ofrece a los creadores de infraestructura de IA un único punto de control confiable para aprovisionar, aislar y operar de forma segura entornos de IA a gran escala sin comprometer el rendimiento.
A medida que las aplicaciones de IA evolucionan hacia el razonamiento agéntico multiturno, las organizaciones nativas de IA deben gestionar y compartir volúmenes mucho mayores de contexto de inferencia entre usuarios, sesiones y servicios.