Para llevar una nueva oleada de innovación abierta en torno a cargas de trabajo emergentes como la Inteligencia Artificial (IA), el Deep Learning y la Data Science a los centros de procesamiento de datos empresariales de todo el mundo, Red Hat Inc., el proveedor líder global de soluciones de software empresarial de código abierto, anunció que está colaborando con NVIDIA.
La certificación de la plataforma empresarial líder en el mundo de Linux, Red Hat Enterprise Linux en los sistemas NVIDIA DGX-1, es lo que impulsa este esfuerzo. Asimismo, dicha certificación brinda una base para el resto del portafolio de Red Hat, incluida la Red Hat OpenShift Container Platform, para ser implementada y dar soporte de forma conjunta en las supercomputadoras de Inteligencia Artificial de NVIDIA.
La IA se considera a menudo como una tecnología favorable para las empresas que buscan obtener una ventaja competitiva y diferenciarse en el mercado a través de la Transformación Digital.
La empresa de investigación Ovum destaca el aumento del interés en la IA, declarando que, “la proporción de empresas con interés activo en las iniciativas de la IA (es decir, planificación, prueba o implementación) pasó del 62% el año pasado al 77% este año [2018]”.
A medida que los sistemas NVIDIA DGX-1 acceden al centro de datos para proporcionar plataformas potentes de IA, los equipos de TI querrán gestionar y mantener con frecuencia estos sistemas dentro de sus operaciones establecidas que, a menudo, se basan en Red Hat Enterprise Linux.
La posibilidad de utilizar Red Hat Enterprise Linux en el hardware de NVIDIA DGX-1 no sólo proporciona un plano de control conocido y un entorno de usuario seguro con SELinux para que los equipos de TI se integren en sus flujos de trabajo establecidos, sino que también puede servir como un catalizador para impulsar una mayor innovación con la IA y el Deep Learning.
Empresas de varias industrias, incluyendo las del sector público, petróleo y gas, servicios financieros, entre otras, ahora pueden integrar de forma más efectiva la arquitectura de NVIDIA en entornos de infraestructuras establecidos, con Red Hat Enterprise Linux actuando como “puente” común.
Un nuevo horizonte en código abierto
Para conseguir una mayor flexibilidad en los entornos empresariales, los clientes de Red Hat Enterprise Linux podrán usar sus suscripciones existentes en los sistemas de NVIDIA DGX-1, respaldados por Red Hat y NVIDIA. Además, las organizaciones que usan Red Hat Enterprise Linux en los sistemas NVIDIA DGX-1 también tendrán una base para la oferta más completa de Kubernetes para empresas en la plataforma de contenedores OpenShift de Red Hat, ampliando así el soporte de nube nativa para cargas de trabajo emergentes.
Los ISV pueden transferir las aplicaciones existentes certificadas por Red Hat Enterprise Linux a la nueva clase de sistemas NVIDIA con muy pocos cambios, lo que facilita el acceso a las funciones avanzadas de IA y Deep Learning para soportar cargas de trabajo más inteligentes.
En el entorno de cómputo de alto rendimiento, Red Hat y NVIDIA ofrecen tecnologías y experiencia para impulsar dos de las supercomputadoras más rápidas del mundo, Summit y Sierra.
Como parte de un grupo más amplio de líderes en la industria, Red Hat ha ayudado a poner en línea estos dos sistemas, proporcionando un modelo no sólo para el cómputo de alto rendimiento (HPC, por sus siglas en inglés) de última generación en entornos sensibles al rendimiento, sino también para el centro de datos empresarial del futuro.
Más allá de la certificación de Red Hat Enterprise Linux y el soporte de los sistemas NVIDIA DGX, las compañías han tratado de colaborar en iniciativas de código abierto más amplias que incluyen:
- Contenedores NVIDIA GPU (NGC) en Red Hat OpenShift: ambas marcas planean lanzar contenedores NGC que proporcionen a los usuarios herramientas de software optimizadas para GPU, AI y HPC, basadas en las tecnologías de Red Hat, permitiendo a los clientes comunes sacar el máximo provecho al GPU de NVIDIA.
- Gestión de la memoria heterogénea (HMM, por sus siglas en inglés): la alianza planea continuar con el desarrollo ascendente de la función de la gestión de la memoria heterogénea (HMM). Esta característica de kernel permite a los dispositivos acceder y reflejar el contenido de la memoria de un sistema por su propia cuenta, lo que permite mejoras significativas en el rendimiento de las aplicaciones que utilizan GPUs.