Publi

Últimamente, parece que es el mundo de Nvidia, y todos (y ciertamente cualquiera en la tecnología y la explosiva industria de la inteligencia artificial) viven en él. Gracias a su oportuna entrada al mercado, su investigación de hardware de vanguardia y un sólido ecosistema de software adaptado a sus GPU, la empresa domina el desarrollo de la IA y el mercado de valores. Su último informe de ganancias de hoy revela que las ventas trimestrales se triplicaron, lo que impulsó aún más el precio de sus acciones. No obstante, AMD, el fabricante de chips rival desde hace mucho tiempo, todavía está presionando con fuerza para establecer un punto de apoyo en la IA, y les dice a los constructores detrás de las tecnologías clave en el espacio naciente que también pueden hacer su trabajo en hardware AMD. «Solo quería recordarles a todos que si usan PyTorch, TensorFlow o JAX, pueden usar sus computadoras portátiles o scripts, simplemente se ejecutarán en AMD», declaró el director senior de AMD. Ian Ferreira en la conferencia Microsoft Build 2024 el miércoles: «Lo mismo ocurre con los motores de inferencia. BLLM y Onyx también funcionan de forma inmediata». La compañía aprovechó su tiempo en el escenario para mostrar ejemplos de cómo las GPU AMD pueden ejecutar de forma nativa potentes modelos de IA como. Stable Diffusion y Microsoft Phi, realizando eficientemente tareas de capacitación computacionalmente intensivas sin depender de la tecnología o el hardware de Nvidia. El anfitrión de la conferencia, Microsoft, reforzó el mensaje al anunciar la disponibilidad de máquinas virtuales basadas en AMD en su plataforma de computación en la nube Azure, utilizando el MI300X acelerado de la compañía. GPU. Los chips se anunciaron en junio pasado, comenzaron a enviarse en el nuevo año y recientemente se implementaron en el servicio OpenAI de Microsoft Azure y en la infraestructura de Hugging Face.Bibliotecas ML compatibles con AMD. Imagen: Microsoft. La tecnología CUDA patentada de YoutubeNvidia, que incluye un modelo de programación completo y una API diseñada específicamente para las GPU de Nvidia, se ha convertido en el estándar de la industria para el desarrollo de IA. Por lo tanto, el mensaje principal de AMD fue que sus soluciones podrían integrarse directamente en los mismos flujos de trabajo. La perfecta compatibilidad con los sistemas de IA existentes podría cambiar las reglas del juego, ya que los desarrolladores ahora pueden aprovechar el hardware menos costoso de AMD sin necesidad de revisar su base de código. «Entiende que necesitas algo más que marcos, necesitas un montón de cosas ascendentes, necesitas un montón de cosas de experimentación, capacitación distribuida; todo eso está habilitado y funciona en AMD», aseguró Ferreira. Luego demostró cómo AMD maneja diferentes tareas. , desde ejecutar modelos pequeños como ResNet 50 y Phi-3 hasta ajustar y entrenar GPT-2, todo usando el mismo código que ejecutan las tarjetas Nvidia.Imagen: Microsoft. YoutubeUna de las ventajas clave que AMD promociona es la capacidad de manejar grandes modelos de lenguaje de manera eficiente. «Puede cargar hasta 70 mil millones de parámetros en una GPU, ocho de ellos en esta instancia», explicó. «Puedes tener ocho llama 70B diferentes cargados, o tomar un modelo grande como Llama-3 400Bn e implementarlo en una sola instancia». Desafiar el dominio de Nvidia no es tarea fácil, ya que la compañía con sede en Santa Clara, California, ha protegido ferozmente su territorio. Nvidia ya ha emprendido acciones legales contra proyectos que intentan proporcionar capas de compatibilidad CUDA para GPU de terceros como la de AMD, argumentando que viola los términos de servicio de CUDA. Esto ha limitado el desarrollo de soluciones de código abierto y ha dificultado que los desarrolladores adopten alternativas. La estrategia de AMD para eludir el bloqueo de Nvidia es aprovechar su marco ROCm de código abierto, que compite directamente con CUDA. La compañía ha logrado avances significativos en este sentido, asociándose con Hugging Face, el repositorio de modelos de IA de código abierto más grande del mundo, para brindar soporte para ejecutar código en hardware AMD. Esta asociación ya ha arrojado resultados prometedores, con AMD ofreciendo soporte nativo. y herramientas de aceleración adicionales como la ejecución de modelos ONNX en GPU con tecnología ROCm, Optimum-Benchmark, DeepSpeed ​​para GPU con tecnología ROCm que utilizan Transformers, GPTQ, TGI y más. Ferreira también señaló que esta integración es nativa, lo que elimina la necesidad de terceros. soluciones de terceros o intermediarios que podrían hacer que los procesos sean menos eficientes. “Puedes tomar tus portátiles existentes, tus scripts existentes, y puedes ejecutarlos en AMD, y eso es importante, porque muchos de los otros aceleradores requieren transcodificación y todo tipo de procesos previos. compilando guiones”, dijo. “Nuestro equipo simplemente funciona desde el primer momento y es muy, muy rápido”. Si bien la medida de AMD es indudablemente audaz, destronar a Nvidia será un desafío considerable. Nvidia no se duerme en los laureles, innova continuamente y dificulta que los desarrolladores migren a una nueva infraestructura desde el estándar CUDA de facto. Sin embargo, con su enfoque de código abierto, asociaciones estratégicas y un enfoque en la compatibilidad nativa, AMD se está posicionando como una alternativa viable para los desarrolladores que buscan más opciones en el mercado de hardware de IA. Editado por Ryan Ozawa.

Boletín Generalmente Inteligente

Un viaje semanal de IA narrado por Gen, un modelo de IA generativa.

Publicidad

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.