24 núcleos de CPU Zen 4, 146 mil millones de transistores, 128 GB HBM3, hasta 8 veces más rápido que MI250X

AMD acaba de confirmar sus especificaciones Instinto MI300 Acelerador CDNA 3 que utiliza 4 núcleos de CPU Zen en un paquete de chipset 3D de 5 nm.

Especificaciones AMD Instinct MI300 ‘CDNA 3’: diseño de chiplet de 5 nm, 146 mil millones de transistores, CPU Zen 4 de 24 núcleos, 128 GB HBM3

Las últimas especificaciones reveladas del acelerador AMD Instinct MI300 confirman que esta APU será una bestia de diseño de chip. La CPU incluirá varios paquetes de chips 3D de 5nm, todos combinados para albergar 146 mil millones de transistores. Estos transistores incluyen muchas direcciones IP básicas, interfaces de memoria, interconexiones y mucho más. La arquitectura CDNA 3 es el ADN central del Instinct MI300, pero la APU también viene con un total de 24 centros de datos Zen 4 y 128 GB de memoria HBM3 de próxima generación que se ejecutan en una configuración de bus de ancho de 8192 bits que es realmente bastante grande.

Durante AMD Financial Day 2022, la compañía confirmó que el MI300 será un acelerador Instinct de múltiples chips y múltiples IP que no solo cuenta con núcleos de GPU CDNA 3 de próxima generación, sino que también está equipado con núcleos de CPU Zen 4 de próxima generación.

Para habilitar más de 2 exaflops de potencia de procesamiento de doble precisión, el Departamento de Energía de EE. UU., el Laboratorio Nacional Lawrence Livermore y HPE se asociaron con AMD para diseñar El Capitán, que se proyecta será la supercomputadora más rápida del mundo y se espera que se entregue a principios de 2023. El Capitan aprovechará los productos de El Capitan Next Generation incluye mejoras del diseño de procesador personalizado de Frontier.

  • Con el nombre en código «Genoa», la próxima generación de procesadores AMD EPYC contará con un núcleo de procesador «Zen 4» para admitir subsistemas de E/S y memoria de próxima generación para cargas de trabajo de IA y HPC.
  • Las GPU basadas en AMD Instinct de próxima generación optimizadas para computación para cargas de trabajo de HPC e IA utilizarán memoria de gran ancho de banda de próxima generación para un rendimiento óptimo de aprendizaje profundo.

Este diseño sobresaldrá en el análisis de datos de IA y aprendizaje automático para crear modelos que sean más rápidos, más precisos y capaces de medir la incertidumbre en sus predicciones.

a través de AMD

En su última comparación de rendimiento, AMD afirma que Instinct Mi300 ofrece un aumento de 8 veces en el rendimiento de IA (TFLOP) y un rendimiento de IA de 5 veces por vatio (TFLOP/vatio) sobre el Instinct MI250X.

READ  Children of the Woods: las travesuras de Kelvin ya lo han ganado el cariño de los fanáticos

AMD utilizará los nodos de proceso de 5nm y 6nm para las CPU Instinct MI300 ‘CDNA 3’. El chip estará equipado con la próxima generación de Infinity Cache y contará con la arquitectura Infinity de cuarta generación que permite la compatibilidad con el ecosistema CXL 3.0. El acelerador Instinct MI300 sacudirá la arquitectura de memoria unificada de la APU y los nuevos formatos matemáticos, lo que permitirá un aumento de rendimiento por vatio 5 veces mayor que CDNA 2, que es enorme. AMD también reduce más de 8 veces el rendimiento de la IA en comparación con los aceleradores Instinct MI250X basados ​​en CDNA 2. El UMAA de la GPU CDNA 3 conectará la CPU y la GPU a un paquete de memoria HBM unificado, eliminando la copia de memoria redundante y proporcionando un bajo costo de adquisición.

Se espera que los aceleradores APU AMD Instinct MI300 estén disponibles a fines de 2023, que es aproximadamente el momento de la publicación de la supercomputadora El Capitán antes mencionada.

Comparte esta historia

Facebook

Gorjeo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *