Samsung ha lanciato un nuovissimo chip HBM, è due volte più veloce e il 70% più efficiente e aumenta la velocità di elaborazione dell’IA.
Nel 2015 AMD vantava schede grafiche con memoria HBM, una rivoluzione teorica in termini di prestazioni e funzionalità. Ma le memorie GDDR6 hanno finito per dominare il mercato grazie al loro miglior rapporto prezzo / prestazioni.
La memoria Samsung HBM2 aumenterà la velocità di elaborazione dell’IA
Tuttavia, Samsung ha appena presentato i suoi nuovi chip HBM-PIM (Process-In-Memory), che si distinguono per la loro tecnologia HBM2 oltre a integrare un sistema di intelligenza artificiale che rende la velocità di elaborazione più veloce ed efficiente che mai.
Questi chip di memoria hanno un motore di intelligenza artificiale che è responsabile della gestione di molte delle operazioni eseguite su di essi, che aiuta quando si spostano i dati dalla memoria al processore o viceversa per consumare meno energia e guadagnare numeri interi nei trasferimenti.
Secondo Samsung, applicando questo sistema alle memorie HBM2 Aquablot, è possibile raddoppiare le prestazioni, ma anche ridurre i consumi di oltre il 70%, le affermazioni sono sicuramente eclatanti e potrebbero ancora una volta potenziare l’utilizzo di questo tipo di tecnologia su un massiccio scala.
Non sono necessarie modifiche significative al software o all’hardware
Queste nuove memorie non necessitano di ulteriori modifiche software o hardware e sono già in fase di test per essere disponibili sul mercato probabilmente nella seconda metà dell’anno.
Ogni banco di memoria ha una piccola PCU (Programmable Computing Unit) funzionante a 300MHz. Ma c’è uno svantaggio perché non c’è spazio per la memoria e ogni die di memoria ha la metà della capacità (4 GB) rispetto ai tradizionali die HBM2 da 8 GB. Per bilanciare questa situazione, Samsung combina effettivamente stampi con PCU con altri senza PCU per ottenere chip da 6 GB.
Al momento queste memorie non saranno disponibili per schede grafiche come quelle lanciate da AMD anni fa, e l’idea è di offrire questi moduli nei data center e nei sistemi HPC (high-performance computing).