La grafica integrata sta per migliorare

Dimenticate l’idea di dover acquistare una scheda grafica dedicata: presto potrete giocare senza averne bisogno. Questo, almeno, se rientrate nel 90% degli utenti che ancora giocano con risoluzioni pari o inferiori a 1080p. Gli ultimi sviluppi di Intel e AMD suggeriscono che le loro GPU integrate sono pronte a sconvolgere il mercato delle schede grafiche di fascia bassa.

Perché le iGPU sono tradizionalmente così lente?

Le ragioni principali sono due: la gestione della memoria e la dimensione del die (la superficie del chip).

La questione della memoria è relativamente semplice: una memoria più rapida si traduce in prestazioni superiori. Tuttavia, le iGPU non godono dei vantaggi offerti da tecnologie di memoria avanzate come GDDR6 o HBM2. Al contrario, devono condividere la RAM di sistema con il resto del computer. Ciò è dovuto principalmente al fatto che integrare tali memorie nel chip stesso è costoso, e le iGPU sono solitamente indirizzate a giocatori con budget limitato. Questa situazione difficilmente cambierà nel breve termine, almeno per quanto ne sappiamo. Tuttavia, miglioramenti nei controller di memoria che supportano una RAM più veloce potrebbero incrementare le performance delle iGPU di prossima generazione.

La seconda ragione, la dimensione del die, sta subendo una trasformazione nel 2019. I die delle GPU sono grandi, molto più estesi di quelli delle CPU, e die di grandi dimensioni sono un fattore problematico nella produzione di silicio, a causa del tasso di difetti. Un’area più ampia ha una maggiore probabilità di presentare difetti, e un difetto nel die può rendere inutilizzabile l’intera CPU.

L’esempio (ipotetico) riportato di seguito illustra come, raddoppiando la dimensione dello stampo, si ottiene una resa decisamente inferiore, poiché ogni difetto si manifesta in un’area più vasta. A seconda della posizione dei difetti, l’intera CPU potrebbe risultare inutilizzabile. Questo esempio non è un’esagerazione: a seconda della CPU, la grafica integrata può arrivare a occupare quasi la metà del die.

Lo spazio sul die ha un costo elevato per i produttori di componenti, quindi è difficile giustificare un grande investimento in una iGPU dalle performance superiori, quando tale spazio potrebbe essere destinato ad altri elementi come l’aumento dei core. Non è una questione di mancanza di tecnologia: se Intel o AMD volessero produrre un chip con il 90% della superficie dedicata alla GPU, potrebbero farlo. Tuttavia, la resa di un design monolitico sarebbe così bassa da non valerne la pena.

L’approccio dei chiplet

Intel e AMD hanno rivelato le loro strategie, che appaiono piuttosto simili. Di fronte a tassi di difettosità più elevati del normale nei nodi di processo più recenti, sia Intel che AMD hanno optato per la soluzione di suddividere i loro die e riassemblarli in un secondo momento. Sebbene le modalità di implementazione siano leggermente diverse, in entrambi i casi ciò significa che la dimensione del die non rappresenta più un problema insormontabile. Infatti, è possibile fabbricare il chip in porzioni più piccole ed economiche, per poi assemblarle quando il chip viene integrato nella CPU.

Nel caso di Intel, sembra che si tratti principalmente di una misura di contenimento dei costi. Non sembrano esserci grandi cambiamenti nell’architettura, ma hanno la possibilità di scegliere il nodo di produzione di ogni parte della CPU. Tuttavia, sembra che ci siano piani per espandere la iGPU, dato che il prossimo modello Gen11 prevede “64 unità di esecuzione migliorate, più del doppio della precedente grafica Intel Gen9 (24 EU), progettate per superare la barriera di 1 TFLOPS”. Una performance di un singolo TFLOP non è particolarmente elevata, considerando che la grafica Vega 11 del Ryzen 2400G raggiunge 1,7 TFLOPS. Tuttavia, le iGPU di Intel sono notoriamente rimaste indietro rispetto a quelle di AMD, quindi ogni passo avanti è benvenuto.

Le APU Ryzen pronte a dominare il mercato?

AMD possiede Radeon, il secondo produttore di GPU più grande al mondo, e le integra nelle sue APU Ryzen. Le prossime tecnologie in cantiere fanno ben sperare, soprattutto con i miglioramenti a 7 nm in arrivo. Si dice che i chip Ryzen di nuova generazione utilizzino chiplet, ma con un approccio diverso da Intel. I chiplet AMD sono die completamente separati, collegati tramite l’interconnessione multiuso “Infinity Fabric”, che offre una maggiore modularità rispetto al design Intel (a scapito di una latenza leggermente superiore). I chiplet sono già stati utilizzati con successo nelle CPU Epyc a 64 core, annunciate all’inizio di novembre.

Secondo alcune recenti indiscrezioni, la prossima linea Zen 2 di AMD includerà il 3300G, un chip con un chiplet CPU a otto core e un chiplet Navi 20 (la loro architettura grafica di prossima generazione). Se ciò si rivelasse vero, questo singolo chip potrebbe rimpiazzare le schede grafiche entry-level. Il 2400G con unità di calcolo Vega 11 è già in grado di offrire frame rate accettabili nella maggior parte dei giochi a 1080p. Il 3300G, invece, si dice abbia quasi il doppio delle unità di calcolo, oltre a sfruttare un’architettura più recente e più veloce.

Questa non è solo un’ipotesi: è una mossa sensata. La struttura del design consente ad AMD di collegare un numero virtualmente illimitato di chiplet. Gli unici vincoli sono rappresentati dall’alimentazione e dallo spazio disponibile sul package. Quasi certamente useranno due chiplet per CPU, e tutto ciò che dovrebbero fare per creare la migliore iGPU al mondo sarebbe sostituire uno di questi chiplet con una GPU. Ciò sarebbe vantaggioso non solo per il gaming su PC, ma anche per il settore console, dato che AMD produce le APU per Xbox One e PS4.

Potrebbero anche inserire un tipo di memoria grafica più veloce sul die, come una sorta di cache L4. Tuttavia, è probabile che continuino ad utilizzare la RAM di sistema, sperando di migliorare il controller di memoria sui prodotti Ryzen di terza generazione.

Qualunque cosa accada, sia Intel che AMD hanno a disposizione una maggiore flessibilità sui die, il che porterà sicuramente a dei miglioramenti. Chissà, forse cercheranno di integrare quanti più core possibili, prolungando così la validità della legge di Moore.