E se gli Apple Silicon avessero performance grafiche migliori delle GPU dedicate?

Se fosse così, Apple potrebbe liberarsi non solo di Intel ma anche di AMD, ed eliminare la necessità di GPU dedicate.
E se gli Apple Silicon avessero performance grafiche migliori delle GPU dedicate?
Giuseppe Tripodi
Giuseppe Tripodi

Una delle più importanti novità del WWDC di quest'anno è stato l'annuncio di Apple Silicon: a partire dalla fine di quest'anno, inizieremo a vedere Mac con chip prodotti in casa dalla società della mela, basati su architettura ARM.

Durante la presentazione, per mostrare le potenzialità grafiche, è stata mostrata una demo di Shadow of the Tomb Raider, che girava grazie a Rosetta 2, tool di conversione per i programmi scritti per architetture x86. In generale, le impressioni sono state ottime: l'alto livello di dettagli del gioco suggeriva che le GPU dei nuovi Apple Silicon potrebbero avere qualcosa da dire in termini di prestazioni grafiche.

A tal proposito, durante le sessioni dei giorni successivi, Apple ha introdotto il Tile Based Deferred Rendering (TBDR), ossia il sistema di rendering che verrà utilizzato dagli Apple Silicon e che si contrappone all'Immediate Mode Rendering (IMR) attualmente utilizzato dalle GPU di Intel, NVIDIA e AMD.

E si contrappone non solo come mercato, ma anche concettualmente parlando.

Come ben spiegato anche dai colleghi di Gizmodo, la differenza è sostanziale: TBDR acquisisce l'intera scena e, prima di iniziare a renderizzarla, la suddivide in regioni (tile) che vengono processate separatamente. Questo permette di processare le informazioni più rapidamente e con un minore utilizzo di memoria: solo dopo questa suddivisione ed elaborazione iniziale, il sistema stabilisce quali elementi della scena saranno visibili e li renderizza.

Al contrario, l'IMR si comporta in maniera opposta: renderizza subito l'intera scena, prima di calcolare quali pixel saranno visibili e quali no.

Com'è facile intuire, si tratta di un processo meno efficiente e che utilizza grandi quantità di memoria, ma che attualmente è lo standard per tutte le GPU sul mercato.

Il Tile Based Deferred Rendering è evidentemente più conveniente per Apple, che punta tutto sul massimizzare la velocità e al tempo stesso ridurre i consumi. Questo apre ad un grande interrogativo: Apple potrà permettersi di fare a meno di GPU dedicate?

Se il Tile Based Defeered Rendering si dimostrasse così performante come sembra promettere, l'ipotesi non è così assurda: la stessa Apple, nella documentazione per gli sviluppatori, ha scritto esplicitamente Don’t assume a discrete GPU means better performance [Non date per scontato che una GPU dedicata significihi performance migliori].

La società della mela potrebbe quindi far fuori non solo Intel, ma anche AMD, eliminando le GPU AMD Radeon Pro utilizzate nei MacBook Pro? Attualmente è difficile immaginarlo, ma non è da escludere: al momento, Apple ha scelto di non rispondere alla richiesta di commenti in merito da parte di Gizmodo.

Commenta