Introduzione: Sapphire Technology–>
Nei giorni scorsi, abbiamo recensito praticamente tutte le schede della serie NITRO di Sapphire, lineup che viene incontro alle esigenze di coloro che non vogliono dissanguarsi per comprare una scheda video potente e silenziosa.
Stavolta, però, Sapphire ha forse esagerato con il prezzo, proponendo una variante della già analizzata R9 Fury Tri-X ma dai colori e dalle linee che si distaccano dal solito abbinamento giallo/nero o azzurro/nero, da sempre emblemi della company. Nelle prossime pagine, la nostra recensione, buona lettura!
Sapphire Radeon R9 Fury NITRO 4GB HBM: specifiche tecniche–>
Ecco una tabella con le specifiche tecniche della scheda video (Sapphire):
Basata sulla GPU Fiji, la Sapphire Radeon R9 Fury Nitro dispone di ben 3584 Stream Processors, con un bus da ben 4096 bit che collega alle memorie HBM, 4 GB con una frequenza effettiva di 1 GHz. Parleremo delle memorie HBM e di come sono collegate al processore grafico nelle prossime pagine, soffermiamoci intanto sulla scheda di Sapphire: il dissipatore è di tipo custom, il famigerato Tri-X che muove la gran parte delle schede video di fascia alta dell’azienda, con uno shroud rinnovato in concomitanza con l’uscita delle schede Rx 300 e Fury, stavolta nella configurazione Nitro, con il grigio e il nero a farla da padrona invece del giallo.
Anche stavolta il dissipatore ha dimensioni superiori al PCB, ma in questo caso il design per PCB e fasi di alimentazione è di tipo custom. La differenza sostanziale con la versione Tri-X è lo shroud in plastica, che presenta forme e colori diversi, mentre il corpo dissipante in alluminio e le ventole sono le stesse.
Altra differenza è nel pannello delle connessioni, che presenta una porta DVI, 3 DisplayPort 1.2 e 1 porta HDMI 1.4a.
Galleria fotografica: Sapphire Radeon R9 Fury NITRO 4GB HBM–>
Di seguito, una galleria di foto della scheda video:
L’architettura nei dettagli: Fiji–>
L’architettura GCN di AMD ancora oggi continua ad innovarsi, rimanendo di fatto sempre la stessa architettura che, con l’avvento della serie HD7000, ha rivoluzionato la computazione delle schede grafiche AMD, passando da un processo seriale ad uno fortemente parallelo. Gli stessi principi base muovono questa incarnazione, GCN 1.2, così come le precedenti, e la cosa potrebbe ritorcersi contro AMD con l’avvento delle DX12. O forse no.
Come già anticipato, Fiji è essenzialmente una GPU Tonga up-scalata, ovvero ingigantita. Ciò significa che molti sono gli elementi in comune con Hawaii/Grenada, che si basano su GCN 1.1, ma l’efficienza qui viene gestita meglio, grazie anche ad un refinement del processo produttivo a 28nm sviluppatosi negli ultimi due anni. Perché GCN 1.2, e non rimanere su GCN 1.1 per ottimizzare i costi? Semplice, HBM. Ma di questo nuovo tipo di memorie, parleremo nella pagina successiva.

Sul fronte del layout, non ci sono molte differenze rispetto alle generazioni. Come Hawaii, esso utilizza un quartetto di Shader Engines che portano con sé Geometry Processors, Rasterizzatori, ROPs (attraverso il back-end di rendering) e le Compute Units. Nel frattempo, ogni CU mantiene le usuali 64 unità di elaborazione (stream processors) e un quartetto di Texture Units insieme ai rispettivi blocchi di caching, quindi sul fronte fisico non è cambiato molto. Non pensate, ovviamente, che AMD abbia preso Hawaii, l’abbia rinominato in GCN 1.2 e sia finita lì.
Una delle prime cose che AMD ha fatto per creare Fiji è stata allargare le Compute Unit in ogni Shader Engine. Paragonato a Hawaii/Grenada, ci sono 5 addizionali CU per engine, equivalenti a 325 stream processors in più, 20 TMUs in più e naturalmente più capacità di caching on-die.
Sicuramente il maggior cambiamento è stata l’aggiunta dell’HBM e tutte le modifiche atte ad assicurare che ci fosse abbastanza bandwidth per giustificarne la presenza. Per ottemperare alla cosa, AMD ha raddoppiato la Cache L2 da 1MB a 2MB e ha istituito avanzati algoritmi di compressione del colore senza perdita per letture e scritture in memoria. Ovviamente, ci sono anche 8 memory controller da 512 bit che possono processare un mastodontico carico di informazioni ed inviarle al quartetto di moduli da 1 GB di memoria HBM.
Tutto ciò ha incrementato la conta dei transistors da 6.2 miliardi di Hawaii a 8.9 miliardi di Fiji. Ciò equivale a 596 mm² per il die e 1011 mm² per tutto il sistema formato da Interposer e GPU. Ironicamente, nella GPU troviamo l’eredità di Hawaii nei DSP TrueAudio, tecnologia che sembra essere stata abbandonata da AMD.
Per mantenere i consumi di corrente al minimo nonostante il gargantuesco die, AMD ha convertito la produzione ad un processo produttivo di 28 nm fortemente ottimizzato. Ciò ha permesso di aumentare la conta dei transistors del 44% mantenendo però l’incremento delle dimensioni su soli 35%. La maturità del processo produttivo a 28nm ha contribuito anche all’efficienza elevata dei transistors e ai consumi ridotti. Alcuni insiders hanno rivelato che AMD ha ridotto le previsioni sul TDP numerose volte nel corso del tempo durante la progettazione di questa nuova GPU.

Guardando le immagini una cosa che si nota è il fatto che i Render Back-ends che contengono ROP e altre funzioni terziarie di output sono rimaste invariate. Sono ancora 4 per Shader Engine che è lo stesso numero che ritroviamo su Hawaii. Ad un primo sguardo ciò potrebbe essere preoccupante in quanto potrebbe diventare un collo di bottiglia in alcuni giochi.
Secondo AMD, qualsiasi tipo di collo di bottiglia dovuto ad un numero stagnante di ROP è stato mitigato tramite una serie di modifiche importanti. Le ROPs sono capaci di processare 16bit per clock, valore uguale a quello ritrovato su Hawaii, ma stavolta possono funzionare alla massima potenza grazie alle HBM e alle suddette routine di compressione colore. Ci sono state anche altre aggiunte così come nuove capacità elaborative delle ROPs, ed il risultato è che Fiji ha una potenza Fill-rate più che doppia rispetto ad Hawaii.
AMD ha anche modificato alcuni elementi nei CE: ci sono nuove istruzioni per l’elaborazione dati che permettono la condivisione parallela di essi attraverso le SIMD, nuove istruzioni Floating Point a 16 bit e Integer, raddoppiando poi la cache effettiva per ogni CU.

Un’altra area che non ha alcun cambiamento visibile è lo stadio di elaborazione geometrie, ma ancora una volta i cambiamenti si nascondono sotto la facciata: ci sono sempre 4 processori contenenti assemblers (che traducono le istruzioni in linguaggio macchina) e tessellators (che popolano i wireframe nei giochi DX11) ma ogni unità ha ricevuto un incremento prestazionale, migliorando quindi le performance in tessellation.
Per ultimo ma non per importanza, AMD ha migliorato il throughput dei suoi ACE (Async Compute Engines) lavorando sulla corretta prioritizzazione dei dati sulla Crossbar condivisa dai 4 elementi. Tali modifiche dovrebbero aiutare AMD in ambienti DX12 con carichi elevati.
L’architettura nei dettagli: HBM, cosa sono?–>
Le HBM sono state etichettate, fin dal loro annuncio, come la tecnologia chiave di prossima generazione sia per i System on Chip che per le schede grafiche. I vantaggi offerti sono un significante aumento della banda passante ed una riduzione dello spazio occupato rispetto alle soluzioni GDDR. AMD ha sviluppato HBM negli ultimi 7 anni e Fiji funge, in un certo senso, come un dimostratore tecnologico del concetto di High Bandwidth Memory, come preambolo di ciò che aspetta il futuro. NVIDIA, infatti, ha intenzione di utilizzare tale tipo di memorie (nella seconda generazione) con l’architettura Pascal.
Con i consumi al centro dell’attenzione per gli utenti enthusiast dediti al gaming, gli ingegneri AMD hanno disperatamente cercato tutti i modi per migliorare il design dei componenti aumentando al tempo stesso le prestazioni. Per farla semplice, anche le schede video di fascia ultra-high end scalano fino ad un certo punto se sono castrati dal consumo di corrente e dalla produzione di calore di altri componenti onboard.
È qui che le GDDR5 entrano in gioco: secondo AMD, il mercato stava raggiungendo velocemente un punto di non ritorno dove il consumo ed il calore dei moduli di memoria avrebbero inficiato negativamente sulle prestazioni di GPU sempre più veloci. Difatti, maggiore è la velocità delle GDDR5, più potente dev’essere il segnale e più robusto dev’essere il Memory Controller integrato. Ciò significa che velocità maggiori possono essere raggiunte (moduli a 8 GHz GDDR5 sono in fase di finalizzazione) ma andando avanti, il dispendio di R&D e di corrente onboard non giustificherebbe il ridotto aumento prestazionale.
Ovviamente, non fraintendete: le GDDR5 sono lontane dall’essere vicine alla sostituzione. Tuttavia, l’efficienza delle memorie, il throughput, la potenza del segnale ed inerenti limitazioni delle attuali tecnologie delle memorie avevano bisogno di essere indirizzate qualora ci fosse stato qualche passo avanti verso le prossime generazioni di GPU. Ecco che qui HBM ha la possibilità di brillare.
Al contrario dei precedenti design di memoria che richiedevano complicate tracce sul PCB e componenti PWM secondarie, i moduli HBM risiedono incredibilmente vicino alle unità di elaborazione, siano esse GPU, CPU o SoC. Esse comunicano tramite un interposer ad alte prestazioni ed il loro circuito logico proprio, provvedendo una via velocissima tra tutti i punti critici per i dati. Questa combinazione di processore e memoria crea un package compatto ma che non può essere modificato dalle terze parti.
Visto che gli stream di comunicazione tra core e memorie sono drasticamente accorciati, c’è un aumento inerente nell’efficienza energetica. Parte di essa proviene dal fatto di abbassare la suddetta potenza di segnale; non c’è più bisogno di aumentare enormemente le frequenze perché le componenti sono davvero molto vicine, fisicamente parlando.
Il risultato finale dell’efficienza dell’HBM parla da solo: AMD dichiara un aumento dell’efficienza di almeno il 50% contro le GDDR5 a 6 Gbps, portando con sé allo stesso tempo un aumento della banda del 60%. Ovviamente, ciò porta ad enormi incrementi di prestazioni per watt.
Insieme agli ovvi benefici in termini di consumi, HBM occupa qualcosa come il 94% in meno di spazio, visto che è posizionata sul sottostrato del package. Non solo, ciò implica una più piccola griglia di distribuzione elettrica visto che i moduli possono operare a frequenze più basse mantenendo un’elevata banda passante. Questa sembra essere l’unica opzione disponibile per creare componenti ad alte performance dal fattore di forma ridotto.
L’approccio dell’HBM al design dei moduli è relativamente semplice: ogni die DRAM è “impilato” sopra l’altro, con una disposizione a grattacielo laddove finora abbiamo avuto una sorta di implementazione “urbana”. Ciò significa che HBM occupa comunque fisicamente un bel po’ di spazio, ma stavolta viene utilizzata anche la terza dimensione, con il vantaggio poi che ogni stack può essere da 1GB.
Nel caso dell’architettura AMD Fiji, ognuna delle stack ha 4 die DRAM da 256MB ciascuna, e comunicano con la GPU tramite un bus a ben 1024 bit.
Mentre le GDDR5 dovevano affidarsi ad alte frequenze per compensare un’ampiezza bus ridotta, la posizione fisica dell’HBM permette enormi ampiezze bus in quanto il design del controller è più compatto e meno complesso. Dall’altro lato dell’equazione, un bus più ampio permette alle RAM di operare a frequenza minore e con voltaggi minori raggiungendo comunque elevati valori di banda passante.
Temperature inferiori comunque non significano temperature “neutre” per HBM. Trovandosi vicino ad un core già di per sé bollente, ciò significa che si crea una sfida quando bisogna raffreddare tutto ciò. Difatti, mentre la Fury X si affida ad un sistema di raffreddamento AIO, la Fury necessita di un gigantesco dissipatore per contenere le temperature.
In termini numerici di velocità, le HBM di AMD al momento operano a 500 MHz con ogni stack che accede ad un bus largo 1024 bit. Ciò garantisce una banda di 128 GB/s per stack, 512 GB/s per l’intero setup. Tutto ciò è ottenuto a latenze incredibilmente ridotte.
Parlare di bandwidth però, è un conto, ma convincere l’utenza che 4 GB sono buoni quanto 6, 8 o perfino 12 GB di GDDR5 è un’impresa ardua. Se da un lato sono state spese tantissime risorse sulla creazione di questo tipo di memorie, dall’altro i giochi odierni utilizzano un gigantesco ammontare di memoria quando vengono eseguiti in 4K o risoluzioni superiori. Ciò rallenterà il diffondersi delle memorie HBM? AMD crede di no, in quanto ha istituito differenti algoritmi di allocazione risorse tramite i loro driver per assicurare che ogni modulo venga utilizzato e che il caching on-chip sia operativo costantemente, in modo tale da riempire e svuotare i 4GB di memoria più velocemente. Tutto ciò, in teoria, ovviamente.
L’architettura nei dettagli: AMD PowerTune–>
La tecnologia PowerTune è una feature esclusiva che ottimizza le prestazioni della GPU seguendo una serie di condizioni modificando dinamicamente frequenze, voltaggi e velocità delle ventole, fornendo le migliori performance possibili per un dato limite termico o di potenza assorbita. La nuova schermata AMD Overdrive nell’interfaccia utente del Catalyst Control Center offre ancora più flessibilità per gestire il comportamento della GPU. L’overclock non è più inteso nei termini di un valore assoluto di frequenza (ad esempio 1000 MHz). Invece, l’utente ha controllo su più parametri per aumentare le performance. AMD OverDrive include un controllo per le frequenze GPU che aumenta i clock medi di una certa percentuale, mantenendo al contempo i parametri stabiliti per potenza, temperature e velocità ventola.
L’architettura nei dettagli: Frame Rate Targeting Control–>
Seguendo il discorso dell’assorbimento di corrente e dell’efficienza, il Frame Rate Targeting Control è una nuova feature che viene introdotta con la serie 300 di schede grafiche AMD, permettendo agli utenti di impostare il massimo framerate di una determinata applicazione in full screen; i benefici che l’FRTC sono i ridotti consumi per la GPU (ottimo quando i giochi vanno a più FPS della frequenza di aggiornamento dello schermo) e la riduzione del calore e del rumore generati dalla scheda. Di seguito uno screenshot della feature nel Catalyst Control Center:
L’architettura nei dettagli: Virtual Super Resolution–>
Il Super Sampling Anti-Aliasing (SSAA) è uno dei metodi di anti-aliasing che creano texture più uniformi e meno problemi poligonali, ma non è supportato da tutti i giochi o motori grafici. La VSR è una feature agnostica nei confronti di giochi e motori grafici, ed è una feature che consente di simulare l’SSAA in qualsiasi gioco. La VSR può essere utilizzata in congiunzione con l’AA nativo, per una granularità ancora maggiore nei settaggi grafici. La VSR permette di renderizzare ad una risoluzione maggiore (fino a 4K) e downscalare alla risoluzione nativa dello schermo. Utilizzandola, si può avere la qualità di uno schermo 4K su un monitor 1080p:
Una volta abilitata la feature, si può aumentare la risoluzione sia ingame che sul desktop. Qui, lo screenshot delle impostazioni di Windows su di uno schermo Full HD ma con VSR attivata:
Una delle caratteristiche più interessanti di questa tecnologia è che l’impatto prestazionale è pari al carico di lavoro generato da un’immagine generata su di uno schermo 4K. Nulla è perduto sul fronte dello scaling delle immagini, ottenendo lo stesso numero di FPS che si otterrebbero in 4K con un livello qualitativo quasi pari:
L’architettura nei dettagli: DX12–>
Le DirectX 12 sono nuove API grafiche di Microsoft simili a quelle utilizzate dalla console, che permette agli sviluppatori di giochi un maggiore e miglior accesso alle risorse hardware. Questo controllo diretto o “esplicito” migliora la resa prestazionale delle CPU AMD FX, delle APU e delle AMD Radeon. In soldoni: hardware più efficiente grazie a software più intelligente. A discrezione dello sviluppatore di giochi, questa efficienza superiore può essere utilizzata per un maggior framerate, per minore latenza (contesto ideale per la VR), minori consumi, miglior qualità dell’immagine o una combinazione bilanciata di queste 4 direzioni. In ogni scenario, i videogiocatori beneficieranno della scelta di hardware AMD per giocare a titoli compilati in DX12. La serie AMD Radeon 300 supporta pienamente le DirectX 12, con miglioramenti rispetto ai prodotti precedenti grazie a:
- Tassellazione più veloce
- Tiled Resources (il supporto a enormi texture virtuali, abilitando il caricamento dinamico di porzioni di esse nella VRAM per dettagli sempre al massimo della qualità)
Shaders asincroni
Gli shaders asincroni sono una nuova feature delle DX12 che permettono a complicate operazioni di calcolo grafico di utilizzare tutte le risorse disponibili sulle GPU AMD Radeon. Spezzare un calcolo più grande in più parti piccole e processarle parallelamente aumenta enormemente l’efficienza e le prestazioni; AMD, con la sua architettura Graphics Core Next, ha una porzione hardware dedicata a tale compito, l’Asynchronous Compute Engine, capace di svolgere tale operazione ad una velocità davvero elevata.
Ecco una semplice illustrazione di come questo processo avveniva prima di questa tecnologia:
Con l’utilizzo degli ASYNC Shaders invece:
Il risultato consiste in un più veloce processing di ogni frame, ottimizzando i tempi e aumentando il framerate sensibilmente.
Multi-GPU con le DX12
Le versioni precedenti delle DirectX non supportavano direttamente le configurazioni multi-GPU. Gli sviluppatori hanno progettato il loro supporto personalizzato nei giochi e nei drivers, ma spesso con limitazioni: minimo controllo sull’hardware, combinazioni di GPU ristrette e difficoltà nell’ottimizzare il carico di lavoro su più GPU. Il multiadapter esplicito delle DirectX 12 aggiunge il supporto al multi-GPU per la prima volta, permettendo agli sviluppatori di giochi un livello di controllo diretto dell’hardware PC. In questo modo, i motori grafici potranno tirar fuori prestazioni maggiori dai sistemi multi-GPU, utilizzando configurazioni semplicemente irrealizzabili in DirectX 11, come ad esempio la coesistenza di GPU di brand diversi.
Efficienza con CPU multi-core
Le versioni precedenti delle DirectX non erano capaci di utilizzare appieno una CPU multi-core come i processori AMD FX a 8 core. Gran parte del lavoro delle API grafiche in un PC finiscono per sovraccaricare uno o due core della CPU, peggiorando le performance drasticamente. Con le DirectX 12, invece, il carico di lavoro di un motore grafico può essere suddiviso su tutti e 8 i core, portando ad un’uniformità nel tempo di esecuzione di una serie di calcoli.
3DMark® API Overhead feature test
Il test Overhead API del 3DMark’s API è utilizzato per misurare l’efficienza di un API su una determinata scheda grafica. Con le DirectX 12 (su Windows 10) AMD ha visto un drastico incremento nel numero di chiamate draw al secondo paragonato ai competitors e ai risultati in DirectX 11 (su Windows 8.1):
L’architettura nei dettagli: FreeSync–>
La tecnologia AMD FreeSync sincronizza, su determinate APU e GPU AMD, il refresh rate di un monitor con l’output della scheda grafica, eliminando il fastidioso fenomeno del tearing e dello stuttering-
Per abilitare l’AMD FreeSync, basta connettersi ad un monitor compatibile con la tecnologia AMD FreeSync, abilitandola poi nel pannello Catalyst Control Center.
Inoltre, non c’è paragone con la soluzione adottata da NVIDIA, il G-Sync:
Un’altra questione importante sul FreeSync è che è free. Non c’è impatto prestazionale utilizzandolo, e gli FPS dei giochi rimane lo stesso di prima. Qui è mostrata una run di Alien Isolation con e senza FreeSync:
Ecco una lista dei monitor attualmente compatibili con la tecnologia FreeSync:
AMD FreeSync è una tecnologia free: libera da costi aggiuntivi per hardware, libera da penalità prestazionali, libera come standard, aperta a chiunque voglia utilizzarla nel mondo del gaming, con un feeling che difficilmente vi farà tornare indietro.
Configurazione di prova e metodologia di test–>
La configurazione utilizzata per i test è la seguente:
CPU | Intel Core i7 5960x |
---|---|
Heatsink | AlphaCool NexXxos Cool Answer 360 D5/XT |
Mainboard | ASUS ROG Rampage V Extreme |
RAM | Corsair Vengeance LPX DDR4 32 GB 3000 MHz |
VGA | Sapphire Radeon R9 Fury NITRO 4GB HBM |
Sound Card | Integrata |
HDD/SSD | Corsair Neutron XT SSD 480 GB |
PSU | Corsair AX1500i Digital PSU |
Case | Corsair Graphite 780T Arctic White |
Monitor | Acer CB280HK 4K Display |
Keyboard | Corsair Gaming STRAFE |
Mouse | Corsair Gaming Sabre RGB Laser |
OS | Windows 10 Pro x64 |
Ecco la suite di benchmark (e giochi) con cui testeremo la scheda video:
- Unigine Heaven Benchmark 4.0
- Futuremark 3DMark Fire Strike
- Futuremark 3DMark Fire Strike Extreme
- Futuremark 3DMark Fire Strike Ultra
- Thief (2014) (Benchmark integrato)
- Bioshock Infinite (Benchmark integrato)
- Metro Last Light (Benchmark integrato)
- Terra di mezzo: Ombra di Mordor (Benchmark integrato)
- Grand Theft Auto V (GTA V) (Benchmark integrato, media dei risultati di 5 scene)
Dove disponibile la scelta della risoluzione, i test sono stati eseguiti ai seguenti valori. Laddove si trattasse di un benchmark, le modalità predefinite sono state utilizzate:
- 1680×1050, AA x2 (WSXGA+)
- 1920×1080, AA x4 (Full HD)
- 2560×1440, no AA (2K, QWHD)
- 3840×2160, no AA (4K, UHD)
Qui di seguito le VGA testate con la nuova piattaforma:
- Sapphire AMD Radeon R7 250X Vapor-X OC 1GB (Cape Verde XT, 1100/1300) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X OC 8GB (Hawaii XT, 1020/1375) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 4GB (Hawaii XT, 1080/1410) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 8GB (Hawaii XT, 1030/1375) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 4GB (CrossFireX) (Hawaii XT, 1080/1410, 2 GPU) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 4GB (CrossFireX) (Hawaii XT, 1080/1410, 3 GPU) – Recensione
- Sapphire AMD Radeon R9 380 Nitro 4GB (Tonga, 985/1450) – Recensione
- Sapphire AMD Radeon R9 380X Nitro 4GB (Antigua XT, 1040/1500) – Recensione
- Sapphire AMD Radeon R9 390 Nitro 8GB (Grenada Pro, 1010/1500) – Recensione
- Sapphire AMD Radeon R9 390X Tri-X 8GB (Grenada XT, 1055/1525) – Recensione
- Sapphire Radeon R9 Fury Tri-X OC 4GB HBM (Fiji, 1040/1000) – Recensione
- Sapphire Radeon R9 Fury Tri-X Nitro 4GB HBM (Fiji, 1050/1000) – Recensione
- Gigabyte NVIDIA GeForce GTX950 WindForce (Maxwell GM-206-250, 1279/1753) – Recensione
- MSI NVIDIA GeForce GTX960 Twin Frozr V Gaming 2GB (Maxwell GM-206-300, 1241/1753) – Recensione
- MSI NVIDIA GeForce GTX970 Twin Frozr V Gaming 4GB (Maxwell GM-204-200, 1140/1753) – Recensione
- ASUS NVIDIA GeForce GTX980 Strix OC 4GB (Maxwell GM-204-400, 1178/1753) – Recensione
- NVIDIA GeForce GTX980 4GB (reference) (Maxwell GM204-400, 1127/1753) – Recensione
Test sintetici: Unigine Heaven–>
Heaven, prodotto da Unigine è stato il primo Benchmark DX11. Lo scopo principale è quello di mettere in risalto gli straordinari effetti della Tessellation. Difatti dai semplici modelli osservabili con tessellation disattivata, si arriva ad oggetti ricchi di profondità e sporgenze senza dover creare trame complesse. Il compito di arricchire il modello è lasciato all’unità tessellatrice, per cui si tratta di uno strumento indispensabile per valutare l’efficienza dei questa unità nelle moderne soluzioni DX11:
Test sintetici: FutureMark 3DMark–>
In concomitanza con il lancio di Windows 8, Futuremark ha lanciato il nuovo 3DMark, chiamato appunto 3DMark, senza alcun numero riconoscitivo, a segnare la forte integrazione che ha con qualsiasi sistema, da Android a Windows a iOS a OSX, dando per la prima volta la possibilità di paragonare le prestazioni su smartphone e PC fisso in maniera schematizzata e professionale. Il benchmark dispone di svariati test, di cui utilizziamo i più intensivi per mettere alla prova le schede video. Tra questi, il più impegnativo è il Fire Strike, che spinge la tessellazione a livelli davvero elevati, e che “vanta” due versioni ancora più spinte: Extreme (con scene pre-renderizzate a 2560×1440) ed Ultra (scene pre-renderizzate a 3840×2160, ovvero 4K).
Test sui giochi: Bioshock Infinite–>
Continuiamo con Bioshock Infinite, che ci mette nei panni di Booker DeWitt, un investigatore privato, un tempo agente Pinkerton, incaricato di ritrovare una ragazza, Elizabeth, tenuta prigioniera a Columbia, una fantomatica città sospesa nei cieli, dove le modifiche genetiche sono considerate veri e propri beni di lusso. Per la prima volta nella serie di Bioshock, il personaggio ha un volto, un nome ed una storia precedente al gioco, che verrà svelata con l’avanzare della partita. Il gioco supporta le API DirectX 11, con le quali supporta tecnologie quali: High Definition Ambient Occlusion, Contact Hardening Shadows e Diffusion Depth of Field. È implementato inoltre il supporto all’FXAA (anti-aliasing ad approssimazione rapida) ottimizzato per l’utilizzo su SM 5.0. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Metro Last Light–>
Dopo l’incredibile successo di Metro 2033, ecco che fa capolino sugli schermi dei nostri PC il suo successore, Metro Last Light, basato sul romanzo Metro 2034 di Dmitry Glukhovsky, che vede il mondo alle prese con i postumi di una terza guerra mondiale atomica, con tutto ciò che ne consegue: la popolazione ancora in vita in Russia si è trasferita nella famigerata metropolitana russa, dotata di 298 km di binari e tunnel sotto Mosca. Ancora una volta, il giocatore rivestirà i panni di Artyom, per impedire una guerra civile che potrebbe portare alla fine il genere umano. Tecnicamente parlando, il gioco è incredibilmente pesante, sia per poligoni a schermo che per requisiti, facendo uso di tutte le tecnologie introdotte dalle DirectX11: Depth of Field, HDAO, Tessellation e real-time Motion Blur. Il gioco è ottimizzato per schede video NVIDIA, dato il supporto all’NVIDIA PhysX e in quanto parte del programma NVIDIA – The Way It’s Meant To Be Played.
Test sui giochi: Middle Earth: Shadow of Mordor–>
Chi è appassionato della saga di J.R.R. Tolkien sa che, fino a Settembre 2014, non esisteva un gioco degno di tal nome che narrasse le vicende della Terra di mezzo. Grazie a Monolith e ai Warner Studios, però, ora la collana fantasy più famosa del globo terracqueo vanta un gioco tripla A, forte di una trama travolgente, una grafica sul filo del fotorealismo ed un sistema di combattimento che sembra l’evoluzione del Free Form Fighting System visto in Prince of Persia: Spirito Guerriero. Il risultato? Un titolo must-have, il cui motore grafico si rifa a quello utilizzato da Batman: Arkham Origins, titolo che sostituisce nella nostra suite di benchmarks. Il gioco è ottimizzato per schede video NVIDIA, dato il supporto all’HBAO, all’SMAA e più in generale a tutti i GameWorks dell’azienda. Il gioco, soprattutto alle alte risoluzioni e con i filtri al massimo, richiede un quantitativo di memoria video non indifferente, e pertanto risulta pienamente indicato qualora voleste mettere alla prova schede video con un quantitativo VRAM maggiore:
Test sui giochi: Grand Theft Auto V–>
Grand Theft Auto. Una saga che affonda le sue radici nel sangue e nella violenza in visuale dall’alto e 2 dimensioni, e che nell’ultima iterazione, attesa per ben 8 lunghissimi anni dagli utenti PC. Nel 2015, dopo ben 8 anni di attesa (per gli utenti PC), GTA V ha visto la luce sugli schermi dei computer di tutti i videogiocatori, distruggendo record su record in vendite e profitti. Un approccio totalmente diverso, quello per la storia: tre personaggi controllabili, ognuno più folle dell’altro, tra mafia, sparatorie, esplosioni e rapine spettacolari. Il gioco è ottimizzato per schede video NVIDIA, presentando il supporto a tutti i GameWorks dell’azienda eccezion fatta per gli Hairworks. Ad alte risoluzioni, il gioco è un vero e proprio campo di battaglia dove testare le schede video più potenti:
Considerazioni finali–>
[conclusione]
[titolo]Design e qualità costruttiva[/titolo]
Come sempre, il design di Sapphire con la sua lineup Nitro è il giusto compromesso tra solidità, silenziosità e uno stile che riesce ad adattarsi a qualsiasi PC, grazie alle colorazioni in scala di grigi. La backplate conferisce estrema solidità alla scheda in generale, anche se viste le dimensioni compatte, la sua funzione è di aiutare a dissipare passivamente il calore generato dalle componenti di essa. Inoltre, la modalità semi-passiva consente di avere un PC silenziosissimo in idle e poco rumoroso sotto carico. Il PCB è custom, e grazie ad esso è possibile contenere i consumi ed aumentare l’headroom in OC. C’è da dire, però, che lo shroud in plastica ricorda le linee utilizzate da EVGA sui propri dissipatori ACX.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Prestazioni[/titolo]
Se con la Fury Tri-X avevamo trovato una scheda potente e silenziosa, ci ritroviamo di fronte ad una GPU praticamente identica, se non nel design e nel PCB che hanno subito le tipiche personalizzazioni della serie NITRO: con la R9 Fury Nitro, infatti, sarà possibile giocare in 2K (1440p) al massimo dei dettagli o, all’occorrenza, in 4K rinunciando a pochissimi dettagli visivi, garantendo comunque un’esperienza completa con qualsiasi gioco vogliate. Visti i tempi ristretti, non abbiamo potuto effettuare test in overclock ma nelle prossime settimane Sapphire ci permetterà di aggiornare la recensione inviandoci di nuovo la scheda appena possibile.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Compatibilità e consumi[/titolo]
La scheda presenta un assorbimento pari a circa 260W, con la possibilità di impostare il TDP a +50% tramite software come Afterburner o Sapphire TriXX. Per questo, è consigliato un alimentatore da 600W, in modo che abbinata ad un processore di fascia media, venga utilizzata la massima efficienza del PSU. Per un CrossFireX sarà necessario un alimentatore da almeno 650W.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Prezzo[/titolo]
Con un prezzo di circa 650€ presso Amazon ed ePrice, la Sapphire R9 Fury Nitro presenta un prezzo molto poco competitivo, posizionandosi nella segmento delle schede di fascia superiore (Fury X e 980Ti). Rispetto alla Tri-X, che adesso porta un prezzo di circa 570€, la differenza di prestazioni (1-2%, imputabile al miglioramento dei driver) è troppo esigua. Vi invitiamo ad acquistare presso i rivenditori ufficiali Sapphire, in quanto pur presentando un prezzo superiore ai VAT Player (coloro che evadono l’iva tramite meccanismi al limite della legalità), forniscono supporto post-vendita/RMA, cosa che suddetti rivenditori non ufficiali non garantiscono.
[voto=”7″]
[/conclusione]
Se non fosse per il prezzo, la Sapphire R9 Fury NITRO sarebbe una scelta davvero accattivante, ma le prestazioni sono comunque elevate, e pertanto è giusto assegnare alla scheda il nostro Hardware Gold Award, sperando che nelle prossime settimane il prezzo si assesti su livelli inferiori, rendendola un must-have:
Ringraziamo Sapphire Technology Italia per il sample oggi recensito.
Per oggi è tutto da ReHWolution, non dimenticate di seguirci sui nostri social network:
La recensione
Sapphire Radeon R9 Fury NITRO 4GB HBM OC+
Una scheda costosa ma potente, versione totalmente personalizzata della seconda GPU più veloce di AMD: la Sapphire Radeon R9 Fury NITRO è l'esponente più veloce di questa lineup.
Pro
- Scheda potente
- Design custom nel PCB e nel dissipatore
- 0 dB(A) quando sotto leggero carico
Contro
- Prezzo elevato
- Consumi elevati
Sapphire Radeon R9 Fury NITRO 4GB HBM OC+ Prezzi
Raccogliamo informazioni da vari negozi per indicare il prezzo migliore