Introduzione: Sapphire–> Sapphire Technology nasce 12 anni fa come partner AIB di ATI (ora di proprietà di AMD), adottando tale modello per introdurre sul mercato le proprie innovazioni tecnologiche. SAPPHIRE, con i suoi prodotti nel settore grafico, è riuscita ad affermarsi come il partner #1 di AMD, espandendo al contempo la propria lineup con prodotti che includono mainboard e miniPC, come ad esempio la serie Sapphire EDGE. Generazione dopo generazione, Sapphire è stata abile nel produrre soluzioni reference e personalizzate delle GPU AMD, e grazie all’ottimo lavoro svolto e alle soluzioni tecniche adottate, oggi è una delle realtà più affermate nel mondo dell’accelerazione grafica.
Molti di voi facilmente ricorderanno alcune delle più famose linee dell’azienda, come la serie ATOMIC, caratterizzata da una personalizzazione totale (nell’elettronica e nel raffreddamento) delle schede di punta di AMD, o la serie VaporX, che fa dell’efficienza termica e della silenziosità il suo cavallo di battaglia. Recentemente, Sapphire ha investito la sua esperienza nella “nuova” serie R9 200 di AMD, la cui gamma per l’azienda consiste nei modelli:
- Sapphire Radeon R9 290 Tri-X
- Sapphire Radeon R9 280X Vapor-X
- Sapphire Radeon R9 280X Dual-X
- Sapphire Radeon R9 270X Toxic
- Sapphire Radeon R9 270X Dual-X
- Sapphire Radeon R9 270 Dual-X
Con grandissimo piacere, oggi recensiamo la punta di diamante della lineup Sapphire: la Radeon R9 290X Tri-X OC 4GB.
Sapphire Radeon R9 290X Tri-X OC 4GB: specifiche tecniche–> Di seguito, la tabella delle specifiche tecniche della scheda video, ulteriori informazioni sono consultabili in versione integrale sul sito ufficiale del produttore (Sapphire):
La scheda conta su un PCB reference su cui è installato il chip Hawaii XT da 2816 Stream Processors, basato sull’architettura GCN 1.1. I 16 chip di memoria SK Hynix da 1300 MHz sono collegati alla GPU tramite un bus a 512 bit, fattore che rende la scheda adatta a risoluzioni elevate. La GPU, anch’essa overclockata, raggiunge una frequenza di 1050 MHz, con un OC del 5% rispetto al modello reference. Il dissipatore utilizzato è lo stesso che abbiamo visto sulla Sapphire Radeon R9 280X Toxic, il Tri-X triventola con un “poderoso” radiatore in alluminio attraversato da 5 heatpipes in alluminio. Con tale sistema di raffreddamento, la scheda raggiunge una lunghezza superiore al modello reference, arrivando a più di 300 millimetri, pertanto controllate che nel vostro case ci sia abbastanza spazio prima di acquistarla. Infine, il pannello delle connessioni rimane lo stesso della reference, con due porte DVI-D Dual Link, una porta HDMI 1.4a ed una DisplayPort versione 1.2.
Hawaii: architettura nei dettagli–>
Potremmo assimilare l’architettura utilizzata dalla GPU Hawaii (XT e Pro) in un GCN 1.1, come viene definito da AMD stessa. La potenza per mm2 è del 5% maggiore rispetto alla precedente generazione (ovvero quella su cui si basano le VGA HD7000). Per capirci, le soluzioni tecniche sono le stesse adottate dalla GPU HD7790 (recensita da noi QUI), ovviamente portando il tutto in grande scala viste le dimensioni mastodontiche del chip utilizzato sulla 290X/290: si parla di ben 6,2 miliardi di transistors in un package di 438mm2, con un aumento del ben 24% rispetto alla precedente generazione. nVidia, con il suo GK110, arriva ad addirittura 7.1 miliardi, ma con una superficie ben superiore. La densità di transistors è, pertanto, di gran lunga superiore. Andiamo quindi ad analizzare nel dettaglio l’architettura della scheda:
Parlando ad alto livello la scheda presenta un aumento negli Stream Processors di ben 768 unità, un aumento della Cache L2, insieme all’introduzione di nuovi componenti. Sul die della GPU, infatti, è integrato anche il nuovo DSP TrueAudio responsabile della gestione audio nei videogames, ma di questo parleremo in una delle prossime pagine. Troviamo i nuovi motori xDMA che gestiscono il CrossFireX di tipo “bridgeless” (ovvero senza la necessità di utilizzare un ponte esterno per collegare le schede), insieme ai nuovi motori di gestione EyeFinity che consentono di pilotare navitamente 6 schermi con una sola scheda, in configurazione 3×2. È facile intendere che non ci troviamo di fronte ad un’architettura totalmente nuova; piuttosto, ci troviamo di fronte ad un “refresh” della già molto efficiente GCN, con una riorganizzazione dello spazio sul die, grazie al quale è stato possibile inserire un bus da 512 Bit occupando meno spazio del bus da 384 Bit di Tahiti XT, il tutto senza perdere prestazioni, grazie a 8 collegamenti da 64 Bit ad alta efficienza.
La Compute Unit (CU) di Hawaii si presenta uguale a quella di Tahiti, che fa dell’elevata efficienza di calcolo rispetto allo spazio occupato il suo punto di forza. Al pari di Tahiti, infatti, ogni CU può gestire calcoli in maniera autonoma rispetto alle altre, ottimizzando quindi la parallelizzazione nei calcoli disegnati per tale tipo di computing. Dalla prospettiva del thread processing, ogni CU dispone di 4 sub unità vettoriali (denominate SIMD) composte ognuna da 16 Stream Processors, per un totale di 64 SP per CU. Questo schema è supportato da 4 Texture Units e 16KB di cache L1 a lettura e scrittura esclusiva della CU. Insieme ad ogni unità vettoriale (VU) indipendente, AMD ha associato uno scheduler ad alto bandwidth, che lavora insieme alla cache unificata (di L2) e alla cache dedicata ad ogni CU, facilitando la condivisione dei dati attraverso le linee dati. In soldoni, esso funge da semaforo indirizzando correttamente i flussi dati. Un’altra parte importante nella gerarchia delle CU è la presenza di unità scalari (SU) con registri dedicati. Questa sub-unità funge da core programmabile di tipo general purpose, facendosi carico di una parte dei calcoli di alcune aree delle CU, o lavorando indipendentemente se necessario, come se fosse un vero e proprio processore associato ad ogni CU. Nessuno di questi moduli è stato cambiato da Tahiti, tuttavia è stata migliorata ulteriormente l’efficienza in caso di calcoli logaritmici o esponenziali di tipo 1ULP, ovvero quando si compiono operazioni in FP. Hawaii porta con sé il supporto al MQSAD (masked quad sum of absolute difference) e Shaders compatibili con lo standard IEEE-2008, insieme ad una serie di cambiamenti nella queue di processi:
La stragrande maggioranza di miglioramenti è stata implementata negli stadi di processing della geometria, requisito necessario per supportare e calcolare correttamente i set di istruzioni contenuti nelle DX11.2 e nelle Direct3D 11.2. Al posto dei due Geometry Engine, ora ci sono ben quattro GE, consentendo di gestire 4 primitive concorrenti ad ogni ciclo di clock. Questa novità è gestita senza problemi grazie alle capacità di caching maggiorate (in particolar modo, la cache di L2 R/W è stata aumentata a 1MB, con ben 1TB/s di banda passante per le comunicazioni tra le cache di L1 e L2). Ulteriori miglioramenti sono stati applicati on-die, grazie ad un front-end di caricamento e salvataggio incrementato, il quale è utilizzato per velocizzare le comunicazioni tra le varie unità di calcolo e la memoria. AMD, finalmente, ha migliorato con questo meccanismo il buffering tra GPU e memorie, consentendo così di aumentare il throughput di tassellazione, cosa che era il punto debole della precedente architettura.
Ogni CU, Geometry Processor e Rasterizzatore, insieme a 4 Back-End di renderizzazione individuali, insieme ad altri elementi secondari, sono combinati in un’unica unità organizazzionale denominata Shader Engine. Ogni Shader Engine dispone di 704 SP (divisi in CU di 64 SP ciascuna), 44 Texture Units e 16 Rop. Lo Shader Engine, per intenderci, è paragonabile al Graphics Compute Unit di nVidia, con la differenza che AMD ha aggiunto RB (Rendering Back-Ends) indipendenti dalla gerarchia delle memorie. Con questa riorganizzazione, AMD ha raccolto le risorse in questi engine in modo da facilitare le comunicazioni inter-cores. Per esempio, mentre tutte le cache degli engine possono essere condivise da 4 Compute Engines ciascuna, parallelamente gli RB sono configurabili in modo da assistere suddetti CE o in modo da gestire calcoli del tutto indipendenti e scollegati.
Il throughput di calcolo, inoltre, è stato indirizzato tramite 8 ACE (Asynchronous Compute Engines, Motori di Calcolo Asincroni) al posto dei 2 di Tahiti. Non solo hanno accesso diretto alla Cache L2 e ai Data Stream gestiti da tutte le unità di calcolo, ma possono anche gestire 8 code di calcolo. Prima di passare per gli engine DMA, i dati elaborati dagli ACE passa per il memory controller. In particolare, i motori DMA sono in grado di saturare il bus bidirezionale di uno slot PCI-E 16x di tipo 3.0, tuttavia le prestazioni computazionali di questa particolare architettura non giungeranno mai a richiedere tutta quella banda passante, in quanto la maggioranza dei calcoli viene effettuata direttamente dalla GPU.
Hawaii: gestione dei clock dinamica–> Con entrambe AMD e nVidia a spremere dal processo produttivo a 28 nm quante più prestazioni possibili, entrambe hanno combattuto per ottimizzare i consumi energetici e la produzione di calore. La tecnologia PowerTune fu lanciata da AMD per contenere questi tre fattori (prestazioni, energia, calore) entro limiti modificabili solo tramite overclock. Con questo metodo, sia i consumi che le prestazioni venivano limitate, ma a differenza del GPU Boost di nVidia, non teneva in considerazione le infinite variabili intorno ad esso, come le temperature e l’overhead di potenza assorbibile. Un esempio esplicativo è, ad esempio, il differente approccio alle frequenze tra una HD7970 GHz Edition ed una GTX 780. La scheda AMD spinge le frequenze a 1050MHz indipendentemente dalla temperatura della GPU, mentre la GTX 780, d’altro canto, ha la possibilità di sfruttare l’ottima dissipazione termica del proprio design reference (e non solo) portando la GPU a clock incredibilmente superiori, rispetto all’irrisorio aumento che ritroviamo nelle schede “rosse”. Con le R9-290/R9-290X, AMD mette da parte questo approccio arcaico e anziano, implementando un nuovo modello di bilanciamento tra prestazioni ed efficienza.
Fondamentalmente, la “filosofia” alla base del PowerTune è rimasta la stessa (ovvero, performance legate strettamente al consumo energetico), ma AMD ha aggiunto una serie di features volte a gestire in modo ottimale il clocking dinamico della scheda, prendendo spunto soprattutto dal segmento APU, in cui AMD sta avendo un discreto successo. Così come la precedente iterazione del PowerTune, i sensori di temperatura e attività sono sparsi sulla GPU per determinare quanta corrente effettivamente viene utilizzata da essa. In precedenza, molti di questi valori venivano stimati, pittusto che calcolati alla fonte. AMD, con questa iterazione, ha aggiunto un gruppo ulteriore di sensori, che monitora attivamente l’ammonto effettivo di energia assorbita, il tutto tramite i VRM della scheda. Questi dati vengono poi combinati con i valori stimati, in modo da “triangolare” i valori effettivi e il “fabbisogno energetico” della scheda. Grazie alla telemetria energetica e termica che confluisce nell’arbitratore di gestione dinamica di potenza (DPM Arbitrator), il nuovo PowerTune può finalmente effettuare scelte basandosi su dati raccolti in tempo reale, piuttosto che su supposizioni. In questo modo, ad AMD è permesso di impostare le migliori frequenze possibili da quella combinazione di energia consumata, temperature e velocità della ventola. Ciò significa che è possibile a stati diversi di questi tre fattori frequenze simili. Uno dei fattori cruciali nel nuovo PowerTune è il fatto che ora all’utente viene data piena libertà sulla personalizzazione delle curve di gestione del sistema. In soldoni, se volete una scheda silenziosa ma fresca potete abbassare la velocità e i clock per ottenere consumi minori e quindi temperature inferiori, o potete ignorare la rumorosità ed avere il massimo consumo energetico e clocking che la scheda permette. Finalmente, all’utente viene dato il controllo totale della gestione di questi parametri.
La seconda generazione di regolatori di tensione, utilizzata su questa famiglia di GPU, permette di bilanciare dinamicamente tutti gli aspetti dello spettro energetico della scheda. Il controller si assicura di mantenere il consumo energetico entro un limite dello 0.5% di varianza rispetto ad un target di potenza, refreshando voltaggi e frequenze fino a 500 volte al secondo. In questo modo, aumenta la granularità delle frequenze, senza picchi e valli nella gestione dei clocks. La parte migliore di tutto ciò è che sarà totalmente personalizzabile, tale gestione, consentendo il controllo dei parametri operativi tramite il software AMD.
Ovviamente, tutto ciò che abbiamo detto finora fa assumere alla ventola un valore tutt’altro che marginale nell’equazione del nuovo PowerTune. Precedentemente, il controller integrato regolava la velocità della ventola in modo “scripted”, mentre adesso il fan controller è completamente dinamico, gestendo in tempo reale e in maniera predittiva la velocità delle ventole, senza sbalzi di velocità, ma con curve meno aggressive.
Hawaii: Eyefinity reinterpretato–> Mentre Eyefinity può non essere una prerogativa della maggioranza dei gamers, i pochi che utilizzano 3 o 6 schermi formano un gruppo esigente di utenti enthusiast. Sfortunatamente, in passato, utilizzare una singola scheda per una configurazione Eyefinity rappresentava un limite per via delle connessioni miniDP presenti nel pannello di uscite, visto che era necessario utilizzare uno di essi per gestire tre monitor o più. Ciò significava comprare un monitor con tale ingresso o comprare adattatori di tipo to Display Port, che presentano comunque un costo non proprio contenuto.
Sulle nuove R7/R9, all’utente verrà lasciata la possibilità di pilotare 3 schermi senza passare dalla porta DisplayPort, anche se c’è da dire che a parte la R9-290X e la R9-290, nessuna scheda ha abbastanza potenza per gestire 3 monitor da 1920×1080 Pixel, a meno che non utilizziate più schermi per motivi di lavoro e non per giocare ad altissima risoluzione. Tali funzionalità permangono anche nelle schede di fascia bassa della
serie R7, in modo da permettere a chiunque voglia una soluzione multi-schermo, senza per forza di cose spendere tanti soldi in una scheda da gaming, aumentando la produttività lavorativa senza appunto sborsare molto.
Molte schede appartenenti alla serie R sono equipaggiate con 2 connettori DVI-D, una porta HDMI 1.4a ed una DisplayPort 1.2. Mentre è possibile utilizzare infinite combinazioni di schermi, alcune R9-280X saranno equipaggiate con un layout leggermente diverso, ovvero due mini DP al posto della singola DisplayPort. In quel caso, il supporto esteso ad Eyefinity tramite HDMI e DVI semplifica di gran lunga le cose. Fate attenzione: abbiamo parlato di connettori DVI-D sulle 290/290X, ovvero non sono presenti i pin necessari agli adattatori DVI-to-VGA, lasciando tale prerogativa alle schede di fascia inferiore.
Per l’Eyefinity a 6 schermi, il connettore DisplayPort 1.2 delle nuove schede consente di pilotare un hub MST (Multi Stream Transport) in modo da “spezzare” un singolo segnale DisplayPort in tre segnali differenti di qualsiasi tipo, creando una “daisy chain” con gli altri 3 connettori della scheda.
Hawaii: TrueAudio, innovazione a 360°–> Pensando ai videogiochi in relazione alle schede video, la prima cosa che balza alla mente è la velocità di elaborazione dell’enorme quantità di dettagli a schermo, insieme alla qualità di tutto ciò. Tuttavia, il fotorealismo determina solo in parte l’immersione del giocatore nel proprio titolo preferito, ed un’altra buona parte di tale immersione è data dal sistema audio alla base dei giochi, aspetto spesso sottovalutato e talvolta cruciale nel coinvolgimento totale del player nelle scene renderizzate. La qualità effettiva dell’audio multicanale posizionale occupa un ruolo fondamentale nell’immersione del giocatore, ma spesso le soluzioni disponibili al momento non soddisfano gli standard imposti dalla qualità grafica. Insomma, per quanti milioni di dollari uno sviluppatore spenda in un titolo videoludico, non troveremo mai colonne sonore ai livelli di Hollywood, come, per fare un esempio concreto, le musiche di Hans Zimmer in Inception.
Nonostante l’assenza di tracce audio ad alta qualità da parte degli sviluppatori, i tentativi non mancano. Infatti, i middleware e i software capaci di semplificare il lavoro del rendering audio sono già presenti sulla piazza, ma gli sviluppatori hanno un ammontare limitato di risorse CPU con cui lavorare. Fondamentalmente, la maggior parte della CPU viene impegnata per la gestione del programma, dell’AI, della fisica, dei calcoli, del corretto indirizzamento dei dati alla scheda video e a tutta una serie di meccanismi invisibili al giocatore. Come è lecito aspettarsi, l’audio occupa approssimativamente solo il 10% delle risorse presenti nel sistema, non ricevendo le attenzioni che merita. Ed è qui che TrueAudio entra in scena. Mentre la scheda audio e altre forme di renderers audio esterni possono scaricare una parte del lavoro da parte del processore, in fin dei conti non si occupano della vera e propria produzione dell’audio, e TrueAudio, rimanendo in background, agisce come “facilitatore” del carico del rendering audio e della creazione del suono, permettendo, parlando dalla prospettiva dello sviluppo, di liberare risorse CPU per altri compiti. TrueAudio è una pipeline audio ad alta programmabilità e permette di decodificare, codificare, mixare e gestire tutti gli aspetti sonori con un’elevata versatilità, permettendo agli sviluppatori di indirizzare altrove le risorse impegnate per la creazione dell’audio di un gioco. Per contestualizzare il ruolo di TrueAudio, potremmo paragonarlo allo sviluppo di un motore grafico. Gli ingegneri del suono e i programmatori, di solito, registrano suoni dal mondo reale mixandoli poi insieme, combinando vary layers, per creare un dato effetto. Il giocatore ha bisogno di udire uno sparo? Registralo e mixalo di conseguenza. C’è molta poca flessibilità, non si ha a che fare con poligoni e triangoli e texture. TrueAudio permette ai team assegnati allo sviluppo audio di semplificare tali operazioni, fornendo algoritmi personalizzati senza preoccuparsi dell’overhead della CPU, in modo da produrre audio ad alta fedeltà senza incorrere in un hardcap di risorse del processore.
Secondo AMD, una delle migliori caratteristiche del TrueAudio è la trasparenza fornita agli sviluppatori, visto che l’accesso alle risorse da esso predisposte è identico a quello che si effettua tramite le attuali risorse audio. Nessun nuovo linguaggio, nessun programma di terze parti per reindirizzare le risorse, tutto avviene automaticamente, lasciando piena libertà ai tecnici audio. La posizione di TrueAudio all’interno dello stack audio migliora la sua percezione, facendolo inquadrare come un meccanismo facilitante di tutta la gestione sonora, grazie al fatto che tutto ciò che fa avviene in background. Le tracce audio con un supporto alla tecnologia vengono passate al motore TrueAudio on-die, tornando poi alle risorse Windows Audio, in modo da poter essere riprodotto come qualsiasi altra fonte sonora, sia essa attraverso la scheda audio, una porta USB o una connessione HDMI/DisplayPort. Non prende il posto della scheda audio, sia chiaro, ma permette che l’audio codificato abbia una qualità maggiore con un impatto pari allo 0% sulle risorse di calcolo celntrali.
TrueAudio è implementato direttamente nelle schede grafiche che lo supportano (HD7790, R7-260X, R9-290 e R9-290X) tramite un set di core DSP dedicati (Tensilica HiFi EP) localizzati direttamente sul die della GPU. Questi core verranno dedicati al processing dell’audio nei giochi, calcolando fonti sonore sia a virgola fissa che a virgola mobile, dando significanti aumenti di libertà alle software house rispetto ad ora. Tali cores si occupano anche di gestire il processing audio, slegandosi totalmente dai cicli di calcolo del processore centrale. Per assicurare un accesso rapido e senza ritardi, i DSP dispongono di un accesso rapido alla memoria locale, grazie alla cache on-board e alla RAM. Inoltre, un set di istruzioni condivise dal motore DMA aiuta a processare l’audio attraverso i vari stadi. Ancora più importante, l’output dei calcoli effettuati da tali DSP è collegato direttamente alle pipeline dei display, in modo da “non rimanere indietro” rispetto alle risorse grafiche. Mentre TrueAudio assicura che il processing dell’audio venga effettuato sui DSP dedicati piuttosto che sui core grafici, è comunque possibile implementare i calcoli effettuati dalla CPU, alleggerendo comunque il carico, o mantenendolo inalterato, aumentando al contempo l’immersione sonora.
Una delle sfide maggiori per gli ingegneri del suono è la creazione di un audio tridimensionale attraverso cuffie stereofoniche. In un setup tipico, il motore ingame effettua il processing iniziale, mixando poi le tracce in un semplice segnale stereo. I DSP secondari addizionali, di solito posizionati sull’amp USB delle cuffie, si occupano poi di renderizzare la traccia in un surround virtuale su due canali, aggiungendo riverberi, separazioni e altri “trucchi” per creare virtualmente un suono posizionale. Il risultato, spesso, è mediocre, in quanto l’audio tende a perdersi più che a definirsi di più. TrueAudio assiste la virtualizzazione, offrendo script preimpostati per il processing. Viene utilizzato un DSP ad alta qualità che assicura che ogni singolo canale audio venga separato e indirizzato in una propria pipeline dedicata. AMD ha collaborato con GenAudio per consentire ciò, e dalle slide viste finora, sembra che abbiano creato qualcosa di davvero incredibile.
Mentre dal lato dello sviluppo nulla cambia, questa nuova addizione permette non solo un’ottimizzazione delle risorse CPU. Effetti avanzati, uno stadio sonoro più ricco, tracce vocali più chiare e molto altro ancora può essere gestito grazie al minor overhead e al supporto esteso alle applicazioni già esistenti. In aggiunta, i limitatori di mastering permettono ai suoni individuali di essere riprodotti senza distorsioni. A differenza di alcune applicazioni, TrueAudio non è una magica sfera di cristallo che risolve tutti i problemi del mondo, in quanto è progettata per tracciare come obiettivo flussi ad alta definizione, in modo che non tutte le fonti audio vengano elaborate da esso. AMD non taglia fuori la CPU dall’equazione di calcolo, piuttosto fa in modo da creare un ambiente di calcolo eterogeneo e con ruoli specifici per ogni unità di elaborazione.
Come con tutte le iniziative, il fallimento o il successo di TrueAudio dipenderà soprattutto dal desiderio degli sviluppatori di supportarlo o meno. Per quanto possa sembrare un “deja-vu” come con HD3D, Bullet Physics e altri concetti di marketing di AMD degli anni passati da cui non si è mai schiodata, è molto probabile che TrueAudio sia una soluzione che riuscirà a brillare. Gli sviluppatori sono già al lavoro, e AMD ha sofferto molto per rendere il processo di sviluppo quanto più friendly possibile. L’audio è una delle poche frontiere che non è stata ancora esplorata; tutto ciò che migliora l’audio nell’esperienza dei PC è la benvenuta, ma non aspettatevi miracoli. Molto probabilmente le vostre cuffie e le vostre schede audio non avranno cambiamenti sostanziali, ma sistemi più grandi, setup più potenti, potranno avere finalmente la giustizia che meritano. AMD ridefinisce, in pratica, l’audio con le proprie schede video.
Hawaii: Mantle, asso nella manica?–> Per capire da dove proviene Mantle, dobbiamo tornare indietro nel tempo e prendere la PlayStation 3 come esempio di come AMD vuole cambiare il modo in cui i giochi interagiscono con il sistema grafico del PC. Mentre il processore Cell della PS3 e i core grafici associati sono difficili da programmare, giochi come Uncharted 3 e The Last of Us portano con loro una grafica migliore a molti titoli PC recenti, nonostante l’hardware di oggi sia qualcosa di inimmaginabile, rispetto all’hardware di lancio della console. Come è possibile? Le console danno agli sviluppatori un accesso facilitato al sottosistema grafico, senza driver grafici, overhead prodotto dalle API, un OS che ostruisce e altre eccentricità non necessarie che divorano risorse importanti. Il risultato è che i giochi per console sono capaci di utilizzare al 100% una risorsa data, permettendo ai programmatori di fare di più con meno. In alcuni casi (la PS3 è ancora un esempio che calza a pennello) il passaggio che consente di utilizzare appieno tali risorse come programmatori richiede un approccio totalmente diverso ad una piattaforma hardware, reimparando, di fatto, a programmare. Qui, interviene AMD a rendere il processo meno arduo ed accessibile a tutti.
Mantle è stata creata per ridurre il numero di ostacoli tra gli sviluppatori e ciò che vogliono creare quando creano un nuovo gioco o quando vogliono effettuare un porting dalle consoles. In passato, cose come l’ottimizzazione della CPU e l’efficienza nella comunicazione tra componenti erano categoricamente ignorate, con gli sviluppatori alle prese con un’infinità di configurazioni hardware possibili, con CPU multicore non sfruttate a dovere, risorse GPU sprecate e la mancanza di un’ottimale condizione prestazionale sul PC, malgrado l’hardware più avanzato. C’è inoltre una larga componente software nell’ambiente PC, in quanto i programmatori, per accedere alle risorse, devono passare da software, sistemi operativi e driver che comunque inspessiscono la distanza tra loro e l’hardware. Ciò è un problema di non poco conto, che porta all’interazione software-memoria a quella che potrebbe essere paragonata ad un semaforo con il verde che dura pochi secondi, come un collo di bottiglia che limita il throughput computazionale. Le DirectX 10 e 11 hanno cercato di indirizzare nella maniera corretta molti di questi blocchi, ma le prestazioni generali sono comunque ancora limitate dal fatto che sono API ad alto livello. Insomma, la comunicazione da loro gestita tra API, GPU, gioco e CPU è ancora forzata in canali stretti, qualcosa che gli sviluppatori non vorrebbero trovarsi davanti. Utilizzando API ad alto livello (come, appunto, DX10 e 11), vengono effettuate un elevato numero di chiamate di drawing, che portano inevitabilmente a saturare i cicli di calcolo della CPU: in pratica, le architetture grafiche odierne non possono esprimere tutto il loro potenziale.
Qui interviene Mantle, con la sua introduzione nell’equazione: non un rimpiazzo diretto delle DX e delle OpenGL, ma una forza complementare ad esse. Essa è un’API che si focalizza sul metallo nudo e crudo, programmazione a basso livello con un driver leggerissimo, che gestisce efficacemente la distribuzione delle risorse, garantisce controlli addizionali sull’interfaccia della memoria grafica e ottimizza le suddette chiamate di drawing. Pensate di Mantle come un mitragliamento a bassa quota che bersaglia componenti chiave, piuttosto che un bombardamento a tappeto che non garantisce pienamente che un obiettivo venga colpito. Con una linea di accesso più diretta alla GPU, AMD spera che le performance di GCN aumentino drasticamente, incrementando l’efficienza piuttosto che mettere alla base del problema una maggiore potenza grezza. Aprire a nuove tecniche di rendering che non sono legate alle API odierne è una possibilità. Teoricamente, ciò permette a Mantle di processare chiamate di drawing superiori del 900%, e ancor più importante, permette di portare giochi da console a PC e viceversa con tutte le ottimizzazioni delle risorse del caso.
Ovviamente, ci sono delle limitazioni per questo approccio. Mentre le API di alto livello rimarranno le stesse (DX, D3D) tra le varie aziende hardware, Mantle sarà compatibile solo con GCN. Questa è un’ottima notizia per tutti coloro che utilizzano una scheda HD7000 o superiore o chi possiederà una nuova console, ma gli utenti in possesso di schede GeForce o Intel HD4000 verranno lasciati fuori, in quanto almeno per il momento né nVidia né Intel hanno soluzioni paragonabili o compatibili. Persino le schede precedenti a GCN sono state messe da parte in favore del progresso. Con ciò a mente, gli sviluppatori potrebbero essere costretti a bypassare il supporto a hardware non recente, aggiungere Mantle come opzione selezionabile o semplicemente ignorare Mantle finché i prodotti compatibili siano fuori commercio. Senza dubbio AMD ha vinto la corsa alle prossime generazioni di console, grazie alle APU Jaguar su entrambe XOne e PS4, cosicché questi design facciano parte integrante della loro strategia futura. Purtroppo, è stato detto davvero molto poco riguardo alle API ad alto e basso livello utilizzate in questi prodotti, in primis l’Xbox One, le Direct3D 11.2 sono date per scontate, ma nessuno sa di cosa si tratti scendendo al basso livello. Microsoft ha anticipato tutti dicendo che Mantle non verrà utilizzata come API a basso livello, ma includendo la compatibilità HLSL DirectX di cui dispone la console potrebbe far avverare i sogni dell’azienda a lungo termine. Sotto molti aspetti, questo approccio ci ricorda le Glide di 3DFX, un’altra API a basso livello sviluppata anni fa ma fallita miseramente per la mancanza del supporto di sviluppatori e per la dismessa dell’azienda che le creò, 3DFX, appunto. Una delle maggiori sfide nel fare qualcosa al di fuori dei tipici ambienti DX/OpenGL è vendere l’idea agli sviluppatori. Mantle può aver mostrato promesse senza fine, ma abbiamo visto già una pletora di tecnologie simili messe da parte per via di uno scarso supporto dall’industria. Stavolta, però, AMD ha sostenitori di grande rilievo già dal day one.
Se AMD avesse utilizzato un piccolo studio di sviluppo per diffondere le proprie API, molti poche aziende l’avrebbe presa sul serio. Invece, hanno raggiunto subito credibilità grazie al supporto di EA e, di conseguenza, di DICE. Una combinazione responsabile della creazione della serie multimiliardaria di BattleField, considerata un caposaldo dell’industria dei videogiochi. Secondo Johan Andersson, Lead Designer di DICE ed evangelista rispettato della tecnologia avanzata del PC, Mantle è uno sforzo collaborativo tra AMD, EA, DICE e altri studios. Il risultato è che il Frostbite 3 di DICE supporterà nativamente le nuove API a basso livello. È un affare non di poco conto, se considerate il largo numero di titoli tripla A che useranno tale motore. Need For Speed: Rivals, Dragon Age: Inquisition, Star Wars Battlefront, BattleField 4, sono tutti titoli che utilizzeranno il Frostbite 3 e che potrebbero potenzialmente includere un’opzione per Mantle. Gli altri sviluppatori seguiranno a ruota visto che Mantle è stata creata per soddisfare le esigenze di essi, quando ci si trova di fronte alla creazione di un titolo PC o di un porting.
Il primo titolo ad includere il supporto a Mantle sarà l’incredibilmente anticipato Battlefield 4. Comunque, Mantle verrà diffuso solo in una patch di Dicembre, due mesi dopo il rilascio iniziale, avvenuto proprio pochissimi giorni fa. Ciò pone ottime basi in quanto dimostra che Mantle può essere implementato in un gioco con una patch, senza stravolgere il codice sottostante e offrendo al pari del Source Engine un’opzione di switching tra le modalità di rendering. Ovviamente, siamo fortemente interessati ai boost prestazionali che può fornire rispetto ai competitors. Considerando tutto ciò, dove si colloca Mantle nel panorama attuale delle API? Non ne siamo ancora sicuri, visto che la tecnologia è ancora ai primi stadi. A giudicare dalla reazione dei siti internet in giro per il mondo sul suo annuncio, gli sviluppatori già aspettano con clamore di avere accesso alle versioni per PC. Un segno incoraggiante, insomma. Comunque sia, come Mantle si evolverà attraverso la sua iterazione attuale dipende dal desiderio di AMD di supportarla negli anni a venire, ed è qui che si pone un grande punto interrogativo. Vista l’associazione vicina alle console e all’abilità di facilitare i porting su e da PC, dal punto di vista di sviluppo ed ingegneria hardware, dovrebbe essere una scelta ad occhi chiusi, quindi ci sono ottime speranze che il supporto non verrà tagliato molto presto, anzi, si prospettano ottime applicazioni per quest’API.
Mantle e il suo lancio ci dicono un bel po’ di cose: il rapporto di AMD con gli sviluppatori inizia a ripagare concretamente, l’inclusione dell’architettura GCN sulle console di next-gen si sta mostrando un fattore molto più cruciale di quanto nVidia ha cercato di far pensare, e AMD stavolta è seria da morire sulla focalizzazione sul gaming. Mantle è un filone comune che connette così tante iniziative che può essere davvero l’occasione di AMD di far brillare tutto ciò che è presente nel suo portfolio, dalle prossime APU Kaveri alle GPU discrete alle console. Ulteriori informazioni verranno divulgate durante l’AMD Developer Summit che avrà luogo questo mese.
Galleria fotografica: la scheda nei dettagli–>Qui, una galleria della scheda nei dettagli:
Configurazione di prova e metodologia di test–>La configurazione utilizzata per i test è la seguente:
Processore | Intel Core i7 4770k (delidded) @ 4.8GHz |
---|---|
Dissipatore | CRYORIG R1 Ultimate |
Scheda Madre | Gigabyte Z87X-OC |
RAM | Patriot Viper 3 Low Profile 8GB 2133MHz PVL38G213C1K |
Scheda Video | Sapphire Radeon R9 290X Tri-X OC 4GB |
Scheda Audio | Integrata |
HDD/SSD |
|
Alimentatore | Seasonic SS1000XP |
Case | Corsair Obsidian 750D |
Monitor | EIZO FlexScan EcoView EV2736WFS |
Tastiera | Corsair Vengeance K95 |
Mouse | Corsair Vengeance M95 |
S. Operativo | Windows 8.1 Pro x64 |
Driver Video | AMD Catalyst 14.3 Beta 1 |
Benchmark utilizzati:
- Unigine Heaven 4.0
- Futuremark 3DMark11
- Futuremark 3DMark
- Futuremark 3DMark Fire Strike Extreme
- AllBenchmark CatZilla
- Bioshock Infinite (Benchmark integrato)
- Batman: Arkham Origins (Benchmark integrato)
- Metro Last Light (Benchmark integrato)
- Tomb Raider (2013) (Benchmark integrato)
Ringraziamo Futuremark, AllBenchmark, AMD e NVIDIA per le copie digitali dei benchmark utilizzati nelle nostre recensioni.
Qualità massima, risoluzioni testate:
- 1680×1050, AA x2
- 1920×1080, AA x4
- 2560×1440, no AA
Schede video finora testate:
Schede video finora testate:
- NVIDIA GeForce GTX 750 Ti (reference)
- NVIDIA GeForce GTX 760 (reference)
- MSI NVIDIA GeForce GTX 760 Hawk
- Gigabyte NVIDIA GeForce GTX 760 Windforce3X OC 4GB
- NVIDIA GeForce GTX 770 (reference)
- Gigabyte NVIDIA GeForce GTX 770 Windforce3X OC
- NVIDIA GeForce GTX 780 (reference)
- MSI NVIDIA GeForce GTX 780 Gaming
- NVIDIA GeForce GTX 780 Ti (reference)
- MSI NVIDIA GeForce GTX780Ti Gaming
- MSI AMD Radeon HD 7790 OC
- Sapphire AMD Radeon HD 7970 DualX OC with Boost
- Sapphire AMD Radeon HD 7970 DualX OC with Boost CrossFireX
- Sapphire AMD Radeon HD 7990 (reference)
- Sapphire AMD Radeon HD 7990 (QuadCFX) (reference)
- Sapphire AMD Radeon R7 250 Ultimate
- Sapphire AMD Radeon R7 260X OC
- MSI AMD Radeon R9 270 Gaming 2G
- Sapphire AMD Radeon R9 270X Vapor-X
- Sapphire AMD Radeon R9 280X Toxic
- Sapphire AMD Radeon R9 290 (reference)
- Sapphire AMD Radeon R9 290X (reference)
- Sapphire AMD Radeon R9 290X Tri-X OC
Test sintetici: Unigine Heaven–>Heaven, prodotto da Unigine è stato il primo Benchmark DX11. Lo scopo principale è quello di mettere in risalto gli straordinari effetti della Tessellation. Difatti dai semplici modelli osservabili con tessellation disattivata, si arriva ad oggetti ricchi di profondità e sporgenze senza dover creare trame complesse. Il compito di arricchire il modello è lasciato all’unità tessellatrice, per cui si tratta di uno strumento indispensabile per valutare l’efficienza dei questa unità nelle moderne soluzioni DX11:
Test sintetici: FutureMark 3DMark11–>3DMark11 è il penultimo nato di Futuremark. Finalmente, dopo una lunga attesa, è possibile testare le più recenti VGA in ambiente DX11 con la qualità del più rinomato benchmark. Il 3DMark11 consiste in quattro test grafici che fanno uso intensivo di Tessellation (particolare tecnologia introdotta con le DirectX11), un Physics Test esclusivamente dedicato alla CPU ed un Combined Test che mette sotto torchio allo stesso tempo il comparto grafico ed il processore:
Test sintetici: FutureMark 3DMark–> In concomitanza con il lancio di Windows 8, Futuremark ha lanciato il nuovo 3DMark, chiamato appunto 3DMark, senza alcun numero riconoscitivo, a segnare la forte integrazione che ha con qualsiasi sistema, da Android a Windows a iOS a OSX, dando per la prima volta la possibilità di paragonare le prestazioni su smartphone e PC fisso in maniera schematizzata e professionale. I test di cui si compone sono tre:
- Ice Storm, basato su DirectX9, indicato per computer non recentissimi e sistemi mobile. Con l’ultima patch, è possibile eseguire la versione Extreme, con cui stressare in risoluzione FullHD i tablet ad alta risoluzione/potenza di calcolo.
- Cloud Gate, basato su DirectX10, indicato per computer portatili di recente generazione e GPU anche datate.
- Fire Strike, basato su DirectX11.1, indicato per sistemi desktop ad alte prestazioni. Il benchmark è eseguibile anche in modalità Extreme, che consente di sfruttare a pieno e sforzare i sistemi multi-GPU di fascia alta.
Test sintetici: 3DMark Fire Strike Extreme–> Menzione a parte merita il benchmark Fire Strike Extreme, parte dell’ultima suite di test della Futuremark, il 3DMark (sì, quello senza numero), i cui requisiti sono davvero estremi e sconsigliati ai deboli di cuore. Tessellazione spinta all’inverosimile, effetti particellari in ogniddove, scintille, nuvole di fumo, fiamme, combattimenti, il tutto in FullHD, ma con un impatto davvero tremendo sulle prestazioni. Poche schede riescono a visualizzare in fluidità un macigno del genere:
Test sintetici: AllBenchmark CatZilla–> Definito da molti come l’Aquamark della next-gen, CatZilla nasce ad opera di una software house semi-sconosciuta (AllBenchmark, divisione software dell’azienda AllPlayer) intenta a portare una ventata di novità nel mondo del testing delle schede video. Il motore grafico proprietario mette in ginocchio tutte le ultime schede in commercio, grazie a gatti giganti (i CatZilla), esplosioni, effetti particellari e musica drum’n’bass che va di pari passo con le scene renderizzate. Il benchmark si avvale delle ultime tecnologie appartenenti alle librerie grafiche DirectX11 e OpenGL 4.2, con quattro diversi preset suddivisi in base alla risoluzione e alla qualità grafica. Noi eseguiremo i tre benchmark:
- 720p
- 1080p
- 1440p
Test sui giochi: Thief (2014)–>Nato come reboot di Thief: The dark project, gioco che nel 1998 rivoluzionò le avventure grafiche introducendo luci ed ombre come elementi attivi del gameplay, Thief (2014) è un gioco sviluppato da Eidos Montreal e Square Enix, aziende che l’anno scorso hanno lavorato già ad un altro reboot, anch’esso utilizzato nella nostra suite di test: Tomb Raider. La storia ci catapulta nei panni di Garrett, un abilissimo e ricercatissimo ladro, alle prese con una nuova “setta” che si avvale di poteri magici di potenza incommensurabili, e nel frattempo cercando di salvare una donna molto importante: sua figlia. Tralasciando il filone logico del gioco, esso si avvale dal punto di vista tecnico di un motore grafico che supporta le DirectX11.1, con il feature level di tipo 11_2, avvalendosi del supporto a Mantle, SSAO, Contact Hardening Shadows e Diffusion DOF. Al pari di Bioshock Infinite, viene anche fornito il supporto all’FXAA, antialiasing ad approssimazione rapida, ottimizzato su Shader Model di 5° generazione. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Bioshock Infinite–>
Test sintetici: FutureMark 3DMark–> In concomitanza con il lancio di Windows 8, Futuremark ha lanciato il nuovo 3DMark, chiamato appunto 3DMark, senza alcun numero riconoscitivo, a segnare la forte integrazione che ha con qualsiasi sistema, da Android a Windows a iOS a OSX, dando per la prima volta la possibilità di paragonare le prestazioni su smartphone e PC fisso in maniera schematizzata e professionale. I test di cui si compone sono tre:
- Ice Storm, basato su DirectX9, indicato per computer non recentissimi e sistemi mobile. Con l’ultima patch, è possibile eseguire la versione Extreme, con cui stressare in risoluzione FullHD i tablet ad alta risoluzione/potenza di calcolo.
- Cloud Gate, basato su DirectX10, indicato per computer portatili di recente generazione e GPU anche datate.
- Fire Strike, basato su DirectX11.1, indicato per sistemi desktop ad alte prestazioni. Il benchmark è eseguibile anche in modalità Extreme, che consente di sfruttare a pieno e sforzare i sistemi multi-GPU di fascia alta.
Test sintetici: 3DMark Fire Strike Extreme–> Menzione a parte merita il benchmark Fire Strike Extreme, parte dell’ultima suite di test della Futuremark, il 3DMark (sì, quello senza numero), i cui requisiti sono davvero estremi e sconsigliati ai deboli di cuore. Tessellazione spinta all’inverosimile, effetti particellari in ogniddove, scintille, nuvole di fumo, fiamme, combattimenti, il tutto in FullHD, ma con un impatto davvero tremendo sulle prestazioni. Poche schede riescono a visualizzare in fluidità un macigno del genere:
Test sintetici: AllBenchmark CatZilla–> Definito da molti come l’Aquamark della next-gen, CatZilla nasce ad opera di una software house semi-sconosciuta (AllBenchmark, divisione software dell’azienda AllPlayer) intenta a portare una ventata di novità nel mondo del testing delle schede video. Il motore grafico proprietario mette in ginocchio tutte le ultime schede in commercio, grazie a gatti giganti (i CatZilla), esplosioni, effetti particellari e musica drum’n’bass che va di pari passo con le scene renderizzate. Il benchmark si avvale delle ultime tecnologie appartenenti alle librerie grafiche DirectX11 e OpenGL 4.2, con quattro diversi preset suddivisi in base alla risoluzione e alla qualità grafica. Noi eseguiremo i tre benchmark:
- 720p
- 1080p
- 1440p
Test sui giochi: Thief (2014)–>Nato come reboot di Thief: The dark project, gioco che nel 1998 rivoluzionò le avventure grafiche introducendo luci ed ombre come elementi attivi del gameplay, Thief (2014) è un gioco sviluppato da Eidos Montreal e Square Enix, aziende che l’anno scorso hanno lavorato già ad un altro reboot, anch’esso utilizzato nella nostra suite di test: Tomb Raider. La storia ci catapulta nei panni di Garrett, un abilissimo e ricercatissimo ladro, alle prese con una nuova “setta” che si avvale di poteri magici di potenza incommensurabili, e nel frattempo cercando di salvare una donna molto importante: sua figlia. Tralasciando il filone logico del gioco, esso si avvale dal punto di vista tecnico di un motore grafico che supporta le DirectX11.1, con il feature level di tipo 11_2, avvalendosi del supporto a Mantle, SSAO, Contact Hardening Shadows e Diffusion DOF. Al pari di Bioshock Infinite, viene anche fornito il supporto all’FXAA, antialiasing ad approssimazione rapida, ottimizzato su Shader Model di 5° generazione. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Bioshock Infinite–>
Test sintetici: AllBenchmark CatZilla–> Definito da molti come l’Aquamark della next-gen, CatZilla nasce ad opera di una software house semi-sconosciuta (AllBenchmark, divisione software dell’azienda AllPlayer) intenta a portare una ventata di novità nel mondo del testing delle schede video. Il motore grafico proprietario mette in ginocchio tutte le ultime schede in commercio, grazie a gatti giganti (i CatZilla), esplosioni, effetti particellari e musica drum’n’bass che va di pari passo con le scene renderizzate. Il benchmark si avvale delle ultime tecnologie appartenenti alle librerie grafiche DirectX11 e OpenGL 4.2, con quattro diversi preset suddivisi in base alla risoluzione e alla qualità grafica. Noi eseguiremo i tre benchmark:
- 720p
- 1080p
- 1440p
Test sui giochi: Thief (2014)–>Nato come reboot di Thief: The dark project, gioco che nel 1998 rivoluzionò le avventure grafiche introducendo luci ed ombre come elementi attivi del gameplay, Thief (2014) è un gioco sviluppato da Eidos Montreal e Square Enix, aziende che l’anno scorso hanno lavorato già ad un altro reboot, anch’esso utilizzato nella nostra suite di test: Tomb Raider. La storia ci catapulta nei panni di Garrett, un abilissimo e ricercatissimo ladro, alle prese con una nuova “setta” che si avvale di poteri magici di potenza incommensurabili, e nel frattempo cercando di salvare una donna molto importante: sua figlia. Tralasciando il filone logico del gioco, esso si avvale dal punto di vista tecnico di un motore grafico che supporta le DirectX11.1, con il feature level di tipo 11_2, avvalendosi del supporto a Mantle, SSAO, Contact Hardening Shadows e Diffusion DOF. Al pari di Bioshock Infinite, viene anche fornito il supporto all’FXAA, antialiasing ad approssimazione rapida, ottimizzato su Shader Model di 5° generazione. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Bioshock Infinite–>
Test sui giochi: Bioshock Infinite–>
Continuiamo con Bioshock Infinite, che ci mette nei panni di Booker DeWitt, un investigatore privato, un tempo agente Pinkerton, incaricato di ritrovare una ragazza, Elizabeth, tenuta prigioniera a Columbia, una fantomatica città sospesa nei cieli, dove le modifiche genetiche sono considerate veri e propri beni di lusso. Per la prima volta nella serie di Bioshock, il personaggio ha un volto, un nome ed una storia precedente al gioco, che verrà svelata con l’avanzare della partita. Il gioco supporta le API DirectX 11, con le quali supporta tecnologie quali: High Definition Ambient Occlusion, Contact Hardening Shadows e Diffusion Depth of Field. È implementato inoltre il supporto all’FXAA (anti-aliasing ad approssimazione rapida) ottimizzato per l’utilizzo su SM 5.0. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Batman: Arkham Origins–>Chiunque sia appassionato di comics o fumetti, non può non conoscere Bruce Wayne, alias Batman, che ha visto prendere negli ultimi 3 anni la trilogia di Arkham, dapprima in un manicomio, poi al centro di Gotham City, per poi far capolino alle origini, con il terzo capitolo che fa da sequel a tutta la serie. In Batman: Arkham Origins, il cavaliere oscuro è più buio di quanto ci si possa aspettare. Un Bruce Wayne sfrontato, sicuro (troppo) di sé e altezzoso come non ce lo saremmo mai immaginati: il cavaliere oscuro, ancora più oscuro. Tecnicamente parlando, insieme ad Assassin’s Creed IV: Black Flag, è l’ultimo gioco NVIDIA in quanto a tecnologie implementate e supporto al programma NVIDIA – The Way It’s Meant To Be Played, con il supporto a HBAO+, PhysX, Apex e FXAA ad impatto prestazionale ridotto.
Test sui giochi: Metro Last Light–> Dopo l’incredibile successo di Metro 2033, ecco che quest’anno ha fatto capolino sugli schermi dei nostri PC il successore, Metro Last Light, basato sul romanzo Metro 2034 di Dmitry Glukhovsky, che vede il mondo alle prese con i postumi di una terza guerra mondiale atomica, con tutto ciò che ne consegue: la popolazione ancora in vita in Russia si è trasferita nella famigerata metropolitana russa, dotata di 298 km di binari e tunnel sotto Mosca. Ancora una volta, il giocatore rivestirà i panni di Artyom, per impedire una guerra civile che potrebbe portare alla fine il genere umano. Tecnicamente parlando, il gioco è incredibilmente pesante, sia per poligoni a schermo che per requisiti, facendo uso di tutte le tecnologie introdotte dalle DirectX11: Depth of Field, HDAO, Tessellation e real-time Motion Blur. Il gioco è ottimizzato per schede video NVIDIA, dato il supporto all’NVIDIA PhysX e in quanto parte del programma NVIDIA – The Way It’s Meant To Be Played.
Test sui giochi: Tomb Raider (2013)–> Lara Croft. Chiunque abbia un minimo di conoscenza videoludica sa chi si nasconde dietro questo nome: la formosa cacciatrice di tesori intorno alla quale è incentrata la serie Tomb Raider. Nel capitolo che ha visto la luce quest’anno, viene effettuato un vero e proprio fast backward, approfittando di un “reboot” della serie per mostrare al giocatore una Lara Croft appena laureata e alle prese con la sua prima avventura. Ovviamente, le forme (e sì, anche l’avventura) non mancano. Il gioco supporta le DirectX11.1, con il feature level di tipo 11_1, le cui istruzioni vengono utilizzate dal TressFX, tecnologia open source che permette di renderizzare i capelli in maniera più realistica, e se supportata dall’hardware, senza un impatto consistente sulle prestazioni. Il motore grafico utilizzato è proprietario di Crystal Dynamics, e consente di scalare discretamente su macchine di potenza diversa senza influire troppo negativamente sull’aspetto delle texture. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test: overclock ed overvolt–>Abbiamo poi provveduto, come da prassi, ad overclockare la scheda, e grazie all’ausilio del dissipatore Tri-X abbiamo raggiunto una frequenza di 1200 MHz sulla GPU e di 1500 MHz sulle memorie GDDR5. Il risultato? Un aumento di oltre il 10%:
Test sui giochi: Tomb Raider (2013)–> Lara Croft. Chiunque abbia un minimo di conoscenza videoludica sa chi si nasconde dietro questo nome: la formosa cacciatrice di tesori intorno alla quale è incentrata la serie Tomb Raider. Nel capitolo che ha visto la luce quest’anno, viene effettuato un vero e proprio fast backward, approfittando di un “reboot” della serie per mostrare al giocatore una Lara Croft appena laureata e alle prese con la sua prima avventura. Ovviamente, le forme (e sì, anche l’avventura) non mancano. Il gioco supporta le DirectX11.1, con il feature level di tipo 11_1, le cui istruzioni vengono utilizzate dal TressFX, tecnologia open source che permette di renderizzare i capelli in maniera più realistica, e se supportata dall’hardware, senza un impatto consistente sulle prestazioni. Il motore grafico utilizzato è proprietario di Crystal Dynamics, e consente di scalare discretamente su macchine di potenza diversa senza influire troppo negativamente sull’aspetto delle texture. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test: overclock ed overvolt–>Abbiamo poi provveduto, come da prassi, ad overclockare la scheda, e grazie all’ausilio del dissipatore Tri-X abbiamo raggiunto una frequenza di 1200 MHz sulla GPU e di 1500 MHz sulle memorie GDDR5. Il risultato? Un aumento di oltre il 10%:
La nostra configurazione ha fatto i capricci durante i test, portandoci ad un calo prestazionale nei test Physics del 3DMark, ciò nonostante i Graphics Score segnano valori decisamente maggiori; la scheda madre sta lentamente morendo, motivo per il quale abbiamo provveduto ad acquistarne una nuova che è in dirittura di arrivo.
Considerazioni finali–> [conclusione]
[titolo]Design e qualità costruttiva[/titolo]
Il dissipatore Tri-X è davvero efficiente, facendo segnare temperature inferiori di più di 20 °C e una silenziosità operativa da primato. Il PCB rimane quello reference, ciò nonostante i consumi sono leggermente inferiori (per via delle temperature inferiori) e in definitiva la scheda fornisce un senso di solidità maggiore. Unica cosa: la scheda è gigante.
[voto=”10″]
[/conclusione]
[conclusione]
[titolo]Prestazioni e overclock[/titolo]
Configurandosi come la GPU AMD più veloce finora testata da noi (in attesa della R9 295X2), la Sapphire Radeon R9 290X Tri-X OC è una belva che divora frame dopo frame, facendo segnare la fluidità assoluta (60 FPS) in molti dei giochi da noi testati, insieme a punteggi altissimi in tutti i benchmark utilizzati. In overclock, la scheda si comporta davvero molto bene, facendo segnare temperature contenute anche sulla sezione di alimentazione durante lo stesso overclock. Una belva che già ad aria riesce a dare il meglio di sé.
[voto=”10″]
[/conclusione]
[conclusione]
[titolo]Compatibilità[/titolo]
La scheda dispone di connessione PCI-E 16x di tipo 3.0, retrocompatibile con lo standard 2.0 (non è assicurata la compatibilità su schede madri con connessione PCI-E 16x di prima generazione), mentre da lato alimentatore è suggerito dall’azienda un alimentatore da almeno 600W. Noi di ReHWolution, però, possiamo garantirvi che basta un buon alimentatore da 500W per assicurarvi la piena stabilità operativa. Qualora voleste configurare un sistema multiGPU, l’alimentatore consigliato è di 800W, in modo da avere un buon margine in overclock.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Prezzo[/titolo]
La potenza in gioco è davvero elevata, e la sola soluzione di raffreddamento utilizzata dovrebbe far lievitare enormemente il prezzo della scheda. Invece, la Sapphire Radeon R9 290X Tri-X OC viene presentata allo stesso prezzo della scheda reference, 499€, risultando quindi un Must Have qualora cercaste una R9 290X custom. Vi invitiamo ad acquistare presso i rivenditori ufficiali Sapphire, in quanto pur presentando un prezzo superiore ai VAT Player (coloro che evadono l’iva tramite meccanismi al limite della legalità), forniscono supporto post-vendita/RMA, cosa che suddetti rivenditori non ufficiali non garantiscono.
[voto=”10″]
[/conclusione]
La scheda è un concentrato di tecnologia e prestazioni, il tutto ad un prezzo non certo ridotto ma comunque ben “pesato” rispetto a quanto offerto. Con piacere, diamo il nostro massimo riconoscimento, il nostro Hardware Diamond Score, insieme all’award Editor’s Choice.
Ringraziamo Sapphire Technology Italia per averci fornito il sample oggi recensito.
Un saluto dal vostro Hades, e buon weekend!
La recensione
Sapphire Radeon R9 290X Tri-X OC 4GB
La Sapphire R9 290X Tri-X OC 4GB è la Hawaii XT che avremmo dovuto vedere al lancio della nuova generazione di schede video AMD: gelida, potente e silenziosa, se volete una GPU di fascia alta "rossa" è la scelta obbligata.
Pro
- La GPU AMD più veloce da noi testata
- Sistema di raffreddamento semplice ed efficiente
- Costa quanto la reference
- Supporto alle API Mantle
Contro
- Nulla da segnalare
Discussione su post