Introduzione: MSI e Maxwell–>
Nelle scorse settimane vi abbiamo mostrato come si comportava la GTX970 Gaming 4G di MSI nei titoli e nei benchmark da noi utilizzati: quest’oggi, andremo ad analizzare una scheda neonata nella lineup e di MSI e di NVIDIA.
Come avrete inteso dal titolo, stiamo parlando della MSI GeForce GTX960 Gaming 2G. Non mi resta che lasciarvi al resto della recensione, buona lettura!
MSI GeForce GTX 960 Gaming 2G: specifiche tecniche–>
Di seguito, la tabella delle specifiche tecniche della scheda video, ulteriori informazioni sono consultabili in versione integrale sul sito ufficiale del produttore (MSI):
La scheda è equipaggiata con la GPU GTX960, basata sull’architettura Maxwell (descritta nelle prossime pagine), il tutto abbinato a 2 GB di memoria GDDR5 su bus a 128bit e a un PCB e un sistema di raffreddamento totalmente personalizzati. Quest’ultimo, in particolare, è stato già visto nelle versioni precedenti in alcune delle nostre review, e con la serie 900 arriva oggi alla 5° incarnazione: stiamo parlando del Twin Frozr V, che oltre a vedere un cambiamento nello shroud in plastica (simile alla serie Z97 Gaming e X99 Gaming) porta con sé due tecnologie innovative per le ventole: Zero Frozr e Hybrid Frozr.
Come lascia intuire il nome, Zero Frozr è una modalità passiva di dissipazione che attiva le ventole soltanto al superamento di una certa soglia di temperatura (60-65°C) e che lascia raffreddare la GPU fino alla soglia di 50°C, dove poi nuovamente vengono disattivate. La tecnologia Hybrid Frozr, invece, consente di gestire autonomamente le velocità di ognuna delle due ventole, consentendo, a detta di MSI, una rumorosità inferiore di circa 1.9 dB(A). Magari non è tanto, per alcuni di voi, ma per altri maniaci del silenzio (come me) sono quasi 2 dB(A) più vicini al silenzio assoluto. La GPU presenta clock di 1243 MHz, mentre la memoria video porta la stessa velocità del modello reference: 1753MHz.
L’alimentazione, inoltre, è affidata ad un singolo connettore PCI-E da 8 pin invece che a due da 6 pin: specifiche alla mano, è la stessa cosa, ma tecnicamente la tensione è più instabile. Per fortuna, la sezione di alimentazione non è quella progettata da NVIDIA, ma è totalmente personalizzata da MSI con condensatori SFC e Hi-c e fasi digitali. Le uscite video, a differenza della GTX970 del brand, ricalcano il design standard, riportando un singolo connettore DVI-I insieme a 3 porte DisplayPort ed una porta HDMI compatibile con lo standard 2.0.
Maxwell: l’architettura nei dettagli e GM204–>
Maxwell rappresenta il passo successivo nell’evoluzione dell’architettura Fermi di NVIDIA, un processo cominciato con Kepler e che prosegue la sua iterazione in questa generazione. Ciò significa che molte delle unità base sono praticamente le stesso, sebbene ognuna di esse abbia subito una revisione volta a ridurre l’assorbimento di corrente ottimizzando, allo stesso tempo, lo spazio occupato sul die e l’efficienza della tecnologia di Boosting.
Da tali parole, potreste facilmente intedere che NVIDIA si sia concentrata sui soli consumi e non sulle performance in sé, ma ciò è lontano dalla realtà. Migliorando l’efficienza on-die e abbassando i consumi e il calore generato, gli ingegneri si sono dati più headroom con cui lavorare. Prendiamo, come esempio, il chip di punta della serie GK100, ovvero il GK110, volto a muovere le GTX780Ti. Così come con il suo predecessore, NVIDIA era castrata da un TDP massimo di 250W, e ciò ha sostanzialmente costretto gli ingegneri a inserire quanti più elementi on-die mantenendo una frequenza ragionevole di funzionamento. Con l’introduzione di Maxwell nell’equazione, il tetto di 250W non cambia, mentre il vero cambiamento è il livello di performance che è possibile tirar fuori da suddetto limite del TDP.
In parole povere, il design evoluto di Maxwell ha come effetto di rilievo quello di portare un livello di performance per watt decisamente superiore in ogni segmento. Il GM204 e il precedente GM107 (alla base della serie GTX750) sono praticamente inizio e fine di quella che sarà un’iniziativa top-to-bottom. Prima di proseguire, va fatta menzione del fatto che il processo produttivo utilizzato da NVIDIA per Maxwell è stato quello a 28 nm. Con la nuova GPU, l’efficienza ha compiuto un enorme balzo in avanti, consentendo all’azienda di ottenere performance pari al GK110 con un chip più piccolo, meno affamato di corrente e soprattutto meno “bollente”. I produttori di GPU hanno sempre fatto affidamento sul cambio di processo produttivo per la diminuzione dei consumi e del calore generati, ma NVIDIA con questo passaggio “risparmia” la fatica e ottiene una maggiore efficienza col il solo cambio di architettura (tock) senza aspettare la riduzione della grandezza dei transistors (tick). Tale operazione mette sicuramente in dubbio la necessità di passare al seguente step nel processo produttivo, ma certamente non preclude l’utilizzo dei 20 nm o di nodi di grandezza inferiore in futuro, quando Maxwell acquisirà dimensioni maggiori. NVIDIA probabilmente pensa che non sia necessario il passaggio al nuovo processo produttivo (almeno per il momento) per ottenere comunque grandi risultati.
Così come con Kepler e Fermi, l’unità base di tutte le GPU Maxwell è lo Streaming Multiprocessor. Qui si fermano le similitudini con le precedenti generazioni, visto che gli SM di Maxwell hanno subito alcuni cambiamenti drastici.
Mentre ogni SMX di Kepler ospitava un blocco logico singolo che consisteva in 4 Ward Scheduler, 8 Dispatcher, un grande registro da 65k x 32 bit, 16 Texture Units e 192 CUDA cores, il design di Maxwell rompe queste “grandi” unità in elementi più piccoli, per una gestione semplificata e più lineare dei flussi dati. Mentre gli schedulers, i dispatchers e i registri rimangono gli stessi, essi vengono separati in 4 blocchi di elaborazione, ognuno contenente 32 CUDA cores e un Buffer per istruzioni integrato per un miglior indirizzamento dei dati. In aggiunta, le unità di load e storage sono ora associate a gruppi di 4 core piuttosto che di 6 come succedeva con Kepler, permettendo ad ogni SMM (l’unità base di Maxwell) di processare 32 thread per clock nonostante il numero di core sia drasticamente inferiore. Questo layout si assicura di distribuire uniformemente le risorse riducendo allo stesso tempo le latenze computazionali.
Il design dell’SMM è stato creato per ridurre la dimensione fisica di ogni SM, permettendo di utilizzare più unità in una singola GPU in maniera da prioritizzare i consumi. Tale traguardo è stato ottenuto riducendo il numero di CUDA cores da 192 a 128 e il numero di TU da 16 a 8 per SM. Comunque, tale “taglio” non influisce particolarmente sulle prestazioni in quanto, grazie al riarrangiamento delle unità di calcolo, ogni CUDA core ha una potenza di 1.35x superiore al passato, mentre le Texture Units hanno subito comunque notevoli miglioramenti. Per intenderci meglio, un SMM porta con sé il 90% delle prestazioni di un SMX, occupando però quasi la metà sul die.
L’SMM (Streaming Multiprocessor di Maxwell) utilizza la terza generazione del motore PolyMorph di NVIDIA, che include ancora una serie di funzioni fisse come un’unità tessellatrice dedicata e alcune pipeline dedicate alla sola “raccolta” dei vertex, il tutto abbinato ad una cache per istruzioni e a 96KB di memoria condivisa. Questi cambiamenti sono i responsabili dell’enorme incremento di throughput, in particolar modo con elaborazioni di tessellazione intensive. Questo rappresenta il maggior cambiamento dal GM107, fermo al PolyMorph Engine 2.0.
È ancora presente un discreto numero di risorse condivise, ma in questo caso sono state completamente ridisegnate. Ad esempio, ogni coppia di blocchi di elaborazione ha accesso a 24 KB di cache L1/Texture (per un totale di 64KB per ogni SMM) collegandosi a 64 CUDA cores. Questo è un incremento notevole rispetto a Kepler e a GM107.
Con i cambiamenti descritti finora, possiamo comprendere al meglio l’utilizzo delle nuove unità SMM nel GM204. In questa iterazione, la GTX980 riceve il trattamento “completo” con 16 SMM per un totale di 2048 CUDA cores, mentre la GTX970 presenta “solo” 13 SMM, per un totale di 1664 CUDA cores.
A basso livello, ci sono stati cambiamenti ancora più significativi. Ci sono ora 4 controller di memoria a 64 bit che aumentano drasticamente (nei dettagli, alla prossima pagina) l’efficienza, e questi sono collegati a 4 partizionamenti di ROP, ognuno dei quali contenente 16 ROP. Anch’esso rappresenta un incremento di non poco conto rispetto al design di Kepler e di GM107. Nel frattempo, la cache on-die di L2 è stata aumentata a ben 2048KB, a sua volta spezzata in 4 blocchi da 512 KB. Questo incremento sostanziale della cache on-chip si traduce in un minor numero di calls alla DRAM, riducendo il consumo di corrente ed eliminando in alcuni casi alcuni colli di bottiglia quando abbinati ai miglioramenti lato RAM di Maxwell. Così come con Fermi e Kepler, lo scaling con i blocchi di ROP, i controller di memoria e di cache L2 è effettuato in maniera lineare, pertanto eliminando un controller da 64 bit si taglierà automaticamente il numero di ROP e la quantità di cache L2 disponibile.
Maxwell: il nuovo caching della memoria e il nuovo motore video–>
Con l’aumento progressivo della risoluzione e le DX12 che promettono di migliorare la comunicazione tra CPU e GPU, la memoria onboard delle schede video inizierà ad assumere un ruolo fondamentale nelle prestazioni di gioco. Consci di ciò, i 4GB a 7 Gbps collegati ad un bus di 256 bit della GTX980 potrebbero sembrare un tantino “anemici” e tutt’altro che next-gen, ad un primo sguardo. Almeno sulla carta, questa soluzione offre meno banda passante rispetto al design utilizzato sulla 780Ti, ma c’è molta roba dietro le quinte che non è visibile né notabile ad occhio nudo.
Nella creazione del GM204, NVIDIA ha sapientemente rivisto il sottosistema di memoria piuttosto che aumentare le frequenze o allargare il bus di collegamento. Concentrarsi sui miglioramenti architetturali piuttosto che sulle performance grezze è stata una necessità dettata dal fatto che un bus a 384 o 512 bit avrebbe occupato un uno spazio maggiore sul die (vanificando i progressi ottenuti dal nuovo SMM), mentre sul fronte RAM non sono disponibili chip GDDR5 operanti a frequenze superiori ai 7Gbps.
Se da un lato la gerarchia della memoria e del caching non è cambiata rispetto al GK110, gli ingegneri NVIDIA hanno implementato una serie di features che permettono al GM204 di utilizzare la banda a disposizione in maniera più efficiente. Questi miglioramenti partono da un nuovo algoritmo di compressione senza perdita di terza generazione, con i dati che vengono elaborati fuori dalla memoria. Ulteriori “risparmi” sulla banda passante sono ottenuti quando viene avviata la seconda parte dell’elaborazione dati, come quando essi vengono caricati nelle Texture Units e subito reindirizzati nel buffer di memoria già fortemente compressi.
In modo da aumentare l’output di banda passante e l’efficacia del sottosistema di memoria, NVIDIA in realtà utilizza più layer di compressione. Per sommi capi, questo approccio funziona bene in alcuni casi (come sulle texture a cui viene applicato il filtro AA) ma i tradizionali metodi di compressione fanno lottano per gestire istanze di AA ridotto o non presente. Qui è dove la compressione delta cromatica entra in azione. Dapprima introdotta con Fermi, la DCC (Delta Color Compression) calcola rapidamente la differenza tra ogni pixel in un blocco dati e il suo “vicino” adiacente, cercando poi di comprimere i valori insieme per formare un data packet più compatto possibile. L’efficacia di questo metodo è determinato largamente dalle possibilità di calcolo integrate nell’algoritmo, difatti in questa terza incarnazione NVIDIA ha aggiunto più “scelte” di compressione delta. Ciò porta ad una quantità minore di dati etichettati come “incomprimibili”, responsabili dell’occupazione della banda passante e dei colli di bottiglia in essa.
Insieme ai miglioramenti nell’algoritmo di compressione, sono stati migliorati il caching nella GPU e il generico accesso ai dati. Come risultato, il GM204 è capace di ridurre il numero di byte fetchati dalla memoria locale, riducendo automaticamente l’overhead della banda passante.
In parole povere, NVIDIA afferma di avere un miglioramento dell’efficienza pari al 25% se paragonata alla tecnologia utilizzata sull’equivalente basata su Kepler (GTX680), portando Maxwell ad avere una banda “effettiva” di quasi 10Gbps in alcune situazioni. Tale fenomeno, è comunque da verificare utilizzando la scheda alle alte risoluzioni, dove vengono penalizzate le schede video dotate di bandwidth ridotto.
Parlando del Video Engine, l’architettura Kepler di NVIDIA aveva un VE ed un encoder NVENC particolarmente robusti, come evidenziato dalla sua capacità di preprocessare e mandare in streaming contenuti ad alta definizione all’NVIDIA Shield. Comunque, in un mercato dove le parole “4K” e “G-SYNC” la fanno da padrona, erano necessari degli accorgimenti per farsi trovare preparati ai prossimi steps di risoluzione, in modo da rendere Maxwell compatibile con risoluzioni che, di fatto, non sono ancora state introdotte ufficialmente ma che presto vedranno l’ingresso sul mercato.
Una delle aggiunte principali al nuovo motore video è la capacità di erogare un output di banda elevatissimo: è garantito il supporto completo all’imminente 5K (5120×3200) a 60 Hz, con fino a 4 display 4K in MST pilotati da una singola scheda. Alternativamente, queste capacità vengono trasposte al supporto a pannelli 4K a 120 e 144 Hz. In aggiunta, i prodotti basati su GM204 sono i primi a disporre di supporto nativo all’HDMI 2.0, che porta con sé la capacità di trasportare un segnale 2160p60 con audio in HD. Anche il protocollo eDP è stato implementato in Maxwell.
In modo da creare uno standard di connettività compatibile con tali formati, la serie GTX900 utilizza una singola porta DVI-I Dual Link insieme a tre connettori DisplayPort 1.2 ed una porta HDMI 2.0. Insieme al motore video maggiorato, l’NVENC supporta ora la codifica in H.265, mentre l’encoding in H.264 è ora 2.5 volte più veloce di Kepler. Ciò significa non solo la possibilità di catturare tramite ShadowPlay a 4k60, ma anche un’avanzata gestione dell’home streaming. Con il codec H.265, un utente può tecnicamente mandare in streaming un segnale 4K dal proprio PC da gioco ad uno Shield di prossima generazione, per poi trasferire il segnale su una televisione ad alta definizione (4K). In alternativa, l’efficienza di encoding potrebbe anche beneficiare coloro che utilizzano la tecnologia NVIDIA GameStream riducendo drasticamente la lag generata dalla trasmissione.
Maxwell: DSR e DirectX 12–>
Con i 4K al centro dell’attenzione ormai da diversi mesi, i videogiocatori che non possono permettersi di spendere una fortuna per uno schermo potrebbero sentiti abbandonati. Comunque, alcuni utenti hanno invece preferito scegliere una strada diversa: il downsampling, ovvero una modalità tramite la quale è possibile tirare fuori dal proprio monitor la miglior qualità grafica pur mantenendo la risoluzione costante. In uno scenario di downsampling, il processore grafico renderizza una scena ad una risoluzione maggiore di quella dello schermo, per poi scalarla fino a raggiungere suddetta risoluzione nativa. In alcune circostanze, questo metodo consente di avere una qualità grafica decisamente superiore, a discapito però di possibili artefatti e, in generale, ad una non facilissima configurazione. Ecco che quindi interviene il Dynamic Super Resolution (DSR) che, tramite GeForce Experience e pannello di controllo driver di NVIDIA, consente di attivare rapidamente il downsampling. Esso applica inoltre un filtro Gaussiano a 13 stadi durante il processo di conversione, eliminando o almeno riducendo gli artefatti a schermo.
Ci sono due impostazioni differenti per il DSR: 2x e 4x, ognuna delle quali rappresenta un diverso livello di downsampling. Ad esempio, impostare 2x con un monitor 1080p porterà le immagini renderizzate ad una risoluzione di 2715×1527 pixels (ovvero il doppio) mentre 4x porterà il rendering in background in 4K. La stessa cosa viene applicata su monitor 1440p, dove spingere tale impostazione a 4x significa portare la GPU ad elaborare le scene di gioco ad un mastodontico valore di 5k (5120×3200 pixels).
Considerando tale possibilità, la possibilità di migliorare la qualità delle immagini tramite un semplice click potrebbe tentare molti, ma ovviamente ci sono conseguenze negative da considerare. Innanzitutto, anche se la risoluzione utilizzata è a un dato valore, la scheda grafica elaborerà rispettivamente 2 o 4 volte tale quantità di pixels in background.
In alcune situazioni, ciò potrebbe ridurre drasticamente le prestazioni, in particolar modo su soluzioni più budget-oriented. In aggiunta, si sarà comunque limitati dalla quantità reale di pixel presenti su schermo.
Ovviamente, col passare del tempo e con il maturare di Maxwell (e come lecito aspettarsi la sua iterazione successiva, Pascal) la tecnologia DSR consentirà un approccio più “spensierato” alle risoluzioni elevate, portando in generale un maggiore livello di qualità grafica alla maggior parte degli utenti. Insomma, se avete una GPU compatibile, vale la pena provare.
Maxwell è la prima architettura GPU disegnata per essere pienamente compatibile con le DirectX 12. Potrebbe suonare strano visto che Microsoft e NVIDIA hanno annunciato che le esistenti schede DX11 (Fermi, Kepler e Maxwell) sarebbero state compatibili con tali API ma cosa non è stato rivelato è il reale grado di compatibilità. Recentemente, sono apparsi più dettagli riguardo alla cosa.
Mentre uno dei principali obiettivi delle DirectX12 è di affinare lo strato di middleware che circonda la comunicazione tra CPU e GPU, esso non è l’unico scopo delle nuove API. Alcune delle nuove features sono ancora sotto NDA, ma ciò che è noto è che sia il Conservative Raster che il Raster Ordered Views verrà supportato solo sulla serie GM204 di NVIDIA e non sarà compatibile con nessun’altra GPU basata su DX11 (che include tutto ciò che precede il GM200, inclusi i prodotti basati su GM1xx). Parleremo di tali features non appena si avranno più dettagli a riguardo.
Galleria fotografica: MSI GeForce GTX 960 Gaming 2G–>
Di seguito, una galleria di foto della scheda video e del bundle:
Configurazione di prova e metodologia di test–>
La configurazione utilizzata per i test è la seguente:
CPU | Intel Core i7 5960x |
---|---|
Heatsink | Swiftech H240-X AIO Liquid Cooling |
Mainboard | ASUS ROG Rampage V Extreme |
RAM | Corsair Vengeance LPX DDR4 2666MHz 16GB |
VGA | MSI GeForce GTX 960 Gaming 2G |
Sound Card | Creative SoundBlaster Omni 5.1 e Creative T30 Wireless Speakers |
HDD/SSD |
|
PSU | Corsair AX1500i Digital PSU |
Case | Corsair Graphite 780T Arctic White |
Monitor | Acer CB280HK 4K Display |
Keyboard | Corsair Gaming K70 RGB |
Mouse | Corsair Gaming Sabre RGB Laser |
OS | Windows 8.1 Pro x64 |
Ecco la suite di benchmark (e giochi) con cui testeremo la scheda video:
- Unigine Heaven Benchmark 4.0
- Futuremark 3DMark Fire Strike
- Futuremark 3DMark Fire Strike Extreme
- Futuremark 3DMark Fire Strike Ultra
- Thief (2014) (Benchmark integrato)
- Bioshock Infinite (Benchmark integrato)
- Metro Last Light (Benchmark integrato)
- Terra di mezzo: Ombra di Mordor (Benchmark integrato)
Dove disponibile la scelta della risoluzione, i test sono stati eseguiti ai seguenti valori. Laddove si trattasse di un benchmark, le modalità predefinite sono state utilizzate:
- 1680×1050, AA x2
- 1920×1080, AA x4
- 2560×1440, no AA
Per i test in 4K, eseguiremo Shadow of Mordor con AA disattivato e tutte le impostazioni su Ultra, in modo da avere un indice prestazionale delle GPU analizzate. Il titolo ha dimostrato di girare equivalentemente su schede di entrambi i produttori senza favorire né AMD né NVIDIA, nonostante aderisca al programma TWIMTBP di NVIDIA.
Qui di seguito le VGA testate con la nuova piattaforma:
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 4GB (Hawaii XT, 1080/1410) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 8GB (Hawaii XT, 1030/1375) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 4GB (CrossFireX) (Hawaii XT, 1080/1410, 2 GPU) – Recensione
- Sapphire AMD Radeon R9 290X Tri-X Vapor-X 4GB (CrossFireX) (Hawaii XT, 1080/1410, 3 GPU) – Recensione
- MSI NVIDIA GeForce GTX960 Twin Frozr V Gaming 2GB (Maxwell GM-206-300, 1241/1753) – Recensione
- MSI NVIDIA GeForce GTX970 Twin Frozr V Gaming 4GB (Maxwell GM-204-200, 1140/1753) – Recensione
- ASUS NVIDIA GeForce GTX980 Strix OC 4GB (Maxwell GM-204-400, 1178/1753) – Recensione
- NVIDIA GeForce GTX980 (reference) (Maxwell GM204-400, 1127/1753) – Recensione
Test sintetici: Unigine Heaven–>
Heaven, prodotto da Unigine è stato il primo Benchmark DX11. Lo scopo principale è quello di mettere in risalto gli straordinari effetti della Tessellation. Difatti dai semplici modelli osservabili con tessellation disattivata, si arriva ad oggetti ricchi di profondità e sporgenze senza dover creare trame complesse. Il compito di arricchire il modello è lasciato all’unità tessellatrice, per cui si tratta di uno strumento indispensabile per valutare l’efficienza dei questa unità nelle moderne soluzioni DX11:
Test sintetici: FutureMark 3DMark11–>
3DMark11 è il penultimo nato di Futuremark. Finalmente, dopo una lunga attesa, è possibile testare le più recenti VGA in ambiente DX11 con la qualità del più rinomato benchmark. Il 3DMark11 consiste in quattro test grafici che fanno uso intensivo di Tessellation (particolare tecnologia introdotta con le DirectX11), un Physics Test esclusivamente dedicato alla CPU ed un Combined Test che mette sotto torchio allo stesso tempo il comparto grafico ed il processore:
Test sintetici: FutureMark 3DMark–>
In concomitanza con il lancio di Windows 8, Futuremark ha lanciato il nuovo 3DMark, chiamato appunto 3DMark, senza alcun numero riconoscitivo, a segnare la forte integrazione che ha con qualsiasi sistema, da Android a Windows a iOS a OSX, dando per la prima volta la possibilità di paragonare le prestazioni su smartphone e PC fisso in maniera schematizzata e professionale. Il benchmark dispone di svariati test, di cui utilizziamo i più intensivi per mettere alla prova le schede video. Tra questi, il più “blando” ma non per questo meno impegnativo è il Fire Strike, che spinge la tessellazione a livelli davvero elevati, e che “vanta” due versioni ancora più spinte: Extreme (con scene pre-renderizzate a 2560×1440) ed Ultra (scene pre-renderizzate a 3840×2160, ovvero 4K).
Test sintetici: 3DMark Fire Strike Extreme–>
Menzione a parte merita il benchmark Fire Strike Extreme, parte dell’ultima suite di test della Futuremark, il 3DMark (sì, quello senza numero), i cui requisiti sono davvero estremi e sconsigliati ai deboli di cuore. Tessellazione spinta all’inverosimile, effetti particellari in ogniddove, scintille, nuvole di fumo, fiamme, combattimenti, il tutto in FullHD, ma con un impatto davvero tremendo sulle prestazioni. Poche schede riescono a visualizzare in fluidità un macigno del genere:
Test sintetici: 3DMark Fire Strike Ultra–>
Come se non bastasse, recentemente Futuremark ha aggiornato la suite del suo ultimo benchmark con una versione spinta all’inverosimile del già affamato di risorse Fire Strike. Stiamo parlando del Fire Strike Ultra, benchmark ideato per testare sistemi multi-scheda di fascia altissima e le cui scene vengono pre-renderizzate in 4K. Sì, avete capito bene: Fire Strike Ultra è un benchmark così famelico di potenza che lanciarlo potrebbe fermare il tempo, attenzione:
Test sui giochi: Thief (2014)–>
Nato come reboot di Thief: The dark project, gioco che nel 1998 rivoluzionò le avventure grafiche introducendo luci ed ombre come elementi attivi del gameplay, Thief (2014) è un gioco sviluppato da Eidos Montreal e Square Enix, aziende che l’anno scorso hanno lavorato già ad un altro reboot, anch’esso utilizzato nella nostra suite di test: Tomb Raider. La storia ci catapulta nei panni di Garrett, un abilissimo e ricercatissimo ladro, alle prese con una nuova “setta” che si avvale di poteri magici di potenza incommensurabili, e nel frattempo cercando di salvare una donna molto importante: sua figlia. Tralasciando il filone logico del gioco, esso si avvale dal punto di vista tecnico di un motore grafico che supporta le DirectX11.1, con il feature level di tipo 11_2, avvalendosi del supporto a Mantle, SSAO, Contact Hardening Shadows e Diffusion DOF. Al pari di Bioshock Infinite, viene anche fornito il supporto all’FXAA, antialiasing ad approssimazione rapida, ottimizzato su Shader Model di 5° generazione. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Bioshock Infinite–>
Continuiamo con Bioshock Infinite, che ci mette nei panni di Booker DeWitt, un investigatore privato, un tempo agente Pinkerton, incaricato di ritrovare una ragazza, Elizabeth, tenuta prigioniera a Columbia, una fantomatica città sospesa nei cieli, dove le modifiche genetiche sono considerate veri e propri beni di lusso. Per la prima volta nella serie di Bioshock, il personaggio ha un volto, un nome ed una storia precedente al gioco, che verrà svelata con l’avanzare della partita. Il gioco supporta le API DirectX 11, con le quali supporta tecnologie quali: High Definition Ambient Occlusion, Contact Hardening Shadows e Diffusion Depth of Field. È implementato inoltre il supporto all’FXAA (anti-aliasing ad approssimazione rapida) ottimizzato per l’utilizzo su SM 5.0. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Metro Last Light–>
Dopo l’incredibile successo di Metro 2033, ecco che fa capolino sugli schermi dei nostri PC il suo successore, Metro Last Light, basato sul romanzo Metro 2034 di Dmitry Glukhovsky, che vede il mondo alle prese con i postumi di una terza guerra mondiale atomica, con tutto ciò che ne consegue: la popolazione ancora in vita in Russia si è trasferita nella famigerata metropolitana russa, dotata di 298 km di binari e tunnel sotto Mosca. Ancora una volta, il giocatore rivestirà i panni di Artyom, per impedire una guerra civile che potrebbe portare alla fine il genere umano. Tecnicamente parlando, il gioco è incredibilmente pesante, sia per poligoni a schermo che per requisiti, facendo uso di tutte le tecnologie introdotte dalle DirectX11: Depth of Field, HDAO, Tessellation e real-time Motion Blur. Il gioco è ottimizzato per schede video NVIDIA, dato il supporto all’NVIDIA PhysX e in quanto parte del programma NVIDIA – The Way It’s Meant To Be Played.
Test sui giochi: Tomb Raider (2013)–>
Chi è appassionato della saga di J.R.R. Tolkien sa che, fino a Settembre 2014, non esisteva un gioco degno di tal nome che narrasse le vicende della Terra di mezzo. Grazie a Monolith e ai Warner Studios, però, ora la collana fantasy più famosa del globo terracqueo vanta un gioco tripla A, forte di una trama travolgente, una grafica sul filo del fotorealismo ed un sistema di combattimento che sembra l’evoluzione del Free Form Fighting System visto in Prince of Persia: Spirito Guerriero. Il risultato? Un titolo must-have, il cui motore grafico si rifa a quello utilizzato da Batman: Arkham Origins, titolo che sostituisce nella nostra suite di benchmarks. Il gioco è ottimizzato per schede video NVIDIA, dato il supporto all’HBAO, all’SMAA e più in generale a tutti i GameWorks dell’azienda. Il gioco, soprattutto alle alte risoluzioni e con i filtri al massimo, richiede un quantitativo di memoria video non indifferente, e pertanto risulta pienamente indicato qualora voleste mettere alla prova schede video con un quantitativo VRAM maggiore:
Test in 4K e overclock–>
Il gioco più esoso tra quelli che eseguiamo nella nostra suite di benchmark è Shadow of Mordor, che fa piazza pulita di ogni risorsa disponibile presente sul PC. Per questo motivo, lo utilizzeremo come indice prestazionale nei test in 4K.
È la prima VGA che testiamo in 4K, con un titolo che tra l’altro fa dei requisiti di RAM video uno dei suoi punti deboli, pertanto non c’è da spaventarsi se la GTX960 Gaming 2G di MSI si comporta “male” in un titolo del genere. Nelle prossime settimane popoleremo i grafici con tutte le VGA che analizzeremo.
In overclock, il discorso è diverso. Se in 4K la scheda delude un po’, quando si tratta di mettere mano agli sliders di MSI Afterburner, essa regala soddisfazioni enormi. Grazie al programma della stessa azienda, abbiamo incrementato enormemente le frequenze di funzionamento, passando dai 1241/1753 di etichetta a ben 1584MHz/2001MHz (il valore della GPU è da intendersi a pieno regime, ovvero col Boost che subentra ad innalzare ulteriormente le frequenze). Da tale risultato, abbiamo ottenuto il seguente risultato nel 3DMark Fire Strike:
Un punteggio che vede un aumento pressoché lineare rispetto all’incremento di frequenza, un gran bel risultato considerando che la scheda, magari con qualche piccola modifica, può puntare a superare i 1600MHz ad aria.
Considerazioni finali–> [conclusione]
[titolo]Design e qualità costruttiva[/titolo]
Anche in questo caso (e perdonate anche stavolta la mancanza di finezza) il design è davvero fighissimo: viene ripreso lo stesso “layout” delle mainboard gaming dell’azienda, con il dragone bianco su tema rosso e nero. Aggressiva, ma soprattutto silenziosissima: anche al 100%, la GTX960 Gaming di MSI è sopportabilissima, dando all’utente la possibilità di overclockarla in tutta tranquillità. Il singolo connettore a 8 pin PCI-E consente un maggior ordine nel case, pregiudicando, seppur in minima parte visti i consumi ridotti, la stabilità delle tensioni in entrata rispetto ad una soluzione a doppio connettore.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Prestazioni e overclock[/titolo]
Le prestazioni forse sono leggermente sotto le aspettative, ma la causa è il fatto che la distanza di potenza tra la 960 e la 970 è di circa il 60%: ciò lascia intuire che NVIDIA presto o tardi avrà modo di riempire questo vuoto con una 960 Ti. In attesa di ciò, la GTX960 sembra un’ottima scheda, pensata per il gaming in FullHD con un costo particolarmente ridotto. In overclock, la scheda regala parecchie soddisfazioni, avvicinandosi alla GTX970 ma consumando praticamente la stessa quantità di corrente.
[voto=”8″]
[/conclusione]
[conclusione]
[titolo]Compatibilità e consumi[/titolo]
Sul fattore compatibilità, la scheda dispone di connessione PCI-E 16x di tipo 3.0, retrocompatibile con lo standard 2.0 (non è assicurata la compatibilità su schede madri con connessione PCI-E 16x di prima generazione), mentre da lato alimentatore è suggerito dall’azienda un alimentatore da almeno 500W. Visti i parchi consumi rilevati dalla scheda (circa 120W) potrete optare anche per una soluzione leggermente inferiore, come ad esempio un PSU da 450W o persino 400W. Qualora voleste configurare le schede in SLI a 2 vie, suggeriamo l’utilizzo di un alimentatore da almeno 600W, in modo da non precludere nemmeno una briciola dell’overclock di cui è capace questa famiglia di GPU. Sfortunatamente, è possibile installare solo 2 schede uguali in parallelo, escludendo il supporto a 3-SLI e 4-SLI.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Prezzo[/titolo]
La MSI GTX960 Gaming 2G è disponibile presso i rivenditori ufficiali ad un prezzo di circa 225€. Il costo, rispetto alle prestazioni, sembra essere particolarmente vantaggioso, portando il rapporto qualità/prezzo ad un valore particolarmente elevato. Vi invitiamo ad acquistare presso i rivenditori ufficiali MSI, in quanto pur presentando un prezzo superiore ai VAT Player (coloro che evadono l’iva tramite meccanismi al limite della legalità), forniscono supporto post-vendita/RMA, cosa che suddetti rivenditori non ufficiali non garantiscono.
[voto=”9″]
[/conclusione]
Consci del lavoro svolto da MSI (ed implicitamente NVIDIA), diamo alla scheda video oggi recensita il nostro Hardware Gold Award, insieme al Best Overclocking Choice per le spiccate capacità in overclock di essa:
Ringraziamo MSI Italia ed NVIDIA Italia per il sample oggi recensito.
Seguiteci sui nostri social network:
Per oggi è tutto, un saluto da Hades, e alla prossima!
La recensione
MSI GeForce GTX 960 Gaming 2G
Una scheda video fatta per il gaming in FullHD: la MSI GTX960 Gaming 2G è un piccolo concentrato di potenza, che fa dell'overclock il suo asso nella manica.
Pro
- Overclock mostruoso
- Ideale per giocare in FullHD
- Design cattivissimo e che si stacca dai precedenti (decisamente più anonimi)
Contro
- Sopra il FullHD il framerate crolla inesorabilmente
- In overclock la scheda assorbe quanto la GTX970
Discussione su post