Il mercato delle GPU è più fervente che mai, con AMD e NVIDIA che negli ultimi mesi si sono scambiati colpi in ogni fascia di prezzo, a partire da quella mainstream fino ad arrivare alle soluzioni di punta. NVIDIA, volendo conquistare il mercato di giocatori che non hanno un budget elevato, ha creato un prodotto capace di soddisfare le esigenze di coloro che vogliono giocare ad una risoluzione decente senza spendere una fortuna.
Stiamo parlando della GTX950, che in questa recensione vedremo personalizzata secondo il design WindForce a due ventole di Gigabyte, azienda che da quasi 30 anni fornisce soluzioni interessanti per ogni segmento di mercato. Non mi resta che augurarvi buona lettura.
Ecco una tabella con le specifiche tecniche della scheda video (Gigabyte):
La GTX950 di NVIDIA è basata sulla stessa GPU della GTX960, il GM206 (Maxwell) nell’edizione 250 invece che 300, con un totale di 768 CUDA cores collegati a 2 GB di GDDR5 tramite un bus a 128 bit. La frequenza GPU è di 1102 MHz (con boost a 1279 MHz+), mentre le memorie hanno un clock di 1753 MHz (7012 MHz effettivi). La scheda presenta dimensioni incredibilmente compatte, con una lunghezza inferiore ai 20 cm. Anche i consumi sono estremamente parchi, con un assorbimento massimo di 100 W (da notare l’alimentatore consigliato di soli 350 W), e ciò permette di raggiungere discrete frequenze in overclock grazie al connettore da 6 pin PEG che porta la potenza a disposizione a circa 150W.
Il PCB, così come il sistema di dissipazione, ha un design proprietario, ed è raffreddato da una coppia di ventole da 80 mm che soffiano su un blocco alettato in alluminio.
Il pannello output dispone di due porte DVI (una DVI-I e una DVI-D), una porta HDMI 2.0 e una porta DisplayPort 1.2a.
Maxwell: l’architettura nei dettagli–>
Maxwell rappresenta il passo successivo nell’evoluzione dell’architettura Fermi di NVIDIA, un processo cominciato con Kepler e che prosegue la sua iterazione in questa generazione. Ciò significa che molte delle unità base sono praticamente le stesso, sebbene ognuna di esse abbia subito una revisione volta a ridurre l’assorbimento di corrente ottimizzando, allo stesso tempo, lo spazio occupato sul die e l’efficienza della tecnologia di Boosting.
Da tali parole, potreste facilmente intedere che NVIDIA si sia concentrata sui soli consumi e non sulle performance in sé, ma ciò è lontano dalla realtà. Migliorando l’efficienza on-die e abbassando i consumi e il calore generato, gli ingegneri si sono dati più headroom con cui lavorare. Prendiamo, come esempio, il chip di punta della serie GK100, ovvero il GK110, volto a muovere le GTX780Ti. Così come con il suo predecessore, NVIDIA era castrata da un TDP massimo di 250W, e ciò ha sostanzialmente costretto gli ingegneri a inserire quanti più elementi on-die mantenendo una frequenza ragionevole di funzionamento. Con l’introduzione di Maxwell nell’equazione, il tetto di 250W non cambia, mentre il vero cambiamento è il livello di performance che è possibile tirar fuori da suddetto limite del TDP.
In parole povere, il design evoluto di Maxwell ha come effetto di rilievo quello di portare un livello di performance per watt decisamente superiore in ogni segmento. Il GM204 e il precedente GM107 (alla base della serie GTX750) sono praticamente inizio e fine di quella che sarà un’iniziativa top-to-bottom. Prima di proseguire, va fatta menzione del fatto che il processo produttivo utilizzato da NVIDIA per Maxwell è stato quello a 28 nm. Con la nuova GPU, l’efficienza ha compiuto un enorme balzo in avanti, consentendo all’azienda di ottenere performance pari al GK110 con un chip più piccolo, meno affamato di corrente e soprattutto meno “bollente”. I produttori di GPU hanno sempre fatto affidamento sul cambio di processo produttivo per la diminuzione dei consumi e del calore generati, ma NVIDIA con questo passaggio “risparmia” la fatica e ottiene una maggiore efficienza col il solo cambio di architettura (tock) senza aspettare la riduzione della grandezza dei transistors (tick). Tale operazione mette sicuramente in dubbio la necessità di passare al seguente step nel processo produttivo, ma certamente non preclude l’utilizzo dei 20 nm o di nodi di grandezza inferiore in futuro, quando Maxwell acquisirà dimensioni maggiori. NVIDIA probabilmente pensa che non sia necessario il passaggio al nuovo processo produttivo (almeno per il momento) per ottenere comunque grandi risultati.
Così come con Kepler e Fermi, l’unità base di tutte le GPU Maxwell è lo Streaming Multiprocessor. Qui si fermano le similitudini con le precedenti generazioni, visto che gli SM di Maxwell hanno subito alcuni cambiamenti drastici.
Mentre ogni SMX di Kepler ospitava un blocco logico singolo che consisteva in 4 Ward Scheduler, 8 Dispatcher, un grande registro da 65k x 32 bit, 16 Texture Units e 192 CUDA cores, il design di Maxwell rompe queste “grandi” unità in elementi più piccoli, per una gestione semplificata e più lineare dei flussi dati. Mentre gli schedulers, i dispatchers e i registri rimangono gli stessi, essi vengono separati in 4 blocchi di elaborazione, ognuno contenente 32 CUDA cores e un Buffer per istruzioni integrato per un miglior indirizzamento dei dati. In aggiunta, le unità di load e storage sono ora associate a gruppi di 4 core piuttosto che di 6 come succedeva con Kepler, permettendo ad ogni SMM (l’unità base di Maxwell) di processare 32 thread per clock nonostante il numero di core sia drasticamente inferiore. Questo layout si assicura di distribuire uniformemente le risorse riducendo allo stesso tempo le latenze computazionali.
Il design dell’SMM è stato creato per ridurre la dimensione fisica di ogni SM, permettendo di utilizzare più unità in una singola GPU in maniera da prioritizzare i consumi. Tale traguardo è stato ottenuto riducendo il numero di CUDA cores da 192 a 128 e il numero di TU da 16 a 8 per SM. Comunque, tale “taglio” non influisce particolarmente sulle prestazioni in quanto, grazie al riarrangiamento delle unità di calcolo, ogni CUDA core ha una potenza di 1.35x superiore al passato, mentre le Texture Units hanno subito comunque notevoli miglioramenti. Per intenderci meglio, un SMM porta con sé il 90% delle prestazioni di un SMX, occupando però quasi la metà sul die.
L’SMM (Streaming Multiprocessor di Maxwell) utilizza la terza generazione del motore PolyMorph di NVIDIA, che include ancora una serie di funzioni fisse come un’unità tessellatrice dedicata e alcune pipeline dedicate alla sola “raccolta” dei vertex, il tutto abbinato ad una cache per istruzioni e a 96KB di memoria condivisa. Questi cambiamenti sono i responsabili dell’enorme incremento di throughput, in particolar modo con elaborazioni di tessellazione intensive. Questo rappresenta il maggior cambiamento dal GM107, fermo al PolyMorph Engine 2.0.
È ancora presente un discreto numero di risorse condivise, ma in questo caso sono state completamente ridisegnate. Ad esempio, ogni coppia di blocchi di elaborazione ha accesso a 24 KB di cache L1/Texture (per un totale di 64KB per ogni SMM) collegandosi a 64 CUDA cores. Questo è un incremento notevole rispetto a Kepler e a GM107.
Con i cambiamenti descritti finora, possiamo comprendere al meglio l’utilizzo delle nuove unità SMM nel GM204. In questa iterazione, la GTX980 riceve il trattamento “completo” con 16 SMM per un totale di 2048 CUDA cores, mentre la GTX970 presenta “solo” 13 SMM, per un totale di 1664 CUDA cores.
A basso livello, ci sono stati cambiamenti ancora più significativi. Ci sono ora 4 controller di memoria a 64 bit che aumentano drasticamente (nei dettagli, alla prossima pagina) l’efficienza, e questi sono collegati a 4 partizionamenti di ROP, ognuno dei quali contenente 16 ROP. Anch’esso rappresenta un incremento di non poco conto rispetto al design di Kepler e di GM107. Nel frattempo, la cache on-die di L2 è stata aumentata a ben 2048KB, a sua volta spezzata in 4 blocchi da 512 KB. Questo incremento sostanziale della cache on-chip si traduce in un minor numero di calls alla DRAM, riducendo il consumo di corrente ed eliminando in alcuni casi alcuni colli di bottiglia quando abbinati ai miglioramenti lato RAM di Maxwell. Così come con Fermi e Kepler, lo scaling con i blocchi di ROP, i controller di memoria e di cache L2 è effettuato in maniera lineare, pertanto eliminando un controller da 64 bit si taglierà automaticamente il numero di ROP e la quantità di cache L2 disponibile.
Maxwell: il nuovo caching della memoria e il nuovo motore video–>
Con l’aumento progressivo della risoluzione e le DX12 che promettono di migliorare la comunicazione tra CPU e GPU, la memoria onboard delle schede video inizierà ad assumere un ruolo fondamentale nelle prestazioni di gioco. Consci di ciò, i 4GB a 7 Gbps collegati ad un bus di 256 bit della GTX980 potrebbero sembrare un tantino “anemici” e tutt’altro che next-gen, ad un primo sguardo. Almeno sulla carta, questa soluzione offre meno banda passante rispetto al design utilizzato sulla 780Ti, ma c’è molta roba dietro le quinte che non è visibile né notabile ad occhio nudo.
Nella creazione del GM204, NVIDIA ha sapientemente rivisto il sottosistema di memoria piuttosto che aumentare le frequenze o allargare il bus di collegamento. Concentrarsi sui miglioramenti architetturali piuttosto che sulle performance grezze è stata una necessità dettata dal fatto che un bus a 384 o 512 bit avrebbe occupato un uno spazio maggiore sul die (vanificando i progressi ottenuti dal nuovo SMM), mentre sul fronte RAM non sono disponibili chip GDDR5 operanti a frequenze superiori ai 7Gbps.
Se da un lato la gerarchia della memoria e del caching non è cambiata rispetto al GK110, gli ingegneri NVIDIA hanno implementato una serie di features che permettono al GM204 di utilizzare la banda a disposizione in maniera più efficiente. Questi miglioramenti partono da un nuovo algoritmo di compressione senza perdita di terza generazione, con i dati che vengono elaborati fuori dalla memoria. Ulteriori “risparmi” sulla banda passante sono ottenuti quando viene avviata la seconda parte dell’elaborazione dati, come quando essi vengono caricati nelle Texture Units e subito reindirizzati nel buffer di memoria già fortemente compressi.
In modo da aumentare l’output di banda passante e l’efficacia del sottosistema di memoria, NVIDIA in realtà utilizza più layer di compressione. Per sommi capi, questo approccio funziona bene in alcuni casi (come sulle texture a cui viene applicato il filtro AA) ma i tradizionali metodi di compressione fanno lottano per gestire istanze di AA ridotto o non presente. Qui è dove la compressione delta cromatica entra in azione. Dapprima introdotta con Fermi, la DCC (Delta Color Compression) calcola rapidamente la differenza tra ogni pixel in un blocco dati e il suo “vicino” adiacente, cercando poi di comprimere i valori insieme per formare un data packet più compatto possibile. L’efficacia di questo metodo è determinato largamente dalle possibilità di calcolo integrate nell’algoritmo, difatti in questa terza incarnazione NVIDIA ha aggiunto più “scelte” di compressione delta. Ciò porta ad una quantità minore di dati etichettati come “incomprimibili”, responsabili dell’occupazione della banda passante e dei colli di bottiglia in essa.
Insieme ai miglioramenti nell’algoritmo di compressione, sono stati migliorati il caching nella GPU e il generico accesso ai dati. Come risultato, il GM204 è capace di ridurre il numero di byte fetchati dalla memoria locale, riducendo automaticamente l’overhead della banda passante.
In parole povere, NVIDIA afferma di avere un miglioramento dell’efficienza pari al 25% se paragonata alla tecnologia utilizzata sull’equivalente basata su Kepler (GTX680), portando Maxwell ad avere una banda “effettiva” di quasi 10Gbps in alcune situazioni. Tale fenomeno, è comunque da verificare utilizzando la scheda alle alte risoluzioni, dove vengono penalizzate le schede video dotate di bandwidth ridotto.
Parlando del Video Engine, l’architettura Kepler di NVIDIA aveva un VE ed un encoder NVENC particolarmente robusti, come evidenziato dalla sua capacità di preprocessare e mandare in streaming contenuti ad alta definizione all’NVIDIA Shield. Comunque, in un mercato dove le parole “4K” e “G-SYNC” la fanno da padrona, erano necessari degli accorgimenti per farsi trovare preparati ai prossimi steps di risoluzione, in modo da rendere Maxwell compatibile con risoluzioni che, di fatto, non sono ancora state introdotte ufficialmente ma che presto vedranno l’ingresso sul mercato.
Una delle aggiunte principali al nuovo motore video è la capacità di erogare un output di banda elevatissimo: è garantito il supporto completo all’imminente 5K (5120×3200) a 60 Hz, con fino a 4 display 4K in MST pilotati da una singola scheda. Alternativamente, queste capacità vengono trasposte al supporto a pannelli 4K a 120 e 144 Hz. In aggiunta, i prodotti basati su GM204 sono i primi a disporre di supporto nativo all’HDMI 2.0, che porta con sé la capacità di trasportare un segnale 2160p60 con audio in HD. Anche il protocollo eDP è stato implementato in Maxwell.
In modo da creare uno standard di connettività compatibile con tali formati, la serie GTX900 utilizza una singola porta DVI-I Dual Link insieme a tre connettori DisplayPort 1.2 ed una porta HDMI 2.0. Insieme al motore video maggiorato, l’NVENC supporta ora la codifica in H.265, mentre l’encoding in H.264 è ora 2.5 volte più veloce di Kepler. Ciò significa non solo la possibilità di catturare tramite ShadowPlay a 4k60, ma anche un’avanzata gestione dell’home streaming. Con il codec H.265, un utente può tecnicamente mandare in streaming un segnale 4K dal proprio PC da gioco ad uno Shield di prossima generazione, per poi trasferire il segnale su una televisione ad alta definizione (4K). In alternativa, l’efficienza di encoding potrebbe anche beneficiare coloro che utilizzano la tecnologia NVIDIA GameStream riducendo drasticamente la lag generata dalla trasmissione.
Maxwell: DSR e DirectX 12–>
Con i 4K al centro dell’attenzione ormai da diversi mesi, i videogiocatori che non possono permettersi di spendere una fortuna per uno schermo potrebbero sentiti abbandonati. Comunque, alcuni utenti hanno invece preferito scegliere una strada diversa: il downsampling, ovvero una modalità tramite la quale è possibile tirare fuori dal proprio monitor la miglior qualità grafica pur mantenendo la risoluzione costante. In uno scenario di downsampling, il processore grafico renderizza una scena ad una risoluzione maggiore di quella dello schermo, per poi scalarla fino a raggiungere suddetta risoluzione nativa. In alcune circostanze, questo metodo consente di avere una qualità grafica decisamente superiore, a discapito però di possibili artefatti e, in generale, ad una non facilissima configurazione. Ecco che quindi interviene il Dynamic Super Resolution (DSR) che, tramite GeForce Experience e pannello di controllo driver di NVIDIA, consente di attivare rapidamente il downsampling. Esso applica inoltre un filtro Gaussiano a 13 stadi durante il processo di conversione, eliminando o almeno riducendo gli artefatti a schermo.
A sinistra, DSR disattivato. A destra, DSR attivato.
Ci sono due impostazioni differenti per il DSR: 2x e 4x, ognuna delle quali rappresenta un diverso livello di downsampling. Ad esempio, impostare 2x con un monitor 1080p porterà le immagini renderizzate ad una risoluzione di 2715×1527 pixels (ovvero il doppio) mentre 4x porterà il rendering in background in 4K. La stessa cosa viene applicata su monitor 1440p, dove spingere tale impostazione a 4x significa portare la GPU ad elaborare le scene di gioco ad un mastodontico valore di 5k (5120×3200 pixels).
Considerando tale possibilità, la possibilità di migliorare la qualità delle immagini tramite un semplice click potrebbe tentare molti, ma ovviamente ci sono conseguenze negative da considerare. Innanzitutto, anche se la risoluzione utilizzata è a un dato valore, la scheda grafica elaborerà rispettivamente 2 o 4 volte tale quantità di pixels in background.
In alcune situazioni, ciò potrebbe ridurre drasticamente le prestazioni, in particolar modo su soluzioni più budget-oriented. In aggiunta, si sarà comunque limitati dalla quantità reale di pixel presenti su schermo.
Ovviamente, col passare del tempo e con il maturare di Maxwell (e come lecito aspettarsi la sua iterazione successiva, Pascal) la tecnologia DSR consentirà un approccio più “spensierato” alle risoluzioni elevate, portando in generale un maggiore livello di qualità grafica alla maggior parte degli utenti. Insomma, se avete una GPU compatibile, vale la pena provare.
Maxwell è la prima architettura GPU disegnata per essere pienamente compatibile con le DirectX 12. Potrebbe suonare strano visto che Microsoft e NVIDIA hanno annunciato che le esistenti schede DX11 (Fermi, Kepler e Maxwell) sarebbero state compatibili con tali API ma cosa non è stato rivelato è il reale grado di compatibilità. Recentemente, sono apparsi più dettagli riguardo alla cosa.
Mentre uno dei principali obiettivi delle DirectX12 è di affinare lo strato di middleware che circonda la comunicazione tra CPU e GPU, esso non è l’unico scopo delle nuove API. Alcune delle nuove features sono ancora sotto NDA, ma ciò che è noto è che sia il Conservative Raster che il Raster Ordered Views verrà supportato solo sulla serie GM204 di NVIDIA e non sarà compatibile con nessun’altra GPU basata su DX11 (che include tutto ciò che precede il GM200, inclusi i prodotti basati su GM1xx). Parleremo di tali features non appena si avranno più dettagli a riguardo.
Ecco la suite di benchmark (e giochi) con cui testeremo la scheda video:
Unigine Heaven Benchmark 4.0
Futuremark 3DMark Fire Strike
Futuremark 3DMark Fire Strike Extreme
Futuremark 3DMark Fire Strike Ultra
Thief (2014) (Benchmark integrato)
Bioshock Infinite (Benchmark integrato)
Metro Last Light (Benchmark integrato)
Terra di mezzo: Ombra di Mordor (Benchmark integrato)
Grand Theft Auto V (GTA V) (Benchmark integrato, media dei risultati di 5 scene)
Dove disponibile la scelta della risoluzione, i test sono stati eseguiti ai seguenti valori. Laddove si trattasse di un benchmark, le modalità predefinite sono state utilizzate:
1680×1050, AA x2 (WSXGA+)
1920×1080, AA x4 (Full HD)
2560×1440, no AA (2K, QWHD)
3840×2160, no AA (4K, UHD)
Qui di seguito le VGA testate con la nuova piattaforma:
Heaven, prodotto da Unigine è stato il primo Benchmark DX11. Lo scopo principale è quello di mettere in risalto gli straordinari effetti della Tessellation. Difatti dai semplici modelli osservabili con tessellation disattivata, si arriva ad oggetti ricchi di profondità e sporgenze senza dover creare trame complesse. Il compito di arricchire il modello è lasciato all’unità tessellatrice, per cui si tratta di uno strumento indispensabile per valutare l’efficienza dei questa unità nelle moderne soluzioni DX11:
Test sintetici: FutureMark 3DMark–>
In concomitanza con il lancio di Windows 8, Futuremark ha lanciato il nuovo 3DMark, chiamato appunto 3DMark, senza alcun numero riconoscitivo, a segnare la forte integrazione che ha con qualsiasi sistema, da Android a Windows a iOS a OSX, dando per la prima volta la possibilità di paragonare le prestazioni su smartphone e PC fisso in maniera schematizzata e professionale. Il benchmark dispone di svariati test, di cui utilizziamo i più intensivi per mettere alla prova le schede video. Tra questi, il più impegnativo è il Fire Strike, che spinge la tessellazione a livelli davvero elevati, e che “vanta” due versioni ancora più spinte: Extreme (con scene pre-renderizzate a 2560×1440) ed Ultra (scene pre-renderizzate a 3840×2160, ovvero 4K).
Test sui giochi: Bioshock Infinite–>
Continuiamo con Bioshock Infinite, che ci mette nei panni di Booker DeWitt, un investigatore privato, un tempo agente Pinkerton, incaricato di ritrovare una ragazza, Elizabeth, tenuta prigioniera a Columbia, una fantomatica città sospesa nei cieli, dove le modifiche genetiche sono considerate veri e propri beni di lusso. Per la prima volta nella serie di Bioshock, il personaggio ha un volto, un nome ed una storia precedente al gioco, che verrà svelata con l’avanzare della partita. Il gioco supporta le API DirectX 11, con le quali supporta tecnologie quali: High Definition Ambient Occlusion, Contact Hardening Shadows e Diffusion Depth of Field. È implementato inoltre il supporto all’FXAA (anti-aliasing ad approssimazione rapida) ottimizzato per l’utilizzo su SM 5.0. Il gioco è ottimizzato per architetture AMD, in quanto parte del programma AMD Gaming Evolved.
Test sui giochi: Metro Last Light–>
Dopo l’incredibile successo di Metro 2033, ecco che fa capolino sugli schermi dei nostri PC il suo successore, Metro Last Light, basato sul romanzo Metro 2034 di Dmitry Glukhovsky, che vede il mondo alle prese con i postumi di una terza guerra mondiale atomica, con tutto ciò che ne consegue: la popolazione ancora in vita in Russia si è trasferita nella famigerata metropolitana russa, dotata di 298 km di binari e tunnel sotto Mosca. Ancora una volta, il giocatore rivestirà i panni di Artyom, per impedire una guerra civile che potrebbe portare alla fine il genere umano. Tecnicamente parlando, il gioco è incredibilmente pesante, sia per poligoni a schermo che per requisiti, facendo uso di tutte le tecnologie introdotte dalle DirectX11: Depth of Field, HDAO, Tessellation e real-time Motion Blur. Il gioco è ottimizzato per schede video NVIDIA, dato il supporto all’NVIDIA PhysX e in quanto parte del programma NVIDIA – The Way It’s Meant To Be Played.
Test sui giochi: Middle Earth: Shadow of Mordor–>
Chi è appassionato della saga di J.R.R. Tolkien sa che, fino a Settembre 2014, non esisteva un gioco degno di tal nome che narrasse le vicende della Terra di mezzo. Grazie a Monolith e ai Warner Studios, però, ora la collana fantasy più famosa del globo terracqueo vanta un gioco tripla A, forte di una trama travolgente, una grafica sul filo del fotorealismo ed un sistema di combattimento che sembra l’evoluzione del Free Form Fighting System visto in Prince of Persia: Spirito Guerriero. Il risultato? Un titolo must-have, il cui motore grafico si rifa a quello utilizzato da Batman: Arkham Origins, titolo che sostituisce nella nostra suite di benchmarks. Il gioco è ottimizzato per schede video NVIDIA, dato il supporto all’HBAO, all’SMAA e più in generale a tutti i GameWorks dell’azienda. Il gioco, soprattutto alle alte risoluzioni e con i filtri al massimo, richiede un quantitativo di memoria video non indifferente, e pertanto risulta pienamente indicato qualora voleste mettere alla prova schede video con un quantitativo VRAM maggiore:
Test sui giochi: Grand Theft Auto V–>
Grand Theft Auto. Una saga che affonda le sue radici nel sangue e nella violenza in visuale dall’alto e 2 dimensioni, e che nell’ultima iterazione, attesa per ben 8 lunghissimi anni dagli utenti PC. Nel 2015, dopo ben 8 anni di attesa (per gli utenti PC), GTA V ha visto la luce sugli schermi dei computer di tutti i videogiocatori, distruggendo record su record in vendite e profitti. Un approccio totalmente diverso, quello per la storia: tre personaggi controllabili, ognuno più folle dell’altro, tra mafia, sparatorie, esplosioni e rapine spettacolari. Il gioco è ottimizzato per schede video NVIDIA, presentando il supporto a tutti i GameWorks dell’azienda eccezion fatta per gli Hairworks. Ad alte risoluzioni, il gioco è un vero e proprio campo di battaglia dove testare le schede video più potenti:
Overclock–>
La scheda, nonostante una potenza esigua, riesce a regalare qualche soddisfazione mettendo mano alle frequenze operative. Con il sample ricevuto, siamo riusciti a portare la GPU a 1541 MHz (in Boost) e le memorie a 1902 MHz (effettivi 7608 MHz), riuscendo così a concludere un’esecuzione del 3DMark Fire Strike senza errori.
Il risultato:
Un incremento di circa 900 punti, pari al 15% a fronte di un aumento della frequenza GPU pari al 20%. Tenendo la ventola al 100%, inoltre, la rumorosità è rimasta contenuta, consentendo di mantenere le temperature sotto i 65 °C.
Considerazioni finali–>
[conclusione]
[titolo]Design e qualità costruttiva[/titolo]
La scheda presenta dissipatore e PCB personalizzati, il che consente di ottenere temperature inferiori, clock superiori e (teoricamente) consumi inferiori.
Abbiamo riscontrato tali miglioramenti non tanto durante i test a frequenze standard, quanto durante i benchmark in overclock, dove la scheda è rimasta “glaciale” nonostante un aumento delle frequenze operative sostenuto.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Prestazioni e overclock[/titolo]
La GTX950 consente di giocare senza molti problemi in FullHD su settaggi elevati, ma non appena si spinge ulteriormente sulla risoluzione o sui filtri i framerate droppano inesorabilmente.
La scheda, comunque, consente di giocare, alla suddetta risoluzione, anche a giochi esosi come GTA V o Shadow of Mordor, eseguendo in scioltezza giochi più leggeri ma sicuramente più diffusi, come League of Legends, DotA2, CS:GO e simili. Il dubbio, però, rimane sulla longevità della scheda, visto che con i giochi attuali si raggiungono framerates tra i 30 e i 60 FPS.
[voto=”7″]
[/conclusione]
[conclusione]
[titolo]Compatibilità e consumi[/titolo]
La scheda presenta un assorbimento pari a circa 100W, con la possibilità di impostare il TDP a +18% tramite software come Afterburner o EVGA PrecisionX. In tal modo, il consumo della scheda arriva ad un massimo di 120 W, più che sufficientemente erogati dal socket PCI-E e dal connettore PEG a 6 pin. L’alimentatore consigliato è di 350 W, che è anche il taglio più piccolo di alimentatori ATX disponibili in commercio. La scheda, inoltre, supporta lo SLI a 2 vie, per cui sarà necessario un alimentatore da almeno 500W.
[voto=”9″]
[/conclusione]
[conclusione]
[titolo]Prezzo[/titolo]
La scheda presenta un prezzo, a seconda dei vari e-tailers, tra i 170€ e i 185€, portando quindi con sé un rapporto prezzo prestazioni non proprio elevato, considerando che a pochi Euro di differenza c’è la R9 380 che è più veloce di essa di circa il 20%.
Vi invitiamo ad acquistare presso i rivenditori ufficiali Gigabyte, in quanto pur presentando un prezzo superiore ai VAT Player (coloro che evadono l’iva tramite meccanismi al limite della legalità), forniscono supporto post-vendita/RMA, cosa che suddetti rivenditori non ufficiali non garantiscono.
[voto=”6″]
[/conclusione]
Per oggi è tutto da ReHWolution, non dimenticate di seguirci sui nostri social network:
Una scheda dai consumi ridotti e dalla potenza adatta a muovere i giochi attuali in FullHD con framerate di tutto rispetto, portando però con sé un price premium che potrebbe scoraggiare l'utenza.
Pro
Consumi ridotti
Silenziosa e fredda
Contro
Costo elevato
Longevità dubbia
Riassunto della recensione
Voto finale0
Gigabyte GeForce GTX950 WindForce 2X OC Prezzi
Raccogliamo informazioni da vari negozi per indicare il prezzo migliore
Direttore responsabile di ReHWolution, con la passione per qualsiasi cosa funzioni con un processore fin dal lontano 1995, anno in cui "misteriosamente" la sua CPU avviò un processo di fusione nucleare nel case. Da allora, con impegno e imparzialità analizza hardware e software di ogni tipo, con un occhio di riguardo per l'overclock.
Questo sito utilizza cookies. Continuando a visitarlo stai acconsentendo all'utilizzo di tali cookies. Per maggiori informazioni visita la nostra pagina di Policy Privacy e Cookies.