Overklokking av nvidia geforce gtx 680 lightning-kort. Skjermkort. Overklokking, temperatur, strømforbruk

💖 Liker du det? Del lenken med vennene dine
De første nyhetene om det originale skjermkortet fra Gigabyte Technology Co., Ltd. med WindForce 5X-kjøleren dukket opp tidlig på våren 2012. Så var nyheten, uten forbehold, i stand til å overraske alle med en veldig original tilnærming til organisering av kjøling, ved å bruke fem små vifter i kjølerdesignet på en gang. WindForce 5X virket så ekstraordinær at mange til og med tvilte på utseendet til Gigabyte-skjermkort med en slik kjøler på gratis salg. Dette skjedde imidlertid heldigvis ikke, og midt på sommeren lanserte selskapet to skjermkort i en serie samtidig med WindForce 5X: Gigabyte Radeon HD 7970 SOC WindForce 5X (GV-R797SO-3GD) og Gigabyte GeForce GTX 680 SOC WindForce 5X (GV-N680SO-2GD). Riktignok er den første allerede trukket fra salg nå på grunn av utseendet til raskere "GHz Editions", men den andre selges fritt, om enn ikke billig. Vi skal studere og teste den i dag.

1. Oversikt over skjermkortet Gigabyte GeForce GTX 680 SOC WindForce 5X 2 GB (GV-N680SO-2GD)

spesifikasjoner

De tekniske egenskapene til Gigabyte-skjermkortet er vist i tabellen sammenlignet med referansen NVIDIA GeForce GTX 680-skjermkortet:



emballasje og utstyr

Skjermkortet kommer i en stor pappeske med nøkkelproduktinformasjon på forsiden:


På baksiden er en detaljert beskrivelse av kjølesystemet, teknologier som brukes, et proprietært verktøy for overklokking og overvåking, samt annen, mindre viktig informasjon.

Leveringssettet inkluderer to adapterkabler fra PATA-kontakter til åtte-pinners kontakter, en CD med drivere og verktøy, installasjonsinstruksjoner og et reklamehefte:


Ærlig talt er pakkepakken for et produkt i det øvre prissegmentet veldig beskjeden.

Gigabyte GeForce GTX 680 SOC WindForce 5X er tilgjengelig i Taiwan for $549. Produktgaranti - 3 år.

særegenheter

Skjermkortet har dimensjoner på 295x120x64 mm og ser monumentalt ut, som ligner en slags beltedyr:


I stedet for de vanlige viftene eller en turbin på forsiden av skjermkortet, ser vi et metallplasthus med dekorative spor, navnet på produsenten og Super OverClock-etikettene. Baksiden av skjermkortet er også dekket med en perforert metallplate.

Over er en rad med fem små vifter, delvis dekket av en metallplate, og under er en massiv kjøleribbe med varmerør:


Gigabyte GeForce GTX 680 SOC WindForce 5X har to DVI-utganger (en med Dual Link), en HDMI 1.4a-utgang og en DisplayPort 1.2-utgang:


På den andre siden av skjermkortet er tre viftekontakter og en slags grensesnittutgang med en uforståelig hensikt umiddelbart synlige.

To MIO-kontakter for å lage forskjellige SLI-konfigurasjoner er plassert på deres standardplasser: i den øvre delen av kretskortet på skjermkortet ved utgangene:


Men de vanlige seks- og åttepinners strømkontaktene ble erstattet av Gigabyte-ingeniører med to åttepinners, og prøvde å gi den nødvendige strømreserven når de opererer ved høyere frekvenser. Den anbefalte strømforsyningen for et system med ett slikt skjermkort er deklarert til rundt 650 watt, som er 100 watt høyere enn spesifikasjonene til referansen NVIDIA GeForce GTX 680.

Det trykte kretskortet Gigabyte GeForce GTX 680 SOC WindForce 5X er laget i henhold til det originale designet og har et forsterket strømsystem:


Åtte faser er ansvarlige for å gi strøm til GPU, og tre til er allokert for å drive minnet og strømkretsene:


Skjermkortet tilhører Super Overclock-serien, bygget på konseptet med å bruke komponenter av høy kvalitet med forlenget levetid, japanske kondensatorer, Proadlizer NEC / TOKIN filmkondensatorer med lav ESR, installert på baksiden av PCB:


Den åttefasede digitale PWM-kontrolleren CHiL CHL8318 er ansvarlig for å administrere kraften til GPUen:


På toppen av tavlen er en gruppe kontakter J13 synlig, som er punktene for måling av driftsspenningene til V-PLL, V-MEM og V-GPU. Dette er ikke like praktisk som for eksempel MSI, men fortsatt er sjeldne skjermkort utstyrt med denne funksjonen.

I tillegg til alt det ovennevnte er skjermkortet utstyrt med to BIOS-versjoner, som kan byttes med en firkantet bakgrunnsbelyst knapp plassert ved kortets utganger. I normalversjonen (blått bakgrunnsbelysning) sys de økte frekvensene ganske enkelt opp, men når du bytter til den såkalte ekstreme BIOS-versjon skjermkort (rød bakgrunnsbelysning), alle gjeldende begrensninger fjernes, og GPU-effektgrensen økes med opptil 300 %. Denne BIOSen er designet for ekstrem overklokking ved ultralave temperaturer.

Gigabytes Super Overclock GPU-er går gjennom et spesielt "GPU Gauntlet"-valgsystem gjennom flere sykluser med stresstesting. Som et resultat er bare brikkene av høyeste kvalitet med høyt overklokkingspotensial installert på slike skjermkort. Vår GK104-krystall ble utgitt i Taiwan den 25. uken av 2012 (midten av juni) og tilhører revisjon A2:


Basefrekvensen økes fra 1006 til 1137 MHz eller umiddelbart med 13 %, og ved høy belastning kan frekvensen øke til 1202 MHz. I alle andre henseender er dette den vanlige "Kepler" med spenninger på 1,175 V for 3D-modus og 0,988 V for 2D-modus, der frekvensen reduseres til 324 MHz.

Videokortet har 2 GB GDDR5-minne produsert av Samsung med merket K4G20325FD-FC03:


Dens effektive frekvens er økt fra nominelle 6008 MHz til 6200 MHz eller +3,2 %, noe som ikke er mye, men en ganske fin bonus. I 2D-modus reduseres videominnefrekvensen til 648 MHz.

Som et resultat er spesifikasjonene til Gigabyte GeForce GTX 680 SOC WindForce 5X som følger:


Vi legger til at du kan laste ned BIOS til Gigabyte GeForce GTX 680 SOC WindForce 5X skjermkort fra vårt filarkiv ( BIOS Gigabyte GeForce GTX 680 SOC WindForce 5X, og la oss gå videre til studiet av WindForce 5X-kjølesystemet.

kjølesystem WindForce 5X

Uansett kretskortet til Gigabyte GeForce GTX 680 SOC WindForce 5X skjermkort, stort sett har vi allerede sett alt dette i produktene til ASUS, MSI og Gigabyte selv. Det som virkelig er unikt med dette produktet er WindForce 5X-kjølesystemet. Selskapet legger ikke skjul på at de er stolte av denne utviklingen, og den holder virkelig ikke originalitet, fordi designen kombinerer et termisk kammer, ni kobbervarmerør med en diameter på 6 mm, en gigantisk aluminiumsradiator og fem 40 mm vifter:



Til tross for den enorme massen (vekten av skjermkortet med kjøleren er 1622 (!) gram), er det festet til det trykte kretskortet med kun seks skruer, hvorav fire er plassert i hjørnene av GPUen og to på GPU-en. kjøleribbe for kraftelementer:


Det er litt vanskeligere å fjerne beskyttelsesdekselet, men uten det blir det klart at dette dekselet er mer dekorativt enn beskyttende:


Som du kan se, er sidene på radiatoren tett lukket med finner som er bøyd og lukket med hverandre, og en lang stålstang fungerer som et feste for selve huset og ingenting mer.

Med en kjøleribbetykkelse på 45 mm er det klart at termokameraet ikke ville være i stand til å fordele hele varmestrømmen jevnt langs finnene, så Gigabyte-ingeniører utstyrte kjøleribben med ni kobbervarmerør med en diameter på 6 mm på en gang. Fire går den ene veien, og fem går den andre, men de trenger alle jevnt gjennom toppen av radiatorfinnene:


Basen av kjøleren er i kontakt med GPU ved hjelp av tykk og grå termisk pasta, og kjøleribben er i kontakt med minnebrikker og strømelementer gjennom termiske puter. Alle koblinger i radiatoren er loddet.

Fem 40 mm vifter på en gang, montert på den øvre enden av radiatoren, er produsert av Power Logic (modell PLA04015S12HH), er basert på rullelager og styres av pulsbreddemodulasjon (PWM):


Viftene er installert opp ned, det vil si under drift vil de blåse varm luft ut av radiatoren og suge den inn nedenfra. Og hvis det ikke er noen "eksos"-vifte på sideveggen av saken din, vil luften som varmes opp av skjermkortet forbli inne i dekselet og må fjernes av andre vifter.

La oss sjekke hvor effektiv WindForce 5X-kjøleren er. For å gjøre dette brukte vi fem testsykluser av et veldig ressurskrevende spill Aliens vs. Predator (2010) med maksimal grafikkkvalitet på 2560x1440 piksler med 16x anisotropisk filtrering og 4x MSAA:



Programmet ble brukt til å overvåke temperaturer og andre parametere. MSI etterbrenner versjon 2.2.5 og GPU-Z-verktøyversjon 0.6.6. Alle tester ble utført i en lukket sak systemblokk, konfigurasjonen som du kan se i neste del av artikkelen, ved en romtemperatur på 24 grader Celsius. Testing av effektiviteten til kjølesystemet til skjermkortet ble utført før demonteringen ved hjelp av et standard termisk grensesnitt.

La oss se på effektiviteten til Gigabyte GeForce GTX 680 SOC WindForce 5X-kjøleren i automatisk modus og ved maksimal viftehastighet:


Automatisk modus Maksimal effekt


Med automatisk viftehastighetskontroll, når hastigheten deres (i henhold til overvåkingsdata) økte til 7260 rpm, varmet GPUen opp til 68 grader Celsius, noe som er et utmerket resultat for en overklokket GK104. Hvis vi setter viftehastigheten til maksimum (9750 rpm i henhold til overvåkingsdata), så var temperaturen på GPU-en bare 54 grader Celsius. Dette er på en eller annen måte til og med morsomt for en overklokket GeForce GTX 680. Men det er slett ikke morsomt for brukerens hørsel.

Dessverre blir det ingen tradisjonelle målinger av støynivået i dagens artikkel. Det er to grunner til dette. For det første, for å koble fem vifter til kretskortet, brukes tre kontakter av to forskjellige typer samtidig, så det var ikke mulig å koble dem til enheten vår for overvåking og kontroll. Den andre grunnen var en defekt vifte, akkurat den vi tok på bildet ovenfor. Når den ble slått på, hylte peilingen slik at det var ekstremt vanskelig å holde ut. Riktignok roet han seg noe etter oppvarmingen, men likevel fant vi ikke en bedre løsning enn å tvangsstoppe ham. Temperaturtester ble forresten utført med alle fem viftene aktivert. Subjektivt, uten en raslende vifte, kjører WindForce 5X-kjøleren stille opp til 4000-4500 rpm, komfortabelt opp til 6000 rpm, og over dette merket, dessverre, skiller den seg allerede merkbart ut mot bakgrunnen til en stille systemenhet. Som du husker, i automatisk modus, snurrer viftene opp til 7260 rpm, så vi kan ikke kalle Gigabyte GeForce GTX 680 SOC WindForce 5X et stillegående skjermkort. Bare i 2D-modus, når viftehastigheten er rundt 2000 rpm, er skjermkortet egentlig ikke hørbart, selv om dette ikke er så viktig for et spillprodukt.

overklokkingspotensial

Vi begynte å studere overklokkingspotensialet til Gigabyte GeForce GTX 680 SOC WindForce 5X ved en nominell spenning på 1,175 V og maksimal strømgrense. Kjølesystemet fungerte i automatisk modus. Vi klarte å øke basisfrekvensen til GPUen med 65 MHz, og frekvensen til videominnet med 1120 effektive megahertz:


Som et resultat var skjermkortfrekvensene 1202/1267/7328 MHz:


Resultatet av GPU-overklokking er ganske normalt for GeForce GTX 680, og vi klarte ikke å oppnå noe bedre verken ved å aktivere den ekstreme BIOSen på skjermkortet eller ved å øke spenningen på GPUen. Den oppnådde minnefrekvensen kan imidlertid ikke annet enn å glede seg.

Etter overklokking av grafikkortet økte den maksimale temperaturen til GPUen med 3 grader Celsius til 71 grader, og viftehastigheten økte med 150 rpm, med en endelig 7410 rpm:



På slutten av gjennomgangen av skjermkortet kan man ikke unngå å si noen ord om det proprietære verktøyet Gigabyte OC Guru II, som ikke bare kan kontrollere alle parameterne til Gigabyte GeForce GTX 680 SOC WindForce 5X, men også administrere dem :


I tillegg til muligheten til å endre frekvenser, spenninger og overvåke dem, kan verktøyet finjustere PWM-frekvenser og laste inn GPU, minne og PCI-Express-bussen:


I et eget vindu kan du manuelt justere viftehastigheten avhengig av temperaturen, eller velge en av tre forhåndsinnstillinger:



Energiforbruk

Måling av systemets strømforbruk med forskjellige skjermkort ble utført ved hjelp av Zalman ZM-MFC3 multifunksjonspanel, som viser forbruket til systemet "fra stikkontakten" som helhet (unntatt skjermen). Målingen ble utført i 2D-modus, under normalt arbeid i Microsoft Word eller Internett "surfing", samt i 3D-modus, hvor belastningen ble opprettet ved hjelp av en tre-gangstest fra spillet Metro 2033: The Last Refuge kl. en oppløsning på 2560x1440 ved maksimal grafikkkvalitet.

La oss se på resultatene:



Interessant nok viste et system med et Gigabyte-skjermkort å være litt mer økonomisk med tanke på strømforbruk enn et system med et nesten identisk ASUS-skjermkort. Selv etter overklokking av Gigabyte GeForce GTX 680 SOC WindForce 5X til 1202/7320 MHz, bruker den litt mindre enn ASUS GeForce GTX 680 DirectCU II TOP ved de nominelle frekvensene på 1137/6008 MHz. I tillegg bemerker vi at systemet med Radeon HD 7970 GHz Edition (utført av Sapphire) fortsatt er mer krevende for strømforbruk enn begge systemene med GeForce GTX 680. Vel, systemet med dobbelprosessoren GeForce GTX 690 ganske naturlig ble ledende i dag i tomgangsmodus, er strømforbruket til alle systemer forskjellig til minimum.

2. Testkonfigurasjon, verktøy og testmetodikk

Skjermkort ble testet på et system med følgende konfigurasjon:

Hovedkort: Intel Siler DX79SI (Intel X79 Express, LGA 2011, BIOS 0537 datert 23.07.2012);
PROSESSOR: Intel kjerne i7-3960X Extreme Edition 3,3 GHz(Sandy Bridge-E, C1, 1,2V, 6x256KB L2, 15MB L3);
CPU-kjølesystem: Phanteks PH-TC14PE (to 140 mm vifter Corsair AF140 Quiet Edition ved 900 rpm);
Termisk grensesnitt: ARCTIC MX-4 ;
RAM: DDR3 4x4 GB Mushkin Redline(2133 MHz, 9-10-10-28, 1,65 V);
Skjermkort:

NVIDIA GeForce GTX 690 2x2 GB 256-bit GDDR5, 915/6008 MHz;
Gigabyte GeForce GTX 680 SOC WindForce 5X 2GB 256-bit GDDR5, 1137/6200 og 1202/7320 MHz;
ASUS GeForce GTX 680 DirectCU II TOP 2 GB 256-bit GDDR5, 1137/6008 MHz;
Sapphire Radeon HD 7970 OC Dual-X 3 GB 384-bit GDDR5, 1050/6000 MHz;

Systemstasjon: 256 GB Crucial m4 SSD (SATA-III, CT256M4SSD2, BIOS v0009);
Stasjon for programmer og spill: Western Digital VelociRaptor (SATA-II, 300 GB, 10000 rpm, 16 MB, NCQ) i en Scythe Quiet Drive 3,5" boks;
Sikkerhetskopieringsdisk: Samsung Ecogreen F4 HD204UI (SATA-II, 2 TB, 5400 rpm, 32 MB, NCQ);
Koffert: Antec Twelve Hundred (frontvegg - tre Støyblokker NB-Multiframe S-Series MF12-S2 ved 1020 rpm; tilbake - to Støyblokker NB-BlackSilentPRO PL-1 ved 1020 rpm; topp - standard 200 mm vifte ved 400 rpm);
Kontroll- og overvåkingspanel: Zalman ZM-MFC3 ;
Strømforsyning: Seasonic SS-1000XP Active PFC F3(1000W), 120mm vifte;
Skjerm: 27" Samsung S27A850D (DVI-I, 2560x1440, 60 Hz).

Vi vil sammenligne ytelsen til Gigabyte-skjermkortet med en veldig rask ASUS GeForce GTX 680 DirectCU II TOPP ved nominelle frekvenser og med Sapphire Radeon HD 7970 OC Dual-X, overklokket til GHz Edition-nivået:




I tillegg har referansen NVIDIA GeForce GTX 690 ved sine nominelle frekvenser blitt lagt til testen som et benchmark når det gjelder hastighet:




For å redusere avhengigheten av skjermkortytelse av plattformhastighet, ble 32nm sekskjerners prosessor med en multiplikator på 37, en referansefrekvens på 125 MHz og den aktiverte «Load-Line Calibration»-funksjonen overklokket til 4,625 GHz med en spenningsøkning på hovedkort BIOS kort opp til 1,49 V:



Hyper-Threading-teknologi er aktivert. Mens 16 GB tilfeldig tilgangsminne operert med en frekvens på 2 GHz med timing 9-11-10-28 ved en spenning på 1,65 V.

Testing, som startet 3. november 2012, ble utført under kontroll av operativsystem Microsoft Windows 7 Ultimate x64 SP1 med alle kritiske oppdateringer fra den angitte datoen og med følgende drivere installert:

hovedkort brikkesett Intel Chipset Drivere - 9.3.0.1025 WHQL datert 25.10.2012;
DirectX End-User Runtimes-biblioteker, utgivelsesdato 30. november 2010;
drivere for grafikkort AMD-prosessorerCatalyst 12.11 Beta fra 23.10.2012+ Katalysatorapplikasjonsprofiler 12.10 (CAP1);
NVIDIA grafikkortdrivere - GeForce 310.33 beta fra 23.10.2012.

Ytelsen til skjermkort ble testet i to oppløsninger: 1920x1080 og 2560x1440 piksler. For tester ble to grafikkkvalitetsmoduser brukt: "Quality + AF16x" - teksturkvaliteten i driverne som standard med anisotropisk filtrering av 16x-nivået aktivert, og "Quality + AF16x + MSAA 4x (8x)" med inkludering av den anisotropiske filtreringen av 16x-nivået og fullskjerms anti-aliasing-krefter på 4x eller 8x, i tilfeller der gjennomsnittlige bilder per sekund forble høy nok for et komfortabelt spill. Anisotropisk filtrering og anti-aliasing på fullskjerm ble aktivert direkte i spillinnstillingene. Hvis disse innstillingene ikke var tilgjengelige i spill, ble parametrene endret i kontrollpanelene til Catalyst- og GeForce-driverne. Vertikal synkronisering er også deaktivert. Ingen andre endringer ble gjort i driverinnstillingene.

Siden vi gjentatte ganger testet GeForce GTX 680 og dens konkurrent, har dagens liste over testapplikasjoner blitt redusert til en semisyntetisk pakke og 8 spill (i henhold til prinsippet om det mest ressurskrevende og ferske):

3D Mark 2011(DirectX 11) - versjon 1.0.3.0, "Performance" og "Extreme" innstillingsprofiler;
Metro 2033: The Last Refuge(DirectX 10/11) - versjon 1.2, offisiell test brukt, "Very High" kvalitetsinnstillinger, tessellasjon, DOF aktivert, AAA anti-aliasing brukt, "Frontline" scene dobbel pass;
Total War: SHOGUN 2 - Fall of the Samurai(DirectX 11) - versjon 1.1.0, innebygd test (Battle of Sekigahara) ved maksimale innstillinger for grafikkkvalitet og bruk av en av MSAA 4x-modusene;
Crysis 2(DirectX 11) - versjon 1.9, brukt Adrenaline Crysis 2 Benchmark Tool v1.0.1.14 BETA, "Ultra High" grafikkkvalitetsprofil, høyoppløselige teksturer aktivert, dobbeltsyklus demoopptak på "Times Square"-scenen;
Battlefield 3(DirectX 11) - versjon 1.4, alle grafikkkvalitetsinnstillinger på "Ultra", dobbel sekvensiell passasje av den skriptede scenen fra begynnelsen av "Hunting"-oppdraget som varer i 110 sekunder;
Sniper Elite V2 Benchmark(DirectX 11) - versjon 1.05, brukt Adrenaline Sniper Elite V2 Benchmark Tool v1.0.0.2 BETA maksimale innstillinger for grafikkkvalitet ("Ultra"), Avanserte skygger: HØY, Okklusjon i omgivelser: PÅ, Stereo 3D: AV, dobbel sekvensiell testkjøring;
Sovende hunder(DirectX 11) - versjon 1.5, brukt Adrenaline Sleeping Dogs Benchmark Tool v1.0.0.3 BETA, innstillinger for maksimal grafikkkvalitet for alle elementer, Hi-Res Textures-pakke installert, FPS Limiter og V-Sync deaktivert, dobbel sekvensiell testkjøring med total kantutjevnelse på "Normal" nivå og på "Extreme" nivå;
F1 2012(DirectX 11) - oppdatering 9, brukt Adrenaline Racing Benchmark Tool v1.0.0.13, innstillinger for grafikkkvalitet på "Ultra", brasiliansk bane "Interlagos" 2 runder, 24 biler, lett regn, kameramodus - "Bonnet";
Borderlands 2(DirectX 9) - versjon 1.1.3, innebygd test med maksimale grafikkkvalitetsinnstillinger og maksimalt PhysX-nivå, FXAA-utjevning er aktivert.

Hvis spillene implementerte muligheten til å fikse minimum antall bilder per sekund, ble det også reflektert i diagrammene. Hver test ble utført to ganger, den beste av de to oppnådde verdiene ble tatt som sluttresultat, men bare hvis forskjellen mellom dem ikke oversteg 1%. Hvis avvikene til testkjøringene oversteg 1 %, ble testingen gjentatt minst én gang til for å oppnå et pålitelig resultat.





Borderlands 2


Vi kommenterte ikke hvert diagram, siden vi stort sett ikke så noe nytt på dem. Generelt er Gigabyte GeForce GTX 680 SOC WindForce 5X litt raskere enn ASUS GeForce GTX 680 DirectCU II TOP på grunn av raskere minne, men forskjellen er ubetydelig. Overklokking av Gigabyte gir det 5-7% av ytelsen pluss, noe som heller ikke er mye, men du bør ikke overse en slik gratis ytelsesøkning. I konfrontasjonen med Sapphire Radeon HD 7970 OC Dual-X på 1050/6000 MHz på nye driverversjoner, vinner det nye Gigabyte-skjermkortet i 3DMark 2011, Crysis 2, Borderlands 2, samt Total War-kvalitetsmoduser: SHOGUN 2 og F1 2012. av disse skjermkortene kun i Battlefield 3. På sin side er Radeon foran GeForce i Metro 2033: The Last Refuge, Sniper Elite V2, Sleeping Dogs, så vel som i Total War ikke-anti-aliasing-moduser: SHOGUN 2 og F1 2012. Av funksjonene til toprosessoren NVIDIA GeForce GTX 690 på nye drivere og i nye tester, fremhever vi mangelen på SLI-støtte i F1 2012-spillet, og resten av testene ga ingen overraskelser .

Konklusjon


Gigabyte GeForce GTX 680 SOC WindForce 5X viste seg absolutt å være et veldig interessant grafikkort. Et godt designet PCB med et åttefaset GPU-strømsystem og bruk av høykvalitetskomponenter for «Super Overclock»-serien vil sikre stabil overklokking og langsiktig drift. Valgt under spesialprogrammet "GPU Gauntlet" grafikkprosessor, ekstra BIOS med innstillinger for overklokking under nitrogen og punkter for måling av nøkkelspenninger vil sikkert tiltrekke seg oppmerksomheten til ekstreme overklokkere. De høye fabrikkfrekvensene, kombinert med WindForce 5Xs svært effektive kjølesystem og konkurransedyktige prisnivå, vil ganske enkelt ikke unnlate å tiltrekke seg de fleste uformelle brukere.

Samtidig kan vi ikke kalle kjølesystemet til dette stilige og utad monumentale produktet stille. I tillegg, for å frigjøre potensialet, trenger den en romslig bygning med et godt organisert ventilasjonssystem. I tillegg bør produkter av denne klassen ha en rikere og mer attraktiv pakkepakke, og som en moralsk forsikring kan Gigabytes flaggskip utstyres med fire gigabyte minne i stedet for de to nåværende. Likevel har vi et positivt inntrykk av Gigabyte GeForce GTX 680 SOC WindForce 5X. Valget er som alltid ditt.

Side 2 av 4

Tabellen nedenfor oppsummerer hovedspesifikasjonene til NVIDIA GeForce GTX 680 grafikkort.

Testmetodikk

For å bestemme ytelsen til NVIDIA GTX 680 har bestått en rekke tester, som inkluderte noen syntetiske benchmarks og populære spillapplikasjoner. Resultatene som ble oppnådd ble sammenlignet med moderne modeller av NVIDIA- og AMD-skjermkort. Systemet ble satt sammen på grunnlag av Core i7 2600K-prosessoren. Resultatene i testene ble tatt ved standardfrekvenser, samt i overklokket tilstand. Testsystemet fungerte under Windows-kontroll 7 Profesjonell 64-bit. Følgende driverversjoner ble brukt: NVIDIA - Forceware 296.10, AMD - Catalyst 12.3. Den komplette konfigurasjonen av testbenken er vist nedenfor.

prøvestand

  • Prosessor - Core i7 2600K @ 4,4 GHz (100 x 44);
  • CPU-kjøler: Corsair Hydro Series H100 ;
  • Hovedkort: Gigabyte Z68AP-D3;
  • RAM - 8 GB (2x 4 GB) Mushkin 1866 MHz 9-11-9-27;
  • Skjermkort - NVIDIA GeForce GTX 680;
  • Strømforsyning - Mushkin Joule 1000 watt;
  • Harddisk - SATA Seagate 1 TB;
  • Optisk stasjon - Lite-On DVD-RW;
  • Veske - Corsair Graphite Series 600T;
  • OS - Windows 7 Professional 64-bit.

Skjermkort for sammenligning

  • NVIDIA GeForce GTX 580;
  • NVIDIA GeForce GTX 570;

Overklokking

Som et resultat av overklokking var den endelige kjerne- og minnefrekvensen henholdsvis 1305 MHz og 1628 MHz. Verdt å merke seg her ny mulighet- Dynamisk overklokking av kjernen til skjermkortet GTX 680. Så standard kjernefrekvens er 1006 MHz. Hvis skjermkortet er lastet med intensive beregninger med 100 %, stiger GPU-frekvensen automatisk. Dynamisk overklokking er regulert på en slik måte at strømforbruket til skjermkortet ikke går utover TDP. Hvis varmespredningen til skjermkortet går utover de fastsatte grensene, reduseres frekvensen for å unngå overoppheting.

Overklokking ble gjort ved hjelp av EVGA Precision-verktøyet. For at skjermkortet ikke skulle tilbakestille de innstilte frekvensene, ble Power Target-verdien satt til maksimum. Tilsynelatende endrer dette alternativet verdien av maksimalt tillatt strømforbruk, og dette lar deg heve overklokkingstaket. Som et resultat ble det oppnådd en 30 prosent økning i frekvensen på kjernen.

Skjermkortet ble testet for stabilitet etter overklokking ved å bruke Unigine Heaven 3.0 benchmark (30 minutter). Nedenfor er resultatene av overklokking av skjermkort som deltar i testing.


Nylig bestemte overklokkeren Hazzan seg for å prøve å overklokke GTX 680 i 4-veis SLI-modus og satte som et resultat en ny 3DMark 11-ytelsesrekord i ytelsesmodus.

I følge data utgitt av HWBOT brukte Hazzen en GTX 680 4-veis SLI og var i stand til å score P33190 i 3DMark 11, opp 39 poeng fra andreplassen i samme test. Kjerne- og minnefrekvensene var henholdsvis 1706 MHz (maksimal kortfrekvens i Boost-modus) og 1800 MHz (7200 MHz effektiv).

Testplattformen inkluderer en Core i7-3930K-prosessor (overklokket til 5784 MHz), 8 GB GSkill DDR3 RAM i en quad-kanals konfigurasjon, overklokket til 2480 MHz, Antec High Current Pro 1300 W strømforsyning, hovedkort ASUS-kort Rampage IV Extreme og ASUS GTX 680 DirectCU II grafikkort. Både CPU og skjermkort ble avkjølt med flytende nitrogen.

EVGA når 2 GHz på GeForce GTX 680 GPU

26. juni 2012

Da NVIDIA slapp GeForce GTX 680 i mars i år, avsto selskapet fra å overklokke og satte GPU-klokken til litt over 1 GHz. Snart så vi forskjellige overklokkede løsninger på markedet, men 100 % overklokking var utenfor rekkevidde selv for alternativer for flytende nitrogen.

Imidlertid bestemte EVGA noe annet. Ingeniørteamet deres har jobbet hardt med å lage GTX 680 Classified, en personlig versjon av NVIDIA GeForce GTX 680.

Spesifikasjonene er ganske imponerende, siden et slikt kort er det raskeste i verden, vel, i hvert fall ifølge utviklerne. Brettet har 14 diskrete strømfaser i motsetning til referansekortets fem, doble BIOS for overklokkingsmodus, EVBot-støtte og 4 GB GDDR5-minne som kjører på 6GHz.

Som du kan se av antall faser, har PCB blitt fullstendig redesignet spesielt for å forbedre overklokkingsevnene.

Vi kan forvente at selskapet slipper sitt overklokkede kort i løpet av noen uker, men det er kanskje ikke tilfelle da EVGA ønsker å trekke så mye oppmerksomhet som mulig til 2GHz-kortet.

EVGA GeForce GTX 680 overklokket til 1842 MHz

26. mars 2012

Dagen før den offisielle utgivelsen av GTX 680 klarte en kjent overklokker med kallenavnet kIngpIn å overklokke prosessoren til GTX 680-skjermkortet fra EVGA til strålende 1842 MHz.

Resultatet ble oppnådd ved bruk av en modifisert TiN PWM-seksjon, og flytende nitrogenkjøling (ja, standard PWM er ikke egnet for dette). Samtidig ble skjermkortets kjerne avkjølt til -150 ° C. For å overklokke systemet ble det brukt en Core i7 3930K-prosessor overklokket til 5,5 GHz, og minnefrekvensen var 2400 MHz. For overklokking ble Precision X-verktøyet brukt. I 3DMark 11-testen fikk systemet 14912 poeng med ytelsesforhåndsinnstillingen.

Når det gjelder ytelse, er det verdt å merke seg at kIngpIn ikke slo rekorden som ble satt tidligere av Elmor på HD 7970-kortet med en frekvens på 1800 MHz. Denne konfigurasjonen fikk P15035 i 3DMark 11. Samtidig ble selvfølgelig full tessellering slått på, ellers ville testen vist tusen poeng til.

Om dette skrev kIngpIn på forumet: «Riggen er i stand til 16 000 poeng på ett enkelt kort hvis den brukes til det fulle, og i dag har vi nådd en stabil 1900 MHz, og vi tror at med ytterligere tuning vil vi nå 2 GHz. Det trenger bare mer tid. Å prøve å bruke to kort under flytende nitrogen er for langt... det er bare modifikasjoner som lar deg oppnå denne frekvensen..

Metro 2033




I dette svært krevende spillet gir AMD-kort en jevn fordel ved både 1920x1080 og 2560x1600.

Ved 5760x1080 to kort Radeon HD 7970 definitivt raskere enn konkurrentene. Interessant nok, uansett om du bruker ett kort eller to, har aktivering av 4x MSAA svært liten effekt på ytelsen til avanserte AMD-grafikkort.

Overklokking

Svært ofte ser vi kommentarer som sier at det ville være rettferdig å sammenligne overklokket GeForce GTX 680 overklokket Radeon HD 7970. Tatt i betraktning at GTX 680 bruker GPU Boost-teknologi, viser kortet allerede ytelse nær grensen, mens Tahiti GPUer har betydelig overklokkingspotensial.

Av denne grunn bestemte vi oss for å tilpasse prøvene våre på en mer målrettet måte.

Vi startet med Radeon HD 7970, som ble kjøpt i detaljhandel fra Newegg. Vi bruker Catalyst 12.2 for oppsett. I Overdrive-menyen presset vi alle innstillingene til det maksimale, og økte kjernefrekvensen til 1125 MHz, og minnet til 1575 MHz. Forsøk på å knekke CCC og den nyeste versjonen av MSI Afterburner ved å bruke kjente register- og konfigurasjonsfiler har vært mislykkede. Vi hadde i alle fall ikke tenkt å skru av noen funksjoner for å øke frekvensen. Derfor bestemte vi oss for de høyeste AMD-innstillingene.

På GeForce-kortet klarte vi å oppnå nesten de samme resultatene. EVGAs GTX 680 leverte jevn ytelse med 132 % kraft og en 150 MHz kjerneklokkeforskyvning. Minnefrekvensen viste seg å være mindre fleksibel. Vi flyttet minneinnstillingen til +25 MHz, men ytelsen falt. Derfor ble testing utført ved en standardfrekvens på 1502 MHz.

Radeon HD 7970 betydelig økt hastighet i 3DMark 11. GeForce GTX 680 ved økt effekt og frekvens ga en mindre økning i denne syntetiske testen.

GeForce GTX 680 igjen ga ikke en merkbar økning i ytelse under overklokking. I mellomtiden kl Radeon HD 7970 det er en betydelig forbedring. I følge resultatene av disse testene tar AMD ledelsen.

Crysis 2 er et spill med nVidia TWIMTBP-logoen som lagrer GeForce etter 3DMark og Battlefield 3 tester. Ved maksimale innstillinger i Overdrive, ytelse Radeon HD 7970øker i gjennomsnitt med ca 6 FPS og når ytelsesnivået til GTX 680 uten overklokking.

Frekvensforsterkningen på 200 MHz tillater det Radeon HD 7970øk resultatet med 10 FPS i spillet DiRT 3. Dette er imidlertid ikke nok til å ta igjen GeForce GTX 680, selv om ytelsen til dette kortet bare økte med 4 FPS.

Selv om Radeon HD 7970 igjen får mer fordel av overklokking, hun klarte ikke å komme seg rundt GeForce GTX 680 i 64-biters versjonen av World of Warcraft-klienten.

Metro 2033 med quad MSAA-kart Radeon HD 7970 selv uten overklokking var raskere enn GeForce GTX 680. Vi ser det samme under akselerasjon.

Generelt er det ganske lett å forstå det Radeon HD 7970 får mye mer utbytte av overklokking enn GeForce GTX 680. Det er synd at Catalyst Control Center-driveren gir maksimalt 1125/1575 MHz. Vi prøvde å deaktivere Ultra-Low Power States og hacke registeret for å få mer hastighet, men innså raskt at det allerede er for mye å omgå de positive aspektene ved grafikkortet. Kanskje i fremtiden vil selskapet endre grensene i nye driverversjoner.

En annen konklusjon foreslår seg selv: det meste av kraftreserven GeForce GTX 680 brukes allerede av GPU Boost-teknologi, og etterlater lite potensiale for overklokking. På grunn av dette vil det være enda mer interessant å se på modifikasjonene gjort av leverandører som EVGA. For å stabilisere samspillet til GPU Boost med høyere frekvenser, vil trolig mer aggressiv luftkjøling eller en integrert vannblokk hjelpe.



INNHOLD

Et av de mest produktive skjermkortene i 2012, Nvidia Geforce GTX 680, var utstyrt med en GK104 GPU, som gjør det enkelt å kjøre ikke for gamle spill og videoer opp til 4K. På et tidspunkt ble det en verdig konkurrent til Radeon HD 7970 og alle andre høyytelses enprosessor-skjermkort. I 2018 kan den ikke lenger brukes til å bygge en kraftig eller til og med gjennomsnittlig spilldatamaskin, men den er ganske egnet for budsjett-spill-PCer.

Videokortet mottok fra produsenten grafikk GPU GK104 med 1536 CUDA-kjerner (3 ganger flere enn GTX 580-modellen) og 128 teksturenheter.

De gjenværende egenskapene til GTX 680 kan representeres av følgende liste:

  • basefrekvensen til prosessoren / minnet - 1006/6008 MHz;
  • minnestørrelse - 2048 MB;
  • prosessteknologi - 28 nm;
  • antall transistorer - 3,54 milliarder, mer sammenlignet med GTX 580, men betydelig mindre enn Radeon HD 7970;
  • minnebussbredde - 256 biter;
  • grensesnitt - PCI-E 3.0.

Ved hjelp av et skjermkort kan du koble opptil 4 skjermer til én datamaskin uten spesielle ledere, tre av dem i 3D Vision Surround-modus. 2 DVI-porter (DVI-I og DVI-D), HDMI og DisplayPort kan brukes for tilkobling. Maksimal skjermoppløsning i dette tilfellet er 3840×2160 piksler.

Salgsprisen på GTX 680 helt i begynnelsen var $499 eller 17 999 rubler. For Russland. Denne kostnaden er merkbart lavere sammenlignet med konkurrenter som Radeon HD 7970. Når du finner ut hvor mye GTX 680-grafikkkortet koster nå, kan du få et tall på rundt $ 100-150.

GTX 680 Oversikt

Utseendemessig skiller ikke grafikkortet seg mye fra forrige versjon av GTX 580. Spesielt med tanke på bruken av en massiv turbinkjøler og andre funksjoner i kjølesystemet.

For å spare plass ble fordampningskammeret fjernet fra brettet. Radiatorfinnene ble gjort mer skråstilte, noe som letter luftpassasjen. Denne funksjonen og bruken av et spesielt lydabsorberende materiale for fremstilling av turbinen fører til en merkbar reduksjon i støy fra kjøleren sammenlignet med 580. versjonen eller Radeon HD 7970.

Andre funksjoner i modellen inkluderer:

  • tilstedeværelsen av DisplayPort- og HDMI-porter i full størrelse, slik at du kan klare deg uten adaptere;
  • færre minnebrikker på brettet sammenlignet med konkurrenter;
  • mangelen på en varmespreder på GPU, som unngår sjetonger når du installerer kjøleren.
Det maksimale strømforbruket til GTX 680 er 195W, lavere enn sammenlignbare Nvidia-kort. Takket være dette, når du bruker et skjermkort som en ekstra strømforsyning, kan du klare deg med kun 2 sekspinners kontakter.

Hvordan overklokke et Nvidia Geforce GTX 680 grafikkort

Oppfyller overklokking gtx 680, kan du prøve å øke ytelsen i spill og til og med bruke dette kortet til gruvedrift av kryptovaluta. Til dette brukes en spesiell GPU Boost-teknologi og et av verktøyene som passer for Nvidia GPUer, som MSI Afterburner eller RivaTuner.

Ved å øke forsyningsspenningen for videoadapteren med 10 %, kan du få en frekvens på 1100 MHz (i stedet for 1006) og en effektiv verdi på 6912 MHz (i stedet for 6008). Resultatet av denne overklokkingen var en liten økning i belastningen på kjølesystemet, hvis kjølere begynte å jobbe med maksimalt antall omdreininger.

Ved bruk av grafikkadapter i spill økte ytelsen med ca. 7-13 %, avhengig av innstillingene.

Hvis vi sammenligner gruvefunksjonene til GTX 680, før overklokking viste den en verdi på 15 Mh / s for Ethereum, etter å ha økt frekvensen - omtrent 16,2 Mh / s.

Dette nivået er ikke for høyt og tilsvarer omtrent GTX 1050 grafikkort, selv om den nyere modellen fra Nvidia har lavere strømforbruk, noe som betyr at den er mer lønnsom å mine.

Med en relativt lav strømkostnad vil gruvedrift på GTX 680 gi en viss fortjeneste til den innenlandske brukeren. Selv om det ikke er tilrådelig å kjøpe dette kortet spesielt for slike formål - kan du finne alternativer på markedet med et bedre forhold mellom kostnadene og hastigheten på gruvedrift av kryptovalutaer.

Testing i spill

Ved å sjekke FPS til GTX 680 i spill, kan du få en ide om mulighetene og ta en beslutning om å kjøpe et kort. Den mest praktiske måten å gjøre dette på er å teste de mest krevende spillapplikasjonene på tidspunktet for utgivelsen av modellen og på nåværende tidspunkt. Bruk den dessuten sammen med riktig CPU (Core i5 eller i7) og minne (minst 6–8 GB).

Når du kjører moderne spill med videoadapteren, ble følgende resultater oppnådd:

  • for Lost Planet 2 – et spill som i stor grad bruker 3D-grafikk og konstant overlegger forskyvningskart med geometriske objekter – viser GTX 680 52 bilder per sekund;
  • når du kjører det enda mer krevende Metro 2033-spillet med FullHD-oppløsning, kan du få en verdi på rundt 25 FPS – ikke dårlig for et komfortabelt spill, men nesten på grensen;
  • i DiRT 3 scorer GTX 680 rundt 74 fps, selv om dette spillet ikke lenger kan demonstrere alle grafikkmulighetene;
  • for Mafia II når FPS på kortet 50 selv uten overklokking, for et overklokket kort øker verdien med omtrent 12 %;
  • på maksimale innstillinger i skytespillet Aliens vs. Predator-videoadapter viser 32 FPS;
  • for det teknologiske skytespillet Hard Reset viste FPS-verdiene seg å være de mest imponerende - når du starter spillet med høye innstillinger, når frekvensen 83 fps;
  • når du prøver å spille en av de siste delene av Total War-strategien, Shogun 2, får skjermkortet igjen en anstendig frekvensverdi - 106 fps;
  • i spillet Batman: Arkham City med en oppløsning på 1650x1080 viser videoadapteren 27 FPS.

Når du kjører moderne spillapplikasjoner med GTX 680, synker ytelsen. Men ved middels og minimumsinnstillinger kjører nesten alle spill fortsatt.

For eksempel i Assasin Creed: Origins, når den ble lansert med Kjerneprosessor i7 og 6 GB RAM, vil det gi en jevn spillopplevelse med en oppløsning på 1280x720. Kingdom Come: Deliverance, 2018-spillet, vil også kjøre på lave innstillinger, selv om det vil kreve 8 GB RAM for å kjøre skikkelig.

Driveroppdatering

Mangelen på en passende driver for GTX 680 fører til problemer med driften av ressurskrevende spill og andre nyttige programmer. Feilmeldinger vil vises på dataskjermen, datamaskinen vil fryse og kjøre saktere enn den skal. Løsningen på problemet er å laste ned den aktuelle programvare fra den offisielle ressursen til produsenten - Nvidia.

Du kan bruke til å oppdatere driveren og andre nettsteder, hvor påliteligheten brukeren er sikker på. Det anbefales ikke å laste ned og installere programvare for et skjermkort fra tredjepartsressurser - resultatet er ofte en datamaskininfeksjon med et virus. Det er uønsket å gjøre dette ved hjelp av spesielle verktøy, hvis bruk kan føre til installasjon av utdaterte drivere og skadelig programvare på PC-en.

fortelle venner