Разгон карты nvidia geforce gtx 680 lightning. Видеокарты. Разгон, температура, энергопотребление

💖 Нравится? Поделись с друзьями ссылкой
Первые новости об оригинальной видеокарте компании Gigabyte Technology Co., Ltd. с кулером WindForce 5X появились ещё в начале весны 2012 года. Тогда новинка, без оговорок, смогла удивить всех весьма оригинальным подходом к организации охлаждения, применив в конструкции кулера сразу пять маленьких вентиляторов. WindForce 5X казался настолько неординарным, что многие и вовсе усомнились в появлении видеокарт Gigabyte с таким кулером в свободной продаже. Однако, этого, к счастью, не произошло, и в середине лета компания успешно запустила в серию сразу две видеокарты с использованием WindForce 5X: Gigabyte Radeon HD 7970 SOC WindForce 5X (GV-R797SO-3GD) и Gigabyte GeForce GTX 680 SOC WindForce 5X (GV-N680SO-2GD) . Правда, первую к настоящему времени уже успели снять с продажи ввиду появления более быстрых «GHz Edition», а вот вторая свободно продаётся, пусть и недёшево. Её-то мы сегодня изучим и протестируем.

1. Обзор видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X 2 Гбайт (GV-N680SO-2GD)

технические характеристики

Технические характеристики видеокарты Gigabyte приведены в таблице в сравнении с эталонной видеокартой NVIDIA GeForce GTX 680:



упаковка и комплектация

Видеокарта поставляется в большой картонной коробке, на лицевой стороне которой приведена ключевая информация о продукте:


На обратной – подробное описание системы охлаждения, используемых технологий, фирменной утилиты для разгона и мониторинга, а также прочая, менее значительная информация.

В комплекте поставки два кабеля-переходника с PATA-разъёмов на восьмиконтактные, компакт-диск с драйверами и утилитами, инструкция по установке и рекламный буклет:


Прямо скажем, комплектация для продукта верхнего ценового сегмента очень скромная.

Gigabyte GeForce GTX 680 SOC WindForce 5X выпускается в Тайване и стоит 549 долларов США. Гарантия на продукт – 3 года.

особенности

Видеокарта имеет размеры 295х120х64 мм и выглядит монументально, напоминая собой эдакий броненосец:


Вместо привычных вентиляторов или турбины на лицевой стороне видеокарты мы видим металлический пластиковый кожух с декоративными прорезями, названием компании-производителя и лейблами «Super OverClock». Обратная сторона видеокарты также закрыта металлической пластиной с перфорацией.

Сверху виден ряд из пяти маленьких вентиляторов, частично накрытых металлической пластиной, а снизу – массивный радиатор с тепловыми трубками:


Gigabyte GeForce GTX 680 SOC WindForce 5X оснащается двумя DVI выходами (один с Dual Link), одним выходом HDMI версии 1.4а и одним выходом DisplayPort версии 1.2:


С другой стороны видеокарты видны сразу три разъёма для вентиляторов и какой-то интерфейсный выход непонятного назначения.

Два разъёма MIO для создания различных SLI-конфигураций размещены на своих стандартных местах: в верхней части печатной платы видеокарты у её выходов:


А вот стандартные шести- и восьмиконтактные разъёмы питания, инженеры Gigabyte заменили на два восьмиконтактных, стремясь обеспечить необходимый запас тока при работе на повышенных частотах. Рекомендуемая мощность блока питания для системы с одной такой видеокартой заявлена на отметке 650 ватт, что на 100 ватт выше спецификаций эталонной NVIDIA GeForce GTX 680.

Печатная плата Gigabyte GeForce GTX 680 SOC WindForce 5X выполнена по оригинальному дизайну и имеет усиленную систему питания:


За обеспечение питания графического процессора отвечают сразу восемь фаз, а ещё три отведены на питание памяти и силовых цепей:


Видеокарта относится к серии Super Overclock , построенной по концепции применения высококачественных компонентов с увеличенным сроком службы, японских конденсаторов, пленочных конденсаторов Proadlizer NEC/TOKIN с низким эквивалентным последовательным сопротивлением ESR, установленных на обратной стороне печатной платы:


За управление питанием графического процессора отвечает восьмифазный цифровой PWM-контроллер CHiL CHL8318 :


В верхней части платы видна группа контактов J13, являющейся точками для замера рабочих напряжений V-PLL, V-MEM и V-GPU. Это не столь удобно, как, например, у MSI, но всё же редкие видеокарты оснащены такой возможностью.

Кроме всего вышеперечисленного, видеокарта оснащена двумя версиями BIOS, которые можно переключать квадратной кнопкой с подсветкой, размещённой у выходов платы. В обычной версии (синяя подсветка) просто зашиты повышенные частоты, а вот при переключении на так называемую экстремальную версию BIOS видеокарты (красная подсветка) снимаются все ограничения по токам, и до 300% увеличивается предел мощности графического процессора. Этот BIOS предназначен для экстремального оверклокинга при сверхнизких температурах.

Графические процессоры для видеокарт Gigabyte серии Super Overclock проходят специальную систему отбора «GPU Gauntlet» посредством нескольких циклов стресс-тестирования. В итоге на такие видеокарты устанавливаются только наиболее качественные чипы с высоким оверклокерским потенциалом. Наш кристалл GK104 выпущен в Тайване на 25-й неделе 2012 года (середина июня) и относится к ревизии А2:


Его базовая частота повышена с 1006 до 1137 МГц или сразу на 13%, а в моменты высокой нагрузки частота может увеличиваться до 1202 МГц. Во всём остальном это обычный «Kepler» с напряжениями 1,175 В для 3D-режима и 0,988 В – для 2D-режима, в котором частота снижается до 324 МГц.

На видеокарте установлено 2 Гбайт GDDR5-памяти производства компании Samsung с маркировкой K4G20325FD-FC03 :


Её эффективная частота повышена с номинальных 6008 МГц до 6200 МГц или +3,2%, что совсем немного, но вполне себе приятный бонус. В 2D-режиме частота видеопамяти снижается до 648 МГц.

В итоге спецификации Gigabyte GeForce GTX 680 SOC WindForce 5X таковы:


Добавим, что BIOS видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X вы можете скачать из нашего файлового архива (BIOS Gigabyte GeForce GTX 680 SOC WindForce 5X , и перейдём к изучению системы охлаждения WindForce 5X.

система охлаждения WindForce 5X

Какой бы ни была печатная плата видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X, всё это, по большому счёту, мы с вами уже видели ранее в продуктах ASUS, MSI и самой Gigabyte. Поистине уникальной в этом продукте является система охлаждения WindForce 5X. В компании не скрывают, что гордятся этой разработкой, и оригинальности ей действительно не занимать, ведь в её конструкции скомбинированы тепловая камера, девять медных тепловых трубок диаметром 6 мм, гигантский алюминиевый радиатор и пять 40-мм вентиляторов:



Несмотря на огромную массу (вес видеокарты с кулером 1622 (!) грамма), крепится он к печатной плате всего шестью винтами, четыре из которых расположены по углам графического процессора и два на радиаторе для силовых элементов:


Защитный кожух снять чуть более сложно, но без него становится ясно, что кожух этот в большей степени декоративный, нежели защитный:


Как видим, боковые стороны радиатора плотно закрыты загнутыми и сомкнутыми друг с другом рёбрами, а длинная стальная планка служит креплением для самого кожуха и не более того.

При толщине радиатора 45 мм понятно, что тепловая камера не смогла бы равномерно распределить весь тепловой поток по рёбрам, поэтому инженеры Gigabyte оснастили радиатор сразу девятью медными тепловыми трубками диаметром 6 мм. Четыре выходят в одну сторону, а пять – в другую, но все они равномерно пронизывают верхнюю часть рёбер радиатора:


Контакт основания кулера с графическим процессором осуществлён посредством густой и серой термопасты, а с микросхемами памяти и силовыми элементами радиатор контактирует через термопрокладки. Все сопряжения в радиаторе пропаяны.

Сразу пять 40-мм вентиляторов, установленных на верхнем торце радиатора, выпущены компанией Power Logic (модель PLA04015S12HH), базируются на подшипниках качения и управляются широтно-импульсной модуляцией (PWM):


Вентиляторы установлены в перевёрнутом виде, то есть в процессе работы они будут выдувать горячий воздух из радиатора, засасывая его снизу. И если на боковой стенке вашего корпуса нет вентилятора «на выдув», то нагретый видеокартой воздух будет оставаться внутри корпуса и его придётся выводить другими корпусными вентиляторами.

Давайте проверим, сколь эффективен кулер WindForce 5X. Для этого в качестве нагрузки мы использовали пять циклов теста весьма ресурсоёмкой игры Aliens vs. Predator (2010) при максимальном качестве графики в разрешении 2560х1440 пикселей с анизотропной фильтрацией уровня 16х и с использованием MSAA-сглаживания степени 4x:



Для мониторинга температур и прочих параметров применялись программа MSI Afterburner версии 2.2.5 и утилита GPU-Z версии 0.6.6 . Все тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при комнатной температуре 24 градуса Цельсия. Тестирование эффективности системы охлаждения видеокарты было проведено до её разборки с использованием штатного термоинтерфейса.

Посмотрим на эффективность кулера Gigabyte GeForce GTX 680 SOC WindForce 5X в автоматическом режиме работы и при максимальной скорости вентиляторов:


Автоматический режимМаксимальная мощность


При автоматической регулировке вращения вентиляторов, когда их скорость (если верить данным мониторинга) увеличивалась до 7260 об/мин, графический процессор прогрелся до 68 градусов Цельсия, что для разогнанного GK104 является превосходным результатом. Если же выставить скорость вентиляторов на максимум (9750 об/мин по данным мониторинга), то температура графического процессора составила всего 54 градуса Цельсия. Это как-то даже смешно для разогнанной GeForce GTX 680. Зато совсем не смешно для слуха пользователя.

К сожалению, традиционных измерений уровня шума в сегодняшней статье не будет. Причин тому две. Во-первых, для подключения пяти вентиляторов к печатной плате используются сразу три коннектора двух разных типов, поэтому подключить их к нашему прибору для мониторинга и управления не представлялось возможным. Второй причиной явился один бракованный вентилятор, как раз тот, который мы сняли на фото выше. При включении его подшипник завывал так, что терпеть его было крайне сложно. Правда, после прогрева он несколько утихомиривался, но всё равно лучшего решения, чем принудительно остановить его мы не нашли. К слову, температурные тесты проведены при всех пяти активированных вентиляторах. Субъективно, без гремящего подшипником вентилятора, кулер WindForce 5X работает тихо до 4000-4500 об/мин, комфортно до 6000 об/мин, а выше этой отметки, увы, уже заметно выделяется на фоне тихого системного блока. Как вы помните, в автоматическом режиме работы вентиляторы раскручивались до 7260 об/мин, поэтому мы не можем назвать Gigabyte GeForce GTX 680 SOC WindForce 5X тихой видеокартой. Только в 2D-режиме, когда скорость вентиляторов находится у отметки 2000 об/мин, видеокарту действительно не слышно, хотя для игрового продукта это не столь важно.

оверклокерский потенциал

Изучение оверклокерского потенциала Gigabyte GeForce GTX 680 SOC WindForce 5X мы начали при штатном напряжении 1,175 В и максимальном значении Power limit. Система охлаждения функционировала в автоматическом режиме. Базовую частоту графического процессора нам удалось поднять на 65 МГц, а частоту видеопамяти на 1120 эффективных мегагерц:


В результате частоты видеокарты составили 1202/1267/7328 МГц:


Результат разгона GPU вполне обычный для GeForce GTX 680, и большего нам не удалось добиться ни при включении экстремального BIOS видеокарты, ни при повышении напряжения на графическом процессоре. Впрочем, достигнутая частота памяти не может не радовать.

После разгона видеокарты максимальная температура графического процессора увеличилась на 3 градуса Цельсия до 71 градуса, а скорость вентиляторов повысилась на 150 об/мин при итоговых 7410 об/мин:



В завершение обзора видеокарты нельзя не сказать несколько слов о фирменной утилите Gigabyte OC Guru II , способной не только контролировать все параметры Gigabyte GeForce GTX 680 SOC WindForce 5X, но и управлять ими:


Кроме возможности изменения частот, напряжений и их мониторинга, утилитой можно выполнять тонкую подстройку PWM-частот и степень загрузки графического процессора, памяти и шины PCI-Express:


В отдельном окне можно вручную настроить скорость вращения вентиляторов в зависимости от температуры, или выбрать одну из трёх предустановок:



энергопотребление

Измерение энергопотребления системы с различными видеокартами осуществлялось с помощью многофункциональной панели Zalman ZM-MFC3 , которая показывает потребление системы «от розетки» в целом (без учёта монитора). Измерение было проведено в 2D-режиме, при обычной работе в Microsoft Word или интернет-«сёрфинге», а также в 3D-режиме, нагрузка в котором создавалась с помощью трёхкратного теста из игры Metro 2033: The Last Refuge в разрешении 2560х1440 при максимальных настройках качества графики.

Давайте посмотрим на результаты:



Что интересно, система с видеокартой Gigabyte оказалась немного экономичнее в плане потребления электроэнергии, чем система с почти такой же видеокартой ASUS. Даже после разгона Gigabyte GeForce GTX 680 SOC WindForce 5X до частот 1202/7320 МГц она потребляет чуть меньше, чем ASUS GeForce GTX 680 DirectCU II TOP на номинальных для неё частотах 1137/6008 МГц. В дополнение отметим, что система с Radeon HD 7970 GHz Edition (в исполнении Sapphire) всё же более требовательна к энергопотреблению, чем обе системы с GeForce GTX 680. Ну, а лидером сегодня вполне закономерно стала система с двухпроцессорной GeForce GTX 690. В 2D-режиме бездействия энергопотребление всех систем отличается в самой минимальной степени.

2. Тестовая конфигурация, инструментарий и методика тестирования

Тестирование видеокарт было проведено на системе следующей конфигурации:

Системная плата: Intel Siler DX79SI (Intel X79 Express, LGA 2011, BIOS 0537 от 23.07.2012);
Центральный процессор: Intel Core i7-3960X Extreme Edition 3,3 ГГц (Sandy Bridge-E, C1, 1,2 В, 6x256 Kбайт L2, 15 Мбайт L3);
Система охлаждения CPU: Phanteks PH-TC14PЕ (два 140 мм вентилятора Corsair AF140 Quiet Edition при 900 об/мин);
Термоинтерфейс: ARCTIC MX-4 ;
Оперативная память: DDR3 4x4 Гбайт Mushkin Redline (2133 МГц, 9-10-10-28, 1,65 В);
Видеокарты:

NVIDIA GeForce GTX 690 2x2 Гбайт 256 бит GDDR5, 915/6008 МГц;
Gigabyte GeForce GTX 680 SOC WindForce 5X 2 Гбайт 256 бит GDDR5, 1137/6200 и 1202/7320 МГц;
ASUS GeForce GTX 680 DirectCU II TOP 2 Гбайт 256 бит GDDR5, 1137/6008 МГц;
Sapphire Radeon HD 7970 OC Dual-X 3 Гбайт 384 бит GDDR5, 1050/6000 МГц;

Системный диск: SSD 256 Гбайт Crucial m4 (SATA-III, CT256M4SSD2, BIOS v0009);
Диск для программ и игр: Western Digital VelociRaptor (SATA-II, 300 Гбайт, 10000 об/мин, 16 Мбайт, NCQ) в коробке Scythe Quiet Drive 3,5";
Архивный диск: Samsung Ecogreen F4 HD204UI (SATA-II, 2 Тбайт, 5400 об/мин, 32 Мбайт, NCQ);
Корпус: Antec Twelve Hundred (передняя стенка – три Noiseblocker NB-Multiframe S-Series MF12-S2 на 1020 об/мин; задняя – два Noiseblocker NB-BlackSilentPRO PL-1 на 1020 об/мин; верхняя – штатный 200-мм вентилятор на 400 об/мин);
Панель управления и мониторинга: Zalman ZM-MFC3 ;
Блок питания: Seasonic SS-1000XP Active PFC F3 (1000 Вт), 120-мм вентилятор;
Монитор: 27" Samsung S27A850D (DVI-I, 2560х1440, 60 Гц).

Производительность видеокарты Gigabyte мы сравним с очень быстрой ASUS GeForce GTX 680 DirectCU II TOP на номинальных частотах и с Sapphire Radeon HD 7970 OC Dual-X , разогнанной до уровня GHz Edition :




Кроме того, в качестве ориентира по скорости в тестирование добавлена эталонная NVIDIA GeForce GTX 690 на своих номинальных частотах:




Для снижения зависимости производительности видеокарт от скорости платформы, 32-нм шестиядерный процессор при множителе 37, опорной частоте 125 МГц и активированной функции «Load-Line Calibration» был разогнан до 4,625 ГГц при повышении напряжения в BIOS материнской платы до 1,49 В:



Технология «Hyper-Threading» активирована. При этом 16 Гбайт оперативной памяти функционировали на частоте 2 ГГц с таймингами 9-11-10-28 при напряжении 1,65 В.

Тестирование, начатое 3 ноября 2012 года, было проведено под управлением операционной системы Microsoft Windows 7 Ultimate x64 SP1 со всеми критическими обновлениями на указанную дату и с установкой следующих драйверов:

чипсет материнской платы Intel Chipset Drivers – 9.3.0.1025 WHQL от 25.10.2012 ;
библиотеки DirectX End-User Runtimes, дата выпуска – 30 ноября 2010 года ;
драйверы видеокарт на графических процессорах AMDCatalyst 12.11 Beta от 23.10.2012 + Catalyst Application Profiles 12.10 (CAP1);
драйверы видеокарт на графических процессорах NVIDIA – GeForce 310.33 beta от 23.10.2012 .

Производительность видеокарт была проверена в двух разрешениях: 1920х1080 и 2560х1440 пикселей. Для тестов были использованы два режима качества графики: «Quality + AF16x» – качество текстур в драйверах по-умолчанию с включением анизотропной фильтрации уровня 16х, и «Quality + AF16x + MSAA 4х(8х)» с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания степени 4x или 8x, в случаях, когда среднее число кадров в секунду оставалось достаточно высоким для комфортной игры. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. Если данные настройки в играх отсутствовали, то параметры изменялись в панелях управления драйверов Catalyst и GeForce. Там же была отключена вертикальная синхронизация. Больше никаких изменений в настройки драйверов не вносились.

Так как мы неоднократно тестировали GeForce GTX 680 и его конкурента, то сегодняшний список тестовых приложений был сокращён до одного полусинтетического пакета и 8 игр (по принципу наиболее ресурсоёмких и свежих):

3DMark 2011 (DirectX 11) – версия 1.0.3.0, профили настроек «Performance» и «Extreme»;
Metro 2033: The Last Refuge (DirectX 10/11) – версия 1.2, использовался официальный тест, настройки качества «Very High», тесселляция, DOF включено, использовалось ААА-сглаживание, двойной последовательный проход сцены «Frontline»;
Total War: SHOGUN 2 – Fall of the Samurai (DirectX 11) – версия 1.1.0, встроенный тест (битва при Sekigahara) на максимальных настройках качества графики и использовании в одном из режимов MSAA 4x;
Crysis 2 (DirectX 11) – версия 1.9, использовался Adrenaline Crysis 2 Benchmark Tool v1.0.1.14 BETA , профиль настроек качества графики «Ultra High», текстуры высокого разрешения активированы, двукратный цикл демо-записи на сцене «Times Square»;
Battlefield 3 (DirectX 11) – версия 1.4, все настройки качества графики на «Ultra», двойной последовательный проход заскриптованной сцены из начала миссии «На охоту» продолжительностью 110 секунд;
Sniper Elite V2 Benchmark (DirectX 11) – версия 1.05, использовался Adrenaline Sniper Elite V2 Benchmark Tool v1.0.0.2 BETA максимальные настройки качества графики («Ultra»), Advanced Shadows: HIGH, Ambient Occlusion: ON, Stereo 3D: OFF, двойной последовательный прогон теста;
Sleeping Dogs (DirectX 11) – версия 1.5, использовался Adrenaline Sleeping Dogs Benchmark Tool v1.0.0.3 BETA , максимальные настройки качества графики по всем пунктам, Hi-Res Textures pack установлен, FPS Limiter и V-Sync отключены, двойной последовательный прогон теста с суммарным сглаживанием на уровне «Normal» и на уровне «Extreme»;
F1 2012 (DirectX 11) – update 9, использовался Adrenaline Racing Benchmark Tool v1.0.0.13 , настройки качества графики на уровне «Ultra», бразильская трасса «Interlagos» 2 круга, 24 машины, лёгкий дождь, режим камеры – «Bonnet»;
Borderlands 2 (DirectX 9) – версия 1.1.3, встроенный тест при максимальных настройках качества графики и максимальном уровне PhysX, сглаживание FXAA включено.

Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1%. Если отклонения прогонов тестов превышали 1%, то тестирование повторялось ещё, как минимум, один раз, чтобы получить достоверный результат.





Borderlands 2


Мы не стали комментировать каждую диаграмму, так как, по большому счёту, ничего нового на них не увидели. В целом Gigabyte GeForce GTX 680 SOC WindForce 5X чуть быстрее ASUS GeForce GTX 680 DirectCU II TOP за счёт более скоростной памяти, но разница мизерна. Разгон Gigabyte приносит ей 5-7% производительности плюсом, что также немного, но и пренебрегать таким бесплатным повышением производительности не стоит. В противостоянии с Sapphire Radeon HD 7970 OC Dual-X на частотах 1050/6000 МГц на новых версиях драйверов новая видеокарта Gigabyte выигрывает в 3DMark 2011, Crysis 2, Borderlands 2, а также качественных режимах Total War: SHOGUN 2 и F1 2012. Паритет у этих видеокарт только в Battlefield 3. В свою очередь, Radeon опережает GeForce в Metro 2033: The Last Refuge, Sniper Elite V2, Sleeping Dogs, а также в режимах без использования сглаживания Total War: SHOGUN 2 и F1 2012. Из особенностей работы двухпроцессорной NVIDIA GeForce GTX 690 на новых драйверах и в новых тестах выделим отсутствие поддержки SLI в игре F1 2012, а остальные тесты сюрпризов не преподнесли.

Заключение


Gigabyte GeForce GTX 680 SOC WindForce 5X, безусловно, оказалась очень интересной видеокартой. Досконально проработанная печатная плата с восьмифазной системой питания графического процессора и применением высококачественных компонентов для серии «Super Overclock» обеспечат стабильность при разгоне и долговечность эксплуатации. Отобранный по специальной программе «GPU Gauntlet» графический процессор, дополнительный BIOS c настройками для разгона под азотом и точки для замера ключевых напряжений наверняка обратят на себя внимание экстремальных оверклокеров. Высокие заводские частоты вкупе с весьма эффективной системой охлаждения WindForce 5X и конкурентоспособной стоимостью просто не могут не привлечь большинство обычных пользователей.

В то же время, систему охлаждения этого стильного и внешне монументального продукта мы не можем назвать тихой. Вдобавок, для раскрытия потенциала ей требуется просторный корпус с грамотно организованной системой вентиляции. Кроме того, у продуктов такого класса должна быть более насыщенная и притягивающая комплектация, а в качестве морального успокоения флагманский продукт Gigabyte можно было и оснастить четырьмя гигабайтами памяти вместо нынешних двух. Тем не менее, о Gigabyte GeForce GTX 680 SOC WindForce 5X у нас сложилось позитивное впечатление. Выбор, как и всегда, за вами.

Страница 2 из 4

В таблице ниже сведены основные спецификации видеокарты NVIDIA GeForce GTX 680.

Методика тестирования

Для определения производительности NVIDIA GTX 680 прошла ряд тестов, в которые были включены некоторые синтетические бенчмарки и популярные игровые приложения. Полученные результаты сравнивались с современными моделями видеокарт NVIDIA и AMD. Система собиралась на базе процессора Core i7 2600K. Результаты в тестах снимались на дефолтных частотах, а также в разогнанном состоянии. Тестовая система работала под управлением Windows 7 Professional 64-бит. Использовались следующие версии драйверов: NVIDIA - Forceware 296.10, AMD - Catalyst 12.3. Полная конфигурация тестового стенда приведена ниже.

Тестовый стенд

  • Процессор - Core i7 2600K @ 4.4 ГГц (100 x 44);
  • Охлаждение CPU: Corsair Hydro Series H100 ;
  • Материнская плата: Gigabyte Z68AP-D3;
  • ОЗУ - 8 Гб (2х 4 Гб) Mushkin 1866 МГц 9-11-9-27;
  • Видеокарта - NVIDIA GeForce GTX 680;
  • Блок питания - Mushkin Joule 1000 ватт;
  • Жесткий диск - SATA Seagate 1 Тб;
  • Оптический накопитель - Lite-On DVD-RW;
  • Корпус - Corsair Graphite Series 600T ;
  • ОС - Windows 7 Professional 64-бит.

Видеокарты для сравнения

  • NVIDIA GeForce GTX 580;
  • NVIDIA GeForce GTX 570;

Разгон

В результате разгона итоговое значение частот ядра и памяти составили 1305 МГц и 1628 МГц, соответственно. Здесь стоит отметить новую возможность - динамический разгон ядра видеокарты GTX 680. Так частота ядра по умолчанию составляет 1006 МГц. В случае если видеокарта нагружена интенсивными вычислениями на 100%, то частота GPU автоматически поднимается. Динамический разгон регулируется таким образом, чтобы энергопотребление видеокарты не выходило за рамки TDP. В случае если тепловыделение видеокарты выходит за установленные рамки, частота снижается во избежание перегрева.

Разгон производился при помощи утилиты EVGA Precision. Для того чтобы видеокарта не сбрасывала установленные частоты, значение Power Target устанавливалось на максимум. Видимо, данная опция меняет значение максимально допустимого энергопотребления, и это позволяет поднять потолок разгона. В итоге получено 30-ти процентное увеличение частоты на ядре.

На стабильность после разгона видеокарта проверялась с использованием бенчмарка Unigine Heaven 3.0 (30 минут). Ниже приведены результаты разгона видеокарт, участвующих в тестировании.


Недавно, оверклокер с ником Hazzan решил попробовать разогнать карту GTX 680 в режиме 4-Way SLI и в результате установил новый рекорд производительности 3DMark 11 в режиме Performance.

Согласно данным, опубликованным HWBOT, Hazzen использовал GTX 680 4-Way SLI и смог набрать P33190 баллов в 3DMark 11, что на 39 очков больше, чем второе место в том же тесте. Частоты ядра и памяти составили соответственно 1706 МГц (максимальная частота карты в Boost режиме) и 1800 МГц (7200 МГц эффективной).

Тестовая платформа включает процессор Core i7-3930K (разогнанный до 5784 МГц), 8 ГБ оперативной памяти GSkill DDR3 в четырёхканальной конфигурации, разогнанной до 2480 МГц, блок питания Antec High Current Pro мощностью 1300 Вт, материнскую плату ASUS Rampage IV Extreme и видеокарты ASUS GTX 680 DirectCU II. И центральный процессор и видеокарта охлаждались жидким азотом.

EVGA достигла 2 ГГц на GPU GeForce GTX 680

26 июня 2012 года

Когда NVIDIA в марте этого года выпустила GeForce GTX 680, компания воздерживалась от разгона и снизила частоту GPU до чуть более 1 ГГц. Вскоре мы увидели на рынке разные варианты разогнанных решений, однако оверклокинг на 100% был недосягаем даже для вариантов с жидким азотом.

Однако компания EVGA решила по-другому. Их команда инженеров тяжело трудилась над созданием GTX 680 Classified — персонализованной версии карты NVIDIA GeForce GTX 680.

Спецификации весьма впечатляющие, поскольку такая карта является самой быстрой в мире, ну, по крайней мере, по уверениям разработчиков. На плате предусмотрены 14 дискретных фаз питания, в отличие от пяти, предусмотренных на референтной плате, двойной BIOS , предназначенный для режима разгона, поддержка EVBot, а также 4 ГБ памяти GDDR5, работающей с частотой 6 ГГц.

Как следует из количества фаз, печатная плата была полностью переработана, специально для улучшения возможностей разгона.

Можно ожидать, что компания выпустит свою сверхразогнанную карту через несколько недель, однако этого может и не случиться, поскольку EVGA хочет привлечь к своей 2 ГГц плате как можно больше внимания.

EVGA GeForce GTX 680 разогнана до 1842 МГц

26 марта 2012 года

За день до официального релиза GTX 680, известный оверклокер с ником kIngpIn сумел разогнать процессор видеокарты GTX 680 от EVGA до блистательных 1842 МГц.

Результат был достигнут при использовании модифицированной TiN секции ШИМ, и при охлаждении жидким азотом (да, стандартная ШИМ не подходит для этого). Ядро видеокарты при этом было охлаждено до -150° С. Для разгона системы использовался процессор Core i7 3930K, разогнанный до 5,5 ГГц, а частота памяти составляла 2400 МГц. Для оверклокинга использовалась утилита Precision X. В тесте 3DMark 11 система набрала 14912 очков с предустановкой Performance.

А вот что касается производительности, то тут стоит отметить, что kIngpIn не побил рекорд, установленный ранее Elmor на карте HD 7970 с частотой 1800 МГц. Эта конфигурация в 3DMark 11 набрала P15035 баллов. При этом, безусловно, была включена полная тесселяция, иначе тест показал бы на тысячу очков больше.

По этому поводу kIngpIn написал на форуме: «Установка способна набрать 16000 очков на одной карте, если использовать её на полную, а сегодня мы достигли стабильных 1900 МГц, и мы думаем, что с дальнейшим тюнингом мы наберём 2 ГГц. Нужно просто больше времени. Попытки использования двух карт под жидким азотом слишком далеки… это всё лишь модификации, которые позволяют достичь такой частоты» .

Metro 2033




В этой очень требовательной игре карты AMD обеспечивают постоянное преимущество как на разрешении 1920x1080, так и на 2560x1600.

На разрешении 5760x1080 две карты Radeon HD 7970 определённо быстрее конкурентов. Интересно, что независимо от того, используете вы одну карты или же две, включение 4x MSAA очень слабо влияет на производительность high-end видеокарт AMD.

Разгон

Очень часто мы видим комментарии, в которых говорится, что справедливо было бы сравнивать разогнанную GeForce GTX 680 с разогнанной Radeon HD 7970 . Учитывая, что GTX 680 использует технологию GPU Boost, карта уже демонстрирует производительность, близкую к пределу, в то время как GPU Tahiti обладают существенным разгонным потенциалом.

По этой причине мы решили настроить наши образцы более целенаправленно.

Мы начали с Radeon HD 7970 , которую приобрели в розницу на Newegg. Для настройки мы используем Catalyst 12.2. В меню Overdrive мы вывели все настройки на максимум, подняв частоту ядра до 1125 МГц, а памяти до 1575 МГц. Попытки взломать CCC и последнюю версию программы MSI Afterburner, используя известные корректировки реестра и файла конфигурации, оказались неудачными. Мы в любом случае не собирались выключать какие-либо функции, с целью повысить частоту. Поэтому остановились на самых высоких настройках AMD.

На карте GeForce нам удалось достичь почти таких же результатов. GTX 680 от EVGA обеспечила стабильный уровень производительности на уровне мощности 132% и смещении частоты ядра на 150 МГц. Частота памяти оказалась менее гибкой. Мы сместили настройку памяти на уровень +25 МГц, но производительность снизилась. Поэтому тестирование проводилось на стандартной частоте 1502 МГц.

Radeon HD 7970 заметно увеличила скорость в 3DMark 11. GeForce GTX 680 на повышенной мощности и частоте дала меньший прирост в этом синтетическом тесте.

GeForce GTX 680 снова не обеспечила ощутимый прирост производительности при разгоне. Тем временем, у Radeon HD 7970 наблюдается весомое улучшение. По результатам этих тестов AMD выходит вперёд.

Crysis 2 – игра с логотипом nVidia TWIMTBP, спасает GeForce после тестов 3DMark и Battlefield 3. При максимальных настройках в Overdrive, производительность Radeon HD 7970 в среднем увеличивается примерно на 6 FPS и достигает уровня производительности GTX 680 без разгона.

Повышение частоты на 200 МГц позволяет Radeon HD 7970 увеличить результат на 10 FPS в игре DiRT 3. Однако этого не достаточно, чтобы догнать GeForce GTX 680 , хотя производительность этой карты выросла только на 4 FPS.

Хотя Radeon HD 7970 снова получает большее преимущество от разгона, она не смогла обойти GeForce GTX 680 в 64-битной версии клиента World of Warcraft.

В Metro 2033 с четырёхкратным MSAA карта Radeon HD 7970 даже без разгона была быстрее, чем GeForce GTX 680 . Тоже самое мы наблюдаем при разгоне.

В целом, довольно легко понять, что Radeon HD 7970 получает гораздо больше выгоды от разгона, нежели GeForce GTX 680 . Жаль, что драйвер Catalyst Control Center даёт максимум 1125/1575 МГц. Мы попытались отключить Ultra-Low Power States и взломать реестр, чтобы получить больше скорости, но быстро поняли, что обходить положительные аспекты видеокарты это уже слишком. Возможно, в будущем компания изменит пределы в новых версиях драйверов.

Напрашивается ещё один вывод: большая часть запаса мощности GeForce GTX 680 уже используется технологией GPU Boost, оставляя небольшой потенциал для разгона. Из-за этого будет ещё интереснее посмотреть на модификации, сделанные поставщиками, как например EVGA. Для стабилизации взаимодействия GPU Boost с более высокими частотами наверняка лучше всего поможет более агрессивное воздушное охлаждение или встроенный водяной блок.



СОДЕРЖАНИЕ

Одна из самых производительных видеокарт 2012-го года, Nvidia Geforce GTX 680, комплектовалась графическим процессором GK104, благодаря чему легко справляется с запуском не слишком старых игр и видео в формате до 4К. В своё время она стала достойным конкурентом модели Radeon HD 7970 и всех остальных высокопроизводительных однопроцессорных видеокарт. В 2018-м году она уже не может использоваться для сборки мощного или даже среднего по параметрам геймерского компьютера, однако вполне подходит для бюджетных игровых ПК.

Видеокарта получила от производителя графику GPU GK104 с 1536 ядрами CUDA (в 3 раза больше по сравнению с моделью GTX 580) и 128 текстурными блоками.

Остальные характеристики GTX 680 можно представить следующим списком:

  • базовая частота процессора/памяти – 1006/6008 МГц;
  • объём памяти – 2048 Мб;
  • техпроцесс – 28 нм;
  • число транзисторов – 3,54 млрд., больше по сравнению с GTX 580, но заметно меньше, чем у Radeon HD 7970;
  • ширина шины памяти – 256 бит;
  • интерфейс – PCI-E 3.0.

С помощью видеокарты можно подключать к одному компьютеру до 4 экранов без специальных проводников, три из них – в режиме 3D Vision Surround. Для подключения могут использоваться 2 порта DVI (DVI-I и DVI-D), HDMI и DisplayPort. Максимальное разрешение дисплея в этом случае – 3840×2160 пикселей.

Продажная цена GTX 680 в самом начале составляла $499 или 17999 руб. для России. Эта стоимость заметно ниже по сравнению конкурентов типа Radeon HD 7970. Узнавая, сколько стоит видеокарта GTX 680 сейчас, можно получить цифру примерно на уровне $100–150.

Обзор GTX 680

На вид графическая карта ненамного отличается от предыдущей версии GTX 580. Особенно, с учётом использования массивного кулера-турбины и другим особенностям системы охлаждения.

Для экономии пространства с платы убрали испарительную камеру. Рёбра радиатора сделали более скошенными, облегчив прохождение воздуха. Эта особенность и использование для изготовления турбины специального звукопоглощающего материала приводит к заметному снижению шума от кулера, если сравнивать с 580-й версией или Radeon HD 7970.

Среди других особенностей модели стоит отметить:

  • наличие полноразмерных портов DisplayPort и HDMI, позволяющих обойтись без переходников;
  • меньшее количество микросхем памяти на плате по сравнению с конкурентами;
  • отсутствие теплораспределителя на графическом процессоре, позволяющее избежать сколов при установке кулера.
Максимальное энергопотребление GTX 680 находится на уровне 195 Вт – ниже по сравнению с показателями аналогичных по производительности карт Nvidia. Благодаря этому при использовании видеокарты в качестве дополнительного питания можно обойтись всего лишь 2 шестиконтактными разъёмами.

Как разогнать видеокарту Nvidia Geforce GTX 680

Выполняя разгон GTX 680, можно попробовать увеличить её производительность в играх и даже использовать эту карту для добычи криптовалюты. Для этого применяется специальная технология GPU Boost и одна из утилит, подходящих для графических процессоров Nvidia – например, MSI Afterburner или RivaTuner.

При увеличении напряжения питания видеоадаптера на 10% можно получить частоту 1100 МГц (вместо 1006) и эффективное значение на уровне 6912 МГц (вместо 6008). Результатом такого разгона стало незначительное увеличение нагрузки на систему охлаждения, кулеры которой стали работать с максимальным количеством оборотов.

При использовании графического адаптера в играх производительность выросла примерно на 7-13%, в зависимости от настроек.

Если сравнивать возможности GTX 680 в майнинге, до разгона она показывала значение 15 Mh/s для Эфириума, после повышения частоты – около 16,2 Mh/s.

Такой уровень не слишком высокий и примерно соответствует графическим картам GTX 1050, хотя у более новой модели от Nvidia меньше энергопотребление, а значит майнить выгоднее.

При сравнительно невысокой стоимости электроэнергии майнинг на GTX 680 принесёт определённую прибыль отечественному пользователю. Хотя покупать эту карту специально для таких целей нецелесообразно – на рынке можно найти варианты с более выгодным соотношением затрат к скорости добычи криптовалют.

Тестирование в играх

Проверяя FPS GTX 680 в играх, можно получить представление о её возможностях и принять решение по поводу покупки карты. Удобнее всего сделать это, тестируя самые требовательные к ресурсам игровые приложения на момент выпуска модели и в настоящее время. Причём, используя её вместе с соответствующими ЦПУ (Core i5 или i7) и памятью (не меньше 6–8 Гб).

При запуске с помощью видеоадаптера современных игр были получены такие результаты:

  • для Lost Planet 2 – игры, в которой активно используется 3D-графика и происходит постоянное наложение карт смещения с геометрическими объектами, – GTX 680 показывает 52 кадра в секунду;
  • при запуске ещё более требовательной к характеристикам компьютера игры Metro 2033 с разрешением FullHD можно получить значение около 25 FPS – неплохо для комфортного игрового процесса, однако практически на грани;
  • в игре DiRT 3 показатели GTX 680 составляют около 74 кадров в секунду, хотя эта игра уже не может продемонстрировать все возможности графики;
  • для Mafia II FPS карты достигает 50 даже без разгона, для разогнанной карты значение увеличивается примерно на 12%;
  • на максимальных настройках в шутере Aliens vs. Predator видеоадаптер показывает 32 FPS;
  • для технологического шутера Hard Reset значения FPS получились самыми впечатляющими – при запуске игры на высоких настройках частота достигает 83 кадр/с;
  • при попытке поиграть в одну из последних частей стратегии Total War, Shogun 2, видеокарта снова получает приличное значение частоты – 106 кадр/сек;
  • в игре Batman: Arkham City при разрешении 1650х1080 видеоадаптер показывает 27 FPS.

При запуске с помощью GTX 680 современных игровых приложений показатели падают. Однако на средних и минимальных настройках всё равно запускаются почти все игры.

Например, в Assasin Creed: Origins при запуске с процессором Core i7 и 6 Гб ОЗУ она обеспечит плавный игровой процесс с разрешением 1280х720. На невысоких настройках запустится и Kingdom Come: Deliverance, игра 2018 года, хотя для нормальной работы понадобится 8 Гб оперативной памяти.

Обновление драйверов

Отсутствие подходящего для GTX 680 драйвера приводит к проблемам с работой требовательных к ресурсам игр и других полезных программ. На экране компьютера будут появляться сообщения об ошибке, компьютер начнёт зависать и работать медленнее, чем должен. Решение проблемы заключается в скачивании подходящего программного обеспечения с официального ресурса производителя – компании Nvidia.

Можно воспользоваться для обновления драйвера и другими сайтами, в надёжности которых уверен пользователь. Не рекомендуется скачивать и устанавливать ПО для видеокарты со сторонних ресурсов – результатом нередко становится заражение компьютера вирусом. Нежелательно делать это и с помощью специальных утилит, использование которых может привести и к установке устаревших драйверов, и к попаданию на ПК вредоносных программ.

Рассказать друзьям