Как настроить технологию Nvidia SLI. Включение NVIDIA SLI на любых материнских платах, детальное руководство Как проверить работает ли sli режим

💖 Нравится? Поделись с друзьями ссылкой

Если у вас появилось желание объединить две видеокарты nVidia GeForce для повышения производительности в играх и выяснилось, что в системнике на материнской плате хоть и присутствуют два (или больше) разъёма для видеокарт, но технологию nVidia SLI она не поддерживает, то не стоит сразу отчаиваться.

Благодаря разработчику Ember Vulpix у нас теперь есть возможность запускать видеокарты GeForce в SLI-режиме на материнских платах с поддержкой только ATi/AMD CrossFireX или вообще без официальной возможности объединения видеокарт для повышения производительности в 3D. Более того - в SLI-тандем получится объединить две разные видеокарты от nVidia (из одного или близких поколений), такой функционал не предусмотрен даже на платах с официальной поддержкой SLI. В общем, качаем патч DifferentSLIAuto 1.4 с гитхаба (или с нашего сайта), распаковываем и строго следуем подробной инструкции из файла README.md.

Опробуем в боевых условиях на системе из оказавшихся в "закромах" "железок": возьмём старенькую материнскую плату ECS P965T-A на чипсете Intel P965 с двумя разъёмами PCI-Ex16 (второй функционирует в режиме x4), в спецификациях которой нет упоминаний о поддержке конфигураций SLI или CrossFireX, указано лишь об "Уникальной архитектуре ECS S.D.G.E (Scalable Dual Graphic Engines)", чего бы это ни значило. Добавим к ней процессор Intel Core 2 Duo E4500, разогнанный до 2,93ГГц и 6ГБ оперативной памяти DDR2 PC6400. На всём этом будет крутиться операционная система windows 7 HP x64 SP1.

В тех же "закромах" :) обнаружилось несколько видеокарточек от nVidia:

  • GeForce 9800GT Green 512MB GDDR3 256bit (Palit)
  • GeForce 9800GT 1024MB GDDR3 256bit (Galaxy)
  • GeForce GT240 1024MB GDDR3 128bit (Gigabyte)
  • GeForce GT440 1024MB GDDR5 128bit (PNY, чип G108)
  • GeForce GT630 2048MB GDDR3 128bit (Palit, чип G108)
  • GeForce GT630 1024MB GDDR3 64bit (Palit, чип Kepler)
  • GeForce GT730 2048MB GDDR3 64bit (Palit, чип Kepler)

Для первых пяти видеокарт использовался драйвер версии 331.82, для последних двух - 364.51.

Без проблем подружились 9800GT Green 512MB и 9800GT 1024MB, GT440 1024MB (G108) и GT630 2048MB (G108), так же заработали в паре GT630 1024MB (Kepler) и GT730 2048MB (Kepler).

Для проверки работоспособности запускались бенчмарки Unigine Tropics 1.3 и Unigine Heaven 4.0 с активированным в настройках драйвера "градусником" активности SLI.

А вот 9800GT + GT240, GT240 + GT440/GT630 и GT630 (G108) + GT630 (Kepler) работать отказались - при попытке задействовать SLI в настройках драйверов компьютер зависал или его выкидывало в BSOD.

Ещё нюанс - видеокарта с меньшим объёмом памяти должна быть установлена в основной разъём PCI-E. Так же стоит помнить, что будет использоваться только перекрывающийся объём ОЗУ на 3D-ускорителях - при 1024MB и 2048MB на картах доступно для игр будет только 1024MB.

dxpc.ru

Как включить SLI сглаживание

Как включить режим SLI-сглаживания:

Шаг 1. Откройте контрольную панель NVIDIA, кликнув правой кнопкой мыши на рабочем столе и выбрав "Панель управления NVIDIA"
Шаг 2. Выберите "Установки 3D"
Шаг 3. Выберите "Управление установками 3D"

Шаг 4. Кликните на "Настройки сглаживания" и выберите нужный вам режим.


Шаг 5. Нажмите "Применить". Режим SLI-сглаживания включен!

Помните, при использовании одного из режимов сглаживания производительный режим SLI не будет активен. Использовать оба режима одновременно нельзя.

www.nvidia.ru

SLI режим из двух видеокарт GeForce GTX 260…настройка, тестирование производительности.

Введение. В виду того факта, что NVIDIA разрешила Intel на материнских платах с чипсетом Intel X58 организовывать SLI режим, повысила популярность видеокарт от данного производителя. Напомню, ранее приходилось прибегать к модификации драйверов, для того чтоб активировать режим SLI на материнских платах с чипсетами от Intel, которые довольно популярны в последнее время.

В данном обзоре решил вам представить уровень производительности достигаемую при установке двух видеокарт GeForce GTX 260. На данный момент, данная серия самый оптимальный выбор для организации SLI режима.

Участники тестирования.

Участниками тестирования являются две видеокарты XFX GeForce GTX 260 XXX, которые мы рассматривали довольно таки давно и с подробным обзором вы можете познакомиться на нашем портале. Здесь же считаю напомнить спецификации видеокарты: -GPU: GeForce GTX 260 -Интерфейс: PCI-Express x16 -Частоты работы ROPs/Shaders: 576/1242 MHz -Частоты работы памяти (физическая (эффективная)): 1000 (2000) MHz - Ширина шины обмена с памятью: 448bit -Число универсальных процессоров: 192 -Число текстурных процессоров: 80 (BLF/TLF) -Число ROPs: 32 -Размеры: 270x100x33 мм (последняя величина - максимальная толщина видеокарты). - Выходные гнезда: 2xDVI (Dual-Link/HDMI), TV-out.

Поддержка многопроцессорной работы: SLI (Hardware), 3-Way SLI

"XXX" в названии видеокарты означает повышенные частоты относительно номинальных и составляют: 1. Частота ядра 640 Mhz.

2. Частота памяти 2300 Mhz.

Результаты разгона.

Было решено разогнать видеокарты и оценить прирост производительности от разгона при использовании двух видеокарт. Данные видеокарты согласились работать на частоте: 1. По ядру 732 Mhz. 2. По памяти 1233 Mhz. 3. По шейдерному блоку 1560 Mhz.

Было решено поставить одинаковые стабильные частоты для каждой видеокарты, иначе это увеличивает риск возникновения фризов во время игры.

Настройка SLI режима.

Первым делом на видеокартах находим порты для режима SLI.

Открываем их и примеряем шлейфы, чтоб после установки видеокарты не "копошится" там долго.

После сборки системы, устанавливаем драйвера. Затем, через панель управления заходим в настройки драйвера видеокарты и включаем SLI режим, как показано на скрине. Вот и все - можете пользоваться всеми преимуществами SLI режима.

Тестовая конфигурация. 1. Core I7 920. 2. GA-X58-DQ6. 3. 2x2 Gb Samsung DDR-800 Original. Тесты, в которых участвовала система: 1. Crysis. 2. Call of Duty 4. 3. 3Dmark 06.

Оценка результатов: 1. Как видим, данный вариант SLI режима обеспечивает наивысокую производительность. 2. Разгон прибавляет 20% прирост производительности.

2. Call of Duty 4.

Оценка результатов: 1. В данной игре производительность также оказывается самой высокой. 2. Прибавка производительности от разгона снизилась до 11%.

Оценка результатов: 1. В синтетическом тесте вперед выбираются двухядерные видеокарты от AMD HD4850X2 и HD4870X2.

2. Прибавка производительности от разгона равняется 16%.

Заключение. Безусловно SLI режим из двух видеокарт GeForce GTX260 выглядит очень заманчиво. Но не забывайте в тестировании я использовал видеокарты уже с заводским разгоном и для того чтоб добиться уверенного лидерства, даже их пришлось разогнать до указанных выше частот. Стоимость комплекта из двух видеокарт равняется: 260*2=520$.

Учитывая стоимость из внимания не надо упускать двухчиповые видеокарты от AMD, которые показывают неплохие результаты.

Статью подготовил FireAiD специально для Mega Obzor.

megaobzor.com

SLI, windows 7

  1. У многопроцессорных видеокарт, таких как GeForce 7950 GX2, 9800 GX2, GTX 295, каждый из графических процессоров имеет свой объем видеопамяти и он не объединяется с памятью другого процессора. Из заявленного для всей карты объема 3D приложениям доступна лишь половина - память второго GPU дублирует данные для многопроцессорного рендеринга SLI. Определённым исключением из правила являются некоторые приложения CUDA (OpenCL, DirectCompute), умеющие при отключенном в панели драйвера режиме MultiGPU использовать видеопамять каждого графического процессора независимо от памяти другого, таким образом загружая полный объем памяти на видеокарте.
  2. В операционных системах windows Vista и более новых изменен механизм определения объема видеопамяти. Вместо отчета драйвера/BIOS видеокарты операционная система сама считает объем видеопамяти при использовании драйвера видеокарты, совместимого с архитектурой WDDM. Независимо от объема видеопамяти на видеокарте к ней прибавляется определенный объем оперативной памяти по формуле:

    (Оперативная память - 512) / 2 , Мб

    «Излишняя» видеопамять выделяется из оперативной памяти только на время непосредственной в ней необходимости. Всем приложениям, в том числе и многим системным, в качестве объема видеопамяти сообщается сумма памяти на видеокарте, зафиксированной для видеокарты оперативной памяти (для интегрированных/мобильных решений) и добавленной по формуле выше оперативной памяти. Для определения объема именно памяти на видеокарте приложение должно использовать новые вызовы DirectX 10 (апплет панели управления «Счетчики и средства производительности»(Performance Information and Tools)) или прямой доступ к оборудованию (RivaTuner). Для приложений, использующих старые версии DirectX, нет программных способов определить физический объем видеопамяти в данной операционной системе.

  3. В операционных системах windows Vista и 7 драйвер NVIDIA ограничивает сообщаемый приложениям через устаревшие интерфейсы DirectX общий объем видеопамяти во избежание ошибок обработки больших значений. При использовании видеокарт с большим объемом буфера (таких как Quadro) такое поведение может ограничивать и доступный приложениям объем физической видеопамяти. Для отключения данного поведения драйвера в утилите TAG Memory Tool включите опцию «Maximum memory», однако, некоторые программы могут перестать работать.
  4. Для интегрированных графических процессоров и видеокарт с технологией Turbo Cache с объемом локальной видеопамяти 64 Мб и менее драйвер всегда сообщает максимально возможный объем памяти с учетом использования системной памяти. Определение фактически установленного объема видеопамяти на видеокарте с технологией Turbo Cache с объемом локальной видеопамяти 64 Мб и менее возможно лишь с помощью низкоуровневых утилит, таких как RivaTuner.
  5. При определении доступного объема видеопамяти через вызовы DirectX достаточно сложно выделить локальную память видеокарты из общего объема вместе с AGP апертурой или добавленной с помощью технологии Turbo Cache системной памяти. Подобные ошибки определения объема видеопамяти характерны для большинства игр.
  6. Алгоритм определения объема видеопамяти диалога отображения производительности компьютера в windows Vista и 7 неправильно работает для видеокарт с нестандартным объемом видеопамяти. Так, GeForce 8800 GTS с 640 Мб видеопамяти будет определена как имеющая 512 Мб видеопамяти, а 8800 GTS с 320 Мб видеопамяти - как имеющая 256 или 384 Мб. Это официально признанная ошибка.
  7. Если вы покупали видеокарту с рук, то вы могли стать жертвой мошенников. Строка с объемом памяти, отображаемая видеоBIOS при включении компьютера, может быть легко подделана редактированием BIOS, тогда как драйвер определяет истинный объем.
  8. Были отмечены случаи, когда такое наблюдалось с видеокартами имевшими физически (чипами) заявленный объем. Помимо случаев брака в разводке платы ряд пострадавших отметил, что с другой версией драйвера распознавался полный объем. Предположительно, драйвер переинициализирует видеокарту при загрузке системы, проводя некий тест памяти. Попробуйте снизить рабочие частоты видеопамяти с помощью RivaTuner или установить дополнительное охлаждение на память видеокарты (радиаторы на чипы). Попробуйте другие версии драйвера. При наличии возможности обновите BIOS видеокарты.
  9. Недостаточный уровень электропитания карты также может приводить к такой проблеме. Особенно это актуально для карт на базе чипов GeForce 2, GeForce 2 MX и GeForce 4 MX, в которых применяется видеопамять с напряжением питания внутренних цепей +3.3V. Во многих таких картах память запитывается непосредственно от линий питания в AGP разъеме. Если блок питания или стабилизатор на материнской плате «проседают» по +3.3V, память может перестать определяться.

CUDA, DirectX, GeForce 2, GeForce 2 MX, GeForce 4 MX, GeForce 7950 GX2, GeForce 8800 GTS, GeForce 9800 GX2, GeForce GTX 295, RivaTuner, SLI, TAG Memory Tool, Turbo Cache, VRAM, windows 7, windows Vista, видеопамять, драйвер, электропитание

  1. Проверьте, что видеокарта прочно закреплена в слоте шины и что разъем полностью зашел в слот. Проверьте разъем видеокарты и слот шины материнской платы на отсутствие механических повреждений.
  2. Следует обратить внимание на число поддерживаемых чипсетом материнской платы линий PCI Express и на конфигурацию слотов PCIE х16 на конкретном экземпляре материнской платы. Прежде всего, большинство чипсетов не поддерживает достаточного числа каналов для реализации двух, и тем более трех-четырех полноценных слотов х16. 16 линий (каналов) шины выделяются обычно лишь первому слоту, остальным достается меньшее число (х8 или х4). Поэтому следует устанавливать видеокарту в ближайший к центральному процессору слот х16 шины. Либо же при установке второй видеокарты происходит перераспределение линий от первого слота шины ко второму, и оба начинают работать в режиме х8 (данный режим характерен для конфигураций SLI). Ряд чипсетов начального уровня, таких как Intel 910/915GL, 945/946GZ и NVIDIA nForce 405/400 в принципе не поддерживает достаточного числа линий для слота PCI Express x16, однако производители материнских плат на этих чипсетах иногда такой слот реализуют, физически же он имеет небольшое число линий.
  3. Другой причиной снижения ширины шины может быть ошибочное включение в BIOS Setup материнской платы опций, управляющих числом линий (каналов) в слотах шины. Такие опции обычно имеют вид «PEG Force X1» или «PCI-E Lanes». Обратитесь к документации материнской платы за информацией о значении и отключении подобных опций.
  4. В ноутбуках технология PowerMizer в качестве меры по снижению энергопотребления видеокарты может изменять число активных линий шины PCI Express. За информацией о PowerMizer обратитесь к специальному вопросу FAQ.
  5. Одной из возможных причин снижения ширины шины может стать появившаяся в windows Vista и windows 7 система управления энергопотреблением шины PCI Express. В панели управления windows зайдите в управление электропитанием и отредактируйте дополнительные настройки выбранного плана электропитания, настроив опцию «Управление питанием состояния связи» (Link State Power Management) на «отключено» (off).

В целом, снижение числа линий до х8 оказывает незначительное влияние на производительность видеокарт, исключая двухпроцессорные решения, но при ширине шины х2 или х1 даже карты низшего ценового диапазона работают очень медленно.

BIOS, Intel, nForce 400, nForce 405, PCI Express, PowerMizer, SLI, windows 7, windows Vista, ноутбуки

  1. Если игра аварийно завершается с появлением «синего экрана» с ошибкой в nv4_disp.dll, обновите драйвер NVIDIA до последней официальной версии. Не следует форсировать FSAA и AF из панели драйвера или RivaTuner, включайте эти функции только из настроек самой игры. При использовании видеокарты на базе GeForce 8X00 и более новых, не используйте полноэкранное сглаживание уровня выше 2х. Если ничего не помогает, попробуйте настроить игру на использование OpenGL. Для этого либо запускайте приложение Launcher.exe с ключом -opengl, либо в файле config.wtf в подпапке WTF папки игры в строке SET gxApi значение direct3d замените на opengl
  2. В системах с видеокартами на базе GeForce 4 MX могут наблюдаться сильные графические искажения, вызванные плохой работой блока геометрии этого графического процессора. Можно отключить некоторые функции ускорения, создав или изменив в файле config.wtf строку SET M2UseShaders со значением 0. Если этого оказалось недостаточно, можно заставить игру делать все геометрические вычисления программно. Для этого запускайте приложение Launcher.exe с ключом -swtnl. Участники форума сообщают, что подобные действия также могут помочь в случае проблем с видеокартами на базе GeForce FX 5200 и GeForce 2. В системах с прочими видеокартами попробуйте настроить игру на использование OpenGL, как описано выше. Также можно попробовать запускать игру в окне, для этого запускайте приложение Launcher.exe с ключом -windowed
  3. Низкая производительность в системах SLI может быть обусловлена проблемами с интерфейсом игры. Рекомендуется в настройках игры отключить вертикальную синхронизацию (V-sync), включить аппаратное ускорение курсора мыши и выключить сглаживание перемещений мыши (smooth). Дополнительный эффект можно получить отключением ускорения интерфейса (панелей и меню). Для этого в файле config.wtf создайте или измените строку Set UIFaster. Попробуйте значения строки 2 или 0. В системе windows Vista производительность резко падает при запуске игры в окне.
  4. Если в режиме SLI исчезли портреты персонажей, обновите драйвер NVIDIA до версии 93.71 или более новой.
  5. Включение эффекта Glow в настройках игры препятствует использованию игрой FSAA высоких степеней.
  6. Плохая производительность с современными версиями драйвера NVIDIA часто вызвана включенной функцией масштабирования интерфейса игры. Попробуйте выключить опцию «Use UI Scale» в настройках игры.
  7. В системе с поддержкой DirectX 11 (windows 7 или Vista c обновлением и видеокартой на базе NVIDIA GTX 400 или более новой) и установленным дополнением Cataclysm можно повысить FPS в игре включением рендера Direct3D 11, для чего файле config.wtf в подпапке WTF папки игры в строке SET gxApi значение direct3d замените на d3d11

BSOD, DirectX, FPS, FSAA, GeForce 2, GeForce 4 MX, GeForce FX 5200, OpenGL, SLI, Vsync, windows 7, windows Vista, World of Warcraft, артефакты, драйвер, игры, сглаживание

Нет. Поддержка SLI имеется в драйверах NVIDIA для операционных систем windows XP, Vista, 7 (32- и 64-битные версии), 2003/2008 Server (32- и 64-битные версии, кроме платформы Itanium), Linux с ядром версии 2.4.7 и выше, Solaris х86. В других системах или при использовании драйверов не от NVIDIA (nv, nouveau, snap) связка SLI будет работать как две отдельные видеокарты.

Linux, MacOS, SLI, windows 7, windows 9x, windows NT4, windows Server, windows Vista, windows XP, драйвер

nvworld.ru

Режим SLI и решения проблем, которые связаны с данным режимом

Здравствуйте, сегодня мы поговорим о видеокартах Nvidia работающих в режиме SLI, а именно об их проблемах и способах их решения, но сначала разберемся, что такое режим SLI. Nvidia SLI – это технология, которая позволяет использовать несколько видеокарт одновременно и при этом существенно повысить производительность системы. Одним из основных требований является использование одинакового графического процессора на используемых видеокартах. Ниже будут перечислены более детальные требования для построения компьютера, который будет работать с данной технологией.

  1. Материнская плата должны иметь два или более разъемов, которые поддерживают данную технологию;
  2. Хороший блок питания, который сможет обеспечить питанием нашу систему (блоки SLI-Ready являются рекомендуемыми);
  3. Видеокарты, которые поддерживают данную технологию;
  4. Мост, которым можно объединить видеокарты;
  5. Процессор с высокой тактовой частотой, который сможет раскрыть потенциал видеокарт, чтобы не возникало падение кадровой частоты и производительности в целом.

С вышеперечисленного выходит, что построение NVIDIA SLI не является чем-то недостижимым, а наоборот практически ни чем не отличается от сборки обычного домашнего компьютера.

Проблемы

Ну что ж, выше была изложена информация, зачем нужен SLI, его плюсы, а теперь переходим к проблемам и их решению.

  • Первая проблема это зависимость от драйверов, драйвера нужно обновлять очень часто, поскольку вносятся серьезные изменения и выходят оптимизации под конкретные игры либо приложения;
  • Вторая проблема заключается в том, что не все игры/приложения поддерживают данную технологию и в некоторых играх/приложениях нужно заставлять работать именно несколько Ваших видеокарт;
  • Третья проблема данной технологии в тех же обновлениях, поскольку при каждом обновлении драйвера нужно проводить некоторые манипуляции, чтобы работали все видеокарты, а это не всякий раз удобно и не все обладатели данной технологии готовы «рыться» в настройках и разбираться со своими проблемами.

Решение проблем:

  1. Первая проблема решается достаточно просто. Скачиваем утилиту с официального сайта NVIDIA GeForce Experience, регистрируемся для использования данной программы, заходим на свой аккаунт, и кликаем кнопкой мышки «Проверить наличие обновлений». Если найдется более свежий драйвер, то он будет скачан, и Вам предложат его установить.
  2. Вторая проблема не всегда решаемая, поскольку не все производители приложений оптимизируют свои приложения под данную технологию, но все же можно попробовать исправить проблемы с производительностью некоторыми несложными манипуляциями в настройках самого драйвера под Вашу систему SLI.

Ниже представлю Вам пример настройки игры The Sims 2, которая по умолчанию не оптимизирована под режим SLI.

Открываем «Панель управления Nvidia» - управление параметрами 3D – программные настройки и нажимаем на кнопку «Добавить» - указываем путь к файлу, который запускает нашу игру - смотрим на второй раздел «Укажите настройки для этой программы» - режим рендеринга SLI, если есть «Nvidia рекомендует (SLI)», то выбираем данный пункт, если нет, то выбираем «Выполнять альтернативное построение кадров 2».

Нам нужно еще настроить управление электропитанием, а для этого идем в «Режим управления электропитанием» и выбираем пункт «Предпочтителен режим максимальной производительности ».

Последним пунктом у нас будет настройка «CUDA – графические процессоры» в данной настройке должны быть выделены галочкой абсолютно все Ваши видеокарты, которые вы хотите использовать в данном приложении.

  1. Третья проблема решается довольно просто, но появляется каждый раз, как мы обновили драйвер и для её исправления нужно несколько кликов. Поскольку мы еще не выходили с панели управления Nvidia нужно кликнуть на вкладку «Настройка SLI, Surround, PhysX» и нажать на «Обновить параметры» затем на кнопку «Применить» и данная проблема будет решена.

Последние сообщения о противостоянии производителей материнских плат и Nvidia содержали информацию о видимости разгрома инициативы DFI , пытавшейся поставлять материнские платы на базе чипсета nForce 4 Ultra с поддержкой режима SLI и соответствующим соединительным мостом в комплекте. Кроме того, Nvidia пообещала защитить себя от аппаратных модификаций чипсета nForce 4 Ultra в будущих ревизиях, а пресловутый SLI-мост не разрешалось поставлять ни под каким предлогом кроме комплектации материнских плат на базе чипсета nForce 4 SLI.

Само собой, отдельной строкой в плане наступления Nvidia на производителей "псевдо-SLI" стояла защита на уровне драйверов. Как только они обнаруживали схему работы графических слотов, отличную от "PCI Express x8 + PCI Express x8", режим SLI уже было нельзя включить.

реклама

Разумеется, близкие к производителям материнских плат источники тут же заявили, что драйверы при желании можно "подправить", и все будет работать по-прежнему. Перспектива охоты за подправленными драйверами вряд ли кого-то прельщала, а вот иметь свежие драйверы ForceWare хочется каждому владельцу системы с поддержкой SLI. Дело в том, что режимы работы SLI (AFR/SFR) оптимизируются с каждой новой версией драйверов, а список поддерживаемых игр постоянно растет. Новые драйверы не только приносят больший прирост производительности в режиме SLI, но и расширяют совместимость с новыми играми. От постоянного обновления драйверов никуда не уйти, если хочется быть в авангарде геймерского движения.

Наши болгарские коллеги с сайта HW Spirit опубликовали неплохой FAQ по технологии SLI, ознакомиться с которым не мешало бы всем потенциальным пользователям. Описываются режимы работы SLI, аппаратные требования (включая рекомендации по мощности блоков питания), а также некоторые интересные нюансы. К последним нам хочется отнести описание алгоритма "насильного" включения поддержки SLI через модификацию системного реестра. Собственно говоря, драйверы выполняют аналогичную операцию, просто пользователь управляет ключами реестра посредством наглядного интерфейса. Мануальное вмешательство в реестр может потребоваться в тех случаях, когда драйверы отказываются включать поддержку SLI. Кстати, успех этой затеи не гарантируется, ибо в таких случаях пользователь действует на свой страх и риск.

28.12.2017

Режим SLI и решения проблем, которые связаны с данным режимом

Наконец-то, мы дождались! По крайней мере, те пользователи, кому производительности одной видеокарты сегодня мало. Какая разница, сколько стоит подобное решение, если оно обеспечивает непревзойдённую скорость в самых высоких разрешениях с максимальным уровнем деталей. Наконец, nVidia смогла представить рабочую реализацию технологии SLI. Концепция SLI нам давно знакома: две видеокарты, работающие параллельно, - помните старые карты Voodoo2 от 3dfx? Хотя технология nVidia тоже названа SLI, её реализация всё же несколько отличается.

Возрождение принципа использования двух графических карт стало возможным благодаря появлению интерфейса PCI Express. Выпустив чипсет nForce4, nVidia первой представила платформу PCI Express, соответствующую поставленной задаче. Дополнительную информацию вы можете получить в статье nVidia реализует SLI: мощь двух GPU в одном компьютере .


Собрать компоненты для системы SLI не представляет особого труда: нужно найти две идентичные карты nVidia GeForce 6800 Ultra, 6800 GT или 6600 GT с поддержкой PCI Express, а также SLI-совместимую материнскую плату на чипсете nForce4 SLI плюс мост для соединения двух карт. Обычно этот мост производители прилагают в комплект поставки. Поскольку производители часто меняют расстояние между двумя слотами x16, некоторые мосты позволяют регулировать свою длину.

Для SLI ничего больше не потребуется - за исключением денег, которые придётся выложить за всё это хозяйство. Дело в том, что материнская плата с поддержкой SLI обойдётся вам существенно дороже обычной версии , не считая затрат на вторую видеокарту. Также вам следует обзавестись мощным блоком питания с 24-контактной вилкой. У владельцев ЖК-мониторов тоже могут возникнуть проблемы. Дело в том, что большинство дисплеев имеют "родное" разрешение 1280x1024. Однако потенциал производительности системы SLI на двух картах GeForce 6800 сегодня можно раскрыть только в разрешении 1600x1200. При уменьшении разрешения "узким местом" будет CPU, так что вам придётся потратиться и на более мощный процессор .

В общем, система SLI недёшева. В следующих разделах нашей статьи мы поделимся нашим опытом и результатами тестов первых материнских плат с поддержкой SLI от ASUS и MSI.

На ранних этапах развития CrossFire собрать связку из двух одинаковых плат было невозможно. Требовалась одна обычная видеокарта, а другая - из той же серии, но с дополнительным чипом Compositing Engine . Модели Radeon , предназначенные для режима CrossFire, назывались мастер-картами, а к их именам добавлялась приставка CF . Для соединения двух видеокарт между собой использовали специальный внешний Y-образный кабель, состоявший из двух разъемов DVI-I («мама» и «папа») и одного DMS-59. Надо ли говорить, что композиция из пары плат и кабеля, болтающегося позади системного блока , была далека от совершенства?

Принцип работы Alternate Frame Rendering на примере Radeon.

Шло время, и технология активно развивалась. Компания ATI предложила программную версию CrossFire, при использовании которой не требовалось наличие соединительных кабелей - видеокарты обменивались информацией через разъемы PCIe х16. Впервые программное соединение было опробовано на младших моделях Radeon, а уже потом на более мощных видеокартах. Современные платы ATI (а точнее, уже AMD), как и платы NVIDIA, связываются при помощи специальных мостиков.

Технология CrossFire очень демократична в плане выбора видеокарт: подходят любые две модели со схожей архитектурой. Например, можно объединить видеокарты Radeon HD 2600 Pro и Radeon HD 2600 XT . Но тут есть один момент: характеристики более мощного видеоадаптера будут понижены до значений более слабого. В случае нашего примера мы получим CrossFire-систему как бы на двух Radeon HD 2600 Pro.

Чипсеты, совместимые с CrossFire, выпускают не только AMD, но и Intel. Однако из всех наборов микросхем Intel один лишь Х38 может похвастаться официальной поддержкой этой технологии в режиме «х16+х16». На остальных платах CrossFire работает по схеме «х16+х4». Вообще, разница между режимами минимальна. Если вы не планируете устанавливать рекордов быстродействия, то и особой потребности в двух полноценных PCIe х16 нет. На чипсетах AMD графические разъемы работают в симметричных режимах «х8+х8» или «х16+х16». Исключение составляет лишь AMD 570X .

Чипсеты с поддержкой CrossFire
Название Схема работы разъемов PCIe
ATI CrossFire Xpress 1600 х8+х8
ATI CrossFire Xpress 3200 х16+х16
AMD 480X х8+х8
AMD 570X х16+х8
AMD 580X х16+х16
AMD 790X х8+х8
AMD 790FX х16+х16
Intel 975X х16+х4
Intel P965 х16+х4
Intel P35 х16+х4
Intel X38 х16+х16

Нашествие гибридов

Компании AMD и NVIDIA активно продвигают идею объединения обычной видеокарты и встроенного графического ядра материнской платы. Соответствующие технологии называются Hybrid CrossFire и Hybrid SLI .

Встроенная графика никогда не отличалась выдающимися скоростями работы, так что не стоит надеяться на серьезный прирост быстродействия от использования «гибридов». Да и то почувствовать этот прирост смогут лишь обладатели недорогих видеоадаптеров. Кстати, именно младшие модели видеокарт должны первыми обеспечить поддержку технологий.

Главный плюс от использования «гибридов» связан с экономией электроэнергии. Когда компьютер работает с двумерной графикой, всем заправляет встроенное ядро. Зато в играх к нему сразу присоединится основная видеокарта.

По прогнозам, официальные анонсы Hybrid SLI и Hybrid CrossFire должны состояться уже этой весной.

Когда тандема не достаточно

Связка 3-Way SLI - выбор для самых отчаянных энтузиастов.

Связка из двух видеокарт может значительно повысить производительность системы. Однако бывают случаи, когда и такого быстродействия мало. И вот в конце прошлого года NVIDIA представила новую версию SLI, позволяющую объединять сразу три видеокарты. Технология получила название 3-way SLI .

На данный момент тройную версию SLI поддерживают лишь две модели видеокарт: GeForce 8800 GTX и GeForce 8800 Ultra . Причина такой дискриминации в том, что только у этих видеоадаптеров есть по два разъема для подключения SLI-мостов. Сам мостик нестандартный: на нем не два, а целых шесть разъемов. Кстати, теоретически видеокарты можно соединить и при помощи трех обычных мостов: двух жестких и одного гибкого.

Современная плата с четырьмя разъемами PCIe х16 и поддержкой технологии CrossFire X.

Для сборки системы 3-way SLI понадобится материнская плата, основанная на наборе системной логики NVIDIA и оснащенная тремя разъемами PCIe х16. Речь идет о моделях на базе чипсетов nForce 680i SLI и nForce 780i SLI . Также настоятельно рекомендуется процессор помощнее, а еще лучше - самый мощный. На данный момент таковым можно считать Intel Core 2 Extreme QX9770 . Надо заметить, что из всех SLI-совместимых материнских плат этот процессор дружит только с моделями на чипсете nForce 780i SLI.

Что касается прироста производительности, то тут все зависит от конкретного приложения. Как показывает практика, при наличии быстрого процессора преимущество от использования трех видеокарт в сравнении с двумя может достигать 30-35%. Однако все свои преимущества технология раскрывает только на очень больших разрешениях (1920х1200 и выше) с высокими настройками фильтрации и сглаживания. Оно и понятно: вряд ли владелец системы с 3-way SLI будет запускать игры в разрешении 1280х1024 со стандартными опциями качества.

Конкурент в лице AMD не дремлет. Компания достаточно давно разрабатывает CrossFire X - свой ответ на 3-way SLI. В планах AMD значится выпуск драйвера, который позволит объединять в одной системе не только три, но и четыре видеокарты. Для соединения между собой видеоадаптеры будут использовать те же самые гибкие мостики, что и в случае классического CrossFire.

Материнские платы с четырьмя графическими разъемами уже не редкость - все благодаря чипсету AMD 790FX . Платы на его основе обеспечивают два полноценных интерфейса PCIe х16 для обычного CrossFire. При добавлении третьей или четвертой видеокарты разъемы автоматически переключаются в режим х8. 790FX поддерживает исключительно процессоры AMD, но поклонникам Intel не стоит отчаиваться. Ряд компаний (к примеру, MSI или ASUS) продают материнские платы с четырьмя графическими разъемами, но основанные на наборе системной логики Intel X38. Далеко не факт, что драйвер CrossFire Х будет обеспечивать поддержку технологии на подобных платах, но и препятствий для этого нет.

Если сравнивать технологии SLI и CrossFire в лоб, то творение NVIDIA выглядит мощнее. Но и времена, когда CrossFire была откровенно слабее конкурента, уже стали уделом прошлого. Правда, проблем, связанных с использованием графического тандема, у NVIDIA все же поменьше.

Насколько целесообразно собирать систему с двумя видеокартами? Во-первых, надо понимать, что SLI и CrossFire - это не панацея. Если ПК плохо сбалансирован, а в роли «бутылочного горлышка» выступает процессор или оперативная память , то графический тандем слабо повлияет на производительность. Во-вторых, две видеокарты потребляют много энергии и выделяют много тепла. Поэтому перед сборкой следует обзавестись просторным корпусом и мощным качественным блоком питания. В-третьих, обе технологии сильно зависят от оптимизации драйверов и игр. Сложно предугадать, насколько увеличится быстродействие в том или ином приложении от использования второй видеокарты. Иногда прирост может вообще отсутствовать.

Есть ли смысл собирать тандем из двух плат среднего ценового сегмента? Все зависит от конкретной ситуации, но в большинстве случаев покупка одной более мощной видеокарты выглядит разумнее. Не потребуется дорогая материнская плата, да и проблем с эксплуатацией будет меньше.

Таблица совместимости для видеокарт AMD
Первая видеокарта Вторая видеокарта Тип соединения
Radeon HD 3870 Radeon HD 3870, HD 3850 Внутреннее
Radeon HD 3850 Radeon HD 3850, HD 3870 Внутреннее
Radeon HD 2900 XT Radeon HD 2900 XT, HD 2900 Pro Внутреннее
Radeon HD 2900 Pro Radeon HD 2900 Pro, HD 2900 XT Внутреннее
Radeon HD 2900 GT Radeon HD 2900 GT Внутреннее
Radeon HD 2600 XT Radeon HD 2600 XT, HD 2600 Pro Внутреннее
Radeon HD 2600 Pro Radeon HD 2600 Pro, HD 2600 XT Внутреннее
Radeon HD 2400 XT Radeon HD 2400 XT, HD 2400 Pro Внутреннее
Radeon HD 2400 Pro Radeon HD 2400 Pro, HD 2400 XT Внутреннее
Radeon X1950 CF Radeon X1950 XTX, X1950 CF, X1900 CF, X1900 XTX, X1900 XT Внешнее
Radeon X1900 CF Radeon X1900XT, X1950 CF, X1950 XTX, X1900 CF, X1900 XTX Внешнее
Radeon X1950 PRO Radeon X1950 PRO Внутреннее
Radeon X1900 GT Radeon X1900 GT Программный режим
Radeon X1800 CF Radeon X1800 XT, X1800 CF, X1800 XL, X1800 GTO Внешнее
Radeon X1650 XT Radeon X1650 XT Внутреннее
Radeon X1650 PRO Radeon X1650 PRO Программный режим
Radeon X1600 XT Radeon X1600 XT Программный режим
Radeon X1600 PRO Radeon X1600 PRO Программный режим
Radeon X1300 XT Radeon X1300 XT Программный режим
Radeon X1300 PRO Radeon X1300 PRO Программный режим
Radeon X1300 Radeon X1300 Программный режим

Новые стандарты качества

Схема работы алгоритма Super AA.

SLI и CrossFire можно использовать не только для повышения быстродействия системы, но и для улучшения качества картинки. Речь идет о режимах сглаживания SLI AA (для видеокарт GeForce) и Super AA (для Radeon).

При включении SLI AA каждая из видеокарт полностью обрабатывает один и тот же кадр, но с разными шаблонами полноэкранного сглаживания. После этого кадры накладываются друг на друга и происходит усреднение цветов соответствующих пикселей. Таким образом, качество сглаживания удваивается. Доступные режимы SLI AA: х8, х16 и х32.

Метод Super AA работает по тому же принципу, что и разработка NVIDIA. Отличие заключается лишь в доступных режимах сглаживания: 8х, 10х, 12х и 14х. Режимы 8х и 12х представляют собой соответственно «удвоенные» версии 4-кратного и 6-кратного multisampling, в режимах 10х и 14х к multisampling добавляется 2-кратный supersampling.

Здравствуйте, вопрос! тестах в Futuremark 3DMark показывают, что производительность (по сравнению с одной видеокартой) увеличилась всего на 10-15%, а я ждал хотя бы 50%. Также в современных играх две видюхи не повысили мне FPS, а в некоторых (в частности FAR CRY PRIMAL) даже понизили. Получается, что лучше бы я за эти деньги купил не две, а одну видеокарту GeForce GTX 1080 или даже GeForce GTX 1080 Ti. А так я выкинул деньги на ветер. Не повторяйте пожалуйста моей ошибки. И ещё, мало кто знает, что видеокарты NVIDIA десятой серии не все могут работать в режиме моста (SLI), например GeForce GTX 1050 и GTX 1060 не могут, также GTX 1070 нельзя поставить в связку с GTX 1080. Расскажите пожалуйста об этом на своём сайте.

Всем привет! Почти все пользователи, которые любят порубиться в различные игрушки, наверняка задумывались или слышали про то, что в систему можно ставить две и более видеокарты для объединения их мощности. Собственно технология объединения двух и более графических процессоров для обработки трехмерного изображения представленная компанией Nvidia называется SLI (scalable link interface, рус. масштабируемый интерфейс связи). Аналог от компании AMD называется CrossFireX. В чём плюсы и минусы каждой технологии, стоит ли пользоваться этими технологиями, как они работают Об этом я сегодня и расскажу.

  • И главное, я расскажу почему производителям видеокарт невыгодно, чтобы технологии SLI или CrossFireX увеличивали производительность работы графической системы компьютера на 100%.

Итак, начнем с зеленых (Nvidia) . Для того, чтобы поставить себе в систему SLI связку вам понадобятся 2+ видеокарты одной серии и одной модели. В отличие от красных (AMD) (о которых мы поговорим чуть позже), графические процессоры более привередливые в этом плане. Если более старшие линейки карточек позволяли объединять в мост абсолютно любые модели (главное чтобы они были одинаковые), то в последней десятой линейке все изменилось. Построить мост вы сможете только из GTX 1070, 1080 и 1080Ti. С чем это связано лично для меня остается загадкой, но, к сожалению, сейчас только эти модели можно объединять. По поводу титанов не могу дать никакой информации.

(Две видеокарты GTX 1080 Ti, соединённые мостом SLI)

Что же касается красных, то у них есть как преимущества перед зелеными, так и недостатки. Главный плюс состоит в том, что можно объединять абсолютно любые модели, главное условие – чтобы объединяемые видеокарточки были построены на одинаковой архитектуре. К примеру, поставить в связку RX 460 и RX 470 компания AMD позволяет. А вот поставить GTX 1070 и GTX 1080 в связку уже не получится. Ну а главный минус CrossFireX это прирост производительности. Прирост мощности при использовании прямых карточек-конкурентов у красных значительно ниже, чем у зеленых. Да и оптимизация в большинстве игр поддерживающих связки видеокарт значительно хуже у компании AMD. Да, не все игры поддерживают SLI и CrossFireX. Что же касается вторичного производителя видеокарт, то он не имеет абсолютно никакого значения. То есть если вы имеет две GTX 970, одна от MSI, а другая от Palit, то это никак не повлияет на результат. Это правило применимо как к видеокартам от Nvidia, так и картам от AMD.

Для построения системы на основе SLI и CrossfireX вам понадобятся:

1. Материнская плата с двумя и более разъемами PCI-express x16, поддерживающая данную технологию. Не все мамки, которые имеют два и более разъема под видеокарты поддерживают связку видеокарт! На самой материнке всегда есть соответствующая маркировка, на сайте производителя об этом написано, а так же всегда указано в прилагающейся инструкции. Помните, что если вы не нуждаетесь в мамке, которая поддерживает SLI и CrossFireX, то выбирайте соответствующую плату, так как вы всегда переплачиваете деньги за то, что мамка оснащена поддержкой связи видеокарт.

2. Мощный блок питания. Две видеокарты = большое энергопотребление . Рекомендуется блок от 550 ватт.

3. Сами видеокарты поддерживающие данные технологии.

4. Мост, объединяющий видеокарты. Насколько мне известно, AMD позволяет объединять карты и без использования данного моста, то есть с помощью программного обеспечения . Однако в таком случае потери в производительности составят около 15-20,% нежели в случае если бы вы использовали мост.

На мой взгляд, строить систему на основе данных технологий не стоит. А не стоит, потому что лучше купить одну более мощную видеокарту, нежели две, но послабее. К примеру, две GTX 1070 будут слабее, чем одна GTX 1080. А все потому, что данные технологии имеют очень плохую оптимизацию под игры и другие ресурсоёмкие приложение, у зеленых она конечно лучше, чем у красных, но всё равно плохая. Прирост производительности, как вы могли подумать, не будет составлять 100% от использования второго графического процессора. В лучшем случае он будет составлять 40-50%. И то, в подавляющем большинстве он будет равняться 15-25%. То есть вопрос целесообразности такой покупки остается открытым с точки зрения цена/производительность. Ставить себе такую систему имеет смысл только в том случае если мощности самой топовой на данный момент видеокарты вам недостаточно. А такое случается только в очень узкоспециализированных случаях. Например, для достижения стабильного количества кадров в секунду на 144гц мониторе в очень тяжелых играх. В легких играх топовая 1080Ti спокойно справляется с данной задачей. Либо если вы хотите играть в высоком разрешении – 4 или 8к.

Так же не стоит забывать и про видеопамять. В случае если вы объединяете две видеокарты с разным количеством памяти, то используется только та память, которая по размеру меньшая. К примеру, вы поставили RX 480 с 4gb и RX48 c 8 gb. Как вы могли подумать, вам будет доступно 12 гигабайт видеопамяти. К сожалению это не так. Будет доступно только 4 гига. Если же вы имеете две одинаковые видеокарты, но работающие на разных частотах, то в таком случае они обе также будут работать на младшей частоте. То есть, к примеру, одна работает на 1544гц, другая на 1622гц, обе будут работать на 1544гц. В будущем, с полным переходом на DirectX 12 нам обещают полную оптимизацию и полное использование всех ресурсов объединяемых видеокарт. То есть будет 100% прирост мощности и полное суммирование имеющейся видеопамяти. Но это всё обещание, на деле же мы имеет то, что имеем. Безусловно, есть и такие интересные игровые проекты, где мы можем получить и 70%, и 80% прироста производительности, но таких, к сожалению, очень мало и они скорее исключение из правил. Как я люблю повторять, решать, в конечном счете, только вам, а я для себя уже давно решил, что на данный момент SLI и CrossFireX являются крайне нецелесообразными!

Почему производители видеокарт никогда не доведут технологии SLI и CrossFireX до ума и почему вторая видеокарта никогда не добавит 100% производительности графической системе вашего компьютера

Ответ очень простой. Представьте себе ситуацию. Вы купили компьютер с мощной видеокартой и через пару-тройку лет её мощности вам стало не хватать. Вы пошли в магазин или на вторичный рынок и купили недорого вторую такую видеокарту, в результате добавили 100% производительности графической системе своего компьютера. Но такого никогда не будет! Производителю это невыгодно, а выгодно чтобы вы всегда покупали новое изделие и по дорогой цене. Вот и весь секрет. На этом всё, до скорых встреч!

Если судить по тестам современных адаптеров с двумя топовыми GPU (Radeon HD 7990, GeForce GTX 690) либо аналогичных конфигураций на базе отдельных карточек, технологии NVIDIA SLI и AMD CrossFireX в целом преодолели период мучительного взросления. Во многих играх двухпроцессорная система демонстрирует почти двукратное преимущество над таким же одиночным GPU, а в прочих вполне можно рассчитывать на бонус в пределах 50-70%. По крайней мере именно так обстоят дела среди игр категории ААА. Менее популярные игрушки обычно ускользают от внимания IT-изданий, и насколько хорошо их оптимизируют под SLI и CrossFireX, судить не беремся. Кроме того, в целом оптимистичную картину портят неудачи в отдельных играх, где либо производительность все-таки плохо масштабируется, либо разработчики питают пристрастие к одной из конкурирующих технологий, игнорируя другую.

В целом видеокарты с двумя GPU уже доказали право на существование на самом верху модельных рядов NVIDIA и AMD. Между тем разъемы SLI и CrossFireX теперь устанавливают даже на слабенькие по меркам геймеров адаптеры вроде Radeon HD 7770 и GeForce GTX 650 Ti BOOST. И каждый раз, когда в руки попадает очередная дешёвая видеокарта с поддержкой SLI или CrossFireX, возникает желание проверить - а как себя ведет пара таких малышек? С одной стороны, интерес чисто академический. Процессоры в геймерских видеокартах младшего эшелона по числу функциональных блоков представляют собой приблизительно половинки от топовых GPU. Вот вам еще один способ протестировать эффективность технологий, распараллеливающих вычислительную нагрузку между двумя GPU, - попытаться получить из двух половинок производительность, близкую к 100% результата топового процессора.

⇡ А оно нам надо?

Но попробуем найти в таком эксперименте и долю практической пользы. В теории тандем слабых видеокарт может стать более выгодной покупкой, чем один топовый адаптер. Старшими моделями AMD ныне являются бессменный Radeon HD 7970 и его разогнанный собрат HD 7970 GHz Edition. Среди продукции NVIDIA аналогичной парочкой можно считать GeForce GTX 680 и GTX 770. Ну а на роль их приблизительных половинок подходят Radeon HD 7790 и HD 7850 (для AMD), GTX 650 Ti BOOST и GTX 660 (для NVIDIA).

Сопоставим розничные цены этих моделей. Radeon HD 7790 со стандартным объемом памяти 1 Гбайт в московских интернет-магазинах можно купить за сумму от 4 100 рублей, HD 7850 2 Гбайт - за 4 800 рублей. В то же время Radeon HD 7970 продается по цене от 9 800 рублей, что лишь на 200 рублей дороже, чем пара HD 7850. Но вот HD 7970 GHz Edition уже трудно найти менее чем за 14 000 рублей.

Таким образом, CrossFireX на двух недорогих карточках AMD кажется сомнительной затеей хотя бы потому, что Radeon HD 7850, хоть и является половинкой HD 7970 по числу активных вычислительных блоков в GPU, существенно уступает последнему по тактовой частоте ядра и памяти. HD 7790 крутит процессор на частоте 1 ГГц, что отчасти компенсирует его более скромную конфигурацию по сравнению с HD 7850, но слабым местом HD 7790 является 128-битная шина памяти, а главное - её объем в 1 Гбайт, что обязательно скажется на производительности в тяжелых графических режимах (а именно для них мы и собираем такой тандем).

С точки зрения чистого эксперимента, не обремененного финансовыми соображениями, по конфигурации вычислительных блоков и частоты GPU совокупная мощь пары младших адаптеров AMD, способных работать в режиме CrossFireX (Radeon HD 7770 в расчет не берем, сборка из двух таких - это было бы совсем нелепо), немного не достает до флагманской отметки. Не будем забывать это обстоятельство, обсуждая результаты бенчмарков. Впрочем, в пользу пары HD 7850 играет 256-битная шина памяти - то, что NVIDIA не может предложить в этом ценовом сегменте.

Модель Radeon HD 7790 Radeon HD 7850 HD 7970 HD 7970 GHz Edition
Основные компоненты
GPU Bonaire Pitcairn Pro Tahiti XT Tahiti XT
Число транзисторов, млн 2080 2800 4313 4313
Техпроцесс, нм 28 28 28 28
1000/НД 860/НД 925/НД 1000/1050
Потоковые процессоры 896 1024 2048 2048
Текстурные блоки 56 64 128 128
ROP 16 32 32 32
GDDR5, 1024 GDDR5, 2048 GDDR5, 3072 GDDR5, 3072
Ширина шины памяти, бит 128 256 384 384
1500 (6000) 1200 (4800) 1375 (5500) 1500 (6000)
Интерфейс PCI-Express 3.0 x16
Вывод изображения
Интерфейсы 1 х DL DVI-I, 1 x DL DVI-D, 1 x HDMI 1.4a, 1 x DisplayPort 1.2 1 х DL DVI-I,
1 x HDMI 1.4a,
2 x Mini DisplayPort 1.2
Макс. разрешение VGA: 2048x1536,
DVI: 2560x1600,
HDMI: 4096х2160,
DP: 4096х2160
85 130 250 250+
Средняя розничная цена, руб. 4 100 4 800 9 800 14 000

Расклад цен среди видеокарт NVIDIA более благоприятен для сборки тандема из двух SKU небольшой производительности по сравнению с единственным мощным адаптером. GeForce GTX 650 Ti BOOST можно купить по цене начиная с 5 200 рублей, GeForce GTX 660 - за 5 800 рублей. Обе - с двумя гигабайтами набортной памяти. В то же время цены на GeForce GTX 680 и новоприбывший GTX 770, который является фактически обновленной версией GTX 680, начинаются с 13 000 рублей. По спецификациям GTX 650 Ti BOOST - самый младший графический ускоритель в ассортименте NVIDIA, поддерживающий SLI, - соответствует половинке GTX 680 (GTX 770) и даже располагает большим числом ROP, только работает на более низких частотах. GTX 660, при равной с GTX 650 Ti BOOST частоте, более плотно укомплектован ядрами CUDA и текстурными блоками. Обе модели обременяет относительно узкая 192-битная шина памяти.

Модель GeForce GTX 650 Ti BOOST GeForce GTX 660 GTX 680 GTX 770
Основные компоненты
GPU GK106 GK106 GK104 GK104
Число транзисторов, млн 2 540 2 540 3 540 3 540
Техпроцесс, нм 28 28 28 28
Тактовая частота GPU, МГц: Base Clock / Boost Clock 980/1033 980/1033 1006/1058 1046/1085
Потоковые процессоры 768 960 1536 1536
Текстурные блоки 64 80 128 128
ROP 24 24 32 32
Видеопамять: тип, объем, Мбайт GDDR5, 1024/2048 GDDR5, 2048 GDDR5, 2048 GDDR5, 2048
Ширина шины памяти, бит 1502 (6008) 1502 (6008) 1502 (6008) 1753 (7010)
Тактовая частота памяти: реальная (эффективная), МГц 192 192 256 256
Интерфейс PCI-Express 3.0 x16
Вывод изображения
Интерфейсы 1 х DL DVI-I,
1 x DL DVI-D,
1 x HDMI 1.4a,
1 x DisplayPort 1.2
Макс. разрешение - - - -
Типичная потребляемая мощность, Вт 140 140 195 230
Средняя розничная цена, руб. 5 200 5 800 13 000 13 000

⇡ Обманчивые гигабайты

Существенную проблему в любых конфигурациях с множественными GPU составляет объем памяти видеоадаптеров. Дело в том, что ОЗУ индивидуальных видеокарт не складывается в один большой массив. Вместо этого их содержимое дублируется. Таким образом, даже если совокупная вычислительная способность двух «обрезанных» GPU сопоставима с мощью единственного флагманского ядра, тандем располагает кадровым буфером в размере памяти одной карты. А тяжелые графические режимы, знаете ли, бывают чрезвычайно требовательными к объему памяти. Возьмем игры, известные своей жаждой дополнительных мегабайтов, которые мы используем в качестве бенчмарков . Metro 2033 при разрешении 2560х1440 с максимальными настройками оккупирует до 1,5 Гбайт RAM, Far Cry 3 - 1,7, а Crysis 3 - почти 2 Гбайт.

Ну а поскольку именно для таких игр и таких настроек мы и готовы прибегнуть к столь странному решению, как две относительно бюджетные карты в конфигурации SLI/CrossFireX, то видеоадаптеры с объемом RAM меньше 2 Гбайт нам подходят плохо. В этом плане немного больше повезло продуктам NVIDIA, поскольку даже GeForce GTX 650 Ti BOOST, согласно официальным спецификациям, поставляется в разновидности с 2 Гбайт памяти, не говоря уж о GTX 660. Кроме того, даже GTX 680 имеет не больше памяти (только для GTX 770 допустимы версии с 4 Гбайт GDDR 5).

Radeon HD 7790 задуман как адаптер исключительно с 1 Гбайт памяти, хотя партнеры AMD и производят модели с удвоенным кадровым буфером по собственной инициативе. Версия HD 7850 с 1 Гбайт памяти в связи с появлением HD 7790, напротив, официально прекратила существование. И главное, флагман-то, Radeon HD 7970 GHz Edition, комплектуется 3 Гбайт памяти - в полтора раза больше, чем у «середнячков» от AMD.

А вообще - прекратим гадать. Честное слово, производительность сборки двух геймерских видеокарт средней категории в SLI или CrossFireX трудно предсказать на основании голой теории. Нужно тестировать, и мы готовы к любым неожиданностям. Но прежде чем перейти к практической работе, обсудим еще один аспект нашего экзотического проекта - энергопотребление. Если исходить из типичной мощности адаптеров AMD, тандем HD 7850 не должен потреблять намного больше энергии, чем единственный Radeon HD 7970: 2х130 против 250 Вт соответственно. Сборка HD 7790 еще более экономична: это дважды по 85 Вт.

Сопоставимые по производительности карты NVIDIA более прожорливы. GeForce GTX 650 Ti BOOST и GTX 660 обладают одинаковым TDP - 140 Вт. В паре такие адаптеры намного превосходят GeForce GTX 680 (195 Вт) и даже GTX 770 (230 Вт).

⇡ Участники тестирования

Наша задача - собрать четыре двухпроцессорные конфигурации: на базе GeForce GTX 650 Ti BOOST и GeForce GTX 660, с одной стороны, и на Radeon HD 7790 и HD 7850 - с другой, а затем сравнить их производительность с производительностью мощных адаптеров на одном GPU.

  • 2 x GeForce GTX 660 (980/6008 МГц, 2 Гбайт)
  • 2 x GeForce GTX 650 Ti BOOST (980/6008 МГц, 2 Гбайт)
  • 2 x Radeon HD 7850 (860/4800 МГц, 2 Гбайт)
  • 2 x Radeon HD 7790 (1000/6000 МГц, 1 Гбайт)

А эти модели были выбраны в качестве конкурентов:

  • AMD Radeon HD 7970 GHz Edition (1050/6000 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 (925/5500 МГц, 3 Гбайт)
  • AMD Radeon HD 7950 (800/5000 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 780 (863/6008 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 770 (1046/7012 МГц, 2 Гбайт)
  • NVIDIA GeForce GTX 680 (1006/6008 МГц, 2 Гбайт)
  • NVIDIA GeForce GTX 670 (915/6008 МГц, 2 Гбайт)

⇡ Участники тестирования, подробно

Большинство из карт в многопроцессорных сборках предоставлены для тестирования партнерами NVIDIA, и отличаются от адаптеров референсного дизайна по тактовым частотам. Для чистоты исследования их пришлось привести к референсным спецификациям. Впрочем, проявляя уважение к труду производителей, ниже кратко перечислим достоинства каждого из участников тестирования.

  • AMD Radeon HD 7850
  • ASUS GeForce GTX 650 Ti BOOST DirectCU II OC (GTX650TIB-DC2OC-2GD5)
  • ASUS Radeon HD 7790 DirectCU II OC (HD7790-DC2OC-1GD5)
  • Gainward GeForce GTX 650 Ti BOOST 2GB Golden Sample (426018336-2876)
  • GIGABYTE Radeon HD 7790 (GV-R779OC-1GD)
  • MSI GeForce GTX 660 (N660 TF 2GD5/OC)
  • ZOTAC GeForce GTX 660 (ZT-60901-10M)

ASUS GeForce GTX 650 Ti BOOST DirectCU II OC (GTX650TIB-DC2OC-2GD5)

ASUS прислала нам немного разогнанную версию GeForce GTX 650 Ti BOOST 2 Гбайт с базовой частотой ядра, увеличенной на 40 МГц по сравнению с референсной спецификацией. На плату установлена хорошо знакомая система охлаждения DirectCU II, которая включает тепловые трубки, напрямую контактирующие с кристаллом GPU. Отсюда и название DirectCU. Вот только, в отличие от более дорогих моделей, в кулере GTX 650 Ti BOOST теплотрубок всего две штуки, а не три.

Gainward GeForce GTX 650 Ti BOOST 2GB Golden Sample (426018336-2876)

Gainward также производит разогнанную версию GeForce GTX 650 Ti BOOST с тем отличием от реализации ASUS, что базовая частота GPU увеличена лишь на 26 МГц, зато есть прибавка в 100 МГц к результирующей частоте видеопамяти. Кулер видеокарты также принадлежит к открытому типу и содержит две медные теплотрубки.


MSI GeForce GTX 660 (N660 TF 2GD5/OC)

GeForce GTX 660 в исполнении MSI оснащен солидной системой охлаждения Twin Frozr III уже с тремя тепловыми трубками. Базовую тактовую частоту GPU производитель увеличил на 53 МГц относительно референсного значения, не коснувшись частоты видеопамяти.


ZOTAC GeForce GTX 660 (ZT-60901-10M)

Эта видеокарта уже засветилась на 3DNews в изначальном тестировании GeForce GTX 660. Имеется небольшой разгон графического процессора: с базовой частоты 980 до 993 МГц. Система охлаждения представляет собой конструкцию открытого типа с двумя тепловыми трубками и медной пластиной в основании.


AMD Radeon HD 7850

Это на сто процентов референсный видеоадаптер, предоставленный самой компанией AMD. Соответственно, частоты ядра и памяти с точностью до мегагерца соответствуют эталонным. В отличие от всех остальных участников тестирования, референсный Radeon HD 7850 оснащен турбинным кулером. Радиатор имеет медную подошву и пронизан тремя тепловыми трубками.


ASUS Radeon HD 7790 DirectCU II OC (HD7790-DC2OC-1GD5)

Оверклокерская версия Radeon HD 7790 от ASUS разогнана на 75 МГц по частоте процессора и на 400 МГц - по видеопамяти. В целом GPU производства AMD допускают больший заводской разгон по сравнению с аналогами от NVIDIA. Система охлаждения карты аналогична таковой у вышеописанного ASUS GeForce GTX 650 Ti BOOST DirectCU II OC. Это упрощенный вариант кулера DirectCU II с двумя тепловыми трубками, прижатыми к кристаллу GPU.


GIGABYTE Radeon HD 7790 (GV-R779OC-1GD)

Эта карточка по конфигурации похожа на Radeon HD 7990 от ASUS: GPU работает на такой же частоте 1075 МГц, а вот частота памяти оставлена на уровне стандартных 6000 МГц. Кулер представляет собой простейшую конструкцию, образованную цельным алюминиевым радиатором и большой вертушкой. Ни теплотрубками, ни дополнительной металлической подошвой радиатора адаптер GIGABYTE похвастаться не может.


Экстенсивность и интенсивность – вот два ключевых понятия развития прогресса человечества. Экстенсивный и интенсивный пути развития общества, технологий, да и всего человечества в целом сменяли друг друга на протяжении многих веков. Примеров тому много во всех сферах хозяйственной деятельности. Но земледелие и скотоводство нас сегодня не интересуют, нас интересуют информационные технологии и компьютеры. Для примера, кратко рассмотрим развитие центральных процессоров.

Не будем углубляться в далекие 80-90-е, начнем сразу с Pentium 4. После продолжительного интенсивного развития технологии NetBurst, наращивания «стероидных» мегагерц, индустрия уперлась в стену – дальше «разгонять» одноядерные процессоры оказалось очень сложно и, что бы получить еще более мощный процессор, необходимы большие затраты. И тогда появились двухъядерные процессоры – экстенсивное решение проблемы. Вскоре и они перестали обеспечивать нужную производительность, и появляется новая архитектура Core, которая при меньших тактовых частотах дает большую производительность – интенсивное решение проблемы. И так будет продолжаться далее.

А что же происходит с развитием второго компонента, немаловажного для любителя зрелищных игр на ПК – видеокартой? А происходит тоже самое, что и с процессорами. На данном этапе развития, одночиповые видеокарты уже не могут обеспечить требуемую производительность. Поэтому обе лидирующие компании рынка видеокарт (NVIDIA и AMD) разрабатывают и активно внедряют собственные технологии увеличение производительности видеосистемы путем объединения двух, трех, и даже четырех видеокарт в одном ПК. В данной статье мы рассмотрим первую компанию (так как именно она представила свою разработку первой) NVIDIA и ее технологию SLI.

Что такое технология SLI?

Технология NVIDIA SLI - это революционный подход к масштабированию графической производительности путем объединения нескольких видеокарт NVIDIA в одной системе.

История

В 1998 году компания 3dfx представила графический процессор Voodoo2, среди прочих нововведений которого была технология SLI (англ. Scan Line Interleave - чередование строчек), которая предполагала совместную работу двух чипов Voodoo2 над формированием изображения. С технологией SLI могли работать даже карты различных производителей, а также карты с разным объёмом памяти. SLI-система позволяла работать с разрешением до 1024x768, что в то время казалось невероятным. Недостатками SLI от 3dfx были высокая стоимость ускорителей ($600) и большое тепловыделение. Однако вскоре видеокарты переходят с шины PCI на более быстрый выделенный графический AGP-порт. Так как на материнских платах этот порт был только один, то выпуск видеокарт с поддержкой SLI на время прекратился.

В 2000 году с выпуском нового чипа VSA-100 3dfx удалось реализовать SLI на AGP, но на этот раз в рамках одной платы, на которой размещались два или четыре таких чипа.


Однако платы на базе SLI-системы обладали большим энергопотреблением и выходили из строя из-за проблем с электропитанием. На весь мир плат Voodoo5 6000 было продано около 200 штук, причем реально рабочими из них оказались лишь 100. Столь неудачное продвижение многообещающего ускорителя, в который были вложены очень большие средства, привели фактически к банкротству компании. В 2001 году NVIDIA покупает 3dfx за 110 млн. долларов.

В 2004 году с выходом первых решений на базе новой шины PCI Express NVIDIA объявляет о поддержке в своих продуктах технологии мультичиповой обработки данных SLI, которая расшифровывается уже по-другому - Scalable Link Interface (масштабируемый интерфейс).


Поначалу продвижение технологии SLI шло не очень гладко, в первую очередь из-за постоянно выявляемых недоработок в драйверах, а также из-за необходимости «затачивать» их под каждое конкретное приложение , а иначе игрок не получал никакой пользы от покупки пары ускорителей. Но сменялись поколения ускорителей, дорабатывались драйвера, расширялся список поддерживаемых игр. И вот, в конце 2007 года была введена в эксплуатацию технология Triple SLI, позволяющая объединять в связке 3 видеокарты NVIDIA:



Производитель обещает прирост производительности до 250% по сравнению с одиночным чипом. Но и это не стало пределом, сейчас на очереди уже Quad SLI, позволяющая заставить работать над визуализацией игровой сцены уже 4 GPU, правда, в составе пары двухчиповых видеокарт.

Алгоритмы построения изображений

Split Frame Rendering


Схема алгоритма Split Frame Rendering

Это часто используемый режим, когда изображение разбивается на несколько частей, количество которых соответствует количеству видеокарт в связке. Каждая часть изображения обрабатывается одной видеокартой полностью, включая геометрическую и пиксельную составляющие. (Аналог в CrossFire - алгоритм Scissor )


Алгоритм Split Frame Rendering легко масштабируется на 3, 4, а в будущем, возможно, и на большее чило графических процессоров.

Alternate Frame Rendering


Схема алгоритма Alternate Frame Rendering

Обработка кадров происходит поочередно: одна видеокарта обрабатывает только четные кадры, а вторая - только нечетные. Однако у этого алгоритма есть недостаток. Дело в том, что один кадр может быть простым, а другой сложным для обработки. К тому же этот алгоритм, запатентован ATI во время выпуска двухчиповой видеокарты.



В технологии Quad SLI используется и гибридный режим, который объединяет в себе SFR и AFR.


SLI AA (Anti Aliasing), SLI FSAA (Full Scene Anti Aliasing)


Данный алгоритм нацелен на повышение качества изображения. Одна и та же картинка генерируется на всех видеокартах с разными шаблонами сглаживания. Видеокарта производит сглаживание кадра с некоторым шагом относительно изображения другой видеокарты. Затем полученные изображения смешиваются и выводятся. Таким образом, достигается максимальные четкость и детализация изображения. Доступны следующие режимы сглаживания: 8x, 10x, 12x, 14x, 16x и 32x. (Аналог в CrossFire - SuperAA )

Принципы построения

Для построения компьютера на основе SLI необходимо иметь:

  • материнскую плату с двумя и более разъемами PCI Express, поддерживающую технологию SLI (как правило, в названии материнской платы присутствует слово SLI).
  • Достаточно мощный блок питания (обычно рекомендуется от 550 Вт);
  • видеокарты GeForce 6/7/8/9/GTX или Quadro FX с шиной PCI Express;
  • мост, объединяющий видеокарты.

При этом отметим, что поддержка чипсетов для работы со SLI осуществляется программно, а не аппаратно. Но видеокарты должны принадлежать к одному классу, при этом версия BIOS плат и их производитель значения не имеют.

На данный момент, технология SLI поддерживается следующими операционными системами:

  • Windows XP 32-bit
  • Windows XP 64-bit
  • Windows Vista 32-bit
  • Windows Vista 64-bit
  • Linux 32-bit
  • Linux 64-bit (AMD-64/EM64T)

SLI-систему можно организовать двумя способами:

  • С помощью специального мостика;
  • Программным путем.

В последнем случае нагрузка на шину PCIe возрастает, что плохо сказывается на производительности, поэтому широкого распространения этот способ не получил. Такой режим может быть использован только с относительно слабыми ускорителями.


Если мост SLI не установлен, то драйвер выдаёт предупреждение, что режим SLI будет работать не в полную силу.


Например, вот так может выглядеть специальный мостик для соединения видеокарт, если он выполнен на текстолите. Кроме того сейчас получили распространение и гибкие мосты, как более дешевые в производстве. Но для активации технологии 3-Way SLI используется пока только жесткий специальный мост, который фактически вмещает в себя три обычных в «кольцевом» режиме.


Как было сказано выше, популяризируется и система Quad SLI. Она предполагает объединение в единую систему двух двухчиповых плат. Таким образом, получается, что в построении изображения участвуют 4 чипа, однако это пока удел заядлых энтузиастов и для обычных пользователей практического значения не имеет.

Для простого пользователя важно другое, то, ради чего собственно и задумывалась данная технология. Покупая материнскую плату с поддержкой SLI, вы делаете хороший задел для модернизации ПК в будущем, так как она предоставляет возможность добавления еще одной видеокарты. Никакой другой способ «апгрейда», кроме полной смены системы, даже близко не дает тот прирост игровой производительности, который обеспечивает вторая видеокарта.

Выглядит это приблизительно так. Вы покупаете хороший ПК с хорошей современной видеокартой. Спокойно играете в современные игры, но через год-полтора ваша система уже не может удовлетворить Вас качеством изображения и скоростью в последних играх. Тогда Вы вместо замены старой видеокарты (или даже всего ПК) просто добавляете еще одну и получаете почти удвоенную мощность видеосистемы.


Однако, так просто звучит все в теории. А вот на практике пользователю придется столкнуться с множеством трудностей.

Первая – это сами игры и приложения. От страшного слова «оптимизация» никто еще не придумал лекарства – да, не только драйверы, но и игры должны быть оптимизированы для технологии SLI, чтобы корректно с ней работать. NVIDIA заявляет, что технология SLI поддерживает «самый длинный список игр ». Если интересующей вас игры нет в списке, компания предлагает создать собственный профиль настроек для нее.

К сожалению, все еще остается очень много игр, не совместимых с SLI, и создание профиля никак это не исправляет. Выход один – ждать патчей от разработчиков игр и новых драйверов от компании NVIDIA. Однако к этим играм относятся в основном старые, с которыми без проблем справляется и одиночная современная видеокарта, или мало популярные, которые подавляющему большинству игроков не интересны вследствие плохой «играбельности». А вот новые мощные игры уже заранее предусматривают использование двух видеокарт. К примеру, в игре Call of Duty 4 в разделе настроек графики есть вполне конкретный переключатель.


О включении функции SLI Вы можете узнать по специальным индикаторам прямо в игре, при соответствующей «тестовой» настройке драйвера.

Если на экране монитора Вы видите горизонтальные или вертикальные зеленые полосы, это означает, что режим «Показывать визуальные индикаторы SLI» включен в панели управления NVIDIA Display. При включении этой опции можно увидеть, как распределяется графическая нагрузка на GPU, а названия SLI компонентов в Вашей системе будут изменены: SLI для двух GPU будет назван “SLI”, название 3-way NVIDIA SLI будет заменено на “SLI x3”, а Quad SLI будет назван “Quad SLI”. Для игр, при визуализации которых используется технология Alternate Frame Rendering (AFR), вертикальная зеленая полоса будет расти либо уменьшаться в зависимости от масштаба расширения. Для игр, при визуализации которых используется технология Split-Frame Rendering (SFR), горизонтальная зеленая полоса будет подниматься и опускаться, показывая, как распределяется нагрузка между всеми GPU. Если уровень детализации верхней и нижней половины экрана одинаков, то горизонтальная полоса будет находиться близко к середине. Для того чтобы включить или отключить эту возможность, просто откройте панель управления NVIDIA и выберите «Настройки 3D».


Второй распространенной проблемой вычислений несколькими графическими чипами является синхронизация последних. Как было сказано выше, метод рендеринга AFR имеет одну особенность: один кадр может быть простым, а другой сложным для обработки. При большой разности в сложности обработки кадра одна видеокарта может намного быстрей его обработать, чем вторая. Это приводит к «микролагам» – маленькие задержки изображения, как бы рывки, но при этом общее число FPS выглядит комфортным. Такой эффект появляется довольно редко, но вот как бороться с ним не знают даже разработчики. Для пользователя есть простой выход – в играх, где наблюдаются «микролаги» с методом AFR переходить на метод SFR, указав его в профиле игры.


В режиме SFR дисплей разбит на две части. Первая карта выдаёт верхнюю часть картинки, а вторая - нижнюю. Благодаря динамической балансировке нагрузки драйвер равномерно распределяет нагрузку между двумя картами.

Третья проблема – это процессор. Дело в том, что при использовании нескольких видеоадаптеров нагрузка на процессор возрастает не только за счет использования тяжелых графических режимов, но и за счет синхронизации видеочипов. Поэтому, для того, чтобы раскрыть весь потенциал связки из нескольких видеокарт вам потребуется мощный процессор. Хотя на сегодняшний день это уже не такой острый вопрос, как пару лет назад.

Дополнительные функции новой технологии

Новое поколение материнских плат и видеокарт с поддержкой SLI предоставляют пользователям намного больше функций, чем обычное ускорение трехмерной графики.

Hybrid SLI предусматривает более рациональное использование режима совместного использования графического ядра, встроенного в чипсет, и дискретной видеокарты.

Технология состоит из двух частей: GeForce Boost и HybridPower .

Первая будет задействована в приложениях, интенсивно работающих с 3D-графикой. С GeForce Boost часть расчетов трёхмерной сцены возьмет на себя ускоритель, интегрированный в набор системной логики, что даст заметную прибавку в производительности тем системам, где установлен не самый быстрый дискретный адаптер, например GeForce 8500 GT или GeForce 8400 GS.



HybridPower же, напротив, позволит использовать встроенную графику, отключая внешний ускоритель, когда пользователь работает в интернет, офисных приложениях или смотрит видео. Наибольшую выгоду, по словам NVIDIA, от данной технологии получат владельцы ноутбуков с выделенной видеокартой, время автономной работы которых заметно возрастет.


В настоящее время Hybrid SLI поддерживается: настольными GPU GeForce 8500 GT и GeForce 8400 GS для организации GeForce Boost; производительными GeForce GTX 280, GeForce 9800 GX2, GeForce GTX 260, GeForce 9800 GTX+, GeForce 9800 GTX и GeForce 9800 GT в режиме HybridPower; а также системными платами для процессоров AMD на nForce 780a, nForce 750a, nForce 730a (только функция GeForce Boost) со встроенным графическим ускорителем GeForce 8200.


Как видно, экономия электроэнергии может достигать впечатляющих значений.

Прежде чем описать модификацию, отметим что данный способ проверен детально на следующих системах:

Intel P965 (ASUS P5B Deluxe) + 2 x GeForce 6600LE by xDevs.com
Intel P45 (ASUS MAXIMUS II Formula) + 2 x GeForce 9800GTX + by sveetsnelda
Intel X48 (Gigabyte X48T-DQ6) + 2 x GeForce GTX 260 216sp by DeDaL
Intel X48 (ASUS P5E64WS Evolution) + 2 x GeForce 7900GS by Xtremelabs.org
Intel X38 (ABIT IX38QuadGT) + 2 x GeForce GTX 260 by TheWolf
Intel P55 (ASUS MAXIMUS III Formula) + 2 x GeForce 6600LE by xDevs.com
Intel P45 (ASUS P5Q Deluxe) + 2 x GeForce GTX 285 by Death or Glory
Intel X48 (ASUS Rampage Extreme) + 2 x GeForce 6800Ultra by Turrican
Intel P45 (Gigabyte EP45-UD3P) + 2 x GeForce 8800GT (Win7 32bit)
Intel P45 (Gigabyte EP45-DS4) + 2 x GeForce GTX 260 by cxghjcqr
Intel P965 (Gigabyte P965-DQ6) + 2 x GeForce 6600LE by TiN
Intel X48 (DFI LP LT X48) + 2 x GeForce 7900GS by TiN
Intel X48 (ASUS Rampage Formula) + 2 x GeForce 9800GTX by Ghostleader
AMD 790X (Gigabyte GA-MA790X-UD4P) by akula
AMD 790X (DFI LP DK 790FXB-M2RS) + 2 x GeForce 9800GT by aGeoM
Intel P35 (Abit IP35ProXE) + 2 x GeForce GTX 260 (192sp + 216sp) by TheWolf
Intel 5520 (Supermicro X8DAH+) + 2 x Quadro FX 4800 (GT200GL) on Windows 2008 R2 by derGhostrider
AMD 790FX (ASUS Crosshair III Formula) + 2 x GeForce 9800GT by aGeoM

Несмотря на небольшой (пока) список - модификация позволяет запускать SLI на ЛЮБОМ чипсете, а не только Intel. Просто пока желающих попробовать SLI владельцев двух или больше видеокарт NVIDIA с другими чипсетами нет. Но технически SLI можно включить даже на мат.платах с чипсетом AMD, лишь бы слоты PCI-Express имелись в нужном количестве.

Способ успешно испытан и реализован на операционных системах:

Microsoft Windows XP 32 бит
Microsoft Windows Vista/7 32 бит
Microsoft Windows Vista/7 64 бит

Теперь объединение нескольких видеокарт NVIDIA в режиме SLI возможно сделать на любых материнских платах. Это стало реальностью благодаря появлению упрощенной процедуры проверки, которая реализована для поддержки SLI на платформе Intel X58. Описанная ниже технология в статье и модифицированный драйвер успешно испытаны на системах с чипсетами Intel P45 (ASUS Maximus II Formula + 2 x 9800GTX+, XP) и Intel P965 (ASUS P5B Deluxe + 2 x 6600LE, XP), однако ограничений на поддержку чипсетов нет, поэтому в скором будущем список проверенных чипсетов будет пополняться, по мере тестирования энтузиастами.

зашифрованные список «разрешенных» в драйвере NVIDIA. В случае же «постороннего» Intel X58, была разработана упрощенная схема проверки на совместимость, которая использует текстовые строки-идентификаторы, или иначе сертификаты SLIC для всех X58-плат.

Суть модификации заключается в принудительном указании видеодрайверу NVIDIA идентификации чипсета «Intel X58», вне зависимости от того, какой на самом деле набор логики используется в железе. Получив идентификацию X58, видеодрайвер проверяет наличие правильного сертификата совместимости со SLI, который должен находится в системных таблицах ACPI. Изначально данные таблицы загружаются из BIOS компьютера, но в дальнейшем используется запись в реестре Windows.

На текущем этапе установки только исправленного драйвера с подмененным определителем чипсета недостаточно для активации SLI, необходимо также вручную внести подходящий сертификат в таблицы конфигурации ACPI . К счастью, для внесения изменений не обязательно корректировать BIOS и подвергать риску материнскую плату лишними перепрошивками. Воспользуемся способом проще, благодаря хранению нужной нам таблицы DSDT в реестре Windows. На данный момент все сертификаты связаны с именем производителя материнской платы, и проверяются драйвером на корректность. Это значит, что для материнских плат ASUS (любых моделей) можно использовать только сертификат от плат на базе X58 производства ASUS, например Rampage III Extreme. Для плат EVGA – аналогично от EVGA Classified.

Для работы понадобится две утилиты: Intel ASL Optimizing Compiler и Microsoft ASL 3.0

Вся процедура добавления сертификата для операционной системы Windows XP 32бит выглядит примерно так:

Процедура добавления SLI-сертификата X58 для платы Gigabyte P965-DQ6.

Шаг 0.
Проверяем наличие платы нашего производителя (Gigabyte) Х58 в списке сертификатов ниже. Используем строку «» в данном случае.

Шаг 1. Считываем таблицу ACPI из реестра Windows и дизассемблируем. Для этого создаем директорию c:/ACPI и копируем в нее утилиты IASL и ASL 3.0. В командной строке запускаем iasl –g. Если все прошло успешно, будет выведено примерно следующее:

Интересующая нас таблица дизассемблирована и хранится в файле dsdt_GBTUACPI.dsl. Открываем данный файл любым текстовым редактором.

Шаг 2. Вставляем сертификат в таблицу. Суть правки сводится к поиску блока аналогичного:

Scope(\_SB_)
{
Различный не интересующий нас код
}

И вставке блока с сертификатом сразу же после этого блока. На нашем примере это выглядит так:

Оригинальный файл

Device (\_SB.PCI0.EXPL)
{
Не интересующий нас код….
}
}
}
}

Файл с добавленным сертификатом.

Device (\_SB.PCI0.EXPL)
{
Не интересующий нас код….
}

Scope (\_SB.PCI0)
{
Name (SLIC, Buffer (0x9E)
{
"987134512781Genuine NVIDIA Certified SLI Ready Motherboard for GIGABYTE GA EX58-UD38432-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)"
})
Device (WMI1)
{
Name (_HID, "pnp0c14")
Name (_UID, "MXM2")
Name (_WDG, Buffer (0x14)
{
/* 0000 */ 0x3C, 0x5C, 0xCB, 0xF6, 0xAE, 0x9C, 0xBD, 0x4E,
/* 0008 */ 0xB5, 0x77, 0x93, 0x1E, 0xA3, 0x2A, 0x2C, 0xC0,
/* 0010 */ 0x4D, 0x58, 0x01, 0x02
})
Method (WMMX, 3, NotSerialized)
{
CreateDWordField (Arg2, 0x00, FUNC)
If (LEqual (FUNC, 0x41494C53))
{
Return (\_SB.PCI0.SLIC)
}

Return (0x00)
}
}
}

Сохраняем итоговый текстовый файл с таблицей и добавленным сертификатом под именем sli.dsl.

Шаг 3.
Компилируем итоговую таблицу в бинарный файл. Для этого воспользуемся утилитой Microsoft ASL 3.0, ссылку на которую приводили раньше.

В случае успешной компиляции в папке появится файл DSDL.aml, в котором уже будет встроена строка сертификата. Это можно увидеть с помощью любой утилиты просмотра файлов, строка не зашифрована.

Шаг 4. Загружаем измененную таблицу DSDT в реестр компьютера.

Шаг 5. Перезагружаем систему, и в случае успешной загрузки инсталлируем модифицированный драйвер, как обычно. Если все прошло правильно, ваша система сразу же рапортует о наличии поддержки SLI и драйвер активирует вкладку с управлением SLI. Если из-за какой-то ошибки система не загружается, либо выдает ошибки и синие экраны, при загрузке нажмите F8 и укажите «Загрузить последнюю рабочую конфигурацию».

Если нужно вернуть оригинальное состояние таблицы DSDT, отменив все изменения, воспользуйтесь командой asl /localtable DSDT.aml -d

Аналогичный принцип и для платы ASUS P5B Deluxe. Остановимся лишь на отличиях.

Шаг 0. Используем строку «987134512781Genuine NVIDIA Certified SLI Ready Motherboard for ASUS RAMPAGE II EXT 3287-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)».
Шаг 1 . Считываем таблицы из реестра и дизассемблируем с помощью iasl –g. Итоговое имя файла dsdt_A0483035.dsl.
Шаг 2. Ищем блок _SB и сразу после него вставляем SLIC блок.
Шаг 3. Компилируем файл с помощь команды asl dsdt_A0483035.dsl, получаем DSDT.aml
Шаг 4 . Загружаем asl.exe /loadtable DSDT.aml
Шаг 5 . Перезагружаемся, и устанавливаем модифицированный драйвер.

Несмотря на кажущуюся сложность, все эти шаги выполняются за 5 минут с перерывом на чай, ничего сложного в процедуре нет, главное сделать все внимательно и без ошибок. Отметим, что данные операции взаимодействуют с аппаратным обеспечением ПК на низком уровне, поэтому в случае выхода вашего ПК из строя, потери данных, либо любых иных негативных явлениях ответственность лежит только на вас. Все операции представлены в ознакомительных целях, и никто кроме вас ответственности за возможные убытки не несет.

Впрочем, на различных системах никаких проблем мы не заметили, все проходило без единой ошибки.

А теперь результаты после модификаций, и активации SLI в популярных бенчмарках

P5B Deluxe (чипсет Intel 965) + две видеокарты GeForce 6600LE в SLI:

3D"03: одна видеокарта, QX9650 @ 4200MHz, 6600LE DDR3 660/670: 10044
3D"03: две видеокарты в SLI, Q6700 @ 3000MHz, 6600LE DDR3 580/522: 11087
3D"05: одна видеокарта, QX9650 @ 4213MHz, 6600LE DDR3 646/660: 3729
3D"05: две видеокарты в SLI, Q6700 @ 3000MHz, 6600LE DDR3 580/522: 4975
3D"06: одна видеокарта, Q6700 @ 3600MHz, 6600LE DDR3 580/585: 1510
3D"06: две видеокарты в SLI, Q6700 @ 3000MHz, 6600LE DDR3 580/522: 1808
Aqua: одна видеокарта, QX9650 @ 4200MHz, 6600LE DDR3 670/670: 71435
Aqua: две видеокарты в SLI, Q6700 @ 3000MHz, 6600LE DDR3 580/522: 88185

Детальное описание процедуры для более востребованных и современных ОС Windows 7 и Windows Vista 32 бит и 64 бит вариантов также будет описано здесь в ближайшие дни.

А пока скриншоты подверждающие работоспособность способа и для них:

987134512781Genuine NVIDIA Certified SLI Ready Motherboard for GIGABYTE GA EX58-UD38432-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)
987134512781Genuine NVIDIA Certified SLI Ready Motherboard for ASUS RAMPAGE II EXT 3287-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)
987134512781Genuine NVIDIA Certified SLI Ready Motherboard for ASUS P6T Deluxe 0101-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)
987134512781Genuine NVIDIA Certified SLI Ready Motherboard for GIGABYTE GA EX58-UD38432-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)
987134512781Genuine NVIDIA Certified SLI Ready Motherboard for GIGABYTE GA EX58UD4P3287-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)
987134512781Genuine NVIDIA Certified SLI Ready Motherboard for DFI LP UT X58 T3EH8 0101-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)
987134512781Genuine NVIDIA Certified SLI Ready Motherboard for MSI X58 PLATINUM 0101-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)
987134512781Genuine NVIDIA Certified SLI Ready Motherboard for FOXCONN BLOODRAGE 3287-Copyright 2008 NVIDIA Corporation All Rights Reserved-765289891023(R)

На данный момент ведутся работы по устранению проверки наличие сертификата в таблицах ACPI, поэтому возможно уже через несколько дней вся эта процедура не потребуется, достаточно будет установить только исправленный драйвер.

Обновлено:

Уже реализована возможность активации SLI на оригинальных немодифицированных драйверах Forceware любых версий, которые поддерживают SLI на X58. Это возможно после патча системной библиотеки ОС на следующие версии:

Оригинальный файл в директории /windows/system32 необходимо заменить исправленным. После этого чипсет в системе будет всегда идентифицироваться как X58, вне зависимости от драйверов. Это рапортует и утилита CPU-Z

Пример использования оригинального драйвера Forceware 185.85 WHQL в системе XP 32 бит, с измененным HAL.dll, и парой видеокарт GeForce 6600LE.

Необходимость наличия SLIC сертификата в таблицах ACPI по прежнему имеется.

Обновлено:

Модифицированный драйвер Forceware 190.62 (Windows XP 32 bit) доступен для скачивания:
http://www.xdevs.com/sli/Forceware_XP32_19062_SLImod.rar - 79 Мбайт

Модифицированный файл для драйвера Forceware 190.62 (Windows XP 32 bit) с принудительным использованием сертификата ASUS:
http://www.xdevs.com/sli/nv4_mini_rev2asus.rar - 2.1 Мбай
т - для данного драйвера нужно использовать сертификат ASUS, вне зависимости от реального производителя материнской платы. Это позволит включать SLI даже на платах производителей, у которых нет Х58-решений.

Модифицированный файл для драйвера Forceware 190.62 (Windows Vista/7 32 bit) доступен для скачивания:
http://www.xdevs.com/sli/nvlddmkm.rar - 2.6 Мбайт

Модифицированный файл для Forceware 190.62 (Windows Vista/7 64 bit):
http://www.xdevs.com/sli/nvlddmkm-64bit_rev_2.rar - 3 Мбайт

Модифицированный файл HAL.DLL для Windows XP 32 bit:
http://www.xdevs.com/sli/hal.dll - 130 КБ
- скопировать в папку /%windows%/system32, сохранив оригнал.

Теперь, когда понятен принцип, найти аналогичные участки кода и модифицировать в любых современных драйверах, до выхода новых методов защиты у NVIDIA – дело техники и времени.

Этот материал был бы невозможен без участия:

Заядлые геймеры наверняка сталкивались или, по крайней мере, слышали о технологиях, называемых SLI и Crossfire, которые принято относить к графической системе компьютера или ноутбука. В большинстве случаев такие термины применяются больше к стационарным системам (это будет рассмотрено несколько позже). Однако иногда для нормальной работы компьютера потребуется знать, как отключить Crossfire или SLI, когда такие режимы не используются. Об этом сейчас и пойдет речь.

SLI и Crossfire: общие понятия

Наверное, начать стоит с того, что, с точки зрения современных компьютерных технологий, SLI и Crossfire представляют собой специализированные режимы, которые поддерживают установку на компьютер двух и более видеокарт.

В стационарных системах два независимых видеоадаптера просто вставляются в специальные слоты, расположенные на материнской плате. Иногда можно встретить ситуацию, когда на «материнке» уже имеется интегрированный графический чипсет, так сказать, «вшитый» в плату, а параллельно с ним устанавливается еще один.

Сейчас мы остановимся на обоих режимах несколько подробнее, а заодно посмотрим, как отключить Crossfire (SLI) несколькими простейшими методами в случае необходимости, тем более что оба режима по технологии функционирования практически не различаются.

Что такое SLI?

Технология SLI, подразумевающая установку нескольких графических адаптеров в систему, была разработана компанией nVidia и подразумевает использование карт только этого производителя.

В принципе, такой режим можно назвать неким условным электронным переходником, который соединяет два видеоадаптера, позволяя объединять их возможности в одно целое.

Что такое Crossfire?

Crossfire представляет собой полную аналогию технологии SLI, однако авторство этой разработки принадлежит не менее известной корпорации AMD.

Интересен тот факт, что, как показывает практика, связка двух и более видеокарт AMD в Crossfire обходится намного дешевле, нежели использование SLI-моста при установке карт nVidia. Кроме того, технология от nVidia не позволяет устанавливать такие связки на все материнские платы подряд. Но если рассматривать вопрос о том, как отключить SLI-Crossfire Dual Graphics, решение в обоих случаях будет одинаковым. Но сначала рассмотрим некоторые особенности их использования.

Особенности подключения видеокарт в режимах SLI и Crossfire

Во-первых, каждый пользователь компьютерной системы должен четко понимать, что подключать два и более графических адаптера к материнской плате можно исключительно в тех случаях, когда сама «материнка» поддерживает такую возможность.

К примеру, для использования режима SLI плата должна иметь соответствующую маркировку, в противном случае, сколько ни пытайся установить на неё две карты, в связке работать они не будут. То же самое касается и одновременного использования дискретного адаптера и интегрированного. Здесь придется довольствоваться только одним из них.

Во-вторых, следует обратить внимание на тот момент, что для работы в связке по технологии SLI можно устанавливать только видеокарты, базирующиеся на одинаковых чипах (например, nVidia GTX серии 970 и 980, чипсеты серии Titan или две одинаковые карты GT и т. д.). Заметьте: связка из 9600 GT и 9800 GT работать не будет.

Другое дело, когда используются карты Radeon. Тут можно использовать «разночиповые» конфигурации, к примеру, Radeon 2600 и 1950. Очень часто для увеличения производительности графической системы применяются карты серии R9. Действительно, такие пары позволяют использовать максимум возможностей для игр с или Full HD с разрешением 2k. Некоторые пользователи используют такие связки для увеличения общей частоты раскадровки, скажем, чтобы добиться показателя более 80 fps (frames per second - кадры в секунду).

В-третьих, не стоит забывать, что для SLI-карт должен использоваться специальный переходник, который в обязательном порядке поставляется либо вместе с картой, либо с «материнкой». Без него две карты вместе работать, опять же, не будут.

Мифы об использовании режима Dual Graphics для увеличения производительности графической системы

Некоторые наивные юзеры устанавливают две карты для увеличения производительности, считая, что она повысится в два раза (раз две карты на борту). Это заблуждение. Прирост производительности, как показывает практика, редко превышает 20-30 %.

Кроме того, показатель этот рассчитывается по более слабой карте. Например, если у нас имеется у одной карты 8 Гб памяти, а у другой - 2 Гб, как ни крути, на выходе пользователь получит всего 2 Гб. То же самое касается и установки двух карт, допустим, с памятью 4 Гб каждая. На выходе останутся все те же 4 Гб.

Еще один момент: если одна карта MSI, а вторая EVGA, расчет суммарной производительности будет производиться именно по той, которая обладает наименьшими частотами. Так что, как видим, обольщаться особо не стоит.

Как отключить SLI/Crossfire простейшим методом?

Теперь перейдем непосредственно к процессу отключения этих режимов. Наверное, каждый юзер понимает, что вопрос "как отключить режим Crossfire или SLI" сводится к тому, чтобы не использовать в системе второй графический адаптер. И, как уже понятно, простейшим решением является обычное извлечение одной из карт из слота на материнской плате, что применительно к стационарным компьютерам.

Но ведь и на современные ультрабуки можно устанавливать дополнительное оборудование, в частности те же видеоадаптеры, которые, в принципе, могут использовать режим Crossfire. Как отключить на ноутбуке одну из карт? Проще простого. Описанные далее методы годятся и для стационарных компьютерных терминалов, и для лэптопов.

Как отключить режим SLI (Crossfire) для дискретного адаптера через BIOS?

Для отключения обоих режимов можно воспользоваться настройками BIOS. Вход осуществляется нажатием клавиш Del, F2, F12 и т. д. (все зависит от версии и разработчика BIOS).

Здесь нас интересует вкладка, содержащая конфигурацию, называемую Onboard, Integrated Devices и т. д. Входим в параметры и выставляем режим Disabled (иногда Off). Только и всего.

Можно зайти в раздел Advanced, где и будут указаны настройки самого режима, если используются не интегрированные, а дискретные адаптеры.

Использование «Диспетчера устройств»

Теперь посмотрим, как отключить Crossfire AMD или SLI nVidia при помощи стандартных средств Windows-систем. Для этого необходимо зайти в стандартный «Диспетчер устройств». Делается это либо через «Панель управления», либо через «Администрирование», либо с использованием команды devmgmt.msc.

Здесь нужно перейти в раздел видеоадаптеров, где и будут указаны установленные устройства. В этом случае, равно как и во всех других ситуациях, вопрос о том, как отключить SLI-Crossfire, сводится к тому, чтобы сделать недоступной одну из карт. Выбираем карту для отключения и правым кликом вызываем меню свойств, где имеется кнопка отключения устройства. Можно использовать аналогичную команду непосредственно из контекстного меню. После этого даже систему перезагружать не придется.

Отключение режимов при помощи «родных» утилит

Несмотря на простоту описанных методов, лучше всего (и безопаснее) использовать «родные» утилиты настройки и управления графическими адаптерами, которые инсталлируются автоматически при установке соответствующих драйверов, или установленные дополнительно.

Для карт nVidia моно использовать GeForce SLI Profile Tool, PhysX, Riva Tuner и т. д. Для чипсетов AMD пригодятся утилиты вроде ATI Tray Tool или ATI Catalyst Control Centre и другие. Их использование более простое, настолько, что даже не придется «лазить» в системной конфигурации или в BIOS, чтобы изменить тот или иной параметр. Если разобраться, такое решение рассматриваемой нами проблемы (как отключить Crossfire/SLI) будет более эффективным, при этом исключается даже возникновение конфликтов между установленным оборудованием (к сожалению, встречается и такое).

Вместо послесловия: стоит ли отключать режим двойной графики?

Остается добавить несколько слов о целесообразности использования таких режимов. Собственно, сам ответ на вопрос: "Как отключить Crossfire (SLI)?", думается, уже ясен. Что же касается установки двух и более видеокарт в одну систему и их одновременного использования, здесь существует достаточно много противоречивых мнений. Дело в том, что особого прироста производительности можно и не получить, да и конфликты оборудования не исключены.

Конечно, если система не использует графические возможности по максимуму, отключать эти режимы нужно, ведь одновременная работа двух карт может привести к сильному перегреву компьютера, двойному электропотреблению графической системой (ведь две карты установлено), а также к неработоспособности некоторых игр, программный код которых просто не поддерживает такие режимы или не в полной мере адаптирован к их использованию.

Кроме того, не рекомендуется включать связки в виде бюджетных карт или адаптеров среднего уровня. Уж лучше вместо двух таких купить одну более мощную. Производительность будет намного выше, а проблем меньше. Да и по деньгам зачастую такой вариант более предпочтителен.

Впрочем, если разобраться, использовать такие режимы иногда можно, но в ситуациях, когда две карты не задействованы, одну из них рекомендуется отключать, причем использовать для этого нужно специальное программное обеспечение, рассчитанное на управление всеми параметрами графических адаптеров. И осуществляется такое отключение, что называется, в один клик.

Рассказать друзьям