Темы: видеокарта NVIDIA Zotac флагман Kepler NVIDIA GK104 NVIDIA GeForce GTX

NVIDIA GTX TITAN — возвращение Kepler'а

Денис Свириденко, info@ferra.ru
NVIDIA GTX TITAN
22 марта 2012 года компания NVIDIA выпустила на рынок видеокарту, которая по сей день оставалась самым мощным однопроцессорным решением — NVIDIA GTX 680. Время идет, герои уходят, на смену им приходят новые лидеры. Как вы уже догадались, речь пойдёт про видеокарту NVIDIA GTX TITAN, которая сместит GTX 680 с трона, лишив её звания самого быстрого одночипа.

Оглавление

Прошло немногим меньше года с тех пор, как NVIDIA представила миру видеоадаптер NVIDIA GTX 680. По сей день она являлась неоспоримым лидером по производительности. Новинка принесла с собой не только заметное увеличение производительности относительно предыдущего поколения (GTX 580), но и явила миру архитектуру Kepler, а также множество новых фич.

NVIDIA GTX 680
NVIDIA GTX 680

И вот спустя год, компания NVIDIA показывает нам новую видеокарту. Вопреки ожиданиям, называется новинка не GTX 780, и не относится к какой либо линейке вообще. Именуется новинка очень просто — NVIDIA GTX TITAN. Вероятно, название должно вызывать у покупателей ассоциации с титанической мощью. Вполне возможно, что так оно и будет. Ответ на это мы узнаем, проведя тестирование. А для начала я предлагаю вспомнить, с чего все начиналось и что такое Kepler.

Архитектура Kepler

На базе архитектуры Kepler построен GPU NVIDIA GK104, который является сердцем видеокарты NVIDIA GTX 680.

NVIDIA GK104
NVIDIA GK104

Kepler
Kepler

Kepler является развитием архитектуры Fermi, на которой работали видеокарты GTХ 580 и младше. Главное отличие на тот момент заключалось в уменьшении техпроцесса с 40 до 28 нм. Конечно же, на этом изменения не закончились. На схеме мы видим четыре кластера обработки графики (Graphics Processing Clusters), в каждом из которых «живёт» по два SMX (Next Generation Streaming Multiprocessors), они же потоковые процессоры. В общей сложности у нас получается восемь SMX. Каждый SMX несёт в себе 192 CUDA-ядра. Таким образом, общее количество ядер достигало отметки в 1536 единиц. По сравнению с предыдущим поколением, это дало трёхкратное увеличение мощности.

Как я и говорил чуть выше, GTX 680 принесла с собой не только новый GPU, но и новые технологии. Среди них был PCI-E, выросший до версии 3.0. Это позволило увеличить полосу пропускания до 8 GT/s (Гигатранзакций в секунду). На тот момент это не принесло существенного увеличения производительности, и, устанавливая видеокарту в материнскую плату с разъёмом PCI-E 2.0, пользователь практически не терял производительности — а если и терял, то это были считанные проценты, которые ни на что не влияют, кроме количества «попугаев» в бенчмарках. Однако то, что тогда было практически бесполезным, теперь придётся очень кстати. Если новинка действительно заметно мощнее своего предшественника, то увеличенная пропускная способность интерфейса PCI-E очень даже пригодится.

Также нам показали технологию NVIDIA GPU Boost, которая автоматически увеличивает тактовую частоту видеопроцессора, основываясь на показаниях датчиков. Если видеокарта не работала на пределе, не перешагивала через порог TDP, то она самостоятельно увеличивала тактовую частоту, что обеспечивало прирост производительности без вмешательства пользователя. Изначально технология вызвала множество критики и недовольств в свой адрес, особенно у профессиональных оверклокеров. Однако на сегодняшний день все уже привыкли к её существованию и лично мне она даже нравится. Видеокарта сама определяет безопасный потолок, до которого можно увеличивать частоту, не боясь зависаний и перезагрузок в самый интересный момент — это здорово.

Помимо этого, с выходом видеокарты NVIDIA GTX 680 появилась возможность подключать до четырёх мониторов к одной видеокарте. Раньше пришлось бы использовать две видеокарты. Эта возможность пригодится вам, если вы любите поиграть, не отрываясь от работы (на верхний дисплей можно вытащить необходимые вам окна), или просто любите активно поработать.

NVIDIA Surround
NVIDIA Surround

Также NVIDIA представила новую версию известного всем VSync и назвала его Adaptive VSync. Это нововведение в основном касается, конечно же, геймеров. NVIDIA усовершенствовала алгоритм работы технологии и сделала её более дружелюбной. Отныне, если ваша видеокарта не может выдать 60 кадров (стандартная вертикальная развёртка мониторов), то она не переключается автоматически в режим 30 кадров, а просто деактивирует технологию до тех пор, пока видеокарта снова не выдаст более 60 кадров в секунду. Таким образом нас избавили от лагов при частом переключении режимов.

Схема работы Adaptive VSync
Схема работы Adaptive VSync

Завершим нашу историческую справку, вспомнив про новый алгоритм сглаживания — Temporal Aliasing. Суть этого алгоритма заключается в том, что видеокарта использует содержимое предыдущего кадра для улучшения качества следующего при минимальной затрате ресурсов.

Характеристики GK104
Характеристики GK104

Итак, GPU Kepler GK104 несет в себе 1536 ядер, которые работают на тактовой частоте 1006 МГц. В режиме GPU Boost видеокарта сама автоматически увеличивает тактовую частоту вплоть до 1100 МГц. Видеопамять функционирует на 1502 (6008) МГц. Объем видеопамяти 2048 Мбайт. Шина памяти 256 бит. Количество блоков растеризации (ROPs) — 32 штуки. Количество транзисторов — 3500 млн, а площадь кристалла — 294 мм.

Видеокарта NVIDIA GTX 680
Видеокарта NVIDIA GTX 680

Видеокарта NVIDIA GTX 680
Видеокарта NVIDIA GTX 680

Видеокарта NVIDIA GTX 680
Видеокарта NVIDIA GTX 680

Это были базовые характеристики видеокарты NVIDIA GTX 680, изображенной на фотографиях выше. Я решил вспомнить их, так как новинка является продолжателем рода и хочется провести корректное сравнение, не упустив даже мелочей. На этом мы переходим к знакомству с NVIDIA GTX TITAN.

NVIDIA GTX TITAN — что нового?

Итак, мы с вами кратко вспомнили, что же нам принёс первый видеопроцессор, построенный на микроархитектуре Kepler. Теперь пришло время познакомиться с новинкой — NVIDIA GTX TITAN. Эта видеокарта построена на другом видеопроцессоре — GK110. Она не относится к шестисотой линейки видеокарт NVIDIA, но не относится и к видеокартам будущей семисотой линейки, а «гуляет сама по себе». Давайте же начнём с технических характеристик и особенностей видеопроцессора, а потом перейдём к изучению самой карты и особенностей её строения.

NVIDIA GK110
NVIDIA GK110

SMX GK104
SMX GK104

Сразу видно, что новый GPU стал «жирнее». Было четыре кластера обработки графики GPC (Graphics Processing Clusters) — стало пять. Количество потоковых процессоров (SMX, они же Next Generation Streaming Multiprocessors) в каждом кластере увеличилось с двух до трёх. Таким образом, теперь у нас пятнадцать потоковых процессоров, но нужно отметить, что один из них неактивен, а потому по факту их остаётся четырнадцать. Каждый потоковый процессор, как и раньше (в GK104), несёт в себе 192 CUDA-ядра, текстурные блоки и движок PolyMorph версии 2.0. Итого общее количество ядер составляет 2688 штук — впечатляет! Количество блоков растеризации (ROPs) увеличилось до 48 штук. Объем текстурных блоков также увеличился со 128 до 224 штук. Это серьёзное заявление на победу, даже если не учитывать, что это ещё далеко не все улучшения относительно GTX 680.

NVIDIA GK110 VS Intel Core i7 3960 Xtreme Edition
NVIDIA GK110 VS Intel Core i7 3960 Xtreme Edition

На данном слайде компания NVIDIA явно хочет показать своё превосходство в вычислительной мощности над процессорами компании Intel. Причем, обратите внимание, NVIDIA сравнивает свой видеопроцессор с фактически самым старшим процессором компании Intel на сегодняшний день. Да, ещё есть Intel Core i7 3970 Xtreme Edition, но разница между ними ровно двести мегагерц.

Компания NVIDIA доработала свою технологию GPU Boost, и теперь та получила вторую редакцию.

NVIDIA GPU Boost 2.0
NVIDIA GPU Boost 2.0

NVIDIA GPU Boost 2.0
NVIDIA GPU Boost 2.0

NVIDIA GPU Boost 2.0
NVIDIA GPU Boost 2.0

Как уже говорилось ранее, задача GPU Boost — это самостоятельное управление тактовой частотой видеопроцессора и подаваемым на него напряжением без какого-либо вмешательства со стороны пользователя. В первой редакции GPU Boost ориентировался на потребляемую энергию, и, в зависимости от «аппетита» карты в текущий момент, принимал решение повысить или понизить тактовую частоту видеопроцессора. Вторая редакция принесла больше возможностей. Теперь система отслеживает не только потребляемую энергию, но и напряжение с температурой.

Разумеется, для того, чтобы система понимала, «горяч» ли сейчас GPU и нужно ли снижать тактовую частоту, или же можно ещё подбросить дровишек, должна быть какая-то точка отсчёта. Компьютер пока ещё не умеет интуитивно определять, когда «хватит». Точкой отсчёта является величина в 80 градусов Цельсия. Параллельно система оценивает подаваемое на GPU напряжение. Да, эта видеокарта умеет регулировать напряжение на видеопроцессоре, в отличие от GTX 680, где все происходило несколько иначе. Это будет способствовать тому, что видеокарта будет точнее определять порог, после которого следует остановиться, а не бояться заранее. Более того, это, в свою очередь, позволяет надеяться, что при замене системы охлаждения на более производительную карта будет сама разгоняться до ещё больших частот. Все это только на руку среднестатистическому пользователю, который не хочет проводить несколько вечеров за разгоном видеокарты, т.е. это ещё один дружественный шаг в сторону покупателя.

Преимущества новинки
Преимущества новинки

Помимо всех перечисленных ранее достоинств, мы не упомянули ещё как минимум одно — шину памяти. Теперь шина памяти составляет 384 бита (вместо 256 у GTX 680). Объем памяти также заметно увеличился — с двух до шести гигабайт. Тип памяти GDDR5. На самом деле, конкретно для игр столько памяти не требуется даже в сверхвысоких разрешениях. Но столь мощной видеокарте трёх гигабайт было бы просто мало, как минимум — морально.

Благодаря присутствию MIO разъёмов вы можете объединить три видеокарты NVIDIA GTX TITAN в 3-way SLI. Такая мощность для игр вряд ли потребуется. А если и потребуется, то видеокарты уже устареют морально и их все равно придется поменять. Однако, если вы планируете не только играть на компьютере, но и заниматься вычислениями, в которых (по заявлению производителя) новинка очень хороша, то вот тут-то вся мощность может и пригодиться. К сожалению, проверить, действительно ли так хороша новая видеокарта в вычислениях, нам не удалось, но при этом у нас нет каких-либо причин не верить NVIDIA.

Хочется сразу отметить, что если вы решитесь объединять три видеокарты, то вам потребуется ну очень мощный блок питания, ведь остальная система при таком раскладе тоже не будет слабой. Потребление новинки может составлять 250 Ватт и выше под нагрузкой при разгоне, то есть три таких видеокарты легко могут «съесть» почти киловатт.

GTX TITAN 3-way SLI в Crysis 3
GTX TITAN 3-way SLI в Crysis 3

По заявлению компания NVIDIA, три видеокарты, объединённые в 3-way SLI, могут обеспечить в игре Crysis 3 целых 48 кадров в секунду на очень высоких настройках в разрешении 5760 х 1080 при двукратном сглаживании MSAA.

NVIDIA GTX TITAN 3-way SLI
NVIDIA GTX TITAN 3-way SLI

На данном графике видно, что три видеокарты конкурентов — HD 7970 — объединённые в режим CrossFireX, ощутимо громче под нагрузкой. По заявлению NVIDIA, три видеокарты GTX TITAN производят около 48 дБ шума, в то время как три видеокарты конкурентов шумят на все 61 дБ. Если это так, то разница очень велика. Поверьте на слово, 61 дБ — это очень много. Долго сидеть рядом с таким источником шума не получится — заболит голова.

NVIDIA GTX TITAN 3-way SLI
NVIDIA GTX TITAN 3-way SLI

На представленном выше графике нет ни одной игры, в которой связка из трёх новинок проиграла бы двум GTX 690. Где-то коэффициент производительности новинок составил 1.1 относительно двух GTX 690, а где-то и все 2.0. На данный момент дело ещё и в драйверах, видеокарта только вышла, поэтому в ближайшее время производительность должна быть увеличена.

И в заключение хочется рассказать о ещё одной фиче «титана».

Display Overclocking
Display Overclocking

Display Overclocking
Display Overclocking

Современные мониторы ограничивают частоту развёртки в 60 герц, и, как следствие, при активации Vsync производительность проседает до 60 кадров в секунду, даже если видеокарта может показать добрую сотню. Новая утилита, которая будет поставляться вместе с видеокартами, сможет помочь вам увеличить частоту вертикальной развёртки с 60 до 80 герц, тем самым подняв количество кадров в секунду. Раньше многие шутили про разгон мониторов, но будущее, как оказалось, не за горами, и шутки стали реальностью. Однако компания NVIDIA утверждает, что разогнаться смогут далеко не все мониторы, так что вам придётся поэкспериментировать.

На этом мы заканчиваем знакомство с новым GPU и технологическими фишками видеокарты NVIDIA GTX TITAN, и переходим к изучению самой карты.

NVIDIA GTX TITAN

NVIDIA GTX TITAN
NVIDIA GTX TITAN

Внешне видеокарта сразу напомнила мне GTX 690. Стиль в оформлении явно выдержан тот же. Корпус видеокарты выполнен целиком из металла. Он очень крепкий и прочно сбитый. Нет ощущения, что если карту случайно уронить, то она разлетится на несколько частей. Стоит отдать должное производителю — к исполнению видеокарты не придраться даже при желании.

Очень приятно держать в руках действительно качественный продукт и работать с ним. В наше время это редкость. Пусть это и не определяющая характеристика для видеокарты, и большинство пользователей скажут, что главное — производительность и малый шум от СО, я все же считаю, что дорогой продукт должен быть не только производительным, но и стильным, даже видеокарта. У компании NVIDIA это получилось, и не путем наклеивания стразиков и использования всей цветовой палитры в оформлении.

NVIDIA GTX TITAN
NVIDIA GTX TITAN

Сверху у видеокарты находится привычная уже надпись GEFORCE GTX, которая, конечно же, подсвечивается. Правее расположены два разъёма дополнительного питания — один шестиконтактный и один восьмиконтактный. Это логично, так как видеокарта потребляет теперь 250 Ватт вместо 190 Ватт. Как и говорилось ранее, в левой части живут два разъёма MIO.

NVIDIA GTX TITAN, вид сверху
NVIDIA GTX TITAN, вид сверху

В центральной части металлической конструкции расположилось пластиковое окошко. Зачем производитель его там установил — мне в данном случае не очень ясно, так как через некоторое время там все будет в пыли, и приятный вид быть приятным перестанет. Ну уж как есть, дизайнерский ход интересный. В правой части расположился вентилятор, ещё чуть правее виднеется маленький вытравленный логотип NVIDIA. В левой части карты выштампована надпись TITAN.

NVIDIA GTX TITAN, видеоразъемы
NVIDIA GTX TITAN, видеоразъемы

Набор видео разъёмов аналогичен тому, который использовался в видеокарте GTX 680 — имеется два DVI и по одному HDMI и DisplayPort. Этого набора достаточно, чтобы проблем с подключением не возникло.

NVIDIA GTX TITAN с частично демонтированной системой охлаждения
NVIDIA GTX TITAN с частично демонтированной системой охлаждения

Удалив верхнюю часть системы охлаждения, мы доберёмся до радиатора и испарительной камерой. Радиатор внушительных размеров. Крепится все это добро на металлическую пластину, которая закрывает всю печатную плату и помогает отводить тепло от расположенных на последней элементов.

NVIDIA GTX TITAN без системы охлаждения
NVIDIA GTX TITAN без системы охлаждения

А вот и сама печатная плата. Внешне она не сильно отличается от той, которая использовалась для производства GTX 680. Хотя, безусловно, расположение некоторых элементов изменилось, особенно это заметно в правой части карты.

Вокруг GPU расположились двенадцать микросхем видеопамяти стандарта GDDR5 производства SAMSUNG. С обратной стороны платы присутствуют ещё двенадцать микросхем, таким образом, на плате распаяно двадцать четыре микросхемы видеопамяти. Плотность каждой микросхемы 256 Мбайт, точнее, два гигабита. Общее количество видеопамяти составляет шесть гигабайт.

Теплораспределительная крышка на GPU отсутствует. Маркировка GPU NVIDIA ZS TAIWAN 1231AB N6H132 06W GK110-400-A1. Кристалл очень крупный, но это и не удивительно, если вспомнить про семь миллиардов транзисторов и прочие характеристики.

Подсистема питания стала заметно мощнее, чем у GTX 680. Теперь подсистема питания видеопроцессора шестифазная, и две фазы отведены на подсистему питания видеопамяти.

На этом мы завершаем изучение референсного варианта и переходим к видеокарте производства ZOTAC.

ZOTAC GTX TITAN

Видеокарта ZOTAC GTX TITAN, несмотря на свои внушительные размеры, поставляется в весьма скромной коробке. В отличие от большинства брендов, ZOTAC не увешивает свои изделия кучей логотипов, что делает им честь. На упаковку приятно смотреть.

Упаковка видеокарты ZOTAC GTX TITAN
Упаковка видеокарты ZOTAC GTX TITAN

После того, как вы извлечёте содержимое внешней части упаковки, у вас останется такой вот симпатичный бокс, в котором аккуратно лежит видеокарта.

Упаковка видеокарты ZOTAC GTX TITAN
Упаковка видеокарты ZOTAC GTX TITAN

Комплектация у карты весьма богатая. В коробке вы найдете:

  • Два переходника питания с молексов на 6pin;
  • Переходник DVI — D-SUB;
  • Диск с программным обеспечением;
  • Всевозможные инструкции по пользованию картой;
  • Три игры из серии Assassins Creed;
  • Фирменную наклейку.

Комплектация видеокарты ZOTAC GTX TITAN
Комплектация видеокарты ZOTAC GTX TITAN

Внешне видеокарта ничем от референса не отличается, но оно и предсказуемо: нет смысла изобретать велосипед. NVIDIA создала отличный продукт, который не нуждается в переработке. Набор видеоразъемов, остался, конечно же, без изменений.

Видеокарта ZOTAC GTX TITAN
Видеокарта ZOTAC GTX TITAN

На обратной стороне чего-то интересного, кроме двенадцати микросхем видеопамяти, нет. Память производства SAMSUNG, как и у карты от самой NVIDIA.

Видеокарта ZOTAC GTX TITAN, вид с обратной стороны
Видеокарта ZOTAC GTX TITAN, вид с обратной стороны

На то, что видеокарта продаётся под брендом ZOTAC, указывают только две маленьких наклеечки на верхней грани.

Видеокарта ZOTAC GTX TITAN
Видеокарта ZOTAC GTX TITAN

Вся система охлаждения контактирует с элементами платы через терморезинки. Исключением является сам видеопроцессор. Там прямой контакт GPU с радиатором, качество которого укрепляется термопастой.

Система охлаждения ZOTAC GTX TITAN
Система охлаждения ZOTAC GTX TITAN

На печатной плате, разумеется, тоже никаких изменений нет.

Печатная плата ZOTAC GTX TITAN
Печатная плата ZOTAC GTX TITAN

На этом мы переходим к изучению таблицы технических характеристик.

Таблица технических характеристик

 

NVIDIA GTX TITAN

NVIDIA GTX 690

NVIDIA GTX 680

AMD Radeon HD 7970 GHz

Ядро

GK110

2x GK104

GK104

Tahiti

Количество транзисторов, млрд. шт

7

2x 3.5

3.5

4.3

Техпроцесс, нм

28

28

28

28

Количество потоковых процессоров

2688

2x 1536

1536

2048

Количество блоков (ROPs)

48

2x 32

32

32

Частота ядра, МГц

836

950

1006

1050

Шина памяти, бит

384

2x 256

256

384

Тип памяти

GDDR5

GDDR5

GDDR5

GDDR5

Объем памяти, Мбайт

6144

2x 2048

2048

3072

Частота памяти, МГц

6000

6000

6000

6000

Поддерживаемая версия DirectX

11.1

11.1

11.1

11.1

Стоимость, руб

34990

29000

17000

12000

Да, характеристики впечатляют. При таких параметрах новинка, скорее всего, не даст ни одного шанса GTX 680 и AMD Radeon HD 7970 GHz Edition. Давайте взглянем на скриншот программ GPU-Z и MSI Afterburner, который обновился специально для новинки.

MSI Afterburner
MSI Afterburner

GPU-Z
GPU-Z

Версия программы GPU-Z 0.6.7 ещё не совсем правильно распознает видеокарту, а потому часть параметров не отображается. Но в целом утилита согласна с теми данными, что нам предоставила компания NVIDIA. В нашем распоряжении 2688 CUDA-ядер, которые функционируют на частоте 836 МГц; авторазгон увеличивает это значение до 876 и больше. Количество блоков растеризации (ROPs) 48 штук. Объем видеопамяти 6144 Мбайт, тактовая частота памяти 6000 МГц, шина памяти 384 бита. Как я говорил раньше, это очень серьёзные характеристики.

По умолчанию вентилятор крутится на 30% от максимальной мощности. Это примерно 1150 оборотов в минуту. На такой скорости его совершенно не слышно, и это очень хорошо. Забегая чуть вперёд, скажу, что даже при серьёзной нагрузке видеокарта не начинала шуметь как взлетающий самолет.

При этом ценник на видеокарту не оставляет равнодушным — 35 тысяч рублей. И это только официальная цена, в рознице она может быть ещё на несколько тысяч выше. Стоимость в 1200 долларов внушает определенные надежды. За такие деньги видеокарта должна показать действительно высокий результат, иначе её покупка не будет иметь смысла.

Разгон и температуры

Как такую видеокарту не проверить на разгон? Ведь если учесть её номинальную мощность, даже 100 МГц разгона по видеопроцессору могут принести немало пользы.

Итак, скриншот с параметрами я показывал вам чуть выше. Номинальная тактовая частота — 836 МГц по видеопроцессору и 6000 МГц по видеопамяти.

GPU-Z
GPU-Z

В программе MSI Afterburner было разблокировано управление напряжением. Power Limit был выдвинут до 106%. После разгона максимальная частота функционирования GPU составила 1000 МГц. Видеопамять стабильно смогла работать на 1800 (7200) МГц. Это весьма неплохой показатель, особенно если учесть, что технология GPU Boost в процессе работы видеокарты сама поднимала тактовую частоту в среднем до 1050 — 1100 МГц, а кое-где достигала и отметки в 1200 МГц. Вот это уже отличный показатель. Технология GPU Boost 2.0 действительно работает, и работает очень хорошо.

Температура — очень интересный момент. Без нагрузки видеопроцессор нагревался до 32-34 градусов. Под нагрузкой в номинале температура подскакивала до 82 градусов. При этом система охлаждения надоедать грохотом не начинала. Я бы сказал, что едва ли она становилась громче. Это очень хорошо и показывает, что над картой действительно поработали и постарались продумать большинство моментов. После разгона температура в нагрузке подскочила до 84 градусов, а система охлаждения шуметь больше не стала.

Из-за сильно ужатых сроков на тестирование полноценно погонять видеокарту в разгоне не удалось, а потому мы провели несколько тестов в самых популярных приложениях. Результаты с разгоном будут на отдельной картинке, поэтому не удивляйтесь, когда не найдёте результатов разгона среди основных.

NVIDIA GTX TITAN SLI

Да, нам удалось протестировать видеокарты в режиме SLI. Хочу сказать об этом несколько слов.

NVIDIA GTX TITAN SLI
NVIDIA GTX TITAN SLI

Видеокарты очень хорошо показали себя в SLI, несмотря даже на то, что карты очень свежие и драйверы только-только появились. Особых проблем с производительностью замечено не было. Кое-где масштабирование могло бы быть лучше, но это временно — драйверы непременно ещё «подтянут», а значит, хорошее станет ещё лучше.

Объединённые в тандем видеокарты во время тестирования не шумели, чем приятно удивили. Мне стало любопытно, какую температуру они покажут под нагрузкой, и я загрузил их программой FurMark. Итак, верхняя (первая) карта не изменила показаний и прогрелась до 82 градусов, а вот вторая прогрелась до 87 градусов. Но это абсолютно нормальная ситуация. Скажу больше: обычно разница куда более заметная и частенько нижняя видеокарта даже перегревается. Здесь такого не произошло, что очень порадовало.

Конкуренты

В конкуренты новинке я могу определить только видеокарту GTX 690. NVIDIA GTX TITAN ощутимо мощнее GTX 680 и AMD Radeon HD 7970 GHz Edition. На сегодняшний день с новинкой может конкурировать только «двухголовый монстр» GTX 690.

Видеокарта NVIDIA GTX 690
Видеокарта NVIDIA GTX 690

Вызов вертелки:NVIDIA GTX 69059033conf

Тестовый стенд

  • Процессор — Intel Core i7 3770K. Тактовая частота 3,4 ГГц, кэш 6 Мбайт L3
  • ASUS Maximus V Formula Thunder FX (LGA 1155)
  • Система охлаждения — Thermaltake Frio
  • Термоинтерфейс — Arctic Silver 5
  • Оперативная память — Corsair XMS3 1600 МГц, 9-9-9-24, 2x4 Гбайт (Dual channel)
  • Жесткий диск — Intel SSD 320 Series, 160 Гбайт
  • Блок питания — Seasonic Platinum 1000 W
  • Операционная система — Windows 7, x64
  • Видеодрайверы — 314.09

Результаты тестирования NVIDIA GTX TITAN

Ввиду исключительной мощности новинки, из тестирования было удалено разрешение 1920 х 1080 и было оставлено только 2560 х 1440. Соперниками выступили GTX 680 и Radeon HD 7970. Все настройки качества картинки были выкручены на максимум, полноэкранное сглаживание 4х, анизотропная фильтрация 16х.

Результаты тестирования NVIDIA GTX TITAN в разрешении 2560 х 1440
Результаты тестирования NVIDIA GTX TITAN в разрешении 2560 х 1440

Результаты тестирования NVIDIA GTX TITAN в 3DMark 11
Результаты тестирования NVIDIA GTX TITAN в 3DMark 11

Результаты тестирования NVIDIA GTX TITAN в 3DMark 13
Результаты тестирования NVIDIA GTX TITAN в 3DMark 13

Как вы заметили, наш тестовый пакет немного изменился. В новую версию вошли Crysis 3, FarCry 3 и новый 3DMark.

Новинка действительно показывает впечатляющие результаты. Отрыв от GTX 680 существенный. В том же Crysis 3, где GTX 680 показывает результаты, которые нельзя назвать играбельными, GTX TITAN выдает 27 кадров, что заметно выше.

Масштабируемость SLI тоже на высоте, хотя в паре мест и были просадки. Но на данный момент это простительно, так как видеокарта тестировалась на самой первой версии драйверов. С уверенностью полагаю, что в ближайшее время производительность как SLI конфигурации, так и одиночной видеокарты, будет существенно увеличена в новых версиях драйверов.

Давайте посмотрим на несколько результатов новинки в разгоне.

Результаты тестирования NVIDIA GTX TITAN в разгоне
Результаты тестирования NVIDIA GTX TITAN в разгоне

Как видно, разгон действительно прибавляет новинке немало сил. Те же 35 кадров в Crysis 3 в разгоне смотрятся куда интересней, чем 27 в стоке.

Заключение

NVIDIA GTX TITAN
NVIDIA GTX TITAN

Лучший дизайнИтак, мы познакомились с новым детищем компании NVIDIA — GTX TITAN. Видеокарта очень порадовала. Производительность ощутимо выше, чем у бывшего однопроцессорного флагмана GTX 680, причем выше настолько, что предшественник не может идти ни в какое сравнение с новинкой. Хорошее качество сборки, тихая и эффективная система охлаждения — все это также про GTX TITAN.

Правда, за все это великолепие производитель просит 35 тысяч рублей. Это действительно много, это в два раза больше, чем просят за GTX 680. С другой стороны, и производительность почти в два раза больше. К тому же это будет одна видеокарта, а не две, которые, как известно, не всегда способны полноценно промасштабироваться в игре, из-за чего производительность может уменьшится. Также две видеокарты больше греются, шумят и т.д. Здесь вы всего этого удачно избежите. Так что если вы хотели собирать SLI из GTX 680, то теперь в этом нет необходимости.

Поделиться:
Увидел опечатку? Выдели текст и нажми Ctrl+Enter
  • 1
    vlad572 411212 13.03.2013 00:16
    Вещь ! Дорого правда.
  • 2
    Egor100 411240 13.03.2013 05:25
    Таки "причем", таки "избежите"... и это только в последнем абзаце. Ваш grammar nazi.
  • 3
    From The Other Side v2.0 411278 13.03.2013 15:48
    На сегодняшний день с новинкой может конкурировать только «двухголовый монстр» GTX 690.
    ...которого нет в сравнении, ведь если бы он был дифирамбов по поводу новый видеокарты поубавилось бы. Почему? Да потому, что при меньшей стоимости GTX 690 стабильно выдает на несколько кадров больше (по тестам из обзора GTX 690).
    Самое печальное, что, похоже, у автора традиция чрезмерно расхваливать новинки.

    P.S. Но так то карта, конечно, хорошая.
  • 4
    Simba ya 411343 13.03.2013 23:31
    Шикарная карточка, но цена ей не более 25тр, лучше 22тр- тогда это был бы эпик вин.
  • 5
    yegreg 411420 14.03.2013 18:27
    "Таким образом, общее количество ядер достигало отметки в 1536 единиц. По сравнению с предыдущим поколением, это дало трёхкратное увеличение мощности."
    Полный бардак! Возмутительно. Аж зарегистрировался. Зачем писать от там чего не знаешь? Большую статью. Вроде как частоты уже и пофиг.
  • 6
    Strong Narkoman 413638 02.04.2013 12:46
    "22 марта 2012 года компания NVIDIA выпустила на рынок видеокарту, которая по сей день оставалась самым мощным однопроцессорным решением — NVIDIA GTX 680"
    Посмеялся. Сколько за статью заплатили?
Мобильное приложение