Опубликовано 29 декабря 2004, 00:33

Итоги года 2004: видео

Попытаемся разобрать все наиболее интересные и важные события уходящего года в порядке хронологии, попутно анализируя изменения тенденций, да и ситуации на рынке в целом...
Итоги года 2004: видео

Итак, вот уже на дворе декабрь месяц, зима только лишь подходит к своему апогею, а славный год 2004-й близится к завершению, и до конца его остаются считанные дни. Как раз наступило самое время подвести итоги всех интересных событий года прошедшего и немного поразмыслить на тему года наступающего. Попытаться понять, чего же нам следует ждать в следующем, уже 2005-м году.

А с точки зрения аналитика, уходящий год выдался весьма и весьма интересным – ведь именно в этом году вся индустрия игровых графических ускорителей перетерпела хотя и не кардинальные, но крайне весомые изменения. Началось всё, как нетрудно догадаться, с выхода нового поколения Hi-End ускорителей – серий GeForce 6800 и Radeon X800. Событие, столь тщательно опутываемое самыми различными слухами, начиная от вполне конструктивных и заканчивая самыми невероятными, наконец, свершилось, и миру представили решения, превосходящие своих предшественников, не много не мало, в два раза. Некоторое время спустя геймеры увидели долгожданный шедевр под названием Doom3, а еще немного погодя – и Half-Life 2. Именно тогда начался новый этап конкурентной войны – образно говоря, за право обладания сердцами геймеров.

Но давайте же не будем углубляться в глубокие дебри подробностей сейчас, а вместо этого попытаемся разобрать все наиболее интересные и важные события уходящего года в порядке хронологии, попутно анализируя изменения тенденций, да и ситуации на рынке в целом.

«Теплый весенний ветер» – выход GeForce 6800 и Radeon X800

Казалось бы, всего лишь несколько лет назад, когда ATI в течение полугода так и не смогла выпустить ничего в ответ на флагманский GeForce4 Ti4600 от тогдашнего неизменного лидера, калифорнийской компании NVIDIA, люди уж было потеряли какие-либо надежды увидеть канадские решения на троне короля графических ускорителей. Но судьба распорядилась иначе.

Собрав в кулак все свои последние силы, канадцы смогли-таки выпустить свой революционный чип R300, совершивший буквально переворот на рынке – впервые за все годы канадцы заняли лидирующую позицию. Долгожданный GeForce FX от NVIDIA оказался в корне провальным, и даже несмотря на крайне гибкую архитектуру CineFX, все преимущества новой серии GeForce быстро гасли по сравнению с множеством недостатков новоявленного GeForce FX 5800.

Новый флагман NVIDIA фактически умер, так и не родившись – спустя всего лишь пару месяцев с момента его анонса NVIDIA объявляет о выпуске нового чипа – NV35, названного не иначе как GeForce FX 5900. Но как бы NVIDIA не старалась, она так и не смогла выпустить достойного конкурента быстрым и холодным красным карточкам, выпуская одного за другим монстров, потрясавших всех как внушительными размерами охлаждающих систем, так и не менее внушительными энергопотреблением и тепловыделением. ATI же пожинала плоды успеха своей сверх удачной архитектуры R300, получавшей продолжение в виде каждого последующего чипа – и R350, и R360, по сути, не получили ни одного архитектурного изменения по сравнению со своим именитым предшественником – чипы развивались исключительно в сторону масштабирования тактовых частот.

Но фанаты NVIDIA не унывали и лишь говорили, злобно потирая руки – «ну погодите, вот выйдет NV40, тогда и посмотрим...».

Однако давайте вернемся в настоящее. Весна уходящего года принесла нам не только позитивное настроение в связи с окончанием холодного сезона, но и новые, кардинально переработанные решения от двух ведущих производителей – это, как возможно, нетрудно догадаться, линейки GeForce 6800 от NVIDIA и Radeon X800 от ATI. Оба этих события сопровождались изрядной шумихой, да и неудивительно – выхода чипов, ранее известных лишь под кодовыми именами NV40 и R420, люди, затаив дыхание, ждали вот уже как минимум весь предшествующий год – практически с самого момента выхода несколько неудачного GeForce FX 5800 от NVIDIA.

Первым на массовое обозрение предстал флагман от NVIDIA – GeForce 6800 Ultra, что сопровождалось дружным победным криком приверженцев Калифорнийской компании – чип, ранее известный как NV40, превзошел все ожидания. При вдвое возросшей производительности новый чип демонстрировал также весьма развитые технологические возможности – поддержку новой модели программируемых шейдеров – Shader Model 3, так называемых карт замещения (Displacement Mapping), новый качественный уровень анизотропной фильтрации и многие другие, весьма интересные технологии.

Все замерли в ожидании ответного хода ATI – чипа R420, о котором фанаты «красных» успели сложить бесчисленное количество самых разнообразных легенд. И вот, наконец, долгожданный R420 явился в лице новенького Radeon X800 и предстал перед народом во всём своем величии, традиционно холодный и потребляющий энергии даже ещё меньше своего предшественника – Radeon 9800XT. Однако оставалось лишь одно «но» – при довольно низком энергопотреблении, нетребовательности к питанию и высокой производительности, Radeon X800 не мог похвастаться всеми теми технологиями, коими на тот момент уже располагала NVIDIA – иначе говоря, Radeon X800 так и не получил поддержку шейдеров третьей версии.

В то же самое время NVIDIA не могла похвастаться столь выгодными энергетическими и тепловыми характеристиками как ATI, но технологическое лидерство калифорнийцев так и осталось непоколебимым.

Перед пользователем вставал нелегкий выбор – малое энергопотребление и тепловыделение вкупе с отличной производительностью у ATI против развитых технологических возможностей и полной поддержки новоявленного DirectX 9.0c при аналогичной скорости и наличии побочного эффекта в виде крайне высокого энергопотребления у NVIDIA. Таким образом, приходилось выбирать между «картой настоящего, но без будущего» и «картой будущего, хотя и не совсем оправданной в настоящем».

Но тенденции требуют исполнения, Intel активно пропагандирует переход на PCI Express, и многим многострадальным производителям, дабы идти в ногу со всеми потребностями своеобразной моды, приходится волей-неволей сим тенденциям следовать.

«Разные стороны баррикады»: массовый переход к PCI Express

Итак, настала пора перехода на новую интерфейсную шину, хотелось бы того пользователям или нет. Как мы уже упомянули абзацем выше, тенденции требуют исполнения, и нашим двум гигантам не остается ничего, кроме как собственно и заняться этим самым исполнением.

Здесь перед производителями открываются следующие пути – первый довольно простой и не требующий больших финансовых затрат, заключается в установке специального переходного моста (бриджа) AGP->PCI-E; и второй, куда более фундаментальный, но в то же время совмещенный с куда большими затратами. Речь идет о непосредственной переработке чипа, включающей замену интерфейсного блока новым, несущим уже поддержку непосредственно шины PCI Express.

Канадцы решили пройти по более сложному, но в то же время верному и фундаментальному пути, взявшись за редизайн и переработку самих чипов, калифорнийцы же предпочли гибкость и оборудовали свои текущие решения специальным переходным мостом HSI, снабдив, таким образом, необходимой поддержкой PCI Express уже существующие чипы.

ATI выпускает практически всю ту же старую линейку Radeon 9600/X800 под PCI Express, обозначив новые модели не иначе как X300/X600/X800 PCI-E. Однако, получив новое название и новую интерфейсную шину, старые по сути решения лучше не стали. NVIDIA в это время выдерживает зловещую паузу и, подождав немного, выпускает на свет Божий сначала GeForce 6600, а затем и GeForce 6200 – два новых чипа с нативной поддержкой PCI Express и всех главных вкусностей шестой линейки GeForce, в том числе и полной аппаратной поддержкой Shader Model 3. Дабы хоть как-то отбить калифорнийскую атаку, ATI анонсирует свой Radeon X700. Таким образом, в среднем классе появляются два новых решения, обладающих производительностью, сходной скорее с былым Hi-End’ом – однако чему уж тут удивляться, время неумолимо бежит вперед, конкуренция требует постоянного наращивания производительности выходящих решений, а в 2004-м году рывки производительности стали больше, чем когда бы то ни было.

Однако NVIDIA готовила и нечто более интересное, имя которому – SLI.

Когда одной видеокарты уже мало

Я думаю, многие пользователи, более или менее отслеживавшие ситуацию на рынке графических ускорителей в далеком 1998-м, помнят о такой технологии, как SLI, при помощи которой было возможно соединить сразу два тогдашних топовых ускорителя 3Dfx Voodoo2 для распараллеленных вычислений. Однако времена сменились, 3Dfx прекратила своё существование как самостоятельная компания и была куплена одним из нынешних гигантов, компанией NVIDIA, а наработки 3Dfx были благополучно забыты на долгие годы .

Но с появлением PCI Express использование сразу двух PCI-E видеокарт на одной плате стало возможным, и NVIDIA не замедлила объявить о своей псевдо-новой технологии под названием SLI. Дежа-вю? Нет, действительно, NVIDIA ввела возможность использования сразу двух видеокарт для работы над одной трехмерной сценой, что позволило весьма существенно увеличить производительность. В среднем, «двойные» конфигурации позволяют достичь производительности на 75% большей, нежели при использовании одной платы. При этом нагрузка на карты распределяется динамически в зависимости от сложности различных частей сцены, чем не могла похвастаться в своё время 3Dfx.

Грубо говоря, при расчете и рендеринге сцена разбивается на две части, одной из которых является верх сцены, а другой, соответственно, нижняя ее часть, и нагрузка по ускорителям разбивается таким образом, чтобы наиболее эффективно задействовать каждую из карт, и динамически варьируется в зависимости от изменения рассчитываемой сцены.

В момент анонса «новая» технология была воспринята критиками достаточно скептически – мол, далеко не факт, что всё это будет работать именно так, как обещает NVIDIA, да и вообще не факт, что SLI пойдет в массы, однако появление первых семплов в различных тестовых лабораториях смогло довольно быстро рассеять весь скептицизм относительно SLI.

А теперь, в конце 2004 года появились и еще более интересные образцы, наглядно демонстрирующие использование технологии SLI – видеокарты с двумя раздельными графическими процессорами, что, по сути, может стать апогеем самой SLI. Невольно прокладывается ассоциация с 3Dfx и ее двухчиповым Voodoo5 и повторившим пример откровенно неудачным XGI Volari Duo, однако в случае с NVIDIA всё обещает быть куда более продуманным и удачным, ну а почему бы и нет? А представляете себе конфигурацию из двух спаренных двухчиповых видеокарт?!

Ситуация с появлением SLI интересна еще и с другой стороны – канадцам пока нечем ответить на новую дуальную технологию NVIDIA, и фактическим лидером по топовой производительности единогласно может быть признана калифорнийская компания. Активно продолжают ходить слухи о некой новой технологии ATI, позволяющей размещать на одной видеокарте два чипа и не менее эффективно распараллеливать вычисления, но ведь пока это просто слухи, еще ничем не подтвержденные, в то время как у NVIDIA имеются уже готовые и рабочие конфигурации.

Интересная ситуация, что уж здесь скажешь, теперь война начинает переходить в немного другую сферу – если раньше шла борьба мегагерцев и конвейеров, то теперь уже пошли технологии распараллеливания вычислений и использования уже нескольких графических процессоров для работы над одной сценой.

К чему приведет такая конкуренция, а главное, для чего и кому нужны столь большие мощности, которые нам предоставляют спаренные конфигурации, пока еще остается большим вопросом, на тему которого можно спорить, пожалуй, до бесконечности. Слабо верится, что текущие игры, пусть даже такие требовательные, как Doom3 или Half-Life 2, потребуют столь больших мощностей, да и вряд ли хотя бы одна из предстоящих в ближайший год игрушек потребует.

С другой стороны, технология SLI является отличным заделом на будущее, ведь это же отличный потенциал для апгрейдов. Подумайте сами – пользователь покупает сейчас одну плату, и её мощности ему хватает. Через год выходят более требовательные игры, и весь рынок ускорителей переходит на следующий уровень производительности, а пользователь всего лишь докупает вторую плату, уже упавшую раза в два в цене, и увеличивает производительность системы чуть ли не в два раза, догоняя ушедший рынок. Более того, докупить можно не аналогичную плату, а более мощную – система автоматически сбалансирует производительность между картами.

Таким образом, ситуация на рынке Hi-End графических ускорителей за последней год переменилась самым кардинальным образом – производительность возросла до невероятных высот. Те технологии, о которых раньше можно было говорить лишь как о далекой перспективе, стали реальностью, чего же еще нужно для полного счастья? Не понятно.

«Мало – не всегда плохо?»: TurboCache и HyperMemory

Но в то самое время, когда в высокопроизводительном сегменте скорость растет семимильными шагами, в бюджетном секторе всё относительно тихо и спокойно – здесь по-прежнему идет работа над максимальным удешевлением выпускаемой продукции. Ввод новой шины, PCI Express, смог существенно помочь и здесь – производители нашли весьма интересное решение – сократить объём набортной памяти до минимального значения и использовать для хранения текстур системную память.

Решение старо как мир, и впервые было использовано ещё в момент появления отжившей ныне свои годы шины AGP – тогда в случае нехватки набортной памяти для хранения всех необходимых текстур производилась подгрузка их из системной, но имелись два весьма серьёзных сдерживающих фактора – во-первых, весьма небольшая пропускная способность системной памяти, и ещё меньшая пропускная способность шины AGP. Теперь же, благодаря повсеместному внедрению двухканальных контроллеров и памяти с эффективной частотой как минимум 400МГц, а также достаточно широкой пропускной способности шины PCI Express, проблему можно считать решённой. Бутылочное горлышко в виде чересчур узкого канала передачи теперь отсутствует, и давнюю идею можно без проблем воплотить, что производители и не замедлили сделать.

Итак, давайте поприветствуем новые решения нижнего ценового сектора с объёмом памяти всего 32Мб, не уступающие по производительности, по обещаниям производителей, своим 128-мегабайтным аналогам! В целом можно даже поверить – пропускная способность не является критической для относительно слабеньких видеокарт уровня GeForce 6200 и Radeon X300, так почему бы не удешевить производство и не упростить разводку таким способом? Однако еще закон сохранения энергии гласил, что ничего не появляется из ниоткуда и не исчезает в никуда. Так и в нашем случае – приобретая чуть более дешёвую видеокарту с сокращённым объёмом набортной памяти, мы сразу же потеряем часть системной памяти, к которой современные приложения, а особенно игры, также весьма требовательны.

Безусловно, имея в системе гигабайт оперативной памяти, отдать сотенку-другую под нужды графической карты – не проблема, но что-то слабо верится в то, что человек, купивший новую PCI Express систему с гигабайтом памяти, станет таким образом экономить на видеокарте. Так что в перспективе всё получается, как и всегда бывает в таких случаях, хорошо и красиво, а вот будет ли всё так же красиво на практике? - вот в чём вопрос. Не факт.

Что несет нам год грядущий?

Итак, мы вкратце прошлись практически по всем основным событиям, произошедшим в уходящем 2004-м году, и успели подметить несколько довольно интересных тенденций, но в любом случае возникает один более чем резонный вопрос – а что же будет дальше? Действительно, за последний год мы наблюдали очень интересное и порой шокирующее развитие событий, и если раньше еще можно было попытаться хотя бы отдаленно предсказать будущее развитие, то сейчас это стало проблематичнее, чем когда бы то ни было. Но всё же некоторые прогнозы мы сделать можем.

Итак, в первую очередь, наверное, надо ожидать выхода ответного Multi-VPU решения отATI, ибо как бы ни старались канадцы, никакая одиночная карта, пусть даже и очень мощная, не сможет обойти аналогичную двойную конфигурацию. Судя по всему, ATI не будет представлять технологию? аналогичную SLI, а выпустит именно двухчиповые платы. Вопрос заключается лишь в том, как скоро это произойдет, но что-то подсказывает, что от текущих чипов этого ждать не следует, и реализация двойных конфигураций появится уже вместе с новым чипом, известным пока что под кодовым именем R520.

Также следует ожидать появления поддержки новой модели программируемых шейдеров – SM3 в следующих решениях ATI, ведь, сколько ни говорили бы канадцы о бесполезности новой модели, разработчики весьма воодушевленно приняли третьи шейдеры как удобный инструмент программирования эффектов, и вопрос повсеместного внедрения SM3 является сейчас исключительно вопросом времени. Опять-таки, если верить слухам, внедрение SM3 следует ожидать уже в R520.

А теперь попробуем перейти к калифорнийской стороне – здесь всё уже куда интереснее и в то же время намного более расплывчато, даже туманно. Недавно прошла целая череда слухов об отмене двух запланированных чипов NVIDIA, а также суеверное шушуканье о том, что NVIDIA готовит нечто секретное и поистине инновационное. Что же это может быть, нам остается только гадать, да и то предположения легко могут оказаться крайне далекими от истины. В настоящий момент NVIDIA уже внедрила большинство возможных и невозможных технологий, имея на руках и реализованную поддержку всех последних интерфейсов, и такую интересную реализацию, как SLI. Тем не менее, никак не покидают мысли о новых изначально двухчиповых видеокартах, которые можно будет вдобавок еще и объединить в SLI – мощь четырех графических процессоров поистине сможет сотворить чудеса, и вопрос остается лишь в реализации – всё-таки обеспечить распараллеленную работу сразу четырех чипов гораздо сложнее, чем двух.

Одним словом, нам остается только гадать, и, конечно же, ждать. Ждать чего-то нового, воистину инновационного и революционного. С наступающим, уважаемые! ;-)