Компьютеры
29 марта 2007, 11:42

Борьба NVIDIA и ATI/AMD возобновляется

В последнее время разработчики графических процессоров держат общественность в напряжении –оба конкурента не смогут выпустить на рынок некоторые свои модели видеочипов в запланированные сроки. Однако есть и менее пессимистичные новости – появились дополнительные данные о процессорах R600 от AMD и их будущих основных конкурентах на рынке – решений GeForce 8800 Ultra.

Начнём с чипов R600, которые будут производиться, как известно, по 80-нм технологическому процессу, а представят микросхемы общественности во второй половине апреля. Сетевые источники утверждают, что графическое ядро R600 будет работать на частоте от 750 МГц до 800 МГц. При этом топовые видеокарты серии Radeon X2900 оснастят чипами памяти стандарта GDDR3, которые будут функционировать на частоте 1600 МГц, а разрядность интерфейса памяти будет увеличения до 512 бит, что означает высокую пропускную способность подсистемы памяти видеокарт. Немногим позже на рынке появятся и более производительные варианты графических адаптеров, на которые установят уже GDDR4-память, причём частота работы чипов увеличится до 2 ГГц.

Теперь несколько слов о главном конкуренте R600 из стана компании NVIDIA – процессоре GeForce 8800 Ultra. Решение должно появиться на рынке уже в мае 2007 года, то есть практически одновременно со своим противником. Скорее всего, Ultra-версия плат GeForce 8800 будет базироваться на графическом процессоре G80, частоты которого повышены относительно номинальных. Компания NVIDIA с оптимизмом относится к шансам GeForce 8800 Ultra на рынке: согласно заявлениям представителей калифорнийских разработчиков, производительность их продукта не только не уступит производительности R600, но и сможет показать более высокие результаты.

Таким образом, можно констатировать, что некоторое затишье на рынке топовых графических адаптеров, вызванное отсутствием конкурента продуктам от NVIDIA, в ближайшее время закончится. Нас ждёт серия громких релизов и обзоров, из которых мы узнаем, кому стоит отдавать предпочтение при выборе дорогой видеокарты для игрового компьютера.

Источник новости: Fudzilla