Наши партнеры

UnixForum






Книги по Linux (с отзывами читателей)

Библиотека сайта rus-linux.net

На главную -> MyLDP -> Тематический каталог -> Аппаратное обеспечение

Выбор современной видеокарты

Автор: Александр Дудкин alexishw@xaker.ru

10.09.2003

Проблема выбора видеокарты становится все более серьезной и насущной проблемой многих пользователей. Прежде всего вызвана она тем, что существует очень большое количество параметров, по которым можно выбирать видеокарту. Важнейшие из них мы рассмотрели в предыдущих номерах нашего журнала, сейчас же нам осталось их сгруппировать и определить, какие из них являются довлеющими. Второй проблемой в последнее время стало резко возросшее число новых графических чипсетов и разновидностей видеокарт на их основе у каждого производителя. Ко всему этому добавляется и гонка гигантов-производителей видеочиспетов, которые выпустили как форсированные, так и ослабленные версии своих продуктов, еще больше запутав ситуацию.

Чтобы сориентироваться в том, что вообще происходит на рынке, посмотрим основные события прошедшего полугодия. Битва nVidia и ATI нам известна давно, со времен удачного выпуска видеокарты nVidia Riva TNT, а затем и Riva TNT2. Тогда компания nVidia взошла на заслуженный пьедестал и удерживалась там долгое время, периодически, будучи смещенной оттуда на непродолжительное время своим главным конкурентом. Таким образом, оба гиганта часто менялись позициями, выступая то в роли убегающего, то отстающего. После ряда не очень уверенных, опрометчивых шагов nVidia, ее соперник - ATI - заняла роль лидера, и надо заметить, с весьма серьезными намерениями и крупными силами. Этому поспособствовал и третий серьезный игрок рынка SiS, которая сразу после появления заняла достаточно крепкие позиции. В результате, рынок сбыта nVidia резко сузился, что привело к финансовым проблемам у компании и кризису перепроизводства.

 

Ну а теперь, давайте определимся с основными параметрами видеокарт, по которым их следует выбирать. Те, кто интересовался вопросом выбора видеокарты, наверняка смотрели тесты на сайтах, занимающихся тестированием железа. Там фигурировало обозначение fps, которое расшифровывается как frames per second, и обозначает количество кадров, сформированных видеокартой в секунду. Эти тесты показательны, но не всегда верны, впрочем, как и любой тест, который может быть оптимизирован под конкретное железо, плюс погрешность условий измерения. А вот показатели, по которым можно реально судить о возможностях видеокарты (если конечно знать, что на что влияет):

·          Пропускная способность (triangle throughput), измеряемая количеством обрабатываемых элементарных треугольников в секунду

·          Максимальная скорость закраски (fill rate), измеряемая количеством пикселов в секунду

·          Пропускная способность видеопамяти (memory bandwidth), измеряемая в объеме памяти в секунду

·          Набор поддерживаемых расширенных режимов и API, а также набор ускоряемых 3D-функций

Все это определяется следующими параметрами акселератора: разрядность, тактовые частоты ядра, графической памяти и RAMDAC, пропускной способностью памяти, количеством конвейеров рендеринга. Производительность графического ядра (GPU), определяется его частотой и влияет на количество сгенерированных треугольников. Таким  образом, геометрическая стадия 3D-конвейера определяется частотой графического чипсета и в то же время влияет на скорость поступления координат граней на вход блока рендеринга и на скорость закраски.

Отцами современных графических чипсетов являются графические ядра GeForce 256 и Radeon 256. В названии обоих чипсетов фигурирует цифра 256, которая означает увеличенную до 256 разрядность шины памяти. GeForce - это первый чипсет с геометрическим процессором, ускоряющим наиболее ресурсоемкие этапы геометрической стадии 3D-конвейера. Блок ускорения называется HW T&L (Hardware Transform & Lightning). Благодаря этому он способен обрабатывать до 15 млн. треугольников в секунду. Технология Radeon фирмы ATI основана на блоке Charisma Engine, который ускоряет TCL, тем самым позволяя обрабатывать более сложные сцены с большим числом полигонов. Этот блок имеет такие опции как интерполяция вершин полигонов с применением 4 матриц. Новая архитектура Pixel Tapestry (2 конвейера рендеринга по 3 блока в каждом) позволила впервые наложить 3 текстуры за один такт без потери производительности. Встроенный процессор DTVHDTV поддерживает все стандарты цифрового телевидения высокой четкости. Технология адаптивного деинтерлейсинга создает высокую четкость изображения. Такая архитектура позволила накладывать текстуры со скоростью 1,4 Гтекс/с. Вот так в общих чертах выглядит ретроспектива видеокарт на новейших графических чипсетах.

Политика портит железо:

А вот как это было. До прошлого лета у nVidia дела шли очень даже неплохо, их продуктов было много, они были представлены во всем ценовом диапазоне для любого потребителя. ATI в это время страдала своими повсюду урезанными Radeon 8500LE. К тому же все были не довольны тем, что ATI продав лицензии на производство видеокарт разным фирмам, допустило, чтобы все они различались частотами, и это вызвало множество недоразумений. NVidia применяла свое правило: каждые полгода выпускать по новому поклонению продуктов. Плавно GeForce 2Ti/MX и GeForce 3 Ti сменились новым поколением GeForce 4 Ti/MX. Причем, цены на них были невысокие, вскоре GeForce 4 MX стал продаваться почти по цене своих предшественников. Но ATI готовила новый чип R300, и nVidia стала волноваться: и торопиться. К тому же оказалось, что семейство GeForce 4 MX (сейчас представленное наиболее сбалансированным, а потому выгодным, вариантом 440) не только показало меньшую производительность, но и сделало шаг назад в аппаратной поддержке новых технологий. Его потолком стал DirectX7, тогда как GeForce 3/Ti поддерживало DX8.1. Само по себе отсутствие аппаратной поддержки DX8 не критично - практическое применение функций этой версии API до сих пор не стало массовым. Но то, что многие покупали MX, видя перед собой лишь цифру 4 и надеясь получить соответствующие производительность и функциональность, чести NVIDIA не делает. И это было начало, потом появилось модификаций, а с ними споры и недовольство.

В надежде перегнать конкурента, nVidia решила применить новый более тонкий техпроцесс для своего детища - NV30. Летом 2002 года ATI представила очень сильный продукт - Radeon 9700 Pro (R300). NVIDIA смогла лишь ответить <бумажным> запуском NV30. Объявленный-таки осенью GeForce FX 5800 Ultra (NV30) в продаже появился лишь три месяца назад и при этом представляет собой скорее коллекционный интерес - выпущен он в единичных экземплярах. Сделав ставку на переход к прогрессивному 0,13-мкм технологическому процессу и новому типу памяти (DDR II), компания загнала себя в угол. Выход годных чипов был невысоким, так как их производство было еще не отлажено, а время поджимало - промедление означало опоздание с выпуском продукта. Сыграл свою роль и тот факт, что несколько раз менялись технологические карты и референс-дизайны в связи с применением памяти DDRII. Новый чип очень сильно грелся, поэтому система его охлаждения занимала очень много места. Хотя есть и другая причина задержки - серьезное ухудшение отношений с софтверным гигантом Microsoft, в ведении которого находится API DirectX. Это мешало разработке NV30, который был обязан поддерживать новый DX9. Короче говоря, NV30 оказался откровенно неудачным.

Более перспективны версии GeForce FX 5200/Ultra и FX 5600/Ultra (поскольку они только-только появились на рынке, цены на них несколько завышены), но серьезным недостатком FX 5200 может стать отказ многих производителей от референс-дизайна NVIDIA ради значительного упрощения (а значит, и удешевления) платы. К тому же производителям разрешили варьировать рабочие частоты. К сожалению, снижение качества видеокарты не позволит поднять стандартные частоты, а скорее приведет к их снижению. В результате начнется та самая чехарда, от которой вовремя избавились в ATI.

В середине мая этого года был объявлен новый чип NV35 и видеокарты на его основе - GeForce FX 5900/Ultra. В свободной продаже этот монстр появился в июле. Конкурировать с ним на данный момент не способен никто. Безоговорочные победы как в стандартных, так и тяжелых (при включении полноэкранного сглаживания и анизотропной фильтрации в высоких разрешениях) режимах позволяют провозгласить его новым королем в сфере high-end-видеокарт.

У ATI все шло получше, но тоже не все гладко. Забрав себе североамериканский рынок, а остальное оставив своим партнерам, компания решила проблемы частот. Вслед за 9700, принесший компании успех, вышли 9500 и 9000, которые стали традиционным обрезанным продолжением линейки. Так сложилось, что 9000/Pro, вышедший гораздо позже 8500, показывает более скромные результаты. Общественность, конечно же, отнеслась к этому факту отрицательно. Негодование вызвало не столько снижение производительности, сколько то, что видеокарта имела более высокий порядковый номер. Психологически человек всегда ждет от следующей модели шага вперед. На компанию посыпались обвинения в нечестной игре: мол, таким нехитрым способом ATI пытается поднять привлекательность относительно слабого Radeon 9000/Pro. Ответом на эти обвинения стало переименование 8500LE в 9100 (не слишком хитрый маркетинговый прием, позволяющий еще раз продать старый товар под новой маркой).

Справедливость была восстановлена. Производительность ускорителей строго соответствовала порядковому номеру. Но весной канадцы объявили новую линейку, в которую вошли 9200/Pro, 9600/Pro и 9800/Pro, призванные сменить соответственно 9000/Pro, 9500/Pro и 9700/Pro. Улучшения в 9200 по сравнению с 9000 минимальные, можно сказать косметические. Ситуация с 8500 и 9000 теперь повторилась в паре 9100/9200. Единственное, что оправдывает ATI, - весьма вероятное исчезновение в ближайшее время с прилавков 9100 (хотя он пользуется спросом) или же нам следует ждать очередного переименования?

На массовом рынке Radeon держатся очень уверенно, показывая хорошее соотношение цена/производительность, особенно это касается самых крутых моделей. Хотя последние полгода видеокарты ATI явно доминировала на рынке (во многом благодаря пробуксовке NVIDIA), компании не удавалось полностью удовлетворить возросший спрос на свою продукцию. В результате технологическое преимущество так и не стало залогом преимущества количественного.

Модели

На питерском рынке нас больше всего интересуют GF4 MX440, Radeon 9000/9200/Pro, GF FX5200, Radeon 9600, GF4 Ti4200 и GF FX5600 как самые выгодные представители своих ценовых ниш. Надо заметить, что во время пробуксовки у nVidia Radeon 9600/9700/Pro был самым выгодным предложением Hi-End'а, но после выпуска NV35, когда цены на GF 4 Ti Ultra и FX5200/5600 снизились, роль последних значительно возросла. Акцент ATI сдвинулся на mainstream-сегмент и low-end (value), где при равной цене они <рвут> соперника. Что собой представляют эти модели мы увидим ниже и поймем за что боремся и отдаем мы свои кровные сбережения.

nVidia

На рынке самых дешевых продуктов сейчас наибольшей популярностью пользуется GeForce 4 MX440 по справедливости. Это самый сбалансированный и выгодный по соотношению цена/производительность товар из всех сейчас предлагаемых линеек. Эту модель можно найти на питерском рынке за сумму от $35 (естественно noname, brand стоит на $10-15 дороже). GeForce 2 MX400 уже не актуален: его можно приобрести за ту же стоимость в brand-name исполнении, только нужен ли он вам?

На базе чипа GeForce 4 MX (NV17) изначально производилось три модели видеокарт: GeForce 4 MX 420, 440 и 460. Производительность младшей модели сильно ограничивалась очень медленной памятью, так что выпуск 420 вскоре был прекращен. Кроме того, появилась версия 440SE, которая ничем не отличалась от 420, но производилась как SDR так и с DDR памятью. А старшая версия, обладая неплохой производительностью, страдала от высокой цены. Ее судьба была предрешена после появления на рынке задерживавшегося Ti 4200, имеющего схожую цену, но показывающего лучшую производительность и функциональность. В общем, модель 460 сразу стала аутсайдером. Она построена на базе DirectX 7 и, следовательно, не поддерживает пиксельные шейдеры, а обработку вершинных сваливает на центральный процессор. NVIDIA строит свою политику так, что вся линейка MX заявляется как графические чипы для GUI-интерфейса и графических приложений. У нас же в стране очень многие используют его в качестве игрового чипа и, естественно, разочаровываются в его производительности. Рассмотрим основные характеристики GeForce 4 MX:

·              GeForce4 MX не поддерживает пиксельные шейдеры, а вершинные обрабатываются CPU

·              GeForce4 MX имеет аппаратный декодер MPEG2 и систему динамического управления питанием (GeForce4 Ti - нет).

·              GeForce4 MX имеет только два конвейера закраски, а GeForce4 Ti - четыре.

·              GeForce4 MX имеет только один блок T&L, а GeForce4 Ti - двойной суперскалярный.

·              GeForce4 MX и GeForce4 Ti имеют схожие контроллеры памяти (двухканальный у GeForce4 MX и четырехканальный у GeForce4 Ti).

·              Оба чипа снабжены одинаковым набором систем повышения эффективной пропускной полосы памяти второго поколения (сжатие и быстрая очистка Z-буффера, MSAA, HSR).

·              GeForce4 MX имеет два встроенных контроллера LCD панелей.

·              Оба чипа имеют два независимых RAMDAC, CRTC контроллера, интегрированные TV-Out и DVI интерфейс.

Дальше nVidia пошла на шаг, который ей значительно подпортил репутацию: были выпущены "улучшенные" модели NV18 (причем сначала неофициально), которые почти ничем не отличались, за исключением наличия поддержки AGP 8X, но способные запутать каждого. Подобные карты обычно обозначаются как GeForce 4 MX 440-8X и GeForce 4 MX 480. Но важнее другое - были повышены рабочие частоты: ядра - с 270 до 275 МГц, памяти - с 200 до 255 МГц DDR. Но мало кто знает, что большинство из этих карт имеют урезанную до 64 bit шину DDR памяти! Из дешевых, но качественных распространенных карт можно привести Sparkle и PalitDAYTONA, построенные на одном чипе, но имещие ширину памяти 128 и 64 bit соответственно. Более того, добродушные производители видеокарт решили также обновить также и 440SE, чем внесли еще большую путаницу. Стали производиться модели модели NV18S со смешаными частотами. К примеру, я напоролся на 440SE-8Х фирмы Prolink/PixelView с частотой ядра 250 МГц (как у 440SE) и частотой памяти 200 МГц (как у 440). Различить эти 4 модификации относительно легко: 440SE имеет технологический номер Device ID 0173, 440 - 0171, 440SE-8X - 0182, 440-8X - 0181. Для того, чтобы узнать Device ID можно воспользоваться низкоуровневой утилитой RivaTuner. В такой ситуации мы можем лишь рекомендовать быть бдительными и проверять каждую приобретаемую карту.

На базе чипа GeForce 4 Ti (NV25) изначально производились три видеокарты: GeForce 4 Ti 4200, 4400 и 4600. Но жизнь быстро показала низкую рентабельность средней модели, и до наших дней дошли только крайние варианты. Вот что представляет собой наиболее популярный GeForce 4 Ti 4200 (в скобках указаны параметры 4600):

·              производственный процесс 0,15 мкм;

·              частота ядра 250 (300) МГц;

·              частота памяти 250 (325) МГц DDR;

·              шина памяти 128 бит;

·              пиковая пропускная способность памяти 8 (10,4) Гбайт/с;

·              четырехканальный контроллер памяти (по 32 бита на канал);

·              полная аппаратная поддержка DirectX 8;

·              два конвейера вершинных шейдеров;

·              четыре пиксельных конвейера с двумя текстурными блоками на каждом;

·              интерфейс AGP 4х.

Ну и как всегда была выпущена обновленная версия этого чипа - NV28. Единственным изменением стала поддержка новой шины AGP 8х. Как известно, особой производительности это нововведение не приносит. Подобные карты обозначаются как GeForce 4 Ti 4200-8Х и GeForce 4 Ti 4800. Надо заметить, что эти видеокарты значительно отличаются по производительности. Первая имеет такие же параметры, как и ее предшественница Ti4200, а вторая - как у 4600. Не обошлось и без казусов: была выпущена модель Ti4800SE с такими же характеристиками, как и 4400.

GeForce 4 Ti 4200 долгое время был самой популярной видеокартой на рынке. Соотношение цена/производительность у чипа с первого же дня было великолепным, а учитывая неплохие возможности к разгону многих образцов, конкуренты у него практически отсутствовали. Версия 4600, как и любой флагман, подобным похвастаться не могла. Цена чипа была завышена, да и разгон, как правило, был не столь значителен. Сейчас многие производители позволяют себе изменять базовые частоты. Правда, часто - в большую сторону. Но все же будьте внимательны при покупке.

Свойства линеек продукции nVidia GeForce 4

 

GeForce4 Ti

GeForce4 MX

GeForce4 Go

nfiniteFX II

x

 

 

LMA II

x

x

x

Accuview AA

x

x

x

nView

x

x

x

VPE

 

x

x

PowerMizer

 

 

x

 

Весной 2003 года, наконец, появилось новое семейство видеокарт GeForce FX. Обещано к выпуску оно было на полгода раньше, но ввиду вышеизложенных проблем nVidia не смогла вовремя впустить хит сезона: и тем самым позволила конкуренту завладеть инициативой в Hi-End. И тем не менее, новый чип NV30 стал революционным чипом, хотя и стал весьма неудачным. На базе него выпускалась видеокарта GeForce FX 5800/Ultra. Во-первых, это первая карта, выполненная по 0,13 мкм техпроцессу, имеет 125 миллионов транзисторов. Чип имеет 3 геометрических процессора и 8 пиксельных процессоров! Теперь говорить о количестве конвейеров и модулей текстурирования у них можно лишь условно: в работе задейтвуется плавающее их количество. Но, если уж условливаться, то имеется 4 пиксельных конвейера с 2 текстурными модулями на каждом, соответственно имеется 8 блоков текстурирования, которые позволяют накладывать до 8 текстур за такт. Все это аппаратно поддерживает DirectX 9+, и соответственно версию пиксельных шейдеров 2.0+ и даже более. Частота ядра - 500 МГц, а эффективная частота памяти - 1000 МГц (здорово это все греется)! При этом интерфейс памяти имеет разрядность 128 bit, и используется память DDRII. Контроллер памяти четырехканальный. При всем этом полоса пропускания памяти весьма невелика - 16 Гбайт/сек. Решение укоротить разрядность шины памяти до 128 bit была вызвано желанием сократить время изготовления платы и значительно ее упростить. И все равно, эта память, будучи более быстрой (2 ns и меньше) и стабильной, поначалу будет стоить побольше чем привычная DDR. Зато, какие это предлагает преимущества в будущем! Надо сказать, что такое техническое решение приносит примерно туже производительность, что и 256 бит решение, так что в общем и целом оно было обосновано. Контроллер памяти построен по четырехканальной схеме 4х32 bit, что также обоснованно, так как в адаптере протекает 4 основных информационных потока. Кстати, значительное падение производительности в Radeon 9500 не в последнюю очередь связано с использованием  2 каналов памяти. Графические (вершинные) процессоры также были значительно переработаны: они стали действительно динамически управляемыми. Каждый из процессоров имеет свой указатель текущей команды, набор логики для реализации условных и безусловных переходов. Это усложняет чип, но развязывает программистам руки. Теперь можно не разбивать один шейдер на несколько частей и загружать их по очереди, а ведь время смены и загрузки каждого шейдера весьма велико. В NV30 используются новые техники экономии пропускной полосы локальной памяти: полное сжатие буфера кадра, включая информацию о цвете (впервые, коэффициент сжатия до 4:1, только в режимах MSAA), и глубине (сжатие Z буфера) и тайловые оптимизации кэширования, сжатия и раннего отсечения невидимых поверхностей (Early HSR). Новый алгоритм оптимизированной анизотропной фильтрации снижает падение производительности, т.е. величины fps без особенного падения качества. Качество анизотропии реализовано вплоть до 8х от обычной билинейной фильтрации. Новые гибридные режимы антиалиасинга (АА) - 8х (DirectX и OpenGL) и 6xS (только DirectX). Сжатие буфера кадра позволяет существенно снизить падение производительности при активации FSАА. Все эти новшества позволяют сформировать 4 Гтекселя/сек.

Чип вызвал весьма неоднозначную реакцию. С одной стороны, относительно высокая производительность позволила обогнать Radeon 9700 Pro (да и то не сильно и не всегда). С другой - высокие рабочие частоты разогревают видеокарту до опасных температур. Чтобы справиться с этой проблемой, была внедрена навороченная система охлаждения, производящая слишком много шума.

А как же SilentRun, спросите вы? Да, эту технологию NV30 поддерживает. К слову, именно в нем она и была внедрена впервые. Массивные радиаторы в паре с высокоскоростным кулером не справлялись с высокой температурой. В помощь им на плату решили устанавливать пластиковый бловер (воздуховод), призванный обеспечить более интенсивный воздухообмен, закрывая  при этом соседний PCI-слот. Соответственно, при установке плата тоже занимает две стандартные щели корпуса: верхняя отводится гнездам VGA, TV-Out и DVI-I, а нижняя - вентиляционным отверстиям. Действие SilentRun такое же, как и у NV35, только временная задержка снижения скорости отсутствует. Все это предопределило скорое NV30 вытеснение оптимизированным NV35. Плюс необходимость подключения внешнего дополнительного питания:

Все карты семейства GeForce FX выпускаются в 2 вариантах: базовом (Ultra) и упрощенном, с меньшими частотами. В семейство также входят чипы NV31 и NV34, традиционно урезанные варианты NV30.

GeForce FX 5600/Ultra (NV31) нацелен на mainstream-нишу и соперничает с Radeon 9500/9600/Pro. Его основные характеристики в варианте Ultra таковы:

·              производственный процесс 0,13 мкм;

·              частота ядра 350 МГц;

·              частота памяти 350 МГц (возможна поддержка DDR II, и уже есть рабочие образцы);

·              шина памяти 128 бит;

·              пиковая пропускная способность памяти 11,2 Гбайт/с;

·              полная аппаратная поддержка DirectX 9;

·              три конвейера вершинных шейдеров;

·              четыре пиксельных конвейера с одним текстурным блоком на каждом;

·              интерфейс AGP 8х.

Помимо уменьшения количества пиксельных конвейеров и заметного снижения рабочих частот, чип, скорее всего, лишился всевозможных кэшей. Технология SilentRun отсутствует. Кулер работает только на одной скорости. По уровню шума вентилятор сравним со вторым, более громким режимом работы NV35. Возможность подачи дополнительного питания имеется, хотя можно обойтись и без него. Единственное, чем 5600 Ultra примечателен, так это высоким качеством 2D-графики. Ко всему этому 5600U проигрывает своему конкуренту Radeon 9500/9600/Pro, особенно в вертексных шейдерах.

GeForce FX 5200/Ultra (NV34) имеет 2 пиксельных конвейера с 2 модулями текстурирования на каждом (или 4х1?). Еще больше урезаны кэши, и он не поддерживает технологию Intellisample, отсутствует сжатие цвета. К тому же при его производстве NVIDIA вернулась к 0,15-мкм технологическому процессу. Впрочем, это лучший выбор по соотношению цена/производительность в сегменте low-mainstream, так как производительность примерно та же, что и у 5600U (примерно в 2 раза меньше, чем у NV30), а цена значительно ниже. По производительности, в большинстве своем 5200 Ultra обходит своего главного конкурента Radeon 9000/9200/Pro.

 

Карта

RADEON 9700 PRO

GeForce FX 5800 Ultra

Частота ядра

325 МГц

500 МГц

Эффективная частота памяти

620 МГц

1000 МГц

Ширина шины памяти

256 бит

128 бит

Пикселей в секунду, максимум

2.6 Гигапикселей

4 Гигапикселя

Текселей в секунду, максимум

2.6 Гигатекселя

4 Гигатекселя

Пропускная полоса памяти

20 Гигабайт/сек

16 Гигабайт/сек

Заявленная эффективная полоса

60 Гигабайт/сек

48 Гигабайт/сек

Вершинных операций в секунду

1.3 Гигаопераций

1.5 Гигаопераций

Пиксельных операций в секунду

5.2 Гигаопераций

8 Гигаопераций

Совсем недавно появились видеокарты GeForce FX 5900/Ultra (NV35), которые безоговорочно лидировали в сфере производительных решений. Вот что он собой представляет (в скобках указаны параметры облегченной версии):

·          производственный процесс 0,13 мкм;

·          частота ядра 450 (400) МГц;

·          частота памяти 425 (400) МГц DDR (возможна поддержка DDR II, и уже есть рабочие образцы);

·          шина памяти 256 бит (при использовании DDR II - 128 бит);

·          пиковая пропускная способность памяти 27,2 (25,6) Гбайт/с

·          полная аппаратная поддержка DirectX 9+;

·          четырехканальный контроллер памяти (по 64 бита на канал);

·          три конвейера вершинных шейдеров;

·          восемь пиксельных конвейеров с одним текстурным блоком на каждом;

·          технология CineFX 2.0;

·          комплекс Intellisample;

·          технология UltraShadow;

·          технология SilentRun;

·          интерфейс AGP 8х.

Изготовленный по более тонкому, по сравнению с основным конкурентом, технологическому процессу (напомню, что у Radeon 9800/Pro - 0,15 мкм), чип легко переносит частоты в 450 МГц (против 380 МГц у R350). А тщательно продуманная система охлаждения позволяет работать обычной DDR-памяти на частоте 425 МГц (некоторые производители умудрились поднять ее до 450 МГц), то есть обеспечивается частота передачи данных 850 МГц. Но при этом карта все также занимает 2 щели на задней стенке корпуса.

Чип работает в двух режимах - обработки двухмерной и трехмерной. Цель технологии SilentRun - по мере возможности избавить нас от шума кулера. На GeForce FX 5900/Ultra выбор режима работы вентилятора зависит от режима работы чипа (соответственно, их также два). Переход к высоким оборотам (шум при этом раза в два выше, чем у R350) происходит сразу же с началом обработки чипом трехмерной графики. В тихий режим (сопоставим с Radeon 9800/Pro) вентилятор возвращается после пяти минут непрерывной работы с плоской графикой, что позволяет избавиться от флюхтуаций вращения кулера.

Несмотря на пониженное энергопотребление, для полноценной работы необходимо дополнительное питание. В отсутствии внешнего источника энергии рабочие частоты значительно снижаются, о чем честно предупреждает драйвер, выводя на экран соответствующее сообщение.

Технология CineFX 2.0 реализует шейдерную часть DirectX 9+.

Самой интересной среди фирменных технологий является комплекс Intellisample. Наиболее эффективна заложенная в него возможность компрессии информации о цвете. Эти данные занимают заметное пространство в локальной памяти видеокарты, особенно при использовании тройной буферизации. NVIDIA заявляет, что использованные алгоритмы позволяют достигнуть сжатия без потерь с коэффициентом 4:1. Это чрезвычайной выгоде (в плане потерь производительности) применения антиалиасинга. Кстати, теперь к доступным режимам сглаживания (AA), помимо ставших привычными режимов 2х, Quincunx и 4х, добавились 6хS (только в DirectX-приложениях) и 8х. Последние два режима представляют собой объединение супер- и мультисэмплинга.

Следующий блок - адаптивные алгоритмы фильтрации - тоже позволит уменьшить объем передаваемой информации и, несомненно, повлияет на качество изображения. К сожалению, в худшую сторону (впрочем, ухудшение в большинстве случаев незаметно). К тому же применение этой функции опционально и может быть отключено пользователем. Суть в том, что мы можем выбирать количество используемых образцов для фильтрации. Это помогает приблизиться к продуктам ATI, которые издавна славятся высокопроизводительной анизотропией.

Технология UltraShadow нацелена на ускорение обработки теневых эффектов. Разработчик с помощью новой технологии может задать глубину (интервал) обработки эффекта освещения. Поскольку тень зачастую занимает лишь небольшую часть кадра, то и расчет ее влияния на всю сцену - бесполезная трата сил. Теоретически это позволит получить огромный выигрыш. Особенно в следующих поколениях игр, в которых созданию множества реалистичных, а поэтому ресурсоемких, придается большое значение.

Что касается производительности, то здесь у nVidia не самые уверенные позиции. В некоторых тестах GF FX5900U держится на уровне с конкурентом, кое-где даже побеждая, но в OpenGL и вертекстных сценах весьма проигрывает, хотя драйверы пока еще не очень отлажены. Зато у nVidia технологический запас по новым фичам>. Некоторые специалисты склонны называть 5900Ultra самой быстрой картой на данный момент.

А продукцию ATI мы рассмотрим в следующем номере и сделаем выводы по Hi-End сегменту рынка.