«Call of Duty 2» – замечательное продолжение тематики второй мировой войны. Компьютерная игра получила обновленный движок (напомним, что первая часть «Call of Duty» использовала движок легендарного «Quake III»), соответствующий спецификации DirectX 9. Компания Infinity Ward (разработчик движка) хорошо поработала над своим проектом: карты нормалей, реалистичные тени, эффекты дыма и освещения.
Как видим, «игрушка» получилась достаточно требовательной, ни одна из участвующих в тестировании видеокарт не смогла преодолеть рубеж 60 кадров в секунду. Ближе всех подобралась разогнанная по чипу и памяти GigaByte GV-RX80L256V.
Игра довольно динамичная, поэтому комфортно играть можно лишь в разрешении 1024 х 768 и обязательно с выключенными FSAA 4x и Aniso 16x. Повышение разрешения сводит все прелести игрового процесса на нет, а включение FSAA 4x и Aniso 16x «Call of Duty 2» и вовсе противопоказано при использовании ATI RADEON X800XL. Достаточно посмотреть на диаграммы, чтобы убедиться в этом самостоятельно.
Что касается насущного вопроса, ATI или NVIDIA, то первенство в «Call of Duty 2» за последней: GeForce 6800GT обеспечивает несколько больший уровень производительности, нежели решение канадского производителя графических чипов.
Продолжение культовой игры. В основе «Quake 4» лежит модифицированный движок «Doom III». Модификациям подверглись в основном прорисовки уровней и моделей, помимо этого четвёртая реинкарнация «Quake» получила большее количество эффектов освещения.
Из графиков хорошо видно, что ATI RADEON X800XL прекрасно справляется с «Quake 4», производительности GigaByte GV-RX80L256V достаточно для комфортной игры даже в самых высоких разрешениях. Включение полноэкранного сглаживания и антиалиасинга несколько снижает общий индекс производительности, однако даже в самом высоком разрешении 1600 х 1200 RADEON X800XL обеспечивает достаточное количество fps.
Что касается повышенной любви думовского движка к видеокартам NVIDIA, то в этом плане «Quake 4» солидарен с обоими лидерами графического рынка: NVIDIA GeForce 6800GT даже несколько отстаёт от ATI RADEON X800XL. Отставание продукта калифорнийской компании нельзя назвать большим, особенно в тяжёлых режимах с включёнными FSAA 4x + Aniso 16x.
Продолжение «Серьёзного Сэма» – ярко и стильно. Графический движок «Serious Sam 2» очень требователен к производительности видеокарты, и это хорошо видно из диаграмм. Игра использует карты нормалей, реалистичные отражения, продвинутые тени плюс огромное количество всевозможных шейдерных моделей, включая Shader Model 3.0.
Видеокарты, основанные на графических чипах ATI, включая GigaByte GV-RX80L256V, демонстрируют просто ужасные результаты. Даже в самом лёгком режиме при разрешении 1024 х 768 и с отключёнными полноэкранным сглаживанием и антиалиасингом на RADEON X800XL играть невозможно, компьютерная игра то и дело подтормаживает.
Давайте посмотрим на результаты NVIDIA. Ей тоже приходится нелегко, и всё же на GeForce 6800GT можно играть в разрешении 1024 х 768. Включение FSAA 4x + Aniso 16x в буквальном смысле «ставит» участников тестирования, ни один из которых не справился с обеспечением хотя бы минимального уровня игровой производительности в 30 fps.
И если с ATI проблема столь малой производительности ясна, то в чём просчет компании NVIDIA? Почему продукты калифорнийской компании демонстрируют столь малую производительность в «Serious Sam 2»? На данный момент мы не готовы ответить на этот вопрос.
Компьютерная игра «Chronicles of Riddick» использует API OpenGL, с которым, как известно, у продуктов ATI «никогда не ладилось». Видеокарта GigaByte GV-RX80L256V, основанная на ATI RADEON X800XL, не стала исключением. Данного решения достаточно лишь для игры в разрешениях 1024 х 768 и 1280 х 1024. В более тяжёлых режимах при полноэкранном сглаживании и антиалиасинге более-менее комфортно играть можно лишь в разрешении 1024 х 768.
Конкурент в лице NVIDIA GeForce 6800GT выглядит более привлекательно. Видеокарта обеспечивает необходимое количество кадров в секунду для комфортной игры во всех разрешениях, включая режимы с FSAA 4x + Aniso 16x.
Старичок «Unreal Tournament 2004» – не очень серьёзное испытание даже для решения годичной давности. RADEON X800XL и GeForce 6800GT справляются с этим тестом на 5+ во всех разрешениях, включая самые тяжёлые режимы с включёнными анизотропной фильтрацией и антиалиасингом.
Однако общий fps, демонстрируемый канадским решением, несколько больше, чем у продукта калифорнийской компании.
Выводы
Несмотря на возраст в один год, решение, в основу которых лёг графический чип ATI RADEON X800XL, актуально и на сегодняшний день. Данное решение обеспечивает приличный уровень производительности в современных компьютерных играх. В большинстве приложений RADEON X800XL опережает своего калифорнийского конкурента NVIDIA GeForce 6800GT. Исключение составляют пресловутый «Doom III» и компьютерные игры, использующие API OpenGL, например, «Chronicles of Riddick». Будем надеяться, что в будущем компания ATI исправит ситуацию, выпустив эффективные драйверы для OpenGL.
Что касается самой видеокарты GigaByte GV-RX80L256V, то это достаточно добротный продукт, с отличным качеством изготовления, хорошей комплектацией и привлекательной ценой. Отдельным словом хотелось бы похвалить GigaByte за то, что она не стала копировать референсный дизайн, предложенный ATI, и поработала над системой охлаждения, благодаря которой видеокарта получилась совершенно бесшумной, что, несомненно, огромный плюс. В остальном это обычный ATI RADEON X800XL, разгонный потенциал которого оставляет желать лучшего, виной всему чип ATI R430.
Если вы ищете видеокарту в ценовом диапазоне $270-300, обратите внимание на GigaByte GV-RX80L256V.