Полагаю, что все уже знают об анонсе компанией NVIDIA двух новых моделей видеокарт: GeForce FX 5950 (NV38) и GeForce FX 5700 (NV36). Ведущие российские компьютерные сайты уже опубликовали свои обзоры, а с тестами иностранных обозревателей можно познакомиться в нашей новостной колонке. Я тоже собирался вечером 23-го полистать результаты чужих тестов, однако совершенно неожиданно для меня NVIDIA предоставила нашему сайту референсную видеокарту GeForce FX 5700 Ultra. Вот это удача! Конечно интереснее самому проверить новую карточку, чем читать о чьих-то сомнительных результатах и гадать о корректности тестов! Берём! И вот сегодня мы готовы продемонстрировать вам самую "горячую" новинку этой недели:
Почему именно эта видеокарта нам наиболее интересна? Да потому, что самая быстрая из видеокарт NVIDIA – это, безусловно, GeForce FX 5950, но её рекомендованная цена на сегодня 499 долларов. Много вы покупали себе карточек за 500 у.е.? Я – ни одной, а вы? Может парочку или пяток, но не больше , а GeForce FX 5700 будет стоить 200 долларов в Ultra варианте и 150 в обычном. Чувствуете разницу? Это именно та видеокарта, которая завтра может поселиться в вашем системном блоке, поэтому познакомимся с ней чуть ближе.
Карточка отличается от GeForce FX 5950 уменьшенным количеством конвейеров и уполовиненной шиной памяти – 128 бит. Чип лишён защитной крышки, работает на частоте 475 МГц и это первый и сразу успешный опыт сотрудничества компаний NVIDIA и IBM. Оригинальный термоинтерфейс не сохранился, а после предыдущих тестирований чип был измазан серебряной термопастой, но её всё же удалось отскоблить. Как видите, это пока инженерный, а не серийный кристалл.
Удивительно, но при столь демократичной цене, карточка комплектуется памятью DDR2, впрочем, она способна работать с обычной DDR или с DDR3, если понадобится. На видеокарте GeForce FX 5700 Ultra стоит память Samsung со временем доступа 2.2 нс, что полностью соответствует её рабочей частоте 900 МГц. При желании любой может разузнать подробности об этой памяти на сайте производителя.
Чипы памяти контактируют с радиаторами через толстый слой термоинтерфейса, который для надёжности армирован тканью, наподобие марли:
Итак, пора приступать к тестам, но в этой идиллической картинке – Doors4ever в обнимку с его новой игрушкой – есть парочка неучтённых моментов. Во-первых, карточку нам дали всего на один день, так что о вдумчивом тестировании в трёх десятках тестов и игр, да ещё на нескольких версиях драйверов, можно сразу забыть, всё равно нам не переплюнуть монстров и признанных знатоков видеокарт. Ничего, вспомним опыт полководцев прошлого и побьём соперников на хорошо знакомом нам поле, оверклокинг – вот наш выбор! Однако тут в дело вступает второй фактор – мы тестируем одну и ту же видеокарту, а это значит, что обогнать мы сможем на десять, максимум двадцать мегагерц, а такое преимущество совершенно не впечатляет. Поэтому сразу было принято решение – экстремальный разгон.
Впрочем, экстремальным его тоже можно назвать с некоторой натяжкой. Всё из-за той же пресловутой нехватки времени у нас не было возможности оптимально подобрать необходимые напряжения, просто они были слегка повышены. Все операции по переделке провёл twinhead.
Напряжение питания ядра GeForce FX 5700 Ultra в режиме 2D равно 1.3 вольта, а в режиме 3D – 1.45 вольта. Когда мы удалили резистор с нулевым сопротивлением (маркировка "0") и подпаяли на его место резистор с сопротивлением 27 кОм, напряжение в режиме 2D поднялось до 1.5 вольт, а в 3D - до 1.65 вольт.
Для повышения напряжения питания памяти мы подсоединили параллельно резистору, установленному на плате, второй резистор с сопротивлением 22 кОм. После этого напряжение питания (VDD) микросхем памяти поднялось с 2.5 до 2.65 вольт.
Однако сначала попробуем разгон без экстрима. В драйвере есть очень удобная функция авторазгона, которая вполне годится для первого, чернового определения разгонного потенциала видеокарты. При выборе этой функции драйвер понемногу меняет частоты, контролируя температурный режим, и через пару минут выдаёт приемлемые. Рекомендованная частота разгона ядра колебалась от 545 до 670 МГц, что очень неплохо, если учесть, что номинал всего 475 МГц. Всё же не зря NVIDIA воспользовалась услугами IBM при производстве этих чипов, это только первые опытные экземпляры, а уже такой хороший оверклокерский потенциал! Отчасти в провале NV30 повинна TSMC со своим неотлаженным 0.13-микронным процессом.
Длительные тесты показали, что стабильной является частота ядра 560 МГц, частоту памяти я не выяснял, но авторазгон предлагал 1.05 ГГц. Так что если вы где-то прочтёте, что эту карточку удалось разогнать до частот 600/1100 МГц с помощью пары дополнительных вентиляторов – можете громко рассмеяться. Потенциал у видеокарты действительно немалый, она работает и на больших частотах, успешно проходит тесты, однако мы проверяли долго и очень тщательно, чтобы гарантировать отсутствие малейших артефактов из-за переразгона.
Теперь пробуем авторазгон при небольшом повышении напряжений и разница сразу заметна – теперь нам уже предлагают 602/1070 МГц! Установка дополнительных вентиляторов и доскональная проверка дали итоговый результат: 610 МГц по ядру и 1090 МГц по памяти – очень, очень неплохо! Теперь можно посмотреть, что мы получили от разгона. Тестовая система использовалась следующей конфигурации:
- Мать – Asus P4P800, рев. 1.02, BIOS 1009
- Память – 2x256 Мбайт PC3500 Kingston HyperX
- Хард – IBM DTLA 305020
- Процессор – Intel Pentium 4 2.4C@3.6GHz
- Кулер – Thermaltake P4 Spark7
- Термопаста – КПТ-8
- Операционная система – Windows XP SP1, DX9.0b, ForceWare (Detonator) 52.16
Прирост скорости от разгона более чем заметен! Ещё бы, карточка поработала на славу! Немалую роль сыграл и новый драйвер, который даже получил новое название, чтобы подчеркнуть значимость внесённых изменений.
Панель управления драйвером стала более удобной, например, теперь вы можете настроить её вид на своё усмотрение, убрать с глаз долой опции, которыми не пользуетесь, хотя до поддержки скинов дело пока не дошло . Главное нововведение, конечно, не в этом, речь идёт о новых оптимизациях, которые встроены в драйвер. Хочу подчеркнуть, что ни о каком ухудшении качества даже говорить не стоит, просто драйвер "на лету" анализирует код пиксельных шейдеров, оптимизирует его с учётом особенностей графических процессоров NVIDIA и лишь затем передаёт на обработку GPU. Я никогда не сомневался в превосходной квалификации программистов NVIDIA.
Итак, пора подводить итоги нашей экспресс-проверки видеокарты NVIDIA GeForce FX 5700 Ultra. Сказать, что карточка мне понравилась, значит не сказать ничего. Быстрая, недорогая, замечательно разгоняется – что ещё можно требовать от видеокарты? Своему предшественнику, GeForce FX 5600 она не оставляет ни малейшего шанса, причём заметьте, что это только первые опытные экземпляры. Со временем технологии имеют свойство отлаживаться, значит, оверклокерский потенциал серийных экземпляров может быть ещё выше. Конечно, здесь многое зависит от изготовителя карточки, но тем интереснее будет посмотреть, что нам смогут предложить ведущие производители видеокарт. Совсем недавно я был уверен, что сегодня безоговорочным лидером является продукция известной канадской компании. Теперь я в этом начал сомневаться и с нетерпением жду тестов новых видеокарт. Померяемся!