В начале 2005 года компания ATI анонсировала несколько решений, предназначенных для рынка Hi-End. Топ версия RX800XT показала себя во всей красе. Тогда же были предоставлены решения для нижнего Hi-End, RADEON X800XL и X800, основанные на базе 0,11 мкм чипа R430. Прошло чуть больше года. Цены на RADEON X800XL ползли вниз, а с выходом нового поколения графики ATI RADEON X1000 цены на решения прошлого поколения стали ещё ниже. Уже сейчас видеокарты, построенные на базе RADEON X800XL, можно приобрести по очень привлекательной цене в районе $280. И это не за видеокарту noname-производителя или компании третьего эшелона – за эти деньги без проблем можно купить видеокарту производства компании GigaByte. Именно такой продукт попал к нам на тестирование. Однако прежде чем перейти к подробному рассмотрению GigaByte GV-RX80L256V, давайте немного поговорим о RADEON X800XL.
Выше мы уже отмечали, что данное графическое решение основано на чипе R430, который является прямым наследником R423 (RX800XT PCI-E). Однако, в отличие от своего прожорливого прародителя, R430 более скромен в плане потребления электроэнергии, соответственно, это качество распространяется и на тепловыделение. Этими возможностями он, конечно же, обязан более современному техпроцессу в 0,11 мкм.
Технические характеристики на сегодняшний день уже не вызывают восторженного удивления: 6 вертексных процессоров и 16 пиксельных конвейеров на фоне RADEON X1900 (48 пиксельных процессоров, объединённых в квады, и 8 вертексных процессоров) выглядят как-то скромно. Прогресс налицо, и всё же, учитывая привлекательную цену, нам не терпится посмотреть на RADEON X800XL через призму сегодняшнего дня.
GigaByte GV-RX80L256V
Технические характеристики картыGigaByte GV-RX80L256V |
Производитель карты | GigaByte |
Графический процессор | R430 |
Частота чипа, МГц | 400 |
Память | G-DDR 3, 256 Мбайт |
Частота памяти, МГц | 490 (980 DDR) |
Ширина шины памяти, бит | 256 |
Интерфейс | PCI Express 16x |
RAMDAC | 2x400 МГц |
Количество вершинных конвейеров | 6 |
Количество пиксельных конвейеров | 16 |
API | Direct X 9.0c, OpenGL 1.5 |
Контроль системы охлаждения | Отсутствует |
Дополнительное питание | Отсутствует |
Разъёмы подключения мониторов | D-Sub и DVI |
Наличие TV-Out | Да |
Наличие TV-IN | Нет |
Цена, $ | 270-300 |
Видеокарта GigaByte GV-RX80L256V поставляется в большой коробке достаточно броского и симпатичного дизайна. Однако, честно говоря, различные вариации изображений роботов, монстров и девочек в доспехах уже изрядно набили оскомину. Дизайнерам и маркетологам явно есть над чем поработать, ведь встречают, как известно, по одежке. Особенно это актуально в больших компьютерных супермаркетах, ведь именно коробкой можно привлечь внимание покупателя. Размеры коробки очень велики, учитывая содержимое:
- 1 переходник DVI-I->D-Sub;
- коммутационный блок VIVO и YPbPi;
- руководство по установке;
- CD с драйверами;
- CD с ПО CyberLink (PowerDirector, MediaShow, MusicMatch, PowerDVD, PowerProducer DVD, Power2Go и PowerDVD Copy);
- CD с компьютерной игрой «Thief Deadly Shadows»;
- CD с компьютерной игрой «Joint Operations».
Комплект поставки порадовал, есть всё необходимое. А коммутационный блок очень удобен, благодаря ему можно без проблем задействовать видеовход одновременно с подключением HDTV-устройства. С обычными разветвителями VIVO, YPbPr и кабелями S-Video, RCA осуществить это попросту невозможно.
|
|
Видеокарта GigaByte GV-RX80L256V является копией эталонного дизайна, предложенного ATI. В этом нет ничего удивительного или плохого. Ни для кого не секрет, что разработка PCB с нуля требует больших средств, а референс, предложенный канадской компанией, достаточно хорош. Однако, в отличие от многих компаний-производителей видеокарт, просто скопировавших референсную видеокарту, GigaByte поработал над системой охлаждения. GigaByte GV-RX80L256V использует пассивную систему охлаждения, состоящую из двух больших радиаторов и медной пластины. Последняя установлена прямо на графический процессор. Непосредственно к самой пластине припаяны тепловые трубки с легко закипающей жидкостью, по которым тепло передаётся на задний радиатор. Лицевой радиатор припаян к медной пластине, он также отводит тепло от сердечника, т.е. медной пластины.
Кристалл графического процессора контактирует с подошвой радиатора через слой густой белой термопасты, память не имеет контакта с радиатором. Особых проблем из-за этого возникнуть не должно, память GDDR3 490 (980 DDR) МГц не сильно греется, и всё же 100- процентную гарантию того, что не возникнет «теплового мешка», мы дать не можем.
Эффективность системы охлаждения идеальной назвать нельзя, видеокарта изрядно нагревается, и всё же при длительном и изнурительном тестировании претензий к GigaByte GV-RX80L256V не возникло. Видеокарта ни разу не зависла, и артефакты не появлялись.
А об акустических характеристиках RX80L256V говорить не стоит: здесь и так всё очевидно. Именно поэтому данная видеоплата может быть весьма удачным выбором при формировании абсолютно тихого компьютера.
Видеокарта оснащена следующими выходами: один D-Sub, один DVI и S-Video.
Несмотря на то, что у GigaByte GV-RX80L256V распаян чип Rage Theater, карта не оснащена дополнительным разъёмом для подключения композитного видеовхода.
Разъём для подключения внешнего питания у GV-RX80L256V также отсутствует. Выше мы уже отмечали, что R430 выполнен по 0,11 мкм техпроцессу, поэтому энергопотребление X800 XL невелико. Мощности, подаваемой через разъём PCI Express x16, вполне достаточно для питания 16-конвейерного RADEON X800 XL.
Посадочные места для памяти имеются с обеих сторон PCB, чипы памяти расположены в традиционном стиле ATI в виде буквы L.
Графический процессор, как и положено по спецификации RADEON X800 XL, работает на частоте 400 МГц.
В видеокарте используется память Samsung K4J55323QF-GC20. Эти чипы имеют ёмкость 512 Мбит, время доступа 2,0 нс и напряжение питания 1,8 В.
Номинальная рабочая частота составляет 500 (1000) МГц, но в ATI RADEON X800 XL память работает на частоте 490 (980 DDR) МГц. Поскольку ёмкость одной микросхемы равна 512 Мбит, 4 таких микросхемы в сумме дают нам 256 Мбайт. Ширина шины памяти у GigaByte GV-RX80L256V составляет 256 бит.
Разгон
Память Samsung с маркировкой K4J55323QF-GC20 показала себя не очень хорошо. Нам удалось повысить частоты с номинальных 400 МГц и 490 (980 DDR) МГц до 450 МГц и 560 (1120 DDR) для графического чипа и памяти соответственно. Таким образом, прирост таковых частот в процентном показателе составил: 12,5% для чипа и 14% для памяти.
Видеокарта разгонялась при помощи утилиты RivaTuner. Стабильность работы при разгоне проверялась с помощью бенчмарка 3DMark 2006, который прокручивался три раза. Если появлялись искажения на мониторе, частоту памяти понижали на несколько мегагерц. Если компьютер зависал, частоту графического ядра понижали на несколько мегагерц. Если же все три раза бенчмарк прокручивался нормально, то разгон удался. Для дополнительного охлаждения применялся, в частности, вентилятор, обдувающий память видеокарты.
Тестирование
В тестировании принимали участие следующие комплектующие:
- Материнская плата:
- ASUS A8N SLI Deluxe (NVIDIA nForce4 SLI).
- Процессор:
- Память:
- Жёсткий диск:
- Seagate Barracuda 7, 80 GB (Serial ATA).
- Звуковая карта:
- Видеокарта:
На тестовом стенде была установлена операционная система Microsoft Windows XP с установленным Service Pack 2, а также тестовые программы и реальные игровые приложения:
Драйверы:
- драйвер для видеокарт NVIDIA: ForceWare 78.01;
- драйвер для видеокарт ATI: CATALYST 8.173.1-050921a-026915E;
- драйверы для материнской платы на NVIDIA nForce4 SLI: последние с сайта NVIDIA на момент тестирования.
Трёхмерные шутеры с видом от первого лица:
- «Chronicles of Riddick»;
- «Doom III»;
- «FarCry»;
- «F.E.A.R.»;
- «Half-Life 2»;
- «Unreal Tournament 2004»;
- «Call of Duty 2»;
- «Quake 4»;
- «Serious Sam 2».
Как проходило тестирование
На плате ASUS A8N SLI Deluxe (NVIDIA nForce4 SLI) активизировался двухканальный контроллер памяти посредством установки двух одинаковых модулей памяти 512 MB Hynix DDR 500 в соответствующие слоты. Тайминги памяти были выставлены как 2.0/5/3/3.
Основные параметры в драйверах видеокарт NVIDIA и ATI были выставлены следующим образом:
NVIDIA ForceWare 78.01:
- Image Settings: Quality;
- Trilinear optimization: On;
- Anisotropic mip filter optimization: Off;
- Anisotropic sample optimization: On;
- Vertical sync: Off;
- Остальные настройки: по умолчанию.
ATI CATALYST:
- Mipmap Detail Level: Quality;
- Adaptive antialiasing: Off;
- Temporal antialiasing: Off;
- Quality AF: Off;
- CATALYST A.I.: Standart;
- Wait for vertical refresh: Always off;
- Остальные настройки: по умолчанию.
Качество 2D
Этот параметр довольно спорный, и оценить его можно только субъективно, так как качество выводимого изображения зависит и от монитора, и от соединительного кабеля.
Качество используемых в тестировании видеокарт в разрешениях 1600 х 1200 х 85 Гц, 1280 x 1024 x 100 Гц, 1024 x 768 x 120 Гц можно охарактеризовать как хорошее.