IZONE- http://www.izcity.com/- бесплатный софт, вэб-сервисы, ресурсы для раскрутки, свежие номера журнала "Internet Zone".

Вопросы и ответы по железу-48. 3D-видеокарты

Сергей Бучин

Напишите, пожалуйста, чем различаются видеокарты GeForce2 Pro, MX, MX200 и MX400? А то вы пишете про них так, как будто это всем известно.

На самом деле, мы пишем про них таким образом по одной простой причине - почти каждой из этих видеокарт было посвящено как минимум по две публикации. Но, чтобы внести ясность в модельный ряд GeForce, поясню еще раз.

Итак, карта GeForce2 без дополнительных обозначений - это обычный базовый вариант GeForce2. GeForce2 Pro и GeForce2 Ti отличается от GeForce2 повышенными частотами работы чипа и памяти, а у GeForce2 Ultra эти частоты еще выше.

GeForce2 MX - усеченная модификация GeForce2, имеющая вместо четырех всего лишь два конвейера рендеринга, пониженные частоту работы чипа и пропускную способность памяти. Версия MX400 отличается от обычной MX повышенными частотами работы, MX200 - более узкой шиной памяти (64 бит против128 бит у MX).

Полные модификации GeForce2 оснащены только памятью DDR; вариант MX400 может иметь "на борту" как 64-битный DDR, так и 128-битный SDRAM (что по сути одно и то же, так как пропускная способность у них одинаковая). Версия MX200 работает только с памятью SDRAM.

У GeForce3 пока всего лишь три модификации: классический, Ti 200 и Ti500. Отличаются все они только частотами работы: самые низкие - у Ti 200, затем идет базовый GeForce3, и самый высокопроизводительный вариант GeForce3 на сегодняшний день - Ti 500.

Модификации GeForce 4 мы не будем пока рассматривать, потому как видеокарты на этом чипе только что появились на нашем рынке.
Был еще такой чип, как GeForce256. Никаких модификаций он не имел, и видеокарты на его базе могли быть оснащены как DDR-, так и SDRAM-памятью в своем полном (128-битном) варианте.

Можно еще вспомнить давно не выпускающиеся, но до сих пор живущие у довольно большого числа пользователей видеокарты Riva TNT2. Существовали следующие модификации чипа TNT2 (по возрастанию производительности): Vanta, M64, TNT2, TNT2 Pro, TNT2 Ultra. Чипы Vanta и M64 часто путают, считая, что это одно и то же. На самом деле, до какого-то момента чипы Vanta работали на более низкой частоте, чем М64.

От полноценного TNT2 эти чипы отличаются более узкой шиной памяти, имеющей разрядность всего 64 бит. TNT2, TNT2 Pro и одноименный чип с приставкой Ultra отличаются только частотами работы памяти и чипа. Сегодня покупать видеокарту на базе чипа TNT 2 даже для офисной машины нет смысла.

Что быстрее - GeForce2 MX или GeForce256? И что вообще надо брать к моему Duron 900? 

Оба вопроса довольно сложны и не имеют однозначного ответа. В первую очередь потому, что речь идет о разных чипах с разными возможностями, да и вариантов исполнения видеокарт на каждом из этих двух чипов существует уйма.

Не вдаваясь в подробности, вот как выглядит ряд видеокарт NVIDIA, отсортированный по возрастанию производительности: Vanta, M64, TNT2, TNT2 Pro, TNT2 Ultra, GeForce2 MX200, GeForce256 SDR, GeForce2 MX, GeForce256 DDR, GeForce2 MX400, GeForce2, GeForce2 Pro, GeForce3 Ti200, GeForce2 Ultra, GeForce3, GeForce3 Ti500.

Ответ на второй вопрос не так прост, как кажется на первый взгляд. Судите сами: если у вас мощный процессор и вы играете в разрешении 640 х 480 с глубиной цвета 16 бит, то вам будет достаточно и GeForce2 MX, а если вы - счастливый обладатель хорошего монитора и предпочитаете играть в режиме 1600 х 1200, да еще непременно с 32-битным цветом, то даже GeForce3 Ti500 задохнется, обрабатывая и преобразовывая в изображение тот огромный поток данных, которые на нее вывалит ваш Duron 900. Опять же, не будем забывать про то, что у каждого свое определение хорошего качества игр. Кому-то и 30 fps достаточно, а для кого-то и сотня кадров в секунду - средненько.

Конечно, пускаться в крайности тоже не стоит: не надо покупать GeForce2 MX в пару к новейшему Athlon XP - просто потому, что тогда вам будет доступно только разрешение 800 х 600, а вы, думается, покупали такой процессор не для этого.

Более или менее подробно расписаны оптимальные варианты систем в статье "Советы по железу: поиск оптимума" (Upgrade # 2 (40)). Прочтя ее, вы сможете более или менее грамотно подобрать карту к своему процессору. А косвенные выводы о соответствии видеокарты процессору можно сделать, внимательно изучив таблицы игровых тестов в процессорно-чипсетных рингах.

Задумал апгрейдить тут свой Celeron 300 и думаю, что сменить сначала - видеокарту или процессор с матерью? Сейчас у меня TNT2, стоит ли копить и сразу брать GeForce3 или взять вариант попроще, типа GeForce2 Pro? Или все-таки процессор? Тогда какой?

Вот это как раз вопрос простой. Если вы считаете, что деньги на замену второго компонента у вас точно скоро появятся, то есть в ближайшие, скажем, 2-4 месяца ожидаются крупные финансовые вливания в вашу корпорацию "Я и мой железный друг", то покупайте самый наикрутейший вариант компонента из всех доступных вашему карману. Потом доапгрейдите остальное, и у вас будет hi-end-система.

Если же ваши финансы на в ближайшие полгода не собираются заниматься ничем иным, кроме как петь романсы, то обойдитесь более скромным, "средненьким", вариантом. Глядишь, при таком раскладе и на два компонента хватит. Не откладывайте жизнь на завтра.

А даже если и не хватит денег на замену и процессора, и видеокарты, - все равно через год-два, когда у вас наконец появятся деньги на апгрейд, ситуация на рынке будет совсем другая, и GeForce3 станет low-end-видеокартой, а про Pentium 4 будут вспоминать только в детских страшилках. Но вы-то GeForce3 купите по hi-end-цене, а вот все ее возможности не используете - процессор не позволит. Получается, что вы просто выкинете часть денег на ветер.

Что менять сначала? Для того чтобы понять это, ответьте себе на вопрос, а где в моей системе узкое место. Что в данный момент больше мешает вам наслаждаться большими фепеэсами на вашем любимом разрешении и в вашей любимой игре? Вот тот компонент и меняйте первым.

Почему лично Вы так не любите видеокарты ATI (см. Upgrade #40, статья "Поиск оптимума")? Разве они хуже, чем видюхи от NVIDIA? А вот стоят дешевле.

Это не вопрос "плохо-хорошо". Просто из моего личного опыта я понял, что для задач, которые я выполняю на компьютере, мне больше подходят видеокарты на чипах NVIDIA. Ничего против продукции компании ATI я не имею, и если она вдруг выпустит какой-то продукт, который с моей точки зрения будет лучше, чем аналогичный продукт NVIDIA, скорее всего, я буду пользоваться продуктом ATI.

Мне сказали, что, меняя видеокарту, следует переустановить Windows, иначе возможны проблемы. Так ли это? Просто я не могу переустанавливать систему - много ценного.

Можно, конечно, после установки каждой новой железки форматировать винт и ставить Windows по-новой. Можно и из пушки по воробьям палить. Однако надо ли?

Проблемы действительно возможны, но они также возможны и после установки нового софта, и просто во время работы. Windows не идеальна, к сожалению, да и разнообразные драйвера тоже далеко не безгрешны. Старые драйвера, например, вполне могут отказаться уступить место новым. DirectX тоже может не понять столь быстрой смены поднадзорной комплектующей. Довольно типичная проблема: после установки новой видеокарты начинают глючить 3D-игры.

Рекомендую при смене видеокарты следовать следующему алгоритму: сначала удалите драйвера старой видеокарты, причем желательно удалить и сам inf-файл, чтобы система не опознавала ее. Потом вынимайте саму видеокарту и вставляйте новую.

Поставив драйвера новой видюхи, запускайте какую-нибудь 3D-игрушку и играйте до посинения. Если экран посинеет раньше, чем вы, просто переустановите (обновите) DirectX и так называемые "драйверы материнской платы" (например, в случае матери на чипсете VIA - это VIA 4-in-1), чаще всего это решает все проблемы.

Разумеется, все это верно для тех случаев, когда видеокарта полностью исправна, не разогнана, не перегревается и ни с кем не конфликтует. Если железный глюк все-таки имеется, то сначала придется устранить его.

У меня есть тачка на базе VIA MPV3. Хочу докупить к ней видеокарту. Остановил свой выбор на ATI Radeon. Что скажете?

Имейте в виду, что MVP3 - довольно капризный чипсет, и заячьей лапки с бубном бывает недостаточно для того, чтобы подружить его даже с Riva TNT2, не говоря уж о более новой и мощной продукции фирмы ATI. При глюках обязательно выставьте режим AGP 1x, как правило, поддержка AGP 2x выполнена у матерей на MVP 3 довольно криво. Да, и еще - на старых материнках видеокарте может примитивно не хватить питания.

Имею старую систему на мамке ASUS TX. И к ней - видеокарту Rendition с 4 метрами памяти. Денег немного, поэтому хочу сначала взять хороший корпус, мать и процессор, а видео оставить старое, и купить новое месяца через три. Но вот будет ли моя писиайная видюха работать в AGP-слоте?

Ну, в AGP-слот вы ее разве что молотком забьете, и в этом случае она точно работать не будет. А вот в PCI-слоте она вполне заработает, и использовать ее в качестве видео вы вполне сможете.

А что за параметр в "бивисе" AGP Aperture Size и каким он должен быть? Кто говорит - маленьким, кто наоборот - самым большим....

AGP Aperture Size - это параметр, определяющий, сколько системной памяти сможет использовать для своих нужд видеокарта, если эта память ей вдруг понадобится. Мой совет, возможно, прозвучит странно, но я рекомендую забить на этот параметр: сколько я ни пытался уловить разницу между производительностью в "минимальном" и "максимальном" режиме, какие бы сложные текстуры не использовал - так и не уловил.

Хотя... Если памяти много - установите максимально возможное значение - и приятно, и безвредно, да и сердце радуется. И в любом случае не устанавливайте значение меньшее, чем размер видеопамяти.

Если разогнанная видеокарта работает нестабильно, поможет ли подъем напряжения на AGP? И насколько безопасно это?

Поможет или нет - зависит от причины нестабильной работы видеокарты. Чаще всего при разгоне первой сдается память, а на ее разгоняемость VAGP, по-моему, не влияет. По крайней мере, все мои видеокарты разгонялись совершенно одинаково и с нормальным, и с повышенным напряжением AGP.

Повышать же напряжение VAGP довольно безопасно: как правило, если работа с ним вообще возможна, то в пределах 10% от номинала, а это видеокарту точно не сожжет. Только позаботьтесь о ее охлаждении. Хотя, если уж вы вообще решились разгонять что-либо, то, наверное, уже это сделали.

Зачем в BIOS нужен пункт "Assing IRQ for VGA" и какое значение лучше всего выставлять? Возможно два варианта: Disabled и Enabled.

Если в мануале к вашей видеокарте не написано большими буквами, что она может работать без IRQ, то значение параметра "Assign IRQ for VGA" - только Enabled. Некоторые видеокарты (кстати, фирмы ATI) способны работать без IRQ, но чаще всего современным видюхам прерывание все-таки нужно.

Внимание! Редакция журнала "Internet Zone" не консультирует по вопросам приобретения компьютерного оборудования и проблемам его эксплуатации. Мы только публикуем материалы. Куда и кому задавать вопросы - ищите на сайте источника этой статьи.

Источник: http://www.computery.ru/upgrade/

 


Copyright © "Internet Zone", http://www.izcity.com/, info@izcity.com