Меню

Увеличить память видеокарты gts 450



GeForce GTS 450 в сочетании с памятью DDR3 в исполнении Palit и Zotac

В недавнем большом тестировании 16 бюджетных видеокарт мы отмечали насколько слабо заполнен этот ценовой сегменте продуктами NVIDIA. А между GeForce GTS 450 и GeForce GT 440 вовсе образовалась пустота в виде большого разрыва по цене и производительности. И в этом ценовом диапазоне никаких конкурентов для популярных Radeon HD 5670 и Radeon HD 6670 у NVIDIA просто нет. Некоторое время компанией выпускался GeForce GT 440 на базе урезанной версии графического процессора GF106 (того самого, на котором базируется и GeForce GTS 450), но это было исключительно OEM-решение для некоторых крупных сборщиков, и в розницу такие карты не попали. Впрочем, этот пробел все же оказался заполненным. Без громких премьер и презентаций со стороны NVIDIA, некоторые партнеры компании начали выпускать своего конкурента для Radeon HD 6670. Рецепт новой карты оказался прост — взяли старый добрый GeForce GTS 450 и вместо памяти GDDR5 оснастили его DDR3, попутно снизив цену до уровня 100 долларов. Решение необычное, но не новое. В свое время частотному даунклоку подверглись видеокарты GeForce 9600 GT, 9800 GT и GTS 250, превратившись в более экономичные решения серии Green Edition. Но обновленные GeForce GTS 450 таким «зеленым» нравом не отличаются и по-прежнему оснащаются разъемом дополнительного питания. Хотя совсем недавно на рынок все же вышли и более экономичные версии. Первопроходцем стала компания MSI с картой N450GTS-MD1GD3, за ними последовала и Zotac с GeForce GTS 450 ECO. Возможно, в будущем, мы рассмотрим и эти видеокарты, но этот обзор посвящен более распространенным моделям от Palit и Zotac, которые не относятся к категории таких экономичных продуктов.

Palit GeForce GTS 450 1024MB DDR3

Palit поставляется в маленькой скромной коробочке без комплекта переходников и дополнительных кабелей. Внутри кроме карты находится только диск с драйвером.

Данная модель очень компактная и заметно короче обычной версии GeForce GTS 450. Система охлаждения занимает два слота, но даже внешне выглядит довольно простенько. Дизайн кожуха и конструкция кулера напоминает системы охлаждения у других бюджетных продуктов Palit (в частности GeForce GTX 460), только размеры меньше.

На задней панели имеются разъемы трех типов: DVI, D-Sub и HDMI.

Радиатор выполнен из алюминия. Обдувающий вентилятор PLA07015S12HH диаметром 70 мм крепится к пластиковому кожуху.

Плата выглядит простовато, хотя подсистема питания реализована по стандартному дизайну — три фазы для GPU, одна фаза для питания памяти. Вот только используемые компоненты проще (читайте — дешевле), плюс распаяно по два транзистора на одну фазу преобразователя напряжения ядра. Поскольку используется стандартный ШИМ-контроллер NCP5395, то никаких проблем с регулированием рабочего напряжения с помощью MSI Afterburner нет.

Небольшой сюрприз. Мы ожидали увидеть на карте GF106, а получили GF116, на котором базируется GeForce GTS 550 Ti. Полная маркировка GF116-200-KA-A1.

Один гигабайт видеопамяти набран восемью микросхемами Micron D9MNJ.

Тактовые частоты GPU не отличаются от частот полноценного GeForce GTS 450 и равны 783/1566 МГц. А вот память работает лишь на 1400 МГц, в то время как у оригинальной карты с GDDR5 работает на 3608 МГц. Разница огромная и это не может не сказаться на производительности. У других моделей с DDR3 частоты памяти немного выше. В этом плане Palit обходит только Zotac GeForce GTS 450 ECO с частотной формулой 600/1200/1333 МГц.

При 27 °C в помещении температура ядра в игровых тестах держалась на уровне 64 градусов. Вентилятор в таком режиме даже не поднимал обороты, работая все время на 30% (примерно 1650 об/мин). Шум минимальный. Питающее напряжение ядра стандартно — 1,05 В.

Учитывая изначально низкую частоту памяти, большие надежды возлагаются на ее разгон. И действительно, прирост мы получили неплохой, достигнув отметки 1820 МГц, но на фоне 3608 МГц это по-прежнему очень и очень мало. На самом деле 1820 МГц не предел, просто разгон уперся в ограничения утилиты MSI Afterburner. Из GPU удалось выжать почти гигагерц — мы смогли пройти все тесты на 995/1990 МГц при напряжении 1,112 В.

Zotac GeForce GTS 450 (ZT-40506-10L)

Кробка от Zotac выглядит симпатичнее. Приятно, что производитель не поскупился снабдить карту переходником DVI/D-Sub и переходником питания с разъема Molex на PCI-E 6-pin.

Внешний вид у видеокарты тоже солиднее, чем у Palit. Система охлаждения кажется более массивной из-за пластикового полупрозрачного кожуха, накрывающего всю плату.

Zotac оснащен разъемами DVI, HDMI и Display Port.

Взглянем на систему охлаждения.

Радиатор не сильно отличается от того, что установлен на Palit, но он действительно больше. Вентилятор тоже крупнее — используется Power Logic PLA08015B12HH диаметром 80 мм (лопасти 75 мм).

Читайте также:  Альтернатива видеокарте gtx 1070

Так что система охлаждения Zotac немного лучше.

Плата Zotac больше компактного Palit, но меньше референса. За основу взят стандартный дизайн GeForce GTS 450, просто за счет иной разводки и более плотного монтажа уменьшена длина карты. Полевые транзисторы такие же, как и на обычных платах. Да и в целом качество изготовления повыше, чем у Palit GeForce GTS 450 1024MB DDR3.

Трехфазный преобразователь напряжения ядра построен на базе контроллера NCP5395T, софтвольтмод поддерживается.

Распаян графический процессор GF116-200-KA-A1.

Восемь микросхем памяти общим объемом в 1024 МБ расположены с двух сторон платы. Используются чипы Hynix H5TQ1G63DFR 11C со временем доступа 1,1 нс.

Zotac имеет небольшой заводской разгон ядра и дополнительно радует более высокой частотой памяти. Карта функционирует на частотах 810/1620/1600 МГц. Напряжение стандартное — 1,05 В.

Видеокарта оказалась заметно холоднее и тише конкурента от Palit. В игровом режиме при 1350—1380 об/мин температура не превышала 57 °C.

С разгоном тоже все сложилось неплохо. Пройти тесты удалось при частоте ядра 990/1980 МГц и напряжении 1,1 В. Память смогла стабильно работать на 1970 МГц.

Характеристики видеокарт

В наше сравнение мы включили видеокарты Radeon HD 5670, Radeon HD 6570 и Radeon HD 6670 с памятью GDDR5. Добавлены GeForce GT 240 и GeForce GT 440. Эти карты хоть и позиционируются изначально как более простые и дешевые решения, но будет интересно взглянуть на разницу между ними и GeForce GTS 450 DDR3. Также добавлен старый GeForce 9600 GT (Gigabyte GV-N96TZL-1GI со сниженными до рекомендованных частотами). В роли GeForce GTS 450 GDDR5 выступит MSI N450GTS Cyclone 1GD5/OC на пониженных до стандартна частотах при напряжении 1,05 В.

Источник

Разгон видеокарты nVidia GeForce

Из статьи читатель узнает об одном из простых, но эффективных способов разгона видеокарт серии GeForce от nVidia. Для разгона не потребуется каких то особых знаний или умений. Любой обладатель такой видеокарты сможет самостоятельно сделать все необходимое, и в итоге немного увеличить производительность своего графического ускорителя.

Для разгона на компьютере необходимо установить несколько небольших бесплатных программ, ссылки на загрузку которых приведены в тексте статьи.

Разгон видеокарты и связанные с ним риски

Разгон видеокарты — это изменение некоторых штатных параметров ее работы, вследствие чего увеличивается ее производительность (в среднем на 5-20%). Во многих случаях разгон позволяет пользователю комфортно играть в компьютерные игры, которые на стандартных настройках его видеокарта не «вытягивает». Следовательно, благодаря разгону можно сэкономить денег, отложив или вообще отказавшись от приобретения более производительной видеокарты.

Но не все так просто, как кажется на первый взгляд. Есть у этого всего и обратная сторона. Дело в том, что видеокарта в разогнанном состоянии более подвержена вероятности выхода из строя. Приступая к разгону, вы должны четко осознавать, что своими действиями вы можете повредить аппаратную часть компьютера . Прибегать к разгону следует, если ради увеличения производительности видеокарты вы готовы рискнуть.

С другой стороны, если к разгону подойти с умом и не пытаться выжать из видеокарты слишком много, этот риск становится не значительным.

Необходимо учитывать, что при разгоне увеличивается мощность электроэнергии, потребляемая видеокартой. Перед разгоном желательно убедиться, что сила тока блока питания по линии +12В с запасом превышает потребности видеокарты. В противном случае блок питания может стать причиной нестабильной работы компьютера.

Об оценке соответствия блока питания требованиям компьютера читайте здесь.

В статье рассматривается один из способов разгона видеокарт серии GeForce. Чтобы сделать статью более наглядной, автор построил ее в форме описания разгона «подопытной» видеокарты GeForce GTS 450. Аналогичным образом можно разгонять любую карту от nVidia GeForce. Ниже расположены изображения с описанием всех необходимых действий.

Если у вас графический адаптер от ATI (Radeon), читать статью смысла нет.

Чтобы разогнать видеокарту пользователю нужно увеличить следующие параметры ее работы:

• частота графического ядра;

• частота шейдерных блоков.

Для обеспечения стабильности работы с новыми параметрами придется также немного повысить напряжение питания видеокарты.

Углубляться в описание указанных параметров не будем. Кому интересно — читайте о них здесь.

Разгон видеокарты GeForce

Перед началом разгона необходимо узнать показатели указанных выше параметров видеокарты в обычном состоянии. С этой целью можно использовать бесплатную утилиту GPU-Z.

После установки и запуска утилита GPU-Z покажет подробную информацию о видеокарте компьютера, в том числе и необходимые нам данные.

На изображении видно, что подопытная GeForce GTS 450 в штатном режиме имеет следующие параметры (обведены красным):

• частота графического ядра (GPU Clock) — 783 MHz;

• частота шейдерных блоков (Shader) — 1566 MHz;

• частота памяти видеокарты (Memory) — 902 MHz (1804).

Обратите также внимание на то, что с такими параметрами видеокарта GeForce GTS 450 демонстрирует следующую продуктивность (обведены зеленым):

Читайте также:  Nvidia optimus не видит видеокарту

• PixelFillrate — 6,3 GPixel/s

• TextureFillrate — 25,1 GTexel/s

• пропускная способность памяти (bandwidth) — 57,7 GB/s.

Для изменения указанных параметров будем использовать бесплатную программу nVidia Inspektor.

Программа nVidia Inspektor не требует установки. После загрузки просто запускаем ее. Откроется окно, в нижнем правом углу которого находится кнопка с названием «Show Overclocking». На нее нужно нажать мышкой и в следующем диалоговом окне подтвердить открытие дополнительных параметров (нажать кнопку «Да»).

После этого откроется панель разгона видеокарты (см. изображение).

Сначала поднимем значение частоты ядра (GPU Clock) и частоты шейдерных блоков (Shader Clock). Эти параметры взаимосвязаны. Поэтому повышение частоты шейдерных блоков автоматически повлечет за собой рост частоты графического ядра. Для повышения необходимо ползунок Shader Clock передвинуть вправо. Увеличивать частоту больше чем на 15% от исходной не рекомендую.

Если для нашей GeForce GTS 450 поднять Shader Clock на 15 % от исходных (1566 MHz), получится где-то около 1800 MHz. В случаях с другими видеокартами показатели, естественно, будут другими.

Увеличив Shader Clock можно увидеть, что вслед за ней увеличится и частота графического ядра. Для GeForce GTS 450 Shader Clock был увеличен до 1800 MHz, частота графического ядра автоматически поднялась до 900 MHz (см. скриншот). Чтобы изменения вступили в силу, необходимо нажать кнопку «Apply Clock&Voltage» .

Перед тем, как переходить к повышению частоты памяти видеокарты, необходимо убедиться в стабильности ее работы с новыми параметрами ядра и шейдерных блоков. С этой целью видеокарту нужно протестировать на выполнении какой-то задачи, связанной с обработкой графических данных. Прекрасным тестом стабильности является бесплатная программа FurMark.

Для проверки видеокарты устанавливаем и запускаем FurMark. В окне программы жмем кнопку «BURN-IN test» и наблюдаем за картинкой («вращающийся волосатый бублик», см. изображение). Если в течение продолжительного времени (не менее 10-15 мин.) на изображении не будет появляться никаких артефактов (мерцание, точки, мигание и другие признаки нестабильности), значит видеокарта с новыми параметрами работает нормально.

Кроме того, во время тестирования FurMark необходимо следить за температурой видеокарты . График температуры отображается в нижней части окна FurMark. Температура не должна превысить 90 градусов С.

Если появятся артефакты или температура станет слишком высокой, необходимо остановить тест (нажав кнопку Escape), немного снизить частоту видеоядра и шейдерных блоков (в программе nVidia Inspektor) и затем повторить тестирование.

Когда будет найдена оптимальная частота для ядра и шейдерных блоков, можно продолжить разгон видеокарты. Возвращаемся в окно программы nVidia Inspektor и таким же способом увеличиваем частоту памяти видеокарты (передвигаем вправо ползунок Memory Clock). После изменения параметров для вступления их в силу не забудьте нажать кнопку «Apply Clock&Voltage».

Стабильность работы видеокарты с разогнанной памятью также необходимо проверить при помощи теста FurMark. Если появятся артефакты, частоту памяти нужно снижать до достижения стабильности.

В случае с нашей подопытной GeForce GTS 450 частота памяти была увеличена на 15 % с 1804 MHz до 2075 MHz.

Определение максимальных рабочих частот для видеоядра, шейдерных блоков и памяти — это самый длительный и сложный этап разгона. После его завершения останется только немного поднять напряжение питания видеокарты чтобы обеспечить более высокую стабильность ее работы. С этой целью в окне программы nVidia Inspektor нужно немного (на 1 «шажок») сдвинуть вправо ползунок «Voltage». Для GeForce GTS 450 напряжение было увеличено с 1,075 V до 1,125 V. Для вступления изменений в силу не забываем нажать кнопку «Apply Clock&Voltage» (см. изображение выше).

Новые настройки видеокарты программа nVidia Inspektor позволяет сохранить в отдельный файл. В дальнейшем для того, чтобы быстро перевести видеокарту из обычного состояния в разогнанное, достаточно будет просто запустить этот файл.

Создадим такой файл для осуществленных нами настроек. Для этого в окне программы необходимо нажать кнопку «Creat Clocks Chortcut». Файл с настройками будет создан на рабочем столе компьютера.

Если вы хотите, чтобы ваша видеокарта автоматически разгонялась при включении компьютера , нужно добавить этот файл в папку с названием «Автозагрузка». Windows во время запуска открывает все файлы, находящиеся в этой папке, благодаря чему видеокарта будет автоматически разгоняться при включении компьютера.

В Windows XP, Vista, 7 папка «Автозагрузка» расположена в меню «Пуск». Нужно найти ее там, щелкнуть по ней правой кнопкой мышки и в появившемся меню выбрать «Открыть».

В Windows 8 и Windows 10 открыть папку «Автозагрузка» немного сложнее. Подробные рекомендации по этому вопросу расположены здесь.

Видеокарту также можно разогнать «навсегда» , то есть, сделать так, чтобы она постоянно работала на повышенных частотах графического ядра и видеопамяти без использования nVidia Inspektor или какой-то другой программы. С этой целью подходящие для нее повышенные частоты, которые были определены описанным выше способом, необходимо прошить в ее BIOS. Инструкция по перепрошивке BIOS видеокарты размещена здесь.

Читайте также:  Настройка драйверов amd видеокарты на максимальную производительность

Проверка результатов разгона

Давайте сравним основные показатели разогнанной видеокарты с показателями без разгона.

До разгона подопытная GeForce GTS 450 демонстрировала следующую продуктивность (см. выше):

• PixelFillrate — 6,3 GPixel/s;

• TextureFillrate — 25,1 GTexel/s;

• пропускная способность памяти (bandwidth) — 57,7 GB/s.

После разгона были получены следующие результаты (см. скриншот):

• PixelFillrate — 7,2 GPixel/s ( прирост 14,2% );

• TextureFillrate — 28,8 GTexel/s ( прирост 14,7% )

• пропускная способность памяти (bandwidth) — 66,4 GB/s ( прирост 15,0% ).

Для проверки прироста продуктивности в условиях, приближенных к реальным, была также использована программа 3DMark11. Это один из наиболее популярных тестов производительности графических адаптеров.

В 3DMark11 без разгона GeForce GTS 450 показала результат 2272 бала , после разгона — 2573 бала.

То есть, прирост производительности видеокарты на практике составил 13,2 % (см. скриншоты).

После разгона видеокарты

После разгона температурный режим работы видеокарты существенно изменяется в сторону повышения, что может сказаться на состоянии охлаждения остальных устройств компьютера. Кроме видеокарты в системном блоке находятся другие «греющиеся» компоненты — центральный процессор, чипсет материнской платы и др. Поэтому после разгона хотя бы на первых порах желательно тщательно отслеживать температуру всех основных устройств компьютера .

Например, можно использовать бесплатную программу SpeedFan.

Если температура какого-нибудь устройства компьютера окажется слишком высокой, необходимо позаботиться об улучшении циркуляции воздуха в корпусе системного блока, установив дополнительные кулеры (вентиляторы) на вдув и (или) выдув.

Нужно также иметь ввиду, что повышенная температура компьютера или отдельных его устройств может быть вызвана выходом из строя или засорением пылью их системы охлаждения. Порядок устранения указанных проблем описан на нашем сайте в статье о чистке и смазке кулеров.

В мире компьютерных игр в 2018 году произошло событие, которое многие эксперты отнесли к разряду революционных. Речь идет о внедрении в игры трассировки лучей.

Трассировка лучей (англ. Ray Tracing) — это технология отрисовки трехмерной графики, симулирующая физическое поведение света. Используя ее, видеокарта в точности моделирует прохождения лучей от источников освещения и их взаимодействие с объектами. При этом, учитываются свойства поверхностей объектов, на основании чего вычисляются точки начала рассеивания, особенности отражения света, возникновения теней и многое другое.

По сути, это симуляция модели человеческого зрения, которая вплотную приближает компьютерную графику к кинематографическому уровню (см. примеры).

В марте 2020 года компания Microsoft объявила о выходе новой версии графического API — DirectX 12 Ultimate (в составе крупного обновления Windows 10 20H1). Эксперты считают это значительным шагом в развитии графических технологий, способствующим массовому внедрению передовых достижений в сферу видеоигр.

Рассматривать DirectX 12 Ultimate с точки зрения разработчиков игровых приложений не будем, а попытаемся разобраться, что сулит его появление рядовому геймеру.

У каждой компьютерной игры есть определенные требования к внутренним устройствам компьютера (видеокарте, процессору объему оперативной памяти и др.). Если компьютер им не отвечает, насладиться игровым процессом вряд ли получится.

В этом каталоге можно подобрать игры с учетом как игровых предпочтений пользователя (жанр, сюжет, особенности геймплея и т.д.), так и быстродействия в них конкретного компьютерного «железа».

Онлайн-сервис сравнения характеристик видеокарт. Построен в виде сравнительной таблицы, в которую можно одновременно добавить неограниченное число графических карт, выбрав их из списка (доступно около 700 дискретных и интегрированных видеокарт nVidia, AMD и Intel).

Сервис позволяет в удобной форме сравнивать производительность видеокарт в компьютеных играх, частоту графического процессора, тип, размер и ширину шины памяти, а также другие их характеристики.

Рейтинг быстродействия и характеристики десктопных и мобильных видеокарт NVIDIA и AMD (ATI), а также графических чипов, интегрированных в процессоры и системную логику материнских плат.

Есть фильтр, позволяющий отбирать видеокарты по названию модели, разработчику, типу (мобильные, десктопные, дискретные, интегрированные), году выхода, интерфейсу подключения к материнской плате, а также требованиям к блоку питания компьютера.

DirectX — это набор библиотек, входящих в операционную систему Windows, которые используются для создания трехмерной графики. Благодаря DirectX, разработка компьютерных игр стала значительно проще. По сути, DirectX сделал Windows единоличным лидером среди операционных систем для домашних игровых компьютеров.

DirectX, как и другое программное обеспечение, постоянно усовершенствуется. Появляются все новые и новые его версии. Если какая-то компьютерная игра была создана с использованием DirectX определенной версии, для ее полноценной работы необходимо, чтобы компьютер поддерживал эту же версию DirectX или более новую.

Поддержка компьютером той или иной версии DirectX зависит от установленной на нем Windows, а также от возможностей его видеокарты.


ПОКАЗАТЬ ЕЩЕ

Источник