Меню

Одна или две видеокарты форумы



лучше одна хорошая видеокарта или две по проще?

на ультра не тянет, но на средних летает но с небольшими лагами все же, не комфортно.
делема, что лучше,2 похуже или одна хорошая видюшка?
моя мать поддержит =)

ps Хочу еще подкупить оперативки 4gb

Процессор Intel Core i5-2310 2.9GHz (TB up to 3.2GHz) 6Mb 2xDDR3-1333 HDGraphics2000 TDP-95w LGA1155 OEM
Плата Gigabyte LGA1155 GA-Z68AP-D3 Z68 4xDDR3-2133 2xPCI-E HDMI 8ch mSATA 4xSATA 2xSATA3 2USB3 RAID GLAN ATX
Видеокарта PCI-E Asus GeForce GTX 560 Ti 1024MB 256bit GDDR5 DVI miniHDMI
Память DIMM DDR3 4096MB PC10600 1333MHz Samsung

BaD_OLEG говорит:
две 7970 будет охрененно))) проверенно!) даже на 2536 1440 с маленькими просадками в пиковые моменты, на ультра

MustD1eRu говорит:
2 попроще вариант намного лучше.
Сам посуди. Беря 2 карты ты получаешь больше мощности,, чем имеет одна хорошая. Если какие-то параметры даже суммарно у двух карт будут ниже, то распараллеливание работы на 2 карты будет лучшим вариантом, посколько каждая берет лишь часть нагрузки, по сравнение с тем, что всю нагрузку вощьмет одна пусть мощная карта).
Есть лишь 2 минуса, что не все игры поддерживают sli, crossfire; и то, что поддержка эти режимов работы может быть плохо отлажена в программе.

30-40% прироста в самых оптимизированных играх 30-70% ФПС не будет постоянным. Не 100% прирост как все считают. За эти деньги лучше 1 нормальную взять, а через 3 года купить еще одну в 3 раза дешевле. SLI делают из топовых карточек когда деньги девать некуда. Нет смысла забивать комп хламом. Мало того что не получишь то на что расчитываеш, так еще и куча проблем с несовместимостью, кривыми драйверами, исчезающими текстурами и артефактами в некоторых плохо оптимизированных играх.

_Holligans_X говорит:
а памяти у тебя стоит 4 гб на двух плашках или.

_Holligans_X говорит:
А кстати какая у тебя грака сейчас стоит то .

Вообще по факту, если взять X за обозначение поколения моделей видеокарт nVidia, то 2-way SLI из X60 (где X поколение) будет быстрее любого одиночного решения X80 того же поколения. Т.е две GTX660 будут быстрее и дешевле одиночной GTX680.

В новых играх, сразу после их выхода, у SLI могут быть проблемы, пока nVidia не «запилит» новую версию драйверов, содержащую SLI-профиль для этой игры.

Продукцию AMD старательно обхожу стороной, как раз по причине раздолбайского отношения производителя к вопросу с обновлением драйверов, особенно для интегрированных решений в ноутбуках.

Читайте также:  Как проверить включена видеокарта или нет
Источник

2 видеокарты на ПК, есть ли смысл?

Мать: ASUS Z97-C
Проц: i7-4790k
Озу: 32 Gb
Две видеокарты: Asus gtx 1060 и Asus gtx 1080 ti
так же к ПК подключены:
1. Монитор ASUS ROG Strix XG32VQ к видеокарте 1080 ti
2. Монитор и ТВ LG к видеокарте 1060
3. Иногда бывает что ТВ и 2 монитора включены.

Вопросы следующие:
1. Есть ли смысл от двух видеокарт вместо одной в данной системе? ( жалко продавать-отдавать 1060 )
2. Повышается или падает производительность?
3. Какие рекомендации будут?

  • Вопрос задан более года назад
  • 2172 просмотра

Нет смысла, только расход электроэнергии выше получается.

Можно конечно выделить слабую под PhysX в играх, но и без нее 1080 отлично справится.

Артём Карелин, если вдаваться в подробности, то все равно приложения будут выполнятся на ядре основной видеокарты, и только отрисовываться на втором мониторе. Для «отрисовки» даже в 4К, хватает самой дешевой видяшки, «затычки».

Ну а если бы делали что-то, что нагружает вторую видяшку, рендер или расчеты, или фарминг в онлайн играх в два окна, то данный вопрос бы не стоял.

У меня тоже две, и вторая где-то уровня 1060. Только к ней подключено 4 монитора, и она отвечает за GPU ускорение по время ренедра видеоэффектов, чтобы пока рендер идет, я мог на основной видяшке работать без тормозов.

если вдаваться в подробности, то все равно приложения будут выполнятся на ядре основной видеокарты, и только отрисовываться на втором мониторе.

nidalee, можно раскидать, а можно и не раскидать. По умолчанию всё выполняется на основной, если надо было бы «раскидать», автор бы вопрос не задавал, а просто «раскинул». Ну или бы поинтересовался, можно ли это сделать..

Так «точно» можно «раскидать» дискретные, или «скорее всего» ? 🙂

1 — есть, если знаете что с ними делать
2 — обобщенная — нет. но надо понимать что софт обученный использовать GPU как многоядерный калькулятор, будет пользоваться обеими картами на ура. пример — майнеры крипты (народ носился впоисках материнок с возможность подключения множества видюх — 20 карт через ризеры 😉 из «обычного софта» — браузеры. да да, будут пользовать. Excel — начиная с 2016 (а может и раньше) был замечен, что если выводим экран через интегрированну графику, а на НВидии в фоне маним — так вот эхель начинает жутко тупить. ему надо отдать кусок ресурсов от фоновой карты, что бы ожил. у вас конечно запас очень большой для запросов бораузеров и ехеля, но общая тенденция в том, что все больше софта умеет использовать GPU, тот же ACAD, на серьезных задачах, схавает обе ваши карты глазом не моргнув
3 — а это уж сами решайте ))

Читайте также:  Какая видеокарта самая слабая

ps о расходе — нет загрузки, нет и особо ощутимого расхода
pps о софте пользующем GPU — проф софт для видео/аудио монтажа, ACAD и любой другой современный продвинутый CAD софт, математические пакеты типа Wolfram Mathematica, пакеты работающие с нейронными сетями. в общем практически любой современный софт, жадный до вычислительных ресурсов. даже для СУБД PostgreSQL существует расширение PG-Strom для расчетов на GPU (MS SQL начиная с 2017, так же умеет использовать GPU но пока только в модуле «машинного обучения»)

Источник

Две видеокарты: одна для нагрузки, другая для вывода. Можно ли закостылить?

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Т.к. вы неавторизованы на сайте. Войти.

Начиная с Windows 10 1803, Microsoft реализовала подобие технологии Optimus, знакомой владельцам ноутбуков. Рендеринг в тяжёлых приложениях осуществляет дискретная видеокарта, а за вывод изображений и обработку 2D отвечает встроенное видеоядро процессора. Видеопоток передаётся по шине PCI-E, выводится через видеовыход материнской платы.

Отсюда вытекают следующие системные требования:

— Windows 10 1803 или новее

— платформа Intel как минимум 4 поколения (Haswell) или AMD Ryzen 2200G/2400G, Athlon 240GE, 220GE, 200GE. Есть подтверждения успешной работы на более старых APU (в частности A10-7870K)

— со слов продавца: не заработает на материнских платах H81/B85/Z87 (т.е. 4 поколения) производства ASUS

— наличие слота PCI-E x16. Версия роли не играет, ведь карта в любом случае работает в режиме 1.1, а вот количество линий очень важно, ведь по шине не только происходит обмен данными с процессором, но и передаётся видеопоток. PCI-E 1.0 x16 по пропускной способности и без того эквивалентна всего лишь PCI-E 3.0 x4. Ещё большее снижение пропускной способности (например, если использовать слот x8) драматически скажется на производительности.

Источник

Две видеокарты

dushyn #1 Отправлено 13 янв 2016 — 10:27

Shadow_punk #2 Отправлено 13 янв 2016 — 10:32

Сегодня в рандоме встретил парня, который хвастался двумя 980-ми в sli-режиме и имел 140 фпс. Его конфигурации не знаю, но моя 960 4gb + 4670k выдают мне 100-110 фпса.

Читайте также:  Как увеличить файл подкачки для видеокарты на ноутбуке

Может быть вторая видеокарта раскроет себя, если в планах есть стримы.

Esthetix #3 Отправлено 13 янв 2016 — 10:32

год назад ставил — сейчас не в курсе, может и пофиксили

Nebuchadnezzar52ru #4 Отправлено 13 янв 2016 — 10:53

Сообщение отредактировал Nebuchadnezzar52ru: 13 янв 2016 — 10:53

TlOBAP_PAKOB #5 Отправлено 13 янв 2016 — 10:55

dushyn #6 Отправлено 13 янв 2016 — 10:57

Shadow_punk (13 Янв 2016 — 07:32) писал:

Сегодня в рандоме встретил парня, который хвастался двумя 980-ми в sli-режиме и имел 140 фпс. Его конфигурации не знаю, но моя 960 4gb + 4670k выдают мне 100-110 фпса.

Может быть вторая видеокарта раскроет себя, если в планах есть стримы.

в планах стримов нет.но хотелось бы иметь процент фпс с запасом на пару лет

_WORLDofTANKS_NAGIBATOR_ #7 Отправлено 13 янв 2016 — 11:02

У меня видеокарта GеFORSE 750Ti. Карта служит уже 3 года. Немного её разогнал. На разных картах показания фпс по разному. Фпс стабильно 110-120. Надо просто знать настройки своей видеокарты и самой игры. Настройки для комфортной игры в танках делал как в игре так и через программу управления NVIDIA. Есть там хитрые моменты. О которых мало кто знает. Помогал еще соклановцам повысить фпс.

Лично моё мнение: смысл покупать и ставить вторую видеокарту не вижу. Бесполезная трата денег. Впрочем каждому своё.

AD05 #8 Отправлено 13 янв 2016 — 11:17

2012 май: Скил — это естественное преимущество. Отрастил скил — имеешь право нагибать (с) Serb

2016: Из рекламы Word of Tanks [Недетская игра] – “Погнали! Валера, Валера, Валера! Нет, Валера, н*с*ы ему в дуло! Где эта г*и*а ? Г*и*а , г*и*а , г*и*а! Вот она! Н-на! О-хо-хо.”

2017: Е сли скиллозависимость будет заметно увеличиваться, то . . . всем, кто не является . . . поднаторевшими и оснащенными, придется согласиться с ролью мальчиков для битья, чего мы для большинства игроков не хотим. (с) Reytar1979

2019: Если повезёт, то соберёте с помощью коллайдера, а если нет — всегда есть возможность приобрести большие коробки . (с) ADckii

Источник