Меню

Поддерживает ли моя видеокарта full hd



Минимально необходимая видеокарта для просмотра фильмов в Full HD

Использую системник со встроенной видюхой. Появилась потребность воспроизводить фильмы в разрешении 1920х1080(Full HD). При воспроизведении таких видеозаписей появляются проблемы с изображением. Когда втыкаешь внешний видеоадаптер: Asus на чипе G-force 650 TI(попросил у друга) — проблемы пропадают. Соответственно — проблемы возникают из-за низкой производительности видеокарты.

Собственно вопрос: какой видеокарты будет достаточно, чтобы смотреть фильмы в Full HD? Брать 650ую только для просмотров фильмов считаю дороговато. Не будет проблем на 610 серии например?

  • рядовой пользователь

  • Группа: Пользователи
  • Сообщений: 259

Сообщение отредактировал KOV1970: 21.12.2013 — 18:43

  • местный

  • Группа: Пользователи
  • Сообщений: 17 693

А что сейчас за система (проц, видео)? Если современная, то должно и интегрированной хватить, если более старая, то 610-й будет для фильмов достаточно.

KOV1970 (21.12.2013 — 19:42) :

Источник

Лучшая видеокарта в 2019г для 1080p, 1440p и 4K

Лучшая видеокарта в 2019г: лучшие графические процессоры для 1080p, 1440p и 4K

Когда 2018 год подошел к концу, настало время начать с нетерпением ждать лучших видеокарт 2019 года. Это были бурные двенадцать месяцев — в первой половине года наблюдалась продолжительная засуха видеокарт и небывалые цены из-за криптографии.

Майнеры выгребли все последние GPU на планете. А во второй половине года появилось несколько новых видеокарт. Например как трио Turing RTX от Nvidia и AMD Radeon RX 590.

Однако старые RX и GTX Guard все еще крепки. Что означает, что у нас больше графических карт, чем когда-либо прежде. К счастью, я собрал это удобное руководство, чтобы помочь вам найти лучшую видеокарту для вас и вашего бюджета. Будь то игры в формате 1920 × 1080, 2560 × 1440 или 4K, у меня есть рекомендации для карт.

Как выбрать видеокарту в 2019 году

Вот правила. Для каждого разрешения вы найдете две рекомендации: лучшая видеокарта для игр с частотой 60 кадров в секунду. Причем при максимальных настройках при указанном разрешении. А также карта, которую вы хотите купить, если не сомневаетесь в наличии более лучшей графики.

Таким образом, список покрывает как ограниченный бюджет, так и тех, кто предпочел бы потратить немного больше. Чтобы максимально использовать свои текущие настройки монитора.

Что касается конкретной видеокарты, которую вы можете купить, это немного сложнее определить. Более дорогие карты, как правило, имеют превосходные, настраиваемые механизмы охлаждения. Или немного более быструю заводскую разгонную скорость.

Но с точки зрения увеличения производительности вы действительно видите разницу. И только в паре кадров в секунду — как показывают многие тесты.

Я советую просто выбрать самый дешевый вариант, который вы можете найти. Поскольку я просто не уверен, что вы действительно получаете гораздо больше за свои деньги, выбрав более дорогую карту.

Если вы создаете ПК mini-ITX, вы также захотите взглянуть на «мини» версии некоторых карт. На которых, как правило, специализируется Zotac.

Они часто имеют меньший или один вентилятор. А не два, делая их немного менее эффективными, чем обычные модели. Но они являются отличной альтернативой для небольших ПК. Или для тех, кто хочет сэкономить немного денег.

Лучшая видеокарта для 1080p: Nvidia GeForce GTX 1060 или AMD Radeon RX 580

Что вы действительно должны купить: Nvidia GeForce GTX 1050Ti или AMD Radeon RX 570

Если вы хотите играть в игры с максимальными настройками 1920 × 1080. То вам подойдет 6-гигабайтная версия GeForce GTX 1060 от Nvidia или 8 ГБ AMD Radeon RX 580.

Конечно, есть более дешевые версии на 3 ГБ для моделей GTX 1060 и 4 ГБ для RX 580. Но с точки зрения того, чтобы дать себе возможность защитить себя от постоянно растущих требований к памяти современных больших блокбастеров, 6 ГБ / 8 ГБ добавят уверенности. Вы будете намного лучше себя чувствовать в последующие годы.

Обе карты способны справиться практически со всеми играми, доступными сегодня. Причем при максимальных или очень высоких настройках при этом разрешении, что делает их нашими лучшими выборщиками для безупречной игры с разрешением 1080p.

Прямо сейчас вы также получаете две бесплатные игры с RX 580 (из Devil May Cry 5, нового римейка Resident Evil 2 и The Division 2). Что, возможно, делает ее лучше в целом. Чем та-же GTX 1060, которая только дает вам бесплатную копию Monster Hunter: World и комплект снаряжения от Fortnite.

Читайте также:  Как вернуть прежнюю версию драйверов видеокарты

Бюджетный вариант

Тем не менее, для тех, кто предпочитает не тратить много на видеокарту, 4Гб Nvidia GeForce GTX 1050Ti или 8Гб AMD Radeon RX 570 прекрасно подойдут.

Скромные 768 ядер GTX 1050Ti проделали удивительную работу, подтолкнув ее к заметно более высоким уровням производительности. Чем даже на обычных GTX 1050 или AMD Radeon RX 560. В то время как RX 570 поставляется с более удобными 8 ГБ памяти для перспективного будущего.

Пока вы придерживаетесь 1080p, во многих играх достигается определенная гладкость с максимальным качеством. В то время как более жесткие игры обычно можно приручить с настройками Medium.

RX 570 является новым дополнением к этой категории. Так как до недавнего времени карта был почти такой же дорогой, как и RX 580. Что делало ее довольно глупым выбором. Особенно когда ее значительно более мощный родной брат стоил лишь немного дороже.

Тем не менее, при нынешних низких ценах модель на 8 ГБ теперь гораздо лучше подходит для игр 1080p. Например чем шесть месяцев назад. Она не так энергоэффективена, как GTX 1050Ti. Для видеокарты требуется кабель питания от блока питания. Вместо того, чтобы подключать ее прямо к материнской плате.

Но карта поставляется с дополнительным бонусом тех же двух бесплатных игр, что и RX 580. GTX 1050Ti, с другой стороны, сейчас не идет вообще с бесплатными игровыми пакетами.

Лучшая видеокарта для 1440p: Nvidia GeForce GTX 1070Ti или AMD Radeon Vega 56

Что вы действительно должны купить: Nvidia GeForce GTX 1060 или AMD Radeon RX 590.

Для получения наилучших результатов при 2560 × 1440 карта Nvidia GeForce GTX 1070Ti. Или AMD Radeon RX Vega 56 — это именно то, что вам нужно.

Первую можно приобрести практически за ту же цену, что и обычную Nvidia GeForce GTX 1070. А ее 2432 ядра CUDA дадут вам гораздо больше удовольствия, чем 1920, которые вы можете найти у ее не родного брата.

Что касается Vega 56, то в некоторых случаях она немного менее мощная, чем GTX 1070Ti. Но она поставляется с тремя бесплатными играми,упомянутыми выше. Что делает ее более выгодной в целом. GTX 1070Ti, тем не менее, все еще использует только тот же набор, что и GTX 1060. Monster Hunter и Fortnite.

Единственная проблема, конечно, заключается в том, что обе они по-прежнему намного дороже, чем следующие варианты. RX 590 и GTX 1060.

Бюджетный вариант

GTX 1070Ti и Vega 56, вероятно, являются достойными вложениями, если вы думаете об Обновлении до 4K-монитора в скором будущем. Так как они обе могут выполнять крошечную часть 4K-игр без багов.

Но на самом деле, те из вас, кто не так стеснен в достижении максимального качества, должны просто выбрать 6GB Nvidia GTX 1060. Или AMD RX 590.

Обе эти карты являются отличными компаньонами для игр с разрешением 1440p. А также с максимальным разрешением 1080p. И они обойдутся вам примерно вдвое меньше, чем GTX 1070Ti.

RX 580 также является хорошим выбором, если вы не можете полностью перейти на RX 590. Но новейшая видеокарта AMD, безусловно, лучшая среди среднего класса, которую вы можете купить прямо сейчас.

Во многих моих тестах производительности она показывал себя значительно лучше. Чем например GTX 1060 и RX 580. И даже могла сделать легкий заход на 4K в тех местах, на которые GTX 1060 просто не была способна.

Мы обнаружили, что GTX 1060 все еще выигрывает как лучшая карта для виртуальной реальности. Но RX 590 еще больше усугубляет сделку с довольно хорошими тремя бесплатными играми. Что может помочь свести на нет дополнительные расходы. В зависимости от того, хотите ли вы эти игры. Ведь торренты то никто не отменял 🙂

Лучшая видеокарта для 4K: Nvidia GeForce RTX 2080Ti

Что вы действительно должны купить: Nvidia GeForce RTX 2070. Или AMD Radeon Vega 64.

Это нелепо дорого, но если у вас есть деньги и вы стремитесь получить лучшее из того, что предлагает 4K, то Nvidia GeForce RTX 2080Ti — единственная карта на данный момент, которая может делать плавные плавные 60 кадров в секунду при 4K на макс. настройки без компромиссов.

Читайте также:  Самая лучшая мобильная видеокарта для

Вы также сможете воспользоваться всеми лучшими функциями Turing от Nvidia. По мере того, как разработчики в конечном итоге внесут исправления в поддержку всех подтвержденных игр с поддержкой RTX и DLSS. И вам, вероятно, не придется обновлять видеокарту в течение значительного числа лет.

Дело в том, что вы все равно можете получить довольно хороший игровой опыт 4K почти за столько же денег. До недавнего времени я рекомендовал придерживаться GTX 1080, но цены с тех пор резко возросли, и запасы для этой карты становятся все более скудными, что делает RTX 2070 гораздо лучшим предложением для будущих 4K-игроков.

Бюджетный вариант

RTX 2070 также на несколько быстрее, чем GTX 1080, плюс она делает все аккуратные фишки, связанные с Тьюрингом, как RTX 2080Ti. И поставляется с бесплатной копией Battlefield V, чтобы продемонстрировать все это.

В некоторых играх может потребоваться установить средние и высокие настройки на 4K. Но есть еще множество других игр, которые могут достичь максимальной скорости 60 кадров в секунду с этой картой. Что делает ее гораздо более выгодной, чем ее смехотворно дорогой брат.

Однако для тех, кто ищет еще более дешевый способ получить приличный опыт работы в 4K. И лучшая видеокарта от AMD, Radeon Vega 64. Также наконец-то она и подешевела.

Она была более или менее сравнима с GTX 1080. Поэтому она не такая мощная, как у RTX 2070. Но ее более дешевая цена плюс те же три бесплатных соглашения о играх, доступных с RX 590, — в общем хороший вариант. Разумеется что все эти игры вам реально нужны. Можно и у друга взять… На этом все, спасибо за внимание.

Источник

Проверить, сможет ли видеокарта поддерживать 144Гц

Видеокарта не разгоняется при 144гц
Здравствуйте. Сегодня при включении компьютера обнаружил интересную проблему. Прямо на экране стали.

Сможет ли видеокарта работать на данном процессоре
Есть процессор Athlon II X4 651 3 МГц, 4 ядра, Socket FM1. Сможет ли видеокарта GTX 950 нагружаться.

Как проверить, подходит ли мне видеокарта?
Как проверить подойдет ли мне видяха єта видяха .

Как можно проверить, исправна ли видеокарта
Привет всем. Люди добрые, подскажите пж, как можно проверить сгорела видюха или нет. Добавлено.

Спасибо !

Тогда как по поводу частоты обновления кадров . Эта характеристика чем поддерживается ?

P.S. Прошу пояснить . А то я начитался по сайтам , а ясности нет ! Ни у кого нет четкого, ясного изложения .

Сможет ли монитор ЖК BENQ Zowie XL2411 работать на частоте 144 Гц ( частота обновления экрана ) , если подключить его к видеокарте Nvidia Geforce GTX650 1024M GDDR5 128B CRT DVI mHDMI ?

Вот это я не понимаю ? Что это ?

Р.S. Буду искать эту рева хдма для 650 карты , разбираться дальше !

Если я Вас правильно понял под ХДМА имеется ввиду HDMI .

Дело в том , что на видеокарте Nvidia Geforce GTX650 ( полное ее название , которое я списал с этикетки Nvidia Geforce GTX650 1024M GDDR5 128B CRT DVI mHDMI ) три разъема : VGA, DVI-D, mHDMI ( mHDMI это кажется мини HDMI, точно не знаю. Замерял его длину 13 мм ).

На мониторе ЖК BENQ Zowie XL2411 ( https://zowie.benq.com/en/prod. l2411.html ;
https://www.dns-shop.ru/produc. hlellbrbe/ ) видеовход HDMI
Поэтому целесообразнее наверное здесь использовать видеовход DVI-D, который есть и на видеокарте . А то прийдется использовать переходник для HDMI — mHDMI, а это возможно приведет к ухудшению передаваемых характеристик сигнала .

P.S. Возможно некоторые моменты я не правильно понимаю . Подскажите , что не так ?

К сожалению сотрудник NVIDIA , сегодня 3 января в 15.20 http://www.nvidia.ru/object/support-ru.html , на этот вопрос не смог ответить . КАК ПОДДЕРЖИВАЕТСЯ ЧАСТОТА ОБНОВЛЕНИЯ ЭКРАНА . Ответил , что необходимо отправить запрос в США !

Мой труд , почти несколько недель , дает свои положительные результаты Может быть найдется основательный , аргументированный ОТВЕТ . А не набор слов, по принципу что-то СКАЗАТЬ. К сожалению сложилось так по этому вопросу т.к. нигде нет глубины . Поверхностно и путанно дается информация .

Читайте также:  Видеокарта geforce не отвечает видеодрайвер

Мои рекомендации — процессор не слабее Ryzen 5 1500 и видеокарта не слабее GTX 1060 3GB. Вариант с Intel (не ниже i5-8400) даст максимальный FPS немного выше, однако минимальный может быть меньше, чем у многопоточного Ryzen. При этом результат будет варьироваться от одной игры к другой. Разгон тоже желателен, а это в бюджетном секторе прерогатива AMD. GTX 1060 6 ГБ будет уже излишеством, поскольку нам важнее мощность, а не объём памяти — папский конфиг с низкими текстурами сделает потребление этой самой памяти минимальным, а вот ресурс видеочипа будет под нагрузкой постоянно.

Итого — стоит ли брать 144 Гц монитор, если ваша сборка недорогая или среднебюджетная? Да, если вы хотите играть в старые 3D-игры с новыми ощущениями или хотите начать свой путь в киберспорте. Вам придётся пожертвовать графическими приблудами и порой страдать от дёрганных кадров, но оно того стоит. Важнее всего понимать, что вам это действительно нужно.

WyPik,Такое ощущение что вы просто не любите амд, зачем флудить если не хватает знаний помочь? Сравнивать 1500x с 8 поколением интел, вам самому-то не стыдно?

1. Монитор BENQ Zowie XL2411 поддерживает работу на 144 Гц
2. Для работы монитора на этой частоте, нужно подключить монитор и видеокарту через displayport
3. Чтобы монитор выдавал 144 герца, иногда надо включить этот режим в настройках монитора, «из коробки» монитор не всегда работает в этом режиме, в половине случаев по умолчанию стоит 60 Гц .
4. Для отображения 144 кадров на мониторе, необходимо чтобы в игре у вас было минимум 144 fps (frame per second).

А теперь более подробно о fps. FPS это количество фреймов в секунду, именно столько кадров в секунду выдает видеокарта для отображения на экран. В играх, вышедших за последние годы, чтобы добиться 144 fps, необходимо либо понижать настройки графики, либо иметь достаточно хорошую видеокарту. Если, допустим у вас монитор 144Гц а видеокарта выдает только 120fps вы будете видеть только 120 кадров в секунду но с частотой 140 Гц. То есть вы упретесь в производительность видеокарты (в редких случаях процессора). Вообще, на мониторе 144 Гц играя на 120 fps вы уже ощутите разницу по сравнению с 60 fps. Чтобы узнать свой фпс, можно скачать программы наподобие rivatuner, благо в интернете их много, хотя в некоторых играх в настройках, можно включить счетчик fps (например в Rise of the Tomb Raider)

Другой вопрос для чего это нужно, выигрышная миллисекунд в онлайн шутерах, более точный контроль мыши в тех же шутерах, более плавная картинка в гонках, стрелялках и все. Получается технология для киберкотлет и любителей кс го и похожих игр, имхо конечно. Многие кто сидит на таких мониках, говорят что на 144гц комфортней, и когда при игре происходит экшен на экране, картинка идет более плавно.
Есть еще 1 нюанс, если вы хотите играть на ультрах в 144Гц, вряд ли стоит брать 4к мониторы, максимум 2к, а лучше пока остаться на fullhd, опять же имхо. Почему? Меньше нагрузка на видеокарту\проц, больше fps, больше вероятность что на вашей видеокарте запустится игра с этим разрешением на ультрах. Даже 2080 super в 4к в некоторых играх выдает 90-100 fps, так что думаю лучше играть в fullhd на ультрах с 200 fps и 144гц, чем в 4к на средних настройках чтобы добиться тех же 144-200 fps для своего 144Гц монитора.

Ну и на последок как итог. Для отображения «честных» 144 Гц на экране монитора необходимо, монитор поддерживающий режим 144Гц, шнур displayport, более менее свежую видеокарту с разъемом displayport, более менее свежий системный блок под эту видеокарту, для стабильного 144 fps в играх.

Для того чтобы «посмотреть» что такое монитор 144 Гц хватит и 120 fps в играх (возможно и меньше, 120 просто как пример) есть люди которые кстати разницу не видят, но вернувшись на 60 герцовый монитор, понимают что чего-то не хватает.

Источник