Меню

Сколько лет видеокарте nvidia



Краткая история компании NVIDIA в видеокартах GeForce серий GT, GTX и RTX

Краткая история компании NVIDIA в видеокартах GeForce серий GT, GTX и RTX

реклама

NVIDIA Corporation — американская технологическая компания, разработчик графических процессоров и систем-на-чипе (SoC). Разработки NVIDIA получили распространение в индустрии видеоигр, сфере профессиональной визуализации, области высокопроизводительных вычислений и автомобильной промышленности, где бортовые компьютеры NVIDIA используются в качестве основы для беспилотных автомобилей. Важным приоритетом для компании также является рынок искусственного интеллекта (ИИ).

Компания была основана в 1993 году. На III квартал 2018 года NVIDIA была крупнейшим в мире производителем PC-совместимой дискретной графики с долей 74,3% (статистика включает все графические процессоры, доступные для прямой покупки конечными пользователями — GeForce, Quadro и ускорители вычислений на базе GPU Tesla). По состоянию на январь 2018 года численность сотрудников превышала 11,5 тысяч человек. Штаб-квартира компании находится в городе Санта-Клара, штат Калифорния (США).

Желаю всем приятного просмотра!

реклама

Ещё больше интересного материала, качественного косплея и превосходных артов вы сможете найти здесь!

реклама

NV 1. Первый графический 3D-ускоритель от NVIDIA, выпущен в 1995 году.

реклама

Примечательная особенность данной карты состоит как в необычном подходе с 3D-рендерингом, когда использовались Quadratic Texture Maps, вместо привычных нынче полигонов, так и в наличии микросхемы, отвечавшей за обработку звука.

Riva 128/128ZX. В 1997 году компанией был выпущен второй графический чип, основанный на 350-нм техпроцессе, сыскавший звание «народного».

Название RIVA является акронимом Real-time Interactive Video and Animation, а цифра 128 указывает на разрядность шины. Главной «фишкой» GPU является технология рендеринга, основанной на квадратическом маппинге текстур, который не поддерживался в Direct3D.

В 1998 году была выпущена Riva TNT — комбинированный 2D/3D ускоритель

Суффикс TNT означал, что чип способен работать с двумя текселями одновременно, а TNT сокращение от TwiN Texel. Для справки: Тексель это минимальная единица текстуры 3D объекта, а пиксель наименьшая единица текстуры 2D объекта.

Riva TNT2
В начале 1999 года компания NVIDIA начала производство графического процессора пятого поколения.

Riva TNT2 была доработанным вариантом TNT: добавлена поддержка AGP интерфейса, техпроцесс уменьшился до 250-нм, а частота чипа выросла с 90 до 150 мегагерц.

GeForce 256
Всё в том же 1999 году появился первый GPU из линейки GeForce.

Название GeForce появилось в результате конкурса, который проводился компанией. Главной фишкой GeForce 256 являлось наличие встроенного геометрического процессора, а также появился аппаратный блок трансформации и освещения (T&L). Кроме того именно с GeForce 256 началось использование самой быстрой на тот момент памяти DDR.

GeForce 2
В 2000 году на свет появился новый графический процессор, ядро которого было самым совершенным и производительным на то время.

Всего на базе GeForce 2 появилось более десятка модификаций, отличавшихся друг от друга разными частотами и шириной шины памяти. Именно в линейке GeForce 2 появились первые вариации для старшего модельного ряда, обозначенные суффиксом Ti — Titanium. Основу бюджетной линейки составляли карты с приставкой MX. К слову, в основу первого чипсета для материнских плат nForce легли именно GeForce 2 MX.

Следуя своему 6-месячному циклу, уже в 2001 году, компанией было представлено новое поколение графических процессоров — GeForce 3.

Следует отметить, что в отличие от GeForce 2, у GeForce 3 не было GPU начального уровня, все вариации обладали высокими на тот момент частотами, 256-битной шириной шины памяти, а также 128 битной DDR памятью. Тогда же появился шейдерный движок nfiniteFX.

GeForce 4
В 2002 году появилось четвертое поколение видеокарт GeForce, под этим именем выпускалось две линейки карт, Ti – высокопроизводительные, и бюджетные с приставкой MX.

И если старшая линейка GF4 продолжала развивать архитектуру GeForce 3, то бюджетная линейка ограничилась архитектурой GeForce 2. Ядро бюджетной модели GeForce 4 MX легло в основу чипсета nForce 2.

GeForce FX. Пятое поколение процессоров GeForce появилось в 2003 году.

Приставке FX карты обязаны новой версии шейдеров Shader Model 2.0, на тот момент продвигавшими графику на новый кинематографический уровень.

GeForce 6. В 2004 году появилось шестое поколение микропроцессоров от компании NVIDIA.

Примечательной особенностью GeForce 6 являлась обработка видео PureVideo, наличие технологии SLI, а также поддержка Shader Model 3.0.

GeForce 7
Седьмое поколение графических процессоров NVIDIA появилось в 2005 году.

Линейка GeForce 7 не привнесла каких-либо революционных нововведений, однако вполне успешно продолжила развивать заложенные технологии в GeForce 6. Например, за счет изменений в поточно-конвейерной архитектуре удалось добиться повышения производительности в полтора раза, при том же количестве потоковых конвейеров.

GeForce 8
В 2006 году состоялся выпуск восьмой серии графических акселераторов GeForce.

Эта серия имела унифицированную шейдерную архитектуру, благодаря которой изменилось представление о специализированном графическом конвейере. Например, унифицированные процессоры могли проводить как геометрические, так и пиксельные, вершинные и даже физические рассчеты. Также GeForce 8 дал свет программно-аппаратной архитектуре параллельных вычислений, которая называется CUDA (Compute Unified Device Architecture).

В 2008 году появилось девятое поколение графических процессоров GeForce 9.

Новый графический чип использовал доработанную архитектуру Tesla, заложенную в предыдущей модели карт GeForce 8. Следует отметить, что эта архитектура послужила базой для карт серий: GeForce 8, GeForce 9, GeForce 100, GeForce 200 и даже GeForce 300, настолько успешной на тот момент оказалась Tesla. Относительно GeForce 9 примечательной особенностью было очередное уменьшение техпроцесса до 65нм, а позднее и до 55нм, что положительно сказалось на габаритах печатных плат, а также на энергоэффективности конечного решения.

Читайте также:  Чем контролировать температуру видеокарты

GeForce 100
В 2009 году появилось десятое поколение графических процессоров семейства GeForce.

Самой младшей в линейке являлись карты сотой серии, о которых мало кто слышал у нас, по причине нацеленности карт на ОЕМ-рынок. Относительно технических характеристик, то G150 были урезаны вдвое относительно GTX9800, GT130 были немногим лучше GeForce 9600GSO, а G100 являлась картой начального уровня и уступала в возможностях GT9400.

GeForce 200
Всё в том же 2009 году на рынке появилось логическое продолжение карт 9 серии в лице GeForce 200.

Первыми свет увидели GTX 280 и GTX 250, которые поддерживали технологию CUDA версии 2.0, PhysX а также улучшенную PureVideo с поддержкой декодирования видео в формате H.264, VC-1 и MPEG-2. Кроме того картами поддерживался DirectX 10 и Shader Model 4.0. Позже вышедшие 210/G210, GT 220 и GT240 получили поддержку DirectX 10.1 и Shader Model 4.1

GeForce 400
В 2010 году появилось новое поколение графических процессоров, основанное на архитектуре NVIDIA Fermi, первом ускорителе в арсенале компании с поддержкой DirectX 11.

Примечательной особенностью чипа является поддержка технологий DirectCompute и OpenCL, позволяющих проводить вычисления компьютерной графики при помощи графического процессора. Также появилась поддержка Shader Model 5.0

GeForce 500
В 2010 году компания продолжила развивать архитектуру Fermi.

Графический процессор получил поддержку технологий: 3D Vision Surround, CUDA, PhysX, а также 3-Way SLI. Карты на базе GTX 590 получили поддержку NVIDIA Quad SLI. Следует отметить, что улучшения коснулись не только новых технологий, но и была проведена работа по повышению общей производительности, а также по снижению энергопотребления, по сравнению с картами предыдущего поколения.

GeForce 600
В 2012 году, спустя два года после своего анонса, миру были представлены первые графические процессоры на основе новой архитектуры Kepler.

Новая архитектура подразумевала под собой не только ряд нововведений, среди которых есть технология GPU Boost, динамически управляющая частотой чипа, но и поддержка Nvidia TXAA. Однако самой главной особенностью 600 серии является переход на 28нм техпроцесс, что благоприятно сказывается на эргономичности и энерегоэффективности конечных решений. К слову, карты 600 серии получили поддержку не только DirectX 11.0, но и частично еще не вышедшей DirectX 12

GeForce 700
В 2013 году появились карты семейства GeForce 700, которые были представлены как на базе предыдущей архитектуры Kepler, так и новейшего Maxwell.

Следует отметить, что первыми ласточками в 700 серии стали карты GeForce GTX Titan и GTX 780 — флагманские карты, демонстрирующие всю мощь архитектуры Kepler. В 2014 году начали выходить карты GeForce GTX 750 и GTX 750 Ti на основе архитектуры Maxwell. Основной фишкой архитектуры можно назвать как динамическое разрешение для сглаживания неровностей без ущерба производительности, так и развитие технологии CUDA. Совместимость с DirectX 12 является немаловажным фактором как для геймеров, так и для разработчиков.

GeForce 900
Новейшая линейка видеокарт 900 серии основана на архитектуре Maxwell.

На данном этапе на рынке представлены две карты высшего ценового диапазона, относящихся к 900 серии — это GTX 970 и 980, а также среднего ценового диапазона GTX 960. Энергоэффективность на ватт у карт существенно возросла в отношении предшествующей линейки карт, а также снизилась теплоотдача, что выгодно сказалось на температурных режимах.

GeForce GTX 10 — Совершенство для игр

8 июля 2016 года была представлена видеокарта среднего ценового диапазона GeForce GTX 1060, сопоставимая по производительности с GeForce GTX 980, но потребляющая намного меньше энергии.

22 июля 2016 года компания NVIDIA представила профессиональную видеокарту NVIDIA TITAN X (Pascal) (не путать с видеокартой предыдущего поколения GeForce GTX Titan X (GM200), однако она не относится к игровой серии видеокарт, несмотря на то, что она основана на новом флагманском чипе GP102. Однако по обещаниям компании в дальнейшем должен выйти игровой аналог новинки.

1 марта 2017 года в ходе мероприятия GDC 2017 компания NVIDIA представила видеокарту GeForce GTX 1080 Ti, которую глава компании назвал самым мощным игровым графическим ускорителем в мире. По словам NVIDIA, новинка на 35 % производительнее GeForce GTX 1080 и обходит даже Titan X Pascal.

GeForce RTX 20 Series — семейство графических процессоров NVIDIA, представленное 20 августа 2018 в рамках конференции Gamescom. Чипы семейства GeForce RTX 20 основаны на новой архитектуре Turing, названной в честь английского математика, логика и криптографа Алана Тьюринга. Заявлено увеличение производительности до 6 раз в области трассировки лучей по сравнению с графическими процессорами предыдущего поколения. В продаже с 20 сентября 2018 года.

Серия GeForce RTX 20 поддерживает трассировку лучей в реальном времени, которая реализована с помощью новых RT-ядер. Для увеличения детализации изображения используются решения на базе искусственного интеллекта

Ещё больше интересного материала, качественного косплея и превосходных артов вы сможете найти здесь!

А какой была ваша первая видеокарта?

Источник

История видеокарт начала нулевых: ATI vs Nvidia


Предыдущую статью мы закончили на банкротстве 3dfx и поднятии ATI. Теперь же мы поговорим о том, как боролись друг с другом Nvidia и ATI в начале 21 века.

Nvidia NV15 — как NV10, только лучше

NV15, вышедший в 2000 году, представлял собой улучшенный чип NV10: из-за перевода на более тонкий техпроцесс, 180 нм, получилось поднять частоту почти вдвое, до 200 МГц, а количество транзисторов до 25 млн. Про объединенную шейдерную архитектуру тогда еще никто не слышал, и чип включал в себя 4 пиксельных конвейера и 8 текстурных модулей (по 2 на конвейер). Также никуда не делась поддержка T&L, она была доработана, что в итоге привело к повышению производительности на 30% при отрисовке теней и геометрии. С поддержкой API почти ничего нового — Direct3D все также был 7, а OpenGL поддерживался чуть более новый — вплоть до 1.4.

Читайте также:  Видеокарта печ 1050 ti 4gb

Первой видеокартой на чипе стала GeForce 2 GTS (GigaTexel Shading), которая имела 32-64 МБ SGRAM памяти с частотой в 333 МГц, подключенной по 128-битной шине. Очень странно, что Nvidia в 2000 году решила использовать достаточно старую уже память, да и еще подключенную по узкой шине — именно память оказалась узким местом видеокарты, но все еще ее производительность была в среднем на 40% выше, чем у предшественницы — GeForce 256.

Пожалуй, именно с линейки GeForce 2 начался дикий зоопарк видеокарт от Nvidia: после выхода GTS была представлена уже ставшей стандартной урезанная видеокарта MX: она зачастую имела 64-битную шину, сниженные частоты ядра и памяти — в общем, low-сегмент. Дальше Nvidia представила топ — GeForce 2 Ultra (250 МГц чип, 460 МГц память). Через полгода появилась видеокарта Pro, которая отличалась от GTS лишь слегка разогнанной памятью — до 400 МГц. И еще через полгода появилась версия Ti (к слову — единственная, дожившая до наших дней) — она имела частоты чипа как у Ultra, а памяти — как у Pro. В итоге на рынке было одно явно слабое решение и четыре видеокарты, которые отличались от силы на 15% — крайне странное решение.

К слову, именно в линейке GeForce 2 Nvidia обращает внимание на рынок мобильных дискретных видеокарт — так появляется линейка Go, которая основана на чипе NV11. Он представляет из себя урезанный чип NV15 с тепловыделением всего 3 Вт — как раз для ноутбуков. Также не забыта линейка Quadro — для нее был разработан чип NV15GL.

ATI RV100 и R200

Как мы помним, в 2000 году ATI представила отличный чип R100, который позволил им встать на одну ступеньку с Nvidia. Разумеется, «красные» не стали останавливаться на достигнутом — сначала был выпущен чип RV200, который представлял собой R100, но на более тонком техпроцессе — 150 нм против 180, что позволило серьезно поднять частоты. Также видеокарты на этом чипе (Radeon 7500) стали комплектоваться уже 128 МБ памяти и конкурировали с GeForce 2 Ti.

Тогда же, увидев, что Nvidia делает мобильные решения, ATI решила заняться тем же и выпустила чип RV100, который является серьезно урезанным R100 — он и положил начало линейке Mobility Radeon.

Но нам интереснее посмотреть на новые решения — им стал чип R200, вышедший, к слову, одновременно с RV200 и тем самым вызвав путаницу. Однако новым его можно было назвать с натяжкой: кроме перевода на 150 нм техпроцесс, ATI добавила лишь несколько программных «фишек»: к примеру, Smoothvision — программируемое полноэкранное сглаживание, Smartshader — поддержка шейдеров версии 1.4.

С технической точки зрения чип имел 60 млн транзисторов с частотой до 275 МГц и схожую с NV15 структуру — 4 пиксельных конвейера и 8 текстурных модулей. Памяти было 64 МБ SDRAM, но позже появились решения и со 128 МБ. А вот с производительностью были все те же проблемы, что и сейчас: изначально видеокарта Radeon 8500 из-за кривых драйверов проигрывала своему прямому конкуренту, GeForce 3 Ti (о нем поговорим ниже), а потом, после «допиливания» драйверов — стала чуть его лучше при чуть более низкой цене. В общем, ситуация с годами не меняется, и AMD сейчас грешит тем же.

Nvidia NV20 — множество нововведений

К 2001 году стало понятно, что выжимать из NV15 больше нечего. Поэтому Nvidia сделала новый чип, NV20 (который, при этом, не всегда был лучше NV15), где основной упор был сделан на память: как я уже писал выше, в линейке GeForce 2 как раз с ней была проблема — производительность видеокарт упиралась в маленькую пропускную способность памяти при выводе стандартного уже 32-битного цвета. В линейке GeForce 2 недостаток был исправлен, причем достаточно красиво — если раньше шина памяти была имела один 128-битный контроллер, то теперь стало 4 32-битных — эта технология называлась LMA (Lightspeed Memory Architecture). Плюсуя сюда поддержку новой памяти, SDRAM, можно было смело говорить, что проблема с низкой пропускной способностью была полностью решена.

Также было добавлено много других полезных вещей: так, появилась поддержка движка nFinite FX Engine, то есть видеокарты GeForce 3 поддерживали пиксельные и вершинные шейдеры, что позволило качественно улучшить спецэффекты; чип NV20 содержал 4 пиксельных конвейера, 1 вершинный и 8 текстурных блоков. Второй важной особенностью стала поддержка MSAA-сглаживания: как я уже писал раньше, оно давало схожий с SSAA эффект, но гораздо меньше нагружало видеокарту. Ну и третья важная особенность — видеокарты линейки GeForce 3 стали первыми с поддержкой Direct3D 8.

Видеокарт было выпущенно 3, причем Nvidia решила отказаться от кучи названий, что здорово. Зато появилась другая путаница: видеокарта GeForce 3 Ti 200, если смотреть на линейку GeForce 2, должна быть быстрее обычной GeForce 3. А вот на деле было наоборот: у Ti частоты чипа и памяти были 175/200 МГц, а у обычной — 200/230. Самой мощной была Ti 500 — она работала на частотах до 240/250 МГц и тем самым напрямую конкурировала с Radeon 8500. Но при этом из-за того, что у GeForce 2 Ultra частоты были выше, чем у GeForce 3, последняя зачастую оказывалась быстрее в играх, где нет сглаживания, из-за больших частот ядра. Но вот с сглаживанием старая видеокарта работала гораздо хуже, так что в новых играх GeForce 3 была быстрее.

Читайте также:  Оптимальная видеокарта для gta 5

Nvidia NV25 — перегоним ATI

Выпуская чип NV20 Nvidia твердо думали, что они займут нишу топовых моделей. Но когда оказалось, что ATI Radeon 8500 оказалась в итоге лучше Ti 500, да и еще дешевле — Nvidia поняли, что нужно что-то менять, и быстренько выкатили новый чип NV25 в конце 2001, который был лишь слегка доработанным NV20: появилась поддержка вторых поколений LMA и nFinite FX, чип научился проводить аппаратное сглаживание.

С технической точки зрения чип был построен на том же 150 нм техпроцессе, имел 4 блока рендеринга, 8 текстурных блоков и 2 блока T&L. Объем памяти у видеокарт GeForce 4 достигал 128 МБ, а частоты чипов не поменялись со времен GeForce 3. В итоге младшая видеокарта GeForce 4 Ti 4200 таки обогнала Radeon 8500, так что свою цель Nvidia достигла.

В начале 2002 года Nvidia выпустила чип NV28. Единственное отличие от NV25 заключалось в том, что видеокарты теперь подключались по интерфейсу AGP x8.

Но самой интересной линейкой следовало назвать не Ti, а MX. Как мы помним, это были урезанные версии видеокарт, и линейка GeForce 4 MX исключением не стала: чип NV17, на которых эти видеокарты базировались, имел ровно вдвое меньше вычислительных блоков, чем NV25. Объем памяти составлял 64 МБ, а единственное серьезное урезание в сравнении с Ti было отсутствие поддержки пиксельных шейдеров. Также не было поддержки nFinite FX, что ограничивало версию Direct3D до 7ой, но все еще из-за неплохой производительности за небольшие деньги эти видеокарты очень охотно разбирали, ибо они не только справлялись с офисными задачами, но и позволяли комфортно играть в современные на тот момент игры. Увы — недолго музыка играла: уже буквально через пару лет все игры требовали поддержки пиксельных шейдеров, так что поиграть в них на 4 MX было уже нельзя.

ATI R300 — новый флагман

С программной точки зрения в R300 не было добавлено почти ничего нового: только поддержка улучшенных методов сглаживания, третья версия HyperZ да новый алгоритм анизотропной фильтрации текстур.

Но вот с аппаратной точки зрения это был серьезный прорыв, причем этим же принципом AMD пользуется до сих пор. Он очень прост: не можешь задавить конкурента технологиями — задави количеством. Посудите сами — в 2002 году чип R300 имел аж 110 млн транзисторов: почти вдвое, чем у NV25. Пиксельных конвейеров стало 8 — вдвое больше, чем у R200. Шина памяти стала 256-битной, а принцип был схож с LMA: 4 контроллера, но не по 32, а по 64 бита, а самой памяти было 128 МБ. Частоты были задраны выше некуда — 325 МГц у чипа в случае с Radeon 9700 Pro. В общем — это был настоящий монстр, который с легкостью превосходил своего конкурента, GeForce 4 Ti 4600, на 15-20%. В итоге этот чип можно безоговорочно считать лучшим в 2002 году.

Nvidia NV30 — попытка выбиться в лидеры не удалась

Видеокарты GeForce 4 вышли не то чтобы хорошими, но явно неплохими. Хотя то, что особой популярностью пользовалась именно урезанная серия MX, говорит о том, что лидерство на рынке Nvidia на тот момент упустила.

В чипе NV30 2003 года упор был сделан именно на введение новых технологий: так, это был первый чип с поддержкой Shader Model 2.0, количество пиксельных конвейеров выросло до 8, были улучшены алгоритмы сглаживания и фильтрации текстур. К тому же некоторые видеокарты на этом чипе стали поддерживать новейший по тем временам интерфейс PCI Express 1.0, то есть в теории видеокарту 2003-2004 года можно поставить в современный ПК и она заработает. Также видеокарты GeForce FX на базе этого чипа научились работать с DDR2, что в теории должно было решить проблему с медленной памятью. Однако, увы, не решило — всему виной узкая шина памяти, всего 128 бит. Вторая проблема — чип NV30 очень медленно проводил рассчеты с одинарной точностью. Nvidia призывала разработчиков игр использовать половинную, но это ни к чему не привело.

В результате с играми все было не очень хорошо — даже Valve решили не работать с шейдерами второй версии, и Half-Life 2 на GeForce FX работал на первой. Однако все же плюсы у этого чипа были — к примеру, он отлично работал с тенями, так что в Doom 3, где их много, производительность была не хуже конкурентов от ATI.

Проблему с памятью Nvidia решила в чипе NV35, где единственное улучшение — это как раз поддержка 256-битной шины, так что видеокарта FX 5900 на этом чипе оказалась на уровне топа от ATI, Radeon 9800 Pro. Но, увы, вышли видеокарты на NV35 позже решений от ATI, да и всего через полгода появился новый, действительно классный чип NV40.

Но о нем и крайне популярной линейке видеокарт GeForce 6000, а также о возрождении SLI и объединении ATI c AMD, поговорим уже в следующей части статьи.

Источник