Меню

Рендер с помощью видеокарты 3ds max



Переезжаем на GPU Rendering, первый опыт(VrayRT 3.5 GPU).

Всем привет. За что мы любим 3д графику? За то, что она не дает заскучать, скорость появления новых технологий зашкаливает и нам нужно постоянно держаться на гребне волны, чтобы быть в теме. Мы можем просиживать за компьютером сутками ̶и̶ ̶г̶у̶с̶я̶м̶и̶ . Кто то любит ковыряться в машинах, а мы собираем своих франкенштейнов своими руками, чтобы увеличить скорость рендера на 5%, разгоняем процессоры, жжем материнки и видеокарты, ведь адреналин может выделяться не только в экстримальных местах, но и прямо за рабочим креслом 🙂 С выходом Vray 3.5 сильно захотелось попробовать ГПУ рендеринг, и это превратилось в этот пост. Под катом все подробности выбора железа, установки, настройки, все подводные камни и ощущения от нереальных скоростей 🙂

После просмотра демо ролика мне буквально не сиделось на месте и я начал собирать информацию о ГПУ рендере везде где только мог, выяснилось что Bulgarov уже давно переехал на ГПУ:

и собрал какого-то нереального монстра с водяным охлаждением, а так же небезызсвестный DabartiCGI тоже перешел на ГПУ и во всю пропагандирует вегетарианство и сыроедство его.

У него система уже попроще, но всё равно довольно дорогая. Основные тезицы которые я почерпнул исследовав интернет такие:

1. Видеокарты могут быть разными(но просчет только Nvidia)

2. Количество памяти может быть разным. Оно не суммируется и используется наименьший объем памяти из всех доступных у видеокарт

3. Можно сочетать Ati/AMD(для отображения изображения с мониторов) и Nvidia для рассчетов

4. Sli режим не нужен, достаточно просто выбрать нужное количество видеокарт для просчетов

5. Основная проблема это охлаждение и питание.

Немудурствуя лукаво я зашел на интернет магазин и купил 7 видеокарт Nvidia 1070GTX 8Gb(25-35 тыс руб штука) которые были в наличии разных производителей и цены, чтобы проверить все тезисы выше, а так же 2 БП 1200 и 1000Ватт(8-10тр штука) чтобы точно хватило(заявленное потребление у видеокарт 150 ватт штука).

Первым делом выяснилось, что просто так вставить 7 видеокарт в одну материнскую плату невозможно, даже если в ней есть 7 PCI-express-x16, они попросту туда не влезут, поэтому покупать специальную материнскую плату не надо. Достаточно любой «Gaming» с 4хPCIexpress-x16(это стандартные длинные пазы для видеокарт) и 3xPCIexpress-x1(урезанные, обведены красным)

К сожалению моя настольная материнка была с тремя большими ГПУ слотами и совсем не подходила даже для простой ГПУ станции, поэтому я пошел на балкон:

У нормальных людей на балконе можно найти много чего полезного, а у меня там — рендерферма 🙂 С открытым окном в минус 30 рендерится очень хорошо:) Оказалось что почти все материнки для Xeon «нормальные» и я выбрал Gigabyte x99 Gaming 5:

Она компануется 4мя длинными и 3мя короткими PCI через 1, что позволяет воткнуть 4 видеокарты в обычный корпус MidiTower за 1000 рублей. Вы спросите, а как же всё таки воткнуть все 7 видеокарт в одну материнскую оплату? Оказалось, что тут без рукожопства уже не обойтись и найти детали в обычном супермаркете электроники около дом нереально, потому что нужно расширить короткие PCIexpress слоты с помощью специальных расширителей — «Raiser» или «Extender PCI». Они есть разных видов, но мне посоветовали вот такие:

Читайте также:  Таблица лучших видеокарт 2016

Попутно выяснилось что Fedex,DHL и все скоростные доставщики больше физлицам в РФ не отправляют ничего, продавец прискорбно сообщил об этом и добавил мне к заказу ещё 2 удлинителя(к 20 которым я купил) и отправил всё Почтой россии/EMS, я превратился в ждуна и собрал 4хГПУ систему:

До этого у меня была 980GTX 4 GB и я решил оставить её для тестов рендера с разной памятью. Zotac был самый дорогой, в металлическом корпусе, с диодной подсветкой и т п + ещё одна самая дешевая 1070gtx от нвидии из пластика и с всего 8 пинами питания вместо 16 как у остальных.

Проблемы при сборке:

1. Видеокарты очень длинные (возможно кому то придется вырезать мешающиеся запчасти)

3. Видеокарты лучше втыкать по одной, почему то на двух материнках изначально заработало только во втором слоте ГПУ с одной видеокартой(в биосе стоит по умолчанию первый PCIe)

4. Биос стартует гораздо дольше!

5. Windows может после старта висеть с черными экранами 2-5 минут каждый запуск(проверено на 7ке и 10ке). Просто ждите 🙂

Ну и вот так это всё примерно выглядит.

Я перешел на 4к рендеринг видео, поэтому мощностей всегда не хватает. Например этот 21 секундный ролик в Corona рендерился почти неделю, это конечно не приемлиемо:

Даже с использованием Vray один кадр с 4к честным дофом или моушен блюром рендерится около 2х часов на моем 44ядерном Xeon, что то типа такого:

GPU на 4х видеокартах рендерит подобные кадры за 25-30 минут. При этом стоимость видеокарт в сумме около 2000$ , а процессор 2500$ Конечно настраивать ГПУ сцены несколько сложнее, некоторые вещи ещё не поддерживаются, но доработка практически любой сцены не занимает много времени.

Первый тест ГПУ я провел на сцене изначально сделанной под ЦПУ :

Превью рендеринг анимации 480*320 с честным дофом занял 3 часа, пока я ездил в магазин за едой на одном компьютере! Это очень круто.(сетка немного глючит изза неверного подбора ФПС, именно за этим такие тесты и прогоняются 🙂

Остальные видеокарты ушли во второй рабочий комп моему напарнику, и в ожидании удлинителей пока всё останется так как есть, а потом будем добивать рабочий объем до 7 ГПУ 🙂 но это уже в следующем посте, а пока все — итак сильно затянул, не забывайте ставить оценки, если вам понравилось и репостить где надо и не надо.

Источник

Рендеринг 3D, что важнее GPU или CPU?

Для врея однозначно проц. Если взять VrayRT, то он считает на видеокарте.
В новом Vray Next есть вроде фича использования GPU во время обычного рендера, но не знаю как работает, не щупал.

Процессор CPU такая штука (условно) что может делать рассчеты сложных формул (например трассировка луча света с преломлением и рассеиванием).

Процессор GPU попроще, сложные формулы в нем не помещаются, только простые. Но зато у GPU не одно ядро для рассчетов, и не десять, как в современных CPU, a тысячи. Поэтому, если получается разбить одну сложную формулу на тысячу маленьких, но которые, посчитанные вместе, дадут такой же результат, то GPU будет рендерить в десять, а то и сто раз быстрее, чем CPU. Это уже GPU рендеры, например Otoy Octane или тот же VrayRT.
Но такой подход добавляет ограничений, и отнюдь не каждую формулу можно так разбить. Так что GPU рендеры имеют значительное количество ограничений в работе и годятся не для всех задач.
Но их скорость это конечно большой плюс.

Читайте также:  Видеокарта для dell vostro 1400

Так что выбирайте для рендеринга проц помощней, чем больше ядер, тем лучше, и обязательно Intel — он поддерживает (совместно с вреем) определенные инструкции для ускорения рендера.

Ну либо осваивайте сетевой рендер Distributed Rendering — несколько компов попроще смогут рендерить одну картинку по сети быстрее, и стоить будут меньше, чем топовый многоядерный проц.

Вроде бы тот же Ryzen 16 ядерный от АМД по бенчмарку обходит такой же по цене камень интел но на 8 ядер. Вот в GPU рендеренге меня отпугивает, что он не умеет рендерить environment fog и много чего ещё.

Я так понимаю Distributed Rendering это тот же vray swarm? Когда все компьютеры в локальной сети рендерят одну сцену?

redpax, да, Vray Swarm это эволюция DR. Когда я работал с 3д, у меня началось с двух ПК на балконе, а закончилось семью ПК в серверной стойке. Сокращение времени рендера в пять раз, и основной комп может оставаться не нагруженным, для продолжения работы, что чертовски удобно.

Насколько обходит? Какой бенчмарк, что или в чем тестируется? В целом думаю результат будет плюс-минус на одном уровне.
Только 16ть ядер single core операции будут делать дольше, яем такого же уровня проц с 8ю ядрами. Для рендера не столь важно, а для работы на такой станции может быть критично.
А еще интелы легко и спокойно разгоняются (не знаю, как сейчас, но раньше у АМД с разгоном не все гладко было), что сокращает время рендера на 10-20%. Достаточно лишь мать подходящую выбрать (ну и проц серии К), и купить хороший большой кулер.

Конечно, дело ваше, какой проц выбрать для работы.

Я просто думаю, купить imac pro (и не переживать об отсутствии GPU рендеринга) или собирать обычный ПК с возможностью GPU рендеринга?

redpax, однозначно ПК — будет и дешевле, и сможете начинку менять по своему усмотрению, хоть три видяшки поставить для GPU ренедра (я так делал, для одного из проектов, но и до и после все на CPU рендерил).

Угу, вижу, что процы АМД по цене выигрывают, но лично я выберу интел, даже если это чуть дороже.

Источник

GPU Render Corona

Заранее прошу прощения за еще одну тему по данному вопросу, но полистав другие, ответа не нашел, хоть сказано было многое.

В оправдание скажу, что вопрос, который волнует лично меня, не в том, НАДО ЛИ использовать GPU рендер, или остаться на CPU, а в том, КАК на Corona Render переключиться в режим GPU?

— i7-4770 (не разогнан, поэтому 3.40)

— NVidia GTX 1660Ti (не 1060, а 1660 ) 6Гб видеопамяти

Читайте также:  Gigabyte ga f2a55m ds2 совместимые видеокарты

В момент рендера макс берет 94% проца и 28% ОЗУ.

Пока занимаюсь только предметным моделированием, поэтому в объем памяти видюхи влезет точно.

Хочу проверить, насколько быстрее будет одну и ту же модель рендерить GPU по сравнению CPU, но вот проблема — не знаю, какие именно настройки и где менять.

Буду очень признателен за инструкцию, как переключаться.

А я-то губу раскатал

Я даже не понимаю, о чём вы)

Я даже не понимаю, о чём вы)

Я даже не понимаю, о чём вы)

Если не понимаете, то ждите следующий апдейт Макса или новый Макс. Ждать, думаю, недолго. С ним вместе будет идти Арнольд с ГПУ, переключение будет одной кнопкой в рендер сеттингсах — просто выбор ЦПУ или ГПУ. И будет наиболее полная интеграция с Максом, рендерить можно будет прямо во вью-порте.

Вот вам, Корона 4

Кстати когда там новый? Вроде апрель-май обычно?

Вот вам, Корона 4

Хоть почитайте про инструмент, которым пользуетесь.

На самом деле смешно читать это «proudly», потому что с распространением NVLink их «proudly» медленно переходит в «sadly» 🙂

А кто говорит что будет?

А кто говорит что будет?

Ваще сообщение как-бы намекало? Или вы просто так.

Кстати когда там новый? Вроде апрель-май обычно?

Вот этого не знаю. Знаю что Арнольд на ГПУ там будет, Солид Энглы писали что Арни с ГПУ режимом будет добавлен в «апкамин» Майю и Макс. Т.е., если я правильно понял, для Макса это будет 4-й апдейт к 2019 (если такой будет) или 2020 — ну, что самое первое выйдет, туда и добавят.

Если хотите именно GPU рендер, советую поковырять, Для Начала, в народный V-Ray RT. Сейчас уже доступна 4+ версия. Инфы по этому вопросу валом.

Там доступен гибридный рендеринг CPU+GPU, и да, это будет быстрее чем просто CPU, не сомневайтесь.

аргументы не убедительны.

Во первых я делал тесты, и продакшен быстрее. Во вторых джиай на гпу — отстой. В третьих смотря какие видухи. Для интерьеров виреевский гпу — сырой, не всё поддерживает и т.д.

Сомневайтесь. Всегда и во всём.

аргументы не убедительны.

Во первых я делал тесты, и продакшен быстрее. Во вторых джиай на гпу — отстой. В третьих смотря какие видухи. Для интерьеров виреевский гпу — сырой, не всё поддерживает и т.д.

Сомневайтесь. Всегда и во всём.

«вы просто не умеете его готовить».

«Продакшен» — CPU? То есть у нас есть 2 одинаковые сцены, среднее железо, и CPU отрендерит быстрее, чем GPU? Серьёзно ?

GI на GPU, дальше не дочитал. Что значит GI на GPU? Брутфорс другой? Алгоритм другой? Всё блеклое? Что значит «отстой» ?

«Для интерьеров» — человек спрашивает про «предметку». На GPU можно отрендерить уже почти всё. Вопрос в том, на сколько у вас «прямые» руки и вы умеете оптимизировать. А ещё на сколько вы понимаете, что вы работаете на GPU. Некоторые алгоритмы на GPU просто не работают, потому что это GPU, и дело не в сырости. С сыростью, как раз, всё очень хорошо — всё сухо и комфортно, спросите у�https://dabarti.com/

Источник