{"id":2412,"title":"\u0423\u0433\u0430\u0434\u0430\u0439\u0442\u0435 \u0433\u043e\u0440\u043e\u0434\u0430 \u043f\u043e \u0437\u0432\u0443\u043a\u0443 \u043e\u0442\u043a\u0440\u044b\u0432\u0430\u044e\u0449\u0435\u0433\u043e\u0441\u044f \u043f\u0438\u0432\u0430 \u0438 \u043f\u0435\u043d\u0438\u044e \u043a\u0438\u0442\u043e\u0432","url":"\/redirect?component=advertising&id=2412&url=https:\/\/vc.ru\/special\/sound&placeBit=1&hash=1620c155cf544062859cfaabcc12f9dd73613708c43c381ba3dbf0828037edcd","isPaidAndBannersEnabled":false}
Laime

Баланса нет: достаточно ли процессора 2014 года для топовой видеокарты 2020-го?

А конкретнее - сможет ли i7-4770k прокормить RTX 3080 и не оставить производительность, как говорится, on the table? Ответы внутри.

Теория

Bottleneck - явление, при котором какой-то определенный компонент системы является ограничивающим для всей системы. Например, двоечник в вашей группе по проекту, или редакция на DTF.

В контексте игр, видеокарт и прочего бутылочное горлышко чаще всего проявляется в несбалансированной связке процессора и видеокарты. Здесь возможны два случая:

  • CPU слишком слаб, и не успевает подготовить информацию для видеокарты, от чего та простаивает и не работает в полную силу
  • Или наоборот, ограничивающим фактором становится GPU, который не успевает обработать данные на своей стороне

Чаще всего в игровых системах имеет место второй случай - процессора хватает с лихвой, и производительность ограничивается видеокартой. В такой ситуации полезен апгрейд видеокарты - процессора хватает и на более мощный GPU.

Но спустя пару апгрейдов видеокарты она может перестать быть горлышком, а геймер будет все чаще замечать высокий процент загрузки CPU, сигнализирующий о неминуемой смене камня.

Практика

С подобным столкнулся и я. В 2014 году мной была собрана достаточно мощная на то время конфигурация:

CPU: Intel Core i5-4570 (впоследствии обновлен на i7-4770k)

RAM: 8 ГБ Crucial DDR3 1600 MHz (потом докинул еще одну плашку на 8)

Материнская плата, кулер, корпус и прочее не важны в контексте данной статьи, поэтому опущу их.

Система увидела несколько видеокарт:

  • AMD Radeon R9 280X
  • Nvidia GeFroce GTX 1080
  • Nvidia GeFroce GTX 1080 Ti
  • Nvidia GeFroce RTX 3080

Видя цифры прироста в производительности видеокарт нового поколения, я задался вопросом - а насколько мой компьютер ограничен семилетним процессором и еще более старой памятью? Возможно, апгрейд до 3080 с 1080 Ti вообще не имеет смысла, и лучше обновить платформу?

Методология

Как узнать, насколько сильно i7-4770k ограничивает производительность в сравнении с процессорами свежих поколений Intel и AMD? Сравнивать fps моей системы "в лоб" с системами, на которых тестировали RTX 3080 различные блогеры не имеет смысла. Для корректного сравнения нужно протестировать одинаковые игры с одинаковыми настройками на одинаковой видеокарте, меняя только платформу.

Поэтому я решил пойти не совсем верным, окольным путем - сравнить разницу в производительности между GTX 1080 Ti и RTX 3080 на моей старой системе и на новых системах тестеров. Если у меня прирост меньше - значит, CPU является боттлнеком.

Пример: допустим, на системе с мощным современным Ryzen 5900X видеокарта 1080 Ti может обеспечить около 40 fps в среднем на выборке из различных сцен в Cyberpunk 2077. Меняем карту на RTX 3080, оставляя все остальное железо и настройки неизменными - получаем 70 fps в среднем (цифры из головы).

Если мы достанем из кладовки старенький i7-4770k, и повторим все тесты, получим 40 fps на 1080 Ti и 50 fps на 3080 - в паре с новой видеокартой система очевидно ограничена процессором и памятью.

Но у меня нет 5900X в качестве референса, поэтому сравнивать я буду проценты. То есть, из примера выше: разница между 1080 Ti и 3080 на новой системе составляет 75%, а на старой - 25%. Из этого можно сделать вывод, что 4770k просто не может полностью загрузить RTX 3080.

Итак, тесты. Я выбрал 7 игр, в которых есть встроенные тесты производительности - для повторяемости результатов. Игры на разных движках для более репрезентативной выборки. Тест проводил в двух разрешениях, с двумя видеокартами - в итоге 28 точек сравнения. Все игры были установлены на SSD.

Я знаю, что обычно при тестах процессоров используют низкие разрешения, дабы снизить нагрузку на видеокарту и подчеркнуть разницу в производительности разных камней, но передо мной стояла другая задача, сугубо практическая. Посмотреть, сколько производительности я теряю в реально используемом разрешении (в моем случае 1440р и 2160р). Тесты в низких разрешениях практической пользы для меня не принесли бы.

Список игр

  • Red Dead Redemption II
  • Horizon Zero Dawn
  • Shadow of the Tomb Raider
  • Control
  • Assassin's Creed Odyssey
  • Metro Exodus
  • Far Cry New Dawn

Результаты

Результаты тестов в 1440р, кадры в секунду

1440р - разрешение, в котором зависимость от процессора видна не так сильно, как в 1080р, но она все равно присутствует. Например, Far Cry New Dawn, Shadow of the Tomb Raider и Assassin's Creed Odyssey практически не увидели прироста от смены видеокарты. Однако Red Dead Redemption II и Control не настолько процессорозависимы - прирост двукратный.

Результаты тестов в 2160p, кадры в секунду

В 2160p ситуация меняется - здесь основной упор идет на видеокарту. Прирост есть везде, минимальный - в играх Ubisoft. Видимо, их непревзойденный и живой открытый мир требует большое количество просчетов симуляций на процессоре.

Для наглядности взглянем на проценты:

Результаты тестов в 1440р, проценты

Разброс огромный - от 8% в SotTR до 110% в RDRII

Результаты тестов в 2160р, проценты

В 2160p картина более ровная: минимальный прирост составляет 30% в FCND, максимальный - 133% (!) в Control. Напомню, все настройки не менялись.

Сравню проценты прироста, полученные мной, с процентами известных сайтов techpowerup.com, overcklock3d, guru3d (цветом светлее выделены данные тестеров, темнее - мои):

Разница в приросте в 1440p

Только в двух играх мой процессор не был боттлнеком - Far Cry и RDRII. В остальных же разница приростов варьируется между незначительной (Control) и огромной (ACO, SotTR, HZD). Да уж, 4770k точно просится на покой.

Разница в приросте в 2160p

В 2160p результаты не настолько плачевны - в высоком разрешении нагрузка на видеокарту возрастает и итоговый результат продиктован уже не только ограничениями процессора, но и видеокарты.

Был ли апгрейд до RTX 3080 полезен? Однозначно да, прирост производительности даже на старой системе местами двукратный, по сравнению с GTX 1080 Ti.

Получил бы я больше, обновив заодно и платформу до чего-то более современного? Ответ такой же - да, процессор семилетней давности в паре с DDR3 очень заметно ограничивают мощь монстра от Nvidia.

Вывод: жду DDR5 ( ° ʖ °)

{ "author_name": "Laime", "author_type": "self", "tags": ["\u0442\u0435\u0441\u0442\u044b","\u0436\u0435\u043b\u0435\u0437\u043e","rtx","nvidia"], "comments": 243, "likes": 171, "favorites": 165, "is_advertisement": false, "subsite_label": "unknown", "id": 623049, "is_wide": true, "is_ugc": true, "date": "Sun, 30 May 2021 16:53:53 +0300", "is_special": false }
0
243 комментария
Популярные
По порядку
Написать комментарий...

Нет конечно Раскрытие это максимальный фпс на который способна карта во всех разрешениях, от 800х600 до 4К..
для себя я вывел формулу если карта в 90% игр показывает 90+% своего КПД то связка нормальная
пока у меня стоял FX 6300 + 1066 карта была загружена на 100% но при смене платформы на i5 8400 карта при той же 100% нагрузке стала давать плюсом до 40% в зависимости от игры..
что бы сектанты не говорили но баланс и раскрытие существует и это очевидно
не совсем корректно тестить в высоких разрешениях только, все же там упор идет уже в видеокарту) 

51

Раскрытие это максимальный фпс на который способна карта во всех разрешениях, от 800х600 до 4К

Не, это насколько сильно ты сможешь расширить анус что бы сесть на бутылку. Это то чем собственно раскрыватели и занимаются. 
что бы сектанты не говорили но баланс и раскрытие существует и это очевидно

Так, стоп. Это вы, раскрыватели, считаетесь сектантами, лол.
не совсем корректно тестить в высоких разрешениях только

Да да да, игрокам дохуя важно ваше ебаное раскрытие ануса, а не реальный фпс на их система, хаартьфу. 

–38

найс порвался)) а он ведь прав 

39

В чем он прав? Лол. Процессоры имеют разные архитектуры. И по разному себя ведут. По разному нагружают видеокарту при прочих равных. По разному ведут себя в разных играх. При разных api дают разные результаты. По разному с памятью работают. Но не, РОСКРЫТИЕ БЯЯЯДЬ.

16

Тоесть вместо кучи слов, одно - раскрытие. Чем оно вам так не нравится

4

Только вот "раскрывание" подразумевает, что видеокарта либо раскрывается, либо не раскрывается, а такого, что можно покрутить настройки, поменять разрешения и сместить узкое место с проца на карточку или наоборот в рамках этой концепции быть не может

5

Мало того, нагрузка на видеокарту увеличивается от игры к игре быстрее, чем на процессор. Мало того, в новых видеокартах улучшенная архитектура, из-за которой старые процессоры будут вести себя даже лучше, чем на старых. А вот наоборот совсем нет. И ещё кучу навоза на раскрывателей наливает рей трейсинг, который используя в старых играх даже с селероном получится нагнуть эту 3080.

3
Древний томагавк_два

Замени раскрытие на другое слово или сочетание. Например "загрузка", что изменится? Проц обсчитывает геометрию в играх и скидывает ее карте. Если он не сможет готовить определенное количество кадров и карта будет простаивать, то проц тыквит твою систему и является слабым местом.

0

"Да да да, игрокам дохуя важно ваше ебаное раскрытие ануса, а не реальный фпс на их система, хаартьфу. "
найс у тебя биполярOчка :D реальность такова, что он процессора фпс зависит столько же сколько и от видеокарты, иначе бы все сидели на пеньках в 4К :D АХАХААХ боже вы реально сектанты 

31

реальность такова, что он процессора фпс зависит столько же сколько и от видеокарты

Нет, реальность такова что от видеокарты фпс зависит значительно больше последние 10 лет, с момента выхода прошлых консолей, когда вместо процессора установили мобильный огрызок бобкет.

3

Комментарий удален по просьбе пользователя

0

иначе бы все сидели на пеньках в 4К :D АХАХААХ боже вы реально сектанты

Ну если задать параметры в виде "играть только в 4к на самых-самых высоких настройках" - в принципе можно спокойно сидеть на каком-то бюджетном говне вместо проца всё поколение и удивляться как так получается, что какая-нить RTX 3070 не может "раскрыть" несвежий четырёхядерник. Правда есть нюансы, у того же Пенька, по-моему, до сих пор нет L3-кеша, из-за чего на нём все современные игры фризают как проклятые

2

нет нельзя, многие настройки игр зависимы от частоты и количесва ядер, и где в одной сцене будет 30 фпс в другой будет неиграбельное слайд шоу.. а многие игры со слабыми процессорами просто вылетают. причем это наблюдается даже на многоядерных инженерниках, тоесть для нормальной работы игр, нужны не только ядра, но еще и оптимизация игр под железки) так что это миф про слабые процессоры и мощные карты, ну или садомазохизм 

6

нет, можно, потому что большинство игр мультиплатформа, то есть минимальным железом будет fx 4300 + gtx 750ti, не сильно выше. Другая проблема у нас как бы некстген вышел, а значит минимум уже не fx 4300, а r7 3700 примерно. А далее весь бюджет можно отдать и на видеокарту без проблем.

0

не фига себе ты нижнюю планку взял))) тут процы за 2-3К обсуждают а он прошлый топ взял в пример))))))))))))) 

10

Да потому что не нужно рассматривать уровни производительности между двумя поколениями. i7 4770k его отлично потянет пастген в 60fps, а для некстгена он слаб, нужен 16 поточник. А есть ещё кроссген, там он может показать вообще что угодно, например что от 3080 ему смысла никакого не будет. То есть чел сверху говорит что 3080 нужна i7-му, и тут выходит сталкер 2 и ещё куча кроссген проектов и вуаля, 3080 оказывается не имеет смысла.

0

и где в одной сцене будет 30 фпс в другой будет неиграбельное слайд шоу

То же самое будет с видеокартой, если загрузить её до предела, каким образом из этого следует что нельзя? Разработчик банально переборщил с рейтрейсингом - и будет тебе слайдшоу по вине видюхи.
а многие игры со слабыми процессорами просто вылетают.

До, особенно если у проца нет AVX-инструкций, я же упомянул, что есть нюансы.
так что это миф про слабые процессоры и мощные карты

 Никто не говорит, что можно поставить RTX 3090 в систему ко второму пню, речь всё же о каких-то разумных пределах, когда архитектура проца в принципе позволяет запускать современные игры и работать с современным железом

–1

нет не будет, речь о слабых процессорах, все верно написано
дело не в инструкциях, речь именно о недостатки вычислительной мощности, и да я проверял
разумные пределы это как и были fx 6300 + 1066, просто какого же было мое удивление после смены платформы, что где то я могу выкрутить графику либо просто будет прирост по попугаям)
у меня сейчас 3060 ti и я пихал ее в системник к fx, и в играх это ужасно) даже если пытаешься сделать упор в высокое разрешение, просадки порой катастрофические..... да если по ютубу пробежаться все подтверждает мои слова 

2

нет не будет, речь о слабых процессорах, все верно написано

дело не в инструкциях, речь именно о недостатки вычислительной мощности, и да я проверял

Чего не будет? Недостатка вычислительной мощности со стороны видюхи? Врубай максимальные настройки и увеличивай разрешение до предела - увидишь, как у тебя RTX 3080 внезапно не сможет i3 "раскрыть" лол
разумные пределы это как и были fx 6300

Да, чел, десятилетний бюджетный проц не самой удачной архитектуры - это определенно разумные пределы, когда мы говорим о сборке компа со слабым процом и мощной видюхой в 2021 году под большие разрешения. Давай еще воткни RTX 3060 в систему к Пахому или к Атлону 64 лул

0

по мне так это идеальный пример, даже сейчас он обеспечивает +-30 фпс в фулке) и у него достаточно потоков, он идеально показывает что от процессора многое зависит, и он идеально отражает то с чем придется столкнутся людям которые хотят прикупить современную видеокарту) никто не будет ставить с нуля пенек, а если и будет то будет знать с чем столкнется
Задача поста была дать информацию, а не строить розовые замки про поиграть) 

1

Нет, нам нужен 8 поточник чтобы получать везде 60fps. А вот уже графика лишней не будет, а значит слушать бред про то, что какому-то процессору нельзя брать какую-то мощную карту, не стоит. особенно если учесть, что "лишнуюю" мощность можно направить на какой-нибудь физикс или dsr.

0

что бы сектанты не говорили но баланс и раскрытие существует

Ты всё в кучу смешал. Ботлнек существует, раскрытие - нет. Сектанты - это раскрыватели. Производительность конкретной пары cpu+gpu будет от задачи зависеть, а не от того, насколько твои комплектующие друг друга "раскрывают", что автор и продемонстрировал: в контроле всё заебись, в одиссейке - цпу ботлнек. 

10

Мне упорно кажется, что всё это разные названия одного и того же.

21
Золотой самолет

Термин боттелнек корректен лишь в конкретной ситуации, остальное — херня раскрывательная. ред.

4

Так а зачем как идиот рассматривать эти ботлнеки, когда можно просто рассматривать проц и видеокарту отдельно?

0

Если бы термин "раскрытие" имел хоть какой-то смысл, то мы бы могли однозначно ответить на вопрос: раскрывает ли i7-4770k из поста rtx 3080. 

–2

Собираем комп на железках. Тестируем в своем разрешении.
Ботлнек есть? Значит не раскрывает.
Ботлнека нет? Значит раскрывает.
Что тут сложного?

0

Собираем комп на железках. Тестируем в своем разрешении. Ботлнек есть? Значит не раскрывает.

Охуеть ты гений, каэш. Запустил сталкера с модами на графон на core 2 duo + rtx 2080 super - ботлнека нет. Запустил одиссею на core i7 9700k + rtx 2080 super - ботлнек есть. Проц из 2009 "раскрыл" топовую видеокарту из 2019, а проц из 2018 - нет. 

8
Золотой самолет

На тему ред.

3

Может потому что он хочет играть не только в сталкер, но и в новенькую колду?

1

Проц из 2009 "раскрыл" топовую видеокарту из 2019, а проц из 2018 - нет. 

yes.jpg
какая выборка такой и результат

0

Так это наглядный пример  с крайним случаем, для иллюстрации ущербности термина

3

какая выборка такой и результат

Что делает раскрыватель, когда у него нет пк, а анус уже настолько раскрыт, что выпадает? Берет "выборку" дисков с играми и сравнивает рекомендованные системные требования, чтобы узнать какие цпу "раскрывают" гпу в его "выборке".

0

Такой играешь в Киберпунк на своей RTX 3090 с i9, смотришь, проц не раскрывает видимокарту, увеличиваешь разрешение и включаешь лучи - уже видимокарта не раскрывает проц - что же это за колдунство-то??7 Как так-то?
Разница между раскрытием и ботлнеком в том, что раскрытие - это статичное понятие, когда в голове школотрона железка с названием X должна быть достаточно крутой для железки с названием Y, чтобы раскрывать её, в то время как ботлнек - понятие динамичное, то есть, когда В ЗАВИСИМОСТИ ОТ ЗАДАННЫХ ПАРАМЕТРОВ та или иная железка не дает остальным компонентам системы давать максимально возможные показатели ред.

6
Золотой самолет

У работяг то все просто и комментарии это подтверждают.
Своим примитивным термином нивелируют тонкости выбора железа. 
Ботлнек есть? Значит не раскрывает. Ботлнека нет? Значит раскрывает.

Можно манипулировать эти меняя API или настройки.

2

Так боттлнек всегда будет, нет такой комбинации процессора и видеокарты что-бы их обоих можно было на 100% нагрузить с локом фпс, если только вас не устраивают скачки от 100 до 144 фпс, тогда и проц и видеокарта будут нагружены по максимуму, но плавного фреймрейта не будет.  

1

А что сложного повысить разрешение? Сглаживания и dsr включить религия не позволяет?

1

Ага, как периодическая  таблица химических элементов и периодическая таблица электроатомов Русов 

1

не совсем корректно тестить в высоких разрешениях только, все же там упор идет уже в видеокарту)

Ну как видно, не только в нее

3

Там даже в фулке разница будет огромная)) 

6

Нет конечно Раскрытие это максимальный фпс на который способна карта во всех разрешениях, от 800х600 до 4К..

У тебя в 800х600 на минималках внезапно Нвидию 3090 перестанет "раскрывать" любой топовый проц, а в 8к с лучами и на максималках - уже Нвидия 3090 не сможет "раскрыть" даже ссаный i3 трёхлетней свежести.  Волшебство? Нет, просто термин "раскрытие" уебанский и в какой-то мере вводящий в заблуждение, а запрос "шоб рисовала максимальное количество попугаев в любом разрешении" - неадекватный.
Есть нормальные понятия "бутылочное горлышко" и "узкое место" - используй, не хочу,  хочу видеокарты раскрывать. Система должна быть сбалансированной под твои желаемые задачи. Если ты собираешься играть в 8к - тебе нахуй не уперся топовый проц, потому что в 99% случаев узким место будет видюха, если ты собираешься наяривать игры в мелкоразрешении 640х480 - тебе наоборот понадобится какой-нить топовый Зиончик или Эпик, чтобы "раскрыть" даже не 3090, а какую-нить 3060. ред.

4

по правде говоря, зион или эпик будут хуже в играх, по сравнению с топовыми десктоп процами

0

i5 8400 раскрывает ранее нераскрытую FX 6300 видеокарту, 2021 год фото в цвете 

2

Опасно, там пропеллер!

1

Да? Ну давай, покажи нам где у тебя 1060 показывает менше fps при 100% нагрузке.

1

Я здесь не только 100% загрузки GPU не вижу, я вообще 1060 не вижу.

1

мало того, там доказано что от новых архитектур видеокарт нагрузка на процессор падает. То есть неважно какое у тебя железо, от 3090 будет толк даже при загрузки проца на 100%.

1

не знаю, где ты там такое увидел
2080Ти при цпу ботлнеке +- на уровне 3090, в районе погрешности (ну кроме хорайзона, но там 3070 слабее, а 3090 сильнее 2080Ти, там по памяти ботлнек видимо)

0

Некоторые люди вообще не верят в bottleneck. Я перед сборкой ПК на этом сайте проверял соответствие компонентов.

19

Здесь цифры взяты с потолка. 

5

Такое не смотрел) Интересовало именно соответствие по производительности.

0
Золотой самолет

Никакого соответствия не существует, видеокарта и процессор занимаются разными задачами.  ред.

9

занимаются разными задачами, но всё таки связаны друг с другом

1
Золотой самолет

Связаны то они связаны, но не так чтобы примитивно утверждать что X подходит к Y. Так как слишком много тонкостей, такие как движок, разрешение рендера, настройки, API.

1

Average bottleneck percentage: 31.35% (CPU bottleneck)
*This result is based on average CPU and GPU usage from different programs and games. It changes based on operating system, background processes activity and targeted applications. This result is not universal and changes based on differences in hardware and software enviroments. Please do not use this calculator primary as decision maker than as helping tool to understand performance correlations between different components.

Your processor is too weak for this graphic card on 1080p resolution
Intel Core i5-3570 (Clock speed at 100%) with NVIDIA GeForce GTX 1650 SUPER (Clock speed at 110%) x1 will produce 31.35% of CPU bottleneck on 1080p resolution. Everything over 10% is considered as bottleneck.

Для моей системы выдал более менее правдивый результат. 

1
Золотой самолет

Средняя температура по больнице. 

1

Мне он 9,53% в 1440P выдал. "Graphic card and processor will work great together on 1440p resolution" (с).
Ага, как же. i7-10700F и GTX1070 (которую даже среднего уровня ENB-пресет к Скуриму на лопатки кладет, скидывая скорость к 30 fps). Но менять видеокарту до снижения цен - нафиг-нафиг (собственно, вместо обновы платформы мог бы 3070 за ~65К купить, но не захотел кормить перекупов - и не буду дальше).

0
Золотой самолет

Ну так вера же — это отсутствие знания. Не так ли?

1

Некоторые хомяки верят в хуиту про "раскрытие" потанцевала.

2

Можешь пояснить, вот у меня написано "Average bottleneck percentage: 0.92% (CPU bottleneck)" - это хорошо или плохо?

0

Там же написано  "Graphic card and processor will work great together on 1080p resolution."

1

Он у меня и на 2К и 4К такое пишет: 

0
Вертикальный чувак

Ну так в 4к тем более процессор не будет сдерживать видеокарту. Просто сама видеокарта будет задыхаться

3

тихо не пали)) пусть сидят на пеньках в 4К 

2

так проблема на в 4К а в драв коллах на сцену.

1

Так процессор чаще рассчитывает физику частицы и объекты в сцене а не разрешение. Разрешение уже ложится на ГПУ

0

Это значит, что ботлнека почти нет. Вот у меня 2500к и 1070 - проц ботлнек 58%. Т.е. видеокарта может работать быстрее почти в 2 раза, если поменять проц на боле мощный.

0

Понятно. 

0

Интересно а разгон на твоем 2500к учитывается?

0

У меня нет разгона. Хотя я и брал именно К для разгона. Но за 9 лет так и не понадобилось ). Да и в калькуляторе написано, что результаты даны без разгона.

0
Чудовищный жар

Судя по этому сайту моя 770 почти не боттлнечит мой 9600к. Что есть пиздеж и провокация.

0

Так это и хорошо, что у тебя система в большинстве случаев по максимуму нагружает видеокарту, значит больше ресурсов останется под фоновые задачи, и от них меньше игровая производительность будет зависеть.

1

Чаще всего проц ограничивает видюху и для игрового ПК смотрят, чтобы проц был не сильно слабый. Тут уже надо разбираться в этом всём) Получается проц даёт команду видюхе, что нужно прорисовать, а она уже в меру своей мощности рисует картинку. Это я так нафантазировал, если что.

0

Да ладно. Кажется что всё же наоборот, видюха недогружает проц, просто потому, что а) топовая видюха дороже околотопового проца и б) видюху, кажется, обычно берут под замену через какое-то не очень большое время, просто чтобы не менять ещё и мать и память. Просто чтобы вогнать не слишком говенный проц в боттлнек нужно играть на низких настройках/разрешении с огромным ФПС, а это никому особо не надо, в большинстве случаев всем будет достаточно 60фпс, зато на норм разрешении и настройках максимальных, которые карта вытянет, соответственно, сценарий, при котором проц ограничивает карту, никто особо не видит.

0
Проклятый Валера

Пора менять свое ведро

0

До 10% - норм.

0

блядь

0

Ну тут и без % понятно, что видюху ты взял с запасом) Потом просто проц обновишь.

1

ну да, я прост кекнул что мне 0.72% не хватило для "норм"

0

Куплю видеокарту за какие то жалкие 20 000 руб.

0
Проклятый Валера

Немножко подними цену и я подумаю

0

20600 р. Ну чтоб цена соответствовала названию. 

0
Проклятый Валера

Ну это другой разговор. Пиши адрес куда отправлять

0

Село Пиздаболкино, улица Наёбщиков д.1

4
Вертикальный чувак

Ну так результат скорее всего считается относительно самого быстрого. Типа с условным райзеном 5950х можно получить 100 фпс на этой карте. Это максимальный результат, и он берётся за 0. И вот относительно него считают то, насколько душится карта.

0

Мой видеокарты вообще нет. Radeon VII. 

0

достаточно ли процессора 2014 года для топовой видеокарты 2020-го?

Любой игрок в Тапков, Анно или TW сразу скажет, что его не хватит даже для топовой видеокарты 2016 года

11

Для Таркова то почему не хватит? У него ж все в однопоток...

0

В первую очередь память, а во вторую, его однопоток очень требовательный. Даже для 9900К под PL2

0

Память - да, но с проблемами однопотока у него ни разу не сталкивался. Мой разогнанный до 4,9ghz 8700k в Таркове не больше 55-60W потребляет.

1

Да потребляет то немного, только регулярно скачки частоты и фризы во время подгрузки чанок/спавна ботов/взрывы гранат, что на моих 930, 7700, 3600, что на 9900 и 10400 у товарищей. Но вообще у Таркова проблемы не с процом конечно, у него проблемы со всем и вся. Это просто говнокод.
Что действительно ебет проц и память, так это Анно -25гб памяти и еле вытягивающий 35 кадров (на ультре конечно) R5 3600 в энд гейме.

0

Кстати, читал статьи что двухканальный режим RAM прибавляет 10-15% FPS, это на самом деле так? Думаю к своим 16гб прикупить еще плашку 16...

1

В моём случае прибавил несколько фпс, и самое главное, избавил от постоянных микро фризов и рваного фреймтайма. 
Dual channel снимает какую то часть нагрузки с процессора.
И вообще чувак. На будущее, дуалченнел я считаю обязательным для любой системы.

18

Для 3й рязани еще важно ранк памяти. Желательно 4 в сумме. Вот например моя 

0
Обширный Никита

Память может очень сильно ограничить или раскрыть процессор.

Я тестировал производительность в играх до и после разгона памяти. Разница в играх в районе 5-20%. К сожалению остались только скриншоты бенчмарка AIDA и мне лень перепроводить тесты в играх. Но что осталось, то осталось.

Разница между одноканалом и двухканалом была бы ещё больше, чем прирост от разгона.

Скрин 1 - стандартный XMP профиль
Скрин 2 - разгон
Без XMP профиля лень даже проверять. Но там совсем всё плохо. ред.

3

Как так получилось, что при ручном разгоне, результат по частоте хуже xmp профиля? Ещё ни разу не видел, чтобы из 4000 планок не выжимали хотя-бы 4400 с 35нс задержками. А, вижу, rtl не настраивал, оттого видимо и разбег в скорости чтения и записи столь большой.

0
Обширный Никита

4000 не даёт снизить первички при любом разумном напряжении. Тесты стабильности не проходятся. А вот 3900 уже многое позволяет ужать. Ну и выбор был очевидный. 

Эти планки одни из первых b-die на 4000 мгц. Видимо это совсем предельная частота для них. Чисто имиджевые 4000 мгц. Или мне не повезло в силиконовой лотерее.  ред.

0

У меня разномастные 16gb 3000mhz планки micron e-die тоже не захотели шибко гнаться.

0
Золотой самолет

В первую очередь качественно прибавляет минимальный фпс (что важнее) а за ним и средний. Плюс рекомендую разгон памяти — 30-60 мин потратив получишь приятный буст системы.

2
Обширный Никита

30-60 мин потратив получишь приятный буст системы.

Смешно. На AMD может и так с помощью автоматической утилитки.

Но на интеле есть только ручной разгон и ты офигеешь его тюнить в попытках довести до идеала. При этом чтобы энергопотребление оставить в рамках нормы. А уж сколько времени уходит на проверки стабильности...
У меня весь процесс занял 2 дня расчётов, подгонов и бесконечных длинных проверок. ред.

1

Вот гайд для дурачел (сам юзал) https://github.com/integralfx/MemTestHelper/blob/master/DDR4%20OC%20Guide.md

Управился за 2часа c 3200 CL16 до 3800 CL16. Вторичные тайминги не трогал кроме первых двух групп 

Оч удобный ред.

0

Не умею гнать память. 

0
Золотой самолет

Писать на клавиатуре ты тоже когда-то не умел, и? Там главное напряжение не задирать, остальное — безопасно.

0

Безопасно, если компьютер только для игр используется. Повреждения данных, от, например, tREFI ты можешь никакими стресс-тестами не найти, а потом важный файл сохранится с корявыми данными в один прекрасный день, а узнать об этом можешь только через недели, когда уже все бэкапы перезапишутся =)

1

Если память с нормальными радиаторами, обдувается (t<45C) и работает на материнке средне-высокого ценового диапазона, никаких проблем от refi 65535 и поджатого rfc не будет. На всякий можно прогнать tm5@extreme или prime в течении суток-двух для верности. Если же уверенности в условиях эксплуатации памяти и качестве матери нет, можно просто использовать стандартную формулу расчета - не сильная будет потеря в производительности, зато 100% стабильность обеспечена.
При настройке памяти на рабочих машинах я вообще не рекомендовал бы трогать ничего, кроме первичек, cwl, faw и wrwrdg (если завышается автоматом выше 4). ред.

1

На клаве с закрытыми глазами уже,  на такой:

0

А есть прок от такой мышки? Удобно ей вообще пользоваться?

0

Да, рука под углом а не плашмя, это реально удобнее стандартных "плоских" мышей. Но самый смак этого набора это клавиатура. 

0

А какая система? Если Intel с чипсетом H, мои соболезнования... 

0

Intel B360

0

Чипсеты серии B, это для всяких околотоповых процов без возможности разгона - считай i7 9700. Бесполезная хуйня

0

Ну память у меня и так 2666мгц, вроде не плохо. 

0

Но не дуалченнел. Будут доп деньги, не поленись и обязательно купи вторую планку с такой же частотой себе. 

1
Вертикальный чувак

В идеале взять сразу набор или такую же планку конечно, чтобы одна плашка не замедляла другую.

1

мои соболезнования

0

Тут надо не думать, а менять. НА худой конец продавать свою плашку и брать две по 8. Оперативка влияет на фпсы(особенно на просадки)

1

Все зависит от конкретного приложения, его настроек и требуемого тебе fps. Для 150-200fps в условном warzone 1080p/1440p на низких/средних настройках кроме 2070s/2080 тебе понадобится 6+ ядерный процессор 4,5ghz+ (intel 8k+, amd 5k+) и качественно настроеная двухканальная ddr4 3600mhz+. Захочешь наворотить фильтров через nvidia shadowplay с сохранением прежнего уровня fps, придется брать уже что-то уровня 2080ti/3070.

1
Вертикальный чувак

Ну смотри, по факту твоя память станет в 2 раза быстрее за счёт параллельного доступа к разным модулям. В играх это очень сильно заметно, так как отсутствие второго модуля много где провоцирует фризы.

0
Добровольный утюг

А с оперативной памятью как обстоит дело? Скорость озу боттлнек или нет

4

DDR3 1600, понятное дело, что она тоже замедляет. Всю платформу менять надо

6

Последние две Ларки,например, требовательны к подсистеме памяти.

1

Последняя одна. В Rise of the Tomb Raider разницы практически никакой. Тестировал, когда разгонял память, там что 3200, что 4000, что 50нс, что 40нс - разница почти в пределах погрешности.

1

1333 на Sandy Bridge или fx  без разогнанной шины. Фризы и не прогрузка объектов в геотермальной долине. После разгона становится гораздо лучше. 

0

Вы о разных поколениях рассуждаете... И в SotTR разницы между 50gb/s 50 ns и 55 gb/s 45 ns при использовании актуальных настроек практически не будет.

0

До 2133mhz (35gb/s, 45ns) догонишь, и для 80-100 fps без статтеров в большинстве проектов хватит.

0

Киберпанку хватает 2-3 гигов оперативки. А уе5 нужно уже 64гб.

0

ue5 не нужно 64 гб. Столько нужно было для одновременного запуска демки в окне редактора и в окне с запущенной демкой в режиме игры. Если запустить демку и закрыть редактор, то потребление памяти меньше 16 гб.
Кроме того, это не движок жрёт столько памяти, а 3d модели, состоящие из миллиардов полигонов, на которых показывали как в UE5 новая технология Нанит позволяет отрисовать миллиард полигонов в кадре на современном железе, где старые движки и на нескольких миллионах полигонов упадут или выдадут 1 fps. Если в UE5 запихать обычные модели с обычным количеством полигонов, то требования к железу не отличаются от требования UE4. Лично запускал свой старый проект из ue4 в ue5 без изменение каких-либо настроек. В редакторе потребление оперативки было не боле 6 гб.
Технодемки делаются для демонстрации возможностей конкретной технологии, а не для того, чтобы смотреть на потребление памяти. Потому что потребление памяти зависит не от движка, а от проекта, созданного на нём. И на ue5 можно сделать игру вроде Valorant'а, который будет работать на встроенной графике от интела и 4 гб оперативки. Не путай возможности движка как инструмента с его особенностями. Гигантское потребление памяти можно обеспечить на любом существующем движке. Если поставить такую задачу. В технодемке была задача не показать минимальную нагрузку на железу, а показать именно возможности технологии отрисовки невиданной детализации. ред.

6

"Киберпанку хватает 2-3 гигов оперативки."
Ну да, покажи мне где КП жрёт 2-3 гб оперативы.

0

У меня. Он все качает с ссд, отсюда такие проблеммы с прогрузкой. Впрочем если поставить режим "медленный ЖД" то он будет в оперативке хранить данные '- по классике

0

А есть скриншоты или что-то кроме слов?

–1

Не мне лень его устанавливать его с нуля.
А джентельмены должны верить друг другу. Или ты не джентельмен? 
Помню что у КП еще лок на потребление оперативки был в 8.5 гб .

0

Доказательств нет.
На этом закончим.

–1

Скорее всего он имел ввиду, что redengine жрет для себя не больше 2-3 гб. Скрин с моей системы, с кучей но: ночь, пустая улица, но с поездкой на транспорте.
Конфиг: fx8350 4,2mhz. 32 gb 1600 и "любимая" 1050ti))))))

0