Железо
Gabon Newil
12 149

Сотрудник Codemasters подтвердил, что запатентованное Sony устройство — девкит PS5 Материал редакции

Этот твит он уже удалил.

В закладки

В своём твиттере старший художник в Codemasters Мэттью Скотт отметил, что в офисе компании уже есть несколько таких девкитов. Запись уже удалена.

На запатентованное устройство Sony СМИ обратили внимание 20 августа. Оно отличается необычным дизайном — в его верхней части находится V-образное углубление с вентиляционной «решёткой».

Говорить о дизайне самой будущей консоли на основе девкита не стоит, поскольку их внешний вид всегда сильно отличается от финального варианта, запускаемого в массовое производство.

Рассылка девкитов PS5, по данным аналитика Даниэля Ахмада, началась ещё в январе 2019 года.

Материал дополнен редакцией
{ "author_name": "Gabon Newil", "author_type": "self", "tags": ["sony","playstation"], "comments": 214, "likes": 161, "favorites": 24, "is_advertisement": false, "subsite_label": "hard", "id": 65311, "is_wide": false, "is_ugc": true, "date": "Thu, 22 Aug 2019 02:31:16 +0300", "is_special": false }
0
{ "id": 65311, "author_id": 147759, "diff_limit": 1000, "urls": {"diff":"\/comments\/65311\/get","add":"\/comments\/65311\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/65311"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 64959, "last_count_and_date": null }
214 комментариев
Популярные
По порядку
Написать комментарий...
130

Когда дизайнеру развязали руки и разрешили пошалить хоть над девкитом.

Ответить
18

И разрешили нюхнуть перед работой

Ответить
3

По итогу корпус консоли похож на машинку для пятилеток

Ответить
6

План по мылу в этой пятилетке перевыполнен.

Ответить
–1

Да, еще таким противным глянцевым пластиком всё обмазать, и вообще заебись будет.

Ответить
0

Не, ну если там будет хороший толстый слой лака... хотя, мы же о консолях говорим - там если все не скрипит, то уже хорошо))

Ответить
12

А вдохновлялся он этажерками США в духе 60х-70х, когда приветствовались смелые идеи и решения.

Ощущение, что в этот V-образный паз ещё что-то должно вставляться.

А столько отверстий и выемок. Готов поспорить, одна из них точно для банковской карты. Чтобы ты мог её туда засунуть и уже никогда больше не доставать. Удобненько!

Ответить
7

Я только сейчас обратил внимание, что этот V-образный паз вполне может быть отсылкой к римской цифре V, то бишь 5. Получается довольно символически, если это девкит PS5.

Ответить
1

скорее всего так и есть

Ответить
3

но на самом деле это паз для носа и само устройство не что иное, как VR-очки)

Ответить
2

А как от пыли и прочего сора протирать то удобно!

Ответить
0

да просто там же красные внутри, походу эта вундервафля люто греется и имеет доп активное охлаждение

Ответить
2

Текущее железо от красных довольно холодное (особенно ЦП) и маложрущее. Да и всегда у консолей было активное охлаждение))

Ответить
0

Они и FX считали печкой с его максимальной температурой в 62°С. TDP же не понимают что такое... Ну зато 80+ интелы холодные, ага)

Ответить
1

Не, ну FXы то жрали много, но вот из-за нормального припоя и отводить от себя тепло не мешали. У интелов тех лет именно что жор был существенно ниже, а вот с отводом были большие проблемы, что в итоге на бумаге холодный процессор грелся больше, чем более жрущий (и следовательно выделяющий) FX.
А вот уже Zen - конфетка по потреблению, особенно если не гнать его на напряжения за 1.4v, а ограничится в 1.3v и ниже.

Ответить
0

Нет, не в этом причина, а в том, что интелы любили ставить вюс говно-кулером, а с амд такое не ппоходило. Но к скайлейку и с интеломперестало прокатывать - нормальные башни стали нормой. У меня 8350 до сих пор валяется - Cooler Master 612S его легко охлаждал при разгоне по BCLK. И да, лучше отводить много тепла от проца и выплевывать за корпус, чем прожаривать проц и vrm на днищематери (собирать интел+нормальная мать тоже стало модно недавно). Сейчас даже к 9400F Z-чипсет стараются (ну так оказалось, что еще и частоты памяти не только для амд нужны (а на xmp плашки денег нет) - ШОК!).

Ответить
0

я к тому, что мне кажется, что это функциональный дизайн который по нужде, вот и все

Ответить
1

Но ведь шалость удалась! Нет ну реально не ожидал такого от Sony)

Ответить
28

Вставляя твиты на ДТФ можно не беспокоиться о их удалении, мы кешируем соц-сети «прокси» сервером.

Ответить
47

Если вставить твит с "Дерьмаком", то система выдаст синий экран?

Ответить
105

Коричневый

Ответить

Комментарий удален

Комментарий удален

1

Поэтому в браузере EDGE на Хромиуме, всё выглядит так?
Microsoft Edge не требует обновления. Версия 78.0.249.1 (Официальная сборка) dev (64-разрядная версия)

Хотя тот же Яндекс на Хромиуме всё отлично отображает.

Ответить
3

Дело IE живёт

Ответить
0

дело тупых несвязных шуток и предубеждений живёт.

Ответить
3

Каких таких предубеждений? Тех, которые на Вашей пикче?)

Ответить
–1

причём тут осёл когда браузер работает на Хроме? ало

Ответить
1

Работает то на хромиуме. Но примерно так же, как и ослик) "Место проклятое"

Ответить
–2

Он работает как и любой хром браузер.

Ответить
5

Он работает как и любой хром браузер.

Сначала написал, что в Edge на Хромиуме твит отображается неправильно, хотя в других браузерах правильно...
Потом пишет, что этот Edge работает также как и любой другой Хром...
Я смотрю, логика у вас не особо в почёте, да?

Ответить
0

Один маленький баг, на одном отдельном сайте. Конечно делаем вывод что браузер гавно, IE же, гы-гы-гы.

К слову к 11 версии IE вполне себе юзабельный браузер, шутки к этому релизу уже не актуальны. Понятно что уже давно его поддержка от самих майкросовт прекратилась.

Ответить
0

на бете нормально

Ответить
0

Хех я понял в чём дело) Через твитор за нами следят и собирают инфу, а я отключал слежение и модули с слежением полностью)

Ответить
26

Нууууу., да... но девкиты всегда были далеки по дизайну от потребительского устройства.

Ответить
17

Девкиты обычно ближе по дизайну к системному блоку, а тут какой адок.

Ответить
26

Не совсем. Это devkit для PS4

Ответить
11

Согласен. Но вот девкит бокса.

Ответить
17

И, на мой взгляд, он выглядит крайне круто, особенно небольшой экран в центральной нижней части - жаль, что в релиз это не попало, т.к. была бы крайне крутая и действительно полезная фишка.

Ответить
1

У разных компаний разная политика относительно дизайна девкитов.

Ответить
0

Это фейковый недорендер какой-то. Покажи фото, тогда поверю. Я держал на руках девкиты хуана и они выглядели иначе - как обычный хуан, но в камуфляжной раскраске. Хотя, возможно, самые первые девкиты (до выхода консоли в продажи) и выглядели иначе.

Ответить
0

Это девкит XOX, изображений на просторах полно

Ответить
1

Ну да, точно такой же приехал. Дисплей кстати программируемый и на него что угодно можно выводить.

Ответить
0

Написано прототип. Девкит это другое. Впрочем, на следующей неделе мне как раз на руки должнен попасть девкит именно что XOX - поглядим.

Ответить
8

Ля видик какой-то))))

Ответить
5

Выглядит как автобот - готов поспорить, что он будет выкрикивать: Автоботы, трасформируемся, и превращаться в плойку повышенного тепловыделения.

Ответить
2

Прекращается в Свич с предустановленным ЕГС

Ответить
3

Это уже десептикон

Ответить
0

У майкрософта наоборот близки, у НИН вроде тоже.

Ответить
31

Какая вообще разница как выглядит девкит... только если вы не хотите пробраться к разработчикам и украсть его, но боитесь взять не то, что нужно

Ответить
0

Ну у этого, походу, охлаждение нормальное. А вдруг в пятой плойке система охлаждения менее эффективна и из-за твоей игры она будет перегеваться? А ты даже и не мог знать об этом, грузил плойку на все 100.

Ответить
–1

Ну с таким дизайном, я бы точно не то украл

Ответить
20

V значит мы могли бы туда встроить доп радиатор с медными трубками и небольшой турбиной, а так же использовать больший потенциал чипов, но мы забили на это и сделали дыру в плойке!

Ответить
5

В V-образный паз будет вставляться компактная гидроэлектростанция или турбина вроде тех, что в Голландии стоят. И всё это будет охлаждать супермощную игровую консоль. А если зажопишься платить ещё $1000 за охлаждение, то активного геймплея хватит минут на 10. =D

Ответить
0

Неправильно! Ее надо как движки у маслкаров на капот автомобиля выводить и ехать по прямому шоссе со скоростью 150км/ч - именно тогда достигается самый благоприятный режим работы железа, когда даже турбина вентилятора может не заводится.

Ответить
1

И заломить за этот потенциал настолько нехристианскую цену поверх той которая итак будет на старте продаж что у детей волосы на жопах повыпадают

Ответить
0

Кстати, какие прогнозы насчёт стоимости пс5/Скарлет на старте продаж? Хочется верить в 600 баксов, но вдруг там заломят все 1000?

Ответить

Комментарий удален

0

500 баксов, не более. Сони уже обожглись ценой в 600 баксов на старте продаж пс3. Я надеюсь они не повторят своей ошибки

Ответить
0

инфляция. тогда 500 баксов как щас 600+. так что все может быть

если раньше я жидился больше 100р за билет отдавать, щас приходится 200+ платить. доллар не так сильно упал но все же.

Ответить
0

Так в 2006-м было уже 600$ - разгребали это до года 2011-го. Инфляция инфляцией, но люди психологически не готовы отдавать больше 500$ за приставку для игры в Фифу.

Ответить
0

ну а если и сони и майки сделают по 600 то выбора не останется. инфляция так же влияет на психологию. сейчас ценность денег стала меньше. и там где ты в 2006 жалел 600 баксов, сегодня можешь их заплатить. хотя цены на железо не взлетели. так что может нам свезет и останется 500.

Ответить
0

Самое смешное, что в 2006-м мне было бы проще отдать 600$, чем сейчас... но не суть))
Да было множество маркетинговых исследований на тему стоимости электроники в массовом сегменте: консоли - до 500-600$, домашний ПК до 1500-2000$, ТВ - до 2000$, только смартфоны выбиваются, но и там на это есть причины и обоснование - до 1500$.
Этими лишними 100$ к ценнику можно запросто отрезать от себя львиную долю потенциальных покупателей)

Ответить
0

Радиатор для потребителей стоит 30 баксов, в огромных сериях вообще баксов 20 если не меньше. Такая плата за отсутствие шума, копеечная, на самом деле.

Ответить
7

Допускается ли вариант, что сони попросили их просто подтвердить догадку тех кто гадает, чтоб нагнать ажиотажа?
Прост с точки зрения промышленного дизайна , такое выпускать эт вульгарно, когда от тебя хотят коробочку.

Ответить
20

Погуглите девкиты прошлых поколений. То что рассылают разработчикам и консумерский продукт- две большие разницы. Во многом, потому что девкиты у разработчиков появляются задолго до этапа масс производства устройства. А там в процессе меняется и топология основной платы и перефирия и т.д. и т.п.

Ответить
13

Если я прав с идеей шо там 2 гпу с радиками на 6 медных трубах, то V образная форма может стать таксказать будущим для консолей. Уж очень внушительные захваты потока стоят на этих вэшках, под ними что-то пиздец горячее.

Ответить
1

Нахрена два GPU да ещё и на таком удалении? Это же ебли добавит больше, чем кастомная архитектура PS3 в свое время.

Ответить
0

опыт двух гп в одной турбине говорит о том, что говно идея. Опыт двух гпу по разные стороны от одного высокооборотного вентилятора говорит, что тоже говно технология. Все это уходит в перегрев заздрасте. Не сразу, но с гарантией. Я ждал, когда придумают чот другое и вот чот мне показалось, что придумали ибо логично.

Ответить
0

Не, разнести два GPU подальше можно, но зачем? Это дополнительные расходы на память и охуительные задержки, к которым графический конвейер еще более чувствителен, чем логический.

Ответить
0

В сли память не стакается, поэтому при любых раскладах имея 2 гпу, будет 2 набора памяти. Я не настаиваю на двух гпу, я просто не могу понять, как создать достаточно мощщей в видяхе без использования топовых решений от АМД или Нвидия. Если использовать таки топовые решения, то консоль стоит будет от тысячи долларов за единицу, а это не приемлемо. Значит решения по гпу будут иными, возможно. А если иными, значит 2 гпу возможно, а старые попытки реализовать 2 головы на одном текстолите ну очень-очень так себе, туда нужно сложное охлаждение ибо 12 фаз питания, 2 головы, 8 банков памяти и т.д и т.п, тепловыделение очень существенное. Посмотрев на коробку с ее схемой airflow внешним я подумал, что там как раз 2 разнесенных в разные стороны гпу.

Ответить
1

В сли память не стакается

Через мульти-ГПУ в DX12 емним стакается, но я собсна как раз об этом. Это дублировать память надо или получать адовые задержки. Одно неприемлемо по цене, второе по производительности.

я просто не могу понять, как создать достаточно мощщей в видяхе без использования топовых решений от АМД или Нвидия. Если использовать таки топовые решения, то консоль стоит будет от тысячи долларов за единицу, а это не приемлемо

Да просто воткнут RX5700/5800 с модифицированными блоками TMU под рейтрейс, задушат по частотам и готово. Не думаешь же ты, что в консоли и правда топовые решения воткнут? Опять будет компромисс, а под конец поколения у нас снова будут проседающие 25 кадров в каждом тайтле вплоть до экзов и динамическое разрешение.

Ответить
0

Сомневаюсь, что в консоль за 500$ воткнут чип от карт, которые продаются за 400-500$ в ПК версии. Если что-то и будет, то явно на уровне условной RX5600 (т.е. что-то похожее на Vega 56 по производительности).

Ответить
0

Посмотрим еще сколько будет стоить консоль, если 600 баксов вай нот, тем более Рыкса 5700XT уже сейчас стоит 400 баксов, а консоли мы получим к концу следующего года, к тому времени голый чип 5700-ой может баксов 150-200 уже стоить.

Ответить
0

Если в пс5 воткнуть Вегу 56, то через 3-4 года хомячкам можно будет продать её еще раз, но с Радеоном 5700XT.

Ответить
0

Все остатки Веги 56 пойдут на Стадии))) Да и разница между 56-й и 5700xt довольно небольшая (не в полтора-два раза, а 15-30%). А года через 3-4 5700xt будет уже старьем)

Ответить
0

Не будет она 150-200 стоить, т.к. видеокарты сейчас в ценах падают крайне медленно. Да и за 600$ получить топовую на сегодняшний момент графику (ну пусть не топовую, но за 500$ (XT)) - это крайне сомнительно, да и не было такого никогда. Тем более, раньше 500$ - это был ценник не начала верхнего сегмента (середняк), как сейчас, а уже флагман/предтоп, лучше которого были только двухголовые монстры. Да и посмотреть на текущее поколение, в которое за ценник в 400-500$ ставят видеокарты с розничной стоимостью в 150$, при том, что и ЦП копеечные на этом поколении.

Ответить
0

Опыт турбин говорит о том, что, в 90% случаев, говно идея))) А тут еще и две! Правильно шутили ниже, что еще чуть-чуть и будет полноценный джетпак)

Ответить
0

Угу, и будет как у двигателей автомобилей. V2, V8, etc

Ответить
5

Тоже удивлен. Объяснить эту V кроме как маркетингом вряд ли можно.

Ответить
2

Сверхсекретный маркетинг, это все объясняет)

Ответить
10

Ага, Playstation V значит.

Ответить
4

V - значит новая Playstation.

Ответить
3

То есть PSV - это теперь не PlayStation Vita?

Ответить
0

Забавно было бы, если б Вита оказалась встроенной в PS V.
Есть же в PS4 отдельный ARM-процессор для работы интерфейса и неигровых сервисов, а в PS V оный будет мощнее и теоретически можно сделать его совместимым с чипом Виты.

Ответить
0

Ну с учетом популярности вита, то проще её встроить, что бы игры на виту покупали(если они ещё продаются)

Ответить
8

Хоспаде, ну и хуйня же

Ответить
7

Очень футуристичное кресло

Ответить
3

А по моему это вообще ретро-виар хедсет

Ответить
6

И это была не шутка юмора.У нас у младшего инженера,дети разбили ПС4про он все разобрал,взял старый осциллограф, заделал все дырки/отверстия(добавил под выходы) кароче через 3 мес. у него ПС4про в корпусе осциллографа с 8Тб хардом и еще под два есть место с дополнительным охлаждением,кучей портов а на экранчике высвечивает инфу мониторинга температуры и вращения диска и кулеров(ВШОКЕЕПАНЫЙНАСОС)..ска я аж завидую да как такто я хз как он такой умный еще не в НАСА работает.

Ответить
5

Как я понимаю, это "яйце-остудитель 3000". Садишься на такой, а он подбирает идеальные условия для яичек, чтобы те не потели и благоухали розами. Громоздковат, но на то он и прототип

Ответить
5

Надеюсь, что и сама консоль такой будет, даёшь по настоящему нестандартный дизайн!

Ответить
2

Не должна быть, уже слишком это непрактично.

Ответить
5

Чё все возбудились то так? Какая разница как дев-кит выглядит, всё равно в массы не пойдёт.

Ответить
1

Там уже на серьезе люди не покупают его...

Ответить
4

V значит вендетта!

Ответить
2

Если кто-нибудь пруфнет, что в V нишах находятся по одному гпу с радиатором, я буду в восторге

Ответить
3

Там точно одно гпу на консоль, SLI и CrossFire загнулись же. Особенно CrossFire

Ответить
10

Если обратиться к истории и вообще логике, то кроссфаер и слай не провальные технологии, просто очень нишевые, а значит никто не будет оптимизировать под них игры на полном серьезе, т.е на потоке. Нишевость технологии не ставит крест, просто циклы взлетов и падений слишком внушительные. Для консолей использовать эту технологию самое оно, поскольку приемущество консолей в вопросах разработки игр очевидно. Разработчики так и так будут вынуждены кодить под 2 ядра аля 690GT, вмазывая все более сочный графоуни. Ну и не забывай тот факт, что для новой консольки работать в 4к - необходимость, а ставить топовое решение от АМД не получится, очень дорого будет такая консоль стоить.

Ответить
3

На текущий момент Кроссфайр дает в лучшем случае просадки по фреймтайму в два раза на некоторых кадрах. В худшем - постоянно.

У SLI чуть чуть лучше, и пара игр там даже адекватно работают.

Никто не будет неработающие технологии использовать в массовом продукте.

Ответить
10

Вы не понимаете смысла поста Анхолия.

Если вам пришить вторую голову, то вы не станете умнее потому, что по факту у вас просто будет одна голова "активная", а вторая "декоративная". И возможно у вас начнутся проблемы со здоровьем т.к. биологически в вас заложено было иметь одну голову.

Так и тут. Увеличение ядер не даёт прирост производительности если ПО не разрабатывалось с учётом мультиядерной архитектуры, которая подразумевает под собой распараллеливание вычислений на несколько ядер одновременно.

Анхолий говорит вам, что из за нишевости технологии разработчики гонятся за меинстримом и не будут преследовать цель оптимизации под нишевую технологию, а потратят ресурсы на что-либо другое, чем распараллеливание вычислений на все доступные графические ядра ПК пользователя.

Ответить
0

Это челик из пожилых, когда интелл начал наращивать ядра, очень много всяких повылезало с требованием продолжать скаляцию на 1 ядре, как у дек альфа и не придумывать свой маркетинг.

Ответить
0

Блять. Гляньте архитектуру любого ГПУ, они и так мультиядерные.

Двухпроцессорные конфигурации у интела есть со времен Пентиума 3 точно, что-то не особо взлетели )))

Ответить
2

Двухпроцессорные конфигурации у интела есть со времен Пентиума 3 точно, что-то не особо взлетели )))

Смотря где - на серверах они весьма популярны.

Ответить
0

Ну и плюс, вы очень круто приплели процессоры, которые выполняют сотни потоков одновременно и видеокарты, которые как правило рендерят что то одно.

Ответить
0

Увеличение количества графических процессоров - это всегда пропорциональное увеличение потребления энергии, при том что эффективность паралельных вычислений 100% не будет никогда, а обычно она процентов 60-70. Нужно ли это в случае с консолями (В консолях вообще чуть ли неSOC, на сколько я помню)?

Ответить
1

Я говорю, что никто не оптимизирует игры под слай-кроссфаер, ты мне говоришь, что технология мертвая потому-что не работает. Как тогда она в БФ1 заработала? Чудо походу. Чудо компетентности лул.

Ответить
0

Как тогда она в БФ1 заработала?

Можно посмотреть видео с графиком фреймтайма в CrossFire в Battlefield 1?

Ответить
0

Только тесты нашел, но вроде и sli и CF в наличии:
https://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/new/1920_11.png

Ответить
1

Похуй на ваши циферки. Давайте видео с графиком фреймтайма. И не просто графиком фрейм тайма а с ровной полочкой, а не как обычно у кроссфаира - заборчиком с просадками до скорости одинарной видеокарты.

Ответить
0

Далеко не все процессы нормально распаралеливаются, и можно услышать, что вы имеете в виду под "оптимизируют" что именно оптимизируют и как?

Ответить
0

А разве Multi-GPU уже научились именно разделять работу, а не рендерить разные куски кадра параллельно?

Ответить
0

в каком смысле разделять работу?

Ответить
0

В смысле не дублировать текстуры и геометрию на оба процессора.

Ответить
0

а это, нет сейчас в отличии от сли видеопамять не дублируется, а суммируется, если раньше был мастер + слейв, то сейчас обе видеокарты мастер, т.е. если раньше у тебя так и оставалось 8 гигов памяти, то теперь будет 8+8, т.е. 16 гигов

Ответить
0

Да так же кадр делят как и раньше :)

Ответить
0

Для консолей использовать эту технологию самое оно, поскольку приемущество консолей в вопросах разработки игр очевидно.

Ты понимаешь, что использование двух видеоускорителей - означает удвоить энергопотребление при в лучшем случае 60-70% прироста производительности?

Ответить
0

Хорошо оптимизированый вольтаж и питание на гпу (собранного под конкретное железо с конкретными настройками) будет таким-же, как у топовой нвидии. Страшно шопиздец, за прирост в 70%.

Ответить
4

Сколько у вас опыта в разработке приложений, работы с графикой или с многопотоком вообще? Установка двух видеокарт вместо одно более мощной не выгодно во всех случаях, кроме того, когда более мощной карты просто не существует.

Ответить
0

а ставить топовое решение от АМД не получится, очень дорого будет такая консоль стоить.

Иксбокс работает же в 4к с 470ым радеоном, норм.

Ответить
0

Впихнут что-то уровня Vega56 (т.е. условную RX5600) - вот тебе и прирост производительности в 2 раза, что хватит для 60фпс по обратке для текущих игр в 4к (когда oneX выдает 30), а уж в новых, более графонистых, будут те же 30 кадров, но зато с куда более сочной картинкой, а за счет нового ЦП еще и детализация существенно вырастет)

Ответить
0

Да скорее всего будет что то типа Веги 56/ GTX 1070 )

Ответить
0

Ну по уровню производительности то понятно, что именно такое решение будет (это еще года 1,5-2 было понятно исходя из уровня цен/производительности на существующие решения), только базирующееся на Navi 1 (явно это будут не Navi2, т.к. 2-е еще не должны быть готовы, а финальную базовую конфигурацию утверждают миниум за год-полтора, ну либо новое поколение выйдет к концу 2021-го) и Zen2.

Ответить
3

Просто появился DirectX 12 с поддержкой функции "asymmetric multi-GPU", позволяющей соединять и запускать вместе видеокарты от разных брендов, т.е. NVIDIA + AMD. Но и эта функция не особо пользуется спросом, .т.к. большая часть игр продолжает использовать DirectX 11. Да и, в целом, банально не выгодно все это для конечного пользователя.

Ответить
0

Для подобных вещей нужно писать совместные, единые драйверы, чтобы работала и одна и другая карта нормально, а скорее всего в виде надстройки под текущие драйвера. Такой программный бутерброд сожрет весь прирост. На бумаге то все замечательно, но вот на практике... дохлая затея.

Ответить
0

а в чем невыгодно? года через 3 после покупки компа добавить вторую видюху это ж выгоднее будет, чем поменять имеющуюся?!

Ответить
0

Ну вот стоит у тебя топовая на вчерашний день Vega 64, которая в пиках жрет по 300-350Вт даже при андервольтинге. Вторая такая будет жрать столько же. Общее потребление системы в пике будет на уровне 1КВт+, т.е. БП уже надо брать на 1.5КВт от хорошего производителя (Sea Sonic, либо Super Flower, и другие БП, сделанные на их базе), а это тысяч 15 обойдется. Да и еще остается вопрос с тем, как выносить из корпуса все эти 1КВт+ тепла так, чтобы и температуры были невысокие, и шум адекватный.
Намного проще продать через 3 года эту Vega64, добавить денег и купить новую карту, которая будет и раза в 2 мощнее, так еще и жрать адекватно.

Ответить
0

2070 супер потребляет 250 Вт, для двух видюх достаточно взять блок питания 850 Вт, а это 7000 р.
за три года в два раза производительность видюх не вырастет.

Ответить
0

Т.е. 350Вт свободных? Проц, который может спокойно 200Вт жрать, на все остальное 150Вт и БП, который работает на 90-100% от общей мощности? Нет, спасибо. Я уж привык иметь запас хотя бы в треть емкости. Терпеть гудящий БП - то еще удовольствие.

Ответить
–1

я ж говорю, сильно не вникал. да, глянул, новые процы могут жрать и 200 Вт, ок, тогда киловаттника хватит, раз вся система потреблять будет 750 во время игр в слае, можно и потерпеть, если бп поднатужится на 75%

Ответить
1

А зачем терпеть? Зачем жарить системник? Зачем спускать кучу денег на киловатт с лишним БП? Зачем мирится с выходом патчей под SLI пару месяцев после релиза, а то и вообще не дожидаться, как в случае Crossfire? Зачем смотреть на недогруз одной из карт в 50%? Наблюдать скачущий фреймтайм? Зачем все это, если можно просто купить ОДНУ новую современную карту, которая гарантированно даст прирост в 2 раза, при этом избавившись от всего гемора, что несёт за собой мульти-гп конфигурации?

Ответить
0

ладно, буду читать гуглить, потому как про проблемы не слышал... что за траблы с фрэймтаймом? кадров много, а рисуется каждый разное время? не понимаю... еще и патчи к играм надо?
спасибо

Ответить
1

Все время, что существовали SLI и Crossfire была одна серьезная проблема: из-за сложности конструкции время, с которым видеокарты передают на монитор готовые отрендеренные кадры довольно сильно разнилось, от условных 15мс до 40-60мс (в лучшем случае), что давало дерганную картинку. Где-то подобной проблемы не было, но в большинстве случаев она наблюдалась. И да, на каждую игру для поддержки мульти-гп конфигураций необходимо отдельные патчи от разработчиков игр (при условии, что сам движок поддерживает это), так и оптимизации драйвера самих видеокарт. А так как людей с 2+ видеокартами всегда было и будут единичные проценты, то никто ради этого сильно замарачиваться не станет, а следовательно проблем с корректностью совместной работы будет только больше. В общем, это уже пройденный этап, который показал, что в реальных условия мульти-гп конфигурации есть смысл брать лишь при отсутствии более мощных одиночных карт, например: два флагмана вместе, да и то, это дает лишь шанс того, что где-то на условном 4к будет прирост, в лучшем случае, на 50-60% к обычному фпс.
ps: спасибо, что отвечаете без агрессии и прочих, привычных для здешних мест, стандартов общения.

Ответить
0

т.е фрэймтайм это типа пинга выходит? 100 фпс (допустим), но каждый из них рисуется в слае чуть позже, чем на одиночной карте, еще и длительность отображения кадра разная получается, типа какой-то 5 мс, а следующий 15 мс?

Ответить
0

Нет, не типа пинга (немного разная природа у них). Фрейм-тайм - это то, за сколько времени с момента выдачи графическим конвейером видеокарты прошлого кадра до выдачи готового нового кадра. Следовательно, пока не будет готов новый кадр, старый будет находится на экране. Среднее время кадра считается, как 1000мс (1 секунда) / количество кадров за эту секунду, но это "средняя температура по больнице". В реальности разброс между минимальным ft и максимальным может достигать 2-3 раза и более.
Так вот у конфигураций с двумя картами данная проблема обстоит куда острее, так как каждая карта рендерит свой отдельный кадр, например по очереди: как только одна начала ренденить новый кадр, у второй уже готов новый, и так по очереди - в идеале получается удвоение количества кадров на единицу времени, что дает в два раза больший ФПС, но вот на практике это работает крайне криво...

Ответить
0

а ну я примерно так и написал?! - какой-то кадр отображается 5 мс, следующий 15 мс, третий 10 мс, а в итоге за секунду 100 фпс и среднее время кадра 10 мс. пинг это был второй вариант

Ответить
0

Да. Плюс-минус так. Только вот у мульти-ГП связок с этим самым фреймтаймом очень часто возникали проблемы.

Ответить
0

Зачем брать две 2070s, если можно взять одну 2080ti?

Ответить
–1

потому что ща 2080ти не нужна, дороже и менее производительна https://youtu.be/fyM0JjD4KZI

Ответить
0

Только на 2080ти фреймтайм будет ровной линией, а на 2070s SLI заборчиком с колебаниями процентов в 30-40.

2070 super от палит - 41 тыща, плюс 8 мостик, плюс 2-3 накинуть в БП, итого 92-93 тысячи за пару. 2080ти палит - 81 тыща.

Ответить
0

если бы ты все мои комменты здесь рядом прочитал, то увидел бы, что я не в курсе, что там за проблемы и откуда с неким фреймтаймом, а также то, что я думаю над вопросом добавления второй карты не сейчас, а года через 3-4 вместо покупки новой.
пока из ваших ответов вижу только минусы такого подхода, дальше сам поизучаю ваши эти полочки какие то и прочее. насчет цены видел буржуйский ролик, где две 2070s были дешевле, чем одна 2080ти, на него и ориентировался, благо у наших барыг из-за разных накруток может быть по-другому.

Ответить
0

Ну вот у тебя на видео видно. Средний фпс у 2070С - 200 против 160 у 2080ти. А вот минимальный одинаковый. Комфорт и плавность картинки тоже будет одинаковой.

Я выше кидал сравнение 1080 в SLI и 2080, там все видно. Судя по тестам ничего не поменялось (Увы не могу найти 2070 в сли с графиком фреймтайма, но если сопоставить средний и минимальный фпс, то выходит что так же осталось).

Ответить
0

ладно, ясно, что дело мутное, а выгорит или нет добавление второй карты через 3-4 года, заранее не узнать.
а разве со sli было лучше? тоже наверняка подход такой не очень был правильный по добавлению второй карты спустя годы вместо покупки новой?
в итоге слай/нвлинк хорош только майнерам и тем, кто готов поставить сразу две топовые видюхи? тут и через 3-4 года такое актуально будет наверняка

Ответить
0

загнулись? недавно видео смотрел, где 2070 Супер в слае тестили, фпсов куча... или там другие проблемы? гсинк перестаёт работать или еще что-то?

Ответить
1

У тюрингов уже не слай, там супермегакрутая технология с пропускной способностью канала как у твоей бывшей.

NVLink, если не ошибаюсь.

Ответить
0

ну я про нвлинк и говорю. две карты вместе, может это и не sli называется, но смысл тот же ведь?

Ответить
1

Не совсем. Ты ещё и за мостик теперь 100 баксов отдать должен. Лiл. (Ну и там технические нюансы)

Ответить
0

к тому времени, как надумаю поставить вторую карту, она как раз на 100 баксов и подешевеет поди))
фиг знает, раньше sli выгоднее что ли был только из-за отсутствия мостика? собираю вот комп, вот и думаю, рассчитывать ли его под добавление второй карты года через 3-4 или нет

Ответить
0

В драйверах никто не поддерживает. Должны поддерживать разработчики. Разработчики срать хотели. Фича multigpu в dx12, вроде бы в вулкане. Хорошо multigpu работает аж в одной игре.

Ответить
1

не совсем, как минимум nvlink складывает память видеокарт, а не дублирует как sli

Ответить
0

Нет проблем как у СЛИ (во всяком случае в некоторых играх) Но там и прирост смешной.

Если дальше видео глянуть 1% аж на 18фпс больше (78 против 60). В самой современной технологии на сегодня.

Ответить
0

Ну фреймтайм пониже. Для энтузиастов норм.
Понятно, что они не будут давать х2 прирост. И даже х1.5. Но это в основном проблема софта, а не технологии в целом.
Снижение фреймтайма для энтузиастов и дрочеров + прирост в специфичных задачах (наверняка такие имеются). Учитывая, что ничего мощнее 2080Ti на рынке сейчас нет, вполне вариант. И в любом случае лучше СЛИ.

Ответить
0

Лучше фреймтайм чуть больше, но линией, чем чуть меньше, но скачками, субъективная плавность выше. А тут его даже "Чуть выше" не будет в большинстве случаев.

Ответить
0

Не смотрите на ФПС, смотрите на график фреймтайма.

Ответить
0

https://www.youtube.com/watch?v=NynXieDmhsU

У 1080 в сли с фреймтаймом было так.

Ответить
0

если честно, не понял куда смотреть, где там параметр фрэймтайм в ролике. да и там sli, а ща nvlink

Ответить
0

Крайне сомнительно.

Ответить
3

Ну... это... Тупо радиатор.
Что довольно нормально для дев-кита гаджета, главная беда которых, почти всегда, теплоотдача. Так что, ну ок. Главное — там есть дисковод, еее!

Ответить
3

А так, моя первая ассоциация была с биноклем из SW.