{"id":4096,"url":"\/distributions\/4096\/click?bit=1&hash=1020629284f840610753efbe1778d077f7fb202b2f393cca3147d848dade251f","title":"\u041d\u043e\u0432\u043e\u0441\u0442\u044c \u0434\u043b\u044f \u0441\u0442\u0430\u0440\u0442\u0430\u043f\u043e\u0432 \u0414\u0430\u043b\u044c\u043d\u0435\u0433\u043e \u0412\u043e\u0441\u0442\u043e\u043a\u0430 \u0438 \u0410\u0440\u043a\u0442\u0438\u043a\u0438","buttonText":"\u041a\u0430\u043a\u0430\u044f?","imageUuid":"14787058-1e49-5f5a-986d-4596cf7dddda"}

Nvidia RTX30xx. Что уже известно, и чего мы не знаем

Судя по всему, рекламщики Nvidia не зря едят свой хлеб.
Интернет впал в экстаз от будущих цен на новинки.
И это на основании графиков, которые пару секунд мелькали на экране!!!
Скажите честно, кто-то сомневался в том, что новое поколение видеокарт будет быстрее прежнего? Вроде таких нет.
А НАСКОЛЬКО оно быстрее? Вы по графикам из презентации успели рассмотреть?
Поместил данные материалов презентации Nvidia на один из слайдов:

Красным, в скобках, указаны: (Cuda Cores\TDP)

В обзоре от Digital Foundry, который стал доступен сразу же после презентации зеленых, сравнивали предыдущее поколение с текущим.
Благодаря чему мы узнали, что разница в производительности между RTX2080 и RTX3080 может достигать 77-80%(в текущих играх).

Странность заключается в том, что количество СUDA ядер в этих картах отличается не в 2 раза, а почти в 3!
GEFORCE RTX 2080 - 2944 Ядра NVIDIA CUDA®
GEFORCE RTX 3080 - 8704 Ядра NVIDIA CUDA®

Логичнее было бы предположить, что именно RTX3070 будет в 2 раза мощнее RTX2080, ведь именно эта карта получила ровно в 2 раза больше CUDA ядер.
GEFORCE RTX 2080 - 2944 Ядра NVIDIA CUDA®
GEFORCE RTX 3070 - 5888 Ядра NVIDIA CUDA®

Неужели CUDA ядра стали менее производительными?

Также следует обратить внимание на то, что лишь новая RTX3080 сможет обеспечить производительность в 4k 60Fps в "современных, требовательных к графике, играх".

Если вспомнить старую статью с производительностью RTX2080Ti в грядущем Cyberpunk2077, то даже новая RTX3070 сможет обеспечить производительность лишь в разрешении 1080p, и это с DLSS.
Хотелось бы ошибаться, иначе зачем она нужна?
Я надеюсь, что все будет не столь печально, и поляки не только выпиливали метро, но и запиливали оптимизацию, дабы порадовать нас на релизе.

. Но и с ней не все так просто.

По сути, существенным новшеством стала технология RTX IO

Вам нужно будет обновить всю платформу. А ведь и у AMD будет свой аналог (точнее первопроходец, о котором еще не рассказали).
Нас ожидает новая битва, или это будет унифицированный стандарт?
Вам наверняка нужно будет купить новый совместимый SSD (PCI-Express 4.0 NVMe).
Также нужно будет грамотно выбирать новую материнскую плату, чтобы убедится в поддержке этой фичи.

Отдельное внимание на новый разъем питания.

Nvidia 12-pin PCIE power.

Да, будут переходники. Но разъем же не просто так внедряли.
Ваш БП должен гарантированно обеспечивать линию 12v током определенного ампеража.

Эта информация пишется здесь не просто так.

Новый 12-pin стандарт теоретически должен обеспечить питание нагрузки до 600Вт. Старые провода с 6-pin коннекторами, способны отдавать лишь по 75Вт каждый, что в сумме всего 150Вт. 8-pin коннектор способен отдать 150Вт. При этом, не должны плавится сами провода блока питания. Вариант "а воткну переходник в свой старый блок питания" может привести к печальным последствиям.

Энергопотребление RTX3080 уже достигло 320Вт (против 250Вт у RTX2080Ti)!!!

Так что, обращайте на это внимание, перед покупкой.

Так наступило ли будущее? Нет, но мы к нему идем.Задавать тон будут консоли нового поколения, с их графикой на уровне RTX2070Super - RTX2080 (исходя из презентации Unreal Engine 5).
Если у вас такая, или сходная карточка, можете год - два не переживать.
Если собираетесь собирать новую систему, то RTX30xx, однозначно.

Не могу понять истеричных визгов владельцев RTX20xx: "Мама, все пропало!!! Что же это, да за что???".
Нет, я конечно соболезную достопочтенным владельцам RTX2080Ti, но такие граждане денег особо не считают. :-)

Сейчас самое время качать лодку всякого рода аферистам, создавая подставные объявления типа "продам RTX2080 за две бутылки пива", и тыкая в них реальных продавцов серии 20xx со словами "дорого берешь, скоро доплачивать придется, чтобы забрали".

Насмотревшись цен с сайта Nvidia, народ уверовал, что именно по такой цене, и в неограниченных количествах любой Васян урвет кусочек магических лучей уже завтра. А почему все должно произойти не так, как всегда?
Почему ограниченную партию (а карточки не выпускают сразу миллионами штук) не смогут раскупить перекупы, часа за 2, чтобы затем тут же перепродать дороже? В сказку верите? Ну верьте. :-)
Тем более, Хуанг будет ждать ответного хода от AMD, а значит основное массовое производство не будет запущено до тех пор, пока он не убедится в целесообразности, что не нужно ничего урезать\добавлять. Пока же будут лимитированные пробные партии, для всех и понемногу.

Еще один аспект - сырость технологии производства. Все помнят скандал с картами прошлого поколения, у которых умирала память? Вы думаете новую технологию производства чипов\памяти\охлаждения не будут тестировать на пользователях? :-)

P.S. Если кто-то решится попытать счастья, приобретая старую карту "с рук".Убедитесь в ее работоспособности, чтобы не нарваться на восстановленный экземпляр.

Протестируйте карту в программе "Mats/Mods". Есть версии для Nvidia серий 10xx и 20xx.

В ролике описаны возможные проблемы б.у. карт, и то, как использовать программу для их выявления. А также возможный ремонт карт.

0
126 комментариев
Написать комментарий...
Владислав Покровский
Ответить
Развернуть ветку
Гост
Странность заключается в том, что количество СUDA ядер в этих картах отличается не в 2 раза, а почти в 3!

Какая разница? 

Если вспомнить старую статью с производительностью RTX2080Ti в грядущем Cyberpunk2077, то даже новая RTX3070 сможет обеспечить производительность лишь в разрешении 1080p, и это с DLSS.

Лучи стали быстрее, то был ранний неоптимизированный билд киберпанка.

Нас ожидает новая битва, или это будет унифицированный стандарт?

Все будет через dirrectx direct storage работать. АМД нет никакого смысла не поддерживать открытый общепринятый стандарт.

Вам наверняка нужно будет купить новый совместимый SSD(PCI-E 4.0 или NVMe).

PCI-E 4.0 отличается только скоростями. Ничего не мешает юзать 3.0. На странице direct storage так вообще говорится только об NVME.

Также нужно будет грамотно выбирать новую материнскую плату, чтобы убедится в поддержке этой фичи.

Нет, p2p есть с незапамятных времен.

Но разъем же не просто так внедряли. 

Чтобы сэкономить место.

Ваш БП должен гарантированно обеспечивать линию 12v током определенного ампеража.

А типа до текущего момента БП этого не умели?

Вариант "а воткну в старый блок переходник" может привести к печальным последствиям.

А может нет. Ну и как бы есть нерефы с 2x8 Pin

А почему все должно произойти не так, как всегда?

Потому что нет предпосылок, что произойдет не так. Уже через месяц у нвидии всегда появлялось достаточно нерефов на рынке на 100 баксов дешевле и перекупам было уже бессмысленно работать.

Еще один аспект - сырость технологии производства. Все помнят скандал с картами прошлого поколения, у которых умирала память?

Для этого придумана гарантия. На карточки она обычно 2-3 года.

Ответить
Развернуть ветку
Роман Тюх
 Все будет через dirrectx direct storage работать. АМД нет никакого смысла не поддерживать открытый общепринятый стандарт.

Более того, AMD это запилила в видеокартах поколения три назад - но это никому не было нужно, до тех пор пока существование этой технологии, как свое достижение и вообще последний писк, не озвучили MS/Sony в новом поколении консолей. Итак - вот оно новое чудо или как попасть в маркетинговую струю, иначе никому нахрен это не надо.

Ответить
Развернуть ветку
4 комментария
Dog Warovich
PCI-E 4.0 отличается только скоростями. Ничего не мешает юзать 3.0. На странице direct storage так вообще говорится только об NVME

Более того, для 3.0 это будет даже нужнее ибо у SSD на 4.0 и так максимальная пропускная высокая, а компрессия и декомпрессия данных помогает увеличить именно пропускную в ущерб задержкам. 

Ответить
Развернуть ветку
4 комментария
Клуб фанатов онанизма

Stepan у тебя до сих пор горит что старые карты скоро станут тыквами?)

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Коляш

Скоро?

Ответить
Развернуть ветку
1 комментарий
Stepan
Автор

Да нет, это логично. :-)

Ответить
Развернуть ветку
Kiboune

Видимо нас ждет серия постов "Как nvidia обманывает покупателей"

Ответить
Развернуть ветку
1 комментарий
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
16 комментариев
Владислав Покровский
Ответить
Развернуть ветку
Arthur J

Новые технологии и лучи это конечно хорошо. Но меня удивил восторг толпы по поводу того, что 3070>2080ti за 500$. В чем новость то? Ведь уже было 1070>980ti и, внезапно, за 380$. И прям восторгаются, как дёшево. А где дёшево то? То, что 20** серия была оверпрайс, это другой вопрос.
Так что 3080 за свои деньги норм, можно брать, но вот 3070 это большой вопрос, надо подождать что выкатит AMD. 

Ответить
Развернуть ветку
LT
меня удивил восторг
20** серия была оверпрайс

сам спросил, сам ответил

Ответить
Развернуть ветку
lovemyonahole

970 была круче 780Ti и стоила примерно 330. Так что да, я тоже не понимаю вот это вот. Лучше бы задумывались о том, что карты с одинаковым позиционированием растут в цене из поколения в поколение.

Ответить
Развернуть ветку
1 комментарий
Podd Toward

Очевидно производство 3070 дороже 980ti, сравнил блин

Ответить
Развернуть ветку
2 комментария
Донкий ХОД

Прочитал по диагонали и понял, что ситуация "Степан и Старситизен" - не случайна, у Степана хорошо откормленная паранойя и обостренное чувство что его наебали, но он не пока не понимает, как.

Ответить
Развернуть ветку
Ярослав Голубев

Если у вас паранойя это еще не значит что за вами не следят , да гугл? Да Амазон ? Да АнБ и ФБР?

Ответить
Развернуть ветку
1 комментарий
Олег Целищев

Меня тоже удивил такой экстаз тут, какое-то массовое помешательство. Круто конечно будет если вся эта сладкая патока которую они в уши заливали будет правдой, но может хотя бы выхода дождаться? Обычно крупные анонсы всегда большим количеством скептиков сопровождаются, особенно здесь, с довольно, будем честны, токсичной аудиторией, но тут словно мозг всем массово отключили.

Ответить
Развернуть ветку
Майк Стокласа

+80% к производительности прошлого поколения в среднем - это объективно очень жирно и реально может соревноваться с Maxwell -> Pascal переходом. Чё не радоваться-то?

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Stepan
Автор

Не угадал, более года назад 2070s

Ответить
Развернуть ветку
jstSmk

Экстаз понимаю, но сам не переживаю. На 2070S еще год-два точно просижу, раньше этого времени вряд ли появятся игры, которым "кровь из носу" будет нужна карточка 3000-й серии. 
Я больше не понимаю почему люди так хотят 3070, когда 3080 реальный топ из-за GDDR6x, ради которой стоит переплатить. В отличии от, например, 2080Ti по сравнению с 2070S. 

Ответить
Развернуть ветку
Kostya Bashmakov

Разве есть толк от 6х памяти, если ее всего 10гб будет, хотя игры в опенвордах с 4к текстурами влегкую эту десятку забьют еще и не хватит, какая бы быстрая она ни была?

Ответить
Развернуть ветку
Степан Комитский
Если у вас такая, или сходная карточка, можете год - два не переживать.

Без обид, но у меня ощущение, что автор в первую очередь себе это пытается доказать, а не кому-то другому.

Ответить
Развернуть ветку
Nikita
Задавать тон будут консоли нового поколения, с их графикой на уровне RTX2070Super - RTX2080 (исходя из презентации Unreal Engine 5).

ЛОЛ

Если у вас такая, или сходная карточка, можете год - два не переживать.

Я вот не собираюсь переживать ещё год-два со своей 1070ти
Статья очень странная, если честно

Ответить
Развернуть ветку
lovemyonahole

Только если в 1080 можно не переживать.

Ответить
Развернуть ветку
1 комментарий
Игорь Сурмилов

Один вопрос лишь возникает. Почему на этих чудо-графиках от nvidia нет точки с 3090?
Понятно, что они её не позиционируют как массовую, но могли бы например хотяб рассказать как она в 4к будет работать с текущими играми, это же лишнее слюновыделение для потребителя. Зачем они про 8к заговорили, кому оно сейчас нужно то...

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Danya

Барыжу ремонтированными картами, как на моем маленьком бизнесе скажется эта лихорадка?

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
10 комментариев
Executioner Smough

Степан, ты хорошо пишешь. Но я уже продаю свои две 2080 на барахолке.

 Странность заключается в том, что количество СUDA ядер в этих картах отличается не в 2 раза, а почти в 3!

Они в презентации же показали, что их новые ядра в два потока ебошат теперь. Так что просто х2 по сути и нарисовали. Грубо говоря гипертрейдинг завезли и на видевакарты.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
2 комментария
Moonshine Whisky

Меня вот больше интересует, что там будет с 3060. Премиальный сектор, конечно, здорово выглядит, но я до упора хочу сидеть на 1080р, и та же 3070 для такого разрешения уже будет перебором, судя по всему. Сейчас не тужу с 2060 и лишний раз менять карту не хотелось бы, конечно.

Ответить
Развернуть ветку
Ярослав Голубев

По некоторым слухам 3060 вообще не будет 

Ответить
Развернуть ветку
10 комментариев
Павел Бойченко

А че на графике-то изображено? Никак не пойму 
По оси X цены, окей
А по оси Y что за кратности? Это относительно чего?
 А линии из синих становятся золотыми, и к ним привязка разрешения и ФПС идет...о чем это вообще говорит?
Может это кто-нибудь мне расшифровать?
Но сам пост в закладки добавил ибо точно буду собирать ПК 2 и о всех этих фишка с RTX IO и прочим надо бы не забыть

Ответить
Развернуть ветку
Igorious
  Это относительно чего?

Относительно 980.

Ответить
Развернуть ветку
1 комментарий
LT
пост в закладки добавил

Зря, он полон бреда.

Ответить
Развернуть ветку
2 комментария
Ярослав Голубев
Неужели CUDA ядра стали менее производительными?

Все дело в ртх ядрах. CUDA же  ядра не дают прироста производительнлсти ибо хай настройки этих игр не содержат настроки на вырост , на будуюшие карты, в плане стандартных настроек  графики, лишь на запас на количество обрабатываемых лучей. Это давно известный эфект который наблюдается у старых игр , рано или поздно рост производительности останавливается ибо это ограничение не карты ,а конкретной игры. 

Ответить
Развернуть ветку
Allermo

В любом случае нужно подождать тестов в играх без лучей, от первых пользователей. Но карточки думаю все равно годные будут, по CUDA ядрам видно.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Lucky Asiatskii

Производители процессоров и видеокарт превращаются в Яблочников, заоблачная реклама, заоблачные характеристики, пиар, 500 миллионов ядер, потоков, процов на квадратный см, а цены завышены в два раза, как Айфуны 11. А все ли полностью пользуются характеристиками такой машины? Большинство покупает, потому что дорого, а дорого значит круто, а круто, значит ты в элитном клубе обладателей. На психологии людей ценами играют. Пока люди активно хавают и берут кредиты или честно накопленное отдают за хренфоны, хренинтелы и хреннвидиа, производители дальше будут гнуть свой оверпрайс, берут же... 

Ответить
Развернуть ветку
Ghar Undefeated

вот чет сижу я с 980ti и до сих пор нормально

Ответить
Развернуть ветку
Ромуальд Царюк

Так ты не сиди. Попробуй хотя-бы игру какую-нибудь запустить :)

Ответить
Развернуть ветку
2 комментария
Hellkey

Вытащил 2080 ti, выставил на продажу. Сижу теперь на 980 ti. Братттт!!!!

Ответить
Развернуть ветку
Phobiastrike

Ах, Степан.

Ответить
Развернуть ветку
Гарик

Я вот тоже не очень понимаю слишком бурные восторги по поводу 3070. Да, она на ~30% быстрее, чем 2070, но и 2070 на ~30% быстрее, чем 1070. Плюс, нужно еще дождаться реальных тестов и не делать поспешных выводов.

Ответить
Развернуть ветку
Алексей Афанасьев

Восторги (и вполне оправданные) в первую очередь из-за цены. 

Ответить
Развернуть ветку
10 комментариев
LT
Да, она на ~30% быстрее, чем 2070

Больше.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Allermo

А еще я купил 2070 Super в начале февраля за 35к. Считаю себя обосравшимся, но не сильно, ибо рекомендованная цена 45500, плюс то что накинут и т.д. Хотя может под 40 она к новому году и будет стоить, хрен его знает

Ответить
Развернуть ветку
LT
Неужели CUDA ядра стали менее производительными?

Они изменили конфигурацию SM, теперь CUDA ядер в два раза больше на SM, но самих SM столько же.

"а воткну в старый блок переходник" может привести к печальным последствиям

Nvidia сама переходник к картам кладет, поэтому не понимаю беспокойства.

Насмотревшись цен с сайта Nvidia, народ уверовал, что именно по такой цене, и в неограниченных количествах любой Васян урвет кусочек магических лучей уже завтра. А почему все должно произойти не так, как всегда? Почему ограниченную партию (а карточки не выпускают сразу миллионами штук) не смогут раскупить перекупы, часа за 2, чтобы затем тут же перепродать дороже? В сказку верите? Ну верьте. :-)

Херню какую-то сморозил. У Nvidia через несколько недель после релиза рефов выходит дохренища нерефов, это не AMD.

Хуанг будет ждать ответного хода от AMD, а значит основное массовое производство не будет запущено до тех пор, пока он не убедится в целесообразности, что не нужно ничего урезать\добавлять. Пока же будут лимитированные пробные партии, для всех и понемногу

Какой-то дикий бред.

сырость технологии производства. Все помнят скандал с картами прошлого поколения, у которых умирала память? Вы думаете новую технологию производства чипов\памяти\охлаждения не будут тестировать на пользователях? :-)

Это можно сказать про любой новый продукт, лол. Гарантию никто не отменял.

Ответить
Развернуть ветку
AnkleBen
 Не могу понять истеричных визгов владельцев RTX20xx: "Мама, все пропало!!! Что же это, да за что???".

Касаемо этого момента, видел только визги недавних владельцев карт 20-й серии, которые взяли карточку полгода-год назад по цене сходной с ценой карт нового поколения, то есть банальная обида на собственную невезучесть.

Ответить
Развернуть ветку
Ярослав Голубев

Ага . Это как игра которую ты купил , а ее раздают в егс 

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Vitaly St.

Аффтар с утра съел не те грибочки.

Ответить
Развернуть ветку
Павел Бойченко

или те

Ответить
Развернуть ветку
Vitaly St.

Все ли пользуются мощностью цпу - вряд-ли. Все ли пользуются мощностью видяхи - скорее да (любая современная ААА игра может нормально нагрузить видюлю).
Видюлю загрузить не так уж сложно: выше разрешение, сглаживание, детальность, дальность и т.п.
Если взять видюлю без запаса, то довольно скоро её захочется поменять (привет новый ифон каждый год). Если с запасом, то хватит уверенно переждать минимум одно поколение карт.

Ответить
Развернуть ветку
119 комментариев
Раскрывать всегда
null