История обмана Nvidia

На сегодняшний день, видеокарты компании Nvidia стоят в подавляющем большинстве игровых компьютеров. Если быть точнее, то доля рынка Nvidia 75-80%. И если на рынке процессов между Intel и AMD есть некий паритет, то на рынке видеокарт - Nvidia абсолютный монополист. Как так вышло?

Видеоверсия блога

Ну для начала надо признать, что Nvidia действительно делает хорошие видеокарты. Да это может прозвучать странно, но несмотря на ваше отношение к Nvidia это нужно признать. У меня самого было три видеокарты, и ни с одной из них не было никаких проблем, а две из них отслужили мне свой срок и были благополучно проданы, так что возможно они ещё трудятся у кого-то в ПК. Но тогда к чему этот заголовок и о чём вообще я собираюсь писать? Так вот, помимо гениальных инженеров и программистов, в Nvidia так же работают и гениальные маркетологи. Вот только надо понимать, что действуют они именно в интересах компании, а не покупателей, зачастую даже наоборот, сознательно путая и обманывая потребителей. Зачем? Что бы продать не самую удачную видеокарту? Что бы накрутить цену к более удачным видеокартам? Что бы заставить людей чаще покупать свои видеокарты? Да. Именно для этого. И сегодня я хотел бы как раз рассказать о том, как Nvidia обманывает своих покупателей. Хотел бы сразу сказать, что в этой статье не будет глубоко технического анализа видеокарт. Я не обладаю подобными знаниями и не претендую на звание эксперта в области компьютерного железа. Те данные, на которые я опирался и которые можно будет увидеть дальше по тексту взяты из открытых источников – Википедии, различных тестов, а так же презентаций самой Nvidia. Для сравнения видеокарт в производительности я использовал сайт (https://technical.city/ru) как на мой взгляд наиболее удобный и наглядный из всех. Итак...

Немного истории

Начнём с небольшой экскурса в историю. В 2008 году Nvidia сменила наименование своих видеокарт. Новоz система наименований было простой и логичной. Название видеокарты состояло из трёх цифр – первая обозначала поколение видеокарта, вторая её класс производительности, а третья цифра оставалась для всяких дополнительных модификаций. И да, раньше Nvidia реально использовала последнюю цифру в названии – например была такая видеокарта как GTX 465. Но долго придерживаться своих ж правил Nvidia не смогла, и уже в 2010 году стала использовать приставку Ti, для обозначения промежуточных классов видеокарты. Причём, приставка Titan, никакого смысла в себе не несёт, что это вообще должно означать? Видеокарта сделана из Титанового сплава? Или что она титанических размеров? Когда я вижу перед собой список, выглядящий как GTX 460-465-470 – я прекрасно понимаю, что видеокарта с индексом 465 – является промежуточной между 60 и 70 классом. Но когда я вижу видеокарту с припиской Ti – откуда мне понять, что это означает? Так что путать своих покупатели Nvidia начала ещё давно.

Отдельно я хочу упомянуть видеокарты класса GTX *90, они вовсе не соответствуют тем, что выходят сейчас под таким же названием. Тогда, в одну видеокарту вставляли два чипа и получилось, как бы две видеокарты в одной. В теории, это должно было давать двухкратный прирост производительности. Но в реальности, очень многие игры тупо не понимали, как работать с двумя чипами одновременно, не говоря уже о безумном энергопотреблении и нагреве. Так, уже в 7ом поколении Nvidia отказались от этих франкенштейнов.

Ещё одно наведение, которое произошло в том же 7ом поколении – это появление видеокарт класса Titan. Да, теперь это не просто приписка к промежуточным видеокартам, но и целый отдельный класс. Так что всё стало ещё запутаннее. Хоть эти карты и не предназначались для обычных пользователей. Это было профессиональное решение для работы и бизнеса. Стоили они безумно дорого, да и покупать их для игр смысла не было, потому что показывали они себя порой даже хуже, чем обычные видеокарты.

История обмана Nvidia

День когда всё пошло не так

Не считая добавления приписки «Ti», Nvidia придерживалась правил наименования десять лет. Но в 2018 году, они решили не просто «переизобрести» графику со своим новыми RTX картами, но полностью поломать свои же правила наименований.

Начнем с того, что Nvidia перескочила с десятого поколения сразу на двадцатое. Зачем это нужно было делать? Потому что круглые цифры смотрятся лучше? За кого Nvidia держат своих покупателей – за детей, которые выбирает игрушку по названию? Intel вот ничего не помешало выпустить после 10го поколения процессоров, 11е, 12е и т.д. Apple тоже после 10го выпустил 11ую версию iPhone, у нас есть Windows 11 и т.д. До этого, сама Nvidia выпускала свои видеокарты строго в хронологическом порядке, к чему тогда потребовалось пропускать аж десять поколений? Но это лишь начало.

Потому что, Nvidia разделила это поколение на два, и выпустила видеокарты с наименованием GTX 16** и RTX 20. Почему 16? Я не знаю. Может быть по количеству видеопамяти – нет, по пропускной способности - нет. Да даже если бы это было так, никто не называет видеокарты по количеству гигабайт, гигагерц, ширине шины и т.д. Это чистый маркетинг, причём не имеющий никакой логики. Если это промежуточное поколение между 10ым и 20ым – по чему бы его не назвать GTX 15** ? Зачем вообще это разделение было нужно? По сути, 16 поколение это RTX 2050 (которая никогда не выходил), которую переименовали в 1650 и 1660. Зачем это нужно было сделать? Ну, чтобы на фоне этих видеокарт, 20ая линейка выглядела лучше. Потому что 1650 и 1660 выглядят как неполноценные карточки. Вроде как, это новое поколение, но у них нет RTX/DLSS, а производительность 1650 так вообще ужасная – она намного слабее 1060, из прошлого поколения. Да и называются они как-то странно. Обыватель зайдет в магазин и подумает: где моя привычная 2050 – что ещё за 1650? И ему придётся взять 2060, хоть она и подорожала на 100$....Но и это ещё не все.

История обмана Nvidia

20е поколение все равно продавалось не очень хорошо. Поэтому спустя год Nvidia решает перевыпустить часть видеокарт с припиской «Super». Нужно ли мне говорить, что это максимально нелепое и детское обозначение новых видеокарт? Реально будто бы, подобный маркетинговый ход был рассчитан на детей до 10 лет, которым нужно чтобы всё было супер-пупер-дупер. И это ещё больше путает покупатели и ещё больше раздувает и без того раздутую линейку 20го поколения. Вместо двух видеокарт: RTX 2050 и 2050 Ti мы получили аж пять видеокарт – 1650, 1650 Super, 1660, 1660 Super, 1660 Ti. Причём разницы между последними двумя практически нет – не очень она и супер получается.

История обмана Nvidia

Чудеса с гигабайтами

Слава богу с выходом тридцатого поколения, Nvidia отказалась от идеи разделения видеокарт на два поколения, отказались они и от дурацкой приставки «super» (правда не на долго). И все бы то хорошо, но Nvidia не была бы собой, если бы за место этого не придумала что-то другое. А именно – в той поколении была представленная видеокарта класса RTX 3090. И это именно новый класс видеокарт, потому что она не имеет отношения к старым двучиповым картам *90, и это не замена «Титанам», как можно было подумать. Титаны были полупрофессиональными картами, которые не предназначались для игр. 3090 напротив же – представляется и рекламируется как видеокарта для потребителей, её ставят в один ряд с 3070-3080 и в отличии от с «Титанов» у неё действительно есть существенный прирост производительности в играх. Но разве это плохо – спросите вы? Nvidia просто расширила свою линейку видеокарт, больше выбор, это ведь наоборот плюс. Не совсем.

Дело в том, что, выпустив 3090 Nvidia как бы сдвинула всю линейку видеокарт на одну ступеньку вниз. Так, если, раньше покупая *80 карточку, вы могли рассчитывать на максимально возможную производительность, теперь это не так. Именно поэтому RTX 3080 получила всего 10гб видеопамяти, едва больше, чем её предшественник. В то время как 3090 получила аж 24гб. И на все претензии Nvidia отвечала – если не устраивает мощность RTX 3080 просто купите RTX 3090. Но при этом цену на 80ую линейку никто снижать не собирался. Очень удобный способ, заставить людей переплачивать за то, что раньше они могли получить по гораздо более низкой цене.

История обмана Nvidia

Ещё одним сюрпризом в 30ом поколении видеокарт, стала RTX 3060 на 12гб. Аттракционный невидной щедрости или хитрая уловка что бы продать побольше видеокарт? Думаю, вы уже догадались.

Вот какой интересный момент – всю историю Nvidia, количество видеопамяти напрямую коррелировало с классом видеокарта: чем выше класс видеокарты, тем больше у неё видеопамяти. (Можете взглянуть на сводную таблицу, чтобы убедиться в этом.) Звучит в целом логично. Да к тому же, облегчает выбор видеокарты для людей, слабо разбирающихся в вопросе. Просто смотришь у какой карты больше Гб, и выбираешь доступную тебе по цене. И вот, выходит 3060 у которой видеопамяти внезапно больше почти чем у всех остальных карт 30го поколения. Серьёзно, даже у полу-флагманской 3080 памяти меньше, всего 10гб. Только поднявшись до уровня 3080 Ti, мы получим такое же количество памяти как у стандартной 3060. Значит ли это, что 3060 по своей производительности сопоставима с 3080??? Конечно же нет. 3060 рвёт даже следующая по классу 3060 Ti – у которой кстати, всего 8гб видеопамяти. Как же так? Ну очевидно, объем памяти не определяет мощность всей видеокарты. И эти 12 гб чаще всего висят мертвым грузом, на достаточно слабом чипе RTX 3060. Посмотрите любые тесты – едва ли хоть в одной игре, она будет потреблять больше 7-8-9 гб видеопамяти. Все это лишь уловка, чтобы привлечь не разбирающихся покупателей, которые привыкли что «больше гб = лучше видеокарта». И ведь сработало же! 3060 прямо сейчас красуется в топе самых популярных видеокарт, по статистике стима. Нет, вы не поймите меня неправильно. Это неплохая видеокарта, просто ценник на неё неоправданно высок. Люди берут её в надежде, что 12гб дадут им некий «запас прочности» на будущее, но это не так. Уже сейчас, её едва хватает что бы запускать игры в 1080р на максимальных настройках, и через пару лет, она не сможет и этого, и придётся скидывать настройки уже до низко-средних. Звучит как-то не очень для видеокарты «с запасом».

Перейдем к последнему, на сегодняшний день поколению видеокарт Nvidia. Сороковую линейку сразу приняли негативно, в основном из-за безумных цен на карточки RTX 4080 и 4090, но о ценах мы поговорим чуть позже. Но в и целом, продажи новых видеокарт оказались слабыми, поэтому Nvidia вновь решила прибегнуть к трюку с перевыпуском карт с приставкой «Super». Нужно ли мне снова говорить какое тупое это название? Зато у нас теперь есть видеокарта RTX 4070 Ti Super – шутки про Супер-пупер-дупер уже почти не шутки.

История обмана Nvidia

Но главная проблема 40го поколения в том, что Nvidia продолжила продавливать политику цен, начатую ей в прошлом поколении. Как я уже говорил, с появлением RTX 3090 вся линейка видеокарт как бы съехала на одну ступеньку вниз, и в 40ом поколении это даже более заметно. Дело в том, что RTX 4060 и 4060 Ti получили мизерную прибавку к производительности. Только вдумайтесь в абсурдность ситуации: у 4060 Ti всего 8гб видеопамяти. Как и у 3060 TI, как и у 2060 Super (Ti). То есть за три поколения мы получили нулевой прирост к памяти. Да я сам говорил, что видеопамять не определяет мощность видеокарты. Но это важный её компонент, очень важный. И в 2024 году, видеокарта RTX 4060 смотрится безумно со своими 8гб памяти, если вспомнить, что ещё в GTX 1070 уже было 8 гб видеопамяти, в 2016 году. Ниже будет график прироста производительности **60 линейки видеокарт, по отношению к прошлому поколению в %. На котором отчетливо видно, что уже два поколения подряд мы получаем очень маленький прирост производительности. Зато вот видеокарты уровня 4070-4080 получили заметный прирост к мощности...и цене. RTX 4080 заимела аж 16гб видеопамяти и ценник в 1200$. Напомню, что рекомендованная цена на GTX 1080 была 600$ - в два раза ниже.

Получается, что сейчас, минимальная видеокарта для комфортной игры во все новинки, без скручивания настроек графики это RTX 4070 Ti. А ведь раньше, покупая даже 50 линейку, вы могли рассчитывать на какую-то вменяемую производительность за своим деньги. RTX 4050 ещё не выпустили, но мне страшно представить, какой огрызок там будет. Если она вообще, конечно, выйдет.

Деньги-деньги-деньги

Думаю, стоит поговорить отдельно про цены. Конечно, живя в России, сложно объективно оценивать стоимость видеокарты, точнее это бессмысленно. Потому что на нашем рынке к цене видеокарты прибавляются ещё различные транспортные затраты, налоги, пошлины, наценки магазинов и прочее. Поэтому рассуждать я буду в долларах, и смотреть на ту рыночную рекомендованную цене (РРЦ), которую указывает сама Nvidia в своих презентациях.

История обмана Nvidia

И так, мы имеем вот такую картину. По ней мы явно видим, что средняя цена на видеокарты – выросла. Но насколько? Начнем с **60 линейки - здесь достаточно интересная картина, у нас три поколения подряд рекомендованная цена снижается. Но вспомним, о чём я говорил про изменения позиционирования линеек видеокарт и всё встает на свои места. Но даже так, RTX 4060 сегодня стоит дороже чем GTX 460, и я говорю именно в реальных ценах, очищенных от инфляции. Хоть и разница здесь совсем небольшая, всего 25$

История обмана Nvidia

С 70ой линейкой все ещё интереснее, здесь рост цен составил уже 43% по сравнению с 2008 годом. Повторюсь, именно реальный рост цен, с уже учтённой инфляцией доллара. Но веселее всего, конечно, смотреть на цены 80ой линейки – почти двухкратный рост цен, даже по сравнению с поколениями, которые вышли 4-8 лет назад. Да, сейчас у нас есть RTX 4080 Super, РРЦ которой всего 1000$ - но она вышла спустя больше года оригинальной RTX 4080 и не является заметным её улучшением, поэтому не считается за версию Ti. А за год, цена на обычную RTX 4080 и так должна была упасть на 10-15%, это нормальный рыночный процесс.

Так что да, Nvidia подкручивает цены. Может быть не так сильно, как нам это кажется, но и не так мало, чтобы оправдать это всё инфляцией.

Чем хочется закончить данный блог? Я ничего не имею против продвижения своего товара, против рекламы, маркетинга и так далее, я против того, как это делает Nvidia, особенно последние несколько лет. Аукается ли их отношение к своим покупателям? Пока что нет. Nvidia все ещё занимает больше ¾ всего рынка потребительских видеокарт, а её акции пробивают новые высоты. Возможно, в будущем ситуация изменится, а кредит доверия уже будет потрачен. Многие слухи говорят, о скором анонсе уже 50го поколения видеокарт и мне очень интересно, что же Nvidia придумает на сей раз, что бы заработать побольше денег. А вас, я лишь призываю с думать больше головой, а не вестись на рекламные уловки компаний

Для обложки
Для обложки
7777
124 комментария

Для сравнения видеокарт в производительности я использовал сайт (https://technical.city/ru) как на мой взгляд наиболее удобный и наглядный из всех.

Сейчас бы ориентироваться на сайты техникал сити и другие подобные сайты (versus, comparison и прочая хрень). Все подобные сайты это чисто сайты сделанные рандомными Васянами для заработка на партнёрских ссылках Амазона. У них нету этих железок, а все цифры там вписаны от балды или на основе синтетики которая нихрена не отображает реальную производительность в играх .

И эти 12 гб чаще всего висят мертвым грузом, на достаточно слабом чипе RTX 3060. Посмотрите любые тесты – едва ли хоть в одной игре, она будет потреблять больше 7-8-9 гб

Без проблем будет потреблять больше указанного и не в одной игре.

Вообще пост ни о чем получился и никакой интересной аналитики не получилось. Очень много ерунды написано.

50

Ну кста да, техникал сити в приличном обществе не упоминают. Сразу уровень аргументации показывает.

Что не отменяет того, что нвидиа жадные мудаки. Куртка крутит ценник потому что может .. 350к за 4090 во время майнинг бума это конечно пиздец

20

Окей, Не говорю что ТехникалСити на 100% объективен, но а на что ещё ориентироваться? Пока собирал информацию к блогу - пересмотрел кучу тестов и результаты везде очень разняться. Кто то, например сравнивает с учетом генерацией кадров ДЛСС, кто то тупо снижает настройки на средне-низкие и т.д.
Без проблем будет потреблять больше указанного и не в одной игре.Ну и где например? Только давай без сферических 4к с 20фпс, а реалистичные сценарии. Вот к примеру:
Horizon FB - 8,6гб
RDR 2 - 5,5гб
Cyberpunk - 8,5гб
RE 4 - 11гб (окей)
Starfield - 6гб
Hogwarts Legacy - 9гб
Forza - 8гб
Т..е только в одной игре потребление больше 10гб видеопамяти и если че, во всех резиках такая хурма, что игра потребляет ВСЮ видеопамять которую ей дают, так это не самый правильный пример. Тесты ниже

https://youtu.be/H2y6vCxHCMc?si=7KizJRDwftcHfV5I

6

То ли дело у тебя, что ни пост то аналитика уровня "1080 это ебаное мыло, все давно уже играют минимум в 4К"

Боже, что за хуйню я прочитал.
2/3 твоей портянки это претензии к неймингу и нумерации. Или что-ли траву пощупай. И терпи.

39

Ну вообще, нейминг и нумерация - это один из главных способов для запутывания пользователя. Хотя до АМД им, конечно, ещё далеко.

Кому эти горы текста? И что с этой информацией сделает обычный пользователь? Есть только Nvidia и точка, у неё всегда будет лучшая производительность и это база.

13