Вот какой интересный момент – всю историю Nvidia, количество видеопамяти напрямую коррелировало с классом видеокарта: чем выше класс видеокарты, тем больше у неё видеопамяти. (Можете взглянуть на сводную таблицу, чтобы убедиться в этом.) Звучит в целом логично. Да к тому же, облегчает выбор видеокарты для людей, слабо разбирающихся в вопросе. Просто смотришь у какой карты больше Гб, и выбираешь доступную тебе по цене. И вот, выходит 3060 у которой видеопамяти внезапно больше почти чем у всех остальных карт 30го поколения. Серьёзно, даже у полу-флагманской 3080 памяти меньше, всего 10гб. Только поднявшись до уровня 3080 Ti, мы получим такое же количество памяти как у стандартной 3060. Значит ли это, что 3060 по своей производительности сопоставима с 3080??? Конечно же нет. 3060 рвёт даже следующая по классу 3060 Ti – у которой кстати, всего 8гб видеопамяти. Как же так? Ну очевидно, объем памяти не определяет мощность всей видеокарты. И эти 12 гб чаще всего висят мертвым грузом, на достаточно слабом чипе RTX 3060. Посмотрите любые тесты – едва ли хоть в одной игре, она будет потреблять больше 7-8-9 гб видеопамяти. Все это лишь уловка, чтобы привлечь не разбирающихся покупателей, которые привыкли что «больше гб = лучше видеокарта». И ведь сработало же! 3060 прямо сейчас красуется в топе самых популярных видеокарт, по статистике стима. Нет, вы не поймите меня неправильно. Это неплохая видеокарта, просто ценник на неё неоправданно высок. Люди берут её в надежде, что 12гб дадут им некий «запас прочности» на будущее, но это не так. Уже сейчас, её едва хватает что бы запускать игры в 1080р на максимальных настройках, и через пару лет, она не сможет и этого, и придётся скидывать настройки уже до низко-средних. Звучит как-то не очень для видеокарты «с запасом».
Для сравнения видеокарт в производительности я использовал сайт (https://technical.city/ru) как на мой взгляд наиболее удобный и наглядный из всех.
Сейчас бы ориентироваться на сайты техникал сити и другие подобные сайты (versus, comparison и прочая хрень). Все подобные сайты это чисто сайты сделанные рандомными Васянами для заработка на партнёрских ссылках Амазона. У них нету этих железок, а все цифры там вписаны от балды или на основе синтетики которая нихрена не отображает реальную производительность в играх .
И эти 12 гб чаще всего висят мертвым грузом, на достаточно слабом чипе RTX 3060. Посмотрите любые тесты – едва ли хоть в одной игре, она будет потреблять больше 7-8-9 гб
Без проблем будет потреблять больше указанного и не в одной игре.
Вообще пост ни о чем получился и никакой интересной аналитики не получилось. Очень много ерунды написано.
Ну кста да, техникал сити в приличном обществе не упоминают. Сразу уровень аргументации показывает.
Что не отменяет того, что нвидиа жадные мудаки. Куртка крутит ценник потому что может .. 350к за 4090 во время майнинг бума это конечно пиздец
Окей, Не говорю что ТехникалСити на 100% объективен, но а на что ещё ориентироваться? Пока собирал информацию к блогу - пересмотрел кучу тестов и результаты везде очень разняться. Кто то, например сравнивает с учетом генерацией кадров ДЛСС, кто то тупо снижает настройки на средне-низкие и т.д.
Без проблем будет потреблять больше указанного и не в одной игре.Ну и где например? Только давай без сферических 4к с 20фпс, а реалистичные сценарии. Вот к примеру:
Horizon FB - 8,6гб
RDR 2 - 5,5гб
Cyberpunk - 8,5гб
RE 4 - 11гб (окей)
Starfield - 6гб
Hogwarts Legacy - 9гб
Forza - 8гб
Т..е только в одной игре потребление больше 10гб видеопамяти и если че, во всех резиках такая хурма, что игра потребляет ВСЮ видеопамять которую ей дают, так это не самый правильный пример. Тесты ниже
https://youtu.be/H2y6vCxHCMc?si=7KizJRDwftcHfV5I
То ли дело у тебя, что ни пост то аналитика уровня "1080 это ебаное мыло, все давно уже играют минимум в 4К"
Боже, что за хуйню я прочитал.
2/3 твоей портянки это претензии к неймингу и нумерации. Или что-ли траву пощупай. И терпи.
Ну вообще, нейминг и нумерация - это один из главных способов для запутывания пользователя. Хотя до АМД им, конечно, ещё далеко.
Кому эти горы текста? И что с этой информацией сделает обычный пользователь? Есть только Nvidia и точка, у неё всегда будет лучшая производительность и это база.