AMD анонсировала Radeon RX 6700 XT — видеокарту среднего уровня за 480 долларов Статьи редакции
AMD провела онлайн-презентацию Where Gaming Begins Part 3, на которой анонсировала семейство видеокарты среднего ценового сегмента Radeon RX 6700 XT.
Характеристики RX 6700 XT соответствуют утечкам: RDNA 2, 12 ГБ GDDR6 с шиной на 192 бит (как у RTX 3060) и теплопакет до 230 Вт. Видеокарта предназначена для игры в разрешении 1440p и способна достигать более 100 fps в современных соревновательных играх.
RX 6700XT сравнивали с GTX 1070 Ti и RTX 2080 Super. Сравнения с учётом DLSS 2.0 на видеокартах RTX и включённой трассировкой лучей не показали — в этих сферах AMD пока что отстаёт.
AMD уверена, что современные видеокарты нуждаются более чем в 10 ГБ видеопамяти для игры в 1440p. Например, CoD: Black Ops — Cold War потребляет до 11 ГБ, а RDR 2 требуется почти 10 ГБ.
Также AMD разблокировала доступ к Smart Access Memory для всех процессоров Ryzen 3000 (при этом поддержку более старых чипсетов не добавили).
Продажи стартуют 18 марта одновременно от самой AMD и от партнёров.
Ебать колотить. Не слежу за ценами уже недели три, но такого не ожидал.
Спасибо 2021 году, что вернул времена молодости моих родителей, когда в "телевизоре" колбаса есть, в магазинах ни хрена нет.
Карты xx60 так и не вернулись к ценам по ~230$, а карты xx70 к ~330$.
Не вернулись. 1660 без лучей не выдаёт столько же сколько 2060. 2060 сама по себе карта так себе, а 1660 это реально почти лоу енд. Нужно понимать, что 1050Ti и прочие карты это уже позапрошлое покаление. 1650 это прошлый лоу енд, те цена 1660 должна быть меньше 200, а на самом деле она сколько? Просто люди почему-то стали говноедами нетребовательными. Ужа давно 4k во все поля должен быть в 60 фпс минимум на ультрах и это долны выдавать средние карты, а по факту всё так и мучают мёртвый 1080p. Это просто печаль.
Рост стандартный, в том то и дело. А вот рост цен даже без майнинга не стандартный. 1070 - карта позапрошлого поколения уже даже улучшенная внутри своего поколения (1070Ti). Сейчас на неё ровняться - ну такое.
Просто люди почему-то стали говноедами нетребовательными.
Просто некоторые люди живут по ограниченному бюджету и берут то, что могут, а не вот это всё.
Сижу на так себе 2060, и буду сидеть, похоже, до следующего поколения карт. Не знаю, что там про 4к в 60фпс, купил себе вот 144Гц панель на фуллхд и очень рад.
Да нафиг 4к60гц гейминг, если есть фуллхд140гц.... Я лично не хочу ставить Киловатник в корпус, чтобы ещё потом тратить электричество лишнее + печка мне не нужна, так как есть батареи. Если сделают 4к60гц равной по конечным затратам на содержание 1080п140гц, то мб и купят первый вариант. Также если ты видишь отличия первого от второго на практике, то отдали расстояние от глаз до монитора, ибо разница небольшая
Да нафиг 4к60гц гейминг, если есть фуллхд140гц
Потому что:
- качество изображения гораздо выше у 1 варианта
- огромному количеству игр нахуй не впёрлась повышенная герцовка (RPG, стратегии, всякие квесты, платформеры, новеллы, хорроры и тд).
Также если ты видишь отличия первого от второго на практике, то отдали расстояние от глаз до монитора, ибо разница небольшая
Разница огромная. Это как смотреть видео 480p против 1080p
В то и дело, что весь рост 3ххх поколения за счёт энергопотребления, а архитектура лучше нихера не стала. Кроме того той же 3080 800Вт за глаза, о каких печках ты говоришь я хз, у меня БП 620Вт был уже в 2011.
Тем более чтобы играть 1080/144 нужна карта не хуже чем 4k/60 и выражаясь вашим языком: да нафиг фуллхд140гц гейминг, если есть 4к60гц
Тем более чтобы играть 1080/144 нужна карта не хуже чем 4k/60
Смотря что под этим подразумевать. Если нужно прямо вот Стабильно 144Гц во всех тайтлах, то наверняка да, нужна. Если же нужна просто плавная картинка вне зависимости от тайтла, а высокая частота только во всяких там онлайн шутерах, основная часть из которых вполне себе оптимизированы для бюджетных карт, то VRR делает потрясную работу. Вчера вот с друзьями играл в факторево, которая выше 60фпс не умеет рисовать, на этой самой 144 панели. Даже ничего в настройках менять не пришлось.
Но вообще, ваша линия рассуждения не то чтобы неправильная, однако она почему-то допускает, что решительно у всех, кто увлекается медиаразвлечениями, есть средства и возможности купить последнюю линейку видеокарт и здоровенные@4к экраны для вывода картинки. Нет, не у всех, к сожалению.
Но вообще, ваша линия рассуждения не то чтобы неправильная, однако она почему-то допускает, что решительно у всех, кто увлекается медиаразвлечениями, есть средства и возможности купить последнюю линейку видеокарт и здоровенные@4к экраны для вывода картинки. Нет, не у всех, к сожалению.
Нет. Как раз наоборот. Нет у людей денег, но при этом при росте цен находятся люди которые продолжают покупать эти недокарты (по-другому я их не могу назвать) и тем самым подстёгивать цены. Нет у людей уважения к своему труду и его результатам, те деньгам.
Ты что, как этим бедолагам без новой карточки или пс5? Лучше уж без еды.
Решительный единорожек88
без которой ты спокойно проживёшь годик-другой
И всё равно даже у тебя важность видеокарты преувеличена
Странный вопрос, неужели вы не смотрели этот фильм? Да это же классика!
Там по сюжету изобретателю Шурику для расчётов понадобилась современная видеокарта. В магазинах её нет, у перекупов - есть, но цена смердячая. Шурик решает, что проще будет перенестись в прошлое и купить карточку по лепотной цене. Но затем понимает, что таким макаром он поможет лишь себе самому, остальным же придётся туго. В результате изобретатель переносится на двадцать лет назад в Японию и выпиливает жестоким образом (то на кол посадит, то на бочку с порохом) всех людей по фамилии Накамото.
И лишь после череды многочисленных убийств Шурик вспоминает, что Накамото - это только псевдоним. От осознания этого он сходит с ума и начинает думать, что он Иван Грозный. За ним срочно выезжает психиатрическая бригада. Конец фильма.
AMD уверена, что современные видеокарты нуждаются более чем в 10 ГБ видеопамяти для игры в 1440p. Например, CoD: Black Ops — Cold War потребляет до 11 ГБ, а RDR 2 требуется почти 10 ГБ.
Хуя, а разрабы не хотят пойти получить выписанные им пиздюли за то что совсем забили на оптимизон?
11гб 1440р, охуеть
Ну кстати учитывая что сейчас появились технологии прямого доступа игры с SSD в GPU, это недалеко от истины.
Механический
Далеко. Даже SSD по задержке не сравнится с встроенной оперативной памятью.
РДР2 в 8К потребляет 13-15Гб ВРАМ. Я хз откуда это было взято.
Колд Вор потребляет чуть больше 5Гб. Всё остальное кэш.
Это просто манипуляция данными. Движок COD так устроен что загружает почти всю доступную видеопамять по максимуму, но вот сюрприз, отличий между 6 и 12 GB по fps или фризам не будет. И в реальности там в 1440p используется около 4-5 GB, остальное просто аллоцировано.
В некоторых играх даже настройка есть, сколько текстур можно загружать в буфер видеопамяти. Например в FF15 можно поставить буфер на максимум и она займет все 15 GB, хотя по факту ей нужно 4.
Смотреть на счетки зарезервированной памяти в большинстве случаев бесполезно, нужно смотреть именно на внутреигровые показатели в настройках, как в RDR2 например (стараются добавлять в новые игры).
Если вы возьмете RTX3070 с 8GB и карту 6700 то в код FPS будет выше на 3070, будь хоть у 6700 все 24 GB памяти, потому мощность чипа решает, а движок просто будет резервировать по максимуму.
Вот тут уважаемый источник объясняет начиная с 2:58
https://youtu.be/oTeXh9x0sUc?t=178
Я не знаю с чем это связано, но видеокарты AMD почему-то жрут больше видеопамяти чем nvidia
Нвидия сильнее жмёт данные, на сколько я знаю уже давно. Также изображение, как таковое, жмут сильнее и из-за этого, одно время их карты сильно просилали по производительности в HDR.
Сейчас бы высирать про оптимизацию, когда игра из примера летает в 100+ фпс на любом железе.
Ни слова про адреналин 2021, аналог DLSS или младшую 6700
А сама карта даже на бумаге выглядит спорным продуктом. Уровень 3070 с нормальным количеством видеопамяти и ценой на 20 долларов ниже, вау
Сказали весной про длсс расскажут, сегодня только третий день весны. Не спеши.
На презентации 5000-райзенов они показали цифры производительности некой новой видеокарты в 3 играх, на основании чего можно было понять, что уровень 3080 они достигли. Здесь можно было хотя бы сказать про имеющуюся минимальную производительность аналога длсс или обнадёжить тем, что это не ограниченная 6000 серией технология
Ну, полагаю, что если они пойдут по пути Nvidia, используя нейронки для апскейла, то отставать они будут значительно. Зелёные давно начали вкладываться в ML направление (cuda - сила) и даже выделили специальные тензорные ядра под эти задачи, в то время, как на картах от красных приходится использовать OpenCL/PlaidML с которыми происходит значительное отставание по времени выполнения
Вот мы и приходим к тому, что цена средней карты нвидии была около 500$ (1070), в то время как топом была 1080ti, которая стоила дорого.
На основании чего можно сделать вывод, что практически ничего не поменялось. Кроме курса рубля, в чем вендоры не виновны.
На основании чего можно сделать вывод, что практически ничего не поменялось
Поменялось, по факту за 500 баксов отдавали только FE которых в природе было настолько мало что их наличие можно было просто игнорировать, основная масса от вендоров же шла по 550-600 баксов и даже выше. Тоже самое с 3080, ценник в любом случае подрос еще до майнеров.
Только эта цена за 1070 уже была сгенерирована предыдущим бумом майнинга.
1070 вышла летом 16го года. Бум майнинга начался в 17м. Хорошо помню, потому что брал Паскаль на старте.
На самом деле всё более или менее логично - раньше средние карты выглядели как кусок текстолита с 80-мм пропеллером, а теперь видяхи требуют совсем другого питания, совсем другого охлаждения, стильный дизайн с РГБ чтобы школьники пёрлись. Гейминг банально дорожает из-за того, что производители чипов пытаются компенсировать свою неспособность наращивать мощи так, как раньше и слишком угарают по маркетингу. Мне такие тенденции не нравятся, конечно.
А, ну и никто почему-то не говорит об инфляции доллара, которая за последние 10 лет охуевшая, откровенно говоря.
Рыночно да, а производительности нет. Я не знаю сколько ты еще будешь упираться.
Давай тогда так, вот интел скоро свою видеокарту представит, которая аналог процессорной и стоить она будет около 100 наверное. Будем ли мы считать ее топом компании интел, и говорить, что их топ стоит 100$,
вот самый новый видос с адекватными тестами, а не графиками, который я нашел, и тут видно, что она не сильно от тишки-то отстаёт в новых проектах
я тебе говорю, что ты не можешь просто взять и сравнить две карточки на разных архитектурах в лоб, только как рыночных конкурентов
Будем ли мы считать ее топом компании интел, и говорить, что их топ стоит 100$,
нет, потому что интел не будут позиционировать карточку за 100$ как "топовое геймерское и рабочее решение", а амд с вегой так делали
И что? Какое это имеет к нам отношение.
Where Mining Begins Part 3
да сколько можно уже ошибки в тексте допускать
Ну и зачем на этом сайте новости про видеокарты? Перенесите хотя бы в подсайт "крипта"
в наличии у майнеров, перекупов с магазинов, на авито, короче везде, кроме собственно в магазинов
Странно что не написали что-то в духе:
"По нашим данным, некоторые исследования, косвенно свидетельствуют о введении в заблуждение и потенциальном вреде от дополнительных фпс, полученных от DLSS.
Будьте внимательны, не дайте себя обмануть!
Так это и работает, по сути недобросовестный маркетинг. Этот фуфел про память хавают те, кто ведется на рекламу из серии: 2 ядра, 2 гига.
Так а в чем проблема тех самых "два ядра два гига"? Типа на то время это не был нормальный компьютер, и лохам старье впаривали?
Типа это ничего на самом деле не говорило о реальной производительности, но средний покупатель Эльдорадо не шарит за разные процессоры, а два ядра круто звучит. Лично видел чувака, который хвастался корешам что взял «игровую видюху, аж на 4 гига прикиньте». Кореша уважительно и со знанием дела кивали. Чувак купил GT 730.
Ну так в те времена двухядерники только появлялись, и вообще везде была реклама кор 2 дуо, да и там была адекватная видеокарта с двумя гигами а не офисная затычка.
Всего 3 вопроса
1) сколько майнит
2) на сколько терафлопс больше чем у ps5
3) аналог какой Nvidia лучше купить))
1. Явно лучше 6800 не будет, а значит 60мегахешей
2. Не имеет значения
3. Смотри на 2 скрине.
На скринах она просто нагибает мою 1070ti и не хило обходит 2080.. Не похоже на среднюю карту чесно говоря.
я про 2 скрин сказал, а не про 1. Вот и смотри чего это аналог без ДЛСС, а с ним нвидиа улетит на 20фпс вверх минимум.
Твою 1070ти и 5700хт нагибает неплохо так.
Интересно вот, сколько ждать этот dlss? То, что лучи хуже, дровами не исправишь. Стоила бы карта дешевле на 100$, чем 3070, то бля, все еще она не так хороша.
1) Даже на слайде AMD в паре игр. В других на уровне и ещё в паре уступает.
2) Аллоцирование не равно использование. В этих же самых гирях 6800 XT в 1080p опережает 3080 сильнее, чем в 4к. Хотя памяти аж на 6 гигов больше.
3) Я. В Control вообще офигительно выглядят. Хотя в целом заметность от игры и её стиля зависит. Ну и в любом случае это новый стандарт.
у амд почти всегда предложение не хуже. Разница только в том, что дрова на амуде более кривые и больше проблем встречается. Ну и пока все еще потанцевал, который не раскрыт.
Тут кому что нравится, я до этого сидел на нвидии, щас сижу на амуде, разницы особо нет, все устраивает, просто надо выбирать с головой продукт и не переплачивать за то, чем не пользуешься, например. Я когда себе брал 5700 карту, то выбор был между ней, 2060 или докидывать на 2070, но чет не стал переплачивать за свистелки-перделки нвидии, ибо игры, в которых работают эти фишки, на тот момент интересных мне не было, да и на данный момент не появилось, а в те, которые я играю, амуде более производительное решение.
Так и сейчас будет, по роликам судить смысла нет, выйдет карта, протестируют ее, появится анлог ДЛСС и посмотрим, к тому же, сейчас карты практически нереально купить, возможно и вообще не получится до следующего поколения обновиться за рекомендуемую цену. В таких условиях что будет доступно дешевле, то люди и купят.
AMD уверена, что современные видеокарты нуждаются более чем в 10 ГБ видеопамяти для игры в 1440p.
Хуанг нахуй, а чем ты занимаешься ? 10 блять гигов на 3080, но 12 на 3060. Больной ублюдок.
Лень в сотый раз расписывать про скорость памяти, шину, разный тип этой памяти и прочее. Просто ёбнул минус.
А можете расписать? Мне для друга, задолбал карточки мерить по памяти, а я тупой , красиво не могу обьяснить
Вот тут хорошо расписано
https://dtf.ru/ask/657062-v-chem-realnyy-profit-ot-12-gb-vram-na-videokarte-rtx-3060?comment=9444044
Древняя традиция Куртки наябывать покупателей на видеопамять.
Еще более древняя традиция Радеонов нахерачить ненужной памяти в видеокарту
Да уж лучше ненужная, чем нехватка. На примере АМД кстати видно что память недорогая если они ее пихают дохрена везде.