Разработчики New World: игра выводит из строя видеокарты RTX 3090 из-за настроек драйверов и ограничений fps Статьи редакции
Сотрудники техподдержки Amazon Game Studios ответили на жалобы владельцев RTX 3090 на официальном форуме MMO. Игрокам порекомендовали:
- отключить переопределения в настройках драйвера;
- установить ограничение частоты кадров на 60 fps;
- изменить параметры 3D в панели управления NVIDIA для New World, чтобы опция «максимальная частота кадров» была отключена.
При этом некоторые пользователи форума отмечают, что даже с включённым ограничением fps в самой игре сталкиваются с перегревом видеокарт. При этом проблема с повышенными температурами и вылетами наблюдается не только на RTX 3090, но и на других видеокартах, включая RTX 2080, а также платы Radeon RX Vega 64.
Многие игроки просят разработчиков заняться проблемой самостоятельно, а не ссылаться на драйверы, так как им не помогает ограничение на 60 fps. Только если понизить лимит до 30 кадров в секунду, рабочая температура видеокарты заметно падает.
Эта проблема не с софтом. Все мои настройки установлены по умолчанию, если хотите, чтобы я продемонстрировал вам это на скриншотах, дайте знать.
Вопрос: это тот же стабильный билд, что был на этапе альфа-тестирования? У меня 3090 и я сталкиваюсь с серьёзными проблемами, которых не было в «альфе». Бета-клиент заставляет мою видеокарту вести себя так, будто она выдерживает экстремальные нагрузки.
У меня те же проблемы на RTX 2080 Ti. Даже температура моего i9-9900KF доходит до 90°C…
Извините, но это слишком большой риск… Если вы ничего не исправите в следующие несколько дней, мне придётся попросить деньги назад.
Я попытался установить лимит на 30 fps, и проблемы появились снова… Думаю, я не стану играть с моим GPU, так как гарантия на него уже не действует. Но уверяю вас, что это может произойти даже после закрытия игры.
Я запустил её, поставил опцию 30 fps, чтобы сделать несколько скриншотов и закрыл. Через несколько минут мой компьютер завис и я больше ничего не смог сделать.
Это всё конечно крайне печально, но в конечном итоге виновата NVidia, а не игра: впринципе не должно существовать никакой возможности брикнуть железку из юзерспейса. Немного странно, что акцент в новостях (что тут, что на других ресурсах) ставят именно на New World.
Ну а что нашли на этом проекте — я начинаю подозревать, что игра просто проклята. Там маркетинговый провал за маркетинговым провалом. Думал, что предыдущий срач про расизм и индейцев в игре (в ранних её версиях) уже не переплюнуть, но вот похоже умудрились.
Я тоже не понимаю в этой ситуации претензий к разработчикам игры - с чего вдруг аппаратные проблемы и/или перегрев перестали быть проблемой разработчика железа? Если видеокарту штатными средствами можно довести до того что она выйдет из строя - наверно всё-же это косяк разработчика железа.
нвидия не в ответе за бета-версии игр, код, которых некорректно интерпретируются драйверами.
У меня есть предположение, что не только у Амазон это получилось. Я тут неделю мучался с Осадой, черт меня дернул посмотреть температуры во время игры на 3090, и я неприятно удивился - 81 градус в матчах. Когда я начал разбираться, оказалось, при запуске Осады, а если точнее активации Батл ай, вертушки перестают запускаться на привычных 50 градусах в авторежиме. Запуск вертушек насильно, через Афтербернер, тоже не дал результата. ВЫЯСНИЛОСЬ, что Батл Ай, помимо того, что каким-то образом блочит систему охлаждения у 3090, считает Афтербернер вредоносным ПО и по «своему» выключает программу и не допускает взаимодействие с видеокартой, а сама видеокарта к максимальной мощности прибавляет +15 процентов к ядру и потреблению энергии, что без работающих вертушек создаёт в корпусе ад сатаны.
Все это смог пофиксить почти методом тычка, во-первых ограничил кадры до 144 от греха подальше, во-вторых ПРЕДСТАВЬТЕ СЕБЕ если запускать Осаду через GeForce Experience, а не через Стим вертушки отлично работают в аторежиме и через Афтербернер можно легко ими управлять. Ну и соответственно, раз юбики умеют разблокировать вольтажность и производительность графического процессора, я подкрутил кривую, вручную оставил ядро на +0, ну и увеличил мощность кулеров на графике от 50 до 70 градусах, в итоге 64 градуса в любых замесах.
Но после этого случая, я теперь все игры буду проверять через Афтербернер, ибо это не нормальная херня, когда ты можешь спалить аппарат за немалые деньги, так как его оверлочит сессионная игруля.
Комментарий недоступен
Виновата Нвидия конкретно в чем? Горят определенные марки ... Я вообще ставлю на майнер от амазона, ибо других версий реальный у меня нету. Нет, я могу вспомнить как горели в прямом смысле видеокарты от Старкрафта 2 в 2010, но это было во времена беты. И больше массовых проблем с какой то их игр не было ... ну кроме анфема и горящих пс4, но это же мелочи, да? Виновата нвидия 100%.
Угу как в старом анекдоте
"....
-А я говорил что место проклято. А они всё руки из жопы, руки из жопы.
"
Комментарий недоступен
Комментарий недоступен
Кстати да, например Starcraft 2 тоже из-за ошибки ломала видеокарты перегревом. И ничего, никто Blizzard не похоронил за это.
И я думаю, что виновата опять же не Nvidia, а производители конкретных карточек. Я так понял, там имено EVGA обкакались.
В двух словах: у 90% моделей 3090 проблемы с охладом памяти.
Нью ворлд грузит память жоще чем майнинг. Причём в ранних билдах не том же драйвер этого небыло.
Она в топе стима висит по продажам, какой провал?)
На твиче 700к зрителей, провалище.
Хорошо что у Нвидии нет проблем с драйверами в отличии от АМД.
Да не, 6900хт тоже брикаются
Комментарий недоступен
Зато New World в инфополе мелькает.
Что? Когда это 100% нагрузки стали экстремальными? Мб им стоит написать вендорам выкатившим такое поделие, с фиговым дизайном СО и треш компонентами?
Потому что 100% (или меньше) - это средняя температура по больнице. Видимо, игра генерирует нетипичную нагрузку и перегружает какие-то второстпепенные компоненты.
Перегревается под нагрузкой железка. А виновата почему-то игра. Не производитель видеокарты, а игра.
А что странного? Furmark же нагружает по максимуму и игра тоже может.
Такое часто происходит, и иногда на самом деле виновата игра. Пример: взлетающая ПС4про в менюшках и картах некоторых игр. А всё потому, что разработчики не поставили ограничение ФПС в эти моменты. Приставка в самой игре работает относительно негромко, но при открытии карты начинает завывать. Как это ограничить средствами железа? Или еще пример с той же Прошки: скайрим на прохе рендерится в 4к и относительно нормально работает. Но когда приставка подключена к 1080 экрану, то скайрим всё равно рендерит в 4к и потом делает суперсемплинг в 1080, что очень ресурсоёмко. Консоль начинает не просто выть, а орать. Беседка могла бы сделать патч для такого кейса, но была слишком занята поиском нового хозяина. Тодду тоже пофигу, Скайрим ты уже купил, остальное мелочи.
Рендер тоже нагревает видеокарты, майнинг тоже. Но почему только внезапно с одной проблемы возникли, а не массово?
Когда количество кадров зашкаливает, на любой видяхе будут экстремальные нагрузки, если у них карты брикаются значит они купили самые дешевые 3090 с херовой СО, а драйвер нвидии почему-то не срабатывает на автоматическое отключение по температуре. Проблема нвидии
Куда выходят?
Комментарий недоступен
не куда, чем — «вперед ногами»
Где?
Хорошо, что я нищий и не могу купить себе 3090 для того, чтобы поиграть в New World. А то бы купил, и сейчас видеокарта из строя вышла, было бы разочарование...
Так что во всем можно найти свои плюсы)
Комментарий недоступен
так выходят из строя не поголовно все 3090 )) там какойто не особо огромный %, иначе это было бы куда интересней... люди майнили на своих 3090 8 месяцев, а затем запустили НВ и всё - НВ сломала им карту )) cool story, или наоборот, играли себе в игрушки по проще, а так их карта могла бы сломаться на киберпанке, который также чипы памяти греет по тестам, или на том же майнинге... короче разрабы НВ могли бы и пощадить железки определенными ограничениями в игре, но виноватыми их делать тупо... ну не может их игра делать с видеокартой ничего такого, на что та должна быть не рассчитана
Комментарий удален модератором
Реально я не понимаю, почему никто из новостных сайтов не проверил информацию и начали постить бред про fps 2-3 тысячи фпс в меню которых нету и прочие приколы которых нету. За то есть очевидные вещи и если взять и проверить самому то станет понятно почему некоторые видеокарты "выходят" из строя - но это же нужно игру за 1300 рублей купить.
Я в шоке от этого тупого хайптрейна дизинфы.
Владею 3080ti с 365 ватами в макс нагрузке.
Я сегодня купил игру, в фулл скрине с анкапед фпс и выключенной вертикалкой в главном меню игру 110-120 фпс. Далее в очереди фпс поднимается до 220-235 - какие 2-3 тысячи фпс ?
Проблема ПРОСТАЯ и очевидная в главном меню и в момент очереди на сервер - напомню на некоторые сервера очереди могут достигать 6+ часов - Нагрузка идёт максимальная в моём случае в 365 ват - как например в тесте 3dmark TimeSpy Extreme. Видеокарты которые выходили из строя по инфе это EVGA 3090 FTW Ultra у которой 450-500 ват.
А теперь почему выходят из строя видяхи = Лето + жара + душный корпус и долгое время ожидания которое может быть более 4-6 часов видеокарта в меню работает на такой мощности которую можно получить только в Самых жестких стресс тестах, а здесь у тебя такая нагрузка которая вообще никак не меняется и не спадает.
По этому эти видеокарты у этих людей так же бы вышли из строя если бы они 6 часов крутили 3Dmark TimeSpy Extreme или в RDR 2 стояли бы на одном месте и не двигались(у меня рдр так же загружает видик на 365 ват)
Теперь причём здесь New World убивает видеокарты ? Есть много игр где в меню максимальная нагрузка и они внезапно так же убили вы видеокарту если бы в этих играх были очереди такие.
Не игра убила видеокарты, а максимальная нагрузка в течении длительного периода.
3090 позиционировалась в том числе и как карта для работы. А в рендеринге и несколько суток нагрузка может быть по максимуму.
Не все так просто, ты можешь запустить стресс тест хоть на весь день у тебя карта начнет тротлить, а потом уйдет в защиту и вырубиться, но никак не окирпичится.
нет
У меня в RDR2 не подаёт макс.нагрузку.
В нем карта холоднее даже чем в вальгалле.
Проблемы белых людей. Тут сидишь и думаешь, покупать 3070ti, или еще немного подождать, авось цена еще больше упадет. А вдруг не упадет, а наоборот взлетит, и тогда еще год на 1060 пердеть. А кто-то в говноММО 3090 сжигает по фану.
Успели купить видеокарты по нормальной цене или были деньги=>захотели поиграть на своей мощной видеокарте в игру=>видеокарты убились из-за какой-то ошибки=>сожгли по фану
Хм... Прекрасная логика
Комментарий недоступен
Я конечно понимаю что сейчас модно бочку катить на куртку и нвидиа, но тот факт что маленькое инди-подразделение крохотной региональной компании не может в оптимизацию обоссанной ммо с графонием уровня 2015 года - тоже имеет значение. И да, не надо заливать про бету. Никогда и ни у кого с бетами такой херни не было.
Комментарий недоступен
Комментарий недоступен
думаю, они просто ищут, где дно. нижний предел, где снизу уже не постучат.
Инди-подразделение магазина видеокарт
У маленькой инди студии не было компьютеров с 3090 что бы протестировать игру , это... очевидно!
Купить видеокарту которую за нормальную цену хер где найти. Да ещё и получить перегрев из-за криворуких разрабов. М-да...
Комментарий недоступен
Комментарий недоступен
Античит что блочит ваши настройки драйверов и ставит свои собственные
Ну античит работает с привилегиями ядра , и вот он может подобную херь сделать.
Какой-то бред. Как игра может что-то сломать? Да любой синтетический тест - 3DMark, OCCT, Furmark, Cinebench нагружают железки куда лучше игры. Или у EVGA проблемы с охлаждением/питанием (у Palit какие-то модели из недавних без термопрокладок продавали, например), или это какой-то флешмоб.
Стоит запустить почти любую игру из 00-х, там ролики вступительные в .bik идут под 1000 кадров, если без ограничителя/v-sync запускать. Обычные карты аж дроселями ревут, а некоторые ноуты/затычки офисные ребутаются сразу.
Потому что как в новости сказано - игра переопределяет драйвера через античит. Блоча работу последних обновлений.
Товарищи. Раз уж тут тема про температуры видеокарт, то какая нормальная температура? У меня потолок 80 градусов в потном гейминге стабильно, но мне честно очень не хочется спалить свою видеокарту в этот период дефицита.в интернете никто внятно не объясняет нормальную температуру. У меня все работает хорошо и не вылетает, просто переживаю за карточку.
До 85 (80,82,84), это рабочие температуры, после начнется троттлинг.
Вот критические температуры.
Комментарий недоступен
80 градусов это уже многовато + это температура с датчика GPU а есть еще и цепи питания + память а там как правило намного выше. Опять же зависит от того что у тебя за карточка, если это АМД 290 например или 390 то это норм они и за 86 градусов переваливали. Смотри по своему чипу в доках какая макс допустимая температура ( эта информация есть всегда ).
Если у тебя нету норм обдува корпуса внутри то открой боковую крышку это иногда спасет ситуацию + поставь MSI Afterburner и настрой график оборов вертушек = температуры.
70-75 ещё ок, если за 80 уходит, то уже страшна. Сам все лето в индипарашу играю, потому что 1660gtx в фф14 спайкает до 80 из-за дикой жары вместо погоды.
От видеокарты зависит. Для топов и околотопов 80 норма, для мидла лучше стремиться к 70. Кроме того, 80 это ГПУ, на памяти или питальнике может быть гораздо больше.
Обычные советы:
- сделай андервольт карты. Зачастую можно снять 5-10 градусов без потерь производительности, а то и с приростом.
- озаботься нормальной продуваемостью корпуса
- проверь термопасту и состояние термопрокладок
Нормальная температура - это прежде всего стабильная температура ниже 83С (максимальный дефолтный потолок nvidia) без постоянных переводов. А так, чем меньше - тем лучше. Ниже напряжения и температура - меньше токов утечки - стабильный частота и frametime.
Я свою rtx 2080 jet stream вообще выше 55С не прогреваю при 1890-1950mhz, 873-937mv и 175W максимального энергопотребления.
На моей Gigabyte 2080 было 85+ градусов при максимальных оборотах кулера, когда у остальных на этой же модели около 70 градусов. Разобрал а там паста вся высохла. Намазал новую и сразу 15-20 градусов скинул. Заодно поменял и термопрокладки на чипах, но старые выглядели тоже неплохо.
нвидия заявляет, что нормальная 83 градуса. но по-хорошему такое почти нигде не достигается (если корпус нормально обветривается)
Точную цифру для твоей карточки можно глянуть в Gpu-Z во вкладке Advanced.
Комментарий недоступен
Пойдет для самого графического чипа, но на новых RTX 3080 и выше очень горячие чипы памяти и они могут улетать за 110+ градусов (hwinfo показывает), тогда уже видюха со временем начинает тротлить и крашится драйвер
3090 карта зотавская, настроил 80% скорости кулеров при 70 градусах и 100% скорости при 77. Карта выше 77 не грелась, обычно 69-70, в самых тяжёлых играх в основном 74-75 максимум.
Я все понимаю что да видимо игра сильное потребление энергии вызывает у карты, но причина в том что нельзя делать карты с пиковыми потребленияии в 500вт, это просто бред и такого быть не должно. Нвидии и амд надо научится делать даже топовые карты с потреблением 120-160вт чтобы такого не происходило, по моему они слишком заигрались.
Увы - законы физики не обойти - человечество застряло на техпроцессе в 30-50 нм, хоть маркетинговые нанометры и ушли уже меньше 10.
Так что карты растут в ширь экспоненциально.
Непонятно только почему все СМИ обвиняют в проблемах разработчиков игры а не видео карты. Очевидно же, что это бага Nvidia
Потому что такие фичи доложны ловить на внутреннем тестировании
Комментарий недоступен
Комментарий недоступен
"изменить параметры 3D в панели управления NVIDIA для New World, чтобы опция «максимальная частота кадров» была отключена"
Зачем эта настройка должна быть отключена? Наверное наоборот включена для ограничения.
Чего, б-дь?
Ого, а я думал они могут просто удалять посты в твиторе
А вот кстати один из пострадавших от этой фигни
"Disable the overrides in the driver settings"
Это обход троттлинга какой-то? Вроде жа защита дложна при таких перегревах срабатывать? Откуда окирпичивание происходит? Насколько я понял софтом нельзя мониторить температурный датчик на памяти, но он там есть и доступен для внутреннего интерфейса.
Значит что-то с настройками биосами, проблема в дровах или какие-то кривые версии биос?
Комментарий недоступен
Можно мониторить. HWiNFO
Что за бред про ФПС? Ни у одной игры нет проблем с анлокнутым фпс.
Есть. У The Evil Within и Encased (¬‿¬ )
Очень давно, когда в кс го с друганами поигрывал, на ней не было лока фпс. В итоге перегрев проца и комп в перезагрузку уходил. 400+ фпс выдавало якобы.
У друга в жару начала нвидиа перезагружать комп в КС, пока крышку системника не снял. А у меня недавно Hob внезапно начал жрать как не в себя разгоняя фпс и грея карточку, пока я ему вертикальную синхронизацию не включил
у многих есть. Даже старые 2д игры с анлокнутым фпс внезапно могут перегреть твою видяху. Недавно был кейс, который я конечно не вспомню.
Я даже не представляю, что случилось бы со мной, если бы 3080 срыгнула бы и сдохла. Этим ублюдкам из нвидиа и амазон ПОХУЙ же, абсолютно. Они пукнут в твиттер что-нибудь, да и забудут.
Комментарий недоступен
зашквар конечно знатный
Анлокнутый фпс был поди
Комментарий недоступен
тут еще может быть дело в блоке питания, который выдаёт меньше 12вольт на линию при нагрузке
Интересно, почему видеокарты позволяют себя перегреть, а не начинают троттлить?
Скорее всего движок игры даёт какую то специфичную нагрузку на карту из за этого Биос который туда поставила евга скорее всего не понимает что происходит и карта тупо окирпичивается, ведь на редите у челов на воде евги отлетали. Так что это косяк именно евги, ну и возможно нвидии. А переделывать игру которая уже выйдет через месяц и менять то как она работает с железом никто не будет
"отключить переопределения в настройках драйвера"
а как это сделать, шарит кто ? )
игра гавно нвидиа карты тоже гавно : D
Я думал им нравится танцевать с бубном и менять карты раз в 2 года а тут чет жалобы
Ну так если у человека i9 разогнанный под 5000 и 3090 у которой есть автобуст ( а сама карта и так жрет и греется в дефолте сильно ) работают по 100% нагрузкой и от перегрева выходят из строя то при чем тут игра ? У меня и в других играх такая была проблема, после норм обслуживания с норм термопастой и продувки корпуса проблем нету.
То что 3000 серия сильно горячаа это было раньше понятно. Даже моя 3070ti жрет и греется не слабо а это даже карта среднего звена.
Современные железки уже с завода делают не оч круто ведь кому нужно чтобы ваша карта под 100% нагрузкой отслужила 10 лет она к тому времени или умрет или просто уже будет технологически слабенькая. Времена свинца в старых картах прошли.
На самом деле проблема древняя. Я с этим живу уже почти 8лет как владелец Titan X. Штатная температура заявлена в безумные для того времени 83градуса. И именно эта температура и устанавливается при работе под нагрузкой. Если не играть с настройками графона и дров, без MSI Afterburner - давно бы сгорела карточка. А тут какие-то безумные цифры нагрева заявлены... 95... 100... 105... даже видел люди писали о 110градусах. При этом система охлаждения - вентилятор... Добро пожаловать в мир серьезного железа.
Хуёвенький вентилятор какой-то. Я даже насильственно не смог нагреть видюху выше 90 градусов, даже в ФурМарке. Но у меня AMD)
GTX 275 с референсным турбогробом смеётся от таких значений. Она из коробки под 87-89 работала, из вентиляции чуть-ли не искры вылетали. Плюс корпуса и вертушки образца 2008 года, это был ад.
На самом деле удивляет не то что у бета тестеров топового железа с топовым TDP ломаются видяхи, а то что бета тестеры топового железа этому удивляются.
Разрабы дид нозинг вронг, всего навсего позволили видяхе молотить на полную, дефолтно не ограничивая фпс.
Добровольные бета тестеры - приходите со своими картами - а то наши сотрудники уже все выданные 3090 сожгли
Не слежу особо за битвой родсвенников в Nvidia/Amd/3dfx (найди великое и неподходящее), но наконец-то вижу, что проблемы есть и у Nvidia. Коль вернусь в споры интернетовские - будет чем опонентов тыкать.
Комментарий недоступен
Комментарий недоступен
Я самый быстрый стрелок на диком западе!
Дуэль зарегистрирована, Eobard. Осталось дождаться соперника!
Комментарий недоступен
Нет я
С больной головы на ещё больную
Комментарий недоступен
Понакупают своих 3090 а потом мучаются.
Оптимизация игры пока оставляет желать лучшего
Я не понимаю, выходят из строя, типа сгорают или что?
Скорее всего перегреваются - уходят в защиту, а там как повезет.
Очередной не протестированный кусок говно-кода.
А чё ж раньше с другими играми такого не случалось? Виноват DirectX 12? А как же стресс-тесты, которых существует вагон и маленькая тележка, которые ищут все возможные способы максимально нагрузить все вычислительные единицы устройства - неужели эта категория программного обеспечения первой не нащупала опасную грань и видеокарты в ходе тестов выходят из строя именно из-за тестов, а не из-за драйверов или конструкции видеокарты?
Разрабы решили пофармить крипту. Или попросту поучить свой ИИ.
Все равно игрок сидит в главном меню и ждет входа в игру...
Комментарий недоступен
Комментарий недоступен
Так а что перегревается то в итоге? i9, видеопамять, или сам чип?
Я почти два месяца ждал комп с 3090, у меня бы после видео карты сгорела бы жопа, хорошо, что новость появилась
Комментарий недоступен
Че уже все в гильдии и констах бегают? Потому что по другому в эту игру не поиграть
Если хочешь бегать с флагом, то да, нужна группа. Или очень хорошие навыки: при прочих равных можно уложить двоих. Но нужно потеть. Лучше в группе.
выводит из строя хлам от евга, который так любят американцы, ну и ессно в американской же ммо проблемы и жалобы.
Майнеры негодуэ!!1
Я угараю конечно, но что если в игре встроен Майн крипты 🤣🤣🤣
Сейчас бы покупать 3090 да бы играть при 30-60 фпс.
Rtx 2080, вручную ставлю вентиль на 90% – 60° С.
Ухаха , покажите мне игрока с 3090 !
Другой вопрос , Амазон у которой лярды баксов не могут нормально сделать игру ! Деньги не порешали ?
Комментарий недоступен
новый стресс-тест для видюхи)))
New world (за альфу просят 1500р), rtx3090 (в бум майнинга)... Проблемы белых людей как говорится.
Чет у меня на 2070s нет таких проблем, качнуть чтоли прог для показа градусов
У тебя и память холоднее чем на 30й серии.
Проблема именно в памяти а не ядре думаю.
У меня No man's sky тоже насиловал память на 3080.
Ядро 54⁰ а память 85⁰ если ФПС выше 120.
Пришлось лочить.
После какого-то патча ушла проблема.
И теперь ФПС равен герцовке в 144гц.
Ну, да. Люди покупали дорогущие видеокарты как раз за тем, чтобы потом ковыряться в настройках, чтобы та не грелась
Я не хейтер, мне очень зашла игра, но она мне кулер на проце расплавила, сейчас поставил новый, и температура моего процессора 70+, максимальная 67.4 i-5 3330.
Да знаю старичек, но тем не менее, даже тарков норм тянет, а вот NW, ушатала за пару дней, печально если так и будет дальше.
Classic...