Придирчивый геймер и видеомонтажер
Спасибо большое. Пока у нас холодно, стараюсь ловить солнечные деньки : )
а влияние было хорошим? хах.
в реальном будет меньше. 1000 нит обычно в 3-5% заливки. а 400 нит около 10%. И это мониторы 2025 года: For HDR it is certified under the VESA ‘DisplayHDR 400 True Black’ tier and offers a peak brightness of 1000 nits (3% APL) and 450 nits (10% APL). У современных телеков же и яркость выше в сдр или хдр, так и площадь активная куда больше. То есть куплю я доступный Олед - на нем будет изображение тусклее, чем на моем телефоне. Вот так радость. При этом если запустить на них одинаковый контент - он не будет одинаково отображаться, даже не только дело в калибровке цвета, но и банально по данным выдаваемой яркости. Вот я о чем, что даже на оледах юзер не ограждает себя от головной боли.
вот ток для меня 300 нит в пике на полный экран - реально мало. я сейчас сижу с полной яркостью в 500 нит и мне в кайф. 1000-1500 нит на пк-мониторах это будет определённая зона. Особенно это будет важно, если я возьму экран с глянцевой панелью и на тусклом экране все будет отражаться. То есть в чем мой тейк - мониторы на сегодня слишком "не те" для хдр для пк. При этом телевизоры и экраны под смартфоны - обычно все супер (средний и выше сегмент).
я вторую ссылку не приложил. вот тот моник о котором я говорил. его показатели не сильно лучше. пиковая яркость в 200 нит в сдр и не сильно выше в хдр. Сертификат у него только пантон и все. https://www.samsung.com/nz/monitors/gaming/odyssey-oled-g5-g50sf-27-inch-180hz-oled-qhd-ls27fg502sexxy/
Прости бро, но ты не правду пишешь. Вот тебе пожалуйста первый попавшийся монитор олед, который входит в линейку среднего сегмента. Там мало того что в хдр максимум 400 нит, так и куча других проблем https://www.rtings.com/monitor/reviews/samsung/odyssey-g5-g50d-s27dg50
И еще, у людей до сих пор понятие HDR идет из фотографии (тех же смартфонов). Однако, в кино и играх HDR сейчас стали применять HDR для других целей (см HDR Ultra). Однако люди, когда пытаются настроить под себя - делают даже хуже.
Тут стоит сделать важную ремарку: Apple работают не только с софтом, но и со своим железом. Выходной цифровой сигнал, как и сама матрица, полностью находятся под контролем «Яблока».
У Windows же ситуация совсем иная. Во-первых, это тысячи различных дисплеев и конфигураций выходного сигнала. Во-вторых - огромное количество интерпретаций. К этому добавляется необходимость работать с разными типами матриц и подсветок.
Вот простой пример. Мой дисплей «на бумаге» выдает яркость около 550 нит - это, по сути, минимум уровня HDR400. Но возникает вопрос: а зачем? Ведь существуют еще HDR600, HDR1000 и так далее. Более того, если у вас VA- или IPS-матрица, HDR зачастую работает странно, а подсветка банально не справляется с задачей. Часто зон локального затемнения слишком мало, из-за чего изображение начинает «моргать».
Да, благо можно сочетанием клавиш включать и выключать HDR. Перед началом игры я обычно его активирую - чтобы получить 10-битную глубину цвета и сделать картинку более «жирной». Но в повседневном использовании HDR я выключаю. Например, в браузере экран заметно «щелкает» вспышками: на экране слишком много деталей, вероятно, проходит граница зон подсветки - и она начинает мерцать.
Казалось бы, выход - перейти на OLED? Ха! У OLED хватает своих проблем. Доступные OLED-панели тоже плохо подходят для HDR из-за низкой пиковой яркости.
В итоге создается ощущение, что эта проблема с нами надолго. Пока все не перейдут на OLED, пока Microsoft, ТВ-лейблы, игровые студии, органы стандартизации и производители видеокарт не сойдутся в одной точке… А что-то мне подсказывает, что ничего подобного в ближайшее время не случится :(
Откуда столько времени?
тогда ждем фотки : )