Три вопроса - 1- зачем на пк хдр, если он выжигает глаза, и потому просто физически не существует 1000нитных моников? 2 вопрос - как колористы видео вообще его делают в хдр и не слепнут? Уж не делают ли они хдр видео на обычных сдр-мониторах, а хдр только юзают для теста готового результата? 3 вопрос - Как вообще дальше жить с этим размножением стандартов? Даже если взять дефолтный хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдр, что добавляет еще больше жопы контентмейкерам и неуд результатов потребителям 4- А в играх как засвет пикселей вообще работает? Ладно еще в видео метаданные говорят по каким пикселям миллиард яркости лупить - то как в играх это делается?
зачем на пк хдр, если он выжигает глазаИ не должен. HDR не про выжигание глаз. APL у HDR и SDR одинаковый. потому просто физически не существует 1000нитных моников?Существуют. Полно их уже с maxCLL >= 1000 нит. как колористы видео вообще его делают в хдр и не слепнут?Почему не слепнут - ответ выше. Как делают? Первоначально настраивается слой SDR (основа основ - 99% любого контента), накладывая на него слой метаданных мастерится HDR, просматривая его на 1000-4000 нит HDR мастеринг экранах и OLED ТВ для пробы. хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдрЕсли производители экранов не нахуевертили с PQ EOTF относительно Real Content Pick Brightness, и дисплеи откалиброваны, то на обоих экранах HDR будет на 99% выглядеть одинаково (разница будет видна только в полутонах пиковых оттенков яркости), но если прогнать видеоконтент через движок рендеринга c управляемым PQ (конвертировать в стандарт BT.2390), то на 99,999% контент будет идентичен. Если экраны не откалиброваны, и SDR контент будет отличаться. А в играх как засвет пикселей вообще работает?Точно также. Настройками в играх и консолях как раз задаются эти параметры. HGIG позволяет точнее работать механизму. Короче ваще не нравится мне эта технология на пк.Эта технология сейчас везде фрагментирована к сожалению и только на пути к унификации.
потому просто физически не существует 1000нитных моников?Существуют же как колористы видео вообще его делают в хдр и не слепнут?Спокойно? Они же не смотрят на 3000 нит постоянно Ладно еще в видео метаданные говорят по каким пикселям миллиард яркости лупить - то как в играх это делается?Так же
1) Как не существует когда существует? 3) С чего ты взял? Это два почти одинаковых устроитсва, цвета будут примерно одинаковы, разница только в яркости 4)В играх также
Три вопроса -
1- зачем на пк хдр, если он выжигает глаза, и потому просто физически не существует 1000нитных моников?
2 вопрос - как колористы видео вообще его делают в хдр и не слепнут? Уж не делают ли они хдр видео на обычных сдр-мониторах, а хдр только юзают для теста готового результата?
3 вопрос - Как вообще дальше жить с этим размножением стандартов? Даже если взять дефолтный хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдр, что добавляет еще больше жопы контентмейкерам и неуд результатов потребителям
4- А в играх как засвет пикселей вообще работает? Ладно еще в видео метаданные говорят по каким пикселям миллиард яркости лупить - то как в играх это делается?
Короче ваще не нравится мне эта технология на пк.
Потому что она не для ПК, и до пека дошла в последнюю очередь. На ПК на сколько понимаю, сейчас даже Dolby Vision невозможно воспроизводить.
зачем на пк хдр, если он выжигает глазаИ не должен. HDR не про выжигание глаз. APL у HDR и SDR одинаковый.
потому просто физически не существует 1000нитных моников?Существуют. Полно их уже с maxCLL >= 1000 нит.
как колористы видео вообще его делают в хдр и не слепнут?Почему не слепнут - ответ выше. Как делают? Первоначально настраивается слой SDR (основа основ - 99% любого контента), накладывая на него слой метаданных мастерится HDR, просматривая его на 1000-4000 нит HDR мастеринг экранах и OLED ТВ для пробы.
хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдрЕсли производители экранов не нахуевертили с PQ EOTF относительно Real Content Pick Brightness, и дисплеи откалиброваны, то на обоих экранах HDR будет на 99% выглядеть одинаково (разница будет видна только в полутонах пиковых оттенков яркости), но если прогнать видеоконтент через движок рендеринга c управляемым PQ (конвертировать в стандарт BT.2390), то на 99,999% контент будет идентичен. Если экраны не откалиброваны, и SDR контент будет отличаться.
А в играх как засвет пикселей вообще работает?Точно также. Настройками в играх и консолях как раз задаются эти параметры. HGIG позволяет точнее работать механизму.
Короче ваще не нравится мне эта технология на пк.Эта технология сейчас везде фрагментирована к сожалению и только на пути к унификации.
потому просто физически не существует 1000нитных моников?Существуют же
как колористы видео вообще его делают в хдр и не слепнут?Спокойно? Они же не смотрят на 3000 нит постоянно
Ладно еще в видео метаданные говорят по каким пикселям миллиард яркости лупить - то как в играх это делается?Так же
1) Как не существует когда существует?
3) С чего ты взял? Это два почти одинаковых устроитсва, цвета будут примерно одинаковы, разница только в яркости
4)В играх также