Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Здравейте, интересува ме дали е осезаема визуално разликата между двата панела/матрици (не знам как се казва)?
До колкото чета в интернет, 10 битовия може да показва стандарт rec.2020 а 8битовия rec.709. Но нали все пак това FRC трябва да симулира по някакъв начин по-високо ниво на цвета.
Тъй като гледам 65 инчови телевизори, реално разликата идва към 1000лв. отгоре за 10битовите.....заслужава ли си ?
Благодаря
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Някои хора биха забелязали разликата..ако имат за сравнение референтен монитор и качествен сигнал на двата....
10-bit покрива -> 72% Rec.2020 и 95% DCI-P3
8-bit покрива -> 60% Rec.2020 и 82% DCI-P3
Но то тази разлика е дребен проблем...има редица по големи. Като например, че телевизиите излъчват в 8-bit, 4:2:0
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Благодаря за отговорите, значи май не си струва...А според вас в следващите 4-5 години има ли шанс да излъчват телевизията с 10 битов сигнал ?
Иначе за 1900лв съм се спрял на Samsung RU8002, като гледам по-добро за тая цена няма 65 инча....
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
То ако гледаме нашите телевизии - примерно Нова им е трудно още до оправят 16:9 , за ХД изобщо не са чували ;) значи скоро не чакай 10 битов сигнал ... Но пък си има други източници и ще става все повече - важното е ти за какво ще го ползваш и ако е основно за телевизия няма никакъв смисъл да търсиш с 10 битов панел (лично аз не съм много убеден, че изобщо произвеждат и слагат истински 10 бит. панели).
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Еми ще се ползва 50/50 телевизия и филми от компютъра. Демек от компютъра като пускам филми може да са на 10бит сигнал, тогава вече ще се види ли разликата?
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
То и компютъра трябва да също оборудван, за да може да го покаже ... На сегашният етап едва ли ще усетиш разлика - вземай Самсунг-а ,а ако има от миналогодишното 8-ма серия на тая цена още по-добре.
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
С какво трябва да е оборудван? Имам gtx1080 видео и hdmi 2 кабел, мислех че е просто от настройките на видео картата да се даде 10бит output
Да, ако намеря nu8000 е много по добре, тази година си е downgrade , но никой няма да се излъже за 2000лв да го даде :))
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Да, би трябвало да ти е добре с тоя компютър - вече има и по тракерите филми (макар и аз още да си карам на 1080р и плазмата :)).
То даунгрейда е при всички марки - качват цифра, свалят клас ;)
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Разликата във вида на картината от един и същ източник е осезаема. Пробвал съм с 2 телевизора от различни класове, един до друг.
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Я кажи каква точно е разликата, щом я виждаш.:BigGrin
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Цитат:
Първоначално публикувано от
dodo_pv
Разликата във вида на картината от един и същ източник е осезаема. Пробвал съм с 2 телевизора от различни класове, един до друг.
Ясно...а спомняш ли си кои два модела тв бяха?
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Цитат:
Първоначално публикувано от
dodo_pv
Разликата във вида на картината от един и същ източник е осезаема. Пробвал съм с 2 телевизора от различни класове, един до друг.
То това е ясно, но между 10 битов панел(като не мога да твърдя, че изобщо влагат/произвеждат такива) и 8+FRC едва ли ще я усети .
В по-висок клас тв не само панела е разликата ... и 65" за 2000лв едва ли ще намери висок клас :Drinks:
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Цитат:
Първоначално публикувано от
gen66
Ясно...а спомняш ли си кои два модела тв бяха?
Шарп 40UG7252E, този е 4к и Самсунг UE-55F8000
Изпратено от моят SM-G955F с помощта на Tapatalk
Отговор: Реална разлика между 10 битов и 8 битов + frc телевизор? Заслужава ли си?
Някой от вас прави ли разлика между техническа резолюция на видеопанела и видимата такава?
Видеопанела ви може и да е 3840х2160, но това което изобразява като картинна резолюция е наполовина...всички телевизии бягат като "дявол от тамян"
- от цветовата субдискретизация(кодиране) 4:4:4 - заради битрейта,
- прогресивната картина - пак заради битрейта
- от 10-12 бита на цвят (30-36 бита на пиксел) - пак заради битрейта,
и така режат цветовата и видимата резолюция. Като добавим и компресирането на сигнала с MPEG-4 или HEVC, които се прилагат с цел да намалят битрейта - вземат всички близки пиксели със сходни нюанси на един цвят и ги приравняват като един единствен - например от пиксели с 3 различни нюанса след софтуерната обработка стават пиксели само в един и същ нюанс. Добавете и кодирането на сигнала - с това губим още 4% от видео информацията за картината...
За да имате видима резолюция от 3840х2160 трябва да получавате сигнал - 3840х2160p, 36-bit, 4:4:4, HDR 4000 нита, но с този сигнал идват нови проблеми.
1.) Няма трасе което може да пренесе информация с такъв висок битрейт - всички оператори трябва да си подменят мрежите, като до телевизора ви стига оптичен кабел, а не коаксиален.
2.) Над 90% от настоящите модели телевизори, не могат хардуерно и софтуерно, да приемат и обработят такъв сигнал!
Купили сте си Ultra HD камера или сте си пуснали такава телевизия и очаквате такъв запис и картина?
Само в мокрите ви сънища..реално ще получите или 4:2:0, в най-добрия случай 4:2:2. И то само ако битрейтът е под 200 Mbit/s, защото отново няма 2 прохода, тъй като в студията нямат време за анализ.
Реално Ultra HD, т.е. 3840x2160/4:4:4/36 бита започват от 8К камери с битрейт от 250-300 Mbps в режим 4:2:0 и от 6К до 4:2:2 почти може да се признае за 4К, с разтягане, но не по-малко. Истинското 8К ще започне само от 16К, ако е записано в 4:2:0...
В момента заснеха първите филми с 8К камери в студиа и сведени в 4К master. Те са в студиен мастър 4К. На Ultra HD BD със неговите жалки 4:2:0/30 бит, за 4К и дума не може да става. В момента на потребителите са „подарили“ TRUE FHD и дори то с разтягане, тъй като 30 бита са малко - недостатъчни са, имаме нужда от 33 бита (11 на канал), поне за да елиминираме напълно бандинга и битрейт поне 1,5 пъти по-висок от сега на типичния BD "4К" за чиста динамика ... Това е само един от проблемите, тъй като старите телевизори/проектори поголовно не умеят да показват 4:4:4 на 24/30fps, което свежда на нула печалбата от достъпа до TRUE FHD изходните файлове на "4К" BD, както и че няма 36-битови матрици(по 12 на цвят) по принцип, за разлика от 3xDLP за киносалоните, и източникът тогава e само един мизерен "4К" 30 бита на BD ...
Така че TRUE FHD по дълбочина на цвета ще получим отново не по-рано от "8К" BD, когато 36 бита видимо станат мейнстрим, макар и да не е факт.
Най-смешното е, че само последното поколение чипове на NVidia най-накрая се научиха да показват 4:4:4 в апаратният декодиращ слой.
Трябва ви - GeForce RTX 2080 Ti