Проблемы с HDR, касающиеся битовой глубины и типа файла - Фотопедия
1 голос
/ 20 декабря 2016

Когда я объединяю свои брекеты с Lightroom, он всегда 8-битный, а в HDR Efx Pro 2 он также в 8- или 16-битном.

Когда я использую PS для объединения скобок, я могу преобразовать его в 32-разрядную, но затем я не могу постобработать его так, как я хочу.

Я не хочу, чтобы мои HDR-снимки выглядели все смешно и грязно. Я смотрел много уроков по HDR, но они ничего не упоминают о типах файлов (TIFF, RAW и т. Д.) И о том, какую битовую глубину они используют.

Даже все файлы RAW находятся в 8-битном формате. Это причина, почему я не могу работать в 32-битной версии? Я что-то здесь упускаю?

1 Ответ

2 голосов
/ 20 декабря 2016

Возможно, вам не хватает некоторых очков.

HDR - это прежде всего концепция, имеющая больший динамический диапазон.

Во-вторых, это количество информации. Настоящий файл HDRI содержит информацию с плавающей запятой, которая представляет собой оптимизированный способ хранения значительных различий в значениях. Это более эффективно, чем определение, например, 16 миллионов возможных значений.

Но нам нужно преобразовать эту "RAW" информацию в более удобную. Это то, что делает тоннальная карта. 16-битное изображение имеет много места для настройки и воспроизведения видимого и воспроизводимого изображения.

RAW - это не тип файла сам по себе, это тип необработанной информации.

Файл TIF может хранить различную глубину информации о пикселях, которую могут считывать разные программы. Обычно используемый TIFF-файл может хранить 8 или 16 бит на канал (24, 32, 48 битов).

32 бита на канал - это несколько миллиардов уровней, поэтому с ним довольно сложно справиться. (Не путайте это с 32-битным общим количеством, которое является изображением CMYK)

Но если вы работаете в фотошопе, лучше всего использовать собственный формат файла. PSD.


Обычный монитор отображает только 256 уровней каждого цвета, 8 бит, потенциально отображая 16 миллионов различных оттенков. (24-битные изображения)

Некоторые мониторы отличаются высокой контрастностью, например, 10000: 1, но это то, насколько оттенок 0 отличается от оттенка 256. Это не означает, что отображается 10000 разных тонов, это то, насколько отдельные тоны отделены.

Некоторые мониторы помечают дисплей как 32-битный вместо 24. Это на самом деле используется операционной системой, чтобы указать, что он может обрабатывать прозрачные объекты, отображаемые, например, прозрачное окно при его перемещении. Эти 3d не для каждого канала, 8 бит для каждого канала RGB (24, плюс прозрачность 24 + 8 = 32).

Вы не можете «уменьшить» глубину в битах, вы просто уменьшаете ее.

Но, опять же, не путайте X-битные изображения с X-битными на канал


Я могу сменить монитор с 16 на 32 бита

Это общая глубина в битах, а не на канал. 16-битный монитор - это общее количество бит, поэтому он может отображать только 65 000 разных цветов, поэтому вы увидите полосу. Оставьте свой монитор на 24 или 32 бита.

...