В обычном RAW-изображении данные сохраняются в виде линейных значений. Однако это очень неэффективно. Мы не видим свет линейно, поэтому гамма-коррекция необходима из значений RAW, чтобы получить значения, которые вы бы выводили на растровое изображение или на экран и т. Д. Огромное количество значений выделяется для самых светлых областей, где после Гамма-коррекция, большинство деталей будет отброшено просто потому, что мы не выделяем для этого пространство мозга. Однако гамма-коррекция сохраняет много информации из более низких и темных значений, где детализация важнее.
Таким образом, сжатие RAW с потерями в основном выполняет гамма-коррекцию до значения RAW, а затем уменьшает битовую глубину. Например, данные от 14-битного датчика могут быть гамма-скорректированы, а затем уменьшены до 13 или 12 бит на выборку. Это приводит к уменьшению битовой глубины, но уменьшение битрейта будет отрицательно влиять только на более высокие значения, где дополнительная детализация не использовалась бы после гамма-коррекции в любом случае.
Гамма-коррекция выполняется не только тогда, когда выходной формат составляет 8 бит на канал - если вы выводите 16-битный формат TIFF, он все равно будет подвергаться гамма-коррекции, которая сокращает значения подсветки. Тем не менее, именно при использовании 16 бит на канал и выполнении большой работы на светлых участках (например, на небе), таких как сильное усиление контраста, это практически единственный способ заметить разницу между RAW без потерь и с потерями. Это действительно очень экстремальные вещи - вам нужно было бы специально усиливать детализацию в ясном небе, которую вы не могли бы увидеть своими глазами. Я был бы удивлен, если бы это когда-либо имело значение для любого фотографа, кроме одного, пытающегося доказать, что есть разница.