Почему эффективные пиксели больше, чем фактическое разрешение? - Фотопедия
16 голосов
/ 13 марта 2011

На этой странице сравниваются камеры Canon EOS 550D и Canon EOS 500D и упоминается

18,7 миллиона эффективных пикселей

для 550D. Однако наилучшее возможное разрешение при использовании этой камеры -

5184 * 3456 = 17915904 ~ 17.9 million pixels

Что такое эффективные пиксели, и почему в этом случае это число превышает 17,9 миллиона?

Ответы [ 4 ]

9 голосов
/ 13 марта 2011

Часть , которую мы видим здесь, это (я вполне уверен) не более чем простая опечатка (или что-то в этом порядке) со стороны DPReview. ком. Согласно данным Canon , [PDF, стр. 225] количество лунок на датчике равно «Приблизительно 18,00 мегапикселей».

Затем они уменьшаются до приблизительно 17,9 мегапикселей, когда входные данные шаблона Байера превращаются в то, что большинство из нас будет воспринимать как пиксели. Разница довольно проста: каждая лунка на датчике воспринимает только один цвет света, но пиксель, как вы обычно ожидаете на выходе (например, файл JPEG или TIFF), имеет три цвета для каждого пикселя , На первый взгляд может показаться, что файл будет иметь только одну треть пикселей, по сравнению с ячейками датчика на входе. Очевидно, что это не так. Вот (упрощенное представление), как все работает:

simplified Bayer pattern

Каждая буква представляет одну лунку на датчике. Каждый блок представляет один трехцветный пиксель, который будет добавлен в выходной файл.

Во «внутренней» части датчика каждый выходной пиксель зависит от входных данных от четырех лунок датчика, , но каждая лунка датчика используется в качестве входных данных для четырех различных выходных пикселей, поэтому число входов и количество выходов остается неизменным.

Однако по краям у нас есть сенсорные лунки, которые вносят вклад в два пикселя вместо четырех. В углах каждый лунка датчика дает только один выходной пиксель.

Это означает, что общее количество выходных пикселей меньше, чем число лунок датчика. В частности, результат меньше на одну строку и один столбец по сравнению со входом (например, в примере у нас есть датчик 8x3, но выходной пиксель 7x2).

5 голосов
/ 13 марта 2011

Есть две причины, по которым эффективных пикселей меньше , чем фактическое количество пикселей датчика (чувствительные элементы или датчики.) Во-первых, датчики Байера состоят из "пикселей" это чувство одного цвета света. Обычно присутствуют красные, зеленые и синие сенсоры, организованные в пары строк в виде:

RGRGRGRG
GBGBGBGB

Один «пиксель», как большинство из нас знакомо с ним, пиксель в стиле RGB на экране компьютера, генерируется из датчика Байера путем объединения четырех сенсоров и квартета RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Поскольку для генерирования одного компьютерного пикселя RGB используется сетка 2x2 из четырех датчиков RGBG, по краю датчика не всегда достаточно пикселей для создания полного пикселя. «Дополнительный» край пикселей обычно присутствует на датчиках Байера, чтобы приспособиться к этому. Дополнительная граница пикселей может также присутствовать просто для компенсации полной конструкции датчика, использования в качестве калибровочных пикселей и размещения дополнительных компонентов датчика, которые обычно включают ИК- и УФ-фильтры, фильтры сглаживания и т. Д., Которые могут препятствовать полное количество света от достижения внешней периферии датчика.

Наконец, датчики Байера должны быть «демозированы» для получения нормального RGB-изображения компьютерных пикселей. Существует множество различных способов демозирования датчика Байера, однако большинство алгоритмов пытаются максимизировать количество пикселей RGB, которое можно извлечь, смешивая пиксели RGB из каждого возможного перекрывающегося набора 2x2 квартетов RGBG:

Bayer Demosaicing

Для датчика с 36 одноцветными датчиками можно извлечь всего 24 пикселя RGB. Обратите внимание на перекрывающуюся природу алгоритма демозаики, наблюдая за анимированным GIF выше. Также обратите внимание, что во время третьего и четвертого проходов верхний и нижний ряды не использовались. Это показывает, как не всегда могут использоваться граничные пиксели датчика при демозаизации массива Байера-сенсора.

Что касается страницы DPReview, я полагаю, что они могут иметь неверную информацию. Я полагаю, что общее число сенсоров (пикселей) на датчике Canon 550D Bayer составляет 18,0 мегапикселей, в то время как эффективные пиксели или число компьютерных пикселей RGB, которые можно сгенерировать из этой базы 18 мегапикселей, составляют 5184x3456 или 17 915 904 (17,9 мп). Разница сводилась бы к тем граничным пикселям, которые не могут полностью составить полный квартет, и, возможно, к некоторым дополнительным граничным пикселям, чтобы компенсировать конструкцию фильтров и крепежного оборудования, которые расположены перед датчиком.

5 голосов
/ 13 марта 2011

Я не знаю, почему термин «эффективный» используется DPReview, но есть несколько причин несоответствия между количеством фотоэлементов (пикселей) на чипе и размером в пикселях результирующих изображений.

Некоторые сенсоры камеры имеют полосу маскированных пикселей по бокам. Эти пиксели идентичны основной массе пикселей на датчике, за исключением того, что они не получают свет. Они используются для обнаружения помех и вычитания их из сигнала, создаваемого светочувствительными пикселями.

Во-вторых, [хорошие] алгоритмы демозаики используют множество «операций соседства», это означает, что значение пикселя в некоторой степени зависит от значения его соседних пикселей. Пиксели на крайнем крае изображения не имеют соседей, поэтому вносят вклад в другие пиксели, но не добавляют к размерам изображения.

Также возможно, что камера обрезает датчик по другим причинам (например, круг изображения объектива не совсем покрывает датчик), хотя я сомневаюсь, что это имеет место с 550D.

0 голосов
/ 05 апреля 2011

Извините, что разочарован, но ни одно из этих объяснений не соответствует действительности. На каждом датчике есть область вне области формирования изображения, которая также содержит фотосайты. Некоторые из них отключены, некоторые включены полностью, а некоторые используются для других целей мониторинга. Они используются для установки уровней усиления и баланса белого как «контрольный набор» для тех, кто выполняет фактическую съемку.

Если вы берете данные датчика RAW с любой из совместимых с CHDK камер Powershot и используете dcraw для их преобразования, вы можете получить полное изображение датчика, включая эти 100% черные и 100% белые области.

Что интересно, так это то, что разрешение RAW в камере всегда превышает разрешение JPG в камере. Причина в том, что более простые и быстрые методы интерполяции, используемые в камере для перехода от RAW к JPG, требуют, чтобы окружающие RGB фотосайты определяли конечный цвет каждого пикселя. Крайние и угловые фотосайты не имеют этих цветовых ссылок со всех сторон, чтобы сделать это. Выполнение этого процесса позже на компьютере с лучшим программным обеспечением для интерполяции RAW позволит вам восстановить чуть большее разрешение по размеру изображения, чем то, которое можно получить с помощью встроенного в камеру JPG.

p.s. Рецензенты DPReview и авторы статей никогда не должны восприниматься кем-либо как Евангелие. Я нашел так много пробелов в их тестах и ​​вопиющих примерах, когда тестировщики даже не знали, как пользоваться камерами, что я пренебрег их советами много лет назад.

...