Как АФ с детекцией фазы на датчике не влияет на изображение? - Фотопедия
4 голосов
/ 08 сентября 2018

Насколько я понимаю, некоторые из фотосайтов на датчике имеют дополнительные функциональные возможности для измерения фазы, которая, в свою очередь, использует часть энергии, которая иначе была бы зарегистрирована как яркость и, в конечном итоге, яркость пикселей. Чья работа компенсировать это при чтении значений пикселей? Схема датчика? ЦП камеры или ЦСП? RAW код демозаписи?

Ответы [ 2 ]

3 голосов
/ 08 сентября 2018

Как автофокус по определению фазы на датчике не влияет на изображение?

Это так. Но эффект обычно настолько незначителен, чтобы не быть заметным. В ранних «гибридных» датчиках таким образом использовалось только несколько тысяч из миллионов фотосайтов на датчике изображения. Если датчик содержит 20 миллионов фотосайтов (пикселей), и 20 000 из них используются для определения фазы на основе датчика, это составляет 0,1% от общего количества фотосайтов датчика. Допустим, затронутые 20000 пикселей всего на 80% эффективнее других «обычных» пикселей. Потеря 20% сигнала от 0,1% от общего числа пикселей означает потерю 0,02% от общего сигнала датчика по сравнению с аналогичным датчиком, в котором все фотосайты были «нормальными», а не «PD».

При более современных разработках сенсоров почти все фотосайты на сенсоре могут быть «двойными скважинами». Эти конструкции приводят к более заметному снижению эффективности. Но потеря считается приемлемой в обмен на увеличенную скорость автофокусировки и функциональность, которую они предоставляют.

Меня больше интересуют локальные эффекты - исходя из того, что вы описываете, должно быть в принципе возможно сфотографировать (очень равномерно освещенную) серую карту, применить некоторое радикальное преобразование кривой к результату и четко видеть точные местоположения всех пикселей PDAF - если они будут случайным образом распределены, они будут отфильтрованы с помощью простейшего шумоподавления, но если они будут тесно сгруппированы, они могут быть выделены как затемненные пятна ...

В первом случае (несколько модифицированных сайтов с фотографиями) они обычно довольно равномерно распределены по большей части поля зрения камеры. Нет нигде, где они так сконцентрированы, чтобы оказать какое-либо ощутимое воздействие.

Во втором случае (на большинстве фотосайтов датчика) воздействие везде одинаково.

... если только где-то в процессе считывания датчики / камера исправляют их, компенсируя значения, считанные для известной потери.

Этот тип обработки уже довольно распространен для многих цифровых камер.

  • Датчики откалиброваны для учета различий между отдельными фотосайтами до того, как они покинут завод.
  • 'Застрявшие' и 'мертвые' пиксели отображаются.
  • Из-за уменьшенного отклика цифровых датчиков на свет с углов, отличных от перпендикулярных, внутренний конвейер обработки изображений для многих камер уже компенсирует яркость края / угла на основе конкретного объектива, подключенного к камере. Это особенно касается очень широкоугольных объективов. Профили датчика / камеры, используемые внешними приложениями для обработки сырья, также обычно делают это. Это в дополнение к любой коррекции «спада периферийного света», выполняемой для исправления так называемого «виньетирования» из-за спада света по краям круга изображения, проецируемого объективом.
0 голосов
/ 01 октября 2018

Как и предполагалось, это действительно и так, что это можно увидеть при компенсации экспозиции:

https://www.dpreview.com/reviews/nikon-z7-first-impressions-review/ (поиск "Полос и PDAF")

И сайты PDAF определенно можно визуализировать:

http://photonstophotos.net/Charts/Sensor_Heatmaps.htm#mode=39,camera=Nikon%20Z%207,suffix=14

Учитывая это, я полагаю, что вопрос следует перефразировать следующим образом: «Возможно ли для камер или конвертеров-сырцов компенсировать сайты PDAF?»

...