Каковы основные действия камеры Lytro со световым полем? - Фотопедия
21 голосов
/ 23 июня 2011

lytro.com описывает свою новую камеру светового поля как способную захватывать все световое поле, а не только одну плоскость света, тем самым обеспечивая полный новый набор возможностей постобработки, включая фокусировку и регулировку перспективы. 1001 *

Какой тип датчика может «захватывать каждый луч света в каждом направлении в любой момент времени»? Как будет кодироваться и обрабатываться по существу бесконечное количество информации? Будет ли объектив в передней части в традиционном смысле?

Вот диссертация изобретателя: http://www.lytro.com/renng-thesis.pdf

Может кто-нибудь свести это к тем из нас, кто знаком с традиционными технологиями?

Ответы [ 2 ]

15 голосов
/ 23 июня 2011

Простой способ думать об этом заключается в следующем:

Представьте, что вместо одной камеры у вас есть сетка из 100 камер в массиве 10x10. Когда вы стреляете, каждый из них стреляет одновременно. Каждый из них будет иметь немного другое представление о том, что вы фотографируете. Существуют некоторые математические модели, которые вы можете использовать для сортировки «обратного инжиниринга» изображения и его перестройки различными способами. В этом вся суть, за исключением того, что вместо 100 камер у вас есть тысячи, и все они образованы массивом линз чуть выше плоскости датчика. Таким образом, изображение, которое выходит из датчика камеры, имеет несколько кругов частичных изображений, каждое из которых немного отличается от соседнего с ними. Затем они используют математику, чтобы собрать одно изображение из этих частичных изображений.

9 голосов
/ 24 июня 2011

Вот мои слова после прочтения очень доступной статьи Рена Нга.

В традиционной цифровой камере входящий свет фокусируется на плоскость, датчик, который измеряет яркость в каждой светочувствительной ячейке, пикселе. Это создает окончательное изображение в том смысле, что полученный растр значений может быть нанесен в виде связного изображения.

Камера со световым полем ( Plenoptic ) использует тот же тип датчика, но размещает массив микролинз перед датчиком. Это становится плоскостью формирования изображения и определяет разрешение в пикселях постобработанных изображений, а не датчик в целом. Каждая микролинза улавливает световые лучи в различных направлениях, создавая «изображение под апертурой», которое записывается на группу ячеек на датчике. Полезная схема из статьи:

enter image description here

Обычная фотография, которая могла бы быть сформирована, может быть получена путем суммирования массива субапертурных изображений для каждого пикселя. Но дело в том, что деривации становятся возможными благодаря использованию вычислений трассировки лучей. (Леонардо де Винчи был бы завистлив.) В частности, глубиной резкости можно манипулировать, тем самым отделив традиционную апертуру / глубину полевых кандалов. Коррекция аберрации объектива также возможна.

В статье описывается, что «общее» световое поле и «все» направления света могут быть захвачены, когда в действительности это будет ограничено количеством микролинз, размером сенсора под каждым и т. Д. Конечно, как и все остальное, если на это можно дать достаточно разрешения, можно сказать «практически все». Поэтому я полагаю, что Plenoptic камеры будут рекламировать количество пикселей и количество лучей.

...