Широкоугольный эквивалент в датчике кадрирования искажает изображение? - Фотопедия
4 голосов
/ 02 марта 2014

Я вижу много сообщений как на этом форуме, так и в других местах, где обсуждается использование широкого угла на сенсоре обрезки. Например, они обсуждают, как при 14-миллиметровом объективе 14 мм на 35-миллиметровой пленке или полном кадре, но с 1,6-кратным датчиком кадрирования это эффективные 28 мм. Мой вопрос: 14 мм на датчике обрезки - это то же изображение, что и 28 мм на полном кадре. Или «эффективное» включает в себя какую-то другую коннотацию. Я читал, что 14-миллиметровое изображение может создавать искажения на полном кадре, и некоторая виньетка, поэтому люди, кажется, говорят, что использование этого на кадрировании снимает некоторые из этих краевых проблем. Моя путаница заключается в том, как объектив на самом деле снимает дополнительное изображение. Читая блог kenrockwells, я узнал, что широкий угол держит линии прямыми, в то время как рыбий глаз фактически искажает линии.

Так что, насколько я понимаю, я все еще немного озадачен тем, как изогнутая линза, чтобы получить больший угол зрения, будет такой же, как урезанная версия менее изогнутой линзы. Или «эффективный» относится только к объектам по бокам, но не к искажению изображения. Или, если он другой, он настолько мал, что для фотографии это не имеет значения? Технически описание будет приветствоваться, пока базовое понимание ситуации.

Спасибо!

Edit: Чтобы быть более понятным после комментариев,

Я специально говорю о конце, получающемся в результате двухмерной проекции из трехмерного пространства. Я прочитал оба этих предыдущих ответа. Первый ближе к тому, о чем я говорю. Тем не менее, это все еще смущает меня. У меня есть опыт работы с трехмерным моделированием и проекционными матрицами, который может меня смущать. Но, например, я не понимаю изображения, на которых нарисован объектив 50 мм. Начиная с датчика, поэтому он показывает разные поля обзора для кадрирования и полного кадра. Если объектив одинаковый, он получает такое же количество информации из мира, что делает луч в определенной степени от последней линзы, проецируемой в меньшее пространство, проекция от датчика отсутствует, поэтому рисуется линия из Датчик не имеет смысла для меня. Расстояние от датчика до задней части объектива должно оказывать некоторое влияние на проецируемый свет, но не отображается на изображениях. Далее, опять же из этого первого ответа говорится, что обрезка - это то же самое, что и масштабирование, но насколько я понимаю, как работает перспектива, она отличается, так как широкий угол будет проецировать линии иначе, чем маленький фов до того же размера, поэтому обрезка центр широкого угла и масштабирования во что-то совсем другое. Это легко воссоздать в приложении opengl с изменяющейся матрицей проекций fov, я думаю, что на уроках рисования люди тоже учатся этому. Хорошим примером может служить «рыбий глаз», так как если бы кадрирование было таким же, как и масштабирование, линза «рыбий глаз» сохраняла бы центр точно так же, как и обычная линза, и тогда градиент, взвешенный по направлению к внешней стороне, быстро создавал бы искаженную перспективу, но из того, что я вижу , это даже. Для меня эти изображения выглядят так, как будто они сравниваются обрезанными с полным кадром в отношении ортогональных проекций.

Ответы [ 2 ]

10 голосов
/ 02 марта 2014

Перспектива определяется только одной вещью: Расстояние до объекта . Период.

Если вы сняли изображение с помощью прямолинейного широкоугольного объектива, например, 17 мм, который дает диагональный угол обзора 104 ° на полнокадровой / 35-мм камере, и обрезали получившееся изображение так, чтобы был виден только центр 3,08333 ° , у вас будет точно такая же перспектива, как если бы вы сделали фотографию с 800-миллиметровым объективом, который дает диагональный угол обзора 3,08333 °.

Почему бы нам всем просто не использовать широкоугольные объективы для каждого снимка, который мы делаем, а затем обрезать изображение, чтобы увеличить масштаб изображения, которое мы хотим использовать? Преимущественно плотность пикселей (или размер зерен в пленочной эмульсии). Если бы мы использовали очень высокое разрешение 36MP D800 в приведенном выше примере, к тому времени, когда мы обрезали все, кроме центра изображения, полученного с помощью 17-мм объектива, чтобы получить угол обзора 800 мм, мы бы использовали только центр 0,01625MP. То есть мы бы использовали центр 156х104 пикселей! Мы будем использовать только 1/2214 площади поверхности датчика!

Я думаю, что проблема заключается в понимании того, как изображение, проецируемое прямолинейным объективом, отличается от изображения, проецируемого объективом «рыбий глаз», даже если они оба имеют одинаковое фокусное расстояние. Линза «рыбий глаз» не пытается исправить искажение геометрическое , которое прямолинейные линзы пытаются (и в большинстве случаев в большинстве случаев добиваются успеха) исправить.

7 голосов
/ 02 марта 2014

Вот краткий ответ: Широкоугольный объектив на датчике кадрирования искажает изображение точно так же, как и в центре кадра на полнокадровом датчике . В свою очередь это означает, что использование широкоугольного объектива (с небольшим фокусным расстоянием) на датчике кадрирования дает такое же перспективное искажение, что и с использованием более узкого объектива (с большим фокусным расстоянием) на полнокадровом датчике, причем увеличение фокусного расстояния непосредственно соответствует уменьшение размера кадра.

Но вы не думаете, что это правильно, поэтому давайте углубимся. :)

Я думаю, что хорошо охвачено существующими ответами, но я думаю, что у вас есть некоторые базовые заблуждения, которые слишком велики, чтобы их можно было отразить в комментариях, поэтому я попробую здесь. Примечание для других читателей: Если вы не уверены в этой теме, но не обязательно имеете тот же мыслительный процесс, через который проходит этот вопрос, я действительно предлагаю начать с одной из ссылок Я даю ниже (или те, которые приведены в комментариях к вопросу выше). Но если вы чувствуете, что вас смущают точные вещи, читайте дальше.

Во-первых, Действительно ли моя камера с датчиком кадрирования превращает мои объективы в более длинное фокусное расстояние? - это хорошее место для начала. Я знаю, что вы еще не верите этому, но начните с предпосылки, что мой ответ является правильным, и тогда мы решим почему .

Далее, давайте рассмотрим широкоугольное искажение и причины его возникновения. Проверьте вопрос Что на самом деле означает, что телеобъективы "сглаживают" сцены? и особенно прекрасная анимация чайника из Википедии:

from wikipedia

Это "широкоугольное искажение" - буквально только вопрос перспективы. Не пропустите это в этом примере, камера движется назад, чтобы сохранить кадры одинаковыми.

Но , линзы часто показывают другие виды искажений. Это несвязанная проблема из-за конструкции объектива, где проецируемое изображение не является прямолинейным идеалом. См. Что такое искажения Барреля и Подушечки и как они исправляются? Это часто бывает особенно заметно в широкоугольных объективах, потому что широкоугольные объективы физически сложно спроектировать. Это одна из причин, по которой существуют линзы типа «рыбий глаз»: они в основном отказываются от идеала прямолинейной проекции и используют другие проекции с названиями, такими как «равносторонний угол». Но важно то, что это отличается от от "широкоугольного искажения". Центр этой проекции действительно может выглядеть более естественно, чем края (см. Почему мой адаптер «рыбий глаз» не дает искажения «рыбий глаз» на моей зеркальной камере APS-C? ), но в целом это красная сельдь.

Итак, теперь пришло время перейти к Что такое «угол зрения» в фотографии? . Я вижу, что вы обеспокоены тем, что показанная мной 2D-модель не отражает трехмерную реальность. Это достаточно справедливое беспокойство, но ключевой момент в том, что это не отображение из 3D в 2D (как на фотографии или в верхней части анимации выше). Это просто взятие вида сверху, как во второй части анимации. Это напрямую соответствует трехмерной ситуации. (Если это не имеет смысла для вас, скажите мне, почему нет, и мы все выясним.)

Другая проблема, с которой вы столкнулись в связи с углом зрения, связана с тем, как я игнорировал расстояние от задней части объектива до датчика. Современные объективы камер сложны, состоят из множества различных элементов объективов, но они do математически сводятся к одноточечной модели (по крайней мере, для этого вопроса). Больше на Что такое фокусное расстояние, когда также есть фокусное расстояние фланца? и Из какой контрольной точки рассчитывается фокусное расстояние объектива?

Вы также говорите

Если объектив один и тот же, он получает такое же количество информации из мира, что делает луч в определенной степени от последней линзы, проецируемой в меньшее пространство, проекция от датчика отсутствует, поэтому при рисовании линия от датчика не имеет смысла для меня

Я пытался скрыть это под углом зрения ответа, и я не уверен, что неясно, поэтому я повторюсь. У каждого объектива есть круг изображения, который больше, чем у датчика (или, точнее, у тех, которые не показывают черный цвет по углам и краям - см. Как круговой объектив производит прямоугольные снимки? ). Этот круг изображения - это «количество информации», которое объектив извлекает из мира. Однако камера «берет» только ту часть, которая фактически попадает на датчик, поэтому поле вашей реальной фотографии учитывает только эту часть. Вот почему мы рисуем конус с края. Если это поможет, вы также можете нарисовать некоторые из других лучей и рассмотреть, что с ними происходит. (В этой модели они остаются прямыми, проходя через объектив.)

Вы также говорите Моя путаница заключается в том, как объектив на самом деле снимает дополнительное изображение . Ну, вот как: объектив всегда берет одинаковое количество и проецирует одинаковое количество, но мы записываем из него прямоугольник большего или меньшего размера.

Наконец, вы, конечно, можете создать демонстрационную версию этого в OpenGL, которая бы показала именно то, что я говорю. Если вы показываете что-то другое, это потому, что ваша модель меняет что-то, что не соответствует тому, что происходит, когда мы меняем фокусное расстояние или размер сенсора в камере. Выясните, что это такое, и исправьте.


Да, и добавление: ваш первоначальный пример математики содержит ошибку. Объектив 14 мм на датчике 1.6x имеет поле зрения, эквивалентное объективу 22.4 мм (обычно просто округленное, потому что реальные фокусные расстояния не такие точные) на полнокадровой камере с сенсором. (Это объясняется 14 мм × 1,6 = 22,4 мм.) Это означает, что для одного кадра вы стоите в одном месте с объективом 14 мм на APS-C или 22 мм на полнокадровом, так что перспектива та же . В качестве альтернативы, если у вас есть объектив 14 мм на обеих камерах, вы можете стоять в одном и том же месте, а затем обрезать полнокадровый результат в 1,6 × (линейно) и получить одно и то же фото .

Пример 14 мм → 28 мм, который вы приведете, будет, конечно, соответствовать 2-кратному датчику обрезки, как Micro Four Thirds.

Добро пожаловать на сайт Фотопедия, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...