Чтобы понять, как шаг пикселя камеры может влиять на Глубина резкости (DoF) , вы должны сначала понять, что такое DoF , а также что это не так.
Независимо от диафрагмы объектива, будет только одно расстояние, которое будет в фокусе. То есть будет только одно расстояние, на котором точечный источник света будет сфокусирован на одна точка на носителе записи. Точечные источники света на других расстояниях будут проецироваться на плоскость датчика (или пленки) в виде размытого круга или круга путаницы (CoC) . Если этот CoC достаточно мал, чтобы восприниматься человеческим зрением как точка при определенном размере дисплея и расстоянии, говорят, что он находится в пределах DoF. Пределы DoF изменяются в зависимости от диафрагмы, фокусного расстояния и расстояния фокусировки, а также от размера дисплея и расстояния просмотра изображения. Вы можете напечатать две копии одного и того же файла изображения, и если один человек с одинаковой остротой зрения будет отображать изображение с удвоенным размером другого на одном и том же расстоянии просмотра, то при печати меньшего размера будет больше DoF, чем у большего ( при условии, что разрешение самого файла изображения не является ограничивающим фактором ). Не существует магического барьера, при котором все на одной стороне находится в идеальном фокусе, а все, что находится за пределами этой линии, размыто. Скорее, с увеличением расстояния от истинной точки фокусировки увеличивается размер круга размытия, и мы постепенно начинаем воспринимать, что объекты не совсем острые.
Ваше фундаментальное понимание того, как изображение создается из данных с датчика с маской Байера перед ним (подавляющее большинство цифровых камер), не совсем точно. Не существует прямой корреляции с одним сенсором (пиксельная ячейка) на датчике Байера и единственным пикселем в изображении, полученном из данных, предоставленных этим сенсором. Числа для каждого цвета каждого пикселя в полученном изображении интерполируются из данных, полученных несколькими соседними датчиками.
Вы также предполагаете, что в большинстве случаев неправильно, что размытие в два пикселя будет обнаружено при типичных размерах и расстояниях просмотра. Не будет Типичный круг путаницы для камер FF составляет 0,03 мм (30 мкм). Типичный 20-мегапиксельный датчик FF имеет пиксели шириной около 6,5 мкм. Даже с учетом сетки 2x2 пикселей RGGB с маской, используемых для получения 4 пикселей RGB в полученном изображении, ширина ячейки 2x2 13 мкм по-прежнему меньше половины ширины CoC 0,03 мм, необходимой для печати 8x10 при просмотре 10-12 дюймов человеком с зрением 20/20. Большинство камер APS-C имеют пиксели, ширина которых немного превышает 4 мкм. Таким образом, рекомендуемый CoC для датчика APS-C размером около 0,019 мм по-прежнему вдвое превышает ширину ячеек 2x2 на типичном датчике APS-C.
Если теоретический датчик в вашем вопросе с пикселями в 4 раза больше и достаточно велик, чтобы ограничить воспринимаемое разрешение изображения, тогда все на изображении с CoC, меньшим, чем пределы разрешения датчика, будет выглядеть так: одинаково в фокусе за счет того, что они выглядят одинаково пикселизированными / размытыми. Это происходит, когда CoC необходим для определенного размера дисплея и расстояния просмотра меньше, чем удвоенная ширина шага пикселя датчика камеры. Однако это не будет жестким ограничением, но вместо этого будет точка, в которой мы постепенно начнем воспринимать , что картинка состоит из отдельных пикселей, которые наши глаза могут различить.