Если бы я хотел сравнить значения пикселизации RGB изображения одного и того же объекта, снятого разными камерами, с какими несоответствиями я мог бы столкнуться? - Фотопедия
1 голос
/ 12 декабря 2016

Этот вопрос может показаться расплывчатым, но я далеко не эксперт в фотографии / фотометрии / и т.д., поэтому, пожалуйста, потерпите меня ...

Но, скажем, например, я хотел сравнить два изображения Солнца с разных телескопов - по своей сути вызывающие различия в датчиках / ccd / программном обеспечении изображений. Таким образом, сравнение изображений происходит на уровне трехмерной матрицы RGB 1024x1024x3 через MATLAB, язык на основе матрицы.

Так как, например, я могу получить цифровые изображения из разных обсерваторий, которые при качественном анализе представляют почти одно и то же изображение, где датчики cmos / ccd / фотон вызывают различия - если вообще вообще есть? Поскольку Солнце имеет такие большие размеры, а обсерватории смотрят относительно одной и той же стороны / угла Солнца, какие аппаратные / программные различия могут привести к тому, что матрицы будут различаться?

Вот то, о чем я думал до сих пор; некоторые выводы и некоторые исследования:

  1. Алгоритмы демозаики могут отличаться в разных единицах.
  2. Так как все камеры имеют шум датчика, который связан с типом камеры, он есть, и его можно использовать для определения типа камеры, которая сделала снимок - как обсуждено на Как я могу определить, есть ли два снимка были сняты одной и той же камерой без метаданных? - тогда разные датчики должны вызывать разные значения шума и, следовательно, разные значения RGB.
  3. Формат файла и передача данных с каждого телескопа могут отличаться, вызывая потерю данных и, возможно, другие проблемы. Но согласованный необработанный формат (или формат файла в целом) может с этим бороться, или я так полагаю.
  4. Поскольку MATLAB преобразует эти изображения в вышеупомянутые матрицы, вызывают ли эти преобразования другие проблемы, поскольку это не является родным средством представления изображений на компьютере?

Edit:

Большое спасибо за длинный, очень подробный ответ @jrista

Извините за путаницу, но я не надеюсь определить тип камеры на основе их шума, заголовков метаданных или чего-либо в этом роде, а скорее сопоставимость между различными камерами на разных телескопах, надеясь, что фактически существует стандартизация оборудования, как и для формата файла изображения.

В любом случае, чтобы выяснить, что я надеюсь сделать и почему я задаюсь таким вопросом, я объясню, что я надеюсь выяснить, и почему это несколько «стандартизированная» камера, содержащая значения данных, которые относительно похожи - это то, что мне нужно. Я не хочу быть слишком подробным или требовать ответов для моего проекта; Я просто думаю, что путаница сохранится без подробного объяснения того, почему я хочу знать такие вещи.

Я буду получать данные FITS от многих наземных солнечных обсерваторий, а также данные FITS от многих космических солнечных обсерваторий. При этом я надеюсь использовать методы разностного изображения - вычитая изображение космических солнечных обсерваторий из наземного - получая некоторые значения матрицы RGB. Изображения, на самом деле, будут с одного и того же периода времени, и я буду использовать компьютерный алгоритм для определения смещения / смещения изображений, поскольку выравнивание двух изображений является обязательным условием успеха моего исследования. Я также буду экспериментировать с функцией нормализации, которую я написал, и другими методами усреднения и общей обработки изображений, которые я считаю полезными, чтобы в конечном итоге найти согласованность между этими значениями независимо от телескопов, в которых были собраны такие данные. Астрономические искажения зрения вызывают много проблем с наземными наблюдениями, и я надеюсь количественно оценить такие искажения зрения через их значения пикселизации, полученные с помощью разности. Я понимаю астрономическое видение, учел множество переменных, которые могут И появятся, и поэтому мне не нужно объяснение, почему это не удастся, если вы не абсолютно уверены из-за некоторого факта о камерах / датчиках и как их изображения по своей сути вызовут некоторую разницу, которую я тоже не знаю. Я создал планы для борьбы с такими переменными.

В общем, мой вопрос как можно более кратким -

Будут ли изображения разных камер (при значении пикселизации) по сути отличаться независимо от того, является ли изображение точно таким же объектом?

1 Ответ

1 голос
/ 13 декабря 2016

Второй раунд!

Если вы хотите сравнить результаты космических снимков с наземными снимками, то вам нужно иметь дело с целым рядом переменных. Игнорируя проблему атмосферы на данный момент, вопрос на самом деле не о пикселях как таковых. Вы будете иметь различия из-за размера пикселя, а также фокусного расстояния прицела, апертуры прицела, общего поля зрения и т. Д.

Учитывая, что вы будете работать с солнечными изображениями, на данный момент я предполагаю, что данные будут находиться в области ограниченного шума выстрела. Солнечная система визуализации, даже та, в которой используется настроенный доплеровский эталон для ограничения полосы пропускания до уровня ниже ангстрема, все же должна быть способна генерировать сильный сигнал, которого более чем достаточно для эффективного смещения шума камеры. Единственное реальное исключение может быть, если вы пытаетесь измерить движение солнечных гранул в реальном времени или что-то подобное, что потребует очень коротких выдержек. Поэтому я не думаю, что шум камеры, или даже FPN камеры, действительно будет вашей самой большой проблемой.

Вопрос действительно касается масштаба изображения и FoV. За исключением маловероятного сценария, что все ваши системы визуализации действительно идентичны, с единственной переменной, будь то привязаны к Земле или в космосе, масштаб изображения и FoV будут вашими основными переменными, которые влияют на данные.

Масштаб изображения зависит от размера пикселя и фокусного расстояния. Фактическая формула:

ImageScale = (206.265*PixelSize)/FocalLength

Где PixelSize в микронах , а FocalLength в миллиметрах . Если у вас есть 5-микронный пиксель и фокусное расстояние 1000 мм (длина 1 метр), то у вас есть масштаб изображения 1.031 "/ px, или около одной секунды на пиксель.

Чем выше масштаб изображения (который на самом деле является меньшим числом масштаба изображения), тем выше разрешение системы, если у вас нет исключительно плохого обзора. Длинный телескоп с маленькими пикселями разрешит значительно больше, чем короткий телескоп с большими пикселями. Даже если две области используют один и тот же датчик с одинаковым размером пикселя, более длинный телескоп будет распределять детали по большему количеству пикселей, поэтому они будут более точно разрешены. Это обычно приводит к расхождениям после регистрации разрозненных данных.

Значение поля зрения зависит от размера датчика и фокусного расстояния. Если бы у вас было 5 микронных пикселей с сенсором 1024x1024 пикселей, ваше поле зрения было бы ~ 17 угловых минут, или около четверти градуса, с любой стороны. Телескоп 500 мм (длиной в полметра) даст вам поле зрения примерно на полградуса, а телескоп длиной 2000 мм (длиной в два метра) даст вам поле зрения примерно на 1/8 градуса. Профессиональные телескопы, как правило, имеют большие фокусные расстояния, однако я, честно говоря, не знаю, какие космические системы вы могли бы использовать и какие у них могут быть фокусные расстояния.

Теперь можно регистрировать изображения с разными масштабами изображения и полями зрения. Алгоритм регистрации идентифицирует звезды на каждом изображении относительно одной ссылки и соответственно корректирует каждый кадр. Расширенные алгоритмы регистрации также могут исправлять искажения в изображении, а также выполнять простые переводы и вращение. Суть регистрации, однако, в том, что она изменит характер данных. В зависимости от того, какие именно аспекты вы исправляете, вы можете получить артефакты интерполяции, и, что еще хуже, они могут быть неоднородно применены по всему полю.

Проблемы с регистрацией могут быть хуже, если вы выберете плохую систему отсчета. Некоторые инструменты регистрации позволяют вам решать ваши изображения и генерировать синтетическое звездное поле из деталей пластины. Затем вы можете использовать синтетическое, без искажений и точно смоделированное звездное поле в качестве регистрационного ориентира, что может минимизировать смешивание артефактов из-за плохого выбора эталона. Однако это не устранит их.

Если ваши отдельные изображения действительно ограничены шумом при съемке, то, честно говоря, я не вижу, чтобы шум камеры действительно был проблемой. Каждая камера имеет FPN и DFPN. Первый может ограничить SNR, если ваши экспозиции слишком яркие, а второй может ограничить SNR, если ваши экспозиции слишком тусклые. Тем не менее, правильная калибровка с использованием плоских и темных точек должна скорректировать большинство FPN, оставляя вас только с временным случайным шумом. Даже если бы вы имели шум считывания на 8-10e и пару темных токов, если ваш сигнал был бы даже 200e или больше, вы бы полностью подавили шум камеры, делая его фактически бессмысленным.

Добро пожаловать на сайт Фотопедия, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...