Экспериментальное моделирование системы регистрации объектов космического пространства
Автор: Барышев Е.Ю., Смкин Н.Д., Воронов К.Е.
Журнал: Физика волновых процессов и радиотехнические системы @journal-pwp
Статья в выпуске: 1 т.16, 2013 года.
Бесплатный доступ
Разработан лабораторный макет бортовой оптической системы регистрации пылевых частиц космического пространства, объектов космического мусора, метеоритов и параметров их движения, основанной на стереоскопическом эффекте.
Космический аппарат, микрометеоройд, космический мусор, приемник оптического излучения
Короткий адрес: https://sciup.org/140255801
IDR: 140255801
Текст научной статьи Экспериментальное моделирование системы регистрации объектов космического пространства
Статья посвящена отработке лабораторного макета бортовой системы регистрации пылевых частиц космического пространства, объектов космического мусора, метеоритов и параметров их движения [1]. Система состоит из трех видеокамер, установленных на базовом расстоянии друг от друга таким образом, что одноименные строки видеокамер расположены вдоль одной линии [2]. Принцип работы системы основан на стереоскопическом эффекте, причем для снижения количества ошибок совмещения при большом количестве объектов применяется третья камера для лучшей идентификации объектов в видеоряде.
Экспериментальный стенд состоит из трех камер, при этом стенд обеспечивает следующие регулировки камер:
-
1) поворот каждой камеры вокруг своей оптической оси;
-
2) поворот каждой камеры вокруг центра матрицы данной камеры в плоскости база – оптическая ось;
-
3) поворот каждой камеры вокруг центра матрицы данной камеры в плоскости оптическая ось – перпендикуляр к базе.
Изготовленный стенд (рис. 1) в качестве базовой поверхности использует алюминиевый уголок, на котором на стальных опорных шариках диаметром 5 мм установлены платформы камер (рис. 2).
Отверстия для шариков в уголке были выполнены на станке с ЧПУ, в платформах для шарика, регулировочных и крепежных винтов – на сверлильном станке одновременно во всех платформах, сложенных в пакет. Камеры A4Tech PK-333E устанавливаются на платформы врас-пор между крепежными винтами (на фотографии без головок) и фиксируются гайками. Таким образом, базовое расстояние камер определяется точностью станка с ЧПУ, люфтами крепежных винтов камер в платформах и точностью установки ПЗС-матрицы в корпусе камеры.
Для проведения настройки камер применяется мира, установленная на определенном расстоянии от камер параллельно базе системы, причем напротив каждой матрицы расположены метки.
Настройка камер производится с помощью регулировочных винтов, чем достигается параллельность плоскости изображения камер со строками и столбцами миры (винт 1), винтами 2 и 3 центр изображения совмещается с соответствующей меткой миры, эскиз которой показан на рис. 3.
Необходимо отметить, что настройка системы предполагает точную установку миры относительно базовых поверхностей системы:
-
- параллельность базы системы с плоскостью миры, а также с ее горизонтальными элементами;
-
- перпендикулярность горизонтальных и вертикальных элементов миры.
Параллельность миры с плоскостью изображений достигается регулировкой камер, что приводит к параллельности плоскостей матриц базе и друг другу.

Рис. 2. Фотография платформы сбоку

Рис. 3. Эскиз миры. Различными линиями обозначены поля зрения камер, цифрами – номера камер

Рис. 1. Фотография стенда (цифрами отмечены регулировочные винты)
Допуска на установку элементов следуют из расчета разрешения по соответствующим координатам. Так, при дальности до миры 2 метра допуск на параллельность базы и миры – 8 мм (половина от разрешения по оси ОZ на расстоянии 2 м), перпендикулярности элементов миры – 0,86 мм (половина от разрешения в плоскости XOY ), на расстоянии 5 м – 52,4 мм и 2,14 мм соответственно. При увеличении расстояния увеличиваются и размеры миры в связи с необходимостью покрытия всего поля зрения камер (рис. 4).
При размере элемента ПЗС 6 мкм получаем размер элемента (наименьшего квадрата) миры, исходя из проекции пикселя 2,33 мм и 5,83 мм. Для удобства использования размер квадрата можно увеличить до 5 раз (11,67 и 29,2 мм) и с учетом этого контролировать изображение квадрата в пяти пикселях.
Структурная схема стенда показана на рис. 5. При этом необходимо учитывать, что видеокамеры должны быть подключены к разным кор-

Рис. 4. Эскиз системы с мирой

Рис. 5. Структурная схема стенда невым концентраторам (то есть на ПК должны быть доступны 3 корневых USB-концентратора).
Обработка данных, поступающих с камер, проводилась с помощью специально разработанного ПО на языке С в среде Microsoft Visual C++ 2010 с применением библиотек Open C V и VideoInput [3].
Для проведения настройки стенда необходим попиксельный контроль изображения с целью установки камер точно в соответствии с изображением миры. Настройка положения камер производится в интерактивном режиме по увеличенному изображению центральных частей поля зрения (на рис. 6 показано слева в трех окнах). На изображение наносятся технологические линии, позволяющие проводить настройку – пересечением линий по центру обозначен физический центр изображения (точка с координатами (320, 240) пикселей), который выставляется по соответствующей фигуре миры, линии изображения – по линиям миры. На рис. 6 справа показан общий вид миры с камеры 2, а также настроечное окно, позволяющее просматривать все изображения камер в увеличенном масштабе с помощью перемещения ползунков.

Рис. 6. Процесс настройки видеокамер

Рис. 7. Установка устройства для замера координат объектов

Рис. 8. Исходные изображения и их разность

Рис. 9. Отсеивание шумовых элементов (показано в инверсном изображении для наглядности)
На изображениях видно, что качество картинки понижено сжатием. В связи с этим точная настройка довольно затруднительна, что надо учитывать в алгоритмах обработки.
Для проведения проверки работы системы в качестве объектов исследования использовалась светодиодная гирлянда. Гирлянда устанавливалась в поле зрения камер на определенном расстоянии. Координаты лампочек замерялись относительно специально установленного устройства (рис. 7), ориентированного по изображению центральной камеры – правая грань вертикального элемента отображается в столбце 320, верхняя грань горизонтального элемента – в строке 240.
Обработка результатов экспериментов
Изображения с камер представляют собой двумерные массивы данных, с которыми можно проводить операции. При этом данные изображения содержат много лишней информации (фон). Для исключения неинформативного фона необходимо провести вычитание последующего кадра изображения (полученного после включения гирлянды) из предыдущего. В результате получаем разностное изображение.
На рис. 8 видно, кроме следа от ламп, еще и изображение провода и окружающих предметов, которые также изменили свою светимость при включении ламп. Эти изображения являются помехой в данном случае и могут быть отсеяны по уровню (см. рис. 9).
Проведенные простые операции резко сократили объем информации для последующей обработки. В то же время изображения объектов все еще занимают несколько десятков пикселей, и их совмещение в изображениях трех камер представляет определенные трудности. Для выхода из данного положения применена процедура библиотеки OpenCV – c vFindContours . С помощью данной библиотеки были определены границы контуров объектов, центры данных контуров и радиусы описанных окружностей. Данная обработка дала возможность привязать объекты к определенному пикселю изображения и проводить совмещение изображений с камер на основе предлагаемой в [1] эпиполярной геометрии.
Были использованы видеокамеры и неподвижно висящая гирлянда с лампами на различном расстоянии от камер. Координаты лампочек приведены в таблице ниже.



Камера 1
Камера 2
Камера 3
Рис. 10. Изображения для расчета положения объектов

Рис. 11. Изображения со второй камеры с рассчитанными координатами объектов
Отснятые изображения приведены на рис. 10.
Эти изображения были обработаны следующим образом: найдены разностные изображения с фоновыми, на полученных изображениях определены контуры объектов, радиусы описанных окружностей, а также их центры. На рис. 10 линиями и окружностями обозначены обнаруженные объекты.
В верхней части рис. 11 приведено два числа – количество объектов в изображении камеры 2 и количество найденных трехмерных объ- ектов. Разница объясняется сдвигом поля зрения камер, что приводит к отсутствию в изображении камеры 1 объектов, видимых камерой 3, и наоборот. В связи с этим для расчета трехмерных координат отбираются только объекты, видимые всеми тремя камерами.
Работа проводилась на компьютере с че-тырехядерным процессором Intel i7 частотой 3,2 МГц и ОЗУ 2,8 ГБ. При этом наблюдались явные «зависания» при обработке изображений с падением частоты кадров до 1 в секунду от исходных 30 кадров.
В результате работы алгоритма расчета положения получены координаты объектов, приведенные в таблице ниже.
Проведенный эксперимент наглядно показывает работоспособность системы. Полученные при обработке результатов погрешности объясняются неточностью измерения координат в связи с большим размером объекта (светодиод), кроме того, по оси ОZ дополнительно влияет методическая погрешность [4]. При этом явно видно, что быстродействия современного компьютера существенно недостаточно для проведения измерений в реальном времени. Необходим перенос определенных алгоритмов на аппаратный уровень.
Таблица
Измеренные, расчетные координаты объектов и ошибки измерения
№ |
Y изм , см |
Y расч , см |
∆ X , см |
∆ X , ^ |
Y изм , см |
у расч , см |
∆ Y , см |
∆ Y , ^ |
7. изм , см |
7. расч , см |
∆ Z , см |
∆ Z , ^ |
1 |
–28,4 |
–29,1 |
0,7 |
–2,3 |
–19,5 |
–19,3 |
–0,2 |
1,0 |
101,8 |
107,0 |
–5,2 |
–5,1 |
2 |
–21,5 |
–21,1 |
–0,4 |
1,7 |
–16,8 |
–15,6 |
–1,2 |
7,3 |
95,6 |
95,2 |
0,4 |
0,4 |
3 |
–14,7 |
–14,2 |
–0,5 |
3,6 |
–14,1 |
–12,8 |
–1,3 |
9,2 |
91,1 |
87,8 |
3,3 |
3,6 |
4 |
–7,3 |
–6,8 |
–0,5 |
7,1 |
–10,0 |
–9,4 |
–0,6 |
5,8 |
85,1 |
80,6 |
4,5 |
5,3 |
5 |
–0,3 |
–0,3 |
0,0 |
–0,2 |
–6,7 |
–6,4 |
–0,3 |
5,1 |
80,1 |
76,3 |
3,8 |
4,7 |
6 |
6,7 |
6,7 |
0,0 |
0,1 |
–3,3 |
–3,6 |
0,2 |
–6,8 |
73,2 |
70,1 |
3,1 |
4,3 |
7 |
58,0 |
58,6 |
–0,6 |
–1,0 |
24,5 |
24,0 |
0,5 |
2,0 |
257,0 |
254,0 |
3,0 |
1,2 |
Список литературы Экспериментальное моделирование системы регистрации объектов космического пространства
- Семкин Н.Д., Барышев Е.Ю., Телегин А.М. Оптическая система сбора информации о пылевой компоненте космического аппарата и объектах космического мусора//Прикладная физика. 2010. № 1. С. 47.
- RU 58695 U1 Семкин Н.Д., Барышев Е.Ю. Детектор пылевых частиц. Описание полезной модели к патенту. Опубликовано 27.11.2006 г.
- http://opencv.willowgarage.com/wiki/, http://robocraft.ru/page/opencv/, http://locv.ru/wiki/.
- Семкин Н.Д., Барышев Е.Ю., Телегин А.М. Бортовая оптическая система сбора информации об объектах космического мусора//Аэрокосмическое приборостроение. 2009. № 7. С. 63.