Как одновременно управлять крупными проектами в области фотограмметрии?

Как одновременно управлять крупными проектами в области фотограмметрии?

Как масштабируемые рабочие процессы, автоматизация и распределённая обработка данных позволяют управлять крупными проектами в области фотограмметрии.

Одна из самых насущных проблем в сфере аэрофотосъемки: как эффективно управлять и обрабатывать огромные массивы данных, полученных в ходе крупномасштабных проектов, иногда включающих в себя несколько операций одновременно.

Определение понятия «большой» в фотограмметрии

Когда речь заходит о фотограмметрии, размер имеет значение не только с точки зрения географии. Крупный фотограмметрический проект в первую очередь определяется общим объёмом данных. Для проектов с использованием дронов это могут быть десятки тысяч 60-мегапиксельных фотографий, что в итоге приводит к терабайтам необработанных данных. Именно размер данных определяет уровень сложности и потребность в ресурсах.

Где начинаются узкие места

Самые большие задержки обычно возникают на этапе обработки данных, а не во время полётов. Сбор данных, как правило, происходит линейно и включает в себя несколько миссий, которые проводятся в течение нескольких дней для охвата больших территорий. Настоящая проблема заключается в обработке больших массивов данных — даже простая передача данных может стать узким местом, если не организовать её эффективно.

Распространённой ошибкой является попытка обработать всё за один раз. Пользователи часто пытаются обработать все данные за один раз с помощью программного обеспечения, не оптимизированного для масштабирования, что приводит к экспоненциальному увеличению времени обработки и сбоям. Многие команды также неверно оценивают потребности в оборудовании, вкладывая значительные средства в высокопроизводительные системы без учёта неэффективности основного программного обеспечения.

Масштабируемые решения и продуманные рабочие процессы

Для команд, работающих над крупными или параллельными проектами, логично начать с программного обеспечения, предназначенного для обработки больших объемов данных. Например, пакет Correlator3D обрабатывает огромные массивы данных на стандартном оборудовании. Главное — разделить проекты на управляемые части. Разбивка проекта на части ускоряет обработку и упрощает проверку качества, обеспечивая более быструю реализацию при сохранении точности.

Аппаратное обеспечение остаётся ключевым фактором при масштабировании. Скорость доступа к данным часто является узким местом при выполнении задач, требующих больших объёмов данных. Желательно использовать твердотельные накопители PCI Express NVMe для исходных изображений, поскольку к каждой фотографии может осуществляться многократный доступ. Для более крупных систем можно использовать твердотельные накопители для входных данных в сочетании с жёсткими дисками или высокоскоростными сетями, например 10-гигабитными системами, чтобы сбалансировать производительность и стоимость.

Масштабирование с помощью распределённой и облачной обработки

Correlator3D автоматически определяет доступные компьютеры и распределяет фрагменты проекта, обеспечивая почти линейное ускорение. Например, пять компьютеров могут сократить время обработки примерно в 4,6 раза. Такой подход позволяет организациям увеличить пропускную способность без крупных инвестиций в новое оборудование.

Облачная обработка данных становится всё более востребованным вариантом. Такие платформы, как AWS или Azure, позволяют пользователям масштабировать вычислительные мощности по запросу. Загрузка терабайтов изображений по-прежнему может занимать много времени, но для команд, которые уже получают результаты с помощью облачных технологий, это не проблема, а преимущество.

Автоматизация и контроль качества в нескольких проектах

Автоматизация — ещё один важный фактор при одновременном управлении несколькими крупными проектами. Автоматизация позволяет выполнять операции в режиме 24/7 с помощью сценариев, которые объединяют такие процессы, как аэрофототриангуляция и создание ортомозаики. Correlator3D поддерживает уведомления по электронной почте для удалённого мониторинга, что позволяет командам сократить объём ручной работы, свести к минимуму количество ошибок и выполнять больше проектов без пропорционального увеличения штата.

Тем не менее эффективность мало что значит без последовательности. Команды должны разработать задокументированные протоколы со стандартизированными проверками, например с проверкой показателей точности. Инструменты в Correlator3D, такие как функции редактирования и контроля качества, упрощают процессы проверки и снижают риск ошибок.

Уроки, извлеченные на местах

Ярким примером применения крупномасштабной фотограмметрии стал случай, произошедший после торнадо в Сельме, штат Алабама, в 2023 году. Департамент транспорта Алабамы сделал более 18 000 снимков с помощью дронов, чтобы помочь в восстановительных работах. Используя распределённую обработку Correlator3D, они создали карты и начали их доставку в течение 24 часов. Это продемонстрировало, как подготовка, масштабируемое программное обеспечение и модульные рабочие процессы позволяют быстро и эффективно реагировать даже в чрезвычайных ситуациях.

Будущее управления большими массивами данных

По мере развития технологий дронов, спутников и датчиков объем генерируемых данных будет продолжать расти. Системы с несколькими камерами генерируют огромные объемы данных. Чтобы не отставать, управление проектами будет в большей степени опираться на автоматизацию и распределенную или облачную обработку.

Добавить комментарий