Fachbeiträge

Sämtliche Fachbeiträge aus den Hydrographischen Nachrichten seit der Ausgabe HN 100 sind online verfügbar.
Sie können über Titel, Autor, DOI und Schlüsselwörter gesucht werden.

Interactive processing of MBES bathymetry and backscatter data using Jupyter Notebook and Python

This work explores the potential of Jupyter Notebook and Python to create an interactive processing tool for multibeam bathymetry and backscatter data. For this purpose, a Kongsberg EM 122 data set was used to identify and implement the required processing steps. Special attention was paid to the integration of freely available open source libraries to meet the performance requirements. The result is a modular approach that first decodes the required raw data, then computes the bathymetry and backscatter point clouds and finally applies semi-automatic filters to clean the bathymetry from outliers and visually correct the backscatter. Validation with data already processed on board confirmed the general feasibility of the approach. However, minor inconsistencies were encountered in the preprocessing of the bathymetry, which should be ad-dressed in further work. Additionally, the tool can be extended for tidal correction and navigation pro-cessing.

Python | Jupyter Notebook | multibeam processing | bathymetry | backscatter | open source

Diese Arbeit untersucht das Potenzial von Jupyter Notebook und Python zur Erstellung eines interaktiven Tools zur Verarbeitung von Fächerlot-Bathymetrie- und -Rückstreudaten. Zu diesem Zweck wurde ein Kon-gsberg-EM-122-Datensatz verwendet, um die erforderlichen Verarbeitungsschritte zu identifizieren und zu implementieren. Besonderes Augenmerk wurde auf die Integration von frei verfügbaren Open-Source-Bibliotheken gelegt, um den Leistungsanforderungen gerecht zu werden. Das Ergebnis ist ein modularer Ansatz, der zunächst die benötigten Rohdaten decodiert, dann die Bathymetrie- und Rückstreupunktwolken berechnet und schließlich halbautomatische Filter anwendet, um die Bathymetrie von Ausreißern zu bereinigen und die Rückstreuung visuell zu korrigieren. Die Validierung mit bereits an Bord verarbeiteten Daten bestätigte die generelle Machbarkeit des Ansatzes. Allerdings traten kleinere Unstimmigkeiten bei der Vorverarbeitung der Bathymetrie auf, die in weiteren Arbeiten behoben werden sollten. Zusätzlich kann das Tool für die Gezeitenkorrektur und die Navigationsverarbeitung erweitert werden.

Python | Jupyter Notebook | Verarbeitung von Fächerlotdaten | Bathymetrie | Backscatter | Open Source

Ausgabe: HN 119, Seite 48–52
DOI: 10.23784/HN119-07
Autor/en: Sophie Andree

»Die riesigen Flächen unterhalb der Wasseroberfläche bilden das perfekte Szenario für KI-basierte Ansätze«

Alexander Reiterer ist Professor für das »Monitoring of Large-Scale Structures« an der Universität Freiburg. Am Fraunhofer-Institut für Physikalische Messtechnik IPM erforscht und entwickelt er Multi-Sensor-Systeme und Software für die Überwachung künstlicher und natürlicher Objekte. Im Interview mit den HN schätzt der Spezialist für künstliche Intelligenz in der Geodäsie das Potenzial für KI-basierte Ansätze bei hydrographi-schen Anwendungen ein.

Künstliche Intelligenz (KI) | künstliche neuronale Netze (KNN) | maschinelles Lernen | Multi-Sensor-Systeme

Alexander Reiterer is professor for »Monitoring of Large-Scale Structures« at the University of Freiburg. At the Fraunhofer Institute for Physical Measurement Techniques IPM, he researches and develops multi-sensor systems and software for monitoring artificial and natural objects. In the interview with HN, the specialist for artificial intelligence in geodesy assesses the potential for AI-based approaches in hydrographic applica-tions.

artificial intelligence (AI) | artificial neural networks (ANN) | machine learning | multi-sensor systems

Ausgabe: HN 119, Seite 42–47
DOI: 10.23784/HN119-06
Autor/en: Alexander Reiterer, Lars Schiller, Patrick Westfeld

AI is enabling a transformation toward autonomous hydrographic operations

It has been possible to advance AI thanks to factors like increased access to massive computing power. In the same way, the increase in automation, which AI facilitates, advances the development of unmanned, autonomous hydrographic operations. This is an exciting prospect, as the advantages of such operations are many: efficiency gains, reduction in costs in the form of vessel time and man hours, as well as the minimisation of environmental impacts. We are working towards autonomous hydrographic operations by developing software tools, which provide automatic, realtime data processing and navigationaiding. In 2017, we established a dedicated software development team with engineers specialising in machine learning, machine vision and deep learning. The first official EIVA software version utilising AI was released in 2018, when we made it possible to use NaviSuite Deep Learning for automatic interpretation of data in NaviSuite Nardoa, our software bundle for pipeline inspections. In this article, we will dive into how we are using machine learning to create software solutions that support autonomous hydrographic operations.

NaviSuite Deep Learning | artificial intelligence | autonomous hydrographic operations | AI software


Die Weiterentwicklung der KI wurde durch Faktoren wie den verbesserten Zugang zu massiver Rechenleistung möglich. In gleicher Weise treibt die zunehmende Automatisierung, die KI ermög-licht, die Entwicklung unbemannter, autonomer hydrographischer Anwendungen voran. Dies ist eine spannende Perspektive, denn die Vorteile solcher Anwendungen sind vielfältig: Effizienzsteigerung, Kostenreduzierung in Form von Schiffszeit und Mannstunden sowie die Minimierung von Umweltauswirkungen. Wir arbeiten auf autonome hydrographische Anwendungen hin, indem wir Software entwickeln, die eine automatische Echtzeit-Datenverarbeitung und Navigationshilfe bietet. Im Jahr 2017 haben wir ein eigenes Software-Entwicklungsteam mit Ingenieuren gegründet, die auf maschinelles Lernen, maschinelles Sehen und Deep Learning spezialisiert sind. Die erste offizielle EIVA-Software mit KI wurde 2018 veröffentlicht, als wir die Nutzung von NaviSuite Deep Learning für die automatische Interpretation von Daten in NaviSuite Nardoa, unserem Softwarepaket für Pipeline-Inspektionen, ermöglichten. In diesem Artikel stellen wir vor, wie wir maschinelles Lernen nutzen, um Softwarelösungen zu erstellen, die autonome hydrographische Anwendungen unterstützen.

NaviSuite Deep Learning | künstliche Intelligenz | autonome hydrographische Anwendungen | KI-Software

Ausgabe: HN 119, Seite 36–41
DOI: 10.23784/HN119-05
Autor/en: Sarafina McPherson Kimø

Erzeugung von synthetischen Seitensichtsonar-Bildern mittels Generative Adversarial Networks

Für die Anwendung von Deep-Learning-Methoden zur automatischen Auswertung von Daten bildgebender Sonare stellt die nicht vorhandene Verfügbarkeit größerer Trainingsdatenmengen nach wie vor ein Problem dar. In den letzten Jahren wurden jedoch sogenannte Generative Adversarial Networks (GAN) als ein Werkzeug aus dem Bereich Deep Learning für die Erzeugung synthetischer Daten entwickelt. In dieser Arbeit wird untersucht, inwieweit sich GANs zur Erzeugung künstlicher Sonarbilder eignen. Um das GAN auch mit wenigen Beispielen trainieren zu können, wird eine Art des Transfer-Lernens mit Hilfe von einfachen simulierten Bildern entwickelt. Es zeigt sich, dass die Performance eines Klassifikators durch Hinzunahme der künstlichen Bilder gesteigert werden kann.

Seitensichtsonar | Autonomes Unter-Wasser-Fahrzeug | Deep Learning | generative Netzwerke | Transfer-Lernen


A remaining problem is the lack of large-scale sonar image data sets when applying deep learning algorithms for the automatic analysis of these data. However, over the past few years, generative adversarial networks (GAN) where developed as a tool for generating synthetic data. This work investigates how GANs can be used to generate synthetic sonar images. In order to train the GAN with only a few available samples, a transfer-learning approach is applied which uses simple simulated images. Using the additional synthetic sonar images, the performance of a classifier can be increased.

side-scan sonar | autonomous underwater vehicle | deep learning | generative adversarial network | transfer-learning

Ausgabe: HN 119, Seite 30–34
DOI: 10.23784/HN119-04
Autor/en: Yannik Steiniger, Jannis Stoppe, Dieter Kraus, Tobias Meisen

Automatic boulder identification in side-scan sonar

Boulder surveys seek to identify prominent boulders which position may collide with planned cable routes, offshore wind farms or other subsea construction activities. Data is collected using suitable sensor technologies such as bathymetry from multibeam echo sounders and side-scan sonar imaging. Currently, the boulder identification process is a labour-intensive job that requires domain expertise to interpret the data and provide each identified target with accurate annotations. With this work, we propose to automate the majority of this process by training neural networks to identify boulders in side-scan data. Our preliminary work estimates the area covered by each boulder instance and further generates metadata for each identified target for filtering, sorting and report generation. In addition to being an automated process, our method can process several kilometres of side-scan data and identify thousands of boulders in less than a minute. Not only does this provide results of high accuracy but it also performs orders of magnitude faster than human processors.

boulder identification | AUV | SeaCat | artificial intelligence | deep learning | side-scan sonar imag-ing


Bei der Vermessung von Felsblöcken geht es darum, markante Felsblöcke zu identifizieren, deren Position mit geplanten Kabeltrassen, Offshore-Windparks oder anderen Bauten unter Wasser kolli-dieren könnte. Die Daten werden mit Hilfe geeigneter Sensortechnologien gesammelt, wie z. B. Bathymetrie von Fächerecholoten und Side-Scan-Sonar-Bildern. Derzeit ist es eine arbeitsintensive Aufgabe, Felsbrocken zu erkennen, die Fachwissen erfordert, um die Daten zu interpretieren und jedes identifizierte Ziel mit genauen Anmerkungen zu versehen. Mit dieser Arbeit schlagen wir vor, den Großteil dieses Prozesses zu automatisieren, indem wir neuronale Netze trainieren, um Fels-brocken in Side-Scan-Daten zu identifizieren. Unsere vorläufige Arbeit schätzt die Fläche, die von jedem Felsbrocken abgedeckt wird, und generiert darüber hinaus Metadaten für jedes identifizierte Ziel zum Filtern, Sortieren und Erstellen von Berichten. Da es sich um einen automatisierten Prozess handelt, kann unsere Methode in weniger als einer Minute mehrere Kilometer an Side-Scan-Daten verarbeiten und Tausende von Felsbrocken identifizieren. Dies liefert nicht nur Ergebnisse von hoher Genauigkeit, sondern arbeitet auch um Größenordnungen schneller als Menschen.

Erkennung von Felsbrocken | AUV | SeaCat | künstliche Intelligenz | Deep Learning | Side-Scan-Sonar-Bilder

Ausgabe: HN 119, Seite 24–29
DOI: 10.23784/HN119-03
Autor/en: Jesper Haahr Christensen

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.