Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

Deep Learning, eine Teildisziplin der Künstlichen Intelligenz, hat in nur wenigen Jahren für bahnbrechende Fortschritte im Bereich der automatischen Bilderkennung gesorgt. Computer sind nicht nur in der Lage, einfache Beobachtungen anzustellen (Ist eine Katze auf dem Bild zu sehen: ja/nein?): Mit dem richtigen Training erkennen sie auf Bildern blitzschnell Muster und Zusammenhänge, die der Mensch nur mit sehr viel Mühe findet – oder eben übersieht.

Um das zu veranschaulichen, habe ich Ihnen ein Deep Learning Beispiel aus dem öffentlichen Dienst mitgebracht. Wasserwirtschaftsverbände stehen regelmäßig vor der Herausforderung, Luftbildaufnahmen zum Zwecke von Gebührenberechnung und Hochwasserschutz kosten- und zeitintensiv kategorisieren zu müssen. Im Blog erfahren Sie, wie automatische Bilderkennung diesen Prozess um ein Vielfaches beschleunigen kann.

Hochwasserschutz: Eine Herausforderung für Wasserwirtschaftsverbände

Spätestens seit der Ahrtal-Flut stehen sie unter verstärkter öffentlicher Beobachtung: die kommunalen Wasserwirtschaftsverbände, zu deren Aufgaben neben Abwasserreinigung, Sicherung des Abflusses und Gewässerunterhaltung eben auch der Hochwasserschutz gehört. Ihnen obliegt es, versiegelte Flächen – also Flächen, die luft- und wasserdicht abgedeckt sind – in hochauflösenden Luftbildaufnahmen zu kategorisieren. Auf dieser Basis werden dann Kanalnetz-, Niederschlagswasser- oder weitere Gebühren erhoben.

Möglichst aktuelles Kartenmaterial vorliegen zu haben, dient nicht nur dem Zweck, jederzeit die richtigen Gebühren ausrechnen zu können – die Flutkatastrophe im Sommer 2021 hat vielmehr gezeigt, wie eminent wichtig es ist, um die Landschaftsgestaltung engmaschig überprüfen zu können. Daraus nämlich lassen sich Rückschlüsse auf mögliche kommende Katastrophen ziehen. 

Was bedeutet Flächenversiegelung?

Flächenversiegelung (beziehungsweise Bodenversiegelung) hat enorme Auswirkungen auf Natur und Umwelt, ist aber vielen Menschen kein läufiger Begriff. Sie bezeichnet Flächen, die luft- und wasserdicht abgedeckt sind (z. B. durch Asphalt, Beton, Pflasterstein, Straßen und Bauwerke) und ist dabei wesentlich für unser Stadtleben. Gleichzeitig verhindern entsprechende Flächen, dass Regenwasser natürlich im Boden versickert, was Hochwasser, wie bei der Katastrophe im Ahrtal, begünstigt. Zudem trägt die Versiegelung der Böden dazu bei, dass sich Innenstädte immer stärker erwärmen. All dies sind Faktoren, die es notwendig machen, die Bodenversiegelung zu kontrollieren und genau zu beobachten.

Luftbildaufnahmen als kosten- und zeitintensives Großprojekt

In der Regel werden solche Luftbildaufnahmen alle fünf Jahre aktualisiert – ein kosten- und zeitintensiver, sich wiederholender und manueller Prozess. Trotz üppiger Ausstattung an Personal und beauftragten Ingenieurbüros werden nur ca. 10 % des Datenbestands pro Jahr aktualisiert. Die Länder verfügen in der Regel über keine zentrale Datenbank, in der Versiegelungsinformationen für wasserwirtschaftliche Anwendungen vorgehalten werden könnten. Auch eine einheitliche Methodik zur Erhebung der Versiegelungsdaten gibt es nicht. So muss man sich zumeist auf Schätzungen berufen und zieht dabei Analysen von Daten aus digitalisierten Luftbildern oder abgeschätzten Durchschnittswerten für Verkehrs- und Siedlungsflächen heran.

Headerbild zu Data Science

Mit Data Science wertvolle Informationen erkennen

Extrahieren Sie mit Data Science versteckte, wertvolle Informationen aus großen Datenmengen, um so künftig datenbasierte Entscheidungen treffen zu können. Setzen Sie in dem Rahmen auf KI und Deep Learning und sparen Sie z. B. mit automatischer Bilderkennung Zeit und Kosten. Unser Expertenteam unterstützt Sie dabei!

Exkurs – GeoAI

Luftbilder kommen in vielen Bereichen zum Einsatz – beispielsweise, für Stadtplanung, bodenkundliche Erhebungen, Beweissicherungen in Schadenfällen oder wenn die Forst- und Landwirtschaftsbetriebe ihre Ertragsoptionen sichten wollen. Doch bis aus solchen Luftbildern aussagekräftige Karten werden, die als Analysegrundlage dienen, ist ein stark manueller Prozess erforderlich. Der Grund: Objekte oder Flächen müssen bisher weitestgehend manuell markiert werden. Hier kommt einiges zusammen. Wollen Städte beispielsweise die Gesamtfläche von Grünflächen, Wasserkörper oder versiegelte Flächen für ihre Region herausfinden, müssen Fachkräfte in der Verwaltung oft stundenlang Polygone auf eine Hintergrundkarte zeichnen.

Dank Künstlicher Intelligenz lässt sich die Objekt- und Flächenerkennung auf digitalen Karten heute automatisieren. Unterscheiden lassen sich dabei vier Anwendungsbereiche:

Image Classification

Image Classification ordnet ein gesamtes Bild einer bestimmten Kategorie zu. So kann ein Modell beispielsweise trainiert werden, nach einem Sturm beschädigten von unbeschädigten Gebäuden zu unterscheiden.

Object Detection

Object Detection beschreibt die Erkennung von einzelnen Objekten in einem Bild. Dieser Bereich von Computer Vision lässt sich nutzen, um Objekte wie Windräder, Baumarten oder Fahrzeuge in Luftbildaufnahmen zu erkennen und zu verorten.

Image Segmentation

Bei Image Segmentation wird jeder Pixel des eingehenden Bildes einer Klasse zugeordnet. So lässt sich zum Beispiel eine Landnutzungsklassifizierung über mehrere Klassen vornehmen oder Potentialflächen für die Stadtplanung können als einzelne Klasse gegenüber anderen Werten abgegrenzt werden. Im Gegensatz zur Object Detection ist das Ergebnis kein lokalisiertes Objekt, sondern eine identifizierte Fläche in einem Raster.

Instance Segmentation

Die sogenannte Instance Segmentation führt die Object Detection noch einen Schritt weiter. Sie extrahiert die erkannten Objekte als Feature aus dem Bild. So lassen sich beispielsweise Häuser auf Luftbildern nicht nur als solche erkennen, sondern auch noch die Gebäude- oder Flächengrenzen als Polygon Feature extrahieren.

Bilderkennung von X-INTEGRATE nutzt Deep Learning

X-INTEGRATE hat eine Lösung entwickelt, die unter Zuhilfenahme KI-basierter Methoden (Deep Learning) versiegelte Flächen aus Luftbildaufnahmen automatisiert bestimmt. Die Entwicklung eines solchen Modells, das die verschiedenen Arten der Versiegelung genau vorhersagt, ist von besonderer Bedeutung – eben weil die bisherigen Verfahren viel Know-how erfordern und der Arbeitsaufwand immens ist, Luftbildaufnahmen zu betrachten und zu versuchen, die Versiegelungsart zu bestimmen, um jene schließlich mit Polygonen einzuzeichnen.

Statt diesem kostenintensiven und zeitaufwändigen Prozess wird in der Lösung von X-INTEGRATE ein Modell anhand der von Fachkräften eingezeichneten Polygonen trainiert, das automatisch die Art der auf den Luftbildaufnahmen dargestellten Flächen vorhersagt. Diese Aufgabe wird in Computer Vision „semantische Segmentierung“ genannt. Sie stellt ein Bild auf Pixel-Ebene dar, indem jedes Pixel eines Bildes einer bestimmten Klasse zugeordnet wird. Deep Learning kommt hier zum Einsatz, um eine Zusammenstellung von Pixeln zu erkennen, welche die verschiedenen Klassen bilden.

Beispiele für semantische Segmentierung

U-Net-Algorithmus für die Segmentierung von Anwendungen

Es gibt viele semantische Segmentierungsalgorithmen wie U-Net, LinkNet, Mask-R-CNN, FPN, usw. Dabei handelt es sich tiefe künstliche neuronale Netze, welche für einen erfolgreichen Trainingsprozess einen Datensatz mit zwei Informationen benötigen:

  1. Ein Rasterbild (Luftbildaufnahme), das den Input darstellt und
  2. eine Segmentierungsmaske (Shapefile), welches das Label für jedes Pixel im Rasterbild enthält

Der U-Net-Algorithmus besteht aus zwei Teilen: Ein Encoder reduziert schrittweise die räumliche Dimension mit Pooling Layern, während der Decoder sukzessive die Objektdetails und die räumliche Dimension wiederherstellt. U-Net Architekturen haben sich als überaus nützlich für die Segmentierung verschiedener Anwendungen erwiesen, z.B. bei medizinischen Bildern (z.B. Krebsdiagnostik), Straßenansichten, Satellitenbildern usw.

Beispielhafte Darstellung des U-Nets mit Luftbildaufnahmen als Input und den zugehörigen Ausschnitten des Shapefiles als Output.

Diese Technologien nutzen wir im Projekt

Wir setzen unsere Lösung auf der Google Cloud Platform, dem Public Cloud-Angebot von Google, um. Dadurch sparen sich Kund:innen zum einen Investitionen in die eigene Infrastruktur, zum anderen profitieren sie von verschiedenen Google Services in den Bereichen Datenverarbeitung und -speicherung sowie Entwicklung. Im Deep Learning Projekt kommen unter anderem folgende Services zum Einsatz:

Vertex AI

Die Machine Learning (ML)-Plattform von Vertex AI erlaubt es uns, ML-Modelle schnell zu erstellen, bereitzustellen und zu skalieren – sowohl vortrainierte als auch eigene Modelle. 

Cloud Storage

Mit dem Cloud Storage Object Store können wir beliebige Mengen an unstrukturierten Daten speichern und abrufen.

TensorFlow

TensorFlow ist eine Open Source-Bibliothek, die 2015 von Google veröffentlicht wurde. Sie hilft unseren Machine Learning Engineers im Projekt, Deep Learning-Modelle und -Daten zu entwickeln, zu trainieren und einzusetzen, um verschiedene Prognosen zu treffen.

Fazit: Zeitersparnis und detailliertere Ergebnisse

Die neue Lösung ermöglicht es, neue georeferenzierte Luftbildaufnahmen und erste Erkenntnisse über den Versiegelungsgrad sehr schnell vorherzusagen. Das Ergebnis sind GeoTiff-Dateien, die der Fachbereich in sein spezifisches GIS-System einspielen kann, um die Folgeprozesse und Abrechnungsmechanismen zu bedienen. Dies bietet einerseits großes Potential und eine zeitsparende Alternative zur klassischen manuellen Bestimmung der Versieglungsflächen. Andererseits kann dadurch der vorhandene Datenbestands sehr viel engmaschiger aktualisiert werden. Eine Verbesserung kommunaler Aufgaben auf allen Ebenen also.

Das Data & AI Team der X-INTEGRATE unterstützt Sie gerne auch bei ihrem Vorhaben. Wie wäre es mit einem Einstieg über einen Data Science Use Case Workshop?

Data Science Use Case Workshop

Inhalte des Data Science Use Case Workshops
  • Vorstellung des Status quos des jeweiligen Use Cases
  • Vorstellung wichtiger Konzepte und Methoden – weg von Buzzwords, hin zum Verständnis
  • Verwendung der TIMETOACT-Methode, um Hypothesen zu erarbeiten
  • Prüfung und Validierung notwendiger Daten
  • Sicherstellung der Machbarkeit und Realisierbarkeit des Use Cases
  • Entwicklung eines analytischen Konzepts
Ablauf Data Science Use Case Workshop
  • Der Workshop gliedert sich in 3 Phasen: Vorbereitung, Durchführung und Nachbereitung.
  • In der Vorbereitungsphase werden in einem persönlichen oder telefonischen Interview gemeinsam die Ziele des Workshops definiert, ein Konzept entwickelt und eine Agenda aufgestellt.
  • In der Durchführungsphase beginnen wir damit, die definierten Erwartungen und Ziele aller Teilnehmer zu konkretisieren.
  • Mittels unserer TIMETOACT-Methode arbeiten wir die Hypothesen des Use Cases aus.
  • Anschließend prüfen und validieren wir die notwendigen Daten. Unser Ziel ist es, die Realisierbarkeit des Use Cases zu gewährleisten und damit die Voraussetzungen für einen späteren Prototypen zu schaffen.
Ergebnisse des Data Science Use Case Workshops
  • Konkretisierung und Evaluierung eines ausgewählten Use Cases
  • Verständnis und Differenzierung wichtiger Konzepte und Methoden
  • Analytisches Konzept
  • Definition von Annahmen und Hypothesen
  • Evaluierung der benötigten Daten
  • Dokumentation mit konkreten Empfehlungen und Next Steps

In einer internen Nachbereitung wird eine Dokumentation des Workshops erstellt. Außerdem erarbeiten wir, basierend auf unseren Erfahrungswerten, konkrete Empfehlungen und nächste Schritte.

Über den Autor: Matthias Bauer

Matthias Bauer ist seit 2020 als Teamlead Data Science bei der X-INTEGRATE (Teil der TIMETOACT GROUP) und bringt mehr als 15 Jahre Expertise als Solution Architect mit. Daten dafür nutzen, Großes zu schaffen und Mehrwerte zu erzielen – in seinen Worten: Data Thinking – ist seine Leidenschaft. Matthias ist erfahren in Artificial Intelligence, Data Science und Data Management; dabei bedient er von Data Warehousing bis hin zu Data Virtualization ein breites Spektrum an datenbezogenen Fragestellungen.  

Matthias Bauer
CTO Data Analytics & AI ATVANTAGE GmbH

Sprechen Sie uns gerne an!

Sie interessieren sich für einen Date Science Use Case Workshop? Oder haben allgemein Fragen zu unseren Services rund um Data Science und AI? Schreiben Sie uns einfach eine Nachricht – wir melden uns schnellstmöglich bei Ihnen zurück!

* Pflichtfelder

Wir verwenden die von Ihnen an uns gesendeten Angaben nur, um auf Ihren Wunsch hin mit Ihnen Kontakt im Zusammenhang mit Ihrer Anfrage aufzunehmen. Alle weiteren Informationen können Sie unseren Datenschutzhinweisen entnehmen.

Bitte Captcha lösen!

captcha image
Blog

Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

Wissen

Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

Wissen

Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

Branche

Digitaler Wandel in der Öffentliche Verwaltung

Die digitale Transformation wird die Arbeitswelt gerade in der öffentlichen Verwaltung massiv verändern. Wir unterstützen die Behörden von Bund, Ländern und Kommunen bei der strategischen und technischen Umsetzung ihrer Projekte in der Verwaltungsmodernisierung.

Teaserbild zu OCR vs IDP (Intelligent Document Processing)
Blog 07.03.23

OCR vs IDP: Vorteile von Intelligent Document Processing

Intelligent Document Processing“ heißt ein neuer Ansatz in der IT. Er erlaubt die automatisierte Datenerfassung aus Geschäftsdokumenten.

Referenz 29.10.21

Standardisiertes Datenmanagement schafft Basis für Reporting

TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung.

Teaserbild zu OCR vs IDP (Intelligent Document Processing)
Wissen 07.03.23

OCR vs IDP: Vorteile von Intelligent Document Processing

Intelligent Document Processing“ heißt ein neuer Ansatz in der IT. Er erlaubt die automatisierte Datenerfassung aus Geschäftsdokumenten.

Headerbild zur Logistik- und Transportbranche
Branche

KI & Digitalisierung für die Transport- und Logistikbranche

Digitalisierung und Transparenz der Prozesse sowie automatisierte Unterstützung bei der Optimierung können Logistikunternehmen helfen, den Spagat zwischen Kosten und Leistung besser zu bewältigen.

Headerbild für lokale Entwicklerressourcen in Deutschland
Branche

Digitalisierungspartner vor Ort für Versicherungen

Wir finden die optimale IT-Lösung für Versicherungen! ► Alles aus einer Hand ✓ Persönlich vor Ort ✓ Jetzt persönlichen Austausch vereinbaren.

Event

Data Fabric: Basis für Analytics und KI der nächsten Stufe

Im Webinar erfahren Sie, warum das Thema Data Fabric für Versicherer so wichtig ist. Wir erklären Ihnen, was die Data Fabric genau ist und welche Funktionalität sie für Data Science sowie den IT-Betrieb aufweist. In einer praktischen Demo zeigen wir Ihnen konkret Anwendungsfälle aus der Versicherungsbranche. Darüber hinaus erfahren Sie, in welchen Schritten Sie Ihre eigene Data Fabric einführen können.

Schild als Symbol für innere und äußere Sicherheit
Branche

Innere und äußere Sicherheit

Verteidigungskräfte und Polizei müssen Bürger*innen und den Staat vor immer neuen Bedrohungen schützen. Moderne IT- & Softwarelösungen unterstützen dabei.

Blog

Der Cloud vorgelagert: Edge Computing für Datenanalysen

Sicherheitsbedenken und Performance-Engpässe gestalten die Verarbeitung und Analyse von Daten in der Cloud zunehmend schwierig. So spricht einiges für eine Zwischenschicht: den Edge.

Blog 19.12.23

RAG: GenAI trifft Unternehmenswissen

In der Welt der generativen KI markiert Retrieval Augmented Generation den nächsten Evolutionsschritt. Textgeneratoren werden dabei um den Zugriff auf externe Informationsquellen angereichert.

Navigationsbild zu Business Intelligence
Service

Analytics & Business Intelligence

Business Intelligence (BI) ist ein technologiegetriebener Prozess zur Analyse von Daten und zur Darstellung von verwertbaren Informationen.

Header Blogbeitrag Artificial Intelligence
Blog 05.05.22

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von Artificial Intelligence ✅ Lesen Sie unseren Blogbeitrag.

Felss Logo
Referenz

Mit Predictive Analytics die Produktqualität vorhersagen

Die Felss Systems GmbH setzt auf ein eigens entwickeltes Predictive Analytics-Verfahren von X-INTEGRATE. Mit vorausschauendem Scoring und Automatisierung für mehr Effizienz.

Navigationsbild zu Data Science
Service

AI & Data Science

Wir bieten umfassende Lösungen im Bereich Data Science, Machine Learning und AI, die auf Ihre spezifischen Herausforderungen und Ziele zugeschnitten sind.

Blog 17.05.24

8 Tipps zur Entwicklung von AI-Assistenten

AI-Assistenten sind ein Hype, und viele Teams arbeiten mit Begeisterung an ihrer Umsetzung. Doch in Europa und den USA scheitern viele an dieser Herausforderung. Damit Ihnen das nicht passiert, haben

Blog 16.05.24

In 8 Schritten zu AI-Innovationen im Unternehmen

Künstliche Intelligenz ist längst mehr als ein Schlagwort – sie schafft echten Business Value. Mit unserem achtstufigen Ansatz unterstützen wir Unternehmen auf dem Weg zur erfolgreichen AI-Nutzung.

Blog 16.05.24

Fehler in der Entwicklung von AI-Assistenten

Erfolgreiche AI-Assistenten starten mit den richtigen Learnings: Erfahren Sie, warum viele Unternehmen scheitern und wie Sie typische Fehler vermeiden – für eine optimale Umsetzung Ihrer AI-Projekte!