Team | AGB | Impressum | Datenschutzbestimmungen | Kontakt | Bilder | Facebook | Twitter | Werben im FWnetz

(sc). Entwickelt für die Grenz- oder Objektüberwachung, eignet sich eine Entwicklung des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung (IOSB) aus Karlsruhe auch für komplexe Einsatzlagen der nichtpolizeilichen Gefahrenabwehr. Auf der FLORIAN 2009 präsentierte das IOSB ein integriertes, multisensorisches Überwachungs- und Lagedarstellungssystem.

Szenario I: Die Feuerwehr rückt mit einem Umweltschutzzug zu einem gemeldeten Gefahrstoffaustritt in einem Industriebetrieb aus. Vor Ort stellt sich heraus, dass nicht nur Personen in dem Schadensbereich vermisst sind, sondern dass der austretende Gefahrstoff aufgrund seiner chemischen Eigenschaften eine zu große Gefahr für die Einsatzkräfte darstellt. Unklar ist, wo sich die vermissten Personen befinden und wie sich der Gefahrstoff ausbreitet. Klassisch bleiben zwei Möglichkeiten: Einen Trupp unter Vollschutzanzügen zur Erkundung vorzuschicken und /oder das Gelände mit Hilfe von Fernerkundungsgeräten aus der Luft oder vom Boden aus zu überwachen.

Szenario II: Ein Löschzug der Feuerwehr rückt zu einem Vollbrand eines mehrstöckigen Gebäudes an. Ob sich noch Personen in dem Gebäude befinden ist unklar. Auch Pläne über das Innere des Gebäudes sind nicht vorhanden. Mehrere Trupps unter Atemschutz dringen in das Gebäude vor und erkunden dieses systematisch. Die Trupps melden ihre Erkenntnisse dem Einsatzleiter.

Szenario III: Ein Unwetter hat zu großflächigen Überschwemmungen geführt. Der überschwemmte Bereich ist nur schwer zu erkunden. Die Einsatzleitung entschließt sich Boote und Hubschrauber einzusetzen. Die jeweiligen Führer melden ihre Erkenntnisse an die Einsatzleitung. Diese werden per Hand auf einer Lagekarte dargestellt.

Übung der Feuerwehr Karlsruhe

Oft unter Lebensgefahr müssen Feuerwehrleute in Bereiche zur Erkundung vordringen. Hier dargestellt durch eine Übung der Berufsfeuerwehr Karlsruhe.

Menschen als endliche Ressource

Allen drei Szenarien ist eine Sache gemeinsam: Sie benötigen menschliche Ressourcen. Menschen müssen in Objekte oder Gebiete zur Erkundung vordringen, Menschen müssen Gefahren erkennen und Menschen müssen Daten auswerten sowie die Lage einschätzen. Dazu müssen Einsatzkräfte in Bereiche vordringen, die das eigene Leben gefährden oder einen Aufenthalt aufgrund von z.B. Atemluftvorräten begrenzen. Zudem sind die Einsatzkräfte nur auf ihre visuellen Fähigkeiten, Tastsinn und ggf. Wärmebildkamera oder andere Messgeräte beschränkt. Die Bedienung dieser Geräte und die nachfolgende Ergebnisübermittung nimmt jedoch Zeit und auch zusätzliches Personal in Anspruch.

Der Zusammenfluss und die Aggregierung von Informationen stellen hierbei eine hohe kognitive und organisatorische Herausforderung dar, die mit zunehmender Komplexität – im Sinne von Datenzunahme – mit traditionellen Methoden kaum mehr zu lösen ist. Oder anders gesagt, irgendwann ist die Informationsaufnahme und Verarbeitungskapazität einer Einsatzleitung erschöpft.

Lösung für begrenzte menschliche Ressourcen

Um nun den Menschen in gefährlichen Bereichen zu ersetzen bzw. maschinell zu unterstützen, hat das IOSB eine Systemarchitektur entwickelt. Diese besteht aus teilautonomen Drohnen und Robotern, die ihre Messergebnisse und Erkenntnisse in Echtzeit zu einer zentralen Auswertstation übertragen. Dort findet eine maschinelle Bewertung der Erkenntnisse statt, bevor der Mensch die (wichtigen) Daten zu Gesicht bekommt.

Hauptproblem bei dieser Aufgabe war bisher weniger die gegenwärtige Technologie, die hinsichtlich Sensorik, Rechenleistung, Detektion etc. weit fortgeschritten ist, sondern die Erfahrung, dass jede dieser Technologien für sich genommen in komplexen Lagen an ihre Grenzen stoßen. Diese Grenzen bestehen in fehlenden (offenen) Soft- und Hardware-Schnittstellen zu anderen Systemen und einem gewaltigen Problem bei der automatischen Aggregierung und Musterung von Datenströmen. Denn je mehr Sensoren man einsetzt, desto mehr Informationen gilt es zu verarbeiten. Gleichzeitig darf aber die Steuerung der Überwachungsroboter nicht zu viel Zeit und Personal binden. Das Gesamtsystem muss also einfach zu bedienen sein muss. Die Systemarchitektur muss über ein hohes Maß an Autonomie verfügen, um das Ziel, die Entlastung und Vereinfachung der Überwachungsmaßnahme, zu gewährleisten.

Zyklische Systemkette Sicherheit

Das IOSB entwickelte Schnittstellen, die in gleichermaßen komplexen wie zeitkritischen Situationen umfassende Analysemöglichkeiten bieten sollen. Dieses integrierte Schutzsystem bezeichnet das IOSB als „Zyklische Systemkette Sicherheit“. Die Forscher setzten dabei an zwei Punkten an: Zum einen entwickelten sie teil-autonome Roboter, die selbstständig messen und Informationen bewerten, zum anderen gingen sie das Problem der enormen Datenströme an. Das System analysiert und bewertet die Messergebnisse und Sensorinformationen zunächst selbst. Die Einsatzkräfte erhalten dann nur noch die für sie relevanten Informationen.

Ziel ist es dem Menschen ein verdichtetes Lagebild mit einer aufgabenorientierten Informationsverdichtung darzubieten. Das System filtert in einem mehrstufigen Prozess nicht benötigte Daten heraus, und zeigt nur das für eine Entscheidung wirklich wichtige. Diese Filterung basiert auf der vorher festgelegten Programmierung, d.h. das Auswertsystem weiß dadurch welche detektierte Situation als kritisch und welche als unkritisch einzustufen ist. Unkritisches bekommen die Einsatzkräfte dann z.B. nicht zu Gesicht. Grundlage dafür bildet ein festgelegtes Entscheidesystem.

Dazu besteht die Systemkette aus zwei bis drei Stufen. Auf der ersten Stufe sammeln mobile und/oder stationäre Instrumente Daten und leiten diese in Echtzeit an die zweite Stufe weiter. Das ist die Stufe, welche die operativen Einsatzkräfte entlastet. In der zweiten Stufe aggregiert und bewertet das System – auf Grundlage der Programmierung! – die Daten und erlaubt die Auswertung durch Einsatzkräfte. In dieser Stufe entlastet die Systemkette die administrativen Einsatzkräfte. Gänzlich ersetzen kann das System den Menschen nicht. Genauso wenig kommt es ohne die durch den Menschen vorher festgelegten Entscheidungsregeln aus. Optional kann nun die Weiterleitung dieser verdichteten Datenströme an einen Lagetisch erfolgen, der diese Erkenntnisse grafisch umsetzt.

Als Instrumente zur Sammlung von Informationen kommen neben stationären Sensoren, die vom IOSB (weiter)entwickelten mobilen Sensorplattformen AMFIS und AMROS zum Einsatz. Für AMFIS kommen Quadrocopter und Ballone zur Anwendung. AMROS bezeichnet einen fahrenden Roboter. Ergänzen lässt sich das System mit Mini-U-Booten, die dann in Gewässern Daten sammeln. Vom Prinzip her lässt sich das System um Satelliten erweitern.

Aufklärung aus der Luft: AMFIS

AMFIS steht für Aufklärung und Überwachung mit Miniatur-Fluggeräten im Sensorverbund. AMFIS basiert auf bestehenden Technologien und erlaubt die Integration weiterer Technologien. Quadrocopter (das sind fliegende Drohnen) und Ballone bilden zusammen mit der Bodenkontrollstation eine Einheit. Insbesondere die fliegenden Komponenten sind als Ergänzung zu stationären Überwachungssystemen gedacht. Die Reichweite beträgt etwa 500 Meter beim Quadrocopter und 1000 Meter bei einem Ballon. Der Clou ist jedoch, dass sich die Komponenten in Schwärmen einsetzten lässt, um eine optimale Abdeckung eines Gebietes zu erreichen. Das IOSB verfolgt derzeit softwareseitig und hardwareseitig ein Konzept der Schwarmintelligenz. Gesteuert werden die Drohnen dabei weiterhin über einen zentralen Server, jedoch sollen die Aufgaben in einzelne Aufgaben heruntergebrochen werden, sodass jede Drohne im Schwarm eine Aufgabe verfolgt.  Der Akku eines Quadrocopters hält etwa vier Stunden.

Quadrokopter des Fraunhofer IOSB. Bild: Fraunhofer IOSB

Ein Quadrocopter ist Teil von AMFIS, das vom Fraunhofer IOSB entwickelt wurde. Bild: Fraunhofer IOSB

AMFIS integriert optischen Sensoren, wie Video und Infrarot, Alarmmelder, wie passives Infrarot und Mikrofone, und zukünftig auch chemische Sensoren. Die gesammelten Daten überträgt AMFIS an die Bodenkontroll- bzw. Auswertstation. Von dort aus programmieren bzw. steuern die Operateure die Plattformen, können aber auch Ergebnisse auswerten. Der Operator kann AMFIS von dort so programmieren, dass z.B. die Quadrocopter bestimmte Aufgaben teil-autonom wahrnehmen. Das kann, z.B. bedeuten, dass die Drohnen bestimmte Wege immer wieder abfliegen, um verdächtige Veränderungen zu detektieren.

Gedacht ist AMFIS für Aufgaben im Outdoor-Bereich zur Überwachung von Gebieten oder für die Detektion, Lokalisierung und Identifikation von Personen und Fahrzeugen. Ziel ist es dabei, dass die Drohne auffälliges Verhalten selbstständig feststellt und klassifiziert, aber auch Beweise sichert. Weitere Aufgaben können Aufklärung im urbanem Umfeld, Konvoibegleitung oder auch die Innenraumüberwachung, z.B. bei Kongressen sein.

Bodenkontrollstation des Fraunhofer IOSB. Bild: Fraunhofer IOSB

Die Bodenkontrollstation ist das Herz von AMFIS: Hier wird ausgewert, Daten gesammelt und ggf. gesteuert. Bild: Fraunhofer IOSB

Nachdem der Computer die gesammelten Daten aggregiert hat und die Einsatzkräfte diese gesichtet haben, erfolgt in der dritten, optionalen Stufe die Darstellung am digitalen Lagetisch. Der digitale Lagetisch ist eine „interaktive Lagekarte“. Hier plant der Einsatzleiter Maßnahmen und Einsätze. Mit Hilfe der gesammelten Informationen ist auch eine Simulation der Lage möglich.

Aufklärung am Boden: AMROS

AMROS steht für Autonomous Multisensoric Robots for Security Applications. AMROS ist ein fahrender, autonom patrouillierender Roboter, der vorsätzliche Bedrohungen und zufällige Gefährdungen schnell und flexibel erkennen soll. AMROS ist ein Prototyp und dient als Demonstrations-/Entwicklungsgrundlage für Lösungskonzepte mit gefahrenspezifischen Aufgabenstellungen. AMROS detektiert und diagnostiziert automatisch verdächtige Situationen und kann außerdem Sicherungsmaßnahmen durchführen. Dahinter steckt der Gedanke ein System autonom patrouillierender Roboter für Überwachungsaufgaben einzusetzen, die mittels intelligenter Bildauswertung unterstützt werden. Auch hier erfolgt die Übertragung der Daten in Echtzeit.

AMROS des Fraunhofer IOSB. Bild: Fraunhofer IOSB

AMROS (Autonomous Multisensoric Robots for Security Applications) ist ein fahrender, sich selbst navigierender Roboter zur Gefahrenerkennung. Bild: Fraunhofer IOSB

Da AMROS autonom Überwachungsaufgaben übernehmen soll, ist er in der Lage Hindernisse mit einem Stereokamerasystem zu erkennen und sich selbst mit Hilfe von relativ und absolut messender Sensorik zu lokalisieren, um optimal navigieren zu können.

AMROS ist in der Lage sich bewegende Objekte während der Fahrt zu erkennen, und diese auch zu verfolgen. Das System umfasst auch die so genannte Änderungsdetektion zur Erkennung von potenziellen gefährlichen Gegenständen. Solange AMROS einen Gegenstand nicht als gefährlich identifiziert hat, sieht der Operator an der Auswertstation nichts von dem, was AMROS sieht.

Ein Beispiel: AMROS überwacht das Terminal eines Flughafens. Auf dem Boden steht ein Koffer. AMROS analysiert die Szene, ordnet diese aber als ungefährlich ein, weil eine Person neben dem Koffer steht. Würde der Koffer nun über eine gewisse Zeitspanne ohne „Begleitung“ dort stehen, kann AMROS Alarm schlagen.

Zyklische Prüfung der Situation

Das Prinzip fasst das IOSB wie folgt zusammen: „Angestoßen durch ein detektiertes Ereignis wird zyklisch geprüft, welche Informationen noch zu beschaffen sind, welche Gegenmaßnahmen zu ergreifen sind und wie diese Maßnahmen ihre Wirkung entfalten könnten.“ Anders ausgedrückt: Erst in dem Augenblick, in dem AMROS die Gefahr detektiert, erfolgt eine Alarmmeldung in der Zentrale.

Auch wenn AMFIS und AMROS jeweils eigene Systeme sind, lassen sich beide Systeme über die Auswertstation koppeln. Dadurch ergibt sich eine Mischung aus luft- und bodengebundener Überwachung. An dieser Stelle sei angemerkt, dass trotz aller Fortschritte in der Sensortechnik, die Videotechnik die wichtigste und auch zentrale Komponente des Systems ist – und bleibt. Deshalb ist die automatisierte Videobildauswertung ein zentraler Aspekt von AMFIS und AMROS. Die Übertragung der Sensordaten findet über ein WLAN oder Videodigitalfunk (OCFDM = Coded Orthogonal Frequency Division Multiplex) statt.

Die Lage immer im Blick: Digitaler Lagetisch

Eine weitere, aber optionale Stufe, die sich an die Systemkette anschließen lässt, ist der Digitale Lagetisch. Hintergrund dieses Systems ist, dass die Darstellung einer Lage an Komplexität zunimmt, je mehr (Sensor-)Informationen vorhanden sind. Dies kann zu Abstimmungsproblemen zwischen den beteiligten Entscheidungsträgern führen, da entweder nicht alle Informationen aufgenommen bzw. so dargestellt werden können, dass eine Erfassung aller Informationen möglich ist.
Der Digitale Lagetisch dient im Prinzip zur intuitiven Erfassung einer Szene. Er bietet hierzu ein formales Modell für den Aufklärungsprozess um die Komplexität im Griff zu behalten. Der Digitale Lagetisch soll eine verdichtete und intuitiv zugängliche Darstellung des Aufklärungsbedarfs bieten. Das heißt nichts anderes, als dass eine Einsatzkraft auf den ersten Blick eine Szene erkennen und beurteilen kann.

Digitaler Lagetisch des Fraunhofer IOSB

Der Digitale Lagetisch hat inzwischen Produktreife erlangt. Bild: Fraunhofer IOSB

Farbschleier zeigt Informationsqualität

Grafisch stellt der Lagetisch dar, zu welchem Zeitpunkt, welche Informationen in welcher Qualität vorliegen. Zusätzlich ist die Relevanz der Information ebenfalls erkennbar. Dies geschieht durch unterschiedliche Farbschleier, die z.B. ein aufzuklärendes Gebiet überlagern und die jeweilige Relevanz anzeigen. Je durchlässiger dieser Farbschleier, desto mehr Informationen liegen vor. „Die Dichte des Schleiers ist somit direkt proportional zum Grad des Unwissens, das über ein Gebiet herrscht.“

Grundsätzlich besteht in einer Einsatzleitung immer das Problem eine Szene im Überblick zu haben, gleichzeitig jedoch Detailansichten auf bestimmte Szenen zu haben. Gelöst war dies bisher durch Einzelarbeitsplätze für die Details und einer Übersichtskarte für den Überblick. Diese verteilte Sicht erschwerte die Informationsaufnahme und führte gleichzeitig zu Fehlern im Planungsprozess. Dieses Dilemma lösten die Entwickler durch eine spezielle Konstruktion des Lagetisches.

Detail und Übersicht auf einen Blick

Dazu ist der Lagetisch sozusagen physikalisch in drei Teile aufgeteilt. Das kleinste Teil ist das so genannte Fouvea-Tablett. Dieses Gerät ist eine Mischung aus Tablet-PC und intelligenter Lupe. Das Tablett dient der Detaildarstellung einer Szene, als Notizspeicher oder als Nachschlagewerk, mit dem man sich auch vom Lagetisch entfernen kann, um in Ruhe zu arbeiten. Im Prinzip hat jeder das im Blick, was ihn interessiert.

Fovea-Tablett. Bild: Fraunhofer IOSB

Fovea-Tablett. Bild: Fraunhofer IOSB

Digitaler Lagetisch des Fraunhofer IOSB. Bild: Fraunhofer IOSB

Das Fouvea-Tablett erweitert den Digitalen Lagetisch um eine tragbare, personalisierte Komponente. Bild: Fraunhofer IOSB

Der zweite Teil, die horizontale Rückprojektion, dient der Darstellung der gemeinsamen Übersicht. Dies kann z.B. eine Landkarte sein. Die Fouvea-Tabletts interagieren mit der horizontalen Projektion. Das Tablett ist auch eine verdeckungsfreie Lupe. Der dritte Teil ist der vertikale 45“ große LCD-Großdisplay der ebenfalls eine gemeinsame Darstellung realisiert, z.B. Videoprojektion oder Präsentation von Ergebnissen eines Fouvea-Tabletts oder aber digitale Landschaftsmodelle.

Vertikale Übersichtsprojektion des Digitalen Lagetischs.

Vertikale Übersichtsprojektion des Digitalen Lagetischs.

Der Lagetisch ist als offenes System konzipiert, damit sich Kundenwünsche realisieren lassen. Der Lagetisch baut auf OpenSource Software auf und ermöglicht damit Schnittstellen zu vielen Softwares, wobei die Schnittstellen der Komponenten selbst keine Open Source sind. Prinzipiell kann der Lagetisch bestehende Datenbanksysteme ansprechen.

Produktreife und Customzing

Nach Auskunft des IOSB hat der Digitale Lagetisch Produktreife erlangt, dagegen befinden sich die Auswertstation und AMROS noch in der Entwicklung. Die Bundeswehr testet Teile des Systems.

Die Systemkette wird den Erfordernissen des Kunden angepasst. Die Kosten gibt das IITB für die komplette Systemkette mit etwa 100.000 Euro an. Darin enthalten ist der Lagetisch mit 50.000 Euro und der Quadrocopter mit 8.000 Euro.

Probleme

Probleme gibt es bei der Übertragung der Daten über das WLAN, das noch nicht stabil läuft. Ebenfalls problematisch gestalten sich Windstöße für die Quadrocopter, die, bedingt durch die Bauart und den Antrieb, sehr anfällig sind. Eine weitere Einschränkung bildet die Auswertstation, die nur im Inneren einsetzbar ist.

Zusammenfassung

Ziel der zyklischen Systemkette Sicherheit ist der mitdenkende Computer, der den Mensch bei der Auswertung entlastet und Gefahren selbst erkennt. Im Prinzip kann man sagen, dass die Systemkette „weg vom Computer-Werkzeug hin zum Computer-Mensch“ will. Je nach Anwendung des Systems muss der Benutzer dazu natürlich vorher programmieren, was die Plattformen erkennen soll. (Autor: Stefan Cimander, www.fwnetz.de)

Quellen

  • Webseite des IITB (seit Ende 2009 IOSB)
  • Interviews auf der FLORIAN 2009
  • IITB-Infoheft visIT: Sicherheit 1/2007
  • Factsheets zu AMROS, AMFIS, Digitaler Lagetisch

Kommentare

3 Kommentare zu “Mensch-Maschine-System für komplexe Situationen” (davon )

  1. Cimolino am 16. Februar 2010 23:31

    Hallo,

    auch wenns wieder „negativ“ klingt.
    Das einzige was davon einigermaßen realistisch umsetz-/anwendbar erscheint, ist die EDV-Ergänzung um interaktive Bildschirme – und selbst da sind die Probleme heute noch sehr viel „tiefer“, die Übertragung der Daten als Problem wurde im Artikel ja schon angesprochen. Wie wäre es daher, diese Probleme der Datenübertragung (Netze, Schnittstellen) anzugehen, weil die zu vielen anderen Schwierigkeiten führen?
    Der Rest ist für die weitaus meisten eine meilenweit entfernte Utopie. Dass die Bw an Fernerkundung etc. Interesse hat, hat andere Hintergründe. Ein ABC-Szenario in der zivilen Gefahrenabwehr gerade bei vermissten Personen ist da etwas anders gestrickt….

  2. Stefan Cimander am 22. Juni 2010 15:21

    Die niedersächische Polizei nutzt einen fiegenden Roboter – allerdings wegen der Restriktionen nicht in der Praxis: http://www.spiegel.de/panorama/0,1518,701310,00.html

  3. Stefan Cimander am 3. Februar 2011 18:10

    Ohhh, nach 2 Jahren sind auch andere auf das System aufmerksam geworden: http://www.rettungsdienst.de/magazin/fraunhofer-zeigen-lageraum-der-zukunft-21205

Kommentar hinzufügen

Du musst angemeldet sein, um zu kommentieren.

Bottom