Auf der Basis von Erdvermessungsdaten können physikalische Phänomene mit wachsender Genauigkeit in Echtzeit beobachtet werden. Dadurch gewinnen Wissenschaftler ein immer detaillierteres und umfangreiches Verständnis dieser Phänomene. Für das effektive Management von Ressourcen sind diese Erkenntnisse von großer Bedeutung: So ist zum Beispiel das Verständnis der momentanen Wetterlage und deren weiteren Entwicklung wichtig, um effizient alternative Energien in die Energieversorgung mit einzubeziehen. Ebenso erlauben es Echtzeitanalysen im Fall von Katastrophen den Entscheidungsträgern, angemessen zu reagieren und somit die negativen Auswirkungen einer Naturkatastrophe deutlich zu reduzieren.
Dabei ist es entscheidend, einerseits möglichst viele Messungen in die Analysemodelle zu integrieren und diese andererseits zeitnah zu verarbeiten. Diese gigantischen Datenmengen bringen heutige IT-Infrastrukturen an die Grenzen ihrer Leistungsfähigkeit.
Dies gilt umso mehr, wenn in naher Zukunft umfangreiche Datenströmen aus Billionen von Sensorquellen zur Verfügung stehen werden. Diese umfassen Informationen aus Satteliten, Sensoren in Wetterstationen, dediziert ausgebrachten Sensornetzen, und mobilen Endgeräten. Sogar Informationen über Gegenstände des alltäglichen Lebens können mit Hilfe von RFID Technologie in die Datenanalyse mit einbezogen werden.
Um Entscheidungsträgern den effizienten Zugriff auf Analysedaten zu ermöglichen, werden im Rahmen des Projekts „CEP in the Large“ insbesondere die Kommunikationswege bei der Übertragung der Daten mit betrachtet. Dabei werden Berechnungen zur Datenanalyse über viele weltweit verteilte Rechner hinweg durchgeführt, wodurch die anfallende Datenlast insgesamt besser bewältigt werden kann. Die Entscheidung, wo Berechnungen durchgeführt werden, kann dabei dynamisch an das Datenvolumen, an die verfügbaren Quellen sowie an die Anforderungen und Anzahl der Entscheidungsträger angepasst werden. So erfordert beispielsweise die Beobachtung eines Wetterphänomens, das seine Lage über die Zeit verändert, die Einbindung sich stetig ändernder Sensorquellen.
Im Rahmen des Projektes wird daher erforscht, wie eine zuverlässige Datenanalyse unter hoher Dynamik und partiellem Ausfall der zugrundeliegenden Infrastruktur bewerkstelligt werden kann. Weiterhin untersuchen die Wissenschaftler, wie unter Einbeziehen vieler Quellen und Entscheidungsträgern die Datenanbieter Kontrolle darüber behalten, wer auf ihre Daten Zugriff erhält.
An dem Projekt sind seitens der Universität Stuttgart das Institut für Parallele und Verteilte Systeme (Lehrstuhl Verteilte Systeme, Leiter Prof. Kurt Rothermel) und seitens des Georgia Institute of Technology die Forschungsgruppe von Prof. Umakishore Ramachandran beteiligt.
Kontakt
Prof. Kurt Rothermel
Institut für Parallele und Verteilte Systeme
Universität Stuttgart
Tel.: 0711 - 685 - 88434
E-Mail: Kurt.Rothermel(at)ipvs.uni-stuttgart.de
Dr. Boris Koldehofe
Tel.: 0711 - 7816 - 88357
E-Mail boris.koldehofe(at)ipvs.uni-stuttgart.de