Der Lehrstuhl beschäftigt sich mit der Erforschung der Grundlagen des Datenmanagements und mit dem anwendungsgetriebenen Einsatz von Datenmanagement-Technologien. Aufbauend auf den Forschungsergebnissen erfolgt im Rahmen von Projekten gemeinsam mit Partnern aus Wirtschaft und Öffentlichem Dienst die Umsetzung der entwickelten Konzepte in der betrieblichen Praxis. Forschung und Projektgeschäft bilden gemeinsam die Grundlage für die zielgerichtete Ausbildung der Studierenden.

Datenbanksysteme haben als wichtigste Technik des Datenmanagements inzwischen eine sehr große Bedeutung in allen Bereichen der Wirtschaft und der Verwaltung erlangt. Die zunehmende Notwendigkeit zur Integration verschiedener Datenbanksysteme und der steigende Bedarf zur effizienten Unterstützung system- und organisationsübergreifender Geschäftsprozesse motivieren anwendungsorientierte Forschungsschwerpunkte wie Evolutionäre Informationssysteme und Datenqualität. Im Bereich der grundlagenorientierten Forschung befasst sich der Lehrstuhl mit Techniken zur Unterstützung der Skalierbarkeit und Modularisierung von Datenbanksystemen und ihrer funktionellen Erweiterung um eine Datenstromverarbeitung.

Nachfolgend werden die Forschungsschwerpunkte genauer charakterisiert.

Forschungsschwerpunkte

  1. Anwendungsintegration und evolutionäre Informationssysteme

    Datenbanksysteme spielen auch bei der Anwendungsintegration eine gewichtige Rolle, denn im Kern jedes Integrationsprojekts steht die Datenintegration, die einerseits die semantische Abstimmung ("Mapping") und andererseits die systemübergreifende Synchronisation betrifft. Zwischen den zu integrierenden Anwendungen müssen Daten ausgetauscht und konsistent gehalten werden. Dabei verursacht vor allem die semantische Integration von Datentypen und -instanzen einen hohen manuellen Bearbeitungsaufwand. Deshalb muss nach Methoden und Techniken zur Minimierung dieses Aufwands gesucht werden. Eine wesentliche Randbedingung ist dabei, dass die Anforderungen an betriebliche Informationssysteme einem ständigen Wandel unterworfen sind. Im Rahmen der Forschung zu evolutionären Informationssystemen beschäftigt sich der Lehrstuhl daher mit der Frage, wie der Aufwand für eine bedarfsorientierte Systemevolution minimiert und organisatorisches Lernen unterstützt werden kann.

    Im Rahmen des Projekts medITalk wird (im Kontext des Spitzenclusters Medizintechnik) ein ERP-System für Arztpraxisverbünde entwickelt. Aus Forschungsgesichtspunkten ist dabei insbesondere die Evolutionsfähigkeit von Interesse. Den Ausgangspunkt bilden autonome Arztpraxissysteme und andere Datenquellen, die auch weiter betrieben werden sollen. Das zu entwickelnde System ermöglicht nun eine Kooperation, ohne die beteiligten Systeme vollständig vorher integrieren zu müssen. Stattdessen sollen neue Methoden und Techniken eingesetzt werden, die eine bedarfsgesteuerte sanfte Migration zu immer besser kooperierenden Teilsystemen ermöglichen.

    Das Projekt ProHTA (Prospective Health-Technology Assessment) ist ein interdisziplinäres Projekt im Spitzencluster Medizintechnik, bei dem es um frühzeitige Technikfolgenabschätzung im Gesundheitswesen geht. Aus der Sicht des Datenmanagements ist dabei vor allem die Entwicklung von Methoden und Techniken zum Umgang mit einem stark veränderlichen und dynamisch wachsenden Informationsbedarf interessant. Darüber hinaus spielen auch in diesem Projekt Fragen der Datenqualität eine große Rolle. Insbesondere die Anforderung, die Qualität von Simulationsergebnissen messen und über ein zielgerichtetes Datenmanagement auch steuern zu können, stellt eine große Herausforderung dar.
  2. Datenqualität

    Die verfügbaren Mechanismen zur Sicherung der Datenqualität in Datenbanksystemen reichen für ein umfassendes Datenqualitätsmanagement nicht aus. Ganzheitliche Strategien erfordern neue Mechanismen zur gezielten Optimierung des Datenproduktionsprozesses.

    TDQMed ist ein vom BMBF gefördertes Projekt im Spitzencluster Medizintechnik. Ziel ist die Analyse und Optimierung der Datenqualität für Testdaten bei der Entwicklung von medizinischen Modalitäten. Dabei wird insbesondere untersucht, welche spezifischen Qualitätsmerkmale für Testdaten benötigt werden (z.B. Realitätsnähe) und wie qualitativ hochwertige Testdaten möglichst automatisch generiert werden können.

    Auch das schon erwähnte Projekt medITalk muss sich mit der Qualität der von den Arztpraxen gelieferten Daten auseinandersetzen. Es wurden Verfahren entwickelt, mit denen sich zukünftige Lieferungen vorhersagen lassen, so dass die Vollständigkeit der tatsächlich eintreffenden Daten abgeschätzt werden kann.
  3. Datenbank- und Datenstromsysteme

    Datenbanksysteme ermöglichen eine effiziente Verwaltung strukturierter Daten. Beim Umgang mit zeitbehafteten, nach und nach eintreffenden Datensätzen, auf die sehr schnell reagiert werden muss, stoßen sie jedoch an ihre Grenzen. Derartige Datenströme entstehen aber immer häufiger (z.B. in Sensornetzen) und es müssen relevante Ereignisse aus ihnen extrahiert werden. Mit Datenstromsystemen (DSS) versucht man, die bekannten Vorzüge von Datenbanksystemen - wie beispielsweise die Möglichkeit, deskriptive Anfragen formulieren zu können - auf den Umgang mit Datenströmen zu übertragen.

    Im Projekt DSAM wird daran gearbeitet, verschiedene heterogene DSS so zu verknüpfen, dass die Stärken jedes einzelnen Systems möglichst gut zum Tragen kommen. Dazu werden Kostenmodelle für Anfragen an Datenströme entwickelt, die zur Optimierung der Datenstromverarbeitung genutzt werden können. Außerdem wird untersucht, wie die Datenqualität bei Datenstromsystemen verbessert werden und wie eine effiziente Vorverarbeitung in Sensornetzwerken erreicht werden kann. Im Rahmen der DFG-Forschergruppe FOR 1508 BATS wird dies am konkreten Beispiel der Fledermaus-Beobachtung erprobt und weiterentwickelt.

    Ein spezielles Anwendungsgebiet, in dem es ebenfalls um Datenströme und Ereignisverarbeitung geht, sind sog. MMOGs (massively multiplayer online games). Hierbei interagieren extrem viele Spieler gleichzeitig in einer gemeinsamen virtuellen Welt, deren Zustand durch die dezentrale Erzeugung von Ereignissen ständig verändert wird. Im Rahmen des Projekts i6 M2EtIS wird untersucht, wie die Leistungsfähigkeit und die Skalierbarkeit dieser Systeme durch semantische Klassifikation von Ereignis-Typen verbessert werden können.

    Das SUSHy-Projekt befasst sich mit der Verarbeitung von Sensordaten in großen Anlagen und zwar am Beispiel von Schiffen. Das System muss einerseits schnell den Anlagenzustand anzeigen können, andererseits aber auch langfristige Analysen im Hinblick auf Wartung und Energieeinsparung erlauben. In einem Teststand werden Datenstromsysteme, NoSQL-Datenbanken, Hauptspeicherdatenbanken und klassische relationale Datenbanksysteme daraufhin untersucht, ob und wie sie diesen Anforderungen genügen können.

Nach oben