Dynamische Probabilistische Relationale Modelle
Projektleiter: Prof. Dr. Ralf Möller
Wissenschaftlicher Mitarbeiter: Marcel Gehrke
In praktischen Anwendung ist es für Agenten wichtig, über eine große Menge von Objekten sinnvoll schlussfolgern zu können (und nicht nur über ein Objekt oder wenige). Dabei sollte erreicht werden, dass nicht jedes Objekt einzeln betrachtet werden muss, sondern für Gruppen von Objekten mit gleichen Eigenschaften jeweils Stellvertreter betrachtet werden können. In den Anwendung ist Information über einzelne Objekte mit Unsicherheit belegt, so dass Schlussfolgerungen über Unsicherheiten unterstützt werden müssen, und auch das zugrundeliegende Modell berücksichtigt Unsicherheiten.
Information über einzelne Objekte werden vom Agenten über der Zeit akquiriert, so dass auch zeitliches Schließen eine große Bedeutung in pratischen Anwendungen hat. Wenn nun aber Evidenz über einzelne Objekte über der Zeit eintrifft, so wird es immer weniger möglich, für Gruppen von Objekten effizient über Stellvertreter zu schließen, so dass Schlussfolgerungsprozesse zur Berechnung von optimalen Handlungen immer langsamer werden. In der Praxis sollte also über der Zeit wieder von "Einzeleindrücken" abstrahiert werden, ohne zu große Fehler für Einzelobjekte zu erzeugen.
Die Veröffentlichung löst das zeitliche Informationsabstraktionsproblem zum ersten Male im Rahmen von temporalen (dynamischen) probabilistischen relationalen Modellen (DPRMs) und stellt damit einen wichtigen Schritt zur stabilen Datenverarbeitung in einem Agenten dar, so dass Handlungen auch mit fortschreitend eintreffender Information über verschiedene Objekte effizient berechnet werden können und vom Agenten trotzdem viele Einzelobjekte "im Blick behalten werden können"
Im Rahmen von COPICOH haben wir DPRMs im Bereich Medizin und Gesundheit angwendet. Im DFG-Exzellencluster UWA modellieren wir semantische Repräsentationen von Texten mit DPRMs.
Lifted Dynamic Junction Tree Algorithm
We work on probabilistic first-order formalisms where the domain objects are known. In these formalisms, the standard approach for inference with first-order constructs include lifted variable elimination (LVE) for single queries. To handle multiple queries efficiently and to obtain a compact representation, the lifted junction tree algorithm (LJT) extends LVE. We extend the formalism and respectively LJT to handle temporal aspects. To be more precise, we combine the advantages of LJT and the interface algorithm in LDJT, which efficiently solves the inference problems filtering and prediction.
Additionally, we are interested in solving other inference problems, e.g. smoothing, and to learn relational temporal models from data.
LDJT is supported by CISCO. The work is carried out as part of Jointlab 1 within the COPICOH center for connected health.
LDJT für Textverstehen
Im DFG-Exzellenzcluster "Understanding Written Artefacts" setzen wir LDJT ein, um semantisches Repräsentationslernen zu studieren.
Implementation
A prototype implementation of LDJT based on BLOG and the LVE implementation by Taghipour as well as some documentation is available:
The web pages around the implementation have been prepared by Moritz Hoffmann.

- Team
- Umut Çalıkyılmaz
- Rebecca von Engelhardt
- Björn Filter
- Nils Fußgänger
- Jinghua Groppe
- Sven Groppe
- Tobias Groth
- Mattis Hartwig
- Nils Wendel Heinrich
- Akasha Kessel
- Hanieh Khorashadizadeh
- Malte Luttermann
- Jörg-Uwe Meyer
- Jeannette Mödlhammer
- Nitin Nayak
- Simon Paasche
- Michael Preisig
- Nele Rußwinkel
- Simon Schiff
- Tim Schulz
- Thomas Sievers
- Tobias Winker
- Alumni