Eine Dependenzgrammatik zur Kopplung heterogener Wissensquellen
Norbert Bröker
Die vorgestellte Grammatikkonzeption ist im Kontext eines maschinellen Textverstehenssystems entstanden und zielt primär auf Fragen der Abbildung von Texten auf Inhaltsrepräsentationen. Grundlage der Grammatik ist die Dependenzrelation, die die Lexikalisierung des Analyseverfahrens, die inkrementelle konzeptuelle Interpretation sowie die Reduzierung von Mehrdeutigkeit erlaubt. Die Integration mehrerer Wissenssysteme in einem inkrementellen Analyseverfahren erlaubt die baldige Reduktion von Mehrdeutigkeiten in einzelnen Beschreibungsdimensionen. Die syntaktische Relationierung zweier Wörter wird dazu mit Bedingungen in mehreren Wissenssystemen verknüpft, um sowohl die Dimension Syntax, Semantik und Diskurs zu koppeln als auch die Syntax in Subsysteme aufzugliedern (Kategorien, Merkmale, Stellung). Die Koppelung von Dominanz und Präzedenz ist in Dependenzgrammatiken bisher formal und/oder empirisch unbefriedigend. Zur Lösung dieser Probleme werden Wortstellungsdomänen definiert, die die Linearisierung von der hierarchischen Analyse trennen. Wortstellungsdomänen erlauben die widerspruchsfreie Integration von Präzedenzrestriktionen und erfassen Diskontinuitäten als Verallgemeinerung der kontinuierlichen Anbindung. Außerdem wird eine Beschreibungssprache mit modelltheoretischer Semantik für Dependenzstrukturen definiert. Diese auf der Modallogik beruhende Sprache erreicht erstmals eine konsistente Formalisierung dependenzgrammatischer Begriffe.