ISBN-13: 9783484311800 / Angielski / Twarda / 1997 / 266 str.
Aus der Verfuuuml;gbarkeit groer Textkorpora ergeben sich fur die maschinelle Sprachverarbeitung, fur die Lexikographie und fur das Information Retrieval neue Perspektiven. In dieser Arbeit werden Moouml;glichkeiten aufgezeigt, mit Hilfe statistischer Verfahren zu verlaauml;lichen Aussagen uber die Existenz komplexer lexikalischer Einheiten zu kommen. Zu diesen Lexikoneinheiten zahlen Funktionsworter ebenso wie Kollokationen und feste Wendungen. Grundlage der Untersuchungen sind Textkorpora des Deutschen. Bei der Bewertung der Gute verschiedener statistischer Verfahren zeigt es sich, da die Wahl eines Verfahrens von der konkreten Aufgabe abhangig ist. Anhand dreier Fallstudien - Abtonungspartikeln, Verbpartikeln und Pronomen - wird anschaulich dargelegt, welcher Erkenntnisgewinn fur die lexikalische Arbeit aus der Wahl des geeigneten statistischen Verfahrens zu ziehen ist. Fur die maschinelle Sprachverarbeitung und das Computerlexikon von morgen folgt, da korpusgestutzte lexikalische Arbeit fruchtbringender ist als die systematische Auswertung gedruckter Worterbucher. Es wird auch gezeigt, wie orthographisch komplexe Lexikoneinheiten angemessen in einem Computerlexikon reprasentiert werden konnen. Mit einem um komplexe Einheiten bereicherten Lexikon sind auch Probleme der Worterkennung beim Information Retrieval und in der Lexikostatistik besser zu meistern.