ISBN-13: 9783528030469 / Niemiecki / Miękka / 1990 / 199 str.
Die Informationstheorie gehOrt zu den Grundlagen fUr alle Wissenschaftsgebiete, die sich mit der Obertragung von Nachrichten und dei Verarbeitung von Informationen befassen. Ihre Geburtsstunde wird auf das Jahr 1948 dadiert, in dem C. E. Shannon seine grundlegenden Untersuchungen tiber das Wesen von Nachrichten veroffentlichte. In diesem Buch werden die auf den Gedanken von Shannon basierenden Grundla gen der Informationstheorie dargestellt und zusatzlich wichtige Teile der Codierungs theorie. Einige Codierungsmethoden, z.B. Verfahren zur Quellencodierung (Ab schnitt 5) sind ohne Kenntnisse aus der Informationstheorie tiberhaupt nicht zu ver stehen. Andere Teile der Codierungstheorie, z.B. Konstruktionsverfahren fUr fehler erkennende Codes (Abschnitt 6) sind weniger stark mit der Informationstheorie ver zahnt und konnen weitgehend eigenstandig behandelt werden. Bei dem vorliegenden Buch wird versucht mit moglichst geringen mathematischen Hilfsmitteln auszukommen. Vorausgesetzt werden neben Kenntnissen der hOheren Mathematik einige Grundlagen der Wahrscheinlichkeitsrechnung. Auf eine strenge mathematische BeweisfUhrung wird Mufig zugunsten von Plausibilitatserklarungen verzichtet. Viele Erklarungen und voll durchgerechnete Beispiele sollen zum Ver standnis des Stoffes beitragen. Das Buch ist als Begleitbuch zu Vorlesungen, beson ders aber auch ftir das Selbststudium konzipiert. Nach einem ganz kurzen einfiihrenden Abschnitt befaBt sich der Abschnitt 2 mit der Beschreibung diskreter Informationsquellen. Hier wird zunachst der Begriff des Entscheidungsgehaltes und des mittleren Informationsgehaltes (Entropie) eingefiihrt. Zum AbschluB des Abschnittes wird der InformationsfluB diskreter Informations quellen behandelt.