ISBN-13: 9783519022473 / Niemiecki / Miękka / 1992 / 293 str.
Vierzig Jahre, nachdem John von Neumann sein Konzept eines rechnenden, programmgesteuerten Automaten entworfen hat, setzt sich nun in der Informatik die Erkenntnis durch, dass sequentiell arbeitende Rechner fur manche Probleme zu langsam arbeiten. Mit vielen, parallel arbeitenden Prozessoren versucht man heutzutage in Multiprozessoranlagen, den "von Neumann-Flaschenhals" zu umgehen. Dabei ergeben sich eine Menge neuer Probleme: Die Aktivitat der Prozessoren muss synchronisiert werden, die Daten mussen effektiv verteilt werden und "Knoten" im Datenfluss (hot spots) zwischen den Prozessoren und dem Speicher mussen vermieden werden. Dazu werden Mechanismen benotigt, um auftretende Defekte in ihren Auswirkungen zu erfassen und zu kompensieren, das Gesamtsystem zu rekonfigurieren und alle Systemdaten zu aktualisieren. Bedenken wir noch zusatzlich die Schwierigkeiten, die mit einer parallelen Programmierung der eigentlichen Probleme verbunden sind, so konnen wir uns nur wundem, wieso wir Menschen "im Handumdrehen" und "ganz naturlich" Leistungen erbringen konnen, die mit den heutigen Rechnern bisher nicht nachvollziehbar waren. Betrachten wir beispielsweise die Probleme der "kunstlichen Intelligenz," besser "wissensbasierte Datenverarbeitung" genannt, so hinken die heutigen Systeme zum Sehen. Horen und Bewegen hoffnungslos der menschlichen Realitat hinterher. Weder in der Bildverarbeitung und -erkennung, noch in der Spracherkennung oder in der Robotersteuerung reichen die Systeme in Punkto Schnelligkeit (real-time), Effektivitat und Flexibilitat (Lernen) oder Fehlertoleranz an die menschlichen Leistungen heran."