Einführung.- 1. Parallele Rechnerarchitekturen.- 1.1. Vektorrechner.- 1.2. Multiprozessoren.- 1.2.1. Speicherkopplung mit global gemeinsamem Speicher (Beispiele Alliant FX/8, Encore Multimax, Sequent Balance).- 1.2.2. Speicherkopplung mit global verteiltem Speicher (Beispiel DIRMU 25).- 1.2.3. Nachrichtenkopplung (Beispiel SUPRENUM).- 1.3. Kommunikationsmechanismen in Multiprozessoren.- 1.3.1. Programmiermodell bei nachrichtengekoppelten Systemen.- 1.3.2. Kommunikation in nachrichtengekoppelten Systemen.- 1.3.3. Programmiermodell bei speichergekoppelten Systemen.- 1.3.4. Kommunikation in speichergekoppelten Systemen.- 2. Sequentielle Lösung von großen, linearen Gleichungssystemen mit dünn besetzter Koeffizientenmatrix.- 2.1. Definitionen.- 2.2. Direkte Verfahren.- 2.2.1. Datenstrukturen.- 2.2.2. Pivotisierung.- 2.3. Iterative Verfahren.- 2.3.1. Eingitterverfahren.- 2.3.2. Mehrgitterverfahren.- 2.4. Semi-iterative Verfahren.- 2.4.1. Methode der konjugierten Gradienten.- 2.4.2. Vorkonditionierung.- 3. Parallelisierung der Algorithmen.- 3.1. Datenabhängigkeitsanalyse.- 3.2. Vektorisierung.- 3.2.1. Direkte Verfahren.- 3.2.2. Iterative Verfahren.- 3.2.3. Semi-iterative Verfahren.- 3.3. Nebenläufigkeit.- 3.3.1. Aufteilung des Lösungsgebiets.- 3.3.2. Direkte Verfahren.- 3.3.3. Iterative Verfahren.- 3.3.4. Semi-iterative Verfahren.- 3.4. Kommunikationstopologien.- 3.4.1. Prozessorkonfigurationen für DIRMU 25.- 3.4.2. Kommunikationstopologien für SUPRENUM.- 4. Implementierung der Algorithmen auf unterschiedlichen Multiprozessoren.- 4.1. Geschwindigkeitsgewinn und Effizienz.- 4.2. Effizienzverluste bei parallelen Algorithmen.- 4.3. Implementierung auf Multiprozessoren mit global gemeinsamem Speicher.- 4.3.1. FORCE — eine parallele Programmiersprache.- 4.3.2. Ergebnisse für Multiprozessoren mit global gemeinsamem Speicher.- 4.3.2.1. Direkte Verfahren.- 4.3.2.2. Semi-iterative Verfahren.- 4.3.2.3. Iterative Verfahren.- 4.4. Implementierung auf Multiprozessoren mit verteiltem Speicher.- 4.4.1. Modula-2 auf DIRMU 25.- 4.4.2. Implementierungen auf DIRMU 25.- 4.4.3. Direkte Verfahren.- 4.4.4. Iterative Verfahren.- 4.5. Implementierung auf SUPRENUM.- 4.5.1. Concurrent Modula-2 für SUPRENUM.- 4.5.2. MIMD Fortran für SUPRENUM.- 4.5.3. SUPRENUM Simulationssystem.- 4.5.4. Ergebnisse fir SUPRENUM.- 4.5.4.1. Direkte Verfahren.- 4.5.4.2. Semi-iterative Verfahren.- 4.5.4.3. Iterative Verfahren.- 4.6. Zusammenfassung der Ergebnisse.- 5. Bewertung der Ergebnisse.- 5.1. Algorithmische Konsequenzen.- 5.1.1. Entwicklung von neuen, parallelen und vektorisierbaren Algorithmen.- 5.1.2. Formulierung von Algorithmen für parallele Rechnerstrukturen.- 5.2. Konsequenzen für die Rechnerarchitektur.- 5.2.1. Reduktion der Kosten für lokale Kommunikation.- 5.2.2. Hardwareunterstützung bei globalen Kommunikationsvorgängen.- 5.2.3. Entwicklung eines Benchmark-Konzepts für Multiprozessoren.- 5.3. Parallele Entwicklungsumgebungen.- 5.3.1. Simulationssysteme.- 5.3.2. Parallele Debugger.- 5.3.3. Diagnoseunterstützung.- 6. Eine parallele, architekturunabhängige Programmierumgebung.- 6.1 Existierende Ansätze für parallele Programmiersprachen.- 6.1.1 VSM — Virtual Shared Memory.- 6.1.2. Virtuelle Kanäle.- 6.1.3. Hilfsmittel für den INTEL Hypercube.- 6.1.4. Autoparallelisierer für Algorithmen auf SUPRENUM.- 6.2. Die parallele Programmierumgebung PPRC.- 6.3. Feldkonfiguration: PPRC Programm für ein iteratives Verfahren.- 6.4. Baumkonfiguration: PPRC Programm für das globale Skalarprodukt.- 6.5. PPRC im Unterschied zu den existierenden Ansätzen.- 6.6. Implementierung von PPRC auf Multiprozessoren.- 6.6.1. Implementierung der Konfigurationsmanager.- 6.6.2 Implementierung der Basiskommunikationsroutinen (give_info, get_info).- 6.6.3. Implementierung von komplexen Kommunikationsroutinen.- 6.7. PICL und PPRC.- 6.8. PPRC: Zusammenfassung und Ausblick.- 7. Ausblick.- 7.1. Massiv parallele Systeme.- 7.1.1. Connection Machine.- 7.1.2. MEMSY.- 7.2. The Roads to El Dorado.- 8. Literaturverzeichnis.