SVM-Fortran ist eine Erweiterung von Fortran77, die die Programmierung von Parallelrechnern mit virtuell gemeinsamem Speicher erlaubt. In SVM-Fortran ist die Steuerung der Datenlokalität über das Scheduling von Schleifen möglich. Der Benutzer spezifiziert für Schleifen eine Scheduling-Strategie. Die aus dem Scheduling resultierende Zuordnung der Schleifeniterationen zu den Prozessoren kann abgespeichert und bei nachfolgenden Schleifen mit gleichem Speicherzugriffsmuster wiederverwendet werden, um so eine Datenlokalität zu erreichen.In dieser Arbeit werden die für reguläre Scheduling-Strategien wichtigen Parameter vorgestellt. Weiterhin wird ein Konzept erläutert, nach dem parallele Schleifen in eine neue Schleifenstruktur transformiert werd...
In parallelen Anwendungen, die auf Grundlage des Programmiermodells der gemischten Parallelität impl...
Die vorliegende Arbeit stellt ein deterministisches Scheduling-Verfahren zur Optimierung von Job-Aus...
Eine Herausforderung der Parallelverarbeitung ist das Erreichen von Skalierbarkeit großer paralleler...
Shared Virtual Memory (SVM) stellt auf Parallelrechnern mit physikalisch verteiltem Speicher einen l...
Die Programmierung massiv-paralleler Rechner mit verteiltem Speicher wird durch die Verwendung einer...
Für den zukünftigen Einsatz massiv paralleler Rechnersysteme im Multiprogramming-Betrieb wird die En...
Massiv-parallele Rechnersysteme mit physikalisch verteiltem Hauptspeicher stellen zwar einen kosteng...
Die effiziente Einbindung von parallelen Programmen in multiprogramming-Umgebungen wird maßgeblich d...
Im Shared-Memory-Programmiermodell können im Gegensatz zum Message-Passing-Programmiermodell Anwendu...
Parallelrechner mit Distributed Shared Memory haben einen physikalisch verteilten Speicher und globa...
Neben massiv-parallelen Rechnern, in denen Prozesse aufgrund des verteilten Speichers nur durch den ...
Die Ablaufplanung von parallelen Programmen bei Rechnern mit virtuell gemeinsamem, real jedoch auf d...
Der von den klassischen Rechnerarchitekturen bekannte gemeinsame Adreßraum wird bei massiv-parallele...
Die Verwendung von gemeinsamem Speicher auf Parallelrechnern vereinfacht die Programmierung dieser S...
Der Job-Scheduler eines massiv-paralleles Systems, das Jobs im Batch-Betrieb ausführt, soll sowohl k...
In parallelen Anwendungen, die auf Grundlage des Programmiermodells der gemischten Parallelität impl...
Die vorliegende Arbeit stellt ein deterministisches Scheduling-Verfahren zur Optimierung von Job-Aus...
Eine Herausforderung der Parallelverarbeitung ist das Erreichen von Skalierbarkeit großer paralleler...
Shared Virtual Memory (SVM) stellt auf Parallelrechnern mit physikalisch verteiltem Speicher einen l...
Die Programmierung massiv-paralleler Rechner mit verteiltem Speicher wird durch die Verwendung einer...
Für den zukünftigen Einsatz massiv paralleler Rechnersysteme im Multiprogramming-Betrieb wird die En...
Massiv-parallele Rechnersysteme mit physikalisch verteiltem Hauptspeicher stellen zwar einen kosteng...
Die effiziente Einbindung von parallelen Programmen in multiprogramming-Umgebungen wird maßgeblich d...
Im Shared-Memory-Programmiermodell können im Gegensatz zum Message-Passing-Programmiermodell Anwendu...
Parallelrechner mit Distributed Shared Memory haben einen physikalisch verteilten Speicher und globa...
Neben massiv-parallelen Rechnern, in denen Prozesse aufgrund des verteilten Speichers nur durch den ...
Die Ablaufplanung von parallelen Programmen bei Rechnern mit virtuell gemeinsamem, real jedoch auf d...
Der von den klassischen Rechnerarchitekturen bekannte gemeinsame Adreßraum wird bei massiv-parallele...
Die Verwendung von gemeinsamem Speicher auf Parallelrechnern vereinfacht die Programmierung dieser S...
Der Job-Scheduler eines massiv-paralleles Systems, das Jobs im Batch-Betrieb ausführt, soll sowohl k...
In parallelen Anwendungen, die auf Grundlage des Programmiermodells der gemischten Parallelität impl...
Die vorliegende Arbeit stellt ein deterministisches Scheduling-Verfahren zur Optimierung von Job-Aus...
Eine Herausforderung der Parallelverarbeitung ist das Erreichen von Skalierbarkeit großer paralleler...