Was sind parallele Betriebssysteme?
Parallele Betriebssysteme werden verwendet, um mehrere vernetzte Computer miteinander zu verbinden und Aufgaben parallel auszuführen. Bei der Architektur der Software handelt es sich häufig um eine UNIX-basierte Plattform, mit der verteilte Lasten zwischen mehreren Computern in einem Netzwerk koordiniert werden können. Parallele Betriebssysteme können mithilfe von Software alle verschiedenen Ressourcen der Computer verwalten, die parallel ausgeführt werden, z. B. Speicher, Caches, Speicherplatz und Rechenleistung. Mit parallelen Betriebssystemen kann ein Benutzer auch direkt mit allen Computern im Netzwerk kommunizieren.
Ein paralleles Betriebssystem unterteilt Berechnungssätze in kleinere Teile und verteilt diese auf die Maschinen in einem Netzwerk. Um die Kommunikation zwischen den Prozessorkernen und den Speicher-Arrays zu erleichtern, muss die Routing-Software entweder ihren Speicher gemeinsam nutzen, indem sie allen vernetzten Computern denselben Adressraum zuweist, oder ihren Speicher verteilen, indem sie jedem Verarbeitungskern einen anderen Adressraum zuweist. Durch die gemeinsame Nutzung des Speichers kann das Betriebssystem sehr schnell ausgeführt werden, ist jedoch in der Regel nicht so leistungsfähig. Bei Verwendung des verteilten gemeinsamen Speichers können Prozessoren sowohl auf ihren eigenen lokalen Speicher als auch auf den Speicher anderer Prozessoren zugreifen. Diese Verteilung kann das Betriebssystem verlangsamen, ist jedoch häufig flexibler und effizienter.
In den meisten Bereichen der Wissenschaft, einschließlich Biotechnologie, Kosmologie, theoretischer Physik, Astrophysik und Informatik, werden parallele Betriebssysteme verwendet, um die Möglichkeiten des parallelen Rechnens zu nutzen. Diese Art der Systemeinrichtung trägt auch zur Steigerung der Effizienz in Branchen wie Beratung, Finanzen, Verteidigung, Telekommunikation und Wettervorhersage bei. Tatsächlich ist das parallele Rechnen so robust geworden, dass es von Kosmologen zur Beantwortung von Fragen über den Ursprung des Universums verwendet wurde. Diese Wissenschaftler waren in der Lage, Simulationen großer Teile des Weltraums gleichzeitig durchzuführen - es dauerte nur einen Monat, bis Wissenschaftler eine Simulation der Entstehung der Milchstraße erstellt hatten, eine Leistung, die zuvor für unmöglich gehalten wurde.
Wissenschaftler, Forscher und Industrien entscheiden sich häufig auch aufgrund ihrer Kosteneffizienz für den Einsatz paralleler Betriebssysteme. Der Aufbau eines parallelen Computernetzwerks kostet weit weniger Geld als die Entwicklung und der Bau eines Supercomputers für die Forschung. Parallele Systeme sind ebenfalls vollständig modular aufgebaut, sodass kostengünstige Reparaturen und Upgrades durchgeführt werden können.
1967 konzipierte Gene Amdahl bei IBM die Idee, Software zur Koordinierung des Parallel-Computing zu verwenden. Er veröffentlichte seine Ergebnisse in einem Artikel namens Amdahl's Law , in dem die theoretische Steigerung der Verarbeitungsleistung beschrieben wurde, die man von einem Netzwerk mit einem parallelen Betriebssystem erwarten kann. Seine Forschungen führten zur Entwicklung der Paketvermittlung und damit zum modernen Parallelbetriebssystem. Diese oft übersehene Entwicklung der Paketvermittlung war auch der Durchbruch, mit dem später das "Arpanet-Projekt" gestartet wurde, das für die grundlegende Grundlage des weltweit größten parallelen Computernetzwerks verantwortlich ist: das Internet.