Was sind parallele Betriebssysteme?

Parallele Betriebssysteme werden verwendet, um mehrere vernetzte Computer zu verknüpfen, um die Aufgaben parallel zu erledigen. Die Architektur der Software ist häufig eine Unix-basierte Plattform, mit der verteilte Lasten zwischen mehreren Computern in einem Netzwerk koordinieren können. Parallele Betriebssysteme können Software verwenden, um alle verschiedenen Ressourcen der parallelen Computer wie Speicher, Caches, Speicherplatz und Verarbeitungsleistung zu verwalten. Parallele Betriebssysteme ermöglichen es einem Benutzer außerdem, direkt mit allen Computern im Netzwerk zu schneiden.

Ein paralleles Betriebssystem bewirkt, indem Berechnungssätze in kleinere Teile geteilt und zwischen den Maschinen in einem Netzwerk verteilt werden. Um die Kommunikation zwischen den Prozessorkernen und den Speicherarrays zu erleichtern, muss Routing -Software entweder ihren Speicher freigeben, indem er allen vernetzten Computern denselben Adressraum zuweist, oder den Speicher verteilen, indem Sie jedem Verarbeitungskern einen anderen Adressraum zuweisen.Das Teilen von Speicher ermöglicht es dem Betriebssystem, sehr schnell zu laufen, aber es ist normalerweise nicht so leistungsstark. Bei Verwendung verteilter gemeinsamer Speicher haben Prozessoren Zugriff auf ihren eigenen lokalen Speicher und den Speicher anderer Prozessoren. Diese Verteilung kann das Betriebssystem verlangsamen, ist jedoch oft flexibler und effizienter.

Die meisten Wissenschaftsfelder, einschließlich Biotechnologie, Kosmologie, theoretischer Physik, Astrophysik und Informatik, verwenden parallele Betriebssysteme, um die Leistung des parallelen Computers zu nutzen. Diese Arten von Systemanlagen tragen auch dazu bei, Effizienz in Branchen wie Beratung, Finanzen, Verteidigung, Telekommunikation und Wettervorhersage zu schaffen. Tatsächlich ist das parallele Computing so robust geworden, dass es von Kosmologen verwendet wurde, um Fragen zum Ursprung des Universums zu beantworten. Diese Wissenschaftler konnten auf einmal Simulationen großer Raumabschnitte durchführen - es dauerte nur oNein Monat für Wissenschaftler, um eine Simulation der Bildung der Milchstraße zusammenzustellen, eine bisherige Leistung, die als unmöglich angesehen wurde.

Wissenschaftler, Forschungen und Branchen verwenden häufig auch aufgrund seiner Kosteneffektivität parallele Betriebssysteme. Es kostet weitaus weniger Geld, ein paralleles Computernetzwerk zusammenzustellen, als es kostet, einen Super -Computer für die Forschung zu entwickeln und zu erstellen. Parallele Systeme sind ebenfalls vollständig modular, sodass kostengünstige Reparaturen und Upgrades durchgeführt werden können.

1967 konzipierte Gene Amdahl bei IBM die Idee, Software zur Koordinierung des parallelen Computers zu verwenden. Er veröffentlichte seine Erkenntnisse in einem Papier namens Amdahls Law , in dem die theoretische Zunahme der Verarbeitungsleistung dargelegt wurde, die man erwarten kann, wenn man ein Netzwerk mit einem parallelen Betriebssystem ausführt. Seine Forschung führte zur Entwicklung des Paketwechsels und damit zu dem modernen parallelen Betriebssystem. Diese oft übersehene Entwicklung des Paketumschusses war auch der BREAKThrough, der später das "Arpanet -Projekt" begann, das für die grundlegende Grundlage des weltweit größten parallelen Computernetzes verantwortlich ist: das Internet.

ANDERE SPRACHEN

War dieser Artikel hilfreich? Danke für die Rückmeldung Danke für die Rückmeldung

Wie können wir helfen? Wie können wir helfen?