Wat zijn parallelle besturingssystemen?
Parallelle besturingssystemen worden gebruikt om meerdere netwerkcomputers te interfaces om taken parallel te voltooien. De architectuur van de software is vaak een UNIX-gebaseerd platform, waarmee het gedistribueerde belastingen tussen meerdere computers in een netwerk kan coördineren. Parallelle besturingssystemen kunnen software gebruiken om alle verschillende bronnen te beheren van de computers die parallel worden uitgevoerd, zoals geheugen, caches, opslagruimte en verwerkingskracht. Met parallelle besturingssystemen kunnen een gebruiker ook rechtstreeks communiceren met alle computers in het netwerk.
Een parallel besturingssysteem werkt door sets berekeningen in kleinere onderdelen te delen en ze te verspreiden tussen de machines op een netwerk. Om de communicatie tussen de processorkernen en geheugenarrays te vergemakkelijken, moet routingsoftware zijn geheugen delen door dezelfde adresruimte toe te wijzen aan alle netwerkcomputers of het geheugen te verdelen door een andere adresruimte toe te wijzen aan elke verwerkingskern.Door geheugen te delen, kan het besturingssysteem zeer snel worden uitgevoerd, maar het is meestal niet zo krachtig. Bij het gebruik van gedistribueerd gedeeld geheugen hebben processors toegang tot zowel hun eigen lokale geheugen als het geheugen van andere processors; Deze verdeling kan het besturingssysteem vertragen, maar het is vaak flexibeler en efficiënter.
De meeste wetenschapsvelden, waaronder biotechnologie, kosmologie, theoretische fysica, astrofysica en informatica, gebruiken parallelle besturingssystemen om de kracht van parallel computing te gebruiken. Dit soort systeemopstellingen helpen ook bij het creëren van efficiëntie in industrieën zoals advies, financiën, defensie, telecom en weersvoorspelling. Parallel computing is zelfs zo robuust geworden dat het door kosmologen is gebruikt om vragen te beantwoorden over de oorsprong van het universum. Deze wetenschappers konden in staat simulaties van grote delen van de ruimte in één keer uitvoeren - het duurde alleen ONE maand voor wetenschappers om een simulatie samen te stellen van de vorming van de Melkweg, een prestatie die eerder onmogelijk werd beschouwd.
Wetenschappers, onderzoeken en industrieën kiezen er vaak voor om parallelle besturingssystemen te gebruiken vanwege de kosteneffectiviteit ervan. Het kost veel minder geld om een parallel computernetwerk samen te stellen dan het kost om een supercomputer voor onderzoek te ontwikkelen en te bouwen. Parallelle systemen zijn ook volledig modulair, waardoor goedkope reparaties en upgrades kunnen worden uitgevoerd.
In 1967 heeft Gene Amdahl, terwijl hij bij IBM werkte, het idee geconceptualiseerd om software te gebruiken om parallel computing te coördineren. Hij bracht zijn bevindingen uit in een paper genaamd Amdahl's Law , die de theoretische toename van de verwerkingskracht schetste die men zou kunnen verwachten van het runnen van een netwerk met een parallel besturingssysteem. Zijn onderzoek leidde tot de ontwikkeling van pakketomschakeling en dus tot het moderne parallelle besturingssysteem. Deze vaak over het hoofd geziene ontwikkeling van pakketwisseling was ook de BREAkthrough die later het "Arpanet -project" begon, dat verantwoordelijk is voor de basisstichting van 's werelds grootste parallelle computernetwerk: het internet.