Vad är parallella operativsystem?
Parallella operativsystem används för att gränssnitta flera datorer i nätverket för att slutföra parallella uppgifter. Programvarans arkitektur är ofta en UNIX-baserad plattform, som gör att den kan koordinera distribuerade laster mellan flera datorer i ett nätverk. Parallella operativsystem kan använda programvara för att hantera alla olika resurser för de datorer som körs parallellt, till exempel minne, cacheminne, lagringsutrymme och processorkraft. Parallella operativsystem gör det också möjligt för en användare att direkt gränssnitta med alla datorer i nätverket.
Ett parallellt operativsystem fungerar genom att dela uppsättningar av beräkningar i mindre delar och fördela dem mellan maskinerna i ett nätverk. För att underlätta kommunikation mellan processorkärnorna och minnesmatriser måste routningsprogramvaran antingen dela sitt minne genom att tilldela samma adressutrymme till alla nätverksdatorer, eller distribuera dess minne genom att tilldela ett annat adressutrymme till varje processorkärna. Dela minne gör att operativsystemet kan köra mycket snabbt, men det är vanligtvis inte lika kraftfullt. Vid användning av distribuerat delat minne har processorer åtkomst till både sitt eget lokala minne och andra processors minne; denna distribution kan bromsa operativsystemet, men det är ofta mer flexibelt och effektivt.
De flesta vetenskapsområden, inklusive bioteknik, kosmologi, teoretisk fysik, astrofysik och datavetenskap, använder parallella operativsystem för att utnyttja kraften i parallell databehandling. Dessa typer av systemuppsättningar hjälper också till att skapa effektivitet inom sådana branscher som konsultation, finans, försvar, telekom och väderprognoser. Faktum är att parallellberäkning har blivit så robust att den har använts av kosmologer för att svara på frågor om universumets ursprung. Dessa forskare kunde köra simuleringar av stora delar av rymden på en gång - det tog bara en månad för forskare att sammanställa en simulering av bildningen av Vintergatan, en prestation som tidigare antogs vara omöjlig.
Forskare, forskare och industrier väljer ofta att använda parallella operativsystem på grund av dess kostnadseffektivitet också. Det kostar mycket mindre pengar att montera ett parallellt datornätverk än det kostar att utveckla och bygga en superdator för forskning. Parallella system är också helt modulära, vilket gör att billiga reparationer och uppgraderingar kan göras.
1967 konceptualiserade Gene Amdahl, medan han arbetade hos IBM, idén att använda programvara för att koordinera parallell datoranvändning. Han släppte sina resultat i ett papper som heter Amdahls lag , som beskrev den teoretiska ökning av processorkraften man kunde förvänta sig av att driva ett nätverk med ett parallellt operativsystem. Hans forskning ledde till utvecklingen av paketomkoppling och därmed till det moderna parallella operativsystemet. Denna ofta förbises utveckling av paketkoppling var också genombrottet som senare startade "Arpanet-projektet", som ansvarar för den grundläggande grunden för världens största parallella datornätverk: Internet.