Hva er parallelle operativsystemer?
Parallelle operativsystemer brukes til å grense flere datamaskiner i nettverket for å fullføre oppgaver parallelt. Arkitekturen til programvaren er ofte en UNIX-basert plattform, som lar den koordinere distribuerte belastninger mellom flere datamaskiner i et nettverk. Parallelle operativsystemer kan bruke programvare til å administrere alle de forskjellige ressursene til datamaskinene som kjører parallelt, for eksempel minne, cacher, lagringsplass og prosessorkraft. Parallelle operativsystemer tillater også en bruker å direkte grensesnitt til alle datamaskiner i nettverket.
Et parallelt operativsystem fungerer ved å dele sett med beregninger i mindre deler og fordele dem mellom maskinene i et nettverk. For å lette kommunikasjonen mellom prosessorkjernene og minnearriser, må rutingsprogramvare enten dele minnet ved å tildele samme adresserom til alle nettverksmaskinene, eller distribuere minnet ved å tildele et annet adresserom til hver prosesseringskjerne. Deling av minne gjør at operativsystemet kan kjøre veldig raskt, men det er vanligvis ikke så kraftig. Når du bruker distribuert delt minne, har prosessorer tilgang til både sitt eget lokale minne og minnet til andre prosessorer; denne distribusjonen kan bremse operativsystemet, men det er ofte mer fleksibelt og effektivt.
De fleste vitenskapsfelt, inkludert bioteknologi, kosmologi, teoretisk fysikk, astrofysikk og informatikk, bruker parallelle operativsystemer for å utnytte kraften til parallell databehandling. Disse typer systemoppsett bidrar også til å skape effektivitet i bransjer som rådgivning, økonomi, forsvar, telekom og værvarsling. Faktisk har parallell databehandling blitt så robust at den har blitt brukt av kosmologer for å svare på spørsmål om universets opprinnelse. Disse forskerne var i stand til å kjøre simuleringer av store deler av verdensrommet på en gang - det tok bare en måned for forskere å sammenstille en simulering av dannelsen av Melkeveien, en bragd tidligere antatt å være umulig.
Forskere, forskere og næringer velger ofte å bruke parallelle operativsystemer på grunn av dets kostnadseffektivitet. Det koster langt mindre penger å sette sammen et parallelt datanettverk enn det koster å utvikle og bygge en super datamaskin for forskning. Parallelle systemer er også helt modulbaserte, noe som gjør det mulig å foreta billige reparasjoner og oppgraderinger.
I 1967 konseptualiserte Gene Amdahl, mens han jobbet hos IBM, ideen om å bruke programvare for å koordinere parallell databehandling. Han la ut sine funn i et papir som heter Amdahls lov , som skisserte den teoretiske økningen i prosessorkraft man kunne forvente fra å drive et nettverk med et parallelt operativsystem. Forskningen hans førte til utviklingen av pakkebytte, og dermed til det moderne parallelle operativsystemet. Denne ofte oversett utviklingen av pakkebytte var også gjennombruddet som senere startet "Arpanet Project", som er ansvarlig for det grunnleggende grunnlaget for verdens største parallelle datanettverk: Internett.