Hvad er parallelle operativsystemer?
Parallelle operativsystemer bruges til at interface flere netværkscomputere til at udføre opgaver parallelt. Arkitekturen af softwaren er ofte en UNIX-baseret platform, der tillader den at koordinere distribuerede belastninger mellem flere computere i et netværk. Parallelle operativsystemer er i stand til at bruge software til at styre alle de forskellige ressourcer på de computere, der kører parallelt, såsom hukommelse, cacher, lagerplads og processorkraft. Parallelle operativsystemer tillader også en bruger at direkte interface med alle computere i netværket.
Et parallelt operativsystem fungerer ved at dele sæt beregninger i mindre dele og fordele dem mellem maskinerne på et netværk. For at lette kommunikationen mellem processorens kerner og hukommelsesarrays skal routingsoftwaren enten dele sin hukommelse ved at tildele det samme adresserum til alle de netværkscomputere eller distribuere dens hukommelse ved at tildele et andet adresserum til hver behandlingskerne. Deling af hukommelse gør det muligt for operativsystemet at køre meget hurtigt, men det er normalt ikke så kraftigt. Når du bruger distribueret delt hukommelse, har processorer adgang til både deres egen lokale hukommelse og hukommelsen til andre processorer; denne distribution kan bremse operativsystemet, men det er ofte mere fleksibelt og effektivt.
De fleste videnskabelige områder, herunder bioteknologi, kosmologi, teoretisk fysik, astrofysik og datalogi, bruger parallelle operativsystemer til at udnytte kraften i parallel computing. Disse typer systemopsætninger hjælper også med at skabe effektivitet inden for brancher som rådgivning, finansiering, forsvar, telekom og vejrprognose. Faktisk er parallel computing blevet så robust, at det er blevet brugt af kosmologer til at besvare spørgsmål om universets oprindelse. Disse videnskabsmænd var i stand til at køre simuleringer af store dele af rummet på én gang - det tog kun en måned for forskere at udarbejde en simulering af dannelsen af Mælkevejen, en præstation, der tidligere blev antaget at være umulig.
Forskere, undersøgelser og industrier vælger ofte at bruge parallelle operativsystemer på grund af dets omkostningseffektivitet også. Det koster langt mindre penge at samle et parallelt computernetværk end det koster at udvikle og bygge en supercomputer til forskning. Parallelle systemer er også helt modulære, hvilket giver mulighed for billige reparationer og opgraderinger.
I 1967 konceptualiserede Gene Amdahl, mens han arbejdede hos IBM, ideen om at bruge software til at koordinere parallel computing. Han frigav sine konklusioner i et papir, der hedder Amdahls lov , som skitserede den teoretiske stigning i behandlingskraft, man kunne forvente ved at køre et netværk med et parallelt operativsystem. Hans forskning førte til udviklingen af pakkeomskiftning og dermed til det moderne parallelle operativsystem. Denne ofte overset udvikling af pakkeomskiftning var også gennembrudet, der senere startede "Arpanet Project", som er ansvarlig for det grundlæggende fundament for verdens største parallelle computernetværk: Internettet.