Hvad er parallelle operativsystemer?

Parallelle operativsystemer bruges til at interface flere netværkscomputere til at udføre opgaver parallelt. Softwarens arkitektur er ofte en UNIX-baseret platform, der giver den mulighed for at koordinere distribuerede belastninger mellem flere computere i et netværk. Parallelle operativsystemer er i stand til at bruge software til at styre alle de forskellige ressourcer på computere, der kører parallelt, såsom hukommelse, cacher, lagerplads og behandlingskraft. Parallelle operativsystemer giver også en bruger mulighed for direkte at interface med alle computere i netværket.

Et parallelt operativsystem fungerer ved at opdele sæt beregninger i mindre dele og distribuere dem mellem maskinerne på et netværk. For at lette kommunikationen mellem processorkerner og hukommelsesarrays skal rutesoftware enten dele sin hukommelse ved at tildele det samme adresserum til alle netværkscomputere eller distribuere dens hukommelse ved at tildele et andet adresserum til hver behandling af kernen.Deling af hukommelse giver operativsystemet mulighed for at køre meget hurtigt, men det er normalt ikke så kraftfuldt. Når man bruger distribueret delt hukommelse, har processorer adgang til både deres egen lokale hukommelse og mindet om andre processorer; Denne distribution kan bremse operativsystemet, men det er ofte mere fleksibelt og effektivt.

De fleste videnskabsområder, inklusive bioteknologi, kosmologi, teoretisk fysik, astrofysik og datalogi, bruger parallelle operativsystemer til at udnytte kraften i parallel computing. Disse typer systemopsætninger hjælper også med at skabe effektivitet i sådanne industrier som rådgivning, finans, forsvar, telekom og vejrprognoser. Faktisk er parallel computing blevet så robust, at den er blevet brugt af kosmologer til at besvare spørgsmål om universets oprindelse. Disse forskere var i stand til at køre simuleringer af store dele af plads på én gang - det tog kun ONE -måned for forskere at udarbejde en simulering af dannelsen af ​​Mælkevejen, en bedrift, der tidligere blev antaget at være umulig.

Forskere, undersøgelser og industrier vælger ofte at bruge parallelle operativsystemer på grund af dets omkostningseffektivitet. Det koster langt mindre penge at samle et parallelt computernetværk, end det koster at udvikle og opbygge en supercomputer til forskning. Parallelle systemer er også fuldstændigt modulære, hvilket tillader billige reparationer og opgraderinger at blive foretaget.

I 1967 konceptualiserede Gene Amdahl, mens han arbejdede hos IBM, ideen om at bruge software til at koordinere parallel computing. Han frigav sine konklusioner i et papir kaldet Amdahls lov , som skitserede den teoretiske stigning i behandlingskraft, man kunne forvente af at køre et netværk med et parallelt operativsystem. Hans forskning førte til udviklingen af ​​pakkeomskiftning og dermed til det moderne parallelle operativsystem. Dette overset ofte udviklingen af ​​pakkeomskiftning var også BREAkthrough, der senere startede "Arpanet -projektet", som er ansvarlig for det grundlæggende fundament i verdens største parallelle computernetværk: Internettet.

ANDRE SPROG

Hjalp denne artikel dig? tak for tilbagemeldingen tak for tilbagemeldingen

Hvordan kan vi hjælpe? Hvordan kan vi hjælpe?