Co jsou paralelní operační systémy?
Paralelní operační systémy se používají k propojení více síťových počítačů pro dokončení úkolů paralelně. Architektura softwaru je často platformou založenou na UNIX, která jí umožňuje koordinovat distribuovaná zatížení mezi více počítači v síti. Paralelní operační systémy jsou schopny používat software pro správu všech různých zdrojů počítačů běžících paralelně, jako je paměť, mezipaměti, úložný prostor a výkon zpracování. Paralelní operační systémy také umožňují uživateli přímo propojit se všemi počítači v síti.
Paralelní operační systém funguje rozdělením sad výpočtů na menší části a jejich rozdělení mezi stroje v síti. Aby se usnadnila komunikace mezi procesorovými jádry a paměťovými polí, musí směrovací software sdílet svou paměť přiřazením stejného adresového prostoru všem síťovým počítačům nebo distribuovat jeho paměť přiřazením jiného adresového prostoru každému jádru zpracování.Sdílení paměti umožňuje operačnímu systému běžet velmi rychle, ale obvykle není tak výkonný. Při používání distribuované sdílené paměti mají procesory přístup jak k vlastní místní paměti, tak k paměti jiných procesorů; Tato distribuce může zpomalit operační systém, ale často je flexibilnější a efektivnější.
Většina oborů vědy, včetně biotechnologie, kosmologie, teoretické fyziky, astrofyziky a informatiky, používá paralelní operační systémy k využití síly paralelního výpočtu. Tyto typy nastavení systému také pomáhají vytvářet efektivitu v takových průmyslových odvětvích, jako jsou poradenství, finance, obrana, telekomunikační a prognóza počasí. Ve skutečnosti se paralelní výpočetní technika stala tak robustní, že kosmologové použili k odpovědi na otázky o původu vesmíru. Tito vědci byli schopni spustit simulace velkých částí prostoru najednou - trvalo to jen ONe měsíc pro vědci, aby sestavili simulaci tvorby Mléčné dráhy, což je čin, který byl dříve považován za nemožný.
Vědci, výzkumy a průmyslová odvětví se často rozhodnou používat paralelní operační systémy kvůli jeho nákladové efektivitě. Sestavení paralelní počítačové sítě stojí mnohem méně peněz, než je vývoj a vytvoření super počítače pro výzkum. Paralelní systémy jsou také zcela modulární, což umožňuje provést levné opravy a upgrady.
V roce 1967, Gene Amdahl, při práci na IBM, konceptualizoval myšlenku použití softwaru k koordinaci paralelního výpočtu. Vydal svá zjištění v článku s názvem Amdahlův zákon , který nastínil teoretický nárůst síly zpracování, které lze očekávat od provozování sítě s paralelním operačním systémem. Jeho výzkum vedl k vývoji přepínání paketů, a tedy k modernímu paralelnímu operačnímu systému. Tento často přehlížený vývoj přepínání paketů byl také BreAkThrough, který později zahájil „projekt ARPANET“, který je zodpovědný za základní základ největší paralelní počítačové sítě na světě: Internet.