Co jsou paralelní operační systémy?

Paralelní operační systémy se používají k propojení více počítačů v síti za účelem paralelního plnění úkolů. Architektura softwaru je často platforma založená na systému UNIX, která mu umožňuje koordinovat distribuované zatížení mezi více počítači v síti. Paralelní operační systémy jsou schopné používat software ke správě všech různých zdrojů počítačů běžících paralelně, jako je paměť, mezipaměti, úložný prostor a výpočetní výkon. Paralelní operační systémy také umožňují uživateli přímo propojit všechny počítače v síti.

Paralelní operační systém funguje tak, že rozdělí sady výpočtů na menší části a rozdělí je mezi stroje v síti. Aby se usnadnila komunikace mezi jádry procesoru a paměťovými poli, musí směrovací software buď sdílet svou paměť přiřazením stejného adresního prostoru všem počítačům v síti, nebo distribuovat svou paměť přiřazením jiného adresového prostoru každému procesnímu jádru. Sdílení paměti umožňuje operačnímu systému běžet velmi rychle, ale obvykle není tak výkonný. Při použití distribuované sdílené paměti mají procesory přístup jak k vlastní lokální paměti, tak k paměti ostatních procesorů; tato distribuce může zpomalit operační systém, ale často je flexibilnější a efektivnější.

Většina vědních oborů, včetně biotechnologie, kosmologie, teoretické fyziky, astrofyziky a informatiky, používá paralelní operační systémy k využití síly paralelních výpočtů. Tyto typy systémových nastavení také pomáhají vytvářet efektivitu v takových odvětvích, jako je poradenství, finance, obrana, telekomunikace a předpovědi počasí. Ve skutečnosti se paralelní výpočetní technika stala tak robustní, že ji kosmologové použili k zodpovězení otázek o původu vesmíru. Tito vědci dokázali spustit simulace velkých částí vesmíru najednou - vědcům trvalo jen jeden měsíc, než sestavili simulaci vzniku Mléčné dráhy, což byl dříve považovaný za nemožný.

Vědci, výzkumníci a průmyslová odvětví se často rozhodnou používat paralelní operační systémy také kvůli své nákladové efektivitě. Sestavení paralelní počítačové sítě stojí mnohem méně peněz než náklady na vývoj a výstavbu superpočítače pro výzkum. Paralelní systémy jsou také zcela modulární, což umožňuje provádět levné opravy a upgrady.

V roce 1967, Gene Amdahl, při práci v IBM, vymyslel myšlenku používat software ke koordinaci paralelních výpočtů. Své poznatky zveřejnil v článku nazvaném Amdahlův zákon , který nastiňoval teoretický nárůst výkonu zpracování, který lze očekávat od provozování sítě s paralelním operačním systémem. Jeho výzkum vedl k vývoji přepínání paketů, a tím k modernímu paralelnímu operačnímu systému. Tento často přehlížený vývoj přepínání paketů byl také průlom, který později zahájil „projekt Arpanet“, který je zodpovědný za základní založení největší paralelní počítačové sítě na světě: internet.

JINÉ JAZYKY

Pomohl vám tento článek? Děkuji za zpětnou vazbu Děkuji za zpětnou vazbu

Jak můžeme pomoci? Jak můžeme pomoci?