Cosa sono i sistemi operativi paralleli?
I sistemi operativi paralleli vengono utilizzati per interfacciare più computer in rete per completare le attività in parallelo. L'architettura del software è spesso una piattaforma basata su UNIX, che consente di coordinare i carichi distribuiti tra più computer in una rete. I sistemi operativi paralleli sono in grado di utilizzare software per gestire tutte le diverse risorse dei computer in esecuzione in parallelo, come memoria, cache, spazio di archiviazione e potenza di elaborazione. I sistemi operativi paralleli consentono inoltre all'utente di interfacciarsi direttamente con tutti i computer della rete.
Un sistema operativo parallelo funziona dividendo serie di calcoli in parti più piccole e distribuendole tra le macchine su una rete. Per facilitare la comunicazione tra i core del processore e gli array di memoria, il software di routing deve condividere la propria memoria assegnando lo stesso spazio di indirizzi a tutti i computer in rete, oppure distribuirne la memoria assegnando uno spazio di indirizzi diverso a ciascun core di elaborazione. La condivisione della memoria consente al sistema operativo di essere eseguito molto rapidamente, ma di solito non è così potente. Quando si utilizza la memoria condivisa distribuita, i processori hanno accesso sia alla propria memoria locale che alla memoria di altri processori; questa distribuzione può rallentare il sistema operativo, ma è spesso più flessibile ed efficiente.
La maggior parte dei campi della scienza, compresa la biotecnologia, la cosmologia, la fisica teorica, l'astrofisica e l'informatica, utilizzano sistemi operativi paralleli per sfruttare la potenza del calcolo parallelo. Questi tipi di configurazioni di sistema contribuiscono anche a creare efficienza in settori quali consulenza, finanza, difesa, telecomunicazioni e previsioni meteorologiche. In effetti, il calcolo parallelo è diventato così robusto che è stato utilizzato dai cosmologi per rispondere alle domande sull'origine dell'universo. Questi scienziati sono stati in grado di eseguire simulazioni di vaste sezioni di spazio contemporaneamente - ci è voluto solo un mese per gli scienziati per compilare una simulazione della formazione della Via Lattea, un'impresa precedentemente ritenuta impossibile.
Gli scienziati, le ricerche e le industrie spesso scelgono di utilizzare sistemi operativi paralleli anche per la sua efficacia in termini di costi. Costituire una rete di computer paralleli costa molto meno denaro di quanto non costi per sviluppare e costruire un super computer per la ricerca. I sistemi paralleli sono inoltre completamente modulari, consentendo di effettuare riparazioni e aggiornamenti a basso costo.
Nel 1967, Gene Amdahl, mentre lavorava in IBM, concettualizzò l'idea di usare un software per coordinare il calcolo parallelo. Ha pubblicato le sue scoperte in un documento chiamato Legge di Amdahl , che ha delineato l'aumento teorico della potenza di elaborazione che ci si potrebbe aspettare da una rete con un sistema operativo parallelo. La sua ricerca ha portato allo sviluppo della commutazione di pacchetti e quindi al moderno sistema operativo parallelo. Questo sviluppo spesso trascurato dello scambio di pacchetti è stato anche la svolta che in seguito ha avviato il "Progetto Arpanet", che è responsabile della fondazione di base della più grande rete di computer paralleli del mondo: Internet.