O que são sistemas operacionais paralelos?
Os sistemas operacionais paralelos são usados para fazer interface com vários computadores em rede para concluir tarefas em paralelo. A arquitetura do software geralmente é uma plataforma baseada em UNIX, que permite coordenar cargas distribuídas entre vários computadores em uma rede. Os sistemas operacionais paralelos podem usar o software para gerenciar todos os diferentes recursos dos computadores executando em paralelo, como memória, caches, espaço de armazenamento e capacidade de processamento. Os sistemas operacionais paralelos também permitem que o usuário faça interface direta com todos os computadores da rede.
Um sistema operacional paralelo funciona dividindo conjuntos de cálculos em partes menores e distribuindo-os entre as máquinas em uma rede. Para facilitar a comunicação entre os núcleos do processador e as matrizes de memória, o software de roteamento precisa compartilhar sua memória atribuindo o mesmo espaço de endereço a todos os computadores em rede ou distribuir sua memória atribuindo um espaço de endereço diferente a cada núcleo de processamento. O compartilhamento de memória permite que o sistema operacional seja executado muito rapidamente, mas geralmente não é tão poderoso. Ao usar a memória compartilhada distribuída, os processadores têm acesso à memória local e à memória de outros processadores; essa distribuição pode retardar o sistema operacional, mas geralmente é mais flexível e eficiente.
A maioria dos campos da ciência, incluindo biotecnologia, cosmologia, física teórica, astrofísica e ciência da computação, usa sistemas operacionais paralelos para utilizar o poder da computação paralela. Esses tipos de configurações de sistema também ajudam a criar eficiência em setores como consultoria, finanças, defesa, telecomunicações e previsão do tempo. De fato, a computação paralela tornou-se tão robusta que foi usada pelos cosmólogos para responder a perguntas sobre a origem do universo. Esses cientistas conseguiram executar simulações de grandes seções do espaço de uma só vez - levou apenas um mês para os cientistas compilarem uma simulação da formação da Via Láctea, um feito que antes se pensava ser impossível.
Cientistas, pesquisas e indústrias geralmente escolhem usar sistemas operacionais paralelos devido à sua relação custo-benefício. Custa muito menos dinheiro montar uma rede de computadores paralela do que desenvolver e construir um super computador para pesquisa. Os sistemas paralelos também são completamente modulares, permitindo reparos e atualizações baratos.
Em 1967, Gene Amdahl, enquanto trabalhava na IBM, conceituou a idéia de usar software para coordenar a computação paralela. Ele divulgou suas descobertas em um documento chamado Lei de Amdahl , que descrevia o aumento teórico no poder de processamento que se poderia esperar da operação de uma rede com um sistema operacional paralelo. Sua pesquisa levou ao desenvolvimento de comutação de pacotes e, portanto, ao moderno sistema operacional paralelo. Esse desenvolvimento muitas vezes esquecido da troca de pacotes também foi o avanço que mais tarde iniciou o "Projeto Arpanet", responsável pela fundação básica da maior rede paralela de computadores do mundo: a Internet.