Jak działa serwer wielu klientów?

Serwer z wieloma klientami jest rodzajem architektury oprogramowania dla sieci komputerowych, w których klienci, którymi mogą być podstawowe stacje robocze lub w pełni funkcjonalne komputery osobiste, żądają informacji od komputera serwera. Często występują również interfejsy programowe między klientem a serwerem, znane jako oprogramowanie pośrednie oraz oprogramowanie do routingu i protokołu sieciowego, a także oprogramowanie zabezpieczające, takie jak zapory ogniowe. W zależności od wielkości sieci serwery i klienci mogą albo oddziaływać bezpośrednio, albo za pośrednictwem architektury trójwarstwowej, która zapewnia dodatkowe przetwarzanie między dwoma typami komputerów.

Najpopularniejszym typem systemu wielu serwerów dla małych firm i domów jest pojedynczy serwer z wieloma klientami. Jeden serwer jest w stanie obsłużyć jednocześnie kilkadziesiąt żądań informacji od komputerów klienckich. Wbrew powszechnemu przekonaniu, sam serwer nie musi być najszybszą, najmocniejszą maszyną w sieci, aby skutecznie wykonywać tę rolę.

Jednym z głównych rozróżnień w wielu sieciach serwerów-klientów jest to, że mogą to być sieci lokalne (LAN), które są autonomiczne w obrębie jednego budynku i niekoniecznie połączone z Internetem lub sieciami rozległymi (WAN). Sieci rozległe to systemy serwerów z wieloma klientami rozproszone w wielu lokalizacjach geograficznych i prawie wyłącznie związane z Internetem. Niektóre duże korporacje mają jednak systemy WAN niezależne od Internetu. Wzrost rozmiaru Internetu, rozwój sieci WWW oraz rosnąca różnorodność oprogramowania sieciowego i wyborów sprzętowych sprawiły, że pojęcie WAN nabiera szerszego znaczenia.

W przeszłości sieć WAN była co najmniej jednym fizycznym serwerem zapewniającym obsługę sieci wielu klientom. Termin ten jest teraz luźniej zdefiniowany, a sieć WAN może być zbudowana w dużej mierze na samym oprogramowaniu, na przykład w chmurze obliczeniowej lub przy użyciu przeglądarek internetowych i serwerów sieciowych. Bardziej tradycyjne sieci WAN wykorzystują architekturę protokołu przesyłania plików (FTP) i architektury systemu nazw domen (DNS). Szybkość przesyłania i przetwarzania plików w sieciach WAN została również poprawiona dzięki zastosowaniu wielowątkowego serwera klienckiego, sieci zbudowanej na jednostkach centralnych (CPU), które pozornie mogą wykonywać wiele różnych instrukcji programu jednocześnie.

Serwery WWW są rodzajem wirtualnego hostingu wielu serwerów klienckich. Sieci te są zbudowane w całości na oprogramowaniu i nie wymagają określonych fizycznych lokalizacji komputerów klienckich lub serwerów. Serwer WWW działa jako serwer fizyczny i może działać na wielu komputerach lub na jednej sekcji serwera z wieloma serwerami jednocześnie. Komputer kliencki w tym przypadku jest przeglądarką internetową, która uzyskuje dostęp do serwera i może być również ładowana z różnych komputerów niepowiązanych z jedną konkretną lokalizacją.

Przetwarzanie w chmurze ma podobieństwa do koncepcji stacji roboczej z wcześniejszych lat dla wielu serwerów klienckich. Zarówno przetwarzanie w chmurze, jak i stacje robocze są komputerami klienckimi z niewielką ilością zasobów lokalnych do wykorzystania. Prawie całe oprogramowanie sieci przetwarzania w chmurze jest zainstalowane na samym serwerze, takie jak edytory tekstu, gry, aplikacje muzyczne i wideo i inne. Klient uzyskuje dostęp do tego oprogramowania na serwerze, aby je uruchomić. Stacja robocza to monitor i lokalizacja sieciowa z minimalnymi zasobami, takimi jak bardzo mało pamięci lub możliwości przetwarzania, i bez dostępu do serwera nie byłby funkcjonalnym komputerem.

Architektury serwerów WWW, przetwarzanie w chmurze i uproszczone stacje robocze są próbami obniżenia kosztów sieci serwerów z wieloma klientami. Nie dystrybuując fizycznych zasobów sprzętowych ani oprogramowania na dziesiątki lub setki komputerów klienckich, chodzi o to, że dostęp do nich można uzyskać bardziej ekonomicznie na jednym centralnym, potężnym serwerze. Luka w nich polega na tym, że lokalne kopie większości plików nie istnieją, a jeśli sieć ulegnie awarii, wiele osób może utracić dostęp do swojej pracy.

Zarówno systemy FTP, jak i DNS są podstawowymi projektami komunikacji z wieloma klientami. FTP to szybka, niezawodna metoda przesyłania tekstu i niektórych innych plików, zwykle w trybie binarnym, przez sieć. Był to oryginalny protokół przesyłania, gdy Internet był w dużej mierze oparty na tekście, zanim powstał bogaty graficznie podzbiór sieci WWW. Większość dzisiejszego ruchu internetowego to nadal tekstowe transfery FTP, które w dużej mierze są niewidoczne dla użytkowników sieci. Systemy DNS powstały również wcześnie, zwłaszcza w miarę rozwoju Internetu, jako sposób na zastąpienie rzeczywistych adresów sieciowych w postaci ciągów liczb protokołu internetowego (IP) znanymi angielskimi nazwami serwerów, do których klienci mieliby dostęp.

INNE JĘZYKI

Czy ten artykuł był pomocny? Dzięki za opinie Dzięki za opinie

Jak możemy pomóc? Jak możemy pomóc?