Co to jest bit czasu?
Czas bitu jest terminem sieci komputerowej, który mierzy, jak długo jeden impuls lub bit podróżuje od nadajnika do odbiornika w celu uzyskania określonej szybkości przesyłania danych w sieci. Czasami jest mylony z innymi terminami, takimi jak szybkość transmisji lub szybkość transmisji, która jest całkowitą liczbą przesyłanych bitów na sekundę (bps), oraz czasem szczeliny, który jest czasem potrzebnym na przebycie impulsu przez najdłuższą długość medium sieciowego. Czas bitowy oblicza jednak wyrzucenie tylko jednego bitu, i zamiast skupiać się na medium sieciowym, sprawdza, jak ten bit wysyła z karty interfejsu sieciowego (NIC) z określoną prędkością, na przykład 10 Mb / s.
Wiele osób słyszało termin „bit” używany w odniesieniu do komputerów, ale mogą nie wiedzieć dokładnie, co to jest i jak się go używa. Bit to pojedyncza liczba binarna, zero lub jeden, która jest używana w transmisji sieciowej do wskazania wielkości napięcia pulsującego w obwodzie. Tak więc bit czasu patrzy na jeden z tych pulsów i na to, jak szybko reaguje na polecenie opuszczenia karty sieciowej. Gdy tylko podwarstwa warstwy logicznej kontroli łącza 2 otrzyma polecenie z systemu operacyjnego, rozpoczyna się pomiar czasu bitu, obliczając, ile czasu zajmuje wyrzucenie bitu z karty sieciowej. Podstawowa formuła jest następująca: Bit time = 1 / NIC speed.
Niektóre typowe pomiary czasu bitowego to 10 nanosekund dla Fast Ethernet i 100 nanosekund, jeśli ustalona prędkość wynosi 10 Mb / s dla NIC. Czas bitowy wynosi 1 nanosekundę dla gigabitowego Ethernetu. Innymi słowy, przesłanie 1 Gb / s danych zajmuje zaledwie 1 nanosekundę. Ogólnie rzecz biorąc, im wyższa szybkość transmisji danych, tym krótsza prędkość transmisji.
Czas bitowy staje się znaczącą dyskusją w analizie sieci komputerowej w odniesieniu do kwestii sieci o niskim opóźnieniu. Jest pewne pytanie, czy niższy czas bitowy w połączeniu z wyższą prędkością transmisji sygnału przekłada się na niższe opóźnienie. Wydaje się, że kwestia ta jest przedmiotem dyskusji.
Opóźnienie wraz z przepustowością jest podstawową miarą wydajności sieci. Opóźnienie mierzy czas potrzebny na przesłanie komunikatu przez system. Dlatego małe opóźnienie wskazuje, że wymagany jest krótki czas i że sieć jest wydajna. W grę wchodzi więc czas bitowy, ponieważ menedżerowie sieci stale pracują nad poprawą wydajności sieci i oceną, jak różne czasy bitów wpływają na opóźnienie.