Was ist Bitzeit?
Die Bit-Zeit ist ein Computer-Netzwerkbegriff, der misst, wie lange ein Impuls oder Bit benötigt, um von einem Sender zu einem Empfänger zu gelangen und eine bestimmte Netzwerkdatenrate zu erzeugen. Es wird manchmal mit anderen Begriffen wie Bitrate oder Baudrate verwechselt, dh der Gesamtzahl der übertragenen Bits pro Sekunde (bps), und der Schlitzzeit, dh der Zeit, die ein Impuls benötigt, um die längste Länge zu durchlaufen eines Netzwerkmediums. Die Bit-Zeit berechnet jedoch nur den Ausstoß eines Bits. Statt sich auf das Netzwerkmedium zu konzentrieren, wird untersucht, wie dieses Bit von einer Netzwerkschnittstellenkarte (Network Interface Card, NIC) mit einer bestimmten Geschwindigkeit, beispielsweise 10 Mbit / s, übertragen wird.
Viele Leute haben den Begriff "Bit" in Bezug auf Computer gehört, aber sie wissen möglicherweise nicht genau, was einer ist oder wie er verwendet wird. Ein Bit ist eine einzelne Binärzahl, entweder Null oder Eins, die bei der Netzwerkübertragung verwendet wird, um den Betrag der durch eine Schaltung pulsierenden Spannung anzuzeigen. Daher betrachtet die Bit-Zeit einen dieser Impulse und wie schnell sie auf eine Anweisung zum Verlassen der Netzwerkkarte reagiert. Sobald die Teilschicht der logischen Verbindungssteuerungsschicht 2 einen Befehl vom Betriebssystem empfängt, beginnt die Messung der Bitzeit und berechnet, wie lange es dauert, bis das Bit aus der Netzwerkkarte ausgeworfen wird. Die Grundformel für lautet wie folgt: Bit-Zeit = 1 / NIC-Geschwindigkeit.
Einige übliche Messungen der Bitzeit sind 10 Nanosekunden für Fast Ethernet und 100 Nanosekunden, wenn die ermittelte Geschwindigkeit 10 Mbit / s für die Netzwerkkarte beträgt. Die Bit-Zeit beträgt 1 Nanosekunde für Gigabit-Ethernet. Anders ausgedrückt: Für die Übertragung von Daten mit 1 Gbit / s ist nur 1 Nanosekunde erforderlich. Insgesamt ist die Bitrate also umso kürzer, je höher die Datenrate ist.
Die Bit-Zeit wird zu einer bedeutenden Diskussion in der Computernetzwerkanalyse im Hinblick auf Netzwerke mit geringer Latenz. Es ist fraglich, ob eine geringere Bitzeit in Kombination mit einer höheren Übertragungsgeschwindigkeit des Signals zu einer geringeren Latenz führt. Dieses Thema scheint zur Debatte zu stehen.
Die Latenz ist zusammen mit dem Durchsatz ein grundlegendes Maß für die Netzwerkleistung. Die Latenz misst, wie lange es dauert, bis eine Nachricht ein System durchläuft. Eine niedrige Latenz zeigt daher an, dass eine kurze Zeit erforderlich und das Netzwerk effizient ist. Hier kommt also die Bit-Zeit ins Spiel, da Netzwerkmanager kontinuierlich daran arbeiten, die Netzwerkleistung zu verbessern und zu bewerten, wie sich unterschiedliche Bit-Zeiten auf die Latenz auswirken.