Die Zeit, die es braucht, um Daten zwischen zwei Punkten zu übertragen, wird als Netzwerk-Latenz bezeichnet. Mit anderen Worten, es handelt sich um die Zeit, die zwischen dem Senden einer Anfrage und dem Empfang der Response vergeht.
Hier ein Beispiel: Die Eingabe eines Geräts muss über das Internet an einen Server gesendet werden. Der Server muss die Anfrage verarbeiten und anschließend über das Internet an das Endgerät zurücksenden. Die Netzwerk-Latenz bzw. Ping gibt die Zeit, die für den gesamten Prozess beansprucht wurde, in Millisekunden (MS) an.
Es gibt zahlreiche Faktoren, die die Netzwerk-Latenz beeinflussen können:
Ist die Netzwerk-Latenz zu hoch, kann dies schwere Folgen für die Funktionalität diverser Anwendungen haben. Zu lange Bearbeitungszeiten bei einer hohen Latenz beeinträchtigen die Leistung von Software und Endgeräten erheblich.
Das IP-Netzwerk ist langsamer als erwartet, erhöht das die Round Trip Time (RTT). Anwendungen reagieren möglicherweise nicht mehr oder laden sehr lange. Eine hohe Netzwerk-Latenz kann auch Verluste von Datenpaketen verursachen. Sogenannte Content Delivery Networks arbeiten nicht mehr funktionell.
Privatpersonen kennen dieses Phänomen als Verbindungsabbrüche, Qualitätsverluste und verzögertes Audio-/Video-Streaming. In der Industrie 4.0 kann so etwas bei automatisch arbeitenden Maschinen massive Schäden an Produkt und Technik verursachen.
Es gibt verschiedene Methoden zur Verringerung der Verzögerung bei der Datenverarbeitung. Dazu gehören Verfahren wie:
Die aber wohl effektivste Methode, um die Netzwerk-Latenz zu verringern, ist, den Verbindungsweg (Ping Traceroute) zu verkürzen. Ist der Weg von der Quelle zum Ziel zu lang, müssen auch die Daten diese Strecke zurücklegen. Und das kostet Zeit!
Es bietet sich daher an, mit Edge Computing zu arbeiten. Edge Computing verkürzt den Übertragungsweg der Daten auf ein Minimum. Daten können vor Ort verarbeitet werden und gelangen nahezu in Echtzeit an das Endgerät zurück. Netzwerk-Latenzen, die je nach Netzwerkstruktur bis auf mehrere Sekunden anwachsen können, werden auf diesem Weg ausgeschlossen.
Schließlich kann die Verwendung von Quality of Service (QoS)-Protokollen helfen. Besonders wichtigen Anwendungen wird eine hohe Priorität eingeräumt. Dies kann die Latenzzeit für eine Anwendung verringern, erhöht sie aber für andere Anwendung mit weniger Priorität.
Lesen Sie auch: Fog Computing und Cloud Computing