NET 4/2024
41 www.net-im-web.de 04/24 Simulated Annealing ler zum Ziel kämen. Normalnutzer werden das nicht groß mitbekommen. Wichtig ist, dass Echtzeitanwendungen in modernen 5G-Netzen wie die zunehmende Zahl von AR-Anwendungen oder über kurz oder lang autonom steuernde Fahrzeuge davon nicht betroffen sind. Der Ansatz ist somit eine nützliche temporäre Lösung, um Infrastruk- turplanungen zu überbrücken. Ersatz für Bautrupps bedeuten sie nicht. Jede Optimierungshilfe wertvoll DennochwerdenMobilfunknetzbetreiber von Netzoptimierungsverfahren wie Simulated Annealing signifikant profitieren, denn sie helfen als Treiber neuer Geschäftsmodel- le. Intelligente technologische Hilfe wird auf dem Gebiet ein wichtiger Verbündeter. Der Grund sind die Anforderungen von 5G-Zukunftsanwendungen wie autonom steuernden Automobilen, Mixed Reality in der Medizin für das Vorbereiten oder die Durchführung von Operationen und den erwähnten Anwendungen der AR-Techno- logie. Die Netzbetreiber investieren enorme Summen in den Netzausbau und setzen auf die neue Generation von Endgeräten, deren Nutzung Umsätze im Firmen- und Privat- kundengeschäft bedeutet. Voraussetzung, dass diese Umsätze fließen, ist, dass die Anwendungen zu einem entsprechenden Highend-Nutzererlebnis führen, und dafür dürfen die Datenleitungen nicht verstopft sein. Bei AR-Anwendungen für private und Businesskunden ist beispiels- weise dasTeilen von Bandbreite eine denkbare Geschäftsstrategie. In vielenGebäuden ist das WLAN nicht so leistungsstark. Es braucht daher zusätzlich das 5G-Handy. Die Aufgabe der Mobilfunknetzbetreiber ist, dafür zu sorgen, dass AR-Brillennutzer gegen Aufpreis eine sichere, stabile 8K-Auflösung erhalten und andere Nutzer in der Nähe, die nur E- Mails schreiben, einen Teil ihrer Bandbreite abgeben. Dasselbe gilt für kommende Cam- pusnetze. In privaten 5G-Netzen steckt ebenfalls Potenzial für die Telekommuni- kationsanbieter, zusätzliches Wachstum zu erzeugen. Ähnlich wie beim Strom würden die Betreiber privater Netze ihre Infrastruktur dem Gesamtnetz zur Verfügung stellen und dieMobilfunknetzbetreiber amNetzmanage- ment verdienen. Denkbar sind dann beispielsweise neue Coverage-on-Demand-Preismodelle. In diesen stecken jedochHerausforderungen für dieNetzplanung. Die Geschäftsmodelle erfor- dern eine intelligente Netzsteuerung, ähnlich wie Smart Grid in der Energiebranche. Es zeigt sich somit, wie wichtig neue Optimie- rungsansätze für die 5G-Monetarisierung sind. Es braucht eine entsprechende Dynamik der Netzsteuerung, wie sie heute noch nicht vorhanden ist. Im Prinzip wollen Telekommunikationsunternehmen immer und für jeden Nutzer eine stabile und an- gemessene Performance bieten. Damit das gelingt, müssen sie allerdings die Komplexität der Netze meistern und schneller auf neue Anforderungen reagieren. Die einfachen Routingprotokolle wie OSPF (Open Shortest Path First) und ISIS (Intermediate System to Intermediate System) sind dafür nicht ausgelegt. Zur Erinnerung: In dem oben skizziertenNetzbeispiel müssten die Betreiber aus etwa 1,7 x 1030 Kombinationen die am besten passende auswählen. Das entspricht etwa einer Billiarde mal einer Billiarde Kom- binationsmöglichkeiten. Diese alle durchzu- spielen, würde mithilfe von Supercomputern rund eine Billiarde Jahre dauern. Fazit Die Bedeutung intelligenter Optimierungs- verfahren wird weiter zunehmen, da die An- forderungen an die Netzinfrastruktur durch neueTechnologien und Anwendungen stetig wachsen. Mobilfunknetzbetreiber stehen vor der Aufgabe, nicht nur die bestehende Netzleistung zu sichern und zu verbessern, sondern auch innovative Geschäftsmodelle zu unterstützen, die auf zuverlässigen und leistungsfähigen Netzen basieren. Simulated Annealing Simulated Annealing ist ein Optimierungsalgorithmus, der aus der Thermodynamik stammt. Beim Abkühlen eines Metalls bewegen sich die Atome aufgrund der hohen Temperatur zunächst schnell und schließlich mit dem Sinken der Temperatur immer langsamer. Dabei organisieren sie sich in einer stabilen Struktur, die einen nahezu optimalen energiearmen Zustand darstellt. Ebenfalls als optimaler Zustand wird das Minimum der Fehlerfunktion gesucht: Der Algorithmus durchläuft ver- schiedene Positionen auf der Fehleroberfläche, wobei die Temperatur ein Maß dafür ist, mit welcher Wahrschein- lichkeit eine Verschlechterung akzeptiert wird. Ablauf des Algorithmus Schritt 1 : Festlegung eines Startpunktes und des Temperaturverlaufs: Zunächst wird eine Stelle der Fehlerober- fläche zufällig ausgewählt, um die Optimierung von dort zu beginnen. Es muss außerdem festgelegt werden, bei welcher Temperatur gestartet wird und wie sie sich mit jedem Schritt verändert. Dazu kann beispielsweise eine Exponentialfunktion verwendet werden. Schritt 2: Auswahl eines Nachbarpunktes: Ein Punkt in der Nähe des vorherigen Wertes wird zufällig ausgewählt. Schritt 3 : Entscheidung, ob der Nachbarpunkt akzeptiert wird: Wenn der gewählte Punkt einen geringeren Fehlerwert als der vorherige hat, wird er als neuer Punkt akzeptiert. Wenn der Punkt schlechter ist, wird zufällig bestimmt, ob er akzeptiert wird. Die Wahrscheinlichkeit des Akzeptierens ist dabei umso höher, je höher die Temperatur ist. Schritt 4: Abkühlen: Die Temperatur wird dann entsprechend der in Schritt 1 festgelegten Verlaufskurve aktualisiert. Wiederholung der Schritte 1 bis 4, solange keine vollständige Abkühlung erfolgt ist.
Made with FlippingBook
RkJQdWJsaXNoZXIy MjE2Mzk=