04/2026 Netzwerke Security Kommunikation Smart Technology Moderne Cyber-Resilienz Digitale Absicherung kontra Privatsphäre Teure Fehler Fehlende Messungen bedingen Serviceeinsätze IT Zeitschriften GbR, Friederike-Fliedner-Weg 34a, 40489 Düsseldorf Größe hilft beim Glasfaserausbau Ansätze zur Realisierung von Wachstumsstrategien Kommunikationskanäle bündeln Unternehmen müssen ihre Konnektivität neu denken
4 www.net-im-web.de Inhalt Kommunikationsmanagement Callcenter in der Versicherungsbranche arbeiten in einem der am stärksten regu- lierten Umfelder der europäischen Wirtschaft. Dies macht jede technologische Entscheidung zu einem Schritt, der weit über eine einfache operative Optimierung hinausgeht. Dennoch ist die Sprachkommunikation mit Kunden häufig diejenige Funktion, die die größten Schwachstellen aufweist. Seite 10 Glasfaser und Netzwerke Der Glasfaserausbau in Deutschland hat mit 25 Millionen „Homes Passed“ längst eine Größenordnung erreicht, in der neben Tiefbau, Trassen und neuen Hausanschlüssen vor allem die Betriebssicherheit in den Fokus rückt. Mit steigender Zahl aktivierter Anschlüsse zeigen sich vermehrt Auffälligkeiten: reduzierte Bandbreite, sporadische Abbrüche, IPTV- oder OTT-Störungen oder VoIP-Probleme. Typische Ursachen liegen oft auf den letzten Metern: verschmutzte Steckverbinder, fehlerhafte Spleiße, zu hohe Dämpfung, falsch zugeordnete PON-Zweige, falsch konfigurierte ONTs. Oder ein Anschluss, der nie vollständig abgenommen wurde. Seite 21 Netze Künstliche Intelligenz verändert nicht nur Software, sondern ganze Abläufe, von digitalen Geschäftsprozessen bis hin zu Maschinensteuerung und Automatisierung. Damit verschiebt sich auch die Rolle der Netze. Sie transportieren nicht mehr nur Daten, sondern werden zur Plattform für verteilte Intelligenz. Drei Stufen helfen, diese Entwicklung einzuordnen: KI nutzt das Netz, KI wirkt im Netz und KI entsteht aus dem Netz. Seite 36 Netzbetreiber und -dienste Der über Telekommunikationsnetze abgewickelte Datenverkehr wächst weltweit rasant: Laut einer PwC-Studie steigt er von 3,4 Millionen Petabyte im Jahr 2022 auf prognostizierte 9,7 Millionen Petabyte bis 2027. Die Umsatzentwicklung hält damit nicht Schritt: Die globale Wachstumsrate der Telko-Branche stagniert mit 0,3 Prozent bis 2027 nahezu. KI kann ein wirtschaftlicher Booster sein, wenn Initiativen strategisch ausgerollt werden. Seite 42 04/2026 Netzwerke Security Kommunikation Smart Technology Moderne Cyber-Resilienz Digitale Absicherung kontra Privatsphäre Teure Fehler Fehlende Messungen bedingen Serviceeinsätze IT Zeitschriften GbR, Friederike-Fliedner-Weg 34a, 40489 Düsseldorf Größe hilft beim Glasfaserausbau Ansätze zur Realisierung von Wachstumsstrategien Kommunikationskanäle bündeln Unternehmen müssen ihre Konnektivität neu denken (Titelbild: Mak JP, Pexels) (Foto: Yaroslav Shuraev, Pexels) Kritische Kommunikation Dieselben agentenbasierten Funktionen, die KI für die Produktivität und Cybersicherheit so wertvoll machen, können auch für Cyberangriffe in beispielloser Geschwindigkeit und Größenordnung eingesetzt werden. Ransomware 3.0 ist eine neue Evolutionsstufe von Ransomware, bei der Cyberkriminelle Agentic AI-Fähigkeiten nutzen, um Angriffe zu planen und durchzuführen. Ransomware-Angreifer setzen auf KI-Brow-ser, um mehr Druck auf ihre Ziele auszuüben Seite 12 (Foto: Oktay Koseoglu, Pexels)) 04/2026 (Foto: SAB/KI, Snom) (Foto: Andrea Toxiri, Pixabay) (Foto: Intec)
www.net-im-web.de 7 35 Jahre pei tel Kommunikationslösungen bei Behörden und Unternehmen im sicherheitskritischen Umfeld müssen auch unter extremen Bedingungen einsatzbereit sein. Daher hat sich die pei tel Communications GmbH seit ihrer Gründung im Jahr 1991 der Entwicklung und Herstellung sowie dem Vertrieb von professioneller Technik verschrieben, auf die man sich in jeder Situation verlassen kann. Jetzt feiert das Unternehmen mit Hauptsitz in Teltow bei Berlin, einer Niederlassung in Osnabrück und einem Tochterunternehmen im niederländischen Tilburg sein 35-jähriges Bestehen und setzt verstärkt auf „Value Added Services“. So stehen Kunden bei pei tel neben robuster Technik aus eigener Produktion sowie Er- zeugnissen namhafter Fremdhersteller auch ein stetig wachsendes Spektrum an ergänzenden Dienstleistungen zur Verfügung. „Unser Anspruch ist es, Behörden und Unternehmen alles, was sie für eine einwandfreie Kommunikation benötigen, aus einer Hand anzubieten. Daher entwickeln wir unser Portfolio in enger Abstimmung mit unseren Kunden ständig weiter, um den sich ändernden Anforderungen des Marktes gerecht zu werden“, sagt Peter Stroetmann, Geschäftsführer bei der pei tel Communications GmbH. Neben eigenen Produkten und Lösungen aus dem Bereich der Funk- und Audiosysteme stellt das Unternehmen seinen Kunden ein abgestimmtes Portfolio namhafter Hersteller aus den Bereichen des Professionellen Mobilfunks und des Objektfunks bereit. Ferner bietet pei tel seinen Partnern Unterstützung bei der Installation, Einrichtung und Wartung sowie ein umfangreiches Beratungs- und Schulungsangebot an. Auch neuen technischen Entwicklungen wie dem „Internet der Dinge“ (IoT) oder dem sich gerade stark ausweitenden Bereich der Video-Sicherheit trägt das Unternehmen Rechnung und investiert gezielt in diese Zukunftsbereiche. „Uns ist es wichtig, dass wir unsere Kunden bei einem Projekt auf Wunsch von der ersten Anfrage bis zur finalen Installation unterstützen. Dies tun wir zum Beispiel durch Grundlagenseminare, persönlichen technischen Support oder die Begleitung bei Projektabnahmen“, so Peter Stroetmann weiter. Die pei tel Communications GmbH wurde im Jahr 1991 als Vertriebsunternehmen des Technologiekonzerns Peiker gegründet. Im Laufe der Zeit kamen zunächst die Entwicklung und Herstellung eigener Produkte und schließlich die Distribution von Kommunikationslösungen von Fremdanbietern hinzu. Für die Handelstätigkeit wurde eigens eine Niederlassung in Osnabrück eröffnet und ein Online-Shop unter https://shop.peitel.com ins Leben gerufen. Einen weiteren wichtigen Meilenstein stellt die Gründung der pei tel Communications B.V. im niederländischen Tilburg im Jahr 2024 dar. Seitdem ist das Unternehmen erstmals mit einer eigenen Tochtergesellschaft international vertreten. www.peitel.com Festpreise bei NetCologne Der Telekommunikationsmarkt ist für viele Kunden schwer durchschaubar: Aktionspreise, befristete Rabatte und steigende Kosten nach wenigen Monaten prägen den Wettbewerb. NetCologne geht nun bewusst einen anderen Weg. Mit einer neuen Preisaktion, die am 1. April gestartet ist, setzt der regionale Telekommunikations- anbieter in Köln auf dauerhaft transparente Festpreise für Internetanschlüsse – und das ohne komplizierte Aktionsmechanismen. Der Markt für Internetanschlüsse ist in den vergangenen Jahren immer komplexer geworden. Unterschiedliche Bandbreiten, zeitlich begrenzte Rabattaktionen und zahlreiche Tarifoptionen erschweren vielen Verbrauchern die Orientierung. Für viele stellt sich deshalb die Frage: Welches Angebot passt wirklich und welche Kosten entstehen langfristig? Lockangeboten stehen künftig stabile Preise, klare Tarifstrukturen und ein verständliches Angebot für Kunden im Mittelpunkt. Der Gedanke dahinter bleibt unverändert: Hochleistungsinternet über Glasfaser darf kein Luxus sein. Gleichzeitig will NetCologne mit diesem Ansatz die Kundenzufriedenheit weiter stärken und den Wechsel auf Glasfaser erleichtern. Denn Glasfaser bietet nicht nur deutlich höhere Geschwindigkeiten, sondern sorgt auch für stabilere Verbindungen und ein besonders zuverlässiges Netz im digitalen Alltag – und das zum gleichen Preisniveau wie herkömmliche DSL-Anschlüsse. www.netcologne.koeln TRENDS & FAKTEN Plusnet erweitert Glasfaser-Reichweite Die Plusnet GmbH und die OXG Glasfaser GmbH haben auf den fiberdays 2026 eine Kooperation zur Vermarktung von Glasfaseranschlüssen vereinbart. Ziel der Zusammenarbeit ist es, die bundesweite FTTH-Abdeckung für Vermarktungspartner über die offene Connectivity-Handelsplattform Netbridge weiter auszubauen. OXG ist ein Joint Venture von Vodafone und Altice und fokussiert sich auf den Ausbau und Betrieb von FTTH-Infrastruktur – insbesondere im urbanen Umfeld. Mit der Kooperation stärkt Plusnet die eigene Glasfaserreichweite und schafft zusätzliche Vermarktungsoptionen im Partnergeschäft. Der eigenwirtschaftliche Ausbau wurde bereits in ca. 50 Städten gestartet. Schritt für Schritt wird jedes Gebäude an das zukunftssichere, hochleistungsfähige OXG-Glasfasernetz angebunden. Die Vermarktung der über OXG bereitgestellten FTTH-Zugänge ist über die Netbridge für Vermarktungspartner wie auch für Plusnet im B2B-Geschäft vorgesehen. Der Vermarktungsstart ist für die zweite Jahreshälfte 2026 geplant. www.plusnet.de www.oxg.de 04/2026
10 www.net-im-web.de 04/2026 KOMMUNIKATIONSMANAGEMENT Bernhard Reimann ist Chefredakteur der NET Bernhard Reimann Callcenter in der Versicherungsbranche arbeiten in einem der am stärksten regulierten Umfelder der europäischen Wirtschaft. Dies macht jede technologische Entscheidung zu einem Schritt, der weit über eine einfache operative Optimierung hinausgeht. Dennoch ist ausgerechnet in diesem Kontext eine der kritischsten Funktionen – die Sprachkommunikation mit Kunden – häufig diejenige, die die größten Schwachstellen aufweist. Grenzen von Terminalserver-Infrastrukturen Sicherheit und regulatorische Compliance – eine lösbare Herausforderung Viele Unternehmen verwalten ihre IT-Infrastruktur über Terminalserver. Sie erfüllen die Anforderungen an Sicherheit und regulatorische Compliance. Aber Terminalserver räumen dem Sprachverkehr keine Priorität ein (Foto: SAB/KI, Snom) Viele Versicherungsunternehmen verwalten ihre IT-Infrastruktur über Terminalserver. Diese Architektur erfüllt die Anforderungen an Sicherheit und regulatorische Compliance perfekt, weist jedoch eine technische Einschränkung auf, die häufig unterschätzt wird. Terminalserver sind nicht dafür ausgelegt, dem Sprachverkehr Priorität einzuräumen. Audio-Pakete werden wie jede andere Art von Daten behandelt – Software-Up- dates, Dateiübertragungen, Web-Traffic –, mit direkten Folgen für die Audio-Qualität: Latenz, Echo, Unterbrechungen und Paketverluste, die sich unmittelbar auf die Kundenerfahrung und damit auf die Effizienz der Mitarbeiter auswirken. Doch die Konsequenzen reichen weiter. Zu den Voraussetzungen, die unmittelbar auf die technologischen Infrastrukturen wirken, gehören präzise regulatorische Standards: In Deutschland überwacht die BaFin (Bundesanstalt für Finanzdienstleistungsaufsicht) auf Basis des VAG und der VAIT (bzw. DORA seit Januar 2025) die Einhaltung der Anforderungen an die Aufbewahrung von Kundenkommunikation, die Nachvollziehbarkeit von Vorgängen und die Betriebskontinuität der IT-Systeme. In Österreich übernimmt die FMA (Finanzmarktaufsicht) eine entsprechende Rolle, in der Schweiz ist die FINMA (Eidgenössische Finanzmarktaufsicht) für diese Regularien verantwortlich. Ein Callcenter, das keine zuverlässige Kommunikation gewährleisten kann, ist damit nicht nur ein Problem der Kundenzufriedenheit: Es kann ein ernsthaftes Compliance-Risiko mit kon-
11 www.net-im-web.de 04/2026 Grenzen von Terminalserver-Infrastrukturen kreten regulatorischen Konsequenzen darstellen. Hinzu kommen die Datenschutzanforderungen: In Deutschland und Österreich gilt die DSGVO, in der Schweiz das revidierte DSG (Datenschutzgesetz), das 2023 in Kraft getreten ist und sich weitgehend an der DSGVO orientiert. In beiden Fällen verpflichtet die Datenschutzgesetzgebung Unternehmen dazu, geeignete technische und organisatorische Maßnahmen zum Schutz personenbezogener Daten zu treffen, die Nachvollziehbarkeit jedes Datenzugriffs zu gewährleisten und die Konformität der IT-Infrastruktur dokumentieren zu können. Für Unternehmen mit Versicherungsprodukten samt Finanzkomponenten gelten in Deutschland und Österreich zusätzlich die Anforderungen der MiFID II, die weitere Pflichten zur Aufzeichnung und Archivierung der Kundenkommunikation vorsieht. In der Schweiz gilt hierfür das FIDLEG als nationales Äquivalent. Die Quadratur des Kreises Ein besonders anschauliches Beispiel für diesen Balanceakt liefert eine namhafte Schweizer Versicherungsgesellschaft mit einem hausinternen Callcenter beträchtlicher Größe. Das Unternehmen arbeitete – auch aufgrund der gesetzlichen Bestimmungen – nach einem sehr strengen Sicherheitskonzept: Die Mitarbeiter konnten nur auf spezifische Daten über geschützte Terminalserver zugreifen. Jede lokale Datenspeicherung war untersagt, die Installation herkömmlicher Tischtelefone aus Sicherheits- wie auch Platzgründen unerwünscht. Der telefonische Kundenkontakt wurde daher ausschließlich über Soft-Clients auf dem Terminalserver abgewickelt – eine aus regulatorischer Sicht konforme Lösung, die jedoch in Spitzenlastzeiten genau die beschriebenen Probleme erzeugte: eine degradierte Audio-Qualität, eine spät oder gar nicht erfolgte Darstellung der Kundendaten auf den PCs und IT-Störmeldungen. Die Auswirkung auf die Kundenzufriedenheit war entsprechend negativ. Ein Problem, das in einer Branche, in der das Telefongespräch ein grundlegender Kanal für Beratung und Kundenbindung bleibt, schwer zu tolerieren ist. Ein innovativer Ansatz Die Antwort auf diese Herausforderung kam in Form eines kompakten HardwareGeräts (Snom SP800) ohne Display und Tastatur sowie speziell für TerminalserverUmgebungen entwickelt. Das zugrunde liegende Prinzip ist einfach, aber wirkungsvoll: die Verarbeitung des Sprachsignals physisch von der Datenverarbeitung des zentralen Servers zu trennen. Das Gerät verhält sich wie ein autonomes SIP-Terminal mit dediziertem Audio-Prozessor und gewährleistet eine konstant hohe Audio-Qualität mit HD-Codecs, adaptiven Jitter-Buffern und Sprachpausenerkennung – unabhängig von der Server-Last. Gleichzeitig erfordert die Nutzung des Endgeräts keine lokale Speicherung sensibler Daten, lässt sich in die unternehmenseigenen Sicherheitsrichtlinien integrieren und unterstützt sichere Provisionierungsprotokolle. Dank seiner sehr kompakten Abmessungen konnte es zudem hinter dem Monitor oder unter dem Schreibtisch platziert werden, ohne nutzbaren Raum am Arbeitsplatz zu beanspruchen. Nach dem Deployment im Callcenter wurden messbare Verbesserungen auf mehreren operativen Ebenen dokumentiert. In Bezug auf die Kommunikationsqualität wurde eine deutliche Steigerung der Gesprächsklarheit und -stabilität selbst in Spitzenlastzeiten festgestellt, wobei die zuvor aufgetretenen Latenz- und Paketverlustprobleme eliminiert wurden. Gleichzeitig sank die Anzahl der gemeldeten Störungen der Telefonie-Dienste, was zu einer entsprechenden Einsparung technischer Ressourcen für das IT-Team führte. Die Mitarbeiter profitierten von einer flüssigeren, stabileren und zuverlässigeren Kommunikation während der gesamten Arbeitsschicht, mit messbaren positiven Auswirkungen auf die Produktivität. Dies alles wurde bei vollständiger Einhaltung der geltenden Sicherheits- und Datenschutzvorschriften, der Unternehmensrichtlinien und der ergonomischen Anforderungen am Arbeitsplatz erreicht. Ein übertragbares Beispiel Der Fall der Schweizer Versicherungsgesellschaft zeigt, dass selbst die komplexesten technologischen Herausforderungen – jene, bei denen regulatorische Einschränkungen, Sicherheitsanforderungen und Service-Erwartungen scheinbar im Widerspruch stehen – wirksam gelöst werden können, wenn ein methodischer Ansatz verfolgt und kompetente Technologie-Partner gewählt werden. Die Kommunikationsqualität als Tribut an die Sicherheit zu opfern, ist heute eine überholte Entscheidung. Für die Versicherungsbranche bleibt die Sprachkommunikation ein kritisches Asset: Sprachlich wird das Vertrauen des Kunden aufgebaut, per Sprachkommunikation werden sensible Momente wie Schadensmeldungen oder die Vertragsverlängerungen gehandhabt. Die persönliche Betreuung ist sicher eine der wichtigsten Säulen für die Bemessung der Service-Qualität eines Dienstleisters im Beratungsbereich. In diese Zuverlässigkeit und Qualität zu investieren – gerade auch in technologisch komplexen Umgebungen –, ist keine zusätzliche Ausgabe, sondern eine strategische Entscheidung mit messbaren Erträgen in operativer Effizienz, Kundenzufriedenheit und Infrastrukturresilienz. www.snom.com
15 www.net-im-web.de 04/2026 Roman Zednik Unternehmen investieren Milliarden in generative KI für die CodeEntwicklung. Doch wer investiert in das intelligente Gegengewicht, das für die nötige Stabilität sorgt? KI-Rausch und Qualitäts-Kater Nicht mehr machen, sondern das Richtige Roman Zednik ist Field CTO bei Tricentis KRITISCHE KOMMUNIKATION Wir jagen einer quantitativen Zahl hinterher, statt die notwendigen qualitativen Fragen zu stellen: Was passiert, wenn dieser oder jener Teil der Software ausfällt? Wie hoch ist die aktuelle Wahrscheinlichkeit dafür? Und wo müssen wir ansetzen, um das zu verhindern? Prinzip der dualen KI-Architektur Die logische Konsequenz ist daher nicht, mehr zu tun, sondern das Richtige. Erfolgreiche KI-Implementierung muss einem Prinzip der dualen Architektur folgen. Sie erkennt, dass es zwei KI-Systeme geben muss, die perfekt synchron arbeiten, um sich gegenseitig in Balance zu halten: auf der einen Seite die generative KI, die Code erstellt; auf der anderen Seite eine analytische KI, die als intelligente Leitplanke Qualität und Geschäftsrisiken managt. Diese zweite KI agiert wie der Dirigent eines Orchesters aus KI-Agenten. Jeder dieser digitalen Spezialisten hat eine klare Rolle: Einer analysiert etwa das Risiko neuer Code-Änderungen, ein zweiter prüft die Performance, ein dritter stößt in unkritischen Fällen Self-Healing-Mechanismen an. Sie arbeiten Hand in Hand, überblicken den gesamten Geschäftsprozess End-to-End und validieren gezielt das, was aus Business-Sicht wirklich zählt – nicht blind alles. Vom Tester zum Risikomanager Die Ergebnisse dieser koordinierten Analyse werden gebündelt und als klare Entscheidungsgrundlage an den Menschen übergeben. Der Qualitätsexperte hält sich nicht länger mit reaktiver Fehlersuche auf, sondern wird zum Piloten im Cockpit. Er bewertet die von den digitalen Helfern aufbereitete Risikolandkarte und trifft fundierte Go/ No-Go-Entscheidungen. Seine Erfahrung wird nicht ersetzt, sondern durch bessere Daten auf eine neue, strategische Ebene gehoben. Qualitätssicherung wird so zum unverzichtbaren strategischen Wegbereiter für schnelle und sichere Innovation. Innovation braucht Qualität Der entscheidende Wettbewerbsvorteil durch KI entsteht also nicht durch das stärkste Einzelmodell, sondern durch die intelligenteste Gesamtarchitektur. Während sich der Fokus verständlicherweise oft auf unmittelbare Produktivitätsgewinne richtet, liegt der nachhaltige Erfolg in der klugen Implementierung KI-gestützter Qualitätsmechanismen. Erst dieses Gleichgewicht ermöglicht, was Entscheider wirklich wollen: Innovation mit hoher Geschwindigkeit – ohne das Risiko eines System-Crashs. So endet der KI-Rausch nicht mit einem bösen Kater, und Unternehmen differenzieren sich von Wettbewerbern, die kurzfristige Produktivitätsgewinne mit langfristiger Instabilität erkaufen. www.tricentis.com Ein historischer BudgetShift durchzieht gerade die IT-Branche: Geld fließt massiv in KI, um Entwicklungsprozesse zu beschleunigen. Der dadurch erzeugte Geschwindigkeitsrausch ist allgegenwärtig, doch er hat einen blinden Fleck – die Qualitätssicherung. Dieses Ungleichgewicht führt zu einem unternehmensweiten „QualitätsKater“. Die anfänglichen Geschwindigkeitsgewinne werden durch endlose Nachbesserungszyklen aufgefressen, und Innovationen bleiben auf der Strecke. Wenn alte Metriken versagen Die Gefahr liegt nicht nur in der schieren Skalierung, die KI in der Code-Entwicklung ermöglicht – ein Entwickler, dessen Produktivität sich vervielfacht, erzeugt eine unüberschaubare Menge an Änderungen, die potenziell Risiken bergen. Das eigentliche Problem ist mentaler Natur: Wir klammern uns an veraltete Metriken. Jahrzehntelang war das Ziel, eine möglichst hohe CodeAbdeckung zu erreichen. Im KI-Zeitalter ist diese Metrik jedoch unzureichend. Die Flut an neuem Code macht vollständige Abdeckung zur Illusion und sagt vor allem nichts über Geschäftswert oder Risiko aus. Roman Zednik Erfolgreiche KI-Implementierung muss einem Prinzip der dualen Architektur folgen. Sie erkennt, dass es zwei KI-Systeme geben muss, die perfekt synchron arbeiten, um sich gegenseitig in Balance zu halten
24 04/2026 www.net-im-web.de CLOUD UND NETZWERKE Heiko Schmidt Durch zunehmende Digitalisierung und den Einsatz von KI in der Industrie lassen sich viele Aufgaben effizienter, präziser und zuverlässiger erledigen. Technische Innovationen ermöglichen schnellere Entscheidungen dank tiefgreifender Datenanalysen. Unternehmen, die KI früh für Optimierung, Automatisierung und eine datenbasierte Entscheidungsfindung nutzen, können angesichts von Fachkräftemangel und wachsendem Innovations- und Kostendruck eine zukunftsfähige Datengrundlage schaffen und sich Wettbewerbsvorteile sichern. Heiko Schmidt ist Member of the Executive Board bei Convista KI, IoT und Automatisierung Smarte Industrie ohne Hype Mit dem zunehmenden Digitalisierungsgrad und dem Einsatz künstlicher Intelligenz können viele Aufgaben im Industriebereich effizienter, präziser und zuverlässiger ausgeführt werden. Damit entwickelt sich KI auch in der Produktion zu einem Eckpfeiler für mehr Wettbewerbsfähigkeit, Innovation und bessere Entscheidungsfindung durch schnellere, tiefgreifende Datenanalysen. Im deutschen verarbeitenden Gewerbe sind KI-Lösungen bereits angekommen, aktuell jedoch noch in moderatem Umfang. Laut der Fraunhofer-Studie „Künstliche Intelligenz in der Produktion“ (Dezember 2024) setzen bei Großunternehmen mit mindestens 500 Beschäftigten etwa 30 Prozent der Betriebe KI-Lösungen ein. In mittelgroßen Unternehmen ab 100 Beschäftigten liegt die Zahl derzeit bei circa 16 Prozent. Anwendungsbereiche sind dabei Steuerung von Produktionsprozessen, Qualitätskontrolle, interne Logistik, Instandhaltung und Wartung sowie die Optimierung von Produktionsprozessen und den dafür notwendigen Innovationen. Eine vertiefende Analyse zeigt, dass Unternehmen, die KI bereits einsetzen, auch weitere Anwendungen planen. Sind die notwendigen Rahmenbedingungen erst einmal geschaffen, sinken die Einstiegshürden für weitere Anwendungsfälle deutlich. Welche bereits ausgereiften KIAnwendungen in der Industrie möglich sind und wie Unternehmen ihre ersten Schritte zur Integration von KI in die eigenen Prozesse erfolgreich gestalten können, wird im Folgenden näher beleuchtet. KI-Anwendung im Industriebereich Vorausschauende Instandhaltung. Bei der vorausschauenden Instandhaltung (Predictive Maintenance) können mit Hilfe von KI mittels Analyse von Sensordaten und anderen relevanten Informationen frühzeitig der Wartungsbedarf von Maschinen ermittelt und somit proaktiv Wartungsarbeiten eingeplant werden. Wichtig für Eine KI-basierte Bildanalyse unterstützt die Qualitätskontrolle durch visuelle Prüfung in Fertigungsprozessen, um Fehler, zum Beispiel an Lötstellen von Produkten, automatisch in Echtzeit zu erkennen (Foto: AdobeStock/Convista)
25 KI, IoT und Automatisierung aussagekräftige Prognosen ist dabei eine hohe Datenqualität. Ist diese Grundlage gegeben, wird rechtzeitig vorhergesagt, wann ein bestimmtes Bauteil verschlissen ist und ausgetauscht werden sollte. Fachkräfte können so bereits vor dem Auftreten einer Störung die nötigen Ersatzteile bestellen, die Wartung planen und durchführen. Stillstände und hohe Ausfallkosten werden vermieden und die Lebensdauer der Maschinen erhöht. Qualitätskontrolle. Ein weiteres Einsatzfeld von KI in der Industrie sind intelligente Bildverarbeitungssysteme, die mit Computer Vision und Software-Lösungen wie SAP Digital Manufacturing umgesetzt werden können. Diese KI-basierte Bildanalyse unterstützt die Qualitätskontrolle durch visuelle Prüfung in Fertigungsprozessen, um Fehler, zum Beispiel an Lötstellen von Produkten, automatisch in Echtzeit zu erkennen. Darüber hinaus ermöglichen KI-Assistenten wie SAP Joule eine Fehlererkennung in Echtzeit, indem sie Anomalien in Produktionsdaten entdecken und vor fehlerhaften Chargen warnen. Materialbedarfsplanung. Durch KI-Einsatz ist auch eine vorausschauende Materialbedarfsplanung umsetzbar. Dabei prognostiziert KI Bedarfe, basierend auf historischen Verbrauchsdaten und saisonalen Mustern. So werden saisonale Schwankungen berücksichtigt und Probleme frühzeitig erkannt, um Lieferengpässe zu vermeiden. Zugleich können Unternehmen unnötige Bestände reduzieren und sind agiler gegenüber ihren Kunden und dynamischen Märkten. Logistik. Im Logistikbereich kann KI Unternehmen bei der Transportplanung unterstützen, indem sie optimale Transportwege unter Berücksichtigung von Echtzeitdaten berechnet. Zudem ist auch eine Wareneingangsautomatisierung möglich, bei der KI selbstständig Frachtpapiere verarbeitet, wodurch manuelle Eingaben reduziert werden. Auch kann KI für die Lagerplatzoptimierung eingesetzt werden, indem die Technologie in Verbindung mit Lagerverwaltungssoftware wie SAP Extended Warehouse Management (EWM) eine dynamische Lagerplatzvergabe unterstützt sowie Pick- und Pack-Prozesse verbessert. Optimierung repetitiver Aufgaben in Vertrieb und Rechnungswesen. Da generative KI beeindruckende Fähigkeiten besitzt, menschliche Sprache zu verarbeiten, können KI-Assistenten Sales-Fachkräfte auch bei der Erstellung von Angeboten und Bestellungen unterstützen, um repetitive Aufgaben zu beschleunigen und Fehlerquellen zu reduzieren. So kann KI Daten aus Dokumenten extrahieren und automatisch Aufträge im Verwaltungssystem erstellen. Ebenso kann sie Stammdatenanalysen durchführen und zur Verbesserung der Datenqualität Dubletten und fehlerhafte Stammdaten identifizieren. Auch eine automatisierte Rechnungsprüfung mithilfe von Natural Language Processing (NLP)-Modellen ist möglich, um den manuellen Prüfaufwand zu reduzieren. Nachhaltigkeitsmanagement. Da Nachhaltigkeit für die Außenwirkung von Unternehmen und hinsichtlich Berichtspflichten aufgrund rechtlicher Rahmenbedingungen wie der Corporate Sustainability Reporting Directive (CSRD) einen immer größeren Stellenwert einnimmt, können Industrieunternehmen auch hier mithilfe von KI Vorgänge effizienter gestalten. So lässt sich, in Kombination mit Softwarelösungen zum Nachhaltigkeitsmanagement wie SAP ESG Cockpit und Sustainability Control Tower, eine automatisierte Emissionszuordnung umsetzen. Die ESG-Berichterstattung lässt sich darüber hinaus mithilfe automatisierter Textgenerierung durch KI-Assistenten deutlich vereinfachen.
www.net-im-web.de 26 04/2026 KI, IoT und Automatisierung Die ersten Schritte Wichtig ist zunächst, die eigenen Geschäftsprozesse zu analysieren und konkrete Ziele und Wertschöpfungspotenziale zu formulieren, die mit der KI-Einführung erreicht werden sollen. Dabei ist es besonders wichtig, dass die Geschäftsführung die eigenen Mitarbeiter eng in diesen Prozess miteinbezieht, um die größten Herausforderungen und Aufwandstreiber im Arbeitsalltag zu eruieren und im nächsten Schritt zu klären, ob KI die Belegschaft hierbei sinnvoll unterstützen kann. So lassen sich realitätsnah echte Mehrwerte als Geschäftsziele definieren, die auf das jeweilige Unternehmen zugeschnitten sind. Pilotprojekt setzen. Nach Definition der Ziele und Herausforderungen, sollten Unternehmen ein Pilotprojekt setzen, das relativ einfach realisierbar und ausbaufähig ist. Hierfür bieten sich zum Beispiel Themen an, die der Belegschaft effektive Arbeitserleichterungen bei repetitiven, mühsamen und fehleranfälligen Prozessen ermöglicht. Dies sorgt zugleich dafür, dass die Mitarbeiter aktiv in die KI-Implementierung eingebunden sind und die Vorteile in ihrem Arbeitsalltag spüren. Professionelle Unterstützung. Für die KI-Einführung sollten Unternehmen bei der Wahl ihres Dienstleisters darauf achten, dass er nicht nur fundiertes technisches Know-how mitbringt, sondern sich auch mit ihren speziellen Branchenanforderungen im Industriebereich sehr gut auskennt. Ein professioneller Dienstleister begleitet das Unternehmen über den gesamten Transformationsprozess, unterstützt hinsichtlich rechtlicher Rahmenbedingungen, der organisatorischen Vorbereitung und entwickelt und implementiert in enger Zusammenarbeit mit dem Unternehmen individuell zugeschnittene Lösungen. Rechtliche Rahmenbedingungen. Zu den zentralen Anforderungen an eine KILösung gehören Sicherheit, Compliance und Datenschutz. Unternehmen müssen daher prüfen, wie ihr KI-System nach dem EU AI Act kategorisiert und reguliert ist und entsprechende Maßnahmen treffen, um die rechtlichen Rahmenbedingungen einzuhalten. Der EU AI Act sieht dabei umfangreiche Dokumentations-, Monitoring- und Risikobewertungspflichten vor. Zudem muss Unternehmen bewusst sein, dass sie für KI-Entscheidungen haften. Ebenfalls muss auf die Handhabung der gesammelten Daten als Grundlage für KI-Analysen geachtet werden, damit diese DSGVO-konform gespeichert und verwendet werden. Dies schließt die Einwilligung möglicher betroffener Personen sowie Anforderungen an die Zweckbindung und Datenminimierung mit ein. Darüber hinaus müssen Unternehmen sicherstellen, dass die genutzten Daten nicht gegen das Urheberrecht verstoßen. Organisatorische Voraussetzungen. Zur Vorbereitung des geplanten KI-Projekts müssen Unternehmen entsprechende organisatorische Vorbereitungen treffen. Hierzu zählen die Definition einer KI-Strategie und Governance mit klaren Richtlinien und Verantwortlichkeiten für das Projekt. Da KI Abläufe und Rollen verändert, bedarf es der Anpassung der entsprechenden Prozesse. Darüber hinaus ist es entscheidend, eine qualitativ hochwertige Datengrundlage zu schaffen, die aus strukturierten, aktuellen und vollständigen Daten besteht. Denn KI-Analysen und darauf basierende Automatisierungsprozesse sind nur so gut wie die Daten, die ihnen zugrunde liegen. Den Wandel mit den Mitarbeitenden gestalten. Da die Mitarbeitenden diejenigen sind, die die neuen KI-Anwendungen im Arbeitsalltag nutzen, sind sie eine der tragenden Säulen, damit das Projekt gelingt. Deshalb ist es enorm wichtig, dass Ängste vor Veränderungen genommen werden und die Belegschaft so frühzeitig wie möglich in das Projekt miteingebunden wird. Darüber hinaus benötigt es Schulungen zum Aufbau von KI-Kompetenz sowie einen Kulturwandel, der Lern- und Innovationsbereitschaft fördert und somit den Einsatz und die umfangreiche Nutzung von KI durch die Anwender erst ermöglicht. Dabei sollten interne Strukturen geschaffen werden, in denen Fachkräfte neue Ideen einbringen und offen Feedback und Kritik äußern können, um KI-Projekte effektiv zu verbessern. Zugleich gilt es, Ressentiments abzubauen und Überzeugungsarbeit zu leisten. Frühzeitiges Handeln Der Vorsprung von Industrieunternehmen, die KI effektiv in ihren Prozessen nutzen, vor denen, die dies nicht tun, wird sich in Zukunft weiter vergrößern. Angesichts Herausforderungen wie Fachkräftemangel, steigendem Kosten-, Innovations- und Geschwindigkeitsdruck, wird KI zu einem wesentlichen Tool für mehr Optimierung, Automatisierung und Schnelligkeit werden. Unternehmen, die bereits jetzt eine zukunftsfähige Datengrundlage aufbauen und erste Pilotprojekte starten, können sich damit einen deutlichen Wettbewerbsvorteil verschaffen. www.convista.com Heiko Schmidt Unternehmen müssen prüfen, wie ihr KI-System nach dem EU AI Act kategorisiert und reguliert ist und entsprechende Maßnahmen treffen, um die rechtlichen Rahmenbedingungen einzuhalten
30 www.net-im-web.de 04/2026 NETZE Größe hilft beim Glasfaserausbau Ansätze zur Realisierung von Wachstumsstrategien Dr. Christian Wernick, Menessa Ricarda Lachmann Der Ausbau von FTTB/H-Netzen in Deutschland ist durch eine sehr kleinteilige Anbieterstruktur gekennzeichnet. Laut einem Bericht zum Stand des Glasfaserausbaus in Deutschland des BMDS aus Mai 2025 haben über 300 Anbieter FTTB/H-Ausbauten an den Breitbandatlas gemeldet, wobei 65% dieser Unternehmen weniger als 10.000 Haushalte Homes Passed (HP) erschlossen haben. Dr. Christian Wernick ist Abteilungsleiter „Unternehmen und Strategien” beim WIK. Menessa Ricarda Lachmann ist Consultant beim WIK Dies überrascht insoweit, als die Ökonomie des Breitbandmarktes maßgeblich durch Dichtevorteile, Skalen- und Verbundvorteile geprägt ist und daher ein effizienter Ausbau und Betrieb eine kritische Unternehmensgröße voraussetzt. Um eine solche kritische Größe zu erreichen, bestehen grundsätzlich drei Optionen: • organisches Wachstum, • anorganisches Wachstum durch Unternehmensübernahmen (Konsolidierung) und • Kooperationen. Der vorliegende Beitrag untersucht, welche Relevanz diese drei Optionen aktuell auf dem deutschen Breitbandmarkt haben und welche Chancen und Herausforderungen diese aus unternehmensstrategischer und wettbewerbspolitischer Perspektive mit sich bringen. Im Dezember letzten Jahres ist eine Kurzstudie erschienen, die die Thematik in vertiefter Form analysiert und auf der Webseite des WIK zum Download zur Verfügung steht. Realisierung von Größenvorteilen Organisches Wachstum stellt die klassische Wachstumsstrategie dar. Sie bietet die größtmögliche Unabhängigkeit in Bezug auf alle technischen und unternehmerischen Entscheidungen, setzt jedoch den Einsatz hoher investiver Mittel und einen langen Atem voraus. Der FTTB/H-Ausbau ist komplex und langwierig, der Hochlauf der Kunden vollzieht sich typischerweise über mehrere Jahre, und die Investitionen amortisieren sich entsprechend in der Regel erst nach mehr als einem Jahrzehnt. Anorganisches Wachstum durch Unternehmensübernahmen bietet ebenso wie der Zukauf von Netzen die Möglichkeit, deutlich schneller eine kritische Größe zu erreichen als über organisches Wachstum, sofern zwischen Käufern und Verkäufern Einigkeit über die Transaktionsbedingungen erzielt wird. Gleichwohl setzt auch anorganiDer FTTB/H-Ausbau ist langwierig, der Hochlauf der Kunden vollzieht sich über mehrere Jahre, und die Investitionen amortisieren sich meist erst nach mehr als einem Jahrzehnt (Foto: Lucent Designs dinoson20, Pixabay)
www.net-im-web.de 31 04/2026 Größe hilft beim Glasfaserausbau sches Wachstum in der Regel den Einsatz hoher investiver Mittel voraus. Darüber hinaus sind hier zusätzlich akquisitionsbegleitende Kosten (zum Beispiel für externe Berater und Juristen) und Integrationsaufwände in das Entscheidungskalkül einzubeziehen. Kooperationen bieten die Möglichkeit, Größenvorteile zu realisieren, ohne dass vergleichbare investive Mittel wie bei den anderen beiden Optionen eingesetzt werden müssen. Hier besteht die Herausforderung darin, sich abzusichern, dass durch die Kooperationen die unternehmerischen und technischen Gestaltungsmöglichkeiten nicht zu sehr eingeschränkt werden und dies zu strategischen Abhängigkeiten führt. Organisches Wachstum In den letzten Jahren war im deutschen Breitbandmarkt ein starker Aufwuchs bei den mit Glasfaser erreichbaren Haushalten und Gewerbestandorten zu verzeichnen (siehe Abbildung 1). Das deutliche Wachstum ist ein klares Indiz dafür, dass die große Mehrheit der im Glasfaserausbau engagierten Unternehmen organische Wachstumsstrategien verfolgt. Aktuelle Pressemitteilungen deuten jedoch darauf hin, dass sich das Wachstum beim Ausbau im Jahr 2026 und in den Folgejahren verlangsamen wird. Eine Reihe von Unternehmen plant, ihre Aktivitäten in neuen Ausbauprojekten herunterzufahren und sich auf die Verdichtung, Erstellung und Aktivierung von Hausanschlüssen in bestehenden Ausbaugebieten zu konzentrieren. Entsprechend besteht die Gefahr, dass sich das organische Wachstum im Markt abschwächen wird. Anorganisches Wachstum Anorganisches Wachstum über Übernahmen und Insolvenzen war auf dem deutschen Breitbandmarkt in den letzten Jahren eher die Ausnahme. Wie Abbildung 2 zeigt, sehen wir lediglich eine einstellige Zahl von Transaktionen, in die mit Ausnahme der Übernahme der Infrafibre Germany GmbH durch Unsere Grüne Glasfaser eher Anbieter kleiner und mittlerer Größe involviert waren. Hierfür gibt es eine Reihe von Ursachen. Zum einen erschweren die aktuellen Finanzierungsbedingungen in Kombination mit den aus heutiger Sicht überhöhten Bewertungen der Vergangenheit, dass Käufer und Verkäufer sich über die kommerziellen Konditionen der Transaktionen einigen. Zugleich sind viele Infrastrukturen schlecht dokumentiert, was sich wertmindernd auswirkt und den Kreis potenzieller Interessenten verkleinert. Schließlich gibt es im deutschen Markt bislang kein Unternehmen, das sich als aktiver Konsolidierer hervorgetan hat. Kooperationen Es ist typisch für den Breitbandmarkt, dass die verschiedenen Akteure im Vorleistungs- und Carrier’s Carrier Geschäft in verschiedenen Konstellationen, häufig transaktionsbasiert, zusammenarbeiten. Mit Blick auf weitreichende und tiefergehende Kooperationen, über die Größenvorteile realisiert werden, ist insbesondere die Telekom Deutschland GmbH (TDG) ein wesentlicher Treiber. Nachdem die TDG ihren FTTB/H-Ausbau, abgesehen von den Joint Ventures Glasfaser Nordwest und GlasfaserPlus, zunächst weitgehend eigenständig betrieben hatte, hat sie in den zurückliegenden zwei Jahren über 50 Kooperationen im Glasfaserbereich geschlossen. Mit Blick auf die Realisierung von Größenvorteilen und Skaleneffekten ist insbesondere das sogenannte „Fiber Plattform“ Modell hervorzuheben. Die wesentlichen Charakteristika sind wie folgt: • Der regionale Netzbetreiber errichtet und betreibt die passive Glasfaserinfrastruktur. • Die TDG errichtet und betreibt die aktiven Netzkomponenten und wird zum Aktivnetzbetreiber. Darüber hinaus bietet sie Dienste für Endkunden und Vorleistungsnachfrager auf Basis von Bitstromzugängen an. Aus ökonomischer Sicht handelt es sich beim „Fiber Plattform“ Modell um eine Kooperation in Form eines Betreibermodells. Dieses ist dadurch charakterisiert, dass das Eigentum an der passiven Infrastruktur von den übrigen Wertschöpfungsstufen (Aktiv- und Dienstebene) getrennt ist. Die passive Wertschöpfung obliegt den lokalen Partnern, die TDG erhält Zugang zu entbündelten Glasfasern. Das aktive Netz wird von der TDG bereitgestellt und Abbildung 1: Anzahl von FTTB/H Homes Passed, Homes Connected und Homes Activated (in Mio.), 2023-2025. WIK basierend auf Zahlen aus dem Tätigkeitsbericht der BNetzA
49 www.net-im-web.de MMC-Stecker für hochdichte Glasfaserverkabelung Rosenberger Optical Solutions & Infrastructure erweitert sein Portfolio um den MMC-Stecker (Miniature Multifiber Connector). Die leistungsfähige Very-Small-Form-Factor-(VSFF)-Lösung wurde für hochdichte Glasfaserverkabelungen in modernen Rechenzentren, Telekommunikationsnetzen, 5G-Infrastrukturen sowie FTTx-Umgebungen entwickelt. Der MMC-Steckverbinder unterstützt Migrationen zu 400G, 800G, 1,6TB und in naher Zukunft 3,2TB. Der Push-Pull-Mechanismus ermöglicht ein sicheres Ein- und Ausstecken auch bei maximaler Portdichte. Als Mehrfaser-Array-Stecker der VSFF-Kategorie ist der MMC mit Tiny-MT-Ferrulen (TMT) ausgestattet und in Varianten mit 1x12, 2x12 oder 1x16 Fasern verfügbar. Die Ferrulen mit 250-µm-Pitch sind für Singlemode- und Multimode-Fasern ausgelegt und in Elite-Qualität ausgeführt. Eine APC-Politur mit 8° sorgt für sehr hohe Rückflussdämpfungswerte von bis zu 60 dB im Singlemode-Betrieb. Die maximale Einfügedämpfung beträgt 0,35 dB für Singlemode- sowie Multimode-Fasern und erfüllt die Anforderungen gemäß IEC 61300-3-4. Die mechanische Auslegung ermöglicht mindestens 500 Steckzyklen bei gleichbleibend stabiler optischer Performance. www.rosenberger.com/osi Reichle De Massari modernisiert RJ45-Portfolio R&M harmonisiert seine RJ45-Modulflotte. Die Anschlussmodule für Local Area Networks (LAN) erhalten eine einheitliche Bauform. Die Zahl der Varianten reduziert sich auf zwei je Kategorie. Installateure und Planer finden nun schneller die passende Lösung für ihr LAN-Projekt. Die Montage der modernisierten Kat.-6A-, Kat.-6- und Kat.-5e-Module erfordert weniger Handgriffe. Alle Module arbeiten mit der Easy-Lock-Schnellmontagetechnik von R&M. Easy Lock vereint die Aufnahme des Beschaltungsblocks, das Beschalten der Kupferadern und das Verschließen des Gehäuses zu einem Arbeitsgang. Zudem hat R&M Funktionen wie Zugentlastung, Farbcodierung und Staubschutzklappe in die Gehäuse integriert. Die LAN-Anschluss- module sind als geschirmte Variante mit Zinkdruckgussgehäuse und als ungeschirmte Variante mit Kunststoffgehäuse verfügbar. Metallfasern im Kunststoffgehäuse reduzieren bei der Kat.-6A-EL 4.0-Version das Fremdnebensprechen, welches die Signalübertragung dämpft. Mit dem EL4.0-Modulsortiment werden alle Anforderungen von Gebäude-, Büro- und IT-Netzwerken bis zur Leistungsstufe 10 Gigabit Ethernet abgedeckt. www.rdm.com (Foto: R&M) (Foto: Rosenberger OSI) Keysight SBOM Manager für EU-CRA Der Keysight SBOM Manager soll Unternehmen dabei unterstützen, die weltweit steigenden Anforderungen an Cybersecurity und Softwaretransparenz zu erfüllen, die insbesondere durch den Cyber Resilience Act (CRA) der Europäischen Union vorgegeben werden. Sie bietet einen einheitlichen Ansatz für die Erstellung, Verwaltung und Nutzung von SBOMs (Software Bill of Materials) für digitale Produkte und ermöglicht es Unternehmen, regulatorische Auflagen über den gesamten Produktlebenszyklus hinweg mit größerer Genauigkeit, Zuverlässigkeit und Konsistenz zu erfüllen. Die Lösung ermöglicht eine umfassendere und genauere Transparenz in Bezug auf digitale Produkte, indem sie Binärsoftware, Firmware, Container und andere gepackte Komponenten analysiert, einschließlich Closed-Source- und tief eingebetteter Abhängigkeiten. Das System unterstützt Unternehmen, die Reaktion auf Sicherheitslücken zu verbessern und mehr Vertrauen in globalen digitalen Lieferketten aufzubauen. www.keysight.com PRODUKTE Vitel AP One Enterprise mit Dual 10G Vitel erweitert sein Sortiment um den AP One Enterprise von Peplink. Der neue Wi-Fi 7 Access Point stellt zukunftssichere Internetverbindungen für Enterprise-Netzwerke mit einer hohen Nutzer- und Gerätedichte bereit. Der Access Point bietet den neuen Wi-Fi 7-Standard für schnelle Verbindungen mit geringeren Latenzen. Als Tri-Band-Gerät kann der AP One Enterprise auf die Frequenzbänder 2,4 GHz, 5 GHz und 6 GHz zurückgreifen. Durch die Einbindung von 6 GHz stehen größere Bandbreiten und höhere Datenraten zur Verfügung, außerdem kommt es im störungsfreien Frequenzband zu weniger Interferenzen. Der AP One Enterprise verfügt über eine integrierte omnidirektionale WLAN-Antenne und zwei 10G Multi-Gigabit Ethernet-Anschlüsse. Durch Dual 10G Ethernet ermöglicht das Gerät 10G-Backhaul, der zusätzliche Anschluss verbindet Remote-Switches und kabelgebundene Geräte mit voller Leitungsgeschwindigkeit. www.vitel.de (Foto: Vitel) (Foto: Keysight) 04/2026
net-im-web.deRkJQdWJsaXNoZXIy MjE2Mzk=