NET 6-7/2025
www.net-im-web.de 31 06-07/25 Der Kampf der Maschinen hat begonnen maßnahmen einleitet, ohne auf menschli- ches Eingreifen angewiesen zu sein. Davon sind aber selbst die fortschrittlichsten und innovativsten Lösungen noch weit ent- fernt. Auch wenn es noch lange nicht so weit ist, werden in den oben genannten Bereichen – der Anomalie-Erkennung, der automatisierten Schwachstellenvali- dierung und den ersten vollautomatischen Gegenmaßnahmen bei Angriffen – erste Schritte in diese Richtung unternommen. So können KI-Anwendungen bereits heu- te Accounts, die verdächtige Aktionen durchführen, aussperren oder sensible Bereiche der Unternehmens-IT im Falle einer erkanntenCyberattacke automatisch abschotten. Die Vertrauenswürdigkeit der KI steht allerdings noch immer auf dem Prüfstand für die meisten Unternehmen. Die wenigsten wollen aktuell bereits so weit gehen, ihr blind zu vertrauen und setzen daher auf strenge Regeln, sogenann- te Guardrails, an die sich die Künstliche Intelligenz zu halten hat. Grundlage dieser Restriktionen ist auch die Frage: „Wird die KI Fehler machen?“ Die Antwort darauf lautet natürlich „Ja, wird sie“. Viel Sinn ergibt sie allerdings spätestens dann nicht mehr, wennman sie imKontext eines rund um die Uhr agierenden SOCs stellt, denn auch Menschen machen Fehler. Unter- nehmen sollten sich daher lieber fragen: „Wird die KI mehr Fehler machen als ein übermüdeter Analyst um drei Uhr nachts?“Dann nämlich lautet die Antwort darauf in vielen Fällen: „Nein, wird sie nicht.“ Die Grenzen der KI Bis vollautomatische SOCs jedoch wirk- lich umsetzbar sind, wird noch einige Zeit vergehen. Und bei all der aktuellen Eupho- rie im Hinblick auf den Einsatz von KI solltenUnternehmen nicht vergessen, dass KI auch zukünftig nicht ohne mensch- liche Intelligenz auskommen wird. Zwar können viele Prozesse und Workflows automatisiert werden, doch wo KI ambes- ten wirkt, welche Regeln oder Guardrails sie benötigt und wie sie auch dauerhaft effizient bleibt, erfordert Experten. Sie sind unter anderem dafür zuständig, KI- Assistenten und Large Language Models mit den nötigen Daten auszustatten, um immer „up to date“ zu bleiben. Zudem ist KI natürlich nicht un- fehlbar, und sogenannte „False Positives“, also Fehler- oder Angriffsmeldungen, die eigentlich keine sind, werden auch lang- fristig nicht verschwinden. In so einem Fall ist es notwendig, dass menschliche Sicherheitsanalysten die Sachlage einord- nen und der KI somit helfen, zukünftig gewissenhafter und präziser zu agieren. Auch das ist wichtig, um das Vertrauen in ein KI-basiertes Cybersecurity-System zu steigern. In modernen Sicherheits- architekturen dürfen heute KI-Funk- tionalitäten nicht mehr fehlen, um die Kosteneffizienz und die Geschwindigkeit kontinuierlich zu optimieren. Wer KI in der Cybersecurity ablehnt, wird bei Cyberangriffen künftig zu langsam sein. Fakt ist: Mensch und Maschine werden imBereich der IT-Sicherheit immer mehr zusammenwachsen und sich gegenseitig ergänzen – und das ist etwas Gutes. Eine vollkommene Sicherheit kann aber natürlich niemand garantieren. Cybersecurity-Experten predigen seit Jah- ren, dass Unternehmen sich auch auf den Ernstfall vorbereiten müssen, denn die Frage lautet nicht „Ob“, sondern „Wann“ ein Hackerangriff Erfolg haben wird. Um für den Ernstfall bestens ausgerüstet zu sein, müssen Unternehmen also Personal und passende Ersatz-Hardware vorhalten, um die Business Continuity nach einer Cyberattacke schnell wieder herzustellen. Alternativ bietet NTT DATA genau das in Form seines Recovery Van als Service an. Die mobile Einsatzzentrale ist mit IT-Security-Equipment ausgerüstet, um die Geschäftsprozesse möglichst schnell wieder in Gang zu bringen, und hat na- türlich auch Fachpersonal an Bord, das Unternehmen in der schwierigen Zeit mit Rat und Tat zur Seite steht. https://de.nttdata.com/ David Wollmann Unternehmen sollten sich fragen: „Wird die KI mehr Fehler machen als ein übermüdeter Analyst um drei Uhr nachts?“Dann nämlich lautet die Antwort dar- auf in vielen Fällen: „Nein, wird sie nicht.“ Christian Koch Durch KI-gestützte Attacken sind Unternehmen bei- nahe gezwungen, ebenfalls auf die Zukunftstechno- logie zu setzen, um den sinistren Machenschaften der Hacker einen Strich durch die Rechnung zu machen Bereits herkömmliche KIs für Video und Ton können täuschend echte Deepfakes herstellen
Made with FlippingBook
RkJQdWJsaXNoZXIy MjE2Mzk=