26.03.2019 • Produkt

Fraunhofer Institut: KI als Cybersecurity-Mitarbeiter

Photo

Die Erkennung von Mustern und Veränderungen in großen Datenströmen kann für die Cybersicherheit eine wertvolle Hilfe darstellen. Denn die stetig steigenden Datenmengen sind von Menschen nicht mehr zu überblicken. Es ist für Unternehmen schlicht nicht zu leisten, ihren gesamten Netzwerkverkehr permanent durch Mitarbeiter kontrollieren zu lassen. KI kann die Security-Spezialisten hier unterstützen.

Die herkömmlichen Methoden in der Cybersecurity weisen einen gehörigen händischen Anteil auf: Bei der Netzwerksicherheit zum Beispiel überprüfen Menschen den Netzwerkverkehr auf verdächtige Veränderungen oder ihnen bereits bekannte Angriffsmuster. Auch die Signaturen von Viren legen Experten an. Das Problem dabei: Die Expertenarbeit lässt sich nicht skalieren. Und die verfügbaren Spezialisten sehen sich einem stetig steigenden Datenverkehr gegenüber – in der Kommunikation mit anderen Unternehmen, Partnern und Kunden, aber auch intern, als Folge der digitalen Transformation und Industrie 4.0.

Große Datenmengen und darin feststellbare Muster und Veränderungen stellen aber genau das dar, was heutigen KI-Lösungen sehr gut liegt. So lässt sich KI etwa einsetzen, um den Netzwerkverkehr zu beobachten und den Security-Experten als Filter eine Vorauswahl potenziell verdächtiger Vorfälle und Dateien zu erstellen. Denn eine KI kann lernen, wie ein „gesundes“ Netzwerk aussieht und dann, wenn sie Veränderungen feststellt, Alarm schlagen. So lässt sich KI als eine Art technischer Vorfilter nutzen. Ein Thema, das bei den kommerziellen Anbietern aber in der Breite eher noch am Anfang steht. In den kommenden Jahren dürfte sich das jedoch ändern.
 
Der Einsatz entsprechender Instrumente verändert auch das Berufsbild der Security-Experten. Die neuen Tools erleichtern ihre Arbeit und ermöglichen ihnen einen besseren Überblick sowie eine deutliche Ausdehnung dessen, was sie mit Kontrollen abdecken können. Um sie anwenden zu können, benötigen sie aber zumindest ein Grundverständnis der Technologien. Dies sowohl dafür, was sie zu leisten vermögen – als auch dafür, wo ihre Schwächen liegen.

Instrumente verstehen, um sie bestmöglich anwenden zu können
Gerade die Limitierungen der Systeme zu verstehen, ist für eine realitätsnahe Bewertung ihrer Einsatzzwecke entscheidend. In vielen Aspekten ist der Mensch neuronalen Netzen weit voraus. Penetrationstests etwa, mit denen Experten durch simulierte Angriffe untersuchen, wie gut der Schutz von Systemen funktioniert, erfordern (noch) das Gespür und die Erfahrung menschlicher Experten.
 
Sicherheit für KI
Es existiert noch ein weiteres Feld, das im Kontext von KI und Sicherheit von Bedeutung ist: Auch die KI-Modelle müssen gesichert werden. Denn es geht nicht nur darum, ein neuronales Netz zu trainieren und korrekte Entscheidungen zu treffen. Die Modelle müssen auch robust genug werden, um gegen Störungen unempfindlich zu sein. Diese treten nicht nur natürlich auf, sondern auch in Form gezielter Attacken.

Deshalb müssen neuronale Netze im Labor – ähnlich wie andere Systeme bei Penetrationstests – durch simulierte Angriffe geprüft werden. So lassen sich die Daten sammeln, die zeigen, wie Fehlklassifikationen entstehen und welche Modifikationen nötig sind, um die Modellrobustheit zu erhöhen. Damit KI-Systeme sicher entscheiden können.
 

Business Partner

Fraunhofer-Gesellschaft

Hansastr. 27c
80686 München
Deutschland

Kontakt zum Business Partner







Meist gelesen