22.11.2023 • News

Fraunhofer SIT: Fehlende Rechtssicherheit für Big Data und KI

Eine juristische Studie des Nationalen Forschungszentrums für angewandte Cybersicherheit, Athene, beschäftige sich mit den Fragen: Wie können Big-Data- und KI-Anwendungen gewinnbringend genutzt werden, ohne Datenschutz und IT-Sicherheit zu verletzen?

Die Autoren der Studie „Systematic Privacy in real-life Data Processing Systems“ untersuchen geltende Vorschriften aus den Rechtsbereichen Datenschutz, IT-Sicherheitsrecht und Urheberrecht in Bezug auf Big Data. Dabei betrachten sie auch den Entwurf über eine EU-Verordnung zur Künstliche Intelligenz (KI-VO-E).

Ihr Fazit: Der aktuelle Rechtsrahmen reicht für eine sichere Verarbeitung von Big Data nicht aus und sorgt für Verunsicherung bei Bürgern sowie Rechtsunsicherheit bei Unternehmen. Sie fordern einen ganzheitlichen, rechtlich-technischen Rahmen und entwickeln konkrete Lösungsvorschläge sowie Handlungshilfen.

Mit der Digitalisierung von Prozessen in Verwaltung und Wirtschaft fallen riesige Mengen an digitalen Datensätzen aus verschiedenen Quellen und in ganz unterschiedlichen Formaten an (Big Data). Die Verarbeitung dieser großen Datensätze birgt erhebliche Chancen für Wirtschaft und Gesellschaft, beinhaltet aber auch Risiken für Verletzungen des Persönlichkeitsrechts von Bürger. Beispiele gibt es viele: Im Katastrophenschutz lassen sich Personen über Big-Data-Analysen von Handydaten schneller finden und evakuieren. In Schulen lassen sich mittels Big-Data-Analysen Stärken und Schwächen von einzelnen Schülern erfassen und daraus individuelle Lernprogramme entwickeln. Ein weiteres Einsatzfeld für die staatliche Nutzung von Big-Data-Analysen ist der Arbeitsmarkt: So werden in Österreich und Polen die Arbeitsmarktchancen arbeitsloser Personen errechnet und kategorisiert.

ChatGPT, Midjourney und Co., Anwendungen, die Künstliche Intelligenz nutzen, sind zurzeit in aller Munde. Diese und andere KI-Anwendungen verarbeiten riesige, reale Datenmengen – was viele rechtliche Fragen aufwirft: Dürfen für das Training von KI-Anwendungen beliebige Daten aus dem Internet genutzt werden, welche Schutzrechte greifen hier? Wenn Daten rechtmäßig gewonnen wurden, wem gehören die Ergebnisse der Verarbeitung, also der KI-generierten Daten? Wer haftet im Zweifel für die Ergebnisse? Die Studie untersucht, welche Antworten geltendes Recht (Urheberrecht, Datenschutzrecht, IT-Sicherheitsrecht) liefert, und geht besonders auf die geplante KI-Verordnung der EU (KI-VO-E) ein. Die Autoren fassen wichtige Bestimmungen zusammen, sehen allerdings aktuell noch viele Herausforderungen für KI-Betreiber, hier sichere vertragliche Regelungen für die Datenverarbeitung zu finden, ohne den eigenen Spielraum zur Verwertung der Ergebnisse zu sehr einzuengen.

Die Autoren der Studie sehen ein grundlegendes Problem bei der Anonymisierung von personenbezogenen Daten, um sie zu verarbeiten: Ab wann sind (ehemals) personenbezogene Daten verlässlich und rechtssicher anonymisiert? Hier gibt das geltende Recht (insbesondere die DSGVO) keine abschließende Antwort, was zu Rechtsunsicherheiten für verarbeitende Unternehmen und Einrichtungen führt. Eine mögliche Lösung wäre, einen Grad der Anonymisierung durch ein einheitliches Verfahren zu berechnen und einen Schwellenwert für die legale Nutzung anzusetzen. Dadurch könnten Unternehmen Rechtssicherheit erreichen.

Die jetzige Rechtslage für Big Data lässt viele Fragen offen. Die Studie kommt zu dem Schluss, dass ein ganzheitlicher Ansatz vonnöten ist. Dieser sollte übergreifend verschiedene Rechtsgebiete berücksichtigen, um einerseits Bürger zu schützen, andererseits Unternehmen wie Herstellern Rechtssicherheit zu geben und somit die Nutzung neuer Technologien unter Berücksichtigung von Datenschutz und IT-Sicherheit zu ermöglichen.

Die Studie ist im Athene-Projekt „Systematic Privacy in real-life Data Processing Systems“ entstanden. Im Projekt werden die Wissenschaftler noch weiter zu den aufgeworfenen Fragen forschen und konkrete Vorschläge erarbeiten, mit dem Ziel, die Vorteile von Big Data und KI rechtssicher nutzen zu können, ohne dass dies unangemessene Eingriffe in die Rechte und Freiheiten betroffener Personen mit sich bringt. Die Autoren sind an vier im Bereich des Digitalisierungsrechts führenden hessischen Lehrstühlen bzw. Forschungseinrichtungen tätig: Gerrit Hornung und Till Schaller, Universität Kassel; Annika Selzer, Sarah Stummer und Jessica Kriegel, Fraunhofer-Institut für Sichere Informationstechnologie SIT; Indra Spiecker gen. Döhmann und Amina Gutjahr, Goethe-Universität Frankfurt sowie Thomas Wilmer, Hochschule Darmstadt. Alle sind zugleich Angehörige von Athene.

Business Partner

Fraunhofer SIT Institut für Sichere Informationstechnologie

Rheinstraße 75
64295 Darmstadt
Deutschland

Kontakt zum Business Partner







Meist gelesen