Künstliche Intelligenz (KI) hat sich als fester Bestandteil unseres Alltags etabliert, bringt jedoch bedeutende Risiken hinsichtlich der Vertraulichkeit persönlicher Daten mit sich. Am Europäischen Datenschutztag wies Florian Bühler, ein KI-Experte von der Fachhochschule Vorarlberg, auf die Gefahren eines sorglosen Umgangs mit solchen Technologien hin. Programme wie ChatGPT bieten zwar eine vertrauensvolle Atmosphäre, können jedoch Nutzer dazu verleiten, persönliche Informationen preiszugeben. Dies führt dazu, dass Eingaben möglicherweise nicht vollständig unter eigener Kontrolle bleiben, was zu schwerwiegenden Datenschutzproblemen führen kann. Diesbezüglich warnt Bühler: „Nichts mit der KI teilen, was man nicht öffentlich ins Internet posten würde“ – denn insbesondere vollständige Lebensläufe können Rückschlüsse auf persönliche Hintergründe zulassen.

Die Risiken werden durch die Tatsache verstärkt, dass viele Anbieter kostenloser KI-Dienste die eingegebenen Daten zur Weiterentwicklung ihrer Systeme verwenden. Dabei gibt es keine Garantie, dass Inhalte nicht gespeichert oder ausgewertet werden. Große Anbieter wie OpenAI bemühen sich zwar um den sicheren Umgang mit Nutzerdaten, jedoch können kostenlose Versionen die Daten für Trainingszwecke nutzen. Auch der Standort der Server spielt eine Rolle; viele KI-Dienste operieren von den USA aus, wo die Datenschutzgesetze von der europäischen Datenschutz-Grundverordnung (DSGVO) abweichen. Unternehmen sind sich dieser Problematik bewusst und haben ein Interesse daran, Datenpannen zu vermeiden, da ein Leak gravierende Folgen haben könnte.

Regulatorische Rahmenbedingungen

Vor diesem Hintergrund wurde die KI-Verordnung (KI-VO) mit dem Ziel verabschiedet, die Vorschriften für künstliche Intelligenz innerhalb der EU zu harmonisieren. Diese Verordnung, die als EU 2024/1689 am 13. Juni 2024 verabschiedet wurde, folgt einem risikobasierten und menschenzentrierten Ansatz. Besondere Aufmerksamkeit gilt dabei der Differenzierung zwischen verschiedenen KI-Kategorien: verbotene KI-Praktiken, Hochrisiko-KI-Systeme, Systeme mit geringem Risiko und generative KI-Systeme wie ChatGPT.

Ab dem 2. Februar 2025 werden KI-Anwendungen mit inakzeptablem Risiko verboten, während Hochrisiko-KI strengen technischen und organisatorischen Anforderungen unterliegen. Systeme mit geringem Risiko hingegen sind lediglich Informations- und Transparenzpflichten ausgesetzt. Diese differenzierte Regelung wird bis 2027 schrittweise umgesetzt, wobei ein Bestandsschutz für bereits existierende Hochrisiko-KI-Systeme gewährt wird.

Der AI Act und seine Bedeutung

Zusätzlich verfolgt der AI Act, der am 21. Mai 2024 vom Rat der 27 EU-Mitgliedstaaten verabschiedet wurde, das Ziel, Vertrauen und Akzeptanz in KI-Technologien zu fördern und Innovationen innerhalb Europas zu unterstützen. Der Act definiert Künstliche Intelligenz als die Fähigkeit von Maschinen, Aufgaben autonom auszuführen und menschliche Entscheidungsprozesse nachzuahmen. Ein zentrales Element dieser Regulierung ist der risikobasierte Ansatz, der höhere Anforderungen an KI-Anwendungen mit größerem Risiko vorsieht.

Der AI Act verbietet ganz klar KI-Systeme, die in der Lage sind, das Verhalten von Personen zu manipulieren, und schließt auch anwendungsbezogenes „Social Scoring“ aus. Hochrisikante Systeme müssen strenge Anforderungen für die Zulassung auf dem EU-Markt erfüllen, während für Anwendungen mit geringem Risiko reduzierte Transparenz- und Informationspflichten gelten. Um die Vorgaben des AI Act zu erfüllen, müssen die Mitgliedstaaten der EU diesen in nationales Recht umsetzen.

In Anbetracht dieser regulatorischen Entwicklungen und der wachsenden Bedeutung von KI-Technologien betont die Bundesregierung Deutschlands die Balance zwischen Chancen und Risiken der KI und plant, Deutschland als führenden Standort für diese Technologien zu positionieren. Dabei soll die Einrichtung von KI-Servicezentren insbesondere kleinen und mittelständischen Unternehmen Unterstützung bieten, um die Potenziale der Künstlichen Intelligenz voll auszuschöpfen.

Die Debatte über den Umgang mit KI findet vor dem Hintergrund eines wachsenden Bewusstseins für die damit verbundenen Risiken und der Notwendigkeit einer umfassenden Regulierung statt. Der verantwortungsvolle Umgang mit KI wird nicht nur von Experten wie Florian Bühler gefordert, sondern auch von politischen Entscheidungsträgern, die sicherstellen wollen, dass der Innovationsstandort Europa gleichzeitig ein sicherer Raum für die Entwicklung und Nutzung von KI-Technologien bleibt.