KI im Asylverfahren: Risiko von Fehlentscheidungen und Grundrechtsverletzungen!
KI im Asylverfahren: Risiko von Fehlentscheidungen und Grundrechtsverletzungen!
Graz, Österreich - Das österreichische Bundesamt für Fremdenwesen und Asyl (BFA) plant die Einführung von Künstlicher Intelligenz (KI) in Asylverfahren, um die Bearbeitungszeiten zu verkürzen und die Effizienz zu steigern. In einem zunehmend digitalisierten Verfahren sollen KI-gestützte Systeme wie Chatbots und Datenanalysetools eingesetzt werden, um Informationen über Herkunftsländer zu verarbeiten. Dabei kommen sowohl bewährte Programme wie DeepL und Complexity als auch eigens entwickelte Anwendungen zum Einsatz, berichtet exxpress.at.
Diese Technologien sollen helfen, Verfolgungsrisiken zu bewerten und die Glaubwürdigkeit von Angaben zu überprüfen. Allerdings haben Experten wie die Politikwissenschaftlerin Laura Jung und die Juristin Angelika Adensamer ernsthafte Bedenken geäußert. Sie warnen vor der Fehleranfälligkeit und Intransparenz der Systeme sowie vor möglichen Verletzungen von Grundrechten. Besonders besorgniserregend ist das sogenannte Black-Box-Problem, bei dem die Entscheidungsfindung der KI nicht nachvollziehbar ist, was gegen rechtsstaatliche Prinzipien verstößt.
Bedenken hinsichtlich der Technologie
Im Rahmen des Forschungsprojekts A.I.SYL an der Universität Graz wurden hohe Risiken identifiziert. Jung wies darauf hin, dass Sprachmodelle wie ChatGPT „Halluzinationen“ erzeugen können, was zu schwerwiegenden Fehlentscheidungen führen könnte. Zudem kann die neue Analysemethodik den Anschein von Wissen und Objektivität erwecken, während sie in Wirklichkeit auf einer dürftigen Faktengrundlage basiert. Diese Bedenken werden durch die Planung des BFA verstärkt, Mobiltelefone zur Identitätsprüfung auszulesen, was als massiver Eingriff in die Privatsphäre betrachtet wird, so uni-graz.at.
Ein weiteres Risiko ist die Möglichkeit, dass KI-Modelle Vorurteile aus den Trainingsdaten übernehmen könnten. Adensamer hebt hervor, dass nicht nur Asylwerbende, sondern auch alle Drittstaatsangehörigen von dieser erweiterten Datenverarbeitung betroffen sind. Die Skepsis gegenüber den versprochenen Kostensenkungen und Effizienzsteigerungen ist groß, da fehlerhafte Verfahren die Grundrechte und den Rechtsstaat gefährden könnten.
EU-Verordnung und ihre Implikationen
Die aktuelle Diskussion um den Einsatz von KI wird durch die geplante KI-Verordnung der EU verschärft. Ursprünglich zum Schutz von Menschen auf der Flucht gedacht, verfolgt die Verordnung jedoch einen risikobasierten Ansatz, der Geflüchtete benachteiligt. So erhalten Migrations- und Sicherheitsbehörden oftmals Ausnahmegenehmigungen, um hochriskante Technologien einzusetzen. gwi-boell.de berichtet, dass die Verordnung emotionserkennende Technologien, die in anderen Bereichen verboten sind, in Migrationskontexten erlaubt und die bestehenden gesellschaftlichen Diskriminierungen verstärken könnte.
All dies wirft die Frage auf, inwieweit der Einsatz von KI im Asylverfahren mit den Menschenrechten und den Prinzipien der Rechtsstaatlichkeit vereinbar ist. Die Befürchtung ist, dass die Technologie eher zu schnelleren Menschenrechtsverletzungen führt, als dass sie den Schutz von Geflüchteten verbessert. Zivilgesellschaftliche Organisationen fordern daher strengere Regelungen und mehr Transparenz im Umgang mit diesen Technologien.
Am kommenden Montag, dem 12. Mai 2025, werden die Ergebnisse des Forschungsprojektes A.I.SYL im Forum Stadtpark in Graz vorgestellt und diskutiert. Die Diskussion könnte entscheidend dafür sein, wie der Einsatz von KI im sensiblen Bereich der Asylverfahren in der Zukunft geregelt wird.
Details | |
---|---|
Ort | Graz, Österreich |
Quellen |
Kommentare (0)