AI i asylprosedyren: Risiko for gale beslutninger og brudd på grunnleggende rettigheter!
Østerrikes BFA planlegger å bruke AI i asylprosedyrer. Eksperter advarer om risikoer som gale beslutninger og ikke -transparens.

AI i asylprosedyren: Risiko for gale beslutninger og brudd på grunnleggende rettigheter!
Det føderale østerrikske kontoret for utenrikssaker og asyl (BFA) planlegger å innføre kunstig intelligens (AI) i asylprosedyrer for å forkorte prosesseringstidene og øke effektiviteten. I en stadig mer digitalisert prosedyre skal AI-baserte systemer som chatbots og dataanalyseverktøy brukes til å behandle informasjon om opprinnelsesland. Påviste programmer som Deepl og kompleksitet så vel som spesialutviklede applikasjoner brukes, rapporter >
Disse teknologiene skal bidra til å evaluere forfølgelsesrisiko og sjekke troverdigheten til informasjon. Imidlertid uttrykte eksperter som statsviteren Laura Jung og advokaten Angelika Adelsamer alvorlige bekymringer. De advarer om mottakeligheten for feil og ikke -transparens i systemene samt mulige brudd på grunnleggende rettigheter. Det såkalte Black Box-problemet er spesielt bekymringsfullt, der beslutningsprosessen til AI ikke er forståelig, noe som bryter rettsstaten.
Bekymringer for teknologi
Som en del av forskningsprosjektet A.I.syl ved University of Graz ble høye risikoer identifisert. Jung påpekte at stemmemodeller som ChatGPT kan skape "hallusinasjoner", noe som kan føre til alvorlige gale beslutninger. I tillegg kan den nye analysemetodikken gi kunnskap og objektivitet, mens den faktisk er basert på et dårlig saklig grunnlag. Disse bekymringene forsterkes ved å planlegge BFA for å lese mobiltelefoner for identitetsundersøkelsen, som regnes som en massiv interferens med personvern, så