AI v postupu azylu: Riziko nesprávných rozhodnutí a porušování základních práv!

AI v postupu azylu: Riziko nesprávných rozhodnutí a porušování základních práv!

Graz, Österreich - Federální rakouský úřad pro zahraniční věci a azyl (BFA) plánuje zavést umělou inteligenci (AI) v azylovém postupech, aby zkrátil časy zpracování a zvýšil efektivitu. Ve stále více digitalizovaném postupu se ke zpracování informací o zemích původu použijí systémy založené na AI, jako jsou chatboty a nástroje pro analýzu dat. Používají se osvědčené programy jako Deepl a složitost a speciálně vyvinuté aplikace, zprávy exxpress.at .

Tyto technologie by měly pomoci vyhodnotit rizika pronásledování a zkontrolovat důvěryhodnost informací. Odborníci, jako je politolog Laura Jung a právník Angelika Adelsamer, však vyjádřili vážné obavy. Varují před náchylností k chybám a netransparentnosti systémů a možného porušování základních práv. Takzvaný problém s černou skříňkou je obzvláště znepokojivý, ve kterém rozhodovací proces AI není pochopitelný, což porušuje právní stát.

obavy o technologii

V rámci výzkumného projektu A.I.Syl na University of Graz byla identifikována vysoká rizika. Jung poukázal na to, že hlasové modely, jako je Chatgpt, mohou vytvořit „halucinace“, což by mohlo vést k vážným nesprávným rozhodnutí. Nová metodika analýzy může navíc poskytnout znalosti a objektivitu, i když je ve skutečnosti založena na špatném faktickém základě. Tyto obavy jsou posíleny plánováním BFA ke čtení mobilních telefonů pro zkoumání identity, což je považováno za masivní zásah do soukromí, takže " "" "" "" "" "" "" "" "" "" "" "" "" "" "" "" "" "" "" "" "" "" "Class>" "" "" "" ""> "" "" "Class>" "" "" "" "" Uni-Graz.at .

Dalším rizikem je možnost, že by modely AI mohly předsudky z tréninkových dat. Adenamer zdůrazňuje, že tímto rozšířeným zpracováním dat jsou ovlivněny nejen žadatelé o azyl, ale také všichni třetí státní příslušníci. Skepticismus ve srovnání se slíbeným snižováním nákladů a zvýšení účinnosti je skvělé, protože nesprávné postupy by mohly ohrozit základní práva a právní stát.

Regulace EU a jejich důsledky

Současná diskuse o používání AI je naplánována plánovaná regulace AI EU. Původně zamýšlená chránit lidi na útěku, nařízení probíhá přístup založený na riziku, který znevýhodňuje uprchlíky. Například migrační a bezpečnostní úřady často dostávají výjimečná povolení k používání vysoce rizikových technologií. gwi-boell.

To vše vyvolává otázku, do jaké míry je používání AI kompatibilní s lidskými právy a zásadami právního státu v postupu azylu. Strach je, že tato technologie povede spíše k rychlejšímu porušování lidských práv než k zlepšení ochrany uprchlíků. Organizace občanské společnosti proto vyžadují přísnější předpisy a větší transparentnost při řešení těchto technologií.

Příští pondělí 12. května 2025 budou výsledky výzkumného projektu A.I.Syl představeny a diskutovány na Fórum Stadtpark v Grazu. Diskuse by mohla být zásadní pro to, jak je používání AI regulováno v citlivé oblasti azylových postupů v budoucnosti.

Details
OrtGraz, Österreich
Quellen

Kommentare (0)