AI v postupe azylu: Riziko nesprávnych rozhodnutí a porušenia základných práv!

AI v postupe azylu: Riziko nesprávnych rozhodnutí a porušenia základných práv!

Graz, Österreich - Federálny rakúsky úrad pre zahraničné veci a azyl (BFA) plánuje zaviesť umelú inteligenciu (AI) v azylových postupoch na skrátenie časov spracovania a zvýšenie efektívnosti. V čoraz digitalizovanejšom postupe sa systémy založené na AI, ako sú chatboty a nástroje analýzy údajov, používajú na spracovanie informácií o krajinách pôvodu. Používajú sa osvedčené programy, ako je deepl a zložitosť, ako aj špeciálne vyvinuté aplikácie, správy exxpress.at .

Tieto technológie by mali pomôcť vyhodnotiť riziká prenasledovania a skontrolovať dôveryhodnosť informácií. Odborníci ako politológka Laura Jung a právnička Angelika Adelsamer však vyjadrila vážne obavy. Varujú pred náchylnosťou na chyby a netransparentnosť systémov, ako aj možné porušenia základných práv. Takzvaný problém s čiernou skrinkou je obzvlášť znepokojujúci, v ktorom nie je pochopiteľný rozhodovací proces AI, ktorý porušuje právny štát.

obavy z technológie

V rámci výskumného projektu A.I.Syl na univerzite v Grazi boli identifikované vysoké riziká. Jung poukázal na to, že hlasové modely, ako je Chatgpt, môžu vytvoriť „halucinácie“, čo by mohlo viesť k vážnym nesprávnym rozhodnutiam. Nová metodika analýzy môže okrem toho poskytnúť vedomosti a objektivitu, zatiaľ čo je v skutočnosti založená na slabom faktickom základe. These concerns are reinforced by planning the BFA to read mobile phones for the identity examination, which is considered a massive interference with privacy, so Uni-Graz.at .

Ďalším rizikom je možnosť, že modely AI by mohli mať predsudky z údajov o školeniach. Adenamer zdôrazňuje, že týmto rozšíreným spracovaním údajov sú ovplyvnení nielen žiadatelia o azyl, ale aj všetci štátni príslušníci tretieho pobytu. Skepticizmus v porovnaní so zasľúbeným znížením nákladov a zvýšením efektívnosti je skvelý, pretože nesprávne postupy by mohli ohroziť základné práva a právny štát.

EÚ regulácia a ich dôsledky

Súčasná diskusia o používaní AI je sprísnená plánovanou reguláciou AI EÚ. Pôvodne určený na ochranu ľudí na úteku, nariadenie sleduje prístup založený na riziku, ktorý znevýhodňuje utečencov. Napríklad orgány migrácie a bezpečnosti často dostávajú výnimočné povolenia na používanie vysokorizikových technológií. GWI-boell.de Oblasti sú povolené, povolené migračné kontexty.

To všetko vyvoláva otázku, do akej miery je používanie AI zlučiteľné s ľudskými právami a zásadami právneho štátu v azylovom postupe. Obáva sa, že táto technológia povedie skôr k rýchlejšiemu porušovaniu ľudských práv, než k zlepšeniu ochrany utečencov. Organizácie občianskej spoločnosti preto požadujú prísnejšie nariadenia a väčšiu transparentnosť pri riešení týchto technológií.

Budúci pondelok 12. mája 2025 budú výsledky výskumného projektu A.I.Syl prezentované a diskutované na fóre Stadtpark v Graz. Diskusia by mohla byť rozhodujúca pre to, ako je používanie AI regulované v citlivej oblasti azylových postupov v budúcnosti.

Details
OrtGraz, Österreich
Quellen

Kommentare (0)