AI u postupku azila: rizik od pogrešnih odluka i kršenja temeljnih prava!
AI u postupku azila: rizik od pogrešnih odluka i kršenja temeljnih prava!
Graz, Österreich - Savezni austrijski ured za vanjske poslove i azil (BFA) planira uvesti umjetnu inteligenciju (AI) u postupke azila kako bi skratili vrijeme obrade i povećali učinkovitost. U sve više digitaliziranijem postupku, sustavi temeljeni na AI-u, kao što su chatbots i alati za analizu podataka, koriste se za obradu informacija o zemljama podrijetla. Koriste se dokazani programi kao što su Deepl i složenost, kao i posebno razvijene aplikacije, izvještaji
Ove bi tehnologije trebale pomoći u procjeni rizika od progona i provjeri vjerodostojnosti informacija. Međutim, stručnjaci poput politološke znanstvenice Laura Jung i odvjetnik Angelika Adelsamer izrazili su ozbiljnu zabrinutost. Oni upozoravaju na osjetljivost na pogreške i ne -prijenosnost sustava kao i moguća kršenja temeljnih prava. Takozvani problem s crnom kutijom posebno je zabrinjavajući, u kojem postupak donošenja AI nije razumljiv, što krši vladavinu zakona. U sklopu istraživačkog projekta A.I.Syl na Sveučilištu u Graz, identificirani su visoki rizici. Jung je istaknuo da glasovni modeli poput chatgpta mogu stvoriti "halucinacije", što bi moglo dovesti do ozbiljnih pogrešnih odluka. Pored toga, nova metodologija analize može dati znanje i objektivnost, dok se zapravo temelji na lošem činjeničnoj osnovi. These concerns are reinforced by planning the BFA to read mobile phones for the identity examination, which is considered a massive interference with privacy, so Uni-raz.at . Drugi rizik je mogućnost da AI modeli mogu prejudicirati iz podataka o treningu. Adenamer naglašava da ne samo tražitelji azila, već i na sve državljane treće državljane utječu na ovu proširenu obradu podataka. Skepticizam u usporedbi s obećanim smanjenjem troškova i povećanjem učinkovitosti je izvrstan jer bi pogrešni postupci mogli ugroziti temeljna prava i vladavinu zakona. Trenutna rasprava o uporabi AI pooštrena je planiranom AI regulacijom EU. Prvobitno namijenjen zaštiti ljudi u bijegu, propis slijedi pristup koji se temelji na riziku, a koji nedostaju izbjeglice. Na primjer, vlasti migracije i sigurnosti često primaju izuzetne dozvole za korištenje tehnologija visokog rizika.
Sve to postavlja pitanje u kojoj je mjeri upotreba AI kompatibilna s ljudskim pravima i načelima vladavine zakona u postupku azila. Strah je da će tehnologija dovesti do bržih kršenja ljudskih prava, a ne poboljšati zaštitu izbjeglica. Organizacije civilnog društva stoga zahtijevaju strože propise i veću transparentnost u rješavanju ovih tehnologija. Sljedećeg ponedjeljka, 12. svibnja 2025., rezultati istraživačkog projekta A.I.Syl bit će predstavljeni i raspravljani na Forumu StadtPark u GRAZ -u. Rasprava bi mogla biti presudna za način na koji se upotreba AI regulira u osjetljivom području postupaka azila u budućnosti. Zabrinutosti za tehnologiju
EU regulacija i njihove implikacije
Details | |
---|---|
Ort | Graz, Österreich |
Quellen |
Kommentare (0)