AI в процедурата за убежище: риск от грешни решения и нарушения на основните права!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Австрия BFA планира да използва AI в процедурите за убежище. Експертите предупреждават за рискове като грешни решения и не -търговия.

Österreichs BFA plant den Einsatz von KI in Asylverfahren. Experten warnen vor Risiken wie Fehlentscheidungen und Intransparenz.
Австрия BFA планира да използва AI в процедурите за убежище. Експертите предупреждават за рискове като грешни решения и не -търговия.

AI в процедурата за убежище: риск от грешни решения и нарушения на основните права!

Федералният австрийски офис за външни работи и убежище (BFA) планира да въведе изкуствения интелект (AI) в процедурите за убежище, за да съкрати времената на обработка и да повиши ефективността. При все по-дигитализирана процедура се използват системи, базирани на AI като чатботи и инструменти за анализ на данни, за обработка на информация за страните от произход. Използват се доказани програми като Deepl и сложност, както и специално разработени приложения, отчети exxpress.at .

Тези технологии трябва да помогнат за оценка на рисковете за преследване и да се провери достоверността на информацията. Експерти като политолог Лора Юнг и адвоката Анджела Аделсмер изразиха сериозни опасения. Те предупреждават за чувствителността към грешки и не -пропорционалност на системите, както и възможни нарушения на основните права. Така нареченият проблем с черната кутия е особено притеснителен, при който процесът на вземане на решения на AI не е разбираем, което нарушава върховенството на закона.

Притеснения относно технологията

Като част от изследователския проект A.I.Syl от Университета на Грац, бяха идентифицирани високи рискове. Юнг посочи, че гласовите модели като Chatgpt могат да създадат „халюцинации“, което може да доведе до сериозни грешни решения. В допълнение, новата методология на анализ може да даде знания и обективност, докато всъщност се основава на лоша фактическа основа. Тези притеснения се подсилват чрез планиране на BFA за четене на мобилни телефони за изпита за самоличност, който се счита за масивна намеса в личния живот, така че Uni-graz.at .

Друг риск е възможността AI моделите да вземат предразсъдъци от данните за обучение. Adenamer подчертава, че не само търсещите убежище, но и всички национали от трета страна са засегнати от тази разширена обработка на данни. Скептицизмът в сравнение с обещаното намаляване на разходите и увеличаването на ефективността е чудесен, тъй като неправилните процедури могат да застрашат основните права и върховенството на закона.

ЕС регламент и техните последици

Настоящата дискусия за използването на AI се затяга от планираното AI регулиране на ЕС. Първоначално е предназначен да защити хората в движение, регламентът преследва подход, базиран на риска, който е в недостатъци на бежанците. Например, властите за миграция и сигурност често получават изключителни разрешителни за използване на високорискови технологии. gwi-boell.de Областите са prohibed, разрешени в миглация и могат да се увеличат социалните райони и могат да се увеличават в миглацията и могат да се увеличат социалните райони, които са в миглация. дискриминация.

Всичко това повдига въпроса до каква степен използването на AI е съвместимо с правата на човека и принципите на върховенството на закона в процедурата за убежище. Страхът е, че технологията ще доведе до по -бързи нарушения на правата на човека, а не от подобряване на защитата на бежанците. Следователно организациите на гражданското общество призовават за по -строги разпоредби и по -голяма прозрачност при справяне с тези технологии.

Следващия понеделник, 12 май 2025 г., резултатите от изследователския проект A.I.Syl ще бъдат представени и обсъдени във форума на StadtPark в Грац. Дискусията може да бъде от решаващо значение за това как използването на AI се регулира в чувствителната област на процедурите за убежище в бъдеще.