庇护程序中的AI:错误决策和侵犯基本权利的风险!

庇护程序中的AI:错误决策和侵犯基本权利的风险!

Graz, Österreich - 联邦奥地利外交和庇护办公室(BFA)计划在庇护程序中引入人工智能(AI),以缩短处理时间并提高效率。在越来越多的数字化过程中,基于AI的系统(例如聊天机器人和数据分析工具)应用于处理有关原始国家的信息。使用了诸如DEEPL和复杂性以及专门开发的应用程序之类的经过验证的计划,报告

这些技术应有助于评估迫害风险并检查信息的信誉。但是,政治学家劳拉·荣格(Laura Jung)和律师安吉利卡·阿德尔瑟(Angelika Adelsamer)等专家表达了严重的关注。他们警告说,系统的易感性和系统的不透明度以及可能侵犯基本权利的行为。所谓的黑匣子问题特别令人担忧,其中AI的决策过程是无法理解的,这违反了法治。

对技术的关注

作为Graz大学研究项目的一部分,确定了高风险。荣格指出,诸如Chatgpt之类的语音模型可以创建“幻觉”,这可能会导致严重的错误决定。此外,新的分析方法可以给出知识和客观性,而实际上是基于事实差的基础。通过计划BFA来读取手机进行身份检查来加强这些问题,这被认为是对隐私的大规模干扰,因此

另一个风险是AI模型可能会偏见培训数据。 Adenamer强调,不仅寻求庇护者,而且所有第三个国家国民都受到这种扩展的数据处理的影响。与承诺的降低成本降低和效率提高相比,持怀疑态度是很大的,因为错误的程序可能危害基本权利和法治。

EU调节及其含义

当前有关AI使用的讨论通过欧盟的计划AI规定收紧了。该法规最初是为了保护人们的行为,采取了一种基于风险的方法,使难民陷入困境。例如,迁移和安全当局通常会获得使用高风险技术的出色许可。 gwi-boell.de Areas are prohibited, allowed in migration contexts and could increase the existing social discrimination.

所有这些都提出了一个问题,在多大程度上,AI在庇护程序中与人权和法治原则兼容。人们担心这项技术会导致更快的侵犯人权,而不是改善对难民的保护。因此,民间社会组织要求更严格的法规和更透明的处理这些技术。

下一个星期一,2025年5月12日,研究项目A.I.Syl的结果将在格拉兹的Stadtpark论坛上介绍和讨论。讨论对于将来在庇护程序的敏感区域中如何调节AI的使用可能至关重要。

Details
OrtGraz, Österreich
Quellen

Kommentare (0)