الذكاء الاصطناعي في إجراء اللجوء: خطر القرارات الخاطئة وانتهاكات الحقوق الأساسية!
تخطط BFA النمسا لاستخدام الذكاء الاصطناعي في إجراءات اللجوء. يحذر الخبراء من المخاطر مثل القرارات الخاطئة وعدم الانفصال.

الذكاء الاصطناعي في إجراء اللجوء: خطر القرارات الخاطئة وانتهاكات الحقوق الأساسية!
يخطط المكتب النمساوي الفيدرالي للشؤون الخارجية واللجوء (BFA) لإدخال الذكاء الاصطناعي (AI) في إجراءات اللجوء لتقصير أوقات المعالجة وزيادة الكفاءة. في الإجراء الرقمي بشكل متزايد ، يجب استخدام الأنظمة المستندة إلى الذكاء الاصطناعي مثل chatbots وأدوات تحليل البيانات لمعالجة المعلومات حول بلدان المنشأ. يتم استخدام برامج مثبتة مثل Deepl والتعقيد وكذلك التطبيقات المطورة خصيصًا ، تقارير express.at .
يجب أن تساعد هذه التقنيات في تقييم مخاطر الاضطهاد والتحقق من مصداقية المعلومات. ومع ذلك ، أعرب خبراء مثل عالم السياسة لورا يونج والمحامية أنجيليكا أديلسامر عن مخاوف جدية. يحذرون من التعرض للأخطاء وعدم شفط النظم بالإضافة إلى انتهاكات الحقوق الأساسية. إن مشكلة الصندوق الأسود المزعوم مقلقة بشكل خاص ، حيث تكون عملية صنع القرار في الذكاء الاصطناعى غير مفهومة ، والتي تنتهك حكم القانون.
مخاوف بشأن التكنولوجيا
كجزء من المشروع البحثي A.I.Syl في جامعة Graz ، تم تحديد مخاطر عالية. أشار يونج إلى أن النماذج الصوتية مثل ChatGPT يمكنها إنشاء "هلوسة" ، والتي قد تؤدي إلى قرارات خطيرة خطيرة. بالإضافة إلى ذلك ، يمكن أن تعطي منهجية التحليل الجديدة المعرفة والموضوعية ، في حين أنها تستند فعليًا إلى أساس واقعية سيئة. يتم تعزيز هذه المخاوف من خلال التخطيط ل BFA لقراءة الهواتف المحمولة لفحص الهوية ، والذي يعتبر تدخلًا هائلاً مع الخصوصية ، لذلك