الذكاء الاصطناعي في إجراء اللجوء: خطر القرارات الخاطئة وانتهاكات الحقوق الأساسية!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

تخطط BFA النمسا لاستخدام الذكاء الاصطناعي في إجراءات اللجوء. يحذر الخبراء من المخاطر مثل القرارات الخاطئة وعدم الانفصال.

Österreichs BFA plant den Einsatz von KI in Asylverfahren. Experten warnen vor Risiken wie Fehlentscheidungen und Intransparenz.
تخطط BFA النمسا لاستخدام الذكاء الاصطناعي في إجراءات اللجوء. يحذر الخبراء من المخاطر مثل القرارات الخاطئة وعدم الانفصال.

الذكاء الاصطناعي في إجراء اللجوء: خطر القرارات الخاطئة وانتهاكات الحقوق الأساسية!

يخطط المكتب النمساوي الفيدرالي للشؤون الخارجية واللجوء (BFA) لإدخال الذكاء الاصطناعي (AI) في إجراءات اللجوء لتقصير أوقات المعالجة وزيادة الكفاءة. في الإجراء الرقمي بشكل متزايد ، يجب استخدام الأنظمة المستندة إلى الذكاء الاصطناعي مثل chatbots وأدوات تحليل البيانات لمعالجة المعلومات حول بلدان المنشأ. يتم استخدام برامج مثبتة مثل Deepl والتعقيد وكذلك التطبيقات المطورة خصيصًا ، تقارير express.at .

يجب أن تساعد هذه التقنيات في تقييم مخاطر الاضطهاد والتحقق من مصداقية المعلومات. ومع ذلك ، أعرب خبراء مثل عالم السياسة لورا يونج والمحامية أنجيليكا أديلسامر عن مخاوف جدية. يحذرون من التعرض للأخطاء وعدم شفط النظم بالإضافة إلى انتهاكات الحقوق الأساسية. إن مشكلة الصندوق الأسود المزعوم مقلقة بشكل خاص ، حيث تكون عملية صنع القرار في الذكاء الاصطناعى غير مفهومة ، والتي تنتهك حكم القانون.

مخاوف بشأن التكنولوجيا

كجزء من المشروع البحثي A.I.Syl في جامعة Graz ، تم تحديد مخاطر عالية. أشار يونج إلى أن النماذج الصوتية مثل ChatGPT يمكنها إنشاء "هلوسة" ، والتي قد تؤدي إلى قرارات خطيرة خطيرة. بالإضافة إلى ذلك ، يمكن أن تعطي منهجية التحليل الجديدة المعرفة والموضوعية ، في حين أنها تستند فعليًا إلى أساس واقعية سيئة. يتم تعزيز هذه المخاوف من خلال التخطيط ل BFA لقراءة الهواتف المحمولة لفحص الهوية ، والذي يعتبر تدخلًا هائلاً مع الخصوصية ، لذلك

تنظيم الاتحاد الأوروبي وآثارها

يتم تشديد المناقشة الحالية حول استخدام الذكاء الاصطناعى بواسطة لائحة الذكاء الاصطناعي المخطط لها للاتحاد الأوروبي. تهدف في الأصل إلى حماية الأشخاص الهاربين ، وتتبع اللائحة نهجًا قائمًا على المخاطر والذي يهدئ اللاجئين. على سبيل المثال ، تتلقى سلطات الترحيل والأمان في كثير من الأحيان تصاريح استثنائية لاستخدام التقنيات عالية الخطورة. gwi-boell.de . تمييز.

كل هذا يثير السؤال إلى أي مدى يتوافق استخدام الذكاء الاصطناعي مع حقوق الإنسان ومبادئ حكم القانون في إجراء اللجوء. الخوف هو أن هذه التكنولوجيا ستؤدي إلى انتهاكات أسرع لحقوق الإنسان بدلاً من تحسين حماية اللاجئين. وبالتالي فإن منظمات المجتمع المدني تدعو إلى لوائح أكثر صرامة ومزيد من الشفافية في التعامل مع هذه التقنيات.

الاثنين المقبل ، 12 مايو ، 2025 ، سيتم تقديم نتائج مشروع البحث A.I.Syl ومناقشتها في منتدى Stadtpark في Graz. يمكن أن تكون المناقشة حاسمة لكيفية تنظيم استخدام الذكاء الاصطناعي في مجال إجراءات اللجوء الحساسة في المستقبل.