AI dans la procédure d'asile: risque de mauvaises décisions et violations des droits fondamentaux!

AI dans la procédure d'asile: risque de mauvaises décisions et violations des droits fondamentaux!

Graz, Österreich - Le Bureau autrichien fédéral pour les affaires étrangères et l'asile (BFA) prévoit d'introduire l'intelligence artificielle (IA) dans les procédures d'asile pour raccourcir les délais de traitement et augmenter l'efficacité. Dans une procédure de plus en plus numérisée, des systèmes basés sur l'IA tels que les chatbots et les outils d'analyse des données doivent être utilisés pour traiter les informations sur les pays d'origine. Des programmes éprouvés tels que Deepl et la complexité ainsi que des applications spécialement développés sont utilisés, rapporte exxpress.at .

Ces technologies devraient aider à évaluer les risques de persécution et à vérifier la crédibilité des informations. Cependant, des experts tels que la politologue Laura Jung et l'avocat Angelika Adelsamer ont exprimé de sérieuses inquiétudes. Ils mettent en garde contre la sensibilité aux erreurs et à la non-trame des systèmes ainsi qu'à des violations possibles des droits fondamentaux. Le problème de la boîte noire est particulièrement inquiétant, dans lequel le processus décisionnel de l'IA n'est pas compréhensible, ce qui viole l'état de droit.

Préoccupations concernant la technologie

Dans le cadre du projet de recherche A.I.SYL à l'Université de Graz, des risques élevés ont été identifiés. Jung a souligné que des modèles vocaux tels que Chatgpt peuvent créer des "hallucinations", ce qui pourrait conduire à de mauvaises décisions graves. De plus, la nouvelle méthodologie d'analyse peut donner des connaissances et une objectivité, alors qu'elle est en fait basée sur une mauvaise base factuelle. Ces préoccupations sont renforcées par la planification du BFA pour lire les téléphones mobiles pour l'examen d'identité, qui est considéré comme une interférence massive avec la confidentialité, donc .

Un autre risque est la possibilité que les modèles d'IA puissent prendre des préjugés des données de formation. Adenamère souligne que non seulement les demandeurs d'asile, mais aussi tous les ressortissants du troisième pays sont affectés par ce traitement étendu des données. Le scepticisme par rapport aux réductions des coûts promises et l'augmentation de l'efficacité est importante car des procédures incorrectes pourraient mettre en danger les droits fondamentaux et l'état de droit.

Régulation de l'UE et leurs implications

La discussion actuelle sur l'utilisation de l'IA est resserrée par la réglementation prévue de l'IA de l'UE. Initialement destiné à protéger les personnes en fuite, le règlement poursuit une approche basée sur les risques qui désavantage les réfugiés. Par exemple, les autorités de migration et de sécurité reçoivent souvent des permis exceptionnels pour utiliser des technologies à haut risque. gwi-boell.de discrimination.

Tout cela soulève la question dans quelle mesure l'utilisation de l'IA est compatible avec les droits de l'homme et les principes de l'état de droit dans la procédure d'asile. La crainte est que la technologie entraîne des violations plus rapides des droits de l'homme plutôt que d'améliorer la protection des réfugiés. Les organisations de la société civile appellent donc à des réglementations plus strictes et à une plus grande transparence dans le traitement de ces technologies.

Lundi 12 mai 2025, les résultats du projet de recherche A.I.Syl seront présentés et discutés dans le Forum Stadtpark à Graz. La discussion pourrait être cruciale pour la façon dont l'utilisation de l'IA est réglementée dans la zone sensible des procédures d'asile à l'avenir.

Details
OrtGraz, Österreich
Quellen

Kommentare (0)