AI en el procedimiento de asilo: ¡Riesgo de decisiones incorrectas y violaciones de los derechos fundamentales!

AI en el procedimiento de asilo: ¡Riesgo de decisiones incorrectas y violaciones de los derechos fundamentales!

La Oficina Federal de Asuntos Exteriores y Asilo (BFA) planea introducir inteligencia artificial (IA) en los procedimientos de asilo para acortar los tiempos de procesamiento y aumentar la eficiencia. En un procedimiento cada vez más digitalizado, los sistemas basados ​​en IA, como los chatbots y las herramientas de análisis de datos, se utilizarán para procesar información sobre los países de origen. Se utilizan programas probados como DeepL y Complexity, así como aplicaciones especialmente desarrolladas, informes exxpress.at .

Estas tecnologías deberían ayudar a evaluar los riesgos de persecución y verificar la credibilidad de la información. Sin embargo, expertos como el politólogo Laura Jung y el abogado Angelika Adelsamer expresaron serias preocupaciones. Advierten sobre la susceptibilidad a los errores y la no transparencia de los sistemas, así como posibles violaciones de los derechos fundamentales. El llamado problema de la caja negra es particularmente preocupante, en el que no es comprensible el proceso de toma de decisiones de la IA, lo que viola el estado de derecho.

Preocupaciones sobre la tecnología

Como parte del proyecto de investigación A.I.Syl en la Universidad de Graz, se identificaron altos riesgos. Jung señaló que los modelos de voz como ChatGPT pueden crear "alucinaciones", lo que podría conducir a serias decisiones equivocadas. Además, la nueva metodología de análisis puede dar conocimiento y objetividad, mientras que en realidad se basa en una base fáctica deficiente. Estas preocupaciones se refuerzan al planificar el BFA para leer los teléfonos móviles para el examen de identidad, que se considera una interferencia masiva con la privacidad, por lo tanto, .

Otro riesgo es la posibilidad de que los modelos de IA puedan tomar prejuicios de los datos de capacitación. Adenamer enfatiza que no solo los solicitantes de asilo, sino también todos los ciudadanos del tercer país se ven afectados por este procesamiento de datos extendidos. El escepticismo en comparación con las reducciones de costos prometidas y los aumentos en la eficiencia es excelente porque los procedimientos incorrectos podrían poner en peligro los derechos fundamentales y el estado de derecho.

Regulación

de la UE y sus implicaciones

La discusión actual sobre el uso de AI se aprieta por la regulación de IA planificada de la UE. Originalmente destinado a proteger a las personas en la carrera, la regulación sigue un enfoque basado en el riesgo que desfavorece a los refugiados. Por ejemplo, las autoridades de migración y seguridad a menudo reciben permisos excepcionales para usar tecnologías de alto riesgo. discriminación.

Todo esto plantea la pregunta en qué medida el uso de AI es compatible con los derechos humanos y los principios del estado de derecho en el procedimiento de asilo. El temor es que la tecnología conduzca a violaciones de derechos humanos más rápidas en lugar de mejorar la protección de los refugiados. Por lo tanto, las organizaciones de la sociedad civil requieren regulaciones más estrictas y más transparencia en el tratamiento de estas tecnologías.

El próximo lunes 12 de mayo de 2025, los resultados del Proyecto de Investigación A.I.Syl se presentarán y discutirán en el Foro de StadtPark en Graz. La discusión podría ser crucial sobre cómo el uso de IA se regula en el área sensible de los procedimientos de asilo en el futuro.

Details
OrtGraz, Österreich
Quellen

Kommentare (0)