Nuevo ki-chatbot del RTR: ¡Información para todos fácilmente comprensible!
Nuevo ki-chatbot del RTR: ¡Información para todos fácilmente comprensible!
RTR GMBH presentó un bot de chat innovador a la Ley de AI de la UE el 23 de mayo de 2025, que proporciona información confiable sobre una interfaz web fácil de usar. Esta nueva herramienta está diseñada para promover la comprensión y la accesibilidad del complejo tema de la inteligencia artificial. Basado en A Servicio.
Aunque la información proporcionada no es legalmente vinculante, deben servir como un recurso de orientación útil. Un aspecto notable del chatbot es la transparencia de su funcionamiento: los usuarios pueden ver cómo se proporciona la entrada, se adquiere información y cómo se generan las respuestas. Además, el bot de chat muestra el consumo de electricidad por solicitud, lo que permite una comparación con los dispositivos cotidianos. Todo el servicio se ejecuta en hardware RTR y el modelo de idioma proviene de Mistral. El código fuente y la base de datos del chatbot son de código abierto y se pueden usar libremente. La extensa documentación técnica ofrece información sobre la lógica de conceptualización y función del sistema. Se puede contactar al chatbot en https://chat.ki.rtr.at , mientras que los detalles técnicos sobre el consumo de energía en eu ai acto Representa una regulación comprensiva que especifica regulaciones armonizadas para los sistemas ai. Dependiendo de su clasificación de riesgos, regula estos sistemas de aplicaciones totalmente prohibidas a aquellos que deben cumplir con los requisitos específicos. Las pautas de promoción de la innovación se aplican a los sistemas de IA con alto riesgo que debe cumplir con la documentación estricta, el monitoreo y los requisitos de calidad. Los proveedores y usuarios de estos sistemas son responsables de cumplir con los requisitos justificados. Detalles técnicos y disponibilidad
La obligación de la transparencia también se extiende a los sistemas de IA que generan contenido sintético. Las personas afectadas siempre deben estar claramente informadas que interactúan con un sistema de IA. Esta obligación es particularmente importante para promover la confianza del público en tecnologías avanzadas.
Details | |
---|---|
Ort | Österreich |
Quellen |
Kommentare (0)