Cargando...
IA Auditable
Cumplimiento de la Ley Europea de la IA
Marco normativo y legal. Cumplimiento de la Ley Europea de la IA
Los grafos de conocimiento ocupan un lugar central e ineludible en el desarrollo de una IA explicable, confiable y, en consecuencia, auditable. El enfoque híbrido que combina grafos de conocimiento con modelos de lenguaje grandes (LLMs) permite avanzar hacia una IA Compuesta capaz de garantizar la auditabilidad de la IA al ofrecer resultados trazables y reproducibles por terceras partes. Este enfoque se alinea plenamente con las directrices establecidas en la Ley Europea de IA, y la Estrategia Nacional de IA, ambas orientadas en promover una inteligencia artificial segura, ética y respetuosa con los derechos fundamentales de las personas.
| La nueva Ley Europea de IA establece el marco regulatorio para el uso de la inteligencia artificial en la Unión Europea y clasifica como de alto riesgo los sistemas de IA utilizados para acceder a servicios públicos esenciales. Estos sistemas deben mantener registros claros y documentados sobre su funcionamiento y garantizar que sus decisiones sean comprensibles. En esencia, deben basarse en IA Confiable y Auditable, asegurando así la salvaguarda de los derechos fundamentales de todas las personas que los utilicen. |
La Ley Europea de la IA, que entró en vigor el 2 de febrero de 2025 (Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, entran en vigor las disposiciones generales, los capítulos I y II y la prohibición de ciertos sistemas de IA), y la Estrategia Nacional de Inteligencia Artificial (ENIA) del Gobierno de España, establecen un marco normativo integral para garantizar que la IA sea segura, ética y respetuosa con los derechos fundamentales. Ambas normativas promueven un desarrollo de la IA centrado en el ser humano, subrayando que “es fundamental que la IA y su marco regulatorio se desarrollen de acuerdo con los valores de la Unión, los derechos y libertades fundamentales” (Reglamento, Considerando 6).
Entre estas medidas destacan la prohibición de prácticas consideradas inaceptables debido a su riesgo para los valores democráticos (Reglamento, Considerando 26); la regulación de los sistemas de alto riesgo, los cuales deben someterse a estrictas evaluaciones de conformidad y disponer de sistemas de gestión de riesgos (Artículo 6); y la exigencia de transparencia, un principio esencial que asegura que los sistemas de IA sean trazables, explicables y auditables. Este enfoque garantiza que los usuarios puedan comprender tanto el funcionamiento interno de los sistemas como las razones detrás de sus decisiones, fomentando así la confianza, la responsabilidad y la alineación con los valores fundamentales de la Unión Europea (Reglamento, Principio 4).