Cargando...
Inteligencia Artificial Neurosimbólica
La hibridación necesaria: IA simbólica y subsimbólica

Durante décadas, la inteligencia artificial se ha fracturado en una falsa dicotomía. Por un lado, el enfoque simbólico o semántico se centra en dotar a las máquinas de la capacidad de interpretar el mundo mediante la comprensión profunda del lenguaje, permitiendo la creación de sistemas de representación del conocimiento basados en grafos computables y lógica de primer orden. Por otro, el enfoque subsimbólico o estadístico busca identificar patrones en grandes volúmenes de datos, desarrollando procesos de aprendizaje automático que permitan a estos sistemas evolucionar y anticipar eventos de forma dinámica.
Esta división ha generado una tensión aparentemente irresoluble: la rigidez estructurada de los símbolos frente a la opacidad adaptativa de las redes neuronales. Los sistemas simbólicos razonan de forma transparente pero difícilmente escalan ante la complejidad del lenguaje natural. Los sistemas subsimbólicos aprenden de la experiencia pero operan como cajas negras imposibles de auditar.
La IA Neurosimbólica ha trascendido este conflicto, resolviendo la paradoja mediante interfaces bidireccionales que fuerzan a la caja negra a rendir cuentas ante la estructura lógica. No se trata simplemente de sumar tecnologías, sino de composicionalidad diferenciable: sistemas donde el aprendizaje profundo se ancla en modelos de mundo inalterables y donde las reglas lógicas se incrustan directamente en los tensores neuronales.
Según el RADAR de Gartner, este núcleo semántico es precisamente el elemento que dota de fiabilidad a los sistemas de IA, permitiéndoles operar con un anclaje en la realidad que los sistemas puramente estadísticos no pueden alcanzar. Actualmente, nos encontramos en la era de la hibridación, donde las organizaciones combinan las fortalezas de ambos paradigmas para construir sistemas que puedan interactuar de manera natural con los humanos a la par que mantienen un compromiso con la verdad y la realidad objetiva.
El desarrollo de una IA verdaderamente inteligente y comprensiva requiere una integración cuidadosa de diversos enfoques en un gran marco híbrido o compuesto que necesariamente ha de disponer de un corazón simbólico. Este corazón es el que asegura que las máquinas puedan disponer de una interpretación contextual y evaluativa de las proposiciones que generan. Uno de los desafíos más apremiantes en la implementación de inteligencia artificial en servicios de alto riesgo es precisamente garantizar que los modelos de lenguaje y sistemas de Machine Learning y Deep Learning operen de manera confiable y conforme a las regulaciones.
Combinar los avances en procesamiento de lenguaje y tecnologías generativas con una comprensión más profunda de la cognición y el significado nos acerca a sistemas capaces de mantener ese compromiso fundamental con la verdad y la realidad objetiva.
Integración predicativa. El puente entre los dos enfoques
El aprendizaje en sistemas de IA puede beneficiarse de la integración de tecnologías de Linked Data, asociadas a los grafos de conocimiento, con enfoques que utilizan técnicas de aprendizaje automático (machine learning) y aprendizaje profundo (deep learning), entre las que destacan, por sus capacidades, las tecnologías generativas GPT (Generative Pre-trained Transformer).
Las primeras pueden agregar hechos a entidades reconocidas como equivalentes, mientras que las segundas, pueden ayudar a integrar nuevos hechos identificados mediante patrones estadísticos. Esta operación, denominada integración predicativa, es la base para poder extender los grafos de conocimiento y consolidar e interpretar ontológicamente el aprendizaje inductivo de manera que resulte posible desarrollar sobre él operaciones que contengan lógica.
La integración predicativa es bidireccional y beneficia tanto a los grafos de conocimiento como a los LLMs. Por un lado, permite utilizar los LLMs para enriquecer los grafos de conocimiento con nuevos hechos y relaciones descubiertos a través del análisis de patrones en grandes volúmenes de texto, o humanizar la relación entre las personas y las máquinas, introduciendo el diálogo mediante lenguaje natural. Pero por otro lado, los grafos de conocimiento proporcionan el contexto y la estructura semántica necesarios para mejorar el desempeño de los LLMs y evitar las alucinaciones.
Combatiendo las alucinaciones en IA Generativa
Una alucinación ocurre cuando un modelo de IA generativa responde con información falsa o engañosa. Por ejemplo, puedes pedir referencias de cuadros del Museo del Prado sobre la influencia flamenca en la pintura religiosa española solo para descubrir que el modelo devuelve una cita sintética, compuesta de fragmentos de información real (el Boletín del Museo del Prado, académicos o un título de artículo aparentemente plausible), pero que, en conjunto, forman un texto falso con afirmaciones que en realidad nunca se dieron.
Para entender mejor las alucinaciones y por qué ocurren, es importante entender cómo funcionan los LLM. Estos modelos están diseñados y entrenados para realizar una única tarea: predecir el siguiente token más probable en función de una secuencia de texto dada. Un token puede ser una palabra, una parte de una palabra o incluso una serie de caracteres.
Precisamente esta capacidad de predecir el siguiente token más probable es lo que permite a los LLM generar texto realista, completar tareas, responder diálogos y redactar contenido que parezca auténtico. Sin embargo, aquí está la paradoja: cuando se trata de responder preguntas, la predicción del siguiente token no exige que los LLM proporcionen respuestas veraces o precisas. Su función se limita a producir texto que, estadísticamente, tenga probabilidades de parecer plausible según sus datos de entrenamiento, sin verificar la correspondencia con la realidad.
Aunque ciertas mejoras en los LLM pueden ayudar a reducir la probabilidad de alucinaciones, algunos aspectos son parte integral de la capacidad generativa de estos modelos. Las mismas características que hacen que los LLM sean útiles para generar texto que parezca fluido y creativo, también aumentan el riesgo de introducir alucinaciones.
Entonces, ¿cómo podemos abordar el uso de los LLM para realizar tareas confiables y útiles y, al mismo tiempo, mitigar la prevalencia de las alucinaciones?
Naturaleza superior de los resultados de IA Neurosimbólica
Como ya hemos señalado, la superioridad de este enfoque híbrido radica en dos aspectos complementarios. Por un lado, existen limitaciones teóricas demostradas en las arquitecturas puramente conexionistas o subsimbólicas, que restringen su capacidad para abordar procesos lógicos y razonamientos formales de manera fiable. Por otro lado, la integración de componentes simbólicos en la arquitectura neurosimbólica aporta ventajas computacionales significativas, ya que permite incorporar estructuras y reglas lógicas que otorgan consistencia y explicabilidad a los resultados de la IA.
Esta fusión de enfoques simbólicos y subsimbólicos, cuyas implicaciones generales ya hemos explorado, se materializa ahora en un conjunto de propiedades específicas que caracterizan la capacidad operativa de estos sistemas para realizar inferencias deterministas y razonamientos verificables.
1. Trazabilidad de los resultados de la IA
El sistema debe ser capaz de identificar de dónde ha extraído una determinada información de manera que el usuario pueda llegar hasta ella y verificar que es efectivamente la que ha utilizado el sistema para producir sus resultados. Esta capacidad de rastreo no es una funcionalidad añadida, sino una consecuencia arquitectónica de operar sobre representaciones simbólicas explícitas.
2. Verificabilidad de los resultados de IA
El sistema ofrece garantías formales de consistencia lógica sobre la base de su fundamento ontológico, manteniendo coherencia lógica verificable entre todas sus inferencias y conclusiones. Mientras que los sistemas subsimbólicos pueden producir resultados contradictorios entre sí sin disponer de mecanismos para detectarlo, un sistema neurosimbólico puede implementar verificación formal de la consistencia de sus resultados, que pueden llegar a sustanciarse en sistemas de prueba automática de teoremas o validación de los procesos de razonamiento correspondientes.
3. Reconocimiento, anotación y extracción indubitable de las entidades nombradas
El sistema garantiza el reconocimiento, anotación y extracción indubitable de las entidades nombradas en los documentos y recursos tratados por el sistema de IA.
4. Clasificación automática segura
Clasificación automática segura de los resultados del reconocimiento, anotación y extracción indubitable de las entidades nombradas. En particular, y dado que las cronologías son un sistema de ordenación o, si se prefiere, un caso particular de clasificación, el sistema debe ser capaz específicamente de realizar cronologías seguras.
5. Razonamiento determinístico, seguro y no supervisado
El razonamiento se fundamenta en lógicas de primer orden o superiores como base de los resultados de IA. Estas características permiten identificar el razonamiento determinístico como un razonamiento fuerte que, entendido desde un punto de vista técnico, puede definirse como aquel basado en fragmentos decidibles de la lógica de primer orden. Esta propiedad nos permite predicar de él los atributos de seguro y determinístico y, como consecuencia, sus resultados pueden llegar a ser, para ciertos procesos, no supervisados.
6. Reproductibilidad por terceras partes de los resultados de la IA
Los resultados de la IA deben ser explicables en este sentido fuerte de poder ser reproducidos por terceras partes.
7. Reversibilidad completa del razonamiento
Esta condición está conectada con la anterior o, si se prefiere, la reproductibilidad es una forma de nombrar la reversibilidad del razonamiento. Se refiere a la capacidad de recorrer bidireccionalmente las cadenas de inferencia, permitiendo tanto razonamiento hacia adelante (deductivo) como hacia atrás (abductivo) sobre las mismas representaciones simbólicas. Esto posibilita la verificación formal de las hipótesis correspondientes y la generación de explicaciones causales completas, como es el caso de los resultados de razonamiento en el Consorcio de Compensación de Seguros.
8. Abstracción jerárquica con herencia monotónica
El sistema debe poder construir y manipular taxonomías conceptuales donde las propiedades se heredan de manera predecible y verificable a través de niveles de abstracción. Esta característica, fundamental en sistemas basados en ontologías formales, permite inferencias garantizadas que los sistemas subsimbólicos no pueden asegurar.
9. Manipulación de cuantificadores universales y existenciales
Los sistemas neurosimbólicos procesan correctamente afirmaciones con alcance variable como "todos los X que tienen propiedad Y también tienen propiedad Z, excepto aquellos que...". Pueden manejar estas estructuras mediante lógica de predicados, mientras que los sistemas subsimbólicos solo aproximan estos patrones estadísticamente sin garantías formales.
10. Composicionalidad sistemática con semántica explícita
Esta característica se refiere a la capacidad de combinar conceptos conocidos para entender situaciones completamente nuevas siguiendo reglas compositivas formales. Por ejemplo, si el sistema comprende "triángulo", "azul" y "girar", debe poder interpretar correctamente "el triángulo azul gira" sin haberlo visto antes en entrenamiento. Los sistemas puramente subsimbólicos fallan sistemáticamente en estas tareas de generalización compositiva.
11. Razonamiento contrafactual determinista
El sistema tiene capacidad de responder preguntas del tipo "qué habría pasado si..." mediante manipulación formal de modelos causales estructurados. Esto requiere representación explícita de relaciones causales en forma simbólica, algo imposible de garantizar en sistemas puramente conexionistas de base estadística.
12. Integración de restricciones duras inviolables
Finalmente, el sistema puede imponer y garantizar el cumplimiento de restricciones absolutas que nunca pueden ser violadas, independientemente de los patrones aprendidos. Por ejemplo, restricciones físicas, legales o lógicas que deben mantenerse incluso si los datos de entrenamiento sugieren lo contrario. Esta capacidad cierra el círculo de propiedades que hacen de la IA neurosimbólica la arquitectura superior para sistemas críticos que requieren garantías formales.