Cargando...
IA Neurosimbólica
Combatiendo las alucinaciones en IA Generativa
Combatiendo las alucinaciones en IA Generativa
Una "alucinación" ocurre cuando un modelo de IA generativa responde con información falsa o engañosa. Por ejemplo, puedes pedir referencias de cuadros del Museo del Prado sobre la influencia flamenca en la pintura religiosa española solo para descubrir que el modelo devuelve una cita sintética, compuesta de fragmentos de información real (el Boletín del Museo del Prado, académicos o un título de artículo aparentemente plausible), pero que, en conjunto, forman un texto falso con afirmaciones que en realidad nunca se dieron. El término "alucinación" (aunque es fuente de cierto debate) se refiere a una tendencia de los LLM a generar este tipo de información falsa.
Para entender mejor las alucinaciones y por qué ocurren, es importante comprender cómo funcionan los LLM. Estos modelos están diseñados y entrenados para realizar una única tarea: predecir el siguiente "token" más probable en función de una secuencia de texto dada. Un token puede ser una palabra, una parte de una palabra o incluso una serie de caracteres. Los LLM son capaces de hacer esto gracias a que están "preentrenados" con secuencias largas de texto y se ajustan aún más para mejorar la relevancia y la calidad de las predicciones.
La capacidad de los LLM para predecir el siguiente token más probable es lo que les permite generar texto realista, completar tareas, responder diálogos y redactar texto que parezca auténtico. Sin embargo, cuando se trata de responder preguntas, la predicción del siguiente token no requiere que los LLM proporcionen respuestas veraces o precisas. El trabajo de un LLM se limita a producir texto que, estadísticamente, tenga probabilidades de parecer plausible en función de sus datos de entrenamiento.
Existen diversas razones por las que pueden producirse alucinaciones, por ejemplo:
- Los modelos se entrenan con una cantidad finita de datos y es posible que la información relevante necesaria no se haya incluido en los datos de entrenamiento del modelo.
- Los elementos de aleatoriedad (o estocasticidad) dentro de la arquitectura de los modelos de aprendizaje por pares pueden hacer que el modelo asigne una probabilidad mayor a ciertas predicciones de palabras siguientes de la que preferiríamos.
Y aunque ciertas mejoras en los LLM pueden ayudar a reducir la probabilidad de alucinaciones en el futuro, algunos aspectos son parte integral de la capacidad generativa de estos modelos. Las mismas características que hacen que los LLM sean útiles para generar texto que parezca fluido y creativo, también aumentan el riesgo de introducir alucinaciones.
Entonces, ¿cómo podemos abordar el uso de los LLM para realizar tareas confiables y útiles y, al mismo tiempo, mitigar la prevalencia de las alucinaciones?
La solución está en GNOSS Semantic AI Platform
Una idea clave reside en comprender el verdadero propósito de los LLM: su extraordinaria capacidad para predecir y generar texto coherente. Con las herramientas adecuadas que anclen estos modelos a representaciones precisas de la realidad, podemos transformar sus capacidades generativas en soluciones robustas para flujos de trabajo complejos y toma de decisiones empresariales.
GNOSS parte de la premisa fundamental de que los datos solo aportan valor real cuando son contextuales y capaces de representar con precisión los conceptos, entidades y procesos de una organización. Este principio ha guiado el desarrollo de una arquitectura de software basada en Grafos de Conocimiento (link) y Ontologías (link), componentes esenciales para el uso efectivo, responsable y auditable de la IA. Esta integración asegura que las respuestas generadas por los LLM siempre:
- Contengan únicamente información estructurada, confiable y verificable.
- Mantengan coherencia lógica y contextual.
- Proporcionen resultados trazables y reproducibles por terceros.
GNOSS Semantic AI Platform transforma los LLM en sistemas de información confiables al anclarlos en una representación semántica de la realidad. Este enfoque permite aprovechar las capacidades generativas de los LLM mientras se mantiene un compromiso con la verdad, resultando en una IA Neurosimbólica capaz de ofrecer soluciones robustas y auditables. Al integrar tecnologías subsimbólicas (LLM) y simbólicas (grafos de conocimiento y ontologías), se asegura que el potencial generativo de los LLM se traduzca en resultados contextuales y confiables, sentando las bases para la toma de decisiones automatizada.
CLAIM: GNOSS Semantic AI Platform transforma los LLM de generadores de texto plausible a sistemas de información confiables mediante el anclaje semántico en grafos de conocimiento (link a GNOSS Sem AIP)