Cargando...
IA Auditable
Compromisos con el futuro
La confusión en torno a la IA y la ética: ¿qué significan realmente estos conceptos?
Para empezar, la ambigüedad en torno a qué constituye la IA nos plantea dudas. También lo qué es ética. Empecemos por lo primero. En términos generales, el término “inteligencia artificial” se ha utilizado para referirse a un conjunto de tecnologías que abarcan desde la computación estadística hasta las redes neuronales artificiales o los grafos de conocimiento. Gran parte de lo que hace diez años describíamos como “big data” o “análisis predictivo” se ha rebautizado como IA. La automatización y la IA también se utilizan a menudo indistintamente, a pesar de que existen importantes distinciones categóricas entre ambos campos. La automatización busca mecanizar las actividades humanas, a veces mediante herramientas de IA; por su parte, la IA busca sintetizar o imitar funciones, actividades de resolución de problemas e incluso la toma de decisiones tradicionalmente asociadas con formas de inteligencia y cognición humanas.
Estas incertidumbres definitorias, en el mejor de los casos, reflejan un conjunto de similitudes entre los tipos de tecnologías que se han agrupado aleatoriamente bajo el nombre de «inteligencia artificial». Esta confusión categórica se ve agravada por el marketing y promotores de diversas profesiones que buscan explotar la euforia general para promover sus propios intereses directos, independientemente de si estos se alinean con resultados reales y defendibles; es decir, de si las tecnologías que promocionan realmente funcionan.
Como conjunto fragmentado de tecnologías, la IA con demasiada frecuencia no cumple con las expectativas promocionales de la industria, la academia o los formuladores de políticas, mientras se hunde cada vez más en una vorágine crítica caracterizada por un panorama cada vez más problemático de preocupaciones sobre la equidad, la responsabilidad y la explicabilidad y auditabilidad algorítmicas.
Lamentablemente, gran parte de lo escrito, promulgado y esperado en el ámbito de los principios éticos de la IA se ha convertido en un ejercicio de cumplimiento rutinario más que una guía práctica para abordar las complejas consideraciones éticas que enfrentan los usuarios reales de sistemas de IA. La "ética como teoría" proporciona las herramientas para reflexionar sobre cuestiones que, si bien teóricamente interesantes, pueden ser prácticamente inútiles.
De hecho, el volumen de enunciados de principios éticos de la IA ha alcanzado tal magnitud que ha generado una verdadera industria artesanal de metaestudios sobre ética de la IA. Algunos comentaristas han señalado la insuficiencia de los principios éticos elevados por sí solos para abordar los verdaderos desafíos éticos de la IA e incluso han señalado una creciente crisis de legitimidad en torno a su proliferación.
Quizás la crítica más contundente al estado de los principios éticos de la IA se vea en la generalización de los diversos marcos. La moral, y en parte ahora la ética también, lo abarca todo y a la vez nada, porque, ¿qué significan estos términos? ¿A caso son lo mismo? Y, por último, ¿es acertado el uso de la palabra ética cuando hablamos dentro de los límites de la IA?
Un poco de filosofía: La ética se encuentra en los márgenes de la moral
Detrás de toda imagen del mundo y detrás de toda moral y de toda ética, en particular, hay una cierta visión de lo que es la naturaleza humana. En la cultura occidental, existen dos grandes tradiciones a la hora de entender la filosofía: una metafísica y otra no metafísica, también conocida como antropológica o narrativa. La tradición metafísica está convencida de la existencia de verdades universales, firmes y seguras, como diría Descartes. Por el contrario, la tradición antropológica sostiene lo opuesto, y es precisamente en esta postura en la que se apoya Joan-Carles Mèlich , en su obra Lógica de la crueldad (2014), donde presenta su visión de la construcción de la moral, una perspectiva con la que nosotros coincidimos.
En la vida humana no existe nada absoluto y, si lo hubiera, nosotros solamente podríamos conocerlo de manera circunstancial. Somos seres en situación, incapaces de eludir los contextos. Como seres finitos, solo podemos conocer en un espacio y en un tiempo determinados. Este es el punto de partida de nuestro pensar (y hacer) en GNOSS, a partir del cual podemos reflexionar sobre la moral, la ética y su vinculación con la IA.
Si se parte de la premisa de que no existen principios absolutos y universales, o de que solo podemos alcanzarlos de forma situacional, entonces la ética desaparece. Surge, entonces, la pregunta: ¿cómo pensar la ética? La cuestión principal que aquí nos interesa, lo verdaderamente importante y lo que debemos tener en cuenta, es que la ética no es lo mismo que la moral. La moral es un discurso de categorías y, en ese sentido, de generalizaciones; la ética, por el contrario, debe entenderse como el imperativo que obliga a la conciencia individual.
¿Qué implica ser moral? Si existe una respuesta a esta cuestión, ya se encuentra enmarcada en un determinado marco moral, lo presupone y lo necesita. La moral es, por tanto, aquello que preexiste a esa clasificación. No es que la moral sea intrínsecamente mala, sino que es cruel. Su crueldad no radica en lo que manda u obliga, sino en el simple hecho de mandar. La moral prescribe derechos y deberes en función de una clasificación. Lo que se encuentra fuera, es considerado inmoral. Toda moral opera bajo una lógica de la crueldad porque opera una lógica de la clasificación y de la ordenación.
Sin embargo, al mismo tiempo, y en la medida en que el ser humano es un ser cultural, la moral resulta ineludible, porque, en definitiva, toda educación transmite un universo moral. El peligro surge cuando nos encontramos en un universo donde la moral absorbe por completo a la ética. En este escenario, donde la moral se presenta como un código cerrado que dicta cómo proceder en las diferentes situaciones de nuestra realidad cotidiana, cabe preguntarse: ¿dónde queda espacio para la ética? Más aún, ¿por qué hablamos de ética cuando, en realidad, nos estamos refiriendo al ámbito de la moral?
La ética emerge en los márgenes del dispositivo cruel de la moral. "La ética no es la moral. Más bien es lo que la pone en cuestión. La ética surge en los límites de la moral, en sus grietas sombrías. La ética es esa zona oscura de la moral". La ética no es otra cosa que el cuidado del otro. El otro es la cuestión capital y fundamental para cualquier relación ética, basada en una responsabilidad infinita e incalculable.
En la moral, la respuesta (moral) es una respuesta ya predeterminada. La moral dicta lo que uno debe hacer antes de que se haya producido esa demanda. La ética, por el contrario, indica qué hacer sin saber de antemano lo que uno debe hacer. La ética no tiene sentido por su normatividad, sino por la compasión
El rumbo perdido de la ética en la IA: ¿Estamos abordando las cuestiones correctas?
La similitud entre la guía sobre "IA confiable" elaborada por el Ministerio de Industria y Tecnología de la Información de China y los marcos publicados por las principales consultoras y centros de estudios de las democracias liberales, a pesar de las profundas diferencias culturales y morales que existen entre estas sociedades, pone de manifiesto un problema fundamental en el enfoque ético de la IA. Cuando una sociedad que emplea la IA para la vigilancia masiva y el control social puede adoptar esencialmente la misma postura ética que las instituciones de las democracias liberales, queda claro que, en el ámbito de la IA, lo que realmente se discute no son cuestiones éticas, sino morales. La ética, en primer lugar, debería centrarse en examinar y cuestionar los propios marcos morales que sustentan estas posturas, los cuales son fundamentalmente opuestos.
No obstante, esto no implica que todas las cuestiones planteadas sobre la IA carezcan de fundamento. Al contrario, reconocemos que los temas que abordan los riesgos de sesgo algorítmico o la explicabilidad a menudo aspiran genuinamente a abordar preocupaciones que no deben minimizarse ni ignorarse; de hecho, son de vital importancia y tienen su lugar en las arquitecturas tecnológicas de GNOSS.
Sin embargo, creemos que es crucial llamar la atención sobre cómo la industria y la academia pueden haber sucumbido a una visión un tanto equivocada, al considerar que las preocupaciones más críticas en el núcleo de la adopción y el uso de la tecnología de IA residen en estas fijaciones éticas concretas. Esto resulta especialmente problemático cuando ni siquiera existe claridad sobre lo que se está discutiendo al hablar de ética en el contexto de la IA. Como hemos señalado, la ética se centra en el cuidado del otro, no en un sistema categórico que define lo que es el bien o lo bueno. Por lo tanto, en lugar de centrarnos en debates abstractos sobre la ética de la IA, deberíamos enfocarnos en buscar soluciones concretas y contextuales, que aborden los desafíos reales que enfrentan las personas y las sociedades.
En GNOSS, hemos decidido redirigir dichos debates hacia lo que consideramos preguntas fundamentales, como: ¿Qué distingue a la IA de otras tecnologías de modo que requiera un tratamiento específico? ¿Existen preocupaciones más fundamentales que deban abordarse para situar la IA como práctica o disciplina, y mucho menos como un ámbito de tratamiento ético formal? ¿De qué sirve una articulación de principios éticos abstractos que no ofrezcan una traducción práctica significativa o directa?
Nuestro enfoque de la IA se basa, en cambio, en un reconocimiento más amplio de que nuestra tecnología no existe en el vacío, sino que está inextricablemente ligada al contexto de su aplicación o sus usos operativos.
¿Está la IA cumpliendo los resultados prometidos?
Los casos en los que la IA no ha alcanzado su objetivo son numerosos y cada vez más frecuentes. De hecho, muchos de los éxitos a menudo anunciados resultan, tras un análisis más detallado, ser drásticamente exagerados o simplemente inventados. Aún estamos en las primeras etapas del entusiasmo por las herramientas de grandes modelos de lenguaje (LLM) como GPT-3, que parecen ofrecer fascinantes capacidades de generación de texto. Sin embargo, han surgido rápidamente algunas preocupaciones y críticas que sugieren que los LLM funcionan más como loros estocásticos, capaces de repetir y combinar frases de manera aparentemente coherente, pero sin una verdadera comprensión del significado y contexto, que como una inteligencia genuina que comprende el mundo sobre el que parecen reflexionar.
Las iniciativas de generación de texto basadas en IA que se alimentan de vastas cantidades de información escrita pueden dar lugar a interacciones estimulantes, pero en sí mismas carecen fundamentalmente de una comprensión de la semántica (el significado y la relevancia en el mundo real) de las palabras que unen. Esta desconexión entre sintaxis y semántica se vuelve aún más problemática en aplicaciones donde las decisiones de vida o muerte dependen de afirmaciones específicas sobre lo que es verdad en el mundo.
No obstante, reconocemos que existen vías sensatas para aplicaciones legítimas y defendibles de los LLM en diversos entornos. Sin embargo, esto debe servir como un recordatorio importante de que, al igual que otras clases de tecnologías de IA, existen límites a su aplicabilidad, los cuales estarán determinados en gran medida por los contextos y entornos específicos de operación previstos.
La necesidad de un enfoque semántico. La única manera de abordar esta encrucijada es que los sistemas de IA comprendan el mundo, sean contextuales.
En este marco, la necesidad de una IA Semántica se hace evidente. Una IA que no solo sea capaz de generar texto coherente, sino que también comprenda el significado profundo de las palabras y conceptos que maneja, así como su relación con el mundo real. Solo mediante la integración de la semántica en los sistemas de IA podremos superar las limitaciones de los modelos actuales y desarrollar una inteligencia artificial genuinamente capaz de entender y razonar sobre el mundo, evitando así los problemas derivados de la desconexión entre sintaxis y semántica.
Para que un sistema de IA sea verdaderamente inteligente, debe contar con un "corazón simbólico" que le permita comprender el mundo en términos humanos. Un sistema puede considerarse un "artefacto cognitivo" o una mente artificial capaz de relacionarse y trabajar con las personas dentro de un marco de sentido común si satisface cuatro condiciones fundamentales. Una de estas condiciones es la capacidad de distinguir de forma indubitable entidades y sus relaciones, es decir, reconocer los hechos del mundo, al menos dentro de su ámbito de conocimiento. El reconocimiento de entidades y la comprensión contextual son capacidades que distinguen fundamentalmente la cognición humana de los enfoques puramente estadísticos.
El contexto proporciona el marco interpretativo que permite comprender adecuadamente el significado de las acciones, palabras o datos. Sin una comprensión contextual, es imposible resolver ambigüedades, comprender intenciones, establecer relevancia, respetar dependencias temporales y manejar información incompleta. El contexto social, cultural o situacional determina la intención comunicativa. Las mismas palabras pueden tener intenciones completamente diferentes dependiendo de quién las dice, a quién, y en qué circunstancias. Lo que es importante o no depende del contexto específico. Por lo tanto, la solución a los problemas actuales de la IA radica en desarrollar sistemas que entiendan el contexto en el que operan, y esto solo puede lograrse mediante enfoques semánticos.
Este principio ha guiado el desarrollo de nuestra arquitectura de software basada en Grafos de Conocimiento y Ontologías, componentes esenciales para el uso efectivo, responsable y auditable de la IA. Los Grafos de Conocimiento permiten modelar la semántica del dominio, dotando a la IA de la capacidad para comprender el contexto en el que opera. Esta integración asegura que las respuestas generadas siempre contengan únicamente información estructurada, confiable y verificable, mantengan coherencia lógica y contextual, y proporcionen resultados trazables y reproducibles por terceros.
Nuestra tecnología se aplica a todos los contextos de su uso. Cada uno de estos contextos implica su propio conjunto de demandas, expectativas funcionales y obligaciones específicas de cada dominio. Este enfoque nos obliga a situar la IA en el lugar que le corresponde: como una herramienta entre otras de diversa sofisticación e inexorablemente integrada en un mundo de acciones y consecuencias tangibles. La IA debe entender el contexto, debe ser contextual y, por lo tanto, semántica. Solo así podrá compartir un sentido común con los humanos
Soluciones reales a problemas reales. Nuestro enfoque de la IA en el marco de la regulación europea
Los resultados que genera nuestro enfoque de IA son reales, trascendentales e impactan nuestras vidas. No son meras reflexiones académicas, sino fruto de años de trabajo en el campo con nuestros clientes, esforzándonos por comprender las complejidades de sus ámbitos de aplicación, abordando las cuestiones legales, políticas y verdaderamente éticas que rodean sus entornos y trabajando para implementar soluciones de sistemas de IA que aborden dichas complejidades de manera específica y contextual.
Como sociedad, nos encontramos en una encrucijada: la IA puede potenciar inmensamente nuestras capacidades colectivas o socavar los fundamentos de nuestras instituciones democráticas. La diferencia entre ambos escenarios no dependerá de la tecnología en sí, sino de nuestra capacidad para gobernarla eficazmente. En este sentido, no basta con hablar de abstracciones teóricas, sino de encontrar ese punto de equilibrio donde la innovación tecnológica, la reflexión ética y la regulación avanzan simultáneamente. Es precisamente en este punto donde ocurre el verdadero progreso.
Una "regulación inteligente" establece límites claros, pero deja espacio para la experimentación responsable, facilitando el avance tecnológico mientras protege los derechos y valores humanos fundamentales. En este contexto, la reciente Ley Europea de IA establece el marco regulatorio para el uso de la inteligencia artificial en la Unión Europea. Esta legislación clasifica los sistemas de IA en categorías según su potencial impacto, centrando sus esfuerzos principalmente en regular los sistemas de alto riesgo. Estos sistemas deben mantener registros claros y documentados sobre su funcionamiento y garantizar que sus decisiones sean confiables. La solución del sistema europeo radica en su énfasis en la "explicabilidad" de los modelos de IA. Para que un sistema de IA cumpla con los requisitos que la ley establece, debe ser confiable, trazable y, en última instancia, auditable, asegurando así la salvaguarda de los derechos fundamentales de todas las personas que los utilicen.
Nuestro enfoque en GNOSS se alinea perfectamente con esta visión. Al basar nuestros sistemas de IA en Grafos de Conocimiento y Ontologías, garantizamos que sean explicables, trazables y auditables. Esto nos permite abordar los desafíos reales que enfrentan nuestros clientes, no solo desde una perspectiva tecnológica, sino también considerando las implicaciones éticas, legales y sociales de la IA en cada contexto específico. Solo mediante este enfoque integral y contextualizado podremos aprovechar todo el potencial de la IA mientras mitigamos sus riesgos y aseguramos que su desarrollo y aplicación estén alineados con nuestros valores y principios fundamentales como sociedad.