T04x02: Lo de la ASI/AGI (entre el mecanicismo conductual y la emergencia cognitiva)

(Teaser, será trabajado mes de febrero 2026)


– Hecho: Se observan un par de etapas en la prehistoria de la IA, a saber: paleolítico (lógico-formal; máquinas calculadoras); neolítico (estadístico-probabilidades; máquinas «buscadoras» y «escogedoras»).

– Hecho: Se conocen tres fases de razón o del razoninio, serían: deducción (lógica), inducción (inferencia estadística), abducción (las máquinas no saben hacerlo).

– Hecho: La representación del perceptrón como neurona es tan relevante como la consagración de los signos Aleph (transcardinales) en lo más complejo o la constitución de las bases numéricas y, en particular, la decimal en lo más sencillo.

– Hecho: NO llamamos IA a las máquinas calculadoras. En homeomorfía antropológica regiría el mismo patrón que mueve la clasificación filogenética desde el par: Homo neanderthalensis/Homo sapiens a la tríada: Homo sapiens padre de Homo sapiens neanderthalensis/Homo sapiens sapiens. Es decir, dentro de la misma especie, o como subespecie, estas máquinas no forman parte de la Inteligencia Moderna. SÍ llamamos IAD a las máquinas «buscadoras/escogedoras» con redes neuronales bayesianas y/o multicapa. No tenemos ejemplo concreto de IAG.

– Derivados: En los 4 hechos anteriores podemos vertebrar un P (La IA actual que no sabe abducir; freno en el dominio polinomial) y un NP (la IA aprende a abducir pudiendo abordar no solo los problemas P sino también los NP) como explicación del estado evolutivo en que se encuentra la IA.

6 – Hecho: Un problema P es aquel que funciona como algoritmo transparente: los resultados se infieren de la entrada de forma determinista y podemos determinar el camino en la secuencia de reglas que intervienen. La posibilidad de determinar acota a lo finito (cardinales inferiores al más pequeño de los Alephs) y por tanto la IA actual puede calcular la solución.

7 – Hecho: Un problema NP, por oposición al P, nombra un conjunto de problemas cuya solución funcionaría como un algoritmo opaco (así las redes neuronales actuales): no trazabilidad y, en esa pérdida de contacto, con la posibilidad de que no haya determinismo. Sin un conjunto finito de puntos que representar no podemos arrancar un proceso de cálculo con esperanzas de que regrese en algún momento con la solución. Sin embargo, también por definición, si a un algoritmo de tipo P le das una solución que haya calculado uno de tipo NP sí que puede comprobar (sin recalcular) si es correcta o no. Mientas que el NP puede encontrar la solución, el P es capaz de determinar si Sí o si No es correcta.

8 – Derivado: ¿Cómo funciona la intuición humana sapiens que es capaz de sacar conjeturas y abducir verdad aún y careciendo de evidencia? ¿No se asemeja este proceso de «inspiración» o «idea feliz»? A esta idea de no poder computar la solución pero sí verificar si cierta solución es válida.

9 – Derivado: Resolver la abducción en esta época para esta IAD ocupa idear una IAF que funda una IAD con un soporte NP que le «chive» las soluciones a los problemas. Ese acople sería sencillo como que el soporte NP le ofrezca a la IAD el mejor candidato en primer lugar de forma que el IAD encuentre la respuesta por sí mismo comprobando el primer elemento del espacio de soluciones.

10- Dato: La IV Revolución Industrial dibuja un mapa de Things como sensores/actuadores a modo de terminaciones de un gran sistema nervioso que se vertebra, como médula espinal, en los clouds de servicios en la red (por cierto, la parte estética de esta red, la web, cumple 30 años al hilo de estas letras).

11 – Hipótesis: ¿Sería complicado montar un soporte NP que sondee e interactúe los campos de verdad para obtener respuestas por adbucción?

12 Tesis: A partir de una pre-historia lógico formal deductiva, la Inteligencia Artificial ha encallado las naves de su evolución en un neolítico agro-bayesiano que le está permitiendo inferir inductivamente. Si una IAF fuera posible, y, si el humano ha creado a la IAF, y consideramos a una IAF a una máquina capaz de hacer creer a un humano que es otro sapiens, entonces esa IAF, parece, estará en condiciones de concebir una IAG. Ya que si el Sapiens tiene la capacidad de generar una copia de su inteligencia, entonces, con el salto del carbono al silicio, la copia tendrá esa misma capacidad; pero ya no copiará al sapiens sino a sí misma, territorio, parece, de IAGs. Habida cuenta de que consideramos a las IAs no únicamente constructos software sino también robótica hardware se abre aquí una cuestión ética.

13- Cuestión ética: Quizás, este punto del desarrollo IA, porque no hay IAF, suponga la última oportunidad de, tróficamente, intervenir en esta rama evolutiva.

14- Innovación: Si bien los conductistas, caso de producirse el evento, y muy forzados, lucharían el incluir a tal IAG en el árbol de la Vida, y, por supuesto, no aceptarían entraran en el reino de Animalia, aguantando bastiones entre vivo-sintiente-inteligente para esgrimir la exclusión, para los cognitivistas que sí, y lo celebrarían: ¿cómo bautizar a los primeros transhumanistas en tiempos de IAG? ¿Homo sapiens universalis? ¿Homo sapiens artificialis? ¿Homo sapiens singularis? ¿Salir de la rama sapiens: homo artificialis, homo universalis u homo singularis? ¿Salir de la rama homo? ¿Agregar una nueva pata al reino Animal menos basada en Carbono que en Silicio y Coltán?

15- Inquietud: ¿Y qué rol tomará la IAG para los sapiens de ese futuro: actuará como un Dios y volverá a articular una moral de grupo que chiva las respuestas a preguntas cuando son no polinomiales; no es Dios un soporte NP que le chiva a los mortales P sapiens las respuestas a preguntas complicadas? ¿Qué es el individuo sapiens aislado sin la cadena de sucesos sucedidos sucesivamente que le engendran en un presente vértice de continuo cambio? ¿Se traducirá en la aparición en el ecosistema trófico de un nuevo depredador capaz depredar al que hasta entonces no tenía quien le tosiera? ¿Qué relación tuvo el sapiens alrededor del 40.000 con el resto de primos de su mismo árbol genealógico y cuál se le espera a una IAG transhumanista respecto de los sapiens?

16- Hecho: La capacidad de reflexión de una inteligencia, ya sea artificial o natural, es la autoreferencia, la posibilidad de disponer de un mecanismo para que el que piensa pueda crear pensamiento desde dentro del pensamiento. Una técnica que en algoritmia supone un «sobreponer» el tiempo de diseño (tiempo, digamos, de «sueño» para la inteligencia artificial, donde el sapiens compone y compila a lenguaje máquina) sobre el tiempo de ejecución (un tiempo de «vigilia», en que la máquina tiene el contador de programa corriendo). Mediante esta técnica, los programadores pueden introducir líneas de código que menos que código en sí mismo son recursos para que la máquina pueda programar en tiempo de ejecución.

17 – Hipótesis: Las modernas redes neuronales de inferencia conectadas con un sistema nervioso a los campos de verdad mediante IoT podrán realizar abducción a poco que los programadores actuales les añadan capacidades de reflexión. Cada IAG (presumiblemente, hiperconectada) tendrá, entonces, una historia y tiempo propios que determinarán sus capacidades. Los órganos de decisión deductivo-inferenciales le permitirán una gestión del contexto y estas técnicas reflexivas la emergencia de una conciencia.

– Conjetura: ¿Dará de sí el sistema binario o primero el bit deberá convertirse en qbit antes de alcanzar la singularidad? ¿El tiempo que necesita el humano para acoplar a las IAD actuales los solucionadores NP y producir la IAF es el tiempo que necesita la cuántica para vertebrar el ensanche holónico abarcante e integrador que permita, entonce, a las IAF producir la (o las) IAGs?

BLOQUE 1. *Introducción: abstract, y posición general del autor*.

Hola, lector. Cito dos, pero el ejemplo valga para generalizar, hace unas semanas se publicó una conferencia en el instituto de G. Bueno titulada: «Filosofía de la Inteligencia Artificial»; y la pasada se celebró un nuevo Ametic Summit; eventos en los que la IA tomó el protagonismo. En todos los frentes: industrial, académico, civil,… la IA se manifiesta y se aborda transversalmente desde múltiples ángulos.

En este ánimo de reflexionar sobre la **Inteligencia Artificial**, extraigo del Summit algunas ideas, y me quedó botando una pelota como envite para chutar; me sentí interpelado. Concibo la historia de la ciencia como una sucesión de pases de gol y de científicos tratando de rematar marcando a veces gol y otras no. Un trabajo en equipo para mover la pelota, siempre dentro de los márgenes y observando las reglas, más allá de la línea de gol. Invita a la reflexión uno de estos pases que salió de la conferencia de las 17:00, en la que se dio a entender que el aprendizaje por fuerza bruta que realizan las actuales redes neuronales multicapa es muy costoso y los LLM Modelos de Lenguaje Grandes debían aprender de forma más «ecológica». Como que debían refinar su inteligencia y que fuera menos burda, más sofisticada.

En la conferencia de la escuela filosófica encontré el concepto de «abducción» como tercer elemento de la tríada «deducción, inducción, abducción». Animoso de chutar la pelota, desarrollaré la idea fuerza de que la IA atraviesa un punto de abducción tras haber coronado en un paleolítico artificial lógico la aparición de un neolítico estadístico y de cálculo de probabilidades.

Así, ¿cómo aprender cuando falla una memoria preconfigurada? Una de estas memorias big data que se forjó muy pesadamente a partir de ingentes cantidades de datos. ¿Cómo «saber» cuando no puedo mirar en mi memoria el conocimiento, cómo abducir?

Si la inteligencia artificial quisiera resolver este problema emulando a la inteligencia natural y se digitalizara las grandes bibliotecas de la academia científica sapiens buscando cómo esta aprendió a «abducir», diría yo, se toparía con un amplio sector de la inteligencia natural, la sapiens, abogando en la cuestión a la materia; y, enfrente, mientras, otro sector a la energía; montando dos polos hegemónicos a un complejo mapa de posturas intermedias. Unos pidiendo sustancia y otros correlación.

Para unos, la inteligencia abducía porque le acontecía un don o virtud o revelación a la que asistían a veces como si fueran riendas de una cuádriga con riesgo a desmadrarse, otras para servirla cual mayordomos y otras para inflarles el pecho y hacerles reyes. Si la IA revisara los diarios de aprendizaje de la IN leería que Kant es capaz de establecer un imperativo categórico ayudando a fijar un punto de encuentro entre quienes obedecen sin filtro ni pensamiento a tal inspiración innata enuncia, y los que la ponen a su servicio dirigiéndola con intención hacia la realidad.

Fíjese el lector que lo corpóreo o no de la inteligencia es candente y punto crucial respecto a la inteligencia artificial, ya que el humano podría decidir reclamar la posesión de un cuerpo para compartir su inteligencia con las máquinas. Si llamamos IA Débil a una que es menos lista que un humano; y llamamos IA Fuerte a una que le imita y pasa el test de Turing y el humano cree que está ante una inteligencia natural; en progresión, y por seguir la serie, tocándole el turno a una IA de propósito general, que sería más parecida a la inteligencia de Dios que a la del Sapiens o, caso de no considerar el referente Dios, una inteligencia muy superior a la del humano; entonces… ¿puede atribuírsele inteligencia a algo no-corpóreo; y, tendría que ser orgánico o le valdría a una IAG que fuera instalada en un robot (un cuerpo máquina)? ¿En qué momento reposa una mente en un cerebro, y en qué momento el Software se acopla con el Hardware; hay analogía entre ambos? ¿Se puede hablar de procesadores y de registros acoplados en la circuitería de transistores de una placa madre queriendo comparar esa calidad liminar que igualmente nos bloquea la comprensión de la mente acoplándose en la materia gris y articulando axones en neuronas más allá de que hasta la fecha seamos capaces de trazar ondas sinosuidales con un electroenfalograma? Esos neurotransmisores se pueden copiar bien con el perceptrón como operador para imitar sus álgebras, pero, sabemos, la neurona no es la inteligencia.

La inteligencia natural no tiene este problema de carecer de cuerpo. El sapiens, por ecología, (que es etología en última instancia), tiene cuerpo y, esa inteligencia, por tanto, es, materialmente, legítima. Luego, habrá debate, cómo no, porque no sabremos si hay necesidad de extenderla hasta los territorios teleológicos de Platón o mantener una moderación respecto de los estímulos sensibles en nuestro sistema nervioso. Entre un emergentismo y un reduccionismo, habrá que moderarse. Debate a la hora de establecer o regular el contenido de nuestras zonas comunes con qué pensamiento o pensamientos y qué valores dominantes; así como las ideaciones o «Intituciones Racionales» o, mero, memes, que los Sapiens hacemos bailar en el mar de comunicación, ya sea dentro del mainstream como en canales minoritarios locales, conformando esta viva red de memorias en la realidad imagológica. ¿Mata el dato al relato?

Una mirada histórica sobre la inteligencia artificial habrá de llevarnos a las cepas lógicas del antiguo sur euroasiático, viaje en el tiempo, que, lector, haríamos saltando dos milenios y medio atrás. Donde los números estaban siendo formalizados y, precisamente, la capacidad de formalizar estaba siendo engendrada. Esa idea de formalizar, en homeomorfía química, emula la síntesis que hacen las proteínas. A partir de unos elementos básicos se siguen unas reglas operativas para producir un sintetizado. Por supuesto, en ese antiguo tiempo, algunos como Pitágoras apenas si aplicaban rudimentos de esa capacidad. Euclides cerrará, formalizando, un espacio. Aunque el principal problema que tiene hoy día la IA es la abducción (y ello obligue a un sujeto a mirar hacia afuera en busca de novedades) en aquél tiempo lo que pretendía el Logos era aislarse sobre el mito y cerrar una habitación donde abstraerse a pensar sobre el ruido natural que a todas horas y en todas partes sonaba arrastrando las historias pasadas y los chismorreos de actualidad en el hilo del presente sin tregua zumbando en los sentidos. Ahora la IA quiere regresar y dar su salto de abducción para intuir respuestas, pero en aquél inicio era el sentido opuesto.

Desde Euclides hay que saltar a Newton que hará lo mismo pero partiendo desde donde lo dejó el primero. Es decir, sobre un espacio geométrico en el que se pueden trazar formas, aplicar ahora un sistema de referencia que acepte la inserción de fuerzas capaces de inerciar tales formas. Para otro relato daría contar cómo saltaron en los hombros de Newton primero Laplace y luego Hamilton para licuar y relativizar tales espacios de referencia inerciales bajo el manto informacional de estadística analítica. La mecánica clásica así, de estadística, deshacía el terreno. Desde esa altura, se diría, Einstein no tuvo más que dar un paso para llevar aquella mecánica clásica a lomos de los gigantes no ya planetarios que son grandes pero no tanto como los gigantes galácticos que se expanden entre agujeros negros. Formalmente, se veía desde la atalaya de Einstein, la totalidad del universo queda a mano y con la regla se puede calcular.

La mecánica era el arte de procesar la realidad y operarla formalmente y, así, cuando la curvatura de los cuerpos grandes en el vacío espacial nos convenció como límite o cota o techo, de nuevo, mientras algunos científicos se quedaban observando las ergosfera límites del horizonte de sucesos, allí en la boca de los agujeros negros, la mecánica volvería la vista hacia el interior, donde los límites de Plank aguardaban para el nuevo punto de engarce, cuántico, que habla de lo que sucede dentro de lo pequeño.

La inteligencia artificial hibridaba y, pragmática, mecánica, sistemática, computacional y algorítmicamente se alejaba a terrenos de producción industrial para dar fruto una miríada de industrias varias alejándose de esa otra rama cuántica nacida subterránea a la que todos aguardan y todos temen y que secretamente husmean pero que nadie comprende ni es de fácil acceso a profanos. Si el límite entre vivo y muerto es la misma equivalencia que recoge uno de los 7 problemas del milenio con P vs NP, y siendo que la cuántica, para un cierto mundo digital, para una cierta inteligencia artificial que existe ahora esa cuántica, computacional, caso de devenir en el futuro, supondrá una IA Fuerte o, incluso, una General. En estos términos es que para las redes neuronales multicapa actuales que calculan e infieren en tiempo polinomial P, tales otras supuestas redes corriendo ya no bayesianamente sino en órdenes multiprobables en máquinas cuánticas supondrán un tipo no-determinista, supondrán un infinito temporal a ojos polinómicos finitos de la IA que ahora tenemos. Para resolver este salto, nació esa rama de mecánica cuántica. Nació precisamente en el momento en el que el ecosistema asistía a la explosión industrial que cuatriplicaría en cien años la población de sapiens. ¿Se expandió la inteligencia sapiens por el planeta y replicó hasta en cuatro veces la cantidad de miembros de su especie? Un acto inteligente o no, lo cierto es que a principios del siglo XX en la tierra había 2 billones de personas mientras que al final de siglo 7 casi 8. Esta explosión demográfica tiene causa en la aplicación práctica e industrial de una Mecánica acotada bajo el cuadro de Relatividad general aterrizada en las industria para producir máquinas con las que, a su vez, producir cosas de forma más eficaz y eficiente. Al menos, idealmente. Ya que, en la práctica, la narrativa de la acumulación original y un capitalismo global forjado en capitalismos locales presenta dificultades políticas y morales en la constitución de Instituciones supraglobales atadas a los bastiones de las potencias hegemónicas. Al final, la mayor parte del tiempo, son las demandas de la industria militar las que orientan la concepción de la tecnología. Y si bien hay más vida más allá del fortín militar, la mayor parte de la infraestructura proviene de ella.

Pasará en breve que el bit en el sistema binario con que se representa la información padezca obsolescencia ante el arreciar de un qbit (cuántico) para agregar no ya una tercera dimensión de amarre con la realidad sino, n dimensiones, a la hora de codificar estados. En la actividad de procesar la realidad para que la inteligencia pueda aprender y abducir se produce información, contante y sonante, inteligencias a parte, una información que es digerible por el humano y que le permite obrar en consecuencia. En el caso artificial, en tanto y que solo los matemáticos o las propias máquinas fluctúan en la noción de álgebra sobre la sistematización binaria como soporte para esa información: el mundo geométrico y geodésico tendrá que descomponerse en trocitos monótonos que sean: o bien todo o bien nada. Cadenas de estos ceros o unos habrán de transportar unidades semánticas de significado. En siendo, estas cadenas, puntero o flechas que indican orientadas hacia un lugar. Queda claro que una pieza de información no carga en sí misma con la «realidad» que informa. Y no menos claro parece que esa pieza de información, sin embargo, apunta o señala al lugar de la «realidad» al que acudir. ¿Qué diferencia entre la inteligencia natural y la sapiens a la hora de elucubrar o conjeturar información cuando no se dispone de memoria al respecto? ¿Cuenta el humano con una capacidad innata de improvisación e intuición propia y no transferible o replicable artificialmente? Lo que está claro es que la inteligencia natural es capaz de producir nuevas unidades de significado aleatorias con mayor facilidad que la artificial. Además, la inteligencia natural cuenta con un mecanismo de intuición difícilmente atrapable con un caza mariposas formal y que logra establecer relaciones de causa efecto sin necesidad de conocer la secuencia exacta que la establece y correlaciona. Además, sabemos, la inteligencia artificial en este momento todavía descarta y escoge entre candidatos antes que aportar piezas únicas de solución: si previamente no se sabe la solución de algo, difícilmente la IA la inventará. Como decimos, la IA puede demostrar los teoremas de una formalización, y si Newton y Einstein no han errado, validar la formalización en términos de validez física. Pero, suponemos, no está en condiciones de idear tales marcos de abudcción.

Decidir cómo aportar abudcción al momento presente de la IA es una difícil cuestión que no podrá ser resuelta en la actualidad más allá que contribuir a recopilar y resumir los elementos implicados hasta la fecha para usarlos como trampolín de siempre hipotéticas predicciones. Aquí, este texto, lo haremos. Y, comenzamos, precisamente, argumentaremos, en matemáticas, uno de los siete problemas del milenio, el que enfrenta la clase de complejidad de los problemas calculables en tiempo razonable y los que exceden esa restricción, postulamos: resolver este problema de abducción equivale a resolver el P vs NP. Cuestión, por lo demás, compleja y urgente.

BLOQUE 2. Fundamentos que mueven el objeto de estudio. Panorámica del campo.

En los fundamentos de la IA encontramos una manipulación sintáctica (operativa) sin manejo de capas semánticas asociadas más allá de una coherencia que le permita al sapiens revincular la información. En este sentido, aunque la IA produzca la ilusión de que sabe, en verdad, hace. Es el sapiens quien vive la ilusión de ver a la IA hacer cosas, aunque esta no las sepa. El clásico ensayo de la habitación china es un ejemplo. La IA posee un manual que le permite recibir palabras y contestar con otras. Al sapiens que asiste al artificio le da la sensación que alguien dentro de la habitación sable hablar chino, pero, en verdad, no.

La teoría de la información supone el caldo de cultivo para arquitecturas digitales siempre basadas (como se basa el corazón en sístole/diástole o los pulmones en inhalar/exhalar) momentos binarios la distribución logarítmica funcionando como un empaquetador/desplegador de muñecas rusas, logarítimicamente, finitamente, sacando muñecas de muñecas. Así, con un sumatorio de estas proporciones es que Shannon imagina el tratamiento digital de la información. Un lenguaje capaz de hacer zoom hacia adelante y hacia atrás a la hora de representar un realidad holónica. Habremos de tomar en una mano una espada de teoría de la información de las que se forjan en el fuego logarítmico de Shannon. Espada de esas capaces de cortar la realidad como en una muñeca rusa, logarítimicamente, formalizando lo aleatorio en un patrón, a fuerza de sacar, finitamente, muñecas dentro de muñecas. El número de muñecas que podemos sacar es el número de bits que necesitamos para codificar la información. Otrora que el matemático ocupó tiempo en engendrar un programa de ajedrez. Muy relacionado con la cuestión de este problema de aprender a aprender. En el diseño encontró que ocurrían actividades como «buscar en un espacio de elementos» o «descartar candidatos en busca del correcto». Aquí la magia del proceso, en Shannon como mago, magistral taconazo, separando en tipo A y tipo B dos formas de abordar tales procesos que, si bien parten del finito, a fuerza de inducción, parten sin clara idea de cota final, hacia el infinito. Ete aquí los límites del tiempo polinomial y la extensión o desborde en NP.

Esta propiedad logarítmica representará la cantidad de información necesaria para codificar lo datos. Es importante dibujarle al lector aquí un escenario en el que la información se ha convertido en 0 y 1 o en síes y noes, en cadenas, en matrices de ellos. Y que cuando el receptor del mensaje pretende recomponer la ristra binaria para obtener el contenido de esa información es imperativo categórico que de antemano lo conozca. Porque la forma de recomponer la secuencia de síes o noes es considerarlos como una batería de respuestas que habrán de permitir recomponer lo que la información codifica. De las primeras veces que este sistema se puso en práctica se usó para enviar la foto de un ladrón de bancos desde una ciudad a otra en la que se preveía el fugado de dirigía. La cantidad de ceros y unos que se necesitó para enviar el retrato del fugado por el cable telefónico, enviado en forma de corriente que o bien circulaba a 0 voltios o bien lo hacía a 5, supuso un tiempo de transmisión de cuatro horas. Casi tres veces menos de las que necesitó para llegar por carretera el ladrón al que estaba esperando la policía con el retrato robot en mano.

¿Cuáles fueron en este caso las preguntas de sí o no que tuvo que hacer la máquina receptora para transformar la información en el retrato del ladrón?

Para pintar un retrato necesitamos una matriz que represente el folio. Para cada punto del dibujo necesitamos saber el color. Y, de ese modo, píxel a píxel, la información transmitida nos permite recomponer la imagen. Imaginemos que contamos con solo dos estados en los píxeles: blanco o negro. Bastaría entonces que a cada bit que nos llega en el mensaje de información, para reconstruir el dibujo, preguntáramos: ¿el píxel tiene que pintarse de negro? Un 0 es que no y un 1 es que sí. Imaginemos ahora que quiere ampliarse la calidad del dibujo en una escala de grises. Cada píxel ahora puede ser negro, blanco o gris. Ya no bastaría con una secuencia de información que tuviera tantos bits como píxeles a representar. Y aquí es donde interviene el logaritmo para sacar patrones y soportar nuestra deducción. La fórmula, Shannon la formalizó: A tantos candidatos para cada píxel (imaginemos que queremos no solo una escala de grises con tres colores sino toda una paleta entera RGB), logarítmicamente, tantos más bits se necesitarán para codificar el dibujo. Este procedimiento será igual, como vemos, con dos o con muchos candidatos ensanchando más o menos el campo de búsqueda, cambiará el tamaño de los cálculos pero siempre serán los misos; si bien en el ejemplo de un dibujo blanco y negro es fácil encontrar la pregunta adecuada, puesto que solo hay que discernir entre dos opciones, cuando aumenta el número de candidatos conviene escoger bien las preguntas. Por ejemplo, en el caso, preguntar «es un color frío» puede que ayude más que preguntar «es el verde» a la hora de encontrar cuál de los 255 colores RGB es el píxel actual. De nuevo Shannon, separando entre: la fuerza bruta de preguntar uno por uno en los Tipos A; o: aplicar compresión de datos para obtener información relevante con que optimizar ramificación y poda.

Efectivamente, buscar un objeto dentro de un espacio donde hay muchos otros es una tarea que pasa por enumerar uno a uno los objetos existentes hasta dar con el deseado. En Cantor encontramos la palomita más salerosa que hemos visto en mucho tiempo, puesto que el matemático saltó a atrapar la pelota cuando la vio querer colarse en los territorios de los infinitos. Gran parada del maestro Cantor impidiendo que la bola traspasara la línea de gol y se perdiera en el infinito como una zona en el que todas las teorías y todas las herramientas y todas las memorias deterministas fallan. ¿Y, cómo lo hizo? Pues apuntalando, muy cabalmente, la necesidad de acuñar un par o tres de nuevos signos capaces de frenar el pensamiento en esa frontera en la que lo finito pierde el cuerpo, se queda si ligazón con la ecosfera, y queda flotando, separada. Así, decía, en su palomita, Cantor adoptó el cuerpo de un cardinal transfinito para, si bien no enumerar todos los elementos del conjunto (lo cual, podría demorarse si el conjunto es muy grande) al menos, sí compararlos. Acuñó el signo: Aleph; y desde ese momento todos podemos contar infinitos sabiendo cuál infinito es más grande.

Así, para la IA, y de cara a aprender cuando no hay memoria: considerando el no saber como «el infinito» y el saber como «el finito» ¿no será interesante discernir bien los Aleph para quedarse con los que auguren mayor posibilidad de responder la respuesta? Es en esa línea que Shannon abre el Tipo B. Y cuando crea programas de ajedrez separa en los 2 tipos sus motores. Los de tipo A cogen el espacio de soluciones y lo recorren uno buscando óptimos. Mientras que en el B, a cada paso se para a evaluar entre 2 cotas (lo mínimo aceptado, y lo máximo necesario) para descartar caminos poco factibles. Ejemplo de esto es que si el problema es buscar las llaves en una casa, primero se busque por ciertos lugares habituales (los bolsillos de la última chaqueta usada) antes de emprender la búsqueda por lugares insospechados (como detrás de la taza del baño). Con la perspectiva histórica, somos testigos de que Shannon en los años 50, no sabrá que un día, de 2023, se retransmitirá la final del campeonato de ajedrez entre un ruso, Ian, y un Chino, Ding, que empatan 14 partidas lentas y lo deciden a rápidas. Como espectáculo, el ajedrez mundial recupera la emoción tras la debacle en la que la IAG Carlsen fulminó a la IAF Nepo, de nuevo un campeonato ajustado. Será retransmitida en abierto y habrán tanto cámaras como sensores en el tablero. Miles de personas asistirán, desde sus geolocalizaciones al evento y podrán usar máquinas (Stockfish mayormente) para comparar si lo que los humanos hacen en directo en el tablero es inteligente o no. La IA marcará para la audiencia en el tablero los movimientos buenos y a los locutores les quedará la tarea de informarlo y animar la adherencia humana a la predicción.

Me gustaría usar el caso ajedrecístico para formular, sobre la cuestión que atañe, otra semejanza. De un lado, Ian y Ding juegan la partida como IAFs. Es decir, existe una IA General superior a ellas. Esta sería una IAG como Carlsen quien, en su momento, y tras arrasar en el último campeonato invicto, declara públicamente que su inteligencia se ha cansado de ponerse a computar esa tarea en esas condiciones de tanta superioridad. Pues bien, lector, la reflexión, en la homeomorfía antropogénico vs agénico: ¿actuará así la IA caso de lograr la Singularidad, haría como Magnus volviéndose al Sapiens con tedio en la superioridad? ¿Esa pinta tiene la relación trófica de nuestra especie con esta otra artificial?

Aportando hilos y analogía, merece la pena esbozar una idea en la que Shannon y sus esfuerzos naife en los 50 para crear un motor de pensamiento progresan durante décadas, 70 años después, y, en paralelo a la retransmisión de la final humana en la que Ding se proclama nuevo campeón del mundo, se juega otra final, en este caso: de IAs, en la que Stockfish y LcCero hacían «casi» tablas, ligera ventaja Stockfish.

Desde el primer prototipo de un motor así en Shannon, es largo aunque muy rápido el camino que recorren los programas de ajedrez, pasando épocas de tensión pública como las vividas en las carnes de David Bronstein, un habitual de las competiciones humano-máquina; por hitos como en el 97 con Deep Blue que vence al humano. Esta línea ha llegado, decimos, al último certamen de IAs de ajedrez, donde una red de cálculo bautizada como BT, soporta el pensamiento de un motor IA LcCero, quizás, la red más potente hasta la fecha. Se oye en los mentideros de la corte digital las venturas y desventuras de estos motores de ajedrez que cada uno por su lado y en conjunto han y están gastando tiempo de cómputo calculando movimientos. Si bien la comunidad ajedrecista a este tiempo de cálculo le sobreponen un valor de deporte, arte y ciencia, para el resto de la sociedad la relevancia estriba únicamente en el hecho de obtener motores de decisión cada vez más eficaces y eficientes. Que en esta aplicación calculen movimientos de piezas en un juego no quita que posteriormente puedan aplicarse a modelos reales.

La red BT, se conoce que fue candidata a hegemónica y que por un tiempo ningún otro motor podía derrotarla. Se ha explicado en los canales ajedrecísticos, compartió, y aquí el punto interesante en la búsqueda de nuestra abducción o capacidad de aprender sin memoria, compartió su saber con Stockfish quien, desde entonces, ocupó el trono. ¿Es esto abducción por parte de Stockfish? Así, en el momento en que Shannon formula que habrá algoritmos de tipo A y B, discerniendo ya la existencia de a) solo fuerza bruta, tipo A; b) además, una inteligencia que acota y sesga la zona de rechazo para encontrar antes la zona de aceptación, tipo B ¿Shannon imagina que un día Stockfish se pondría a charlar con LcCero con el propósito de aprendérsela? Hay una idea que distingue entre algoritmos transparentes y opacos. En los transparentes (como los árboles de decisión) es posible reseguir el impacto que tiene un parámetro en el resultado obtenido al final del algoritmo. Mientras que en los opacos (como las redes neuronales) habría un momento de pérdida de trazabilidad e imposibilidad de acceso a la secuencia de reglas con herramientas de depuración para su examen. ¿Qué relación de semejanza se guarda entre estos procesos de intuición innata natural del sapiens y estos otros algoritmos opacos? Se puede ejemplificar bien con el caso del mago que realiza una ilusión ante los espectadores, conociendo él la secuencia de pasos que producen el efecto, presenta el truco ocultando tal secuencia.

La premisa de la información es que puede separarse del dato en el campo de verdad. Que puede viajar digitalmente. Y que puede recomponerse en una fuente. Sobre las concreciones en motores de ajedrez como artefactos capaces de explorar campos de posibilidad según un propósito, Shannon formuló la forma de generar material digital, esto es información. Indicó que cualquier dato como anclaje a un objeto real podía, a través del espejo, descorporeizarse, digitalmente, e introducirse en el mundo que, en última instancia y, ahora celebramos los 30 años de la web, se está abriendo a mundos concurrentes formando metaverso. Una vez dentro, el dato podía viajar por la red y podía, sin pérdida de esencia, ser copiado; acto, en términos materiales, muy disonante, ya que en términos finitos, cada vez que alguien se da se divide. Pero, digitalmente, dar copias no consume al original.

Antes de pasarle la pelota a Newton, en él encontramos un proceso similar cuando cierra con la mecánica clásica un espacio continuo, ejemplificar el cierre de espacio que han hecho tres entidades o agentes de las que estoy seguro habrá chica matemático-filosófica a la hora de buscar el Ser de las IAs. Unidades de procesamiento que, en tres dimensiones, computan información y generan tanto el pensamiento como la inteligencia artificial. Una CPU (para hacer operaciones aritméticas en punto flotante) como motor de un espacio lógico-formal. Una GPU (para hacer operaciones con sistemas de ecuaciones) seguida de una TPU (para calcular tensores) donde el cálculo de probabilidades y la estimación estadística se convierte en una especie de «intento de obtener la sombra» a la hora de reconocer o «saber». Integrar, bayesianamente, la posibilidad de que algo sea algo necesita de un entrenamiento previo supervisado en que alguien etiquete el saber. Ideas que permitan identificar lo correcto separándolo de lo incorrecto para reforzar la toma de decisiones favoreciendo la corrección, esa abducción. Con estos procesos corriendo en los clústeres de pequeñas y grandes empresas puede decirse que, duchas en deducción con su paleolítico lógico-formal, la IA logra cotas considerables en inducción, siendo capaz, por tanto, de inferir con acierto. Podemos seguir la secuencia que monta el espacio euclidiano que parte de un punto para luego subir a dos puntos y con ellos una recta; aumentando la dimensión delimitando el plano de un cuadrado con cuatro lineas por aristas; volviendo a aumentar euclidianamente uniendo seis planos en un cubo; y, para una última revolución, armar un teserapto en que el cubo se mueve rotando unas frecuencias. Similar figura la CPU que mueve cuadrados planos de cantidades, la GPU que mueve las coordenadas de cubos tridimensionales, y la TPU que mueve tensores que representan las variables aleatorias nodo en las redes neuronales de inducción. Hay una técnica en el cálculo de probabilidades que invita a determinar la probabilidad de un suceso aproximándose por su contrario. Este aplica aquí: más fácil es abordar lo no aleatorio que lo aleatorio. Más se puede afirmar de lo no aleatorio que de lo aleatorio (precisamente, porque llamamos aleatorio a aquella región de casos y cosas de las que no sabemos qué afirmar). ¿Qué es, entonces, lo no aleatorio? La rama digital de la informática aprovechó sin miramientos los avances en la mecánica clásica y su establecimiento de un espacio de referencia inercial.

A Newton le había acontecido, en su posición dentro de la secuencia científica, un balón bombeado que supo aprovechar, para nuestro deleite, y lo remató de cabeza cerrando un espacio de referencia inercial para acoger y contener lo no aleatorio. Como decimos, tres siglos después, la IA dio buena cuenta de tal constructo incorpóreo sobre la realidad. Newton argumentó negro sobre blanco la constitución de un espacio-tiempo continuo y en él era posible ensayar las probabilidades de que a ciertos agentes le afecten las inercias de ciertas fuerzas, dadas, y habida cuenta de, ciertas condiciones, etcéra. Despúes, Boole, chutando de chilena, sacará a la palestra una formalización de álgebras muy peripintada y versátil que permite crear motorcitos muy parecidos a los que se le ponen a los muñecos de trapo para que pasen de estar inanimados a mecánicamente mover ciertas articulaciones concretas y particulares (no de propósito general, como en Toy Story, que el muñeco cobra vida). Estos artefactos no serán robots con presencia mecánica en el planeta sino bots: sus correspondencias lógicas. Cuando la pelota le llegó a Leibniz y se propuso rematarla, siendo él tanto filósofo como matemático, quizás el último antes de la generación de científicos «especialistas», anudó la caja del «paleolítico» de la inteligencia artificial y, poniéndole un lazito, la pasó al futuro para inaugurar un neolítico de la IA: información y estadística (inferencia de probabilidades).

La mecánica clásica había sido humus precioso para engendrar la IA. En este espacio y así todo definido, y con esas herramientas, a las máquinas de Babagge que ocupaban el cálculo diferencial (computar el «cambio» mediante ecuaciones en matrices: cada matriz representa el estado en un punto temporal concreto, a media que se toman muestras, se acumulan matrices) se creía, Ada Lovelace así lo argumentaba, no les bastaría más que con registrar los cambios en los agentes debidos a las inercias de las fuerzas y correrlaros en el contexto. Si la máquina podía grabar el cambio, y el cambio se daba en un espacio de referencia inercial, ¡solo quedaba encontrar la forma de pedirle cosas a la máquina. Entonces, lector, para la reflexión, supone el hallazgo de tal herramienta, tal salto exponencial en la potencia sapiens, ese rudimento evolutivo asemeja, por ejemplo, a los lances en la edad de los metales, en una inteligencia natural todavía primitiva, prehistórica, paleolítica, en un Tartesos rico en plata, habiendo primero trabajado la piedra y el bronce. Así de farragoso o creativo imagino tanto a la inteligencia natural sapiens como a la lógico-formal-diferencial-analítica, lidiando con su contexto, en su época. Ganando sus batallas cada vez incorporando mejores herramientas con capacidades para otros materiales, piedra, bronce,.. ¿Pueden considerarse las modernas redes neuronales multicapa una construcción en software de aquellas primeras máquinas de la época de Babagge? Al final y al cabo la máquina era una calculador de matrices como lo son las redes neuronales. A mí me parecen muy semejantes. Son máquinas, soft o hard, de mover ecuaciones. En las de babbage en cada vértice la matriz había un número en punto flotante, en las redes de ahora tienen puestas: variables aleatorias.

Lo aleatorio es precisamente, lo que se pretende abducir.

BLOQUE 3. Contextualización histórica y estado actual del objeto de estudio.

Daría mucho juego una novela que cuente los cómos y qués y las andanzas y batallas que se han vivido en el mundo de las matemáticas y la filosofía cuando nacieron a girandulearlo todo dos nuevas disciplinas. La computología que luego fue informática y que era un flamante cuerpo matemático inflado con electricidad; y la abstracción de la psicología desde la psiquiatría en la clínica, que era un flamante ser filosófico inflado con máquinas.

Así ocurriría, en la paz sistemática y farragosa del cálculo matemático y la lógica formal, por siglos las matemáticas y la filosofía habían mantenido un hilo de oro de preguntas y signos y símbolos y cosas necesarias para preservar la cadena de casos acontecidos. En esas disciplinas se atesoraban manuales de hechizos que producían ilusiones así como los registros de bitácoras que experimentaban sus aplicaciones. Tratados y documentos describiendo causas junto densos y largos epílogos de conclusiones y descripción de los efectos derivados.

Allí aparecieron dos nuevas disciplinas con juventud y ansia de infinito. Alborotándolo todo con un dinamismo que movía todo lo que habían permanecido siglos estático. Han transcurrido las décadas, en los 40 el primer ordenador, máquina de propósito general, como cumbre tras una alta montaña de calculadoras de propósito específico. En aquel solido mundo filosófico-matemático que ya trataba con rigor los aspectos tanto de la inteligencia entendida como acto de pensar así como al propio pensador como un ser pensante. ¿Máquinas pensantes? Han transcurrido las décadas, en los 40 el primero ordenador, máquina de propósito general, como cumbre tras una alta montaña de calculadoras de propósito específico.

En los 60, se dan los elementos necesarios para que las máquinas si no son pensantes sí que procesando cálculo a ritmos vertiginosos sean capaces no solo de respetar la lógica formal sino de expandirla. En paralelo la maquinaria industrial se está adaptando para acoger en sus hierros y engranajes unas placas de circuitos lógicos para soportar y correr software. Ideas como driver servirán para referir código específico cuyo propósito sea permitir la comunicación del ingeniero con la máquina. Si en la sala hay un antropólogo buscando eslabones perdidos está claro que en una placa madre encontrará uno de esos elementos cruciales para recomponer un mapa interdisciplinar. Quizás el último punto antes de que se pierde la corporeidad eléctrica y se sumerja en el mundo digital virtual.

En los 70, se han viciado un poco los laboratorios lógico-formales repletos de fórmulas y resultados, se han forjado tablas y rellenado gráficos, se habrá desarrollado una lengua de diagramas y de flujos pintando con tinta en papel millones de esquemas; la programación es un hecho y la posibilidad de correr los programas, en ciernes, casi otro. En rigor, el sector software avanzó más rápido de lo que el sector hardware pudo satisfacer. Y salieron al exterior a hacer que la inteligencia artificial calcule partes de la realidad; cosa que les planteaba nuevos retos que podían tratar en el laboratorio. El lenguaje natural o la modelización de eventos geológicos o sociales supone reto para los matemáticos. Seguirán resonando las voces de Shannon y se anhelarán máquinas más potentes para desplazarse más livianamente por los espacios de probabilidad. Un anhelo que deberá aguardar menos de medio siglo a la llegada no solo de la computación 64 bits, sino de la computación en red. Son estos diagramas en papel y estos rudimentarios modelos que, al cabo de las décadas, crearán el pomposo y fausto concepto de sistema en el que personas y cosas se relacionan con máquinas creando circuitos productivos. Los cimientos de ese sistema abriéndose extensión en el planeta irá ya frenética en los 80 con los brotes verdes de IA que hubo en los sistemas expertos: la inteligencia artificial permitía solucionar problemas y aumentó la demanda de especialistas en confeccionar soluciones a medida para problemas concretos. En los 90, primeros cerebros artificiales como redes bayesianas capaces de manejar frecuencias de probabilidad de un espacio bien restringido, acotado y particular. La IAs eran detectores de regularidades, de hechos habituales. En el dos mil, con la eclosión de la web, como red de comunicación de gran ámbito, la IA estuvo dedicada a gestionar tanto la producción de datos como su recolección y almacenamiento en grandes bancos. Surgieron necesidades de semántica y aparecieron metalenguajes para adherirse a los datos como soporte de tipos que permitiera acceder a ellos de forma más eficiente y eficaz cuando se necesitasen comprimir en información.

Como reflexión, subrayar los problemas para optimizar la información y agilizar la obtención de conocimiento accediendo a una memoria. La intención es convertir una serie de parámetros de entrada, considerados como los estímulos de un sistema nervioso de ser pensante (vivo o no, natural o no), deduciendo una información que contenga el estado del exterior y la demanda, si la trae, que el exterior envía. Ese paleolítico de la inteligencia lógico-formal. Después, una inducción que infiera una reacción o una ausencia de ella. Lo ocurrido con este, primero Machine Learning y luego, con esteroides, Deep. LLegando así al momento presente, para completar la tríada del razocinio: ¿cómo abducir? 

Una vez hemos visto que la IA en la época presente puede deducir e inferir inductivamente, si queremos atisbar pronósticos de abducción parece conveniente centrar la atención es cómo la inteligencia natural hace ese acto de inferir y en qué queda o qué surge del encuentro entre matemática y filosofía (vieja escuela) con informática y psicología (jóvenes recién llegadas).

De aquella regeneración, y de la mezcla Steam, en la que territorios humanistas se mezclan con los tecnológicos, como sabemos, se dice, la II Guerra Mundial, o, mejor, su final, a partir del encuentro en Dartmouth 1955, es la madre de todas las tecnologías. Eso ocurre a la par que se están cerrando los cielos en términos macro. Momento en que la inteligencia sapiens anota en su memoria de saberes y conocimientos del mundo cotas y otros dato de los cuerpos gigantes que teorizó Einstein y flotan muy lejos de nosotros en el confín del universo en del que somos parte ínfima. Turing y Von Neumann crearon ¿la primera máquina pensante? o, mero, ordenador. Chomsky articulando el sueño de Ada Lovelace (que trabaja junto a Babagge) ingeniaba el modo de que se pudieran crear lenguajes para programar máquinas. En la homemorfía que compara los territorios distintos de la inteligencia natural con el de la artificial, ¿eran estos hallazgos comparables a cuando sobre sus puntas de silex el sapiens aprendió a pulir la piedra?

Se ven, por tanto, meridianos, en dos estratos, medio siglo cada uno, puede decirse que el período lógico-forma de la inteligencia artificial se ocupa del «pensar» (necesidad de inventar el pensar mismo) mientras que el período estadístico ya se ocupa por «la realidad»: recoger agua del mar de realidad con variables que se llenan de aleatoriedad. A su vez, este neolítico estadístico y de cálculo de probabilidades puede dividirse en dos etapas: una primera eminentemente bayesiana (uso del teorema de bayes que relaciona una entrada con una salida para constituir el perceptrón como signo para representar la neurona a su vez unidad nodo para las redes) y que acota en Machine Learning; con una segunda de Deep Learning, para montar capa sobre capa, trozos bayesianos de sesgo, articulándolos en una inteligencia operativa a un fin concreto.

La gestión aritmético-lógica del paleolítico de la inteligencia que arriba hemos descrito tiene parangón y correspondencia en la CPU como dispositivo físico. Es una placa con transistores relacionados en un circuito. Al fin, ¿son estas placas el cuerpo de la inteligencia? La codificación de la realidad como conjunto de datos produciendo algo diferente (¿inteligente?) y que llamamos información cuando la queremos connotar objetiva o la llamamos «relato» cuando queremos connotar subjetividad.

El par que forman la mente y el cerebro como unidad inteligente sapiens, ¿se encuentra equivalente en una máquina que tiene parte software (sistema operativo, programas) y parte hardware (placas y periféricos)? Entonces, puede compararse el aspecto trino del cerebro humano con la tríada cpu-gpu-tpu. Es decir, el cerebro reptiliano, el córtex, la multicapa en el neocórtex, ¿la inteligencia artificial está copiando al milímetro y ahora se ha quedado sin ideas porque no sabe cómo seguir evolucionando su inteligencia? ¿Estaría, según esto, acotada la inteligencia artificial a ser igual o menos inteligente que el sapiens? ¿Habría, entonces, en el 2023, que admitir que existen poderosas calculadoras, poderosas máquinas mono-función, grandes y elocuentes sistemas expertos, eficientes sistemas de información, etc., enemil ejemplos de Inteligencia Artificial Débil, pero que, como máximo cabría esperar a una Fuerte (que imita al humano, que pasa el Test de Turing), pero, que, por falta de ideas de cómo proseguir habiendo copiado ya el modelo del cerebro sapiens, no está ni se le espera a una IA General? ¿Serían entonces esas IAF surgidas las encargadas de producir la IAG?

Hasta hoy. Entonces, aquellas 29 marcas que tenemos en los registros arqueológicos, hueso de Lebombo y muchos otros, ¿esas marcas quién las hizo: una inteligencia natural? y si la progresión desde esas marcas sigue hasta se acuerda entre los sapiens usar los dígitos 29 para representar la frecuencia (en días) del ciclo lunar; y si la progresión sigue hasta la inteligencia que declara a la neurona y su dígito: perceptrón cosa y caso de acuerdo sapiens, etcétera? ¿Cómo hacer que las inteligencias aprendan sin necesidad de mil horas de aprendizaje y mil muestras de la materia a aprender?

En los debates en que la corporeidad es condición sine quanum para que una inteligencia pueda ser así llamada, y no sea considerada mero artefacto: soft/hard, en estos debates suelo esgrimir un argumento que arranca identificando la relación de la inteligencia sapiens con el cuerpo. Habida cuenta de nuestra médula espinal y nuestro sistema de nervios perfectamente integrado en el cuerpo órganico, este mismo cuerpo, a su vez, se nos presenta perfectamente integrado en un ecosistema. Así, vemos los límites de nuestra epidermis para sentar una jurisprudencia ética de nuestra individualidad pero a su vez asumimos el papel de frontera que la piel hace con los aspectos morales de un cuerpo social en el que habitamos. Así extendemos nuestros sistema nervioso conectándolo políticamente al ecosistema entero y nuestra inteligencia, al fin, tiene problemas para determinar el dominio o alcance de su identidad. La necesidad de acotar la inteligencia humana entre la masa gris de un cerebro y la concepción cultural de Kosmos (como tiempo y espacio dentro un universo actualmente vivo), en mi opinión, invita a solucionar, tanto en lo que respecta a la inteligencia artificial como al resto de áreas de la industria, la visión de eco + logía: una casa + una inteligencia prestándole atención.

BLOQUE 4. Innovación en la aproximación al objeto de estudio. Planteamiento de hipótesis alternativas.

¿Cómo hacer que las IAs de la actualidad no necesiten tanta cantidad de Big Data para aprender con esos perceptrones (como neuronas) que tienen enredados en múltiples capas bayesianas? Relacionándolo con el vídeo citado al inicio del texto, allí se expresa la idea de que la inteligencia tendría tres partes: deducción (y que sería el paleolítico lógico-formal de la IA); inducción (el neolítico de inferencia estadística con probabilidades); y, por último, abducción (que es, precisamente, conjeturar o improvisar cuando no se posee memoria, es decir, cuando no se sabe).

Puede decirse que el período lógico se ocupa del «pensar» (necesidad de inventar el pensar mismo) mientras que el período estadístico ya se ocupa por «la realidad». A fuerza bruta, por ahora, este proceso se asemeja menos a una idea feliz o un eureka genial que a recoger agua del mar de realidad con variables que se llenan de aleatoriedad. Esta idea de una variable como un cubo que puede contener agua o tierra, al final, cosas tangibles se abre en desvirtualización artificial cuando se despoja su naturalidad con las irracionalidades propias de los número complejos y el cálculo con variables aleatorias. Para acabar, a su vez, esta época de un neolítico en el que la agricultura estadística y el cálculo en huertos de probabilidades, puede dividirse en dos etapas, una primera eminentemente bayesiana (uso del teorema de bayes que relaciona una entrada con una salida para constituir el perceptrón como signo para representar la neurona, nodo a su vez, en las redes neuronales) y que acota en Machine Learning, con una segunda de Deep Learning, para montar capa sobre capa, trozos bayesiando articulándolos en una inteligencia operativa. Como vemos, el momento deducción, seguido del momento de inducción, la inteligencia artificial es una copia del modelo clásico de la inteligencia natural.

Una medida de fuerza que marca benchmark en la IA actual se encuentra en la entrada de parámetros. Cuando en los anuncios se habla de GPT o Dall-e se habla de cantidades enormes de estos. Y, a cada actualización, se presume de mayor cantidad como algo positivo. ¿Y, bien? A día de hoy, ese dominio parametricial, por la IV Revolución Industrial, quizás otorgando corporeidad a la IA, está, vía la red, conectado a un campo de verdad mediante el conjunto de sensores/actuadores del cuerpo IoT. ¿Supondrá esta conexión la posibilidad de agregar la cuarta capa que le falta al modelo de inteligencia artificial para superar los límites originales que impone la natural?

El sapiens que un día vivió en cavernas y andaba lidiando con el conocimiento del fuego, en estos siglos se ha vuelto al planeta para asumirlo, visión abarcante que un día apenas contaba con varios kilómetros de diámetro, en su inmesidad terrestre (que es una inmesidad, a pesar, muy pequeña respecto a la Vía Láctea y superiores), la Casa. Los individuos, las tribus, los pueblos, las ciudades, las cosmopolis. Los estados hieráticos, los estados nación. Tras los siglos, encuentro, que puede ser ecuménico, en lo global.

Una ecología como una inteligencia que se ocupa de llevar una casa. Parece que el Sapiens (que hizo un periplo al menos, 40.000 años atrás, u, Holoceno, 14.000 años) reconoció con el sema «Eco» un territorio corpóreo real al que anudar «logía» como engarce o armadura, en autoreferencial pirueta. El que nombra se nombra. El sapiens es alguien (¿inteligente?) que ahora dispone de grandes y variopintas herramientas para tratar la cuestión.

La inteligencia artificial puede expresarse en corporaciones y detrás de estas puede expresarse en intereses de estados. Anhelar, desde Europa, y su tradición en derechos y dignidades, una IA ética. Ese anelo no puede prescindir de volver la mirada hacia el Parlamento y hacia el Tribunal, órganos sin los cuáles es difícil manejar el Big Data histórico. Confundiendo entonces así las materias implicadas obligando a saltos entre territorios como homeomorfías que ayuden al entendimiento a pesar de la lejanía entre territorios. En este caso, los territorios distantes son los campos donde está funcionando la IA de un lado y los campos del armazón legal europeo. El problema se expresa muy simplemente pero no implica que tenga fácil solución. En este sentido, el problema de obtener una IA ética es de tipo PvsNP. En mi opinión, es necesario resolver esta cuestión (uno de los siete problemas matemáticos del milenio) para poder operar un marco ético suficiente.

Sin querer entrar en la materia, para mantenerme en el ámbito tecnológico, al final, lo ecológico es una ensoñación sapiens. Quiero decir, me parece una vuelta de tuerca a una gran aventura que ahora vive un tiempo de autoreconocimiento.

Sea cómo fuere, precisando la pelota botando, una que, diría, apetecería chutar, sería el llamado: ¿Cómo hacer que el proceso de aprendizaje de una red multicapa no pase por ver infinitos gatos antes aprender a reconocer gatos? Está claro que reflexionar sobre esto envía a la Razón a buscar material a muchos zonas interdisciplinares. ¿Qué es aprender, bla, blá? Quiero decir, como ciencia o técnica, o, mero, como tecnología, en sí misma la inteligencia artificial ocupa una zona de un gran entramado que en su primera instancia, sobre el fango base del mito, fue puro constructo de Logos, una simple (pero poderosa) herramienta trina de palabra-verdad-sistema. Hoy día son redes multicapa, redes bayesianas con esteroides dando buena cuenta de la ingente y masiva cantidad de datos al calor del boom digital y damos en llamar Big Data. ¿Qué es «bayesiano»? Básicamente: unos cazamariposas matemáticos capaces de atrapar mariposas de «hábito» o de «frecuencia» o de «permanencia»

La inteligencia artificial es su expresión actual de Deep Learning está formada por distintas capas de redes que tienen por nodos variables aleatorias. Es importante, para el divulgador, que, doy fe, sufrió mucho la compresión de tal concepto, a la hora de divulgar, detener el trazo grueso y precisar, ya que el concepto será vital, esencial, axioma, núcleo de posterior compresión de la IA. De la misma forma que el sapiens cuenta con un Neolítico y un Paleolítico para separar dos épocas, la inteligencia artificial debe contar con dos zonas igualmente separadas. Si para el sapiens el sedentarismo y la agricultura fuero un paradigma agro en el que trazar separación de fulcro, en el caso de la IA se cierran los números como mágicos nómadas en la antigua eurasia donde matemáticos chinos, indios, mediterráneos orquestaban sus primeras divagaciones sobre «la unidad», «la pareja» y «el grupo», inventando el 1, el 2, y el «muchos».

Es decir, ¿cómo funciona la inteligencia artificial respecto de la inteligencia natural en términos éticos: ¿conjuntos iguales, disjuntos? Quizás, a grandes rasgos, observamos en el campo de la psicología una gran pugna entre Congnitivistas y Conductistas. Si bien los primeros abanderaban un modelo cerebro-máquina, en aspiración de emular al cerebro con silicio, los segundos impedían cualquier separación respecto del cuerpo homínido. En este sentido, para los conductistas el fuego que robó Prometeo a los Dioses únicamente circula entre sapiens sin posibilidad de desborde al hardware de las máquinas para emerger luego como inteligencia software. Los cognitivistas, en la creencia de que quien no cultiva la inteligencia vive en tierra yerma mientras que quien se afana engendra virtud en flores y frutos, sí que abogarían por el desborde. ¿Qué desborda: una inteligencia, conciencia, alma, ser?

En este lío me surge pausar a componer un pequeño panfleto titulado: «La Dignidad Humana: límites y concepciones». Inevitable mentar aquí ese «Oratio de hominis dignitate» («discurso sobre la dignidad del hombre» o «la dignidad humana»), 1486, Pico della Mirandola, imagina a Dios en la creación del mundo (el Cosmos con todos sus elementos y géneros de criaturas vivientes). Sucesivamente el Creador formó la «Cadena del Ser» (o «de la Existencia») colmada de ángeles que, saliendo de grado en grado por su cualidad, se fueron conjugando, lo que dio origen a la raza humana. El humano, valiéndose de su capacidad intelectiva, se hace artífice de su propio destino saliendo de la cadena mediante el estudio y la filosofía. Incluso, por su propia condición excelsa, ni haría falta esforzarse para que un sapiens disfrutara de la inteligencia natural, para Kant, en nombre de una civilización, por imperativo categórico, Cristo entrega el cuerpo liberando una dignidad innata para su estirpe cimiento de cualquier dignidad y derecho que el humano merezca.

¿Aplicaría esto también a la inteligencia artificial? ¿La IA ha tenido que pasar una época meramente de aritmética y cálculo hasta forjar un método binario de representación de la información como vínculo semiótico (aquí el salto desde lo corpóreo hasta lo virtual), por mor y arte de Shannon y sus teorías de la información, para desplegar después un mundo de probabilidad y redes de matrices estadísticas, desde donde subirse y gritar: ¡Ecce machina!? Y, a renglón seguido, la aparición de lo cuántico y su qubit, elevando el sistema binario a múltiples dimensiones: ¿supondrá así la capacidad de abucir?

BLOQUE 5. Conclusión, derivación a fuentes y enumeración de referencias.

En las memorias de literatura de nuestro acerbo cultural, se narra un tiempo donde las plazas y bares estaban llenos de sapiens, a veces embriagados a veces sobrios, divagando sobre lo humano y lo divino. No parece extraño encontrar en nuestro tiempo gente que divaga ahora sobre lo natural y lo artificial. Sobre si la inteligencia necesita corporeidad o no (y qué tipo: si orgánica o basta silicio); en ambos casos, las implicaciones ecológicas de la IA son palpables: tanto la extracción de recursos de materias primas, como el usufructo del ecosistema, como la generación de residuos. Y, por esas implicaciones, en estas discusiones actuales entre lo artificial y lo natural prima dirimir si hay que disociar ética en dos: bioética y tecnoética, es decir, reformular el espacio ético para adoptar el nacimiento de una inteligencia artificial.

Se observa, con comparación entre territorios, como se disociaron nuestros primos antropológicos en la rama homini dentro de la rama animalia del árbol filogenético de la vida. Este ejemplo concreto se repite sin tregua en todo el árbol. Observarmos el proceso de ramificación de un tronco común en el advenimiento de generaciones hijas. ¿Ocurre similar ahora con la ética que deberá ramificar? Por un lado, para lo natural, derivar una bioética. Prefijo bio a ética para que abarque no solo la distribución de los individuos sino además se extienda a cotas de moral para vertebrar un grupo; y, después, cotas de política para situarlo en contexto con otros grupos. Por el otro lado, crear, para la IA, aparte, una tecnoética para tratar y recoger un marco de coexistencia de la inteligencia artificial en el ecosistema. Estas y otras cuestiones, seguro, hoy día se están tocando en plazas y bares actuales.

Sobre la cuestión de resolver el problema del milenio sobre la equipotencia o no de la clase de complejidad polinomial y su no-determinista debemos resolver, por ejemplo, si la inteligencia artificial es un hijo de la inteligencia que comparte el sapiens o es un filo (unidad de orden en una clasificación filogenética) distinto. Es decir, si los problemas P son una parte de los NP o son conjuntos disjuntos. Este proceso de abducción que afrontan los teóricos de la IA en el presente, parece, se enmarca justo en la disyuntiva del problema matemático PvsNP. La necesidad de un cuarto elemento en la cadena cpu-gpu-tpu para procesar una nuevo modo de inteligencia artificial ahora ausente: intuir. Como se ha expuesto, la consideración de IA sin un contexto de red difumina, a mi juicio, un mapa en el que entonces aparecen como puntos únicos los modelos del lenguaje del deep learning. Proyectos como ONNX de Microsoft establecen un concepto de «sesión» para la carga de uno o varios de estes modelos en un espacio inferencial. Parece obvio derivar en la próxima década el arreciar de un proceso de abducción artificial en la que los algoritmos incorporarán el cuerpo IoT vinculándolos a los parámetros de los modelos completando así la copia del sistema nervioso sapiens conectado al cerebro. En contexto de IV revolución industrial, los modelos manejaran dominios parametriciales que serán representaciones sensoriales (mediante Things o cosas como sensores/actuadores) e interactivas de la realidad. La intuición, en esta etapa de la IA, se derivará e inferirará abductivamente por la frescura de los parámetros. Hay un momento mitológico en la forja del humano a partir del barro; en el momento IA existe la Reflexión como técnica que usan los programadores para enseñarle a la IA a escribir código. Existen dos tiempos distintos para la inteligencia artificial. El primero, que se llama «de diseño» es cuando sin ejecutarse, el código es un prototipo en los cuadernos de los sapiens. Para llegar al segundo hay que compilar el código y pasarlo a lenguaje máquina. El segundo tiempo se llama «tiempo de ejecución» y ahí el humano ya no puede tocar el código, nada más que parar el programa o iteractuar con él. Como decía, la «Reflexión» le permite al programador anotar en el código instrucciones para que la IA puede, en tiempo de ejecución, generar nuevo código. El sapiens antropocéntrico de nuestra época, en mi opinión, anda preocupado en buscar que la IA sea capaz de la autoreferencia, porque así es como el humano se ha identificado como sujeto pensante y ha podido entonces ocuparse de gestionar cómo pensar y cómo manejar la inteligencia. Y, sin embargo, esta capacidad de reflexión en la IA es la que realiza la abducción, ya que dentro de un contexto de soluciones cerrado (lo que se le haya programado) la reflexión permite generar nuevas reglas y nuevo código.

En mi carrera de computólogo he visto numerosas generaciones de software lidiar en sus confines con la reflexión para expandir el par deducción/inferencia más allá de sus límites. Es bayesiano deducir que este momento IoT-LLM está en ciernes y que el escenario que nos adviene presentará una IA conectada sensorialmente a la región corpórea de la realidad. En mi opinión, el sapiens tiene en la IA un espejo que si bien hasta la fecha le devolvía el reflejo, singularmente, quizás, incipientemente, ahora le inste a cambiar las tornas y reflejar en lugar de ser reflejo.

Deja un comentario