Recuerdo en The Matrix cuando Neo llega a conocer a The Oracle: ahí se da cuenta de que no hay una cuchara, sino solo la representación mental de una cuchara. Es entonces cuando comprende que la realidad no es como la percibimos, sino una interpretación que hace nuestro cerebro: lo mismo nos pasa cuando imaginamos que un LLM alucina o que entiende inherentemente lo que le preguntamos.
La cita de The Matrix funciona aquí como una metáfora clave: “No existe la cuchara” en el sentido de que el modelo no tiene ninguna percepción o concepto inherente de la realidad; está imitando patrones estadísticos sin una comprensión o creencia subyacente. Por eso en lugar de tratar de “ver la cuchara” (o una realidad concreta), un LLM se limita a procesar y reproducir correlaciones.
El “fallo” en el sistema es de nuestra percepción humana cuando se espera una precisión o intencionalidad que el modelo no puede ofrecer, no es un fallo del modelo.
TL;DR hablar de “alucinaciones” en el contexto de LLMs es engañoso, ya que implica una agencia o intención humana que los modelos no tienen. Cuando usamos ese término, parece que el modelo tiene consciencia o creatividad, cuando en realidad sólo está jugando una especie de juego de probabilidades en base a su entrenamiento y nos refuerza el antropomorfismo que nunca van a lograr.
Extrapolar no es alucinar
Sugerir “alucinación” crea la falsa impresión de que el modelo tiene una “intención” o “imaginación”; a veces creo tendemos a antropomorfizar a los LLMs, dándoles cualidades humanas que no poseen. Lo asimilo a la venta de espejitos de colores o humo que se ve en cada "discontinuidad tecnológica", por eso es importante entender esto:
- Una alucinación es un fenómeno cognitivo donde el cerebro percibe cosas que no están ahí. Es decir, parte de un procesamiento sensorial alterado que crea algo de la nada.
- Un LLM no “percibe” ni “crea de la nada”; más bien lee informacion que tiene en su base mostruosa de datos e infiere/extrapola qué es lo que viene a continuación. Claro que no está entrenado para decir "de esto no sé nada", asi que, si no encuentra algo claro o específico en los datos, llena los huecos basado en probabilidades.
Es super interesante ver que algo que "puede parecer simpático" es, realmente, contradictorio: una extrapolación estadística, no involucra percepción o creatividad. Lo que ves es el modelo proponiendo lo más probable, no imaginando una nueva realidad. Déjenme poner una analogía super clara:
Cuando un sistema de predicción meteorológica extrapola condiciones basadas en datos históricos: no “alucina” pronósticos, sino que aplica patrones que “cree” que tienen sentido, incluso si esos patrones pueden llevarlo a cometer errores.
Reconocer limitaciones para ajustar expectativas
La GenAI está en un momento donde pocos entienden hasta donde vamos a llegar, por eso entender que los LLMs funcionan en base a aproximaciones ayuda a reconocer sus limitaciones y a tener expectativas más alineadas con sus capacidades. Al llamar a sus fallos “errores de extrapolación” o “fallos de correlación”, se hace más claro el papel del usuario en la verificación de resultados.
La “precisión” en un modelo de lenguaje es siempre una cuestión de probabilidad, no de certeza. Por eso es super interesante el metamodelo de Perplexity AI.
Y sin embargo...
El error humano radica en pensar que el modelo es un “ser” con capacidad de decisión. Aunque sea más interesante decir que "¡la IA alucina!" ya que, si aceptas, eso tendríamos que responder cosas como ¿Puede un LLM ser creativo? ¿como definimos "saber"? ¿Que es la realidad? ¿un corpus de datos?
Y no me vengan con "bueno, pero no pueden crear una obra de arte" porque tendrias que probar que VOS o yo somos capaz de crear una obra de arte.