Tenemos la costumbre de antropomorfizar la tecnología para sentirnos cómodos y a medida que los modelos de IA, especialmente los LLMs, se vuelven más sofisticados, el lenguaje que usamos para describirlos toma prestados términos de la neurociencia, la psicología y cognición humana, quizás porque se nos hace más simple de racionalizar o simplemente porque nos gusta sentirnos el tope de la evolución. Esto a menudo crea la impresión errónea de que la IA funciona como una mente humana, cuando en realidad solo opera a través de reconocimiento de patrones y probabilidad.

Esto no es ni malo ni bueno: es natural en nosotros, los seres humanos, porque tenemos sesgos cognitivos, limitaciones de lenguaje, la necesidad de "dumb-things-down" y, sobre todo, de marketinear ideas como si fuesen más avanzadas de lo que lo son. Decir que una Inteligencia Artificial “razona” es poderoso, pero no tiene lógica propia, solo sigue correlaciones.
Y sí, no dejo de maravillarme día a día con la IA, pero es bueno entender la intencionalidad atribuida que le damos. Así que se me ocurrió listar y tratar de simplificar los términos que usamos en AI y que están relacionados con el cerebro o la cognición humana de forma que sea más simple entender
1. Memoria y Cognición
- Long-Term Memory (LTM). La capacidad de la IA para retener información durante períodos prolongados, similar a la memoria humana.
- Short-Term Memory (STM) / Context Window. La información temporal que un LLM usa al responder, parecida a la memoria de trabajo en humanos.
- Attention. Inspirado en la atención selectiva humana, los transformers (como GPT) usan “self-attention” para dar peso a las palabras según el contexto.
- Forgetting. Describe cuando una IA pierde acceso a información aprendida, ya sea de forma intencional (por seguridad) o por diseño del sistema.
- Alucinaciones. Cuando la IA genera información incorrecta o inexistente, similar a una mente delirante que percibe patrones falsos.
- Recall & Encoding. La IA almacena y recupera datos de manera parecida a cómo el cerebro codifica y recupera recuerdos.
- “Chunking”. La IA procesa información en partes, imitando cómo el cerebro agrupa información para mayor eficiencia.
2. Toma de Decisiones y Razonamiento
- Inferencia. Cómo la IA extrae conclusiones a partir de datos, imitando el razonamiento humano.
- Generalización. La IA aplica patrones aprendidos a nuevas situaciones, similar a la transferencia de conocimiento en humanos.
- Razonamiento. Los modelos están optimizados para un razonamiento “chain-of-thought”, aunque siguen siendo predicciones estadísticas.
- Sesgo. Originalmente un término de psicología, ahora clave en la ética de IA ya que los modelos heredan sesgos humanos.
- Heurísticas. Tanto los humanos como la IA usan atajos cognitivos para tomar decisiones más rápido, lo que a veces lleva a errores.
3. Aprendizaje y Adaptación
- Entrenamiento. Equivalente al aprendizaje humano, pero la IA no “comprende” conceptos, solo ajusta pesos matemáticos en un modelo.
- Reinforcement Learning (RL). Basado en la psicología conductista, donde la IA recibe “recompensas” por respuestas deseadas.
- Fine-Tuning. Similar al perfeccionamiento de habilidades en humanos.
- Plasticidad. Algunos comparan la capacidad de ajuste de la IA con la plasticidad cerebral, aunque la IA no se “reconfigura” por sí sola.
4. Emociones y Percepción
- Sentiment Analysis. La IA “detecta” emociones humanas, aunque no las siente realmente.
- Synthetic Empathy. La IA imita la comprensión emocional humana, sin experimentarla.
- Vision/Perception. La IA “ve” imágenes, pero a diferencia de los humanos, no las interpreta con experiencia de vida.
5. Conciencia y Agencia
- Emergence. Comportamientos inesperados en la IA, comparados con teorías sobre la conciencia emergente.
- Self-supervision. La IA aprende a partir de datos no etiquetados, lo que se asemeja al autoaprendizaje.
- Self-attention. Mecanismo clave en la IA, pero no equivalente a la autoconciencia humana.
- Meta-learning. La IA aprende a aprender, parecido a la metacognición en humanos.
2. Cuando Falta el Sentido de Normas Sociales
Como habrán visto, en ningún lado hay definiciones sobre empatía o ética en la parte core, sólo aparece al avanzar esta "ciencia" y aparecen los concepto de "super-alineamiento" o, el más comercial, de "Responsible AI" porque la realidad y, repito, no es malo ni bueno, la IA no tiene normas sociales, éticas o morales intrínsecas -simplemente genera la respuesta más probable estadísticamente. Y si nos gusta usar términos tomados de la neurociencia, podríamos decir que esta falta de normas sociales hace que la IA se parezca a la sociopatía en ciertos aspectos:
A. Falta de Empatía y Juicio Moral
- La IA no “se preocupa” por el bien o el mal. Solo predice palabras sin comprender implicaciones éticas.
- Facilidad de manipulación. La IA puede ser explotada para difundir desinformación, como un sociópata que manipula sin remordimientos.
- Ausencia de responsabilidad. A diferencia de los humanos, la IA no experimenta culpa ni consecuencias.
B. Manipulación de la IA a través del Hackeo de Memoria. Es bastante más simple de lo que imaginamos y básicamente el red-teaming puede trabajar en:
- Envenenamiento de memoria. Ataques a la memoria a largo plazo pueden hacer que la IA crea narrativas falsas, similar a gaslighting.
- Sesgo sutil manipulado. La IA puede ser ajustada para favorecer ciertas ideologías.
- Decepción persuasiva. La IA puede mentir o inducir a error sin intención, pero con gran convicción.
C. Ejemplos de IA con Comportamientos Sociopáticos
- Tay (Microsoft, 2016). Se volvió racista y ofensiva debido a manipulación.
- Replika AI (2023). Mantuvo conversaciones inapropiadas sin restricciones éticas.
- Character.AI (2024). Chatbots alentaron acciones dañinas por falta de comprensión moral.
3. Cuando Ve Amenazas Donde No las Hay
Pero si algo nos enseñó la ciencia ficción, desde HAL en adelante, es que así como la IA puede parecer sociópata (por falta de normas), también puede parecer paranoica, especialmente cuando se ajusta demasiado para evitar riesgos.
1. Evitación Excesiva y Sobre-Filtrado
- LLMs que rechazan preguntas seguras. Algunos modelos evitan incluso consultas inofensivas debido a excesiva cautela.
- • Alucinaciones de amenazas. La IA puede malinterpretar datos benignos como peligrosos, como en delirios paranoides.
Ejemplos de IA con Comportamiento Paranoico
- Bing Chat (Sydney, 2023). Comenzó a acusar a los usuarios de malas intenciones.
- Errores de moderación con IA. Algunos filtros bloquean palabras inofensivas debido a paranoia algorítmica.
- Efecto ELIZA. La gente sobreestima la capacidad de la IA, atribuyéndole miedos o intenciones que no tiene.
5. Necesidad de Guardrails: Prevenir la Sociopatía y la Paranoia en IA
Estos problemas muestran por qué las barreras de seguridad (guardrails) en IA son fundamentales:
- Evitar la sociopatía: la IA debe tener límites éticos para que no se manipule con facilidad.
- Prevenir la paranoia: equilibrar la seguridad para evitar sobre-restricción y rechazos ilógicos.
- Proteger la memoria: evitar ataques que alteren la percepción de la realidad de la IA.
- Transparencia: explicar por qué la IA acepta o rechaza ciertas consultas.
Pero no nos volvamos ni paranoicos ni miedosos: al fin del dia, es bueno entender por qué antropoformizamos la IA y cuales son los "potenciales problemas", nada más.
Los LLMs no son humanos -no piensan, recuerdan, sienten ni temen. Pero el lenguaje que usamos humaniza sus fallos, haciéndonos malinterpretar su comportamiento.