Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o “La Revolución de la Inteligencia Artificial pierde fuerza” y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.
“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.”
― Christopher Priest, The Prestige
Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente “fad”.
Y algunas ideas que me dan vueltas y quizás ayuden a entender el mercado:
GenAI es un subsector sexy… llamativo
El primer punto interesante de la Inteligencia Artificial Generativa y los modelos de lenguaje es que están diseñados para parecerse a nosotros, que somos los datos de entrenamiento, y eso es lo que lo hace seductor: nos hace pensar que es la respuesta a todo. Pero también es sexy porque es fácil decir “esto es la Inteligencia Artificial y va a ser más inteligente que nosotros en X tiempo”, frases vacías en boca de tecnólogos que no van a explicar qué es “inteligencia” o qué es “entender”, y ni siquiera que es un sub-sector de la IA.
Lo que hay que tener en claro, y que es mi primer slide en cualquiera de mis presentaciones, es que al final del dia IA generativa es una tecnología que crea datos sintéticos (o sea, nuevos) basados en datos reales sin verificar la veracidad o exactitud de los mismos.
Ahora la gran pregunta es: ¿le saca esto valor a la AI generativa? Para nada. Solo nos sirve para entender queé es y por qué seguramente veamos una corrección :)
Aceleración del mercado
El segundo punto interesante del la Inteligencia Artificial Generativa es que la velocidad de despliegue de infraestructura es tal que se está pisando con el lanzamiento de muchos modelos de negocio no probados o ni siquiera pensados, por el pico de expectativas exageradas de varios VCs que no dejan de saltar de una moda a otra, y tienen miles de millones en dry-powder.
Creo que el pico de esta burbuja es ver a un inversor comprar hasta 20.000 chips H100 de NVIDIA para desplegar, operar y rentar un cluster a sus startups. Esto trae más dudas que claridad al mercado. ¿O imaginan a Sequoia comprando racks de servidores en 1996 con la primera ola de Internet para que sus startups “investiguen”?
Pero ¿por qué es para mí un problema que los modelos de negocio se desplieguen junto a la infraestructura? Porque la economía de escala necesaria para que los costos bajen de la forma necesaria en la que un buen emprendedor necesita para probar algo… más simple: el costo de inferencia es, hoy en día, altísimo, y la optimización está recién arrancando (piensen Grok, SLMs, etc., etc.) sin embargo la caida de precios y el acceso a la tecnología están llegando!
El extremo que dice que hay burbuja y las generalizaciones sobre la Inteligencia Artificial
Algunos errores comunes en los análisis que leo son realmente inentendibles o entendibles si hay algún interes detrás. Por ejemplo, en el Wall Street Journal leo que “The pace of innovation in Al is slowing, its usefulness is limited, and the cost of running it remains exorbitant” una frase de un reduccionismo extremo:
- (a) “El ritmo de la innovación en inteligencia artificial está frenandose”. Es una afirmación temeraria por decir algo simple. ¿A qué se refieren cuando hablan de “innovación en AI”? Asumo que se están refiriendo simplemente al uso de LLMs frente a algunas afirmaciones que estuvieron exagerando en este año pero ¿esto muestra realmente que la Inteligencia Artificial se está frenando? ¡Ni cerca de aminorar!
- (b) “La utilidad de la inteligencia artificial es limitada”. Otra afirmación tan categórica como inentendible. ¿Se les ocurrió que el uso de algoritmos como AlphaFold se podía usar para mejorar el coeficiente energético de datacenters? ¿Y que había un caso de uso en optimización de rutas aéreas para que Alaska Airlines ahorre 500.000.000 de galones de combustible por año? No lo creo. Pero quizás hay una limitación para entender el ROI de usar inteligencia artificial en cada industria, y hay aplicaciones que no se han descubierto aún.
- (c) “El costo de de usar Inteligencia Artificial es exorbitante”. En este punto estoy de acuerdo, pero no sobre el uso de IA sino sobre el costo de inferencia en LLMs y ahí hay una gran diferencia que es clave. “Usar Inteligencia Artificial” implica tantos casos de uso y tantas tecnologías distintas que no tiene sentido decir que es caro usar IA, y eso sin siquiera entrar a debatir el costo/beneficio de lo que uses y para qué.
Las herramientas de IA Generativa no están diseñadas para proporcionar respuestas factualmente correctas. Esto se debe a que los modelos de lenguaje grande (LLM) generan contenido a partir de cadenas de tokens y patrones estadísticos aprendidos durante su entrenamiento, en lugar de basarse en una comprensión real de la información. En otras palabras, estos modelos crean respuestas imitando el lenguaje humano a partir de los datos con los que fueron entrenados, sin verificar la veracidad o exactitud de los hechos presentados.
Hyperscalers vs Startups: la hora de los incumbentes
Hay dos realidades duras: muy pocas empresas tienen la espalda financiera para el momento del mercado donde estamos porque, repito, los costos de inferencia o entrenamiento son monstruosos… aunque estén bajando; esto es hoy un juego de largo plazo y los únicos con los recursos son, por ahora, los Hyperscalers y META. Ni siquiera OpenAI tiene la espalda financiera necesaria y por eso hay movimientos constantes en su equipo fundador… pero les tengo fe.
¿Que son los Hyperscalers? Un hyperscaler es una empresa que proporciona servicios de computación en la nube a gran escala, utilizando una infraestructura masiva y altamente escalable. Estas empresas tienen la capacidad de manejar y distribuir grandes volúmenes de datos y aplicaciones a través de una red global de centros de datos. Los hyperscalers, como Amazon Web Services (AWS), Microsoft Azure y Google Cloud, son conocidos por su capacidad para ofrecer servicios de computación, almacenamiento y redes con alta disponibilidad, rendimiento y eficiencia.
Ahora: cuando yo digo que los fondos están con expectativas sobredimensionadas invirtiendo en modelos de negocio no probados quizás estoy siendo injusto pero ¿qué barreras de defensa tienen startups como Character/AI frente a Meta? O, mejor aún, la gran pregunta: ¿pueden Anthropic y OpenAI seguir invirtiendo, literalmente, miles de millones anuales solo para entrenar sus modelos y desarrollar nuevos mientras buscan el nuevo modelo de negocio que los consolide como “el Nuevo Google”?
Pero entonces ¿hay burbuja o no? Honestamente no creo que haya una burbuja de AI, lo que creo que quizás exista es, en términos de Hype Cycle, un Abismo de Desilusión como preludio de la Rampa de Consolidación, que llega luego del pico de expectativas sobredimensionadas que mencionaba arriba.
¿Cómo sigue esto? ¿Hay una burbuja y es todo humo? No. Ni de cerca. Mi teoría es que estamos recién arrancando y para hacer una analogía con otras discontinuidades tecnológicas, ¿cuánto pasó desde que se mandaron emails hasta que apareció Hotmail? ¿Cuánto pasó desde que arrancó Internet hasta que se consolidó Amazon? Y tal vez lo más importante ¿cuanto pasó desde el Lone Wanderer hasta que Google descubrió Adsense y lo hizo viable?