Thoughts on Fund Performance Data from AngelList

I dont share here the email for LP/GPs i sent monthly, however AngelList published the performance for funds in their platform (aggregates) and if you are in the VC industry I believe its a good way to understand the current market. (note: in english since the email I send is in english)

Hi dear friends,
Here’s my take on the trends and concerns reflected in this dataset:

Key Observations
• The 2017 vintage shows the strongest performance:
• Median IRR: 19.7%
• Median TVPI: 3.57x
• Median DPI: 0.29x
• Steady decline across all metrics from 2017 to 2023:
• IRR drops from 19.7% (2017) to -5.5% (2023)
• TVPI declines from 3.57x (2017) to 0.95x (2023)
• DPI remains near zero for recent vintages, indicating a lack of distributions.

Liquidity Concerns: When Did It Become a Problem?
• The 2017-2018 vintages show some DPI, but even after 6+ years, LPs haven’t seen significant cash returns. Ouch!
• 2019 marks the real turning point: DPI collapses to near zero, signaling a breakdown in liquidity. Ouch times 3!
• 2020-2023 vintages are almost entirely illiquid, with DPI stuck at 0.00x, showing that exits have stalled.

Market Reality: Why Are Exits Stalling?
• Post-2021 exit market collapse: The IPO window shut down, M&A slowed, and high-valuation startups are stuck.
• 2019-2021 overvaluation problem: Many startups raised at inflated multiples and can’t exit profitably without major markdowns.
• Structural venture challenges: Even before 2021, DPI was low, suggesting that the industry had already over-relied on paper markups.

J-Curve vs. Broader Concerns: Are 2021-2023 Vintages Just Too Young?
• Venture funds follow a J-curve, where returns start low and improve around years 5-8.
THIS IS KEY:
• However, even adjusting for fund maturity, the early performance of recent vintages is weaker than historical norms:
• 2017 had 3.57x TVPI by year 4, while 2021 is only at 1.04x.
• 2022-2023 vintages have near-flat TVPI (~1.00x), meaning no real appreciation.
• Negative IRRs (-5.5% in 2023) are sharper than usual for early-stage funds.

This suggests that while 2021-2023 funds need more time, they are facing far worse conditions than prior cycles.

Final Takeaway
• Liquidity issues emerged in 2019 and worsened post-2021 as exits dried up.
• Even mature funds (2017-2019) have struggled to distribute capital, suggesting broader structural issues in venture.
• The next 2-3 years will determine whether these vintages recover or remain stuck, shaping the future of venture fundraising.

| Mercados
Tags:
inversiones startups venture capital

Medir Retención No es Suficiente: La Clave Está en los Timeframes

Si hay algo fundamental en una startup es medir qué tan bien tu producto cumple con las expectativas de los usuarios y si logra mantenerse como parte de su vida: eso se hace midiendo la retención. Punto. Es uno de los indicadores clave de product-market fit, que muestra si las personas no solo prueban tu solución, sino si regresan y la usan de manera recurrente. ¿Y dónde impacta esto? Directamente en los ingresos, sostenibilidad del negocio y tu capacidad de escalar, ya que adquirir nuevos usuarios es mucho más caro que mantener a los existentes.

Pero un problema que veo en varias startups e incluso analistas de fondos es que la retención no se mide en una sola instancia porque el comportamiento de los usuarios cambia con el tiempo. Una sola medición no captura esta evolución ni permite tomar decisiones estratégicas informadas.

Tomar periodos de medición permite identificar patrones de comportamiento, detectar posibles puntos de abandono y optimizar la experiencia de usuario. Por eso la retención se mide a través de timeframes específicos, que podemos estandarizar en los primeros 30, 90 y 365 días.

¿Por qué 30, 90 y 365 días?

  • Retencion a 30 días: esto mide el engagement inicial y la adopción de tu producto o servicio. Indica qué tan efectivo es tu on-boarding, la experiencia de usuario y la propuesta de valor inicial para atraer a nuevos clientes.
  • Retencion a 90 días: se usa para medir la retención a mediano plazo y el nivel de “stickiness” -o qué tan indispensable se vuelve tu producto para el usuario- que lográs; especialmente si es un modelo de suscripción o una fintech esto es CLAVE, y podés evaluar incluso las estrategias de engagement.
  • Retención a 1 año: esto mide la lealtad a largo plazo y la satisfacción del cliente. Indica si tu producto ha logrado ofrecer un valor sostenible para sus usuarios; pero además los clientes a largo plazo tienen más probabilidades de convertirse en defensores y evangelizadores de tu producto.

¿Podés medir en otros períodos?

Claro, pero para eso hay otras formas de lograr mejores insights; ej: el "bounce rate" te ayuda a entender cuán efectivo es tu punto de entrada -sea una app o lo que sea- o la medición a 7 días que te ayuda a entender si el nuevo usuario que descargó tu app o entró en tu comunidad, pasó el punto de registro y empezás a ser un hábito en su vida.

Honestamente, hoy podés medir lo que quieras, pero 30, 90 y 365 días te permiten tener un benchmark con la industria que te ayude no sólo a entender tus puntos débiles sino también tener mejores charlas con tus inversores y podés reflejar diferentes etapas del ciclo de vida del cliente, desde la adopción inicial hasta el compromiso a largo plazo.

¿Buena retención implica crecimiento eterno?

No, ni de cerca. La retención es solo una parte del ciclo de vida de una startup. Si bien es un indicador clave para medir el éxito inicial y la adopción del producto, no es un resultado permanente. En la mayoría de los productos, incluso aquellos con buenas curvas de retención, esta métrica eventualmente tiende a disminuir e incluso a llegar a cero debido a la disrupción de la competencia, cambios en las necesidades de los usuarios y factores externos impredecibles. Por eso, es fundamental que las startups no solo se enfoquen en mantener la retención, sino también en evolucionar su adquisición de usuarios constantemente.

| Estrategias
Tags:
emprendedores inversiones metricas startups

Los nuevos ‘Traitorous Eight’: El momento de los emprendedores en Generative AI”

En 1957, ocho jóvenes ingenieros, conocidos más tarde como los “Traitorous Eight”, tomaron la decisión que dio origen a Silicon Valley: abandonaron Shockley Semiconductor por desacuerdos con su fundador, fundaron Fairchild Semiconductor y no solo marcó el nacimiento de la industria de los semiconductores, sino que también sentó las bases de una nueva era con empresas como Intel y AMD.

Hoy, los investigadores en inteligencia artificial generativa tienen una oportunidad similar; si uno mira las 50 startups de AI con más funding por parte de inversores, o las 10 más conocidas, vas a ver que seguramente todos están fundados o co-fundados por un investigador; y cuando lean que equipos de empresas grandes (ej: Google u OpenAI) van a abrir un startup seguro son investigadores y tiene lógica porque el mercado de GenAI está todavía naciendo y nadie conoce cómo van a evolucionar los modelos de negocio.

Por eso con cada release de los gigantes, léase OpenAI, mueren decenas de startups; un poco repitiendome:

"... la velocidad de despliegue de infraestructura es tal que se está pisando con el lanzamiento de muchos modelos de negocio no probados o ni siquiera pensados, por el pico de expectativas exageradas de varios VCs que no dejan de saltar de una moda a otra, y tienen miles de millones en dry-powder". (¿Hay una burbuja?, agosto 2024).

¿Cómo impacta esto en la industria? De muchas maneras, pero algunas son más claras de ver que en otras:

  • A nivel emprendedor, es un gran momento para arrancar una startup donde AI sea parte core de tus procesos... pero si vas a ser un "pure AI" tendrías que ir a mercados donde puedas tener una diferenciación clara.
    • Tooling: como los llamabamos en MS, toda herramienta que ayude al mercado a implementar o manejar herramientas de AI es clave.
    • Enterprise: si sos capaz de trabajar con sets propietarios de datos (aunque la ventana se esté cerrando) en mercados donde los hyperscalers no estén atacando directamente tenés una oportunidad. (Nota: no lo confundas con hacer "consulting/implementation" porque tu exit es un aquihire a un Globant y está bien, pero a un VC eso no le interesa).
    • O, como decía arriba, usá AI para tus procesos... ej: el on-boarding de usuarios, la creación del contenido (ej: no entiendo que MercadoLibre no tenga un "Copilot de publicación" o que las apps de Citas no te ayuden a editar tus imágenes con GenAI!)
  • A nivel Inversor, si no entendés como funcionan los stacks de AI y como están avanzando los gigantes (más allá de los comunicados) creo que vas a tener un problema en encontrar un AI startup que la rompa.
    • Consejo: si estás en un mercado marginal sin un fundador o co-fundador técnico realmente fuerte, deberías repensar cómo pueden competir tus invertidos contra un ecosistema cada día más concentrado.
  • A nivel Big Tech: los hyperscalers van a seguir siendo los ganadores porque nadie tiene sus recursos, pero el talento que están perdiendo es increíble porque NO ofrecen oportunidades de crear internamente; para tener una idea: ninguno de los 8 creadores de "Attention is all you Need", el paper que creó este mercado, sigue en Google, y de las 50 empresas top de AI a nivel global... 14 fueron fundadas por ex Googlers (ej: Anthropic, Perplexity AI y Mistral AI).
  • A nivel academia: sigo sosteniendo como hace 8 años que el "la pérdida de talento en la academia va a ser un problema a largo plazo". Eso se ve en las posiciones que ni siquiera Stanford o Caltech pueden cubrir, cuando antes era una meca.
    • ¿Que haría? encontrar mejores mecanismos de transferencia de tecnología donde los investigadores sean debidamente recompensados (ej: Israel Tech).

De nuevo, estos son pensamientos sueltos sobre el gran gran momento en el que estamos metidos todos los del ecosistema emprendedor, y creo que Hispam/Brasil tienen grandes oportunidades para este momento, pero deberíamos entender bien que estamos en la génesis de algo como fue 1957 para Silicon Valley y que, además, pese a que estamos en un mercado lejano... el talento es global pero el capital no todavía

| Inteligencia Artifical
Tags:
emprendedores innovación inteligencia artificial inversiones

Simplificar algo es lo más complejo que hay

En un mundo, casi tiktokero, dominado por soluciones rápidas y frases llamativas, los mejores líderes logran dominar la complejidad y hacer que parezca sencilla; los malos lideres sobre-simplifican sin entender siquiera las bases del problema. Hay una frase de Steve Jobs que captura la escencia de esto: la capacidad de simplificar soluciones complejas sin reducirlas a respuestas ineficaces y excesivamente simplificadas es realmente complejo.

“Simple can be harder than complex: You have to work hard to get your thinking clean to make it simple. But it’s worth it in the end because once you get there, you can move mountains.” Steve Jobs

Y cuando sos un emprendedor la simplicidad es una ventaja competitiva SIEMPRE. La gente ansía la simplicidad de manera natural; y lo vas a ver sea un cliente eligiendo entre productos o un equipo alineándose con una estrategia, la claridad inspira confianza y seguridad.

Leer completa
| Estrategias
Tags:
emprendedores management Simplicidad

Microsoft Copilot y Google AI: una carrera al abismo

Hace 2 días Microsoft y Google decidieron incluir gratuitamente sus versiones de AI en sus aplicaciones de productividad, léase Microsft 365 y Google Wokspace, mientras aumentaron el precio base en menos del 10%... esta es, literalmente, una carrera hacia el abismo donde cada uno busca entrar al mercado de otro solo con precio.

  • Google: "A customer using the Workspace Business Standard plan with a Gemini Business add-on previously paid $32 per user, per month. Now, that same customer will pay just $14 per user, per month — only $2 more than they were paying for Workspace without Gemini."
  • Microsoft: "bringing Microsoft Copilot and Microsoft Designer to Microsoft 365 Personal and Family subscribers in most markets worldwide" ... "the prices of Microsoft 365 Personal and Family in the US for the first time since its release by $3 USD per month"

La primer lectura es que; sacaron del juego a cualquier otro jugador del mercado de "software de productividad" que quiera agregar funciones de AI porque los únicos con la espalda financiera para atender un par de centenas de millones de usuarios son Microsoft, Google, Amazon y Meta... y estos últimos dos no cuentan aca.

Leer completa
| Inteligencia Artifical
Tags:
AI competencia Google Microsoft openai

OpenAI Mafia

Si de Paypal salieron varios emprendedores que se convirtieron en estrellas en Internet (desde Elon Musk hasta Roelof Bohta o Dave Mclure, Peter Thiel y tantos otros) creo que de OpenAI están saliendo tantos empleados que fundan empresas que están dominando nichos que recien arrancan en este landgrab que va a dejar atrás a los de Paypal.

Solo estas 15 empresas fundadas por ex empleados de OpenAI ya levantaron casi 15.000 millones de dólares de fondos de inversión y estan tomando verticales tan específicos que con sus backgrounds de research y el capital que reciben... van a sacudir a algunos de los grandes que conocemos hoy.

Name of StartupName of FounderPosition at OpenAI
Safe Superintelligence (SSI)Ilya SutskeverCo-founder and Chief Scientist
AnthropicDario AmodeiSenior Research Scientist
Perplexity AIAravind SrinivasFormer Researcher and Intern
AdeptDavid LuanFormer Researcher
CovariantPieter AbbeelFormer Researcher
GantryJosh Tobin, Vicki CheungResearch Scientist, Head of Infrastructure
Eureka LabsAndrej KarpathyFormer Research Scientist
Unnamed AI StartupMira MuratiFormer CTO
Unnamed AI StartupBarret ZophFormer VP of Research
Prosper RoboticsShariq HashmeMember of Technical Staff
QuantasticaPetar KorponaićData Preparation Engineer
Forecasting Research InstituteMichael PagePolicy and Ethics Adviser
AidenceTim SalimansResearch Scientist and Team Lead
CrestaTim ShiMember of Technical Staff
PilotJeff ArnoldHead of Operations
DustStanislas PoluResearch Engineer

| Inteligencia Artifical
Tags:
Dario Amodei Ilya Sutskever mafia openai

LLMs intentando engañar o manipular a sus devs

Me pareció interesante leer este paper de los investigadores de Apollo Research donde evaluaron diferentes modelos de IA para ver si participarían en "maquinaciones" más simple si intentarían engañar o manipular a sus desarrolladores para lograr un objetivo específico.

Pero más allá de los resultados me pareció un paper interesante porque muestra los desafíos que existen al momento de entrenar un modelo de AI, encontrar los patrones para crear "guardas" de seguridad y/o entender como suceden estas cosas en lo que para muchos es una gran caja negra donde no se sabe con seguridad que es lo que pasa dentro.

Leer completa
| Inteligencia Artifical Seguridad
Tags:
AI innovación LLMs Seguridad

Here's to the lazy ones...

Pasamos de los locos a los vagos en un abrir y cerrar de ojos... de acuerdo a la publicidad de Apple Intelligence, aunque siendo justos de Google tambien, está bien: hacer nada y esperar que un algoritmo magico nos resuelva todo, fijense estos videos de campaña.

Honestamente, creo que esto es lo que les pasó a los creativos que no usaron jamás ChatGPT o Claude o Apple Intelligence entonces no entienden todo lo que estas herramientas pueden hacer y, de hecho, hasta los que critican estas herramientas reconocen que "I do not like Generative AI"

O no trabajar y enviarle un mail a un jefe explicandole lo genial que es y como su liderazgo nos emociona

O simplemente olvidarte el cumpleaños de tu marido y regalarle un "recuerdo" que inventa Apple Photos

Pasamos de "los crazy ones" a los "lazy ones"... podrian enfocarse en tantas otras cosas. pero realmente escribir una carta a tu idolo, explicando lo que querés de tu vida y porque lo admiras, es algo que creo que jamás le pediría a un algoritmo

Me gustó como lo puso en Blue Sky un autor:

“Obviously there are special circumstances and people who need help, but as a general ‘look how cool, she didn’t even have to write anything herself!’ story, it SUCKS. Who wants an AI-written fan letter??”

“Here's to the crazy ones. The misfits. The rebels. The troublemakers. The round pegs in the square holes. The ones who see things differently. They're not fond of rules. And they have no respect for the status quo. You can quote them, disagree with them, glorify or vilify them. About the only thing you can't do is ignore them. Because they change things. They push the human race forward. And while some may see them as the crazy ones, we see genius. Because the people who are crazy enough to think they can change the world, are the ones who do.” ― Steve Jobs

| Apple Google Inteligencia Artifical
Tags:
generative AI publicidad Rants

Not your keys, not your coins. Not your blog, not your content.

Hace 23 años arrancaba este blog y, de una manera extraña, sigue siendo el único lugar donde puedo escribir lo que quiera, como quiera, experimentar lo que se me ocurra, abandonarlo, volver a arrancarlo, rediseñarlo, decir lo que quiera y no rendirle cuentas a nadie... más que a mí mismo.

Aunque la opinión de cada "generación" cambie hay tres cosas que siguen firmes:

  • (1) Los blogs siguen acá y nadie puede negarlo.
  • (2) La crítica evoluciona pero solo se centran en "¡ alcanzarías más audiencia!"
  • (3) Las terceras partes (como redes sociales) siguen cerrándose y te volvés SU inquilino.

Recuerdo a uno de mis primeros inversores decir "joder macho, que si no pasas a un Medium esto no tiene sentido" hasta que un día se dieron cuenta que en Medium, Substack o quien sea había reglas de lo que podías hacer o decir; de hecho hoy hasta hay reglas de aplicación de Inteligencia Artificial que hacen difícil sumarizar para dar contexto.

Y cada 3 o 4 años el consejo de "los que saben" reaparece: "La audiencia no quiere leer en tu sitio, quiere estar en LinkedIn/X/Thread". Pero un día se dan cuenta que los algoritmos hacen casi imposible que un link a sitio de terceros tenga relevancia y que se les hace imposible, si quieren mantenerse relevantes, abandonar redes sociales que te fuerzan a adaptar tu contenido a SUS algoritmos.

Leer completa
| Weblogs
Tags:
blogs identidad Medios

"There is no spoon": Por qué los LLMs no 'alucinan'

Recuerdo en The Matrix cuando Neo llega a conocer a The Oracle: ahí se da cuenta de que no hay una cuchara, sino solo la representación mental de una cuchara. Es entonces cuando comprende que la realidad no es como la percibimos, sino una interpretación que hace nuestro cerebro: lo mismo nos pasa cuando imaginamos que un LLM alucina o que entiende inherentemente lo que le preguntamos.

La cita de The Matrix funciona aquí como una metáfora clave: “No existe la cuchara” en el sentido de que el modelo no tiene ninguna percepción o concepto inherente de la realidad; está imitando patrones estadísticos sin una comprensión o creencia subyacente. Por eso en lugar de tratar de “ver la cuchara” (o una realidad concreta), un LLM se limita a procesar y reproducir correlaciones.

El “fallo” en el sistema es de nuestra percepción humana cuando se espera una precisión o intencionalidad que el modelo no puede ofrecer, no es un fallo del modelo.

Leer completa
| Inteligencia Artifical Rants
Tags:
AI IA innovación LLMs

Entendiendo la carrera de IA y genAI

Creo que el ecosistema inversor/emprendedor de la region (Latam+España) no entiende el momento o espacio en el que está en temas de Inteligencia Artificial especialmente en GenAI y, quizás, analizar los 100 papers más citados en el ámbito académico ayude a explicar dónde estamos parados para así entender dónde podemos encontrar oportunidades de inversión para crecer.

Version simplificada del Stack (lo del medio podes pensarlo de varias maneras)

¿Por qué los 100 papers más citados? [fuente] Por dos razones principales: por un lado, el momento actual de la inteligencia artificial generativa es el de transferencia tecnológica, de R&D y academia a corporaciones y startups. Y, por otro lado, porque el avance de las corporaciones sobre la investigación académica se está dando a pasos agigantados por la cantidad de capital necesario para desplegar estas soluciones.

Leer completa
| Estrategias Inteligencia Artifical
Tags:
AI emprendedores generative AI innovación inversiones

Perplexity Spaces: o cómo usar IA para competir con Google

Perplexity está empeñado en crear "el próximo Google", o al menos finalmente sacarnos del ridículo paradigma de los 10 links azules como la mejor forma de buscar en Internet; pero es interesante que esto implica que uno puede "dialogar" con el LLM, que es parte del buscador, mantener las búsquedas en memoria e indagar mucho mas en cualquier búsqueda que hagas, entre otras. Esto tiene, al menos, dos nuevas derivadas:

  1. Es mucho más interesante "investigar que buscar" con lo que para un dato puro termino volviendo a Google, pero para buscar cuando estoy armando o creando termino dialogando con Perplexity.
  2. Si podés usarlo para profundizar, utilizar tus propios documentos o papers suma mucho a este trabajo.

Por eso que aparezcan los Perplexity Spaces tiene sentido y parece un paso natural; los Perplexity Spaces son espacios donde podés agrupar tus búsquedas en la web con tus archivos personales e invitar a terceros a sumarse a ese "centro de colaboración" donde tus búsquedas son híbridas (porque agrupan data pública y data tuya), grupales (porque podés invitar a terceros) y colaborativas (porque todos suman al espacio).

Leer completa
| Estrategias Inteligencia Artifical
Tags:
AI emprendedores Google innovación perplexity

Vuelve la Energía Nuclear, gracias a la IA

En estas dos semanas vimos noticias sobre el uso de energía nuclear por parte de Microsoft, Amazon y Google; todos apostando a la energía nuclear para alimentar la infraestructura necesaria para sostener el crecimiento de GenAI. Microsoft reactivando Three Mile Island; Google y Amazon apostando a los Small Modular Reactors. Y todo esto está empujando una fuente de energía que nunca debió dejarse de lado.

¿Por qué perdió apoyo la energía nuclear en este tiempo?

La realidad es que perdió apoyo por una mezcla de factores económicos y una idea falsa de la inseguridad de esta fuente:

  • Accidentes importantes: los accidentes de Three Mile Island (1979), Chernobyl (1986) y Fukushima (2011) generaron serias preocupaciones sobre los riesgos y consecuencias de las plantas nucleares.
  • Gestión de residuos radiactivos: cuando se habla de los desechos radioactivos, en general, los medios solo se enfocan en los problemas a largo plazo, en vez de la optimización de uso del combustible nuclear y la innovación para ese manejo.
  • Altos costos de construcción sumados a la desregulación del mercado: los crecientes costos de construir nuevas plantas nucleares, que a menudo superan miles de millones de dólares, hicieron que la energía nuclear fuese menos atractiva económicamente; al desregularse el mercado y bajar los precios, la energía nuclear fue menos competitiva en algunas regiones, y eso empujó menos inversión y, por lo tanto, menos innovación.
  • Preocupaciones sobre la proliferación: los temores acerca de que la tecnología nuclear civil pudiera contribuir a la proliferación de armas nucleares aumentaron la inquietud pública.

Un par de temas en los que no quiero meterme son los políticos 1. Repito: Alemania dejó de ser autosostenible y ahora es prisionera del gas de Rusia) 2. El crecimiento de otras renovables con mejor prensa (eg: hidroelectricas y eólicas), especialmente en momentos en los que el foco en cambio climático a veces se torna basado en prensa y no en datos.

Las tecnológicas impulsando la energía nuclear

De golpe (aunque este mercado no frenó) nos encontramos con algunas cosas, como Microsoft reactivando Three Mile Island y comprometiendose a comprar TODA la energia que generen por los próximos 20 años; luego Amazon invirtiendo en el desarrollo de plantas modulares y Google haciendo algo similar con Kairos y todos hablando de "El resurgimiento de la energía nuclear"... con varias razones que se pueden dividir en 4 temas :

  • 1. Creciente Demanda de Energía
    • IA y Centros de Datos: el rápido crecimiento de la inteligencia artificial y los centros de datos está creando una demanda de electricidad sin precedentes. La Agencia Internacional de Energía prevé que el consumo eléctrico de los centros de datos podría más que duplicarse para 2026, superando los 1,000 teravatios hora.
    • Electrificación: la tendencia global hacia la electrificación de edificios y vehículos está incrementando aún más la demanda de energía
  • 2. Metas de Energía Limpia
    • Electricidad sin carbono: la energía nuclear se ve como una solución climática porque los reactores no emiten gases de efecto invernadero, alineándose con los compromisos de las empresas tecnológicas para reducir emisiones.
    • Limitaciones de las renovables: aún con las inversiones gigantes en energía eólica y solar, hay limitaciones en términos de consistencia y capacidad que la energía nuclear puede subsanar.
  • 3. Estabilidad y Confiabilidad de la Red
    • Energía de Base: La energía nuclear puede proporcionar una energía de base estable, crucial para mantener la confiabilidad de la red a medida que aumenta la participación de fuentes renovables intermitentes.
    • Seguridad Energética a Largo Plazo: Invertir en energía nuclear ayuda a las big tech a asegurarse un suministro energético estable y a largo plazo para sus operaciones
  • 4. Avances Tecnológicos
    • Reactores Modulares Pequeños (SMR): las empresas están invirtiendo en SMRs, que ofrecen ventajas como menores costos iniciales y construcción modular. Estos se consideran más económicos y más fáciles de desplegar que los reactores tradicionales a gran escala.
    • Otros startups: Terra Power que está ya construyendo su Natrium Plant que supuestamente sale del paradigma del enfriamento por agua para pasar a metales liquidos.

Sumémosle que hay avances con los SMR e inversiones como las de BillG en TerraPower: termina siendo un no-brainer que sean las tecnológicas las que lideren este resurgir sin que esto signifique que el resto de las energías se dejen de lado. De hecho, cuando estaba en MS firmamos un acuerdo gigante con Brookfield enfocado en energía eólica.

Small Modular reactors

All of this matters because the world needs to make a big bet on nuclear. As I wrote in my book How to Avoid a Climate Disaster, we need nuclear power if we’re going to meet the world’s growing need for energy while also eliminating carbon emissions. None of the other clean sources are as reliable, and none of the other reliable sources are as clean. - Bill Gates

En definitiva, la inversión en nuclear, que estamos viendo como una derivada de las necesidades de los datacenters y la inteligencia artificial, es un gran paso adelante para tener complementos a las renovables y que finalmente pasemos a energía verde sin frenar el mundo porque no sabemos salir de la dependencia de viejas tecnologías.

| Estrategias Inteligencia Artifical Microsoft Opinión
Tags:
cambio climatico energia inteligencia artificial TerraPower

ChatGPT y el contexto

En 1973, Arthur C. Clarke escribió Perfiles del Futuro: Una Investigación sobre los Límites de lo Posible", donde formuló sus famosas “Tres Leyes”, siendo la tercera la más citada: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia.” Esta frase hoy me persigue, especialmente con el auge de los Modelos de Lenguaje Grande (LLMs) o el uso de ChatGPT. Estos modelos pueden generar resultados que se sienten mágicos, pero no entender el papel que juega el contexto es no entender su esencia misma.

El contexto no es solo una característica; es la base que permite a estos modelos realizar su “magia”.

El contexto en los LLMs se refiere a los diversos tipos de información que el modelo procesa para generar una respuesta relevante y eso incluye al menos 3 divisiones:

  • La consulta: esto es el texto o consulta que el usuario quiere entender y sirve como el prompt principal para la respuesta del modelo.
  • Instrucciones del usuario: cualquier directiva específica o guía dada por el usuario, como pedir un resumen, una explicación detallada o un cambio en el tono. Esto incluye que le digas cual es el perfil al que debe apuntar (eg: "soy un arquitecto de 35 años, con 8 de experiencia en diseño de aeropuertos") y que puedes incluir siempre en la consulta.
  • Conocimiento amplio: la información con la que el modelo ha sido entrenado, incluidos libros, artículos y otras fuentes de datos, que le permite entender el lenguaje, los conceptos y los contextos más allá de la entrada inmediata.

Cuando el LLM genera respuestas, está sintetizando estos elementos, por eso las respuestas generadas suenan coherentes y, sobre todo, relevantes para las expectativas del usuario. Sin aprovechar este contexto, el modelo perdería su capacidad de proporcionar respuestas significativas para tus expectativas o, luego de refinar el "context window", que sean realmente precisas.

“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.”
― Christopher Priest, The Prestige (citado antes)

Personalizar los LLMs para aprovechar al máximo la entrada inmediata y las instrucciones del usuario es clave para garantizar respuestas relevantes y efectivas. (Nota: obviamente no hablo de personalizar el modelo porque no está a tu alcance). Por ejemplo:

  • Optimizar la entrada inmediata: puedes ser preciso en la forma en que formulas tus consultas para obtener las respuestas más precisas y enfocadas. En lugar de hacer preguntas vagas, como “¿Qué es la IA?”, intenta algo más específico para que la respuesta salga adaptada a un perfil como el tuyo:
    • “Explica los beneficios clave de la IA en la salud en términos simples, soy un paciente de 53 años que conoce poco de tecnología.
  • Personalizar las instrucciones del usuario: puedes guiar al modelo para que produzca contenido que se ajuste a tus preferencias y las opciones son ilimitadas. Por ejemplo, podrías pedir que se adapte a un formato: “Resume este artículo en 3 puntos”. O a tu conocimiento: “Dame una explicación detallada con términos técnicos”. O a tu necesidad de mimos al ego:
    • "De todas nuestras interacciones, ¿cuál es una cosa que puedes decirme sobre mí que tal vez no sepa sobre mí?"

Cuanto más refines y personalices tus entradas, mejor podrá el modelo responder a tus necesidades específicas.

Además de mejorar las interacciones con preguntas más precisas, podés personalizar ChatGPT/Claude o MetaAI para que se adapte aún más a tus necesidades.

Por ejemplo, ChatGPT puede recordar detalles de tus conversaciones previas, lo que le permite ofrecer respuestas más relevantes y personalizadas a largo plazo. Podés preguntarle directamente qué recuerda de ti para que borres lo que no te interese o agregues datos o pedirle que te ayude a ajustar la forma en que responde a tus solicitudes.

Por ejemplo, una simple pregunta como “¿Qué sabes sobre mí?” te mostrará la información que ChatGPT ha guardado de tus interacciones previas, brindándote una mayor comprensión de cómo utiliza el contexto para personalizar su asistencia y quizás tengo la ventaja de haber heche una carrera humanistica donde se entiende que:

La importancia del contexto en comunicación es que organiza y da sentido al mensaje. El significado de un mensaje no depende solo de su estructura gramatical, sintáctica o léxica sino también del contexto que acompaña a un enunciado y afecta a su interpretación.

Que lindo futuro nos espera con prompt engineering.

| Inteligencia Artifical
Tags:
AI chatgpt innovación llm openai

NotebookLM: de contenido a podcast en segundos, una gran idea de Google con AI

Me gusta NotebookLM por varias razones: primero, porque es una gran muestra de las cosas que se pueden hacer con la IA generativa combinando modelos; luego, porque algunos casos de uso me están sorprendiendo; y finalmente, porque, en cierto sentido, muestra que Google sigue siendo capaz de desarrollar productos interesantes.

¿Qué es y cómo funciona NotebookLM?

Para los que no lo conozcan, NotebookLM (antes conocido como Project Tailwind) es una herramienta impulsada por IA, diseñada para ayudar a los usuarios a organizar, analizar y obtener información de las notas que toman, sean estas propias o documentos que uno sube. También funciona con enlaces que uno ingresa en el sistema y utiliza una combinación de modelos de lenguajes, empleando IA para extraer puntos clave, resumir contenido y generar preguntas o insights… ¡incluso en formato de podcast!

Ejemplo de "podcast" creado con solo introducir la URL de "Inteligencia Artificial" de este blog en NotebookLM

Lo interesante es cómo funciona. El proceso que usa NotebookLM de Google para transformar contenido escrito en conversaciones de audio es fascinante, porque combina partes ya vistas y "estandarizadas" con nuevas ideas, especialmente en edición. Todo comienza cuando subís tus documentos - pueden ser notas, documentos en PDF o enlaces como en el ejemplo anterior.

Cuando subís el contenido, Google con su IA (usa el modelo Gemini 1.5 Pro) analiza tu texto, procesándolo y "entendiendo" no solo las palabras sueltas, sino también el contexto y los puntos clave de todo el documento.

Luego, la IA crea un "script" donde transforma/convierte ese análisis de tu texto en un diálogo (usando otro modelo de "texto a tokens") entre dos personas.

Finalmente, la inteligencia artificial sintetiza ese resultado en dos voces (usando otro modelo más, Soundstorm) e incluye risas, interrupciones, pausas pensativas, muletillas sutiles y lo "publica"... con una atención al detalle sorprendente.

Todo esto en menos de 10 minutos. ¿Qué tiene de interesante? En cuestión de minutos, tu texto se transforma en un podcast de 10-15 minutos que suena natural y hace que tu contenido sea más accesible. Básicamente, convierte tu material escrito en una charla de audio que presenta la información de manera clara y entretenida.

Principios clave de diseño

¿Por qué me pareció interesante esto como muestra de que Google Labs puede crear productos virales y, potencialmente, interesantes? Dos razones bastante simples:

  1. Enfoque AI-First: NotebookLM fue diseñado desde cero con capacidades de IA como núcleo, reimaginando cómo podría ser un software de toma de notas con un potente modelo de lenguaje como base.
  2. IA Basada en Fuentes (Source-Grounded AI): una característica distintiva de NotebookLM es que permite a los usuarios "anclar" el modelo de lenguaje en fuentes y documentos específicos proporcionados por el usuario. Esto crea un asistente de IA personalizado que está versado en la información relevante para las necesidades del usuario y donde el potencial de alucinar es menor.

De nuevo, Google no metió herramientas de IA en Google Keep, sino que creó algo desde cero basado en herramientas de IA en menos de dos meses. Y más allá de que esto pueda terminar en el Google Graveyard, es una gran prueba de concepto que muestra que la información puede hacerse más accesible.

Información o educación más accesible

Esta tecnología representa un avance muy significativo en la forma en que podemos consumir y compartir información. Aunque la primera lectura podría ser cínica y decir "estamos convirtiendo texto en snacks" o "si lo hace una IA es que es simple", la realidad es que las aplicaciones potenciales abarcan varios campos, desde la educación y los negocios hasta hacer que la información sea más accesible para personas con diferentes preferencias de aprendizaje o problemas de visión.

No pienso solamente en convertir capítulos de libros en discusiones de audio para estudiar mejor, que es, tal vez, lo primero que viene a la mente, sino en buscar nuevas formas de escuchar tu contenido y crear una narrativa nueva (de hecho, tengo ganas de hacer unas pruebas con decks de startups... ¡pueden enviarlo para que lo haga! 😄).

¿Cómo seguirán? Asumo que expandirán esto a otros idiomas, personalizarán las voces o ajustarán la duración, o tal vez con ideas que ni se me hayan ocurrido.

| Google Inteligencia Artifical
Tags:
AI Google innovación llm NotebookLM

Google obligada a abrir Android y su App Store

Finalmente hay una sentencia en el juicio de Epic contra Google por monopolio. Y es uno de los peores escenarios para Google porque lo fuerza a permitir tiendas de aplicaciones de terceros en Android, le prohibe usar incentivos para que fabricantes o desarrolladores lancen exclusividades en su App Store y, sobre todo, lo fuerza a aceptar métodos de pago de terceros.

google monopolio anticompetitivo

Cuando arrancó el juicio, dije que la estrategia de Epic era arriesgada pero bien pensada porque forzaba a analizar cada parte de los acuerdos de Google para mantener a Android "cerrado" pese a ser abierto.

Y mientras todos miraban lo que pasaba con Apple, Epic Games demandó también a Google por ser un monopolio por su método de distribución vía el Play Store y por el requerimiento de usar Google Play Billing para quedarse con una comisión de todos los ingresos de las apps. Aunque muchos pueden decir que acá "Google juega menos fuerte que Apple", Epic Games mostró documentos donde One Plus y otros fabricantes fueron forzados por Google a NO pre-instalar Fortnite Launcher en sus teléfonos, aún cuando había especificaciones técnicas que crearían una mejor experiencia para el usuario.
- Epic vs Apple y Google al mismo tiempo (2020)

Y cuando miramos por qué Epic le ganó a Google pero no a Apple es básicamente por la interacción de estos puntos: por un lado Google dice que Android es abierto pero si te restringe acceso a Google Play Services el OS es inusable; por otro, cuando ve que alguien tiene una posición de mercado suficiente (pensemos en Samsung o One Plus en su momento) te ofrece incentivos para no pre-instalar apps de terceros y nadie puede pagar más que ellos, especialmente un startup. Y esto es lo que se está protegiendo ahora, con la base en lo mismo que no me canso de repetir:

  • Un monopolio no es inherentemente malo, es malo si lastima al consumidor.
  • Un monopolio no es inherentemente malo, es malo si protege su posición de forma injusta o ilegal.

Nuevas reglas para Google en Android

  • Google debe permitir tiendas de aplicaciones rivales en dispositivos Android por 3 años.
  • Google no puede prohibir el uso de métodos de pago alternativos dentro de aplicaciones por 3 años.
  • Google debe permitirle a los usuarios descargar esas tiendas y las aplicaciones que provengan de ellas en Android.
  • Google Play Store debe listar y permitir la promoción de esas tiendas de tercerdas partes

Las nuevas restricciones para Google son:

  • Google tiene prohibido pagar o compartir ingresos con otras empresas para evitar competencia en su App Store.
  • Google no puede pagar a developers de forma exclusiva en Google Play y debe explícitamente ofrecer opciones.
  • Google tiene prohibido brindar incentivos financieros para que los fabricantes instalen Google Play en dispositivos.

¿Con esto se ve asegurada la "libre competencia"? No lo creo: de hecho si miramos lo que Apple hizo con la Unión Europea fue buscar el punto de equilibrio financiero donde no te prohiben usar plataformas de pagos de terceros pero lo hacen económicamente inviable...

Espero que Google apueste a apalancar su ecosistema de desarrolladores y startups para que esto no se convierta en un problema financiero en vez de ir a pelear y complicarle la vida al startup promedio.

| Google US vs Google
Tags:
Epic Games fortnite Google monopolio startups

Zero Interest Rate Phenomenom y un gran momento para early-stage

Pocas cosas son mas simples de entender que el ZIRP que vivimos hasta 2021; con tasas de interés en cero el mercado no le preocupa el ROI ahora o en una década con lo que un fondo de inversión puede apostar a largo plazo y en ideas estúpidas.... ¿cuando levantaron plata esos fondos que admirás?

Fast-Forward a hoy: con tasas de 5.5% pongo plata en bonos y en una década tengo 170% de retorno ¿que fondo me da ese retorno? (*) entonces a un VC no puedo darle plata para que haga pelotudeces y entonces los inversores de riesgo se vuelven mas conservadores porque les cuesta levantar un fondo.

¿Cual es la segunda derivada de esto? los fondos grandes que invirtieron en valuaciones ridiculas (eg: A16z) llamaron la atención de los PE players (eg: Coatue, Tiger, etc.) y juntos generaron una generación de startups que van a parir para que sus siguientes rondas no sean un downround y hay una fricción gigantesca para invertir si no tienen runway.

¿A que viene esto? a que es un gran momento para invertir en early stage o inversiones ángel... el mercado se limpió:

  • muchos de los fondos que necesitaban desplegar su capital en growth hoy no van a molestar en early stage porque necesitan cuidar sus números,
  • muchos emprendedores que lograron salir en 2020/21/22 tienen ganas de hacer cosas y tienen capital para invertir en otros,
  • Ai está recién arrancando y el valle de la desilusión va a borrar wrappers y startups sin diferenciación.

Soy más que optimista de este momento, creo que el ecosistema emprendedor debería enfocarse en construir porque el capital va a seguirlos, en vez de seguir ellos al capital (x) como pasó un tiempito nomás.

notas:

(*) y eso es solo para mantener mi poder de compra porque con 5.5% técnicamente voy a perder un 42% de valor.

(x) si los fondos y las asociaciones regionales no empiezan a hablar en serio del tema del ZIRP van a seguir mirando boludeces en vez de dar un debate interesante aunque privado.

| Estrategias
Tags:
emprendedores fondos de inversión innovación inversiones latam

¿Hay una burbuja de la Inteligencia Artificial? No.

Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o "La Revolución de la Inteligencia Artificial pierde fuerza" y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.

“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.”
― Christopher Priest, The Prestige

Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente "fad".

Leer completa
| Inteligencia Artifical
Tags:
AI innovación inteligencia artificial inversiones startups

Google, otra vez, condenado por practicas monopólicas

Google sufrió una nueva condena de parte de un juez federal de los Estados Unidos por usar su posición dominante de forma anti-competitiva: esta vez, por su acuerdo con Apple para ser el buscador de iOS por USD20bn anuales y está pasando lo que es, para mí, uno de los juicios más interesantes actualmente.

google monopolio anticompetitivo

Antes de analizar el tema, creo que es importante entender estos 3 puntos porque son la base de las leyes anti-monopolio de USA:

  • Un monopolio NO es inherentemente malo.
  • Un monopolio es malo si está lastimando al consumidor.
  • Un monopolio es malo si protege su posición dominante de forma injusta o ilegal.

Y es por eso que la investigación contra Google no busca determinar si tiene posición dominante de mercado sino que sólo se analizó y se determinó que Google tiene esa posición dominante pero que la protege de forma ilegal y frena la competencia y lastima a los consumidores -y acá el consumidor puede ser un usuario del buscador o un anunciante.

Leer completa
| Google US vs Google
Tags:
Google

Inversión en AI: de casos de uso a ROI

¿Estamos realmente viendo el impacto de AI que tanto se promete? Comienzan a aparecer indicios de que la gente está cansada de leer cosas genéricas sobre casos de uso de AI, o quizás sólo yo estoy cansado de leer templates que no muestran diferenciación con datos o impacto concreto:

“Leveraging non-specialized Large Language Models (LLMs) to streamline general information discovery, gathering, and organization workflows that would have taken a lot more time to complete without it.”

Bloomberg GPT o Inteligencia artificial en la terminal de bloomberg

Creo que podriamos mejorar mucho el entendimiento de la promesa de la inteligencia artificial generativa; el ritmo de inversión que estamos viendo necesita ejemplos concretos y directos como el siguiente:

“Alaska Airlines ha estado utilizando inteligencia artificial desde 2021 para ayudar a optimizar las rutas de vuelo por eficiencia. El sistema... analiza el clima, cierres de espacio aéreo y planes de vuelo de la FAA dos horas antes de cada vuelo para sugerir las mejores rutas. La AI procesa volúmenes de datos que sobrepasarían las capacidades humanas y, en menos de dos años, contribuyó a reducir los tiempos de vuelo en el 25% de los vuelos de Alaska, ahorrando un total de 41,000 minutos y aproximadamente medio billón de galones de combustible.

AI in Airlines at NYC by Julie Weed
Leer completa
| Inteligencia Artifical
Tags:
AI inteligencia artificial