OpenAI y el "adiós" al romance sin anuncios: ¿nuevo paradigma como Meta o necesidad finaciera?

No era un misterio, solo hacía falta saber como lo presentaban; pero OpenAI finalmente abrió el juego a la publicidad y, aunque lo venden como una forma de "expandir el acceso", los que seguimos la industria sabemos que hay mucho más debajo de la alfombra.

Anuncos en ChatGPT

Pasamos de un Sam Altman que juraba que ChatGPT no tendría anuncios a una realidad donde Google les está respirando en la nuca. La diferencia es que Google ya tiene el "manual del usuario" de la publicidad online escrito en su ADN, pero además es el dueño de la infraestructura publicitaria global y esa presión se siente como una pinza, con una mano Gemini no para de ganar usuarios al ser el dueño de Chrome, Android y el buscador monopólico... con la otra, Alphabet tiene las relaciones, el conocimiento y una infraestructura de publicidad que, repito, nadie tiene.

The Financial Times reported that in 2025 OpenAI operated at a loss of around $8bn (£5.98bn) in the first six months of the year, and that only 5% of ChatGPT's 800 million users are paid subscribers.

Especulaciones con algo de sentido

  • ¿Manotazo de ahogado? Como señalan en Nasdaq, este movimiento huele a necesidad para sostener un crecimiento que las suscripciones Plus no logran cubrir. Esta movida parece ser la respuesta obligada para fondear la próxima generación de modelos, especialmente ahora que el 95% de sus 800 millones de usuarios semanales consumen recursos sin pagar un dólar.
  • El costo de la "novedad": Los reportes de Search Engine Land hablan de CPMs altísimos (se rumorean arriba de los USD 50) para anunciantes, pero con una entrega de datos muy limitada. OpenAI está cobrando una "tasa de prestigio" a marcas que están dispuestas a pagar presupuestos millonarios solo por el hype de ser los primeros, aunque el retorno real sea hoy una caja negra.
  • El riesgo ético: En The Conversation advierten algo clave: la publicidad en una conversación es distinta a un banner. Si el usuario siente que la IA le recomienda un producto porque hubo un pago por detrás y no por utilidad real, la confianza —el activo más caro de OpenAI— se rompe, transformando al asistente en un bot corporativo.

¿Estamos ante el "Momento Meta" de la IA?

Acá es donde se pone interesante. Hoy la publicidad online es casi toda "transaccional" (busco algo, me lo vendés). Pero ChatGPT es conversacional.

Pero si algo creo realmente, es que el éxito de OpenAI no será ganarle a Google en su propio juego de "links patrocinados", sino lograr lo que hizo Meta hace una década: cambiar las reglas de juego para meterse en el "share of wallet" y, así como meta logró que las marcas tengan "presencia social" en Instagram, Facebook y Whatsapp... OpenAI tiene que convencer al mundo de que si tu marca no tiene una presencia conversacional en su ecosistema, no existe.

No se trata de "aparecer en la búsqueda", se trata de que el chatbot te mencione como la autoridad en el tema, y que de paso, veas donde hacer click para "convertir"

¿Cómo lo ven? ¿Creen que OpenAI puede crear un nuevo estándar publicitario o van a terminar rompiendo la experiencia del usuario que tanto nos gusta?

#OpenAI #ChatGPT #DigitalMarketing #AI #TechTrends #Gemini

| Inteligencia Artifical
Tags:
AI ChatGPT2026 DigitalMarketing Gemini openai

De rondas monstruosas y expectativas

Brex se vende en 5bn y muchos opinan que es “disappointing”… todos ganaron plata pero las expectativas eran tan altas que les pegaron aun con ese exit…

Recomiendo este post de SaaStr sobre hubristic fundraising. Está contado desde el caso Brex, y el paralelismo que hace es con el mercado de AI donde vemos noticias constantes de rondas de cientos de millones aún sin producto, pero vale la pena para cualquier founder, incluso si no está en AI.

La lectura clave no es “levantar mucho está mal”. Es entender el trade-off real cuando levantás rondas enormes a valoraciones que ya te dejan muy poco margen de error.

Leer completa
| Mercados
Tags:
inversiones startups

Auditando lo que sabe tu LLM de vos

Hablando con amigos, sale el tema de que la barrera de salida de un LLM a otro es alta por "todo lo que sabe de mi ChatGPT frente a Gemini" (o el que sea)... honestamente no creo que sea un problema pero a cualquier LLM podes pedirle que te diga, no solo lo que sabe de vos sino lo que puede inferir... un prompt y listo, aca abajo copio el que estuve usando/modificando/creando/etc usando los mismos LLMs que critico siempre 🤣

Tres aclaraciones:

  • No se siquiera si es necesario hacerlo pero esta version es una que saque pidiendole que sea "estilo auditoria forense para detectar contradicciones"
  • En ChatGPT funciona mejor que en Gemini, quizas porque ChatGPT es el que uso desde antes que sea publico por mi laburo con MS4Startups
  • Seguro en JSON se puede hacer mas automatizable...

De cualquier manera es super util para saber que sabe tu LLM de vos.

Leer completa
| Inteligencia Artifical Rants
Tags:
AI chatgpt pavadas privacidad

Harari más Allá del Nihilismo

Tuve la suerte de interactuar con Yuval Noah Harari en PuntaTech durante varios dias, y en su momento, lo critiqué demasiado irónicamente. Reconozco hoy que mi crítica fue simplona mientras que la Sergio Fogel fue realmente buena, pero especialmente al leer el lúcido contrapunto que David Deutsch presenta en "The Beginning of Infinity". Me obliga a reexaminar a Harari, no para desestimarlo por completo, sino para entender dónde sus brillantes hipótesis, a mi juicio, se tornan en una sobresimplificación determinista que coquetea peligrosamente con el nihilismo.

Harari, en obras como Sapiens, ha articulado cómo las "órdenes imaginadas" —ficciones colectivas como naciones o dinero— nos permitieron cooperar a gran escala, un motor clave para nuestra dominación planetaria. Sin embargo, su insistencia en que el libre albedrío es un "mito" y que somos esencialmente "animales hackeables", moldeados por algoritmos bioquímicos y condicionamientos ambientales, tiende a reducir la experiencia humana a una serie de respuestas predeterminadas. Su perspectiva, que postula el significado y los derechos como meras "ficciones compartidas", si bien provocadora, puede dejar un sabor a una complacencia casi nihilista sobre el valor intrínseco de la existencia humana.

Leer completa
| Rants
Tags:
filosofia Puntatech Yuval Noah Harari

Lecciones de un gran año sabático

Y trece meses después decidí que el año sabático que arranqué el 4 de septiembre de 2024 termine. Es interesante, de estos trece meses disfruté intensamente la última mitad, mientras que la primera mitad fue un desastre. Cuando uno no frena por años termina imaginando que la rueda tiene que seguir girando porque "algo" se puede perder, aunque no sepas qué.

Es super interesante, si me preguntabas yo estaba genial pero, evidentemente estaba un poco estresado... de hecho, cuando frené y arranqué el sabático, mi corazón se rompió literal y figurativamente. Tuve un infarto leve en noviembre del que estoy en recuperación… pero logré la primera enseñanza, no pasa nada si pisás el freno, te enfocás en vos y lo que querés y decidís cambiar (o no) el mundo no frena pero tampoco es tan grave como lo imaginamos, es tan simple que ya lo sabia:

«Son muchas más las cosas que nos aterran que las que nos aplastan; a menudo sufrimos más en la imaginación que en la realidad»

Séneca - Cartas a Lucilo

Lo mejor de esta primer enseñanza es la derivada o la segunda lección que saqué: “disfrutá la validación pero no la necesitás” ... las preguntas de los que sabian que arrancaba un sabático eran "¿pero donde te vas? dale, contame!" o "¿que viene ahora?" o "ya Wayra y MFS.. ¿como estas invirtiendo tu tiempo ahora?" esperando un nombre rutilante que valide que era una buena decisión y, honestamente, se disfruta ver que esperan algo bueno de vos pero... la única validación que NECESITAS, es la tuya y si tenés o no unpropósito

Dos cosas se dieron juntas; (a) en mi industria (VCs/Startups) se vive como en redes, una era de likes y constante foco en el exterior pero en esteroides y con aplausitos; (b) luego de MUCHO tiempo, dejé un apellido corporativo para frenar la pelota y ponerme a “Watching the wheels” (tip: gran canción de Lennon) fue genial para mi cabeza. De hecho, como diría Marco Aurelio:

“Si estás afligido por algo externo, el dolor no se debe a la cosa en sí, sino a la interpretación que haces de ella; y eso, tienes el poder de revocarlo en cualquier momento.”

Marco Aurelio — Meditaciones, Libro VIII, 47

De ese momento que, repito, era en medio de un año sabático que podía disfrutar sin preocupaciones… logré avanzar gracias a 3 cosas; primero le debo mucho a Valerie Derome, gran amiga y tal vez la mejor coach que he conocido, y la única persona capaz de decirme verdades directas incluyendo “te sentiste cómodo y perdiste el hambre…“. De nuevo, poca gente va más allá del aplausito asi que las charlas que te fuerzan a enfocarte valen y mucho.

En ese momento algo dio un vuelco y pude empezar a disfrutar el año incluso eligiendo trabajar con gente que quiero porque son buena gente y admiro porque son grandes emprendedores, así fue que me convertí en Advisor de Belo y su CEO Manu Beaudroit; de Workana y su CEO Tom O’Farrell y me sume a RetailIQ con Martin Pombo y Pablo Alvarez (si, raro para un sabatico trabajar)

De ahi salió una tercera lección: conocer a estos emprendedores fue suerte pero la suerte me agarró con conocimientos de lo que puedo hacer y así sumarnos valor a todos... el síndrome del impostor es una cagada y es real, pero cuando lo mirás podés elegir con quien trabajar y haciendo solo cosas que te gusten y desafíen, ¿no hay desafío ni interés? mejor me subo a una bici y nos vemos en la ruta.

La gran constante en este año fue el ciclismo y mis hijos; el ciclismo cambió bastante muchas de mis percepciones, es una fuente gigante de contradicciones y puteadas y esfuerzos que parecen no llevarte a ningún lado pero como podés medir todo... te das cuenta si estás creciendo o no.

En ciclismo todo SON datos... potencia, w/kg, zonas cardiacas, calorias, km/h, altitud, hay tanto para entender y mejorar que cuando te das vuelta no lo podes creer. Cuando miro los números es claro: pese al infarto en noviembre y gracias al foco en “lo que puedo controlar” estoy casi 200% arriba de mis objetivos propios de kilómetros y mejorando en TODAS las métricas de RHR, HRV, Watts/Kg y obviamente BMI.

Mejorando el estado fisico y actividades desde el inicio del sabatico (e infarto :P)

Gran lección: “enfócate en lo que podes controlar, preguntale a los que saben y no tenés que demostrarle nada a nadie más que a vos” (gracias Luisa Miguens por esa cena, estos parafraseando partes :P)

Tal vez las dos mejores lecciones de este año reforzaron algo en lo que vengo trabajando desde hace mucho y, aunque parezca algo hippie psilocibin-based, es clave:

  • La empatía es tu superpoder este año tuve 3 episodios que me harían perder la fe en la gente; pero si me esfuerzo en mirarlo con los lentes del otro puedo entender de dónde vienen sus actitudes/incentivos y así mejorar mi reacción que es literalmente lo ÚNICO QUE UNO CONTROLA.
  • Estas en un juego infinito, las metas y objeticos solo sirven si entendés eso. Sin entenderlo solo seguís jugando un juego que te deja vacío al cumplir objetivos y solo respondés a un "¿que viene ahora?" sin parar mi propio ejemplo en 2012 Wayra, en 2018 Microsoft for Startups LA, en 2021 MFS Americas, en 2024 AI4Startups… y jamás frené o celebré algo.

En fin, este pequeño post surgió por una pregunta de don Carlos Otermín y termine escribiendo demasiado... pero al menos, sirvió para "cerrar oficialmente" el sabático; y seguir pedaleando :)

Monte Baldo, VR. 7% por 16km. Disfrutando e insultandome por hacerlo pero al terminar se siente bien
| Rants

Financiar la demanda: Nvidia y el mundo de AI

Hace tiempo hay algunos acuerdos entre proveedores de LLM y fabricantes de GPUs que no parecen tener sentido; el 23 de Septiembre Nvidia anunció una inversion en OpenAI de 100Bn mientras que OpenAI anunciaba que esa inversión se iba a dar progresivamente mientras se habilitaran datacenters donde las GPUs eran compradas a Nvidia, el 8 de Octubre Nvidia anuncio una inversión de 2bn en Xai en una ronda total de 20bn mientras que xAI anunciaba la compra de casi 18bn en GPUs a Nvidia.

Todo en una especie de endogamia que huele a burbuja... o peor aún recuerda como CISCO financió su crecimiento en los 90 con la "burbuja puntoCOM" para explotar el 10 de Marzo de 2000 en el dotcom crash. Pero me pregunto ¿es una burbuja o se puede explicar racionalmente como una estrategia de financiamiento de demanda que es arriesgada pero que explica el crecimiento de empresas como Amazon, Microsoft o Intel?

Leer completa
| Inteligencia Artifical
Tags:
AI Amazon innovación Microsoft nvidia openai

Jardines Vallados en AI: ChatGPT vs Claude vs Gemini

Los chatbots, ChatGPT o Gemini o Claude, son de la tecnologia que más rapido creció en la historia; literalmente cientos de miles de millones de dólares están siendo invertidos para que OpenAI, Anthropic o Google sean los ganadores de esta carrera y adquieran clientes lo más rápido posible; ¿la razón? una vez que empezás a usar un chatbot el lock-in para cambiar a otro es gigante y no lo vas a querer hacer.

Primer ¿Qué es lock-in? En el contexto de la tecnología, lock-in es la dependencia que se genera hacia un proveedor o producto, dificultando cambiar a una alternativa como el cambiar de iPhone a Android o de Windows a Mac. En el caso de los chatbots de IA –especialmente ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google)– existen mecanismos que fomentan esta fidelidad forzada y lo interesante es que podemos dividir en 3 contextos el lock-in en estos productos: (a) técnico, (b) producto y (c) el de uso.

Lock-in técnico (dependencia de la tecnología)

En el plano técnico, esto es más relevante para usuarios B2B (o sea, no finales) los tres modelos son cerrados y propietarios, lo que implica que dependes de la infraestructura y avances del proveedor:

  • ChatGPT (OpenAI): Funciona con modelos como GPT-4 que no son de código abierto, accesibles solo a través de la API o la interfaz de OpenAI. Si construís soluciones o flujos de trabajo basados en GPT-4, migrar a otro modelo requeriría re-desarrollar integraciones y puede implicar perder la calidad o afinación específica lograda. Por ejemplo, muchas empresas han incorporado la API de ChatGPT en sus productos; salir de ahí supone re-entrenar modelos alternativos o aceptar resultados diferentes. Además, OpenAI ofrece opciones de fine-tuning (ajuste fino) en algunos de sus modelos: una vez que entrenas GPT con datos propios, ese ajuste no es portátil a otros sistemas, incrementando la dependencia técnica.
  • Gemini (Google): Es la familia de modelos de lenguaje de Google (evolución de PaLM y de Bard). Al igual que ChatGPT, es un servicio cerrado en la nube de Google, sin opción de auto-hospedaje. El acceso suele ser mediante la app de Gemini (antes Bard) o APIs de Google. Esto crea lock-in porque cualquier solución construida sobre Gemini queda atada a Google Cloud y a sus condiciones. Además, como Google utiliza hardware optimizado (TPUs) y una integración profunda con su ecosistema, se dificulta replicar la solución fuera de su plataforma, así que quienes dependen de su capacidad (por ejemplo, en multi-modalidad o en comprensión de consultas complejas) se ven obligados a seguir usando los servicios de Google.
  • Claude (Anthropic): También es un modelo propietario ofrecido a través de API y aplicaciones asociadas (como la integración nativa en Slack o la plataforma web de Anthropic). Un ejemplo, Claude destacó por innovar en el tamaño de la ventana de contexto –pudiendo manejar hasta 100,000 tokens en Claude 2– lo que significa que puede leer documentos o conversaciones muy extensas. Si tu caso de uso aprovecha esa capacidad (por ejemplo, cargar informes largos para análisis), puedes quedar bloqueado en Claude porque otros bots (hasta hace poco) no manejaban tanto contexto. Nuevamente, al no ser open-source, no es posible llevar el modelo fuera de Anthropic. Así, a nivel técnico, los tres chatbots generan un lock-in similar: utilizan modelos de IA exclusivos y nativos de cada proveedor, obligando a permanecer en sus plataformas para mantener el mismo rendimiento.

Lock-in de producto (ecosistema y funcionalidades)

Cada servicio de chatbot construye funciones y ecosistemas en torno al modelo base, lo que refuerza la lealtad del usuario al producto:

  • ChatGPT: OpenAI ha convertido ChatGPT en una plataforma con características únicas. Por ejemplo, introdujo un ecosistema de plugins donde el chatbot puede conectarse con servicios de terceros (buscador de vuelos, bases de conocimiento, herramientas como Wolfram Alpha, etc.), ampliando enormemente lo que puede hacer. Estos complementos resuelven tareas dentro de ChatGPT, evitando que el usuario salga a otras apps. Asimismo, OpenAI agregó capacidades multimodales: ChatGPT puede analizar imágenes y voz, integrando funcionalidades que antes requerían herramientas separadas. También funciones como Code Interpreter (ahora llamado “Advanced Data Analysis”) permiten ejecutar código y procesar archivos dentro de la misma interfaz de chat. Todas estas facilidades hacen que el usuario encuentre en ChatGPT un “todo en uno”, dificultando reemplazarlo con otro bot que no tenga un repertorio de plugins o características equivalente.
  • Gemini (Google): La estrategia de Google para Gemini (y Bard) es apoyarse en su amplio ecosistema de servicios. Gemini está integrándose con las aplicaciones de Google que millones de personas usan a diario. Por ejemplo, con las Extensiones de Bard/Gemini, el asistente puede extraer información de Gmail, Google Drive, Maps, YouTube y otras apps directamente dentro de la conversación . Esto significa que un usuario de Gmail o Docs puede pedirle a Gemini que encuentre un correo específico, resuma un documento de Drive o planifique un viaje con datos de Maps, todo sin salir del chat. Este nivel de integración es un poderoso lock-in de producto: si tu vida digital está en Google (correo, fotos, documentos, calendario), es muy tentador usar el chatbot nativo que “habla” con esas apps. Gemini con personalización incluso usa tu historial de búsquedas de Google para dar respuestas adaptadas a tus intereses , y Google planea conectarlo también con Fotos y YouTube . En conjunto, Gemini se vuelve una pieza central del ecosistema Google –un asistente personal omnipresente– del que es difícil salir sin perder comodidades.
  • Claude: Anthropic, aunque más nuevo en el plano de producto de consumo, ha buscado nichos específicos para Claude. Un factor importante es la integración empresarial: por ejemplo, Slack incorporó a Claude como parte de sus herramientas (Slack GPT), lo que atrae a equipos de trabajo a usar Claude dentro de su flujo laboral. Si tu empresa comienza a usar Claude en Slack para asistencia en canal, quedas ligado a ese entorno. En cuanto a funcionalidades diferenciadoras, Claude ofrece estilos personalizables (Anthropic introdujo Claude Styles a fines de 2024 para ajustar la personalidad o tono del bot) . Sin embargo, en general Anthropic ha mantenido una interfaz más sencilla. No tiene, por ahora, un sistema de plugins tan amplio ni capacidades multimediales visibles al usuario común. Su ventaja de producto recae más en la experiencia de conversación (se percibe amistoso y bueno en tareas creativas) y en límites más amplios (contexto extenso, respuestas más largas), lo cual fideliza a usuarios que necesitan esas cualidades. Aun con menos “campanas y silbatos” que ChatGPT o Google, Claude genera lock-in si has adaptado tu flujo de trabajo a sus puntos fuertes (ej. cargar grandes documentos, uso en herramientas como Notion o Slack mediante API).

Lock-in de uso (memoria, personalización y datos del usuario)

Captura: Ajustes de memoria en ChatGPT. La IA va recordando detalles proporcionados por el usuario para personalizar futuras respuestas (por ejemplo, preferencias de formato, datos personales mencionados, etc.). Este perfil almacenado hace que mientras más uses ChatGPT, más se adapte a ti, fortaleciendo el lock-in .

El lock-in más sutil –y quizás más poderoso– surge del historial de uso y la personalización. A medida que interactúas con el chatbot, este puede aprender sobre tus preferencias, contexto y necesidades, creando un perfil que enriquece las siguientes respuestas. Cada servicio ha implementado esta idea de memoria de manera diferente:

  • ChatGPT: OpenAI introdujo la memoria activa entre conversaciones en 2024. Ahora ChatGPT puede referenciar todas tus conversaciones pasadas para darte respuestas más relevantes y personalizadas . Por ejemplo, recuerda que tienes una hija pequeña o que te gusta cierto estilo de resumen si se lo has mencionado, y aplicará ese contexto automáticamente en nuevas sesiones. Además, las instrucciones personalizadas permiten fijar datos o indicaciones persistentes sobre ti (rol, tono deseado, información clave) sin tener que repetirlas en cada chat. En conjunto, “mientras más usas ChatGPT, más útil se vuelve” porque cada nueva conversación se construye sobre lo que ya sabe de ti . Esto crea un fuerte lock-in de uso: después de semanas o meses, ChatGPT “te conoce” y cambiar a otro chatbot implicaría perder esa familiaridad. Hay que destacar que esta memoria es persistente y unificada: no distingue entre diferentes contextos o proyectos, lo que puede llevar a que detalles de un ámbito aparezcan en otro si no se tiene cuidado  . Aun así, desde el punto de vista de la fidelización, este perfil global anima a usar siempre la misma IA para no empezar desde cero en cada nueva plataforma.
  • Gemini (Google): Google, tras un periodo más conservador, ha incorporado recientemente funciones de memoria y contexto personal en Gemini. En 2024 permitía que el usuario le pida “recuerda que me interesa X”, pero desde agosto de 2025 ya recuerda detalles previos automáticamente si activas esa opción . Con la función Personal Context (Contexto personal) encendida, Gemini “aprende de tus conversaciones pasadas para brindar respuestas relevantes y a tu medida”  . Un ejemplo dado por Google: si antes hablaste con Gemini sobre ideas para un canal de YouTube de cultura japonesa, más adelante, al pedir nuevas ideas, te sugerirá algo relacionado (como comida japonesa) sin que tengas que recordárselo  . Asimismo, Gemini aprovecha datos de tu cuenta Google (p. ej. historial de búsquedas) para afinar respuestas a tus intereses . En esencia, Google busca construir un asistente personal inteligente completamente integrado a tu vida digital: “nuestra visión es un asistente de IA que aprende y te entiende verdaderamente”, dijo un director del proyecto . Esto evidentemente aumenta la dependencia: un usuario que habilita estos recuerdos en Gemini verá cómo el asistente cada vez le ahorra más contexto y le entrega respuestas a la carta, volviéndose difícil renunciar a esa comodidad. (Vale mencionar que Google activa esta personalización por defecto en ciertos países, aunque permite desactivarla ). En resumen, tu actividad previa en Google se convierte en valor añadido exclusivo de Gemini, cerrando la puerta a competidores que no pueden acceder a esos datos.

Captura: Búsqueda de conversaciones pasadas en Claude 2. El usuario pregunta “¿en qué estábamos trabajando antes de mis vacaciones?” y Claude localiza y resume el chat relevante. A diferencia de ChatGPT, Claude no mezcla contextos automáticamente: solo recupera aquello que se le solicita , evitando construir un perfil unificado del usuario.

  • Claude (Anthropic): La aproximación de Anthropic ha sido más enfocada en el control del usuario que en la proactividad. Durante mucho tiempo, Claude no guardaba memoria persistente entre chats –cada conversación era aislada–. En agosto de 2025 lanzaron una función de “Conversa y busca” que permite al usuario consultar conversaciones previas cuando lo necesite . Por ejemplo, puedes indicarle a Claude: “revisa lo que discutimos la semana pasada sobre el Proyecto X” y el sistema buscará en tus chats archivados para traer los detalles relevantes . Importante: “Claude solo recupera y referencia tus chats pasados cuando se lo pides, y no está construyendo un perfil de usuario según aclaró Anthropic . Es decir, no hay memoria automática cruzada; tú decides cuándo y qué recordar. Esto tiene dos caras para el lock-in: por un lado, ofrece menos personalización espontánea que ChatGPT o Gemini, lo que podría significar un vínculo menos fuerte (el usuario no siente que Claude “lo conoce” de manera profunda). Pero, por otro lado, algunos usuarios profesionales pueden preferir esta compartimentación. Claude introdujo el concepto de “memoria por proyecto”, donde los recuerdos no se mezclan entre distintos temas o clientes  . Esto evita filtraciones de información de un contexto a otro y da más confianza para usar la herramienta en entornos sensibles. Si tu prioridad es ese control, podrías volverte leal a Claude precisamente porque no te arriesga con memorias fuera de lugar. En síntesis, el lock-in de uso en Claude es más débil en términos de perfil personal global, pero Anthropic apuesta a fidelizar mediante la transparencia y seguridad: tú mandas sobre qué se recuerda y cuándo, y no tienes sorpresas de la IA sacando datos antiguos sin pedirlo . Aun con enfoques distintos, todos los proveedores reconocen que la memoria es clave para enganchar a los usuarios: “las funciones de memoria buscan atraer y mantener usuarios en un servicio, aumentando la ‘pegajosidad’” .

Antes era "interoperabilidad" ahora ¿podés llevarte tu contexto de un chatbot a otro?

La realidad actual es que no existe portabilidad fácil de un contexto personalizado entre distintas plataformas. Cada proveedor guarda tus datos de manera propietaria y no ofrece, por ejemplo, una exportación de “lo que la IA ha aprendido de mí” en formato estándar. Si quisieras cambiar de bot, prácticamente tendrías que empezar de cero o manualmente resumir y reenviar la información relevante.

Por ejemplo, ChatGPT permite ver y editar lo que recuerda de ti en sus ajustes de memoria, e incluso exportar tus conversaciones en un archivo, pero otro chatbot no sabría interpretar directamente esos datos para replicar el mismo entendimiento. De forma similar, Gemini podría estar usando tu historial de búsquedas y otros datos de Google –los cuales no puedes simplemente transferir a un rival, por privacidad y formato–. Claude, al no compilar un perfil único, te lo pone un poco más fácil en el sentido de que lo que necesita saber, tú se lo das explícitamente (y podrías dárselo igualmente a otro bot). Aún así, no hay una API universal ni estándar de “memoria de usuario” que permita llevar tu contexto personal de ChatGPT a Gemini o viceversa. Esta falta de portabilidad es deliberada hasta cierto punto: como vimos, la memoria y personalización son ventajas competitivas y mecanismo de lock-in. Cada empresa quiere que los beneficios de “conocerte bien” se queden dentro de su producto.

¿Y Meta AI?

Aunque Meta también lanzó su propio chatbot, no lo incluimos en este análisis por dos motivos principales:

  1. Nivel de adopción: hoy Meta AI está principalmente integrado en productos como Facebook, Instagram o WhatsApp, pero su alcance como asistente independiente es todavía limitado comparado con ChatGPT, Gemini o Claude.
  2. Estrategia distinta: Meta apuesta a modelos abiertos como Llama para impulsar su IA. Su jugada es más bien construir un ecosistema de desarrolladores y empresas que adopten su tecnología, en lugar de generar lock-in sobre un único asistente centralizado con memoria y personalización.

En otras palabras, la competencia de Meta es más horizontal (distribución de modelos abiertos) que vertical (chatbot con lock-in directo), y por eso este post se centra en quienes hoy disputan el lock-in de los usuarios finales.

Los chatbots de IA más avanzados están desplegando una combinación de estrategias para mantenernos enganchados en sus plataformas. En lo técnico, nos atan con modelos potentes pero propietarios y difíciles de reemplazar. A nivel de producto, nos seducen con integraciones y funciones exclusivas (ya sean plugins, acceso al ecosistema Google, o contextos gigantes para manejar nuestros datos). Y mediante el uso continuado, construyen una relación cada vez más personalizada –ya sea mediante un perfil unificado como ChatGPT/Gemini, o con memorias controladas por el usuario como Claude– que hace que cambiar de chatbot se sienta como retroceder.

Como usuarios o creadores de contenido, es importante ser conscientes de estos lock-ins. Disfrutar de la conveniencia de que “mi chatbot ya sabe lo que quiero” es genial, pero implica confiar nuestros datos y preferencias a un silo específico. Por ahora, mover nuestro “yo digital” de una IA a otra no es sencillo, así que elegir con cuál casarse no es trivial. La competencia entre OpenAI, Anthropic y Google está llevando a rápidos avances –todos han acelerado en incorporar memoria y personalización – lo que beneficia al usuario en funcionalidad. Pero también refuerza que cada uno quiera ser “el asistente del que no te puedes desprender”.

En última instancia, un posible camino para aliviar el lock-in sería que aparezcan estándares abiertos o asistentes locales que permitieran portar nuestras instrucciones y datos de contexto de forma privada. Sin embargo, hoy por hoy, si inviertes tiempo en un chatbot, tiendes a quedarte con él por inercia y beneficio acumulado.

Este es un mercado donde habrán pocos ganadores y por eso cada uno quemando decenas de miles de millones de inversores; porque una vez elegido es muy dificil que lo dejes; la elección racional seria: "elegir aquel que se alinee con tus valores (privacidad, control) y necesidades, sabiendo que cambiar de barco más adelante tendrá sus costos" pero ¿como lo podrías saber si ni siquiera creo que lo sepan ellos mismos?

| Inteligencia Artifical
Tags:
Anthropic Google IA innovación inversiones openai privacidad

La OpenAI Mafia ahora también juega como VC

En mi post sobre la OpenAI Mafia hablé de cómo ex-empleados de OpenAI están creando startups alrededor de los nichos que saben serán clave en la nueva economía de la inteligencia artificial. Ahora están dando un paso más: crear fondos de inversión en early stage startups.

¿Por qué? Tres patrones conocidos lo explican:

  1. Empleados mega-millonarios: Las rondas de inversión gigantes en OpenAI y otras firmas de AI generaron liquidez inédita. Ejemplo: empleados de OpenAI acaban de vender acciones por USD 9.000 millones en la última ronda. Esa riqueza personal les permite retirarse jóvenes o crear fondos con su propio capital.
  2. Acceso privilegiado a dealflow técnico: Los tentáculos de la OpenAI Mafia llegan a startups fundadas por ex-compañeros que conocen dónde están las oportunidades reales. Esto no es nuevo: yo mismo invertí en el vehículo que creamos entre empleados de Microsoft para apostar en startups de ex-Microsoft que apalancan tecnología cloud. La diferencia es que aquí se trata del sector más caliente del mercado: AI.
  3. Conocimiento técnico + estrategia = confianza de LPs: La combinación de ser insiders técnicos y haber vivido el hypergrowth desde adentro, les da credibilidad para armar tesis de inversión sólidas. En un mercado con USD 175.000 millones de dry powder listos para ser invertidos, no sorprende que Limited Partners quieran entrar en estos fondos temáticos de AI.

En otras palabras, la OpenAI Mafia no sólo crea startups: ahora también controla parte del capital que financiará la próxima generación de AI... si no entienden ahora porque es un mercado laboral 996 se estan perdiendo algo.

Nota: los 3 patrones que digo se repiten son a nivel conceptual super simples; concentracion de talento vertical, creacion de riqueza y liquidez en el mercado y, finalmente, una nueva ola-macro de nueva tecnologia

| Mercados
Tags:
inversiones openai startups

Juniors por AI: la forma más rápida de destruir el pipeline de talento

Hoy Matt Garman, el jefe de AWS dijo en voz alta algo que repito en las charlas sobre AI: reemplazar a los empleados junior con herramientas o agentes de inteligencia artificial es una de las ideas más estúpidas que existen.

Si uno analiza como se forma un ecosistema de trabajo, como se arma una carrera, como se desarrolla el talento y hasta los costos organizacionales... lo único que estás haciendo es confirmar una tesis que sostengo hace tiempo: usar AI para “sacar del medio” a los juniors es destruir a largo plazo la base del talento de cualquier organización.

  • El pipeline de talento se rompe: Un junior necesita aprender haciendo. Es en esa etapa donde se equivocan, reciben feedback y crecen para convertirse en seniors. Si cortás esa experiencia porque la “reemplaza” la AI, estás matando el semillero del que salen los futuros líderes.
  • Rompés la estructura de costos del talento: El modelo natural es que juniors hagan tareas más operativas mientras crecen, liberando a los seniors para trabajos de mayor impacto. Si eliminás juniors, los seniors terminan atascados en tareas que la AI todavía no puede resolver sola. Resultado: ineficiencia y costos más altos.
  • Perdés diversidad de perspectivas: No es solo cuestión de edad: los juniors suelen venir con nuevas herramientas, marcos mentales distintos y otra forma de ver los problemas. Quitar esa capa del equipo empobrece la toma de decisiones y refuerza la homogeneidad.
  • Son los más nativos en AI: El talento joven no necesita que lo convenzas ni le armes talleres para usar herramientas de inteligencia artificial. Ya las adoptan de forma natural. Reemplazarlos es perder el grupo que mejor y más rápido incorpora la AI en los procesos.

Es cierto, los agentes y los modelos que estan apareciendo día a día pueden hacer mil tareas "básicas" y soy el primero en pensar que se pueden optimizar y reemplazar procesos y talento (hey, es algo natural como parte del progreso) pero creo, más allá del interés corporativo de AWS, que la mejor apuesta es potenciar el talento joven con herramientas y agentes de IA en vez de reemplazarlo directamente.

| Inteligencia Artifical
Tags:
AI IA talento

¿Querés tener siempre la razón? Hablá con ChatGPT


Cada vez más conocidos me cuentan que usan “charlas” con ChatGPT para atravesar un mal momento: desde una ruptura sentimental hasta la muerte de un ser querido o simples interacciones diarias. Y no puedo dejar de decirles que es un error.

Un analista humano puede incomodarte con preguntas duras, confrontarte con verdades incómodas o simplemente decirte: “estás equivocado”. Esa fricción —aunque molesta— es parte esencial del crecimiento. Un chatbot, en cambio, tiende a validar casi todo lo que decís. Y ese “confort” constante puede ser el inicio de un problema mucho mayor.

Leer completa
| Inteligencia Artifical
Tags:
AI chatbot salud mental

No, Google no está muerto y la distribución sigue escribiendo la historia

En los últimos dos años, gran parte de la conversación sobre IA se ha centrado en el ascenso de ChatGPT y en los supuestos errores de Google. La narrativa dominante, en la que incluso entré a veces, pinta a ChatGPT como el first mover que tomó la delantera mientras Google dudaba y perdía terreno por la tibieza de Sundar Pichai cuando lo comparabas con la decisión de Satya Nadella y otros. Y, sobre el papel, esa historia es tentadora, pero.

Es innegable que ChatGPT logró una tracción impresionante. Lanzado en noviembre de 2022, alcanzó los 100 millones de usuarios en apenas dos meses — la curva de adopción más rápida en la historia del consumo digital. Desde entonces, OpenAI ha mantenido un ritmo de lanzamientos vertiginoso: GPT-4, GPT-4 Turbo, GPT-5, capacidades multimodales, voz, memoria, agentes, versiones enterprisa… todo en menos de tres años. Todo esto respaldado por un músculo financiero sin precedentes: más de 13.000 millones de dólares de Microsoft y unos 4.000 millones comprometidos por Softbank. El resultado: alrededor de 700 millones de usuarios activos semanales a mediados de 2025 y una posición cultural en la que, para mucha gente, “IA” es sinónimo de “ChatGPT”.

Leer completa
| Estrategias Google Inteligencia Artifical
Tags:
AI innovación openai startups

Las IPO ya no son negocio para vos o para mí

Hoy en día, las startups tecnológicas de EE.UU. tardan más tiempo en salir a bolsa y lo hacen con valuaciones mucho mayores que las empresas de décadas pasadas . Gran parte del upside (el mayor crecimiento en valor) ocurre ahora en el mercado privado – beneficiando a venture capital y private equity – y no en el mercado público al que acceden los inversores minoristas. Esto significa que el tramo inicial de creación de valor se privatiza: el inversor retail se pierde potenciales ganancias tempranas, aunque por otro lado pudieran evitarse algunos riesgos de invertir en empresas inmaduras infladas por inversores privados.

¿Pero cuándo salían “baratas” las IPO tecnológicas?

Veamos algunos ejemplos de grandes tecnológicas y sus valuaciones al momento de salir a bolsa, comparadas con startups recientes:

  • Microsoft (fundada 1975, IPO en 1986): 11 años para salir a bolsa, con una valuación de mercado de aproximadamente $500–780 millones. La oferta pública inicial recaudó apenas $61 millones . (Dato curioso: Bill Gates consideraba que un precio por acción de $20 ya empujaría la capitalización por encima de $500 millones, lo cual le parecía “incómodamente alto” ).
  • Amazon (fundada 1994, IPO en 1997): Solo 3 años hasta su IPO, debutando con una capitalización cercana a $438 millones . Jeff Bezos llevó a Amazon al mercado público cuando aún era esencialmente una librería online con altísimas tasas de crecimiento pero muy pequeña en tamaño.
  • Google (fundada 1998, IPO en 2004): 6 años hasta la IPO, debutando con una valuación de alrededor de $23.000 millones . Google ya era rentable y dominaba la búsqueda en Internet, pero aun así el público pudo invertir desde un market cap relativamente “moderado” en comparación con los gigantes actuales (hoy Alphabet vale más de $1,7 billones ).
  • Facebook (fundada 2004, IPO en 2012): 8 años hasta salir a bolsa. Su IPO fue histórica: valuación de $104.000 millones, recaudando $16.000 millones – en su momento, la tercera oferta pública más grande de la historia de EE.UU. . Ya fue un mega-IPO, reflejando que Facebook había capturado gran parte de su crecimiento antes de llegar al mercado público.
  • NVIDIA (fundada 1993, IPO en 1999): ~6 años hasta la IPO, con una valuación inicial mucho más modesta. Sus acciones salieron a $12 por acción , lo que implicó una capitalización de apenas unos $500–600 millones (estimados). Tras 25 años como empresa pública, NVIDIA superó los $1–2 billones de market cap en 2024, pero aquel crecimiento fenomenal se gestó desde una base pública muy pequeña.
Leer completa
| Estrategias Mercados
Tags:
emprendedores inversiones IPO startups

Inteligencia Artificial e Intencionalidad Atribuida

Tenemos la costumbre de antropomorfizar la tecnología para sentirnos cómodos y a medida que los modelos de IA, especialmente los LLMs, se vuelven más sofisticados, el lenguaje que usamos para describirlos toma prestados términos de la neurociencia, la psicología y cognición humana, quizás porque se nos hace más simple de racionalizar o simplemente porque nos gusta sentirnos el tope de la evolución. Esto a menudo crea la impresión errónea de que la IA funciona como una mente humana, cuando en realidad solo opera a través de reconocimiento de patrones y probabilidad.

Es una inteliencia artificial realmente creativa

Esto no es ni malo ni bueno: es natural en nosotros, los seres humanos, porque tenemos sesgos cognitivos, limitaciones de lenguaje, la necesidad de "dumb-things-down" y, sobre todo, de marketinear ideas como si fuesen más avanzadas de lo que lo son. Decir que una Inteligencia Artificial “razona” es poderoso, pero no tiene lógica propia, solo sigue correlaciones.

Y sí, no dejo de maravillarme día a día con la IA, pero es bueno entender la intencionalidad atribuida que le damos. Así que se me ocurrió listar y tratar de simplificar los términos que usamos en AI y que están relacionados con el cerebro o la cognición humana de forma que sea más simple entender

Leer completa
| Rants
Tags:
AI inteligencia artificial Rants

Thoughts on Fund Performance Data from AngelList

I dont share here the email for LP/GPs i sent monthly, however AngelList published the performance for funds in their platform (aggregates) and if you are in the VC industry I believe its a good way to understand the current market. (note: in english since the email I send is in english)

Hi dear friends,
Here’s my take on the trends and concerns reflected in this dataset:

Key Observations
• The 2017 vintage shows the strongest performance:
• Median IRR: 19.7%
• Median TVPI: 3.57x
• Median DPI: 0.29x
• Steady decline across all metrics from 2017 to 2023:
• IRR drops from 19.7% (2017) to -5.5% (2023)
• TVPI declines from 3.57x (2017) to 0.95x (2023)
• DPI remains near zero for recent vintages, indicating a lack of distributions.

Leer completa
| Mercados
Tags:
inversiones startups venture capital

Medir Retención No es Suficiente: La Clave Está en los Timeframes

Si hay algo fundamental en una startup es medir qué tan bien tu producto cumple con las expectativas de los usuarios y si logra mantenerse como parte de su vida: eso se hace midiendo la retención. Punto. Es uno de los indicadores clave de product-market fit, que muestra si las personas no solo prueban tu solución, sino si regresan y la usan de manera recurrente. ¿Y dónde impacta esto? Directamente en los ingresos, sostenibilidad del negocio y tu capacidad de escalar, ya que adquirir nuevos usuarios es mucho más caro que mantener a los existentes.

Pero un problema que veo en varias startups e incluso analistas de fondos es que la retención no se mide en una sola instancia porque el comportamiento de los usuarios cambia con el tiempo. Una sola medición no captura esta evolución ni permite tomar decisiones estratégicas informadas.

Tomar periodos de medición permite identificar patrones de comportamiento, detectar posibles puntos de abandono y optimizar la experiencia de usuario. Por eso la retención se mide a través de timeframes específicos, que podemos estandarizar en los primeros 30, 90 y 365 días.

Leer completa
| Estrategias
Tags:
emprendedores inversiones metricas startups

Los nuevos ‘Traitorous Eight’: El momento de los emprendedores en Generative AI”

En 1957, ocho jóvenes ingenieros, conocidos más tarde como los “Traitorous Eight”, tomaron la decisión que dio origen a Silicon Valley: abandonaron Shockley Semiconductor por desacuerdos con su fundador, fundaron Fairchild Semiconductor y no solo marcó el nacimiento de la industria de los semiconductores, sino que también sentó las bases de una nueva era con empresas como Intel y AMD.

Leer completa
| Inteligencia Artifical
Tags:
emprendedores innovación inteligencia artificial inversiones

Simplificar algo es lo más complejo que hay

En un mundo, casi tiktokero, dominado por soluciones rápidas y frases llamativas, los mejores líderes logran dominar la complejidad y hacer que parezca sencilla; los malos lideres sobre-simplifican sin entender siquiera las bases del problema. Hay una frase de Steve Jobs que captura la escencia de esto: la capacidad de simplificar soluciones complejas sin reducirlas a respuestas ineficaces y excesivamente simplificadas es realmente complejo.

“Simple can be harder than complex: You have to work hard to get your thinking clean to make it simple. But it’s worth it in the end because once you get there, you can move mountains.” Steve Jobs

Y cuando sos un emprendedor la simplicidad es una ventaja competitiva SIEMPRE. La gente ansía la simplicidad de manera natural; y lo vas a ver sea un cliente eligiendo entre productos o un equipo alineándose con una estrategia, la claridad inspira confianza y seguridad.

Leer completa
| Estrategias
Tags:
emprendedores management Simplicidad

Microsoft Copilot y Google AI: una carrera al abismo

Hace 2 días Microsoft y Google decidieron incluir gratuitamente sus versiones de AI en sus aplicaciones de productividad, léase Microsft 365 y Google Wokspace, mientras aumentaron el precio base en menos del 10%... esta es, literalmente, una carrera hacia el abismo donde cada uno busca entrar al mercado de otro solo con precio.

  • Google: "A customer using the Workspace Business Standard plan with a Gemini Business add-on previously paid $32 per user, per month. Now, that same customer will pay just $14 per user, per month — only $2 more than they were paying for Workspace without Gemini."
  • Microsoft: "bringing Microsoft Copilot and Microsoft Designer to Microsoft 365 Personal and Family subscribers in most markets worldwide" ... "the prices of Microsoft 365 Personal and Family in the US for the first time since its release by $3 USD per month"

La primer lectura es que; sacaron del juego a cualquier otro jugador del mercado de "software de productividad" que quiera agregar funciones de AI porque los únicos con la espalda financiera para atender un par de centenas de millones de usuarios son Microsoft, Google, Amazon y Meta... y estos últimos dos no cuentan aca.

Leer completa
| Inteligencia Artifical
Tags:
AI competencia Google Microsoft openai

OpenAI Mafia

Si de Paypal salieron varios emprendedores que se convirtieron en estrellas en Internet (desde Elon Musk hasta Roelof Bohta o Dave Mclure, Peter Thiel y tantos otros) creo que de OpenAI están saliendo tantos empleados que fundan empresas que están dominando nichos que recien arrancan en este landgrab que va a dejar atrás a los de Paypal.

Solo estas 15 empresas fundadas por ex empleados de OpenAI ya levantaron casi 15.000 millones de dólares de fondos de inversión y estan tomando verticales tan específicos que con sus backgrounds de research y el capital que reciben... van a sacudir a algunos de los grandes que conocemos hoy.

Name of StartupName of FounderPosition at OpenAI
Safe Superintelligence (SSI)Ilya SutskeverCo-founder and Chief Scientist
AnthropicDario AmodeiSenior Research Scientist
Perplexity AIAravind SrinivasFormer Researcher and Intern
AdeptDavid LuanFormer Researcher
CovariantPieter AbbeelFormer Researcher
GantryJosh Tobin, Vicki CheungResearch Scientist, Head of Infrastructure
Eureka LabsAndrej KarpathyFormer Research Scientist
Unnamed AI StartupMira MuratiFormer CTO
Unnamed AI StartupBarret ZophFormer VP of Research
Prosper RoboticsShariq HashmeMember of Technical Staff
QuantasticaPetar KorponaićData Preparation Engineer
Forecasting Research InstituteMichael PagePolicy and Ethics Adviser
AidenceTim SalimansResearch Scientist and Team Lead
CrestaTim ShiMember of Technical Staff
PilotJeff ArnoldHead of Operations
DustStanislas PoluResearch Engineer

| Inteligencia Artifical
Tags:
Dario Amodei Ilya Sutskever mafia openai

LLMs intentando engañar o manipular a sus devs

Me pareció interesante leer este paper de los investigadores de Apollo Research donde evaluaron diferentes modelos de IA para ver si participarían en "maquinaciones" más simple si intentarían engañar o manipular a sus desarrolladores para lograr un objetivo específico.

Pero más allá de los resultados me pareció un paper interesante porque muestra los desafíos que existen al momento de entrenar un modelo de AI, encontrar los patrones para crear "guardas" de seguridad y/o entender como suceden estas cosas en lo que para muchos es una gran caja negra donde no se sabe con seguridad que es lo que pasa dentro.

Leer completa
| Inteligencia Artifical Seguridad
Tags:
AI innovación LLMs Seguridad