Pasamos de los locos a los vagos en un abrir y cerrar de ojos... de acuerdo a la publicidad de Apple Intelligence, aunque siendo justos de Google tambien, está bien: hacer nada y esperar que un algoritmo magico nos resuelva todo, fijense estos videos de campaña.
Honestamente, creo que esto es lo que les pasó a los creativos que no usaron jamás ChatGPT o Claude o Apple Intelligence entonces no entienden todo lo que estas herramientas pueden hacer y, de hecho, hasta los que critican estas herramientas reconocen que "I do not like Generative AI"
O no trabajar y enviarle un mail a un jefe explicandole lo genial que es y como su liderazgo nos emociona
O simplemente olvidarte el cumpleaños de tu marido y regalarle un "recuerdo" que inventa Apple Photos
Pasamos de "los crazy ones" a los "lazy ones"... podrian enfocarse en tantas otras cosas. pero realmente escribir una carta a tu idolo, explicando lo que querés de tu vida y porque lo admiras, es algo que creo que jamás le pediría a un algoritmo
“Obviously there are special circumstances and people who need help, but as a general ‘look how cool, she didn’t even have to write anything herself!’ story, it SUCKS. Who wants an AI-written fan letter??”
“Here's to the crazy ones. The misfits. The rebels. The troublemakers. The round pegs in the square holes. The ones who see things differently. They're not fond of rules. And they have no respect for the status quo. You can quote them, disagree with them, glorify or vilify them. About the only thing you can't do is ignore them. Because they change things. They push the human race forward. And while some may see them as the crazy ones, we see genius. Because the people who are crazy enough to think they can change the world, are the ones who do.” ― Steve Jobs
Hace 23 años arrancaba este blog y, de una manera extraña, sigue siendo el único lugar donde puedo escribir lo que quiera, como quiera, experimentar lo que se me ocurra, abandonarlo, volver a arrancarlo, rediseñarlo, decir lo que quiera y no rendirle cuentas a nadie... más que a mí mismo.
Aunque la opinión de cada "generación" cambie hay tres cosas que siguen firmes:
(1) Los blogs siguen acá y nadie puede negarlo.
(2) La crítica evoluciona pero solo se centran en "¡ alcanzarías más audiencia!"
(3) Las terceras partes (como redes sociales) siguen cerrándose y te volvés SU inquilino.
Recuerdo a uno de mis primeros inversores decir "joder macho, que si no pasas a un Medium esto no tiene sentido" hasta que un día se dieron cuenta que en Medium, Substack o quien sea había reglas de lo que podías hacer o decir; de hecho hoy hasta hay reglas de aplicación de Inteligencia Artificial que hacen difícil sumarizar para dar contexto.
Y cada 3 o 4 años el consejo de "los que saben" reaparece: "La audiencia no quiere leer en tu sitio, quiere estar en LinkedIn/X/Thread". Pero un día se dan cuenta que los algoritmos hacen casi imposible que un link a sitio de terceros tenga relevancia y que se les hace imposible, si quieren mantenerse relevantes, abandonar redes sociales que te fuerzan a adaptar tu contenido a SUS algoritmos.
Recuerdo en The Matrix cuando Neo llega a conocer a The Oracle: ahí se da cuenta de que no hay una cuchara, sino solo la representación mental de una cuchara. Es entonces cuando comprende que la realidad no es como la percibimos, sino una interpretación que hace nuestro cerebro: lo mismo nos pasa cuando imaginamos que un LLM alucina o que entiende inherentemente lo que le preguntamos.
La cita de The Matrix funciona aquí como una metáfora clave: “No existe la cuchara” en el sentido de que el modelo no tiene ninguna percepción o concepto inherente de la realidad; está imitando patrones estadísticos sin una comprensión o creencia subyacente. Por eso en lugar de tratar de “ver la cuchara” (o una realidad concreta), un LLM se limita a procesar y reproducir correlaciones.
El “fallo” en el sistema es de nuestra percepción humana cuando se espera una precisión o intencionalidad que el modelo no puede ofrecer, no es un fallo del modelo.
Creo que el ecosistema inversor/emprendedor de la region (Latam+España) no entiende el momento o espacio en el que está en temas de Inteligencia Artificial especialmente en GenAI y, quizás, analizar los 100 papers más citados en el ámbito académico ayude a explicar dónde estamos parados para así entender dónde podemos encontrar oportunidades de inversión para crecer.
¿Por qué los 100 papers más citados? [fuente] Por dos razones principales: por un lado, el momento actual de la inteligencia artificial generativa es el de transferencia tecnológica, de R&D y academia a corporaciones y startups. Y, por otro lado, porque el avance de las corporaciones sobre la investigación académica se está dando a pasos agigantados por la cantidad de capital necesario para desplegar estas soluciones.
Perplexity está empeñado en crear "el próximo Google", o al menos finalmente sacarnos del ridículo paradigma de los 10 links azules como la mejor forma de buscar en Internet; pero es interesante que esto implica que uno puede "dialogar" con el LLM, que es parte del buscador, mantener las búsquedas en memoria e indagar mucho mas en cualquier búsqueda que hagas, entre otras. Esto tiene, al menos, dos nuevas derivadas:
Es mucho más interesante "investigar que buscar" con lo que para un dato puro termino volviendo a Google, pero para buscar cuando estoy armando o creando termino dialogando con Perplexity.
Si podés usarlo para profundizar, utilizar tus propios documentos o papers suma mucho a este trabajo.
Por eso que aparezcan los Perplexity Spaces tiene sentido y parece un paso natural; los Perplexity Spaces son espacios donde podés agrupar tus búsquedas en la web con tus archivos personales e invitar a terceros a sumarse a ese "centro de colaboración" donde tus búsquedas son híbridas (porque agrupan data pública y data tuya), grupales (porque podés invitar a terceros) y colaborativas(porque todos suman al espacio).
En estas dos semanas vimos noticias sobre el uso de energía nuclear por parte de Microsoft, Amazon y Google; todos apostando a la energía nuclear para alimentar la infraestructura necesaria para sostener el crecimiento de GenAI. Microsoft reactivando Three Mile Island; Google y Amazon apostando a los Small Modular Reactors. Y todo esto está empujando una fuente de energía que nunca debió dejarse de lado.
¿Por qué perdió apoyo la energía nuclear en este tiempo?
La realidad es que perdió apoyo por una mezcla de factores económicos y una idea falsa de la inseguridad de esta fuente:
Accidentes importantes: los accidentes de Three Mile Island (1979), Chernobyl (1986) y Fukushima (2011) generaron serias preocupaciones sobre los riesgos y consecuencias de las plantas nucleares.
Gestión de residuos radiactivos: cuando se habla de los desechos radioactivos, en general, los medios solo se enfocan en los problemas a largo plazo, en vez de la optimización de uso del combustible nuclear y la innovación para ese manejo.
Altos costos de construcción sumados a la desregulación del mercado: los crecientes costos de construir nuevas plantas nucleares, que a menudo superan miles de millones de dólares, hicieron que la energía nuclear fuese menos atractiva económicamente; al desregularse el mercado y bajar los precios, la energía nuclear fue menos competitiva en algunas regiones, y eso empujó menos inversión y, por lo tanto, menos innovación.
Preocupaciones sobre la proliferación: los temores acerca de que la tecnología nuclear civil pudiera contribuir a la proliferación de armas nucleares aumentaron la inquietud pública.
Un par de temas en los que no quiero meterme son los políticos 1. Repito: Alemania dejó de ser autosostenible y ahora es prisionera del gas de Rusia) 2. El crecimiento de otras renovables con mejor prensa (eg: hidroelectricas y eólicas), especialmente en momentos en los que el foco en cambio climático a veces se torna basado en prensa y no en datos.
IA y Centros de Datos: el rápido crecimiento de la inteligencia artificial y los centros de datos está creando una demanda de electricidad sin precedentes. La Agencia Internacional de Energía prevé que el consumo eléctrico de los centros de datos podría más que duplicarse para 2026, superando los 1,000 teravatios hora.
Electrificación: la tendencia global hacia la electrificación de edificios y vehículos está incrementando aún más la demanda de energía
2. Metas de Energía Limpia
Electricidad sin carbono: la energía nuclear se ve como una solución climática porque los reactores no emiten gases de efecto invernadero, alineándose con los compromisos de las empresas tecnológicas para reducir emisiones.
Limitaciones de las renovables: aún con las inversiones gigantes en energía eólica y solar, hay limitaciones en términos de consistencia y capacidad que la energía nuclear puede subsanar.
3. Estabilidad y Confiabilidad de la Red
Energía de Base: La energía nuclear puede proporcionar una energía de base estable, crucial para mantener la confiabilidad de la red a medida que aumenta la participación de fuentes renovables intermitentes.
Seguridad Energética a Largo Plazo: Invertir en energía nuclear ayuda a las big tech a asegurarse un suministro energético estable y a largo plazo para sus operaciones
4. Avances Tecnológicos
Reactores Modulares Pequeños (SMR): las empresas están invirtiendo en SMRs, que ofrecen ventajas como menores costos iniciales y construcción modular. Estos se consideran más económicos y más fáciles de desplegar que los reactores tradicionales a gran escala.
Otros startups: Terra Power que está ya construyendo su Natrium Plant que supuestamente sale del paradigma del enfriamento por agua para pasar a metales liquidos.
Sumémosle que hay avances con los SMR e inversiones como las de BillG en TerraPower: termina siendo un no-brainer que sean las tecnológicas las que lideren este resurgir sin que esto signifique que el resto de las energías se dejen de lado. De hecho, cuando estaba en MS firmamos un acuerdo gigante con Brookfield enfocado en energía eólica.
All of this matters because the world needs to make a big bet on nuclear. As I wrote in my book How to Avoid a Climate Disaster, we need nuclear power if we’re going to meet the world’s growing need for energy while also eliminating carbon emissions. None of the other clean sources are as reliable, and none of the other reliable sources are as clean. - Bill Gates
En definitiva, la inversión en nuclear, que estamos viendo como una derivada de las necesidades de los datacenters y la inteligencia artificial, es un gran paso adelante para tener complementos a las renovables y que finalmente pasemos a energía verde sin frenar el mundo porque no sabemos salir de la dependencia de viejas tecnologías.
En 1973, Arthur C. Clarke escribió “Perfiles del Futuro: Una Investigación sobre los Límites de lo Posible", donde formuló sus famosas “Tres Leyes”, siendo la tercera la más citada: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia.” Esta frase hoy me persigue, especialmente con el auge de los Modelos de Lenguaje Grande (LLMs) o el uso de ChatGPT. Estos modelos pueden generar resultados que se sienten mágicos, pero no entender el papel que juega el contexto es no entender su esencia misma.
El contexto no es solo una característica; es la base que permite a estos modelos realizar su “magia”.
El contexto en los LLMs se refiere a los diversos tipos de información que el modelo procesa para generar una respuesta relevante y eso incluye al menos 3 divisiones:
La consulta: esto es el texto o consulta que el usuario quiere entender y sirve como el prompt principal para la respuesta del modelo.
Instrucciones del usuario: cualquier directiva específica o guía dada por el usuario, como pedir un resumen, una explicación detallada o un cambio en el tono. Esto incluye que le digas cual es el perfil al que debe apuntar (eg: "soy un arquitecto de 35 años, con 8 de experiencia en diseño de aeropuertos") y que puedes incluir siempre en la consulta.
Conocimiento amplio: la información con la que el modelo ha sido entrenado, incluidos libros, artículos y otras fuentes de datos, que le permite entender el lenguaje, los conceptos y los contextos más allá de la entrada inmediata.
Cuando el LLM genera respuestas, está sintetizando estos elementos, por eso las respuestas generadas suenan coherentes y, sobre todo, relevantes para las expectativas del usuario. Sin aprovechar este contexto, el modelo perdería su capacidad de proporcionar respuestas significativas para tus expectativas o, luego de refinar el "context window", que sean realmente precisas.
“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.” ― Christopher Priest, The Prestige (citado antes)
Personalizar los LLMs para aprovechar al máximo la entrada inmediata y las instrucciones del usuario es clave para garantizar respuestas relevantes y efectivas. (Nota: obviamente no hablo de personalizar el modelo porque no está a tu alcance). Por ejemplo:
Optimizar la entrada inmediata: puedes ser preciso en la forma en que formulas tus consultas para obtener las respuestas más precisas y enfocadas. En lugar de hacer preguntas vagas, como “¿Qué es la IA?”, intenta algo más específico para que la respuesta salga adaptada a un perfil como el tuyo:
“Explica los beneficios clave de la IA en la salud en términos simples, soy un paciente de 53 años que conoce poco de tecnología.”
Personalizar las instrucciones del usuario: puedes guiar al modelo para que produzca contenido que se ajuste a tus preferencias y las opciones son ilimitadas. Por ejemplo, podrías pedir que se adapte a un formato: “Resume este artículo en 3 puntos”. O a tu conocimiento: “Dame una explicación detallada con términos técnicos”. O a tu necesidad de mimos al ego:
"De todas nuestras interacciones, ¿cuál es una cosa que puedes decirme sobre mí que tal vez no sepa sobre mí?"
Cuanto más refines y personalices tus entradas, mejor podrá el modelo responder a tus necesidades específicas.
Además de mejorar las interacciones con preguntas más precisas, podés personalizar ChatGPT/Claude o MetaAI para que se adapte aún más a tus necesidades.
Por ejemplo, ChatGPT puede recordar detalles de tus conversaciones previas, lo que le permite ofrecer respuestas más relevantes y personalizadas a largo plazo. Podés preguntarle directamente qué recuerda de ti para que borres lo que no te interese o agregues datos o pedirle que te ayude a ajustar la forma en que responde a tus solicitudes.
Por ejemplo, una simple pregunta como “¿Qué sabes sobre mí?” te mostrará la información que ChatGPT ha guardado de tus interacciones previas, brindándote una mayor comprensión de cómo utiliza el contexto para personalizar su asistencia y quizás tengo la ventaja de haber heche una carrera humanistica donde se entiende que:
La importancia del contexto en comunicación es que organiza y da sentido al mensaje. El significado de un mensaje no depende solo de su estructura gramatical, sintáctica o léxica sino también del contexto que acompaña a un enunciado y afecta a su interpretación.
Que lindo futuro nos espera con prompt engineering.
Me gusta NotebookLM por varias razones: primero, porque es una gran muestra de las cosas que se pueden hacer con la IA generativa combinando modelos; luego, porque algunos casos de uso me están sorprendiendo; y finalmente, porque, en cierto sentido, muestra que Google sigue siendo capaz de desarrollar productos interesantes.
¿Qué es y cómo funciona NotebookLM?
Para los que no lo conozcan, NotebookLM (antes conocido como Project Tailwind) es una herramienta impulsada por IA, diseñada para ayudar a los usuarios a organizar, analizar y obtener información de las notas que toman, sean estas propias o documentos que uno sube. También funciona con enlaces que uno ingresa en el sistema y utiliza una combinación de modelos de lenguajes, empleando IA para extraer puntos clave, resumir contenido y generar preguntas o insights… ¡incluso en formato de podcast!
Lo interesante es cómo funciona. El proceso que usa NotebookLM de Google para transformar contenido escrito en conversaciones de audio es fascinante, porque combina partes ya vistas y "estandarizadas" con nuevas ideas, especialmente en edición. Todo comienza cuando subís tus documentos - pueden ser notas, documentos en PDF o enlaces como en el ejemplo anterior.
Cuando subís el contenido, Google con su IA (usa el modelo Gemini 1.5 Pro) analiza tu texto, procesándolo y "entendiendo" no solo las palabras sueltas, sino también el contexto y los puntos clave de todo el documento.
Luego, la IA crea un "script" donde transforma/convierte ese análisis de tu texto en un diálogo (usando otro modelo de "texto a tokens") entre dos personas.
Finalmente, la inteligencia artificial sintetiza ese resultado en dos voces (usando otro modelo más, Soundstorm) e incluye risas, interrupciones, pausas pensativas, muletillas sutiles y lo "publica"... con una atención al detalle sorprendente.
Todo esto en menos de 10 minutos. ¿Qué tiene de interesante? En cuestión de minutos, tu texto se transforma en un podcast de 10-15 minutos que suena natural y hace que tu contenido sea más accesible. Básicamente, convierte tu material escrito en una charla de audio que presenta la información de manera clara y entretenida.
Principios clave de diseño
¿Por qué me pareció interesante esto como muestra de que Google Labs puede crear productos virales y, potencialmente, interesantes? Dos razones bastante simples:
Enfoque AI-First: NotebookLM fue diseñado desde cero con capacidades de IA como núcleo, reimaginando cómo podría ser un software de toma de notas con un potente modelo de lenguaje como base.
IA Basada en Fuentes (Source-Grounded AI): una característica distintiva de NotebookLM es que permite a los usuarios "anclar" el modelo de lenguaje en fuentes y documentos específicos proporcionados por el usuario. Esto crea un asistente de IA personalizado que está versado en la información relevante para las necesidades del usuario y donde el potencial de alucinar es menor.
De nuevo, Google no metió herramientas de IA en Google Keep, sino que creó algo desde cero basado en herramientas de IA en menos de dos meses. Y más allá de que esto pueda terminar en el Google Graveyard, es una gran prueba de concepto que muestra que la información puede hacerse más accesible.
Información o educación más accesible
Esta tecnología representa un avance muy significativo en la forma en que podemos consumir y compartir información. Aunque la primera lectura podría ser cínica y decir "estamos convirtiendo texto en snacks" o "si lo hace una IA es que es simple", la realidad es que las aplicaciones potenciales abarcan varios campos, desde la educación y los negocios hasta hacer que la información sea más accesible para personas con diferentes preferencias de aprendizaje o problemas de visión.
No pienso solamente en convertir capítulos de libros en discusiones de audio para estudiar mejor, que es, tal vez, lo primero que viene a la mente, sino en buscar nuevas formas de escuchar tu contenido y crear una narrativa nueva (de hecho, tengo ganas de hacer unas pruebas con decks de startups... ¡pueden enviarlo para que lo haga! 😄).
¿Cómo seguirán? Asumo que expandirán esto a otros idiomas, personalizarán las voces o ajustarán la duración, o tal vez con ideas que ni se me hayan ocurrido.
Finalmente hay una sentencia en el juicio de Epic contra Google por monopolio. Y es uno de los peores escenarios para Google porque lo fuerza a permitir tiendas de aplicaciones de terceros en Android, le prohibe usar incentivos para que fabricantes o desarrolladores lancen exclusividades en su App Store y, sobre todo, lo fuerza a aceptar métodos de pago de terceros.
Cuando arrancó el juicio, dije que la estrategia de Epic era arriesgada pero bien pensada porque forzaba a analizar cada parte de los acuerdos de Google para mantener a Android "cerrado" pese a ser abierto.
Y mientras todos miraban lo que pasaba con Apple, Epic Games demandó también a Googlepor ser un monopolio por su método de distribución vía el Play Store y por el requerimiento de usar Google Play Billing para quedarse con una comisión de todos los ingresos de las apps. Aunque muchos pueden decir que acá "Google juega menos fuerte que Apple", Epic Games mostró documentos donde One Plus y otros fabricantes fueron forzados por Google a NO pre-instalar Fortnite Launcher en sus teléfonos, aún cuando había especificaciones técnicas que crearían una mejor experiencia para el usuario. - Epic vs Apple y Google al mismo tiempo (2020)
Y cuando miramos por qué Epic le ganó a Google pero no a Apple es básicamente por la interacción de estos puntos: por un lado Google dice que Android es abierto pero si te restringe acceso a Google Play Services el OS es inusable; por otro, cuando ve que alguien tiene una posición de mercado suficiente (pensemos en Samsung o One Plus en su momento) te ofrece incentivos para no pre-instalar apps de terceros y nadie puede pagar más que ellos, especialmente un startup. Y esto es lo que se está protegiendo ahora, con la base en lo mismo que no me canso de repetir:
Un monopolio no es inherentemente malo, es malo si lastima al consumidor.
Un monopolio no es inherentemente malo, es malo si protege su posición de forma injusta o ilegal.
Nuevas reglas para Google en Android
Google debe permitir tiendas de aplicaciones rivales en dispositivos Android por 3 años.
Google no puede prohibir el uso de métodos de pago alternativos dentro de aplicaciones por 3 años.
Google debe permitirle a los usuarios descargar esas tiendas y las aplicaciones que provengan de ellas en Android.
Google Play Store debe listar y permitir la promoción de esas tiendas de tercerdas partes
Las nuevas restricciones para Google son:
Google tiene prohibido pagar o compartir ingresos con otras empresas para evitar competencia en su App Store.
Google no puede pagar a developers de forma exclusiva en Google Play y debe explícitamente ofrecer opciones.
Google tiene prohibido brindar incentivos financieros para que los fabricantes instalen Google Play en dispositivos.
¿Con esto se ve asegurada la "libre competencia"? No lo creo: de hecho si miramos lo que Apple hizo con la Unión Europea fue buscar el punto de equilibrio financiero donde no te prohiben usar plataformas de pagos de terceros pero lo hacen económicamente inviable...
Espero que Google apueste a apalancar su ecosistema de desarrolladores y startups para que esto no se convierta en un problema financiero en vez de ir a pelear y complicarle la vida al startup promedio.
Pocas cosas son mas simples de entender que el ZIRP que vivimos hasta 2021; con tasas de interés en cero el mercado no le preocupa el ROI ahora o en una década con lo que un fondo de inversión puede apostar a largo plazo y en ideas estúpidas.... ¿cuando levantaron plata esos fondos que admirás?
Fast-Forward a hoy: con tasas de 5.5% pongo plata en bonos y en una década tengo 170% de retorno ¿que fondo me da ese retorno? (*) entonces a un VC no puedo darle plata para que haga pelotudeces y entonces los inversores de riesgo se vuelven mas conservadores porque les cuesta levantar un fondo.
¿Cual es la segunda derivada de esto? los fondos grandes que invirtieron en valuaciones ridiculas (eg: A16z) llamaron la atención de los PE players (eg: Coatue, Tiger, etc.) y juntos generaron una generación de startups que van a parir para que sus siguientes rondas no sean un downround y hay una fricción gigantesca para invertir si no tienen runway.
¿A que viene esto? a que es un gran momento para invertir en early stage o inversiones ángel... el mercado se limpió:
muchos de los fondos que necesitaban desplegar su capital en growth hoy no van a molestar en early stage porque necesitan cuidar sus números,
muchos emprendedores que lograron salir en 2020/21/22 tienen ganas de hacer cosas y tienen capital para invertir en otros,
Ai está recién arrancando y el valle de la desilusión va a borrar wrappers y startups sin diferenciación.
Soy más que optimista de este momento, creo que el ecosistema emprendedor debería enfocarse en construir porque el capital va a seguirlos, en vez de seguir ellos al capital (x) como pasó un tiempito nomás.
notas:
(*) y eso es solo para mantener mi poder de compra porque con 5.5% técnicamente voy a perder un 42% de valor.
(x) si los fondos y las asociaciones regionales no empiezan a hablar en serio del tema del ZIRP van a seguir mirando boludeces en vez de dar un debate interesante aunque privado.
Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o "La Revolución de la Inteligencia Artificial pierde fuerza" y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.
“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.” ― Christopher Priest, The Prestige
Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente "fad".
Antes de analizar el tema, creo que es importante entender estos 3 puntos porque son la base de las leyes anti-monopolio de USA:
Un monopolio NO es inherentemente malo.
Un monopolio es malo si está lastimando al consumidor.
Un monopolio es malo si protege su posición dominante de forma injusta o ilegal.
Y es por eso que la investigación contra Google no busca determinar si tiene posición dominante de mercado sino que sólose analizó y se determinó que Google tiene esa posición dominante pero que la protege de forma ilegal y frena la competencia y lastima a los consumidores -y acá el consumidor puede ser un usuario del buscador o un anunciante.
¿Estamos realmente viendo el impacto de AI que tanto se promete? Comienzan a aparecer indicios de que la gente está cansada de leer cosas genéricas sobre casos de uso de AI, o quizás sólo yo estoy cansado de leer templates que no muestran diferenciación con datos o impacto concreto:
“Leveraging non-specialized Large Language Models (LLMs) to streamline general information discovery, gathering, and organization workflows that would have taken a lot more time to complete without it.”
Creo que podriamos mejorar mucho el entendimiento de la promesa de la inteligencia artificial generativa; el ritmo de inversión que estamos viendo necesita ejemplos concretos y directos como el siguiente:
“Alaska Airlines ha estado utilizando inteligencia artificial desde 2021 para ayudar a optimizar las rutas de vuelo por eficiencia. El sistema... analiza el clima, cierres de espacio aéreo y planes de vuelo de la FAA dos horas antes de cada vuelo para sugerir las mejores rutas. La AI procesa volúmenes de datos que sobrepasarían las capacidades humanas y, en menos de dos años, contribuyó a reducir los tiempos de vuelo en el 25% de los vuelos de Alaska, ahorrando un total de 41,000 minutos y aproximadamente medio billón de galones de combustible.”
Con la demo de ChatGPT ya quedó claro que los LLM (modelos de lenguaje grandes) tienen nuestra atecion por sus capacidades en el procesamiento del lenguaje natural. Sin embargo, su tamaño y los recursos que requieren limitan su acceso y por eso es que es dificil ver nuevos jugadores en ese mercado y ahí es donde hay un espacio súper interesante para explorar los SLMs o modelos de lenguaje pequeños como alternativa.
LinkedIn me recuerda que hace 7 años dejé Wayra para entrar en Microsoft. En ese momento mi visión optimista era durar 4 años y volver a emprender, pero con apenas días en Microsoft me di cuenta de que estaba más perdido que nadie y que estaba entrando en una empresa con una escala lejos de lo que imaginaba.
Asi que pensando en estos 7 años, se me ocurrió escribir algunas de las cosas más interesantes y enfocarme en todo lo bueno que fui descubriendo
1. Impermanence and Empathy: More Than Just Buzzwords Si hay una palabra que está de moda es empatía; todos hablan de empatía, todos dicen que son empáticos y similares, pero pocas veces vi un CEO que me haga entender y trabajar para sentirme cómodo con la impermanencia. Esto es lo más importante que me llevo de Microsoft:
“If you could understand impermanence deeply, you would develop more equanimity. You would not get too excited about either the ups or downs of life. And only then would you be ready to develop that deeper sense of empathy and compassion for everything around you.”
Satya Nadella
2. Speak Up: The Microphone Is Mightier Than the Sword Esto es más general que particular, pero la capacidad que me da esta empresa de poder decir mis ideas y preocupaciones, es realmente increíble: ahí aprendí, gracias a Diego Bekerman, que podía hacer dos cosas:
Levantar la mano y decir "hey me equivoqué!" y buscar resolver el problema en vez de buscar el culpable.
Hablar y decir "estoy en desacuerdo" me obliga a proponer una alternativa, que va a ser escuchada y demostrar que puedo comprometerme aún estando en desacuerdo.
3. Scale: From Garage Band to Symphony Orchestra Si pasás del mundo emprendedor al corporativo lo primero que vas a pensar es la escala y el alcance de tu trabajo, pero si entrás en Microsoft te vas a dar cuenta el verdadero sentido de escala: es pasar de Garage Band a una Sinfónica. Complejo y con cacofonías, pero maravilloso.
4. The Power of Playbooks: Navigating the Corporate Playfield Uno de los consejos que nunca me cansé de darle a startups es "build repeatable, sustainable, and scalable business...". Lo que aprendí en Microsoft es que el enfoque de crear playbooks(frameworks estructurados de trabajo) es la ÚNICA solución para crear impacto en una organización con esta escala. Nota: hay situaciones que merecen un caso particular, pero el valor/recompensa de los playbooks es innegable.
5. Constant Learning: School Never Ends El growth mindset es algo que Microsoft te fuerza a aprender constantemente; la amplitud y profundidad de recursos que me dan es increíble, pero el edge está en el tiempo que te dan para que lo hagas. Y encima, en el mundo de AI, esto cambia más rápido que un camaleón on meth.
6. Execution Engine: Turning Ideas into Reality "Being relentless not ruthless'. Es la mejor forma de entender como una empresa de esta escala y con esta cultura se anima a re-crearse (piensen en Soft, Cloud, AI) y las decisiones que hay que tomar constantemente. Sentirse cómodo con el caos, el churn y la sensación de generar impacto mientras no paramos es ser un motor de ejecución.
7. Innovation at the Margins: The Art of Peripheral Vision Recientemente tuve que trabajar en un proyecto con aceleradoras y fondos, y en otro momento hubiese dicho "ya conozco este mercado": la realidad es que con todos los puntos anteriores termino buscando más allá de lo obvio, buscando la innovación que puede aparecer en el margen de un mercado o de una región; algo que es periférico me ayuda a veces a entender algún patrón o simplemente descubrir algo que no conocía.
Conclusión: Es interesante que recién al escribir esto me di cuenta de que cada uno de las acciones que describo (playbooks, margin innovation, etc.) se despliegan de la cultura que describo en los puntos 1 y 2.
Tal vez lo más interesante que aprendí en estos años es que la cultura puede cambiar una empresa aún del tamaño y del éxito de Microsoft; como dirían por ahí uno se suma a un equipo por la empresa pero se va por el manager.
Debe haber pocas más simples y más complicadas que tener control de uno mismo; en la lógica es algo súper simple :"control de los impulsos y reacciones propias". Esto implica que hay una toma de decisión consciente analizando beneficios y consecuencias de cada acción que tomamos.
Esto implica algo simple: el auto-control es un proceso que puede salir bien. Pero tiene algunas potenciales fallas/trampas. Como todo hoy en día, está "preso" de muchos mitos que lo simplifican y, más allá de sus ventajas, al ser un proceso implica que si perdés ese auto-control podés aprender de ese momento y mejorar sin quedar atado a un mal momento.
El auto-control es un proceso
El cínico diría "Controlarse es fácil ¿por qué perderías el auto-control?". Pero la realidad es más compleja, porque el auto-control implica trabajo y necesitás entender algunos mitos del mismo:
"El autocontrol es innato": mentira, es como un músculo que se fortalece con la práctica.
"La fuerza de voluntad es ilimitada": creer que la fuerza de voluntad es inagotable ignora la realidad del agotamiento por decisiones a las que cualquier persona está expuesta constantemente, sin descanso, y sin dedicarle tiempo a tu salud mental el auto-control puede agotarse.
"Es resistir la tentación": esto es una sobre-simplificación, y deja de lado el entender las emociones, pensar a largo plazo, mantener hábitos positivos y, sobre todo, que esto es un proceso constante.
Las trampas del auto-control
Al mirarlo bien, entendés que el auto-control es como un músculo que tenés que ejercitar y que, como todo, implica un trabajo constante. De hecho hay 3 problemas de los que nadie habla, especialmente en el mundo emprendedor, donde parece que nadie se anima a hablar de salud mental, y que son consecuencia directa de buscar el auto-control pero sin una estrategia.
La dependencia excesiva puede conducir al estrés: ejercitar constantemente el auto-control puede ser mentalmente agotador, y eso conduce al stress y agotamiento, una paradoja porque es lo que estás buscando evitar.
Puede reducir el disfrute: un auto-control estricto puede limitar la capacidad de disfrutar de momentos espontáneos o de darse pequeños placeres.
Efecto rebote: analizar tus actos constantemente y suprimir los deseos puede llevar a un fuerte efecto rebote, donde el autocontrol se rompe y terminas dándote permiso para todo o explotás y tenés UN momento donde generás una situación inexplicable.
Las 3 ventajas del auto-control
Hay mil libros, estudios y artículos para leer sobre el auto-control. Y aunque en general el auto-control se piensa como una forma de no caer en provocaciones, la realidad es que hay 3 cosas que podés sacar si lo ejercés bien:
Mejor toma de decisiones: si sos capaz de reflexionar, vas a valorar beneficios y ventajas a largo plazo, sobre tentaciones a corto plazo.
Conseguir objetivos personales y profesionales: si tus decisiones toman en cuenta los beneficios a largo plazo, la consecución de objetivos se hace más simple (compounding!), y eso va a bajar tus niveles de estrés.
Mejora en relaciones: esto me parece clave; si sos capaz de entender y manejar las emociones, el auto-control generará interacciones más saludables y empáticas con los demás.
“Remember, it is not enough to be hit or insulted to be harmed, you must believe that you are being harmed. If someone succeeds in provoking you, realize that your mind is complicit in the provocation. Which is why it is essential that we not respond impulsively to impressions; take a moment before reacting, and you will find it easier to maintain control.”
Nadie es perfecto: si perdiste el control tenés que entender que ya pasó y que no podes resolverlo, pero podés enfocarte en entender y mejorar. Quizás la mejor técnica es dividir en 3 partes el "post-explosión":
Reconocer y aprender: reconocé el desliz como una oportunidad de aprendizaje, no como un fracaso, para entender los desencadenantes y mejorar las estrategias.
Perdónate a vos mismo: practicá la auto-compasión para evitar el diálogo interno negativo y la culpa, entendiendo que las recaídas son parte del proceso.
Planificar para futuras tentaciones: elaborá estrategias sobre cómo manejar situaciones similares de manera diferente en el futuro, reforzando tus mecanismos de autocontrol.
“Wise men are not pacifists; they are merely less likely to jump up and retaliate against their antagonizers. They know that needless antagonizers are virtually already insecure enough.”
Ayer murió Daniel Kahneman, Premio Nobel en Economía por su trabajo en Prospect Theory para toma de decisiones, conocido por muchos por su trabajo en, claro, toma de decisiones y economía conductual, y autor de "Think Fast Think Slow". Yo lo recuerdo como una de las pocas veces que me lamenté por haber descubierto tarde a un autor y el valor de su obra.
Hay dos libros claves para entender su valor; por un lado "Prospect Theory",que nos permite entender cómo tomamos decisiones bajo incertidumbre sin ser racionales siempre. Y en "Think Fast Think Slow" nos deja entender, en términos simples, que hay dos sistemas en permanente lucha en nuestro cerebro, uno automático y otro deliberado... lo que nos hace vivir con sesgos.
"Teoría del Prospecto" (Prospect Theory)
Hoy puede parecer intuitivo pensar que no siempre se toman decisiones racionales, pero en 1979, cuando se publica Propsect Theory, gran parte del mercado asumía que las personas tomaban decisiones racionales basadas en la maximización de la utilidad esperada.
Kahneman y Tversky (su socio de siempre) demostraron que hay valoraciones que influyen en la toma de decisiones y que, sobre todo, las personas valoran las ganancias y pérdidas de manera diferente, lo que significa que son más sensibles a las pérdidas que a las ganancias de magnitud equivalente, un fenómeno conocido como aversión a la pérdida. Un concepto clave en nuestra economía.
Lo otro que demostraron es que cuando uno toma decisiones (en cambios de riqueza) estas se toman con un punto de referencia diferente en cada caso; esto implica que el mismo resultado se percibe de formas diferentes dependiendo de ese punto de referencia y, por lo tanto, hay decisiones que serían consideradas irracionales desde la teoría tradicional.
Esto último ayuda a entender que hay un "framing" para entender la "curva de valor" que nos hace tomar decisiones financieras.
Tal vez lo más conocido de Daniel Kahneman y Amos Tversky, porque siempre escribieron juntos, es el libro "Thinking Fast, Thinking Slow" (link en inglés que está gratis en Kindle Unlimited y en español que a veces está gratis) y la idea súper resumida de distinguir dos modos de pensamiento:
"Sistema 1". El Sistema 1 opera de manera automática y rápida, con poco o ningún esfuerzo y sin sentido de control voluntario, mientras que
"Sistema 2" implica deliberación, razonamiento y requiere actividades mentales más esforzadas.
Sobre esa base se explica cómo las personas toman decisiones, los sesgos que afectan nuestro pensamiento y las implicaciones para la economía, la política y las vidas personales. El famoso conflicto que tenemos entre intuición y razonamiento; y cómo esto nos lleva a errores y juicios erróneos que, luego, cuando lo pensamos, no entendemos cómo nos equivocamos.
Y de ahí a entender por qué es tan difícil predecir qué nos hará felices, cómo enfrentamos la toma de riesgos y nuestra aversión a la pérdida; tal vez lo mejor es que el libro tiene ejemplos súper simples de cómo cambiar nuestra perspectiva y tomar mejores decisiones
La felicidad y la satisfacción
“People don't want to be happy the way I've defined the term – what I experience here and now. In my view, it's much more important for them to be satisfied, to experience life satisfaction, from the perspective of 'What I remember,' of the story they tell about their lives"
Esto que dijo Kahneman en una entrevista en el Haaretz es realmente una de las mejores muestras del valor de su obra: cómo estamos a veces sesgados por la "narrativa" que nos creamos y cómo nos ve el mundo, más que por el verdadero valor de lo que sucede.
De verdad, deberían leer más a Kahneman y tomar mejores decisiones porque esto impacta cada uno de nuestros mundos.
El 13 de Marzo de 2024 el Congreso de los Estados Unidos pasó la resolución H.R. 752 dándole a Bytedance la orden de vender TikTok o serán bloqueados en Estados Unidos. Ahora está a disposición del Senado, y Joe Biden la firmará y será ley. Mientras que muchos imaginan que esto es simplemente para mantener el predominio de las redes sociales de USA a nivel mundial, la realidad es más compleja: seguridad nacional, privacidad, intereses económicos y la rivalidad geopolítica.
¿Por qué contra TikTok?
Preocupaciones de seguridad nacional: esto es el tema clave. Funcionarios estadounidenses temen que la empresa matriz de TikTok, ByteDance y que tiene su sede en China, podría ser obligada por las leyes chinas a entregar datos de usuarios estadounidenses. Esta preocupación surge de la Ley de Inteligencia Nacional de China que requiere que las compañías cooperen con el trabajo de inteligencia estatal. Solo imaginen la profundidad que el espionaje o la desinformación pueden alcanzar si el gobierno recibe absolutamente todo.
Privacidad de datos y seguridad del usuario: relacionado con la seguridad nacional están las preocupaciones sobre la privacidad de datos y la seguridad de los usuarios, particularmente niños y adolescentes que forman una parte significativa de la base de usuarios de TikTok. Hay temores sobre cómo la aplicación recopila datos y el potencial para que estos datos sean mal manejados o utilizados para vigilancia y propaganda.
Tensiones geopolíticas: el tema de TikTok también se ve a través del prisma de la rivalidad geopolítica más amplia entre EE.UU. y China. Las acciones del gobierno de EE.UU. contra TikTok son parte de un contexto más grande de tensiones crecientes entre las dos superpotencias, que abarcan disputas comerciales, competencia tecnológica y modelos de gobernanza diferentes.
Intereses económicos y competencia: y aunque diga que esto no es central, también, es claro que hay un trasfondo de proteccionismo económico en los esfuerzos por limitar la influencia de TikTok. Con el enorme éxito global de TikTok, representa un competidor formidable para las plataformas de redes sociales de EE.UU.
¿Hay precedentes de empresas forzadas a vender o ser prohibidas?
El caso de US vs TikTok no es aislado: recuerden el caso de Huawei y su infraestructura de telecomunicaciones. Sus equipos fueron prohibidos o restringidos, no sólo en Estados Unidos, sino en Australia, Reino Unido y parte del Commonwealth.
De nuevo el focos es la seguridad nacional y las tensiones geopolíticas (QUE NO VAN A DEJAR DE ESCALAR A PUNTOS INCREÍBLES COMO LAS GRÚAS DE LA INFRAESTRUCTURA DE PUERTOS), mucho más claras en un proveedor de infraestructura; en términos simples: todas y cada una de las comunicaciones de varios Estados pasaban por un caño que tenía lazos con el Gobierno de China. ¿Necesito explicarlo mejor?
Quizás nos hemos olvidado pero en 2020 el presidente Trump, en otro de sus fracasos políticos, trató de forzar la venta de TikTok a algún gigante de USA.
Pero para ser justos, y para entender el contexto de esto, hay que recordar que el gobierno chino bloqueó el acceso a Meta (en ese momento Facebook) y a Twitter, entre otros, desde 2009 por cómo se dieron a conocer la protestas de Urumqi y, desde ese momento, hubo un apoyo coordinado del CCP para bloquear redes sociales y generar mercados con pocos competidores y controlados por ellos.
Splinternet: un futuro fragmentado que no conocemos
El término "Splinternet" es un neologismo para una Internet dividida (split Internet), un futuro en el que Internet estará dividida a lo largo de líneas nacionales o regionales, con diferentes reglas y regulaciones gobernando el espacio digital en diferentes partes del mundo.
Cualquier persona que haya viajado a China conoce lo diferente que es la experiencia al navegar Internet, al utilizar servicios o hasta para hacer pagos; y así como uno admira técnicamente (y a nivel inversiones) el concepto de las super-apps donde uno tiene su vida; el lado B de esto es que hay un switch donde el gobierno conoce literalmente todo de vos y puede desconectarte en un click.
Pero volvamos a lo estratégico: las prohibiciones chinas en las redes sociales occidentales como las acciones contra TikTok en EEUU contribuyen a la fragmentación de Internet global y esto va a generar desafíos que son increíbles:
Empresas, teniendo que adaptarse a frameworks legales diferentes en cada mercado; el caos que la GDPR causó pero multiplicado por 10 con los costos asociados a tener diferentes presencias físicas y hasta teniendo que recortar accesos porque, como ejemplo, la GDPR puede tener conflicto con el CCP en términos de privacidad.
Usuarios, y vuelvo al ejemplo de usar Internet/apps/infraestructura en China vs Occidente, pero además esto puede crear una balcanización donde los países fuera de los 3 dominantes vivan una brecha digital aún peor.. y con sus datos personales como moneda de cambio.
En definitiva, la controversia sobre TikTok en EE.UU. es un paso más en una batalla que no muchos están prestando atención, es una controversia multifacética, con tensiones geopolíticas más amplias con China, y el resultado de esta controversia tendrá implicaciones significativas para la política tecnológica internacional, las relaciones entre EE.UU. y China, y la economía digital global.
Esta semana, Monzo, con sede en Londres, logró una de las mayores rondas de financiación en algún tiempo para fintechs, una Serie I de $435 millones con una valuación post de $5.000 millones, subiendo desde $4.500 millones en 2021 aunque en los dos últimos años las inversiones en fintech cayeron mas de un 50% y en banking startups un 72%.
Investment tobanking startups has evaporated, with funding falling 72% in 2023 — the biggest YoY decrease across fintech sectors. Payments startups saw funding decline just 30% YoY — the least of any fintech sector — though the annual funding total was propped up by 2 massive rounds to Stripe ($6.5B) and Metropolis ($1B). Payments remains the most well-funded fintech sector by a wide margin.
Hace unos días Elon Musk demandó a OpenAI para que rompan sus alianzas comerciales. Hoy OpenAI respondió con datos mostrando que Elon Musk los demanda porque "logramos avanzar en la misión de OpenAI sin su ayuda". Honestamente no iba a hablar de la demanda de Musk porque es la continuación de su lobby personal por destruirla.
No sólo la "demanda" no tiene sentido porque no había un contrato sino que es un diatriba sobre cómo se aprovecharon de él, pero esto es simplemente una pelea de egos porque Musk no acepta que no se la regalaron.