Recuerdo en The Matrix cuando Neo llega a conocer a The Oracle: ahí se da cuenta de que no hay una cuchara, sino solo la representación mental de una cuchara. Es entonces cuando comprende que la realidad no es como la percibimos, sino una interpretación que hace nuestro cerebro: lo mismo nos pasa cuando imaginamos que un LLM alucina o que entiende inherentemente lo que le preguntamos.
La cita de The Matrix funciona aquí como una metáfora clave: “No existe la cuchara” en el sentido de que el modelo no tiene ninguna percepción o concepto inherente de la realidad; está imitando patrones estadísticos sin una comprensión o creencia subyacente. Por eso en lugar de tratar de “ver la cuchara” (o una realidad concreta), un LLM se limita a procesar y reproducir correlaciones.
El “fallo” en el sistema es de nuestra percepción humana cuando se espera una precisión o intencionalidad que el modelo no puede ofrecer, no es un fallo del modelo.
Creo que el ecosistema inversor/emprendedor de la region (Latam+España) no entiende el momento o espacio en el que está en temas de Inteligencia Artificial especialmente en GenAI y, quizás, analizar los 100 papers más citados en el ámbito académico ayude a explicar dónde estamos parados para así entender dónde podemos encontrar oportunidades de inversión para crecer.
¿Por qué los 100 papers más citados? [fuente] Por dos razones principales: por un lado, el momento actual de la inteligencia artificial generativa es el de transferencia tecnológica, de R&D y academia a corporaciones y startups. Y, por otro lado, porque el avance de las corporaciones sobre la investigación académica se está dando a pasos agigantados por la cantidad de capital necesario para desplegar estas soluciones.
Perplexity está empeñado en crear “el próximo Google”, o al menos finalmente sacarnos del ridículo paradigma de los 10 links azules como la mejor forma de buscar en Internet; pero es interesante que esto implica que uno puede “dialogar” con el LLM, que es parte del buscador, mantener las búsquedas en memoria e indagar mucho mas en cualquier búsqueda que hagas, entre otras. Esto tiene, al menos, dos nuevas derivadas:
Es mucho más interesante “investigar que buscar” con lo que para un dato puro termino volviendo a Google, pero para buscar cuando estoy armando o creando termino dialogando con Perplexity.
Si podés usarlo para profundizar, utilizar tus propios documentos o papers suma mucho a este trabajo.
Por eso que aparezcan los Perplexity Spaces tiene sentido y parece un paso natural; los Perplexity Spaces son espacios donde podés agrupar tus búsquedas en la web con tus archivos personales e invitar a terceros a sumarse a ese “centro de colaboración” donde tus búsquedas son híbridas (porque agrupan data pública y data tuya), grupales (porque podés invitar a terceros) y colaborativas(porque todos suman al espacio).
En 1973, Arthur C. Clarke escribió “Perfiles del Futuro: Una Investigación sobre los Límites de lo Posible“, donde formuló sus famosas “Tres Leyes”, siendo la tercera la más citada: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia.” Esta frase hoy me persigue, especialmente con el auge de los Modelos de Lenguaje Grande (LLMs) o el uso de ChatGPT. Estos modelos pueden generar resultados que se sienten mágicos, pero no entender el papel que juega el contexto es no entender su esencia misma.
El contexto no es solo una característica; es la base que permite a estos modelos realizar su “magia”.
El contexto en los LLMs se refiere a los diversos tipos de información que el modelo procesa para generar una respuesta relevante y eso incluye al menos 3 divisiones:
La consulta: esto es el texto o consulta que el usuario quiere entender y sirve como el prompt principal para la respuesta del modelo.
Instrucciones del usuario: cualquier directiva específica o guía dada por el usuario, como pedir un resumen, una explicación detallada o un cambio en el tono. Esto incluye que le digas cual es el perfil al que debe apuntar (eg: “soy un arquitecto de 35 años, con 8 de experiencia en diseño de aeropuertos”) y que puedes incluir siempre en la consulta.
Conocimiento amplio: la información con la que el modelo ha sido entrenado, incluidos libros, artículos y otras fuentes de datos, que le permite entender el lenguaje, los conceptos y los contextos más allá de la entrada inmediata.
Cuando el LLM genera respuestas, está sintetizando estos elementos, por eso las respuestas generadas suenan coherentes y, sobre todo, relevantes para las expectativas del usuario. Sin aprovechar este contexto, el modelo perdería su capacidad de proporcionar respuestas significativas para tus expectativas o, luego de refinar el “context window”, que sean realmente precisas.
“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.” ― Christopher Priest, The Prestige (citado antes)
Personalizar los LLMs para aprovechar al máximo la entrada inmediata y las instrucciones del usuario es clave para garantizar respuestas relevantes y efectivas. (Nota: obviamente no hablo de personalizar el modelo porque no está a tu alcance). Por ejemplo:
Optimizar la entrada inmediata: puedes ser preciso en la forma en que formulas tus consultas para obtener las respuestas más precisas y enfocadas. En lugar de hacer preguntas vagas, como “¿Qué es la IA?”, intenta algo más específico para que la respuesta salga adaptada a un perfil como el tuyo:
“Explica los beneficios clave de la IA en la salud en términos simples, soy un paciente de 53 años que conoce poco de tecnología.”
Personalizar las instrucciones del usuario: puedes guiar al modelo para que produzca contenido que se ajuste a tus preferencias y las opciones son ilimitadas. Por ejemplo, podrías pedir que se adapte a un formato: “Resume este artículo en 3 puntos”. O a tu conocimiento: “Dame una explicación detallada con términos técnicos”. O a tu necesidad de mimos al ego:
“De todas nuestras interacciones, ¿cuál es una cosa que puedes decirme sobre mí que tal vez no sepa sobre mí?”
Cuanto más refines y personalices tus entradas, mejor podrá el modelo responder a tus necesidades específicas.
Además de mejorar las interacciones con preguntas más precisas, podés personalizar ChatGPT/Claude o MetaAI para que se adapte aún más a tus necesidades.
Por ejemplo, ChatGPT puede recordar detalles de tus conversaciones previas, lo que le permite ofrecer respuestas más relevantes y personalizadas a largo plazo. Podés preguntarle directamente qué recuerda de ti para que borres lo que no te interese o agregues datos o pedirle que te ayude a ajustar la forma en que responde a tus solicitudes.
Por ejemplo, una simple pregunta como “¿Qué sabes sobre mí?” te mostrará la información que ChatGPT ha guardado de tus interacciones previas, brindándote una mayor comprensión de cómo utiliza el contexto para personalizar su asistencia y quizás tengo la ventaja de haber heche una carrera humanistica donde se entiende que:
La importancia del contexto en comunicación es que organiza y da sentido al mensaje. El significado de un mensaje no depende solo de su estructura gramatical, sintáctica o léxica sino también del contexto que acompaña a un enunciado y afecta a su interpretación.
Que lindo futuro nos espera con prompt engineering.
Me gusta NotebookLM por varias razones: primero, porque es una gran muestra de las cosas que se pueden hacer con la IA generativa combinando modelos; luego, porque algunos casos de uso me están sorprendiendo; y finalmente, porque, en cierto sentido, muestra que Google sigue siendo capaz de desarrollar productos interesantes.
¿Qué es y cómo funciona NotebookLM?
Para los que no lo conozcan, NotebookLM (antes conocido como Project Tailwind) es una herramienta impulsada por IA, diseñada para ayudar a los usuarios a organizar, analizar y obtener información de las notas que toman, sean estas propias o documentos que uno sube. También funciona con enlaces que uno ingresa en el sistema y utiliza una combinación de modelos de lenguajes, empleando IA para extraer puntos clave, resumir contenido y generar preguntas o insights… ¡incluso en formato de podcast!
Lo interesante es cómo funciona. El proceso que usa NotebookLM de Google para transformar contenido escrito en conversaciones de audio es fascinante, porque combina partes ya vistas y “estandarizadas” con nuevas ideas, especialmente en edición. Todo comienza cuando subís tus documentos – pueden ser notas, documentos en PDF o enlaces como en el ejemplo anterior.
Cuando subís el contenido, Google con su IA (usa el modelo Gemini 1.5 Pro) analiza tu texto, procesándolo y “entendiendo” no solo las palabras sueltas, sino también el contexto y los puntos clave de todo el documento.
Luego, la IA crea un “script” donde transforma/convierte ese análisis de tu texto en un diálogo (usando otro modelo de “texto a tokens”) entre dos personas.
Finalmente, la inteligencia artificial sintetiza ese resultado en dos voces (usando otro modelo más, Soundstorm) e incluye risas, interrupciones, pausas pensativas, muletillas sutiles y lo “publica”… con una atención al detalle sorprendente.
Todo esto en menos de 10 minutos. ¿Qué tiene de interesante? En cuestión de minutos, tu texto se transforma en un podcast de 10-15 minutos que suena natural y hace que tu contenido sea más accesible. Básicamente, convierte tu material escrito en una charla de audio que presenta la información de manera clara y entretenida.
Principios clave de diseño
¿Por qué me pareció interesante esto como muestra de que Google Labs puede crear productos virales y, potencialmente, interesantes? Dos razones bastante simples:
Enfoque AI-First: NotebookLM fue diseñado desde cero con capacidades de IA como núcleo, reimaginando cómo podría ser un software de toma de notas con un potente modelo de lenguaje como base.
IA Basada en Fuentes (Source-Grounded AI): una característica distintiva de NotebookLM es que permite a los usuarios “anclar” el modelo de lenguaje en fuentes y documentos específicos proporcionados por el usuario. Esto crea un asistente de IA personalizado que está versado en la información relevante para las necesidades del usuario y donde el potencial de alucinar es menor.
De nuevo, Google no metió herramientas de IA en Google Keep, sino que creó algo desde cero basado en herramientas de IA en menos de dos meses. Y más allá de que esto pueda terminar en el Google Graveyard, es una gran prueba de concepto que muestra que la información puede hacerse más accesible.
Información o educación más accesible
Esta tecnología representa un avance muy significativo en la forma en que podemos consumir y compartir información. Aunque la primera lectura podría ser cínica y decir “estamos convirtiendo texto en snacks” o “si lo hace una IA es que es simple”, la realidad es que las aplicaciones potenciales abarcan varios campos, desde la educación y los negocios hasta hacer que la información sea más accesible para personas con diferentes preferencias de aprendizaje o problemas de visión.
No pienso solamente en convertir capítulos de libros en discusiones de audio para estudiar mejor, que es, tal vez, lo primero que viene a la mente, sino en buscar nuevas formas de escuchar tu contenido y crear una narrativa nueva (de hecho, tengo ganas de hacer unas pruebas con decks de startups… ¡pueden enviarlo para que lo haga! 😄).
¿Cómo seguirán? Asumo que expandirán esto a otros idiomas, personalizarán las voces o ajustarán la duración, o tal vez con ideas que ni se me hayan ocurrido.
Pocas cosas son mas simples de entender que el ZIRP que vivimos hasta 2021; con tasas de interés en cero el mercado no le preocupa el ROI ahora o en una década con lo que un fondo de inversión puede apostar a largo plazo y en ideas estúpidas…. ¿cuando levantaron plata esos fondos que admirás?
Fast-Forward a hoy: con tasas de 5.5% pongo plata en bonos y en una década tengo 170% de retorno ¿que fondo me da ese retorno? (*) entonces a un VC no puedo darle plata para que haga pelotudeces y entonces los inversores de riesgo se vuelven mas conservadores porque les cuesta levantar un fondo.
¿Cual es la segunda derivada de esto? los fondos grandes que invirtieron en valuaciones ridiculas (eg: A16z) llamaron la atención de los PE players (eg: Coatue, Tiger, etc.) y juntos generaron una generación de startups que van a parir para que sus siguientes rondas no sean un downround y hay una fricción gigantesca para invertir si no tienen runway.
¿A que viene esto? a que es un gran momento para invertir en early stage o inversiones ángel… el mercado se limpió:
muchos de los fondos que necesitaban desplegar su capital en growth hoy no van a molestar en early stage porque necesitan cuidar sus números,
muchos emprendedores que lograron salir en 2020/21/22 tienen ganas de hacer cosas y tienen capital para invertir en otros,
Ai está recién arrancando y el valle de la desilusión va a borrar wrappers y startups sin diferenciación.
Soy más que optimista de este momento, creo que el ecosistema emprendedor debería enfocarse en construir porque el capital va a seguirlos, en vez de seguir ellos al capital (x) como pasó un tiempito nomás.
notas:
(*) y eso es solo para mantener mi poder de compra porque con 5.5% técnicamente voy a perder un 42% de valor.
(x) si los fondos y las asociaciones regionales no empiezan a hablar en serio del tema del ZIRP van a seguir mirando boludeces en vez de dar un debate interesante aunque privado.
Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o “La Revolución de la Inteligencia Artificial pierde fuerza” y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.
“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.” ― Christopher Priest, The Prestige
Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente “fad”.
Hace unos meses aparecieron en Netflix dos joyas de la corona de HBO: “Band of Brothers” y “The Pacific“, tambien aparecieron “Insecure” “Ballers” y la genial “Six Feet Under” … y aunque hay notas del NYT hablando de las licencias de Warner, me enfoco en HBO porque siempre fueron celosos guardianes de sus tanques.
Como una muestra más del fin de la era de la tasas de interés a cero, hoy todos los servicios de streaming de los estudios de Hollywood están licenciando nuevamente su contenido a Netflix, parecen haberse dado cuenta de dos cosas simples:
Licenciar contenido al lider mundial en audiencia, Netflix, les genera cientos de millones de dólares en Ingresos
Distribuir ese contenido en servicios propios (aka: HBO Max, Disney +, etc,) genera costos que HOY no pueden afrontar
Y aunque esto es una pelea a largo plazo, donde va a haber espacio para todos, creo que el éxito de Netflix hoy es responsabilidad absoluta de las empresas de cable, HBO, Disney, Warner, etc.etc tuvieron 15 años de tasas bajas y mercados apoyando inversiones para crecer a toda costa y no fueron capaces de hacer ni una app coherente… eso se paga y hoy lo unico que funciona bien es Netflix.
Me gusta cada tanto usar la frase el contenido es el rey pero la distribución es la reina, los alfiles y un caballo, porque Netflix se hizo de la posición que se hizo gracias a sus canales de distribución: más eficientes, inteligentes y globales que nadie pero hoy… esa ventaja estructural desapareció y enfrentan problemas que frustran a algunos de sus usuarios.
Pero asi y todo, hace apenas un año Netflix decidió aumentar sus precios (costando unas 3 veces más que su competencia) decidió lanzar una suscripción más barata con publicidad incluída y pese a un pequeño tropiezo en 2022 volvió a crecer:
este aumento era esperable porque es parte de un cambio mucho más amplio de su estrategia, donde van a tener que empezar a generar ingresos de otras maneras -Netflix con Anuncios o Netflix Hogares- pero honestamente creo que su principal problema es competencia en contenido y ver como su ventaja estructural va desapareciendo a medida que los grandes mejoran sus apps y servicios.
¿que pasó? 19 meses y la competencia no logró mejorar sus Apps, tuvo idas y vueltas que incluyeron hasta cambio de marca o fusiones de servicios… mientras Netflix siguió enfocada en su core business.
Y acá estamos, con HBO concediendo sus joyas para generar ingresos en un momento donde las acciones de la empresa no pueden competir con el mercado de tasas altas y parece haberse rendido.. aunque eso será cuando veamos a Los Sopranos en Netflix y en ese momento diré que Netflix ganó la guerra y no sólo una batalla.
Mi postura sobre SVB es super clara, hice un post sobre el tema que es publico, pero estaría bueno leer otro punto de vista al simplificado que está dando vueltas por las redes sociales; por un lado Michael Moritz, partner de Sequoia en el Financial Times, y por otro Hemant Teja, CEO y MD de General Catalyst.
Pero antes que nada quiero dejar en claro 3 puntos que nadie puede negar y que haciendo el post mortem parecen no ser importantes:
El valor del SVB en el nacimiento del ecosistema de startups y VCs es innegable. Cuando las empresas tecnológicas nacen y son “una idea liderada por dos emprendedores” los bancos tradicionales no le prestan atención… y cuando estás armando tu primer vehículo de inversión ¿quién estaba ahí dándote servicios?
El manejo de riesgo fue terrible, aun con la excusa que los depósitos se triplicaron en la pandemia, diversificar mal fue estúpido y eso se paga; encima el CEO solo generó desconfianza con un timming terrible y una comunicación terriblemente mala.
La cámara de eco de nuestro mercado fue destructiva y mostró POCO profesionalismo. De 3 fondos que arrancaron la corrida, las redes sociales empujaron una corrida de 42.000 millones de dólares en menos de 2 días, 3 veces más que la segunda corrida bancaria de la historia y aún así todos los pedidos fueron honrados.
Ecosistema implica una interconexión
In a perverse way, SVB has paid a price for its loyalty. Much will be said about the reasons for its demise, but few will dwell on what made it special for those of us in Silicon Valley. SVB stayed close to its roots and its customers. When it collapsed almost all of its 40,000 customers were technology companies — a drop in the bucket for the big banks.
“What should have been sophisticated, systems-level thinking quickly gave way to the most basic human instinct to act in one’s own self-interest, not out of malice or greed, but to ensure survival.” … “But the losses SVB reported should not have been fatal. The value-generating parts of the business remained intact, as did the deep relationships and trust SVB enjoyed with nearly every actor in our industry.”
The counternarrative—that those investors who panicked first were fulfilling a fiduciary duty—is incomplete. We were all shocked at the speed with which the events of last week unfolded. But causing a bank run at the most important institution in your sector can hardly be considered an act of fiduciary duty. While your own company may be able to recover most or all of its cash, what happens if the resulting collapse wipes out your customer base? Or your venture debt provider?
Creo que esas notas dicen bastante claro que hay algo que se perdió en el momento donde algunos dejaron de “ayudar a emprendedores a crecer!” para crear FUD (Fear, Uncertainty and Doubt) en redes sociales. De nuevo, el management hizo una peor que otra, pero no estoy seguro de que el banco fuera a colapsar.
La industria se debe un gran debate, que afortunadamente se está dando pero a puertas cerradas, sobre cómo se manejan rumores en épocas de redes sociales y mentalidad de rebaño.
Si decimos que de los errores se aprende…. tenemos una gran oportunidad como ecosistema, aunque hayamos matado a uno de los mejores socios del ecosistema.
Algunos links interesantes que encontré o estuve leyendo sobre Inteligencia Artificial, OpenAI, ChatGPT y hasta costos de infraestructura; no es un week-log en realidad pero… quizas es una buena forma de volver a escribir ;)
Mientras, en Product Hunt descubri ” curated bundle of the most advanced AI prompts for image generation. From photorealism to cartoon: create anything you can imagine using Midjourney!”en best AI Prompts
Y hablando de creatividad en The Atlantic te cuentan que tu creatividad no va a salvar tu trabajo de los transformers de inteligencia artificial en Your Creativity Won’t Save Your Job From AI
Al escribir algo de AI o cuando estoy tratando de usar sentido común para explicar algo hablo con Diego Basch para ver si pasa su filtro; pero la realidad es que el el “sentido común” es tan dificil de definir que es en esos puntos donde termino haciendo agua… y por eso me parecio maravillosa esta entrevista con Yeichin Choi
¿como definimos lo que es “entender”? ¿como definimos lo que es “saber”? ¿cuales son las excepciones? ¿como las manejamos? ¿como las definimos? ¿como interactuamos nosotros con el contexto que rodea la información?
Yeichin Choi usa el mismo ejemplo que me viene a la cabeza cuando me dicen “OpenAI no entiende lo que le pregunto” o “Google Bard comete errores de nene” ¿pueden las aves volar? nuestra respuesta automática es “si” pero la realidad es que la respuesta es “generalmente si” y ese “generalmente” depende del contexto de la pregunta.
”Commonsense is the dark matter of intelligence. We know it’s there, and we all rely on it effortlessly, yet it has been notoriously hard to pin down, especially for machines. My research seeks to tackle this longstanding challenge in AI (artificial intelligence) by teaching machines to reason about the likely causes and effects of everyday events and the likely intents and mental states of people in relation to those events.”
Pero más alla de esto que es clave ¿como definimos el sentido común? la entrevista revisa el concepto de value pluralism o las diferentes verdades a las que nos enfrentamos y como esas verdades, hoy explícitamente, toman en cuenta valores morales.
These rules basically cannot be written down as universal truths, because when applied in your context versus in my context, that truth will have to be bent. Moral rules: There must be some moral truth, you know? Don’t kill people, for example. But what if it’s a mercy killing? Then what?
Fue Steve Jobs el que dijo “If you don’t cannibalize yourself, someone else will.” y creo que por eso la acción de Google cayó un 9% en un solo dia cuando apuró un evento de AI y no porque “hubo un error en una demo”.
Lo que el análisis de 280 caracteres resume en “Google perdió un 9% porque una demo salió mal” es no entender el porque Google no habia presentado hasta ahora una interfaz conversacional como ChatGPT para aumentar los resultados: esto cambia la dinamica de negocio y no hay incentivos para innovar si canibalizas tus ingresos mientras cambia tu estructura de costos
La estructura de costos de una interfaz conversacional sobre inteligencia artificial es diferente a la del modelo actual de los buscadores (aka: 10 blue links).
El modelo de ingresos cambia radicalmente versus la actual integracion de links de anuncios arriba y abajo de los resultados en varios sentidos:
La interfaz es diferente entonces el espacio “above the fold” cambia; la integracion/mezcla de SERP/SEO cambia
pero mas estratégico es que el usuario ahora espera algo mas que “un link con la informacion” y nadie hizo pruebas a escala de esos nuevos modelos.
Pero entonces ¿con tantas preguntas porque el mercado le pego a Google este golpe que borró $100b en una hora? porque esperaban que se presente algo parecido al nuevo Bing que presentó Microsoft y Google no lo hizo… repito: no lo hizo porque pese a tener talento y tecnologia no tenia incentivos para probar algo que pudiera canibalizar su modelo de negocios por eso hay otro jugador, Microsoft, probando cosas nuevas.
¿Porque hablo de Microsoft si empece hablando de la caida de 9% en un dia de $GOOG o citando a Steve Jobs? porque la realidad es que en algun momento todos los negocios necesitan cambiar… y los mejores ejemplos son los dos “abuelos” del mercado de las Big Tech: Apple y Microsoft tienen 47 años y ya sufrieron reinvenciones.
Apple presento el iPhone en 2007 sabiendo que iban a volver obsoleto al iPod aun cuando era el motor de su crecimiento; Microsoft se enfoco en la nube aun cuando era su core eran los servers… “If you don’t cannibalize yourself, someone else will.”
Enter Satya y su experiencia en canibalizarse antes que lo canibalice otro, que explica MUY bien en su entrevista con The Verge sobre “The New Bing”:
Like all things, one of the things that I think about is, in platform shifts, two things have to happen. You have to retool pretty much every product of yours, so you’ve got to rethink it, whether that’s the way you build it or what its core features are. It’s like how Microsoft had to pivot for the cloud to rethink exchange. It was not an exchange server. It was exchange as a service or what we had to do with our server infrastructure. We had to rebuild, essentially, a new core stack in Azure. So every time, with transitions, you have to essentially rewrite it. That’s how I think about it. The second thing is you also have to think about the business model. Sometimes these transitions are pretty harsh. I’ll tell you, the last transition from having the high share server business with great gross margins to saying, “Hey, the new business is called cloud, and it’s going to have one-fourth the margins” as the new news was pretty harsh, but we made it.
Satya Nadella explicando las dos caras de un cambio de paradigma.
Pero ¿hace bien el mercado en apostar contra Google? honestamente no lo creo… Google tiene el talento, tiene el market share y sobre todo tiene a Chrome y Android para apalancar todo; ojala hoy tengan algo de miedo y dejen de alocar experimentos interesantes como Google Duplex a una parte de Assistant.
El experimento del Juez Juan Manuel Padilla Garcia, de Colombia, es de los mas interesantes que he visto con OpenAI en el mundo real, cuando el Juzgado 1º Laboral del Circuito de Cartagena, usó ChatGPT para dictar sentencia y lo fundamentó en el documento… usandolo como copiloto.
“…extender los argumentos de la decisión adoptada, conforme al uso de inteligencia artificial (IA). Por consiguiente, se procedió a incluir apartes del problema jurídico planteado en la presente sentencia y se ingresó en el aplicativo https://chat.openai.com/chat” … “El propósito de incluir estos textos producto de la IA no es en manera alguna reemplazar la decisión del Juez. Lo que realmente buscamos es optimizar los tiempos empleados en redacción de sentencias, previa corroboración de la información suministrada por IA”
Fundamentos: Juez Juan Manuel Padilla Garcia, P5 y 7
En el link está el documento completo del juez pero la base es simple de entender; estos modelos (LLM y Transformers) son herramientas que necesitan corroboración de un humano para darle sentido a su respuesta.
La base de todo es simple: la respuesta que uno ve en ChatGPT o cualquier otro modelo, se genera por un modelo estadístico que decide que palabra (o símbolo) va luego de otra, sin entrar en valoración del sentido de lo que esta entregando.
Eso es lo que genera mucha confusión alrededor de estos transformers: Sus respuestas hacen sentido, son rápidas y son asertivas pero no están orientadas a certeza sino a modelos estadísticos.
Por eso me gusta el concepto de “copilotos” como una herramienta que ayudan al piloto con datos y background que uno puede tomar para mejorar el producto final… el segundo punto que hay que entender que pocas veces esto es un one-off; hay valor en refinar prompts, en follow ups, en buscar hacks y así dandole verdadero valor al concepto conversacional.
Explainability and comprehensibility of AI are important requirements for intelligent systems deployed in real-world domains. Users want and frequently need to understand how decisions impacting them are made. Similarly it is important to understand how an intelligent system functions for safety and security reasons. In this paper, we describe two complementary impossibility results (Unexplainability and Incomprehensibility), essentially showing that advanced AIs would not be able to accurately explain some of their decisions and for the decisions they could explain people would not understand some of those explanations.
A veces los datos ayudan a entender si los mitos tienen algo de base real; cuando uno mira los datos duros del batch se puede hacer una idea interesante de quién es, realmente, el emprendedor promedio “Y Combinator Summer 2021″y cuáles son los patrones de los “elegidos”.
Hoy cumplimos dos años desde que se lanzó el programa global de Microsoft para Startups y es increible ver como fuimos iterando y creciendo junto con el mercado de startups B2B en la región… como dije hace dos años, nuestro objetivo era lograr que los startups de la region puedan escalar con Microsoft como soacio estratégico más allá de nuestra plataforma y lo estamos logrando…
En este tiempo el crecimiento en la region fue de triple dígito en cuanto a startups y aplicaciones; fue de llegar a casi mil millones de dólares de ventas conjuntas (negocios cerrados por los startups de nuestro portfolio) para nuestros partners; ver que este portfolio recaudó más de 3.5bn en follo-on funding y que establecimos alianzas con algunos de los jugadores más importantes del ecosistema… desde WeXchange que es el espacio para mujeres emprendedoras en Latam hasta asociaciones de emprendedores como ASEA o de fondos de Inversión como LAVCA o ARCAP o socios como NVIDIA y su programa de AI.
La lógica de esto es que el ecosistema necesita apoyo para crecer y queremos, como dije hace ya dos años, ser ciudadanos de este ecosistema y por eso lo vamos a seguir apoyando.
Algunos desarrollos son más puntuales que otros, por ejemplo creamos verticales para startups de Quatum Computing y Vehículos autónomos, abrimos nuestros canales de ventas como el Azure Marketplace y nuestros CSPs… y ademas sumamos beneficios que hoy se hacen publicos: GitHub Enterprise para todos los startups de nuestro portfolio y MS Power Platform con acceso también para todos los startups en nuestro programa
Mitos. Hace años las corporaciones quieren trabajar junto a startups, hace años los startups están destruyendo el negocio de las corporaciones, los startups no quieren ser corporaciones, trabajar con startups o con corporaciones es fácil… incontables veces escuché estos mitos que, lo único que tienen de verdad es que fuerzan una narrativa donde se crea una dicotomía del mundo similar a corporaciones y startups son cuasi-enemigos. ¿La realidad? el trabajo conjunto puede darles ventajas a los dos, si no lo hacen es que fue mal pensado o implementado.
Hace más de seis años que trabajo en este mundo donde una corporación trabaja con startups, sea acelerando, invirtiendo, codeando con ellos pero sobre todo: pensando como escalar. Y si me piden un resumen de los dos puntos clave en este juego, son las mismas una y otra vez:
Escala: la escala de una corporación a nivel comercial es solo soñada por un startup, si uno logra trabajar con una corporación que tenga objetivos alineados con los del startup que quiere trabajar con ella y logra cuadrar incentivos para que te sumen a su oferta solo podes crecer y crecer… y esto genera dos objetivos para el startup; crecer de forma orgánica a mediano y largo plazo y para la corporación, agregar valor al core de su negocio
Agilidad: que una corporación no tenga que sentarse y desarrollar desde cero cada nuevo producto u oferta de su portfolio, en un mundo donde la vida promedio de los productos se va achicando porque hay cada día más jugadores de nicho es una ventaja increíble que los startups ponen sobre la mesa de las corporaciones… el concepto de plug & play es lo que le da agilidad a una corporación para mejorar su oferta comercial frente a otros competidores o incluso otros startups (ie: monoliners) que le pegan en su línea de flotación.
La realidad, sin embargo es que frente a estas dos ventajas, interrelacionadas e interdependientes, recibe mil objeciones que hacen que uno pierda de vista la cantidad de ventajas asociadas a estos dos puntos principales y el valor de apostar por esto ¿las primeras dos objeciones?
El 31 de Marzo de 2014, esto es 28 meses antes del lanzamiento de Pokemon Go, Niantic Labs (una unidad de Google) lanzaba Google Maps Pokémon Challenge en Japón con este video, que es básicamente un MVP del juego pero menos desarrollado; un año luego de ese video, Google hace un spin-off de Niantic Labs transformándose en empresa independiente, que sigue levantando capital y finalmente terminaría lanzando Pokemon Go.
Y así hubo mil titulares sobre “el overnight-success de Nintendo”, en vez de mirar dos cosas realmente interesantes a nivel estrategia de innovación interna que deberían ser analizadas por corporaciones y emprendedores
Es interesante ver este detalle; las tasas de ocupación son las más altas desde 2009, están cerca de sus récords y las tarifas están a punto de ser las más altas de su historia y siguen subiendo. El mercado entero de hotelería está en la racha de crecimiento en revPAR (revenue por habitación disponible) más grande de su historia… pero sus acciones cayeron un promedio de 30% en un año.
Finalmente Aleph-1 comienza a tomar forma, la constelación de 25 satélites soñados por Satellogic comienza a tomar forma con los Ñusat 1 y 2 ya en órbita, aunque Fresco y Batata sean más lindos nombres. Pesan 37 kg, tomarán imágenes térmicas, en el espectro visible e infrarrojo con una resolución de hasta 1 metro, desde unos 500 km de altitud y si todo sale bien van a ofrecer cobertura global casi en tiempo real con aplicaciones en al menos agricultura, oil&gas e infraestructura bajando las barrers entrada a este tipo de servicios… y con algo de suerte creando un monstruo que abra la puerta a otras industrias luego de revolucionar la satelital, desde un departamento en Buenos Aires :)
Este post de 2014 de Benedict Evans es tal vez de lo mejorcito que hay para explicar porque la disrupción no viene del core de los negocios o los modelos establecidos sino de jugadores que son marginales pero que apalanca infraestructuras o costos de incumbentes o de un modelo ya establecido para romperlo y ponerlo en crisis o forzarlo a mejorar.
A cuenta de la comparación de ingenieros que tiene @WhatsApp para enviar tantos mensajes… ¿es injusto? Si, pero al mercado no le importa.