"There is no spoon": Por qué los LLMs no 'alucinan'

Recuerdo en The Matrix cuando Neo llega a conocer a The Oracle: ahí se da cuenta de que no hay una cuchara, sino solo la representación mental de una cuchara. Es entonces cuando comprende que la realidad no es como la percibimos, sino una interpretación que hace nuestro cerebro: lo mismo nos pasa cuando imaginamos que un LLM alucina o que entiende inherentemente lo que le preguntamos.

La cita de The Matrix funciona aquí como una metáfora clave: “No existe la cuchara” en el sentido de que el modelo no tiene ninguna percepción o concepto inherente de la realidad; está imitando patrones estadísticos sin una comprensión o creencia subyacente. Por eso en lugar de tratar de “ver la cuchara” (o una realidad concreta), un LLM se limita a procesar y reproducir correlaciones.

El “fallo” en el sistema es de nuestra percepción humana cuando se espera una precisión o intencionalidad que el modelo no puede ofrecer, no es un fallo del modelo.

TL;DR hablar de “alucinaciones” en el contexto de LLMs es engañoso, ya que implica una agencia o intención humana que los modelos no tienen. Cuando usamos ese término, parece que el modelo tiene consciencia o creatividad, cuando en realidad sólo está jugando una especie de juego de probabilidades en base a su entrenamiento y nos refuerza el antropomorfismo que nunca van a lograr.

Extrapolar no es alucinar

Sugerir “alucinación” crea la falsa impresión de que el modelo tiene una “intención” o “imaginación”; a veces creo tendemos a antropomorfizar a los LLMs, dándoles cualidades humanas que no poseen. Lo asimilo a la venta de espejitos de colores o humo que se ve en cada "discontinuidad tecnológica", por eso es importante entender esto:

  • Una alucinación es un fenómeno cognitivo donde el cerebro percibe cosas que no están ahí. Es decir, parte de un procesamiento sensorial alterado que crea algo de la nada.
  • Un LLM no “percibe” ni “crea de la nada”; más bien lee informacion que tiene en su base mostruosa de datos e infiere/extrapola qué es lo que viene a continuación. Claro que no está entrenado para decir "de esto no sé nada", asi que, si no encuentra algo claro o específico en los datos, llena los huecos basado en probabilidades.

Es super interesante ver que algo que "puede parecer simpático" es, realmente, contradictorio: una extrapolación estadística, no involucra percepción o creatividad. Lo que ves es el modelo proponiendo lo más probable, no imaginando una nueva realidad. Déjenme poner una analogía super clara:

Cuando un sistema de predicción meteorológica extrapola condiciones basadas en datos históricos: no “alucina” pronósticos, sino que aplica patrones que “cree” que tienen sentido, incluso si esos patrones pueden llevarlo a cometer errores.

Reconocer limitaciones para ajustar expectativas

La GenAI está en un momento donde pocos entienden hasta donde vamos a llegar, por eso entender que los LLMs funcionan en base a aproximaciones ayuda a reconocer sus limitaciones y a tener expectativas más alineadas con sus capacidades. Al llamar a sus fallos “errores de extrapolación” o “fallos de correlación”, se hace más claro el papel del usuario en la verificación de resultados.

La “precisión” en un modelo de lenguaje es siempre una cuestión de probabilidad, no de certeza. Por eso es super interesante el metamodelo de Perplexity AI.

Es una inteliencia artificial realmente creativa

Y sin embargo...

El error humano radica en pensar que el modelo es un “ser” con capacidad de decisión. Aunque sea más interesante decir que la IA alucina!" ya que, si aceptas, eso tendríamos que responder cosas como ¿Puede un LLM ser creativo? ¿como definimos "saber"? ¿Que es la realidad? ¿un corpus de datos?

Y no me vengan con "bueno, pero no pueden crear una obra de arte" porque tendrias que probar que VOS o yo somos capaz de crear una obra de arte.

| Inteligencia Artifical Rants
Tags:
AI IA innovación LLMs

Entendiendo la carrera de IA y genAI

Creo que el ecosistema inversor/emprendedor de la region (Latam+España) no entiende el momento o espacio en el que está en temas de Inteligencia Artificial especialmente en GenAI y, quizás, analizar los 100 papers más citados en el ámbito académico ayude a explicar dónde estamos parados para así entender dónde podemos encontrar oportunidades de inversión para crecer.

Version simplificada del Stack (lo del medio podes pensarlo de varias maneras)

¿Por qué los 100 papers más citados? [fuente] Por dos razones principales: por un lado, el momento actual de la inteligencia artificial generativa es el de transferencia tecnológica, de R&D y academia a corporaciones y startups. Y, por otro lado, porque el avance de las corporaciones sobre la investigación académica se está dando a pasos agigantados por la cantidad de capital necesario para desplegar estas soluciones.

De academia a Industria

¿Por que la transferencia tecnológica se da tan acelerada y brutalmente en GenAI/AI? Por algo simple: la necesidad de poder de cómputo es tan alta que sólo los hyperscalers tienen la infraestructura para correr en esta industria; de ahí que en el top 5 de organizaciones en los 100 papers de AI más importantes están Microsoft, Google y Meta; con Stanford y Carnegie Mellon siendo los otros dos. [Buen estudio de MIT]

  • El acceso a los recursos: infraestructura de cómputo y datsasets.
  • OPEX "ilimitado": Meta invirtió unos 15bn en desarrollo de AI solo este año
  • Campo de pruebas: MS Copilot, Meta AI, ChatGPT, Google Gemini... miles de millones de usuarios capaces de dar feedback masivo (o red-teaming) sobre productos en el campo.

Y así vemos cómo mientras hace un par de décadas apenas un 20% de PhD's en AI trabajaban en industrias, hoy el 70% trabajan en corporaciones/startups fuera del ámbito académico; los autores citados en papers que trabajan en empresas se han triplicado y el 92% de los modelos son creados en industrias.

La inteligencia artificial y la gravedad de USA y China

Si hay algo innegable en Inteligencia Aritificial es el peso de USA, de China y, en el mercado de startups, el increible peso de Bay Area donde todo parece estar pasando y lidera el resurgimiento de San Francisco, una ciudad que todos dan por muerta sin siquiera revisar estos datos por un minuto:

  • Del AI Top 50 de Forbes, el 70% del mercado global de startups está en California.
  • Más del 25% de papers y estudios relacionados a IA desde 2001 se publicaron desde Bay Area.
  • Bay Area tiene más búsquedas de empleados para trabajar en Inteligencia Artificial que los 14 ecosistemas que le siguen.
  • [Más datos en este post]

Si ampliamos un poco nuestra mirada y salimos de Bay Area y vamos a ver USA en general, lo que vemos es que el liderazgo de USA es absoluto; en términos de creación, de los papers sobre inteligencia artificial más citados tienen más que la suma de todos los que los siguen; en el top 10 de los lugares donde se generaron los 100 papers más citados solo el Hong Kong University of Science and Technology (HKUST) aparece y en el 8vo lugar.

Pero China viene creciendo a pasos agigantados; especialmente en la aplicación de IA en procesos o productos: desde 2021 tienen más patentes de IA que USA y en 2023 los duplicaron. A nivel de cantidad de papers ya pasaron a USA, especialmente en "undergrads", o sea estudiantes de universidades de grado. Pero acá lo interesante es que hay una migración de talento que no se puede negar ya que el 38% de los investigadores top de USA son de origen chino.

Y eso muestra que el peso de USA para crecer en ese mercado es absoluto; un gran centro gravitacional que atrae talento, recursos e inversiones por el peso específico de su investigación.

Innovación desde el márgen

En este punto, debo decir que mucho de lo que leo parece ser o fuera de contexto o sin experiencia real en IA creado por expertos que hace 1 año hablaban de web3.0 o Industry2.0. Y mientras tanto, en modelos no podemos competir: el vagón del middleware ya está en marcha, vamos por el application layer:

  • Enfocarnos en nuestros problemas: a veces creo que con la experiencia que tenemos en problemas en salud, finanzas, servicios públicos, agricultura... donde hay fricción, hay un mercado gigante por número y porque podemos crear expertise que sea base para mercados emergentes como SEA o similares.
    • Bonus: Las comunidades de práctica en Latam siempre lideraron mercados; desde blogs hasta blockchain, tenemos grandes reservas de talento, que siempre buscan resolver esas cosas que "acá son diferentes".
  • Tal vez, enfocarnos en Open Source como objetivo ya que, al fin del día, competir en la pirámide de la infraestructura no tiene sentido -no tenemos los recursos ni los investigadores- y:
    • Si uno mira los papers mas citados a nivel mundial, Llama de Meta lidera por lejos y quizás debería enfocarse en contribuir en esa comunidad para ganar visibilidad y lograr que los hyperscalers, por ejemplo META, nos miren e inviertan en la región.
    • Bonus: cuando un hyperscaler avanza los otros siguen; si se logra visibilidad de Meta/Llama quizás Google y su AI Research Center en Brasil o Microsoft y su AI Lab en Montevideo amplíen sus inversiones que son pocas pero que al fin del día generan ecosistema alrededor.
  • Research Networks: cuando pienso en dónde podemos encontrar una oportunidad, creo que somos muy buenos en muchas cosas; por ejemplo en crear herramientas de tooling o implementar de formas creativas tecnología (eg: Belo entendiendo a los freelancers para su off-ramp) y entonces miro Latam y veo más informalidad, menos respeto por el cliente, poca competencia en sectores gigantes que se traduce en fricción e ineficiencia... y me acuerdo de Jeff Bezos pensando en lo que no va a cambiar de forma repentina para crear un negocio:

“I very frequently get the question: 'What's going to change in the next 10 years?' And that is a very interesting question; it's a very common one. I almost never get the question: 'What's not going to change in the next 10 years?' And I submit to you that that second question is actually the more important of the two -- because you can build a business strategy around the things that are stable in time. ... [I]n our retail business, we know that customers want low prices, and I know that's going to be true 10 years from now. They want fast delivery; they want vast selection. It's impossible to imagine a future 10 years from now where a customer comes up and says, 'Jeff I love Amazon; I just wish the prices were a little higher,' [or] 'I love Amazon; I just wish you'd deliver a little more slowly.' Impossible. And so the effort we put into those things, spinning those things up, we know the energy we put into it today will still be paying off dividends for our customers 10 years from now. When you have something that you know is true, even over the long term, you can afford to put a lot of energy into it.”

| Estrategias Inteligencia Artifical
Tags:
AI emprendedores generative AI innovación inversiones

Perplexity Spaces: o cómo usar IA para competir con Google

Perplexity está empeñado en crear "el próximo Google", o al menos finalmente sacarnos del ridículo paradigma de los 10 links azules como la mejor forma de buscar en Internet; pero es interesante que esto implica que uno puede "dialogar" con el LLM, que es parte del buscador, mantener las búsquedas en memoria e indagar mucho mas en cualquier búsqueda que hagas, entre otras. Esto tiene, al menos, dos nuevas derivadas:

  1. Es mucho más interesante "investigar que buscar" con lo que para un dato puro termino volviendo a Google, pero para buscar cuando estoy armando o creando termino dialogando con Perplexity.
  2. Si podés usarlo para profundizar, utilizar tus propios documentos o papers suma mucho a este trabajo.

Por eso que aparezcan los Perplexity Spaces tiene sentido y parece un paso natural; los Perplexity Spaces son espacios donde podés agrupar tus búsquedas en la web con tus archivos personales e invitar a terceros a sumarse a ese "centro de colaboración" donde tus búsquedas son híbridas (porque agrupan data pública y data tuya), grupales (porque podés invitar a terceros) y colaborativas (porque todos suman al espacio).

Screenshot Perplexity Spaces

Ventajas principales de Perplexity Spaces

  • Organización: con Spaces, podés agrupar todos tus hilos de investigación por tema o proyecto. Es como tener una carpeta virtual donde guardás todo lo relacionado con un laburo específico.
  • Colaboración: invitá a terceros a tu Space. Pueden laburar juntos en tiempo real, agregando información nueva o haciendo preguntas sobre lo que ya está. Es ideal para proyectos grupales o para cuando necesitás una segunda opinión.
  • Búsqueda integral: lo más groso es que Spaces te permite buscar tanto en la web como en tus archivos personales al mismo tiempo. Poder encontrar esa info que guardaste hace meses junto con los últimos datos de Internet, todo en una sola búsqueda.
  • Personalización de modelo: podés elegir qué modelo de IA querés usar y hasta darle instrucciones específicas (recuerden el valor del contexto en LLMs!) sobre cómo responder a tus preguntas. Es como tener un asistente virtual que se adapta a lo que necesitás en cada Space.

Algunos casos de uso simples

De forma rápida se me ocurren dos casos de uso que me interesarían; pero esto es pensándolo rápidamente y seguro cada uno puede encontrar lo que se adapte a su realidad:

  • Para emprendedores: usalo para hacer un seguimiento de tu plan de negocios. Subí tus proyecciones financieras, investigación de mercado y compará con datos actuales de la industria. Al fin del día te ayuda a tener un knowledge center que podes armar con tu equipo de forma simple.
  • Para estudiantes: creá guías de estudio colaborativas con tus compañeros. Subí apuntes, resúmenes y buscá info adicional en la web, todo en un solo lugar. Es perfecto para prepararte para trabajos prácticos o grupales.

A los Perplexity Spaces los veo como un buen experimento que tiene un laboratorio de ideas, una biblioteca y un asistente personal todo en uno. Si estás laburando en un proyecto personal o liderando un equipo mediano (en equipos grandes no termino de entender si se volvería caótico) quizás esto te ayude a ser más productivo y a tomar decisiones más informadas.

| Estrategias Inteligencia Artifical
Tags:
AI emprendedores Google innovación perplexity

Vuelve la Energía Nuclear, gracias a la IA

En estas dos semanas vimos noticias sobre el uso de energía nuclear por parte de Microsoft, Amazon y Google; todos apostando a la energía nuclear para alimentar la infraestructura necesaria para sostener el crecimiento de GenAI. Microsoft reactivando Three Mile Island; Google y Amazon apostando a los Small Modular Reactors. Y todo esto está empujando una fuente de energía que nunca debió dejarse de lado.

¿Por qué perdió apoyo la energía nuclear en este tiempo?

La realidad es que perdió apoyo por una mezcla de factores económicos y una idea falsa de la inseguridad de esta fuente:

  • Accidentes importantes: los accidentes de Three Mile Island (1979), Chernobyl (1986) y Fukushima (2011) generaron serias preocupaciones sobre los riesgos y consecuencias de las plantas nucleares.
  • Gestión de residuos radiactivos: cuando se habla de los desechos radioactivos, en general, los medios solo se enfocan en los problemas a largo plazo, en vez de la optimización de uso del combustible nuclear y la innovación para ese manejo.
  • Altos costos de construcción sumados a la desregulación del mercado: los crecientes costos de construir nuevas plantas nucleares, que a menudo superan miles de millones de dólares, hicieron que la energía nuclear fuese menos atractiva económicamente; al desregularse el mercado y bajar los precios, la energía nuclear fue menos competitiva en algunas regiones, y eso empujó menos inversión y, por lo tanto, menos innovación.
  • Preocupaciones sobre la proliferación: los temores acerca de que la tecnología nuclear civil pudiera contribuir a la proliferación de armas nucleares aumentaron la inquietud pública.

Un par de temas en los que no quiero meterme son los políticos 1. Repito: Alemania dejó de ser autosostenible y ahora es prisionera del gas de Rusia) 2. El crecimiento de otras renovables con mejor prensa (eg: hidroelectricas y eólicas), especialmente en momentos en los que el foco en cambio climático a veces se torna basado en prensa y no en datos.

Las tecnológicas impulsando la energía nuclear

De golpe (aunque este mercado no frenó) nos encontramos con algunas cosas, como Microsoft reactivando Three Mile Island y comprometiendose a comprar TODA la energia que generen por los próximos 20 años; luego Amazon invirtiendo en el desarrollo de plantas modulares y Google haciendo algo similar con Kairos y todos hablando de "El resurgimiento de la energía nuclear"... con varias razones que se pueden dividir en 4 temas :

  • 1. Creciente Demanda de Energía
    • IA y Centros de Datos: el rápido crecimiento de la inteligencia artificial y los centros de datos está creando una demanda de electricidad sin precedentes. La Agencia Internacional de Energía prevé que el consumo eléctrico de los centros de datos podría más que duplicarse para 2026, superando los 1,000 teravatios hora.
    • Electrificación: la tendencia global hacia la electrificación de edificios y vehículos está incrementando aún más la demanda de energía
  • 2. Metas de Energía Limpia
    • Electricidad sin carbono: la energía nuclear se ve como una solución climática porque los reactores no emiten gases de efecto invernadero, alineándose con los compromisos de las empresas tecnológicas para reducir emisiones.
    • Limitaciones de las renovables: aún con las inversiones gigantes en energía eólica y solar, hay limitaciones en términos de consistencia y capacidad que la energía nuclear puede subsanar.
  • 3. Estabilidad y Confiabilidad de la Red
    • Energía de Base: La energía nuclear puede proporcionar una energía de base estable, crucial para mantener la confiabilidad de la red a medida que aumenta la participación de fuentes renovables intermitentes.
    • Seguridad Energética a Largo Plazo: Invertir en energía nuclear ayuda a las big tech a asegurarse un suministro energético estable y a largo plazo para sus operaciones
  • 4. Avances Tecnológicos
    • Reactores Modulares Pequeños (SMR): las empresas están invirtiendo en SMRs, que ofrecen ventajas como menores costos iniciales y construcción modular. Estos se consideran más económicos y más fáciles de desplegar que los reactores tradicionales a gran escala.
    • Otros startups: Terra Power que está ya construyendo su Natrium Plant que supuestamente sale del paradigma del enfriamento por agua para pasar a metales liquidos.

Sumémosle que hay avances con los SMR e inversiones como las de BillG en TerraPower: termina siendo un no-brainer que sean las tecnológicas las que lideren este resurgir sin que esto signifique que el resto de las energías se dejen de lado. De hecho, cuando estaba en MS firmamos un acuerdo gigante con Brookfield enfocado en energía eólica.

Small Modular reactors

All of this matters because the world needs to make a big bet on nuclear. As I wrote in my book How to Avoid a Climate Disaster, we need nuclear power if we’re going to meet the world’s growing need for energy while also eliminating carbon emissions. None of the other clean sources are as reliable, and none of the other reliable sources are as clean. - Bill Gates

En definitiva, la inversión en nuclear, que estamos viendo como una derivada de las necesidades de los datacenters y la inteligencia artificial, es un gran paso adelante para tener complementos a las renovables y que finalmente pasemos a energía verde sin frenar el mundo porque no sabemos salir de la dependencia de viejas tecnologías.

| Estrategias Inteligencia Artifical Microsoft Opinión
Tags:
cambio climatico energia inteligencia artificial TerraPower

ChatGPT y el contexto

En 1973, Arthur C. Clarke escribió Perfiles del Futuro: Una Investigación sobre los Límites de lo Posible", donde formuló sus famosas “Tres Leyes”, siendo la tercera la más citada: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia.” Esta frase hoy me persigue, especialmente con el auge de los Modelos de Lenguaje Grande (LLMs) o el uso de ChatGPT. Estos modelos pueden generar resultados que se sienten mágicos, pero no entender el papel que juega el contexto es no entender su esencia misma.

El contexto no es solo una característica; es la base que permite a estos modelos realizar su “magia”.

El contexto en los LLMs se refiere a los diversos tipos de información que el modelo procesa para generar una respuesta relevante y eso incluye al menos 3 divisiones:

  • La consulta: esto es el texto o consulta que el usuario quiere entender y sirve como el prompt principal para la respuesta del modelo.
  • Instrucciones del usuario: cualquier directiva específica o guía dada por el usuario, como pedir un resumen, una explicación detallada o un cambio en el tono. Esto incluye que le digas cual es el perfil al que debe apuntar (eg: "soy un arquitecto de 35 años, con 8 de experiencia en diseño de aeropuertos") y que puedes incluir siempre en la consulta.
  • Conocimiento amplio: la información con la que el modelo ha sido entrenado, incluidos libros, artículos y otras fuentes de datos, que le permite entender el lenguaje, los conceptos y los contextos más allá de la entrada inmediata.

Cuando el LLM genera respuestas, está sintetizando estos elementos, por eso las respuestas generadas suenan coherentes y, sobre todo, relevantes para las expectativas del usuario. Sin aprovechar este contexto, el modelo perdería su capacidad de proporcionar respuestas significativas para tus expectativas o, luego de refinar el "context window", que sean realmente precisas.

“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.”
― Christopher Priest, The Prestige (citado antes)

Personalizar los LLMs para aprovechar al máximo la entrada inmediata y las instrucciones del usuario es clave para garantizar respuestas relevantes y efectivas. (Nota: obviamente no hablo de personalizar el modelo porque no está a tu alcance). Por ejemplo:

  • Optimizar la entrada inmediata: puedes ser preciso en la forma en que formulas tus consultas para obtener las respuestas más precisas y enfocadas. En lugar de hacer preguntas vagas, como “¿Qué es la IA?”, intenta algo más específico para que la respuesta salga adaptada a un perfil como el tuyo:
    • “Explica los beneficios clave de la IA en la salud en términos simples, soy un paciente de 53 años que conoce poco de tecnología.
  • Personalizar las instrucciones del usuario: puedes guiar al modelo para que produzca contenido que se ajuste a tus preferencias y las opciones son ilimitadas. Por ejemplo, podrías pedir que se adapte a un formato: “Resume este artículo en 3 puntos”. O a tu conocimiento: “Dame una explicación detallada con términos técnicos”. O a tu necesidad de mimos al ego:
    • "De todas nuestras interacciones, ¿cuál es una cosa que puedes decirme sobre mí que tal vez no sepa sobre mí?"

Cuanto más refines y personalices tus entradas, mejor podrá el modelo responder a tus necesidades específicas.

Además de mejorar las interacciones con preguntas más precisas, podés personalizar ChatGPT/Claude o MetaAI para que se adapte aún más a tus necesidades.

Por ejemplo, ChatGPT puede recordar detalles de tus conversaciones previas, lo que le permite ofrecer respuestas más relevantes y personalizadas a largo plazo. Podés preguntarle directamente qué recuerda de ti para que borres lo que no te interese o agregues datos o pedirle que te ayude a ajustar la forma en que responde a tus solicitudes.

Por ejemplo, una simple pregunta como “¿Qué sabes sobre mí?” te mostrará la información que ChatGPT ha guardado de tus interacciones previas, brindándote una mayor comprensión de cómo utiliza el contexto para personalizar su asistencia y quizás tengo la ventaja de haber heche una carrera humanistica donde se entiende que:

La importancia del contexto en comunicación es que organiza y da sentido al mensaje. El significado de un mensaje no depende solo de su estructura gramatical, sintáctica o léxica sino también del contexto que acompaña a un enunciado y afecta a su interpretación.

Que lindo futuro nos espera con prompt engineering.

| Inteligencia Artifical
Tags:
AI chatgpt innovación llm openai

NotebookLM: de contenido a podcast en segundos, una gran idea de Google con AI

Me gusta NotebookLM por varias razones: primero, porque es una gran muestra de las cosas que se pueden hacer con la IA generativa combinando modelos; luego, porque algunos casos de uso me están sorprendiendo; y finalmente, porque, en cierto sentido, muestra que Google sigue siendo capaz de desarrollar productos interesantes.

¿Qué es y cómo funciona NotebookLM?

Para los que no lo conozcan, NotebookLM (antes conocido como Project Tailwind) es una herramienta impulsada por IA, diseñada para ayudar a los usuarios a organizar, analizar y obtener información de las notas que toman, sean estas propias o documentos que uno sube. También funciona con enlaces que uno ingresa en el sistema y utiliza una combinación de modelos de lenguajes, empleando IA para extraer puntos clave, resumir contenido y generar preguntas o insights… ¡incluso en formato de podcast!

Ejemplo de "podcast" creado con solo introducir la URL de "Inteligencia Artificial" de este blog en NotebookLM

Lo interesante es cómo funciona. El proceso que usa NotebookLM de Google para transformar contenido escrito en conversaciones de audio es fascinante, porque combina partes ya vistas y "estandarizadas" con nuevas ideas, especialmente en edición. Todo comienza cuando subís tus documentos - pueden ser notas, documentos en PDF o enlaces como en el ejemplo anterior.

Cuando subís el contenido, Google con su IA (usa el modelo Gemini 1.5 Pro) analiza tu texto, procesándolo y "entendiendo" no solo las palabras sueltas, sino también el contexto y los puntos clave de todo el documento.

Luego, la IA crea un "script" donde transforma/convierte ese análisis de tu texto en un diálogo (usando otro modelo de "texto a tokens") entre dos personas.

Finalmente, la inteligencia artificial sintetiza ese resultado en dos voces (usando otro modelo más, Soundstorm) e incluye risas, interrupciones, pausas pensativas, muletillas sutiles y lo "publica"... con una atención al detalle sorprendente.

Todo esto en menos de 10 minutos. ¿Qué tiene de interesante? En cuestión de minutos, tu texto se transforma en un podcast de 10-15 minutos que suena natural y hace que tu contenido sea más accesible. Básicamente, convierte tu material escrito en una charla de audio que presenta la información de manera clara y entretenida.

Principios clave de diseño

¿Por qué me pareció interesante esto como muestra de que Google Labs puede crear productos virales y, potencialmente, interesantes? Dos razones bastante simples:

  1. Enfoque AI-First: NotebookLM fue diseñado desde cero con capacidades de IA como núcleo, reimaginando cómo podría ser un software de toma de notas con un potente modelo de lenguaje como base.
  2. IA Basada en Fuentes (Source-Grounded AI): una característica distintiva de NotebookLM es que permite a los usuarios "anclar" el modelo de lenguaje en fuentes y documentos específicos proporcionados por el usuario. Esto crea un asistente de IA personalizado que está versado en la información relevante para las necesidades del usuario y donde el potencial de alucinar es menor.

De nuevo, Google no metió herramientas de IA en Google Keep, sino que creó algo desde cero basado en herramientas de IA en menos de dos meses. Y más allá de que esto pueda terminar en el Google Graveyard, es una gran prueba de concepto que muestra que la información puede hacerse más accesible.

Información o educación más accesible

Esta tecnología representa un avance muy significativo en la forma en que podemos consumir y compartir información. Aunque la primera lectura podría ser cínica y decir "estamos convirtiendo texto en snacks" o "si lo hace una IA es que es simple", la realidad es que las aplicaciones potenciales abarcan varios campos, desde la educación y los negocios hasta hacer que la información sea más accesible para personas con diferentes preferencias de aprendizaje o problemas de visión.

No pienso solamente en convertir capítulos de libros en discusiones de audio para estudiar mejor, que es, tal vez, lo primero que viene a la mente, sino en buscar nuevas formas de escuchar tu contenido y crear una narrativa nueva (de hecho, tengo ganas de hacer unas pruebas con decks de startups... ¡pueden enviarlo para que lo haga! 😄).

¿Cómo seguirán? Asumo que expandirán esto a otros idiomas, personalizarán las voces o ajustarán la duración, o tal vez con ideas que ni se me hayan ocurrido.

| Google Inteligencia Artifical
Tags:
AI Google innovación llm NotebookLM

Google obligada a abrir Android y su App Store

Finalmente hay una sentencia en el juicio de Epic contra Google por monopolio. Y es uno de los peores escenarios para Google porque lo fuerza a permitir tiendas de aplicaciones de terceros en Android, le prohibe usar incentivos para que fabricantes o desarrolladores lancen exclusividades en su App Store y, sobre todo, lo fuerza a aceptar métodos de pago de terceros.

google monopolio anticompetitivo

Cuando arrancó el juicio, dije que la estrategia de Epic era arriesgada pero bien pensada porque forzaba a analizar cada parte de los acuerdos de Google para mantener a Android "cerrado" pese a ser abierto.

Y mientras todos miraban lo que pasaba con Apple, Epic Games demandó también a Google por ser un monopolio por su método de distribución vía el Play Store y por el requerimiento de usar Google Play Billing para quedarse con una comisión de todos los ingresos de las apps. Aunque muchos pueden decir que acá "Google juega menos fuerte que Apple", Epic Games mostró documentos donde One Plus y otros fabricantes fueron forzados por Google a NO pre-instalar Fortnite Launcher en sus teléfonos, aún cuando había especificaciones técnicas que crearían una mejor experiencia para el usuario.
- Epic vs Apple y Google al mismo tiempo (2020)

Y cuando miramos por qué Epic le ganó a Google pero no a Apple es básicamente por la interacción de estos puntos: por un lado Google dice que Android es abierto pero si te restringe acceso a Google Play Services el OS es inusable; por otro, cuando ve que alguien tiene una posición de mercado suficiente (pensemos en Samsung o One Plus en su momento) te ofrece incentivos para no pre-instalar apps de terceros y nadie puede pagar más que ellos, especialmente un startup. Y esto es lo que se está protegiendo ahora, con la base en lo mismo que no me canso de repetir:

  • Un monopolio no es inherentemente malo, es malo si lastima al consumidor.
  • Un monopolio no es inherentemente malo, es malo si protege su posición de forma injusta o ilegal.

Nuevas reglas para Google en Android

  • Google debe permitir tiendas de aplicaciones rivales en dispositivos Android por 3 años.
  • Google no puede prohibir el uso de métodos de pago alternativos dentro de aplicaciones por 3 años.
  • Google debe permitirle a los usuarios descargar esas tiendas y las aplicaciones que provengan de ellas en Android.
  • Google Play Store debe listar y permitir la promoción de esas tiendas de tercerdas partes

Las nuevas restricciones para Google son:

  • Google tiene prohibido pagar o compartir ingresos con otras empresas para evitar competencia en su App Store.
  • Google no puede pagar a developers de forma exclusiva en Google Play y debe explícitamente ofrecer opciones.
  • Google tiene prohibido brindar incentivos financieros para que los fabricantes instalen Google Play en dispositivos.

¿Con esto se ve asegurada la "libre competencia"? No lo creo: de hecho si miramos lo que Apple hizo con la Unión Europea fue buscar el punto de equilibrio financiero donde no te prohiben usar plataformas de pagos de terceros pero lo hacen económicamente inviable...

Espero que Google apueste a apalancar su ecosistema de desarrolladores y startups para que esto no se convierta en un problema financiero en vez de ir a pelear y complicarle la vida al startup promedio.

| Google US vs Google
Tags:
Epic Games fortnite Google monopolio startups

Zero Interest Rate Phenomenom y un gran momento para early-stage

Pocas cosas son mas simples de entender que el ZIRP que vivimos hasta 2021; con tasas de interés en cero el mercado no le preocupa el ROI ahora o en una década con lo que un fondo de inversión puede apostar a largo plazo y en ideas estúpidas.... ¿cuando levantaron plata esos fondos que admirás?

Fast-Forward a hoy: con tasas de 5.5% pongo plata en bonos y en una década tengo 170% de retorno ¿que fondo me da ese retorno? (*) entonces a un VC no puedo darle plata para que haga pelotudeces y entonces los inversores de riesgo se vuelven mas conservadores porque les cuesta levantar un fondo.

¿Cual es la segunda derivada de esto? los fondos grandes que invirtieron en valuaciones ridiculas (eg: A16z) llamaron la atención de los PE players (eg: Coatue, Tiger, etc.) y juntos generaron una generación de startups que van a parir para que sus siguientes rondas no sean un downround y hay una fricción gigantesca para invertir si no tienen runway.

¿A que viene esto? a que es un gran momento para invertir en early stage o inversiones ángel... el mercado se limpió:

  • muchos de los fondos que necesitaban desplegar su capital en growth hoy no van a molestar en early stage porque necesitan cuidar sus números,
  • muchos emprendedores que lograron salir en 2020/21/22 tienen ganas de hacer cosas y tienen capital para invertir en otros,
  • Ai está recién arrancando y el valle de la desilusión va a borrar wrappers y startups sin diferenciación.

Soy más que optimista de este momento, creo que el ecosistema emprendedor debería enfocarse en construir porque el capital va a seguirlos, en vez de seguir ellos al capital (x) como pasó un tiempito nomás.

notas:

(*) y eso es solo para mantener mi poder de compra porque con 5.5% técnicamente voy a perder un 42% de valor.

(x) si los fondos y las asociaciones regionales no empiezan a hablar en serio del tema del ZIRP van a seguir mirando boludeces en vez de dar un debate interesante aunque privado.

| Estrategias
Tags:
emprendedores fondos de inversión innovación inversiones latam

¿Hay una burbuja de la Inteligencia Artificial? No.

Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o "La Revolución de la Inteligencia Artificial pierde fuerza" y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.

“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.”
― Christopher Priest, The Prestige

Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente "fad".

Leer completa
| Inteligencia Artifical
Tags:
AI innovación inteligencia artificial inversiones startups

Google, otra vez, condenado por practicas monopólicas

Google sufrió una nueva condena de parte de un juez federal de los Estados Unidos por usar su posición dominante de forma anti-competitiva: esta vez, por su acuerdo con Apple para ser el buscador de iOS por USD20bn anuales y está pasando lo que es, para mí, uno de los juicios más interesantes actualmente.

google monopolio anticompetitivo

Antes de analizar el tema, creo que es importante entender estos 3 puntos porque son la base de las leyes anti-monopolio de USA:

  • Un monopolio NO es inherentemente malo.
  • Un monopolio es malo si está lastimando al consumidor.
  • Un monopolio es malo si protege su posición dominante de forma injusta o ilegal.

Y es por eso que la investigación contra Google no busca determinar si tiene posición dominante de mercado sino que sólo se analizó y se determinó que Google tiene esa posición dominante pero que la protege de forma ilegal y frena la competencia y lastima a los consumidores -y acá el consumidor puede ser un usuario del buscador o un anunciante.

Leer completa
| Google US vs Google
Tags:
Google

Inversión en AI: de casos de uso a ROI

¿Estamos realmente viendo el impacto de AI que tanto se promete? Comienzan a aparecer indicios de que la gente está cansada de leer cosas genéricas sobre casos de uso de AI, o quizás sólo yo estoy cansado de leer templates que no muestran diferenciación con datos o impacto concreto:

“Leveraging non-specialized Large Language Models (LLMs) to streamline general information discovery, gathering, and organization workflows that would have taken a lot more time to complete without it.”

Bloomberg GPT o Inteligencia artificial en la terminal de bloomberg

Creo que podriamos mejorar mucho el entendimiento de la promesa de la inteligencia artificial generativa; el ritmo de inversión que estamos viendo necesita ejemplos concretos y directos como el siguiente:

“Alaska Airlines ha estado utilizando inteligencia artificial desde 2021 para ayudar a optimizar las rutas de vuelo por eficiencia. El sistema... analiza el clima, cierres de espacio aéreo y planes de vuelo de la FAA dos horas antes de cada vuelo para sugerir las mejores rutas. La AI procesa volúmenes de datos que sobrepasarían las capacidades humanas y, en menos de dos años, contribuyó a reducir los tiempos de vuelo en el 25% de los vuelos de Alaska, ahorrando un total de 41,000 minutos y aproximadamente medio billón de galones de combustible.

AI in Airlines at NYC by Julie Weed
Leer completa
| Inteligencia Artifical
Tags:
AI inteligencia artificial

AI: de LLMs y SLMs; eficiencia y ubicuidad

Con la demo de ChatGPT ya quedó claro que los LLM (modelos de lenguaje grandes) tienen nuestra atecion por sus capacidades en el procesamiento del lenguaje natural. Sin embargo, su tamaño y los recursos que requieren limitan su acceso y por eso es que es dificil ver nuevos jugadores en ese mercado y ahí es donde hay un espacio súper interesante para explorar los SLMs o modelos de lenguaje pequeños como alternativa.

¿Qué son los Modelos de Lenguaje Pequeños?

Leer completa
| Inteligencia Artifical Rants
Tags:
chatgpt inteligencia artificial llm ORCA Phi3

Seven Rings: lessons learned from seven years at Microsoft


LinkedIn me recuerda que hace 7 años dejé Wayra para entrar en Microsoft. En ese momento mi visión optimista era durar 4 años y volver a emprender, pero con apenas días en Microsoft me di cuenta de que estaba más perdido que nadie y que estaba entrando en una empresa con una escala lejos de lo que imaginaba.

Microsoft learnings
7 years.. not in tibet

Asi que pensando en estos 7 años, se me ocurrió escribir algunas de las cosas más interesantes y enfocarme en todo lo bueno que fui descubriendo

1. Impermanence and Empathy: More Than Just Buzzwords
Si hay una palabra que está de moda es empatía; todos hablan de empatía, todos dicen que son empáticos y similares, pero pocas veces vi un CEO que me haga entender y trabajar para sentirme cómodo con la impermanencia. Esto es lo más importante que me llevo de Microsoft:

“If you could understand impermanence deeply, you would develop more equanimity. You would not get too excited about either the ups or downs of life. And only then would you be ready to develop that deeper sense of empathy and compassion for everything around you.”

Satya Nadella

2. Speak Up: The Microphone Is Mightier Than the Sword
Esto es más general que particular, pero la capacidad que me da esta empresa de poder decir mis ideas y preocupaciones, es realmente increíble: ahí aprendí, gracias a Diego Bekerman, que podía hacer dos cosas:

  • Levantar la mano y decir "hey me equivoqué!" y buscar resolver el problema en vez de buscar el culpable.
  • Hablar y decir "estoy en desacuerdo" me obliga a proponer una alternativa, que va a ser escuchada y demostrar que puedo comprometerme aún estando en desacuerdo.

3. Scale: From Garage Band to Symphony Orchestra
Si pasás del mundo emprendedor al corporativo lo primero que vas a pensar es la escala y el alcance de tu trabajo, pero si entrás en Microsoft te vas a dar cuenta el verdadero sentido de escala: es pasar de Garage Band a una Sinfónica.
Complejo y con cacofonías, pero maravilloso.

4. The Power of Playbooks: Navigating the Corporate Playfield
Uno de los consejos que nunca me cansé de darle a startups es "build repeatable, sustainable, and scalable business...". Lo que aprendí en Microsoft es que el enfoque de crear playbooks (frameworks estructurados de trabajo) es la ÚNICA solución para crear impacto en una organización con esta escala. Nota: hay situaciones que merecen un caso particular, pero el valor/recompensa de los playbooks es innegable.

5. Constant Learning: School Never Ends
El growth mindset es algo que Microsoft te fuerza a aprender constantemente; la amplitud y profundidad de recursos que me dan es increíble, pero el edge está en el tiempo que te dan para que lo hagas. Y encima, en el mundo de AI, esto cambia más rápido que un camaleón on meth.

6. Execution Engine: Turning Ideas into Reality
"Being relentless not ruthless'. Es la mejor forma de entender como una empresa de esta escala y con esta cultura se anima a re-crearse (piensen en Soft, Cloud, AI) y las decisiones que hay que tomar constantemente. Sentirse cómodo con el caos, el churn y la sensación de generar impacto mientras no paramos es ser un motor de ejecución.

7. Innovation at the Margins: The Art of Peripheral Vision
Recientemente tuve que trabajar en un proyecto con aceleradoras y fondos, y en otro momento hubiese dicho "ya conozco este mercado": la realidad es que con todos los puntos anteriores termino buscando más allá de lo obvio, buscando la innovación que puede aparecer en el margen de un mercado o de una región; algo que es periférico me ayuda a veces a entender algún patrón o simplemente descubrir algo que no conocía.

Conclusión:
Es interesante que recién al escribir esto me di cuenta de que cada uno de las acciones que describo (playbooks, margin innovation, etc.) se despliegan de la cultura que describo en los puntos 1 y 2.

Tal vez lo más interesante que aprendí en estos años es que la cultura puede cambiar una empresa aún del tamaño y del éxito de Microsoft; como dirían por ahí uno se suma a un equipo por la empresa pero se va por el manager.


| Rants
Tags:
aprendizajes Microsoft personal Wayra

Salud mental y auto-control

Debe haber pocas más simples y más complicadas que tener control de uno mismo; en la lógica es algo súper simple :"control de los impulsos y reacciones propias". Esto implica que hay una toma de decisión consciente analizando beneficios y consecuencias de cada acción que tomamos.

depresion emprendedores

Esto implica algo simple, que es que el auto-control es un proceso que puede salir bien pero tiene algunas potenciales fallas/trampas, que como todo hoy en día está "preso" de muchos mitos que lo simplifican y que, más allá de sus ventajas, al ser un proceso implica que si perdés ese auto-control podés aprender de ese momento y mejorar sin quedar atado a un mal momento.

El auto-control es un proceso

El cínico diría "controlarse es fácil ¿por qué perderías el auto-control?". Pero la realidad es más compleja, porque el auto-control implica trabajo y necesitás entender algunos mitos del mismo:

  • "El autocontrol es innato": mentira, es como un músculo que se fortalece con la práctica.
  • "La fuerza de voluntad es ilimitada": creer que la fuerza de voluntad es inagotable ignora la realidad del agotamiento por decisiones a las que cualquier persona está expuesta constantemente, sin descanso, y sin dedicarle tiempo a tu salud mental el auto-control puede agotarse.
  • "Es resistir tentacion": esto es una sobresimplificación y deja de lado el entender las emociones, pensar a largo plazo, mantener hábitos positivos y, sobre todo, que esto es un proceso constante.

Las trampas del auto-control

Al mirarlo bien, entendés que el auto-control es como un músculo que tenés que ejercitar y que, como todo, implica un trabajo constante; de hecho hay 3 problemas de los que nadie habla, especialmente en el mundo emprendedor, donde parece que nadie se anima a hablar de salud mental, y que son consecuencia directa de buscar el auto-control pero sin una estrategia.

  • La dependencia excesiva puede conducir al estrés: ejercitar constantemente el autocontrol puede ser mentalmente agotador, y eso conduce al stress y agotamiento, una paradoja porque es lo que estás buscando evitar.
  • Puede reducir el disfrute: un auto-control estricto puede limitar la capacidad de disfrutar de momentos espontáneos o de darse pequeños placeres.
  • Efecto Rebote: constantemente analizar tus actos y suprimir los deseos puede llevar a un fuerte efecto rebote, donde el autocontrol se rompe y terminas dándote permiso para todo o explotás y tenés UN momento donde generás una situación inexplicable.

Las 3 ventajas del auto-control

Hay mil libros, estudios y artículos para leer sobre el autocontrol. Y aunque en general el auto-control se piensa como una forma de no caer en provocaciones la realidad es que hay 3 cosas que podés sacar si lo ejercés bien:

  • Mejor toma de decisiones: si sos capaz de reflexionar, vas a valorar beneficios y ventajas a largo plazo, sobre tentaciones a corto plazo.
  • Conseguir objetivos personales y profesionales: si tus decisiones toman en cuenta los beneficios a largo plazo, la consecución de objetivos se hace más simple (compounding!) y eso va a bajar tus niveles de estrés.
  • Mejora en relaciones: esto me parece clave a mí; si sos capaz de entender y manejar las emociones, el auto-control generará interacciones más saludables y empáticas con los demás.

“Remember, it is not enough to be hit or insulted to be harmed, you must believe that you are being harmed. If someone succeeds in provoking you, realize that your mind is complicit in the provocation. Which is why it is essential that we not respond impulsively to impressions; take a moment before reacting, and you will find it easier to maintain control.”

 Epictetus, The Art of Living: The Classical Manual on Virtue, Happiness and Effectiveness

Aprendé, perdoná, planificá

Nadie es perfecto: si perdiste el control tenés que entender que ya pasó y que no podes resolverlo, pero podés enfocarte en entender y mejorar. Quizás la mejor técnica es dividir en 3 partes el "post-explosión":

  • Reconocer y aprender: reconocé el desliz como una oportunidad de aprendizaje, no como un fracaso, para entender los desencadenantes y mejorar las estrategias.
  • Perdónate a vos mismo: practicá la autocompasión para evitar el diálogo interno negativo y la culpa, entendiendo que las recaídas son parte del proceso.
  • Planificar para futuras tentaciones: elaborá estrategias sobre cómo manejar situaciones similares de manera diferente en el futuro, reforzando tus mecanismos de autocontrol.

“Wise men are not pacifists; they are merely less likely to jump up and retaliate against their antagonizers. They know that needless antagonizers are virtually already insecure enough.”

Criss Jami, Killosophy
| Rants
Tags:
emprendedores salud mental

Daniel Kahneman (1924-2024)

Ayer murió Daniel Kahneman, Premio Nobel en Economía por su trabajo en Prospect Theory para toma de decisiones, conocido por muchos por su trabajo en, claro, toma de decisiones y economía conductual, y autor de "Think Fast Think Slow". Yo lo recuerdo como una de las pocas veces que me lamenté por haber descubierto tarde a un autor y el valor de su obra.

Hay dos libros claves para entender su valor; por un lado "Prospect Theory", que nos permite entender cómo tomamos decisiones bajo incertidumbre sin ser racionales siempre. Y en "Think Fast Think Slow" nos deja entender, en términos simples, que hay dos sistemas en permanente lucha en nuestro cerebro, uno automático y otro deliberado... lo que nos hace vivir con sesgos.

"Teoría del Prospecto" (Prospect Theory)

Hoy puede parecer intuitivo pensar que no siempre se toman decisiones racionales, pero en 1979, cuando se publica Propsect Theory, gran parte del mercado asumía que las personas tomaban decisiones racionales basadas en la maximización de la utilidad esperada.

Kahneman y Tversky (su socio de siempre) demostraron que hay valoraciones que influyen en la toma de decisiones y que, sobre todo, las personas valoran las ganancias y pérdidas de manera diferente, lo que significa que son más sensibles a las pérdidas que a las ganancias de magnitud equivalente, un fenómeno conocido como aversión a la pérdida. Un concepto clave en nuestra economía.

Lo otro que demostraron es que cuando uno toma decisiones (en cambios de riqueza) estas se toman con un punto de referencia diferente en cada caso; esto implica que el mismo resultado se percibe de formas diferentes dependiendo de ese punto de referencia y, por lo tanto, hay decisiones que serían consideradas irracionales desde la teoría tradicional.

Esto último ayuda a entender que hay un "framing" para entender la "curva de valor" que nos hace tomar decisiones financieras.

Les recomiendo leer el paper completo de ellos en JSTOR, vale la pena.

"Pensar Rápido, Pensar Despacio" (Thinking Fast, Thinking Slow)

Tal vez lo más conocido de Daniel Kahneman y Amos Tversky, porque siempre escribieron juntos, es el libro "Thinking Fast, Thinking Slow" (link en inglés que está gratis en Kindle Unlimited y en español que a veces está gratis) y la idea súper resumida de distinguir dos modos de pensamiento:

  • "Sistema 1". El Sistema 1 opera de manera automática y rápida, con poco o ningún esfuerzo y sin sentido de control voluntario, mientras que
  • "Sistema 2" implica deliberación, razonamiento y requiere actividades mentales más esforzadas.

Sobre esa base se explica cómo las personas toman decisiones, los sesgos que afectan nuestro pensamiento y las implicaciones para la economía, la política y las vidas personales. El famoso conflicto que tenemos entre intuición y razonamiento; y cómo esto nos lleva a errores y juicios erróneos que, luego, cuando lo pensamos, no entendemos cómo nos equivocamos.

Y de ahí a entender por qué es tan difícil predecir qué nos hará felices, cómo enfrentamos la toma de riesgos y nuestra aversión a la pérdida; tal vez lo mejor es que el libro tiene ejemplos súper simples de cómo cambiar nuestra perspectiva y tomar mejores decisiones

La felicidad y la satisfacción

People don't want to be happy the way I've defined the term – what I experience here and now. In my view, it's much more important for them to be satisfied, to experience life satisfaction, from the perspective of 'What I remember,' of the story they tell about their lives"

Daniel Kahneman en Haaretz

Esto que dijo Kahneman en una entrevista en el Haaretz es realmente una de las mejores muestras del valor de su obra: cómo estamos a veces sesgados por la "narrativa" que nos creamos y cómo nos ve el mundo, más que por el verdadero valor de lo que sucede.

De verdad, deberían leer más a Kahneman y tomar mejores decisiones porque esto impacta cada uno de nuestros mundos.

| Rants
Tags:
daniel kahneman prospect theory thinking fast thinking slow

US vs TikTok es US vs China

El 13 de Marzo de 2024 el Congreso de los Estados Unidos pasó la resolución H.R. 752 dándole a Bytedance la orden de vender TikTok o serán bloqueados en Estados Unidos. Ahora está a disposición del Senado, y Joe Biden la firmará y será ley. Mientras que muchos imaginan que esto es simplemente para mantener el predominio de las redes sociales de USA a nivel mundial, la realidad es más compleja: seguridad nacional, privacidad, intereses económicos y la rivalidad geopolítica.

El CEO de TikTok diciendo que es una empresa independiente... no se por donde empezar :)

¿Por qué contra TikTok?

  1. Preocupaciones de seguridad nacional: esto es el tema clave. Funcionarios estadounidenses temen que la empresa matriz de TikTok, ByteDance y que tiene su sede en China, podría ser obligada por las leyes chinas a entregar datos de usuarios estadounidenses. Esta preocupación surge de la Ley de Inteligencia Nacional de China que requiere que las compañías cooperen con el trabajo de inteligencia estatal. Solo imaginen la profundidad que el espionaje o la desinformación pueden alcanzar si el gobierno recibe absolutamente todo.
  2. Privacidad de datos y seguridad del usuario: relacionado con la seguridad nacional están las preocupaciones sobre la privacidad de datos y la seguridad de los usuarios, particularmente niños y adolescentes que forman una parte significativa de la base de usuarios de TikTok. Hay temores sobre cómo la aplicación recopila datos y el potencial para que estos datos sean mal manejados o utilizados para vigilancia y propaganda.
  3. Tensiones geopolíticas: el tema de TikTok también se ve a través del prisma de la rivalidad geopolítica más amplia entre EE.UU. y China. Las acciones del gobierno de EE.UU. contra TikTok son parte de un contexto más grande de tensiones crecientes entre las dos superpotencias, que abarcan disputas comerciales, competencia tecnológica y modelos de gobernanza diferentes.
  4. Intereses económicos y competencia: y aunque diga que esto no es central, también, es claro que hay un trasfondo de proteccionismo económico en los esfuerzos por limitar la influencia de TikTok. Con el enorme éxito global de TikTok, representa un competidor formidable para las plataformas de redes sociales de EE.UU.

¿Hay precedentes de empresas forzadas a vender o ser prohibidas?

El caso de US vs TikTok no es aislado: recuerden el caso de Huawei y su infraestructura de telecomunicaciones. Sus equipos fueron prohibidos o restringidos, no sólo en Estados Unidos, sino en Australia, Reino Unido y parte del Commonwealth.

De nuevo el focos es la seguridad nacional y las tensiones geopolíticas (QUE NO VAN A DEJAR DE ESCALAR A PUNTOS INCREÍBLES COMO LAS GRÚAS DE LA INFRAESTRUCTURA DE PUERTOS), mucho más claras en un proveedor de infraestructura; en términos simples: todas y cada una de las comunicaciones de varios Estados pasaban por un caño que tenía lazos con el Gobierno de China. ¿Necesito explicarlo mejor?

Quizás nos hemos olvidado pero en 2020 el presidente Trump, en otro de sus fracasos políticos, trató de forzar la venta de TikTok a algún gigante de USA.

Pero para ser justos, y para entender el contexto de esto, hay que recordar que el gobierno chino bloqueó el acceso a Meta (en ese momento Facebook) y a Twitter, entre otros, desde 2009 por cómo se dieron a conocer la protestas de Urumqi y, desde ese momento, hubo un apoyo coordinado del CCP para bloquear redes sociales y generar mercados con pocos competidores y controlados por ellos.

En un mundo paralelo los Politicos Chinos dicen que hay que luchar por los derechos al "free-speech" mientras bloquean todo lo que es de occidente.

Splinternet: un futuro fragmentado que no conocemos

El término "Splinternet" es un neologismo para una Internet dividida (split Internet), un futuro en el que Internet estará dividida a lo largo de líneas nacionales o regionales, con diferentes reglas y regulaciones gobernando el espacio digital en diferentes partes del mundo.

Cualquier persona que haya viajado a China conoce lo diferente que es la experiencia al navegar Internet, al utilizar servicios o hasta para hacer pagos; y así como uno admira técnicamente (y a nivel inversiones) el concepto de las super-apps donde uno tiene su vida; el lado B de esto es que hay un switch donde el gobierno conoce literalmente todo de vos y puede desconectarte en un click.

Pero volvamos a lo estratégico: las prohibiciones chinas en las redes sociales occidentales como las acciones contra TikTok en EEUU contribuyen a la fragmentación de Internet global y esto va a generar desafíos que son increíbles:

  • Empresas, teniendo que adaptarse a frameworks legales diferentes en cada mercado; el caos que la GDPR causó pero multiplicado por 10 con los costos asociados a tener diferentes presencias físicas y hasta teniendo que recortar accesos porque, como ejemplo, la GDPR puede tener conflicto con el CCP en términos de privacidad.
  • Usuarios, y vuelvo al ejemplo de usar Internet/apps/infraestructura en China vs Occidente, pero además esto puede crear una balcanización donde los países fuera de los 3 dominantes vivan una brecha digital aún peor.. y con sus datos personales como moneda de cambio.

En definitiva, la controversia sobre TikTok en EE.UU. es un paso más en una batalla que no muchos están prestando atención, es una controversia multifacética, con tensiones geopolíticas más amplias con China, y el resultado de esta controversia tendrá implicaciones significativas para la política tecnológica internacional, las relaciones entre EE.UU. y China, y la economía digital global.

| Derechos Internet
Tags:
politica Redes Sociales tiktok

Monzo, nueva ronda de inversión y volver a las raíces

Esta semana, Monzo, con sede en Londres, logró una de las mayores rondas de financiación en algún tiempo para fintechs, una Serie I de $435 millones con una valuación post de $5.000 millones, subiendo desde $4.500 millones en 2021 aunque en los dos últimos años las inversiones en fintech cayeron mas de un 50% y en banking startups un 72%.

Investment to banking startups has evaporated, with funding falling 72% in 2023 — the biggest YoY decrease across fintech sectors. Payments startups saw funding decline just 30% YoY — the least of any fintech sector — though the annual funding total was propped up by 2 massive rounds to Stripe ($6.5B) and Metropolis ($1B). Payments remains the most well-funded fintech sector by a wide margin.

CB Insights Fintech 2023
Leer completa
| Mercados
Tags:
fintech inversiones monzo neobancos startups

Elon Musk vs OpenAI

Hace unos días Elon Musk demandó a OpenAI para que rompan sus alianzas comerciales. Hoy OpenAI respondió con datos mostrando que Elon Musk los demanda porque "logramos avanzar en la misión de OpenAI sin su ayuda". Honestamente no iba a hablar de la demanda de Musk porque es la continuación de su lobby personal por destruirla.

No sólo la "demanda" no tiene sentido porque no había un contrato sino que es un diatriba sobre cómo se aprovecharon de él, pero esto es simplemente una pelea de egos porque Musk no acepta que no se la regalaron.

Leer completa
| Inteligencia Artifical
Tags:
AI elon musk emprendedores inteligencia artificial openai sam altman

La Dopamina de Un Mundo Feliz

Muchos de los que estamos en tecnología y leemos ciencia ficción imaginamos que 1984 era lo que representaba el peligro de una sociedad conectada, una sociedad controlada por un Gran Hermano: nos enfocamos tanto en eso que nunca vimos a la "economía de la atención" y la "cultura de la dopamina" llevarnos a la utopía de Un mundo feliz.

En Un mundo feliz el control de masas se da a través del placer y la manipulación genética; más allá del espacio de las castas condicionadas para aceptar su lugar a todos se les mantiene satisfechos mediante el consumo de una droga llamada "soma".

El "soma" les permite escapar de cualquier tipo de disconformidad o dolor; la felicidad superficial y la estabilidad social se logran a costa de la libertad individual y el pensamiento crítico... literalmente el efecto del endless scroll en nuestro cerebro.

Leer completa
| Rants Redes Sociales
Tags:
dopamina Redes Sociales salud mental

Reddit y su IPO, un web2.0 memento

La IPO de Reddit ya es oficial y, con la publicación de su S1 en la SEC, si logra una IPO exitosa va a ser uno de los últimos íconos de la web2.0 que logren un exit importante... ademas de hacer más rico a Sam Altman, pero eso depende de algunos desafíos que los veo complicados.

Asumo muchos de ustedes saben que creo en el valor de las comunidades online y he seguido a Reddit por largo tiempo y, de hecho, sigo teniendo las mismas dudas de siempre frente a sus desafíos:

Leer completa
| Comunidades Online
Tags:
emprendedores IPO