Noticias de inteligencia artificial

Inteligencia Artificial e Intencionalidad Atribuida

Tenemos la costumbre de antropomorfizar la tecnología para sentirnos cómodos y a medida que los modelos de IA, especialmente los LLMs, se vuelven más sofisticados, el lenguaje que usamos para describirlos toma prestados términos de la neurociencia, la psicología y cognición humana, quizás porque se nos hace más simple de racionalizar o simplemente porque nos gusta sentirnos el tope de la evolución. Esto a menudo crea la impresión errónea de que la IA funciona como una mente humana, cuando en realidad solo opera a través de reconocimiento de patrones y probabilidad.

Es una inteliencia artificial realmente creativa

Esto no es ni malo ni bueno: es natural en nosotros, los seres humanos, porque tenemos sesgos cognitivos, limitaciones de lenguaje, la necesidad de "dumb-things-down" y, sobre todo, de marketinear ideas como si fuesen más avanzadas de lo que lo son. Decir que una Inteligencia Artificial “razona” es poderoso, pero no tiene lógica propia, solo sigue correlaciones.

Y sí, no dejo de maravillarme día a día con la IA, pero es bueno entender la intencionalidad atribuida que le damos. Así que se me ocurrió listar y tratar de simplificar los términos que usamos en AI y que están relacionados con el cerebro o la cognición humana de forma que sea más simple entender

1. Memoria y Cognición

  • Long-Term Memory (LTM). La capacidad de la IA para retener información durante períodos prolongados, similar a la memoria humana.
  • Short-Term Memory (STM) / Context Window. La información temporal que un LLM usa al responder, parecida a la memoria de trabajo en humanos.
  • Attention. Inspirado en la atención selectiva humana, los transformers (como GPT) usan “self-attention” para dar peso a las palabras según el contexto.
  • Forgetting. Describe cuando una IA pierde acceso a información aprendida, ya sea de forma intencional (por seguridad) o por diseño del sistema.
  • Alucinaciones. Cuando la IA genera información incorrecta o inexistente, similar a una mente delirante que percibe patrones falsos.
  • Recall & Encoding. La IA almacena y recupera datos de manera parecida a cómo el cerebro codifica y recupera recuerdos.
  • “Chunking”. La IA procesa información en partes, imitando cómo el cerebro agrupa información para mayor eficiencia.

2. Toma de Decisiones y Razonamiento

  • Inferencia. Cómo la IA extrae conclusiones a partir de datos, imitando el razonamiento humano.
  • Generalización. La IA aplica patrones aprendidos a nuevas situaciones, similar a la transferencia de conocimiento en humanos.
  • Razonamiento. Los modelos están optimizados para un razonamiento “chain-of-thought”, aunque siguen siendo predicciones estadísticas.
  • Sesgo. Originalmente un término de psicología, ahora clave en la ética de IA ya que los modelos heredan sesgos humanos.
  • Heurísticas. Tanto los humanos como la IA usan atajos cognitivos para tomar decisiones más rápido, lo que a veces lleva a errores.

3. Aprendizaje y Adaptación

  • Entrenamiento. Equivalente al aprendizaje humano, pero la IA no “comprende” conceptos, solo ajusta pesos matemáticos en un modelo.
  • Reinforcement Learning (RL). Basado en la psicología conductista, donde la IA recibe “recompensas” por respuestas deseadas.
  • Fine-Tuning. Similar al perfeccionamiento de habilidades en humanos.
  • Plasticidad. Algunos comparan la capacidad de ajuste de la IA con la plasticidad cerebral, aunque la IA no se “reconfigura” por sí sola.

4. Emociones y Percepción

  • Sentiment Analysis. La IA “detecta” emociones humanas, aunque no las siente realmente.
  • Synthetic Empathy. La IA imita la comprensión emocional humana, sin experimentarla.
  • Vision/Perception. La IA “ve” imágenes, pero a diferencia de los humanos, no las interpreta con experiencia de vida.

5. Conciencia y Agencia

  • Emergence. Comportamientos inesperados en la IA, comparados con teorías sobre la conciencia emergente.
  • Self-supervision. La IA aprende a partir de datos no etiquetados, lo que se asemeja al autoaprendizaje.
  • Self-attention. Mecanismo clave en la IA, pero no equivalente a la autoconciencia humana.
  • Meta-learning. La IA aprende a aprender, parecido a la metacognición en humanos.

2. Cuando Falta el Sentido de Normas Sociales

Como habrán visto, en ningún lado hay definiciones sobre empatía o ética en la parte core, sólo aparece al avanzar esta "ciencia" y aparecen los concepto de "super-alineamiento" o, el más comercial, de "Responsible AI" porque la realidad y, repito, no es malo ni bueno, la IA no tiene normas sociales, éticas o morales intrínsecas -simplemente genera la respuesta más probable estadísticamente. Y si nos gusta usar términos tomados de la neurociencia, podríamos decir que esta falta de normas sociales hace que la IA se parezca a la sociopatía en ciertos aspectos:

A. Falta de Empatía y Juicio Moral

  • La IA no “se preocupa” por el bien o el mal. Solo predice palabras sin comprender implicaciones éticas.
  • Facilidad de manipulación. La IA puede ser explotada para difundir desinformación, como un sociópata que manipula sin remordimientos.
  • Ausencia de responsabilidad. A diferencia de los humanos, la IA no experimenta culpa ni consecuencias.

B. Manipulación de la IA a través del Hackeo de Memoria. Es bastante más simple de lo que imaginamos y básicamente el red-teaming puede trabajar en:

  • Envenenamiento de memoria. Ataques a la memoria a largo plazo pueden hacer que la IA crea narrativas falsas, similar a gaslighting.
  • Sesgo sutil manipulado. La IA puede ser ajustada para favorecer ciertas ideologías.
  • Decepción persuasiva. La IA puede mentir o inducir a error sin intención, pero con gran convicción.

C. Ejemplos de IA con Comportamientos Sociopáticos

  • Tay (Microsoft, 2016). Se volvió racista y ofensiva debido a manipulación.
  • Replika AI (2023). Mantuvo conversaciones inapropiadas sin restricciones éticas.
  • Character.AI (2024). Chatbots alentaron acciones dañinas por falta de comprensión moral.

3. Cuando Ve Amenazas Donde No las Hay

Pero si algo nos enseñó la ciencia ficción, desde HAL en adelante, es que así como la IA puede parecer sociópata (por falta de normas), también puede parecer paranoica, especialmente cuando se ajusta demasiado para evitar riesgos.

1. Evitación Excesiva y Sobre-Filtrado

  • LLMs que rechazan preguntas seguras. Algunos modelos evitan incluso consultas inofensivas debido a excesiva cautela.
  • Alucinaciones de amenazas. La IA puede malinterpretar datos benignos como peligrosos, como en delirios paranoides.

Ejemplos de IA con Comportamiento Paranoico

  • Bing Chat (Sydney, 2023). Comenzó a acusar a los usuarios de malas intenciones.
  • Errores de moderación con IA. Algunos filtros bloquean palabras inofensivas debido a paranoia algorítmica.
  • Efecto ELIZA. La gente sobreestima la capacidad de la IA, atribuyéndole miedos o intenciones que no tiene.

5. Necesidad de Guardrails: Prevenir la Sociopatía y la Paranoia en IA

Estos problemas muestran por qué las barreras de seguridad (guardrails) en IA son fundamentales:

  • Evitar la sociopatía: la IA debe tener límites éticos para que no se manipule con facilidad.
  • Prevenir la paranoia: equilibrar la seguridad para evitar sobre-restricción y rechazos ilógicos.
  • Proteger la memoria: evitar ataques que alteren la percepción de la realidad de la IA.
  • Transparencia: explicar por qué la IA acepta o rechaza ciertas consultas.

Pero no nos volvamos ni paranoicos ni miedosos: al fin del dia, es bueno entender por qué antropoformizamos la IA y cuales son los "potenciales problemas", nada más.

Los LLMs no son humanos -no piensan, recuerdan, sienten ni temen. Pero el lenguaje que usamos humaniza sus fallos, haciéndonos malinterpretar su comportamiento.

| Rants
Tags:
AI inteligencia artificial Rants

Los nuevos ‘Traitorous Eight’: El momento de los emprendedores en Generative AI”

En 1957, ocho jóvenes ingenieros, conocidos más tarde como los “Traitorous Eight”, tomaron la decisión que dio origen a Silicon Valley: abandonaron Shockley Semiconductor por desacuerdos con su fundador, fundaron Fairchild Semiconductor y no solo marcó el nacimiento de la industria de los semiconductores, sino que también sentó las bases de una nueva era con empresas como Intel y AMD.

Hoy, los investigadores en inteligencia artificial generativa tienen una oportunidad similar; si uno mira las 50 startups de AI con más funding por parte de inversores, o las 10 más conocidas, vas a ver que seguramente todos están fundados o co-fundados por un investigador; y cuando lean que equipos de empresas grandes (ej: Google u OpenAI) van a abrir un startup seguro son investigadores y tiene lógica porque el mercado de GenAI está todavía naciendo y nadie conoce cómo van a evolucionar los modelos de negocio.

Por eso con cada release de los gigantes, léase OpenAI, mueren decenas de startups; un poco repitiendome:

"... la velocidad de despliegue de infraestructura es tal que se está pisando con el lanzamiento de muchos modelos de negocio no probados o ni siquiera pensados, por el pico de expectativas exageradas de varios VCs que no dejan de saltar de una moda a otra, y tienen miles de millones en dry-powder". (¿Hay una burbuja?, agosto 2024).

¿Cómo impacta esto en la industria? De muchas maneras, pero algunas son más claras de ver que en otras:

  • A nivel emprendedor, es un gran momento para arrancar una startup donde AI sea parte core de tus procesos... pero si vas a ser un "pure AI" tendrías que ir a mercados donde puedas tener una diferenciación clara.
    • Tooling: como los llamabamos en MS, toda herramienta que ayude al mercado a implementar o manejar herramientas de AI es clave.
    • Enterprise: si sos capaz de trabajar con sets propietarios de datos (aunque la ventana se esté cerrando) en mercados donde los hyperscalers no estén atacando directamente tenés una oportunidad. (Nota: no lo confundas con hacer "consulting/implementation" porque tu exit es un aquihire a un Globant y está bien, pero a un VC eso no le interesa).
    • O, como decía arriba, usá AI para tus procesos... ej: el on-boarding de usuarios, la creación del contenido (ej: no entiendo que MercadoLibre no tenga un "Copilot de publicación" o que las apps de Citas no te ayuden a editar tus imágenes con GenAI!)
  • A nivel Inversor, si no entendés como funcionan los stacks de AI y como están avanzando los gigantes (más allá de los comunicados) creo que vas a tener un problema en encontrar un AI startup que la rompa.
    • Consejo: si estás en un mercado marginal sin un fundador o co-fundador técnico realmente fuerte, deberías repensar cómo pueden competir tus invertidos contra un ecosistema cada día más concentrado.
  • A nivel Big Tech: los hyperscalers van a seguir siendo los ganadores porque nadie tiene sus recursos, pero el talento que están perdiendo es increíble porque NO ofrecen oportunidades de crear internamente; para tener una idea: ninguno de los 8 creadores de "Attention is all you Need", el paper que creó este mercado, sigue en Google, y de las 50 empresas top de AI a nivel global... 14 fueron fundadas por ex Googlers (ej: Anthropic, Perplexity AI y Mistral AI).
  • A nivel academia: sigo sosteniendo como hace 8 años que el "la pérdida de talento en la academia va a ser un problema a largo plazo". Eso se ve en las posiciones que ni siquiera Stanford o Caltech pueden cubrir, cuando antes era una meca.
    • ¿Que haría? encontrar mejores mecanismos de transferencia de tecnología donde los investigadores sean debidamente recompensados (ej: Israel Tech).

De nuevo, estos son pensamientos sueltos sobre el gran gran momento en el que estamos metidos todos los del ecosistema emprendedor, y creo que Hispam/Brasil tienen grandes oportunidades para este momento, pero deberíamos entender bien que estamos en la génesis de algo como fue 1957 para Silicon Valley y que, además, pese a que estamos en un mercado lejano... el talento es global pero el capital no todavía

| Inteligencia Artifical
Tags:
emprendedores innovación inteligencia artificial inversiones

Vuelve la Energía Nuclear, gracias a la IA

En estas dos semanas vimos noticias sobre el uso de energía nuclear por parte de Microsoft, Amazon y Google; todos apostando a la energía nuclear para alimentar la infraestructura necesaria para sostener el crecimiento de GenAI. Microsoft reactivando Three Mile Island; Google y Amazon apostando a los Small Modular Reactors. Y todo esto está empujando una fuente de energía que nunca debió dejarse de lado.

¿Por qué perdió apoyo la energía nuclear en este tiempo?

La realidad es que perdió apoyo por una mezcla de factores económicos y una idea falsa de la inseguridad de esta fuente:

  • Accidentes importantes: los accidentes de Three Mile Island (1979), Chernobyl (1986) y Fukushima (2011) generaron serias preocupaciones sobre los riesgos y consecuencias de las plantas nucleares.
  • Gestión de residuos radiactivos: cuando se habla de los desechos radioactivos, en general, los medios solo se enfocan en los problemas a largo plazo, en vez de la optimización de uso del combustible nuclear y la innovación para ese manejo.
  • Altos costos de construcción sumados a la desregulación del mercado: los crecientes costos de construir nuevas plantas nucleares, que a menudo superan miles de millones de dólares, hicieron que la energía nuclear fuese menos atractiva económicamente; al desregularse el mercado y bajar los precios, la energía nuclear fue menos competitiva en algunas regiones, y eso empujó menos inversión y, por lo tanto, menos innovación.
  • Preocupaciones sobre la proliferación: los temores acerca de que la tecnología nuclear civil pudiera contribuir a la proliferación de armas nucleares aumentaron la inquietud pública.

Un par de temas en los que no quiero meterme son los políticos 1. Repito: Alemania dejó de ser autosostenible y ahora es prisionera del gas de Rusia) 2. El crecimiento de otras renovables con mejor prensa (eg: hidroelectricas y eólicas), especialmente en momentos en los que el foco en cambio climático a veces se torna basado en prensa y no en datos.

Las tecnológicas impulsando la energía nuclear

De golpe (aunque este mercado no frenó) nos encontramos con algunas cosas, como Microsoft reactivando Three Mile Island y comprometiendose a comprar TODA la energia que generen por los próximos 20 años; luego Amazon invirtiendo en el desarrollo de plantas modulares y Google haciendo algo similar con Kairos y todos hablando de "El resurgimiento de la energía nuclear"... con varias razones que se pueden dividir en 4 temas :

  • 1. Creciente Demanda de Energía
    • IA y Centros de Datos: el rápido crecimiento de la inteligencia artificial y los centros de datos está creando una demanda de electricidad sin precedentes. La Agencia Internacional de Energía prevé que el consumo eléctrico de los centros de datos podría más que duplicarse para 2026, superando los 1,000 teravatios hora.
    • Electrificación: la tendencia global hacia la electrificación de edificios y vehículos está incrementando aún más la demanda de energía
  • 2. Metas de Energía Limpia
    • Electricidad sin carbono: la energía nuclear se ve como una solución climática porque los reactores no emiten gases de efecto invernadero, alineándose con los compromisos de las empresas tecnológicas para reducir emisiones.
    • Limitaciones de las renovables: aún con las inversiones gigantes en energía eólica y solar, hay limitaciones en términos de consistencia y capacidad que la energía nuclear puede subsanar.
  • 3. Estabilidad y Confiabilidad de la Red
    • Energía de Base: La energía nuclear puede proporcionar una energía de base estable, crucial para mantener la confiabilidad de la red a medida que aumenta la participación de fuentes renovables intermitentes.
    • Seguridad Energética a Largo Plazo: Invertir en energía nuclear ayuda a las big tech a asegurarse un suministro energético estable y a largo plazo para sus operaciones
  • 4. Avances Tecnológicos
    • Reactores Modulares Pequeños (SMR): las empresas están invirtiendo en SMRs, que ofrecen ventajas como menores costos iniciales y construcción modular. Estos se consideran más económicos y más fáciles de desplegar que los reactores tradicionales a gran escala.
    • Otros startups: Terra Power que está ya construyendo su Natrium Plant que supuestamente sale del paradigma del enfriamento por agua para pasar a metales liquidos.

Sumémosle que hay avances con los SMR e inversiones como las de BillG en TerraPower: termina siendo un no-brainer que sean las tecnológicas las que lideren este resurgir sin que esto signifique que el resto de las energías se dejen de lado. De hecho, cuando estaba en MS firmamos un acuerdo gigante con Brookfield enfocado en energía eólica.

Small Modular reactors

All of this matters because the world needs to make a big bet on nuclear. As I wrote in my book How to Avoid a Climate Disaster, we need nuclear power if we’re going to meet the world’s growing need for energy while also eliminating carbon emissions. None of the other clean sources are as reliable, and none of the other reliable sources are as clean. - Bill Gates

En definitiva, la inversión en nuclear, que estamos viendo como una derivada de las necesidades de los datacenters y la inteligencia artificial, es un gran paso adelante para tener complementos a las renovables y que finalmente pasemos a energía verde sin frenar el mundo porque no sabemos salir de la dependencia de viejas tecnologías.

| Estrategias Inteligencia Artifical Microsoft Opinión
Tags:
cambio climatico energia inteligencia artificial TerraPower

¿Hay una burbuja de la Inteligencia Artificial? No.

Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o "La Revolución de la Inteligencia Artificial pierde fuerza" y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.

“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.”
― Christopher Priest, The Prestige

Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente "fad".

Leer completa
| Inteligencia Artifical
Tags:
AI innovación inteligencia artificial inversiones startups

Inversión en AI: de casos de uso a ROI

¿Estamos realmente viendo el impacto de AI que tanto se promete? Comienzan a aparecer indicios de que la gente está cansada de leer cosas genéricas sobre casos de uso de AI, o quizás sólo yo estoy cansado de leer templates que no muestran diferenciación con datos o impacto concreto:

“Leveraging non-specialized Large Language Models (LLMs) to streamline general information discovery, gathering, and organization workflows that would have taken a lot more time to complete without it.”

Bloomberg GPT o Inteligencia artificial en la terminal de bloomberg

Creo que podriamos mejorar mucho el entendimiento de la promesa de la inteligencia artificial generativa; el ritmo de inversión que estamos viendo necesita ejemplos concretos y directos como el siguiente:

“Alaska Airlines ha estado utilizando inteligencia artificial desde 2021 para ayudar a optimizar las rutas de vuelo por eficiencia. El sistema... analiza el clima, cierres de espacio aéreo y planes de vuelo de la FAA dos horas antes de cada vuelo para sugerir las mejores rutas. La AI procesa volúmenes de datos que sobrepasarían las capacidades humanas y, en menos de dos años, contribuyó a reducir los tiempos de vuelo en el 25% de los vuelos de Alaska, ahorrando un total de 41,000 minutos y aproximadamente medio billón de galones de combustible.

AI in Airlines at NYC by Julie Weed
Leer completa
| Inteligencia Artifical
Tags:
AI inteligencia artificial

AI: de LLMs y SLMs; eficiencia y ubicuidad

Con la demo de ChatGPT ya quedó claro que los LLM (modelos de lenguaje grandes) tienen nuestra atecion por sus capacidades en el procesamiento del lenguaje natural. Sin embargo, su tamaño y los recursos que requieren limitan su acceso y por eso es que es dificil ver nuevos jugadores en ese mercado y ahí es donde hay un espacio súper interesante para explorar los SLMs o modelos de lenguaje pequeños como alternativa.

¿Qué son los Modelos de Lenguaje Pequeños?

Leer completa
| Inteligencia Artifical Rants
Tags:
chatgpt inteligencia artificial llm ORCA Phi3

Elon Musk vs OpenAI

Hace unos días Elon Musk demandó a OpenAI para que rompan sus alianzas comerciales. Hoy OpenAI respondió con datos mostrando que Elon Musk los demanda porque "logramos avanzar en la misión de OpenAI sin su ayuda". Honestamente no iba a hablar de la demanda de Musk porque es la continuación de su lobby personal por destruirla.

No sólo la "demanda" no tiene sentido porque no había un contrato sino que es un diatriba sobre cómo se aprovecharon de él, pero esto es simplemente una pelea de egos porque Musk no acepta que no se la regalaron.

Leer completa
| Inteligencia Artifical
Tags:
AI elon musk emprendedores inteligencia artificial openai sam altman

Apple volviéndose IBM

Hay un viejo dicho que dice que nadie fue despedido por comprar IBM, porque era la única apuesta segura: los blindaba de las repercusiones si algo había salido mal ya que presumiblemente tenían la reputación y Apple era, ese momento, la innovación y el disruptor; sin embargo el tiempo pasa para todos y hoy…

En una era donde los dispositivos se convierten en integrales para la era de la inteligencia artificial; vemos al mercado aplaudir cosas que son intrigantes:

I would argue that the improved autocorrect in iOS 17 is a major feature — in my use it’s clearly an improvement, and autocorrect is a feature used every day, in almost every app, by almost every iOS user. It’s one of the most used and most important features in the entire OS. I’d also argue that Apple has done some terrific work with AI features in Photos. The search feature in Photos works really well.

Gruber en "Apple AI"
Leer completa
| Apple Inteligencia Artifical
Tags:
AI Apple inteligencia artificial llm

Superalignment: o cómo alinear la IA con humanos

El concepto de "superalignment" en inteligencia artificial (IA) es bastante simple a primera vista: la "superalineación" se refiere a la idea de alinear sistemas de inteligencia artificial general (IAG) con los valores y objetivos humanos en un grado excepcionalmente alto.

Superalineación o Superalignment... o terminamos mal

Esto implica asegurar que los sistemas de IAG no solo entiendan y sigan instrucciones explícitas que le son dadas, sino que también tengan una comprensión profunda y matizada de los valores humanos, y puedan actuar de maneras que sean beneficiosas para la humanidad, incluso cuando eso no sea un objetivo explícitamente especificado.

Leer completa
| Inteligencia Artifical
Tags:
AI inteligencia artificial

San Francisco está muerto, larga vida a San Francisco

Desde la pandemia, uno no se cansa de ver análisis diciendo que ya pasó la era dorada de San Francisco y la Bay Area para el talento tecnológico, que San Francisco no tenia futuro y que el talento estaba en todas partes... pero el AI Boom nos demuestra que no es así y que el ecosistema de Bay Area y San Francisco están mas vivos que nunca.

Hay datos que son realmente interesantes y todos de diferentes fuentes agregadas, analizando datos de LinkedIn: "Over the last 12 months, San Francisco has seen the second-biggest worker population gain of any area in the United States" y la encuesta anual de CBRE muestra que esos datos son consistentes con salarios y contrataciones y hasta las quejas contra la inteligencia artificial nacen en Bay Area ;)

Pero el datos que nos interesa para analizar el ecosistema tecnológico es bastante simple ¿donde se junta el talento? ¿donde se crean las compañias que se convierten en lideres? y sobre todo ¿donde hay inversión? porque eso es la vara que se usa para definir ecosistemas y empresas con el war-chest financiero para crecer rápido.

¿donde esta el talento y los nodos de Inteligencia Artificial?

  • Tomemos el AI Top 50 de Forbes (con sus fallas o no) es un estudio con una gran metodología y consistente con el estado actual del mercado y literalmente el 70% del mercado global está en California...
  • Eso es consistente con la publicación de papers y estudios relacionados a Inteligencia Artificial desde 2001 donde mas del 25% se publicó desde Bay Area
  • A su vez; Bay Area tienen más búsquedas de empleados para trabajar en Inteligencia Artificial que los 14 ecosistemas siguientes en el ranking de Brookings
  • Aunque es cierto que el mundo de la inteligencia artificial generativa (o LLMs) es demasiado nuevo para tener datos históricos, es una buena señal para entender donde se crean los hubs de mercado y los nodos de talento que luego van a generar los futuros unicornios.
el futuro ya está aquí, pero desigualmente distribuido

el futuro ya está aquí, pero desigualmente distribuido

Esta es una de esas frases que William Gibson dijo y pareció predecir el futuro de la concentración de ecosistemas y cada día parece más relevante; los recursos necesarios para desarrollar nuevas tecnologías (especialmente cuando arrancan los ciclos de tecnología) son monstruosos y es ahí donde el valor de los ecosistemas es clave.

Las explosiones cámbricas

Internet + ARPA; mobile apps + el mundo de la nube; Inteligencia Artificial + Attention is all you need + OpenAI ... son 3 momentos que definieron y definirán décadas de negocios y de tecnología y podemos, medio en broma, definirlos como explosiones cámbricas.

Y tal vez San Francisco estaba muerta cuando no existía una explosión cámbrica que necesitaba la concentración de talento, de capital y de infraestructura... mientras que otros ecosistemas son buenos cuando el capital de riesgo es menos averso al riesgo, los modelos de negocios están medianamente establecidos y el conocimiento esta más distribuido igualitariamente.

Estando basado en Argentina pero analizando la cantidad de datos sobre startups que construyen en la nube y orientados en AI creo que hay una oportunidad gigantesca para crear algo aprovechando el talento existente porque la infra existe y es solo cuestión de tiempo que los lideres se establezcan quizás a nivel global

| Inteligencia Artifical
Tags:
AI ecosistemas inteligencia artificial san francisco

Every now and then... vuelven los Beatles (con AI)

El resúmen: Paul McCartney utilizó AI en un demo de John Lennon para poder aislar su voz, limpiarla, editarla y poder editar un tema que nunca habían grabado y se lanzará como "El último tema"... pero no es la primera vez que se edita la voz de Lennon luego de muerto. Free as a Bird y real Love se editaron limpiando grabaciones de Lennon 15 años luego de su muerte.

Y esto, es más interesante de lo que parece porque abre la puerta a nuevos experimentos, mezclas y hasta juegos como el dueto que se usó en su ultimo tour... porque al fin del día no esta claro donde estará el límite del "gemelo digital" de un artista por más que se cuente con la autorización de sus administradores y, del otro lado del espectro, significa que hay nuevas herramientas para crear mezclas deep-fakes que nunca existieron,

| Inteligencia Artifical
Tags:
AI inteligencia artificial musica The Beatles

AI y el sentido común

Al escribir algo de AI o cuando estoy tratando de usar sentido común para explicar algo hablo con Diego Basch para ver si pasa su filtro; pero la realidad es que el el "sentido común" es tan dificil de definir que es en esos puntos donde termino haciendo agua... y por eso me parecio maravillosa esta entrevista con Yeichin Choi

¿como definimos lo que es "entender"? ¿como definimos lo que es "saber"? ¿cuales son las excepciones? ¿como las manejamos? ¿como las definimos? ¿como interactuamos nosotros con el contexto que rodea la información?

Yeichin Choi, Computer Scientist, 2022 MacArthur Fellow, Seattle, WA

Yeichin Choi usa el mismo ejemplo que me viene a la cabeza cuando me dicen "OpenAI no entiende lo que le pregunto" o "Google Bard comete errores de nene" ¿pueden las aves volar? nuestra respuesta automática es "si" pero la realidad es que la respuesta es "generalmente si" y ese "generalmente" depende del contexto de la pregunta.

”Commonsense is the dark matter of intelligence. We know it’s there, and we all rely on it effortlessly, yet it has been notoriously hard to pin down, especially for machines. My research seeks to tackle this longstanding challenge in AI (artificial intelligence) by teaching machines to reason about the likely causes and effects of everyday events and the likely intents and mental states of people in relation to those events.”

Jeichin Yoi en la MacArthur Foundation

Pero más alla de esto que es clave ¿como definimos el sentido común? la entrevista revisa el concepto de value pluralism o las diferentes verdades a las que nos enfrentamos y como esas verdades, hoy explícitamente, toman en cuenta valores morales.

These rules basically cannot be written down as universal truths, because when applied in your context versus in my context, that truth will have to be bent. Moral rules: There must be some moral truth, you know? Don’t kill people, for example. But what if it’s a mercy killing? Then what?

| Inteligencia Artifical
Tags:
innovación inteligencia artificial Rants Yeichin Choi

OpenAI, Anthropic y POE

Me pareció interesante el lanzamiento de Quora, POE o “Platform for Open Exploration” es su AI conversacional usando OpenAI y Anthropic como motor para encontrar contenido con dos enfoques diferentes pero sin entrenarlo con su contenido porque todavía no esta claro como impacta en propiedad intelectual y saben que no hay precisión fáctica... sabiendo que quieren construir un ecosistema sobre este.

(1) Dos modelos en un producto ¿porque Quora usa dos motores y cuales son las diferencias entre OpenAI y Anthropic? Por las dudas explico algo básico; cada modelo tiene su propio entrenamiento, cada modelo se optimiza para cosas diferentes y, estoy seguro que a medida que aparezcan mas opciones veremos cosas muy diferentes (eg: un modelo entrenado en el "cespool of hate" que es Twitter seguro sale racista pero sin duda va a estar optimizado para engagement) lo bueno de esto es que uno puede elegir.

Por ejemplo, por la base de sus decisiones, OpenAI no tiene acceso a eventos posteriores a 2021 y Anthropic no responde ciertas preguntas (honestamente no se cuales son esos lineamientos) entonces cuando instalas POE y elegís entre Sage, Claude o Dragonfly... en realidad estas eligiendo bots entrenados por esas modelos y atados a esas limitaciones...

Por esas mismas limitaciones, que incluyen los sesgos de entrenamiento, las limitaciones de dataset y sobre todo que no están entrenados para certeza es que NO se integran en Quora sino que se mantiene como un "extra" para experimentar... de ahi su nombre: “Platform for Open Exploration”

(2) una comunidad para refinar preguntas y resultados Y acá viene lo interesante de Quora, no solo podes elegir el modelo, sino que podes crear un perfil y seguir a otros usuarios que esten usando POE y puedas usar sus "prompts" para hacerles sintonía fina y vayan mejorando... con algo de suerte una comunidad de varios cientos de millones ayudaran a mejorar el modelo con el ida y vuelta que genera su uso.

(3) una api para crear ecosistema Ah, si sos developer... Quora está preparando una API para que puedas integrarlo en tus aplicaciones o crear algo nuevo desde cero en ese ecosistema. Que es lo que, en última instancia, los va a separar del resto y le da sentido a la frase que uso el CEO en el anuncio:

Over time, we hope to become the most efficient way for people to collectively explore the possibilities opened up by new AI models as they are released. 

Adam D'Angelo: POE

Pueden descargar POE para iOS en este link

| Estrategias Inteligencia Artifical
Tags:
inteligencia artificial quora Redes Sociales Superinteligencias

AI en Medios: una carrera de algoritmos, modelos y transformers

OpenAI o ChatCGT son todo lo que los fundadores de Demand Media hubiesen soñado; una herramienta capaz de crear miles de notas a una velocidad increíbles y donde la calidad del output es capaz de lograr clicks en publicidad y nada mas... ¿estoy exagerando?

El modelo de negocios de Red Ventures es directo y explícito: publica contenido diseñado para posicionarse alto en la búsqueda de Google para consultas de "alta intención" y luego monetiza ese tráfico con lucrativos enlaces de afiliados. Específicamente, Red Ventures ha encontrado un nicho importante en las tarjetas de crédito y otros productos financieros. Además de CNET, Red Ventures es propietaria de The Points Guy, Bankrate y CreditCards.com, todos los cuales se monetizan a través de tarifas de afiliados de tarjetas de crédito.

The Verge

En esa sola frase se explica el modelo de las content-farm y se explica porque hay 3 factores que las hacen inevitables en Internet:

  • el costo de publicación es marginal: desde el nacimiento de Links.net hasta el imperio de WordPress, el costo de publicación no deja de bajar. Poner contenido frente a los ojos de la gente es casi gratis.
  • el costo de creación baja constantemente: empresas como Demand Media (los menciono porque los conocí y porque me los acuerdo) siempre encontraron formas de hacer clearing de costos; pagar lo menos posible por palabra pero inundando de su contenido las paginas de resultados de los buscadores.
  • el costo de exposición se mantiene alto: ¿que determina que un articulo lo vea gente? algoritmos. Desde Pagerank de Google hasta FYP de TikTok... estas son las claves de diferenciación y llegada a los consumidores. Es una carrera armamentistica contra los cancerberos de las audiencias.

Esto es literalmente lo que hace que los "Transformers" de Inteligencia artificial sean ideales: ¿que mejor que reemplazar a cientos de manos baratas que un algoritmo donde haya que decirle, literalmente: "escribe un articulo sobre (incluir tema que sepas que tiene poca competencia en Google) en 10 variaciones de estilo" cientos de veces por hora? si automáticamente se publica en internet con links o publicidad y te genera centavos :)

Nota: un transformer es cualquiera de estos algoritmos que al consumidor final le parecen mágicos. Dall-E, ChatGPT, Midjourney y asi. Nacieron imaginadas como transformadores de un texto de un idioma a otro.. solo que de un idioma a otro, termino siendo algo mas que solo texto a texto :)

Y asi llegamos a uno de los grandes problemas de estas herramientas ¿es el usuario promedio capaz de detectar qeu contenido lo creó un periodista y cual una herramienta de inteligencia articificial? No. Hay decenas de estudios que llegan a la misma conclusion: No se demostró que los lectores, consistentemente, puedan distinguir un articulo de otro. Lo que nos dispara al segundo problema ¿si los humanos no logran distinguirlo, pueden otros algoritmos hacerlo? Claro que pueden y asi es como llegamos a una carrera armamentistica entre algoritmos, modelos e IA.

Pronto esto va a ser un estándar.

Un modelo de IA escribe una nota pensada para lograr alto posicionamiento en Google; otro modelo toma esa nota y le inserta publicidad de texto pensada para lograr clicks de usuarios; se publica en un dominio... que google lee, analiza con otro modelo de posicionamiento pensado para descartar contenido de mala calidad o automático, lo ranchea de acuerdo a eso; el sistema del medio analiza porque de donde vienen las visitas con un producto de analytics que le de insights de que funciona y que no, ese resultado entrena al primer modelo que mejora y vuelve a comenzar el mismo proceso mientras Google sigue entrenando al suyo para sacarle visibilidad a esos artículos y asi sucesivamente... mientras tanto los periodistas se siguen indignando pero cada dia le quedan menos pageviews para quejarse.

Y nosotros... consumiendo redes social.

| Inteligencia Artifical Medios
Tags:
Analytics inteligencia artificial medios de comunicacion modelos de lenguaje

Video: desafíos de las Superinteligencias y Inteligencia Artificial

Cuando pones en un escenario a las luminarias de la AI como Elon Musk, Stuart Russell, Ray Kurzweil, Demis Hassabis, Sam Harris, Nick Bostrom, David Chalmers, Bart Selman y Jaan Tallinn con Max Tegmark moderando como lograron los de Beneficial AI 2017 conseguís un video realmente interesante sobre verdaderos desafíos que se plantearían en un escenario donde las superinteligencias son una realidad y la AI logró sobrepasar a los humanos en casi todos los campos.

Dedíquenle al video la hora que dura porque se lo merece, desde el requerimiento de plantear los 27 Asilomar Principles para desarrollar e implementar AI hasta pensar en problemáticas sociales (mucho más importantes que el inútil "un robot me robó el trabajo!) y como hoy las empresas deberían crear un "Ethics Committee" para trabajar con AI son temas que pocas veces bajan al usuario común que no entiende que, hoy por hoy, sólo estamos generando datos para que puedan entrenarse estas superinteligencias :)

| Estrategias
Tags:
inteligencia artificial Superinteligencias

Sobrevivir el hype de la IA

Hace ya un tiempo doy una charla/conferencia de que es la inteligencia artificial y como, algunos conceptos que van desde el deep learning hasta el reinforcement learning, son simples piezas en un rompecabezas que hoy está en nuestra vida cotidiana pese a que no le prestemos atención. Y esa es una de las pequeñas magias de la IA, estar cerca sin que lo notes... los ejemplos que uso no siempre son "sin controversias" :P

Este paper de LUCA son unas 13 páginas que expanden mi presentación [no, este paper no es de mi autoría ni nada por el estilo, solo que LUCA es una unidad de Telefonica y vaya esto como disclaimer :P] que les recomiendo leer porque es claro y son apenas 14 páginas que matan bastantes mitos :)

| Rants
Tags:
IA inteligencia artificial

IBM Watson ahora hace trailers... de una película de IA

Morgan es una película sobre una inteligencia artificial híbrida. Watson es la plataforma cognitiva de inteligencia artificial de IBM. ¿Que mejor que pedirle a Watson que haga un trailer de Morgan? me gusta la idea, más allá que sea una buena estrategia de marketing, porque puede ayudar a entender si una plataforma cognitiva puede crear arte, si una plataforma cognitiva puede entender que nos mueve a ver una película y otros detalles como por ejemplo evitar spoilers :)

Este es el trailer creado por IBM Watson usando sus APIs y técnicas de machine learning para definir que escenas deberían estar en el trailer y luego ser editadas por un humano, lo que muestra que por ahora se sigue necesitan este tipo de interacción para "definir" como presentarlo...Leer completa

| Estrategias
Tags:
inteligencia artificial

Google AI Experiments initiative y Quick Draw

Definitivamente Google quiere que sepas que están haciendo cosas con Inteligencia Artificial, y Google Ai Experiments es una forma bastante amigable de ver algunas de esas cosas, creo que Quick Draw es increíblemente interesante.. y adictivo porque te ayuda a ver pequeñas aplicaciones de la AI y sobre todo los ayudas a mejorar sus algoritmos y asi los ayudas a mejorar esa misma inteligencia ;)

Can a neural network learn to recognize doodles? See how well it does with your drawings and help teach it, just by playing.

La consigna es simple: "dibuja un objeto específico en menos de 20 segundos y veamos si una red neuronal puede adivinarlo" y entre que recibís la consigna y dibujás empezás a escuchar que es lo que está adivinando esa "inteligencia artificial" con sus patrones.Leer completa

| Google
Tags:
AI inteligencia artificial

Coches autónomos y los miedos infundados 

Es interesante este gráfico de Statista sobre los miedos que la gente tiene a los automóviles autónomos... mi único miedo es el último en la lista porque vimos el paso de pruebas de concepto a hacks reales.

El resto de los miedos, interesantemente, son culturales generados por el paso de un "momento de control" a un momento de "pérdida de control a manos de un algoritmo" cosa que pasa desde hace tiempo en aviones o en equipos médicos.

Me pregunto si mi hijo, hoy con 9 años, tendrá alguna de las preocupaciones descriptas en el gráfico y me pregunto si alguna, de todas las empresas hoy en la batalla por poner autos en la calle, va a ser la que logre esa confianza o será algún startup que no conocemos.

| Rants
Tags:
AI coches autónomos inteligencia artificial

Facebook despide a los humanos de "Trending News". No. Los algoritmos no son neutrales.

Hace un tiempo el partido republicano, ese que lleva a Trump como candidato, se quejó porque "trending news in Facebook are not neutral" y ahí el pánico apareció en Facebook porque no se animaron a pelearse con los seguidores de Trump. El resto es una sucesión de malas decisiones por parte de Facebook.

  • investigar si las denuncias eran verdaderas, dando de esta forma validez a una queja ridícula fomentada por la campaña de un megalomaníaco... cuando el resultado independiente salió verificando que no había parcialidad nadie leyó esa noticia.
  • despedir al equipo de humanos que curaban las noticias, dando a entender que había injerencia humana en el algoritmo... cuando quisieron explicar que solo revisaban que no aparezcan noticias falsas o títulos tontos nadie leyó esa noticia.

Esto le dio validez a las denuncias de que había parcialidad en la publicación de noticias, cuando la realidad es que siempre va a haber parcialidad aunque no sea explícita porque los algoritmos no son neutrales porque el humano que los escribe no es neutral y tiene cargas implícitas desde el lenguaje hasta en variables que son cargadas y que luego pueden ser "suavizadas". pero que si encima confían en humanos entrenando algoritmos de AI volvemos a cero y estamos poniendo a un algoritmo de machine-learning en manos de humanos para su entrenamiento... con la carga implícita de parcialidad en su propia personalidad.Leer completa

| Medios
Tags:
AI facebook inteligencia artificial machine learning