Hace ya un par de días estoy probando Aviate en un Moto X y hace un par de horas Cover en el mismo equipo; estas son dos aplicaciones que básicamente ponen una capa sobre Android que le permite a tu smartphone "entender el contexto" o momento y mostrar las aplicaciones relacionadas y más útiles para ESE momento...
El famoso "context awareness" que nunca llegaba y que ahora me parece casi imprescindible porque, tanto Aviate como Cover, te permiten acceder a las aplicaciones que uno necesita en base a ciertas reglas lógicas; por ejemplo: de noche la home de tu Android muestra: alarma, silencio... en el trabajo, te muestra accesos directos a mail, BBM, etc. y poco a poco van aprendiendo de tus "acciones"
Y así en mi MotoX en el modo mañana aparecen Twitter, Gmail, Outlook e Instagram; pero lo interesante aparece cuando me subo a mi auto y se da cuenta que estoy en movimiento y me muestra: Google Maps, Speaker Phone y Waze...
La unión de sensores integrados (hay equipos con 13 sensores que incluyen desde giróscopo hasta sensor de humedad) con el poder de procesamiento de estos equipos hacen que se pueda inferir que acciones se toman, que aplicaciones son las adecuadas en esos momentos y ordenan automáticamente las cientos de apps que uno descarga por descargar.
Tip: amo, sinceramente amo, que Aviate me ve en Roaming y me pone Tripit, Maps, Instagram y American Airlines en la home... en serio siento que me conocen :)
Y no quiero dejar de lado a Sherpa que basados en Bilbao están logrando este tipo de integración que uno mira; acaban de lanzar una nueva versión y suma el "lenguaje natural" con cierta anticipación de acciones en una sola interfaz (de hecho hasta genera acciones dentro de las apps con lenguaje natural del tipo "quiero transferir 200 euros desde paypal") y van mostrando lo que se puede hacer.
Y básicamente si uno logra que estas apps se ordenen, se entiendan y hasta armen colecciones (ie: que antes eran carpetas) podemos estar viendo un verdadero cambio en la UX de los teléfonos, no sólo un cambio de colores o gradientes, ni siquiera un cambio de metáforas de interaccion donde vemos carpetas como si siguieramos en 1984 con la Macintosh... sino un verdadero cambio de interaccion.
Miremos un poco adelante; equipos always-on (como Moto X) procesadores de lenguaje natural (como Siri) y aplicaciones que entienden el contexto... y nuestra interacción puede cambiar completamente y eso es maravilloso!
Pensar que Nokia había empezado a experimentar esto con Nokia Situations (http://betalabs.nokia.com/trials/nokia-situations) hace unos años y lo dejo languidecer como a muchos otros conceptos interesantes :(
@paulo,
la gran cagada de Nokia fue que dejó languidecer muchas cosas… si hasta tenía los mejores maps y no los abrió a otras plataformas, tenía una cosa mejor que twitter, tenía equipos touchscreen… en fin, sus labs siempre tuvieron de todo un poco :)
Se me está cayendo un ídolo (va con onda).
Cada vez entiendo menos la gente que quiere automatizar completamente su vida a través de un celular.
Es una lástima que la mayoría de las features de Google Now sólo funcionen en EEUU. Es el mejor ejemplo de context awareness + invasión de la privacidad puestas al servicio del usuario: te llego la confirmación de la reserva del vuelo por email? te va a avisar si el vuelo se atrasa, o te va a poner una notificación al momento que tenés que salir de tu casa para llegar al aeropuerto; podes pedirle que te avise la próxima vez que estés en el supermercado que necesitabas comprar café; estuviste buscando Google por información sobre Android development? te avisa que hay una charla mañana cerca de donde vivís… etc, etc