Si quieren tener una idea del tamaño de la infraestructura de Google les recomiendo leer esta reseña de la charla de Jeff Dean en Google I/O.
No es tan impresionante a nivel números, pero si a nivel lógica de mantenimiento y uso (por ejemplo el racional atrás del uso de hardware commoditizado en vez de servidores de misión crítica o la tabla de "roturas esperables" entre otras cosas) aunque la especulación de 200.000 servers distribuídos alrededor del mundo, asusta ;)
También es interesante ver porque, para Google, los servidores multicore son "pan comido" mientras para otras empresas la escalabilidad con esos procesadores les representa un problema "para nosotros los multicore, son como muchas maquinitas que se interconectan muy bien" y como eso impactó en el tiempo promedio usado para actualizar su index pese a que este (junto al numero de sitios en Internet) iba creciendo sin parar.
Artículo excelente. Yo había visto parte de ese artículo en una presentación interactiva en flash: http://www.portfolio.com/interactive-features/2007/08/google
La verdad que esta representación gráfica de un cluster vs los mainframes lo explica todo: http://clusters.fisica.uson.mx/nowlogo.gif
Te puedo asegurar que Google tiene mucho más que 200.000 servidores en producción en todo el mundo. Pero muchos, muchos, muchos más.
Vamos que lo que Google necesita o tiene son DataCents propios para toda su infraestructuras.