Google : 300 années pour indexer le Web?

Eric Schmidt, le CEO de Google, a estimé le contenu total du Web à approximativement 5 millions de terabytes

Face à l’

Association of National Advertisers, qui tenait sa conférence annuelle à Phoenix, Eric Schmidt, le CEO de Google, a fait sensation en évoquant des chiffres ‘astronomiques’. Google aurait estimé le volume du Web à 5 millions de tera-octets (*), soit 5 millions de milliers de milliards d’octets, ou plus précisément en système binaire à 8 données binaires (0 ou 1) par octet : 5.000.000 x 1.099.511.627.776 octets ou 5 exa-octets… Pour imaginer le volume que cela représente, rappelons qu’un vidéo club moyen stocke pour 8 tera octets de données vidéo, ou que la célèbre bibliothèque du Congrès américain, la Library of Congres, contient approximativement 20 tera octets de textes. Google disposerait actuellement d’une capacité de gérer un index de 170 tera octets. Selon Eric Schmidt, il lui faudrait 300 années pour indexer l’ensemble des données présentes sur le Web. A condition bien entendu que ce dernier n’évolue pas. Déjà les analystes d’Intel estiment qu’une famille moyenne devrait bientôt disposer d’une capacité de stockage d’un tera-octets? * un tera-octet ou ‘terabyte’ c’est : – arrondi en décimal : 10 à la puissance 12, – ou en binaire : 2 à la puissance 40.