La NSA noyée sous la masse d’informations collectées

Selon certains (ex-)employés de la NSA, l’agence de renseignement américaine collecterait plus de données que ce qu’elle est capable d’analyser. Le Big Data analytique sauvera-t-il la mise de l’agence de renseignement ?

Trop d’information tue l’information. Voilà en substance le message que cherche à faire passer William Binney, ancien programmeur à la NSA. « Ce qu’ils font, c’est se rendre eux-mêmes dysfonctionnels en captant toutes ces données », explique William Binney, cité par le Wall Street Journal.

« Nous aveuglons les gens avec des données dont nous n’avons pas besoin », confirme Edward Snowden, le lanceur d’alerte qui a été à la base de l’affaire mettant en cause la NSA. Le Wall Street Journal indique par ailleurs que certains analystes de la NSA auraient demandé à ce que l’agence collecte moins de données, afin d’en faciliter le traitement.

La réponse : le Big Data analytique

La NSA se défend en expliquant que, primo, elle ne copie pas toutes les données et que, secundo, elle se doit de collecter les informations nécessaires à la protection des intérêts du pays. Quitte d’ailleurs à capter des informations – à priori – sans intérêt.

Un discours somme toute classique, mais non dénué de sens. De fait, les données collectées ne sont pas traitées directement par des opérateurs humains, mais passent toute d’abord par le filtre d’outils informatiques d’analyse.

Or, dans ce domaine, plus d’information permet d’apporter plus de précision dans l’analyse. C’est l’accumulation d’indices qui permet ici de monter un dossier pertinent. Une technique qui nécessite toutefois l’utilisation d’outils de traitement adaptés à des ensembles de données massifs, bref, à recourir à du Big Data analytique.

Crédit photo : © photobank.kiev.ua – Shutterstock.com


Voir aussi
Quiz Silicon.fr – Fuites de données, petits secrets et grands scandales