Edward Snowden aurait piégé la NSA avec un simple web crawler

Edward Snowden, l’ex-consultant à l’origine des fuites sur la NSA, aurait utilisé des outils banalisés, de simples robots qui explorent et indexent automatiquement les réseaux, pour aspirer 1,7 million de documents classifiés de l’agence américaine de renseignement. Un véritable camouflet pour l’agence dont l’une des missions consiste à protéger les Etats-Unis des cyberattaques.

Edward Snowden, l’ancien consultant à l’origine des révélations sur les écoutes massives pratiquées par la NSA, aurait utilisé des logiciels peu coûteux et largement disponibles pour dérober 1,7 million de documents classifiés appartenant à l’agence américaine de renseignement, d’après un rapport du Pentagone cité par le New York Times.

Sur les traces de Bradley Manning ?

Selon ce rapport, Edward Snowden aurait utilisé comme logiciels des robots qui recherchent, indexent et effectuent des sauvegardes automatiques (web crawlers) pour « aspirer des données » issus des systèmes des services de renseignement américain. Et ce, tout en y effectuant au quotidien son travail d’administrateur système.

La NSA, dont une des missions consiste à protéger les infrastructures et systèmes d’information américains d’attaques sophistiquées, aurait donc échoué à prévenir une « simple attaque de l’intérieur ». Pire pour la crédibilité du service : Edward Snowden serait parvenu à tromper son monde trois ans après la diffusion de documents secrets sur Wikileaks. Dans cette autre affaire, des techniques similaires auraient été utilisées par le militaire Bradley Manning, condamné à 35 ans de prison en août dernier.

Edward Snowden, de son côté, a obtenu l’asile en Russie où il est réfugié depuis l’été 2013. Aux États-Unis, il est inculpé d’espionnage et fait l’objet de trois accusations. Deux pour espionnage, une pour vol de documents appartenant à l’État, chacune étant passible de 10 ans de prison.


Lire notre dossier :

Tout sur l’arsenal secret des espions de la NSA