Télégrammes : Un ransomware dans les smart TV; VMware se renforce dans le software defined DC; Microsoft s’invite dans Cyanogen 13.1; Le son au service de l’apprentissage des robots

A l’image des opposants à la loi travail, les télégrammes du soir se mobilisent pour les lecteurs de Silicon.fr.

  • Un ransomware bloque les smart TV. Trend Micro a trouvé une variante d’un rançongiciel, nommé, Flocker (diminutif de Frantic Lover) et qui ressemble aussi à un autre malware Cyber.Police (Dogspectus). Il infecte les utilisateurs Android par un SMS comprenant des liens vers des applications infectées. C’est par ce biais qu’il compromet la smart TV. En téléchargeant l’application, Flocker se cache d’abord pendant 30 minutes pour éviter les antivirus. Il essaye ensuite de gagner des privilèges administrateurs auprès de l’utilisateur. En cas de refus, il bloque l’écran et essaye d’obtenir les droits administrateurs. Une fois obtenus, il contacte le serveur C&C pour télécharger sa charge de ransomware. Il réclame des bons d’achat iTunes d’un montant de 200 dollars.
  • VMware rachète Arkin Net. Le spécialiste de la virtualisation s’empare de la start-up Arkin Net qui fournit des outils de sécurité, analytique et opérationnel pour le softwate defined datacenter. Avec cette acquisition, VMware veut apporter l’expertise d’Arkin Net sur le trafic réseau des datacenters et sur le déploiement de NSX (l’offre SDN de VMware). La filiale d’EMC va intégrer les outils de la jeune pousse à son outil de management, vRealize. Arkin Net reste agnostique, car il est capable de travailler avec différents équipementiers réseaux comme Cisco, Arista, Palo Alto, Brocade ou Juniper.
  • Les apps Microsoft s’invitent dans Cyanogen OS 13.1. En avril 2015, Cyanogen Inc signait un partenariat avec Microsoft en vue d’intégrer des applications de Redmond dans Cyanogen OS, une version ouverte et personnalisable d’Android. Un accord qui prend toute son ampleur dans Cyanogen 13.1. La nouvelle version de l’OS, notamment disponible sur les smatphones OnePlus One ou Zuk Mobile, intègre donc une série de nouvelles applications dont le client de communications unifiées Skype, l’assistant vocal Cortana (pour l’heure uniquement valable aux Etats-Unis), l’éditeur OneNote, Hyperlapse et Twitter. On notera que, à l’exception de ce dernier (dont les tweets peuvent s’afficher sur l’écran de verrouillage), toutes les nouvelles applications sont éditées par Microsoft qui en profite donc pour éjecter les habituels services de Google équivalents sur un environnement Android. Notons néanmoins que les constructeurs de smartphones qui ne souhaitent pas plus intégrer les services payants de Google que ceux de Microsoft pourront continuer à personnaliser les versions de Cyanogen MOD sur leurs smartphones.
  • Des sons au service de l’apprentissage des robots. Produire des sons à partir du contenus des images. C’est le projet dans lequel se sont lancés des chercheurs du Computer Science and Artificial Intelligence Laboratory (CSAIL) au MIT (Massachussetts Institute of Technology) avec pour ambitions de faire passer le test de Turing aux sons artificiellement produits. Autrement dit, un humain qui les écoute ne saurait distinguer s’ils proviennent de sons « naturels » (enregistrés en même temps que la prise de vue) ou « artificiels », c’est-à-dire générés par l’algorithme développé par les scientifiques à partir d’images muettes. Pour y parvenir, les scientifiques ont enregistré un millier de vidéos et plus de 46 000 sons générés à partir de frottements et autres frappes sur différents matériaux depuis une baguette de percussion. Ils ont ensuite « nourri » ces vidéos à l’aide d’un algorithme de type deep-learning qui déconstruit les sons et analyse leur nature. L’algorithme se charge alors de trouver les sons les plus appropriés à l’image analysée parmi les sons de la base de données et de les associer à la vidéo afin de créer une scène cohérente. Le modèle n’en est qu’à ses débuts et demande encore à être perfectionné puisque dans « seulement » 67% des cas, l’algorithme est capable de distinguer les sons durs des sons doux. Mais la recherche pourrait donner naissance à de nombreuses applications. Si on pense évidemment à l’automatisation des bruitages pour le cinéma et autre productions audiovisuelle (qui tuerait alors le métier), les chercheurs du MIT penchent plutôt à l’enseignement des robots. L’analyse d’un son apporte en effet des informations sur un environnement. Les images captées par des robots et enrichies de sons associés leur permettraient alors d’en apprendre plus sur leur environnement pour mieux l’appréhender. Une manière de mettre l’intelligence artificielle au service de l’apprentissage des sens…