Pour gérer vos consentements :

Quand le Deep Learning permet aux aveugles d’écouter leur environnement

Le Deep Learning, réservé aux grands datacenters du Cloud et aux supercalculateurs ? Un a priori que le fournisseur de puces graphiques (GPU) Nvidia s’emploie à combattre. Depuis mai, la société de Santa Clara commercialise une plateforme de développement, Jetson TX1 (successeur du TK1), basée sur ses puces graphiques et permettant de développer des applications pour ce que Nvidia appelle l’informatique visuelle, l’association de capteurs permettant de balayer l’environnement (caméras, lidars…) et du Deep Learning, cet ensemble d’algorithmes d’IA amenant une machine à interpréter cet environnement.

Luca Nardelli

Une association qu’on retrouve notamment dans le projet Horus, qui vise à faciliter le quotidien des aveugles. Né au sein de l’IIT (Institut italien de technologies) de Gênes, ce projet a donné naissance à une start-up de 15 personnes. Le dispositif, composé d’un boîtier et d’un casque léger supportant caméras, haut-parleurs et microphone, permet aux malvoyants et aux aveugles d’être avertis, via le son, d’éventuels obstacles dans leur environnement, mais aussi de prendre connaissance de ce dernier. « Nous avons développé un prototype avancé de notre offre, aujourd’hui testé par une poignée d’utilisateurs afin de régler le logiciel en fonction de leurs besoins réels. La production en masse démarrera en mars ou avril prochain », assure Luca Nardelli, co-fondateur et directeur technique Eyra.io, la jeune société qui pilote ce projet.

Reconnaissance de textes, d’objets, de visages

Un dispositif qui repose bien-sûr sur des capteurs, mais aussi sur l’emploi de technologies d’IA qui tournent sur le boîtier autonome, en pratique un ordinateur miniaturisé à base de puce Tegra K1  de Nvidia et embarquant des algorithmes de Deep Learning. L’utilisateur dispose de boutons pour enclencher les différentes applications supportées, qui toutes ont recours à l’IA : reconnaissance de textes, reconnaissance faciale, reconnaissance d’objets, application de mobilité pour détecter des obstacles dans l’environnement et descriptions de scènes. « Horus est capable de fonctionner indépendamment de toute connexion Internet, précise Luca Nardelli. Mais le dispositif intègre tant une connexion WiFi que Bluetooth pour des éventuelles mises à jour. Nous réfléchissons aussi à de futures intégrations avec des projets tiers, par exemple en matière de ville intelligente ». La commercialisation d’Horus devrait débuter en Italie (entre 1500 et 2000 euros), mais le directeur technique assure que le portage dans d’autres langues ne représente pas un gros effort de développement. Eyra.io dit ainsi être en contact avec des représentants d’associations spécialisées dans l’Hexagone.

Le Deep Learning gourmand en GPU

Carte Jetson TX1.

Le cas d’Horus est en tout emblématique de l’intelligence que peuvent désormais embarquer les objets. Une tendance sur laquelle entend surfer Nvidia, dont les GPU sont massivement utilisées par les applications de Deep Learning en raison de leur capacité à effectuer de multiples calculs en parallèle. Pour Serge Palaric, le vice-président ventes et marketing embarqué et OEM de Nvidia en Europe, les constructeurs de terminaux ont, à leur disposition, plusieurs options : « si on prend le cas des caméras, on en compte au moins trois. Soit on embarque toute l’intelligence dans la caméra avec, par exemple, une carte Jetson TX1 ou une puce Tegra K1, qui s’adapte bien aux formats plus contraints et ne consomme que 5 à 6 W. Soit on effectue les traitements des données au niveau de l’enregistreur vidéo, qui fédère entre 20 et 30 caméras sur le réseau de vidéosurveillance de Londres par exemple. Ou alors on centralise tout sur des serveurs. » Dans ses derniers résultats trimestriels (1,3 milliard de dollars, +13 %), le constructeur californien n’avait pas manqué de pointer le rôle d’accélérateur joué par le Deep Learning dans sa croissance. « Son adoption touche une industrie après l’autre, stimulant la demande pour nos GPU », disait ainsi au printemps dernier Jen-Hsun Huang, le Pdg.

Et ce même si le jeu vidéo continue à peser plus de 50 % de l’activité du concepteur de puces. Mais, au final, jeu et IA sont en train de faire la jonction. Comme le montrent les exemples de Google et OpenAI, l’initiative lancée par Elon Musk, qui ont tous deux donné accès à des environnements d’entraînement des IA basés… sur des jeux vidéo.

A lire aussi :

OpenAI et Google ouvrent leurs classes primaires pour l’IA

Facebook traite la vidéo en temps réel avec du deep learning

Nvidia met 5,3 téraflops DP de puissance dans un unique GPU

Recent Posts

Après la NAND, Intel dit stop à la gamme Optane

Après avoir vendu son activité NAND, Intel tire un trait sur la technologie 3D XPoint,…

2 semaines ago

Google Analytics : la Cnil a posé les règles du jeu

Près de six mois ont passé depuis de que la Cnil a déclaré l'usage de…

2 semaines ago

Truffle 100 France : le top 20 des éditeurs de logiciels

Truffle 100 France : qui sont les 21 entreprises qui ont dépassé, en 2021, les…

2 semaines ago

Cloud : AWS brocarde les politiques de licences Microsoft

Un dirigeant d'Amazon Web Services dénonce des "changements cosmétiques" apportés par Microsoft à ses politiques…

2 semaines ago

Sécurité du code au cloud : Snyk Cloud, un joker pour développeurs

Snyk officialise le lancement de sa solution de sécurité cloud pour développeurs, Snyk Cloud, fruit…

2 semaines ago

Cegid accroche Grupo Primavera à son tableau d’acquisitions

Cegid va absorber Grupo Primavera, plate-forme de logiciels de gestion d'entreprise née dans la péninsule…

2 semaines ago