Tendance 2024 : l’évolution de l’intelligence artificielle sera un tremplin pour l’IT

IA
Google IA générative GPT-4

Selon Nutanix, l’IA va s’imposer dans le cloud, son évolution reposera sur l’algèbre linéaire, les systèmes d’infrastructure vont changer et les GPU seront mis de côté alors qu’Apple ne s’est pas encore prononcé sur le sujet.

Les entreprises se tournent de plus en plus vers le cloud hybride

L’IA étant un cas d’utilisation du cloud hybride, des données publiques sont utilisées pour créer un modèle de base. Il faut ensuite affiner et augmenter ce modèle pour le rendre plus spécifique à l’entreprise, et cela ne peut vraiment se faire que dans le data center de l’entreprise.

Avec une infrastructure en tant que service, la perte de données est inévitable. Toute l’inférence se fait ensuite à la périphérie.

L’algèbre linéaire revient à la page

Le sujet de l’algèbre linéaire redevient clé pour aider à faire avancer les projets d’applications basées sur l’IA. De nombreuses opérations en IA, comme les transformations, les rotations et la mise à l’échelle, sont des opérations d’algèbre linéaire. Elle pourrait faire avancer les applications d’IA telles que le traitement du langage naturel et la vision par ordinateur.

La maîtrise de l’algèbre linéaire permet de comprendre les modèles qui décrivent l’impact des changements sur les résultats, ce qui permet de déboguer et d’améliorer les modèles. L’algèbre linéaire est essentielle pour analyser et trouver un sens aux ensembles de données complexes et volumineux utilisés dans les applications d’IA.

Les organisations rationalisent l’infrastructure

Les développeurs ne devraient pas avoir à se soucier de l’infrastructure. Ils pensent avant tout aux applications cloud hybride et à la gestion de leurs modèles. Ils recherchent le bon modèle et l’infrastructure peut les y aider. Si l’infrastructure comprend ce qu’est un modèle – et ce qu’est une version d’un modèle – On peut obtenir ce modèle à partir du cloud public et le rendre disponible pour affinage, sans que le développeur n’ait à aller chercher les données.

La clé du succès réside dans une infrastructure cohérente et évolutive capable de couvrir l’ensemble du flux de travail de l’IA : de la formation dans le cloud, à l’enrichissement, en passant par le raffinement et la formation dans les centres de données principaux, et l’inférence à la périphérie.

La fin de l’ère des GPU

Le règne des unités de traitement graphique (GPU) dans le domaine du calcul à haute performance, qui alimente les systèmes d’IA, est en train de s’essouffler. En particulier pour les tâches qui nécessitent un traitement parallèle, telles que le rendu vidéo et l’apprentissage profondeur (deep learning). D’autres technologies émergent actuellement comme alternatives aux GPU.

Les chercheurs font progresser l’utilisation des unités de traitement tensoriel (TPU), des réseaux de portes programmables (FPGA) et même des unités centrales de traitement (CPU) à usage général. Les logiciels finiront par aider les systèmes informatiques à choisir les ressources de traitement les plus disponibles et efficaces.

L’infrastructure scale-out sera essentielle

Contrairement à l’architecture « scale-up », où l’expansion est verticale et implique l’ajout de puissance à une machine existante (par exemple plus de CPU), l’infrastructure « scale-out » est horizontale et implique l’ajout de machines ou de nœuds à un réseau pour augmenter la capacité.

Dans le cas d’une application de cloud hybride, on doit pouvoir s’appuyer sur une infrastructure scale out pour permettre aux modèles de parcourir le chemin depuis la périphérie jusqu’au data center et au cloud public.

 


Auteur
En savoir plus 
SVP & General Manager of Hybrid Multicloud
Nutanix
En savoir plus 

Livres blancs A la Une