L’IA étant un cas d’utilisation du cloud hybride, des données publiques sont utilisées pour créer un modèle de base. Il faut ensuite affiner et augmenter ce modèle pour le rendre plus spécifique à l’entreprise, et cela ne peut vraiment se faire que dans le data center de l’entreprise.
Avec une infrastructure en tant que service, la perte de données est inévitable. Toute l’inférence se fait ensuite à la périphérie.
Le sujet de l’algèbre linéaire redevient clé pour aider à faire avancer les projets d’applications basées sur l’IA. De nombreuses opérations en IA, comme les transformations, les rotations et la mise à l’échelle, sont des opérations d’algèbre linéaire. Elle pourrait faire avancer les applications d’IA telles que le traitement du langage naturel et la vision par ordinateur.
La maîtrise de l’algèbre linéaire permet de comprendre les modèles qui décrivent l’impact des changements sur les résultats, ce qui permet de déboguer et d’améliorer les modèles. L’algèbre linéaire est essentielle pour analyser et trouver un sens aux ensembles de données complexes et volumineux utilisés dans les applications d’IA.
Les développeurs ne devraient pas avoir à se soucier de l’infrastructure. Ils pensent avant tout aux applications cloud hybride et à la gestion de leurs modèles. Ils recherchent le bon modèle et l’infrastructure peut les y aider. Si l’infrastructure comprend ce qu’est un modèle – et ce qu’est une version d’un modèle – On peut obtenir ce modèle à partir du cloud public et le rendre disponible pour affinage, sans que le développeur n’ait à aller chercher les données.
La clé du succès réside dans une infrastructure cohérente et évolutive capable de couvrir l’ensemble du flux de travail de l’IA : de la formation dans le cloud, à l’enrichissement, en passant par le raffinement et la formation dans les centres de données principaux, et l’inférence à la périphérie.
Le règne des unités de traitement graphique (GPU) dans le domaine du calcul à haute performance, qui alimente les systèmes d’IA, est en train de s’essouffler. En particulier pour les tâches qui nécessitent un traitement parallèle, telles que le rendu vidéo et l’apprentissage profondeur (deep learning). D’autres technologies émergent actuellement comme alternatives aux GPU.
Les chercheurs font progresser l’utilisation des unités de traitement tensoriel (TPU), des réseaux de portes programmables (FPGA) et même des unités centrales de traitement (CPU) à usage général. Les logiciels finiront par aider les systèmes informatiques à choisir les ressources de traitement les plus disponibles et efficaces.
Contrairement à l’architecture « scale-up », où l’expansion est verticale et implique l’ajout de puissance à une machine existante (par exemple plus de CPU), l’infrastructure « scale-out » est horizontale et implique l’ajout de machines ou de nœuds à un réseau pour augmenter la capacité.
Dans le cas d’une application de cloud hybride, on doit pouvoir s’appuyer sur une infrastructure scale out pour permettre aux modèles de parcourir le chemin depuis la périphérie jusqu’au data center et au cloud public.
ChatGPT a eu un succès des plus fulgurants. Ce succès a marqué le début d’une…
À partir du 28 juin 2025, date de l’entrée en vigueur de la directive européenne…
Un Managed Security Service Provider Active Directory (MSSP AD) s’appuie sur des outils conçus pour…
Face au niveau de sophistication croissant des cyberattaquants, qui disposent d’outils toujours plus innovants, ciblant…
Voici en 10 points, les possibilités qu’offre l’IA pour optimiser vos systèmes de cybersécurité.
La traque des risques ne devrait pas se limiter à la conformité réglementaire. Ces audits…