Un peu plus de deux ans ont passé depuis que Microsoft a mis la main sur Lobe.
Il y a quelques semaines, la firme de Redmond a commencé à constituer un écosystème (dépôt GitHub, communauté Reddit…) autour de l’application dont cette start-up américaine est à l’origine. Une nouvelle étape vient d’être franchie, avec le lancement d’une bêta publique.
Disponible sur Windows et Mac, l’application permet de développer des modèles d’IA sans coder. Elle se limite pour le moment à une discipline : la classification d’images. C’est-à-dire l’attribution d’étiquettes (ou labels) en fonction du contenu. La détection d’objets et la classification de données en tableaux sont sur la feuille de route.
Pour développer un modèle, on commence par importer les images (formats pris en charge : jpeg, png, bitmap et WebP) qui serviront d’exemples. Plusieurs options sont disponibles :
Lobe détoure automatiquement les images et en crée des variations sur différents paramètres : luminosité, contraste, saturation, rotation, niveau de zoom, etc. C’est ensuite à l’utilisateur d’y associer des labels.
Pour entraîner un modèle, l’application exploite 80 % des images étiquetées. Elle exploite un algorithme différent selon l’option qu’on a retenue au préalable : privilégier la rapidité d’exécution du modèle (auquel cas MobileNetV2 est mis à contribution) ou la précision (ResNet-50).
Les 20 % d’images qui restent permettent de tester le modèle. À partir de là, on peut l’améliorer, y compris en évaluant ses performances « en direct ». Une fois l’objectif atteint, on peut l’exporter aux formats Core ML, TensorFlow ou TensorFlow Lite, ou pour une exploitation en API locale.
Microsoft conseille d’utiliser, pour entraîner les modèles les plus simples, entre 100 et 1 000 images. Et recommande de bien équilibrer les exemples entre les labels, pour éviter tout biais. Tout en précisant que Lobe ne prend pas en charge l’annulation des tâches : faites une copie de votre projet avant toute modification importante, nous avertit-on.
Lobe requiert au minimum un CPU Core i3 avec SSE2 et AVX. L’entraînement sur GPU n’est pas encore disponible.
Illustration principale © Jakub Jirsk – Fotolia
OpenAI orchestre un déploiement très progressif de GPT-4o, y compris de ses capacités multimodales.
Elon Musk avait racheté le nom de domaine X.com à PayPal en 2017. Depuis juillet 2023,…
Des centaines d'ingénieurs en IA et cloud travaillant pour Microsoft se voient proposer de quitter…
Reddit s'ajoute à la liste des « partenaires data » d'OpenAI. Qui rejoint-il ?
Younited a utilisé PaLM 2 puis Gemini pour catégoriser des transactions bancaires en vue de…
Les États-Unis vont tripler leur capacité nationale de fabrication de puces et contrôler 30 %…