Databricks étoffe son édition communautaire : l'enjeu des compétences
Databricks renomme son édition communautaire et en étend le périmètre fonctionnel, avec l'espoir de la mettre dans davantage de mains.

Utilisateurs de l'édition communautaire, prière de créer un nouveau compte.
Databricks a fait passer le message à l'occasion de son Data + AI Summit. En toile de fond, une évolution sur deux plans : la marque ("Community Edition" devient "Free Edition")... et le contenu. Promesse : une quasi-parité fonctionnelle avec l'offre payante. En donnant, entre autres, accès à Lakeflow (ETL/ELT), à MosaicML (MLOps) et à Databricks Assistant (IA de codage).
En ouvrant davantage de briques à la communauté au-delà de son option d'essai gratuit (14 jours avec 40 $ de crédits), Databricks cherche à étoffer le vivier de compétences autour de ses solutions. Une démarche qui fait écho au dernier Magic Quadrant des plates-formes DSML (data science & machine learning). Gartner y souligne la courbe d'apprentissage que supposent lesdites solutions.
Plafonnement des ressources d'infrastructure
L'édition communautaire n'étant pas destinée à un usage en prod, elle présente des limites sur le volet administratif. Par exemple, l'absence de SSO, de réseau privé et d'accès à la console du compte. Sur la partie fonctionnelle, sont notamment indisponibles :
- R et Scala
- Tables en ligne
- Clean rooms
- Emplacements de stockage personnalisés pour les workspaces
L'infrastructure est également limitée :
- Accès uniquement aux ressources serverless* (sur AWS), sans GPU ni configs personnalisées
- Trafic sortant restreint à un ensemble de domaines de confiance
- Un seul entrepôt SQL, de taille maximale 2X-Small
- Maximum 5 jobs concurrents
- Pour chaque type de pipeline, pas plus d'un actif
- Pas de débit provisionné sur les endpoints de modèles
- Un seul endpoint de recherche vectorielle
En cas de dépassement de quota, les ressources de calcul sont coupées pour le reste de la journée - ou du mois "dans les cas extrêmes".
L'édition communautaire n'a ni SLA, ni support de la part de Databricks.
Les comptes legacy fonctionneront "pour le reste de l'année".
* Les ressources serverless ont des limites applicables à tous les niveaux de l'offre : pas de prise en charge des bibliothèques JAR, impossibilité d'accéder à Internet via les fonctions définies par l'utilisateur, absence d'isolation des exécutions dans la journalisation des tâches, etc.
Illustration principale © TensorSpark - Adobe Stock
Sur le même thème
Voir tous les articles Data & IA