
bluedesign - stock.adobe.com
Agent Bricks : Databricks optimise les assistants IA… grâce à l’IA
Les dirigeants de Databricks l’ont déjà dit : ils sont « nuls » pour trouver des noms de produits. Agent Bricks n’est donc pas à proprement parlé un outil pour créer des agents, mais il doit automatiser l’amélioration des résultats et accélérer les déploiements des assistants IA.
Si en France, Vivatech 2025 a volé la vedette aux événements technologiques américains, outre-Atlantique, le Data+AI Summit bat son plein. L’occasion pour Databricks de lancer la bêta d’Agent Bricks.
Propulsé par l’architecture de Mosaic AI et connecté aux autres services de la plateforme dont Unity Catalog, Agent Bricks est un service no-code/low-code conçu pour « rationaliser l’implémentation d’agents IA afin que les utilisateurs se concentrent sur le problème à résoudre, les données et les métriques », dixit l’éditeur.
« L’engouement pour les agents IA est omniprésent », pose Joel Minnick, vice-président marketing chez Databricks auprès du MagIT. « Les agents eux-mêmes ne le sont pas, en tout cas pas en production ».
Chez les clients de Databricks, les expérimentations et les POC iraient bon train, mais l’industrialisation serait une autre affaire. « En réalité, cela se résume à un problème de qualité et de coût, pas un problème de modèles d’IA », observe le responsable. Il faut ajouter à cela la complexité de ces systèmes composites et la nécessité de bâtir des évaluations qui émulent des conditions réalistes d’utilisation.
Une boucle d’optimisation des assistants IA
Agent Bricks visent à automatiser une grande partie de cet effort.
Il s’agit en premier lieu de préciser en langage naturel le cas d’usage à résoudre et de pointer vers un espace de travail contenant les données à traiter au sein de Databricks.
Agent Bricks « essaye » différents modèles d’IA à l’aide d’un système d’évaluation spécifique à la tâche décrite et aux données en utilisant au besoin des données synthétiques et des LLM as a judge.
« Les LLM ont été entraînés avec la quasi-totalité des données présentes sur Internet. Désormais, les fournisseurs de LLM exploitent des données synthétiques pour entraîner leur modèle », explique Joel Minnick. « C’est aussi nécessaire à plus petite échelle quand une entreprise ne dispose pas suffisamment d’informations pour atteindre la qualité requise ».
Si les réponses ne sont pas satisfaisantes, Agent Bricks combine différentes techniques, dont des approches de prompt engineering, de fine-tuning léger, d’algorithmes de récompenses ou d’adaptation des tests, afin d’améliorer la qualité des résultats. Un processus d’apprentissage par renforcement avec feed-back humain peut être activé en continu.
« Si nos évaluations indiquent qu’un modèle différent permettrait d’obtenir de meilleurs résultats, Databricks vous en informera sans frais supplémentaires », peut-on lire dans la documentation.
Par ailleurs, l’éditeur affirme que les clients peuvent choisir d’optimiser le déploiement pour les coûts ou la performance.
« Nous offrons une visibilité complète sur le fonctionnement des différentes versions de l’agent », assure Joel Minnick. « Vous pourrez ainsi constater que tel modèle atteint 95 % de qualité pour un coût donné, tandis qu’une approche alternative offre 90 % de qualité, mais à un coût trois fois inférieur », poursuit-il. « C’est à vous de déterminer le meilleur équilibre qualité-prix pour votre cas d’usage spécifique. Une fois votre décision prise, vous pourrez déployer la solution en production tout en bénéficiant d’un processus d’amélioration continue qui permettra d’optimiser progressivement les performances de l’agent ».
Cette approche, en apparence plus coûteuse, octroierait des gains exponentiels.
« Lors des phases d’accès anticipé, nous avons observé une hausse moyenne de 10 % de précision chaque fois qu’Agent Bricks accomplissait une boucle d’optimisation », déclare Joel Minnick.
Agent Bricks : un nom qui ne tient pas encore toutes ses promesses
Pour l’instant, Agent Bricks porte mal son nom. Il permet en premier lieu :
- de déployer un assistant pour extraire des informations de documents textuels afin de les convertir au format JSON,
- de bâtir un assistant de « connaissances » capable d’explorer des bases de connaissances RAG,
- de personnaliser un LLM à accomplir des tâches de génération de textes spécifique à un domaine.
Selon les visuels de Databricks, il sera possible de concevoir et de déployer un superviseur multiagent avec Agent Bricks. Quatre autres cas d’usage génériques semblent en développement, mais l’éditeur a décidé de ne pas communiquer sur ces usages. Un LLM multimodal suffit pour « deviner » ces fonctions à partir d’une capture d’écran. Elles ne sont pas directement liées à l’agentique, mais davantage au traitement de données structurées et non structurées.
Cela ne veut pas dire que c’est inutile. « Avec Agent Bricks, nos équipes ont pu parser 400 000 documents issus d’études cliniques et extraire des points de données structurées sans écrire une ligne de code », écrit Joseph Roemer, Head of Data & AI, Commercial IT, chez AstraZeneca, dans un communiqué de presse. « En moins d’une heure, nous avons obtenu un “agent” qui peut transformer des données non structurées complexes pour les rendre exploitable [à travers une plateforme] analytique ».
Un autre client avance qu’il a gagné un mois de travail avec ce même cas d’usage d’extraction d’informations.
« Construire des agents n’est pas nécessairement complexe », estime Joel Minnick. « Ce qui est difficile, c’est d’obtenir de bons résultats et de les expliquer. C’est le problème que résout Agent Bricks ».
Le vice-président marketing évoque le cas de clients de l’industrie automobile dont l’assistant recommandait les véhicules de concurrents ou en imaginait certains qui n’existent pas.
Aux développeurs et aux entreprises de s’appuyer sur ces LLM personnalisés pour créer de véritables agents, c’est-à-dire des systèmes capables de réaliser de manière plus ou moins autonome des actions dans des systèmes tiers.
« Il y a très peu de plateformes avec lesquelles Databricks ne peut pas communiquer », vante Joel Minnick. « Tant que les données peuvent être partagées en format Parquet, Iceberg ou Delta lake, nous pouvons les lire et les écrire », ajoute-t-il. « Si elles ne sont pas enregistrées dans ces formats, nous disposons, grâce à nos propres connecteurs natifs ainsi que ceux fournis par certains de nos partenaires, de liaisons vers pratiquement tous les systèmes de données existants ».
Passer du « sur étagère » au « clé en main »
Pour rappel, la semaine dernière, Snowflake effectuait ces annonces en préversion autour des agents IA, notamment pour faciliter les migrations vers sa plateforme, examiner des données ou créer des pipelines de machine learning.
« Agent Bricks renforce la stratégie de Databricks qui consiste à aider les data scientists à construire des applications d’IA agentique », considère Kevin Petrie, analyste chez BARC US auprès de SearchDataManagment, une publication sœur du MagIT. « Cela contraste avec Snowflake, qui se concentre davantage sur la fourniture d’agents prêts à l’emploi et de modèles agentiques destinés aux data analysts moins qualifiés techniquement ».
Kevin Petrie estime que Databricks devrait faire de même. « Cela permettrait à Databricks d’élargir son marché adressable et de prendre des parts à des concurrents comme Snowflake ».
Pour approfondir sur IA appliquée, GenAI, IA infusée
-
Databricks aiguise ses outils de migration, d’ingestion et de transformation de données
-
ServiceNow rachète Data.world pour mettre les données au service de l’IA
-
Dataiku entend centraliser la gestion des projets d’IA agentique
-
Google veut « fonder une famille » d’Agents IA dédiée à la gestion de données