Table des matières de l'article :
MariaDB est un puissant système de gestion de bases de données relationnelles open source, connu pour son évolutivité, sa fiabilité et sa conformité aux normes. Dérivé de MySQL, MariaDB offre un certain nombre de fonctionnalités avancées qui en font un choix populaire auprès des développeurs et des entreprises du monde entier.
MariaDB Corporation est la société qui développe et prend en charge MariaDB. Fondée par certains des développeurs originaux de MySQL, MariaDB Corporation se consacre à fournir des solutions de bases de données de haute qualité qui répondent aux besoins modernes de gestion des données. Forte d'un engagement ferme envers l'open source, MariaDB Corporation travaille en étroite collaboration avec la communauté pour innover et améliorer constamment le logiciel MariaDB, garantissant ainsi des performances, une sécurité et une fiabilité élevées à ses utilisateurs.
En fait, avec l’avènement de l’intelligence artificielle, il a été établi que les bases de données relationnelles constituent l’endroit idéal pour les données d’IA. Les utilisateurs ont besoin de leurs vecteurs avec le reste de leurs données, dans une base de données standard offrant performances, évolutivité et toutes les autres vertus traditionnelles, telles que la conformité ACID.
C'est pour cette raison que MariaDB Corporation développe MariaDB Vector, dont une première version préliminaire devrait être publiée d'ici la fin du mois.
Prise en charge d'Amazon pour MariaDB Vector
MariaDB Corporation n'est pas la seule à prendre en charge cette logique. Amazon lui-même, par l'intermédiaire de Sirish Chandrasekharan, directeur général d'Amazon Relational Database Services et membre du conseil d'administration de la Fondation MariaDB, soutient cette vision. Lors d'un entretien avec The New Stack lors de l'Open Source Summit 2024 à Seattle, Chandrasekharan a expliqué de manière claire et concise l'importance d'intégrer l'IA générative dans les bases de données relationnelles.
Deux concepts clés de l'IA générative : LLM et RAG
L'IA générative est un domaine de l'intelligence artificielle qui traite de la création de nouveaux contenus à l'aide de données existantes. Cette technologie ne se limite pas à un seul type de données, mais englobe un large éventail d'applications, notamment le texte, les images, la vidéo et même l'audio. Par exemple, les modèles d’IA générative peuvent rédiger des articles, générer des images réalistes à partir de descriptions textuelles, créer des vidéos animées ou même composer de la musique.
Le mot « génératif » suggère la capacité de créer de nouvelles données, mais dans le contexte des bases de données vectorielles, il s'agit également de récupérer et de rechercher des données de manière intelligente. En d’autres termes, même si l’IA générative peut effectivement créer de nouveaux contenus, dans les bases de données vectorielles, elle se concentre sur l’optimisation de la recherche et de la récupération d’informations pertinentes à partir de données existantes. Cela se produit grâce à la capacité de l'IA à effectuer des recherches basées sur des critères moins rigides et plus nuancés, en utilisant des caractéristiques qui simulent la pensée humaine.
LLM, de grands modèles de langage, sont ceux où les connaissances sont intelligemment codées. Ces modèles ne sont pas des bases de données relationnelles et ne le deviendront jamais, car ils représentent des instantanés statiques créés (« formés ») à des moments précis et ne sont mis à jour qu'à la prochaine session de formation.
CHIFFON, génération augmentée par la récupération, est un terme qui devient de plus en plus populaire. Cette technologie vous permet de mettre à jour dynamiquement les LLM en utilisant vos propres données. Les LLM sont statiques et seules quelques entités sont suffisamment grandes pour créer (« former ») les leurs. Avec RAG, les utilisateurs de toute taille peuvent créer (« vectoriser » ou « intégrer ») des représentations de leurs données, en utilisant l'intelligence du LLM de leur choix pour interpréter ces données.
Les grands modèles de langage, ou LLM, constituent la base de la plupart des applications d'IA génératives. Ces modèles sont formés sur de grandes quantités de données textuelles, ce qui leur permet de comprendre et de générer intelligemment le langage humain. Les LLM codent les connaissances dans des structures complexes, leur permettant de répondre à des questions, de traduire des langues, de résumer des textes et bien plus encore. Cependant, il est important de noter que les LLM ne sont pas des bases de données relationnelles. Ils représentent des instantanés statiques créés au cours de périodes de formation spécifiques et ne sont pas continuellement mis à jour. Une fois formés, les LLM restent inchangés jusqu'à la prochaine session de formation, ce qui peut prendre du temps et des ressources. Cette limitation signifie que les informations contenues dans les LLM peuvent devenir rapidement obsolètes dans un monde où les données et les connaissances évoluent constamment. La capacité à mettre à jour et à maintenir la pertinence de ces modèles constitue donc un défi de taille.
La génération augmentée par récupération, ou RAG (Retrieval-Augmented Generation), est une technologie émergente qui gagne rapidement en popularité. Cette méthodologie permet aux LLM d'être mis à jour dynamiquement à l'aide de données spécifiques à l'utilisateur. En pratique, RAG combine la puissance des LLM avec la capacité de rechercher et de récupérer des données provenant d'autres sources, créant une synergie qui améliore considérablement la pertinence et l'exactitude des réponses générées. Avec RAG, même les petites et moyennes entreprises peuvent tirer parti de la puissance des LLM sans avoir à gérer le coût et la complexité de la formation de leurs propres modèles. Grâce à RAG, les utilisateurs peuvent « vectoriser » ou « intégrer » leurs données spécifiques, créant ainsi des représentations qui peuvent être facilement interprétées par les LLM. Cela permet d’adapter les réponses de l’IA à des données commerciales spécifiques, améliorant ainsi l’efficacité des applications d’IA générative dans des contextes commerciaux.
La synergie entre LLM et RAG est cruciale pour surmonter les limitations intrinsèques des modèles de langage statiques. Bien que les LLM offrent une base solide de connaissances générales, la capacité de RAG à incorporer des données à jour et spécifiques au contexte permet une plus grande personnalisation et pertinence des réponses. Ceci est particulièrement utile dans les environnements où les données évoluent rapidement ou où les besoins des utilisateurs sont très spécifiques. Par exemple, dans le secteur médical, un LLM peut fournir des informations générales sur les maladies, mais l'intégration avec RAG peut permettre de récupérer et de présenter les dernières recherches ou données cliniques, améliorant ainsi considérablement la qualité des informations fournies aux professionnels de la santé.
Vecteurs, bases de données vectorielles et indices vectoriels
L'ACIDE est toujours une vertu
ACID, qui signifie Atomicité, Cohérence, Isolation et Durabilité, représente les quatre vertus fondamentales des transactions dans les bases de données relationnelles. Ces principes garantissent que chaque transaction est exécutée de manière complète et fiable, en maintenant l'intégrité des données même en cas d'erreurs ou de pannes du système. L'atomicité garantit que chaque transaction est une unité indivisible ; la cohérence garantit que la base de données passe d'un état valide à un autre ; l'isolement empêche les transactions d'interférer les unes avec les autres ; et la durabilité garantit que les résultats des transactions persistent même après une panne du système.
Même dans le contexte de l’IA générative, ces vertus restent essentielles pour garantir la fiabilité et la sécurité des données. L'IA générative nécessitant de grandes quantités de données et des opérations complexes, le maintien des propriétés ACID est crucial pour prévenir la corruption des données et garantir que les opérations de lecture et d'écriture sont toujours cohérentes et sécurisées. Cela devient particulièrement important lors de l'intégration de fonctionnalités avancées telles que la gestion des vecteurs et l'IA dans la base de données, car tout compromis dans l'intégrité des données pourrait avoir des impacts significatifs sur les opérations commerciales et la qualité des informations générées par l'IA.
Points saillants de l'interview de Sirish Chandrasekharan
Chandrasekharan a souligné plusieurs points clés lors de son entretien :
- Les clients fondent leur activité sur des bases de données relationnelles, essentielles à leur activité.
- Les bases de données Open Source ont atteint un bon niveau, permettant aux entreprises de s'appuyer sur elles.
- AWS augmente ses investissements dans l'Open Source.
- Pour que l’IA générative soit efficace, elle doit être basée sur des données existantes et accumulées, trouvées dans les SGBDR.
- RAG vous permet de personnaliser un LLM pour les besoins de votre entreprise.
- Il n'est pas nécessaire de créer de nouvelles bases de données vectorielles ; les vecteurs devraient être intégrés dans les bases de données existantes.
- PostgreSQL dispose déjà d'un plugin de stockage vectoriel pris en charge par AWS, qui prend également en charge le travail vectoriel de la Fondation MariaDB.
- Amazon est le troisième contributeur à MariaDB Server, après MariaDB plc et MariaDB Foundation.
MariaDB Vector : un regard vers le futur
MariaDB Corporation et MariaDB Foundation travaillent depuis un certain temps sur MariaDB Vector, un projet innovant qui apportera des fonctionnalités avancées de recherche vectorielle à la base de données MariaDB. Ce développement représente une étape importante vers l’intégration des capacités d’IA directement dans les bases de données relationnelles, améliorant considérablement la capacité de gérer et de rechercher des données complexes.
Le premier aperçu développeur de MariaDB Vector sera disponible en mai et se concentrera sur la mise en œuvre de la méthode Hierarchical Navigable Small World (HNSW), qui est généralement considérée comme meilleure que IVFFlat (Inverted File Flat) en raison de ses performances d'évolutivité supérieures et de sa précision dans requêtes de recherche. Ce choix technique garantira que MariaDB Vector pourra gérer efficacement de grands volumes de données vectorielles, offrant des temps de réponse rapides et des résultats précis, ce qui le rendra idéal pour les applications critiques nécessitant des performances élevées.
Contrairement à d'autres solutions comme PG Vector, les fonctions de recherche de vecteurs dans MariaDB seront intégrées directement au cœur du serveur. Cela signifie qu'aucune extension supplémentaire ne sera nécessaire pour profiter de ces fonctionnalités avancées, simplifiant considérablement le processus de mise en œuvre et de maintenance pour les utilisateurs. L'intégration native dans le serveur garantira également une plus grande efficacité et cohérence dans les opérations de base de données, offrant une expérience utilisateur plus fluide et plus fiable.
MariaDB Vector séparera les grands modèles de langage (LLM) des binaires du serveur, permettant aux utilisateurs de choisir librement entre les différents LLM disponibles sur le marché, tels que ChatGPT, Claude et LLaMa2. Cette flexibilité permet aux entreprises de sélectionner le modèle qui répond le mieux à leurs besoins spécifiques, sans être liées à une solution unique. De plus, il vous permet de mettre à jour ou de modifier les modèles utilisés sans avoir à modifier l'infrastructure de la base de données, garantissant une plus grande adaptabilité et pérennité des solutions mises en œuvre.
Le principal cas d'utilisation de MariaDB Vector sera la génération augmentée de récupération (RAG), une technique qui combine la puissance des LLM avec la capacité de récupérer des données spécifiques et pertinentes de la base de données. Cette approche permettra de personnaliser les réponses de l'IA en fonction de données commerciales spécifiques, améliorant ainsi considérablement la pertinence et l'utilité des informations générées. Cependant, des cas d'utilisation concrets de MariaDB Vector sont encore en cours de définition et de développement, avec de nouvelles applications et de nouveaux scénarios d'utilisation émergeant à mesure que la technologie est adoptée et testée sur le terrain.
Tester le vecteur MariaDB
MariaDB Corporation invite les utilisateurs à tester MariaDB Vector, avec une version nocturne disponible en succursale bb-11.4-vec-aperçu. La version développeur sera stable d’ici fin mai, prête à être testée sur des cas d’utilisation courants.
L’IA générative n’est pas qu’un battage médiatique, et sa combinaison avec des bases de données relationnelles open source constitue la prochaine étape cruciale. Autour du FOSDEM en mars, les fonctionnalités de base de MariaDB Vector ont déjà été démontrées. Vous pourrez bientôt obtenir la première version préliminaire de MariaDB Vector sur les pages de téléchargement de MariaDB.