18 juin 2024

Vecteur MariaDB. MariaDB sera très bientôt une base de données vectorielle

MariaDB Vector, une base de données vectorielle utilisée pour l'intelligence artificielle qui pourrait dépasser MySQL Server et Percona Server

MariaDB-Vecteur

MariaDB est un puissant système de gestion de bases de données relationnelles open source, connu pour son évolutivité, sa fiabilité et sa conformité aux normes. Dérivé de MySQL, MariaDB offre un certain nombre de fonctionnalités avancées qui en font un choix populaire auprès des développeurs et des entreprises du monde entier.

MariaDB Corporation est la société qui développe et prend en charge MariaDB. Fondée par certains des développeurs originaux de MySQL, MariaDB Corporation se consacre à fournir des solutions de bases de données de haute qualité qui répondent aux besoins modernes de gestion des données. Forte d'un engagement ferme envers l'open source, MariaDB Corporation travaille en étroite collaboration avec la communauté pour innover et améliorer constamment le logiciel MariaDB, garantissant ainsi des performances, une sécurité et une fiabilité élevées à ses utilisateurs.

En fait, avec l’avènement de l’intelligence artificielle, il a été établi que les bases de données relationnelles constituent l’endroit idéal pour les données d’IA. Les utilisateurs ont besoin de leurs vecteurs avec le reste de leurs données, dans une base de données standard offrant performances, évolutivité et toutes les autres vertus traditionnelles, telles que la conformité ACID.

C'est pour cette raison que MariaDB Corporation développe MariaDB Vector, dont une première version préliminaire devrait être publiée d'ici la fin du mois.

Prise en charge d'Amazon pour MariaDB Vector

MariaDB Corporation n'est pas la seule à prendre en charge cette logique. Amazon lui-même, par l'intermédiaire de Sirish Chandrasekharan, directeur général d'Amazon Relational Database Services et membre du conseil d'administration de la Fondation MariaDB, soutient cette vision. Lors d'un entretien avec The New Stack lors de l'Open Source Summit 2024 à Seattle, Chandrasekharan a expliqué de manière claire et concise l'importance d'intégrer l'IA générative dans les bases de données relationnelles.

Deux concepts clés de l'IA générative : LLM et RAG

L'IA générative est un domaine de l'intelligence artificielle qui traite de la création de nouveaux contenus à l'aide de données existantes. Cette technologie ne se limite pas à un seul type de données, mais englobe un large éventail d'applications, notamment le texte, les images, la vidéo et même l'audio. Par exemple, les modèles d’IA générative peuvent rédiger des articles, générer des images réalistes à partir de descriptions textuelles, créer des vidéos animées ou même composer de la musique.

Le mot « génératif » suggère la capacité de créer de nouvelles données, mais dans le contexte des bases de données vectorielles, il s'agit également de récupérer et de rechercher des données de manière intelligente. En d’autres termes, même si l’IA générative peut effectivement créer de nouveaux contenus, dans les bases de données vectorielles, elle se concentre sur l’optimisation de la recherche et de la récupération d’informations pertinentes à partir de données existantes. Cela se produit grâce à la capacité de l'IA à effectuer des recherches basées sur des critères moins rigides et plus nuancés, en utilisant des caractéristiques qui simulent la pensée humaine.

LLM, de grands modèles de langage, sont ceux où les connaissances sont intelligemment codées. Ces modèles ne sont pas des bases de données relationnelles et ne le deviendront jamais, car ils représentent des instantanés statiques créés (« formés ») à des moments précis et ne sont mis à jour qu'à la prochaine session de formation.

CHIFFON, génération augmentée par la récupération, est un terme qui devient de plus en plus populaire. Cette technologie vous permet de mettre à jour dynamiquement les LLM en utilisant vos propres données. Les LLM sont statiques et seules quelques entités sont suffisamment grandes pour créer (« former ») les leurs. Avec RAG, les utilisateurs de toute taille peuvent créer (« vectoriser » ou « intégrer ») des représentations de leurs données, en utilisant l'intelligence du LLM de leur choix pour interpréter ces données.

Les grands modèles de langage, ou LLM, constituent la base de la plupart des applications d'IA génératives. Ces modèles sont formés sur de grandes quantités de données textuelles, ce qui leur permet de comprendre et de générer intelligemment le langage humain. Les LLM codent les connaissances dans des structures complexes, leur permettant de répondre à des questions, de traduire des langues, de résumer des textes et bien plus encore. Cependant, il est important de noter que les LLM ne sont pas des bases de données relationnelles. Ils représentent des instantanés statiques créés au cours de périodes de formation spécifiques et ne sont pas continuellement mis à jour. Une fois formés, les LLM restent inchangés jusqu'à la prochaine session de formation, ce qui peut prendre du temps et des ressources. Cette limitation signifie que les informations contenues dans les LLM peuvent devenir rapidement obsolètes dans un monde où les données et les connaissances évoluent constamment. La capacité à mettre à jour et à maintenir la pertinence de ces modèles constitue donc un défi de taille.

La génération augmentée par récupération, ou RAG (Retrieval-Augmented Generation), est une technologie émergente qui gagne rapidement en popularité. Cette méthodologie permet aux LLM d'être mis à jour dynamiquement à l'aide de données spécifiques à l'utilisateur. En pratique, RAG combine la puissance des LLM avec la capacité de rechercher et de récupérer des données provenant d'autres sources, créant une synergie qui améliore considérablement la pertinence et l'exactitude des réponses générées. Avec RAG, même les petites et moyennes entreprises peuvent tirer parti de la puissance des LLM sans avoir à gérer le coût et la complexité de la formation de leurs propres modèles. Grâce à RAG, les utilisateurs peuvent « vectoriser » ou « intégrer » leurs données spécifiques, créant ainsi des représentations qui peuvent être facilement interprétées par les LLM. Cela permet d’adapter les réponses de l’IA à des données commerciales spécifiques, améliorant ainsi l’efficacité des applications d’IA générative dans des contextes commerciaux.

La synergie entre LLM et RAG est cruciale pour surmonter les limitations intrinsèques des modèles de langage statiques. Bien que les LLM offrent une base solide de connaissances générales, la capacité de RAG à incorporer des données à jour et spécifiques au contexte permet une plus grande personnalisation et pertinence des réponses. Ceci est particulièrement utile dans les environnements où les données évoluent rapidement ou où les besoins des utilisateurs sont très spécifiques. Par exemple, dans le secteur médical, un LLM peut fournir des informations générales sur les maladies, mais l'intégration avec RAG peut permettre de récupérer et de présenter les dernières recherches ou données cliniques, améliorant ainsi considérablement la qualité des informations fournies aux professionnels de la santé.

Vecteurs, bases de données vectorielles et indices vectoriels

Le terme « vecteur » a une signification particulière en IA, car il représente des valeurs numériques multidimensionnelles qui capturent des connaissances spécifiques au modèle. Ces vecteurs ne sont pas de simples nombres, mais des représentations complexes pouvant avoir des centaines ou des milliers de dimensions, chacune correspondant à une caractéristique ou un attribut spécifique des données. Par exemple, un vecteur représentant une image peut inclure des dimensions qui décrivent la couleur, la texture, les formes de l'image, etc. Cette richesse de détails permet aux algorithmes d’IA de comprendre et de traiter les données de manière beaucoup plus sophistiquée que les méthodes traditionnelles.

Une base de données vectorielles est spécialement conçue pour stocker, indexer et rechercher ces vecteurs complexes. Ces bases de données sont essentielles pour les applications avancées telles que la reconnaissance d'images, la recherche de similarité de texte et de nombreux autres domaines nécessitant la gestion de données de grande dimension. Il existe des bases de données spécialisées exclusivement pour la gestion des vecteurs, mais l'approche la plus avantageuse consiste à intégrer cette fonctionnalité dans les bases de données relationnelles existantes, telles que MariaDB Server. Cela vous permet de combiner les avantages des bases de données relationnelles, tels que la conformité ACID et la capacité de gérer des requêtes complexes, avec les fonctionnalités avancées des bases de données vectorielles.

Les index vectoriels sont des outils cruciaux pour gérer et rechercher des données vectorisées. Contrairement aux index traditionnels, qui fonctionnent bien pour les données linéaires ou bidimensionnelles, les index vectoriels doivent être conçus pour gérer la complexité et la haute dimensionnalité des vecteurs d'IA. Des méthodes spécialisées telles que IVFFlat (Inverted File Flat) et HNSW (Hierarchical Navigable Small World) sont nécessaires pour ce type de données. IVFFlat utilise une structure arborescente inversée pour faciliter une recherche rapide, tandis que HNSW construit un réseau de nœuds hiérarchiques qui vous permettent de naviguer efficacement entre les points de données.

La notion de « voisin le plus proche » est fondamentale en recherche vectorielle. Au lieu de rechercher une correspondance exacte, les algorithmes de recherche vectorielle recherchent les données les plus similaires au vecteur de requête. Ceci est particulièrement utile dans des applications telles que la recherche d’images, où trouver une image « similaire » à une image donnée est souvent plus utile que trouver une correspondance exacte. La recherche du voisin le plus proche exploite les caractéristiques multidimensionnelles des vecteurs pour identifier rapidement les similitudes, améliorant ainsi considérablement la vitesse et l’efficacité des recherches.

En intégrant des fonctionnalités de gestion vectorielle dans une base de données relationnelle telle que MariaDB Server, vous obtenez une solution puissante qui combine le meilleur des deux mondes. Les utilisateurs peuvent bénéficier de la robustesse et des fonctionnalités avancées des bases de données relationnelles, tout en gérant efficacement des données complexes et de grande dimension. Cette approche simplifie non seulement l’infrastructure informatique, mais offre également une amélioration significative des performances des applications avancées d’IA et d’apprentissage automatique.

L'ACIDE est toujours une vertu

ACID, qui signifie Atomicité, Cohérence, Isolation et Durabilité, représente les quatre vertus fondamentales des transactions dans les bases de données relationnelles. Ces principes garantissent que chaque transaction est exécutée de manière complète et fiable, en maintenant l'intégrité des données même en cas d'erreurs ou de pannes du système. L'atomicité garantit que chaque transaction est une unité indivisible ; la cohérence garantit que la base de données passe d'un état valide à un autre ; l'isolement empêche les transactions d'interférer les unes avec les autres ; et la durabilité garantit que les résultats des transactions persistent même après une panne du système.

Même dans le contexte de l’IA générative, ces vertus restent essentielles pour garantir la fiabilité et la sécurité des données. L'IA générative nécessitant de grandes quantités de données et des opérations complexes, le maintien des propriétés ACID est crucial pour prévenir la corruption des données et garantir que les opérations de lecture et d'écriture sont toujours cohérentes et sécurisées. Cela devient particulièrement important lors de l'intégration de fonctionnalités avancées telles que la gestion des vecteurs et l'IA dans la base de données, car tout compromis dans l'intégrité des données pourrait avoir des impacts significatifs sur les opérations commerciales et la qualité des informations générées par l'IA.

Points saillants de l'interview de Sirish Chandrasekharan

Chandrasekharan a souligné plusieurs points clés lors de son entretien :

  • Les clients fondent leur activité sur des bases de données relationnelles, essentielles à leur activité.
  • Les bases de données Open Source ont atteint un bon niveau, permettant aux entreprises de s'appuyer sur elles.
  • AWS augmente ses investissements dans l'Open Source.
  • Pour que l’IA générative soit efficace, elle doit être basée sur des données existantes et accumulées, trouvées dans les SGBDR.
  • RAG vous permet de personnaliser un LLM pour les besoins de votre entreprise.
  • Il n'est pas nécessaire de créer de nouvelles bases de données vectorielles ; les vecteurs devraient être intégrés dans les bases de données existantes.
  • PostgreSQL dispose déjà d'un plugin de stockage vectoriel pris en charge par AWS, qui prend également en charge le travail vectoriel de la Fondation MariaDB.
  • Amazon est le troisième contributeur à MariaDB Server, après MariaDB plc et MariaDB Foundation.

MariaDB Vector : un regard vers le futur

MariaDB Corporation et MariaDB Foundation travaillent depuis un certain temps sur MariaDB Vector, un projet innovant qui apportera des fonctionnalités avancées de recherche vectorielle à la base de données MariaDB. Ce développement représente une étape importante vers l’intégration des capacités d’IA directement dans les bases de données relationnelles, améliorant considérablement la capacité de gérer et de rechercher des données complexes.

Le premier aperçu développeur de MariaDB Vector sera disponible en mai et se concentrera sur la mise en œuvre de la méthode Hierarchical Navigable Small World (HNSW), qui est généralement considérée comme meilleure que IVFFlat (Inverted File Flat) en raison de ses performances d'évolutivité supérieures et de sa précision dans requêtes de recherche. Ce choix technique garantira que MariaDB Vector pourra gérer efficacement de grands volumes de données vectorielles, offrant des temps de réponse rapides et des résultats précis, ce qui le rendra idéal pour les applications critiques nécessitant des performances élevées.

Contrairement à d'autres solutions comme PG Vector, les fonctions de recherche de vecteurs dans MariaDB seront intégrées directement au cœur du serveur. Cela signifie qu'aucune extension supplémentaire ne sera nécessaire pour profiter de ces fonctionnalités avancées, simplifiant considérablement le processus de mise en œuvre et de maintenance pour les utilisateurs. L'intégration native dans le serveur garantira également une plus grande efficacité et cohérence dans les opérations de base de données, offrant une expérience utilisateur plus fluide et plus fiable.

MariaDB Vector séparera les grands modèles de langage (LLM) des binaires du serveur, permettant aux utilisateurs de choisir librement entre les différents LLM disponibles sur le marché, tels que ChatGPT, Claude et LLaMa2. Cette flexibilité permet aux entreprises de sélectionner le modèle qui répond le mieux à leurs besoins spécifiques, sans être liées à une solution unique. De plus, il vous permet de mettre à jour ou de modifier les modèles utilisés sans avoir à modifier l'infrastructure de la base de données, garantissant une plus grande adaptabilité et pérennité des solutions mises en œuvre.

Le principal cas d'utilisation de MariaDB Vector sera la génération augmentée de récupération (RAG), une technique qui combine la puissance des LLM avec la capacité de récupérer des données spécifiques et pertinentes de la base de données. Cette approche permettra de personnaliser les réponses de l'IA en fonction de données commerciales spécifiques, améliorant ainsi considérablement la pertinence et l'utilité des informations générées. Cependant, des cas d'utilisation concrets de MariaDB Vector sont encore en cours de définition et de développement, avec de nouvelles applications et de nouveaux scénarios d'utilisation émergeant à mesure que la technologie est adoptée et testée sur le terrain.

Tester le vecteur MariaDB

MariaDB Corporation invite les utilisateurs à tester MariaDB Vector, avec une version nocturne disponible en succursale bb-11.4-vec-aperçu. La version développeur sera stable d’ici fin mai, prête à être testée sur des cas d’utilisation courants.

L’IA générative n’est pas qu’un battage médiatique, et sa combinaison avec des bases de données relationnelles open source constitue la prochaine étape cruciale. Autour du FOSDEM en mars, les fonctionnalités de base de MariaDB Vector ont déjà été démontrées. Vous pourrez bientôt obtenir la première version préliminaire de MariaDB Vector sur les pages de téléchargement de MariaDB.

Vous avez des doutes ? Vous ne savez pas par où commencer ? Contactez-nous !

Nous avons toutes les réponses à vos questions pour vous aider à faire le bon choix.

Discute avec nous

Discutez directement avec notre support avant-vente.

0256569681

Contactez-nous par téléphone pendant les heures de bureau 9h30 - 19h30

Contactez-nous en ligne

Ouvrez une demande directement dans l'espace contact.

INFORMATIONS

Managed Server Srl est un acteur italien leader dans la fourniture de solutions système GNU/Linux avancées orientées vers la haute performance. Avec un modèle d'abonnement peu coûteux et prévisible, nous garantissons que nos clients ont accès à des technologies avancées en matière d'hébergement, de serveurs dédiés et de services cloud. En plus de cela, nous proposons des conseils système sur les systèmes Linux et une maintenance spécialisée en SGBD, sécurité informatique, Cloud et bien plus encore. Nous nous distinguons par notre expertise dans l'hébergement de CMS Open Source de premier plan tels que WordPress, WooCommerce, Drupal, Prestashop, Joomla, OpenCart et Magento, soutenus par un service d'assistance et de conseil de haut niveau adapté aux administrations publiques, aux PME et à toutes tailles.

Red Hat, Inc. détient les droits de Red Hat®, RHEL®, RedHat Linux® et CentOS® ; AlmaLinux™ est une marque commerciale d'AlmaLinux OS Foundation ; Rocky Linux® est une marque déposée de la Rocky Linux Foundation ; SUSE® est une marque déposée de SUSE LLC ; Canonical Ltd. détient les droits sur Ubuntu® ; Software in the Public Interest, Inc. détient les droits sur Debian® ; Linus Torvalds détient les droits sur Linux® ; FreeBSD® est une marque déposée de The FreeBSD Foundation ; NetBSD® est une marque déposée de la Fondation NetBSD ; OpenBSD® est une marque déposée de Theo de Raadt. Oracle Corporation détient les droits sur Oracle®, MySQL® et MyRocks® ; Percona® est une marque déposée de Percona LLC ; MariaDB® est une marque déposée de MariaDB Corporation Ab ; REDIS® est une marque déposée de Redis Labs Ltd. F5 Networks, Inc. détient les droits sur NGINX® et NGINX Plus® ; Varnish® est une marque déposée de Varnish Software AB. Adobe Inc. détient les droits sur Magento® ; PrestaShop® est une marque déposée de PrestaShop SA ; OpenCart® est une marque déposée d'OpenCart Limited. Automattic Inc. détient les droits sur WordPress®, WooCommerce® et JetPack® ; Open Source Matters, Inc. détient les droits sur Joomla® ; Dries Buytaert détient les droits sur Drupal®. Amazon Web Services, Inc. détient les droits sur AWS® ; Google LLC détient les droits sur Google Cloud™ et Chrome™ ; Microsoft Corporation détient les droits sur Microsoft®, Azure® et Internet Explorer® ; La Fondation Mozilla détient les droits sur Firefox®. Apache® est une marque déposée de The Apache Software Foundation ; PHP® est une marque déposée du groupe PHP. CloudFlare® est une marque déposée de Cloudflare, Inc. ; NETSCOUT® est une marque déposée de NETSCOUT Systems Inc. ; ElasticSearch®, LogStash® et Kibana® sont des marques déposées d'Elastic NV. Hetzner Online GmbH détient les droits sur Hetzner® ; OVHcloud est une marque déposée d'OVH Groupe SAS ; cPanel®, LLC détient les droits sur cPanel® ; Plesk® est une marque déposée de Plesk International GmbH ; Facebook, Inc. détient les droits sur Facebook®. Ce site n'est affilié, sponsorisé ou autrement associé à aucune des entités mentionnées ci-dessus et ne représente en aucune manière aucune de ces entités. Tous les droits sur les marques et noms de produits mentionnés sont la propriété de leurs titulaires respectifs des droits d'auteur. Toutes les autres marques mentionnées appartiennent à leurs titulaires. MANAGED SERVER® est une marque déposée au niveau européen par MANAGED SERVER SRL, Via Enzo Ferrari, 9, 62012 Civitanova Marche (MC), Italie.

Retour en haut de page