Dans un monde où les données deviennent le carburant des décisions stratégiques, la modélisation dimensionnelle est un outil essentiel pour naviguer à travers le paysage complexe de la gestion des données. Cette méthode représente un pilier essentiel pour aider les organisations à interpréter et visualiser les données cruciales qui viennent appuyer la prise de décision. Cet article vous présente les concepts derrière la modélisation et ses composantes clés qui façonnent la manière dont nous comprenons et manipulons les données.
Qu’est-ce que la modélisation dimensionnelle
La modélisation est constituée de schémas dimensionnels représentant de manière logique les unités d’affaires afin de visualiser les données à des fins décisionnelles. La caractéristique des informations décisionnelles est qu’elles sont enregistrées avec leurs changements et évolutions dans le temps, un processus appelé historisation. Cette méthode permet de faire des agrégations pour regrouper des opérations dans le temps.
L’alimentation de données dans ce type de modèle dimensionnel peut se faire de façon régulière par des actualisations journalières, hebdomadaires ou mensuelles. La périodicité dépend autant aux besoins d’affaires que de la disponibilité des sources. L’historisation des données résout implicitement les problèmes d’extraction, de remplacement ou d’évolution des données.
Les composantes du modèle dimensionnel ou « Star Schema »
Contrairement aux systèmes opérationnels, les systèmes informationnels ou décisionnels sont reflétés par un modèle physique de base de données dans un entrepôt de données.
Les composantes fondamentales d’un modèle dimensionnel sont une table de fait et une ou plusieurs dimensions. Pour bien comprendre ce modèle, nous devons aborder ici certains concepts connexes comme les entrepôts de données, l’intelligence d’affaires et les comptoirs de données.
Les entrepôts de données et le Big data
L’entrepôt de données joue un rôle clé en tant que conteneur utilisé pour stocker les données provenant des différents systèmes opérationnels, tels que le CRM, l’ERP, ou les systèmes métiers, et d’autres sources complémentaires, internes et externes. Le choix du type de stockage (lac de données ou base de données), sera déterminé par la quantité de données disponibles dans l’entrepôt de données.
Souvent, le concept de « Big data » est vulgarisé comme la réception d’un volume immense de données. De plus, le Big data se spécialise dans la réception continue des sources d’information, connue sous le terme de « Stream » ou « Data Stream ». Cependant, l’utilisation du Big data devient de moins en moins courante car les dernières versions des bases de données infonuagiques permettent une configuration sur mesure et au besoin (on the fly). Autrement dit, la gestion de la donnée dans le cloud offre la possibilité d’ajouter plus d’espace, de processeurs, de mémoire et d’autres ressources à la base de données sans interrompre le travail quotidien.
Pour une meilleure compréhension de ce qu’est un entrepôt de données, disons que celui-ci est dédié à la préparation et à l’exploitation des informations décisionnelles qui serviront dans le cadre de l’intelligence d’affaires, également connue sous le Business Intelligence.
Intelligence d’affaires ou Business intelligence
L’intelligence d’affaires consiste en l’expertise d’une entreprise à collecter, organiser, analyser et interpréter les informations de son environnement en vue de mieux comprendre et améliorer son fonctionnement et sa performance.
Cet environnement informationnel comprend l’ensemble de l’écosystème permettant l’alimentation, la gestion et la diffusion de l’information afin d’influencer la prise de décision, qu’elle soit stratégique ou opérationnelle. Il regroupe l’entrepôt de données, les outils requis pour intégrer les données et exploiter les informations, et les équipes qui développent et encadrent l’utilisation de l’intelligence d’affaires. On y réfère souvent comme le système informationnel ou décisionnel.
Les comptoirs de données ou Data Marts
Un Data Mart, parfois traduit comme magasin de données ou comptoir de données, est un sous-ensemble d’un entrepôt de données destiné à répondre aux besoins spécifiques d’un groupe d’utilisateurs ou d’un département au sein d’une organisation. Contrairement à l’entrepôt de données qui stocke une grande variété de données pour toute l’entreprise, le comptoir de données se concentre donc sur des informations spécifiques, filtrées et organisées pour répondre aux besoins analytiques ou opérationnels d’une équipe, d’un service ou d’une fonction particulière. Celui-ci est conçu selon une approche dimensionnelle.
Fait intéressant sur la modélisation dimensionnelle
L’origine de la modélisation dimensionnelle remonte à plusieurs décennies. En effet, alors que la plupart des gens pensent que ce modèle de données est associé à la méthodologie de Ralph Kimball, celui-ci a été utilisé dès les débuts du Business Intelligence proposé par Bill Inmon, dans les années 80 et 90. Kimball a en fait vulgarisé le concept de modèle dimensionnel pour la donnée tandis qu’Inmon avait déjà utilisé ce modèle pour les Data Marts.
Dans un prochain article, nous aborderons les types de modèles dimensionnels (« Star Schema » ou flocon de neige) et la différence entre une table de fait et une dimension.
Vous voulez en savoir plus sur ce sujet ou tout autre sujet lié à l’exploitation des données et l’analytique? Rendez-vous sur le site de Syntell. Vous pouvez participez à notre formation sur la modélisation dimensionnelle ou à l’une ou l’autre de nos autres formations.
À propos de l’auteur de cet article
Architecte en intelligence d’affaires chez Syntell, Garlindo Guaragna détient un baccalauréat en informatique avec une spécialisation en Business Intelligence de la Villanova University (Floride) et compte plus de 20 ans d’expérience dans le domaine des technologies de l’information. Il est également détenteur de plusieurs certifications, dont Data Vault 2.0, Business Intelligence et Oracle. Il possède une solide expérience en architecture, méthodologie et modélisation Data Vault 2.0 et Kimball, en bases de données Oracle, Microsoft, Snowflake et en entrepôts de données. Garlindo a également une bonne connaissance des applications ETL et des outils d’intelligence d’affaires de dernière génération.