Microsoft365 Power BI

Power BI = Power Query + Power View + Power Map + Power BI Sites

Dans le cadre le la worldwide Partner Conférence , le géant américain dévoile une nouvelle offre analytique couplé à Microsoft 365. Nommé Power BI, la suite permettra au tableur:

  • de se connecter sur des données internes (bases de données, fichiers,…) ou externes (flux twitter,…) et de les combiner : Power Query
  • de représenter les données sous la forme de graphiques interactifs : Power View
  • d’explorer les données sous la forme de cartes : Power Map
  • de créer des espaces collaboratifs offrant une réelle autonomie aux utilisateurs : Power BI Sites

Le plugin sera bientôt disponible dans l’offre microsoft 365 (Excel), le prix reste encore inconnu mais il est déjà possible de tester une version d’évalutation.

Affaire à suivre.

Tableau Software, BI Discovery

Faire en sorte que les données soient faciles à visualiser et à comprendre constitue l’une des plus grandes opportunités de notre temps. Christian Chabot, PDG et co-fondateur.

 Tableau Software, se positionne comme le leader mondial en logiciels de solution décisionnelle Agile et le Gartner 2013, vient de le positionner comme leader de solution décisionnelle et d’analyse. Cet éditeur américain offre aux utilisateurs une navigation interactive dans les données sans se soucier des processus d’extraction. Cette interactivité entre la base de données et le graphe rend cet outil terriblement efficace.

Gartner 2013 solution decisionnelle

Le Point Fort : La mise en oeuvre et la prise en main. L’installation est simple, la prise en main est déconcertante de facilité. Aucune compétence en informatique n’est nécessaire, l’utilisateur se connecte à ses sources de données et construit très rapidement ses premiers tableaux de bord. Cet outil s’adresse donc aux différents métiers de l’entreprise, offre aux analystes une large palette de connecteurs et à l’informatique de conserver son rôle d’intégrateur de données.

L’Offre 

  • Tableau Desktop (Professional-Personal) est le client lourd qui permet de construire des tableaux de bord. 
  • Tableau Server est l’application qui permet de partager rapidement et simplement les visualisations de données interactives, les rapports, les vues et les tableaux de bord de Tableau Desktop.
  • Tableau Public est l’application light gratuite dont les résultats sont visibles de tous.

Se Connecter aux données. Les connecteurs de base de données permettent de choisir une ou plusieurs tables en spécifiant la jointure ou propose à l’utilisateur de saisir directement le code SQL.

Les formats acceptés par Tableau Desktop

Tableau interprète les données extraites en dimensions et mesures:

  • Dimensions : Champs contenant généralement des données qualitatives discrètes. Il peut s’agir de dates, de noms de clients ou de segments clients.
  • Mesures (indicateurs) : Champs qui contiennent généralement des données numériques pouvant être agrégées. Il peut s’agir de ventes, d’un profit, d’un nombre d’employés, d’une température, d’une fréquence ou d’une pression.

Tableau Software: Dimension et Indicateurs

Analyse et Visualisation. Enfin, nous y voilà…les données sont prêtes, l‘espace de travail est constitué de menus, d’une barre d’outils, de la fenêtre des données (Dimension & Mesure), de fiches contenant des étagères (Page, Filtre,Repère,Colonnes, Lignes) et de légendes et d’une ou de plusieurs feuilles. Les feuilles peuvent être des feuilles de calcul ou des tableaux de bord. Ensuite, il suffit de glisser les données dans les bonnes étagères, de sélectionner la meilleure représentation graphique et de trouver les « pépites » dans vos données. L’outil permet également de diffuser et partager vos tableaux de bord (Tableau Server).

Espace de travail tableau software

Pour en savoir plus : aide en ligne

La BI et le temps réel

Un sondage de l’IDC sponsorisé par Terradata (Avril 2010), annonce que 26% des entreprises européennes (France, Allemagne, Espagne, Royaume-Uni, Italie) utilisent le temps réel pour soutenir des décisions tactiques et opérationnelles. L’étude  a été faite sur un échantillon de 181 entreprises opérant dans de multiples secteurs. Les conclusions de l’enquête semblent trouver ce taux plutôt faible, d’autant plus surprenant qu’il faut y ajouter à ce chiffre, 33% d’entreprises produisant des chiffres de manière quotidienne. L’étude ne précise pas si ces entreprises ont migré complètement leurs systèmes d’intégration de données vers le temps réel ou seulement certaines fonctionnalités du SI.

Le temps réel, très bien, mais pour quels usages?

Prise de décision plus rapide dans un contexte économique  encore plus compétitif.  La BI temps réel permet d’avoir un temps d’avance sur les concurrents.

  • La gestion de la qualité pour mesurer la performance (chaîne de fabrication)
  • Le suivi de production instantanée (industrie pétrolière)
  • La gestion des risques de portefeuille (gestion financière)
  • Le suivi des ventes temps réel (supervision grande distribution)
  • Le suivi de la disponibilité des systèmes (télécom, énergie, hébergeur)
  • La détection de la fraude (banque)
  • Inventaire et disponibilité (site marchand)
  • Changement de profil client/Segmentation (marketing)
  • Prévision de la demande

Et les technos alors?

Le TextMining permet de donner du  sens à des informations non structurées pour faciliter la prise de décision. Pour extraire les mots significatifs et phrases provenant de sources telles que le courrier électronique, des enquêtes de satisfaction des clients, enregistrements d’appels au centre, et le Web 2.0 (commentaires, forum). Ces informations peuvent ensuite être intégrées à d’autres systèmes comme le CRM ou le ciblage marketing.

La Content Analytics, permet d’analyser et valoriser  les contenus non structurées. Grâce à l’analyse en temps réel, les décideurs peuvent identifier les tendances récurrentes, dysfonctionnements ou autres problèmes complexes de l’entreprise afin d’assurer la gestion des risques au sein de la gouvernance d’entreprise. La Content Analytics prend en charge les formats de type image, vidéo, fichier, site internet, podcast, texte,…

Les outils de Supervision – Sélection, comptage et topage de base de données en temps réel:

Les outils de géomarketing:

Le pilotage de la Fraude en temps réel :

Le InMemory temps réel permet de décloisonner les analyses, décupler les capacités de simulation, ce qui va rendre les opérationnels plus autonomes au sein d’organisations plus collaboratives:

Moteurs de Règle (MDM) : l’échange en temps réel entre un référentiel de données et des bases d’application hétérogène.

 

Le paradoxe de la situation, c’est que la BI temps réel a pour objectif de se rapprocher de la production alors que pendant des années les architectures décisionnelles ont décrété une étanchéité entre les systèmes opérants et le décisionnel. Ces architectures décisionnelles coûteuses (pas encore rentabilisées) et non agiles ne peuvent pas basculer à un rythme temps réel sans une refonte complète des architectures applicatives.

Les ETLs qui alimentent en mode batch les architectures décisionnelles sont-ils condamnés ?

Clairement non, deux architectures applicatives vont compléter l’offre décisionnelle :

La BI classique alimentée par des ETLs pour alimenter des datawarehouse historisés permettant, par exemple, de comparer entre deux années le prix moyen des cotisations d’assurances.

La BI temps réel, pour les pilotages opérationnels basé sur des restituions légères, en sélectionnant les données pertinentes. Une BI très proche des systèmes opérants, des réseaux sociaux,…des sources de données.

Problématique : par exemple, le calcul de la segmentation client temps réel doit-il être la source de la BI classique pour alimenter les analyses du marketing stratégique (cycle de vie du client) ou le calcul doit être dupliqué ? Pour régler cette problématique, les architectes vont inventer des couches de calculs qui alimenteront en temps réel (ou presque, mode streaming) le CRM mais seront également source du SID.

En tout état de cause, la BI en temps réel n’impose pas une refonte complète des architectures existantes.

 

Informatica PowerCenter est un ETL (Extract Transform Load) qui permet d’extraire des données d’origine hétérogènes (fichier plat, Oracle, DB2,…) à partir de connecteurs servant à importer ou exporter les données dans des applications (datawarehouse, datamart,…), puis de transformateurs qui manipulent les données (filtres, jointures, agrégation,…) et de mises en correspondance (mapping).

Les solutions d’ETL sont apparues pour le chargement régulier de données dans des entrepôts.

PowerCenter fait partie de la famille des logiciels graphiques de description des référentiels et de pilotage des traitements. Les autres familles étant :
– Les logiciels générateurs de scripts et de programme (première génération d’ETL)
– Les logiciels liés à des environnements particuliers (ex : Hyperion, oracle datamart Builder,…)

L’architecture Informatica PowerCenter est composé de plusieurs composants qui communiquent les avec les autres en architecture client /serveur.
PowerCenter Repository : c’est le dictionnaire des métadonnées (description des bases de données, des utilisateurs, des serveurs,…)
PowerCenter Repository Server: permet la gestion des connexions au référentiel depuis l’application cliente. C’est le pilote des accès aux repositories.
PowerCenter Client : c’est le module de conception du processus d’alimentation et l’exécution des traitements. Les applications disponibles sont :

  • Repository Manager : gestion des référentiels, administration des projets et des utilisateurs, fonction d’analyse d’impact, droits.
  • Repository Server Application Console : gestions des connexions, des objets verrouillés, des logs, des sauvegardes.
  • Designer : module client qui permet la conception du mapping. Extraire, transformer et charger dans une base de données.
  • Workflow Manager : ordonnancement et paramétrage des mappings.
  • Workflow Monitor : suivi des traitements, visualisation des logs.

Le Moteur (Informatica Server) qui exécute les processus d’alimentation. Il extrait les données de chacune des sources, effectue les transformations et charge les bases cibles. Les données sont stockées en mémoire pour optimiser les performances.

Points forts

Gestion d’un nombre de traitements importants ;
Volume de données conséquent
Fréquence des chargements élevée
Processus évolutif
Gestion des métadonnées

 

Points Faibles

La non réutilisabilité des objets développés
Pas de souplesse de l’outil pour un répondre aux enjeux du prototypage

 

Architecture générale PowerCenter