Upload
buikhanh
View
213
Download
0
Embed Size (px)
Citation preview
EPSI Montpellier 437 rue des Apothicaires 34090 Montpellier.
Comment l’informatique décisionnelle
peut-elle améliorer la qualité de service
client ?
Directeurs de recherche
Directrice de communication : Mme Nathalie Camus
Directeur technique : M. Laurent Léger
Tuteurs de stage : M. Laurent Ayach , M.Olivier Robert
Promotion 2008-2009
Soutenance en Septembre 2009
Mémoire de fin d’études réalisé par Tarik Oulhaj
General Electric Healthcare
283 Rue De La Minière
78530 Buc Yvelines.
Introduction : ........................................................................................................................................... 1
1-L’information une ressource stratégique ............................................................................................. 10
1.1-Les différentes catégories d ‘informations .................................................................................... 10
1.1.1-L’information formelle .......................................................................................................... 10
1.1.2-L’information informelle ........................................................................................................ 12
1.1.3- Le Croisement des deux sources d’informations ................................................................... 13
1.1.4-L’information existante concernant le projet réalise .............................................................. 14
1.2- Evolution de l’information et des techniques de visualisations. ................................................... 18
1.2.1 –Historique ............................................................................................................................ 18
1.2.2- Symon : une solution d’affichage et de visualisation efficace. ............................................... 25
1.3-L’Information au centre de la décision en entreprise. ................................................................... 30
1.3.1-La prise de décision. .............................................................................................................. 30
1.3.2-Cas pratique : La prise de décision par les managers des calls center a la General Electric. .... 32
1.3.3-Evolution croissante du besoin d’aide a la décision. ............................................................... 33
2- La business intelligence pour un meilleur management de la qualité de service. ................................ 37
2.1- BI et intelligence économique : un abus de langage ? .................................................................. 37
2.1.1- Définitions ............................................................................................................................ 37
2.1.2- Les impacts de l’informatique décisionnelle sur la qualité de service .................................... 39
2.1.3- ITIL : Un référentiel et un outil supplémentaire pour l'optimisation de la qualité de service .. 43
2.2- Un service d’intégration : le Datawarehouse ............................................................................... 45
2.2.1-Concepts généraux ................................................................................................................ 45
2.3-Une Analyse multidimensionnelle : Le datamining ....................................................................... 46
2.3.1-OLAP et la fouille de données ................................................................................................ 46
2.3.2-Analyse et représentation des données du projet .................................................................. 48
3-Caractéristiques du mécanisme de centralisation des données par ETL. .............................................. 49
3.1- Le marche et les catégories d'outils ETL ....................................................................................... 49
3.1.1- Approche et définition des ETL ............................................................................................. 49
3.1.2 – Histoire et marche actuel des ETL ....................................................................................... 53
3.1.3 - ETL vs EAI: L'EAI n'est pas l'ETL, et vice-versa. ...................................................................... 55
3.2- Les ETL : un besoin de normalisation : Les causes du phénomène en 3 étapes ............................. 56
3.3- Mise en place pour le projet du processus ETL ............................................................................ 57
3.4-Impacts de la solution déployée : « le visual management » ......................................................... 70
4-Une méthode pour une meilleure qualité de service client : Lean Six Sigma ........................................ 71
4.1- Lean Six Sigma : un système qui aide à "prévoir" pour ne pas être obligé de "revoir" .................. 71
4.2- Une méthodologie par étapes le « DMAIC » :define mesure analyse improove control ............... 73
4.2.1-Define ................................................................................................................................... 74
4.2.2-Mesure .................................................................................................................................. 76
4.2.3-Analyse ................................................................................................................................. 78
4.2.4.- Improve/Verify .................................................................................................................... 79
4.3-Le "DFSS": Design for six sigma ..................................................................................................... 79
4.4- Impact de la méthode sur la qualité de service client .................................................................. 80
4.4.1-Bénéfices pour les entreprises ayant adopte cette méthode ................................................. 80
4.4.2-Impact de la méthode sur le projet réalisé ............................................................................. 81
Conclusion ............................................................................................................................................. 84
Glossaire ................................................................................................................................................ 92
Table de figures ..................................................................................................................................... 97
Table des matières ................................................................................................................................. 98
Annexes ................................................................................................................................................. 99
Bibliographie........................................................................................................................................ 113
Je tiens à remercier tout d’abord M. Surya Kunduri qui m’a accepté à General
Electric Medical Systems pendant six mois pour effectuer ce stage de fin
d’études. Cette mission m’a permis d’appliquer et de consolider mes
compétences techniques et surtout de couvrir trois domaines ceux du
développement du réseau et enfin le dernier celui des systèmes de
téléphonie des calls centers qui m’était totalement inconnu.
Je remercie également mes directeurs de projet M. Laurent Ayach et M.
Olivier Robert qui m’ont été d’un grand soutien, tant d’un point de vue
technique que relationnel. Ils ont su me motiver et m’aider durant toute la
durée du stage en étant disponibles afin de répondre à mes questions et
contribuer au bon déroulement de ma mission.
Les différents membres de l’équipe du support applicatif FASTeam m’ont tout
de suite intégré agréablement, ce qui a participé à un bon équilibre
relationnel. Je les remercie donc tous pour leur sens du relationnel et de la
serviabilité.
Je remercie aussi tout le corps professoral, l’équipe administrative ainsi que
la direction qui m’ont permis d’acquérir trois valeurs essentielles : le savoir,
savoir faire et savoir être nécessaire à la réussite dans une vie.
Enfin je tiens particulièrement à remercier très fortement mes parents, qui
durant ces cinq merveilleuses années faites comme dans la vie de hauts et
de bas, m’ont soutenu et encourage pour faire de ma carrière professionnelle
une carrière réussie en assurant mon avenir.
1
Introduction
L’information : une ressource abondante et partageable
L’information de plus en plus abondante a toujours été considérée comme
source de pouvoir par l’ensemble des dirigeants opérationnels dans un
unique but d’offrir une qualité de service optimale et en adéquation avec le
type de demande.
Les informations sont des éléments de connaissances susceptibles d'êtres
représentées à l'aide de conventions pour être conservées, traitées ou
communiquées. Il s’agit d‘un ensemble de données assujettis à revêtir un
sens particulier pour un utilisateur donné. Bob Metlcaflfe, inventeur de
l’internet formule une loi qui décrit la valeur de l’information comme étant
une fonction du nombre d’utilisateurs et du nombre de départements de
l’entreprise. « La valeur d’un réseau varie en fonction du carré du nombre
d’utilisateurs connectes »
Valeur de l’information = (nombre d’utilisateurs) ^2 * (nombre
de départements de l’entreprise)
2
De cette formule il est aisé de déduire que l’accroissement de la valeur de
l’information est proportionnel à son usage.
« Les sociétés qui utilisent leurs données en tant que ressource stratégique
et investissent dans leur qualité, en tirent déjà un avantage en terme de
réputation et de profitabilité »
Enquête de Price waterhousecoopers réalisée en 2001
L’année 2002 a généré 5 milliard de giga octets d’informations soit un million
de bibliothèques François Mitterrand.
Dans le monde des affaires aucune information n’est plus importante qu’une
information quantitative. Les nombres mesurent la performance, repèrent les
opportunités et prévoient le futur.
L’information seule ne suffit pas, il s’agit également de s’assurer de sa
pertinence ainsi que de sa qualité. Dans une société où l’information et les
exigences en matière de qualité de service sont omniprésents, il serait
intéressant de mettre en évidence les apports d’un domaine particulier de
l’informatique à la qualité de service client : celui du décisionnel. En d’autres
termes comment l’informatique décisionnelle, plus communément connue
sous le nom de business intelligence, peut-elle impacter la qualité de service
client.
Un concept subjectif : La qualité de service
S’il y a bien aujourd’hui une expression que la plupart des clients ont sur les
lèvres c’est bien celle de qualité de service.
On a souvent entendu dire de la part d’un client parlant d’une entreprise « ils
ont un bon service » ou bien au contraire « le service est mauvais ».Mais
3
qu’en est-il exactement de ce paramètre de qualité de service que la plupart
des clients utilisent couramment.
Ce paramètre ce décompose en deux éléments : la notion de qualité et celle
de service.
Les services, aujourd’hui plus connus sous le nom de management de
services marketing, sont un ensemble d’actions qui sont réalisées pour
satisfaire au mieux les Hommes : réparation de véhicules, aller chez le
médecin, assistance téléphonique, autant de tâches de la vie quotidienne
qualifiées de services. Toutefois au delà de cette conception humaine du
service, il serait intéressant de différencier ce que le service produit : le
résultat technique : alimentation, tenues vestimentaires, de la manière dont
le service est fourni : le résultat fonctionnel. En ce sens le service et le bien
ou produit demande sont deux éléments distinct. Il existe spécifiquement
deux dimensions liées à un service : « le comment et le quoi du service ».
Prenons l’exemple d’une personne au restaurant souhaitant commander :
Le service se décomposera en deux processus le « quoi ou résultat
technique » : ce que commandera la personne et le « comment ou résultat
fonctionnel » qui sera la manière de servir le repas, l’attention accordée a la
clientèle lors du repas.
Dans un contexte de mondialisation et un environnement de plus en plus
concurrentiel, il faut savoir contrôler les exigences changeantes et
croissantes du client. La qualité de service devient donc un impératif
économique.
La qualité est un terme ambigu : d’un cote tout le monde sait ce qu’est la
qualité et d’un autre il est difficile de formuler une définition uniforme.
Cependant on pourrait « définir » techniquement la qualité comme étant le
4
nombre de déviations par rapport aux standards du marché ou encore par
rapport aux nombre de défauts. Il s’agit notamment de la politique de zéro
défauts mise en place dans les entreprises au Japon (zéro papier, zéro
défaut, zéro grève, zéro stock, zéro panne).
La qualité d’un service ou produit est déterminée par le client et donc cette
notion même reste subjective et reflète les perceptions individuelles du
client.
Cette notion englobante de qualité de service étant définie voyons à présent
le lien existant avec l’informatique décisionnelle
Système d’information décisionnel
On peut définir la décision comme étant un acte par lequel un ou des
décideurs opèrent un choix entre plusieurs options permettant d’apporter
une solution satisfaisante à un problème donné.
« L’informatique décisionnelle ou Business Intelligence (BI) fédère
les moyens, méthodes et techniques permettant de fournir à un
décideur l’information qu’il recherche, au moment précis où il en a
besoin et sous la forme la plus appropriée. Il s’agit de retrouver ainsi
dans la masse d’information des entreprises, la seule information
pertinente et utile. De nos jours, l’informatique décisionnelle est
toujours plus décisive »
Hervé de MILLEVILLE
Extrait d’interview d'Hervé de Milleville, directeur du département
Informatique et de l'option Décisionnelle des systèmes d'informations à
l'EISTI.
5
La business intelligence va permettre d’exploiter les données de l’entreprise
en vue de faciliter la prise de décision par les décideurs. En ce sens il sera
plus facile pour les dirigeants d’entreprise d’anticiper les actions à mettre en
œuvre pour un pilotage éclairé de l’entreprise. Pour ce faire la business
intelligence va, tout en sécurisant l’accès á l’information, faciliter la prise de
décision grâce à une meilleure qualité et cohérence des données.
Analyse décisionnelle pour une meilleure qualité de service
Le processus de datamining puise ses données dans différentes sources
comme les cubes OLAP.
Le Principal but de L’OLAP (On-Line Analytical Processing) dans l’analyse
décisionnelle est de permettre une analyse multidimensionnelle sur les bases
de données volumineuses du datawarehouse préalablement mis en place.
« Sous l'avalanche ininterrompue d'informations insignifiantes, plus
personne ne sait où puiser les informations intéressantes »
Bernard Werber, Extrait de La révolution des fourmis
Figure 1 : Cube OLAP
6
Il s’agit globalement de mettre en corrélation les données récoltées afin de
dégager des tendances particulières et améliorer directement la qualité de
service client.
Lorsque l’on réalise ce processus de datamining on cherche à définir le
problème à résoudre:
• Un commercial désire prévoir si un client particulier achètera
ses produits.
• Le directeur marketing veut optimiser les coûts d’une
campagne de communication
• Un webmaster qui souhaite connaître la manière avec laquelle
les utilisateurs de déplacent sur le site.
C’est en partant de ce modèle d’analyse et par la suite par la mise en place
d’outils de reporting que les décideurs observent comment vont les choses,
afin de confronter leur stratégie à la réalité. Ils déduisent alors des constats
et prennent en conséquence les bonnes décisions au moyen de ces rapports
mais aussi grâce a l’aide qu’apporte les techniques de visualisations au
domaine du décisionnel.
Les techniques de visualisations : une aide a la prise de décision.
Trois grandes catégories de décisions existent :
• Les décisions stratégiques (à long terme 5 ans et plus)
• Les décisions tactiques ou managériales (à moyen terme 1 a 5 ans)
• Les décisions opérationnelles (à court terme quelques minutes a quelques mois)
Symon est l’entreprise leader mondial dans le domaine des solutions
7
d ‘affichages sur panneaux à LED pour entreprises. Ce produit permet la
mise en place du processus d’extraction d’informations (ETL). Dans le cadre
de ma mission à GE Healthcare, il fournit plus précisément aux managers du
call center de Buc une visibilité sur l’ensemble des données des appels clients
(temps d’attente, nombre d’appels en cours, taux d’abandon… ) ce qui leur
permet d’analyser , de prendre les bonnes décisions et d’agir rapidement
pour une meilleure satisfaction client.
Figure 2 : Panneau Symon
C’est grâce à un ensemble d’outils et de techniques qui seront exposes plus
loin dans ce mémoire que l’informatique décisionnelle impactera fortement la
qualité de service pour une meilleure satisfaction client. Il sera donc
pertinent pour l’ensemble des raisons mentionnés dans cette introduction de
mettre en évidence les apports de l’informatique décisionnelle à la qualité de
service client.
La problématique dont j’ai la charge est de réaliser un Symon allégé pour les
autres calls center de l’entreprise (Italie, Angleterre, Allemagne…) et de
procéder à la centralisation de l’ensemble des données des CMS (système de
gestion d’appels) et des bases du mainframe MUST (qui contient en
particulier les données relatives aux ouvertures d’affaires après vente). Le
processus de business intelligence décrit tout au long de cette introduction
devra donc être mis en application. Enfin une application en java sera
réalisée et déployée sur tous les sites clients, qui affichera toutes les
données CMS (call management system) et MUST pour chaque pays.
8
L’objectif ainsi que le contenu de ce mémoire vise à expliquer et montrer les
apports fonctionnels et techniques de l’informatique décisionnelle, plus
communément connue sous le nom de business intelligence, aux décideurs
pour une meilleure visibilité des informations et une qualité de service
accrue. En ce sens l’apport de cette nouvelle technologie permettra aux
dirigeants de réagir rapidement et efficacement dans le processus
stratégique de prise de décision, en exploitant au maximum et au mieux
l’ensemble des informations de l’entreprise. Je vais articuler ma recherche
autour de quatre grandes parties :
Pour ce faire je commencerai par introduire la notion d’information en
présentant les différentes formes qu’elle peut revêtir en entreprise. Cette
première partie traitera également de la manière avec laquelle les
entreprises s’adaptent à l’évolution croissante des données ainsi que des
moyens qu’elles mettent en œuvre pour pouvoir assurer leur pérennité á
moyen et long terme.
Ce chapitre aura également comme objectif de présenter quelques
techniques de visualisation d’informations et de souligner le besoin croissant
d’aide à la décision.
Pour illustrer ce premier thème l’exemple de la visualisation d’informations
du « call center » du siège européen de la General Electric sera mis en
valeur à travers le leader mondial des solutions d’affichages Symon. Les
autres centres d’appels n’étant pas dotés d’une telle solution, l’exemple de
l’application de visualisation d’informations en temps réel réalisée en java
sera également exposé.
Ces informations avec les différentes techniques de visualisations étant le
cœur même du processus stratégique de prise de décision, il sera intéressant
9
dans une deuxième partie de s’interroger sur un domaine informatique
particulier qui impacte fortement la qualité de service client : celui du
décisionnel.
Cette partie permettra en particulier de mieux comprendre les besoins d’aide
à la décision et les outils qui répondent à ce besoin. Elle aura également pour
objet de montrer clairement le lien existant entre le domaine de la business
intelligence et ses effets en matière qualité de service, qui dans le cas de ma
mission représente la qualité de service client des centres d’appels.
Le chapitre qui suit sera consacre à la description du processus ETL entrant
dans le domaine de l’informatique décisionnelle et de la centralisation des
données. Une analyse de ce processus sera réalisée permettant de mieux
comprendre les raisons pour lesquelles les entreprises y ont recours, ainsi
que les bénéfices et conséquences liées à ce mécanisme. Cette partie sera
notamment illustrée par l’application du processus ETL à travers le produit
que propose Microsoft : SQL serveur intégration services qui a été utilise
pour la centralisation des données de GE Healthcare.
Enfin la dernière partie sera dédiée à un mode de management qui repose
sur une organisation très encadrée dédiée à la conduite de projet : la
méthode SIX SIGMA qui a été appliquée tout au long de ma mission. Ce
dernier chapitre mettra en avant les bénéfices de cette méthode
d’amélioration de la qualité et de la profitabilité reposant sur la maîtrise
statistique des procédés.
10
1-L’information une ressource stratégique
1.1-les différentes catégories d’informations
1.1.1-L’information formelle
L’information formelle représente 40% du volume total d’informations et
reflète le passé et l‘ancien. Afin de pouvoir l’obtenir on se pose des
questions. Ce terme d’‘information peut être décomposé selon un schéma en
trois axes :
Une donnée :
Qui ne subit aucune interprétation et est recueillie par des moyens
techniques. Dans le domaine de l’informatique par exemple, on la considère
comme une représentation conventionnelle permettant d’en faire le
traitement.
L’information elle même :
Il s’agit de données qui ont acquis de la signification en étant insérées dans
un contexte particulier.
La connaissance :
C’est une information à laquelle s’ajoutent la compréhension et les capacités
de l’individu qui se l’approprie.
L‘intelligence économique ou business intelligence qui sera expliquée et
décrite plus loin dans ce mémoire, permet de dissocier l’information formelle
de l’information informelle.
L’information formelle est définie comme étant un ensemble de données
11
existantes sur un support papier, filmographique, informatique. Une telle
information est publiée de façon ouverte a 90% et afin de pouvoir identifier
cette information pertinente dans un flux sans cesse grandissant il est
nécessaire de se doter d’outils informatiques adaptés.
Les supports et formats d’informations sont nombreux et différents :
L’écrit sous forme papier et électronique est le principal support de ce type
d’information.
Avec le développement des nouvelles technologies de l’information, la masse
de données disponibles est devenue énorme. L’information formelle peut être
présente dans de nombreux supports matériels tels que les livres, les
banques de données, les CD-ROM, la télévision, la radio, les brevets, les
informations légales mais aussi les études publiées et réalisées par des
prestataires publics ou privés.
Ces sources d’informations sont généralement accessibles et disponibles et
leur coût d’acquisition est relativement faible excepte pour les recherches de
brevets et quelques banques de données. Les traitements informatiques de
l'information formelle apporte une aide à la veille technologique mais aussi
rend la planification stratégique des petites et moyennes entreprises et des
grands groupes, plus facile et efficace.
La conjoncture économique actuelle impose pour les entreprises de
systématiquement réaliser une veille de l’information formelle, ceci dit une
veille technologique efficace combinée à une bonne stratégie d’innovation
peut donner un avantage compétitif aux petites et moyennes entreprises.
Dans un environnement de plus en plus compétitif l’innovation et la richesse
de l’information formelle sont les facteurs indispensables pour assurer la
12
pérennité et le succès des entreprises. L’information formelle comme étant
un capital intangible et valorisable, reste donc une information que l’on
pourrait qualifier de « physique » ou concrète contrairement à l’information
informelle qui révèle ce coté abstrait obtenu par exemple en participant aux
discussions entre experts lors de congrès , sessions de formation , ou en
réalisant des études de marché.
1.1.2-L’information informelle
« l’individu doit se déplacer, passer du temps, pouvoir entendre,
sentir, toucher »
B.Martinet
Les informations informelles sont généralement collectées sur le terrain par
différents acteurs qui contribuent à la veille technologique. Ce sont toutes les
autres informations autres que formelles. Il s’agira entre autres d’interroger
les acteurs du marche (fournisseurs, sous-traitants , concurrents ) afin de
collecter ce type d’information.
Elles appartiennent au présent et sont liées au futur. Les informations
informelles sont qualitatives, appartiennent essentiellement au domaine de
l’oral et nécessitent un travail important d'analyse, de recoupement avec
d'autres sources, avant d'être retenues comme utiles et pertinentes pour
l'entreprise. Elles peuvent êtres alors diffusées aux responsables et
archivées.
Pour obtenir ces informations, il s’agira plus particulièrement d’axer le travail
sur les personnes tant au niveau interne qu’externe. Une récente étude du
Massachusetts Institute of Technology sur les entreprises américaines,
précise que 80 % de l'information nécessaire existe à l'intérieur de
13
l'entreprise. Tous les spécialistes s'accordent que 90 à 95 % des informations
souhaitées sont disponibles et déjà publiées et sont donc ouvertes.
Il est judicieux dans la recherche de ces informations de savoir précisément
ce que font ces personnes et ce qu’elles comptent faire ainsi que les liens les
unissant vers l’extérieur. La business intelligence repose donc sur une la
complémentarité des informations formelles et informelles.
1.1.3- Le Croisement des deux sources d’informations
Daniel Rouach professeur universitaire et auteur de livres économiques,
notamment sur la veille technologique et Professeur à l'ESCP-EAP European
School of Management, précise dans son ouvrage « La veille technologique
et l’intelligence économique », que pour une collecte de données efficace il
suffit de croiser les sources formelles aux sources informelles. Voici le
modèle de l’Intelligence économique que propose par Daniel Rouach afin
d’optimiser la collecte d’informations :
Figure 1.1: L’information et son environnement
On voit précisément en figure 1.1 que le modèle mis en exergue par Daniel
Rouach va pouvoir couvrir tout les types d‘informations en effectuant la
combinaison information formelle et informelle. Les capteurs sont des
personnes physiques qui recherchent cette information (commerciaux,
acheteurs, DSI…).
14
Figure 1.2: La collecte d’informations
Les informations du projet dont j’ai la charge s’inscrivent totalement dans la
catégorie d’informations formelles.
1.1.4-L’information existante concernant le projet réalise
Plusieurs sources données physiques existent. Le siège européen de GE
Healthcare à Buc possède un « call center » qui reçoit deux types d’appels :
• Les appels clients (hôpitaux, cabinets médicaux) ont majoritairement
pour objet des dysfonctionnements matériels ou logiciels liés aux
équipements d’imageries médicales (IRM, équipements
cardiovasculaires, appareils de mammographie…).
• Les appels FE « Field Engineer » (ingénieurs terrains) qui en cas de
non résolution d’un problème donné à distance par le support
15
technique (HUB), se déplacent sur le site pour corriger les éventuelles
anomalies. A noter que le HUB peut se connecter directement sur les
équipements d’imagerie médicale afin de résoudre un
dysfonctionnement donné. Les appels des FE sont redirigés vers le
centre OLC (online-center) : l’équivalent d’un centre d’appel client
dédié aux FE. Ce centre reçoit les appels FE et les redirige vers des
collaborateurs compétents dans un domaine médical précis (ultrasons,
médecine nucléaire…) qui viennent en aide aux FE présents sur le site
clinique.
Clients Hôpitaux/Cliniques
Cabinets médicaux Support à distance(HUB)
Figure 1.3: Processus de gestion d’appels a GE.
Centre d’appel Ingénieur terrain (FE)
16
L’ensemble de ces informations liées soit aux appels clients soit aux appels
FE sont des données temps réels rafraichies toutes les 3 secondes.
Afin de gérer et traiter ces différents appels le système d’information de
l’entreprise repose sur trois sources de données formelles essentielles qui
permettent en partie de gérer et d’améliorer la qualité de service client :
• Un ACD « Automatic Call Dispatch » : un « PABX » ou commutateur
téléphonique, chargé de réceptionner et d’aiguiller les appels clients ou
FE. Une fois que les appels arrivent sur ce système, un serveur CMS
est lie à cet ACD et aura pour principal objectif de les traiter.
• Le serveur CMS « Call Management System » a pour objectif de
récupérer ces appels et les enregistrer. Il est lié a une base de donnée
informix qui permet de stocker l’ensemble des informations liées aux
appels des clients, des FE , mais aussi la disponibilité des personnes du
centre d’appels ou agents (occupé, absent, en pause…).Parmi Les
informations entrant dans ce processus on trouve les suivantes :
Le nombre d’appels entrants, le taux d’abandon, le temps d’attente
maximal des appels et en particulier le SL « service level » qui est une
information capitale puisqu’il s’agit d’un ratio en pourcentage (nombre
d’appels pris sur le nombre total d’appels entrants) qui mesure la
qualité de service.
Un SL qui atteint 100% indiquera par conséquent une qualité de
service client optimale. Une partie de ces données est gérée et affichée
sur un panneau à LED, par l’ETL Symon qui sera décrit plus loin dans
ce mémoire.
17
Ceci dit le serveur CMS gère les appels mais n’est pas en mesure de
fournir le détail des dysfonctionnements ou « JOBS » qui sont des
tickets d’incidents gérés par le Mainframe MUST.
• MUST est chargé de stocker tous les JOBS qui correspondent à toutes
les ouvertures d’affaires après vente. En ce sens lors d’un appel client
les agents du centre d’appel saisissent l’affaire et l’information est ainsi
directement enregistrée sur MUST.
Figure 1.4: Le traitement et l’affichage des appels.
18
L’ensemble de ces techniques modernes de traitement et de visualisation
d’informations nous amènent à nous interroger sur la manière d’afficher des
informations formelles ainsi que les progrès qui ont été réalisés en la
matière.
1.2- Evolution de l’information et des techniques de visualisations.
1.2.1 –Historique
« L'information peut tout nous dire. Elle a toutes les réponses. Mais
ce sont des réponses à des questions que nous n'avons pas posées,
et qui ne se posent sans doute même pas. »
Jean Baudrillard sociologue et philosophe français
Dans un monde où l’information est de plus en plus abondante il ne s’agit
plus d’être informé et de récupérer l’information brute mais plutôt
d’informer l’information par les techniques de visualisation modernes.
Bernard Liautaud dans son ouvrage « e-business intelligence éditions
19
Maxima» propose une modélisation en trois points concernant l’accès a
l’information :
• La dictature de l’information
• L’anarchie de l’information (sources hétérogènes)
• La démocratisation de l’information : BI, CRM
« Les gagnants seront ceux qui restructurent la manière dont
l'information circule dans leur entreprise. »
Bill Gates
Dans les années quatre-vingt le stockage des données au cours de la période
de « dictature de l’information» se faisait sur des serveurs centraux très
sécurisés.
La transmission de données était difficile dans la mesure où la redondance
était très fortement présente et le stockage volumineux rendait parfois
l’exploitation des données quasi impossible. Pour une exploitation efficace
des données, des équipes d’experts étaient nommées qui réalisaient des
analyses afin d’extraire les informations pertinentes et les transmettre aux
personnes émettrices du besoin. Au cours de ces années la notion
d’infocentres était en vogue , qui se munissaient de tableaux bords
centralisés appelés EIS (Executive Information System).
20
Figure 1.5 : EIS pour le volume de ventes
Un exemple d’EIS permettant de connaître les tendances actuelles des
ventes, les prévisions ainsi que l’évolution du budget et de réagir en
conséquence face à ces données.
Ce système représente en fait une sorte de « tableau de bord » informatisé
pour les cadres supérieurs qui servait à la planification stratégique et à partir
duquel on pouvait produire par exemple des rapports, des graphiques faciles
à consulter rapidement.
Seuls quelques personnes étaient assujettis à l’accès aux données au cours
de cette période. En effet les utilisateurs devaient être en mesure d’avoir le
savoir et savoir faire nécessaire afin de manipuler les systèmes
d’informations automatisés (langage de commande d’interrogation, langage
documentaire, logique booléenne…).Seuls les professionnels de l’information
et documentalistes pouvaient donc se former. A cette époque ce suivi sous
forme de tableaux de bords ne suffit plus. Le pilotage de la fonction
21
commerciale nécessite de mieux maîtriser la force de vente en contrôlant
mieux l’activité. De nouvelles techniques vont alors répondre à cette
problématique de dictature de l’information.
Dans les années 1990 à 1995, les entreprises développent les accès à
distance, la notion de groupes de travail avec des espaces partagés, sous la
forme de répertoires apparaît peu a peu. Les données sont centralisées pour
êtres accessibles par plusieurs personnes simultanément. Les plateformes
logicielles passent du mode autonome à celui du client serveur. L’apparition
d’interfaces permettant la gestion individuelle des comptes, des groupes, de
la communication (messagerie, échanges de groupes), se fait
progressivement. Lors de cette période le client a fini d’appartenir au
commercial, il devient progressivement un actif de l’entreprise.
Figure 1.6: le client un actif de l’entreprise (centralisation sur
serveur des accès).
22
Malgré cette évolution les sources de données restent toutefois hétérogènes
et leur incohérence se fait de plus en plus criante du fait de la diversité des
applications utilisées. Par ailleurs la diversité même de ces applications
rendait difficile la centralisation des données.
Dans un contexte d’inflation de données d’entreprises, plusieurs technologies
modernes vont pouvoir répondre concrètement à l’augmentation des besoins
d’analyse et de prise de décision.
Les techniques modernes actuelles vont permettre de pallier ces problèmes
avec l’émergence des systèmes décisionnels et de leur applications à travers
les CRM et les ERP.
En faisant le parallèle avec la période des années 80 , la business intelligence
va permettre aux utilisateurs de se doter d’outils d’analyse conviviaux et
accessibles en tous lieux même sur internet sans forcement avoir recours a
un spécialiste ou une équipe d’expert comme dans les années 80. En plus du
fait d’assurer la qualité et la pertinence de l’information l’informatique
décisionnelle va aller bien au delà et permettre de découvrir les informations
enfouies dans la masse de données, que l’être humain ne pourrait extraire
seul. Ce processus de business intelligence sera plus amplement détaillé
dans la suite de ce mémoire. Pour améliorer la relation client de plus en plus
d’entreprises ont recours aux CRM (Customer Relationship Management) leur
permettant ainsi d’être plus à l’écoute du client afin de répondre à ses
besoins et le fidéliser.
Le CRM (gestion de la relation client) a pour principal objectif de proposer
des solutions technologiques en vue d’améliorer la relation entre l’entreprise
et le client. Il place le client au centre de la stratégie de l’entreprise et à ce
titre il représente une opportunité importante pour le marketing.
23
Les CRM peuvent prendre plusieurs formes avec entre autres :
• CRM stratégique qui permet de forger des liens forts entre le client et
l’entreprise avec notamment la gestion des commandes, prises de
rendez vous, suivi en temps réel de l’état des stocks…
• Le support utilisateur : qui a pour principal enjeu d’assister le client
par la mise en place de centre d’appels par exemple (gestion des fiches
clients, des demandes d'assistance, des contrats, du suivi qualité…)
• La fidélisation du client : ce sont tous les aspects du marketing qui
vont permettre d’anticiper les besoins et habitudes du client afin de
pouvoir au mieux le satisfaire.
« Le CRM est la capacité à bâtir une relation profitable sur le long
terme avec les meilleurs clients en capitalisant sur l’ensemble des
points de contact par une allocation optimale des ressources»
(Source : Gestion de la relation client - René Lefébure, Gilles Venturi -
Eyrolles - 2004)
En d’autres termes il s’agit pour les entreprises d’augmenter leur chiffre
d’affaire en connaissant parfaitement bien les moyens de communication
préférés de leurs clients.
24
Figure 1.7: La transmission de données sources vers des données de
destination
En parlant de moyens de communication de nombreux centres d’appels
clients ont opte pour des solutions de visualisation d’informations en temps
reel qui leur permettent d’avoir les bonnes informations au bon moment et
ce le plus rapidement possible.
25
1.2.2- Symon : une solution d’affichage et de visualisation efficace.
1.2.2.1-Présentation, apports techniques et fonctionnels de la solution
Symon communications, avec plus de sept mille clients dans le monde, est le
fournisseur leader mondial dans le domaine de la signalisation numérique et
de solutions de communication visuelle. Une question se pose alors : Que
peut englober le terme signalisation numérique ?
La signalisation numérique peut être définie comme tout type de contenu
numérique (texte, graphiques, vidéo, audio) qui peut être géré à distance sur
un réseau IP grâce à des affichages électroniques. Cette méthode peut être
utilisée à des fins d'information ou d'incitation à des changements de
comportement de la part des décideurs. Ce domaine de signalétique
numérique centralisé permet entre autres la planification d’informations
(afficher la bonne information au bon moment), la gestion et l'édition de
médias numériques sur des actifs tels que des écrans LCD, plasma, LED,
panneaux d'affichage extérieur, et même sur une station en local.
26
L’entreprise propose à ses clients des solutions d’affichages et de
visualisation d’informations temps réel. En informatique décisionnelle on
pourrait aisément qualifier cette solution d’ETL puisqu’elle fait partie
intégrante du processus d’extraction de transformation et d’affichage des
données en temps réel provenant de différentes sources d’informations.
Figure 1.8: Traitement et affichage des données par l’ETL Symon.
Ce produit permet notamment aux entreprises d'accroître leur
communication interne et externe par une collecte pertinente d’informations
et de diffuser tout type de contenu multimédia numérique.
En ce sens cette gamme complète de produits de signalisation numérique et
de services permet a GE Healthcare Buc d'offrir à ses clients et également à
ses employés(operateurs des calls center) la bonne information, au bon
moment, sur le bon support, à un coût effectif réduit. Le traitement de
l’information grâce à cette solution sera ainsi optimisé et plus efficace.
Symon est un outil de communication efficace qui permet d’optimiser et
d’améliorer la communication entre les agents du call center buc et ses
clients. Les avantages de la signalisation numérique se sont révélés de plus
en évidents dans les différentes industries dans le monde entier.
Coût efficacité, gain de temps, multi-utilisation , en temps réel des annonces
et des promotions , sont tous des exemples de la manière dont la
27
signalisation numérique peut améliorer le marketing des canaux de
communication et la qualité de service client .Les impacts de la signalisation
numérique sont nombreux avec entre autre sa capacité à fournir un haut
retour sur investissement par le biais de la réduction des coûts.
Cette technologie permet aux entreprises de se doter d’un avantage
concurrentiel non négligeable en améliorant la productivité et la qualité du
travail mais aussi en diffusant la notoriété de l’entreprise. L’utilisation de
Symon représente un retour sur investissement conséquent et capital pour
l’entreprise, qui passe par la réduction des couts d’impression et de
messagerie. Les applications de cette solution sont nombreuses, passant par
son utilisation dans le domaine boursier, avec l’affichage des valeurs des
actions/titres et de l’évolution des marches en temps réel, allant jusqu’au
secteur des centres d’appels clients qui ont adopte définitivement cette
solution très utilisée et répandue dans ce milieu.
1.2.2.2-Impacts de Symon sur le traitement des appels clients.
La solution Symon existe uniquement sur le site de la General Electric à Buc.
Les autres pays (Italie, Angleterre, Allemagne, Ireland...) où l’entreprise est
implantée sont demandeurs de ce type de technologie d’où l’intérêt de la
mission proposée, à savoir le développement de cet outil par une solution
similaire à moindre cout qui sera présentée plus loin dans ce mémoire.
Le site de Buc a choisi de déployer cette solution pour le service « call
center » .Ce dernier recevant les appels clients qui ont pour objet des
dysfonctionnements soit matériels ou logiciels d’équipements d’imageries
médicales (Figure 1.3).
28
Le déploiement d’une telle solution impacte directement la qualité de service
client. La question qui se pose alors est comment cet outil décisionnel peut il
optimiser cette qualité de service
La notion de qualité de service client sera plus amplement décrite dans la
partie dédiée à Lean six sigma, mais on pourrait préalablement commencer
par la définir comme étant
« L’art d’accompagner le client à partir de l’identification de ses
besoins jusqu’à sa fidélisation. »
Pettigrew, sociologue britannique
Pettigrew n’emploie pas ce mot art par simple hasard mais bien parce qu’il
possède un sens ainsi qu’une connotation précise :
A : Représente toutes les activités prévues à effectuer par l’entreprise pour
répondre au besoin du client.
R : reflète le renouvellement, il s’agit en particulier pour l’entreprise de se
diversifier et se démarquer des autres entreprises on peut parler d’avantage
concurrentiel. On parle de changement.
T : Correspond à la transformation de la structure en terme de
comportement et du rôle joué par l’ensemble des collaborateurs. Il s’agit en
d’autres terme de ce que deviendra l’entreprise.
Symon impact directement ce triptyque : En effet la solution permet la
29
visualisation en temps réels des informations qui sont essentielles dans
l’amélioration de la qualité de service avec entre autres :
• Le nombre d’appels clients entrants,
• la durée maximale des appels en attente
• Le taux d’abandon,
• Le Service Level ou qualité de service exprimé en %(ratio nombre
d’appels pris sur nombre d’appels total),
• Le nombre d’appels en attente
A noter qu’il existe d’autres critères qu’il est facilement possible d’intégrer à
ce panneau. Ceci dit l’entreprise a opté pour les critères cites précédemment.
Ces critères ont des seuils prédéfinis et lorsque un seuil est dépassé, on
parle alors de seuil critique et Symon met en valeur ce dépassement par un
jeu de couleur (rouge lorsqu’un seuil est dépassé)
Prenons à titre d’exemple la durée maximale des appels en attente :
Si cette information dépasse un certain seuil préalablement défini Symon est
en mesure non seulement de détecter ce dépassement mais aussi de le
mettre en évidence sur le panneau à LED.
Ce type de comportement permet donc d’agir directement sur l’ensemble des
critères mesurant la qualité de service en l’occurrence dans notre cas
minimiser la durée maximale d’attente, le temps de réponse et donc
améliorer la qualité de service client.
30
En fonction de l’état de l’ensemble de ces critères les managers des call
center sont amener a prendre un ensemble de décisions qui sont facilitées
par cet outil décisionnel. De façon plus générale l’information a donc pour
principal rôle de faciliter la prise de décision.
Ajouté à cela si elle est correctement mise en valeur les décisions se feront
plus rapidement et plus efficacement, impactant ainsi directement la qualité
de service client tout en diminuant les incertitudes.
1.3-L’Information au centre de la décision en entreprise.
1.3.1-La prise de décision.
« On doit prendre les petites décisions avec sa tête et les grandes
avec son coeur. »
H. Jackson Brown
La prise de décision n’est pas comme on pourrait l’envisager un concept
moderne mais une pratique qui d'ores et déjà était répandue au IV siècle où
le philosophe grec Aristote l’abordait déjà comme étant un choix préférentiel.
Le domaine de l’informatique décisionnel juste derrière le marché des ERP
représente au niveau mondial le secteur le plus dynamique de l’informatique
avec plus de 450 millions d’euros de chiffre d’affaire généré (source IDC).
La décision représente plus que jamais le cœur de la stratégie d’entreprise
dans un environnement de plus en plus complexe et concurrentiel ou la
globalisation est en constante accélération. Les prises de décisions se feront
quel que soit le secteur d’activité considéré dans une optique d’optimisation
31
de couts, de délais mais également de qualité du produit ou du service
fournit par l’entreprise.
Lucien Sfez professeur de sciences politiques à l'université de Paris 1 qui
plus récemment a focalise ses travaux sur le pouvoir et la technologie, définit
dans son ouvrage « la décision » la decision comme étant « un processus
d’engagement progressif, connecté à d’autres, marqué par l’existence
reconnue de plusieurs chemins pour parvenir au même et unique but »
En d’autres termes il s’agit donc d’un acte par lequel un ou plusieurs
décideurs opèrent un choix entre plusieurs solutions données permettant
d’apporter une réponse satisfaisante à un problème donné
Le processus de prise de décision peut se décomposer selon 4 axes :
• La connaissance des informations dont dispose le décideur
• Les mesures qu’il effectue sur ces données
• La prévision des futures tendances
• L’action directe qui aboutit directement à la prise de décision
Afin de mieux comprendre le processus de prise de décision et faire le
parallèle avec la business intelligence nous allons mettre exergue l’exemple
d’un plan de vol d’un avion qui arrive à destination dans les délais impartis :
Le plan de vol va correspondre à la stratégie que va adopter l’entreprise par
rapport à son environnement externe mais aussi interne.
La boite noire qui suit touts les événements de l’appareil peut être assimilée
à la partie collecte ou extraction des données qui sera décrite en dans la
partie dédiée aux ETL.
32
Une fois toutes ces informations en possession du décideur, comme les
cadrans et indicateurs fournissent une analyse de la situation, la business
intelligence fournira des outils de reporting et d’analyse avec ce que l’on
appelle la fouille de donnée (datamining).
En fonction de ces outils d’analyse, la décision peut alors être prise et une
action immédiate envisagée (décollage / changement de trajectoire).
1.3.2-Cas pratique : La prise de décision par les managers des calls
center a la General Electric.
Les différents managers des call center de GE prennent essentiellement des
décisions opérationnelles. Ce sont des décisions à court terne puisqu’il s’agit
de gérer des appels clients et de résoudre des problèmes pouvant êtres lies
à :
• Un client non satisfait du service rendu
• Des anomalies techniques de traitement d’appels : appels non
enregistrés, dysfonctionnement du système de téléphonie…Dans ce
cas là ils font appel au support technique en indiquant l’origine du
problème et doivent réagir très rapidement afin d’expliquer la raison
pour laquelle la demande du client n’a pas été prise en compte.
• Une diminution d’effectifs des agents du call center qui contraint à
accélérer le rythme de prise d’appels et motiver les operateurs pour
faire face au nombre d’appels entrants.
Tous ces managers ont une lourde responsabilité puisqu’il s’agit du seul
call center en France dédié aux incidents survenant sur les systèmes
médicaux des clients (radiologues, hôpitaux, cliniques…).Ils doivent donc
rapidement comprendre le besoin du client et prendre les meilleures
décisions possibles en fonction des données dont ils disposent.
33
1.3.3-Evolution croissante du besoin d’aide a la décision.
On peut définir la décision comme étant un acte par lequel un ou des
décideurs opèrent un choix entre plusieurs options permettant d’apporter
une solution satisfaisante à un problème donné.
Trois grandes catégories de décisions existent :
• Les décisions stratégiques (à long terme 5 ans et plus) :
L’entreprise est concernée dans l’ensemble de ses composantes dans les
relations qu’elle entretient avec son environnement (frontières) :
Implantation des unités de production en Chine. Lancement d’un nouveau produit.
• Les décisions tactiques ou managériales (à moyen terme 1 a 5 ans) :
Elles touchent les composantes suivantes de l’entreprise :
Division
Fonction
Unité de production
Mise en place d’une nouvelle organisation du
travail dans une usine (3x8, 4x8 etc)
• Les décisions opérationnelles (à court terme quelques minutes a quelques mois) :
34
Elles touchent les composantes suivantes de l’entreprise :
Service Bureau Atelier Equipe de travail Affectation d’un salarié à une équipe de travail. Organisation d’une réunion de contrôle et de suivi d’activité.
Dans l’informatique décisionnelle la direction générale met en place des
actions opérationnelles. Voici ci dessous de manière synthétique les
principales étapes de la prise de décision dans l’entreprise, ainsi que le cycle
décisionnel permettant aux décideurs d’analyser de décider et d’agir en
conséquence.
Figure 1.9 : Les étapes de la prise de décision dans l’entreprise
Le domaine analytique permet de passer de l’analyse à la décision.
35
Figure 1.9.1 : Le domaine transactionnel et analytique.
« Visualization allows the perception of emergent properties
that were not anticipated. »
Colin Ware, Information Visualization.
Dans le monde des affaires aucune information n’est plus importante qu’une
information quantitative. Les nombres mesurent la performance, repèrent les
opportunités et prévoient le futur.
C’est pour cela qu‘il est essentiel et vital pour l’entreprise de bien
représenter ses données, pour cela un ensemble de techniques existent qui
seront plus amplement détaillées dans ce mémoire.
Bien longtemps l’informatique décisionnelle a été réservée à des secteurs
d’activités utilisant les reporting financiers et tableaux de bords ainsi que les
DOMAINE TRANSACTIONNEL
DOMAINE ANALYTIQUE
36
analyses marketing, tels que les banques, les assurances et plus
généralement les grands comptes. Ces mêmes entreprises étaient les seules
à tirer parti d’investissements lourds aussi bien en termes d’équipes projet
qu’en terme d’infrastructures matérielles et logicielles.
En partant du fait que les ERP ou PGI (progiciels de gestion intégrés) étaient
dans l’incapacité de fournir des éditions ainsi que des rapports synthétiques,
de nouvelles entreprises telles que Business Object et Cognos ont répondu
au besoin de restructuration de l’information.
Avant d’en arriver à cet apport de restitution de l’information de façon claire
et pertinente, on pouvait parler d’anarchie de l‘information. Dans son
ouvrage e-business intelligence Bernard Liautaud, président et PDG de
business Object, explique que chaque collaborateur d’une entreprise donnée
recréer son propre système d’information, ce qui a pour conséquence de
provoquer un véritable chaos de données d’ou le terme d’anarchie de
l’information.
La multiplication et l’abondance des données ont fait que les managers ont
commence à se doter d’outils bureautiques tels que Access ou Excel qui
répondaient à leurs besoins de reporting et de tableaux de bord. Cependant
l’incompatibilité de la communication entre les différentes plateformes
logicielles ou matérielles rendait la centralisation des données difficile et lors
des comites de pilotages internes ou externes, un constat d’incohérence des
données était très fréquemment souligné.
Par ailleurs le simple fait de stocker ces données hétérogènes sur plusieurs
plateformes CRM, ERP, GPAO a rapidement révélé la complexité ainsi que les
limites pour une centralisation et un accès immédiat aux données. Afin de
remédier à ces incohérences d’informations et de pallier le problème
d’incompatibilité des différentes sources de données, l’informatique
37
décisionnelle va simplifier et « démocratiser » l’information. Pour ce faire la
business intelligence va, tout en sécurisant l’accès á l’information, optimiser
la qualité de service grâce à une meilleure gestion des données.
2- La business intelligence pour un meilleur management de la
qualité de service.
2.1- BI et intelligence économique : un abus de langage ?
2.1.1- Définitions
La business intelligence n’est ni un produit ni un système mais une
architecture qui propose un ensemble d’outils et d’applications facilitant le
processus stratégique d’aide à la prise de décision. Au sein de cette
architecture on trouve un ensemble de bases facilitant l’accès aux données.
Les applications d’aide à la décision facilitent de nombreuses activités parmi
lesquelles on trouve :
• L’analyse multidimensionnelle (cubes OLAP)
• Le datamining
• Les prévisions
• Le reporting
• La visualisation d’informations
• Le knowledge management
• L’accès aux tableaux de bords digitals.
On peut définir l’informatique décisionnelle comme étant un ensemble de
processus, de technologies et d’outils nécessaires pour transformer :
38
• Des données brutes en informations pertinentes
Il s’agit notamment dans cette étape de transformation de se demander
quelles sont les données à récupérer, gérer et dans quel contexte.
• Des informations en connaissance
Cumuler l’ensemble des informations de la première étape puis les analyser
pour former une base de connaissance réutilisable par l’ensemble des
collaborateurs de l’entreprise.
• Des connaissances en plans opérationnels qui conduisent a la
prise de décision par des plans d’actions.
Il s’agit de l’aspect le plus important puisque c’est dans ce contexte que
toute la valeur réelle de l’information est utilisée : S’il on utilise la business
intelligence dans le domaine du micro-marketing par exemple , trouver le
bon client pour lui proposer un produit donné, nécessite au préalable que l’on
dispose d’un plan d’action efficace pour la prise de contact sans quoi la
démarche restera superfétatoire
Le terme de business intelligence est souvent traduit littéralement par
intelligence économique, ce qui n’est pas tout à fait exact.
En effet la business intelligence représente un ensemble d’applications et
d’outils qui sont au service de l’intelligence économique. En ce sens
l’intelligence économique est un domaine qui est plus oriente vers l’analyse
d’un système d’information donne ainsi que sur les risques et menacent
auxquels il peut être assujetti. La business intelligence va donc proposer au
domaine de l’intelligence économique un ensemble d’outils (reporting, ETL,
datamining …) qui faciliteront le recours à ce dernier. L’informatique
décisionnelle avec son large éventail d’outils permet également au delà de
39
son impact sur l’intelligence économique, d’impacter directement un autre
secteur : celui des services clients.
2.1.2- Les impacts de l’informatique décisionnelle sur la qualité de
service
« Le client est roi »
« Le client est notre raison d’être »
« Nos clients définissent notre activité »
« Si l’on ne comprend pas nos clients, on ne comprend pas notre
activité »
…
Autant d’expressions utilisées par de nombreux dirigeants opérationnels qui
insistent sur l’importance de la qualité de service client.
Avant d’aborder les effets que peut avoir la business intelligence en terme de
qualité de service client il sera intéressant en premier lieu de définir cette
notion utilisée couramment par de nombreux clients afin de qualifier le
service d’une entreprise donnée.
Même si le terme de qualité de service client reste tout de même
impondérable et souvent évasif, il est toutefois possible de le définir. Ce qui
prédomine le plus, c’est ce que le client ou consommateur voit et entend
d’un service que propose l’entreprise. La notion même de qualité de service
ne peut être comprise et expliquée que d’un point de vue client .On définira
donc ce concept a travers une vision client.
Les clients ont tendance à évaluer le niveau de service selon deux
dimensions :
40
• Une dimension procédurale
Qui correspond à l’ensemble des procédures et moyens techniques établies
par l’entreprise afin de fournir le produit et/ou service au client. Autrement
dit il s’agit des résultats techniques issus du service proposé.
• Une dimension personnelle
Elle reflète la manière dont le service est rendu attitudes, comportements,
communication verbale, de l’entreprise. En d’autres termes c’est le résultat
fonctionnel du service propose. Le client jugera donc la qualité de service en
fonction de l’effort que réalise l’entreprise suivant ces deux axes.
La figure 2.2 montre clairement la stratégie qu’adopte la plupart des
entreprises en plaçant le client au sommet de la pyramide d’ou la fameuse
expression « le client est roi ».Pour que le client soit roi, l’informatique
41
décisionnelle comme bien d’autres domaines, va permettre d’améliorer la
qualité de service en plaçant justement le client au sommet de cette
pyramide. Grâce aux outils de business intelligence et des composants
d’analyse de données il sera possible d’étudier et de faire « parler » les
données en vue de dégager des tendances précises.
Il s’agira d’extraire dans un premier temps les données grâce à l’ETL dont le
fonctionnement sera plus amplement décrit dans la partie 3.Une fois les
données extraites elles permettront d’étudier le comportement, les habitudes
du client, de dégager des tendances particulières à l’aide du datamining
expliqué en partie 2.3 et de réagir en conséquence afin d’adapter la
demande à l’offre et non pas l’inverse. Grace à l’informatique décisionnelle il
sera donc possible d’anticiper les comportements des clients afin de pouvoir
au mieux les satisfaire.
Figure2.2 : impact de la business intelligence sur la qualité de
service client.
42
Figure 2.3 : exemple de représentation habituelle du modèle
multidimensionnel sous forme de cube.
Ce modèle permet de connaître le nombre de produits vendus (Product axe
y) dans le temps (Time axe x) avec la possibilité de connaître le type de
clientèle par produit vendu (Customer axe z)
Le domaine de l’informatique décisionnelle va également permettre toujours
par le principe d’analyse des données ou datamining de prévoir la perte des
clients pour une entreprise donnée et même les principales actions
nécessaires pour réduire ce taux. Pour ce faire la question de prévision de la
perte des clients est exploratoire, il s’agira donc de conserver un historique
afin de modéliser les comportements d’attrition (un départ volontaire d’un
client par exemple).Il sera intéressant de mettre en place des indicateurs tels
que les délais de paiement, les impayés, les quantités retournées etc. A
noter que la notion temporelle est cruciale dans la mesure où elle permettra
de constater au fur et a mesure du temps des changements qui sont parfois
imperceptibles.
Tous ces paramètres liés à la business intelligence vont donc permettre à
l’entreprise d’être en constante proximité du client et de ses attentes , de
mieux le comprendre et donc d’améliorer la qualité de service en
43
conséquence. De nombreux référentiels existent sur le marché actuel et
proposent également un ensemble de bonnes pratiques afin d’améliorer la
qualité de service client. L’idéal serait de combiner la business intelligence à
un de ces référentiels pour des processus d’activités plus performants. Parmi
eux ITIL, qui propose une démarche d’amélioration de la qualité de service.
Il permet à l’entreprise d'assurer à ses clients un service répondant à des
normes de qualité prédéfinies au niveau international.
2.1.3- ITIL : Un référentiel et un outil supplémentaire pour
l'optimisation de la qualité de service
Fournir des services clients de qualité nécessite la mise en place d’activités.
La qualité de service client dépend fortement de la manière avec laquelle ces
activités sont organisées. William Edwards Deming conférencier et consultant
américain, a amélioré durant la seconde guerre mondiale la qualité de la
production notamment grâce à son modèle portant son nom : « la roue de
Deming »
Figure 2.4: La roue de Deming (PDCA)
La figure fournie un modèle simple et efficace de contrôle de la qualité de
service. Ce modèle suppose que pour une qualité de service optimale il est
nécessaire de mener à bien de façon répétée les étapes suivantes :
44
• Planifier ce qui doit être fait, quand, par quelle personne, comment et
en utilisant quels outils.
• Développer les activées qui ont été planifiées conformément à la
première étape. (actions correctives)
• Contrôler les activités afin de déterminer si les services fournis
correspondent aux résultats attendus.
• Ajuster la planification en fonction des informations recueillies
pendant l’étape de contrôle. Il s’agit plus précisément de réduire les
écarts et de faire évoluer les objectifs
Au cours de cette deuxième partie nous avons vu comment et par quels
moyens l’informatique décisionnelle, avec la mise en place du référentiel
ITIL, peut améliorer la qualité de service client. Une question se pose alors :
comment les données, permettant d’agir directement sur la qualité de
service, sont elles stockées et quelles sont les techniques permettant de
passer d’une donnée brute sans valeur particulière à une information riche et
stratégique.
La business intelligence va permettre d’exploiter les données de l’entreprise
en vue de faciliter la prise de décision par les décideurs.
En ce sens il sera plus facile pour les dirigeants d’entreprise d’anticiper les
actions à mettre en œuvre pour un pilotage éclairé de l’entreprise.
Le passage de la donnée brute à l’information se fait par un lieu de stockage
intermédiaire des différentes sources d’informations : le Datawarehouse.
45
2.2- Un service d’intégration : le Datawarehouse
2.2.1-Concepts généraux
Le datawarehouse permet de stocker les données collectées issus de
multiples sources .
Bill Inmom créateur de ce concept le définit comme « une collection de
données thématiques, intégrées, non volatiles et historisées pour la
prise de décision»
• Données thématiques : Les données récupérées doivent
impérativement êtres orientées « métier » c’est à dire triées par
thème.
• Données intégrées : Préparer les données par un nettoyage pour une
meilleure rationalisation et normalisation.
• Non volatiles : Les informations collectées ne doivent en aucun cas
êtres supprimées du datawarehouse.
• Historisees : Les données doivent êtres datées.
Pour une exploitation plus performante et efficace des données il est
possible de créer des sous ensembles du datawarehouse pour un secteur
particulier de l’entreprise (gamme de produit, service, direction…), ces sous
ensembles sont appelés Datamart.
Ainsi on peut parler de Datamart marketing ou encore de Datamart
commercial.
Dans la mesure où les données proviennent de sources diverses et
hétérogènes, il est nécessaire de procéder à l’alimentation du
46
datawarehouse. C’est le rôle de l’ETL (Extract Transform and Load) qui sera
décrit dans la suite de ce mémoire. Une fois le processus ETL réalisé et donc
le rapatriement des données effectué, une analyse de l’ensemble des
données collectes est réalisée par un « forage de données » plus connu sous
le nom de datamining qui s’appuie sur des techniques d’intelligence
artificielles basées sur les réseaux de neurones.
2.3-Une Analyse multidimensionnelle : Le datamining
2.3.1-OLAP et la fouille de données
Le concept OLAP « On line Analytical processing » a été invente en 1993 par
l’informaticien britannique Edgar Frank Codd dans le but de réaliser des
analyses plus approfondies des données des entreprises. Il s’agit d’un outil
de requetage complétant les outils de reporting qui ne disposent pas, à la
différence d’ OLAP, de fonctions de forage dynamique et de changement
d’axe des données. OLAP ainsi que le datamining sont des technologies très
utilisées par les managers afin de rassembler, stocker, interroger et analyser
les données historiques. Il serait intéressant de mettre en évidence la
frontière entre ces deux systèmes.
OLAP est la technologie qui utilise les structures multi-dimensionnelles afin
de fournir un accès rapide aux données en vue d’une analyse. Généralement
les données sont modélises par des cubes OLAP. (Figure 2.3).
47
Le datamining quant à lui est une méthode d’exploration automatique des
données visant a dégager des tendances récurrentes mais aussi des
corrélations entre les données, on parle pour ces raisons là de « fouille de
données ». La méthode d’exploration peut être appliquée en décomposant
les données de l’entreprise en sous systèmes appelés datamart.
OLAP interagit avec les autres composants de business intelligence tel que le
datawarehouse vu précédemment en vue de faciliter la prise de décision.
En plus du simple fait de stocker des données économiques récentes dans
une optique d’en faire des statistiques, OLAP est aussi principalement utilisé
afin de réaliser un ensemble d’analyses d’éléments de l’activité des
entreprises telles que des données d’activités médicales ou de ventes .
La finalité de ce processus réside dans le fait de pouvoir pour les analystes
de se construire une image sous-jacente des données en les explorant de
différents points de vues et ceci de façon interactive.
Figure 2.5 : OLAP et le datamining
L’exemple dans la partie qui suit montre comment les données du projet
dont j’ai la charge ont été représentée au moyen de cette technologie et sa
48
représentation multidimensionnelle.Ceci permettra la restitution des données
sous un tableau croise dynamique d’excel.
2.3.2-Analyse et représentation des données du projet
La modélisation des données du projet sous forme de cube olap a l’aide de
SSAS (sql serveur analysis services) concerne les appels client gérés par le
serveur CMS ainsi que les jobs must qui sont des ouvertures d’affaires après
vente issus du mainframe.
Concernant les appels clients il est facilement possible de connaître à l’aide
de la représentation en figures 2.6 le volume d’appels par région pour un
mois donné, ainsi que le SL par les mêmes critères. Ce nombre correspond
au chemin suivi parallèlement aux 3 axes (représenté par un cercle rouge).Il
en est de même pour les jobs must. Tous les résultats peuvent êtres
restitués sous forme d’un tableau dynamique croise Excel .
Figure 2.6 : Modélisation des données CMS
49
Figure 2.7 : Modélisation des données MUST
Cette analyse multidimensionnelle réalise des traitements sur des données
du datawarehouse préalablement alimenté par le processus ETL qui doit
s’adapter aux besoins et aux contraintes utilisateurs et non pas l’inverse.
3-Caractéristiques du mécanisme de centralisation des données par
ETL.
3.1- Le marché et les catégories d'outils ETL
3.1.1- Approche et définition des ETL
L’accès aux données éparpillées dans les différentes parties des systèmes
d’informations des entreprises, issues de plusieurs sources hétérogènes,
nécessitent la mise en place de processus précis. En ce sens cette phase
d’accès aux données est cruciale afin de pouvoir par la suite les manipuler en
les confiant aux utilisateurs et améliorer ainsi la transmission d’informations
dans l’entreprise.
Les ETL sont des outils destinés à l’extraction, la transformation et a
l’injection des données dans un datawarehouse à partir de n’importe quelle
source (ERP, CRM, fichiers…).Il sera aisément possible par la suite
50
d’interroger une seule source de données par des outils de restitution tels
que les tableaux de bords par exemple.
Il existe plusieurs architectures et approches d’ETL, nous allons nous
focaliser sur deux types d’approches les plus répandues dans le domaine de
la business intelligence.
Figure 3.1 : approche traditionnelle de transformation des données
par stockage temporaire.
Dans cette approche il s’agit d’extraire les données des systèmes sources et
les intégrer dans la zone de stockage temporaire puis les charger dans le
datawarehouse.La seconde quant à elle réalise la transformation en
mémoire.
Figure 3.2 : approche de transformation des données en mémoire.
Cette alternative consiste pour l’ETL de transformer les données en mémoire
et mettre à jour directement le datawarehouse sans passer par la phase de
stockage des données dans la zone temporaire.
51
La transformation des données en mémoire s’avère plus rapide que de
stocker les informations en vue d’une transformation.
Si le volume de données est faible il sera plus judicieux d’effectuer la
transformation en mémoire. En revanche s’il est considérable et que l’on
travaille sur des bases volumineuses la première approche s’avère plus
adaptée.
Généralement les entreprises ont plutôt tendance à prendre en compte la
première approche dans la mesure où elles possèdent de puissants ETL et
logiciels permettant tout types de transformations ainsi que des processus de
gestion de la qualité des données.
Parallèlement à ces deux approches il existe quatre méthodes qui précisent
la manière avec laquelle les données sont transmises du système source vers
l’ETL et par quel composant, nous allons dans ce qui suit les détailler.
Figure 3.3 : Alimentation de l’ETL
• Dans la première c’est le processus ETL qui extrait les données en
requêtant le système source de base de données régulièrement. L’ETL
se connecte à la source, réalise le requetage et récupère alors les
52
données. Il s’agit de la méthode la plus répandue qui a été appliquée
dans le cadre de ma mission en utilisant l’ETL SSIS de microsoft (cf
partie 3.2.4 mise en place du processus ETL).
• Ce sont les déclencheurs plus communément connus sont le nom de
triggers , événements qui permettent régulièrement l’insertion, la mise
à jour, la suppression de données ,qui dans la deuxième méthode
transmettront les informations à l’ETL. En utilisant ces déclencheurs il
sera possible de stocker les informations modifiées dans d’autres tables
(composant de stockage de données)
• La troisième méthode propose de mettre en place un processus de
planification, par des taches planifiées ou programmes, qui exporteront
les données vers l’ETL. Ces taches et/ou programmes seront exécutés
sur le système d’information source.
• Enfin dans le dernier concept c’est un système de lecture de log
(historique des événements ayant eu lieu) qui effectuera la lecture du
système source afin de détecter les mises à jour récentes et de les
transmettre à l’ETL.
Tous les éléments cites jusqu’a présent impactent fortement la qualité
de service client qui en est optimisée grâce aux riches fonctionnalités
dont disposent les ETL
La majeure partie des ETL permettent :
L’accès a tous types de sources de données
• SGBD
53
• Mainframe (par exemple les tickets d’incidents ou job concernant le
mainframe must de la General Electric)
• Fichiers
• CRM/ERP
• La planification et l’exécution de tâches répétitives
• La possibilité de créer des points de reprises en cas d’incident majeur.
• La visualisation en temps réels des données (dans le cadre de ma
mission les appels clients) pour une meilleure qualité de service.
Ces outils dédiés au décisionnel tel que les ETL décrits dans cette partie
représentent le marché le plus dynamique de l’informatique et ont connu
une longue évolution.
3.1.2 – Histoire et marche actuel des ETL
Au début des années 1990, la plupart des entreprises élaboraient des
routines de codage spécifique afin d’extraire, transformer et charger les
données vers des systèmes cibles.
Au milieu des années 1990, les éditeurs ont commencé à concevoir des
outils visant à réduire et même éliminer le coût de la main-d'œuvre engendre
par le développement manuel de code spécifique, par le développement de
programmes.
Les premiers éditeurs d'outils ETL commencent alors à fournir un
environnement de conception graphique se basant sur le 3GL (langage de
troisième génération avec l’apparition d’applications ETL en COBOL, C.)
Bien que ces premiers outils de génération de code simplifié ont grandement
aidé les entreprises, ils restaient toutefois incomplets puisqu’ils ne
proposaient pas une automatisation des tâches ainsi que la visibilité en
54
temps réel des informations. Par ailleurs, les administrateurs devaient gérer
manuellement le code compilé, et transporter les fichiers d’un emplacement
à un autre. Dans le milieu et la fin des années 1990 on commence à utiliser
les « moteurs de données », permettant de définir quelles données sources
récupérer ainsi que la manière de les transformer pour les charger vers des
systèmes cible. La notion de processus d’extraction et de taches d’exécution
apparaît.
Ces moteur fonctionnent sur un système UNIX ou Windows et sont capables
d’établir des connexions directes quel que soit le système source /cible
considère (fichiers, SGBD,CRM…) : Les ETL apparaissent.
De récentes recherches du groupe Gartner Inc., leader mondial en conseil et
recherche dans les technologies de l’information, soulignent l’essor et le
succès du marche des outils ETL qui a progresse d’environ 13,5% l’année
dernière en générant plus d’un milliard de dollars de recettes.
Ce succès s’explique notamment par le besoin croissant des utilisateurs et
entreprises en matière de stockage de données et d’intégration de celles ci
que se soit en dehors ou à l’intérieur même des datawarehouse.
Une autre explication d’un tel succès réside dans le besoin pour de
nombreuses entreprises des secteurs de B to C (activité de business to
consumer ) banques , assurances , distribution de développer et analyser
leur activité et ce de façon régulière voir même en temps réel.
L’entreprise Informatica reste le groupe leader mondial dans le domaine des
solutions décisionnelles
Sur ce marche on trouve essentiellement deux grandes catégories d’ETL :
• Les ETL open sources
55
• Les ETL propriétaires
Opter pour les ETL open sources permettra de s’affranchir des couts de
licences élevés et de rester au plus près des spécificités des données métier
de l’entreprise avec la possibilité d’adapter l’ETL aux besoins de l’entreprise.
Les ETL open source s’adaptent plus facilement au changement à savoir a un
code spécifique et le coût de mise en place reste constant dans le temps .
Il convient de prendre en compte les couts de formation et de licence élevés
pour les ETL propriétaires, qui seront à mettre en place dans le cas ou la
part de code spécifique reste négligeable. Si l’entreprise possède un turn
over important il peut s’avérer difficile de maintenir les traitements
d’intégration des données ainsi que leur évolution.
Dans la plupart des projets décisionnels les ETL sont souvent assimilés aux
EAI (entreprise application integration), ce qui n’est pas tout a fait exact, il
convient donc de déterminer succinctement la frontière qui les sépare.
3.1.3 - ETL vs EAI: L'EAI n'est pas l'ETL, et vice-versa.
Les EAI permettent de mettre en exergue la communication inter-
applications. Ce sont généralement des applications qui offrent la possibilité
d’accès à d’autres logiciels de l’entreprise ou externes à l’entreprise.
La plupart des entreprises mettent en relation leur site de e-commerce avec
d’autres structures dans le cadre d’un partenariat par exemple ou avec le
« back-office», afin d’avoir la disponibilité des produits, l’état des stocks,
délais de livraison.
Si les ETL ont le pouvoir de transformer les données, ce n’est pas le cas des
EAI et c’est justement la où se situe la grande différence entre ces deux
systèmes.
56
En effet les EAI sont uniquement capables de récupérer les informations
brutes d’un système d’information que l’on appellera S1 et de les
transmettre à un système d’information S2 selon un processus bien défini
sans modification de données.
Enfin la plupart des EAI ne permettent pas la gestion et la transmission des
données temps réels et ne sont utilisés que pour un faible flux de données.
C’est pour cela que généralement les entreprises ont recours aux ETL pour
plusieurs raisons qui font l’objet de la partie qui suit.
3.2- Les ETL : un besoin de normalisation : Les causes du phénomène
en 3 étapes
Figure 3.4 : le processus ETL en 3 étapes
La figure ci dessus explique les raisons pour laquelle les entreprises ont
souvent recours aux ETL à savoir :
• Une synchronisation massive d'informations volumineuses et
hétérogènes
• Des besoins différents en termes de transformation de données.
• Chargement des données dans différentes applications décisionnelles.
57
Ce besoin de normalisation réside entre autres dans le fait de bien structurer
et nommer l’information puisqu’elle provient de différentes sources,
Pour illustrer cela nous allons prendre deux exemples :
Nom de tables = SOURCE_PAYS / MUST_FR ou encore CMS_FR
Nom des procédures de traitement :
TYPE_DE_TRAITEMENT_SOURCE_PAYS/RUN_EXTRACT_CMS_FR
L’ensemble des éléments théoriques exposés au cours de cette troisième
partie dédiée aux ETL, ont été mis en exergue tout au long de la mission qui
m’a été confiée. Il serait donc intéressant de voir comment et pourquoi j’ai
proposé et mis en place ce processus ETL sur le site de la General Electric.
3.3- Mise en place pour le projet du processus ETL
Cette partie décrira précisément comment par rapport à ce qui a été énoncé
aux ETL j’ai effectué la collecte la transformation et la diffusion de données
afin d’afficher au final les informations qui permettront une prise de décision
efficace et donc une meilleure qualité de service. Les principaux éléments qui
seront présentés entrants dans ce processus sont les suivants :
• Le serveur CMS Avaya qui contient l’ensemble des données liées aux
appels clients.
• Le mainframe MUST qui concerne plutôt la gestion des tickets
d’incidents qui sont des ouvertures d’affaires après vente suite à un
dysfonctionnement d’équipements d’imageries médicales.
• L’ETL de Microsoft SQL SERVEUR INTEGRATION SERVICES.
Conformément aux spécifications fonctionnelles (Annexe 1) voici
l’architecture fonctionnelle apportée au besoin du client.
58
Figure 3.5 :Processus fonctionnel de transmission de l’information
La partie extraction et transformation mentionnée ci dessus permettra
l’alimentation du datawarehouse en appliquant des transformations de
données. L’alimentation de notre entrepôt de données se fera grâce a SQL
SERVEUR INTEGRATION SERVICES, l’ETL de Microsoft, par le biais de
packages qui contiendront l’ensemble des composants d’extraction et de
transformation des données. Voici après le workflow fonctionnel le processus
technique mis en œuvre allant de l’étape d’extraction des données serveurs à
l’étape d‘alimentation du datawarehouse.
59
Figure 3.6: Processus technique de transmission de l’information
Ceci dit nous allons dans ce qui suit nous attarder sur chaque partie de ce
processus en passant par les scripts d’extraction, le mécanisme de screen
scrapping, l‘alimentation du datawarehouse jusqu’au chargement des
données et l’affichage sur les stations distantes.
L’accès à la base du mainframe par ODBC n’étant pas autorisé pour des
raisons de sécurité et de performance, la solution qui a été discuté et
finalement déployée, afin d’extraire les données, est celle du screen
scrapping via des scripts en langage vb développés sous humming bird basic
et lancés sur le mainframe à travers son émulateur humming bird host
explorer(IHM).
MAINFRAME MUST
60
Le Screen scraping est une technique dans un programme qui récupère des
données de l'affichage de sortie d'un autre programme. Le programme
développé réalise un balayage de tout l’écran de l’application distante. Dans
notre cas il s’agira de balayer tous les écrans de références A226 de MUST.
Le programme réalisant une telle opération est alors qualifié de « screen
scrapper » (Annexe 2 extrait du screen scraper réalise pour l’Italie)
L’environnement de développement HUMINMING BIRD BASIC avec l’interface
de connexion au mainframe HOST EXPLORER permet de lancer le « screen
scrapper »
HostExplorer produits offrent un large éventail d'i nterfaces de programmation d'applications (API), un document sta ndard utilisé pour programmer les applications. Ces API vous perm ettent de exploiter les fonctionnalités et les caractéristiqu es de HostExplorer produits à partir de vos propres progr ammes et des Avec Host Explorer, il est possible d’automatiser des tâches répétitives par
exemple, le contrôle des données améliorant ainsi leur fiabilité. Dans notre
cas le « screen scraper » permettra dans un premier temps de balayer
l’ensemble de l’écran, et enregistrer de façon continue les informations pour
alimenter un fichier texte (partie de gauche de la figure 3.6) à partir de
l’écran courant.
61
Figure 3.7:Ecran A226 must sur lequel le screen scraper réalise
l’extraction.
L’extraction qui cette fois si concerne des informations CMS Avaya est à
mettre en œuvre le plus rapidement possible puisqu’il s’agit de données
sensibles qui seront affichées en temps réel contrairement à must ou il est
toléré que les informations soient affichées avec un temps de
rafraichissement de l’ordre de quelques secondes voir quelques minutes.
62
Le CMS Avaya est conçu de manière à fonctionner dans un réseau distribué
de traitement d'appels pour call centers. Ce CMS offre un ensemble de
fonctionnalités liées au domaine des réseaux/télécom.
Il s’agit en particulier d’une interface permettant de gérer les appels
entrants. Ces appels sont caractérisés par un certain nombre de critères vus
précédemment. Afin d’extraire l’ensemble de ces données Il faut
préalablement avoir créé un rapport temps réel en renseignant les VDN
souhaites dans notre cas on prendra le VDN des appels clients allant de 1226
à 1240 et le VDN FE de 6221 a 6236.
Ces VDN sont des numéros utilisés dans les ACD pour connecter les appels
client ou FE vers un vecteur de transformation.
Un vecteur correspond globalement à une liste de nombres qui identifient la
provenance de l’appel. Un vecteur peut acheminer les appels vers d'autres
destinations. Chaque vecteur est identifié par un VDN.L’utilisation de
vecteurs permettent de définir le comportement du système lors d’un appel :
• Redirection d’appel
• Configuration du message d’attente
• Délai d’attente
63
Nous allons dans ce qui suit décrire les processus et méthodes utilisés sur
ces deux outils présentés jusqu’ à présent (CMS et MUST)
Figure 3.8:Création d’un rapport CMS temps réel
Ci dessus le rapport temps réel FE_CLIENT qui a été crée avec la saisie les
VDN clients et FE. A noter qu’il est possible de choisir le délai de mise à jour
des données par le serveur.
C’est le rapport visible en figure 3.9 qui est extrait au moyen du script vb
acsauto de la figure 3.6.
L’ETL Symon, utilisé uniquement à Buc, récupère ce rapport par telnet et
réalise l’affichage des valeurs ainsi récupérés. Pour la mise en place de ce
système pour les autres pays de GE, le script acsauto joue le rôle de
récupération des données, l’application java celui de l‘afficheur , le process
de Business intelligence faisant l’intermédiaire.
64
Figure 3.9:Le rapport CMS temps réel généré
Un script réalisé en VB permet de récupérer directement ce rapport temps
réel du serveur et alimenter en boucle le fichier CMS.txt (Annexe 2). Ce
script tourne en boucle avec des temps de pause de l’ordre de quelques
millisecondes afin de ne pas saturer le serveur. A noter que chaque pays
possède un fichier texte CMS et un fichier MUST qui feront l’objet du même
traitement que l’on est entrain de décrire.
Grace à L’ETL SQL SERVEUR INTEGRATION SERVICES (SSIS) nous allons
pouvoir récupérer ces fichiers et effectuer un certain nombre de
transformations.
Il sera aisément possible, grâce a la mise en place de packages contenants
des composants SSIS , de charger ces fichiers les transformer et les charger
dans le datawarehouse. Toutes les taches d’intégration sont regroupes dans
deux packages que l’on peut également qualifier de lot :
• Un lot MUST
• Un lot CMS
65
Le flux de contrôle « control flow » aura pour rôle d’établir l’enchainement
des taches du packages appelés taches de flux de données « data flow ».A
noter que dans un flux de control on peut également avoir des taches
d’exécution liées a des Data Flow.
Ci dessous la structure de nos packages MUST ET CMS.
Figure 3.9.1: Structure d’un package MUST ou CMS
Ces packages sont lancés automatiquement au moyen d’un traitement batch
qui lance chaque package, permettant ainsi d’alimenter constamment le
Control Flow
Tache
d’exécution
Data
Flow
Package
66
datawarehouse et donc d’afficher par la suite les données.
Figure 3.9.2: le contrôle flow qui lance le dataflow.
Avant de lancer le flux de données, une tache d’exécution SQL est tout
d’abord lancée qui supprime les anciennes informations contenues dans les
tables avant le début de l’alimentation par les nouvelles valeurs. Le
traitement du control flow etant acheve le flux de donnees est lance.
Figure 3.9.3: le data flow qui lance l’alimentation du datawarehouse.
67
La source mentionnée dans la structure du package représente le fichier qui
a été préalablement alimente suivant le processus d’extraction de la figure
3.6.
La phase de transformation se décline en deux étapes :
• La conversion des données du fichier
• Le mappage (correspondance) des champs fichier /table de destination
(Figure 3.9)
Unicode est le système de codage de caractères spécifiques de différentes
langues (chaque caractère correspond à un code exprimé en base
hexadécimale ).
Il s’agira pour la première étape de convertir les données du fichier qui sont
de type Unicode (type DT_WSTR) en données non unicode (type DT_STR).
Une fois la conversion effectuée un mappage est réalisé entre les
informations du fichier et la table cible. Par un jeu de correspondance de
champs on peut alors sélectionner les champs à transmettre à la table cible
et la manière de gérer la différence de champs entre le fichier et la table
cible.
L’avantage d’un tel processus réside également dans le fait qu’il est possible
de déclencher d’autres taches ou d’autres événements tout en gérant les
erreurs d’exécution du package.
68
Figure 3.9.4: Mappage des champs entre le fichier source et la table
de destination
Le datawarehouse étant alimente continuellement par l’ETL il convient de
poursuivre avec l’affichage des informations souhaitées par les différents
managers des call center décrites dans les spécifications fonctionnelles.
Pour cela l’application réalisée en java va pouvoir via l’API JDBC récupérer du
datawarehouse les informations à afficher. Le traitement et l’affichage des
données en temps réel a contraint à l’utilisation de timer qui relance le
processus de récupération et d’affichage de données.
Le serveur, station sur laquelle se trouve l’entrepôt de données, envois
régulièrement au client les nouvelles informations MUST et CMS ainsi mises à
jours .Ces données transitent par le protocole de communication UDP qui est
moins fiable mais plus rapide que le protocole TCP .Dans la mesure ou le
temps de réponse est un critère très sensible c’est ce type de protocole qui a
69
été choisi et mise en œuvre. Pour chaque call center l’affichage réalisé est
diffusé sur écran LCD comme suit:
Un écran « inroom » sur lequel est présenté l’ensemble des appels clients et
FE , avec un bilan par secteur (ensemble de départements) de tous les jobs
critiques(nombre de jobs critiques , temps d’attente, service level…)
Figure 3.9.5: Ecran salle pour tous les Call center.
Le deuxième écran « écran user » quant a lui détaille le premier avec pour
chaque région Nord, Sud, Est, Ouest le descriptif de chaque job avec sa
durée ainsi que le site de localisation. Un système de basculement entre
chaque affichage a été réalisé pour passer d’une région à une autre.
Figure 3.9.6: Ecran user pour tous les Call center.
70
3.4-Impacts de la solution déployée : « le visual management »
Le déploiement de cette solution, grâce au large éventail de techniques et
d’outils que propose la business intelligence, pourra améliorer directement la
qualité de service client des calls center de la General Electric. En ce sens la
mise en place de ce système, avec la possibilité de visualiser en temps réel
l’ensemble des ouvertures d’affaires après vente ainsi que tous les appels
clients et FE, permettra un gain de temps non négligeable. En effet le fait
d’avoir une seule application avec les bonnes informations au bon moment,
dispensera les utilisateurs qu’ils soient managers ou operateurs d’effectuer
de nombreuses opérations manuelles afin d’avoir l’information voulue au
moment voulu. Pour illustrer ceci s’il l’on prend les ouvertures d’affaires
après vente du mainframe must, pour avoir ces données l’utilisateur était
contraint de se connecter au mainframe d’effectuer une série de
manipulations et de recherches afin de trouver les ouvertures d’affaires dont
le délai est critique. Or avec ce nouveau système il sera aisément possible
d’avoir cette information sans aucune intervention humaine ni recherche,
d’ou un gain de temps considérable et par conséquent une rapidité de
traitement des besoins du client pour une meilleure qualité de service. A
noter également que ce système facilitera la prise de décision par les
managers qui auront tous les indicateurs clé nécessaires à la prise décision
(temps d’attente des appels, temps de réponse, nombre d’appels…)
La solution déployée touche un domaine particulier : celui du « visual
management ».
Il s’agit d’une méthode de création d'un environnement riche en informations
par l'utilisation de signaux, symboles , objets, lumières vives, panneaux, qui
attirent l'attention des personnes et qui permet de communiquer
l'information importante dans un environnement de travail.
71
« L'image nous donne le réel dans sa totalité et surtout son
immédiateté : et la parole vient encore, de surcroît, s'ajouter au
visuel et le renforcer»
François Dagonnet
Le succès et la notoriété des entreprises reposent en grande partie sur leur
capacité de pouvoir effectuer des mesures précises quel que soit le type de
processus considérées. Afin de répondre au mieux aux attentes des clients et
ainsi leur fournir un produit conforme à l’ensemble des spécifications
fonctionnelles mais aussi techniques, il convient de décomposer les
exigences clients en critères mesurables : C’est l’objet de la méthode six
sigma qui permet de respecter ce processus et d’assurer une qualité de
service optimale.
4-Une méthode pour une meilleure qualité de service client : Lean
Six Sigma
4.1- Lean Six Sigma : un système qui aide à "prévoir" pour ne
pas être obligé de "revoir"
La lettre grecque sigma « σ » signifie déviation standard et représente
l’écart moyen ou la dispersion des valeurs autour de la moyenne il s’agit de
l’écart type.
Représente la variable aléatoire (échantillon de travail)
Représente la moyenne calculee
72
Représente la variance.
Il apparaît clairement que le calcul de l’écart type s’obtient en prenant la
racine carré de la variance. Plus cet écart type est faible plus les valeurs se
rapprochent de la moyenne.
Six sigma est une méthode statistique qui décrit le nombre de déviations
existantes dans un ensemble de données, un groupe d’articles ou de
processus. Par exemple si l’on décide de peser un paquet de chocolats ayant
des formes différentes, on obtiendra une déviation standard plus grande que
s’ils avaient tous la même taille. Une limite de tolerance égale a 6σ
représenterai pour une chaine de production de véhicules une production
homogène avoisinant le zéro default. Afin de savoir vers quel nombre de
sigma on se rapproche il suffit d’appliquer la formule dite du « Z » suivante :
Nombre de sigma = |(moyenne – LSL)/écart type)|
Le LSL : le lower spec limit correspond à la valeur minimale voulue par le
client du CTQ étudié dans les spécifications fonctionnelles. (cf partie 4.3.2
application de la méthode au projet).
Figure 4.1 : Courbe de gauss
Six sigma permet d’effectuer une mesure statistique de la performance des
processus et/ou des produits des entreprises. Le but étant de chercher la
73
perfection dans l’amélioration des performances. Il s’agit d’un système de
management durable permettant aux entreprises d’atteindre leurs objectifs
en améliorant la performance de leur activité globale et ce même au niveau
international. En ce sens cette méthode permettra de réduire les pertes et
les coûts des entreprises en renforçant leur image de marque.
Le cœur de la méthode réside en la décomposition des besoins clients en
étapes précises et en critères de qualité mesurables appelés CTQ « Critical
To Quality ».
4.2- Une méthodologie par étapes le « DMAIC » : define mesure
analyse improove control
Chaque critère de qualité doit préalablement avoir validé une étape pour
passer à la suivante, jusque l’étape finale de contrôle du produit. Voyons de
plus prés ce que propose cette décomposition :
Figure 4.2: Plusieurs étapes pour une qualité de service optimale
Ce modèle par étape permet au final une meilleure fiabilité du produit ainsi
qu’un rapport performance/cout idéal.
74
Ce processus précise qu’en phase de conception il est difficile de détecter ou
prévoir des defaults qui par contre sont facilement visibles lors de la mise en
production sur le site client.
Si les défauts représentent un coût négligeable en phase de conception ce
n’est pas le cas lors de la phase de production où le moindre défaut est un
coût important pour l’entreprise. Il convient donc s’axer les efforts en phase
de conception afin d’éviter par la suite d’être confronté à des contraintes
inhérentes au coût ou à la fiabilité du produit.
Auparavant les efforts de maximisation de la qualité de service, grâce à la
mise en exergue de la méthode six sigma, se faisaient en phase de
production. De nos jours c’est en phase de recherche et de développement
où ces efforts d’amélioration de la qualité des produits et/ou services se font.
Ceci permet de minimiser le plus possible les coût liés à la correction de
défauts et ce des la phase de définition des critères de qualité des produit et
services .(Annexe 1)
4.2.1-Define
Il convient lors de cette première étape d’identifier le contexte dans lequel se
trouvent les clients (données sensibles ou pas par exemple) ainsi que leurs
exigences fonctionnelles concernant le produit ou service final à livrer.
Pour cela il s’agira de fixer des objectifs en matière de qualité en
décomposant les besoins clients en CTQ «mesurables puis de cerner le type
de fonctions souhaitées, le type de besoin (performance, sécurité,
organisation) et l’enjeu du projet.
Pour atteindre les objectifs que décrit cette première phase un ensemble
d’outils et de méthodes sont utilisés, parmi lesquels le model de Kano qui
75
permet de cadrer et définir clairement le besoin, à travers un ensemble
d’interviews basées sur des affirmations antagonistes
Source: programme BAA HEC Montreal
Figurer 4.3 : Modèle d’interview
Figure 4.4 : Le modèle de Kano
Ce modèle propose une représentation selon deux axes : Le premier axe
vertical représente le degré de satisfaction du client et le second le degré de
Le téléphone possède un écran en couleur
1) Cela me plaît
2) Cela est normal ainsi
3) Cela m’est égal
4) Je m’en contente
5) Cela me déplaît
Le téléphone ne possède
pas d’écran en couleur
1) Cela me plaît
2) Cela est normal ainsi
3) Cela m’est égal
4) Je m’en contente
5) Cela me déplaît
76
réalisation d'une fonction, d'une caractéristique ou d'une prestation. Une fois
le cadrage des besoins effectué puis la décomposition des exigences client en
CTQ achevée , il est nécessaire de procéder aux mesures de ces CTQ.
4.2.2-Mesure
Les critères de qualités définis lors de l’étape précédente doivent faire l’objet
de mesures précises : c’est l’objet de cette phase. C’est au niveau des
spécifications fonctionnelles que le client va préciser les valeurs chiffrées des
résultats de la performance du produit qu’il souhaite obtenir avec une marge
d’erreur.
Il s’agira donc de respecter ces valeurs conformément aux spécifications.
Pour cela afin d’arriver aux résultats attendu par le client, un intervalle de
tolérance égal a 6σ serait idéal, cela signifierai que la fiabilité du produit
avoisinerai les 100% donc la perfection. En réalité il est difficile voir quasi
impossible d’atteindre ce seuil. En ce sens un système bien conçu aura un
une valeur égale à 2 sigma.
Cette phase consiste globalement à reproduire un ensemble de mesures de
façon répétitive et surtout dans les mêmes conditions de tests et de
développement, sans quoi les mesures seraient incorrectes. Une fois les
mesures réalisées on obtient la moyenne ainsi que la déviation standard
expliquée lors de la première phase de définition des CTQ.
Si l’écart type est faible, c’est à dire que toutes les valeurs se rapprochent de
la moyenne, une courbe est obtenue qui respecte la loi normale : la courbe
de gauss ».
77
Figure 4.5 :Processus non conforme aux CTQ client
Figure 4.6 : Processus conforme aux CTQ client
Dans ce cas la le processus est pratiquement conforme aux mesures désirées
par le client et le produit passe a l’étape suivante celle de l’analyse.
78
4.2.3-Analyse
La phase d’analyse constitue une phase très importante dans le
développement du produit ou du service puisqu’elle permet d’évaluer la
pertinence et la conformité du système. Autrement dit cette étape va
permettre de détecter les points faibles du système afin de pouvoir les
corriger par la suite. La méthode FMEA utilisée dans cette étape préconise
d'analyser les modes de défaillance, leurs effets sur le produit et leur criticité
(Annexe 4). Un tableau récapitulatif permettra de préciser les éléments
suivants :
• Les étapes du processus avec les paramètres en entrée
• Le mode d’échec potentiel
• Les effets de cet échec potentiel
• Les causes de cet échec
• Le plan d’action a mettre en place
Une fois ces éléments renseignes la dernière étape consiste a déterminer La
criticité des événements qui est donnée par la formule suivante :
Criticité C = G x F x D avec :
• G : la Gravité ( de 1 a 5)
• F : Probabilité d’apparition de la défaillance (de 1 a 4)
• D : la détectabilité (de 1 a 5)
Ce n’est qu’une fois cette analyse de risques effectuée que le développement
et l’amélioration du produit ou du service peut démarrer.
79
4.2.4.- Improve/verify
Le design du produit doit être paramétré avec des règles de nommage
précises dans le cas où il serait reprit par une autre entreprise ou un autre
collaborateur. Il s’agit d’adapter le développement aux besoins de
l’utilisateur et non pas l’inverse. L’étape d’optimisation du produit consiste à
en faire un produit robuste et de diminuer les risques de panne en identifiant
et en implémentant les solutions de prévention de dysfonctionnements.
La dernière étape est celle du contrôle du produit final, en vérifiant si les
prévisions coïncident avec le produit réel et si les spécifications(CTQ) de
départ ont été tenues.
Si l’une de ces étapes du DMAIC n’est pas conforme aux exigences client ou
nécessite une modification un autre processus prend le relai : le DFSS
4.3-le "DFSS": Design for six sigma
Le DFSS est une méthodologie qui est généralement couplée au DMAIC afin
de reprendre des produits ou processus ne répondant pas aux exigences de
chacune des étapes du DMAIC. Elle est aussi utilisée dans le cas d’une
évolution du besoin du client. Autrement dit cette méthode s’applique dans
deux cas : Soit le non respect d’une étape du DMAIC, ou alors une variabilité
des attentes du client qui contraint à revenir a la phase de définition des
CTQ.
80
Figure 4.7 : un processus parallèle d’amélioration de la qualité : Le
DFSS
Pour chacune des étapes du DMAIC on vérifie leur conformité :
Si aucune anomalie ne survient lors du DMAIC le processus continue sinon on
revient à l’étape de définition du DFSS.
Ces deux processus couplés qui permettent d’assurer une qualité de produit
ou de service optimale, sont en tout point un avantage pour les entreprises
d’aujourd’hui qui ont opté pour cette méthode d’amélioration de la qualité.
4.4- impact de la méthode sur la qualité de service client
4.4.1-Bénéfices pour les entreprises ayant adopte cette méthode
Les entreprises suivantes ont adopté et mis en œuvre avec succès Six Sigma
1985-87 : Utilisation des bases de la méthode par Motorola
1990: IBM
1991: Texas instrument
1994-1996: General Electric, Kodak
1996-1998: Nokia, Sony, Ford
81
C’est par l’intermédiaire de toutes ces structures que six sigma est arrivée en
France et s’applique de plus en plus sur toute l’Europe .Les bénéfices d’une
telle méthode sont les suivants :
• Flexibilité dans le changement de produits et services.
• Fiabilité des produits ou services.
• Bon rapport performances / coûts
• Qualité conçue des le départ.
• Croissance des revenus
• Satisfaction client
• Gains de part de marchés.
• Augmentation du volume de ventes
• Prix concurrentiels
• Réductions de coûts.
• Réduction des pertes lies aux défauts de conception.
L’application de cette méthode sur la mission proposée a la General Electric
à permit d’améliorer considérablement la qualité de l’application et par
conséquent la qualité de service.
4.4.2-Impact de la méthode sur le projet réalisé
Voici globalement les principaux CTQ qui ont été identifiés concernant ce
projet :
• CTQ temps de réponse
• CTQ visibilité
• CTQ modularité
• CTQ robustesse
Le principal CTQ sensible qui a été défini lors de la première étape de la
méthode est celui du temps de réponse. Nous allons dans ce qui suit nous
82
intéresser à l’évolution de ce CTQ au fur et à mesure de la modification du
développement. Il s’agit de respecter, conformément aux spécifications, un
temps de réponse de 3s pour les appels clients et FE.
Processus six sigma suivi pour ce CTQ particulier.
Define
CTQ = Temps de réponse.
Mesure
Mesure du délai entre l’émission d’un appel et la prise en compte de son
affichage sur l’application temps réelle.
Analyse
Défauts constates dans le développement qui ont été corriges et/ou
améliorés.
Improve /Control
Optimisation du code et vérification que les modifications du développement
n’impactent pas le fonctionnement de l’application et encore moins le temps
de réponse. (retro-développement)
Evolution du temps de réponse de l’application avec les différentes mesures
réalisés :
Les figures qui suivent montrent la fréquence d’obtention de la variable de
temps de réponse. L’axe horizontal représente le temps de réponse et l’axe
vertical la fréquence d’apparition de ce temps. Plus le nombre de mesures
effectuées est grand et plus l’on rapproche de la courbe de gauss.
Le LSL Lower Spec Limit concernant le CTQ temps de réponse est de 3s.
83
Design 1 Design 2
Design 1 :
Moyenne=14,58 secondes
Déviation standard =5,85
Nombre de sigma = |(Moyenne – LSL)/écart type)|
=|(14,58-3)/5,85|
= 2 sigma
Design 2 :
Moyenne=4,81 secondes
Déviation standard =1,19
Nombre de sigma = 1,5 sigma
Design final
Moyenne=2,43 secondes
Déviation standard = 0,71
Nombre de sigma = 1 sigma
84
Conclusion
Tout au long de ce mémoire nous avons vu globalement comment le
mouvement de démocratisation de l’informatique décisionnelle contribue à
améliorer la qualité de service client dans un contexte particulier : celui des
calls centers de GE Healthcare.
Force est de constater qu’une part encore non négligeable des managers ne
peut répondre à des questions liées a l’activité de leur entreprise telles que :
� Combien de clients avez-vous ?
� Pour chaque gamme de produit, quel est le volume de ventes de ce
trimestre ?
� Qui sont vos 20 meilleurs clients ?
La business intelligence avec la large panoplie d’outils et de méthodes qu’elle
propose pourra y répondre.
Aujourd’hui une grande partie des entreprises en incluant les PME/PMI
possèdent un volume d’informations de plus en plus important concernant
leurs clients, leurs fournisseurs, leurs ventes, leurs produits et services mais
aussi leurs concurrents, qu’elles n’exploitent pas forcément de la bonne
manière.
C’est pour cette raison là que nous avons vu comment en partant de
l’ensemble de ces informations volumineuses et hétérogènes provenant de
différentes sources, il est possible de les exploiter en les rendant riches et
visibles au moyen de la business intelligence. Ceci pour deux raisons
essentielles : une prise de décision plus rapide et efficace pour une
amélioration de la qualité de service client.
85
Nous sommes partis d’un concept global celui d’une ressource indispensable
à la prise de décision : l’information, en dressant les différentes formes
quelle peut revêtir, pour en arriver à la manière de la traiter et de l’exploiter
efficacement au moyen de l’informatique décisionnelle.
Il convient d’abstraire la structure de l’information, lui donner du sens et de
la convivialité. Exploiter l’information de manière efficace c’est se demander
de quelles types d’informations on dispose et comment peut on en effectuer
les traitements afin de refaire sortir les indicateurs clés de performance de
l’activité globale de l’entreprise. Ces bases d’informations permettent aux
entreprises de se doter d’un avantage concurrentiel non seulement par la
capitalisation de ces données mais aussi par leur analyse en vue de dégager
des tendances actuelles, les comparer aux précédentes et anticiper les
besoins des clients pour une meilleure qualité de service. Afin de mettre en
exergue cette notion d’exploitation efficace de données nous avons vu et
décrit tout au long de ce mémoire le système d’information dont dispose GE
Healthcare avec notamment les systèmes liés à la téléphonie (serveur
CMS,ACD,VDN…) , mais aussi au stockage des données clients (Mainframe
MUST) et comment, par l’intermédiaire de techniques avancées (ETL, screen
scrapping, datamining),l’information était restituée de façon claire pertinente
et surtout visible pour un pilotage éclairé de l’activité de l’entreprise.
Nous avons présenté les outils disponibles pour « informer » l’information
d’un ETL particulier (SSIS), avec les notions de packages, control flow et de
dataflow, qui fournit un ensemble de solutions pour gérer une masse
d’information de plus en plus grandissante.
La visibilité, la pertinence mais surtout la qualité de l’information a toujours
été un enjeu majeur pour les organisations qui, dans un environnement de
plus en plus concurrentiel, recherchent une qualité de produit et/ou de
86
service optimale. Pour cela nous avons évoqué un ensemble de méthodes
d’amélioration de la qualité de service (ITIL et Six sigma) avec une
application concrète de la méthode six sigma sur le projet dont j’avais la
charge.
L’outil Symon et la solution semblable développée (Tymon) pour les autres
pays (Italie , UK, Allemagne…) et mise en place à GE Healthcare à Buc , est
un moyen parmi d’autres de faciliter le processus stratégique de prise de
décision par les managers des calls centers de GE. En se sens grâce a cet
outil tous les indicateurs clés de l’activité globale de l’entreprise peuvent
êtres visualisés clairement sans aucune intervention ou manipulation
humaine.
Ce nouveau systeme developpé à la General electric permettra aux
managers des calls center d’avoir un outil que l’on peut qualifier de
management visuel permettant d’avoir les bonnes informations au bon
moment sans avoir à effectuer de longues operations manuelles et
repetitives.L’apport essentiel de ce developpement reside dans un gain de
temps conciderable et donc dans l’amelioration de la qualité de service qui a
été definie au cours de ce memoire.
A noter egalement l’aspect paramétrable et modulaire de l’application qui
pourra etre etendue a d’autres informations autres que celles des appels
clients et FE du call center.
En effet suite à de nombreuses discussions avec mes directeurs de projet il
s’avere que cette solution spécifique pour les calls center pourrait
éventuellement etre étendue pour les autres services de l’entreprise pour la
visualisation d’information en temps réel des « cases clarify » ,systeme de
gestion de tickets mais interne a l’entreprise.Ce systeme represente toutes
87
les demandes qui sont faites par les collaborateurs de l’entreprise concernant
leur conditions de travail (demande de formation,de matériel,congés…).
Le concept de business intelligence aborde tout au long de ce mémoire
représente donc un ensemble de techniques et d’outils s’adressant
particulièrement aux décideurs qui font face quotidiennement à des choix
stratégiques et tactiques. Il est donc nécessaire que les dirigeants (direction
générale mais aussi directions opérationnelles) aient un langage commun
partagé avec les techniciens de l’information.
L’objectif d’un tel système décisionnel est de connaître, mesurer, prevoir, et
d’agir en conséquence.
Les moyens pour y parvenir sont nombreux en passant par
� Une information :
Riche
Visible
Détaillée
Historisee
fiable
� des outils d’analyse et de restituions en adéquation avec le volume de
données à traiter
Aujourd’hui il existe un fossé d’incompréhension entre deux discours
diamétralement opposés :
D’un cote les discours marketing qui se focalisent sur l’informatique
décisionnelle et s’adressent aux dirigeants opérationnels des entreprises. Les
88
commerciaux, responsables marketing, RH s’efforcent d’offrir un large panel
de solutions particulièrement innovantes autour du métier de manager.
De l’autre cote on trouve les éditeurs de logiciels, dont le public concerné est
principalement celui des informaticiens, qui cherchent à réaliser un volume
important de vente de licences.
Les discours marketing actuels cherchent à prouver qu’il s’agit de se doter de
tel ou tel produit décisionnel pour que «tout marche ».Si l’on part sur ce type
de raisonnement , à quoi serviraient alors les consultants décisionnels, les
développeurs ainsi que les sociétés de services. Pour la mise en place de la
chaine décisionnel ces acteurs là ont leur rôle à jouer et sont indispensables
au déploiement et au maintien de projets BI.
Actuellement un constat de plusieurs entreprises notamment les SSII montre
que les métiers de l’informatique décisionnelle évoluent de plus en plus vers
des tâches d’administration de systèmes d’informations qui sont de plus en
plus complexes et qui ont un besoin crucial d’attention de soins et surtout de
sécurité.
« L'informatique devient bien plus complexe et, dans le même
temps, de plus en plus intimement imbriquée aux métiers de
l'entreprise »
Olivier Delachapelle, directeur marketing de Fujitsu Siemens Computers pour
la région du Benelux.
Au cours de ces dernières années et plus récemment, la manière dont les
entreprises utilisent leurs données a considérablement changé en évoluant
ainsi de simples traitements basiques à des méthodes et outils de prise de
89
décision efficaces qui permettent une utilisation stratégique des informations
dont disposent les organisations.
L’amélioration et le perfectionnement des méthodes, des outils et aussi des
différentes approches utilisées en BI, a parfait considérablement les
performances des organisations ayant recours à ce domaine particulier de
l’informatique. Le déploiement de projets BI , s’il est correctement planifie,
conçu et exécuté se traduira par une optimisation de la qualité de service
client et donc une profitabilité opérationnelle accrue.
Le déploiement d’un projet de business intelligence sera toujours aussi
avantageux pour les organisations actuelles s’il est bien conçu et ce a
différents points de vues :
� Amélioration de la qualité de service donc de la satisfaction
client.
• Accroissement de la rentabilité :
L’informatique décisionnelle pourra aider les entreprises à évaluer la
pérennité ou la durée de vie de leurs clients ainsi que les prévisions à court
terme de leurs résultats. Ces informations seront utilisées en tant que base
de connaissance afin de distinguer les clients rentables de ce qui ne le sont
pas.
• Diminution des couts inhérents a :
� La gestion logistique
� L’entreposage
� Aux frais de livraison
� Développement et amélioration de la gestion de la relation
Client (CRM).
90
Il s’agit essentiellement d’applications BI qui analysent les informations liées
aux comportements des clients. (Fréquence de commandes passées par
exemple).
L’analyse de ces données permettra d’améliorer la réactivité du service
propose ainsi que la fidélisation du client.
� Diminuer les risques :
Par l’analyse de la pérennité des clients et fournisseur (emprunts accordes
par exemple) afin de rationaliser le chaine logistique. En d’autres termes
adapter la stratégie d’entreprise en fonction de la situation financière des
créanciers.
Il est important de savoir que ce qui compte n’est pas ce que l’on sait mais
bien ce que l’on fait avec ce que l’on sait. En d’autres termes dans le
domaine de la Business intelligence il s’agit d’investir afin de construire un
environnement dans lequel les données (ce que l’on sait) sont transformées
en connaissances (ce que l’on fait avec ce que l’on sait).
Les organisations ne font pas que produire de l’information, elles disposent
d’un ensemble d’outils décisionnels et de méthodes afin d’extraire les
informations stratégiques souhaitées et enfin mesurer l’efficacité de la mise
en place de l’ensemble des actions entreprises, on parle de « ROI » (retour
sur investissement.)
91
De plus en plus de chefs de projets ont tendance à évaluer ce retour sur
investissement dans un projet BI
ROI = (économies réalisées – investissement /investissement ) *
100
Entreprendre un projet BI engendre des coûts qu’il convient de prendre en
compte :
� Les coûts fixes : Acquisition de l’infrastructure
Achats du datawartehouse
Licences de bases
Serveurs
� Les coûts variables : L’activité en elle même
Licences des outils ETL
� Coûts de développement
� Coûts de maintenance
Le secteur de la business intelligence n’est pas impacte par la crise
économique actuelle. En effet ce secteur reste en pleine croissance malgré la
crise que connaît notre société actuelle. Bien au contraire les ETL ainsi que
les outils de gestions dédiés à la BI représentent plus que jamais un secteur
d’activité en pleine croissance et permettent aux entreprises de faire face a
la concurrence, à la crise par une meilleure visibilité de la performance de
l’entreprise et une prise de décision rapide et efficace par cette période de
ralentissement économique.
92
Glossaire
ACD« Automatic Call Dispatch »
Commutateur automatique qui permet suivant un routage bien précis
d'acheminer des communications téléphoniques. A GE Healthcare ce
commutateur est chargé de réceptionner et d’aiguiller les appels clients ou
FE vers les operateurs des calls center.
BI « business intelligence »
Concept désignant les moyens permettant de rassembler , intégrer, analyser,
et partager les données de l’entreprise afin d’optimiser la prise de décision. Il
s’agit d’un terme qui désigne les solutions logicielles combinant à des fins
décisionnelles des fonctions d’interrogation de base de données de reporting
et d’analyse multidimensionnelle(OLAP).
CMS « Call management system»
Un système CMS constitue une solution d’efficacité opérationnelle proposant
une analyse et une création de rapports intégrés de façon à aider à rester en
contact avec tout ce qui se passe dans un call center qu’il s’agisse d’évaluer
les performances d’un agent, d’un groupe d’agents, d’un centre de contact
spécifique ou de plusieurs centres dans le monde entier.
A GE Healthcare le CMS déployé est celui d’AVAYA qui permet de
réceptionner les appels issus de l’ACD et d’en faire des statistiques.
Control flow
Composant d’un outil ETL qui peut regrouper plusieurs dataflow avec leur
liaisons et en contrôle l’exécution.
93
CRM « Customer Relationship Management»
Système permettant de renforcer la communication entre l’entreprise et ses
clients par l’automatisation des tâches :
� D’avant vente
� De vente
� De gestion de service client
� De service après vente.
CTQ « Critical To Quality»
Critères de qualité qui représentent la décomposition des exigences clients
en critères mesurables selon la méthode Six Sigma.
Data flow
Composant d’un ETL qui permet de lancer un ensemble de traitements d’une
source vers une destination par exemple.
Datamart
Sous ensemble d’un datawarehouse lié à un métier de l’entreprise (finance,
marketing, RH…) et conçu pour répondre à un besoin spécifique d’un groupe
d’utilisateurs tout en respectant les exigences de sécurité de l’entreprise.
Datamining
Méthode d’exploration automatique des données visant à révéler les
tendances récurrentes et corrélations entre les données difficilement
repérables a « l’œil nu ».
94
Datawarehouse
Entrepôt de données, isolé des systèmes opérationnels permettant de
stocker des données thématiques dans un but de faciliter la prise de
décision.
DFSS «Design For Six Sigma»
Le DFSS a pour objectif de déterminer les besoins des clients de l'entreprise,
et la conduite de ces besoins dans la solution du produit à créer.
EAI «Entreprise Application Integration »
Il s’agit d’un terme désignant l’interopérabilité et l’organisation de la
circulation de l’information entre des applications hétérogènes. En d’autres
termes les EAI permettent de faire communiquer les différentes applications
constituant les systèmes d’informations de l ‘entreprise.
EIS «Executive Information System»
Tableaux de bords et graphiques synthétiques présentant une vision assez
large de l’activité d’une organisation.
ETL «Extract Transform Load»
Outils destinés à l’extraction la transformation et au chargement des
données dans le datawarehouse.
FE «Field Engineer »
Ingénieur terrain de GE qui se déplacent sur les sites clients (hôpitaux,
cliniques, cabinets médicaux) afin de résoudre des anomalies liées aux
systèmes médicaux qu’elles soient matérielles ou logicielles.
95
JOB MUST
Ouvertures d’affaires après vente .Il s’agit d’un client qui appelle pour un
dysfonctionnement matériel ou logiciel de ses équipements d’imagerie
médicale
LCT
Dans le jargon de GE un LCT représente un ensemble de secteurs.
MUST
Main frame utilisé par GE Healthcare afin de gérer et traiter l’ensemble des
données clients avec en particulier les ouvertures d’affaires après vente.
OLAP «Online Analytical Processing»
Technologie utilisant des structures multidimensionnelles (cube OLAP) pour
offrir un accès rapide aux données en vue d’une analyse. Ces données sont
souvent stockées dans le datawarehouse.
Secteurs
A GE les secteurs correspondent à un numéro unique qui identifie un
ensemble de départements.
Six sigma
Méthode d’amélioration de la qualité de service ou de produit donné par la
décomposition des besoins clients en critères mesurables (CTQ).
96
Symon
Symon communications est un des principaux fournisseurs mondiaux de
solutions de communication visuelle. Il propose des solutions de logiciels et
matériel pour la gestion de la collecte, conception, et planification de contenu
numérique. C’est uniquement à GE Healthcare Buc que les managers du call
center possèdent le « panneau Symon » pour la visualisation des appels
clients et FE en temps réel.
Tymon
Solution équivalente développée pour les autres calls center de GE
Healthcare qui comprend, en plus des appels clients et FE du Symon, les jobs
must en attente en temps réel pour chaque LCT de chaque pays, avec un
système de basculement d’ecran entre chaque LCT.
VDN «Virtual Dial Number»
Numéros utilisés dans les ACD pour connecter les appels client ou FE vers un
vecteur de transformation.
Vecteur
Liste de nombres qui identifient la provenance de l’appel. Un vecteur peut
acheminer les appels vers d'autres destinations. Chaque vecteur est identifié
par un VDN.L’utilisation de vecteurs permet de définir le comportement du
système lors d’un appel (Redrection d’appel, délai d’attente , configuration
du message d’attente…)
97
Table de figures
Figure 1 : Cube OLAP .................................................................................................................... 5
Figure 2 : Panneau Symon ........................................................................................................... 7
Figure 1.2: La collecte d’informations ....................................................................................... 14
Figure 1.3: Processus de gestion d’appels a GE. ........................................................................ 15
Figure 1.5 : EIS pour le volume de ventes .................................................................................. 20
Figure 1.6: le client un actif de l’entreprise (centralisation sur serveur des accès). ................. 21
Figure 1.7: La transmission de données sources vers des données de destination .................. 24
Figure 1.8: Traitement et affichage des données par l’ETL Symon. .......................................... 26
Figure 1.9 : Les étapes de la prise de décision dans l’entreprise .............................................. 34
Figure 1.9.1 : Le domaine transactionnel et analytique. ........................................................... 35
Figure2.2 : impact de la business intelligence sur la qualité de service client. ......................... 41
Figure 2.3 : exemple de représentation habituelle du modèle multidimensionnel sous forme
decube. ...................................................................................................................................... 42
Figure 2.5 : OLAP et le datamining ............................................................................................ 47
Figure 2.6 : Modélisation des données CMS ............................................................................. 48
Figure 2.7 : Modélisation des données MUST ........................................................................... 49
Figure 3.1 : approche traditionnelle de transformation des données par stockage temporaire.
................................................................................................................................................... 50
Figure 3.3 : Alimentation de l’ETL .............................................................................................. 51
Figure 3.4 : le processus ETL en 3 étapes .................................................................................. 56
Figure 3.5 :Processus fonctionnel de transmission de l’information ....................................... 58
Figure 3.6: Processus technique de transmission de l’information .......................................... 59
Figure 3.7:Ecran A226 must sur lequel le screen scraper réalise l’extraction. .......................... 61
Figure 3.8:Création d’un rapport CMS temps réel .................................................................... 63
Figure 3.9:Le rapport CMS temps réel généré........................................................................... 64
Figure 3.9.1: Structure d’un package MUST ou CMS ................................................................. 65
Figure 3.9.2: le contrôle flow qui lance le dataflow. ................................................................. 66
98
Figure 3.9.3: le data flow qui lance l’alimentation du datawarehouse. .................................... 66
Figure 3.9.4: Mappage des champs entre le fichier source et la table de destination ............. 68
Figure 3.9.5: Ecran salle pour tous les Call center. .................................................................... 69
Figure 3.9.6: Ecran user pour tous les Call center. .................................................................... 69
Figure 4.1 : Courbe de gauss ...................................................................................................... 72
Figure 4.2: Plusieurs étapes pour une qualité de service optimale .......................................... 73
Figure 4.3 : Modèle d’interview ................................................................................................. 75
Figure 4.4 : Le modèle de Kano.................................................................................................. 75
Figure 4.5 :Processus non conforme aux CTQ client ................................................................. 77
Figure 4.6 : Processus conforme aux CTQ client ........................................................................ 77
Figure 4.7 : un processus parallèle d’amélioration de la qualité : Le DFSS ............................... 80
99
Table des matières
Introduction : ........................................................................................................................................... 1
1-L’information une ressource stratégique ............................................................................................. 10
1.1-Les différentes catégories d ‘informations .................................................................................... 10
1.1.1-L’information formelle .......................................................................................................... 10
1.1.2-L’information informelle ........................................................................................................ 12
1.1.3- Le Croisement des deux sources d’informations ................................................................... 13
1.1.4-L’information existante concernant le projet réalise .............................................................. 14
1.2- Evolution de l’information et des techniques de visualisations. ................................................... 18
1.2.1 –Historique ............................................................................................................................ 18
1.2.2- Symon : une solution d’affichage et de visualisation efficace. ............................................... 25
1.3-L’Information au centre de la décision en entreprise. ................................................................... 30
1.3.1-La prise de décision. .............................................................................................................. 30
1.3.2-Cas pratique : La prise de décision par les managers des calls center a la General Electric. .... 32
1.3.3-Evolution croissante du besoin d’aide a la décision. ............................................................... 33
2- La business intelligence pour un meilleur management de la qualité de service. ................................ 37
2.1- BI et intelligence économique : un abus de langage ? .................................................................. 37
2.1.1- Définitions ............................................................................................................................ 37
2.1.2- Les impacts de l’informatique décisionnelle sur la qualité de service .................................... 39
2.1.3- ITIL : Un référentiel et un outil supplémentaire pour l'optimisation de la qualité de service .. 43
2.2- Un service d’intégration : le Datawarehouse ............................................................................... 45
2.2.1-Concepts généraux ................................................................................................................ 45
2.3-Une Analyse multidimensionnelle : Le datamining ....................................................................... 46
2.3.1-OLAP et la fouille de données ................................................................................................ 46
2.3.2-Analyse et représentation des données du projet .................................................................. 48
3-Caractéristiques du mécanisme de centralisation des données par ETL. .............................................. 49
3.1- Le marche et les catégories d'outils ETL ....................................................................................... 49
3.1.1- Approche et définition des ETL ............................................................................................. 49
3.1.2 – Histoire et marche actuel des ETL ....................................................................................... 53
100
3.1.3 - ETL vs EAI: L'EAI n'est pas l'ETL, et vice-versa. ...................................................................... 55
3.2- Les ETL : un besoin de normalisation : Les causes du phénomène en 3 étapes ............................. 56
3.3- Mise en place pour le projet du processus ETL ............................................................................ 57
3.4-Impacts de la solution déployée : « le visual management » ......................................................... 70
4-Une méthode pour une meilleure qualité de service client : Lean Six Sigma ........................................ 71
4.1- Lean Six Sigma : un système qui aide à "prévoir" pour ne pas être obligé de "revoir" .................. 71
4.2- Une méthodologie par étapes le « DMAIC » :define mesure analyse improove control ............... 73
4.2.1-Define ................................................................................................................................... 74
4.2.2-Mesure .................................................................................................................................. 76
4.2.3-Analyse ................................................................................................................................. 78
4.2.4.- Improve/Verify .................................................................................................................... 79
4.3-Le "DFSS": Design for six sigma ..................................................................................................... 79
4.4- Impact de la méthode sur la qualité de service client .................................................................. 80
4.4.1-Bénéfices pour les entreprises ayant adopte cette méthode ................................................. 80
4.4.2-Impact de la méthode sur le projet réalisé ............................................................................. 81
Conclusion ............................................................................................................................................. 84
Glossaire ................................................................................................................................................ 92
Table de figures ..................................................................................................................................... 97
Table des matières ................................................................................................................................. 98
Annexes ................................................................................................................................................. 99
Bibliographie........................................................................................................................................ 113
101
Annexes
Annexe 1 : SRS (system requirement specifications) (Le besoin des
manager des calls center)
System Usage
Here is what currently the current system is doing and how users are
handling must data :
All the data aren’t centralized and each user has to launch it’s own macro in
order to get all the informations of the jobs as we see below :
102
In Buc there is a global display solution named Symon that can display all
the calls features like SL, Abd, MWT.The other countries don’t have this
solution and all their CMS data are difficult to read.
New systems to be designed :
The other countries don’t have a Symon like solution for their cms data.
The data of all these countries are heterogene and not well visible that’s why
a Symon like solution is requested. Further More all the data of all the
countries will be centralized in buc to be displaying thereafter.
For all the countries it’s necessary to extract and display these the following
data :
Clients calls FE calls Waiting time Percent of Abandon Percent of service level Time waiting Inbound call pending per Sector Inbound call pending per LCT
103
There is a global need from EMEA CSCs (Customer Service Centers) to have
an in room display on a large flat panel of MUST jobs in REA, ranked by
waiting time and severity. Currently, the same display is made for customer
calls waiting, but not for the MUST jobs in REA. The solution of display is
identified. The collect of requested data from MUST is missing
The objective is to optimize the time to assign the customer jobs by the
same way as the time to answer Customer Calls live is currently managed
(Visual Management). The impact is Customer satisfaction and internal
productivity in CSCs.
DETAILED REQUIREMENTS
The data to extract should be limited to the following database, countries
and age:
Databases: MUST U.K. and IRELAND MUSTPA07 MUST ITALY MUSTPA05 MUST CENTRAL EUROPE MUSTPA04 MUST FRANCE MUSTPA01 MUST IBERIA MUSTPA06
Countries: UK, IT, GE, FR, SP
Jobs with age less than 1 week should be displayed
The data to extract should be limited to data linked to the current jobs #
104
with:
- SYSTEM STATUS = “REA” and JOB TYPE = “C” (Corrective) or “A” (Applicative)
AND
- CBS field = “R”
Data to extract for each of the jobs passing through the above filters:
JOB NUMBER
JOB OPEN DATE
CUSTOMER EXPECTATION
PRIORITY
SITE NAME
SYSTEM NAME
COUNTRY
ACTIVITY CENTER
SERVICE AREA (i.e. the 3 last digit of the job #)
CBS Field
Cust Notif
CBS field
R : Required field
D : Job transferred live to FE.
N : Not required field , job with no technical call back required.
Only the CBS field equal to R should be extracted whatever the job status
(for customer expectation A and priority 1 and 2) needs to be filled in 30
minutes so we could show a message arrange technical call back 5 minutes
before the due time
Cust Notif to be filled in :
30 minutes for customer expectation A. 2 hrs for customer expectation B. Opening hours CEU Time when the data are requested
105
Opening hours CEU Time
06:00 AM to 20:00 PM
The Refresh Time is the most important CTQ. The code algorithm should be full designed with the objective to minimize the refresh time Refresh time to get the updated list of the filtered jobs:
Refresh Time to get the update of
the filtered jobs
< 5 sec
CTQs (Crtiteres de qualite : Decomposition du besoin client en critères mesurables)
This section shall take the high level description and break it down into
individual features or functions. The following aspects should be addressed if
applicable:
Feature Name
Objective and Detailed Description
The objective of the feature or function and the details of its use, including
interface with other parts of the system. Critical business rules and system
logic should be highlighted. Indicate whether or not this feature is GxP
relevant and also consider any safety aspects or global requirements such as
multiple languages.
Customer CTQs
• CTQ_Response Time: a new user requesting Tymon on his PC must get it as fast as possible
• CTQ_Visibility the decision information provided to the CSC must be exact
• CTQ_Uptime: Tymon should be intuitive and fast to use
106
• CTQ_Perenity: Tymon should have no impact on the performance of the other applications running on the user PC
System CTQs
Flowdown of the above Customer CTQs to System CTQs (=> should be measurable variables) :
Customer CTQ System CTQ Description How to
measure
Specifications
CTQ_Response
Time
CTQ_ResponseTime-
CMS
CTQ_ResponseTime-
MUST
CMS: make a call as a Customer = Start-Time as soon as the call is answered by the PBX
Detect when
the call is
displayed on
the user PC
= stop time
Response
Time = Stop-
Time – Start-
Time
Time
between a
Case
opened
and closed
Upper Spec
Limit =
CMS ≤ 3 sec
MUST ≤ 15 sec
107
Annexe 2 : Extrait d’un script d’extraction de données CMS (Figure
3.2 script acsauto)
LANGUAGE=ENU
SERVERNAME=3.249.35.112
Chemin du rapport CMS
Const EXTRACT_SCRIPT_1 = "Real-Time\Designer\FE_CLIENT"
Chemin du fichier texte à générer :
Const EXTRACT_PATH_1 = "D:\DEV_EXTRACT\CMS\cms.txt"
Public Sub Main()
cvsSrv.Reports.ACD = 1
Set Info = cvsSrv.Reports.Reports("Real-Time\Designer\FE_CLIENTS")
If Info Is Nothing Then
If cvsSrv.Interactive Then
MsgBox "The report Real-Time\Designer\FE_CLIENTS was not found on ACD 1.", vbCritical Or vbOKOnly, "Avaya CMS Supervisor"
Else
Set Log = CreateObject("ACSERR.cvsLog")
Log.AutoLogWrite "The report Real-Time\Designer\FE_CLIENTS was not found on ACD 1."
Set Log = Nothing
End If
Else
Génération et configuration du rapport :
b = cvsSrv.Reports.CreateReport(Info,Rep)
If b Then
do while Err.Number = 0
108
Rep.Window.Width = 19170
Rep.Window.Height = 15000
Rep.SetProperty "VDNs0","1226-1240"
Rep.SetProperty "VDNs1","6221-6236"
Alimentation constante du fichier CMS par les valeurs du rapport :
b = Rep.ExportData(EXTRACT_PATH_1, 9, 0, False, False, True)
Loop
Rep.Quit
If Not cvsSrv.Interactive Then cvsSrv.ActiveTasks.Remove Rep.TaskID
Set Rep = Nothing
End If
End If
Set Info = Nothing
End Sub
Annexe 3 : Extrait du script d’extraction de données MUST ITALY
(screen scrapping figure 3.2)
Option explicit
Declare Function GetCurrentProcessId Lib "kernel32.dll" ( ) As Long Declare Function CloseHandle Lib "kernel32" (ByVal hObject As Long) As Long Declare Function OpenProcess Lib "kernel32" (ByVal dwDesiredAccess As Long,
Sub Main
Dim HostExplorer as Object Dim MyHost as Object
Dim WaitTime as Long Dim count_row as Integer Dim getRow as integer Dim x as integer
109
Dim z as integer Dim mes_DEB_OF_LIST_FR As String Dim JobArray(1 to 1000) As String Dim datew as string Dim datenew as string Dim dayj as string Dim monthm as string Dim yearannee as string
Definition de la date de recuperation des jobs par rapport au SRS (jobs datant de moins d’une semaine)
datew = date - 7
dayj = Mid(datew,1,2) monthm = Mid(datew,4,2) yearannee = Mid(datew,9,2) datenew =dayj+monthm+yearannee
mes_DEB_OF_LIST_FR = "0000"
WaitTime = 1000
Set HostExplorer = CreateObject("HostExplorer") ' Initialize HostExplorer Object Sleep 1500
HostExplorer.StartSession"D:\Documents and Settings\100038293\Desktop\EDC.hep"
Sleep 1500
Connexion au mainframe
HostExplorer.CurrentHost.Keys("must") HostExplorer.CurrentHost.RunCmd("Enter") Sleep(WaitTime) HostExplorer.CurrentHost.Keys("oulhata") Sleep(WaitTime) HostExplorer.CurrentHost.RunCmd("Tab") Sleep(WaitTime) HostExplorer.CurrentHost.Keys("oulhaj23oulhaj") Sleep 2000 HostExplorer.CurrentHost.RunCmd("Enter") Sleep(WaitTime) HostExplorer.CurrentHost.Keys("x") HostExplorer.CurrentHost.RunCmd("Enter")
110
Defintion des types de donnees a afficher par le mainframe conformement aux specifications fonctionnelles (jobs en REA,date…)
HostExplorer.CurrentHost.Keys("000") HostExplorer.CurrentHost.Keys("REA") HostExplorer.CurrentHost.Keys(datenew) HostExplorer.CurrentHost.RunCmd("Tab") HostExplorer.CurrentHost.Keys("R") HostExplorer.CurrentHost.RunCmd("Enter")
Dim intFic as Integer
Declaration des des champs a extraire de l’ecran.
Dim num as string Dim T as string Dim ACT as string Dim STT as string Dim MOT as string Dim D as string Dim C as string Dim P as string Dim CBS as string Dim A as string Dim O as string Dim SITE as string Dim SYSTEM as string
Dim FE as string 'postions for mid function 73,8 Dim annee as string 'postions for mid function 43,2 Dim mois as string 'postions for mid function 41,2 Dim jour as string 'postions for mid function 39,2 Dim heure as string 'postions for mid function 46,2 Dim minute as string 'postions for mid function 48,2
intFic = FreeFile()
ouverture du fichier MUST ITALY
open "D:\DEV_EXTRACT\EXTRACT_FILE_MUST_ITALY.txt" for Output as #intFic
Print #intFic , chr(13)
for x = 8 to 18
JobArray(x) = HostExplorer.CurrentHost.Row(x)
Declaration des positions des champs a extraire de l’ecran.
111
num = Mid(JobArray(x),1,11) T = Mid(JobArray(x),13,1) ACT = Mid(JobArray(x),15,3) STT = Mid(JobArray(x),19,3) MOT = Mid(JobArray(x),23,1) D = Mid(JobArray(x),27,1) C = Mid(JobArray(x),28,1) P = Mid(JobArray(x),30,1) CBS = Mid(JobArray(x),32,1) A = Mid(JobArray(x),34,1) O = Mid(JobArray(x),36,1) annee = Mid(JobArray(x),43,2) mois =Mid(JobArray(x),41,2) jour =Mid(JobArray(x),39,2) heure =Mid(JobArray(x),46,2) minute =Mid(JobArray(x),48,2) SITE = Mid(JobArray(x),53,10) SYSTEM = Mid(JobArray(x),64,8) FE= Mid(JobArray(x),73,8)
Si le screenscraper rencontre des valeurs nulles le programme s’arrete sinon il alimente le fichier MUST ITALY avec les valeurs des champs qui ont ete parametres ci avant.
if JobArray(x) like "*"+mes_DEB_OF_LIST_FR+"*" then
'MsgBox "END JOB SCAN DEBUT LISTE"
Close #intFic
exit for
else
Alimentation du fichier MUST_ITALY
Print #intFic , num+"," + T + "," + ACT + ","+ STT + ","+ MOT + ","+ D + ","+ C + ","+ P + ","+ CBS + ","+ A + "," + O + "," +"20"+annee+"-"+mois+"-"+jour+" "+heure+":"+minute+":"+"00"+ + "," + SITE + "," + SYSTEM + "," + FE + ";"
end if
Next x
113
Bibliographie
« Les ETL motorisent les plates-formes décisionnelles »
Alain Clapaud, article 01 informatique 24 décembre 2008
Présente une première approche des outils ETL en dressant une liste
exhaustive de leurs points forts et faibles. Il expose également le retour sur
investissement pour les entreprises utilisatrices de ces outils.
« Six Sigma : Un échelon en plus dans la productivité ? »
Aline Berger - Thésame mécatronique & management, Le journal
d'information technologique des pays de haute Savoie.
Offre une explication complète de la méthode Six Sigma ainsi que les
différentes étapes à mettre en œuvre dans ce processus d’amélioration de la
qualité.
« Defining Business Analytics and Its Impact On Organizational
Decision-Making. »
Market vibe computer world, February 2009.
Enquête de la société computer world visant à illustrer le positionnement de
la Business Intelligence dans les différents secteurs d’activités des
entreprises ainsi que son impact sur la prise de décision.
« Tout sur les systèmes d’information. » (Business intelligence)
Jean François Pillou , Editions Dunod, 2008.
114
Ce livre offre une partie claire et complète sur les technologies utilisées par
Les décideurs en passant par le système d’information décisionnel
(datawarehouse,datamart) a l’analyse décisionnelle(datamining, OLAP)
« le portail francophone du pilotage de la performance :
the eternal mystery of the world is it’s comprehensibility Albert
Einstein »
Alain Fernandez 1999
Portail présentant de manière très succincte les questions pouvant êtres soulevées
dans un projet décisionnel.
«Visualzing data»
Ben Fry, Editions O’Reilly , 2008
Expose les principes de base de visualisation, comment choisir le bon
type d'affichage et comment fournir des fonctionnalités interactives (via
java avec la bibliothèque « processing »)
« Mise en œuvre d’un projet décisionnel »
Business intelligence avec sql serveur 2005.
Bertrand Burquier, consultant et ingénieur en systèmes d’information,
Editions Dunod, 2007
Cet ouvrage a pour objectif de mettre en exergue les étapes d’un projet
décisionnel ainsi que les différents outils permettant la conception d’un
datawarehouse.
«The ETL Market Reborn.»
Stephen Swoyer, 2005
115
Présentation réalisée par les cabinets de consulting Américains Gartner
group et Forester du marche des ETL ainsi que les perspectives
d’évolution de ce secteur.
«Projets décisionnels comment accompagner les changements organisationnels» David autissier, maitre de conférence spécialiste en conduite du
changement, le magazine de la décision.
Interview publiée en juillet 2005 de David autissier qui retrace la
manière avec laquelle les entreprises font face à la transformation et
l’évolution de leurs systèmes d’information.
«Bien décider en mois d’une heure» frederic bonneton , coach du magazine challenges , Edition eyrolles , 2005.
Ouvrage sur la méthodologie d’aide à la prise de décision rapide dans un
projet décisionnel avec les contrainte à respecter tant au niveau humain
que financier.
«Le data warehouse : guide de conduite de projet » R. Kimball, L. Reeves, M. Ross, Edition Eyrolles , 2005
Offre une approche centrée marché du data warehouse en réponse aux
besoins des entreprises
«Les nouveaux tableaux de bord des managers» Alain Fernandez, Edition Eyrolles , 2008
Expose de manière très claire le processus stratégique de prise de
décision à travers les tableaux de bords en expliquant comment les
adapter en fonction de la situation de l’entreprise et des décideurs.