L’Informatique d’entreprise a connu plusieurs évolutions depuis un demi-siècle. Dévolue initialement à l’automatisation de quelques tâches (les trois premières furent la gestion des stocks, de la paie et de la comptabilité), elle a intégré dans certaines firmes, peut-être depuis le début des années 1990, autour du terme « organisation », une refonte des process et des opérations. Une quinzaine d’années plus tard, la prévalence des progiciels, qui proposent tout autant des outils que des process, a rendu les Directions des Systèmes d’Information beaucoup moins actives sur ce sujet, ainsi que sur l’innovation en résultant.
Maintenant d’autres types de projet que ceux d’automatisation (transfert de coûts de personnes vers technologies) sont présents, et pour ceux de transformation ou d’information, le Big Data constitue un relais de valeur qu’apportent les DSI. Relativement à la construction de SI partant de modèles du monde (modèles de traitement, de données…), l’approche Big Data utilise les mathématiques pour trouver des modèles dans les données, modèles qui, sous condition, font prendre de l’avance sur le présent, parfois sur le futur pour y améliorer décisions et opérations.
Nous constatons que si trouver des modèles, par exemple de Machine Learning, plus performants que l’existant (mix de vision, expériences et… modèles) est relativement facile, l’insertion de ces modèles dans les bons mécanismes de décision pour amélioration de performances est moins aisée. Faisant suite à ce constat, nous présentons une démarche générale et des méthodes spécifiques visant à inscrire les projets Big Data dans des objectifs d’amélioration de performances.