Le décisionnel du futur ?

by Timothée on 4 février 2014

Imprimer cet article    Version PDF    Poster sur facebook    Tweeter la page    Ajouter à MySpace    Ajouter sur del.icio.us    Digg this    

Publiée fin janvier sur Décidéo.fr et sobrement intitulée Information Intelligence : Vision 2020, la nouvelle analyse de Philippe Nieuwbourg & Melva Hernandez offre une vision intéressante de ce que pourrait être l’avenir du décisionnel.
Ce document d’une vingtaine de pages – rédigées de manière claire et accessible aux néophytes – présente une liste des sujets qui devraient retenir notre attention dans les prochaines années.
En voici les grandes lignes agrémentées de notre modeste analyse.

Déci-Action

Les processus d’aide à la décision deviennent de plus en plus complexes : ils nécessitent la prise en compte d’un nombre toujours plus important de paramètres à partir un nombre toujours plus important d’informations. Ces processus sont en outre le plus souvent intégrés à des mécanismes de prise de décision automatiques : détection de spams ou de fraudes à la carte de crédit par exemple.

Les algorithmes classiques étant trop lents et trop déterministes pour répondre à ces problématiques, les systèmes d’aide à la décision devront s’appuyer sur d’autres mécanismes… et l’on verra ressurgir des mots comme intelligence artificielle et apprentissage par la machine ! Ces technologies aujourd’hui complexes devraient se banaliser dans les prochaines années, permettant aux machines de prendre un certain nombre de décisions à faibles conséquences en temps réel.

Analyse prédictive

Véritable serpent de mer du décisionnel, l’analyse prédictive (DataMining) a été jusqu’à maintenant réservée à certains domaines particuliers comme la finance spéculative. Le besoin toujours plus grand de visibilité et d’anticipation des entreprises les conduira nécessairement à inclure des mécanismes prédictifs dans leurs processus d’aide à la décision…et les éditeurs à proposer ces fonctionnalités dans leurs outils.

Croisement de données

Au-delà du scandale soulevé par l’affaire Snowden, ces révélations ont permis au grand public de prendre conscience de l’intérêt qu’il peut y avoir à croiser des informations. Si une donnée brute n’a que peu de valeur en soi, son rapprochement avec d’autres informations à priori sans rapport entre-elles peut permettre de dégager une information comportementale très précieuse pour qui saura l’exploiter. La profusion des informations accessibles aujourd’hui par les entreprises en font une manne inestimable aux applications multiples : analyse de comportement de consommation, création de profils à partir de vos centres d’intérêts…la liste est infinie.

Ce sujet déjà brulant aujourd’hui prendra certainement de plus en plus d’ampleur dans les années à venir, ne serait-ce que pour les questions fondamentales de liberté individuelle et de respect de la vie privée qu’il soulève.

Mobilité

Encore innovant il y a quelques années, le secteur de la mobilité est devenu aujourd’hui banalement commun avec la démocratisation des terminaux dits « intelligents » (ah bon ?). Reste que le portage des applications bureautiques sur ces terminaux pose toujours question : Faut-il porter toutes ces applications en mode Web et laisser l’appareil s’adapter automatiquement grâce au « responsive design », ou est-il préférable de développer des applications dédiées pour ces terminaux mobiles ? Autrement dit doit-on créer des applications légères ne fonctionnant qu’en mode connecté, ou des applications clientes pouvant tourner de manière déconnectée ?

Pour Nieuwbourg & Hernandez les éditeurs devraient développer de plus en plus d’applications mobiles natives dans les prochaines années, selon nous le débat est aujourd’hui loin d’être tranché.

Infonuagisme (Cloud Computing)

Outre l’avantage de permettre de briller en soirée, ce terme désigne le stockage des applications et des données sur les plateformes de virtualisation en ligne. Présenté il y a quelques années comme l’avenir de l’informatique, cette nouvelle façon de concevoir l’informatique se heurte toujours à un certain nombre de réticences :

Affaire Snowden toujours, comment garantir la sécurité des données stockées dans le « nuage » ? Comment s’assurer que l’entreprise qui remettra son système d’information stratégique dans les mains d’un hébergeur ne se retrouvera pas à la merci de ce même hébergeur ?

Les fournisseurs de services hébergés ont encore beaucoup d’efforts à faire avant de gagner la confiance du plus grand nombre de clients.

Données non structurées

Les données non structurées – ou semi-structurées – désignent les informations que l’on ne peut directement catégoriser, comme les commentaires ou les mots-clés de recherche par exemple.

L’explosion récente des réseaux sociaux a généré une prolifération de ce type de données. Au-delà du discours marketing, les éditeurs devront être capable de proposer des outils d’analyse sémantique performants avant que les entreprises puisse en tirer un sens exploitable.

Récit de données (Data StoryTelling)

Les séances de présentations PowerPoint sont aujourd’hui à l’entreprise ce que les soirées diapos étaient hier aux réunions de familles : un moment d’ennui incommensurable…et ce pour les spectateurs comme pour l’animateur !

dilbert

Heureusement commence à apparaitre une autre manière de faire des présentations, vivante et animée : la mise en récit (Story Telling). Elle permet de faire passer un message à travers une histoire structurée contenant un début, une intrigue, des péripéties, une chute, etc…

De même, la mise en récit des données (Data Storytelling) permettra de présenter des analyses de données de manière ludique et interactive.

Qualité des données

La qualité des données est et restera toujours un enjeu fondamental. En effet comment prendre une décision si l’analyse qui en est à l’origine repose sur des données non fiables ? Ce d’autant que le nombre de sources et le volume d’informations traitées augmente de manière exponentielle.

Cette responsabilité ne pourra reposer uniquement sur les départements informatiques, les opérationnels devront également être sensibilisés à l’importance de produire une information de qualité. Dans ce but, un nouveau rôle de superviseur de la qualité des données verra probablement le jour au sein des entreprises.

Conclusion

Cet exercice de prévisions – ou de « sujets de réflexion » – réalisé par Philippe Nieuwbourg & Melva Hernandez nous semble fondamental. C’est l’occasion de replacer modestement notre métier par rapport aux évolutions du monde dans lequel nous vivons, loin des effets de mode et des tendances « branchées » du moment. Il constitue également un matériau précieux pour alimenter notre veille technologique, en fournissant des pistes d’investigation intéressantes.

Retrouvez l’article de Philippe Nieuwbourg & Melva Hernandez sur le site de Décidéo :
http://www.decideo.ca/Information-Intelligence-Vision-2020-Les-tendances-de-l-analyse-de-donnees-proposees-par-Decideo_a6643.html

Illustrations de l’article :
– Extrait du film Retour vers le Futur de Robert Zemeckis
– Dilbert, issu du site PowerPointNinja (http://www.powerpointninja.com/for-fun/dilbert-on-powerpoint-presentations/)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *