L’informatique ubiquitaire constitue la 3e vague de l’informatique. Elle vient de démarrer et succède à l’ère des mainframes auxquels nous nous connections à plusieurs et à celle des dispositifs personnels et connectés (portables, tablettes et mobiles) que nous vivons actuellement. Curieusement en Europe, on parle d’intelligence ambiante plutôt que d’informatique ubiquitaire pour désigner l’omniprésence du numérique.
Pourquoi cela ? Parce que les technologies qui envahissent notre quotidien se font de plus en plus invisibles. C’est un peu comme l’électricité. On ignore tout de son mode de production ou de distribution et peu nous importe d’ailleurs à partir du moment où nous pouvons l’utiliser par le simple geste de brancher un appareil à une prise de courant. Il en va de même pour l’intelligence ambiante.
Les 4 composantes de l’intelligence ambiante
Sans l’une de ces 4 composantes, il n’y aurait pas d’intelligence ambiante. Il s’agit de :
1. L’ubiquité : qui offre la capacité d’interagir n’importe où avec un réseau dense d’appareils interconnectés, de capteurs, d’activateurs et plus globalement de systèmes enfouis
2. La contextualisation : qui permet aux systèmes de sentir les objets, les appareils et les personnes avec lesquels le système doit interagir en s’appuyant sur les 5 sens pour apporter un contexte d’usage
3. L’interaction naturelle : avec le monde qui nous entoure de la même façon que l’on interagirait avec d’autres humains
4. L’intelligence (ou Machine Learning) : qui permet d’analyser en permanence le contexte et de s’adapter dynamiquement aux situations et au comportement des utilisateurs, ce qui nécessitera de stoker les informations recueillies et de les modéliser (Big Data) et aussi de doter le système d’intelligence machine pour les interpréter.
Machine Learning, de quoi s’agit-il ?
Parmi ces 4 composantes, le Machine Learning est vraiment remarquable. C’est un champ de l’intelligence artificielle qui se focalise sur le développement de méthodes automatisables qui vont permettre à une machine d’évoluer grâce à un processus d’apprentissage statistique résultant d’une ingestion permanente de données.
Les ordinateurs vont ainsi à terme pouvoir se programmer eux-mêmes à partir de l’expérience qu’ils auront acquise au fil du temps. Ainsi, on peut dire que les machines vont apprendre grâce aux données et s’améliorer avec l’expérience. C’est ce que nous les humains faisons d’ailleurs tous les jours sans même nous en rendre compte...
De multiples cas d’usages existent d’ores et déjà : recommandations d’achat pour site de commerce en ligne, recueil d’avis des consommateurs sans avoir recours à un panel, maintenance préventive pour l’industrie et même prédictive pour changer une pièce avant qu’elle ne tombe en panne, prévision de désabonnement d’un client pour un opérateur télécoms...
Pour autant, il est probable que de nombreux autres scénarios innovants verront le jour et qu’ils transformeront les approches commerciales et marketing actuelles des entreprises et chambouleront les modèles d’affaires existants.
Quelques exemples concrets
1. Connaissez-vous Cortana ? Il s’agit d’une application disponible sur Windows Phone qui vous agit comme un assistant personnel pour la gestion de votre quotidien. Elle apprend progressivement de vous, des différentes personnes qui l’utilisent et de votre environnement, sachant qu’elle est capable de gérer :
- La reconnaissance automatique de la parole
- Un traitement naturel et sémantique du langage
- La modélisation du dialogue homme/machine
- Et la génération de langage spontané.
2. Autre exemple, les voitures connectées dont on parle beaucoup en ce moment. En se connectant sur le bus scan des véhicules, le constructeur peut remonter des données techniques anonymisées pour les agréger sur une plate-forme distante et les analyser afin d’avoir une meilleure compréhension de l’usage qui est fait de ses véhicules pour en améliorer les performances.
En confrontant ces données à d’autres sources d’information telles que la météo, le trafic, le style de conduite ou le niveau de stress du conducteur via les capteurs placés sur son siège, le constructeur sera en capacité de produire un méta modèle pour prédire, par exemple, la consommation d’essence annuelle et comparer un style de conduite à celui d’une communauté d’utilisateurs afin de l’améliorer grâce à un écogaming dans le but de diminuer le coût du carburant.
Ainsi, cette nouvelle approche augmente la proposition de valeur faite au consommateur. Ce n’est plus désormais l’acquisition d’un produit qui est importante, mais les nouvelles capacités et avantages qu’il tire de la transformation des données produites par le produit qu’il utilise grâce au Machine Learning et à ses algorithmes sophistiqués.
Les industriels tirent des résultats issus du numérique une amélioration conséquente de leurs performances et la génération de revenus supplémentaires. Pourtant, au-delà du business, le potentiel sociétal est énorme et permet de relever certains défis auxquels nous sommes confrontés : optimisation de la consommation énergétique, meilleure qualité de vie en ville, maintien à domicile des personnes âgées, surveillance de patients critiques en temps réel, agriculture connectée pour répondre au changement climatique...
Préservation de la vie privée
En dépit de ces annonces idylliques, il convient de citer la récente étude du Conseil d’Etat intitulée « Le numérique et les droits fondamentaux » qui s’interroge sur les prédictions résultant des algorithmes utilisés par le Machine Learning.
Ces algorithmes utilisent, en effet, l’analyse en composantes principales inventée en 1901 par Karl Pearson qui permet de réduire le nombre très important des variables d’une matrice à une centaine seulement afin de pouvoir construire un modèle qui permette de faire des prédictions avec un taux de réussite très significatif.
Dans la mesure où les utilisateurs ne sont pas conscients de la capacité du Machine Learning à déduire leurs caractéristiques personnelles à partir de leurs traces numériques, comment seront-ils en mesure de protéger leur vie privée ? Ces craintes sont légitimes, d’autant que les organisations qui sont détentrices de ces informations les utilisent à des fins commerciales, quand elles ne se les font parfois pirater.
Une question d’éthique sur l’utilisation des données doit impérativement être introduite afin que ces organisations soient tenues responsables des données qu’elles recueillent et fassent l’objet d’une régulation. Cela ne signifie pas l’interdiction de pratiquer avec ces données le Machine Learning, mais cela introduit la nécessité de donner la capacité aux utilisateurs de contrôler en toute transparence l’usage qui en est fait.
Le numérique connaît un succès extraordinaire, il est omniprésent dans nos vies, à la fois de plus en plus proche de nous et de plus en plus invisible. L’intelligence ambiante est en cours de construction : le Cloud, le Machine Learning, le Big Data en constituent quelques-unes des briques en train de se mettre en place. Cependant, plutôt que de se lancer tête baissée dans la technologie sans en mesurer les impacts négatifs sur notre vie privée, il importe qu’un véritable débat citoyen autour de l’éthique sur l’utilisation des données s’instaure. Sachons donc tirer parti de ce formidable potentiel qui nous est offert dans le respect et la préservation de nos données personnelles.
Cet article de DIGINOVE Consulting est également paru dans la Lettre hebdomadaire des TIC n° 426 distribuée par notre partenaire, la Mission ECOTER, à ses adhérents.