Bruno Sarrazin : L’Intelligence Artificielle, une aide à la décision en entreprise.

0

Jeudi 7 septembre, Contact-Entreprises accueillait Bruno SARRAZIN, expert en Intelligence Artificielle au sein de l’entreprise Quantum Intel, dans le cadre d’un déjeuner-débat. Une rencontre passionnante qui a permis aux participants de réaliser à quel point l’IA est déjà une réalité opérationnelle pour les PME de Martinique.

Voir ici la vidéo-contact de Bruno SARRAZIN

Le thème de la rencontre : L’Intelligence Artificielle, un système d’aide à la décision en entreprise. En voici le compte-rendu exhaustif :

La formalisation des connaissances est un véritable enjeu pour l’avenir. Elle intéresse différents milieux de l’industrie tant au niveau des systèmes que de l’interface Homme-Machine.

En effet, la masse d’information (issues des capteurs mais aussi des systèmes d’information) est maintenant telle qu’elle devient difficile à analyser pour les personnes. Elle requiert une analyse simultanée d’un très grand nombre de données disparates issues de nombreux capteurs.

En 2006 et en partenariat avec le CHU de Fort de France, Bruno SARRAZIN a lancé un projet de recherche pour concevoir un système d’assistance et d’aide au diagnostic.

Le moteur d’intelligence artificielle, nommé ONEAH permet notamment de détecter automatiquement différents symptômes et incidents de procédure, de logique, etc. Il est basé sur plusieurs bases de connaissances pluridisciplinaires (établies avec les experts métiers). Les experts peuvent interagir avec le système via une interface tactile (bientôt vocale), ou web qui présente de façon fonctionnelle et utilisable les propositions d’aide et des conclusions sur l’évolution de l’état du système observé (« décisions » prises par le système à partir des bases de connaissances et des données issues des flux d’informations).

Le médecin réanimateur tout comme le décideur se retrouve en surcharge quand les systèmes, qu’ils soient humains ou mécaniques, ne sont plus dans la norme connue (patient qui décompense) – (situation qui évolue) – (problème mécanique) le système doit alors apporter une aide à la décision au bon moment et ne pas devenir une charge supplémentaire.

Cependant un facteur important est à prendre en compte : les risques liés à la déresponsabilisation due aux interfaces types écrans ainsi que ceux liés à une confiance trop importante accordée à la technologie.

Là encore la médecine est confrontée à cette problématique d’interprétation des images qui peuvent amener à des erreurs de diagnostics. Ce phénomène est nommé le VOMIT-Syndrome.

Il ne faut pas oublier que le cerveau humain est capable de choses remarquables mais avec certaines limites, qui sont essentielles au développement d’outils d’aide à la décision :

Par exemple, en raccourcissant au maximum, nous pourrions dire que le cerveau humain fonctionne de manière « quantique » et qu’il est incapable d’apprendre d’une situation tout à fait nouvelle. Il va essayer de se projeter dans une situation déjà connue et y intégrer l’élément nouveau.

Le cerveau humain dans son fonctionnement normal prend une décision dès lors qu’il a à peu près 70 % de certitude, et donc un système d’aide à la décision doit être à même de faire la même chose, sinon l’Homme n’attendra pas l’outil d’aide à la décision, et prendre une décision de lui-même ou attendra trop longtemps que l’outil lui vienne en aide et le résultat n’en sera que plus délétère.

Dans son fonctionnement le cerveau a plus ou moins de succès dans sa gestion de crise et sa réaction au fort stress – là encore un outil d’aide à la décision doit arriver au bon moment

Nous avons constaté que l’introduction de nouvelles technologies au sein d’un environnement complexe peut avoir l’effet inverse de celui escompté. Par exemple, dans le domaine médical, l’utilisation de nouvelle technologie dans l’environnement de la chambre de soins intensifs n’est pas aisée et pose plusieurs problèmes.

L’ajout de nouvelle interface nécessite une personne qualifiée responsable du processus et une surveillance particulière dans un environnement déjà complexe. Généralement, les nouvelles solutions proposées ajoutent un appareillage qui effectue ce suivi, et ce, pour un seul type de tâche. Ces solutions ne proposent pas de centralisation de l’information. Ce n’est pas rentable en termes de place et de coût si, pour chaque cas, il faut ajouter un appareil spécifique.

C’est pourquoi nous proposons un ensemble d’outils qui s’adaptent à la pratique des experts du domaine.

Le formalisme Oneah, permet le pilotage d’interface dite « écologique » qui s’adapte en temps réel à la situation. Le système amène la bonne IHM en fonction des besoins immédiats des utilisateurs, et ceci sans intervention de l’intéressé.

Toujours dans la pratique médicale, si un patient fait un choc cardiaque, Oneah affiche automatiquement, sur une station de chevet, tous les signaux relatifs à la pathologie diagnostiquée sans que le personnel soignant cherche ces informations et donc, permet de gagner de précieuses secondes, qui sont primordiales dans la survie d’un patient.

Nous pourrions continuer pendant plusieurs pages à montrer qu’un outil d’aide à la décision doit aussi prendre en compte le mode de fonctionnement du cerveau. Quantum Intel est depuis plus de 10 ans impliquée dans la recherche d’outil d’aide à la décision en milieu médical (réanimation). Nous avons donc eu la chance de pouvoir apprécier nos outils avec des spécialistes du cerveau ainsi qu’avec des spécialistes des neurosciences (afin que nos outils soient le plus proches du comportement humain que possible)

Nos travaux consistent donc à apporter une dimension supplémentaire dans l’élaboration et la programmation des bases de connaissances qui consiste dans leur phase d’apprentissage à avoir deux modes :

1 – L’apprentissage supervisé

2 – L’apprentissage non supervisé

Dans les deux cas les experts peuvent aller « voir » comment les différentes étapes de l’apprentissage ont eues lieu et éventuellement y apporter des corrections. Cette méthode permet des développements rapides cohérents et avec des possibilités de tests validant intermédiaires.

Ce modèle de base de connaissances correspond à une API et ne nécessite donc pas de refonte particulière d’un système existant. Cette modularité permet de n’apporter la connaissance que là où elle est réellement utile. Les « squelettes » intermédiaires utilisés pour la création de la KBS peuvent être réutilisés pour d’autres applications et ou thématiques.

Exemples : Vitesse et précipitation

La capacité des systèmes d’informations à traverser les frontières est par ailleurs renforcée par une autre caractéristique de la puissance informatique :

La vitesse. En effet la rapidité de déplacement des informations et des moyens d’observations ou autres permettent une quasi-ubiquité sur des distances très importantes. Dès lors, l’homogénéité de l’espace entreprise peut avoir pour conséquence une facilité d’intervention.

Mais cette vitesse pose un autre problème touchant l’ensemble des entreprises modernes, qu’est la réduction du temps décisionnel. L’information interprétée doit transiter de manière instantanée pour coller au plus près à la réalité de terrain. Les nouveaux moyens de communications permettent un accès à l’information en temps réel. Si ce facteur est déterminant pour l’efficacité de l’entreprise, quelle que soit l’entreprise la mettant en œuvre, il peut s’avérer problématique en termes de gestion du flux d’information.

La vélocité de ce flux, accrue compte tenu de la mise en réseau de capteurs, récepteurs, couplée à la vitesse de déplacement, exige du décideur une capacité d’analyse des données toujours plus grande et de ce fait plus rapide s’il veut être en mesure d’éviter de commettre des erreurs. Il n’en demeure pas moins qu’il lui revient d’apprécier la situation en temps réel en intégrant l’ensemble des informations qui lui ont été transmises, ainsi que les éventuelles évolutions de la situation qu’il gère, qu’il pourrait être amené à observer. Ce d’autant que la vitesse de déplacements des informations, couplée à la rapidité de transmission des informations ne cessera d’accroître le tempo de l’action et, de fait, d’augmenter le rythme décisionnel.

Le temps nécessaire à la réflexion risque donc d’être de plus en plus réduit augmentant le degré d’exigence pesant sur les personnels.

L’homme et ses Interfaces

“la question de l’interface homme-machine est une problématique déjà rencontrée dans l’aéronautique et notamment dans l’emploi des systèmes de drones. En l’occurrence, l’action menée au travers d’un écran tend à distancier l’opérateur de la cible à traiter favorisant ainsi une déshumanisation de cette dernière et la déresponsabilisation de l’opérateur face à ses actes. Il apparait alors que la distance morale, et non nécessairement physique, facilite le recours à des moyens plus violents que si la cible était proche. Ce dernier point lié au rapport entre distance et violence a d’ailleurs été traité par Stanley Milgram (Obedience to Authority: An Experimental View, 1974) ou encore Dave Grossman (On Killing, 1995). Cette déresponsabilisation est accentuée par un phénomène de confiance donnée à la machine. L’opérateur, persuadé de la fiabilité de sa machine, a alors tendance à faire reposer ses décisions sur les qualités supposées de l’interface au travers de laquelle il agit ce qui renforce les erreurs de types VOMIT-Syndrome reconnu par les radiologues Nord-Américain. Une nouvelle fois la pertinence de l’information apportée soit être au centre de la situation et adaptée à la situation.

De plus l’opérateur peut être faillible et il faut donc l’aider, par exemple :

  • Il peut souffrir de ‘tunnelisation attentionnelle’ concentration excessive sur certains paramètres au détriment d’autres,
  • Il peut être soumis au ‘moral buffer’ principe de distanciation par rapport à l’environnement enfin et parmi tant d’autre
  • Il peut souffrir de ‘automation surprise’ soit une rupture dans la conscience de la situation, là encore l’aide à la décision doit être à même de prendre en compte ces problématiques, et simplifier la prise de décision.

Pour cela les outils que nous avons développés permettent d’éviter cet écueil car la création des kbs se fait avec ceux qui les conçoivent mais aussi ceux qui les utiliseront. Les développements ne peuvent être que technologiques ils doivent intégrer ces éléments « Humains » dans leur process et dans leur fonction d’aide à la décision.

Oneah répond parfaitement aux motivations qui ont conduit à son élaboration. La puissance de la modélisation par le squelette et sa facilité de mise en œuvre d’un réseau font d’Oneah une véritable boîte à outils performante. Oneah lève plusieurs écueils de l’interopérabilité des différents formalismes d’IA dû à sa faible granularité (éléments qui compose le formalisme). Il permet à des utilisateurs non informaticiens, et non utilisateurs des différents formalismes d’intelligence artificielle, mais expert de leur domaine, de construire facilement des connaissances. Ses connaissances peuvent être partagées au travers d’une communauté d’utilisateurs. Par la clarté du formalisme et par son utilisation résolument tournée vers l’opérationnel, Oneah est un outil utilisable par exemple par les experts métiers dans la gestion.

Les systèmes apprenants

Une première approche de l’intelligence artificielle s’est appuyée sur les travaux des pionniers tels qu’Alan Turing et a privilégié l’usage de formalismes logiques et de règles (souvent relativement simples) d’inférences permettant de tirer des conclusions à partir d’un ensemble de faits donnés. Cette approche, par la suite critiquée pour sa rigidité même dans le cas où les connaissances et règles sont floues, a le mérite de s’appuyer sur l’expression de connaissances expertes « contrôlées », donc maîtrisable.

Les réseaux de neurones ont constitué, à partir des années 80, une alternative à cette démarche top-down, en proposant de fonder un comportement intelligent sur la configuration de réseaux d’automates élémentaires connectés et traitant les données représentatives de la situation. La quasi-totalité des travaux classiques sur les réseaux de neurones se ramènent à une classification, elle-même abordée via une vision mathématique d’optimisation (optimisation d’un pavage de l’espace pour y déterminer des catégories par exemple …).

Une meilleure description mathématique de ces classifieurs a été proposée dans les années 90 avec les travaux de Vapnik-Chervonenkis, qui ont montré les possibilités et limites de l’apprentissage statistique réalisé par ces dispositifs. Concrètement, les travaux de cette époque se sont heurtés aux capacités computationnelles disponibles, à leur saturation (complexité des algorithmes d’apprentissage, capacité limitée de stockage de concepts ou catégories), et au fait que les réseaux, dans les meilleurs des cas, ne pouvaient jouer qu’un rôle de pattern matching sur la base d’un ensemble d’exemples représentatifs, mais forcément limités. La détection et l’apprentissage de « nouveautés » n’ayant pas été pour l’instant réellement abordés.

Les approches neuronales ont été remises au goût du jour ces dernières années en raison du très fort développement des capacités de simulation et de conception de circuits dits « neuronaux ». Ce retour en force des réseaux de neurones a donné lieu à de nombreux projets de recherche destinés (à nouveau) à modéliser un cerveau artificiel.

Ces derniers points nous amènent à considérer que l’usage de ces systèmes apprenants peut être appliqué pour reconnaitre la nature d’une situation et les réponses à y appliquer.

L’acquisition d’un grand nombre de données

Pour les besoins du programme de recherche médicale nous avons été amené à créer un « Router » qui enregistre à la volée l’ensemble des données issues des équipements biomédicaux. Le Router récupère des trames de types HL7 (normes utilisées dans le monde médical) et les découpe en champs singleton utilisable soit pour :

  • L’injection dans une base de données
  • L’injection dans une base de données à but Big Data
  • L’injection dans des bases de connaissances

Ceci indépendamment mais surtout simultanément et en temps réel

Dans le quotidien, le Router traite 500 000 trames HL7 / seconde fois 58 chambres et n’occupe que 8% de la charge CPU.

Cette étape réalisée nous permet alors de créer des corrélations entre ces données d’acquisition des systèmes auxquelles nous ajoutons les données environnementales (actions des équipes soignantes et médecins via interface tactiles et vocales) imagerie médicale et autres données.

L’ensemble de ces données sont alors traitées dans un premier temps :

  • Par les experts – création des bases de connaissances
  • Temps réel une fois la KBS réalisées

Les traitements se font de manières distinctes pour plus de souplesse dans l’intégration

  • Traitements des images
  • Traitements des signaux
  • Intégrations dans une kbs pour corrélations via l’IA.

Conclusions

Nous montrons dans ce document les progrès réalisés par nos équipes de recherches, et ce dans plusieurs domaines tels que le traitement des données (big-Data) les IHM, le traitement de l’imagerie et surtout l’intégration à un niveau supérieur de ces fonctions connexes.

Comme nous l’avons expliqué, le cerveau humain ne peut gérer plus d’un voire deux streaming d’informations à la fois et il est en général à même de prendre une décision avec 70 % de valeur de certitude, il faut donc que les fonctions d’IA soient compatibles avec ce fonctionnement au risque d’avoir une relation délétère entre l’agent d’IA et son « utilisateur ».

Il n’est pas abordé des problématiques tels que les relations d’autorités entre un agent d’IA et son utilisateur ni le coté légal de leurs utilisations. Eléments dont il faudra tenir compte dans la conception tel que nous le faisons aujourd’hui dans le domaine médical.

Notre souhait est double pour la Martinique :

Nous y installer afin d’y créer une société qui piloterait l’ensemble des projets non confidentiels sur l’échelle mondiale

Une seconde voie serait la création d’une Fondation de Recherche Privée qui pourrait s’appuyer sur l’expérience et l’expertise de la société locale. Cette fondation pourrait alors offrir des services R&D à l’ensemble de la communauté scientifique mondiale (hormis le train et la neige, la Martinique permet de modéliser des situations facilement et de les projeter sur des échelles plus grande d’un simple coefficient multiplicateur). De plus elle pourrait offrir un hébergement à des divisions de R&D privées en usant des avantages fiscaux en place.

De plus L’Union Européenne verrait d’un bon œil la création d’un outil tel que la Fondation car sur un plan géostratégique cela permet d’avoir une plateforme de recherche projetée sur le continent Américain. Il me semble fort probable que L’UE serait un appui et un financeur direct de cette Fondation.

 

Share.

À propos de l'auteur

Laisser un commentaire

Vérification * Time limit is exhausted. Please reload the CAPTCHA.