L’ÉCHO DE ToMCo

> Jean ROHMER parle de l’Intelligence Artificielle

> Jean ROHMER parle de ToMCo

> À-propos de ToMCo

10 minutes

L’intelligence artificielle, une priorité des entreprises depuis 60 ans !

Jean ROHMER : Comprendre l’IA pour mieux cerner les enjeux actuels


Rarement l’Intelligence Artificielle n’a été autant médiatisée. Ce n’est pas seulement en France mais dans le monde que les gouvernements en font une priorité. Les États définissent des plans stratégiques dotés de plusieurs millions, voire milliards de dollars visant à adapter l’éducation, la santé, financer la recherche ou légiférer. Devant cet engouement, prendre le recul de l’analyse s’impose.


Jean ROHMER a été chercheur à l’INRIA avant de diriger la recherche de la BU Intelligence Artificielle chez Bull pendant près de 15 ans. Cette BU, forte de 200 personnes dans les années 90, a notamment développé le langage IA « Kool », vendu le premier outil de programmation par contraintes « Charme » et développé les plus grands systèmes experts opérationnels de l’époque. Jean est aujourd’hui Vice-président de l’Institut et think-tank Fredrik Bull, Cofondateur de l’Association Française pour l’IA et Directeur de la recherche à l’Ecole Supérieure d’Ingénieurs Léonard De Vinci et Partner de ToMCo.

Vous travaillez sur l’IA depuis 40 ans pourtant nous avons le sentiment que le domaine de l’IA est très récent…

JR : Les outils et technologies aujourd’hui utilisés de l’IA sont en fait le fruit d’une soixantaine d’années de travail, structurées en plusieurs « saisons », chacune ayant produit son lot de résultats fructueux :

  • Une première saison d’optimisme (1956-1970) a vu certains pionniers comme John MacCarthy, Marwin Minsky, Seymour Papert et bien d’autres produire les premiers systèmes de règles ou bases de la représentation des connaissances. Le concept de frame permettant de structurer les données a notamment vu le jour. Un « AI Winter » suivit (1970-1980) qui marqua la création de quelques systèmes experts, mais vit aussi se développer une « école française de l’IA ».
  • Pendant une seconde phase de croissance de l’IA (1980-1990), les systèmes experts se sont améliorés. Les moteurs d’inférence ont vu le jour, des outils et méthodes de  formalisation des connaissances ont été développées. La programmation par contraintes est aussi apparue.
  • Le second « AI Winter » (début des années 1990) eu comme origine non pas des déceptions techniques mais une dégradation économique générale dans les industries de la haute technologie. Ensuite vint internet qui mobilisa l’essentiel des forces vives et des financements.

Alors d’où vient le regain d’intérêt ?

JR : Le regain d’intérêt actuel pour l’IA trouve son origine dans la puissance des ordinateurs du Cloud, des capacités de stockage, du big data, de la généralisation d’Internet, et aussi de la meilleure compréhension théorique de certains domaines. Ceci redonne vie à des algorithmes d’apprentissage automatique, parfois vieux de dizaines d’années, comme la pratique actuelle du deep learning. Parmi d’autres, le français Yann Le Cun, maintenant à la tête de la recherche de Facebook, se situe dans la lignée de ces travaux.

Comme facebook, les autres gafa collectent beaucoup de données. Sont-ils donc déjà les gagnants de la course à l’IA ?

JR : Les annonces spectaculaires incessantes viennent en effet souvent des GAFA, dans la transcription en texte de dialogues audio par exemple. Les données qu’ils collectent leurs procurent un avantage concurrentiel considérable. Mais il faut nuancer :

  1. Les avancées des GAFA sont orientées vers leurs besoins spécifiques. Bien des domaines ne sont pas dans leur périmètre. On retrouve par exemple les diagnostics complexes de maintenance industrielle, qui sont à mener à partir des données de l’entreprise.
  2. Beaucoup d’algorithmes des GAFA se basent sur de l’Apprentissage Automatique, et en particulier le deep learning. Ces algorithmes ont toujours des limites : il leur faut des volumes gigantesques de données, leurs résultats ne sont pas facilement explicables et donc moins acceptables. Ils ne traitent que des problèmes locaux et stables, comme la reconnaissance d’images ou de sons, et non les problèmes globaux et changeants de la vraie vie.

Ces algorithmes prennent mal en compte le contexte dans lequel ils opèrent. La Représentation des Connaissances et les modèles de données correspondants sont pourtant nécessaires pour que les technologies d’IA puissent se rapprocher de la résolution de problèmes issus du monde réel. Les familles d’IA, leurs techniques et leurs applications sont innombrables, elles ouvrent beaucoup d’opportunités, à condition de les enraciner au coeur des SI.

Il y a aussi beaucoup de start-up spécialisées dans le domaine de l’IA ?

JR : Ce constat est une conséquence du dernier point évoqué. Il est intéressant de noter que celles qui réussissent ne sont pas nécessairement issues de grands laboratoires de recherches, mais viennent du terrain, ayant réussi à trouver les bons algorithmes au service de cas concrets. En effet, de plus en plus d’algorithmes performants sont aujourd’hui disponibles en ligne, amoindrissant l’avantage concurrentiel issu d’une R&D propre.

Quelles leçons pouvons-nous retenir du passé pour mettre en place un projet d’IA aujourd’hui ?

JR : Voici trois points sur lesquels il convient d’insister :

  • D’abord, il n’existe pas encore d’IA généraliste mais plutôt des IA spécifiques, adaptées à chaque contexte. Pour un projet d’IA réussi, il faut donc trouver les bons cas d’usage, inclure fortement le métier dans la démarche projet, procéder à de nombreux réglages, souvent par tâtonnement, de multiples paramètres, coefficients, seuils, …
  • Ensuite, dans le domaine du big data et de l’IA apparaissent sans cesse des sous-systèmes open source – pour beaucoup fournis par les GAFA – qu’il suffit en théorie d’assembler pour construire rapidement une solution opérationnelle. Si cette approche peut être intéressante pour les premières preuves de concept, il faut avoir en tête qu’une architecture informatique devra traverser les modes et les générations de développeurs. Il faut donc définir des principes d’architecture stables, « simples et puissants », en particulier concernant des modèles de données évolutifs. Il faut aussi assurer la continuité d’un petit noyau d’architectes qui se transmettent la culture du projet.
  • Finalement, une brique d’IA n’est qu’un élément d’un système d’information, avec toute une problématique d’interfaces et de MCO, alourdissant de fait les opérations. Il faut s’assurer que le SI est en capacité d’accueillir de l’IA.

Comment s’assurer de la rentabilité d’un projet d’IA ?

JR : Il faut d’abord déployer une bonne gestion de projet sans oublier les bonnes méthodes : business plan, agile, retours métier récurrents, … D’autres bonnes pratiques spécifiques à l’IA sont à mettre en place – comme la gestion du cycle de vie des données tant sur les phases de projet que d’amélioration continue. Conservant un esprit agile, il faut procéder à la réalisation des projets IA par incréments fréquents et conclure sur la valeur ajoutée obtenue. La direction de projet doit prendre les décisions qui s’imposent si les bénéfices ne sont pas ceux escomptés.

Une Conclusion ?

JR : Gardons l’esprit critique et soyons sensibles aux paradoxes : d’un côté, des préoccupations croissantes sur le respect de la vie privée et l’éthique des algorithmes, et de l’autre un engouement pour le deep learning, qui est l’une des méthodes les moins auditables… N’oublions pas les autres méthodes d’apprentissage.

Jean ROHMER & ToMCo

Jean ROHMER est Partner de ToMCo depuis 2017. Jean intervient avec ToMCo sur deux types de missions : (1) l’élaboration de stratégies d’implémentation d’IA et leur mise en oeuvre concrète et (2) l’animation de séminaires permettant notamment de mieux comprendre l’Intelligence Artificielle par des rappels historiques.

À-propos de ToMCo

ToMCo est un cabinet de conseil en stratégie numérique, qui, grâce à un modèle d’organisation innovant permet de délivrer des recommandations à très haut niveau d’expertise. Nos missions sont réalisées en se reposant sur deux actifs fondamentaux : des processus et méthodes professionnels et l’intervention d’experts seniors issus du monde opérationnel, et reconnus pour leur excellence.