Conférences, ateliers : quand les géants de l’Intelligence Artificielle et des Data Sciences s’invitent à l’EPITA
Deux jours après la venue très remarquée d’Olivier Ezratty autour du CES 2018, l’EPITA Paris organisait un nouvel événement d’envergure sur son campus avec la Journée de l’Intelligence Artificielle (IA) et des Data Sciences. Ainsi, à travers de multiples conférences et 18 ateliers tournés vers l’innovation, ce jeudi 1er février 2018 permettait aux futurs ingénieurs de l’école de rencontrer les spécialistes de ces thématiques d’avenir, issus de grandes entreprises comme de laboratoires de recherche reconnus.
Reda Dehak, enseignant chercheur au LSE et responsable de la Majeure SCIA, a animé la grande conférence plénière
Joël Courtois, directeur général de l’EPITA, et Jacques Pitrat, pionnier de l’intelligence artificielle en France
Pour marquer le départ de cette journée ambitieuse, l’EPITA proposait une grande conférence inaugurale donnant lieu à l’intervention de trois grands acteurs de l’IA: Jean-Paul Haton, un des pionnier de la recherche en intelligence artificielle et spécialiste en communication Homme-Machine, chercheur et universitaire à l’origine de l’équipe « Reconnaissance des Formes et Intelligence Artificielle » au sein du laboratoire lorrain de recherche en informatique et ses applications (Loria/Inria) et de deux acteurs industriels dans le mode de l’IA : Georges Uzbelger d’IBM, AI – Advanced Analytics Solution & Quantum Computing Leader à IBM France et Pierre-Louis Xech, co-Directeur du Centre de Recherche Commun Inria-Microsoft Research et Artificial Intelligence & Academic Program Manager à Microsoft.
La conférence débutait avec Jean-Paul Haton. L’occasion pour le chercheur de brosser un tableau très général de l’IA. « L’IA n’est pas récente. Elle est véritablement née lors d’un workshop organisé à l’université américaine de Darthmout durant l’été 1956. Cette conférence a été mise en place par des chercheurs un peu « allumés » estimant que tous les aspects de l’intelligence allaient pouvoir être recréés et simulés par des machines, une conjecture pas encore prouvée aujourd’hui. » Parmi ces jeunes précurseurs se trouvait notamment John Mc Carthy, pionnier de l’IA (on lui doit également la paternité du terme) aux côtés de Marvin Lee Minsky. « Ses travaux ont aussi permis de mieux comprendre ce qu’était l’intelligence au sens large. D’ailleurs, il fut l’un des premiers à mettre en évidence le fait que l’IA se devait d’associer ingénierie et biologie ! »
Jean-Paul Haton
Des progrès constants
Après un court rappel de l’évolution de l’IA au fil des décennies, indissociable de l’évolution de la puissance de calcul des ordinateurs (liée à la loi de Moore) et d’une meilleure connaissance scientifique, symbolisée par les affrontements humain-machine, toujours remportés par cette dernière, du jeu du morpion en 1952 au jeu de Go en 2017, Jean-Paul Haton se concentrait ensuite sur les prochains défis de l’IA. « On est encore loin du test de Turing qu’aucune machine n’est réellement capable de passer », expliquait l’expert, mentionnant le test imaginé par l’un des pères fondateurs de l’informatique moderne, à savoir une confrontation conversationnelle entre un humain et une machine intelligente à l’issue de laquelle l’humain ne peut pas distinguer si la conversation s’est déroulée avec un autre humain ou non. « Cela vaut aussi pour le Winograd Scheme Challenge qui consiste à véritablement comprendre la langue naturelle et où les grandes entreprises de l’IA se gardent bien de participer ! »
D‘Alan Turing, il en était encore question. « De la question posée par Turing dans un article de 1950 – est-ce qu’une machine peut penser ? – deux grandes approches sont nées : l’IA symbolique, qui tend à fabriquer une machine qui pense via des systèmes à bases de connaissances, et l’IA connexioniste, qui cherche à modéliser le cerveau via les réseaux neuronaux. Au final, ces deux approches sont complémentaires car, pour faire une IA, il convient d’associer IA symbolique et connexioniste à des modèles statistiques… sans oublier l’apprentissage, autre aspect fondamental sur lequel la science doit encore travailler. »
Jean-Paul Haton laissait ensuite le micro à Georges Uzbelger pour qui l’IA est entrée aujourd’hui dans une nouvelle ère. « Nous sommes passés de l’ère des systèmes de tabulation au début du 20e siècle à celui des systèmes programmables dans les années 1950. Depuis 2011, une vraie révolution s’est mise en place avec l’ère des systèmes cognitifs. » Selon l’expert, cette ère s’explique par la convergence de quatre grands domaines : les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Ceci a entraîné une approche différente car bio-inspirée, associant l’apprentissage (machine et deep learning), méthode de « raisonnement » de type bayésien (plausibilité des causes à partir des effets constatés) et modèle d’architecture de type « neuronal » inspiré des réseaux de neurones biologiques.
Georges Uzbelger
La perfection encore difficile à atteindre
Cette approche permet ainsi de faire avancer l’IA, même si la perfection est encore loin. « Dans le cas du test de Turing, l’intelligence humaine est capable de déceler l’imperfection… mais aussi se méfier de la perfection ! Une IA parfaite devrait donc prendre en compte la subjectivité, les subtilités… Mais à défaut d’être parfaite, elle est déjà au cœur d’applications aujourd’hui, notamment dans l’aide à la prise de décision dans l’incertain (arbitrage) et de décision multicritères… »
Autre point abordé par l’invité, la nécessité actuelle pour l’homme de réduire son langage sémantique pour dialoguer avec une machine. « Cela réduit l’interaction : c’est très frustrant et pénalisant pour l’utilisateur. Le langage doit être appauvri pour communiquer. Par exemple, demandez à Google de vous trouver « des images d’animaux sauf des grenouilles », vous verrez le résultat… Voilà pourquoi, chez IBM, ils travaillent sur une interprétation sémantique et pragmatique plus développée, pour aller vers une collaboration homme-machine, pour tendre vers une intelligence cognitive augmentée. » Le but de cette direction ? Une amélioration de l’efficience opérationnelle, de la satisfaction client, diminution des coûts, la création de nouveaux produits et services…
Pierre-Louis Xech
Une IA qui tend à toucher toute la société
Du côté de Microsoft, cela fait depuis plus de 20 ans que l’IA se démocratise sur de nombreux usages. Selon Pierre-Louis Xech, le géant américain a même choisi s’accélérer dans le domaine dès 1991 via la création d’un laboratoire de recherche. Depuis, les avancées réalisées par les chercheurs de l’entreprise se déclinent de plus en plus rapidement au sein des services, solutions et produits commerciaux, là où, par le passé, certaines trouvailles pouvaient mettre plusieurs années avant d’atterrir entre les mains du grand public. De l’IA chez Microsoft, on en trouve donc partout, de la détection automatique des spams sur Hotmail en 1997 au suivi des gestes réalisé par Kinect dès 2010, en passant par la traduction en temps réel via Skype Translator en 2014 ou encore la plateforme de Data Science intégrée à Azure Machine Learning depuis 2015. « L’IA est une mutation de l’informatique en transformation continue depuis les années 1950, assurait ainsi l’invité. Et pour lui, l’IA correspond essentiellement aujourd’hui à de la perception, du calcul à très grande échelle et des capacités d’interactions de plus en plus élaborées avec les objets connectés nous entourant. Ainsi, l’ambition de Microsoft est d’emmener l’IA à tous les développeurs, notamment via des outils « Cloud + AI Stack » et les cognitive services associés à la vision, à la voix, au langage, à la connaissance, etc. » Pourquoi ce besoin de partage ? Pour permettre à l’innovation d’aller toujours plus loin et d’imaginer de nouveaux usages. Pierre-Louis Xech concluait d’ailleurs son intervention avec la démonstration de Seeing AI, une application gratuite mise au point par Microsoft pour décrire aux personnes mal-voyantes ou non-voyantes le monde qui les entoure.
18 ateliers autour de l’IA
L’après-midi de ce jeudi 1er février laissait ensuite place à de nombreux ateliers organisés dans les différents amphis du campus de l’EPITA et animés par 4 enseignants/chercheurs du LSE. Pensés sous la forme de workshops, ces ateliers étaient animés par des professionnels reconnus, dont certains sont des anciens de l’école, afin de faire comprendre aux futurs ingénieurs la richesse de l’IA et, peut-être, faire naître chez eux une nouvelle vocation !
Jean-François Mangin, chef de laboratoire au CEA, est venu parler la révolution de l’imagerie cérébrale permise par l’IA et l’IRM.
Achraf El Khachchai (EPITA promo 2019), à propos de l’atelier du CEA : « J’ai beaucoup aimé l’aller-retour entre IA et intelligence humaine pour découvrir tout ce que cela permet de faire, notamment dans le domaine médical. L’aspect recherche est passionnant, y compris sur les questions de financements, via les projets européens et américains. Pour ma part, cela m’a donné encore plus l’envie de m’intéresser à l’IA. Je pense d’ailleurs que les chercheurs doivent prendre beaucoup de plaisir à travailler sur ce domaine, plus que ceux qui, dans le cadre d’une utilisation à grande échelle de l’IA, doivent également se plonger dans une dimension plus éthique du sujet. »
Jean Carrive, responsable adjoint du département Recherche et Innovation de l’INA
Jean-Benoît Griesner, Data Scientist chez Qwant, profitait de son atelier pour explorer les usages du machine learning au sein de son entreprise
Alexandre Barraux (EPITA promo 2020), à propos de l’atelier de Qwant : « C’était très intéressant : avoir la possibilité de mieux comprendre comment fonctionne un moteur de recherches, c’est une opportunité assez rare. Pour ma part, cela m’a permis d’apprendre beaucoup de choses et voir l’impact que l’IA a justement sur l’évolution de ces moteurs. Surtout, cela m’a donné la possibilité de découvrir Qwant, que je pense tester un peu plus par la suite. »
Fanny Riols (EPITA promo 2016), R&D Software Engineer chez Criteo, membre de l’équipe Machine Learning, était présente pour animer un atelier autour des modèles linéaires généralisés