Transition Numérique et Solutions d’Optimisation

Louis Capitaine, Spécialiste en Intelligence Artificielle


Listen Later

Interview de Louis Capitaine, docteur en mathématique, fondateur de Epoch Intelligence, spécialiste en Intelligence Artificielle.
Podcast Radio :
La vidéo de l'interview Webcam est disponible en bas de page
Introduction, Parcours, l’Intelligence Artificielle
Stéphane Lambert : RLP 102.3, aujourd’hui avec Louis Capitaine de la société Epoch Intelligence. Bonjour Louis. Nous nous sommes rencontrés dans un meetup vendredi dernier consacré à la big data et l’intelligence artificielle et vous êtes, me semble-t-il, me semble-t-il mathématicien.
Louis Capitaine : Oui c’est bien ça. J’ai fait une thèse à l’université bordeaux en bio statistiques, donc spécialisée dans ce qu’on appelle aujourd’hui le machine learning, qu’on peut aussi appeler l’intelligence artificielle. Au départ, j’ai fait des études en mathématiques pures. Je me suis ensuite spécialisé en master dans la théorie des probabilités et des statistiques pour enfin rencontrer mon directeur de thèse qui travaillait sur des techniques de type forêts aléatoires qui sont des techniques de machines learning, et m’a proposé de travailler sur des sujets associés aux machines learning dans des problématiques de médecine. Et donc ma thèse est dans le grand champ de ce qu’on peut appeler pour les techniciens les forêts aléatoires. Ensuite une fois terminé ma thèse, j’ai monté une société qui s’appelle Epoch Intelligence et qui fait notamment aujourd’hui de la recherche et développement pour des entreprises et des institutionnels. On fait aussi de la formation en assez haut niveau pour des ingénieurs et des chercheurs, pour les former aux techniques modernes justement de science des données, machine learning, intelligence artificielle, et modélisation.
S.L.: D’accord : donc, une fac de mathématiques à Bordeaux I, donc le Deug TCA/I, c’était comme ça à mon époque lorsque j’y étais :)
L.C. : Puis une licence de maths pures.
S.L.: J’avais arrêté aux exponentielles de matrices :)
L.C. : Après, une maîtrise de math, deux ans de plus, qu’on appelle aujourd’hui le master modélisation statistique et stochastique. Donc il y a deux voies, une voie qui est plus analyse de données et une autre voie qui est un peu plus théorique, qui s’appelle analyse stochastique, et moi j’ai choisi la voie un peu plus théorique.
S.L. : Très bien. Donc maintenant qu’on a vu que vous étiez effectivement de la matière grise sensibilisée aux problématiques d’intelligence artificielle pour la médecine… L’intelligence artificielle, qu’est-ce que cela signifie réellement aujourd’hui dans la vie de tous les jours ainsi qu’au niveau technique ? Est-ce que vraiment l’on a passé un cap ? Est-ce que la réalité rejoint les livres d’Isaac Asimov ? Vers quoi va-t-on, en quoi est-ce utile, en quoi est-ce dangereux, bref, concrètement aujourd’hui, ou en est on, qu’est-ce que l’IA aujourd’hui ?
L.C. : Énormément de développements ont été faits récemment en intelligence artificielle. C’est d’ailleurs un domaine qui est assez récent finalement. C’est un domaine qui a à peu près soixante-dix ans de recherches, si on ne compte pas les développements mathématiques antérieurs. Effectivement aujourd’hui ce que l’on appelle l’intelligence artificielle regroupe effectivement les statistiques, les mathématiques, la programmation, et c’est un mélange de toutes ces disciplines. L’intelligence artificielle aujourd’hui, il y a un petit peu la manière fantasmée de le penser, qui est l’idée d’avoir une intelligence artificielle qui mimerait ce qu’on pourrait appeler le sens commun humain, c’est-à-dire une espèce d’intuition, lorsqu’on a un phénomène, et une décision une espèce de méta décision de ce qu’il faudrait faire dans n’importe quelle situation donnée. Alors cela, nous n’y sommes pas encore. Il y a des chercheurs qui y travaillent, on peut notamment citer Yann LeCun, le très grand chercheur français qui est à l’origine du grand succès des réseaux de neurones modernes. Il a inventé en fait des techniques qui permettent de mettre aujourd’hui les réseaux de neurones au premier plan sur le plan de la recherche. Yann LeCun reparle aujourd’hui de ce qu’on appelle l’intelligence artificielle générale, et c’est un peu l’idée qu’en a le grand public : cette espèce d’IA qu’on pourrait mettre dans un robot qui pourrait exécuter toutes les tâches de la vie quotidienne. En réalité aujourd’hui l’IA n’en est pas à ce stade-là. Aujourd’hui l’IA est cloisonnée à des tâches bien particulières dans lesquelles on va entraîner un modèle pour faire quelque chose. Donc typiquement, par exemple, faire de la reconnaissance d’objets, de formes. Globalement, qu’est-ce que c’est qu’une tâche d’intelligence artificielle ? Ce sont des entrées, des variables explicatives, et une sortie. Donc l’idée, c’est de trouver le lien qui peut exister entre les variables explicatives et la sortie. Et lorsqu’on est capable de trouver ce lien-là, de pouvoir ensuite faire une généralisation.
Globalement pour donner un exemple assez précis : j’ai par exemple des patients qui sont atteints de maladie d’Alzheimer : on récupère des coupes de cerveau sur des patients qui sont atteints de la maladie d’Alzheimer, et d’autres qui ne sont pas atteints par cette maladie d’Alzheimer. Ce qu’on aimerait faire, c’est apprendre le lien qu’il y a entre les différentes coupes d’IRM de cerveau et l’apparition ou non de la maladie d’Alzheimer pour que plus tard, lorsqu’on connaît ce lien, pouvoir extrapoler sur un nouveau patient et lui faire passer une IRM à partir directement de cette IRM afin de déterminer si oui ou non il a la maladie d’Alzheimer, s’il est à risque de la développer plus tard, et quand la développer. Ça, c’est typiquement les problématiques d’IA qu’on est capable de faire aujourd’hui, avec des performances très grandes.
Globalement, l’IA qu’est-ce que c’est, c’est une tâche de prédiction, et d’apprentissage. Donc j’ai des entrées, j’ai des sorties, et je veux prédire le lien qui existe entre les deux. On n’en est pas aujourd’hui à essayer d’avoir une IA qui va, à partir d’un contexte global généralisé que l’on a pas posé en cadre spécifique, pouvoir déterminer ce qu’elle doit faire par elle-même. Ça c’est ce qu’on appellerait plutôt le sens commun humain. Nous n’y sommes pas encore, et c’est plutôt ce qu’on appellerait l’intelligence artificielle généralisée, telle que la pense globalement le grand public. Aujourd’hui quand on fait de l’intelligence artificielle, ont fait apprendre des modèles, et parfois même des modèles qui sont extrêmement simples. Globalement, on est capable pour cette problématique sur Alzheimer, d’apprendre ça avec une régression qu’on appelle une régression l’on appelle logistique. Alors c’est un petit peu plus compliqué, on parlerait pour les techniciens de régression logistique pénalisée, mais globalement c’est une régression logistique. Et on le voit bien d’ailleurs dans le rapport qu’avait publié Cédric Villani : lui dans sa définition de l’intelligence artificielle, c’est tout ce qui est capable d’apprendre une relation. C’est donc une définition extrêmement large qui englobe notamment la régression logistique, et qui englobe des régressions linéaires. Faire une régression linéaire, c’est déjà faire de l’IA dans ce cadre de définition.C’est de l’IA certes très basique, mais c’est faire de l’IA. Et aujourd’hui, des intelligences artificielles extrêmement complexes qui sont capables de faire de la reconnaissance d’individus sur des caméras surveillance, c’est en fait un empilement de plusieurs tâches spécifiques qui s’imbriquent les unes dans les autres. Et c’est souvent ce que j’explique lorsque suis en formation : j’explique à des chercheurs : « si vous voulez faire une IA extrêmement complexe, décomposez votre problème en plein de petits problèmes d’apprentissages. Résolvez-les les uns à la suite des autres »
S.L. : Bonjour Monsieur Descartes
L.C. : Voilà, exactement : plein de problèmes simples, on les empile et ensuite cela résout un problème extrêmement complexe. Et même avec des outils mathématiques très simples comme la régression linéaire, je le dis tout le temps, on peut résoudre des problèmes très compliqués, comme par exemple justement de la détection d’individus qui passent dans une caméra surveillance. Ca, ça se fait par exemple avec des techniques très simples. Des techniques matricielles, d’ailleurs.
Deux Grand Axes d'Intelligence Artificielle
S.L. : Donc en fait, on va dire qu’il y a deux grands axes actuellement d’Intelligence Artificielle : Il y a celle qui fait un peu fantasmer, ou l’on parle de test de Turing, de conscience de soi, de synchronicité et autres. On a vu quelques modèles émerger chez Google, chez quelques big GAFAM qui travaillent sur ceci. Mais dans l’application concrète de tous les jours, il s’agit plutôt de modèles qui font des tâches répétitives sur des gros volumes.
L.C. : Tout à fait.
S.L. : Il faut de la puissance de calcul pour cela, pour une grosse base de donnée : on sait que par exemple ne serait-ce que mettre en Database un péage d’autoroute, au bout de deux à trois mois, cela prend un volume énorme. Et si vous voulez commencer à faire des filtres sur des critères, vous commencez à avoir des temps de réponse qui se comptent en minutes. Donc je suppose que lorsqu’on commence à nourrir un engin, une machine, avec des données comme des codes génétiques, de l’adn et autres pour faire la prédiction, ou lorsque j’ai entendu qui a beaucoup été utilisé pour les radios (les radios x , X-Ray, les radiologues sont assistés par des outils comme ça), il faut vraiment beaucoup de puissance. Alors aujourd’hui, comment est-ce que cela fonctionne : ce sont des tests si/oui, si/oui (if/else), ce sont des switchs case ? Comment ça fonctionne derrière ?
L.C. : Alors : je vais pouvoir parler de quelque chose qui va peut-être aller à contre-courant de ce qui est souvent dit ; c’est une problématique qui est moderne. En fait, globalement,
...more
View all episodesView all episodes
Download on the App Store

Transition Numérique et Solutions d’OptimisationBy Stephane Lambert