Lenka Zdeborová a travaillé au Centre de l’énergie atomique du CNRS avant de devenir, en 2020, professeur de physique statistique et d’informatique à l’Ecole polytechnique fédérale de Lausanne (EPFL). Elle est membre du comité de rédaction de la revue Apprentissage automatique : science et technologie, consacré aux apports de l’intelligence artificielle (IA) pour la recherche. Elle donne notamment des cours de machine learning pour les physiciens et tente de comprendre le fonctionnement de l’IA.
Pourquoi, en tant que physicien, étudiez-vous les systèmes d’IA ?
En général, un algorithme est une succession d’opérations que l’on peut comprendre et suivre une à une. Un réseau de neurones avec des millions voire des milliards de paramètres n’est pas la même chose. Quand cela fonctionnera-t-il ? Sous quelles conditions? Là, on ne peut pas souvent répondre à l’avance. Nous manquons donc d’une compréhension théorique de ces objets. Je les étudie comme d’autres systèmes complexes, comme la propagation d’une épidémie ou d’un trou noir, avec des outils de physique statistique développés notamment par Giorgio Parisi, le prix Nobel de physique 2021.
Quel but ?
Pour certains usages, pour des applications critiques ou pour étudier des systèmes en science, nous avons des critères plus rigoureux que pour une simple demande de recommandation de film. Nous devons avoir une grande confiance dans le résultat. Nous devons être en mesure de dire si la réponse du programme est solide, dans quelles conditions un résultat correct est obtenu, quelle architecture est meilleure, plus rapide ou plus précise qu’une autre. Nous nous demandons si le même résultat pourrait être obtenu avec moins de données d’entraînement. Mais ma motivation est aussi un peu plus philosophique.
Que veux-tu dire ?
Par exemple, on peut se demander si l’IA change la méthode scientifique. Jusqu’à aujourd’hui, nous étions un peu coincés, dans nos raisonnements, par des équations et des modèles. Mais, maintenant, il y a des situations où les prédictions se font sans modèle, et où les hypothèses sortent des données et non plus de la tête du chercheur. Notons que, dans certains cas, prédire le comportement d’un système ou le contrôler peut se faire sans disposer de modèles simples, contrairement au passé.
En gros, cette situation ressemble un peu à celles que nous avons vécues en réalisant des simulations très compliquées. Nous pourrions même être un peu frustrés de ne pas pouvoir trouver une compréhension simple. Il faudra vous habituer au fait que l’IA multiplie ce type de situation.
Il vous reste 36,41% de cet article à lire. Ce qui suit est réservé aux abonnés.