"Une IA digne de confiance nécessite une collaboration multidisciplinaire"
L'intelligence artificielle et l'apprentissage automatique sont des technologies clés pour la science, l'économie et la société. Mais quel est leur degré de fiabilité ? Andreas Krause, lauréat du Prix R?ssler 2021 et président de l'ETH AI Center, nous parle des opportunités et des défis d'une IA fiable.
Monsieur Krause, vous êtes l'un des principaux chercheurs en apprentissage automatique et en intelligence artificielle (IA) en Europe. Y a-t-il des t?ches que vous faisiez vous-même il y a dix ans et que vous déléguez aujourd'hui à des programmes informatiques intelligents ?
En arrière-plan, il existe effectivement déjà quelques technologies très utiles dans lesquelles l'intelligence artificielle et l'apprentissage automatique facilitent mon travail quotidien : la recherche documentaire est largement soutenue par des systèmes de recommandation et la compréhension et la traduction de la parole fonctionnent aujourd'hui en grande partie de manière automatisée. Cela n'était pas possible il y a dix ans.
Une intelligence artificielle peut-elle comprendre des problèmes qu'un être humain n'a pas encore compris lui-même ?
Il est difficile de définir ce que signifie concrètement "comprendre". Les machines sont capables d'extraire efficacement des modèles statistiques complexes à partir de grands ensembles de données et de les exploiter par le calcul. Cela ne signifie pas qu'elles les "comprennent" d'une manière ou d'une autre. Les méthodes d'apprentissage automatique existantes sont néanmoins très utiles pour des t?ches spécialisées. Toutefois, la capacité de l'homme à transférer ses connaissances, à apprendre et à résoudre rapidement des t?ches très différentes et complexes reste une particularité. Nous en sommes très loin dans le domaine de l'intelligence artificielle.
Comment évaluez-vous la recherche en IA à l'ETH Zurich ?
? l'ETH, nous menons d'excellentes recherches sur l'IA, tant en informatique que dans de nombreuses autres disciplines. En particulier dans les sous-domaines des sciences des données comme l'apprentissage automatique, la compréhension des images et la compréhension du langage, mais aussi dans des applications comme la santé, la robotique, etc. Comme nombre des questions les plus passionnantes se posent à l'interface des disciplines, je vois des opportunités dans une collaboration systématique. C'est pourquoi nous avons établi l'ETH AI Center de manière pluridisciplinaire et nous avons rejoint l'initiative européenne d'apprentissage automatique ELLIS. Cette mise en réseau est la clé. Seuls ceux qui ont le leadership technologique peuvent influencer de manière déterminante le développement de l'IA et garantir que les valeurs européennes soient intégrées dans la prochaine génération d'IA.
Que signifient les "valeurs européennes" dans le contexte de l'IA ?
Que nous réfléchissions au développement technologique et à ses effets sur notre économie et notre société libérale. En Europe, par exemple, la protection de la vie privée revêt une grande importance. Il en résulte de nouvelles questions sur la manière dont les technologies d'IA doivent être développées. La fiabilité, l'équité et la tra?abilité jouent un r?le central dans ce contexte, car elles concernent des questions très pertinentes pour l'acceptation sociale, l'inclusion et la confiance dans l'IA.
Quels sont les défis actuels sur la voie d'une IA digne de confiance ?
L'IA et l'apprentissage automatique doivent être aussi fiables et ma?trisables que les systèmes logiciels classiques, et ils doivent permettre des applications complexes auxquelles nous pouvons faire confiance. De mon point de vue, un grand défi réside dans le fait que la fiabilité de l'IA ne peut être évaluée que par rapport à certaines applications. Par exemple, il est difficile de transposer directement des questions spécifiques à la médecine à des questions de justice ou d'assurance. Nous devons donc conna?tre les exigences concrètes d'une application pour développer une IA fiable et digne de confiance.
? quoi tient la fiabilité des méthodes d'apprentissage intelligent ?
La fiabilité est un thème central pour l'acceptation des nouvelles technologies de l'IA. Les exigences concrètes en la matière dépendent à nouveau beaucoup de l'application concernée. Si un système de recommandation propose un film qui ne pla?t pas à quelqu'un, les conséquences n'ont pas la même portée que si un système d'assistance médicale ou une voiture autopilotée commet une erreur. Dans ces applications, les exigences en matière de fiabilité et de sécurité des méthodes sont incomparablement plus élevées.
Et si des erreurs se glissaient malgré tout ?
"Que les processus d'apprentissage automatique fassent des erreurs est sans doute inévitable. Les humains font aussi des erreurs, mais ils en tirent des le?ons et essaient de les minimiser. C'est tout aussi important dans l'apprentissage automatique".Andreas Krause
En étudiant systématiquement les types d'erreurs qui se produisent, nous pouvons les réduire et les prévenir au mieux. Il est notamment important que les processus d'apprentissage ne présentent pas de comportements erronés inattendus.
Existe-t-il des exemples de mauvaise conduite inattendue ?
Il existe par exemple des systèmes de reconnaissance d'images pour les voitures autonomes, qui reconnaissent les panneaux de signalisation. Il suffit parfois que quelqu'un colle un autocollant sur un panneau de signalisation pour que la reconnaissance automatique ne fonctionne plus. Ce comportement erroné est extrêmement inattendu pour des personnes qui ne se laisseraient pas tromper par des autocollants. Il faut ici trouver de nouvelles méthodes qui éliminent de manière fiable ces influences perturbatrices et développer des processus d'apprentissage robustes. Ce sont des sujets de recherche très actuels.
On peut parfois lire que l'apprentissage automatique doit pouvoir être expliqué afin de pouvoir comprendre a posteriori comment et pourquoi une procédure a abouti à un résultat.
Précisément . L'explicabilité est également difficile à définir, et ne peut être concrétisée que par rapport à une application. De mon point de vue, il n'est pas indispensable de comprendre exactement comment un système en formation a pris sa décision. Si nous réfléchissons à la manière dont nous, les êtres humains, prenons nos décisions, nous ne savons pas non plus exactement pour quelles raisons neurobiologiques un être humain prend une certaine décision. Mais les êtres humains ont la possibilité de présenter leurs décisions de manière compréhensible. Nous devons essayer de reproduire cette capacité dans les processus d'apprentissage automatique. Dans la classification des panneaux de signalisation, par exemple, on peut essayer de déterminer si un modèle d'apprentissage s'oriente vers des propriétés d'arrière-plan ou des caractéristiques secondaires plut?t que vers des propriétés pertinentes des panneaux de signalisation.
Lorsqu'une erreur est détectée, la procédure d'apprentissage est-elle adaptée ?
Oui, c'est vrai. Sauf que dans tous les cas, nous devons d'abord comprendre quel est le problème, afin de pouvoir entra?ner les modèles d'apprentissage de manière à ce que les erreurs ne se produisent plus.
"Dans les processus d'apprentissage qui ont potentiellement des conséquences pour les personnes, il est impératif de respecter des normes éthiques élevées afin de garantir que les résultats sont équitables et ne discriminent personne".Andreas Krause
Est-ce que vous pouvez comprendre que quelqu'un se souvienne de l'apprenti sorcier de Goethe à propos de l'intelligence artificielle : "Ceux que j'ai appelés, les esprits, je ne m'en débarrasserai pas" ?
L'intelligence artificielle suscite à la fois des rêves et des craintes. Cela est également influencé par la science-fiction, les films hollywoodiens et la fiction. En tant que chercheur, je m'inquiète plut?t de l'utilisation aveugle ou de l'abus des technologies existantes, et des conséquences possibles dues au manque de fiabilité ou à la discrimination. Il est toutefois important de ne pas se laisser guider par les craintes, mais de relever les défis. Ce n'est qu'ainsi que nous pourrons participer de manière proactive à l'élaboration de la technologie et l'utiliser pour le bien de la société.
Quel r?le jouent les questions éthiques ?
Dans les processus d'apprentissage qui ont potentiellement des conséquences pour les personnes, il est impératif de respecter des normes éthiques élevées afin de s'assurer que les résultats sont équitables et ne discriminent personne. Cela nécessite une collaboration entre différentes disciplines. La réponse à une question éthique ne peut pas être purement technologique. Aucun informaticien ne peut, par exemple, réfléchir seul et de manière généralisée à la manière de développer un système en formation pour qu'il prenne des décisions équitables.
Que donnez-vous aux étudiants qui veulent s'établir dans l'économie gr?ce à l'IA ?
Les bases, notamment en mathématiques et en informatique, sont très importantes. En même temps, il faut être ouvert à de nouvelles questions et s'engager dans des projets concrets avec des partenaires de différents domaines d'application. Enfin, il faut garder une certaine sérénité dans un domaine qui évolue à une vitesse folle comme l'IA. Plut?t que de courir après la dernière tendance, il est préférable de prendre le temps de réfléchir à l'ensemble.
Andreas Krause
Andreas Krause est professeur d'informatique à l'ETH Zurich. Il est également codirecteur académique du page externeCentre suisse des sciences des données,Président de l'ETH AI Center et cofondateur du spin-off de l'ETH. page externeLatticeFlow. Il a joué un r?le de premier plan dans la mise en place du Programme master Data Science, du DAS Science des données et a participé au cours de l'ETH le plus fréquenté, "Introduction à l'apprentissage automatique". En 2012, il a re?u un Chouette d'or des étudiants de l'ETH pour l'excellence de son enseignement. Il a récemment remporté le Prix R?ssler, le prix de recherche le mieux doté à l'ETH Zurich.
Série "Vers une IA de confiance"
Avec la création de l'ETH AI Center en octobre 2020, l'ETH Zurich s'est engagée à promouvoir des systèmes d'IA fiables, accessibles et inclusifs. Dans une série d'interviews et de portraits, Actualités ETH met en lumière ce que ces valeurs signifient pour les chercheurs à l'ETH.
Un aper?u des derniers résultats de recherche en matière d'IA et de leurs conséquences possibles est également fourni par les page externeVidéos de la série "AI + X" avec des membres de l'ETH AI Center.
Articles connexes
- chevron_right Pionnier de l'apprentissage automatique actif (Actualités ETH, 10.06.2021)
- chevron_right Nouveau centre de recherche sur l'IA (communiqué de presse, 20.10.2020)
- chevron_right Tout est IA ? (Magazine Globe, 15.09.2020)
- chevron_right Les bases d'une intelligence artificielle digne de confiance (Actualités ETH, 15.09.2020)