L’état de l’ia en 2019: percées dans l’apprentissage automatique, le traitement du langage naturel, les jeux et la cartographie des connaissances
#Actualités ·2019-07-08 06:41:37
L'intelligence artificielle : un aperçu complet de son évolution rapide
L’intelligence artificielle (IA) est aujourd’hui l’un des domaines connaissant la croissance la plus rapide. Suivre et évaluer son développement requiert non seulement une attention constante, mais aussi la capacité d’analyser et d’évaluer selon plusieurs dimensions. C’est précisément ce que font Nathan Benaich, fondateur d’Air Street Capital et de RAAIS, et Ian Hogarth, investisseur providentiel en IA et professeur invité à l’IIPP de l’University College London.
Voir aussi : L’intelligence artificielle inspirée des neurosciences – ZDNet YouTube
Dans leur rapport intitulé State of AI 2019, publié le 28 juin, Benaich et Hogarth présentent un panorama complet de l’intelligence artificielle à travers 136 diapositives : percées technologiques et capacités, disponibilité et concentration des talents dans le domaine, grandes plateformes d’innovation actuelles et futures, financement et applications, enjeux politiques de l’IA, et l’IA en Chine.
Benaich et Hogarth ne sont pas de simples investisseurs en capital-risque : tous deux ont une solide expérience dans le domaine de l’IA, ayant participé à de nombreux projets, de la recherche fondamentale aux start-ups. Ils s’appuient également sur les contributions de figures majeures comme François Chollet (chercheur IA chez Google et créateur de Keras), Kai-Fu Lee (investisseur et penseur influent en IA), et Sebastian Riedel (chercheur chez Facebook AI).
Ce travail collaboratif regroupe un large éventail de connaissances et d’expertises. Après avoir découvert et lu le rapport, nous avons contacté Benaich pour une interview approfondie. Nous avons synthétisé ce rapport et les réflexions de Benaich en deux articles : l’un consacré aux percées technologiques et aux capacités, l’autre à leurs implications et aux enjeux politiques de l’IA.
Décrypter l’intelligence artificielle
Si vous vous intéressez à l’IA, ce n’est probablement pas votre premier rapport sur le sujet. Beaucoup connaissent déjà The Data & AI Landscape de FirstMark (rédigé par Matt Turck et Lisa Xu), ou encore The State of AI: Divergence de MMC Ventures. Ces trois rapports ont été mis à jour à peu près à la même période. Bien qu’il y ait des recoupements, leurs contenus, méthodes et formats diffèrent.
Le rapport de FirstMark est très détaillé, couvrant l’ensemble de l’écosystème des données jusqu’à l’intelligence artificielle. Il reflète l’évolution naturelle du big data vers l’IA. Le rapport de MMC Ventures adopte un angle plus abstrait, peut-être plus adapté aux décideurs. Les deux offrent des perspectives complémentaires.
Nous avons d’abord demandé à Benaich pourquoi ils avaient choisi de partager un savoir aussi précieux, et ce gratuitement.
Selon lui, l’IA est appelée à devenir un multiplicateur du progrès technologique dans notre monde de plus en plus numérique et piloté par les données. Car tout, de la culture aux produits de consommation, devient intelligent.
« Nous pensons qu’il est essentiel de comprendre l’état de l’IA dans divers domaines — recherche, industrie, talents, politique, Chine — de manière accessible et rigoureuse. Nous publions ce rapport pour susciter un débat éclairé sur l’avenir de l’IA. »
Le rapport atteint clairement cet objectif. Les 40 premières diapositives décrivent les progrès de la recherche en IA : les percées technologiques et leurs capacités. Les sujets abordés incluent l’apprentissage par renforcement, les jeux vidéo comme terrain d’expérimentation, le traitement du langage naturel (NLP), l’apprentissage profond en médecine, et l’AutoML.
Voir aussi : L’IA extraterrestre viendra-t-elle nous rendre visite ? – ZDNet YouTube
Apprentissage par renforcement, jeux et applications dans le monde réel
L’apprentissage par renforcement est une branche du machine learning qui a suscité beaucoup d’intérêt ces dix dernières années. Benaich et Hogarth le définissent comme un agent logiciel apprenant à adopter des comportements orientés vers un objectif via essais et erreurs, l’environnement fournissant des récompenses ou des punitions en fonction des actions entreprises (stratégies).
Beaucoup d’avancées ont été réalisées grâce à l’entraînement d’agents IA à jouer à des jeux comme StarCraft II, Quake III Arena, ou Montezuma’s Revenge, avec des performances dépassant parfois celles des humains.
Mais ce qui importe plus que le sensationnalisme du « l’IA bat les humains », ce sont les méthodes employées : apprentissage ludique, simulation-réalité hybride, exploration guidée par la curiosité. Peut-on entraîner des IA comme on éduque des enfants, par le jeu ?
Les chercheurs ont ainsi montré qu’on pouvait inculquer à des robots des compétences de contrôle moteur en les exposant à des jeux supervisés — une méthode plus résiliente aux perturbations que les démonstrations par des experts humains.
Dans la pratique, un agent IA doit équilibrer exploration (tester de nouveaux comportements) et exploitation (répéter les actions efficaces). Or, dans le monde réel, il est difficile de définir des récompenses explicites. Une approche prometteuse consiste à accorder une récompense chaque fois que l’agent observe quelque chose de nouveau dans son environnement.
Benaich souligne que si les jeux sont des terrains idéaux pour tester les algorithmes, ils ne reflètent pas entièrement la complexité du monde réel.
« Les environnements virtuels permettent de générer des données à bas coût, avec un contrôle total. Mais ils restent un point de départ, non une fin en soi. »
Voir aussi : L’intelligence artificielle dans la chaîne d’approvisionnement – ZDNet YouTube
Traitement du langage naturel et raisonnement de bon sens
Benaich et Hogarth rappellent que l’année a été marquante pour le NLP : BERT (Google AI), ELMo (Allen Institute), GPT (OpenAI), ULMFiT (Ruder et Howard), et MT-DNN (Microsoft) ont montré que les modèles linguistiques pré-entraînés améliorent nettement les performances sur de nombreuses tâches.
Comme dans la vision par ordinateur avec ImageNet (une base de données d’images classées dans 20 000 catégories), le pré-entraînement sur de vastes corpus de texte non annotés permet aux modèles de capter des traits linguistiques à différents niveaux.
Les auteurs mettent en avant le benchmark GLUE, qui évalue les systèmes NLP sur la compréhension logique, le raisonnement de bon sens, et la sémantique. En 13 mois, le score GLUE de l’état de l’art est passé de 69 à 88 — dépassant même le niveau humain (87). Un nouveau standard, SuperGLUE, a d’ailleurs été introduit.
Le raisonnement de bon sens a aussi progressé : une étude récente de Salesforce a amélioré les performances de 10 %. Des chercheurs de NYU ont montré qu’un entraînement génératif sur des connaissances implicites permet aux modèles neuronaux de raisonner sur des situations inédites — une approche qui prolonge les travaux du projet Cyc, la plus ancienne base de connaissances de l’IA.
Voir aussi : Tendances du machine learning et de l’intelligence artificielle – ZDNet YouTube
L’avenir : combiner apprentissage profond et expertise métier ?
Nous avons demandé à Benaich ce qu’il pensait de la combinaison entre deep learning et connaissances expertes, comme le suggèrent certains, notamment David Talbot de Yandex. Il partage cette vision :
« C’est particulièrement utile quand on veut résoudre des problèmes concrets, et non créer une intelligence générale capable de tout apprendre par elle-même. Les connaissances métier permettent de guider les systèmes, réduisant le besoin de données coûteuses ou rares. »
Il souligne également l’importance des graphes de connaissances, comme Cyc, pour le raisonnement de bon sens dans le NLP, tout en notant que le langage seul ne suffit probablement pas à résoudre ce défi.
Le rapport couvre aussi des thèmes majeurs comme le fédéral learning, la confidentialité des données (avec TensorFlow Privacy de Google et TF-Encrypted de Dropout Labs), et les nombreuses applications médicales de l’IA, y compris la lecture d’ondes cérébrales et la restauration du contrôle moteur chez les personnes handicapées.
Enfin, il traite aussi des avancées en AutoML, des GAN, et du deepfake vocal — autant de sujets que l’on avait anticipés il y a quelques années déjà. Lire ce rapport prend du temps, mais il regorge de pistes précieuses.