Afficher la notice abrégée

dc.contributor.advisorOudeyer, Pierre-Yves
dc.contributor.advisorHofmann, Katja
dc.contributor.authorPORTELAS, Rémy
dc.contributor.otherOudeyer, Pierre-Yves
dc.contributor.otherRocktäschel, Tim
dc.contributor.otherNowé, Ann
dc.contributor.otherStone, Peter
dc.contributor.otherHa, David
dc.date2022-02-11
dc.date.accessioned2022-04-07T18:38:55Z
dc.date.available2022-04-07T18:38:55Z
dc.identifier.urihttp://www.theses.fr/2022BORD0038/abes
dc.identifier.uri
dc.identifier.urihttps://tel.archives-ouvertes.fr/tel-03633787
dc.identifier.urihttps://oskar-bordeaux.fr/handle/20.500.12278/136617
dc.identifier.nnt2022BORD0038
dc.description.abstractUn objectif de longue date du Machine Learning (ML) et de l'IA en général est de concevoir des agents autonomes capables d'interagir efficacement avec notre monde. Dans cette optique, s'inspirant de la nature interactive de l'apprentissage humain et animal, plusieurs axes de travaux se sont concentrés sur la construction d'agents décisionnels incarnés dans des environnements réels ou virtuels. En moins d'une décennie, le Deep Reinforcement Learning (DRL) s'est imposé comme l'un des ensembles de techniques les plus puissants pour former de tels agents autonomes. Le DRL est basé sur la maximisation de fonctions de récompense définies par des experts qui guident l'apprentissage d'un agent vers une tâche ou un ensemble de tâches cible prédéfinies. En parallèle, la Robotique Développementale a travaillé sur la modélisation des théories du développement cognitif et de leur intégration dans des robots réels ou simulés. Un concept central développé dans cette littérature est la notion de motivation intrinsèque : les robots développementaux explorent et interagissent avec leur environnement selon des objectifs auto-sélectionnés dans un mode d'apprentissage ouvert. Récemment, des idées similaires d'auto-motivation et d'apprentissage ouvert ont commencé à se développer au sein de la communauté DRL, tandis que la Robotique Développementale a commencé à considérer les méthodes DRL dans leurs systèmes de développement. Nous proposons de désigner cette convergence de travaux sous le nom de Developmental Machine Learning. Developmental ML regroupe des travaux sur la construction d'agents autonomes incarnés équipés de mécanismes de motivation intrinsèque façonnant des trajectoires d'apprentissage ouvertes. La présente recherche vise à contribuer dans ce domaine émergent. Plus précisément, la présente recherche se concentre sur la proposition et l'évaluation des performances d'un bloc algorithmique de base de tels apprenants: les méthodes d'apprentissage automatique de curriculum (ACL). Les algorithmes ACL façonnent les trajectoires d'apprentissage des agents en les challengeant avec des tâches adaptées à leurs compétences. Ces dernières années, ils ont été utilisés pour améliorer la vitesse d’apprentissage et les performances asymptotiques, pour organiser l'exploration, pour encourager la généralisation ou pour résoudre des problèmes de récompense clairsemée, entre autres. Malgré un succès impressionnant dans les scénarios d'apprentissage supervisé traditionnels (par exemple, la classification d'images), les applications à grande échelle et dans le monde réel des apprenants automatiques incarnés sont encore à venir. La présente recherche vise à contribuer à la création de tels agents en étudiant comment guider leurs apprentissage de manière autonome.
dc.description.abstractEnA long-standing goal of Machine Learning (ML) and AI at large is to design autonomous agents able to efficiently interact with our world. Towards this, taking inspirations from the interactive nature of human and animal learning, several lines of works focused on building decision making agents embodied in real or virtual environments. In less than a decade, Deep Reinforcement Learning (DRL) established itself as one of the most powerful set of techniques to train such autonomous agents. DRL is based on the maximization of expert-defined reward functions that guide an agent’s learning towards a predefined target task or task set. In parallel, the Developmental Robotics field has been working on modelling cognitive development theories and integrating them into real or simulated robots. A core concept developed in this literature is the notion of intrinsic motivation: developmental robots explore and interact with their environment according to self-selected objectives in an open-ended learning fashion. Recently, similar ideas of self-motivation and open-ended learning started to grow within the DRL community, while the Developmental Robotics community started to consider DRL methods into their developmental systems. We propose to refer to this convergence of works as Developmental Machine Learning. Developmental ML regroups works on building embodied autonomous agents equipped with intrinsic-motivation mechanisms shaping open-ended learning trajectories. The present research aims to contribute within this emerging field. More specifically, the present research focuses on proposing and assessing the performance of a core algorithmic block of such developmental machine learners: Automatic Curriculum Learning (ACL) methods. ACL algorithms shape the learning trajectories of agents by challenging them with tasks adapted to their capacities. In recent years, they have been used to improve sample efficiency and asymptotic performance, to organize exploration, to encourage generalization or to solve sparse reward problems, among others. Despite impressive success in traditional supervised learning scenarios (e.g. image classification), large-scale and real-world applications of embodied machine learners are yet to come. The present research aims to contribute towards the creation of such agents by studying how to autonomously and efficiently scaffold them up to proficiency.
dc.language.isoen
dc.subjectApprentissage machine développemental
dc.subjectIntelligence artificielle
dc.subjectMotivations intrinsèques
dc.subjectGénération automatique de curriculum
dc.subjectApprentissage profond
dc.subjectApprentissage par renforcement
dc.subject.enDevelopmental Machine Learning
dc.subject.enAutomatic Curriculum Learning
dc.subject.enDeep Reinforcement Learning
dc.subject.enIntrinsic Motivation
dc.subject.enMachine Learning
dc.titleGénération automatique de curriculum pour apprenants artificiels
dc.title.enAutomatic Curriculum Learning for Developmental Machine Learners
dc.typeThèses de doctorat
dc.contributor.jurypresidentFilliat, David
bordeaux.hal.laboratoriesInstitut national de recherche en informatique et en automatique (France). Centre de recherche Bordeaux - Sud-Ouest
bordeaux.type.institutionBordeaux
bordeaux.thesis.disciplineInformatique
bordeaux.ecole.doctoraleÉcole doctorale de mathématiques et informatique
bordeaux.teamFLOWERS
star.origin.linkhttps://www.theses.fr/2022BORD0038
dc.contributor.rapporteurRocktäschel, Tim
dc.contributor.rapporteurNowé, Ann
bordeaux.COinSctx_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.title=G%C3%A9n%C3%A9ration%20automatique%20de%20curriculum%20pour%20apprenants%20artificiels&rft.atitle=G%C3%A9n%C3%A9ration%20automatique%20de%20curriculum%20pour%20apprenants%20artificiels&rft.au=PORTELAS,%20Re%CC%81my&rft.genre=unknown


Fichier(s) constituant ce document

FichiersTailleFormatVue

Il n'y a pas de fichiers associés à ce document.

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée