En tant que réseau social mondial, Facebook s’appuie largement sur son intelligence artificielle et ses systèmes d’apprentissage automatique. Après avoir annoncé au début du mois concernant l’apprentissage auto-supervisé, la vision par ordinateur et le traitement du langage naturel, Facebook AI Research a dévoilé lundi les détails de trois autres domaines de recherche susceptibles de déboucher sur une IA plus capable et plus curieuse.
« Une grande partie de notre travail en robotique est centrée sur un apprentissage auto-supervisé, dans lequel les systèmes tirent leurs enseignements directement des données brutes afin de pouvoir s’adapter à de nouvelles tâches et à de nouvelles circonstances. », a écrit une équipe de chercheurs de FAIR (Facebook AI Research). « En robotique, nous faisons progresser des techniques telles que l’apprentissage par renforcement basé sur un modèle (RL) pour permettre aux robots de s’auto-apprendre par essais et erreurs en utilisant l’entrée directe des capteurs. »
Facebook AI Research utilise un robot à six pattes
En particulier, l’équipe de Facebook AI Research a essayé de faire apprendre à un robot à six pattes à marcher sans aucune aide extérieure. « De manière générale, la locomotion est une tâche très difficile en robotique ; et c’est ce qui la rend très excitante de notre point de vue. », a déclaré à Engadget Roberto Calandra, un chercheur de FAIR. « Nous avons été en mesure de concevoir des algorithmes pour l’IA et de les tester sur un problème vraiment difficile que nous ne savons pas résoudre autrement. »
L’hexapode de Facebook AI Research débute son existence en tant que pile de jambes, sans aucune compréhension de son environnement. À l’aide d’un algorithme d’apprentissage par renforcement, le robot trouve progressivement un contrôleur qui l’aidera à atteindre son objectif de locomotion en aval. Et comme l’algorithme utilise une fonction d’auto-amélioration récursive, le robot peut surveiller les informations qu’il recueille ; et ainsi optimiser davantage son comportement dans le temps. Autrement dit, plus le robot gagne d’expérience, plus il est performant.
C’est plus facile à dire qu’à faire, étant donné que le robot doit déterminer non seulement sa position et son orientation dans l’espace, mais aussi son équilibre et son élan ; le tout à partir d’une série de capteurs situés dans les genoux de la machine. En optimisant le comportement du robot et en s’efforçant de le faire marcher le plus rapidement possible Facebook AI Research lui a appris à « marcher » en quelques heures plutôt qu’en quelques jours.
Que se passe-t-il ensuite pour l’hexapode
Mais qu’est-ce qu’un hexapode peut faire une fois qu’il sait comment se déplacer ? Explorer, bien évidement ! Mais il n’est pas si facile d’induire l’envie de voyager dans des robots généralement formés pour atteindre un objectif défini de manière étroite. Pourtant, c’est exactement ce que Facebook essaie de faire ; avec l’aide de ses collègues de la NYU et d’un bras robotique.
Des recherches antérieures visant à susciter un sentiment de curiosité chez AI ont été axées sur la réduction de l’incertitude. Les derniers efforts de Facebook AI Research ambitionnent la même chose ; mais de façon plus structurée.
« Nous avons en fait commencé avec un modèle qui ne connaît pas grand-chose de lui-même. », a déclaré à Engadget, Franziska Meier, chercheuse à FAIR. « A ce stade, le robot sait comment tenir son bras. Mais il ne sait pas réellement quelles actions appliquer pour atteindre une certaine cible. » Mais au fur et à mesure que le robot apprend quels couples doivent être utilisés pour déplacer le bras dans la prochaine configuration cible ; il peut éventuellement commencer à optimiser sa planification.
Facebook AI Research : planification et optimisation
« Nous utilisons ce modèle pour planifier plusieurs étapes dans le temps », a poursuivi Meier. « Et nous essayons d’utiliser cette procédure de planification pour optimiser la séquence d’actions afin de réaliser la tâche. » Pour éviter que le robot optimise trop ses routines et se retrouve pris dans une boucle, l’équipe de recherche l’a récompensé pour ses actions qui ont résolu l’incertitude.
« Nous effectuons cette exploration, nous apprenons réellement un meilleur modèle plus rapidement, nous accomplissons la tâche plus rapidement et nous apprenons un modèle qui se généralise mieux à de nouvelles tâches », a conclu Meier.
Enfin, Facebook AI Research a travaillé dur pour apprendre aux robots à se sentir. Pas émotionnellement, mais physiquement. Et il exploite un modèle prédictif d’apprentissage en profondeur conçu à l’origine pour la vidéo. « C’est essentiellement une technique qui permet de prédire des vidéos à partir de l’état actuel, de l’image actuelle et d’une action », a expliqué Calandra.
L’équipe a formé l’IA à utiliser directement des données brutes, dans ce cas un capteur tactile haute résolution ; plutôt que via un modèle.
Un travail sur les sensations physique des robots
« Nous montrons que nous pouvons essentiellement avoir un robot manipulant de petits objets de manière non supervisée », a déclaré Calandra. « Et ce que cela signifie en pratique, c’est que nous pouvons réellement prédire avec précision le résultat d’une action donnée. Cela nous permet de commencer à planifier dans le futur. Nous pouvons optimiser la séquence d’actions qui donne le résultat souhaité. «
La combinaison d’entrées visuelles et tactiles pourrait considérablement améliorer la fonctionnalité des futures plateformes robotiques et améliorer les techniques d’apprentissage. « Pour construire des machines capables d’apprendre en interagissant avec le monde de manière indépendante, nous avons besoin de robots pouvant exploiter les données de plusieurs sens », a conclu l’équipe. Nous pouvons seulement imaginer ce que Facebook a en réserve pour cela. Toutefois, la société a refusé de commenter les applications pratiques potentielles de cette recherche à l’avenir.