Quand les robots seront-ils doués de bon sens?

Christopher Gannatti, WisdomTree

2 minutes de lecture

Il est important de ne pas surestimer les avancées actuelles: les robots ne sont pas en mesure de reproduire des comportements humains à 100%. Malgré des progrès remarquables.

En 2022, nous avons entendu parler de plusieurs applications d’intelligence artificielle qui renforcent constamment différentes sortes de capacités:

  • Les grands modèles de langage, illustrés par GPT-3[1], ont pris de l’ampleur et ont investi leurs capacités dans un nombre croissant de domaines, à l’image des langages de programmation informatique.
  • DeepMind a étoffé sa boîte à outils AlphaFold en présentant les prévisions sur la structure de plus de 200 millions de protéines et en mettant ces prévisions gratuitement à la disposition des chercheurs[2].
  • Nous avons même observé une expansion de l’«autoML»[3], qui se rapporte aux outils d’apprentissage automatique («machine learning») ‘low-code’ capables de fournir à un plus grand nombre de personnes, dénuées d’expertise de la science des données ou des sciences informatiques, un accès à l’apprentissage automatique[4].

Mais même si nous reconnaissons que des progrès sont en cours, les machines sont encore essentiellement utiles pour des tâches discrètes et disposent de peu de flexibilité.

À l’intersection des grands modèles de langage et de la robotique

Les grands modèles de langage sont intéressants dans de nombreux cas pour leurs propriétés émergentes et ont des centaines de milliards, voire des milliers de milliards de paramètres. Ils peuvent produire comme résultat du texte écrit ou du code auto-rempli dans des applications de codage.

Or qu’en est-il si vous dites à un robot que vous avez faim par exemple. Un robot n’aurait pas nécessairement cette conscience de la situation s’il n’a pas été programmé à l’avance. Nous pensons naturellement aux robots capables d’exercer leurs fonctions spécifiques programmées à l’avance afin d’effectuer des tâches précises. Nous pensons peut-être à un robot capable d’agir en fonction d’une série d’instructions simples: lui dire où se déplacer en utilisant certains mots clés, ce qu’il doit faire en ajoutant certains autres mots clés.  «J’ai faim» : une commande composée de deux mots sans instructions inhérentes serait supposée être impossible à appliquer.

Le Pathways Language Model (PaLM) de Google - le début d’interactions plus complexes entre les êtres humains et les robots

Les chercheurs de Google ont été capables de faire la démonstration d’un robot capable de répondre, dans un environnement clos il faut l’admettre, à la phrase «j’ai faim». Il a été en mesure de localiser la nourriture, de s’en saisir et de la tendre à l’être humain[5].

Le modèle PaLM de Google se cachait derrière la capacité du robot à prendre en compte les données de langage et à les traduire en actions. PaLM mérite d’être mentionné car il intègre la capacité d’expliquer en langage naturel comment il parvient à certaines conclusions[6].

Le modèle ‘SayCan’, s’il n'est certainement pas parfait et s’il n’est pas un substitut à une compréhension véritable, est un moyen intéressant de faire exécuter à des robots des actions qui ont du sens dans une situation sans être directement programmés pour répondre à une affirmation de cette manière précise.

Dans un certain sens, il s’agit de la partie la plus passionnante de ce domaine de recherche :

  • Les robots ont tendance à avoir besoin de commandes courtes codées en dur. Comprendre davantage des instructions moins spécifiques n'est pas généralement possible.
  • Les grands modèles de langage ont démontré leur capacité extraordinaire à réagir à différentes instructions, mais c’est toujours dans un contexte ‘exclusivement numérique’.

Si la force des robots dans le monde physique peut être conjuguée avec leur capacité, au moins apparente, de comprendre le langage naturel qui provient de grands modèles de langage, vous avez là l’occasion d’une synergie notable qui est meilleure qu’un fonctionnement autonome.

En conclusion : les entreprises en quête de capacités robotiques

Au sein du secteur de l’intelligence artificielle, il est important de reconnaître la progression critique du concept à la recherche et à l’innovation et plus tard seulement à une utilisation sur le marché du grand public et à la rentabilité (ce qui reste à espérer). Des robots comprenant le langage naturel abstrait sont loin d’être une activité génératrice de revenus sur le marché du grand public.

Pourtant, nous constatons que des entreprises prennent des mesures en faveur d’une utilisation toujours croissante de la robotique. Amazon est souvent sous le feu des projecteurs en raison de son utilisation possible de robots dans ses centres de distribution, mais plus récemment, le groupe a annoncé son intention d’acquérir iRobot[7], le fabricant du système d’aspirateur Roomba. À l’avenir, les robots aux capacités de plus en plus sophistiquées auront un rôle à jouer dans la société.

Dans l’environnement actuel marqué par des pressions croissantes sur les salaires, les entreprises étudient de plus en plus ce que les robots et l’automatisation peuvent apporter à leurs activités. Il est important de ne pas surestimer où nous en sommes en termes d’avancées en 2022. Les robots ne sont pas en mesure de reproduire des comportements à 100% humains. Mais nous devrions assister à des progrès remarquables dans les prochaines années.

[1] Generative Pre-trained Transformer 3

[2] Source : Ewen Callaway. « ‘The Entire Protein Universe’: AI Predicts Shape of Nearly Every Known Protein. » Nature. Volume 608. 4 août 2022. 

[3] Apprentissage automatique automatisé (« Automated machine learning »)

[4] Source : Tammy Xu. « Automated techniques could make it easier to develop AI. » MIT Technology Review. 5 août 2022.

[5] Source : Will Knight. « Google’s New Robot Learned to Take Orders by Scraping the Web. » WIRED. 16 août 2022.

[6] Source : M. Knight, 16 août 2022.

[7] Source : Connor Hart. « Amazon Buying Roomba Maker iRobot for $1.7 Billion. » Wall Street Journal. 5 août 2022.

A lire aussi...