Intelligence superficielle

Michel Girardin, Université de Genève

3 minutes de lecture

Les modèles fondés sur l'intelligence artificielle pour prédire la croissance peuvent se révéler remarquablement... peu fiables. 

Après deux jours de présentations de stratégistes à Londres, ma conviction est faite : l'intelligence artificielle peut témoigner d'une grande superficialité. Et les modèles qui s'en inspirent pour nous prédire la croissance peuvent se révéler aussi fiables que ceux qui attribuaient une confortable majorité au «Remain» lors du vote sur le Brexit en 2016.

J'aurais dû compter le nombre de fois où le mot «récession» a été lâché par mes interlocuteurs londoniens lors de ces journées. Si l'on se souvient qu'il est préférable d'acheter au son du canon qu'à celui du clairon, cette nouvelle année devrait être un bon cru pour les marchés financiers: j'ai rarement vu autant de «récessionnistes» chez les prévisionnistes de l'économie mondiale et des marchés financiers. Du coup, je me suis amusé à les catégoriser.

J'ai identifié trois types de Cassandre.

Il y a tout d'abord ceux qui regardent le monde et ne voient que des déséquilibres. Partout. Ceux de la dette souveraine, en premier lieu : «Prenez les Etats-Unis ou l'Europe: la dette gouvernementale était de 50% du PIB avant la Grande Récession de 2008. Aujourd'hui, elle a doublé... vous pensez qu'une dette qui dépasse le Produit intérieur brut, c'est tenable ?» me lance l’un des stratégistes. Je lui rappelle que les choses ne sont pas si simples et que la barre de 100% n'est pas fatidique en soi. L'Italie vit depuis des décennies avec une dette bien supérieure à celle-ci. Et que dire du Japon, où la dette dépasse les 200% du PIB depuis 10 ans? Le niveau de la dette n'est qu'un paramètre pour juger de sa viabilité. La condition fondamentale pour assurer cette dernière est donnée par les taux d'intérêt: ils ne doivent pas dépasser durablement la croissance du PIB.

Sur la base des déséquilibres induits par un endettement excessif,
la probabilité d'une récession aux Etats-Unis n'est guère supérieure à 20%.

En exprimant le service de la dette en pourcentage du PIB, nous avons une mesure simple de la viabilité de la dette: celle-ci est mise en danger dès lors que le ratio augmente de manière excessive, soit parce que la charge d'intérêt augmente ou alors que la dette prend l'ascenseur, ou, enfin, que l'activité économique décroche. Sur ce plan, mes indicateurs sont formels: nous sommes bien loin des niveaux d'alerte enregistrés juste avant la crise de 2008. A l'époque, c'est la dette des ménages américains qui en avait été l'élément déclencheur. Des quelques 100% du PIB qu'elle enregistrait juste avant la crise, elle a diminué à 70% aujourd'hui. Et la charge d'intérêt est aujourd'hui bien inférieure à ce qu'elle était à l'époque. Conclusion: sur la base des déséquilibres induits par un endettement excessif, la probabilité d'une récession aux Etats-Unis n'est guère supérieure à 20%.

La deuxième catégorie de récessionnistes sont les «Quants»: ceux qui ne jurent que par des modèles quantitatifs, et qui laissent d'ailleurs souvent à d'autres le besoin de bien comprendre ce qu'ils quantifient. Vous prenez des variables économiques et financières et tirez des moyennes à long terme ainsi que l'écart-type des observations par rapport à la moyenne. Statistiquement, vous pouvez alors décréter que si la dernière observation de votre variable se situe à 2 écarts-types au-dessus de sa moyenne, la probabilité de revenir à cette dernière est de 95%. A 3 écarts-types, la probabilité augmente à 99%. Je vous laisse imaginer les dégâts que ces modèles quantitatifs peuvent faire si la variable en question est la Bourse américaine. Sauf que cette comparaison historique n'est raisonnable que si les séries sont stationnaires dans le temps - à savoir quelles fluctuent autour d'une moyenne stable - et... cette condition est rarement vérifiée. C'est pour cette raison que les modèles quantitatifs utilisés pour mesurer le risque n'ont pas vu venir la crise de 2008: nous étions à 5 écarts-types de la moyenne! Mais passons. Un grand classique de ce genre de modèle est celui de comparer le niveau de la Bourse aux bénéfices des entreprises qui y sont cotées. Et de comparer ce multiple à sa moyenne historique pour agiter, le cas échéant, le spectre de la récession pour cause de cherté excessive des marchés des actions.

Qu'en est-il de la cherté des marchés actions aujourd'hui? Elle n'est pas excessive, et pour cause: les baisses importantes enregistrées l'année dernière sur les Bourses mondiales ont causé des dégâts importants dans les portefeuilles. Toutes les évaluations des marchés sont aujourd'hui inférieures à leur moyenne. Si vous tenez à utiliser ce genre de modèle pour prédire la prochaine récession aux Etats-Unis, vous n'aurez guère plus de chances que les «déséquilibristes».

Utiliser pléthore de variables explicatives c'est bien pour le passé mais ... encore
faut-il leur assigner une valeur future pour arriver à une prévision digne de ce nom.

Enfin la troisième et dernière catégorie de chantres de la récession sont les champions toutes catégories de ce que j'appelle «l'Excelisation de l'Histoire». Vous prenez une foule de données, en rajoutez encore quelques couches et vous refilez le tout à votre ordinateur. Le gavage a un objectif bien précis: celui de vous fournir une estimation qui colle à la variable que vous cherchez à modéliser, le Produit intérieur brut, dans le cas d'espèce. Je peux vous garantir que tous les modèles qui reposent sur cette «intelligence artificielle» et autre apprentissage automatique («Machine learning») donnent des résultats fantastiques, du moins sur le passé: rares sont les écarts entre le modèle prédictif et la réalité. Bon mais... qu'en est-il de l'avenir ? C'est ici que les choses se compliquent. Utiliser pléthore de variables explicatives c'est bien pour le passé mais ... encore faut-il leur assigner une valeur future pour arriver à une prévision digne de ce nom de ce qui vous intéresse. 

Pour prévoir la conjoncture américaine, les modèles d'intelligence artificielle utilisent en priorité des données financières. L'aplatissement, voir l'inversion de la courbe des taux d'intérêt y joue ici un rôle essentiel. Il est vrai que par le passé, le phénomène d'inversion de la courbe des taux d'intérêt a toujours été suivi d'une récession. Rien d'étonnant à cela: une inversion de la courbe des taux témoigne d'une politique monétaire résolument restrictive, qui se traduit par des taux d'intérêt à court terme supérieurs aux taux d'intérêt à long terme.  Mais... ceci était vrai jusqu'à la crise de 2008 et ne l'est assurément plus depuis que les Banques centrales y ont réagi avec leurs fameuses politiques «d'assouplissement quantitatif» (QE). Ici, une inversion de la courbe des taux d'intérêt témoigne d'une politique expansive de la Banque centrale, et non l'inverse. La raison? Les injections de liquidité par les programmes de QE se font par des achats d'obligations par les Banques centrales, qui se traduisent par une baisse de leurs rendements à long terme. Lorsqu'ils deviennent inférieurs aux taux d'intérêt à court terme, nous avons bien une inversion de la courbe des rendements dont... il serait totalement erroné de tirer la conclusion que la récession est proche. Ne vous fiez donc pas à la probabilité de 60% des modèles basés sur l'IA pour nous prédire la prochaine récession. Il n'y en aura pas aux Etats-Unis cette année. Et pour 2020... regardez plutôt du côté du Président des Etats-Unis. C'est par lui que nous saurons si la guerre commerciale aura lieu, de quoi nous assurer une belle récession.

Au fait, vous connaissez la blague des économistes qui ne sont tout juste bons qu'à prédire le passé? Assurément, ils ne doivent jurer que par l'intelligence artificielle.