Factor Investing – l’analyse de données au service du rendement

Communiqué, AXA Investment Managers

2 minutes de lecture

«La valorisation et la qualité nous aident à trouver des entreprises stables sous-évaluées», selon Gideon Smith, CIO européen d’AXA IM Rosenberg Equities.

Valorisation, qualité, faible volatilité et sentiment du marché – ces quatre facteurs devraient être familiers à tout investisseur. Ils constituent les piliers du Factor Investing, l’approche de placement qui investit dans les actions sur la base de facteurs précis. Selon Gideon Smith, CIO européen d’AXA IM Rosenberg Equities, les facteurs comprennent des informations sur le succès futur d’une entreprise. «La valorisation et la qualité nous aident à trouver des entreprises stables sous-évaluées. Et des facteurs comme le sentiment de marché peuvent en outre faciliter l’identification de sociétés susceptibles de générer de bon résultats et une forte croissance», affirme Gideon Smith. L’art du Factor Investing est de pouvoir interpréter ces informations. A cette fin, les experts de Rosenberg ne se contentent pas des fondamentaux, mais ont recours à différents modèles d’intelligence artificielle.

La recherche constitue la base

«La première condition d’un Factor Investing couronné de succès est qu’il soit actif et axé sur la recherche, puisqu’il doit engendrer des rendements supérieurs à ceux d’un indice de référence – souvent performant», explique Gideon Smith. Toute stratégie factorielle est axée sur une promesse, comme par exemple une surperformance des cours par rapport à l’indice de référence, des dividendes supérieurs ou une faible sensibilité conjoncturelle. La fameuse stratégie Low Volatility est un exemple de portefeuille factoriel. Elle promet une volatilité des cours inférieure à la moyenne – grâce à la sélection d’actions qui fluctuent moins que les autres. «Pour transposer ces fondamentaux dans des facteurs et construire des portefeuilles diversifiés, des compétences de placement, des analyses approfondies et des données correctes sont indispensables», précise l’expert.

Fondamentaux et statistiques

Afin de prévoir la volatilité future du cours d’une action par exemple, il faut entre autres faire des projections concernant le succès – ou l’échec – que rencontrera la société concernée. Cette estimation est effectuée à partir des données fondamentales selon Gideon Smith. «Mais il va de soi que cela implique certaines compétences en matière de modélisation. Next, une chaîne d’habillement britannique dont la volatilité du cours de l’action a fortement augmenté en 2016 et 2017, illustre bien la difficulté d’estimer le succès futur d’une entreprise. L’entreprise a souffert d’une hausse de l’inflation liée à l’affaiblissement de la livre suite au référendum sur le Brexit. Se sont ajoutés à cela des reports sectoriels et un recul des achats de vêtements», explique Gideon Smith.

Selon l’expert, les poussées de volatilité sont très difficiles à anticiper et loin d’être linéaires. Il convient alors de recourir à des modèles empiriques qui exploitent des résultats non linéaires inhabituels. Rosenberg utilise deux algorithmes différents à cette fin: des réseaux neuronaux artificiels et le modèle Random Forest. Alors que les premiers prévoient une certaine évolution à l’aide de variables d’input plausibles, ce dernier s’avère très performant pour extraire des interdépendances importantes à partir d’énormes quantités de données. «Ce type d’apprentissage automatique nous permet d’identifier des actions dont on peut attendre des poussées de volatilité. Nous les excluons donc des portefeuilles à faible volatilité pour atteindre les résultats voulus.»

L’apprentissage automatique comme complément

L’analyse basée sur ces techniques a déjà conduit à une nette amélioration par rapport à un modèle linéaire simple. «Dans des back-tests, le modèle naïf pouvait prévoir les résultats extrêmes correctement dans 73% des cas. Cette proportion était de 86%, soit 13 points de pourcentage de plus, avec des techniques d’apprentissage automatique», commente Gideon Smith.

L’expert estime que des techniques plus modernes d’interprétation des données peuvent donc améliorer une approche plus traditionnelle de modélisation quantitative plutôt fondamentale. «Nous pensons que l’utilisation de ces techniques peut apporter de nouvelles connaissances si les interdépendances statistiques n’entrent pas dans un cadre économique établi. Mais l’analyste doit accepter que les données déterminent l’interdépendance statistique du modèle», continue Gideon Smith.

La transparence lors de l’utilisation et la maintenance de ces techniques sont donc primordiales. «Ces modèles sont facilement accessibles dans des bibliothèques de codes publiques, mais leur interprétation et leur utilisation doivent être claires pour les systèmes de gestion de fortune et de prévoyance vieillesse. Ce n’est qu’à cette condition qu’une utilisation pratique est possible», conclut l’expert.

Des détails sur l’approche avancée de Factor Investing d’AXA IM Rosenberg Equities sont disponibles en ligne.