Intelligence artificielle et analyse ESG

Antoine Mach, Covalence SA

2 minutes de lecture

L’analyse ESG est à la fois un terrain d’application et un espace de questionnement moral de l’intelligence artificielle.

Comment savoir si une entreprise respecte la biodiversité, si sa trajectoire de réduction des émissions de CO2 est crédible, si elle fait son possible pour que ses fournisseurs et sous-traitants se conforment aux normes internationales du travail? Sur quelles bases décide-t-on de l’inclure ou de l’exclure d’un portefeuille d’investissement responsable? Comment écarter le soupçon de greenwashing? Les agences de notation Environnement, Social, Gouvernance (ESG) produisent des analyses et évaluations qui aident à répondre à ce type de questions.

Parmi les défis qui se posent à la notation ESG, citons la masse d’informations à traiter, la fiabilité des données, mais aussi le manque de données, les lacunes. De nombreux acteurs du secteur utilisent l’intelligence artificielle (IA) pour gérer ces défis. Il peut s’agir de nouveaux entrants, des sociétés de technologie trouvant dans l’ESG un terrain intéressant, et rémunérateur, d’application de l’IA. Ce développement concerne aussi des organisations historiquement spécialisées dans la notation ESG qui voient en l’IA des outils pouvant améliorer l’efficacité et la pertinence de leurs processus d’évaluation.

L’IA permet par exemple de mesurer la précision des références à la durabilité formulées par les dirigeants lors de conférences présentant les résultats trimestriels d’une entreprise. Des outils comme ClimateBert analysent la crédibilité des engagements climatiques, alors que Gender Pay Gap Bot affiche sur Twitter les données sur l'écart de rémunération entre hommes et femmes lorsqu’une entreprise communique à l’occasion de la Journée internationale de la femme. Des algorithmes sont capables d’estimer la part de revenus tirés de secteurs d’activité spécifiques pour faciliter la mesure de l’alignement d’une société sur la taxonomie verte européenne. Covalence utilise l’IA pour pré-classifier les articles de presse et communications de syndicats et ONG relatives au comportement des grandes entreprises, dans le but d’évaluer leur réputation sur les enjeux ESG ainsi que leur capacité à traduire leurs paroles en actes (risque de greenwashing).

Photo: Unsplash

Considérant la complexité et la subjectivité propre à son vaste champ d’analyse, la notation ESG est un art autant qu’une science. L’IA permet de traiter davantage de données et de réaliser des gains de productivité, mais elle a aussi ses limites et ses difficultés. Ainsi, des arbitrages entre quantité et qualité des données doivent être réalisés; les contenus ambigus sont délicats à traiter; l’analyse de polarité, ou de sentiment (positif vs négatif), n’est pas aisée dans des textes à caractère ironique; la reconnaissance d’entités, de noms d’entreprises, fonctionne bien avec des néologismes comme «Novartis» ou «TotalEnergies», elle est plus délicate lorsque le nom de l’entreprise est aussi un nom commun («Carrefour», «Gap»).

Le développement de l’IA générative (capable de créer du contenu, comme ChatGPT), prometteur à plusieurs égards, incite à redoubler de vigilance: aux risques d’erreurs de classification s’ajoutent ceux de créer des résultats erronés («hallucinations»), flous, simplistes ou trop généraux. Dans le métier de l’analyse ESG, l’intelligence artificielle ne remplace pas l’expertise en durabilité, l’intervention humaine, mais elle la déplace vers les espaces où elle est le plus utile: vers la supervision des algorithmes et l’interprétation des résultats.

Les collectivités s’efforcent de cadrer le développement de l’IA et d’en réduire les risques et les impacts négatifs par des réglementations contraignantes ou par des mesures volontaires.

Ceci-dit, l’IA n’est pas seulement un outil pour l’analyse ESG, elle constitue également un thème d’analyse en soi, un enjeu de responsabilité sociale de l’entreprise, un sujet de questionnement moral. Depuis plusieurs années, les agences de notation évaluent le comportement des promoteurs de ces techniques avec leurs critères ESG. Sous cet angle, l’IA doit être considérée tant pour son utilité sociale, sa capacité à améliorer le bien-être collectif, que pour les risques sociaux et environnementaux qu’elle comporte: conditions de travail des personnes chargées de la curation des données et de l’entraînement des classificateurs, reproduction de biais discriminatoires, protection des données, citation des sources, rémunération des données, consommation d’énergie et émissions de CO2, etc.

L’IA fait aujourd’hui l’objet de débats politiques intenses. Une lettre ouverte signée par des scientifiques et des ingénieurs demandent une «pause» des recherches sur l’IA pour permettre l’élaboration de garde-fous. De leur côté, les pouvoirs publics prennent position. Au sein de l’Union européenne, un projet de règlement, AI Act, est actuellement discuté. Aux Etats-Unis, Joe Biden et Kamala Harris viennent de convoquer les dirigeants des principales entreprises promotrices de l’IA générative, dont Open AI, Google et Microsoft, pour les inciter à adopter un comportement socialement responsable: «Le secteur privé a un devoir éthique, moral et légal de s’assurer de la sûreté et de la sécurité de ses produits» (communiqué de la Maison Blanche cité par Le Monde).  

Les collectivités s’efforcent de cadrer le développement de l’IA et d’en réduire les risques et les impacts négatifs par des réglementations contraignantes ou par des mesures volontaires. Utilisée de façon responsable, l’IA permet, dans l’analyse ESG comme dans d’autres domaines, d’obtenir des gains de productivité, de renforcer la transparence et la qualité des données, de réduire les opérations manuelles répétitives et fastidieuses, tout en créant des besoins et des postes de travail humain de supervision, de mise en contexte, d’analyse et de décision, afin de produire des résultats qui font sens.

A lire aussi...