L'essor de l'intelligence artificielle souligne le rôle de l'analyse ESG

Marcel Stötzel, Christine Brueschke, Toby Sims, Fidelity International

2 minutes de lecture

La société exige une protection contre les risques que l'IA peut entraîner. L'intégration de considérations liées à l'IA dans l'analyse ESG y contribuera.

L'éventail des risques posés par l'IA est large: à une extrémité, on trouve les scénarios de fin du monde avec une IA que ses créateurs ne peuvent pas contrôler. Parmi les menaces plus immédiates, on trouve la diffusion d'informations erronées par les Large Language Models (LLM).

La complexité de la technologie se reflète dans les efforts des autorités, qui sont là mais ne voient que peu de cohésion globale. Les tentatives du secteur de s'autoréguler n'ont pas non plus donné beaucoup de résultats. Les grands détenteurs de capitaux ont toutefois déjà prouvé sur les questions ESG qu'ils peuvent faire bouger les choses sur des questions importantes et qu'ils tiennent les entreprises pour responsables en cas de non-respect.

L'avenir n'est pas encore écrit

Des leaders du secteur comme Sam Altman d'OpenAI ou des pionniers de la technologie comme Elon Musk ont déjà exprimé leur souhait de renforcer la sécurité de l'IA. Dans une étude récente, le Centre for the Governance of AI (GovAI) a proposé une liste de 50 points de mesures de bonnes pratiques pour l'IA. La majorité des universitaires et des dirigeants d'entreprise adressés ont approuvé ces propositions. Cela semble encourageant. Néanmoins, les entreprises ont tardé à mettre en œuvre des mesures, car elles arrivent dans une période de réduction des coûts et de protection contre la récession.

Les mesures de sécurité vont augmenter à mesure que la technologie devient plus sophistiquée. OpenAI, par exemple, a fourni moins d'informations sur l'architecture derrière son dernier ChatGPT, à la fois pour des raisons de concurrence et - comme on le dit - pour minimiser le risque que la technologie soit exploitée par des acteurs mal intentionnés. La transparence est ainsi compromise dans l'intérêt de la sécurité et du leadership du marché. OpenAI a toutefois annoncé son intention de faire auditer ses modèles d'IA par des tiers à l'avenir. Un audit externe des entreprises d'IA pourrait bien être une étape nécessaire, étant donné les préoccupations croissantes concernant l'utilisation abusive de l'IA.

Passé, présent et avenir

Ce n'est pas la première fois que les entreprises doivent modifier leur comportement suite à une menace existentielle. En réponse à la crise environnementale, le capitalisme durable est devenu une puissante force de changement positif. Les autorités de régulation donnent certes le ton, mais c'est l'argent qui mène le monde. La menace de le retirer si les entreprises ne respectent pas les normes a forcé les entreprises à se pencher sur leur impact environnemental.

Les questions liées à l'intelligence artificielle peuvent être reliées aux analyses ESG actuelles par des données facilement mesurables. Pour les questions relatives aux employés, les investisseurs peuvent par exemple demander le nombre d'employés qui s'occupent de la sécurité de l'IA ou leur degré d'autorité au sein de l'entreprise. Ensuite, il y a les vérifications des risques. Comment les entreprises les surveillent-elles et que font-elles pour se protéger?

Le dernier travail de la Collective Impact Coalition for Digital Inclusion, à laquelle Fidelity International participe, est l'un des rares efforts concertés des institutions financières pour parler d'IA avec les entreprises technologiques. Elle a constaté qu'un peu plus de 10% seulement des 150 principales entreprises d'IA avaient divulgué leurs engagements en matière d'IA éthique. Certaines avaient par exemple établi des directives éthiques pour leurs collaborateurs. Les intégrer comme condition préalable à une utilisation sûre de l'IA serait une mesure raisonnable pour la plupart des entreprises et une mesure que les investisseurs peuvent également demander.

L'intelligence artificielle rencontre l'investissement actif

Les investisseurs ne sont probablement pas encore conscients des dangers de l'intelligence artificielle pour leurs portefeuilles. Beaucoup détiennent silencieusement des entreprises d'IA comme Microsoft et Nvidia dans leurs portefeuilles durables. La question est de savoir ce que ces participations représentent: menace existentielle ou investissement durable? L'intelligence artificielle pourrait ouvrir la voie à toute une série de progrès, mais aussi démanteler des démocraties. En intégrant l'analyse de l'IA dans l'évaluation ESG, les investisseurs devraient pouvoir faire la différence et être en mesure de demander des comptes aux mauvais acteurs.