Intelligence artificielle et ESG: la combinaison gagnante

Florent Griffon, DPAM

2 minutes de lecture

L’IA devenant incontournable, il appartient aux investisseurs d’en sélectionner les usages responsables et durables.

Au vu de l’étendue du champ d’application de l’intelligence artificielle (IA), on peut d’ores et déjà anticiper qu’elle aura un impact transversal sur les trois piliers de l’investissement responsable, environnement, société et gouvernance. Pour s’assurer que nos sociétés bénéficieront de ses apports sans avoir à pâtir de ses risques ou de ses dérives, l’usage de l’IA devra être encadré. Et, pour ne pas être complices de sa mauvaise utilisation, les investisseurs engagés dans une démarche de durabilité devront contrôler les quatre points suivants:

  1. La finalité des solutions IA développées par les entreprises
  2. La gouvernance des modèles IA 
  3. Les bonnes pratiques mises en place pour les encadrer
  4. Leur éventuelle implication dans des controverses ESG et leur conformité aux normes internationales de durabilité, notamment le Pacte mondial des Nations Unies.
Ne pas être complice d’une mauvaise utilisation

Sur le critère de la finalité des modèles IA (1), on recommande par exemple d’exclure toute application destinée à l’armement (par exemple, les robots tueurs), ou visant à influencer (les «deepfakes»1) ou à identifier l’utilisateur (reconnaissance du visage), ou encore à analyser ses émotions ou à prédire son comportement. Plus généralement, on peut se référer aux Objectifs de Développement Durable (ODD) des Nations Unies et s’abstenir d’investir dans des modèles IA dont la finalité va à l’encontre de la réalisation de ces objectifs.

Pour ce qui concerne la gouvernance (2), on pourra s’appuyer sur le «Cadre de l’OCDE pour la classification des systèmes d’IA» qui se définit comme «un outil pour des politiques de l’IA efficaces». Ce dernier doit aider à identifier les modèles présentant des risques pour les humains ou pour la planète2 en posant notamment les questions clés suivantes: l’utilisateur conserve-t-il la liberté de se soustraire au modèle IA? Les données utilisées sont-elles propriétaires, publiques ou privées? Ces données ont-elles été collectées conformément au droit (Règlement Général sur la Protection des Données de l’Union européenne ou RGPD)? Ces données sont-elles anonymisées? Le modèle donne-t-il suffisamment d’informations à l’utilisateur pour que celui-ci comprenne ses résultats? Dans quelle mesure le modèle est-il soumis à une supervision humaine? En cas de réponses négatives à ces questions, l’investisseur durable devra probablement s’abstenir d’investir.

Il conviendra également de passer en revue les bonnes pratiques (3) adoptées par les fournisseurs de ces modèles. On pourra par exemple s’interroger sur l’utilisation d’énergies renouvelables pour l’alimentation des centres de données, sur l’intégration de l’objectif d’efficience énergétique dans le code du modèle3, sur l’application de correctifs anti-discrimination ou de mesures de protection de l’anonymat en particulier pour les données médicales, ou encore de restrictions sur les contenus générés pour s’assurer qu’ils ne sont pas néfastes ou dangereux, et qu’ils ne vont pas à l’encontre de la loi.

Ainsi on s’abstiendra d’investir dans des modèles IA présentant des risques significatifs pour les droits de l’homme, pour le droit du travail et pour l’environnement.

Enfin, on recommandera d’exclure les modèles IA sujets à des controverses ESG importantes ou soupçonnés de violer les principes du Pacte mondial des Nations Unies. Ainsi on s’abstiendra d’investir dans des modèles IA présentant des risques significatifs pour les droits de l’homme, pour le droit du travail et pour l’environnement. Seront également à éviter ceux qui présentent des risques spécifiques en matière de corruption, de criminalité et de cybercriminalité, de fraude ou encore qui constituent une menace contre l’Etat de droit.

Mais soutenir les applications responsables

En revanche, il conviendra de soutenir les applications les plus responsables et celles qui sont susceptibles d’apporter des avantages sociétaux et environnementaux. L’IA peut par exemple contribuer au développement de solutions technologiques dans le domaine de la transition énergétique (conception des équipements de génération, de stockage et de transport de l’énergie) ou encore faciliter la gestion des réseaux de transport et de distribution de l’électricité. L’IA devrait également permettre d’améliorer sensiblement la fiabilité des prévisions météorologiques, et aider à identifier les vulnérabilités des différents pays aux événements climatiques extrêmes. Ce faisant, elle pourra faciliter l’adaptation au changement climatique.

D’un point de vue social aussi, l’IA présente des potentialités intéressantes, par exemple au travers de solutions éducatives personnalisées ou encore de meilleurs diagnostics médicaux. On peut également citer les modèles IA d’audits passant en revue les comptes et publications des entreprises et estimant des risques d’implications dans des problèmes de corruption, de fraude, de conformité, et qui établissent les profils ESG. Des solutions IA adaptées aux administrations apportent des gains de productivité importants.

Ainsi l’investissement durable a un important rôle à jouer en finançant les sociétés qui développent les applications d’intelligence artificielle les plus profitables pour les populations et pour l’environnement. Même si l’usage malveillant ou non encadré de l’IA nous fait encourir des risques importants, c’est à nous, investisseurs durables, d’identifier les investissements qui auront un impact durable positif, et ce en matière environnementale, sociale et de gouvernance.

1«Deepfake» est une contraction de «deep learning» et «fake». Ce mot désigne des faux (enregistrements vidéo ou audio) rendus crédibles grâce à l’IA.
3MIT Technology review, These simple changes can make AI research much more energy efficient, https://www.technologyreview.com/2022/07/06/1055458/ai-research-emissions-energy-efficient/

A lire aussi...