Intelligence artificielle & intelligence humaine

Présélection prix Turgot

2 minutes de lecture

Daniel Bonnet & Jean-Jacques Pluchart, Editions Eska.

Daniel Bonnet est président de l’Institut psychanalyse et Management, professeur émérite de l’université de Lyon. Jean-Jacques Pluchart est professeur émérite de l’université Paris 1 Sorbonne et président du Comité de sélection du Prix Turgot.

L'avis du Club de présélection du prix Turgot
Fiche de Jean Louis Chambon

Dans le prolongement du colloque organisé sur ce thème les 25 et 26 novembre 2021 à Paris par l’IPM (Institut Psychanalyse et Management) et l’Université de Paris 1 Panthéon- Sorbonne, ce collectif dirigé par un duo d’éminents professeurs se propose d’apporter des éléments de réponse à deux questions centrales qu’appelle cette problématique:

  • L’une est existentielle: l’IA menace–t–elle de se substituer à l’Intelligence humaine?
  • L’autre plus «clinique» tente d’évaluer dans une logique «risque-bénéfice» (aujourd’hui complétement dans l’actualité...) les potentialités et les dangers qui pourraient émerger de l’IA.

Une vingtaine de chercheurs universitaires et d’experts reconnus apportent leur contribution, fruit de leurs études sur ces problématiques qui restent encore peu ou pas traitées par la littérature. Aussi, l’un des grands mérites des coordinateurs de cette parution d’une richesse exceptionnelle est d’avoir su (et pu) réunir dans ces «regards croisés», des représentants éminents de disciplines qui bien souvent évoluent à distance.

En effet, «l’Intelligence Artificielle investit toutes les activités économiques, accélère les processus d’innovation, change les mode de production, transforme les organisations et bouleverse les relations sociales, mais oblige à revisiter certaines théories – sinon certains paradigmes» - qui fondent plusieurs disciplines scientifiques, comme le management , la philosophie, la sociologie, la psychologie et la psychanalyse».

S’il est maintenant acquis que l’IA crée de la valeur socio-économique (innovation, productivité, systèmes assistés, services «augmentés» etc… ), ses dangers et ses risques n’en sont pas moins palpables, ce que Stephen Hawking résumait dans une formule: «la création d’une intelligence artificielle serait le plus grand évènement de l’histoire de l’humanité, mais il pourrait en être l’ultime..». Le professeur Pluchart dans son avant-propos très éclairant, souligne que les peurs qu’engendre l’IA vont de «l‘effet boite noire» des biais algorithmiques, aux manipulations avérées des sondages (l’Amérique en est l’un des exemples) , voire des manipulations discriminatoires Apple Card), comme aux risques de déqualifications professionnelles. Ces «externalités négatives sont aussi rappelées par Alexis Grinbaum,(auteur des «robots et le mal - de Brouwer, 2019): «.. des assistants domestiques se font délateurs, des voitures automatisées tuent, des agents conversationnels injurient leurs interlocuteurs».

Ce constat, plaident plusieurs contributeurs, nécessite un encadrement de l’IA et l’accès à une «maturité algorithmique» que Aurélie Jean avait conceptualisé dans son récent ouvrage les algorithmes font-ils la loi? (L’Observatoire). Aussi «les philosophes, les psychanalystes et les gestionnaires ont pour rôle d’«identifier et d’analyser les origines et les effets des biais perceptuels, émotionnels et cognitifs affectant les différents acteurs, mais aussi d’anticiper les avancées de l’ IA sur les consciences et les inconscients des sujets «soumis» à l’IA». Il en résulte que si la recherche d’une «IA éthique» reste l’un des grands défis de la société post -moderne, elle repose d’abord sur le traitement des biais d’origine. Essentiellement humaine avant de se reproduire par les algorithmes.

Toutefois, et in fine, les principales contributions se rejoignent pour considérer que, si l’IA peut maitriser certaines propriétés élémentaires de l’intelligence, elle ne peut (et ne pourra?) se substituer à certaines formes de l’intelligence humaine incluant, l’intuition, l’ émotion et le désir «le passage de l’IH à L’IA n’implique pas seulement de réduire la pensée humaine à une logique purement rationnelle, mais d’intégrer celles de l‘intelligence émotionnelle (intuition, inhibitions ,affects psychologiques) et de l’intelligence collective marquée par des effets d’imitation et d’ancrage de la pensée dominante». Le «mur de l’inconscient» érigé par le langage reste encore infranchissable même si certaines formes de raisonnement de plus en plus complexes commencent à être maitrisées.

La peur anthropomorphiste de «l’homme augmenté» parait à ce stade des réflexions des experts de cette parution encore très éloignée d’une réalité prochaine et permet de lever bien des incertitudes. C’est d’autant plus heureux que l’on partage cette pensée de Kant pour qui: «on mesure l’intelligence d’un individu à la quantité d’incertitudes qu’il est capable de supporter». On en accepte avec grand plaisir les augures.