Le pessimisme gagne les débats actuels sur l’intelligence artificielle générative. Au mois de mars, les résultats d’une enquête YouGov dépeignaient des Américains essentiellement «prudents», voire «inquiets» à l’égard de l’IA, un sondé sur cinq seulement se montrant «optimiste» ou «enthousiaste». Environ quatre sondés sur dix manifestaient des craintes que l’IA pût mettre un terme à l’espèce humaine.
Ces peurs illustrent la tendance bien humaine à considérer plus facilement ce que le changement technologique peut nous faire perdre que ce qu’il peut nous faire gagner. Les progrès de l’IA vont engendrer des perturbations. Mais la destruction créatrice crée, aussi bien qu’elle détruit et, à la longue, le processus apporte des bénéfices. Les nouvelles technologies peuvent le plus souvent résoudre les problèmes qu’elles ont créés. Nous pouvons déjà le constater avec l’IA, et le mouvement s’accentuera dans les années à venir.
Rappelons-nous la panique qui a envahi les écoles et les universités lorsqu’OpenAI a donné la première démonstration des capacités d’écriture en langage naturel de son nouvel outil, ChatGPT. Nombre d’éducateurs ont exprimé l’inquiétude légitime de voir tricher leurs élèves ou leurs étudiants en se servant de l’IA générative pour leurs devoirs ou leurs examens plutôt que de leurs cours ou de leurs leçons. Mais la technologie qui permet ces abus permet aussi de les détecter et de les prévenir.
L’IA générative peut en outre contribuer à l’amélioration de la qualité des enseignements. Le vieux modèle éducatif de la salle de classe est défié sur son propre terrain. Dans une salle de classe, l’aptitude et la préparation varient considérablement d’un élève à l’autre, tout comme varient les modes d’apprentissage et le degré d’implication, d’attention ou de concentration. La qualité de l’enseignement varie aussi d’une classe à l’autre.
L’IA pourrait remédier à ces disparités en jouant le rôle d’un répétiteur particulier. Si tel étudiant apprend mieux les mathématiques par des jeux, l’IA peut l’entraîner à des jeux mathématiques. Si un autre préfère apprendre en résolvant comme autrefois des problèmes et en demandant de l’aide quand il est bloqué, l’IA peut lui répondre. Si tel autre est à la traîne tandis qu’un autre encore, dans la même classe, maîtrise déjà le sujet étudié et commence à s’ennuyer, une IA répétitrice peut travailler à remettre à niveau le premier tout en fournissant au second des sujets plus difficiles. Les systèmes d’IA serviront aussi d’assistants aux enseignants, les aideront à concevoir leur plan de cours et à organiser leur enseignement dans la classe.
L’ordinateur personnel et l’internet ont renforcé les moyens des escrocs, facilité la diffusion de fausses nouvelles et entraîné d’importantes perturbations du marché du travail.
Les bénéfices économiques de ces applications seraient substantiels. Si chaque enfant a son répétiteur particulier, les résultats de l’éducation vont considérablement s’améliorer, et ce sont les élèves les moins favorisés dans les établissements dont la qualité des enseignements laisse aujourd’hui le plus à désirer qui en tireront les bénéfices les plus importants. Ces étudiants plus instruits feront des travailleurs plus productifs qui pourront demander des salaires plus élevés. Ils feront aussi de meilleurs citoyens, capables de redorer le blason de la démocratie. Et comme la démocratie est la base de la prospérité, cette évolution aura des conséquences économiques positives.
De nombreux commentateurs s’inquiètent que l’IA puisse étouffer la démocratie sous les fausses informations et dans la désinformation. Ils nous présentent le spectre d’un «deep fake» du président Joe Biden, par exemple, annonçant que les États-Unis se retirent de l’OTAN, à moins que ce ne soit de Donald Trump, victime d’un accident de santé. La vidéo d’un tel événement saurait si bien convaincre qu’elle pourrait réellement influencer l’opinion publique à quelques semaines des élections du mois de novembre.
Si les images ou les voix «hypertruquées» de dirigeants politiques ou de candidats à de hautes fonctions dans l’État peuvent constituer de véritables menaces, les inquiétudes quant au risque envers la démocratie que constituerait l’IA sont exagérées. Rappelons une fois encore que la technologie qui permet les hypertrucages et la fabrication d’autres armes utilisées dans la guerre de l’information permet aussi de les déjouer. Et des outils de reconnaissance des deep fakes commencent déjà de circuler. SyntID, un outil à filigraner, développé par Google DeepMind, appose ainsi aux contenus générés par l’IA une signature numérique imperceptible pour l’œil humain, mais que peut détecter un logiciel. Voici trois mois, OpenAI a doté toutes les images générées par ChatGPT d’un tel filigrane.
Les armes conçues ou opérées par l’IA rendront-elles le monde plus dangereux? Il est trop tôt pour le dire. Mais comme dans les exemples cités plus haut, la technologie qui peut créer des armes offensives plus performantes peut aussi relever le niveau des défenses. Nombre d’experts pensent que l’IA renforcera la sécurité en désamorçant le «dilemme du défenseur», c’est-à-dire l’asymétrie entre les attaques, dont il suffit qu’une seule atteigne son but, et les systèmes de défense, qui n’ont pas droit à l’erreur.
Sundar Pichai, le patron de Google, annonçait en février que son entreprise avait mis au point un modèle de langage conçu spécifiquement pour la cyberdéfense et contre les menaces d’ingérence. «Certains de nos outils ont déjà amélioré de 70% leurs capacités à détecter les scripts malveillants et ont triplé leur efficacité dans le repérage des fichiers susceptibles de s’infiltrer dans les failles de défense», écrit-il.
La même logique vaut pour les menaces à la sécurité nationale. Les stratèges militaires s’inquiètent que des nuées de drones à bas prix, faciles à fabriquer, puissent, dès lors qu’ils seront contrôlés et coordonnés par l’IA, menacer des porte-avions, des chasseurs et des tanks tous très chers à produire et indispensables à l’armée américaine. Mais la technologie qui rend possible ce type d’attaque est d’ores et déjà utilisée pour s’en défendre.
Enfin, nombre d’experts et d’électeurs s’inquiètent que l’IA ne remplace la main-d’œuvre humaine. Mais comme je l’écrivais voici quelques mois, cette peur ordinaire traduit un modèle à somme nulle qui méconnaît l’évolution de l’économie. Le travail sera à l’avenir très différent de ce que nous en connaissons aujourd’hui car l’IA générative créera des biens et des services nouveaux dont la production nécessitera une main-d’œuvre humaine. Il s’est passé la même chose avec les avancées technologiques précédentes. Comme l’ont montré l’économiste du MIT David Autor et ses collègues, les emplois d’aujourd’hui ressortissent dans leur grande majorité à des activités professionnelles qui se sont développées après 1940.
Le débat actuel autour de l’IA générative accorde beaucoup trop d’importance aux perturbations qu’elle pourrait susciter. Mais les progrès technologiques n’ont pas pour seule conséquence de perturber; ils peuvent aussi créer. Les mauvais joueurs qui cherchent à semer la confusion avec les nouvelles technologies ont toujours existé et ne vont pas disparaître. Heureusement pourtant, les incitations financières contre les risques de ce type sont conséquentes, et elles ne sont pas moindres quand il s’agit de préserver et d’engendrer les profits.
L’ordinateur personnel et l’internet ont renforcé les moyens des escrocs, facilité la diffusion de fausses nouvelles et entraîné d’importantes perturbations du marché du travail. Ceux qui voudraient aujourd’hui revenir en arrière sont pourtant bien peu nombreux. L’histoire devrait nous persuader que nous pouvons avoir confiance – sans complaisance – dans les capacités de l’IA génératives de nous ouvrir la voie vers un monde meilleur.
Traduit de l’anglais par François Boisivon
Copyright: Project Syndicate, 2024.