« La science est une chose trop importante pour être laissée entre les mains des seuls savants. » (Carl E. Sagan)

Pourquoi résister à l’Intelligence artificielle ?
par Cédric Sauviat

La fameuse complémentarité de l'homme et de la machine est un leurre. Loin de donner du pouvoir aux hommes, l'Intelligence artificielle (IA) les en dépossède. L'aventure technologique qui s'annonce constitue la plus formidable entreprise d'aliénation jamais imaginée à l'encontre du genre humain. Face aux critiques et aux inquiétudes, les partisans de l'IA aiment à répéter qu'elle seule permettra à l'humanité de résoudre les graves problèmes qui la minent. C'est oublier un peu vite que ces problèmes proviennent, en bonne part, du système technico-économique, dont l'IA représente précisément le point culminant.

* * *

> Cédric Sauviat, polytechnicien, président de l'Association Française contre l'Intelligence Artificielle (AFCIA). / Crédit DR.

I

L Y A quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

Pour la première fois, la question de la libre diffusion des algorithmes est posée.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

 

LES EXPERTS DÉPASSÉS

 

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

 

 

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

 

UNE CONFIANCE EN DÉLIQUESCENCE

 

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques qui maîtrisent la « bonne » Intelligence artificielle.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

 

UNE FUITE EN AVANT DÉBRIDÉE

 

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

Le développement technique est totalement débridé parce que, nulle part et à aucun moment, les concepteurs d’Intelligence Artificielle et les législateurs ne fixent la moindre limite.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d'invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée.

 

 

Toutefois, ce qualificatif de « débridé » est-il encore légitime, au moment où les questions de confidentialité des données personnelles ou de responsabilité juridique des robots font l’objet de débats, et au moment où la préoccupation éthique 6 se voit mise à l’honneur, y compris dans le tout récent rapport de Cédric Villani ? Nous pensons que oui.

Oui, le développement technique 7 est débridé, totalement débridé, parce que nulle part et à aucun moment, les concepteurs d’IA et les législateurs n’ont fixé, et ne fixent, la moindre limite théorique à ce que devrait être l’autonomie des systèmes informatiques.

 

UNE TIMIDE PRISE DE CONSCIENCE

 

Plutôt que de répondre « pourquoi devrait-on fixer une limite ? », ce qui aurait le mérite de la clarté et permettrait aux uns et aux autres de dévoiler leurs arrière-pensées, les experts, et singulièrement les experts français, se dérobent systématiquement en prétextant que les IA actuelles sont encore très loin de disposer d’une intelligence équivalente à celle de l’homme. 8

L’attitude des Anglo-saxons est, sur ce point, moins naïve et, d’une certaine manière, plus rassurante pour le commun des mortels, qui se rendent bien compte que les IA brûlent les étapes jour après jour.

Comment des programmeurs, aux conceptions philosophiques parfois brumeuses, parviendront-ils à réaliser ce que les plus grands maîtres spirituels de l’humanité se sont bien gardés d’entreprendre ?

Si l’on met de côté les gourous qui ont commencé à prophétiser la Singularité et à adorer une nouvelle idole sous la forme d’une Superintelligence Artificielle 9, de nombreuses personnalités ont pris la mesure des enjeux et se sont attelées à éveiller l’opinion.

L’initiative la plus emblématique est peut-être celle du Future of Life Institute (FLI), fondé en 2014 par le physicien Max Tegmark et le fondateur de Skype, Jaan Tallin, sous le patronage de célébrités telles que Elon Musk et feu Stephen Hawking.

Le FLI voit dans l’IA une extraordinaire source de bienfaits pour l’humanité, mais également une source de risque majeur, voire « existentiel ».

Il exhorte, par conséquent, à promouvoir la recherche dans le domaine, encore embryonnaire, de la Sécurité de l’IA (AI Safety). Cette approche s’appuie sur le concept central d’alignement des valeurs (Value Alignment).

Je cite : « Les IA fortement autonomes devraient être conçues de telle sorte que leurs objectifs et leurs comportements coïncident à tout moment avec les valeurs humaines » 10, lesquelles sont, je cite toujours : « la dignité, les droits et libertés, la diversité culturelle ». L’un des attendus du développement de l’IA est de profiter et « donner du pouvoir » (empower) au plus grand nombre.

 

L'HOMME ÉLIMINÉ

 

Si le programme du FLI part d’une bonne intention, il suscite bon nombre d’interrogations, et probablement au moins une critique majeure de notre part.

Et l'Amour, où est-il ?

La notion d’alignement des valeurs sous-entend qu’il soit possible de programmer la machine à agir conformément à un ensemble de règles éthiques. De la programmer, ou bien de lui apprendre à reconnaître, puisque l’on sait que c’est désormais ainsi que l’on procède avec des réseaux de neurones.

Mais alors, comment penser qu’une machine « éthiquement alignée » ne resterait pas vulnérable à une reprogrammation, à un piratage, de la part d’individus beaucoup moins respectueux des inébranlables « valeurs humaines » ?

 

 

En second lieu, comment mettre la dignité en équation ? la liberté ? la diversité ? 11 Comment des programmeurs, aux conceptions philosophiques parfois brumeuses, parviendront-ils à réaliser ce que les plus grands maîtres spirituels de l’humanité se sont bien gardés d’entreprendre ? Et l’Amour, où est-il ? N’est-ce pas la principale, la plus importante valeur ?

Comment mettre la dignité en équation ? la liberté ? la diversité ?

Mais enfin, supposons que cela soit possible, que la machine puisse être dressée à adopter un comportement éthique « convenable ». Elle, la machine, vertueuse et respectueuse de la dignité, de la liberté ; moi, son maître, avide de profit et ivre de volonté de puissance. En d’autres termes, l’homme inférieur à la machine, y compris sur le plan moral ?

Cette perspective, tragiquement ironique, ne fournit-elle pas le dernier argument nécessaire, après ceux de l’efficacité, de la fiabilité et du coût, pour justifier l’élimination de l’homme ?

 

LES HUMAINS DÉPOSSÉDÉS

 

Il est temps de l’admettre : la feuille de route du Future of Life Institute, pourtant si prudente et si consensuelle, ne nous convient pas.

Nous ne voyons pas en quoi le fait de remplacer systématiquement l’action humaine par l’action de la machine est un « empowerment » pour l’individu. 12. Car le développement de l’IA ne nous laissera pas le choix de l’une ou de l’autre, malgré les généreuses protestations du FLI. Si la voiture autonome est plus sûre, et elle le sera sans doute bientôt, les humains ne seront plus autorisés à conduire.

Si la voiture autonome est plus sûre, et elle le sera sans doute bientôt, les humains ne seront plus autorisés à conduire.

Père de trois lycéens, je ne vois pas en quoi les applications − disponibles sur smartphone − permettant de traduire automatiquement un texte ou de résoudre étape par étape un exercice de mathématiques 13, constituent une formidable opportunité pour mes enfants. 14

Sevrés de l’exigence de réflexion personnelle, assistés par une cohorte de bots destinés à leur épargner le moindre effort, accompagnés jusqu’à l’âge adulte par l’incertitude de trouver une place dans la société, où rencontreront-ils les conditions de leur épanouissement civique, professionnel et personnel ? 15

 

 

Car la fameuse complémentarité de l’homme et de la machine est un leurre. Peut-être, pendant quelque temps, les machines auront-elles besoin des humains pour affiner leur paramétrage. A en croire Cédric Villani, éducateur de réseaux de neurones et ergonomiste en robotisation figurent en bonne place parmi les métiers réservés à nos enfants. Mais cette phase d’éducation ne durera pas toujours. Il suffit d’éduquer un robot une fois pour engendrer, pour tous les temps à venir, un nombre illimité de robots éduqués.

Loin de donner du pouvoir aux hommes, l’Intelligence Artificielle les en dépossède.

Loin de donner du pouvoir aux hommes, l’IA les en dépossède. Même si elle avait véritablement un but philanthropique, l’aventure technologique qui s’annonce ne manquerait pas de nous apparaître comme la plus formidable entreprise d’aliénation jamais imaginée à l’encontre du genre humain. Et nous y entrons avec l’émerveillement du taureau pénétrant dans l’arène, sous les ovations extatiques des visiteurs du Consumer Electronic Show (CES).

 

L'INTELLIGENCE ARTIFICIELLE,
DÉLÉTÈRE ET INUTILE

 

Face aux critiques et aux inquiétudes, les partisans de l’IA, qui insistent, par ailleurs, sur l’urgence de rester dans la compétition internationale, aiment à répéter – non sans contradiction 16 − que l’IA seule permettra à l’humanité de résoudre les graves problèmes qui la minent : réchauffement climatique 17, pénurie des ressources, pauvreté, inégalités…

C’est oublier un peu vite que ces problèmes proviennent, en bonne part, du système technico-économique, dont l’IA représente précisément le point culminant.

Du reste, nous ne nions en aucune manière que l’IA ne puisse offrir, par les possibilités de traitement des informations en grande masse, un soulagement ou une solution à tel ou tel problème technique ponctuel, comme par exemple la gestion des transports.

Quels que puissent être les bénéfices supposés de l’Intelligence artificielle, ses inconvénients paraissent, en définitive, beaucoup trop lourds pour que le jeu en vaille la chandelle.

Ce que nous tenons à souligner, c’est qu’elle provoquera inévitablement, ailleurs, d’autres problèmes épineux, et sans doute ingérables.

Elle ruinera le lien social, en faussant et viciant les relations humaines et en flattant les fantasmes d’autosuffisance des individus. Elle n’améliorera pas la condition humaine 18, dans la mesure où elle instaure les conditions de la démoralisation et de la « mort » de l’homme.

Elle ne résoudra pas les problèmes écologiques, car la préservation du patrimoine naturel est rigoureusement contraire à sa propre logique. 19 S’ils sont cohérents, les zélateurs de l’IA doivent se soucier comme d’une guigne de la disparition des abeilles : du moment que des micro-drones peuvent assurer la pollinisation…

Quels que puissent être les bénéfices supposés de l’IA, ses inconvénients paraissent, en définitive, beaucoup trop lourds pour que le jeu en vaille la chandelle. On peut très bien se passer de l’IA, sans pour autant retourner à l’âge de pierre.

Certes, il faudra probablement attendre plusieurs années – et sans doute plusieurs catastrophes − avant que les gouvernements s’en convainquent, mais ils ne s’en convaincront pas moins en Chine ou aux Etats-Unis qu’en Europe. N’en déplaise aux angoissés de la compétition internationale.

Cédric Sauviat

 

* * *

 

Notes:

  1. − Lire le rapport en ligne : maliciousaireport.com. /
  2. − Voir le site autonomousweapons.org et la vidéo « slaughterbots ». /
  3. NDLR : Lire notre article : La technologisation de la vie : du mythe à la réalité, 1er mars 2018. /
  4. NDLR : Lire notre « Grand Entretien » avec Paul Jorion, « Se débarrasser du capitalisme est une question de survie », 7 octobre 2016. /
  5. − Citation de Cédric Villani dans L’Obs du 1er au 7 mars 2018. /
  6. NDLR : Lire le texte de Geneviève Azam, Dominique Bourg et Jacques Testart, Subordonner les technosciences à l'éthique, 15 février 2017. /
  7. NDLR : Lire la tribune libre d'Alain Gras, Qu'est-ce que le progrès technique ?, 26 août 2015. /
  8. NDLR : Lire notre article : Intelligence artificielle : la science rongée par le mythe, 8 avril 2015. 
  9. NDLR : Lire la tribune libre de Brice de Malherbe, Frankenstein et le transhumanisme, 16 avril 2018. /
  10. − Voir le site du Future of Life Institute (FLI). /
  11. NDLR : Lire la tribune libre de Gérard Dubey, L'homme augmenté : les dessous d'un mythe, 8 mai 2018. /
  12. NDLR : Lire la tribune libre de Simon Charbonneau, L'« effet prothèse » ou comment remplacer l'humain, 17 mai 2018. /
  13. − Je pense notamment à Google Translate et Photomath. /
  14. NDLR : Ecouter notre émission de web-radio : Quelle politique numérique pour la France ?, 17 avril 2017. /
  15. NDLR : Lire la tribune libre de Philippe Godard, La technologie est une politique, 14 septembre 2017. /
  16. − Si l’Intelligence Artificielle doit apporter le bonheur au monde entier, pourquoi redouter que les Chinois nous devancent ? /
  17. NDLR : Lire notre « Grand Entretien » avec Laure Noualhat : « Les climatosceptiques se moquent de la vérité scientifique », 4 octobre 2015. /
  18. NDLR : Lire le texte de Hannah Arendt, Penser ce que nous faisons, 25 mars 2017. /
  19. NDLR : Lire la tribune libre de Frédéric Denhez, L'écologie est-elle une science sociale ?, 16 juillet 2016. /

3 commentaires

  1. Les technologies numériques, pompeusement renommées IA, se substituent à l’homme pour des activités ne requérant qu’une intelligence limitée. Elles reproduisent des raisonnements humains simples mais les appliquent à des masses de données qu’un être humain ne saurait pas traiter. Ceci étant, il ne faut pas confondre puissance et intelligence. L’IA ne fait que faciliter l’exploitation des savoirs existants qu’on lui confie. La création des savoirs (idées, inventivité, conception, innovation, méthode scientifique) est l’apanage exclusif de l’intelligence humaine.
    Le débat proposé sur l’IA est-il pour autant sans objet ? Non, car, si les machines ne sont guère plus intelligentes qu’avant, l’homme est devenu plus sot en développant une confiance aveugle en des machines auxquelles il confère indument de l’intelligence. Dans bien des domaines, notre crédulité à l’égard de ce que nous croyons sorti d’un ordinateur totalement opaque est aujourd’hui consternante.
    Certes, l’IA n’est pas à l’origine de cet abêtissement qui remonte aux années 80. Dans la foulée de nos amis anglo-saxons, nous avons alors décidé que la vocation de l’enseignement supérieur était de former une élite d’exécutants dociles, spécialisés et crédules au service de la nouvelle économie et de la croissance. On renonçait à former des esprits ouverts aptes à comprendre le monde qui nous entoure, à en contester certains aspects et à faire évoluer savoir et savoir-faire dans tous les domaines. C’est en devenant des robots humains que nous avons développé notre crainte des machines.
    Depuis, la recherche et l’innovation technologique se font sur commande en fonction de perspectives de rentabilité immédiate. Elles se limitent à quelques secteurs porteurs dont le succès ne peut occulter le marasme qui gangrène des secteurs moins rentables. Ainsi, face à une crise écologique sans précédent, les sciences de la nature, peu porteuses de rentabilité, n’ont jamais été autant négligées. Les nouvelles technologies de l’information nous permettent de collecter et de traiter une masse importante de données terrestres mais ne donnent que l’illusion en trompe l’œil d’un progrès scientifique et d’une maîtrise de la nature.
    Il n’y a, en effet, plus grand monde pour interpréter ces données de façon intelligente et surtout pour promouvoir des interprétations qui dérangent notamment celles qui pourraient conclure à la nécessité d’une transition écologique synonyme de décroissance. Les interprétations purement climatiques, fondées sur de modélisations numériques superbes mais peu pertinentes, ont aujourd’hui plus la cote car elles impliquent une transition exclusivement énergétique plus compatible avec la croissance. Mais, la réflexion, l’intelligence et le potentiel de contestation des scientifiques de la nature ne pèse pas lourd devant le pouvoir de ceux qui nous gèrent.

  2. Je trouve cet article excellent et il me semble qu’Eric Sauviat a pensé à tout. Mais il ne m’a pas convaincu qu’il faille mettre un frein au développement de l’IA, en effet, l’auteur écrit:
    « En d’autres termes, l’homme inférieur à la machine, y compris sur le plan moral ?
    Cette perspective, tragiquement ironique, ne fournit-elle pas le dernier argument nécessaire, après ceux de l’efficacité, de la fiabilité et du coût, pour justifier l’élimination de l’homme ? »
    Et alors? L’auteur écrit: »En second lieu, comment mettre la dignité en équation ? la liberté ? la diversité ? Comment des programmeurs, aux conceptions philosophiques parfois brumeuses, parviendront-ils à réaliser ce que les plus grands maîtres spirituels de l’humanité se sont bien gardés d’entreprendre ? Et l’Amour, où est-il ?  »
    That is the question, où est l’amour dans tout cela? Si grâce à l’IA on finit pas construire des humanoïdes plus performants que les humains, en science, en musique, en arts plastiques, en sport mais que ces robots ne soient que des  » grille-pain » comme le disent les humains de la série  » Battlestar Galactica », alors oui, il faut prendre toutes les mesures pour que l’IA ne fasse pas disparaître l’humanité, ou les abeilles.
    Mais s’ils étaient pourvu de sensibilité, d’émotions, d’enthousiasme, alors qu’importe la disparition de l’humanité. Une symphonie, une œuvre d’art, un film ou tout simplement la vue de personnes qui s’aiment peuvent me mettre les larmes aux yeux et c’est cela qui compte, « L’important, c’est la rose ». Encore faut-il quelqu’un pour l’admirer, la respirer. Et si un jour, les robots en deviennent capables, alors qu’importe la disparition des humains avec son lot de tortionnaires, de cupides, d’avides et de fous du pouvoir.

  3. « Pour la première fois, la question de la libre diffusion des algorithmes est posée. »

    C’est inexact, les algorithmes de chiffrement ont longtemps été considérés comme des munitions dans certains pays comme les États-unis et leur libre diffusion ainsi limitée.

    Ces algorithmes sont souvent qualifiés de « technologies à double usage » (militaire et civil) comme le nucléaire, les dispositifs de vision thermique et certaines biotechnologies. Leur usage et commerce est régulé par des lois spécifiques (Règlement Européen CE 428/2009 par exemple).

    Pensez vous que ces restrictions soient souhaitables et/ou suffisantes pour l’IA ?

    Référence: https://fr.wikipedia.org/wiki/Chiffrement#Aspects_l%C3%A9gaux

Laisser une réponse

Top