Faut-il avoir peur de l’IA ?

Cet article est issu de la newsletter IA Comprise et reproduit ici par commodité. Recevez toutes les lettres dans votre boîte mail au fur et à mesure de leur publication en laissant votre adresse dans le cadre à droite !


Chère lectrice, cher lecteur,

Suite à ma dernière lettre, j’ai reçu un commentaire de quelqu’un se disant « terrorisé » par le machine learning (coucou Antoine si tu nous lis). Cela m’a inspiré à écrire cette lettre consacrée aux craintes liées à l’Intelligence Artificielle.

On peut penser que, dans un domaine perçu comme risqué (par exemple, l’énergie nucléaire), plus l’on gagne en expertise, plus les craintes s’allègent. C’est en partie vrai – un ingénieur nucléaire sait par exemple qu’il est physiquement impossible qu’une centrale explose comme une bombe nucléaire, même par accident. Mais parfois, les experts sont à l’inverse à l’avant-garde de craintes encore peu connues ou sous-estimées dans le grand public.

Dans le cas de l’IA, mon sentiment est que l’on est justement dans le second cas. Loin d’en être de béats missionnaires, beaucoup d’experts sont en réalité très préoccupés par ses risques qu’elle pose. Ce qui est plutôt une bonne nouvelle : des personnes informées sont déjà en train de préparer le terrain pour anticiper puis réduire ces risques.

Hélas, il est loin d’être garanti que ce travail préparatoire sera effectivement entendu. Pour prendre des exemples, au hasard très actuels, citons le changement climatique ou l’épidémie que nous traversons (on retrouve des articles de plus de 10 ans plus que prémonitoires ! [1]).

Comprendre l’Intelligence Artificielle, ce n’est pas seulement comprendre comment elle fonctionne ou les (réels et nombreux) bénéfices qu’elle peut nous apporter, mais aussi ses risques. Et au moins l’un de ces risques est à mes yeux pratiquement de nature existentielle pour notre civilisation – avec une fenêtre de réaction limitée.

Je tiens donc à partager avec vous, sur un ton pour une fois un peu plus pessimiste qu’à l’ordinaire, les risques liés à l’IA dont chacun devrait être conscient.

Note : chacun de ces risques pourrait faire l’objet de plusieurs lettres ; je me suis efforcé d’être synthétique, mais le résultat se révèle tout de même particulièrement long. Je vous ferai donc parvenir cette lettre en deux parties, dont voici la première.


L’émergence d’une dangereuse Intelligence Artificielle Généralisée

Révolte des machines contre les humains ?…

L’éléphant dans la pièce. Une Intelligence Artificielle capable de rivaliser avec une intelligence humaine, qui échappe à notre contrôle et, au choix, massacre ou réduit en esclavage l’humanité.

Je tiens à citer ce risque car c’est probablement celui que la plupart des gens imaginent en premier. Pourtant, c’est de loin le moins préoccupant. Tout simplement parce que l’IA d’aujourd’hui, celle que l’on « sait faire » (y compris dans les laboratoires les plus avancés des GAFA), est encore très, très loin de pouvoir être comparée à une intelligence humaine.

Bien sûr, elle est capable de remplacer voire de dépasser l’humain sur certaines tâches spécifiques (notamment le traitement de données) et fait des progrès impressionnants dans de nombreux autres domaines où l’humain garde de l’avance (comme la reconnaissance d’image ou la compréhension de texte), mais il en est un, crucial, où l’on ne sait même pas si un jour une machine pourra atteindre le niveau d’un humain : l’adaptabilité.

J’en parle plus longuement dans cette lettre ; en quelque mots, la menace que poserait une « vraie » Intelligence Artificielle Généralisée serait évidemment immense, mais la probabilité qu’une telle IAG apparaisse est très faible, dans plusieurs décennies pour les plus optimistes (et jamais pour les plus pessimistes).

L’un des plus célèbres chercheurs en Intelligence Artificielle, Andrew Ng, a eu cette phrase très imagée à propos de ce risque : « Ce serait comme s’inquiéter de la surpopulation sur Mars – alors que nous n’y avons même pas mis le pied aujourd’hui » [2].

Le remplacement du travail salarié

… ou plus vraisemblable, révolte des humains contre les machines

La vision anti-technologique de robots qui créent du chômage en remplaçant le travail exécuté par des humains ne date pas d’hier : dès les débuts de la mécanisation il y a deux siècles, le mouvement des luddites s’attelait à détruire les métiers à tisser, moulins et autres machines qui privaient les ouvriers de travail.

Aujourd’hui, cette crainte est relativement peu partagée. Après tout, malgré des siècles de mécanisation, il y a toujours largement besoin de travail humain, que ce soit pour construire ou réparer les machines, ou pour assurer une multitude de nouveaux travaux, principalement intellectuels, qui sont apparus depuis.

Et pourtant, deux spécificités de la situation actuelle laissent penser qu’il n’y a pas besoin d’être un luddite moderne pour croire que « cette fois, cela pourrait être différent » :

  • La vitesse de la transition

La mécanisation de l’agriculture et des usines a pris des décennies, ce qui a laissé le temps de l’adaptation à la disparition de certains emplois, notamment grâce à l’éducation. Aujourd’hui, le cabinet de conseil McKinsey estime que 50% du travail actuellement effectué est théoriquement automatisable, et que 15% (soit 400 millions d’emplois) le sera probablement d’ici 2030 [3]. Autrement dit, demain.

  • La nature du travail remplacé

Alors que les robots remplaçaient du travail manuel, poussant la force de travail vers des travaux intellectuels, l’IA a le potentiel de remplacer à son tour une bonne partie de ce travail intellectuel. La technologie actuelle permet déjà d’automatiser une grande partie du travail dans des secteurs intensifs en main d’œuvre comme la comptabilité, le droit, la médecine, le service client et bien d’autres [4]. Mais cette fois, vers quels nouveaux emplois seront déplacées les personnes ainsi « libérées » ?

Alors, est-on au bord d’un chômage de masse ? Bien malin qui s’engagera sur des prédictions.

Si l’IA menace certains emplois intellectuels, d’autres restent tout de même largement hors de sa portée – nous ne sommes pas près d’automatiser le travail d’un chercheur ou d’un architecte, ni celui d’une femme ou d’un homme de ménage.

Les plus optimistes parient sur une adaptation des travailleurs vers les emplois plus qualifiés et plus productifs grâce à la formation, ainsi que sur l’aide paradoxale du vieillissement de la population dans les pays occidentaux et la Chine.

Et les plus pessimistes, quand ils n’attendent pas un chômage de masse, anticipent une hausse de la polarisation du marché du travail entre des emplois très qualifiés et d’autres peu qualifiés (mais difficilement automatisables), avec une pression maximale sur la fameuse « classe moyenne » [5].

Mais quelles que soient les conséquences au niveau collectif, la conclusion au niveau individuel reste la même : chacun a intérêt à se former pour comprendre l’Intelligence Artificielle, pas forcément dans le but de devenir soi-même un expert, mais pour savoir ce qu’elle peut et va changer dans son propre métier et comment s’y préparer.

La fin de la vie privée

Big Brother is watching you. Facebook aussi.
Votre téléphone aussi. Le dernier jeu à la mode aussi.

L’IA d’aujourd’hui se nourrit de données. De beaucoup de données. Y compris, naturellement, de données que l’on peut qualifier de personnelles, voire très personnelles :

  • Vos revenus
  • Vos achats
  • Vos centres d’intérêt
  • Votre position géographique
  • Votre affiliation politique
  • Votre santé
  • Votre religion
  • Vos préférences sexuelles
  • Et tant d’autres…

Même si ces données ne sont pas forcément accessibles publiquement et toutes en même temps, il est difficile de se rendre compte à quel point toutes nos activités sont scrutées, enregistrées et analysées, aussi bien par des entreprises privées que par des institutions publiques.

Mais aussi, et surtout, à quel point il est possible de déduire des informations personnelles à partir de données incomplètes.

Prenez votre téléphone portable. Vous le transportez certainement avec vous partout où vous allez. Pour fonctionner, il doit envoyer en permanence à l’opérateur téléphonique sa position, la vôtre donc, qui est soigneusement consignée dans d’immense bases de données. Votre téléphone, mais aussi celui de toute personne proche de laquelle vous êtes. Avec une précision suffisante pour savoir dans quelle pièce vous étiez et pendant combien de temps vous vous y êtes trouvés ensemble.

Mais les opérateurs téléphoniques n’ont aucun intérêt à s’amuser à espionner leurs clients me direz-vous ? Certes, mais votre voisin qui travaille là a peut-être accès à ces données. Celles-ci peuvent aussi être piratées. Ou vendues, ou données à un gouvernement. Vous faites confiance à votre opérateur ? Sachez que ces données sont aussi partagées avec les éditeurs de toutes ces applications que vous avez installées sur votre téléphone et dont vous n’avez pas désactivé le partage. [6]

Vous en voulez plus ? Savez-vous qu’une IA peut estimer, avec un degré de précision relativement correct, vos opinions politiques à partir d’une photo ou de quelques likes sur Facebook ?

Mon opinion personnelle concernant la protection de la vie privée est qu’il est déjà trop tard. Les outils comme le RGPD [7] ne protègent (même théoriquement) que des abus les plus graves. Notre vie privée est déjà enregistrée dans de multiples serveurs, prête à être disséquée par des algorithmes. Et trop de services, publics ou privés, s’appuient déjà dessus pour qu’il soit encore temps de revenir en arrière.

Alors ? Alors, la première chose est déjà d’en être conscient. Puis de reprendre le contrôle de ce qui peut l’être, en pesant le pour et le contre.

  • Ai-je envie qu’Amazon sache que j’ai besoin de ce produit ?
  • Ai-je vraiment besoin de donner accès à ma position à l’éditeur de cette app que je viens de télécharger ?
  • Ai-je même vraiment envie de télécharger cette app « gratuite » qui se rémunère en enregistrant de toute façon d’autres informations ?
  • Ai-je même besoin de garder mon téléphone allumé en permanence ?

Et enfin d’apprendre à vivre dans une société où la vie privée n’est plus qu’un mirage. Où les individus ne sont pas plus mauvais qu’avant, simplement plus visibles. Et où l’élément intime, la parole malheureuse ou l’erreur de parcours de chacun peuvent être exposés publiquement à tout moment, sans que cela ne doive conduire à une bien hypocrite opprobre généralisée.


Pas trop démoralisé(e) à la lecture de ce sombre tableau ?

Je vous laisse souffler quelques jours avant d’attaquer la suite de la galerie des horreurs, avec notamment LE risque qui me réveille la nuit…

Erwan

La suite de cette lettre est réservée aux abonnés à la newsletter.


[1] Voici un article de… mai 2007, paru dans un journal grand public suisse
[2] Évidemment en réponse à un célèbre adepte de la colonisation martienne nommé… Elon Musk
https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/
[3] https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages
[4] https://www.brookings.edu/research/automation-and-artificial-intelligence-how-machines-affect-people-and-places/
[5] https://www.technologyreview.com/2013/06/12/178008/how-technology-is-destroying-jobs/
[6] Fin 2019, des journalistes du New York Times ont obtenu une base de données de localisation. Ils en ont tiré une série d’articles glaçants, dont je vous conseille fortement la lecture ici.
[7] « Règlement général sur la protection des données », le texte européen qui encadre légalement depuis 2018 l’usage des données personnelles. Théoriquement, personne ne peut utiliser vos données sans votre consentement « explicite et positif ». À condition que vous soyez en Europe. Et que l’entreprise respecte la loi. Et que le recueil du consentement n’était pas noyé dans un long document que vous n’avez probablement pas lu…

Inscrivez-vous gratuitement pour ne rater aucune lettre !

Laisser un commentaire

Abonnez-moi à la newsletter