Faut-il avoir peur de l’IA ? (5/6)

Cet article est issu de la newsletter IA Comprise et reproduit ici par commodité. Recevez toutes les lettres dans votre boîte mail au fur et à mesure de leur publication en laissant votre adresse dans le cadre à droite !


Chère lectrice, cher lecteur,

J’ai évoqué dans les lettres précédentes des effets secondaires liés à la façon dont l’Intelligence Artificielle était utilisée – mais quels sont les principaux risques liés à une utilisation de l’IA à des fins activement néfastes ?

Voici donc l’avant-dernière lettre consacrée aux risques de l’IA.

Risque n°5 : la manipulation de masse

Je ne me souvenais pas avoir entendu Barack Obama être si grossier… À moins que ? [1]

Beaucoup d’explications ont été données a posteriori sur la victoire inattendue de Donald Trump en 2016.

Certains ont souligné des raisons structurelles, comme le sentiment de déclassement de la classe ouvrière blanche américaine, l’impopularité de sa rivale Hillary Clinton ou l’interférence russe.

Tout cela a sûrement contribué, mais il y a aussi une raison purement tactique qui a massivement contribué à ce résultat : un ciblage électoral à la précision inégalée.

Grâce à des algorithmes de machine learning alimentés par des données issues de Facebook, la société Cambridge Analytica a pu segmenter extrêmement précisément des dizaines de millions d’électeurs, en particulier dans les quelques Etats-clés de l’élection de 2016.

Elle a pu cibler et proposer à chaque microsegment électoral les messages les plus efficaces (parfois contradictoires entre eux, après tout la cible n’en saura rien) pour motiver à voter pour Donald Trump. Ou au contraire pour démotiver des électeurs démocrates d’aller voter. [2]

Cela a permis de renverser le cours d’une élection quasiment perdue d’avance pour le Parti Républicain.

C’était en 2016 – il y a une éternité à l’échelle des avancées en matière d’Intelligence Artificielle.

Depuis, non seulement la technologie et l’expérience se sont développées, mais nous avons également vu apparaître les deepfakes, ces images, ces paroles, ces vidéos dont l’origine artificielle est indétectable.

Si nous sommes habitués depuis longtemps à ne pas prendre tout ce que l’on lit pour argent comptant, une vidéo a longtemps fait foi en matière d’authenticité : cette époque est finie. Et nous n’y sommes pas vraiment préparés.

En d’autres termes, il existe désormais des outils techniques qui permettent de manipuler massivement les opinions, mais de façon individuellement personnalisée, en utilisant des biais cognitifs dont nous ne sommes parfois même pas conscients.

Si nous avons depuis longtemps appris à nous méfier de la communication publique institutionnelle, cette nouvelle approche est d’autant plus redoutable qu’elle est discrète : il est facile de travestir la vérité quand on peut adresser un message différent à chaque personne.

C’est tout le paradoxe d’une situation où toute l’information du monde n’a jamais été aussi accessible : le pouvoir n’est plus chez ceux qui créent l’information, mais chez ceux qui le trient et la diffusent.

Mais finalement, tout cela n’est rien par rapport à un risque beaucoup plus direct et terre-à-terre posé par l’Intelligence Artificielle – le risque qui personnellement me réveille la nuit…

À bientôt pour le dernier épisode de cette sombre série…

Erwan


[1] https://www.youtube.com/watch?v=cQ54GDm1eL0
[2] https://www.theguardian.com/news/2018/may/06/cambridge-analytica-how-turn-clicks-into-votes-christopher-wylie

Inscrivez-vous gratuitement pour ne rater aucune lettre !

Laisser un commentaire

Abonnez-moi à la newsletter