Faut-il avoir peur de l’IA ? (6/6)

Cet article est issu de la newsletter IA Comprise et reproduit ici par commodité. Recevez toutes les lettres dans votre boîte mail au fur et à mesure de leur publication en laissant votre adresse dans le cadre à droite !


Chère lectrice, cher lecteur,

Vous vous demandiez quel était ce fameux risque si important qu’il me réveille la nuit ? Pour clore cette série en « beauté », le voici : l’apparition d’armes autonomes.

Pardon ? « Seulement » cela ?

Il y a le coronavirus, le changement climatique, les armes nucléaires… pourquoi s’inquiéter particulièrement de ça ?

Attention aux cauchemars…

Risque n°6 : les armes autonomes

Qu’appelle-t-on une arme autonome ?

Leur particularité est de permettre d’attaquer et tuer un humain sans intervention humaine pour « décider d’appuyer sur la gâchette ». En langage courant on parle de « robot tueur », mais il n’y a pas besoin d’imaginer un robot à la Terminator : un petit drone est bien plus proche de la réalité – et dangereux.

Je vous invite tout d’abord à regarder cette courte vidéo qui m’économisera bien des mots :

J’aime cette vidéo car, même s’il ne s’agit heureusement que d’une fiction, elle est extrêmement crédible. Ce n’est pas un hasard : rien dans les armes autonomes n’est inaccessible à partir de la technologie déjà disponible aujourd’hui. Cette vidéo date d’ailleurs d’il y a trois ans.

Le secteur militaire ne manque pas d’arguments pour justifier, même « éthiquement », le développement de telles armes : elles pourraient être envoyées dans des zones autrement hors de portée, détecter et « neutraliser » spécifiquement les soldats ennemis plutôt que les civils, éviter les dégâts matériels collatéraux… et bien sûr elles seraient extrêmement efficaces, avec un temps de réaction très faible et sans aucune hésitation à appuyer sur la gâchette

Mais cette belle histoire se heurte à la réalité.

Après avoir lu plus haut la partie consacrée à la manipulation de masse, seriez-vous vraiment prêt à laisser à qui que ce soit la possibilité d’adresser ce type de « message personnalisé » à un segment de population – en restant potentiellement anonyme ?

Et si vous vous dites qu’après tout, vous êtes un honnête citoyen qui n’a aucune raison d’être ciblé par de telles armes, après avoir lu la partie consacrée à l’illusion de l’algorithme objectif, seriez-vous vraiment prêt à laisser la décision de tuer à un tel algorithme ?

Les armes les plus dangereuses ayant jamais été développées ont été qualifiées d’armes de destruction massive car elles permettent de causer des dégâts humains immenses en une seule action. Dans ces conditions, mieux vaut ne pas les déclencher par erreur ou les faire tomber dans de mauvaises mains…

La (très) mauvaise nouvelle, c’est que les armes autonomes rentrent tout à fait dans la définition d’armes de destruction massive. En beaucoup plus risquées que celles que nous connaissons déjà.

L’autonomie leur donne le même potentiel de destruction en une seule action qu’une autre arme de destruction massive, avec d’autant moins d’appréhension à l’utiliser que les dégâts sur l’environnement sont limités.

Mais contrairement à une bombe nucléaire, bactériologique ou chimique qui nécessitent tout de même un certain niveau d’expertise pour être construite ou manipulée et dont la dissémination peut être contrôlée, la barrière à l’acquisition d’armes autonomes est faible.

Il n’y a même pas besoin de drones aussi perfectionnés que ceux présentés dans la vidéo plus haut : les attaques de drones munis d’explosifs sont déjà une réalité aujourd’hui [1]. Et une fois conçu un algorithme de ciblage et de pilotage « intelligent », rien de plus facile que de le dupliquer et le disséminer.

Finalement, le plus terrifiant est de réaliser qu’il n’y a rien qui empêche vraiment de développer de telles armes dès maintenant.

Un drone s’achète à n’importe quel coin de rue. Du matériel explosif ou balistique est un peu plus difficile (quoique loin d’impossible) à se procurer individuellement – mais certainement pas pour des militaires. La difficulté à développer un bon algorithme dépend du niveau de perfectionnement recherché, mais plus le temps passe, plus nos capacités de développement en matière d’IA progressent et plus la tâche est aisée pour un petit nombre de personnes – voire une personne seule.

La technologie est suffisamment récente pour que de telles armes n’existent pas encore (officiellement). Par chance, l’immense majorité des chercheurs et ingénieurs en IA sont éthiquement opposés à travailler sur des applications militaires létales. De nombreuses voix s’élèvent pour réclamer une interdiction pure et simples de telles armes [2].

S’il est difficile d’espérer à court terme une interdiction totale par des traités internationaux, ce chemin ne pourra être tracé qu’avec une prise de conscience des risques et un rejet massif par la population de toute utilisation de ces armes, comme les autres armes de destruction massive.

Et permettre la poursuite des applications pacifiques de l’IA, tout comme nous avons su continuer à utiliser pacifiquement l’énergie nucléaire malgré les dangers de ses applications militaires.

Ce n’est pas gagné…

Quelques mots pour conclure cette série consacrée aux risques de l’IA.

Il n’est pas facile d’écrire sur des sujets aussi vastes et anxiogènes que les risques posés par la technologie. Si j’ai choisi de vous en parler dans ces lettres, c’est parce que cela fait partie à mes yeux du bagage indispensable pour développer une bonne compréhension de l’Intelligence Artificielle.

Que l’on en soit un utilisateur aguerri, débutant ou même simple citoyen curieux, il y va de notre responsabilité à tous de s’intéresser aussi bien aux bons côtés qu’à la face obscure d’une technologie qui est en train de changer le monde.

Promis, la prochaine lettre sera moins déprimante !

À la prochaine,

Erwan


[1] https://en.wikipedia.org/wiki/2019_Abqaiq%E2%80%93Khurais_attack
[2] https://autonomousweapons.org/

Inscrivez-vous gratuitement pour ne rater aucune lettre !

Laisser un commentaire

Abonnez-moi à la newsletter