Algorithmie, lavande et art de la guerre
©Shutterstock

En 2023, le conflit qui oppose Israël à certains groupes armés à Gaza a vu l’introduction à grande échelle d’outils d’intelligence artificielle (IA) dans la conduite des opérations militaires. Parmi eux, un programme baptisé Lavender s’est imposé comme un système central dans la sélection des cibles. Ce logiciel repose sur des algorithmes de machine learning qui croisent de nombreuses sources de données – images, communications interceptées, bases administratives – afin d’identifier des profils présumés de combattants.

Lavender analyse les données en temps réel et propose chaque jour aux commandants des listes de plusieurs centaines de cibles potentielles. Ces recommandations sont basées sur des corrélations statistiques détectées par l’IA, qui repère des motifs dans les flux d’informations. Par exemple, un individu repéré à plusieurs reprises près d’activités considérées comme hostiles ou en relation avec d’autres suspects peut être automatiquement classé comme cible prioritaire.

Cette évolution technologique s’inscrit dans la continuité des innovations ayant modifié la conduite des opérations militaires à travers l’histoire. Toutefois, le fait de confier une partie importante du processus de ciblage à une machine soulève de nouveaux défis. Par exemple, quel est le rôle du jugement humain lorsque les cibles sont identifiées à partir d’analyses statistiques? Quelle marge de manœuvre les officiers conservent-ils face à un flux important de recommandations algorithmiques? Selon l’armée israélienne, ces outils sont conçus pour assister la prise de décision, chaque frappe devant être validée par un opérateur humain, conformément aux règles du droit international des conflits armés.

Officiellement, les analystes sont chargés de vérifier que chaque cible proposée répond aux critères légaux et militaires avant d’autoriser toute action, l’IA ne prenant pas de décision autonome. En théorie, la chaîne de commandement ainsi que les principes de distinction et de proportionnalité restent applicables: seules les cibles militaires sont visées, dans la mesure du possible sans causer de dommages aux civils. Toutefois, la complexité du contexte opérationnel sur le terrain peut rendre l’application stricte de ces principes difficile, comme l’illustrent plusieurs témoignages et analyses.

Le programme Lavender a pu générer un grand nombre de cibles grâce à des techniques de machine learning qui combinent diverses sources de renseignements – données de surveillance, interceptions électroniques, bases administratives, etc. – afin d’estimer les affiliations probables des individus. Concrètement, l’IA identifie des motifs dans les données, comme certains visages, localisations ou appels téléphoniques, correspondant à des profils déjà associés à des combattants. Ce processus permet de constituer des listes de suspects classés par similarité statistique. Ce gain de temps important s’accompagne cependant de limites inhérentes au fonctionnement des algorithmes. Même les modèles les plus performants peuvent produire un nombre significatif de faux positifs, particulièrement lorsqu’il s’agit de distinguer un combattant d’un civil, une tâche déjà complexe pour le renseignement humain. L’IA fonctionne à partir des données fournies et de modèles probabilistes, sans compréhension contextuelle ni certitude absolue. Par conséquent, prendre des décisions létales fondées sur ces analyses implique d’accepter un certain degré d’incertitude, qui peut parfois être sous-estimé en situation opérationnelle.

Un phénomène identifié en ergonomie cognitive, appelé «biais d’automatisation», décrit la tendance des opérateurs humains à accorder une confiance initiale aux informations fournies par une machine, notamment lorsque celle-ci bénéficie d’une certaine crédibilité technologique. Concernant le système Lavender, plusieurs militaires ayant utilisé l’outil ont indiqué qu’ils validaient souvent les cibles proposées en quelques secondes, sans apporter de modifications significatives. L’un d’eux a rapporté ne consacrer que vingt secondes environ à l’examen de chaque cible, se percevant davantage comme un «tampon» administratif. Face à un volume quotidien important de cibles à traiter, la supervision humaine tend à devenir automatique et moins approfondie, les analystes validant les recommandations plutôt que les remettant en question. Ce transfert partiel du contrôle vers l’IA soulève des préoccupations chez certains experts, notamment en droit international humanitaire, qui mettent en garde contre un possible affaiblissement de la responsabilité humaine et une augmentation du risque d’erreurs graves.

En cas d’erreur de la machine, par exemple si un civil est identifié à tort comme combattant, la question de la responsabilité devient complexe. Celle-ci peut être partagée entre l’opérateur qui valide la cible, les développeurs du logiciel et le commandement ayant adopté ce système. La chaîne de responsabilité apparaît ainsi comme un espace partagé entre l’algorithme, ses utilisateurs et ses concepteurs, ce qui complique l’identification claire des responsabilités en cas d’incidents.

Dans le cadre du droit international humanitaire, cette dilution des responsabilités pose des questions importantes. Les Conventions de Genève imposent aux parties au conflit un devoir de discernement, visant à ne frapper que des objectifs militaires, ainsi qu’une obligation de proportionnalité, visant à éviter des dommages civils excessifs par rapport à l’avantage militaire attendu. L’usage d’algorithmes identifiant en masse des cibles, combiné à un rythme élevé de frappes, peut rendre plus difficile la vérification minutieuse de chaque objectif et l’évaluation précise des risques collatéraux. Certaines organisations, comme Human Rights Watch, notent que les outils numériques employés peuvent s’appuyer sur des données imparfaites et soulignent que leur utilisation ne garantit pas nécessairement une meilleure protection des civils et pourrait même exposer davantage la population à des risques.

Ce nouveau modèle illustre les tensions entre les avancées technologiques en matière d’intelligence artificielle appliquée au domaine militaire et les exigences éthiques et juridiques. Alors que les forces armées cherchent à améliorer leur efficacité et à limiter leurs pertes, les questions de transparence, de contrôle humain réel et de respect des droits des populations civiles restent au centre des préoccupations. Cette forme de guerre «augmentée» par l’IA conduit à une réflexion renouvelée sur les cadres de responsabilité et de régulation, afin d’assurer que l’automatisation ne se traduise pas par une réduction de la dimension humaine dans les prises de décision létales.

 

Commentaires
  • Aucun commentaire