L’intelligence artificielle nommée « Lavender » : un outil de guerre qui ne distingue pas les civils à Gaza

En Israël, un programme d’intelligence artificielle (IA) nommé "Lavender" est utilisé pour identifier et frapper des cibles à Gaza.

Le rôle de « Lavender » dans les conflits à Gaza #

Ce système, indifférent au nombre élevé de victimes civiles, a été révélé par des médias israéliens. Il a été développé par l’armée israélienne, et est utilisé pour l’identification de cibles potentielles pour l’aviation israélienne, mais avec une marge d’erreur significative.

Il est important de noter que Lavender donne une sorte de « permis » de tuer, avec un nombre de victimes collatérales liées au rang des combattants visés. Ce programme, en d’autres termes, est un outil de guerre qui ne distingue pas les civils dans sa quête pour éliminer les combattants ennemis.

Comment fonctionne Lavender ? #

Lavender catégorise les Palestiniens de Gaza de 1 à 100 en fonction de la probabilité qu’ils appartiennent au Hamas ou au Djihad islamique, à partir de « caractéristiques » rentrées dans le système. Les données qui influencent la notation d’une personne sont variées, allant de l’appartenance à des groupes WhatsApp, le changement fréquent de portable ou d’adresse, les photos enregistrées, les contacts sur le téléphone ou les réseaux sociaux.

À lire Voici les secrets pour maîtriser parfaitement votre nœud de cravate à chaque fois

Ce programme peut désigner comme cibles non seulement des combattants, mais aussi des civils partageant des similarités de comportement électronique avec ces combattants. Selon le seuil paramétré, il peut également définir un nombre plus ou moins élevé de cibles. Lavender est considéré comme fiable à 90 %, ce qui laisse une marge d’erreur de 10 %.

  • Révélations sur Lavender : un programme d’IA de guerre
  • Fonctionnement de Lavender : catégorisation des Palestiniens
  • Impact de Lavender : victimes civiles et erreurs de ciblage

Les conséquences de l’utilisation de Lavender #

Outre Lavender, un autre système d’intelligence artificielle nommé « Where’s Daddy ? » permet de suivre les personnes ciblées et de mener des bombardements sur leur domicile familial, souvent la nuit. Cependant, il n’y aurait pas de vérification en temps réel de la présence de la cible, ce qui entraîne parfois des frappes sur des maisons vides. La méthode de ciblage de ces programmes entraîne un nombre énorme de victimes civiles.

Depuis le début de la guerre, 33 482 Palestiniens ont été tués et 76 049 blessés, avec les femmes et les enfants représentant environ 70 % de ces victimes. Les règles d’engagement ont évolué pour autoriser des pertes civiles importantes lors des assassinats ciblés, permettant de tuer jusqu’à 15 ou 20 civils pour chaque agent du Hamas marqué par Lavender.

La suppression de l’évaluation des dommages collatéraux #

Au début de la guerre à Gaza, l’armée a supprimé sa procédure d’évaluation des dommages collatéraux après les bombardements dans la plupart des cas, sauf pour les cibles de haut rang. En d’autres termes, il n’y a pas de suivi précis du nombre de personnes tuées ou de leur identité après un bombardement, à moins qu’il ne s’agisse d’un haut responsable du Hamas.

À lire Voici ce que les anciens présidents français gagnent après leur mandat : des chiffres qui vont vous surprendre

Malgré les révélations de cette enquête, l’armée israélienne a nié utiliser un « système d’intelligence artificielle pour identifier des opérateurs terroristes ou essayer de prédire quelle personne est un terroriste ». Elle a simplement admis l’existence d’une « base de données ».

Sciences et Démocratie est édité de façon indépendante. Soutenez la rédaction en nous ajoutant dans vos favoris sur Google Actualités :

Partagez votre avis